PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

MiamiNice
2022-09-23, 16:41:55
Heise hat jetzt auch einen Rant veröffentlicht:
https://www.heise.de/meinung/Kommentar-zu-RTX-4000-Grafikkarten-Nvidia-wen-wollt-Ihr-veralbern-7273912.html

Ja, so geht es mir grad auch. :)

Unprofessioneller Artikel, wahrscheinlich auch deswegen als Kommentar getaggt.
Auch wenn vieles natürlich der Wahrheit entsprich, sollte der Verfasser vielleicht ein wenig Abstand gewinnen. Es ist nur Hardware und NV nur ein Unternehmen.
Der letzte Absatz ist dann aber leider extrem abstrus und verpasst damit dem restlichen Text etwas unglaubwürdiges. Schade, hätte man besser machen können.

Troyan
2022-09-23, 16:47:02
Mit alles auf Inflation abzuschieben machst du dir es aber doch allzu einfach. Man kann es drehen und wenden wie man will: Die 4080 12GB/16GB sind bezüglich Perf/$ einfach schwach.


GA102 = 628mm2 Samsung 8nm
AD104 = 295mm2 TSMC N4
AD103 = 379mm2 TSMC N4



3080 10GB = 699$
4080 16GB = 1199$
4080 12GB = 899$

Hinsichtlich Chipgrösse, Speichermenge und Preis sind die beiden 4080er sehr vergleichbar aufgestellt. Ist in allen Metriken in etwa +33%.


3080 war nicht der volle GA102. Du vergisst die Entwicklungskosten für die zukünftigen Chips, die nun mitbepreist werden. Forschungen in Zukunftstechnologie wie DL und Raytracing, die erst in Jahren Früchte tragen werden.

Ich denke jedenfalls, dass Samsung gute Preise hatte, so dass nVidia hier GA102 auch in diesen Bereich bringen konnte. TSMC ist Premium und das hat seine Vor- wie Nachteile.

ChaosTM
2022-09-23, 16:50:58
die erst in Jahren Früchte tragen werden.




Genau darum geht es auch teilweise. Das hören wir seit 5 Jahren und wir haben immer noch nur gerade mal eine handvoll Vorzeigespiele, bei denen ein kleiner teil DEUTLICH besser ausschaut.

Jupiter
2022-09-23, 16:51:32
Für die neue Reihe der Denon Verstärker wurden die Preise auch enorm ehöht. Die 3000er Reihe kostet jetzt 1800 Euro anstelle der 1100 Euro von 2020. Die 4000er Reihe 2600 Euro anstelle der 1600 Euro. Die A-Reihe 6500 Euro. Meine Subwoofer kosten jetzt jeweils auch 2000 Euro anstelle der 1600 Euro in 2020. Die Standlautsprecher jetzt auch jeweils 5000 Euro anstelle von 4500 Euro. Aktuell steigt vieles im Preis. Das was Nvidia macht entspricht eher der Norm. Dankt der EZB usw. Außerdem wollte die Bevölkerung es so.

Spring
2022-09-23, 16:52:44
Hey, Nvidia: Es ist nicht die Schuld der Spieler, dass Ihr Euch bei Euren Produktionsvorhersagen für den endlich beendeten Boom bei Crypto-Mining auf GPUs verschätzt habt. Auch können sie nichts dafür, dass die Wafer bei TSMC jetzt nach Eurem kurzen Ausflug zu Samsung als Produktionspartner wieder teurer geworden sind. Dass ihr mit extremen Preisen und Mogelpackungen wie der RTX 4080 mit 12 GByte auf Eure eigenen Fehlentscheidungen reagiert, wirkt panisch und kein bisschen so souverän, wie man es von einem Technologieführer für Spiele-GPUs erwarten könnte. Obwohl: In Playstation und Xbox steckt seit zwei Generationen eine Grafikeinheit von AMD. Dafür gibt es sicher gute Gründe, die ihr nur vor rund zehn Jahren nicht gesehen habt. (aus dem heise-"rant")

Manchmal schmerzt die Wahrheit. Und das ausgerechnet Troyan und MiamiNice sich über den Artikel echauffieren ist iwie lustig.

Redneck
2022-09-23, 16:53:56
Unprofessioneller Artikel, wahrscheinlich auch deswegen als Kommentar getaggt.
Auch wenn vieles natürlich der Wahrheit entsprich, sollte der Verfasser vielleicht ein wenig Abstand gewinnen. Es ist nur Hardware und NV nur ein Unternehmen.
Der letzte Absatz ist dann aber leider extrem abstrus und verpasst damit dem restlichen Text etwas unglaubwürdiges. Schade, hätte man besser machen können.
Habs jetzt auch einmal gelesen.. Guter Stil geht anders. Hat sich wohl einiges in den Jahren angesammelt und sich jetzt Luft gemacht ( A la Linus).

ChaosTM
2022-09-23, 16:55:57
(aus dem heise-"rant")

Manchmal schmerzt die Wahrheit. Und das ausgerechnet Troyan und MiamiNice sich über den Artikel echauffieren ist iwie lustig.


Einer ist ein Fanboy, was ich akzeptiere, aber der andere wird offensichtlich bezahlt. Anders gibt das ja gar nicht ;)

add.: Heises Stil ist in dem Fall noch viel zu zahm

Sunrise
2022-09-23, 16:58:46
Genau darum geht es auch teilweise. Das hören wir seit 5 Jahren und wir haben immer noch nur gerade mal eine handvoll Vorzeigespiele, bei denen ein kleiner teil DEUTLICH besser ausschaut.
Warum stellt sich NV seit Jahren eigentlich so an und arbeitet z.B. nicht mit Epic zusammen um vielleicht ne angepasste Engine-Demo von Unreal zu präsentieren? Irgendwas außer sich ständig einzelne Games rauszupicken. Gibts da aktuell nicht ne breitere Basis? Könnte Nanite und Lumen davon nicht auch profitieren?

Ernstgemeinte Frage....

Damals zu Carmack-Zeiten wurden doch auch immer Features möglichst breit in die Engines integriert, ist das mittlerweile nichtmehr gewollt?

unl34shed
2022-09-23, 16:59:09
3080 war nicht der volle GA102. Du vergisst die Entwicklungskosten für die zukünftigen Chips, die nun mitbepreist werden. Forschungen in Zukunftstechnologie wie DL und Raytracing, die erst in Jahren Früchte tragen werden.

Ahja, weil man nur ca. 90% des Chips per Software freischaltet (GA102) wird der Herstellungsprozess günstiger, tell me more! :confused:
Vor allem wenn man bei Ada einen anderen Chip nimmt, der mal eben nur 60% oder gar 48% der Chipgröße von AD102 hat. :facepalm:

Und Entwicklungskosten werden jetzt erst eingepreist? Oder warum das "nun"?

Warum soll der Kunde noch mal für Technologien Zahlen, die ihm erst in Jahren vielleicht etwas bringen? Vor allem gibt es die ja schon seit Turing, also wie lange denn noch warten? Außerdem hieß es doch damals "It just works" naja war wohl nix, also doch "pay more, get less" oder wie der Quote ging.

Das schlimme ist, du meinst das auch noch ernst :facepalm:

Redneck
2022-09-23, 17:03:35
Für die neue Reihe der Denon Verstärker wurden die Preise auch enorm ehöht. Die 3000er Reihe kostet jetzt 1800 Euro anstelle der 1100 Euro von 2020. Die 4000er Reihe 2600 Euro anstelle der 1600 Euro. Die A-Reihe 6500 Euro. Meine Subwoofer kosten jetzt jeweils auch 2000 Euro anstelle der 1600 Euro in 2020. Die Standlautsprecher jetzt auch jeweils 5000 Euro anstelle von 4500 Euro. Aktuell steigt vieles im Preis. Das was Nvidia macht entspricht eher der Norm. Dankt der EZB usw. Außerdem wollte die Bevölkerung es so.
Jo, abartig.. Wird man "genötigt" eine Stufe niedriger zu kaufen. Will man das??
Denke das ist es, was Vielen bei der lovelace Preisgestaltung stinkt

Ravenhearth
2022-09-23, 17:06:08
Das ist ein sehr guter Punkt, und damit kann man eigentlich auch die Preisfrage abschließen. Denn da Pascal als fair bepreist galt und wir in den letzten 6 Jahren eine heftige Inflation hatten, ist der Preis der 4080 12GB eigentlich ausreichend gerechtfertigt. Man hätte in der Zeit eher 200% mehr RZ-Leistung erwartet, statt der 150%, nur dafür gibt es eben auch RTX und DLSS satt. Ob es einem passt oder nicht ist ne andere Frage.
Beim Release von Pascal gab es genug Kritik am Preispunkt der GTX 1080. Erst mit dem Release der GTX 1080 Ti ein dreiviertel Jahr später ging der MSRP der 1080 auf $499 runter und war damit fair.

basix
2022-09-23, 17:07:45
Ahja, weil man nur ca. 90% des Chips per Software freischaltet (GA102) wird der Herstellungsprozess günstiger, tell me more! :confused:

Danke, wollte das selbe antworten :D

Zossel
2022-09-23, 17:09:20
Golem schreibt über die mechanischen Befestigungsprobleme von Monster GPUs:

https://www.golem.de/news/pcie-anschluss-lieber-neue-mainboards-statt-gpu-hebebuehnen-und-heckspoiler-2209-168488.html

Früher gab es noch Schienen wo Karten mit voller Baulänge zusätzlichen Halt hatten:

https://i.stack.imgur.com/P18n5.jpg

Ex3cut3r
2022-09-23, 17:16:43
Genau darum geht es auch teilweise. Das hören wir seit 5 Jahren und wir haben immer noch nur gerade mal eine handvoll Vorzeigespiele, bei denen ein kleiner teil DEUTLICH besser ausschaut.

Naja, DL2 sieht schon immens besser aus.

https://abload.de/thumb/dyinglightgame_x64_rwjzfrq.png (https://abload.de/image.php?img=dyinglightgame_x64_rwjzfrq.png) https://abload.de/thumb/dyinglightgame_x64_rw0dfq4.png (https://abload.de/image.php?img=dyinglightgame_x64_rw0dfq4.png)

Troyan
2022-09-23, 17:16:46
Warum stellt sich NV seit Jahren eigentlich so an und arbeitet z.B. nicht mit Epic zusammen um vielleicht ne angepasste Engine-Demo von Unreal zu präsentieren? Irgendwas außer sich ständig einzelne Games rauszupicken. Gibts da aktuell nicht ne breitere Basis? Könnte Nanite und Lumen davon nicht auch profitieren?

Ernstgemeinte Frage....

Damals zu Carmack-Zeiten wurden doch auch immer Features möglichst breit in die Engines integriert, ist das mittlerweile nichtmehr gewollt?

Hardware-Raytracing ist doch eingebaut in UE4 und UE5. Gibt haufenweise Indie-Entwickler, die den Schalter einfach umstellen. Das selbe gilt auch für DLSS als Plugin.

Thomas Gräf
2022-09-23, 17:18:50
Warum stellt sich NV seit Jahren eigentlich so an und arbeitet z.B. nicht mit Epic zusammen um vielleicht ne angepasste Engine-Demo von Unreal zu präsentieren? Irgendwas außer sich ständig einzelne Games rauszupicken. Gibts da aktuell nicht ne breitere Basis? Könnte Nanite und Lumen davon nicht auch profitieren?

Ernstgemeinte Frage....

Damals zu Carmack-Zeiten wurden doch auch immer Features möglichst breit in die Engines integriert, ist das mittlerweile nichtmehr gewollt?

Das verstehe ich auch nicht. NV macht immer ihre proprietären Dinge auch im Spielesektor. Aber mal richtig ne Engine mit jemanden aufbauen wo sie mit ihren Chips in dutzenden Games glänzen könnten...nein.
Dabei zeigt doch gerad die Situation um den MS Flugsim wie falsch man agieren kann als Branchenführer.(Microsoft)
Es muss also gewollt sein. Sollen die Spiele Buden doch sehen was sie mit unseren schicken GPUs machen.
Sorry, aber ich kann mir beim besten willen nicht vorstellen das NV ein Interesse am Gaming hat, das stellen die nur so da und wir sollen es glauben.
Wenn die wollten, dann würde das anders aussehen. Die Kohle dazu haben die im Keller.

Redneck
2022-09-23, 17:19:07
Golem schreibt über die mechanischen Befestigungsprobleme von Monster GPUs:

https://www.golem.de/news/pcie-anschluss-lieber-neue-mainboards-statt-gpu-hebebuehnen-und-heckspoiler-2209-168488.html

Früher gab es noch Schienen wo Karten mit voller Baulänge zusätzlichen Halt hatten:

https://i.stack.imgur.com/P18n5.jpg
Zu geil.."Anti-Absack-Klammer", die gleich die Schwerkraft überwinden soll".
Mensch,das kann man doch gleich schön verpacken und an die Damen gesetzteren Alters verkaufen :-)

Dural
2022-09-23, 17:19:08
https://www.gamestar.de/artikel/nvidia-rtx-hohe-preise-zukunft,3384848.html

Also erstens ist ein 12-Zoll-Wafer heute viel teurer als früher. Und er kostet nicht nur ein bisschen mehr, sondern viel mehr. Das Mooresche Gesetz ist tot.

Zudem war Nvidia aufgrund der allgemeinen Chipknappheit gezwungen, viel Geld in die Hand zu nehmen, um sich frühzeitig Produktionskapazität bei Auftragsfertiger TSMC zu sichern.

Die Zukunft liegt in der Beschleunigung des Gesamtpakets (Stack). Man muss neue Architekturen entwickeln und mit möglichst innovativen Chipdesigns aufwarten.

Huang unterstreicht am Ende noch einmal in aller Deutlichkeit, dass die Preise von heute mit jenen von früher einfach nicht vergleichbar seien. Fortschritte in der Computergrafik plus immer mehr Leistung und das alles zu gleichen oder in Relation gar niedrigeren Anschaffungskosten sei schlicht nicht machbar.

basix
2022-09-23, 17:20:04
Jo, abartig.. Wird man "genötigt" eine Stufe niedriger zu kaufen. Will man das??
Denke das ist es, was Vielen bei der lovelace Preisgestaltung stinkt

Es ist eher auch, dass Perf/$ auf Basis des MSRP in der Tendenz sogar sinkt (Basis = 3080 10GB). In RT mag es noch leicht positiv ausschauen, aber bei vielen Spielen ist Perf/$ leicht geringer als bei Ampere. Und das nach den 2 COVID-Jahren, wo Desktop-GPU Käufer sehnsüchtig auf bezahlbare GPUs gewartet haben.

https://www.gamestar.de/artikel/nvidia-rtx-hohe-preise-zukunft,3384848.html
Und was willst du uns damit sagen? Das wir unausweichlich vor dem Untergang der Desktop GPU stehen oder allgemein in Zukunft schlicht verarmen, weil alles teurer wird?

Bei den ersten zwei Punkten ist Nvidia zudem ein wenig selbst Schuld: Partnerschaft mit TSMC strapaziert (Wafer sind teurer und das Einkaufen in Wafer-Kapazität) sowie sehr viel Zeugs in der GPU, womit der Gamer nicht viel damit anfangen kann (entweder nur selten aktiv oder eher für Profi-Anwendungen).

Bei der Beschleunigung des Gesamtstacks gebe ich allerdings vollkommen recht. Das sollte im Endeffekt aber eher zu einer Kostenreduktion anstatt Kostenerhöhung führen. DLSS ist ja ein wunderbares Beispiel dafür: +10% SM-Fläche für potentiell +100% Performance.

Dass GPUs in der Tendenz teurer werden ist OK. Nur das Ausmass und die Geschwindigkeit sind nicht OK. Da kann der Huang noch lange weibeln und versuchen, das auf externe Faktoren abzuschieben.

Zossel
2022-09-23, 17:22:47
Zu geil.."Anti-Absack-Klammer", die gleich die Schwerkraft überwinden soll".
Mensch,das kann man doch gleich schön verpacken und an die Damen gesetzteren Alters verkaufen :-)

Mit blauen Pillen kann man jedenfalls keine GPU befestigen.

Redneck
2022-09-23, 17:25:19
Es ist eher auch, dass Perf/$ auf Basis des MSRP in der Tendenz sogar sinkt (Basis = 3080 10GB). In RT mag es noch leicht positiv ausschauen, aber bei vielen Spielen ist Perf/$ leicht geringer als bei Ampere. Und das nach den 2 COVID-Jahren, wo Desktop-GPU Käufer sehnsüchtig auf bezahlbare GPUs gewartet haben.
Ja mei.. Das wissen die BWLer bei NV auch weswegen man mit Zusatzfunktionen überschüttet wird, damit man den Mehrwert nicht nur nach Performance mißt, sondern was man sonst so alles Tolles mit machen kann.

Ravenhearth
2022-09-23, 17:30:41
https://www.gamestar.de/artikel/nvidia-rtx-hohe-preise-zukunft,3384848.html
Natürlich steigen die Kosten, aber dann sollen sie bspw. die 4080 12GB halt für $699 verkaufen, $899 sind einfach unverhältnismäßig. Spätestens wenn die Ampere-Lagerbestände größtenteils abverkauft sind und AMD Druck macht, werden die Preise sowieso reduziert. Wenn das dann plötzlich geht, ist ohnehin klar, dass diese absurden Preise alles andere als notwendig waren.

why_me
2022-09-23, 17:30:59
Bei den ersten zwei Punkten ist Nvidia zudem ein wenig selbst Schuld: Partnerschaft mit TSMC strapaziert (Wafer sind teurer und das Einkaufen in Wafer-Kapazität) sowie sehr viel Zeugs in der GPU, die der Gamer nicht viel damit anfangen kann (entweder nur selten aktiv oder eher für Profi-Anwendungen).

Hatte sich Nvidia nicht auch noch verzettelt und zuviel Kapazität bestellt. Und mussten dann ihre gebuchten Kapazitäten reduzieren?
Auch wieder ein selbstgemachtes Problem, dass der Kunde aber bezahlen soll.

Auch der Punkt mit dem inovativen Chipdesign? Ampere 2.0 ist das zumindest nicht. Ist nur more of the same, inovativ ist daran eigentlich nichts.

basix
2022-09-23, 17:31:25
Ja mei.. Das wissen die BWLer bei NV auch weswegen man mit Zusatzfunktionen überschüttet wird, damit man den Mehrwert nicht nur nach Performance mißt, sondern was man sonst so alles Tolles mit machen kann.

Scheint so, in der Tat. "Performance Gain in Future Games" zum Beispiel ;D

Auch der Punkt mit dem inovativen Chipdesign? Ampere 2.0 ist das zumindest nicht. Ist nur more of the same, inovativ ist daran eigentlich nichts.

So hart wäre ich jetzt nicht. Der grosse L2 Cache kommt dazu und an den RT-Cores gab es schon ein paar interessante Updates.

Redneck
2022-09-23, 17:35:06
Feigling :D

Nee.. Restanstand 🤣

Troyan
2022-09-23, 17:35:25
Auch der Punkt mit dem inovativen Chipdesign? Ampere 2.0 ist das zumindest nicht. Ist nur more of the same, inovativ ist daran eigentlich nichts.

Sitmmt. Überhaupt nicht Innovativ. Nur doppelte Leistung, easy peasy.

why_me
2022-09-23, 17:37:43
So hart wäre ich jetzt nicht. Der grosse L2 Cache kommt dazu und an den RT-Cores gab es schon ein paar interessante Updates.

Größerer L2 kann keine inovation sein, sonst hätte man den ja Beworben. ;) Aber dann müsste man auch eingestehen, dass AMDs Ansatz bei RNDA2 gut war.

Und ja, bei den RT Kernen hat sich was getan, gut. Paar kleinigkeiten kann man nach 2 Jahren aber auch erwarten.

@Troyan: Welche, Wo?

Redneck
2022-09-23, 17:39:50
Scheint so, in der Tat. "Performance Gain in Future Games" zum Beispiel ;D



Wenn die Prognosen so eintreffen, wäre es ja auch teils ok (imo).

Was mich auch dem einen spreadsheet gewundert hat, war der increase im Flight Simulator (der ja eigentlich so gar nicht da sein dürfte aufgrund der CPU Abhängigkeit.. Ist wohl alles auf DLSS 3 zurück zu führen, oder? Finde ich schon geil (wenns optisch sauber funktioniert)

basix
2022-09-23, 17:40:42
Im Gesamtkontext tun mir eigentlich vor allem die Ingenieure bei Nvidia leid. Lovelace an sich ist ein schickes Stück Technik (zum aktuellen Zeitpunkt das beste und fortschrittlichste, was die GPU-Welt zu bieten hat). Aber dessen Vermarktung und Bepreisung ist bis jetzt nicht wirklich gut gelungen

Wenn die Prognosen so eintreffen, wäre es ja auch teils ok (imo).
Ist so. Nur wieso sollte ich Stand heute auf diese Aussage vertrauen? Da muss ich ja fast blind viel Geld ausgeben. Kein kluges Vorgehen.


Was mich auch dem einen spreadsheet gewundert hat, war der increase im Flight Simulator (der ja eigentlich so gar nicht da sein dürfte aufgrund der CPU Abhängigkeit.. Ist wohl alles auf DLSS 3 zurück zu führen, oder? Finde ich schon geil (wenns optisch sauber funktioniert)
Ja, hängt im CPU Limit. Da DLSS3 die Frames interpoliert, entsprechend die doppelten FPS. Das sind aber nur die am Schirm angezeigten FPS. Input-Lag verbessert sich hier eben nicht, da nicht mehr FPS gerendert werden. Wird man schauen müssen, ob das gefühlte Erlebnis sich stark verbessert. Bei Flight-Sim sehe ich die Input-Latenz als nicht so kritisch an, da eher gemächliches Gameplay.

ChaosTM
2022-09-23, 17:43:15
Wir haben bisher nichts genaueres über Linda.
Wo die Dame schlussendlich landet wissen wir in ein paar Wochen..

Troyan
2022-09-23, 17:44:05
@Troyan: Welche, Wo?

In Spielen. :eek:
Rechte Seite, 1/3 der Frames abziehen:
https://pics.computerbase.de/1/0/5/0/9/0-b607f7e3ed70fbb6/22-1080.15f99aba.png
https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/#bilder

basix
2022-09-23, 17:44:24
Linda.
Mit blauen Pillen kann man jedenfalls keine GPU befestigen.

Linda? Blaue Pillen? GPU-Support-Stick? Wo bin ich hier gelandet?! ;D

aufkrawall
2022-09-23, 17:45:45
Naja, DL2 sieht schon immens besser aus.

Scheint den non-believers egal zu sein, Meinung ist fossilisiert. Na ja, irgendwann wird der Druck der Realität groß genug sein. Zumindest bei denen, die nicht völlig lost sind. ;)

BlacKi
2022-09-23, 17:47:19
Natürlich steigen die Kosten, aber dann sollen sie bspw. die 4080 12GB halt für $699 verkaufen, $899 sind einfach unverhältnismäßig.


warum? ist es so, das die karte nicht verhältnismäßig performt?


mhh, die 12gb 4080 hat den 0,56x fachen preis der 4090 und performt 0,59x fach zur 4090, den alten spielen zu urteilen nach. den neueren titeln nach ist die performance gegenüber der 4090 nur besser.


worüber sich die leute also aufregen ist die tatsache, das die 4080 nichtmehr so preislich attraktiv war wie früher.



kurz gesagt, weil sie so verhältnismäßig preislich aufgestellt ist regen sich die leute über den preis auf.


allerdings wird der noch fallen. weit unter die uvp und zwar recht schnell, weil die karten wohl nichtmehr wie früher aus den händen gerissen werden.

ChaosTM
2022-09-23, 17:48:59
warum? ist es so, das die karte nicht verhältnismäßig performt?


mhh, die 12gb 4080 hat den 0,56x fachen preis der 4090 und performt 0,59x fach zur 4090, den alten spielen zu urteilen nach. den neueren titeln nach ist die performance gegenüber der 4090 nur besser.


worüber sich die leute also aufregen ist die tatsache, das die 4080 nichtmehr so preislich attraktiv war wie früher.



kurz gesagt, weil sie so verhältnismäßig preislich aufgestellt ist regen sich die leute über den preis auf.


allerdings wird der noch fallen. weit unter die uvp und zwar recht schnell, weil die karten wohl nichtmehr wie früher aus den händen gerissen werden.


Wären alle Grakas immer um den Performance Koeffizienten preislich gestiegen, würden die Dinger sjetzt Trillionen kosten ;)

(Linda) Lovelace - the best Lovelace ever ;)

why_me
2022-09-23, 17:50:06
Rechte Seite, 1/3 der Frames abziehen:

Woher kommen die 1/3? Warum nicht 1/2 oder 3/4?

Platos
2022-09-23, 17:50:54
Wären alle Grakas immer um den Performance Koeffizienten preislich gestiegen, würden die Dinger sjetzt Trillionen kosten ;)

(Linda) Lovelace - the best Lovelace ever ;)

Genau!

Und abgesehen davon kosten Top-Dogs immer absurd viel. Von dieser Karte runterzuskalieren ist mehr als lächerlich.

Edit:

Korrekt. Top Dog Marge auf Mittelklasse Karte ;)

Da warst du jetzt aber schneller im Antworten, wie ich beim Editieren :D

Aber Kernaussage ist ja gleich ^^

basix
2022-09-23, 17:51:55
Top-Dogs sind immer überteuert. Man kann also nicht einfach vom Top-Dogrunterskalieren, um einen vernünftigen Preis zu kreieren.

Nein, man vergleicht nicht auf einmal eine 80-er mit einer 90-er/Titan, nur weil der Preis so hoch ist.

Korrekt. Top Dog Marge auf Mittelklasse Karte ;)

FastAndy
2022-09-23, 17:52:40
Natürlich steigen die Kosten, aber dann sollen sie bspw. die 4080 12GB halt für $699 verkaufen, $899 sind einfach unverhältnismäßig.

$699 sind unverhältnismäßig, sie sollen gefälligst ohne gewinn verkaufen, sonst hab ich NV nicht mehr lieb und so
Ist ja wie bei wünsch dir was hier

BlacKi
2022-09-23, 17:53:36
Wären alle Grakas immer um den Performance Koeffizienten preislich gestiegen, würden die Dinger sjetzt Trillionen kosten ;)

(Linda) Lovelace - the best Lovelace ever ;)dir ist bewusst, dass das nicht meine aussage war. deswegen stelle ich dir die frage:
WTF?

Hatstick
2022-09-23, 17:54:23
Mit DLSS hatte ich bisher kaum Berührungspunkte, ist das nicht quasi ein kostengünstiges Downscaling? (oder quasi andersrum, Upscaling)?
Weiß nicht mehr welches Spiel ich mal mit DLSS ausprobiert habe aber es sah recht unscharf und verwaschen aus. KA, ob meine 2070 das Problem war aber die 4000er Reihe sieht finde ich, eher nach einer Feature Karte aus, was durchaus nett ist aber auch nicht überlebenswichtig.

robbitop
2022-09-23, 17:55:50
Wenn das Erreichbare wäre, ein Traum
Wenn 3,45 GHz mit einfachen Mitteln erreichbar wären, wäre der Boostclock nicht fast 1 GHz geringer. Man schaue in die Vergangenheit was die Differenz aus Boostclock und maximalem OC mit herkömmlichen Mitteln (guter Kühler, normal per SW OC) war und setzt das in's relative Verhältnis.
Die 3090 hatte eine Boostclock von knapp 1,7 GHz und man kam mit sehr guter Kühlung (also maximal Wakü) auf grob 2 GHz. Das sind ~18%. Also kann man von ~3 GHz erreichbarer Taktrate ausgehen. Allerdings muss man dann wahrscheinlich auch mit deutlich gesteigerter Leistungsaufnahme ausgehen. 450 W sind für die 2500 MHz gesetzt. Würde mich nicht wundern, wenn die Karte dann ~600W ziehen würde.

basix
2022-09-23, 18:00:55
@Troyan: Welche, Wo?
Mit Troyans Folie kann man nichts anfangen (er hat wohl übersehen, dass es um Ampere vs. Lovelace ging).

Es gibt Fälle, wo eine 4090 >2x schneller als eine 3090 Ti ist (nach Abzug des DLSS3 Frame Doublings): Die Nvidia Techdemos (Racer RTX & Cyberpunk RT Overdrive) aka "Next Generation" Games
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

fondness
2022-09-23, 18:06:31
Wenn 3,45 GHz mit einfachen Mitteln erreichbar wären, wäre der Boostclock nicht fast 1 GHz geringer. Man schaue in die Vergangenheit was die Differenz aus Boostclock und maximalem OC mit herkömmlichen Mitteln (guter Kühler, normal per SW OC) war und setzt das in's relative Verhältnis.
Die 3090 hatte eine Boostclock von knapp 1,7 GHz und man kam mit sehr guter Kühlung (also maximal Wakü) auf grob 2 GHz. Das sind ~18%. Also kann man von ~3 GHz erreichbarer Taktrate ausgehen. Allerdings muss man dann wahrscheinlich auch mit deutlich gesteigerter Leistungsaufnahme ausgehen. 450 W sind für die 2500 MHz gesetzt. Würde mich nicht wundern, wenn die Karte dann ~600W ziehen würde.

Die spannende Frage ist ja eigentlich nur noch wo die Performance ist, wenn die Taktraten wirklich erreicht werden. My best guess ist noch immer, dass die real anliegenden Taktraten @default sehr viel niedriger sind als angenommen. Ansonsten müsste man bei einem Apple vs. Apple Vergleich mit der 3090 weiter vorne liegen, da die Rohleistung deutlich stärker ansteigt.

Oder es wurde an was gespart, von dem man heute noch nichts weiß

Mit Troyans Folie kann man nichts anfangen (er hat wohl übersehen, dass es um Ampere vs. Lovelace ging).

Es gibt Fälle, wo eine 4090 >2x schneller als eine 3090 Ti ist (nach Abzug des DLSS3 Frame Doublings): Die Nvidia Techdemos (Racer RTX & Cyberpunk RT Overdrive) aka "Next Generation" Games
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Warum braucht es dazu NV spezial Demos, warum schlägt das nicht in aktuellen Spielen durch?

Tyrann
2022-09-23, 18:08:57
kommt bitte zurück zum Thema "Ampere-Nachfolger"
Hier geht es weder um schlechte Witze noch darum die Meinungen anderer Publikation schlecht zu machen.

Also: bleibt sachlich und beim Thema sonst gibts Punkte!

Ravenhearth
2022-09-23, 18:16:50
$699 sind unverhältnismäßig, sie sollen gefälligst ohne gewinn verkaufen, sonst hab ich NV nicht mehr lieb und so
Ist ja wie bei wünsch dir was hier
Darf man die Preise jetzt nicht mehr kritisieren oder was? Die $899 sind auch unverhältnismäßig im Vergleich mit den Produktionskosten; die 4090 hat einen mehr als doppelt so großen Chip wie die 4080 12GB (wenn auch teildeaktiviert) und doppelt so viel Speicher, kostet in der Herstellung bestimmt mindestens das Doppelte. Die kleine 4080 dürfte also maximal die Hälfte kosten, tut sie aber nicht.

ChaosTM
2022-09-23, 18:22:13
NV will/muss seinen Kurs "halten", und das geht nur mit Apple ähnlichen Gewinnraten*.

So schwer ist das auch nicht..


*Krypto is over

Tomahawk
2022-09-23, 18:22:28
Bei der nVidia-Präsentation wurde ein Überblick (ca. Minute 19:13) zu den Preisen gegeben (Ampere: RTX 3060 ab 329 USD, Ada: 4080 12 GB ab 899 USD).

Gibt es einen gute Erklärung, wieso die RTX 3050 nicht genannt wurde?

BlacKi
2022-09-23, 18:23:46
Warum braucht es dazu NV spezial Demos, warum schlägt das nicht in aktuellen Spielen durch?


es gab schon anmerkungen zu fiji, die ähnliche probleme hatte, ihre recheneinheiten auszulasten. die 2x waren ursprünglich an die 3090 vs 4090 angelehnt. das kommt in division 2 fast genau hin.

FastAndy
2022-09-23, 18:59:39
Darf man die Preise jetzt nicht mehr kritisieren oder was? Die $899 sind auch unverhältnismäßig im Vergleich mit den Produktionskosten; die 4090 hat einen mehr als doppelt so großen Chip wie die 4080 12GB (wenn auch teildeaktiviert) und doppelt so viel Speicher, kostet in der Herstellung bestimmt mindestens das Doppelte. Die kleine 4080 dürfte also maximal die Hälfte kosten, tut sie aber nicht.
Nv hat dutzende leute die das sicher ganz genau wissen, ganz sicher besser als jede privatperson, die höchstwahrscheinlich nicht mal vom fach ist.
Nv muss sich hier nicht für preise rechtfertigen, genau wie viele andere nicht. So weit kommts noch. Über preise jammern ist so sinnvoll wie übers wetter

Konami
2022-09-23, 19:30:51
Richtig weird, wie hier die Leute in die Breschen springen, um die Finanzierung von Jensens 20. Lamborghini schönzureden. Natürlich weiß Nvidias Board of Directors (das auch nicht unbedingt "vom Fach" ist) besser als Außenseiter, welche Maßnahmen nötig sind, um weiterhin Gewinnmargen von 60% und mehr sicherzustellen. Das heißt nicht, dass man als Konsument keine Meinung darüber haben darf. :freak:

Und klar, "jammern" bringt nicht viel, den Kauf zu verweigern dagegen schon. ;)

Ex3cut3r
2022-09-23, 19:31:31
Einfach nicht kaufen. AMD hat auch tolle Karten parat (Hoffentlich) FSR 2.1 ist ebenbürtig zu DLSS 2.+ DLSS 3 ist halt noch sehr fragwürdig. Grundlegened, nice ein Bild von 60 FPS auf 120 FPS hochzupushen z.B. allerdings bleibt das Spielgefühl (Mauslag) immer noch bei 60 FPS stecken, könnte ziemlicher Mindfuck sein, dass was die Augen zwar auf dem Monitor sehen (smooth) sich so nicht anfühlt. Wie richtige/native 120FPS/HZ. Wenn man böse ist, sagt man ein gemeiner Cheat. ^^

Redneck
2022-09-23, 19:33:17
Nv hat dutzende leute die das sicher ganz genau wissen, ganz sicher besser als jede privatperson, die höchstwahrscheinlich nicht mal vom fach ist.
Nv muss sich hier nicht für preise rechtfertigen, genau wie viele andere nicht. So weit kommts noch. Über preise jammern ist so sinnvoll wie übers wetter
Dann haben die ja nen top Job gemacht..
Wie sich das Netz jetzt schon auf die Karten freut und gerne das Ersparte für NV opfert...ich sehe schon die Schlangen vor meinen Augen, wie sie bei strömenden Regen in der Kälte ausharren um das goldene Kalb zu empfangen.
Leg Dich mal zu Dual oder wie der heißt, denn der ist auch der Meinung das NV nur was für die Auserwählten ist, die mit nem goldenen Löffel im Mund gross geworden sind..für das Proletariat gibt's nur AMD.

Einen Tip noch für dich : NV baut die Dinger nicht aus Spaß sondern muss die auch unters Volk bringen. Dabei hilft es die aktuelle Situation realistisch Einzuschätzen und nicht auszublenden, das die Welt nicht mehr die von 2021 ist.

PS : Wir sind NV auch nichts schuldig.. Wo sind wir hier denn

BlacKi
2022-09-23, 19:36:54
Einfach nicht kaufen. AMD hat auch tolle Karten parat (Hoffentlich) FSR 2.1 ist ebenbürtig zu DLSS 2.+ DLSS 3 ist halt noch sehr fragwürdig. Grundlegened, nice ein Bild von 60 FPS auf 120 FPS hochzupushen z.B. allerdings bleibt das Spielgefühl (Mauslag) immer noch bei 60 FPS stecken, könnte ziemlicher Mindfuck sein, dass was die Augen zwar auf dem Monitor sehen (smooth) sich so nicht anfühlt. Wie richtige/native 120FPS/HZ. Wenn man böse ist, sagt man ein gemeiner Cheat. ^^stimmt halt nur nicht. und das nennst du aufwachen?:rolleyes:

Spring
2022-09-23, 19:38:34
Nv hat dutzende leute die das sicher ganz genau wissen, ganz sicher besser als jede privatperson, die höchstwahrscheinlich nicht mal vom fach ist.
Nv muss sich hier nicht für preise rechtfertigen, genau wie viele andere nicht. So weit kommts noch. Über preise jammern ist so sinnvoll wie übers wetter

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-Preis-Grafikkarten-1368351/

17,52% sind laut PCGH (Stand 03/21) bereit mehr als 1000€ auszugeben.
Auf einer Hardware-Gaming Website.

Die Preise treiben die Leute höchstens zu Konsolen, es wird vermehrt gebraucht gekauft oder alte HW wird schlicht weiter laufen.

Ich hoffe AMD ist nicht so greedy.

Langlay
2022-09-23, 19:42:39
Einfach nicht kaufen. AMD hat auch tolle Karten parat (Hoffentlich) FSR 2.1 ist ebenbürtig zu DLSS 2.+ DLSS 3 ist halt noch sehr fragwürdig. Grundlegened, nice ein Bild von 60 FPS auf 120 FPS hochzupushen, allerdings bleibt das Spielgefühl (Mauslag) immer noch bei 60 FPS stecken, könnte ziemlicher Mindfuck sein, dass was die Augen zwar auf dem Monitor sehen (smooth) sich so nicht anfühlt. Wie richtige/native 120FPS/HZ.

Naja Interpolation ist ja jetzt nicht neu. Ich seh da schon Chancen für AMD mit schlankerem Ansatz ein Verfahren zu liefern das fast so gut wie DLSS 3.0 funzt.

Von den Nebeneffekten der Interpolation mal ganz abgesehen.

Allerdings seh ich den Sinn von Interpolation eigentlich auch nur in Situationen mit <30 FPS weil dann wenigstens das Bild smooth ist. Gegen die Trägheit der Steuerung hilfts halt nicht und das ist ja eigentlich der Hauptgrund für >60 FPS.

Ex3cut3r
2022-09-23, 19:45:32
stimmt halt nur nicht. und das nennst du aufwachen?:rolleyes:

Was genau stimmt nicht??

Naja Interpolation ist ja jetzt nicht neu. Ich seh da schon Chancen für AMD mit schlankerem Ansatz ein Verfahren zu liefern das fast so gut wie DLSS 3.0 funzt.

Von den Nebeneffekten der Interpolation mal ganz abgesehen.

Natürlich, da wird auch sicherlich was kommen, aber ich bin kein Fan davon. Die Artefakte sind mir zu störend, und der Mauslag zu hoch, es passt vom Gefühl einfach nicht visuell mit dem was man dann auf dem Monitor sieht.

High HZ Gaming mit einem Hold Type Display hat selbst mit 240HZ noch schlieren. Aber es fühlt sich einfach nur astrein an. DLSS 3 sagt mir zwar es läuft super, aber das geschmeidige Feedback in den Händen/Maus bleibt aus.

ChaosTM
2022-09-23, 19:47:09
Gibts für DLSS3.0 schon eine nachvollziehbare Anwendung?

Redneck
2022-09-23, 19:54:10
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-Preis-Grafikkarten-1368351/

17,52% sind laut PCGH (Stand 03/21) bereit mehr als 1000€ auszugeben.
Auf einer Hardware-Gaming Website.

Die Preise treiben die Leute höchstens zu Konsolen, es wird vermehrt gebraucht gekauft oder alte HW wird schlicht weiter laufen.

Ich hoffe AMD ist nicht so greedy.

Ich denke es hat nichts mit Gier zu tun sondern das es in einem amerikanischen Business Plan ganz schlecht kommt, Stagnation oder geringeren Umsatz und Profit an dir Eigner zu vermitteln (eigene Erfahrung).

17.52% sind schon sportlich.. Ich hätte dazu noch gefragt, ob die besagten 17.52% auch das Geld dafür hätten 😉.

Ich finde, wie viele hier, den Preis der 4090 am Normalsten. Ist bei der 4080 ja nicht so, weil die Preise von der Vorgänger Gen viel weiter abweicht (aus welchen Gründen auch immer).
Hinzu kommt der ungleiche technische Unterbau ohne weitere Kennzeichnung/Klarstellung. Das hat schon ein Geschmäckle.

dargo
2022-09-23, 19:57:52
Darf man die Preise jetzt nicht mehr kritisieren oder was? Die $899 sind auch unverhältnismäßig im Vergleich mit den Produktionskosten; die 4090 hat einen mehr als doppelt so großen Chip wie die 4080 12GB (wenn auch teildeaktiviert) und doppelt so viel Speicher, kostet in der Herstellung bestimmt mindestens das Doppelte. Die kleine 4080 dürfte also maximal die Hälfte kosten, tut sie aber nicht.
Es zeichnet sich immer mehr ab, dass die 80-er GPUs mit Absicht preislich so hoch angesetzt wurden damit die auf Halde liegenden GA102 NV noch irgendwie loswird. Ich bin schon gespannt wie AMD darauf reagiert. Eigentlich eine gute Gelegenheit entweder die Marktanteile zu vergrößern bei deutlich attraktiveren Preisen oder die Marge zu steigern.

ChaosTM
2022-09-23, 19:58:22
Ich hab vor einem Jahr 2,5k für eine Laptop ausgegeben und das war dumm genug.

Es gibt sie, aber ich würde niemals 1,5k für eine 400+Watt Graka ausgeben.
1k.. ok ;)

M4xw0lf
2022-09-23, 19:58:46
Gibts für DLSS3.0 schon eine nachvollziehbare Anwendung?
Benchmarks ;D

Schätze das wird so eine Geschichte wie Zwischenbildberechnung am Fernseher, entweder man liebt es oder hasst es. Ohne persönliches hands-on wird man das kaum bewerten können.

Ex3cut3r
2022-09-23, 20:00:56
Schätze das wird so eine Geschichte wie Zwischenbildberechnung am Fernseher, entweder man liebt es oder hasst es. Ohne persönliches hands-on wird man das kaum bewerten können.
Ja, aber bei einem Film muss ich nur zuschauen. Bei einem Spiel am PC muss ich auch die Figur steuern. 30 FPS auf 60 FPS beschleunigt, aber nur 30 FPS vom Gefühl her. Das sollte man meiner Meinung nach nur für Cutscenes aktiveren. ^^

FastAndy
2022-09-23, 20:01:14
Sie können diese 18% (umfragen sagen btw. Icht viel aus) erst einmal abgreifen, denen das geld zweitrangig ist und danach den rest bedienen. Win win.
Ich kanns kaum erwarten zu bestellen und freue mich (ja, kaum vorstellbar für manche hier).

um die Finanzierung von Jensens 20. Lamborghini schönzureden.

Und genau diesen Neid kann ich nicht nachvollziehen. Wenn man mal ehrlich ist hat er einfach nur sehr viel richtig gemacht. Aber wir sind ja in DE, wo man seinem nachbarn nicht mal die butter auf dem brot gönnt.
Wenn mir die karten zu teuer sind, kaufe ich einfach nicht, kann das unternehmerisch aber nur bewundern.

ChaosTM
2022-09-23, 20:01:51
Benchmarks ;D

Schätze das wird so eine Geschichte wie Zwischenbildberechnung am Fernseher, entweder man liebt es oder hasst es. Ohne persönliches hands-on wird man das kaum bewerten können.


Nachvollziehbare benchmarks?

Ich meine von unabhängigen testern..

Konami
2022-09-23, 20:24:02
Und genau diesen Neid kann ich nicht nachvollziehen. Wenn man mal ehrlich ist hat er einfach nur sehr viel richtig gemacht. Aber wir sind ja in DE, wo man seinem nachbarn nicht mal die butter auf dem brot gönnt.
Wenn mir die karten zu teuer sind, kaufe ich einfach nicht, kann das unternehmerisch aber nur bewundern.
Klar, alles Neid. Es gibt viele Firmen, denen ich das Geld gönne, das ich ihnen gebe. Voraussetzung dafür ist halt, dass ich als Kunde auch das Gefühl habe, einen guten Deal zu bekommen – also eine echte Win-Win-Situation.
Das war auch bei GPUs lange Zeit der Fall, bis zum Miningboom und den dadurch explodierenden Preisen, die einfach das bisher bekannten Preis-Leistungs-Verhältnis komplett gesprengt haben. Viele inkl. meine Wenigkeit hatten die Hoffnung, dass irgendwann nach Ende des Booms wieder Normalität einkehrt, die GPU-Preise ca. aufs vorherige Niveau sinken, und man sich endlich wieder drauf freuen kann, eine neue Grafikkarte zu kaufen.
Jetzt hat Nvidia in letzter Zeit leider das Gegenteil gemacht – Preise scheinbar künstlich hoch gehalten, um auch beim Abverkauf der Altgeneration keinen Dollar liegen zu lassen. Und mit der Vorstellung der Ada-Generation sind sie einen weiteren Schritt in die falsche Richtung gegangen. Fakt ist einfach: so teure Grafikkarten im "Highend"-Segment (also nicht das Enthusiast-Segment, sondern eins drunter) gab es noch nie; Dies im Bereich von 300-400 mm² für 900-1200$ MSRP ist einfach krank.

Und die dafür gebotene reale Leistungssteigerung hält sich sehr in Grenzen, wenn man vom one-trick pony namens DLSS3 absieht.

Natürlich darfst du das anders sehen, niemand hält dich davon ab dein Geld auszugeben wie du willst.

stimmt halt nur nicht. und das nennst du aufwachen?:rolleyes:
Was stimmt daran nicht? Wie schon mehrfach hier ausgeführt, erklärt Bryan Catanzaro von Nvidia (https://twitter.com/ctnzr/status/1572328438354292736) DLSS3 so, dass es zusammen mit Reflex die Gesamtlatenz nicht erhöht ("about the same system latency" – im Vergleich zum Default-Modus ohne Reflex, ohne DLSS3). Als Applied Deep Learning Research VP sollte er wissen, wovon er redet. Und von Troyan und dir kommt irgendwie kontinuierlich nur "nein, stimmt nicht", aber keine soliden Gegenargumente, geschweige denn Quellen mit Substanz.

Troyan
2022-09-23, 20:30:27
Was stimmt daran nicht? Wie schon mehrfach hier ausgeführt, erklärt Bryan Catanzaro von Nvidia (https://twitter.com/ctnzr/status/1572328438354292736) DLSS3 so, dass es zusammen mit Reflex die Gesamtlatenz nicht erhöht ("about the same system latency" – im Vergleich zum Default-Modus ohne Reflex, ohne DLSS3). Als Applied Deep Learning Research VP sollte er wissen, wovon er redet. Und von Troyan und dir kommt irgendwie kontinuierlich nur "nein, stimmt nicht", aber keine soliden Gegenargumente, geschweige denn Quellen mit Substanz.

"Solide Gegenargumente"? Du meinst solche, die z.B. per Video existieren, wie dieses hier: https://www.youtube.com/watch?v=eGHjP9zq53w

Konami
2022-09-23, 20:33:41
"Solide Gegenargumente"? Du meinst solche, die z.B. per Video existieren, wie dieses hier: https://www.youtube.com/watch?v=eGHjP9zq53w
Inwiefern ist das ein Gegenargument? Beim Switch von DLSS2 zu DLSS3 bleibt die Latenz ~ gleich. Gleichzeitig wird vermutlich Reflex dazugeschaltet (da es jetzt "bundled" mit DLSS3 ist). Das passt zur Aussage von Bryan Catanzaro und dem, was ich die ganze Zeit sage.

r3ptil3
2022-09-23, 20:55:30
Ich nehme an, die meisten RTX 3090 Besitzer hier möchten umsteigen oder?


Ich muss zugeben, dass ich momentan nicht ganz überzeugt bin bzgl. der RTX 4090. Auf der einen Seite rechne ich im Schnitt mit einem reinen Performancezuwachs von ca. 60% im Schnitt gegenüber einer RTX 3090 Ti ohne DLSS, was bei dem zusätzlich extremen Verbrauch doch nicht so überragend klingt.

Auf der anderen Seite haben das erste mal Softwareseitige Entwicklungen einen massiven Einfluss auf die Qualität und damit die Wertung eines Produkts. Hier verunsicheren mich jedoch die Videos mit DLSS 3.0, sprich es gibt erstaunlich wenige Schwenker in den Aufnahmen. Ist das bewusst so? Gibt es vielleicht Probleme mit DLSS 3.0, sprich noch unerwünschte Artefakte etc.?
Das wäre ein K.O. Kriterium bei dem Preis.

Der andere Faktor ist AMD. Hier habe ich subjektiv das Gefühl, das AMD Probleme hat was die Performance angeht. Ich will da auch kein Produkt für 1200$ das erst nach einem Jahr treibertechnisch reif ist, sprich erst dann richtig ausgelastet werden kann.
Von AMD gibt es noch rein überhaupt keine Leaks zur Leistung, was vielleicht kein gutes Zeichen ist.

Warten was AMD bringt und keine RTX 4090 kaufen, mit der Folge dass man durch eine künstliche Verknappung von Nvidia, erst nach Monaten an einen Chip kommt und zusätzlich der Gefahr, dass AMD vielleicht anfänglich richtig enttäuschen könnte? Hmm...

Troyan
2022-09-23, 21:01:47
Spider-Man hat schnelle Kamerabewegungen: https://www.youtube.com/watch?v=zzbc_fODYso

DavChrFen
2022-09-23, 21:06:58
Gibts für DLSS3.0 schon eine nachvollziehbare Anwendung?
MS Flight Simulator

ChaosTM
2022-09-23, 21:09:08
gibts dazu schon "echte" Test inklusive Qualitätsreport ?

ich würde es lieben als alter Flieger.. ;)

Langlay
2022-09-23, 21:10:33
Auf der anderen Seite haben das erste mal Softwareseitige Entwicklungen einen massiven Einfluss auf die Qualität und damit die Wertung eines Produkts. Hier verunsicheren mich jedoch die Videos mit DLSS 3.0, sprich es gibt erstaunlich wenige Schwenker in den Aufnahmen. Ist das bewusst so? Gibt es vielleicht Probleme mit DLSS 3.0, sprich noch unerwünschte Artefakte etc.?
Das wäre ein K.O. Kriterium bei dem Preis.


Ganz allgemein Motion Interpolation (is aus Wikipedia kopiert) :

Die Qualität von Motion Interpolation ist stark vom Bildinhalt abhängig. Während ruhige, gleichmäßige und gut vorhersehbare Bewegungen zu nahezu perfekten Ergebnissen führen können, ist die Zwischenbildberechnung bei plötzlichen oder sehr schnellen Bewegungen sowie solchen vor einem komplexen und fein strukturierten Hintergrund oft schwierig bis unmöglich. Abhängig von dem jeweiligen Algorithmus und den gewählten Einstellungen wird in letzterem Fall die Zwischenbildberechnung entweder vorübergehend ganz ausgesetzt, wenn kein gutes Ergebnis zu erwarten ist, oder es wird versucht, die Berechnung dennoch so gut es geht durchzuführen, was zu sichtbaren unnatürlichen Verzerrungen und Artefakten führen kann.

https://de.wikipedia.org/wiki/Motion-Interpolation

Grundsätzlich sollten die Probleme auch auf DLSS 3.0 zutreffen, ggf. in abgeschwächter Form.

Sardaukar.nsn
2022-09-23, 21:39:39
Ich nehme an, die meisten RTX 3090 Besitzer hier möchten umsteigen oder?

Oder Aufsteigen. Nach meiner 1080 Ti und aktuell 3080 finde ich die vorgestellten 4080er Modelle extrem unattraktiv. Ich glaube das ist auch generell der Konsens und die 4090 klar die beste Ada Lovelace Karte. Vor kurzem habe ich beim Monitor den Sprung von WQHD auf 4K mit 120hz/VRR/OLED gemacht und der möchte jetzt bedient werden. Gerade bei Sachen wie CP2077 (bald mit DLC) oder Flugsimulator kann die GPU eigentlich nicht genug Leistung haben.

Heute hatte ich noch persönlich Kontakt mit Inno3D und die fertigen Wasserkühlungs-Karten kommen wohl mit dem Launch am 12.10. in den Handel. In der Nische ist das echt ein großes Ding, da man in der Vergangenheit oft ewig auf Wasserkühler warten musste. Zudem wackelige Garantiebestimmung falls beim Umbau was schief gehen sollte usw. Das scheint jetzt alles viel professioneller zu laufen. Spannend wir halt ob mit Ausnutzung des großzügigen Powerlimits die 3 Ghz geknackt werden können. Für den Alltag wird es aber sicher durch undervolting einen schönen Sweetspot geben und diesen herauszufinden wird den Enthusiasten sicher große Freude bereiten.

Neben den reinen Zahlen und Fakten gibt es aber auch noch einen großen, sehr subjektiven Bereich. Hier geht es viel um Präsentation, Beleuchtung, Design und Emotionen.
Rein technisch macht z.B. so ein Riser-Kabel und eine vertikal verbaute GPU auf dem Schreibtisch überhaupt keinen Sinn. Aber wir sind ja Menschen und keine Roboter und erfreuen uns auch an solch individuellen und irrationalen Dingen: https://i.imgur.com/xhpIUfW.jpg

Slipknot79
2022-09-23, 21:50:18
;D

RTX 4090 Custom von ASUS, MSI, dann bei 2200€+

RTX 4080 16GB Custom " " dann bei 1600€+


Nope. Die "normalen" Karten (also nicht Strix und sowas) liegen in Normalzeiten (=gute Verfügbarkeit) immer bei Lederjacke-UVP minus 5-10%.
Asus TUF sollte es um ca 1800-1850EUR geben.

aufkrawall
2022-09-23, 21:51:05
Grundsätzlich sollten die Probleme auch auf DLSS 3.0 zutreffen, ggf. in abgeschwächter Form.
Nur wird halt mit TAAU eh schon viel temporal rekonstruiert, da ist das einfach nur der nächste logische Schritt. Erst (mitunter zurecht) verlacht, irgendwann nicht mehr wegzudenken.

Slipknot79
2022-09-23, 22:09:32
Wie ich schon befürchtet habe, das wird eine Bruteforce Generation.


Es gibt kein zurück moar. In 10 Jahren wirst du dich wundern, wie effizient die 4090 seiner Zeit war. :wink:

So, hab schon mal den Taschenrechner ausgepackt: Dank der 4090 werde ich diese Saison nicht heizen müssen und erspare mir 262EUR -> 4090 kostet somit 1687EUR. (y)
Hohe Energiekosten haben auch ihre Vorteile. (y)

ChaosTM
2022-09-23, 22:11:04
im Vergleich zu den kommenden Generationen könnte der Wahnsinn sogar stimmen ;)

aber ich glaubs nicht - 150-250Watt Grafikkarten oder SOCs werden den Markt
beherrschen.


and nobody will give FUCK about "RTX"
RTRT ja, aber dosier..

ChaosTM
2022-09-23, 22:20:26
Nur wird halt mit TAAU eh schon viel temporal rekonstruiert, da ist das einfach nur der nächste logische Schritt. Erst (mitunter zurecht) verlacht, irgendwann nicht mehr wegzudenken.


Echte Zwischenbild Berechnung gibts schon seit Jahren, nur war es bis jetzt zu teuer (100-150ms) und hat wenig gebracht.

Im Film Bereich war das wurscht, aber..

-=Popeye=-
2022-09-23, 22:29:34
Es gibt kein zurück moar. In 10 Jahren wirst du dich wundern, wie effizient die 4090 seiner Zeit war. :wink:

So, hab schon mal den Taschenrechner ausgepackt: Dank der 4090 werde ich diese Saison nicht heizen müssen und erspare mir 262EUR -> 4090 kostet somit 1687EUR. (y)
Hohe Energiekosten haben auch ihre Vorteile. (y)

Ohne Strom wird dass nichts... na ja anderes Thema.

Wenn hier wirklich nur auf DLSS gesetzt wird wirkt das Ganzen auf mich nicht wirklich überzeugend.

aufkrawall
2022-09-23, 22:31:50
Echte Zwischenbild Berechnung gibts schon seit Jahren
Zwischenbildberechnung mit Kenntnis über sich in der 3D-Szene bewegende Elemente gibt es real exakt noch gar nicht vor DLSS 3.
Der Begriff ist auch nicht ganz passend, weil nicht einfach jedes zweite Bild interpoliert sein dürfte, sondern jedes Bild für die Ziel-Bildrate rekonstruiert ist. In dem Zusammenhang macht auch die Aussage von dem NV-Mitarbeiter Sinn, dass nur mit Reflex die Latenz vergleichbar wäre bzw. gleich oder etwas besser als ohne Reflex + fps-Doubling.

Slipknot79
2022-09-23, 22:33:07
Strom wird bei uns auf 10Cent/kWh (netto) gedeckelt und habe noch ne Preisgarantie bis Anfang Dez laufen, knapp unter 10 Cent/kWh (y)

ChaosTM
2022-09-23, 22:35:05
Sicher ?

Wenn ja, wäre das was wirklich gutes, wenn das in "echtzeit`funktionieren würde..

ok jedes 2. Bild

Auf so was ähnliches hoffe ich seit Jahren. Echte Zwischenbildgeneration ohne Zeitverlust.
Oder mehr als ein Bild /Frame :)

Wie viel Rechenpower das benötigen würde hat mich aber immer abgeschreckt, aber wir scheinen schön langsam dort hin zu kommen..

Langlay
2022-09-23, 22:39:24
Zwischenbildberechnung mit Kenntnis über sich in der 3D-Szene bewegende Elemente gibt es real exakt noch gar nicht vor DLSS 3.


Was heisst mit Kenntnis der 3D Szene, DLSS 3.0 kennt nur die Vergangenheit, nicht die Zukunft. DLSS weiss nur was passiert ist nicht was passieren wird.

Ich finde es aber auch schwierig Abschätzungen zu treffen die auf PR Aussagen vom Hersteller beruhen.

Slipknot79
2022-09-23, 22:41:53
Tatsächlich könnte die RTX 4080 12GB Version oft nur 3080Ti/3090 Leistung in Raster Spielen erreichen. Mit DLSS 3 und/oder RT geht dann erst die Post ab...laut Nvidia selber.


Die 70er Karte war bisher immer in etwa so schnell wie die top-end Karte der Vorgängergeneration.
Die 4070, die gerade vorgestellt wurde, wird also in Rastafari in etwa auch so schnell sein wie die 3090Ti.
Alles wie gehabt. (y)

aufkrawall
2022-09-23, 22:42:39
Auf so was ähnliches hoffe ich seit Jahren. Echte Zwischenbildgeneration ohne Zeitverlust
Ich habe genau das Gegenteil gesagt: Es gibt offenbar mehr Input Lag, aber Reflex drückt das wieder auf ein gutes Niveau.
Ich lach mich auch tot, dass ständig der Input Lag von Leuten als Kriterium angeführt wird, die offenbar noch nie den Unterschied zwischen Reflex on/off bemerkt haben. Der reale Gesamt-Lag ist bei unlimitierten fps nur mitunter mal eben doppelt so hoch ;D :
https://youtu.be/QzmoLJwS6eQ?t=474

Slipknot79
2022-09-23, 22:46:08
3080: 699$ ( 10G )
4080: 899$ ( 12G )

3080ti: 1199$ ( 12G )
4080: 1199$ ( 16G )

3090: 1499$
4090: 1599$

In US sieht das alles eigentlich noch ganz entspannt aus. Man darf einfach nicht vergessen, dass der Euro schwach geworden ist und wir Europäer deswegen die Arschkarte aktuell ziehen.
Die 16G 4080 fühlt sich so ein wenig wie die 3080ti an.


Es ist aber auch die Frage, ob der Europamarkt für Lederjacke zusammebricht nach dem die ersten Opfer durch sind. Wenn er seine Shice nicht verkauft wegen dem EUR, dann wird er eventuell sogar die price für den Europamarkt anpassen müssen?
Ich warte aber noch den Move von AMD. Mal schauen ob er wegen dem schwachen EUR und AMD die price dropen wird müssen. Die Zeit muss sein, bis dahin sollten auch Waküs gut verfügbar sein. (y)

Dural
2022-09-23, 22:49:10
Wisst ihr eigentlich was das traurigste an dieser Generation ist??? Nein nicht die Preise, ich bezweifle das wir jemals voll aktive ad103 so wie ad102 auf dekstop GeForce karten sehen werden.

ChaosTM
2022-09-23, 22:51:28
es ging nicht um den input lag, sondern rein nur um den "prozessing" lag ..

Nazar
2022-09-23, 22:54:19
Spider-Man hat schnelle Kamerabewegungen: https://www.youtube.com/watch?v=zzbc_fODYso

Die aktivierte Bewegungs- und Tiefenunschärfe, lassen überhaupt keine Aussage dazu zu.
Ist irgendjemand schon mal auf die Idee gekommen, dass das eine bestimmten Sinn verfolgen könnte, dem ein ähnlicher Effekt zugrunde liegen kann, wie die Performancesteigerung bei Konsolen, indem durch diese Effekte vertuscht wurde, dass dann im Randbereich, wo die Unschärfe vorhanden ist, das Bild nur noch mit stark reduzierten Details gerendert wird?
Es ist zwar nur eine Vermutung, aber ich gehe stark davon aus, dass DLSS 3.x eine ähnliche Technik verwendet, auch, ohne dass Tiefen- und Bewegungsunschärfe aktiviert werden muss.
Vermutlich macht sich nVidia die Trägheit der Datenverarbeitung des Gehirns zu nutzen und nutzt den Selbsttäuschungsvorgang des Gehirns in einer ähnlichen Weise. Wir wollen etwas sehen, was gar nicht da ist und ignorieren die Realität zu einem gewissen Maße, solange die Realität und unser Wunsch nicht zu weit auseinanderliegen (Plausibilitätsüberprüfung)
Eventuell ist ja die immer noch vorhanden Unschärfe kein unerwünschter Effekt, sondern Teil von nVidias Lösung?
Ich bin mal gespannt, sobald wir bei uns die GPU haben, was da wirklich dahintersteckt.

ChaosTM
2022-09-23, 22:54:38
können wir 2-4 (echte) Bilder ohne "Verzögerung" <1ms einfügen

Derzeit offensichtlich noch nicht (ganz) :D

aufkrawall
2022-09-23, 22:58:43
es ging nicht um den input lag, sondern rein nur um den "prozessing" lag ..
Was auch immer das sein soll. Es zählen nur fps und Input to Pixel-Latenz.

Platos
2022-09-23, 23:02:06
3080: 699$ ( 10G )
4080: 899$ ( 12G )

3080ti: 1199$ ( 12G )
4080: 1199$ ( 16G )

3090: 1499$
4090: 1599$

In US sieht das alles eigentlich noch ganz entspannt aus. Man darf einfach nicht vergessen, dass der Euro schwach geworden ist und wir Europäer deswegen die Arschkarte aktuell ziehen.
Die 16G 4080 fühlt sich so ein wenig wie die 3080ti an.

Machst du Witze oder was? Was sollen diese unpassenden Vergleiche? Die 4080 12GB ist mit der 3070 zu vergleichen Die 4080 16GB mit der 3080 und die 4090 mit der 3090.

Technischer fortschritt war noch nie billiger, sondern immer teurer.

Doch, natürlich war er das. Das ist quasi das Merkmal von Computerhardware.

crux2005
2022-09-23, 23:02:26
Der Heise.de Rant ist zum Teil auch Sachlich falsch.

z.B.
Nicht eine Karte eines Grafikkarten-Partnerherstellers hatte Nvidia eingeblendet.

Doch, es wurden kurz Bilder von Partnerkarten gezeigt.

Und, was haben die Konsolen SoCs mit der 40er Serie zu tun?

Obwohl: In Playstation und Xbox steckt seit zwei Generationen eine Grafikeinheit von AMD. Dafür gibt es sicher gute Gründe, die ihr nur vor rund zehn Jahren nicht gesehen habt. (mfi)

Heise ist auch nur noch ein Schatten seiner selbst.

Linmoum
2022-09-23, 23:04:44
There's also the question of why the RTX 4080 12GB isn't just called the RTX 4070. Talking with Nvidia during a briefing, this exact question came up: What was the thought process behind calling the 12GB chip a 4080 instead of a 4070, especially since it's a different chip?

Nvidia's Justin Walker, Senior Director of Product Management, said, "The 4080 12GB is a really high performance GPU. It delivers performance considerably faster than a 3080 12GB... it's faster than a 3090 Ti, and we really think it's deserving of an 80-class product."
https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

Dass denen das selbst nicht peinlich ist. ;D

Nazar
2022-09-23, 23:06:05
Es zeichnet sich immer mehr ab, dass die 80-er GPUs mit Absicht preislich so hoch angesetzt wurden damit die auf Halde liegenden GA102 NV noch irgendwie loswird. Ich bin schon gespannt wie AMD darauf reagiert. Eigentlich eine gute Gelegenheit entweder die Marktanteile zu vergrößern bei deutlich attraktiveren Preisen oder die Marge zu steigern.

Ich glaube, dass AMD gar nicht vorhatte so "früh" die Karten auf den Markt zu werfen.
Eventuell haben sie die Schwäche erkannt, und wollen nVidia nicht das Feld zu lange überlassen, bevor gar kein Geld mehr für ihre GPUs vorhanden ist?
Ich würde mir selbst dann keine Hoffnung machen, dass es an den hohen Preisen etwas ändern wird. Beide Anbieter sind verpflichtet so viel Geld zu verdienen wie irgend möglich.
Nur, wenn man eine Chance hätte nVidia gewaltige Marktanteile abzuknöpfen, werden die Preise von AMD deutlich niedriger sein, nur leider wirkt die Droge nVidia bei vielen noch, sodass ich das auch nicht für realistisch halte. Und mit der 4080 12 GB hat nVidia einen "Trojaner" für die nV-Kundschaft geschaffen, sodass viele Kunden darauf hereinfallen werden, weil sie gar nicht erkennen können, dass diese Karte eigentlich eine 4060Ti ist. Und wenn AMD nicht liefern kann, wird es den meisten Kunden auch gar nicht auffallen, wenn DLSS weiter von den Medien so gehypt wird. ;)
Es wundert mich schon sehr, dass die Presse so extrem schweigsam, ob dieser offensichtliche Kundenverarsche ist!? :rolleyes:
Aber ich halte es, wie die Fans es schon sagten, ich muss die Ware nicht kaufen. Nur habe ich den Vorteil in dem Bereich ein "Wissender" zu sein, was viele potenziell 4080 12 GB Kunden nicht sein werden. Schon extrem fies, was nVidia da abzieht. :mad:

Platos
2022-09-23, 23:06:26
Erinnert mich an den EA Battlefront Skandal auf Reddit :D

Nazar
2022-09-23, 23:11:01
Richtig weird, wie hier die Leute in die Breschen springen, um die Finanzierung von Jensens 20. Lamborghini schönzureden. Natürlich weiß Nvidias Board of Directors (das auch nicht unbedingt "vom Fach" ist) besser als Außenseiter, welche Maßnahmen nötig sind, um weiterhin Gewinnmargen von 60% und mehr sicherzustellen. Das heißt nicht, dass man als Konsument keine Meinung darüber haben darf. :freak:

Und klar, "jammern" bringt nicht viel, den Kauf zu verweigern dagegen schon. ;)

Ich bin auch immer erstaunt, wenn uns hier Leute ernsthaft weismachen wollen, dass nVidia am Hungertuch nagt, die Aktionäre alle nur Suppe essen, frieren und in Zelten hausen, damit wir Kunden quasi zum Selbstkostenpreis "supergünstige" GPUs bekommen. ;D

Troyan
2022-09-23, 23:12:25
https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

Dass denen das selbst nicht peinlich ist. ;D

So, die 4080 12GB darf nicht so heißen, weil die Karte schneller als die 3090 TI ist? ;D :confused::freak:

Dural
2022-09-23, 23:16:09
Welche Kundenverarschung? Habt ihr ernsthaft das gefühl das jemand der 1000+ für eine Grafikkarte ausgibt nicht genau weiss was er da kauft?

Xx104 gpus gab es schon mal auf 8er karten zb. der 980. Als die 3080 mit ga102 auf den Markt kam habt ihr ja alle gejubelt wie grosszügig NV doch ist, richtig?

Ganz ehrlich, hier habt echt Probleme, aber an der 4080 liegt es wohl weniger.

Tomahawk
2022-09-23, 23:16:27
@Troyan
Bisher waren die neuen xx60er Karten so schnell wie die xx80er Karten der Vorgeneration bzw. 70er Karten so schnell wie die xx80er Ti / Titan Karten der Vorgeneration. So einen geringen Fortschritt wie bei Ada gab es aber noch nie: Hier braucht es gleich die 4080er 12 GB (nicht wie sonst die 70er) um die schnellste Karte der Vorgeneration zu überbieten.

basix
2022-09-23, 23:18:25
Was heisst mit Kenntnis der 3D Szene, DLSS 3.0 kennt nur die Vergangenheit, nicht die Zukunft. DLSS weiss nur was passiert ist nicht was passieren wird.

Soweit ich verstanden habe, wird nicht die Zukunft abgebildet. Es wird Frame N mit N-1 verrechnet, also "richtigen" gerenderten Frames. Man bekommt also +1/2 Frame Latenz. Reflex versucht dann, die zusätzliche Latenz wieder reinzuholen.

Dural
2022-09-23, 23:24:19
G92 auf der 9800gtx 512 nichts anderes als 8800gts 512, und das war vor fast 15 Jahren.
Der g92 war damals vergleichbar mit einem 104 chip.

Ich kann auch noch gerne amd karten mit ähnlichem Muster nennen.

Nazar
2022-09-23, 23:26:09
Welche Kundenverarschung? Habt ihr ernsthaft das gefühl das jemand der 1000+ für eine Grafikkarte ausgibt nicht genau weiss was er da kauft?

Xx104 gpus gab es schon mal auf 8er karten zb. der 980. Als die 3080 mit ga102 auf den Markt kam habt ihr ja alle gejubelt wie grosszügig NV doch ist, richtig?

Ganz ehrlich, hier habt echt Probleme, aber an der 4080 liegt es wohl weniger.

Nicht glauben, ich !!weiß!! das Leute sowas gemacht haben, weil sie das Geld gerade so hatten und der Verkäufer ihnen alles erzählt hat, was sie hören wollten. Und fast jeder von uns verhält sich so ähnlich. Oder warum erzählen hier Leute, dass sie die Karten benötigen, obwohl es bisher nur ein 2 Jahre altes Spiel gibt, welches das Feature Set von DLSS 3 ausnutzen kann, und vermutlich auch nur deshalb so gut performt, weil es eben nicht so optimiert ist.
Jetzt eine 40X0 GPU zu kaufen, nur aufgrund des DLSS 3 Features, wäre vollkommen hirnverbrannt und geht in dieselbe Richtung wie 1000€ + für eine 4080 12 GB ausgeben zu wollen, um damit die "Armut" von nVidia abwenden zu wollen. :freak:

Ravenhearth
2022-09-23, 23:27:11
Ada Lovelace GPUs Shows How Desperate Nvidia Is - AMD RDNA 3 Cost Comparison (https://semianalysis.substack.com/p/ada-lovelace-gpus-shows-how-desperate)

https://bucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com/public/images/bf202911-e5ce-4590-9261-f7dd1b136e72_1113x537.png

Troyan
2022-09-23, 23:28:26
@Troyan
Bisher waren die neuen xx60er Karten so schnell wie die xx80er Karten der Vorgeneration bzw. 70er Karten so schnell wie die xx80er Ti / Titan Karten der Vorgeneration. So einen geringen Fortschritt wie bei Ada gab es aber noch nie: Hier braucht es gleich die 4080er 12 GB (nicht wie sonst die 70er) um die schnellste Karte der Vorgeneration zu überbieten.

Die Zeiten sind doch längst vorbei. RTX3060 war auch nicht auf 2080TI Niveau.
Und bei Turing war die RTX2080 auch nicht immer schneller als die 1080TI und vorallem die Titan Pascal #2 - kostete sogar das selbe mir 3GB weniger Speicher.

Dural
2022-09-23, 23:28:58
Rtx 2080 mit tu104 chip, nicht Mal voll aktiv.

Langlay
2022-09-23, 23:30:09
G92 auf der 9800gtx 512 nichts anderes als 8800gts 512, und das war vor fast 15 Jahren.
Der g92 war damals vergleichbar mit einem 104 chip.



8800GTX Launchpreis : 599$

9800GTX Launchpreis: 329$

Tomahawk
2022-09-23, 23:32:31
Die Zeiten sind doch längst vorbei. RTX3060 war auch nicht auf 2080TI Niveau.
Und bei Turing war die RTX2080 auch nicht immer schneller als die 1080TI und vorallem die Titan Pascal #2 - kostete sogar das selbe mir 3GB weniger Speicher.
Doch, die 3060 war auf 2080-Niveau (ca. 90% davon). Und die 2080 war flotter als die 1080Ti. Nur Ada fällt da leider klar negativ auf. Man darf auch nicht vergessen, dass nVidia mittlerweile zu einem 2-Jahres-Zyklus übergegangen ist. Das heißt die Fortschritte von Gen zu Gen werden nicht nur geringer, sondern auch die Entwicklungszeiten immer höher.

Troyan
2022-09-23, 23:37:12
Doch, die 3060 war auf 2080-Niveau (ca. 90% davon). Und die 2080 war flotter als die 1080Ti. Nur Ada fällt da leider klar negativ auf. Man darf auch nicht vergessen, dass nVidia mittlerweile zu einem 2-Jahres-Zyklus übergegangen ist. Das heißt die Fortschritte von Gen zu Gen werden nicht nur geringer, sondern auch die Entwicklungszeiten immer höher.

Eher RTX2070 Niveau: https://www.computerbase.de/2021-02/geforce-rtx-3060-asus-msi-test/2/#abschnitt_benchmarks_in_2560__1440

Die RTX2080 war ein paar Prozente zum Start schneller. Entspricht also exakt das, was die RTX4080 12GB darstellt. Genauso wie Turing kann jedoch Lovelace durch die bessere Architektur im Verlauf der Zeit mehr Leistung schaffen (SER, hoher Takt, diese Verbesserungen bei den RT Cores etc.).

Tomahawk
2022-09-23, 23:48:42
Zw. 2070 und 2080. Und bei Turing war der Fortschritt historisch gesehen schon sehr gering. Allerdings kam da auch RT als neues Feature hinzu. Ein solches Feature fehlt nun.

Die 3070 war etwas schneller als die 2080 Ti / Titan RTX. Das wird die 4070 im Vergleich zur 3090 Ti nicht schaffen. Die Fortschritte sind dieses Mal leider äußerst gering. Aber du hast es schon zuvor gesagt: Vermutlich hat nVidia einfach ein Kostenproblem und muss diesen Weg gehen.

DrFreaK666
2022-09-23, 23:51:18
8800GTX Launchpreis : 599$

9800GTX Launchpreis: 329$

Das ist zum Glück überhaupt nicht lange her und taugt daher hervorragend als Beispiel ;)

Linmoum
2022-09-23, 23:52:04
Mit Turing zu argumentieren ist sinnlos. Dafür muss man sich nur die anderen Ti's in Relation dazu angucken.

980Ti: ~55% schneller
1080Ti: ~80% schneller
2080Ti: ~30% schneller
3090Ti: ~50% schneller
4090: ~50-70% schneller

Eine 4090Ti dürfte wohl auf 1080Ti-Niveau liegen. Turing ist schlicht ein krasser Ausreißer, der es gar nicht möglich gemacht hat, dass die 2070 realistisch auf das Ti-Niveau des Vorgängers kommen konnte.

Troyan
2022-09-23, 23:56:24
Zw. 2070 und 2080. Und bei Turing war der Fortschritt historisch gesehen schon sehr gering. Allerdings kam da auch RT als neues Feature hinzu. Ein solches Feature fehlt nun.

Deswegen ist das Aufregen wegen dem Namen auch so belanglos. nVidia benennt, wie sie lustig sind.


Die 3070 war etwas schneller als die 2080 Ti / Titan RTX. Das wird die 4070 im Vergleich zur 3090 Ti nicht schaffen. Die Fortschritte sind dieses Mal leider äußerst gering. Aber du hast es schon zuvor gesagt: Vermutlich hat nVidia einfach ein Kostenproblem und muss diesen Weg gehen.

Es gibt keine wirklichen Kostenprobleme über die Waferpreise hinaus. Damit muss jeder leben. Die benennen die Karte eben so, weil es leistungstechnisch hinhaut. Vor 10 Jahrem wäre halbe Größe auch mindesten halbe Kosten gewesen. Heute sind es mindesten die selben Kosten. Das führt dann dazu, dass auch Chipgrößen nicht mehr wirklich mit gewohnten "Klassen" übereinstimmen.

Tomahawk
2022-09-23, 23:56:57
@Linmoum
Kannst du ergänzen, was die Bezugsgröße ist?

@Troyan
Bei Maxwell, Kepler, Pascal, Turing (hier mit Einschränkungen) und Ampere hat die von mir genannte Logik noch funktionier. Erst mit Ada sind die Leistungszuwächse geringer. Die Verwunderung hier ist groß, da es ein Shrink um (fast) zwei Nodes ist. Künftig wird aber die Effizienz i.S. von Geschwindigkeit pro Transistor eine viel größere Rolle spielen. Es ist auch gut möglich, dass wir nur noch alle 3-4 Jahre eine neue Generation sehen werden.

Langlay
2022-09-23, 23:58:49
Das ist zum Glück überhaupt nicht lange her und taugt daher hervorragend als Beispiel ;)

Ich hab die Mottenkiste nicht aufgemacht, ich hab nur Kontext geliefert.

ChaosTM
2022-09-23, 23:59:52
Die Vorgänger vielleicht ?

DrFreaK666
2022-09-24, 00:29:01
... Die benennen die Karte eben so, weil es leistungstechnisch hinhaut...

Die 4080 (12GB) ist ca. ne halbe 4090. Wo haut das bitte hin?
Sogar die 3070 war mehr als die Hälfte der 3090 (bis auf den Speicher)

BlacKi
2022-09-24, 00:33:15
Die 4080 (12GB) ist ca. ne halbe 4090. Wo haut das bitte hin?
Sogar die 3070 war mehr als die Hälfte der 3090 (bis auf den Speicher)wiederspruch beabsichtigt?

ich glaube tatsächlich, das die 12gb 4080 schnell verschwindet, und durch eine 4070 ersetzt wird mit weniger cuda und niedrigerem pwlimit und hoffentlich noch 12gb. vorallem für 599$. die 12gb 4980 ist wohl aus der not geboren, zuviele alte karten zu haben.

einfach nv beim bluten zusehen, dann die 4070 super kaufen.

Ex3cut3r
2022-09-24, 00:42:00
Vorallem für 599$. Die 12gb 4980 ist wohl aus der Not geboren, zu viele alte Karten zu haben.

einfach nv beim bluten zusehen, dann die 4070 super kaufen.

Die 4070 wird wohl eher 10 oder 8GB haben. Mit 160 und 128 Bit SI. :freak:

unl34shed
2022-09-24, 00:52:24
Deswegen ist das Aufregen wegen dem Namen auch so belanglos. nVidia benennt, wie sie lustig sind.

Da ist also gar nichts verwerflich dran, worüber man sich aufregen kann als KUNDE?
- der Name suggeriert, dass es sich nur um einen Speicher unterschied handelt 12 vs 16GB. Nicht dass eine Karte 20% langsamer ist
- Im Laden wird auf den Boxen nur leicht ersichtlich der Speicher und ggf. der Takt bei OC Modellen stehen. Also als Kunde nicht ersichtlich, dass eine Karte 20% langsamer ist.
- da es keine 12GB FE gibt, wird es damit auch vermutlich keine Release Benchmarks geben. Ein Kaufinteressent findet also nur 20% schnellere Werte, die er aber für die 12GB Karte interpretieren wird.*
- 20% Leistungsunterschied sind eine andere Performance Famile gewesen, diesen Karten den gleichen Namen zu geben ist einfach Kundenverarsche. Kapierst du aber eh nicht.

- Dann ist da noch das allgemeine Problem, dass bereits die 4080 16GB so sehr beschnitten ist im Vergleich zur 4090 wie noch nie zuvor bei einer 80er Karte. Von der 12GB Version gar nicht zu reden.
Nur so zur Einordnung:
- eine 3060TI hat 45% der TFlops einer 3090, die 4080 12GB 48% der 4090
- eine 3070 hat 57% der TFlops einer 3090, eine 4080 16GB 59% de 4090
Es wird also eine 70er und 60Ti Leistungsklasse als 80er verkauft, aber das darf man ja bloß nicht erwähnen.

Die ganze Vorstellung der 4000er Serie ist Kundenverarsche von vorne bis hinten aber du findest das auch noch toll...


*In diesem Fall sollten die Redaktionen eigentlich einen Balken mit der geschätzten Performance des 12GB Modells einfügen!

Troyan
2022-09-24, 00:53:01
Die 4080 (12GB) ist ca. ne halbe 4090. Wo haut das bitte hin?
Sogar die 3070 war mehr als die Hälfte der 3090 (bis auf den Speicher)

Die Karte ist auf dem Level der 3090 TI -> zack 4080. Der Chip ist doch irrelevant für nVidia.

Da ist also gar nichts verwerflich dran, worüber man sich aufregen kann als KUNDE?
- der Name suggeriert, dass es sich nur um einen Speicher unterschied handelt 12 vs 16GB. Nicht dass eine Karte 20% langsamer ist


Das ist der relevante Kritikpunkt. Karten mit dem selben Namen, die sich unterscheiden. Alles andere ist komplett irrelevant. AMD hat auch eine 500€ Karte für 999€ verhökert. Störte dich nicht, btw. :rolleyes:

-=Popeye=-
2022-09-24, 00:54:35
Da stellt sich mir die Frage... warum man so was noch unterstützt.

Ex3cut3r
2022-09-24, 01:11:05
Die Karte ist auf dem Level der 3090 TI -> zack 4080. Der Chip ist doch irrelevant für nVidia.


Also bitte, das wäre doch früher die 70er Karte gewesen, weißt du ganz genau. :wink:
780 Ti ~ 970
980 Ti ~ 1070
1080 Ti ~ 2070
2080 Ti ~ 3070

Jetzt haben wir:
3090 Ti ~ 4080 12GB. :freak:

Linmoum
2022-09-24, 01:20:43
Bei Turing war es die xx80. Aber das hatten wir schon, Turing ist ein negativer Ausreißer beim Gen-zu-Gen Performancezuwachs, weil die 2080Ti sowieso nur knapp 30% schneller war als der Vorgänger.

BlacKi
2022-09-24, 01:20:50
Also bitte, das wäre doch früher die 70er Karte gewesen, weißt du ganz genau. :wink:
780 Ti ~ 970
980 Ti ~ 1070
1080 Ti ~ 2070
2080 Ti ~ 3070

Jetzt haben wir:
3090 Ti ~ 4080 12GB. :freak:die 2070 war langsamer als die 1080ti, manchmal sogar langsamer als die 2070 super. ich hatte beide.


generell würde ich nicht alles über einen kamm scheren.

-=Popeye=-
2022-09-24, 01:25:39
Danke

basix
2022-09-24, 01:26:26
@Locuza:
GZ zu euren Die Size Abschätzungen im April. Waren sehr akkurat ;)
https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications
https://semianalysis.substack.com/p/ada-lovelace-gpus-shows-how-desperate

Troyan
2022-09-24, 01:32:07
Also bitte, das wäre doch früher die 70er Karte gewesen, weißt du ganz genau. :wink:
780 Ti ~ 970
980 Ti ~ 1070
1080 Ti ~ 2070
2080 Ti ~ 3070

Jetzt haben wir:
3090 Ti ~ 4080 12GB. :freak:

Du ignorierst nur, dass die 70er bei Maxwell und Pascal auf einem beschnittenen 392mm^2 und 292mm^2 Die aufbauten. Der volle Chip wurde als 80er verkauft. Also genau wie jetzt auch...

Auch würde ich die 3090TI einfach mal ausklammern. Das Ding war von Anfang absurd. Die 3090 wird soweit ich es sehe, wahrscheinlich im Schnitt geschlagen (10%?).

/edit: Gerade mal bei Computerbase geschaut: Die GTX1070 schlug die GTX980TI mit 225W, verlor jedoch gegen die aufgedrehte Version: https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/4/#abschnitt_benchmarks_in_1920__1080_und_2560__1440

7% Unterschied.

Ravenhearth
2022-09-24, 01:48:30
Du ignorierst nur, dass die 70er bei Maxwell und Pascal auf einem beschnittenen 392mm^2 und 292mm^2 Die aufbauten. Der volle Chip wurde als 80er verkauft. Also genau wie jetzt auch...
Damals gab es den x03 aber nicht, durch den AD104 jetzt gewissermaßen eine Klasse nach unten rutscht. Das erkennt man auch am Vergleich der Die Size: Der x04 hatte bei Maxwell und Pascal etwa 2/3 der Größe vom x02, jetzt ist er nicht einmal halb so groß.


https://semianalysis.substack.com/p/ada-lovelace-gpus-shows-how-desperate
Die Aufstellung der BOM ist sehr interessant. Wenn man mal AD102 als Referenz nimmt, kann man ausrechnen, wie viel die anderen Karten eigentlich in etwa kosten "dürfen", wenn man es linear skaliert:

AD102 - $1600
N31 - $1300
AD103 - $1000
N32 - $800
AD104 - $700
AD106 - $440
N33 - $360
AD107 - $350

Daredevil
2022-09-24, 01:58:22
Ich möchte an der Stelle aber auch mal eben anmerken, dass der Gedanke, dass jede "60er" Karte nun ein Leben lang xyz€ Kosten muss, xyzmm2 DIE Größe hat und xyz GB Ram haben muss, albern finde. Es ist einfach nur ein Name, mehr nicht. Dinge ändern sich immer mit der Zeit.
Aber gerade weil das so albern ist, ändert Nvidia den Namen nicht zu einer 4070, weil sonst der große Aufschrei kommt. :D
Selbstgewählte Prophezeiung.

Troyan
2022-09-24, 02:20:23
Damals gab es den x03 aber nicht, durch den AD104 jetzt gewissermaßen eine Klasse nach unten rutscht. Das erkennt man auch am Vergleich der Die Size: Der x04 hatte bei Maxwell und Pascal etwa 2/3 der Größe vom x02, jetzt ist er nicht einmal halb so groß.


Es sieht bei Lovelace eben so komisch aus, weil nVidia mit AD103 und AD104 zwei naheinanderliegende Chips hat. Ob das sinnvoll ist, wird einfach die Zeit zeigen.

Ansonsten gab es bei Pascal die tolle $1199 Titan X: https://www.computerbase.de/2016-07/nvidia-titan-x-details/

6 Jahre später bekommt man für das selbe Geld die 4080 16GB mit 400mm^2. nVidia benennt ihre Karten eben, wie sie lustig sind.

ChaosTM
2022-09-24, 02:37:09
Wie lustig sind wie wirklich ?
Jesus Christ..

crux2005
2022-09-24, 05:14:49
MH8J-u2Sui0

Wenn schon die AIBs 700-800$ MSRP für die 407080 12GB erwartet haben und angeblich selbst die NV Mittarbeiter von den Preisen überrascht waren... :ucoffee:

Tomahawk
2022-09-24, 07:12:57
Interessant - nVidia scheint wirklich ein größeres Preisproblem zu haben. Warten wir einfach den November ab.

Thunderburne
2022-09-24, 07:13:18
Also die Preise gerade für die 4080 16GB haben sich echt gewaschen !
4090Ti 24Gb ab 2000 Euro
4090 24GB ab 1700 Euro
4080Ti 20GB ab 1350Euro
4080 16GB ab 1000 Euro.
und die 4080 12GB ab 749Euro.
Das wäre für beide Seiten ein faires Geschäft zum Release!
Man möchte halt die 3000ner Serie maximal hoch abverkaufen.

Gerade im Bezug auf eine spätere mögliche 4080TI 20GB finde ich den Preis der RTX 4080 viel zu hoch.

Bin mal gespannt wie viele sich auf diese Preis Gestaltung einlassen werden und wie lange NV mit diesen Preisen Standhaft bleibt.

Gruß an alle

Zossel
2022-09-24, 07:15:46
Vermutlich macht sich nVidia die Trägheit der Datenverarbeitung des Gehirns zu nutzen und nutzt den Selbsttäuschungsvorgang des Gehirns in einer ähnlichen Weise. Wir wollen etwas sehen, was gar nicht da ist und ignorieren die Realität zu einem gewissen Maße, solange die Realität und unser Wunsch nicht zu weit auseinanderliegen (Plausibilitätsüberprüfung)

Was schon damit anfängt 3D auf einer 2D Scheibe darzustellen.

Ansonsten: "unser Wunsch" -> Plausibilität

dildo4u
2022-09-24, 07:35:21
Interessant - nVidia scheint wirklich ein größeres Preisproblem zu haben. Warten wir einfach den November ab.
Sie haben doch schon EVGA verloren, logisch das die neuen Karten nicht für billig kommen wenn damit alle Partner auf 24GB Karten sitzen bleiben die sie vermutlich Minium 1200$ im Einkauf gekostet haben.
Die 4080 12GB hat die Hälfte an Vram braucht eine kleinere Stromversorgung und der Chip ist kleiner.(Tonnen Luft nach unten)

dargo
2022-09-24, 07:52:40
So, die 4080 12GB darf nicht so heißen, weil die Karte schneller als die 3090 TI ist? ;D :confused::freak:
Sie ist nicht überall schneller als die 3090TI, selbst in der eigenen NV-Folie ohne DLSS. Ich sehe da im Prinzip keinen Unterschied zur 3070 vs. 2080TI. Die sind auch ungefähr auf dem gleichen Niveau gewesen solange die 8GB nicht limitiert hatten.

Tomahawk
2022-09-24, 07:54:11
Ich meinte Kostenproblem. Mich stört das Pricing nicht direkt - die Frage lautet nun aber, ob sie diese Preise am Markt durchsetzen können, d.h. die Karten im erwarteten Umfang verkaufen werden. Hier gibt es Zweifel, da sich das Preis/Leistungsverhältnis kaum gebessert hat. Erst dann kann man von einem 'Fehler' sprechen. Fakt ist erstmal, dass nVidias Aktienkurs in den letzten Wochen deutlich gesunken ist und es auch nach der Präsentation nicht besser wurde.

AMD kann jetzt zeigen, ob sie besser/günstiger/effizienter sind.


@Dargo
Die 3070 ist sogar marginal schneller als die Titan RTX ;)

dargo
2022-09-24, 08:04:36
Die 4070 wird wohl eher 10 oder 8GB haben. Mit 160 und 128 Bit SI. :freak:
Wenn eine 4070 noch auf dem AD104 basiert stehen die Chancen gar nicht mal so schlecht, dass sie tatsächlich mit 10GB an einem 160Bit SI kommt. Auf der anderen Seite hatte NV bei Ampere ab der 3070TI abwärts kein SI mehr beschnitten. Offenbar lohnt das bei den kleineren SKUs nicht mehr.

Edit:
Doch was übersehen...

3060 = GA 106 @192Bit
3050 = GA 106 @128Bit

dildo4u
2022-09-24, 08:07:07
Nicht vergessen die 3090 waren die Einzigen NV Karten die weiterhin ohne Mining Limit produziert wurden, die Partner werden Anfang 2022 tonnen Karten bestellt haben da die Nachfrage absurd war für diese Klasse.(Und die Marge am hösten)

Tomahawk
2022-09-24, 08:10:52
Gibt es eine Erklärung, wieso die RTX 3050 nicht auftaucht?

https://pics.computerbase.de/1/0/5/0/7/2-4f26d4143c6946b1/8-1080.747a5687.jpg

dildo4u
2022-09-24, 08:24:45
Ist nicht wirklich Konkurrenz Fähig AMD hat die 6650XT bei 300$ die dürfte 40%? schneller sein.

https://www.newegg.com/p/pl?d=6650xt


https://www.newegg.com/p/pl?d=rtx+3050

Marge ist bei 250$ vermutlich nicht vorhanden.

Tomahawk
2022-09-24, 08:26:24
Meinst du, dass nVidia die 3050 aufgibt? Ich verstehe nicht ganz, worauf du hinaus willst.

dildo4u
2022-09-24, 08:35:05
Ich wüsste nicht warum man die kaufen sollte eine 2060 12GB ist schneller und hat mehr Vram. Also selbst wenn man bei NV bleiben will macht sie kein Sinn.


https://www.newegg.com/evga-geforce-rtx-2060-12g-p4-2263-kr/p/N82E16814487564?Description=rtx%202060&cm_re=rtx_2060-_-14-487-564-_-Product&quicklink=true

Tomahawk
2022-09-24, 08:39:48
Das mag sein - mir ist nur nicht klar, wieso nVidia die Karte nicht auf der Folie listet. Deine Theorie ist also, dass nVidia sie dort nicht listet, da sie langsamer als die 2060 ist? Wieso listet man dann die 2060 nicht? Hast du dafür eine Quelle?

fondness
2022-09-24, 08:40:08
Ich habe das weiter hinten schonmal gefragt und keine Antwort bekommen, deshalb versuche ich es nochmal: Gab es tatsächlich keinerlei Hint wann die Karten jetzt kommen sollen? Also nicht mal eine Andeutung?

Sardaukar.nsn
2022-09-24, 08:42:56
Ich habe das weiter hinten schonmal gefragt und keine Antwort bekommen, deshalb versuche ich es nochmal: Gab es tatsächlich keinerlei Hint wann die Karten jetzt kommen sollen? Also nicht mal eine Andeutung?

Die 4090 sollte ab 12.10. im Handel sein. Reviews ein paar Tage früher.

Edgecrusher86
2022-09-24, 08:48:03
Der 2.10., 4.10., 9.10. oder 11.10. stünden zur Auswahl für Reviews - normal eher die Dienstage und schon einige Tage vor dem Hardlaunch - schauen wir mal. ;)

dildo4u
2022-09-24, 09:18:46
Das mag sein - mir ist nur nicht klar, wieso nVidia die Karte nicht auf der Folie listet. Deine Theorie ist also, dass nVidia sie dort nicht listet, da sie langsamer als die 2060 ist? Wieso listet man dann die 2060 nicht? Hast du dafür eine Quelle?
Meine Theorie ist NV verlässt den Markt unter 300€ im Desktop, die 3050 wird im Notebook z.b mit 4GB verkauft damit es sich rechnet.
Mit 8GB scheint die Marge zu dünn zu sein und 4GB kannste im Desktop keinen andrehen, die 2060 wird auch auslaufen sobald TSMC kein Sinn mehr sieht 12nm als zusätzliche Fertigung zu führen.(Diese Chips sind vermutlich billiger als Samsung 8nm GA106)

Thunderburne
2022-09-24, 09:22:41
Der 2.10., 4.10., 9.10. oder 11.10. stünden zur Auswahl für Reviews - normal eher die Dienstage und schon einige Tage vor dem Hardlaunch - schauen wir mal. ;)
Bei dem was NV gerade macht würde mich es nicht wundern wen die Tests erst kommen wen der Verkauf startet!

HOT
2022-09-24, 09:32:54
Eine Analyse des Preisdesasters:

https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

MMn wird das nicht funktionieren. NV muss die Preise mittelfristig senken. Dann wirds halt dünn für die Marge, aber man hätte ja auch Energie in die Chipletentwicklung stecken können, selbst schuld. Das war AMD in die MCDs packt macht auf einem AD102 fast 1/3 Chipfläche aus.
Wenn man bedenkt, dass Blackwell immernoch monolithisch werden soll, ja dann Mahlzeit.

Troyan
2022-09-24, 09:36:50
Richtig, Chiplet macht es billiger. Ergibt zwar kein Sinn, aber muss wohl so sein. :freak:

Sardaukar.nsn
2022-09-24, 09:56:40
Eine Analyse des Preisdesasters:

https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

MMn wird das nicht funktionieren. NV muss die Preise mittelfristig senken. Dann wirds halt dünn für die Marge, aber man hätte ja auch Energie in die Chipletentwicklung stecken können, selbst schuld. Das war AMD in die MCDs packt macht auf einem AD102 fast 1/3 Chipfläche aus.
Wenn man bedenkt, dass Blackwell immernoch monolithisch werden soll, ja dann Mahlzeit.

Es es aber auch eine Strategie vorrangig das obere Preissegment zu bedienen. Quasi der Mercedes unter den Grafikkarten (https://www.wiwo.de/unternehmen/auto/luxus-only-mercedes-verabschiedet-sich-von-den-normalverdienern/28358580.html), ob das langfristig gut geht steht natürlich in den Sternen.

fondness
2022-09-24, 10:01:15
Eine Analyse des Preisdesasters:

https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

MMn wird das nicht funktionieren. NV muss die Preise mittelfristig senken. Dann wirds halt dünn für die Marge, aber man hätte ja auch Energie in die Chipletentwicklung stecken können, selbst schuld. Das war AMD in die MCDs packt macht auf einem AD102 fast 1/3 Chipfläche aus.
Wenn man bedenkt, dass Blackwell immernoch monolithisch werden soll, ja dann Mahlzeit.

Wenn 1/3 für SI und Cache drauf geht, heißt das aber noch immer, dass ADA102 um die 400mm2 groß wäre mit dem AMD Ansatz und damit auf jeden Fall deutlich größer ist als N31. Und das vermutlich sogar im kleinen Prozess, 4N vs 5N. Ergo dieselbe Performance wäre schon sehr überraschend. Zumal bei AMD auch fläche drauf geht für die infinity fabric Interfaces der externen Chips.

unl34shed
2022-09-24, 10:03:34
Das ist der relevante Kritikpunkt. Karten mit dem selben Namen, die sich unterscheiden. Alles andere ist komplett irrelevant. AMD hat auch eine 500€ Karte für 999€ verhökert. Störte dich nicht, btw. :rolleyes:


Also Troyan, so argumentiert ein 3 Jähriger, warum sind die anderen Punkte bitte nicht valide? Nur weil du es sagst? Wie wäre es mal mit Argumenten?

Aber statt Argumenten kommt von dir idr. lieber persönliches diskreditieren oder eine "Ablenkung" mit AMD, ohne jeglicher Infos was du genau meinst. Das ist einfach nur kindisch... :rolleyes:

Troyan
2022-09-24, 10:04:03
Da nVidia mehr FixedFunction-Einheiten pro ComputeUnit hat, ist das logisch. Dafür liefert man auch massiv viel mehr Leistung.

Also Troyan, so argumentiert ein 3 Jähriger, warum sind die anderen Punkte bitte nicht valide? Nur weil du es sagst? Wie wäre es mal mit Argumenten?

Aber statt Argumenten kommt von dir idr. lieber persönliches diskreditieren oder eine "Ablenkung" mit AMD, ohne jeglicher Infos was du genau meinst. Das ist einfach nur kindisch... :rolleyes:

Ach, beantworte doch einfach die Frage:
Wieso findest du es gut, dass AMD eine $500 für $999 verkauft hat. Hier in F1 22 ist die 3080 20% schneller als eine 6900XT: https://www.computerbase.de/2022-06/f1-22-benchmark-test/3/#abschnitt_benchmarks_mit_rt_in_full_hd_wqhd_und_ultra_hd_update

fondness
2022-09-24, 10:07:52
Da nVidia mehr FixedFunction-Einheiten pro ComputeUnit hat, ist das logisch. Dafür liefert man auch massiv viel mehr Leistung.

Du meinst die tensor cores? Gibt es Angaben wie groß die ungefähr sind? Und werden die mittlerweile für was verwendet? Oder warum verbaut man die?

dildo4u
2022-09-24, 10:08:36
Richtig, Chiplet macht es billiger. Ergibt zwar kein Sinn, aber muss wohl so sein. :freak:
Warum soll es bei den CPU gehen und bei den GPUs nicht?

unl34shed
2022-09-24, 10:15:43
Ach, beantworte doch einfach die Frage:
Wieso findest du es gut, dass AMD eine $500 für $999 verkauft hat. Hier in F1 22 ist die 3080 20% schneller als eine 6900XT: https://www.computerbase.de/2022-06/f1-22-benchmark-test/3/#abschnitt_benchmarks_mit_rt_in_full_hd_wqhd_und_ultra_hd_update

Also bleiben wir mal bei der Reihenfolge, das war nur eine Behauptung/Ablenkung von dir und keine Frage ;)

Ich hab erster gefragt, warum nur du sagen darfst was relevant ist und was nicht? Also bitte Frauen und Kinder zuerst.

Platos
2022-09-24, 10:16:46
Troyan wird es dann erst anpreisen, wenn nvidia es macht. Genau so, wie Linmoum das Speicherinterface bei Lovelace veräppelt, bei RDNA 2 aber nicht.

Es gibt einfach Leute, die können nicht anders, als so zu denken. Darauf muss man nun auch wirklich nicht antworten. Die Trolle sollte man eigentlich nicht füttern. Oberste Regel sozusagen ;)

Grendizer
2022-09-24, 10:20:14
Ich bin mal gespannt, ob eine RTX 4060 dann mit RTX und DLSS bei durchgängig 60fps in 4k liegt.

Troyan
2022-09-24, 10:32:39
Warum soll es bei den CPU gehen und bei den GPUs nicht?

Es extistieren weiterhin Kosten, die ja nicht wegfallen bzw. zusätzlich entstehen. Von nVidia bzgl. COPA (ist ja das, was AMD macht):

Moreover, we believe that in the future even non-composable GPU designs will turn to MCM organizations due to looming reticle limitations, effectively introducing similar MCM link overheads into all GPU designs. The main challenge with such modular GPU designs going forward is its growing integration complexity, effectively shifting focus from on-die integration onto advanced assembly, test, and continuous innovation in on-package interconnect and packaging technologies.

AD103 ist 400mm^2, 25% kleiner als Navi31. Leistung wird locker flockig in der Nähe sein. nVidia konnte eben den L2 Cache massiv erhöhen, AMD hat mit L2 und L3 Cache redundanz. Ebenfalls hat man Flächenoverhead durch die Links im Chip und Chiplet.

Das ist aktuell alles gehöpft wie gesprungen. Für AMD macht es Sinn, weil sie mit CPUs auf 5nm deutlich mehr verdienen.

SentinelBorg
2022-09-24, 10:35:48
Die Preisstruktur ist schon ziemlich Banane. Dass eine 4090 mit 50% mehr Speicher und Bandbreite und mehr als 60% an Shadern "nur" 35% mehr kostet als die 4080 ist einfach nur wirr und das Gegenteil von dem was bisher Sache war.

Die 4080 mit 16 GB müsste so bei 1100 rum liegen und die 4070 mit 12 GB (die sie uns als 4080 verkaufen wollen) bei unter 900. Dann wäre das Preisgefüge noch normal, wenn aus insgesamt durch die Bank weg höher. Aber fast 1500 für die 4080 mit dem kleineren Chip, das ist ein schlechter Schwerz.

dildo4u
2022-09-24, 10:35:52
Da nVidia mehr FixedFunction-Einheiten pro ComputeUnit hat, ist das logisch. Dafür liefert man auch massiv viel mehr Leistung.



Ach, beantworte doch einfach die Frage:
Wieso findest du es gut, dass AMD eine $500 für $999 verkauft hat. Hier in F1 22 ist die 3080 20% schneller als eine 6900XT: https://www.computerbase.de/2022-06/f1-22-benchmark-test/3/#abschnitt_benchmarks_mit_rt_in_full_hd_wqhd_und_ultra_hd_update
AMD rennt ok da nicht am Vram gespart wurde, Preise scheinen ok.

https://abload.de/img/rtgdfb3d9j.png

https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_uhd

6800XT für 680€ scheint die beste Preis/Leistung zu haben. https://geizhals.de/xfx-speedster-swft-309-radeon-rx-6800-xt-core-gaming-rx-68xtaqfd9-a2579649.html
3080 sind bei 800€ lohnt sich also nicht mal im RT only Parkour. https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=132_8192%7E9810_06+16+-+RTX+3080

BlacKi
2022-09-24, 10:38:30
3080 sind bei 800€ lohnt sich also nicht mal im RT only Parkour.


sicher, wenn man RT ohne Dlss spielt. aussagekraft also null.

dildo4u
2022-09-24, 10:43:51
Ich denke die 12GB sind das neue Minium sobald sich die 3060 weiter verbreitet, gerade wenn du Geforce kaufst willst du ja RT nutzen was mehr Speicher braucht.

BlacKi
2022-09-24, 10:44:46
Ich denke die 12GB sind das neue Minium sobald sich die 3060 weiter verbreitet, gerade wenn du Geforce kaufst willst du ja RT nutzen was mehr Speicher braucht.und dlss das speicherverbrauch reduziert?

Exxtreme
2022-09-24, 10:48:42
und dlss das speicherverbrauch reduziert?
Womöglich ja da DLSS eine Senkung der Auflösung ist.

dildo4u
2022-09-24, 10:52:40
und dlss das speicherverbrauch reduziert?
Wenn eine 1080p Karte wie die 3060 12GB hat reicht das imo nicht für die 3080 10GB, da man ja mit DLSS z.b von 1440p zu 4k skaliert.
Ich vermute das deshalb die 3080 12GB deutlich besser Altern wird als die 3080 10gb.

BlacKi
2022-09-24, 10:55:44
Womöglich ja da DLSS eine Senkung der Auflösung ist.gerade dlss 3.0 wird im performance mode angepriesen. das ist fhd als ausgangslösung. und umso besser dlss wird, umso niedriger kann man in der ausgangsauflösung runter. es ist kein bullshit, wenn man irgendwann ganz wegkommt von einer ausgangsauflösung in einigen jahren.


thema pricing
die msi 4090 trio wird gerade bei den amis zum msrp preis angeboten. scheinbar ist bei dem msrp preis wieder ordentlich marge vorhanden, sodass man selbst gute kühllösungen zur uvp/msrp bekommt. anders als bei amd.

würde mich also nicht wundern, wenn die 12gb 4080 dieses jahr noch für unter 1000€ zu haben sein wird. interessiert mich aber nicht, ich will ne karte mit gddr6, aka 4070.

Platos
2022-09-24, 10:59:47
Wurde das hier schon gepostet ? Aufpassen, dass Kabel nicht wegbrennen mit Ada Lovelace!

https://www.youtube.com/watch?v=p48T1Mo9D3Q&t=322s

https://www.youtube.com/watch?v=K6FiGEAp928

Tomahawk
2022-09-24, 11:06:14
Die 4090 wird ihre Käufer finden - auch wenn die 450W sicherlich stören werden. Gibt es jemanden der klar sagt, dass die 4080 12GB / 16GB eine ernsthafte Kaufoption ist?

BlacKi
2022-09-24, 11:13:23
Die 4090 wird ihre Käufer finden - auch wenn die 450W sicherlich stören werden. Gibt es jemanden der klar sagt, dass die 4080 12GB / 16GB eine ernsthafte Kaufoption ist?nicht wirklich vor den unabhängigen tests. aber das gilt auch für meine 4070 pläne.

Ravenhearth
2022-09-24, 11:23:28
Eine Analyse des Preisdesasters:

https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

MMn wird das nicht funktionieren. NV muss die Preise mittelfristig senken. Dann wirds halt dünn für die Marge, aber man hätte ja auch Energie in die Chipletentwicklung stecken können, selbst schuld. Das war AMD in die MCDs packt macht auf einem AD102 fast 1/3 Chipfläche aus.
Wenn man bedenkt, dass Blackwell immernoch monolithisch werden soll, ja dann Mahlzeit.
Wenn die geschätzten BOMs für die Karten zutreffen, könnte Nvidia die 4080 16GB für $999 und die 4080 12GB für $699 verkaufen und hätte immer noch eine ähnliche Marge wie bei der 4090. Die beiden Karten sind einfach überteuert.

Wenn 1/3 für SI und Cache drauf geht, heißt das aber noch immer, dass ADA102 um die 400mm2 groß wäre mit dem AMD Ansatz und damit auf jeden Fall deutlich größer ist als N31. Und das vermutlich sogar im kleinen Prozess, 4N vs 5N. Ergo dieselbe Performance wäre schon sehr überraschend. Zumal bei AMD auch fläche drauf geht für die infinity fabric Interfaces der externen Chips.
Die Flächeneffizienz von RDNA3 nicht unterschätzen. ;)

Sardaukar.nsn
2022-09-24, 11:23:36
Gibt es jemanden der klar sagt, dass die 4080 12GB / 16GB eine ernsthafte Kaufoption ist?

Da wird für viele eine gebrauchte 3090 interessanter sein.

Exxtreme
2022-09-24, 11:23:36
gerade dlss 3.0 wird im performance mode angepriesen. das ist fhd als ausgangslösung. und umso besser dlss wird, umso niedriger kann man in der ausgangsauflösung runter. es ist kein bullshit, wenn man irgendwann ganz wegkommt von einer ausgangsauflösung in einigen jahren.


Naja, es ist halt eine Absenkung der Bildqualität um mehr fps rauszuholen. Nur dazu brauche ich DLSS wiederum nicht. Die Auflösung senken oder woanders Details senken kann ich auch so im Spiel falls das zu langsam läuft.

BlacKi
2022-09-24, 11:26:33
Naja, es ist halt eine Absenkung der Bildqualität um mehr fps rauszuholen. Nur dazu brauche ich DLSS wiederum nicht. Die Auflösung senken oder woanders Details senken kann ich auch so im Spiel falls das zu langsam läuft.zum beispiel RT? sry, aber dlss hat den besten trade wenn es um grafik vs performance geht. abseits von RT.

Troyan
2022-09-24, 11:27:53
Naja, es ist halt eine Absenkung der Bildqualität um mehr fps rauszuholen. Nur dazu brauche ich DLSS wiederum nicht. Die Auflösung senken oder woanders Details senken kann ich auch so im Spiel falls das zu langsam läuft.

Rasterizing ist auch Absenkung der Bildqualität. :cool:

basix
2022-09-24, 11:28:28
MMn wird das nicht funktionieren. NV muss die Preise mittelfristig senken. Dann wirds halt dünn für die Marge, aber man hätte ja auch Energie in die Chipletentwicklung stecken können, selbst schuld.

"Dünn" ist das falsche Wort. Es werden dann einfach <60% Marge für Nvidia ;)

Richtig, Chiplet macht es billiger. Ergibt zwar kein Sinn, aber muss wohl so sein. :freak:
Ist ja nicht so, dass die ganze Industrie auf Chiplets zusteuert. Weil es teurer ist, machen die das alle. Weil mehr Geld ausgeben ist geil.

Viel Spass mit deiner Argumentation, wenn Nvidia in nicht allzu ferner Zeit auch mit Chiplets kommt.

Du meinst die tensor cores? Gibt es Angaben wie groß die ungefähr sind? Und werden die mittlerweile für was verwendet? Oder warum verbaut man die?
Ja, gibt es von Turing: https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/

RT + Tensor Cores machen ~20% eines SMs aus. Bei Ampere vermutlich etwas weniger, da sich das Ratio FP32 <-> Tensor FP16 geändert hat. Bei Lovelace wird das vermutlich ähnlich ausschauen (1400 TFLOPs = FP8 + Sparsity).

Verwendungszweck ist DLSS. DL-DSR laut offiziellen Angaben auch. Alles andere ist in Games noch nicht angekommen (siehe all die AI-Augmented RT Rendering Papers von Nvidia, irgendwelche Denoiser etc.).

DLSS und DL-DSR sind mMn aber schon eine gute Verwendung (+10% Die Size -> +100% Performance). Ist halt leider in vielen Spielen nicht verfügbar, gibt zum Teil Bildqualitätsmängel und AMDs FSR2 hat bewiesen, dass es Tensor Cores dazu nicht zwingend braucht. Nichtsdestotrotz finde ich, das ML/AI in Spielen sehr viel bewirken kann. Und wenn man hier in Form von dedizierten Recheneinheiten viel Oomph mitbringt, umso besser. Unbendingt nötig ist dedizierte HW mMn aber nicht, DOT4a mit INT8 oder FP16 via RPM sind auch nicht schlecht. Mehr Performance ist aber immer besser ;)

Troyan
2022-09-24, 11:36:00
Ist ja nicht so, dass die ganze Industrie auf Chiplets zusteuert. Weil es teurer ist, machen die das alle. Weil mehr Geld ausgeben ist geil.

Viel Spass mit deiner Argumentation, wenn Nvidia in nicht allzu ferner Zeit auch mit Chiplets kommt.

Logik? Nur weil nVidia in der Zukunft was macht, hat das überhaupt keine Relevanz für heute.

Unbendingt nötig ist dedizierte HW mMn aber nicht, DOT4a mit INT8 oder FP16 via RPM sind auch nicht schlecht. Mehr Performance ist aber immer besser ;)

Man braucht auch keine dedizierten RT-Beschleuniger. Ist eben nur 4x langsamer und das beim selben Transistorenaufwand. :freak:

Exxtreme
2022-09-24, 11:40:28
zum beispiel RT? sry, aber dlss hat den besten trade wenn es um grafik vs performance geht. abseits von RT.

Ja, aber das ist wiederum etwas was sich widerspricht. Man aktiviert RT ja um eine schönere Grafik zu haben. Nur muss man diese Grafik wiederum mit DLSS verschlechtern damit es schnell genug läuft. IMHO hätten sie sich voll auf RT konzentrieren sollen und nicht auf sowas wie DLSS3. Aber gut, jetzt ist der Käse schon gegessen.

Leonidas
2022-09-24, 11:41:08
Aus den 3DC-News ... (https://www.3dcenter.org/news/news-des-23-september-2022)

Cyberpunk 2077 @ 1440p & RayTracing|DLSS 2/3|ohne DLSS
nVidia GeForce RTX 4090 FE|170 fps|60 fps
MSI GeForce RTX 3090 Ti Suprim X|61 fps|37 fps
Performance-Gewinn|+178%|+62%

Lehdro
2022-09-24, 11:41:47
Logik? Nur weil nVidia in der Zukunft was macht, hat das überhaupt keine Relevanz für heute.

Klar, weil erst wenn NV das macht ist es auch gut. Alle anderen sind solange Geisterfahrer auf ihrem Irrweg.

Siehe große Caches:
Bei AMD, igitt, die verkaufen kleine Memorybusse zum großen Preis!
Bei NV, genial, Memorybusgrößen der eigenen Dies untereinander haben überhaupt keine Relevanz mehr auf die Produktpositionierung.

basix
2022-09-24, 11:43:34
Logik? Nur weil nVidia in der Zukunft was macht, hat das überhaupt keine Relevanz für heute.

Dem Punkt kann ich zustimmen, in der Tat. Sachlagen können sich in Zukunft ändern.

Intel und AMD und andere machen es heute aber sicher nicht, weil es teurer ist. Die machen das nur, wenn es ökonomisch Sinn macht (Ponte Vecchio mal aussen vor, das ist ein ganz anderer Markt)

Man braucht auch keine dedizierten RT-Beschleuniger. Ist eben nur 4x langsamer und das beim selben Transistorenaufwand. :freak:
Ich sage nicht, dass sie nicht sinnvoll sind. Wenn du meinen Text verstanden hättest, wäre dir das klar ;) Und von RT habe ich gar nicht gesprochen.

Bei ML/AI ist ja immer das Argument, das Inferencing wenig Rechenleistung braucht, da hochoptimiert durchs Training. Für Animationen (Bewegung, Gesichter, Sprach-Lokalisierung der Mundbewegungen), Wegfindung/NPC-KI und ein wenig Kleidungs-Physik benötigt man nicht Unmengen an Inferencing Performance. Wäre aber schon ein grosser Sprung in der Immersion. Die Frage ist also: Wie viel Leistung benötigt man wirklich? Man kann immer Unmengen an Rechenleistung aufs Problem werfen, die sinnvollste Lösung ist das aber noch lange nicht.

Troyan
2022-09-24, 11:46:30
Du redest wir deine Kollegen komplett wirr. RDNA2 ist eine grottige Architektur wie man in haufenweisen Spielen sieht. Da bringt Cache nüscht und dient einzig der Effizienzsteigerung, weil man Offchip-Bandbreite sparen kann.

nVidia hatte schon mit HPC-Ampere 50mb L2 Cache. Deiner Logik hat AMD nur nVidia kopiert. :rolleyes:

HOT
2022-09-24, 11:48:05
Aus den 3DC-News ... (https://www.3dcenter.org/news/news-des-23-september-2022)

Cyberpunk 2077 @ 1440p & RayTracing|DLSS 2/3|ohne DLSS
nVidia GeForce RTX 4090 FE|170 fps|60 fps
MSI GeForce RTX 3090 Ti Suprim X|61 fps|37 fps
Performance-Gewinn|+178%|+62%

Schade, interessanter hätte ich den Leistungsunterschied mit DLSS2 gefunden.

why_me
2022-09-24, 11:48:28
RDNA2 ist eine grottige Architektur wie man in haufenweisen Spielen sieht.

Vom ständigen Wiederholen wird das auch nicht wahr... :rolleyes:

Schade, interessanter hätte ich den Leistungsunterschied mit DLSS2 gefunden.

Einfach durch 2 teilen, DLSS3 baut ja auch DLSS2 auf und erweitert er durch frame interpolation.

Also 170/2 = 85
85/61 = 39% (CPU limit :confused:)

E: erklärt natürlich den geringeren Verbauch bei DLSS3 von wccftech

unl34shed
2022-09-24, 11:52:38
Einfach durch 2 teilen, DLSS3 baut ja auch DLSS2 auf und erweitert er durch frame interpolation.

Also 170/2 = 85
85/61 = 39% (CPU limit :confused:)

E: erklärt natürlich den geringeren Verbauch

Wird ja immer besser ;D

E: Troyan, kommt da noch was?

Troyan
2022-09-24, 11:54:48
Vom ständigen Wiederholen wird das auch nicht wahr... :rolleyes:


Kein Plan. Wenn eine 3090 doppelt so schnell ist, was sagt das also über RDNA2 aus?
Hier in Doom Eternal mit Raytracing in 4K sind es 68%: https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_uhd

Und die 3090 hat nur 6mb L2 Cache. :eek:

Daredevil
2022-09-24, 11:54:52
Warum soll es bei den CPU gehen und bei den GPUs nicht?
Chiplet macht es für AMD billiger, nicht für den Kunden. ;)

basix
2022-09-24, 11:57:19
Du redest wir deine Kollegen komplett wirr.
Aha...


Da bringt Cache nüscht und dient einzig der Effizienzsteigerung, weil man Offchip-Bandbreite sparen kann.
Und was ist schlecht an Effizienz? Und was sagst du hier bei Lovelace?

Ausserdem gewinnt man nicht nur Effizienz, sondern auch Performance (höhere effektive Bandbreite, niedrigere effektive Latenz). Und das ist ein kritischer Faktor, um überhaupt die Recheneinheiten bei so hohen Taktraten wie bei RDNA2 und nun Lovelace mit Daten füttern zu können.



nVidia hatte schon mit HPC-Ampere 50mb L2 Cache. Deiner Logik hat AMD nur nVidia kopiert. :rolleyes:
Auf welche Logik du da ansprichst, ist mir völlig unklar. Ich habe rein gar nichts vom Kopieren von Konzepten in irgendeiner Weise erwähnt. Und ausserdem lagen HPC-Ampere und RDNA2 Release so nahe beieinander, dass ein Kopieren eh unmöglich wäre. Chip Entwicklungszeiten sind für sowas viel zu lange.

Chiplet macht es für AMD billiger, nicht für den Kunden. ;)
Jein. Kommt auf die Marge an, die AMD anstrebt ;)

why_me
2022-09-24, 11:58:21
Kein Plan. Wenn eine 3090 doppelt so schnell ist, was sagt das also über RDNA2 aus?
Hier in Doom Eternal mit Raytracing in 4K sind es 68%: https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_uhd

Das du mal wieder nur Cherrypicking betreibst und schlecht in Mathe bist 68% /= doppelt so schnell. Hast du das bei Nvidia gelernt? Die Runden auch immer großzügig auf in ihren Präsentationen...

E: Oder schreibst du vielleicht sogar die Folien für Nvidia? Würde einiges erklären :biggrin:

Daredevil
2022-09-24, 12:03:55
Jein. Kommt auf die Marge an, die AMD anstrebt ;)
Natürlich ähnlich wie bei Zen3 die maximal mögliche, um gerade so Intel Paroli zu bieten bzw. sie zu übertreffen bei gleichem bzw. leicht niedrigerem Preis. ( Außer natürlich beim 16c, da kann der Preis sprudeln )
AMD hat auch in 2022 nichts zu verschenken, das sieht man vielleicht auch an ihren Quartalsergebnissen, dass sie nicht mehr die Samariter sind oder in der Position des "Underdogs" sind, der Schüler zu vielen FPS verschafft.
Ist auch völlig zurecht so, wer sowas geniales wie Chiplets und diesen Infinity-Margen-Cache auf den Markt bringt hat es auch verdient. :)

Spring
2022-09-24, 12:05:25
Rasterizing ist auch Absenkung der Bildqualität. :cool:

Quatsch.

Zumal niemand im Multiplayer RT verwendet (außer man möchte öfter sterben), reine Solo-Games Geschichte.

Und wieso sich alle an DLSS so hochziehen, vor 20 Jahren wurde nach jedem Treiber release von ATi und nVidia hier die Bildqualität besprochen und ein Megaaufriss gemacht. Jetzt werden konstruierende Upscaler als das Maß aller Dinge angespriesen, sowas wie "Auflösung runter stellen" oder "Details runter" gibts wohl nicht mehr. Und DLSS/FSR im Multiplayer ist jetzt auch kein Highlight.

Troyan
2022-09-24, 12:05:49
Das du mal wieder nur Cherrypicking betreibst und schlecht in Mathe bist 68% /= doppelt so schnell. Hast du das bei Nvidia gelernt? Die Runden auch immer großzügig auf in ihren Präsentationen...

E: Oder schreibst du vielleicht sogar die Folien für Nvidia? Würde einiges erklären :biggrin:

"Cherrypicking" - hihihi. Ist wohl eher das hier: https://www.pcgameshardware.de/Dying-Light-2-Spiel-61750/Specials/Release-Test-Benchmark-Systemanforderungen-PC-Anforderungen-1388551/3/

:eek::cool:

Quatsch.


Wenn SSRs Reflektionen verschwinden, SSAOs Halos werfen, Schatten komplett falsch sind und flimmern, Echtzeit-GI die Hälfte der Szene verpasst, dann ist es eine Absenkung der Bildqualität. Rasterizing ist der Inbegriff von reduzierter Bildqualität.

basix
2022-09-24, 12:07:09
Natürlich ähnlich wie bei Zen3 die maximal mögliche, um gerade so Intel Paroli zu bieten bzw. sie zu übertreffen bei gleichem bzw. leicht niedrigerem Preis. ( Außer natürlich beim 16c, da kann der Preis sprudeln )
AMD hat auch in 2022 nichts zu verschenken, das sieht man vielleicht auch an ihren Quartalsergebnissen, dass sie nicht mehr die Samariter sind oder in der Position des "Underdogs" sind, der Schüler zu vielen FPS verschafft.
Ist auch völlig zurecht so, wer sowas geniales wie Chiplets und diesen Infinity-Margen-Cache auf den Markt bringt hat es auch verdient. :)

AMD sollte mMn aber schon das Ziel haben, Marktanteile zu gewinnen. Ewig bei 20% zu sein, hilft ihnen langfristig nicht. Bei 35% Marktanteil könnten sie auf etwas Marge verzichten und würden dennoch +50% and Gewinn erwirtschaften.

Und wieso sich alle an DLSS so hochziehen, vor 20 Jahren wurde nach jedem Treiber release von ATi und nVidia hier die Bildqualität besprochen und ein Megaaufriss gemacht. Jetzt werden konstruierende Upscaler als das Maß aller Dinge angespriesen, sowas wie "Auflösung runter stellen" oder "Details runter" gibts wohl nicht mehr. Und DLSS/FSR im Multiplayer ist jetzt auch kein Highlight.

Bei DLSS wird bei jedem Game zigfach die Qualität von Testseiten angeschaut. Ist also sehr wohl ein kritisches Merkmal. Kannst ja mal hier in den DLSS & FSR Thread schauen, Bildqualität & Artefakte werden deutlich prominenter besprochen als die gesteigerte Performance. Perfekt ist es nicht, richtig. Das Produkt aus Performance*Qualität steigt im Normalfall aber (1440p mit DLSS-Q und ab 4K bis max. DLSS-P). Und in gewissen Szenarien ist DLSS für eine deutliche Qualitätsteigerung verantwortlich (z.B. alle Vegetation in HZD, was aber auch mit FSR2 gut ausschauen soll)

Und: Aufösung runter sieht immer(!) schlechter aus als Auflösung runter + DLSS/FSR2 ;)

Daredevil
2022-09-24, 12:07:26
Quatsch.

Zumal niemand im Multiplayer RT verwendet (außer man möchte öfter sterben), reine Solo-Games Geschichte.

Und warum? Wegen der Performance? Ach guck an, dazu ist DLSS ja da. :D

Spring
2022-09-24, 12:07:58
Und warum? Wegen der Performance? Ach guck an, dazu ist DLSS ja da. :D

tausche iput lag mit reduzierung der bildqualität

Daredevil
2022-09-24, 12:10:03
AMD sollte mMn aber schon das Ziel haben, Marktanteile zu gewinnen. Ewig bei 20% zu sein, hilft ihnen langfristig nicht. Bei 35% Marktanteil könnten sie auf etwas Marge verzichten und würden dennoch +50% and Gewinn erwirtschaften.
Ich würde einfach mal behaupten, das sie das nicht tun müssen, denn wenn man jede Playstation4/XBoxOne und PS5/XboxSeries und sonstige Handhelds zusammen zählt, hat AMD mit RDNA bzw. RDNA2 schon die "Gaming Hoheit" und Nvidia ist eher derjenige, der "entgegen" kommen muss. Die bedienen ja nur die Switch und mehr quasi nicht.
Das einzige was AMD gut stehen würde wäre mal im Notebook Markt voran zu kommen, da sind sie mit dieser GPU Generation mal wieder nahezu unsichtbar anhand der angebotenen Modelle.

AMD weiß was sie können, deswegen versuchen sie Nvidia ja auch dort im Keim zu ersticken, indem sie "alles in einem" anbieten können. Siehe die Kooperation mit Samsung und RDNA, die ja eher weniger geglückt ist. Nvidia hingegen fokussiert sich auf ihre Stärken im Server/Automotive Bereich und dort ist Tensor/RT gerade ihre massive Stärke, wo niemand rankommt. Das dürfen sie nicht verlieren.
Wenn Nvidia aber mal eine potente CPU herstellen sollte, wäre ihre Lösung ggf. die bessere für Konsolenhersteller durch eben die KI Geschichten. Damit bekommt man eine Konsole günstig und kann trotzdem eine hohe Leistung liefern. Dort ist Nvidia aber noch lange nicht und AMD macht es denen sicher auch nicht einfach. :D

basix
2022-09-24, 12:14:41
Wieso müssen? Will eine AG nicht maximalen Gewinn machen ;) Wie gesagt, wer mehr verkauft, kann auch in absoluten Zahlen mehr Gewinn machen.

Spring
2022-09-24, 12:15:25
Wenn SSRs Reflektionen verschwinden, SSAOs Halos werfen, Schatten komplett falsch sind und flimmern, Echtzeit-GI die Hälfte der Szene verpasst, dann ist es eine Absenkung der Bildqualität. Rasterizing ist der Inbegriff von reduzierter Bildqualität.

Und Glitches sowie Unschärfe von DLSS sind ja soviel besser. :rolleyes:

Es macht sowieso kein Sinn mit Dir zu diskutieren, da Du auch hier wieder an der Masse vorbeiredest und ein nVidia Märchen nach dem nächsten auftischst, Raytracing spricht nur einen kleinen Prozentsatz der Gamer an, auch heute noch.

Niemand braucht RT im Multiplayer, außer Du bist Masochist. Deal w it.

Daredevil
2022-09-24, 12:16:13
Wieso müssen? Will eine AG nicht maximalen Gewinn machen ;) Wie gesagt, wer mehr verkauft, kann auch in absoluten Zahlen mehr Gewinn machen.
Bei einem Preiskampf zwischen zwei Anbietern verlieren immer beide.

BlacKi
2022-09-24, 12:16:14
tausche iput lag mit reduzierung der bildqualitätwieso? dlss hat pauschal erstmal keinen inputlag.

Sardaukar.nsn
2022-09-24, 12:17:52
Caseking listet die ersten Karten: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4090

why_me
2022-09-24, 12:18:42
"Cherrypicking" - hihihi.

Nein, es ist genau das, Cherrypicking.
Anstatt RT-AVG oder ein andere RT spiel zu nehmen, nennst du genau Doom Eternal in 4k, bei dem komischerweise der Unterschied am größten ist.

Ich könnte jetzt auch FC6 sagen und wie schlecht die 3090 ist, trotz RT cores nicht schneller als die 6900. Von wegen doppelt so schnell... muss das eine "grottige Architektur" sein. :eek:
Genau so Cherrypicking.

Bist du nicht in der Lage sachlich zu argumentieren? Unl34shed's Frage ignorierst du jetzt auch einfach, hast ihm vorgeworfen ein Fanboy zu sein, was vielleicht stimmt, who knows. Aber du bist nicht in der Lage vernünftig zu argumentieren.
Genau so gestern, dein Bild mit "musst du 1/3 abziehen"... warum? Funkstille.
Oder dein Rant über heise... kein bischen sachlich argumentieren, nur mit unterstellungen um dich geworfen... sagt viel über deine Reife aus ;)

basix
2022-09-24, 12:19:05
Bei einem Preiskampf zwischen zwei Anbietern verlieren immer beide.

Siehe die Auflistung von Ravenhearth:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13116880#post13116880

AMD kann günstigere Preise verlangen und immer noch die selbe (hohe) Marge von Nvidia erreichen. Nennst du das Preiskampf? Und falls RDNA3 auf Augenhöhe mit Lovelace konkurrieren sollte, würde AMD das bessere P/L beiten. Ergo: Man gewinnt Marktanteile.

Man kann auch die Marge maximieren und die selben Preise wie Nvidia verlangen. Das würde aber vor allem Nvidia helfen, nicht AMD.

HOT
2022-09-24, 12:19:37
wieso? dlss hat pauschal erstmal keinen inputlag.
DLSS3 hat eine Latenz der halben Framerate. Man spart also nicht CPU-Leistung, sonst wäre das Lag noch höher, sondern bastelt Frames bei der reinen Ausgabe hinzu. Ein Shooter, der im CPU-Limit bei 30FPS läuft und mit DLSS3 dann auf 60FPS verhält sich nicht wie ein Shooter, den man mit 60FPS im CPU-Limit spielt, sondern wie einer, der nur mit 30FPS läuft. Nur die Ausgabe sieht flüssiger aus, das wars. Deshalb halte ich DLSS3 für ne Mogelpackung. Bei Spielen, bei denen die Interaktivität nicht im Millisekundenberiech wichtig ist, ist DLSS3 ein Gewinn, also da wo es eigentlich sowieso egal ist.

Daredevil
2022-09-24, 12:20:05
tausche iput lag mit reduzierung der bildqualität
Oha, jedes ms zählt, oder wie?
Ich hoffe doch stark, du hast nen 500Hz GSync Monitor auf dem Tisch stehen, denn alles andere ist maximal für WoW tauglich.

Oder ernsthaft geantwortet:
Du bist nicht repräsentativ für die Gaming Welt.
Solange es Millionen Spieler gibt, die mit Bluetooth an einer Konsole RDR2 mit Input Lag aus der Hölle spielen, gibt es auch Millionen Spieler, die diesen Input Lag schlicht irrelevant finden, da sie ihn nicht spüren.

dildo4u
2022-09-24, 12:20:20
Corsair bringt nur ein Adapter Kabel aber keine neuen ATX 3.0 Netzteile.


https://www.corsair.com/newsroom/press-release/ready-to-go-beyond-fast-corsair-announces-compatibility-for-nvidia-40-series-graphics-cards

Spring
2022-09-24, 12:21:44
wieso? dlss hat pauschal erstmal keinen inputlag.


Falsch verstanden.

Input Lag (RT) & Reduzierung der BQ gegenüber native Auflösung (DLSS)


DLSS3 hat eine Latenz der halben Framerate. Man spart also nicht CPU-Leistung, sonst wäre das Lag noch höher, sondern bastelt Frames bei der reinen Ausgabe hinzu. Ein Shooter, der im CPU-Limit bei 30FPS läuft und mit DLSS3 auf 60FPS verhält sich wie ein Shooter, den man mit 30FPS spielt. Nur die Ausgabe sieht flüssiger aus, das wars. Deshalb halte ich DLSS3 für ne Mogelpackung. Bei Spielen, bei denen die Interaktivität nicht im Millisekundenberiech wichtig ist, ist DLSS3 ein Gewinn, also da wo es eigentlich sowieso egal ist.


Ok, dann ist es sogar noch schlechter als ich dachte...

Nichts für Games wie CS GO, Valorant und Co.

BlacKi
2022-09-24, 12:25:18
DLSS3 hat eine Latenz der halben Framerate. Man spart also nicht CPU-Leistung, sonst wäre das Lag noch höher, sondern bastelt Frames bei der reinen Ausgabe hinzu. Ein Shooter, der im CPU-Limit bei 30FPS läuft und mit DLSS3 auf 60FPS verhält sich wie ein Shooter, den man mit 30FPS spielt. Nur die Ausgabe sieht flüssiger aus, das wars. Deshalb halte ich DLSS3 für ne Mogelpackung. Bei Spielen, bei denen die Interaktivität nicht im Millisekundenberiech wichtig ist, ist DLSS3 ein Gewinn, also da wo es eigentlich sowieso egal ist.nein, nicht pauschal, sondern nur wenn framegeneration aktiv ist. niemand ist gezwungen das zu nutzen.

Daredevil
2022-09-24, 12:26:48
AMD kann günstigere Preise verlangen und immer noch die selbe (hohe) Marge von Nvidia erreichen.


Im Steam Survey haben mehr Nutzer eine 3080ti als eine 5700xt.
Ich weiß jetzt nicht genau, wer da die höhere Marge bekommt, trotz der höheren Verbreitung, habe aber eine Vermutung. :D

AMD muss mehr bieten als nur Preis und Performance, wenn beides zündet bei RDNA2 auch nicht ganz, zumindest laut Steam Statistiken.
Und das tun sie ja auch erfolgreich bei den Konsolen.

basix
2022-09-24, 12:29:25
Klar, da gehört mehr als P/L an. Aber Lovelace hat AMD gerade einen Steilpass in dieser Hinsicht geliefert ;) Und wenn RT auf Ampere+ Niveau liegt, FSR 2.1 stärker zündet und noch ein paar Gimmicks/Feature in den Treiber und die GPU kommen, schaut es nicht so schlecht aus.

Dass Nvidia so stark ist, liegt zum Teil auch gerade daran, dass sie Marktführer sind und die schnellsten GPUs haben. Das nennt sich Mindshare.

Troyan
2022-09-24, 12:31:52
Nein, es ist genau das, Cherrypicking.
Anstatt RT-AVG oder ein andere RT spiel zu nehmen, nennst du genau Doom Eternal in 4k, bei dem komischerweise der Unterschied am größten ist.


Trollo, Doom Eternal läuft mit fast 120FPS in nativen 4K. Wie dreist muss man sein zu behaupten, dass wäre Cherrypicking?

PCGH haufenweise weitere Benchmarks mit Raytracing: https://www.pcgameshardware.de/Radeon-RX-6950-XT-Grafikkarte-278358/Tests/6950-XT-6750-XT-6650-XT-Test-Benchmark-Vergleich-1394222/2/#a6
Hier die Zusammenfassung zwischen 6950XT und 3090:
+56% in Cyberpunk,
+54% in Doom Eternal,
+64% in Dying Light 2,
+30% in F1 21,
0% in Farcry 6,
+38% in Ghostwire,
+56% in Guardians,
+42% in Metro Exodus EE,
+46% in Riftbreaker,

=>~42% über 9 Spiele.

Jetzt bist du dran, zeige mal 9 Spiele, wo die 6900XT >40% schneller ist.

HOT
2022-09-24, 12:32:13
nein, nicht pauschal, sondern nur wenn framegeneration aktiv ist. niemand ist gezwungen das zu nutzen.
?
Klar pauschal. Das Spiel läuft halt mit 30FPS, nur die Grafikausgabe ist 60FPS in meinem Beispiel. Das mag einen geringfügigen Gewinn geben, weils angenehmer fürs Auge ist, aber es spielt sich ansonsten eben nicht angenehmer.

Dural
2022-09-24, 12:34:14
Ihr versteht das grosse ganze nicht.

AMD so wie NV und jeder andere muss Jahre voraus die Wafer bestellen und diese sind in der heutigen Zeit massiv begeehrt. Die können nicht sagen wir wollen in 6 Monaten 50% mehr Wafer, da die kapazitäten schlicht gar nicht da sind.

Was ich damit sagen will, die stückzahlen sind längst auf dem Papier fixiert! Und alles was geliefert wird, wird auch verkauft. Keiner kann und will da seine Produkte verramschen, die Zeiten sind einfach vorbei.

HOT
2022-09-24, 12:35:38
Ihr versteht das grosse ganze nicht.

AMD so wie NV und jeder andere muss Jahre voraus die Wafer bestellen und diese sind in der heutigen Zeit massiv begeehrt. Die können nicht sagen wir wollen in 6 Monaten 50% mehr Wafer, da die kapazitäten schlicht gar nicht da sind.

Was ich damit sagen will, die stückzahlen sind längst auf dem Papier fixiert! Und alles was geliefert wird, wird auch verkauft. Keiner kann und will da seine Produkte verramschen, die Zeiten sind einfach vorbei.
Najaaa, die Hersteller können immer noch variieren was genau sie produzieren. Das stimmt also nur für die Gesamtmenge der Bestellung. Ob das jetzt CPUs, RDNA oder CDNA ist, und welcher Chip, ist weiterhin AMD überlassen, um das mal dort zu verdeutlichen.

why_me
2022-09-24, 12:36:43
Jetzt bist du dran, zeige mal 9 Spiele, wo die 6900XT >40% schneller ist.

Ich bin nicht so bescheuert, jemals so etwas zu behaupten, also warum bin ich jetzt an der Reihe?
Du auf der anderen Seite hast gesagt "Wenn eine 3090 doppelt so schnell ist", also +100% und argumentierst dann mit folgenden Werten:

+56% in Cyberpunk,
+54% in Doom Eternal,
+64% in Dying Light 2,
+30% in F1 21,
0% in Farcry 6,
+38% in Ghostwire,
+56% in Guardians,
+42% in Metro Exodus EE,
+46% in Riftbreaker,


Also bleib mal auf dem Teppich und arbeite an deinem Argumentationsstil, der ist nicht wirklich vorhanden :wave2:

Daredevil
2022-09-24, 12:36:53
Klar, da gehört mehr als P/L an. Aber Lovelace hat AMD gerade einen Steilpass in dieser Hinsicht geliefert ;) Und wenn RT auf Ampere+ Niveau liegt, FSR 2.1 stärker zündet und noch ein paar Gimmicks/Feature in den Treiber und die GPU kommen, schaut es nicht so schlecht aus.

Dass Nvidia so stark ist, liegt zum Teil auch gerade daran, dass sie Marktführer sind und die schnellsten GPUs haben. Das nennt sich Mindshare.


Stimme ich dir definitiv zu. AMD muss aber leider auch hier wieder mehreren Baustellen arbeiten, wie sie es bei RDNA2 auch mussten.
1. Sie müssen sich um Raw Performance kümmern ( Hat gut funktioniert, durchaus auch schneller )
2. Sie müssen sich um die RT Performance kümmern ( Baby Steps, aber kein großer Sprung )
3. Sie müssen sich um Features kümmern ( Sie kopieren vieles, meistens zu halbherzig )
Das ganze soll dann natürlich noch wirtschaftlich und günstiger anzubieten sein als bei der Konkurrenz, die in 2/3 Punkten weit vorne liegt.

AMD hat m.M. nach genau den gleichen Stand wie zum Ampere Launch, sie müssen ein "Dickschiff" mit cleveren Technologien bekämpfen, damit sie in allen drei wichtigen Punkten mehr Schritte machen um Nvidia zu schaden. Alles gleichzeitig ist m.M. nach ( wie bei RDNA 2 auch ) unmöglich.
Entweder sie fokussieren sich auf KI/RT und die Raw Performance leidet oder sie schrauben die Raw Performance so hoch, das sie damit "nebenbei" auch diese Punkte bedienen. Am Ende muss dann auch noch Software dazu kommen für Gamer.

Wie gesagt, mit RDNA2 haben sie dank dem Cache alles rausgepresst, was zu pressen war.
Mal schauen wie der Sprung bei den ( bestimmt nicht einfachen ) MCM Design ist und ob sie die Erfolgsgeschichte von der CPU Sparte auf die GPU Sparte übertragen können.


Edit:
Vor genau dem gleichen "Trilemma" steht übrigens auch Nvidia, die fokussieren sich offensichtlich auf Punkt 2 und 3 und vernachlässigen Punkt 1. Vielleicht ja auch, weil sie wissen, dass sie dort langfristig keine Chance gegen AMD sehen werden mit ihrem MCM Design und Punkt 2 und 3 ihre Stärken sind.

Oder mal anders gefragt:
Hättet ihr lieber eine "alte" DX11 GPU die 3x so schnell wie eine 4090 ist, oder eine 4090 mit dem kompletten Featureset? :D
Ich müsste mich schon alleine auf letzteres versteifen, da ich RTX Broadcast und NVENV nutze, was mir mein Leben im Streaming einfacher macht.
Features sind in meiner Nische wichtiger als Raw performance. AMD kann das gerne auch ordentlich anbieten, dann entsteht mehr Konkurrenz. :)

Dural
2022-09-24, 12:39:41
Und was lässt man somit am liebsten herstellen!?! Genau die Produkte die am teuersten sind, sprich wo man am meisten verdient. Erst danach kommt der "Rest"

basix
2022-09-24, 12:40:47
@Daredevil:
Ich erwarte nicht, dass RDNA3 bei RT und AI/ML Lovelace schlägt. Aber ich erwarte, dass RDNA3 insbesondere bei RT deutlich weniger weit abgeschlagen ist als RDNA2 -> Ampere. Das ist schon viel. Hinsichtlich ML/AI sehe ich RDNA3 weit hinten, gibt Stand heute aber ausser DLSS jetzt keinen Killer-Use Case dafür. Und gegen DLSS hat AMD bereits FSR2. Und für alle kleineren ML/AI Gimmicks hat AMD Rapid-Packed-Math und starkes Async-Compute.

Rohperformance scheint ja sehr stark zu steigen. Ist mehr die Frage, ob man sie auch auf den Boden bringt.

why_me
2022-09-24, 12:43:26
Braucht man überhaupt diese AI/ML Leistung im Consumer Bereich? Doch nur zum trainieren, aber nicht zum ausführen der Netze.

dildo4u
2022-09-24, 12:44:29
NV kann diesen Gen nicht mehr am Vram sparen und muss GDDR6X verbauen, zu wenig Cache für GDDR6?
Bin mal gespannt wie dünn das Interface bei der "4070" ist und ob die auch 6X braucht.
Die 3070 Ti ist immer noch absurde teuer für die vorhandene Speichermenge.(Rund 670€ also 6800XT Preis)

https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=132_8192%7E9810_06+16+-+RTX+3070+Ti

https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6800XT-Speedster-SWFT319-CORE-GAMING-DDR6--Retail-_1420502.html

basix
2022-09-24, 12:44:29
Braucht man überhaupt diese AI/ML Leistung im Consumer Bereich? Doch nur zum trainieren, aber nicht zum ausführen der Netze.

Wie gesagt, momentan Nein ;) Mehr Leistung ist aber immer Nice. Für leichtes AI/ML sollte DOT4a und Double-Rate FP16 ausreichen. Und momentan sehe ich nirgends, dass mehr nötig wäre. DLSS2 & 3 sind momentan Spezialfälle und DLSS2 hat mit FSR2 einen Konkurrenten, der keine Matrix-Units benötigt.

Jupiter
2022-09-24, 12:44:33
Und Glitches sowie Unschärfe von DLSS sind ja soviel besser. :rolleyes:

Es macht sowieso kein Sinn mit Dir zu diskutieren, da Du auch hier wieder an der Masse vorbeiredest und ein nVidia Märchen nach dem nächsten auftischst, Raytracing spricht nur einen kleinen Prozentsatz der Gamer an, auch heute noch.

Niemand braucht RT im Multiplayer, außer Du bist Masochist. Deal w it.

Das steht in keinem Verhältnis. Durch Raytracing hat man eine neue Ära der Grafik betreten. Als ich vorhin The Divison 2 spielte war ich erstaunt, wie veraltet die Grafik plötzlich nach den vielen erfahrenen Raytracingberechnungen aus Cyberpunk 2077 ist. Überall flimmern Schatten, die Beleuchtung ist unrealistisch und die Spiegelungen eine Katastrophe.

Der Unterschied zwischen DLSS und UHD ist gering und der Spieler erhält dafür eine 50 % höhere Bildrate und eine geringere Eingabeverzögerung. Das berechnen von nativen Auflösungen ist eine enorme Leistungsvergeudung. Naja, manche denken auch wenn sie ein 2005-Spiel in 8k spielen das sie da die beste Grafik hätten. Da sind solche Kommentare nicht verwunderlich.

HOT
2022-09-24, 12:45:36
basix
Wird ne ganz schöne Hängepartie bis zum 3. November :D.

Spring
2022-09-24, 12:47:53
Das steht in keinem Verhältnis. Durch Raytracing hat man eine neue Ära der Grafik betreten. Der Unterschied zwischen DLSS und UHD ist gering und der Spieler erhält dafür eine 50 % höhere Bildrate und eine geringere Eingabeverzögerung. Das berechnen von nativen Auflösungen ist eine enorme Leistungsvergeudung. Naja, manche denken auch wenn sie ein 2005-Spiel in 8k spielen das sie da die beste Grafik hätten. Da sind solche Kommentare nicht verwunderlich.

Du hast es auch nicht verstanden.
Mag ja alles sein, für solo games.
Aber die meisten Spielen im Multiplyer und da sind Techniken wie RT und DLSS/FSR Mist. Kenne auch niemanden außer vllt bei Star Citizen, wo man sich das Online an tut, weil man praktisch in jedem Zweikampf unterlegen ist. Aber man stirbt dann immerhin schön :ugly:

basix
2022-09-24, 12:48:21
basix
Wird ne ganz schöne Hängepartie bis zum 3. November :D.

:D

Ich bin da ziemlich entspannt. Ich erhoffe mir immer, dass AMD UND Nvidia das maximal Mögliche bieten. Lovelace ist nach dem Reveal etwas wacklig auf den Beinen (mal Reviews abwarten) und über RDNA3 wissen wir faktisch nichts.
Ich plane eigentlich schon von der 2080 Ti nach mittlerweile stolzen 4 Jahren ein Upgrade zu machen. Ist momentan etwas schwierig, da überhaupt nicht eindeutig. Vermutlich also ja, den 3. November abwarten ;)

Exxtreme
2022-09-24, 12:48:47
Und was lässt man somit am liebsten herstellen!?! Genau die Produkte die am teuersten sind, sprich wo man am meisten verdient. Erst danach kommt der "Rest"

Da kommt ein ganz wichtiger Faktor namens Preiselastizität dazu. Z.B. könntest du einen Teelöffel für eine Million € anbieten. Wäre er teuer? Ja. Wäre da eine fetter Marge drin? Ebenfalls ja. Würdest du einen Kunden dafür finden? Mit allerhöchster Wahrscheinlichkeit klares nein. Und damit nützen dir die ersten Faktoren gar nichts. Und ich glaube, in einer ähnlichen Situation befindet sich jetzt Nvidia. Die Grafikkarten haben eine hohe Preiselastizität. Sprich, man kann den Kauf aufschieben oder auf die Konkurrenz warten. Weil Grafikkarten ein reines Luxusgut sind, auf das man problemlos verzichten kann. Von daher, ich gehe nicht davon aus, dass sie zu den PReisen so viele verkaufen werden. Wenn sich der Preis halbiert dann ja.

Platos
2022-09-24, 12:49:12
Bei solchen Ankündigungen ist es immer das Selbe.

Max 1 Tag gibt es wirkliche Infos. Danach geht wieder das Fanboy-Gestreite los ;D

Daredevil
2022-09-24, 12:50:35
Braucht man überhaupt diese AI/ML Leistung im Consumer Bereich? Doch nur zum trainieren, aber nicht zum ausführen der Netze.
Die "braucht" man schon, nur wird sie bei Windows selten bis gar nicht genutzt.
Du musst dir nur mal ein Smartphone anschauen, wo super viele Features nur mit AI/KI funktionieren und der Nutzer sich dessen nicht mal im klaren darüber ist.

Bilder Suche, Bild Bearbeitung, Video Cam Qualität, Stromsparmechanismen, Native Übersetzer, Sprachbedienung, virtuelles ANC für Mic UND Lautsprecher, intelligente Vorschläge usw.

Linmoum
2022-09-24, 12:51:16
Bei solchen Ankündigungen ist es immer das Selbe.

Max 1 Tag gibt es wirkliche Infos. Danach geht wieder das Fanboy-Gestreite los ;DNvidia hat aber mit den ganzen Benchmarks und fragwürdigen Vergleichen dieses Mal alles dafür getan, dass man noch ausschweifend darüber diskutieren muss. Hätte man sich auch einfach mal sparen können mit nachvollziehbaren (und ehrlichen) Benchmarkvergleichen.

Troyan
2022-09-24, 12:53:21
Du hast es auch nicht verstanden.
Mag ja alles sein, für solo games.
Aber die meisten Spielen im Multiplyer und da sind Techniken wie RT und DLSS/FSR Mist. Kenne auch niemanden außer vllt bei Star Citizen, wo man sich das Online an tut, weil man praktisch in jedem Zweikampf unterlegen ist. Aber man stirbt dann immerhin schön :ugly:

Mal so eine Frage: Hast du überhaupt eine Ahnung, von was du redest? :confused:
DLSS macht Upscaling -> reduziert Latenz, weil mehr Frames und so. Damit spielt man natürlich MP-Shooter bis zu einem bestimmten Grad.

E-Sportler sind eine vollkommen andere Kategorie.

/edit: Wie stellst du dir eigentlich MP bei Konsolen vor? Das neue Call of Duty rendert auch nicht nativ, sondern skaliert auf 4K hoch...

Daredevil
2022-09-24, 12:53:41
Nvidia hat aber mit den ganzen Benchmarks und fragwürdigen Vergleichen dieses Mal alles dafür getan, dass man noch ausschweifend darüber diskutieren muss. Hätte man sich auch einfach mal sparen können mit nachvollziehbaren (und ehrlichen) Benchmarkvergleichen.
Aber dann redet doch niemand darüber. (:
Schlechte Publicity ist auch immer noch Publicity, Intel ist der Pionier dadrin. ;D

HOT
2022-09-24, 12:54:05
Die "braucht" man schon, nur wird sie bei Windows selten bis gar nicht genutzt.
Du musst dir nur mal ein Smartphone anschauen, wo super viele Features nur mit AI/KI funktionieren und der Nutzer sich dessen nicht mal im klaren darüber ist.
Für Contentcreator und andere ist das ne tolle Sache mit der hohen Tensorleistung in Zukunft. Bei Spielen sehe ich das aber gar nicht. Bevor man hier die Grafikkarte abseits der Grafik benötigt, wird erst mal die CPU ausgenutzt in Sache KI-Berechnungen, das hat aber nicht mal angefangen.

Dural
2022-09-24, 12:56:07
Sehe ich anders, sehr viele haben die letzten zwei Jahre keine gpus gekauft weil sehr teuer.

Die neue Generation ist zwar auch teuer, aber deutlich leistungsfähiger und man bekommt pro Dollar mehr Leistung als die letzten zwei Jahre. Sprich gpus werden wieder vermehrt bei den Gamer landen, und die werden nächstes Jahr für Umsatz sorgen.

HOT
2022-09-24, 12:58:07
Sehe ich anders, sehr viele haben die letzten zwei Jahre keine gpus gekauft weil sehr teuer.

Die neue Generation ist zwar auch teuer, aber deutlich leistungsfähiger und man bekommt pro Dollar mehr Leistung als die letzten zwei Jahre. Sprich gpus werden wieder vermehrt bei den Gamer landen, und die werden nächstes Jahr für Umsatz sorgen.
Schade nur, dass sich das (jedenfalls hier im Westen) dann kaum noch ein normalssterblicher leisten kann.
Wie gesagt, pures Luxusprodukt. Ich sehe die Preise purzeln, weil der Markt übersättigt werden wird. Und welche Alternativen gibts denn? KI-Chip produzieren (Hopper?), dafür gibts einen verhältnismässig winzigen Bedarf gegenüber der Consumer-GPUs, wenn dann noch, wie von NV befürchtet, Chinasanktionen für KI-Chips hinzukämen, wird dann ganz finster (China ist in Sache KI führend). Dann stehen die auf ihren gebuchten Kontingenten und wissen nicht, was sie prodzieren sollen (man wird einfach die GPUs weiterproduzieren und die schwindende Marge hinnehmen in der Praxis, gut für den Kunden).

basix
2022-09-24, 12:58:47
Die neue Generation ist zwar auch teuer, aber deutlich leistungsfähiger und man bekommt pro Dollar mehr Leistung als die letzten zwei Jahre. Sprich gpus werden wieder vermehrt bei den Gamer landen, und die werden nächstes Jahr für Umsatz sorgen.

Wenn man die MSRP der 4080 anschaut, ist P/L sogar gesunken ;)

Und wenn man die Marktpreise von Ampere anschaut: Ja, sind gesunken. Allerdings ist alles teurer geworden, Inflation und Energiepreise setzen einem zu. Und ganz allgemein: Wer kauft GPUs für >900$? Eine Minderheit.

Daredevil
2022-09-24, 13:01:27
Für Contentcreator und andere ist das ne tolle Sache mit der hohen Tensorleistung in Zukunft. Bei Spielen sehe ich das aber gar nicht. Bevor man hier die Grafikkarte abseits der Grafik benötigt, wird erst mal die CPU ausgenutzt in Sache KI-Berechnungen, das hat aber nicht mal angefangen.


Jap, das ist sehr schade, dass Windows/Software hier die Limitierung setzt.
Gerade mit solchen Rechenmonstern wie eine 6900xt oder 3090 wären so massiv viele KI Spielereien möglich wie ordentliche Physic oder halt auch Spielinhalte.
Pixelmator hat auf dem MacBook hat AI Upscaling, AI Background Remove, AI Noise Reduction, AI White Balance und AI "Segmente", die man dann einzeln belichten kann, da er die unterschiedlichen Objekte erkennt. Das kann andere Software wie Photoshop sicherlich auch, aber es ist mittlerweile unheimlich schnell geworden. Gerade AI Background Remove auf dem iPhone ist ja quasi "Instant" mit iOS16.

Aber auch das ist sicherlich wieder nur "Content Creation", wobei Hunde aus Photos ausschneiden sicherlich auch für viele daily use ist. :D

unl34shed
2022-09-24, 13:03:00
Die neue Generation ist zwar auch teuer, aber deutlich leistungsfähiger und man bekommt pro Dollar mehr Leistung als die letzten zwei Jahre. Sprich gpus werden wieder vermehrt bei den Gamer landen, und die werden nächstes Jahr für Umsatz sorgen.

Das hast du bei jeder neuen Generation.... Da hast du auch zwischen den Leistungsklassen vielleicht mal 100$ Unterschied, also für das gleiche Geld deutlich mehr Performance.

Diesmal bappt halt ein 4080 Kleber auf der 4070 und 4060Ti, also mehr als eine Verdopplung des Preises (MSRP 399$ und 499$ zu 899$ und 1199$) und das soll gut sein? Keine Ahnung wen Nvidia damit verarschen will.

HOT
2022-09-24, 13:09:11
Jap, das ist sehr schade, dass Windows/Software hier die Limitierung setzt.
Gerade mit solchen Rechenmonstern wie eine 6900xt oder 3090 wären so massiv viele KI Spielereien möglich wie ordentliche Physic oder halt auch Spielinhalte.
Pixelmator hat auf dem MacBook hat AI Upscaling, AI Background Remove, AI Noise Reduction, AI White Balance und AI "Segmente", die man dann einzeln belichten kann, da er die unterschiedlichen Objekte erkennt. Das kann andere Software wie Photoshop sicherlich auch, aber es ist mittlerweile unheimlich schnell geworden. Gerade AI Background Remove auf dem iPhone ist ja quasi "Instant" mit iOS16.

Aber auch das ist sicherlich wieder nur "Content Creation", wobei Hunde aus Photos ausschneiden sicherlich auch für viele daily use ist. :D
Naa, ich glaub das stimmt so nicht zu 100%. Klar fehlen unter Windows die Möglichkeiten komplett für "mal eben". Aber auch bei Apple ist das schon für 95% der Nutzer zu kompliziert. Die kennen sich genau 0 mit ihren Geräten aus, ganz zu schweigen, von den ganzen KI-Features. Die können Massages schreiben, Telefonieren und Musik/TV-Streamen, aber selbst hier sind viele (auch nützliche) Features sicherlich kaum genutzt. Bei NV kommt ja noch die Unflexibilität Microsofts hinzu, aber das macht den Bock auch nicht wirklich fett. Deswegen schrieb ich ja Content Creator, denn das sind die einzigen Leute, die wirklich ihre Software auch nutzen.

unl34shed
:up:

Spring
2022-09-24, 13:11:46
Mal so eine Frage: Hast du überhaupt eine Ahnung, von was du redest? :confused:
DLSS macht Upscaling -> reduziert Latenz, weil mehr Frames und so. Damit spielt man natürlich MP-Shooter bis zu einem bestimmten Grad.

E-Sportler sind eine vollkommen andere Kategorie.

/edit: Wie stellst du dir eigentlich MP bei Konsolen vor? Das neue Call of Duty rendert auch nicht nativ, sondern skaliert auf 4K hoch...

Hot hat schon was zu DLSS 3 geschrieben plus ich habe von reduzierter BQ bei DLSS gesprochen und Iput lag bei RT, also leg mir nichts in den Mund, was ich nicht gesagt habe. Deswegen landest du jetzt auf Ignore, da die nvidia Werbung spannender ist wie deine Postings. Du hinterfragst null.

Ja, Esportler benutzen so einen Kram überhaupt nicht (aus gutem Grund) , aber von denen habe ich gar nicht geredet.

Daredevil
2022-09-24, 13:14:16
Naa, ich glaub das stimmt so nicht zu 100%. Klar fehlen unter Windows die Möglichkeiten komplett für "mal eben". Aber auch bei Apple ist das schon für 95% der Nutzer zu kompliziert. Die kennen sich genau 0 mit ihren Geräten aus, ganz zu schweigen, von den ganzen KI-Features. Die können Massages schreiben, Telefonieren und Musik/TV-Streamen, aber selbst hier sind viele (auch nützliche) Features sicherlich kaum genutzt. Bei NV kommt ja noch die Unflexibilität Microsofts hinzu, aber das macht den Bock auch nicht wirklich fett. Deswegen schrieb ich ja Content Creator, denn das sind die einzigen Leute, die wirklich ihre Software auch nutzen.
Das meine ich ja damit. Sie nutzen es nicht aktiv, weil sie nicht wissen, dass sie es aktuell nutzen. ^^
Die Kamera besteht ja quasi nur noch aus AI/KI, die Tonaufnahme auf Distanz ebenso. Das ist ja das nette daran, das es halt integriert ist.
Auf dem Desktop hat man die Leistung um x Faches höher, da rechnet man maximal Hintergrund Gehäuse raus mit z.B. RTX Broadcast oder blurrt den Hintergrund ( mehr oder weniger gut ) im Zoom Call.
Windows nutzt quasi nichts davon.

z.B.
__dL_hFEHNI

Ist Eye tracking in VR nicht auch so eine Sache, die über KI geregelt werden muss?

Dural
2022-09-24, 13:14:27
Ihr würdet lieber über die schlechte Skalierung gerade bei der Raster perf. bei ada diskutieren, ich bin jetzt seit der Vorstellung am überlegen wo das Problem liegen könnte. Architektur?! Aber irgend wie bleibe ich immer beim Cache hängen.

HOT
2022-09-24, 13:14:58
Hot hat schon was zu DLSS 3 geschrieben plus ich habe von reduzierter BQ bei DLSS gesprochen und Iput lag bei RT, also leg mir nichts in den Mund, was ich nicht gesagt habe. Deswegen landest du jetzt auf Ignore, da die nvidia Werbung spannender ist wie deine Postings. Du hinterfragst null.

Ja, Esportler benutzen so einen Kram überhaupt nicht (aus gutem Grund) , aber von denen habe ich gar nicht geredet.

Naaa, DLSS bringt ja schon auch Antialising mit. Das würde ich jetzt nicht einfach so abtun. Die BQ-Gewinn ist durchaus ambivalent, aber durchaus da. Da sollte man auf Experten in dem Bereich, die sich viel damit beschäftigt haben, wie aufkrawall hören. Als Multiplayer würde ich das aber auch sehen wie du, wichtig ist allein, das Inputlag weitestmöglich gering zu halten; DLSS usw. sind hier kaum relevant, zumal die meisten Games in dem Bereich auch keine große Priorität auf Grafikqualität legen.

Dural

Ein bisschen vielleicht eine hohe CPU-Last, aber das ist nur ein Verdacht.

why_me
2022-09-24, 13:15:28
Die "braucht" man schon, nur wird sie bei Windows selten bis gar nicht genutzt.
Du musst dir nur mal ein Smartphone anschauen, wo super viele Features nur mit AI/KI funktionieren und der Nutzer sich dessen nicht mal im klaren darüber ist.

Wir reden hier aber von ~10TOPs im Smartphone, die das können vs 1400 bei der 4090. Für was also sollen hier 140x noch gut sein im Consumerbereich?

basix
2022-09-24, 13:19:09
Ihr würdet lieber über die schlechte Skalierung gerade bei der Raster perf. bei ada diskutieren, ich bin jetzt seit der Vorstellung am überlegen wo das Problem liegen könnte. Architektur?! Aber irgend wie bleibe ich immer beim Cache hängen.
Ein bisschen vielleicht eine hohe CPU-Last, aber das ist nur ein Verdacht.

Gute Frage. Ist auch das, was mir komisch vorkommt. Der Cache sollte eigentlich helfen.

AD103 sieht in dieser Hinsicht besser aus, da in etwa SM-Skalierung und Taktanstieg zur 3090 Ti passen (76 -> 84SM // ~2.6 -> ~1.95 GHz Takt // 51 -> 42 TFLOPs // ~1.2x Performance).

Edit:
Cache ist evtl. das Schlüsselwort. Die 4090 hat verglichen zur 4080 16GByte nur 72 -> 64 MByte Cache. Neben CPU Limit könnte auch die Speicherlatenz ein Problem sein. Im Vollausbau mit 96MByte sollte die durchschnittliche Latenz um ~10% sinken, was doch spürbar sein kann.

Ein weiteres Thema kann sein, dass 4K noch nicht die Spielwiese für so einen fetten Chip ist. Evtl. sehen wir in 5K oder 8K grössere Differenzen.

Daredevil
2022-09-24, 13:20:04
Wir reden hier aber von ~10TOPs im Smartphone, die das können vs 1400 bei der 4090. Für was also sollen hier 140x noch gut sein im Consumerbereich?
Hm keine Ahnung. Die GPU kann gerne eigenständig mein Youtube Video schneiden ( View effektiv ), es korrekt betiteln ( Klick effektiv ), mir eine Übersetzung ausspucken ( Barrierefrei in 30 Sprachen ) und anhand der letzten Videos rausfinden, welche Bilder ich wo eingefügt haben möchte.
Das würde mir ein paar Stunden Zeit sparen in der Woche. :D

Teilweise gibt es schon automatische Schnitt Programme bei MacOS, die Pausen rauscutten, es kann aber ruhig noch mehr Richtung > Ich habe weniger Arbeit < gehen.