PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

N0rG
2022-09-21, 12:30:21
Was war nochmal der Unterschied zwischen TSMC N4 und dem von Nvidia verwendeten 4N Prozess?
4N war doch glaub ich nur ein angepasster N5 oder?
Dann wirds bei AMD vermutlich ähnlich teuer -.-

Edgecrusher86
2022-09-21, 12:33:16
Kann man eigentlich schon was kaufen oder zumindest vorbestellen?

Nö.

Was war nochmal der Unterschied zwischen TSMC N4 und dem von Nvidia verwendeten 4N Prozess?
4N war doch glaub ich nur ein angepasster N5 oder?
Dann wirds bei AMD vermutlich ähnlich teuer -.-

Jo.


Kurz und knapp. :D

Mancko
2022-09-21, 12:37:23
Nicht unbedingt, denn beim AD103 verlangt Nvidia Mondpreise für einen poppeligen 380mm² Chip der noch 2x teildeaktiviert ist. Mischkalkulation und so. ;) Bei AD102 machst du nur einen kleinen Aufpreis, beim AD103 sahnst du dann richtig ab. ;)

Stehen eigentlich irgendwo die Flächenangaben von AD102, AD103 und AD104. Ich hatte mich nämlich schon gefragt ob das echte separate Chips sind oder ob das nur ein Label ist und am Ende doch der große Klotz aber nur Einheiten deaktiviert.

Hatstick
2022-09-21, 12:37:27
Wenn man 1500€ hinlegt und nur ne 4080 bekommt. :biggrin::freak:

Wenn ich zu den Menschen gehören würde, die so viel für eine Karte hinlegen könnten, dann eh 500€ drauf und gleich die 4090 rein.
Der 80er Vollausbau mit 16GB haut von den ersten Benchbalken jetzt nicht wirklich vom Hocker und die RTX 4070... äh 80er mit 12GB... ja, das ist dann für die Geringverdiener. :biggrin:

Da wird so eine AMD 6900 XT für unter 800€ langsam echt interessant...

L233
2022-09-21, 12:37:46
Ausserdem ist Lisa Sue ne ganze Ecke sexier als der alte Mann im Lederkostüm ;-)
Das ist objektiv falsch.

(no homo)

Mancko
2022-09-21, 12:39:26
Was sind denn das für Preise. Die 4090 in USA für 1599$ aber in Europa 1950€. Die 4080 für 1469€. Ist schon echt heftig. Wie gut das ich diese Generation überspringe. Wobei die nächste wird dann wohl noch teurer. :-D

Umautschkurs und vor allem MWSt nicht vergessen. US Preise sind Netto weil die MWSt dort Bundesstaat abhängig ist. Fände ich für Deutschland auch mal angemessen, wenn es mehr Steuerwettbewerb zwischen Bundesländern gäbe.

Edgecrusher86
2022-09-21, 12:42:28
Stehen eigentlich irgendwo die Flächenangaben von AD102, AD103 und AD104. Ich hatte mich nämlich schon gefragt ob das echte separate Chips sind oder ob das nur ein Label ist und am Ende doch der große Klotz aber nur Einheiten deaktiviert.

608mm² groß ist der AD102 - die kleinen können wir derweil nur schätzen. Die Glaskugel sagt: AD103 ~ 370-397mm² und AD104 ~ 253-282mm². Es sind seperate DIEs, wie immer.

L233
2022-09-21, 12:43:43
Sind die US Preise excl VAT? (hier sind sie inkl MwSt).. Wenn drüben noch die VAT draufkommt, nähern sich die Preise ja an
Ja, die MwSt. macht den größten Teil des Unterschieds aus.

Die Amis haben übrigens keine VAT, sondern eine regional unterschiedliche Verkaufssteuer (Sales Tax). Das macht für den Endkunden keinen Unterschied, ist aber konzeptionell etwas völlig anderes. Bin immer etwas getriggert, wenn Leute im Zusammenhang mit den USA von VAT bzw. MwSt. reden.

US Preise werden in der Regel ohne Sales Tax angegeben, Preise in Europa grundsätzlich mit MwSt.

Kriegsgeier
2022-09-21, 12:50:20
und was hat man nach der Präsentation gelernt?:

kaufe RTX 5090 wenn GTA6 rauskommt und gut ist ;)

Die 40ger Serie wird übersprungen. Ok mit einer 3090 lässt es sich machen ;)

davidzo
2022-09-21, 12:56:50
Was ist eigentlich aus den Mutmaßlichen zusätzlichen 64 Int32 Einheiten pro SM geworden die kopite7kimi uns versprochen hat?

Wo sind eigentlich die großen on-Die Caches geblieben, 96Mb, 64mb und 48mb die uns versprochen wurden?
Irgendwas wird da wohl sein, aber ich habe bisher keine neuen Infos dazu gefunden.


Momentan sieht AD102 wie eine gigantische Luftpumpe aus. +56% SMs und +48% Takt sind 206% Rohleistung von GA102.
Am Ende kommen bei gleichen Testbedingungen in Spielen nur mehr 50-60% davon an. Das ist echt mieses Scaling, oder nicht?
Es sieht nach rund 2x FPS/Tflop aus wenn man RDNA2 gegenüber Lovelace betrachtet. Das sind immer noch viele FPS, aber sicher keine Glanzleistung.


AD103 dagegen ist nicht viel mehr als ein GA102 Dieshrink. Also das was G92 zu G80 war. Neue Fertigung + abgespecktes SI + mehr Takt. Sicher, durch die Taktrate kann AD103 etwas schneller sein, allerdings ist das nicht genug für eine neue Leistungsklasse. Genausowenig wie die 9800GTX+ ein upgrade für Besitzer einer 8800Ultra war.

Das eigentlich Traurige ist dass wir diesmal aber einen 2+x Node Sprung dazwischen haben. Da die 4080 aber bei den gleichen 320Watt bleibt die die 3080, ist die architekturelle Effizienz wohl gesunken.
Von einem 2+x Node Sprung darf man doch etwas mehr als +47% Takt bei gleichem Verbrauch erwarten oder etwa nicht? AMD hat vergleichbares sogar ohne Nodesprung geschafft zwischen RDNA1 und 2.


Ich werde den Eindruck nicht los dass wir es hier mit einem Ampere Refresh auf TSMCs 5nm ("N4") zutun haben. Klar, Nvidias Software Ökosystem hat in der Zwischenzeit große Innovationen hervorgebracht und im Bundle ist dennoch vieles neu. Das wären aber alles auch tolle features für Nutzer einer RTX3000 oder 2000.
Und die neue Hardware allein? Was ist daran denn neu, außer der Fertigung?

HPVD
2022-09-21, 13:01:38
da Ada nun schon ziemlich weit ausm Sack ist, wird es Zeit für nen neuen Speku Thread zum Thema Blackwell :smile:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612419

OgrEGT
2022-09-21, 13:02:36
Bzgl. den Performence Charts die Nvidia gegegen hat bzgl. der Spiele ohne RT und der Meinung die ich hier öfters gelesen habe das RZ keine Rolle mehr spielt...

Grundsätzlich werden die heutigen Spiele nach wie vor grundsätzlich klassisch mit Geometrie und RZ berechnet. RT kommt derzeit nur in Form von zusätzlichen Effekten hinzu und erfordert zusätzliche Rechenleistung (beim einen mehr beim anderen weniger aber zusätzlich). Es kann also gar nicht sein, dass ein Spiel schneller wird als durch reines RZ erzeugt, d.h. durch Aktivierung von RT Effekten kann maximal die durch RZ maximalen FPS wenn die zusätzliche Rechenzeit gegen 0 geht erreicht werden. Unabhängig davon ob zusätzlich noch ein CPU Limit vorliegt. Die RZ Leistung ist somt entscheidend wieviel Leistung maximal auch mit RT möglich ist.

Deshalb wird RZ noch sehr lange eine sehr große Rolle spielen v.a. im GPU Limit und das wird sich erst dann ändern wenn die zur Verfügung stehende Rechenleistung für RT so groß ist, dass RTRT das klassische RZ Verfahren ablösen kann.

Die von NV gezeigten Performance Werte muss man in mehrerlei Hinsicht interpretieren. Die RZ Leistung steigt gemessen an den gestiegenen Investitionen in die Architektur (SPs, L2 Cache, Takt, Speicher etc.) nur mäßig an. in einzelnen Fällen kommt die 4090 nicht über +55% gegenüber der 3090ti bei ähnlichem oder höheren Stromverbrauch hinaus. Wenn RT hinzu kommt, dann wird nur die relative Steigerung und leider nur inkl. DLSS3 angegeben. Wie gesagt, ohne DLSS kann die Leistung mit RT nicht über die der Rasterleistung liegen. Diese immensen kolportierten relativen Zuwächse von 4x gegenüber einer 3090ti liegen somit hauptsächlich an DLSS.

Spätere sinnvolle Vergleiche zu AMDs RDNA3 sollten und werden dies somit berücksichtigen und dann wird sich ein anderes viel differenzierteres Bild zeigen. Sinnvollerweise sollte AMD RDNA3 mit ADA wie folgt fair und transparent verglichen werden:
- RZ
- RZ + RT
- RZ + FSR 2.0 / DLSS 2
- RZ + RT + FSR 2.0 / DLSS 2

DLSS3 kann man nur innerhalb von NV also DLSS 2 vs DLSS 3 vergleichen, da AMD derzeit noch kein äquivalentes FSR 3.0 implementiert hat. Wobei insbesondere bei DLSS 3 noch auf die Downsides eingegangen werden und dies in Relation zu der interpoierten erhöten FPS Rate gesetzt werden sollte:
- Input Lag
- Artefakte

Sunrise
2022-09-21, 13:03:58
...Ich werde den Eindruck nicht los dass wir es hier mit einem Ampere Refresh auf TSMCs 5nm ("N4") zutun haben.
Ampere Next, passt doch?

...Wenn ich zu den Menschen gehören würde, die so viel für eine Karte hinlegen könnten, dann eh 500€ drauf und gleich die 4090 rein.
The more you buy, the more you save!

dargo
2022-09-21, 13:05:15
Stehen eigentlich irgendwo die Flächenangaben von AD102, AD103 und AD104. Ich hatte mich nämlich schon gefragt ob das echte separate Chips sind oder ob das nur ein Label ist und am Ende doch der große Klotz aber nur Einheiten deaktiviert.
Ja, ohne Gewähr.
https://www.techpowerup.com/gpu-specs/nvidia-ad102.g1005
https://www.techpowerup.com/gpu-specs/nvidia-ad103.g1012
https://www.techpowerup.com/gpu-specs/nvidia-ad104.g1013

Wobei die 608mm² vom AD102 ja bestätigt sind.

robbitop
2022-09-21, 13:06:36
Was ist eigentlich aus den Mutmaßlichen zusätzlichen 64 Int32 Einheiten pro SM geworden die kopite7kimi uns versprochen hat?
Ich fand die Gerüchte schon immer fragwürdig ehrlich gesagt.

Wo sind eigentlich die großen on-Die Caches geblieben, 96Mb, 64mb und 48mb die uns versprochen wurden?
Irgendwas wird da wohl sein, aber ich habe bisher keine neuen Infos dazu gefunden.
NV hat ja gestern wenig Details über die uArch gegeben. Nicht mal die SP Anzahl. Insofern heißt das erstmal nichts. Ich gehe davon aus, dass große Caches verbaut wurden, weil man ansonsten ein Bandbreitenproblem hätte mit dem was an Mehr an externer Bandbreite rumkommt im Vergleich zur gestiegenen Rohleistung


Momentan sieht AD102 wie eine gigantische Luftpumpe aus. +56% SMs und +48% Takt sind 206% Rohleistung von GA102.
Am Ende kommen bei gleichen Testbedingungen in Spielen nur mehr 50-70% davon an. Das ist echt mieses Scaling, oder nicht?

Details über den SMs und echte unabhängige Benchmarks wären interessant. Das Re-Ordering müsste ja eher mehr ILP extrahieren können und somit den realen output pro SM und pro Takt steigern können. Auch wäre ja anzunehmen, dass sie Register und Schedulerresources erhöht haben pro SM.

Die Skalierung der SMs ist auch in der Regel nicht 1:1 zur Leistungserhöhung. Für RDNA2 wurde das ja mal von CB nachgemessen und da war es ein Faktor von ~0,7 (also für eine Verdoppelung der Leistung bräuchte es 2,85x mehr CUs) wenn ich mich recht erinnere.
Aber grundsätzlich würde ich erwarten, dass so viel mehr SMs und mehr Takt und die Verbesserungen pro SM mehr erreichen sollten.
Ggf. waren die Benchmarks auch zum Teil im CPU Limit, damit man DLSS 3.0 besser dastehen lassen kann.

Ich glaube man muss erstmal unabhängige Benchmarks ohne DLSS 3.0 im absoluten GPU Limit abwarten um zu sehen, was tatsächlich bei rumgekommen ist. :)

davidzo
2022-09-21, 13:07:26
Dann wirds bei AMD vermutlich ähnlich teuer -.-

Ich hoffe nicht.
N31 sollte einen ähnlichen Yield haben wie AD104. Die MCDs sogar einen perfekten yield. Je nachdem wieviel Aufpreis man also für das Info Packaging zahlen muss werden die Kosten für N31 irgendwo unter- oder leicht oberhalb von AD103 herauskommen. AMD ist aber traditionell bereit auch weniger marge zu akzeptieren um Marktanteile zu gewinnen, analog zum niedrigmargigen Konsolengeschäft. Und diesmal hat man wohl auch keine Probleme mit zu wenig Fertigungskapazität.
Wird also Spannend.

Wenn N31 wirklich mit 3,5Gz+ kommt, also vergleichbarer Rohleistung, dann gute Nacht Nvidia. Möglicherweise hat AMD mit RT weiterhin das Nachsehen und DLSS3 kann zur Ehrenrettung herbei springen. Ich wüsste aber genau welche 450W karte ich nicht kaufen würde.

dargo
2022-09-21, 13:08:18
Der 80er Vollausbau mit 16GB haut von den ersten Benchbalken jetzt nicht wirklich vom Hocker und die RTX 4070... äh 80er mit 12GB... ja, das ist dann für die Geringverdiener. :biggrin:

Der 80-er mit 16GB ist kein Vollausbau sondern nur Salvage vom AD103, der Vollausbau hat 10,5% mehr Shader und wurde noch gar nicht im Gamingsektor gezeigt. ;)

robbitop
2022-09-21, 13:10:40
Ampere Next, passt doch?

Das meint auf den Roadmaps doch nur "Nachfolger" ohne dass sie den Namen schon nennen wollen.

Ich vermute, dass Lovelace unter der Haube schon deutlich anders aussehen wird als Ampere. Das Reordering wird schon stärkere Umbauten im SM benötigen und auch der Performanceboost bei RT ist verdächtig groß. Man muss mal sehen, wann es mehr Details zur uArch geben wird. Für mich sieht es auf den ersten Blick nicht nach einem Ampere Refresh aus.

Auch die hohen Taktraten kommen nicht nur vom Shrink. Da wird man die ganze Implementierung umgestrickt haben wie damals bei Pascal oder bei AMD bei RDNA2.

OgrEGT
2022-09-21, 13:13:26
Einfach mal richtig lesen, was andere schreiben.

Auch ratet DLSS 3 nicht die Bewegung sondern interpoliert. Wenn ein Ball sich von links nach rechts auf einer geraden Linie bewegt, dann ist das Verhalten determinierbar. Und da DLSS 3 zusätzliche Bewegungsinformationen über Frames einbezieht, kann dies hoffentlich auch die nervige Fehler von DLSS 2.0 und Co. reduzieren.

Du hättest Recht wenn es da nicht noch den Spieler gäbe der unvorhergesehen eingreift und eingreifen soll, wenn dieser sich, um in Deinem Bespiel zu bleiben, dazu entschließt auf den Ball zu schießen oder ein Hinderniss in dessen Bahn zu werfen... Die Handlungen des Spielers und deren Konsequenzen sind nicht einfach zu interpolieren...

Hatstick
2022-09-21, 13:14:31
Der 80-er mit 16GB ist kein Vollausbau sondern nur Salvage vom AD103, der Vollausbau hat 10,5% mehr Shader und wurde noch gar nicht im Gamingsektor gezeigt. ;)

Vollausbau ist mir so rausgerutscht, wo ich die 80er mit 12GB im Kopf hatte.
Also die "normale" RTX 4080 oder sowas, wie man es auch nennen mag.^^

dargo
2022-09-21, 13:18:01
Vollausbau ist mir so rausgerutscht, wo ich die 80er mit 12GB im Kopf hatte.
Also die "normale" RTX 4080 oder sowas, wie man es auch nennen mag.^^
Alles jut, bei Nvidia ist das alles etwas verwirrend. Ich meine selbst die 4090 ist nur ein Salvage. :freak: Nvidia muss schon Salvages rausbringen damit die in die alten TDPs passen. ;D Was wohl der volle AD102 so saufen wird? 600W incoming. :D

why_me
2022-09-21, 13:18:03
Ich fand die Gerüchte schon immer fragwürdig ehrlich gesagt.

Bei den damals von Nvidia angegebenen 38%Int Operationen wäre logisch gewesen mit 1Int+2FP. Damit wäre man den 38% sehr nahe gekommen.

Ohne separater Int pipeline ist die zusätzliche FP/Int pipeline ein teuer eingekaufter performance boost von 12%, da der rest mit Int Operationen verstopft ist.

NV hat ja gestern wenig Details über die uArch gegeben. Nicht mal die SP Anzahl. Insofern heißt das erstmal nichts. Ich gehe davon aus, dass große Caches verbaut wurden, weil man ansonsten ein Bandbreitenproblem hätte mit dem was an Mehr an externer Bandbreite rumkommt im Vergleich zur gestiegenen Rohleistung.

Wir haben immerhin den Die shot aus der Präsentation, da sieht mMn. nichts nach großer Fläche für Caches aus.
https://pics.computerbase.de/1/0/5/0/7/2-4f26d4143c6946b1/2-1080.7df92fb8.jpg

Sunrise
2022-09-21, 13:18:35
...Das Reordering wird schon stärkere Umbauten im SM benötigen und auch der Performanceboost bei RT ist verdächtig groß.
Ja, der SM wurde umgebaut, ist ja quasi bestätigt durch Jensen. SMs und wahrscheinlich lokale Caches...

Bei dem Takt bin ich mir nicht sicher, da ist mir die Differenz von Samsung 8nm zu TSMC N4 (5nm) zu groß, denn Samsung hatte ja bei Apple damals im Vergleich auch "gesoffen" ohne Ende, da bleibt der Takt dann automatisch auf der Strecke. Ich glaube da kommt schon ne ganze Menge vom Prozess alleine.

unl34shed
2022-09-21, 13:18:54
Ich fand die Gerüchte schon immer fragwürdig ehrlich gesagt.

AFAIK wäre aber der einfachste weg um die FLOPs wieder auf die Straße zu bringen, oder nicht? Vor allem da Nvida das ja noch beim Turing Launch vorgerechnet hat: 36% INT instructions (link (https://www.pcgameshardware.de/screenshots/1020x/2018/09/Turing-FP32-INT32-Concurrent-Execution-pcgh.JPG)) wäre ein INT zu zwei FP32 eigentlich ideal um annähernd 100% Auslastung zu haben.


Die Skalierung der SMs ist auch in der Regel nicht 1:1 zur Leistungserhöhung. Für RDNA2 wurde das ja mal von CB nachgemessen und da war es ein Faktor von ~0,7 (also für eine Verdoppelung der Leistung bräuchte es 2,85x mehr CUs) wenn ich mich recht erinnere.

Ist das nicht seit Jahren so, mindestens seit GCN waren es IIRC immer zwischen zwischen 0.7-0.8x.

robbitop
2022-09-21, 13:19:19
Ich hoffe nicht.
N31 sollte einen ähnlichen Yield haben wie AD104. Die MCDs sogar einen perfekten yield. Je nachdem wieviel Aufpreis man also für das Info Packaging zahlen muss werden die Kosten für N31 irgendwo unter- oder leicht oberhalb von AD103 herauskommen. AMD ist aber traditionell bereit auch weniger marge zu akzeptieren um Marktanteile zu gewinnen, analog zum niedrigmargigen Konsolengeschäft. Und diesmal hat man wohl auch keine Probleme mit zu wenig Fertigungskapazität.
Wird also Spannend.

Wenn N31 wirklich mit 3,5Gz+ kommt, also vergleichbarer Rohleistung, dann gute Nacht Nvidia. Möglicherweise hat AMD mit RT weiterhin das Nachsehen und DLSS3 kann zur Ehrenrettung herbei springen. Ich wüsste aber genau welche 450W karte ich nicht kaufen würde.

AMD hat noch nicht die gleiche Wahrnehmung im Markt. Die Marke ist noch nicht auf dem gleichen Level. Und natürlich sind es eben auch Features, die NV bietet, die AMD nicht hat, die genau das beeinflussen. (CUDA, NVENC, RTX Voice, DLSS 3, noch schnelleres RT....)*

Am Ende hängt die Preisbildung von Angebot und Nachfrage ab. Companies are not your friends. Dass AMD Preise anhebt, sobald Produkte sehr sehr wettbewerbsstark sind haben wir bei CPUs ja schon gesehen.

Jetzt muss man schauen, was RDNA3 liefern kann. RT wird auch immer wichtiger - da wird AMD nachgelegt haben - aber die Frage ist, ob ihre RT Pipeline jetzt halt auf dem Level ist wie Ampere oder eher wie bei Lovelace (oder den IMG RT Accelerators). Wie stark ist man in Rasterizing, wie stark ist man in RT. Hat man einen DLSS 3.0 Kontrahenten? Ich bin gespannt - habe aber die Befürchtung, dass AMD wie zuletzt immer ein Schritt hinten dran ist.
Endlich einen DLSS 2.x Kontrahent und NV zieht mit DLSS 3.0 weg. Endlich RT auf NVs bisherigem Niveau und NV baut die RT Pipeline um.
Ich hoffe es ist nicht so dieses Mal. Ich hoffe, dass sie auch die Initiative ergriffen haben um nicht nur das zu matchen was von Ampere zu sehen war.

Klingt sehr pessimistisch - aber IMO (abseits des Preises) ist Lovelace schon ein starker Schritt nach vorn.

*
Ja AMD unterstützt OpenCL aber es gibt eine ganze Menge Projekte die einfach einen CUDA lock-in haben. Und es gibt den ganzen SDK Kram dazu.
Ja AMD hat seit kurzem auch einen RTX Voice Wettbewerber der auch ganz Okay funktioniert - scheint aber (noch) nicht so vermarktet zu sein
Ja AMD hat auch HW Videoencoding aber es kommt leider noch nicht an NVENC ran
Ja AMD hat FSR 2.1 - aber die Bildverdopplung von DLSS 3.0 ist schon wieder ein Schritt weiter

robbitop
2022-09-21, 13:28:45
AFAIK wäre aber der einfachste weg um die FLOPs wieder auf die Straße zu bringen, oder nicht? Vor allem da Nvida das ja noch beim Turing Launch vorgerechnet hat: 36% INT instructions (link (https://www.pcgameshardware.de/screenshots/1020x/2018/09/Turing-FP32-INT32-Concurrent-Execution-pcgh.JPG)) wäre ein INT zu zwei FP32 eigentlich ideal um annähernd 100% Auslastung zu haben.


Das mit den INTs ist eine urbane Legende die leider nicht auszusterben scheint. Der größte Flaschenhals bei Ampere war die Scheduler resources. Ein Pascal SM der auch 128x FPs kann hat doppelt so viele Schedulder resources. Mksn7 hat die Pascal und Ampere SMs vermessen und er musste den Code entsprechend tunen um diesen Bottleneck zu umgehen um auf den vollen output zu kommen. Bei Pascal war das nicht notwendig.
Turing führte ja die zusätzlichen INTs pro SM ein, strich aber dafür die hälfte der FPs verglichen mit Pascal. Turing war normiert auf die FP Units (also doppelter SM Anzahl) praktisch kaum schneller als Turing obwohl er irre viel mehr INT resources on top hatte.
Es war bei Ampere einfach transistorgünstig, die FPs zu verdoppeln. Wenn man mehr Leistung pro SM auf die Straße bringen will, muss man zuerst die Schedulerports breiter machen und gern mehr Register bringen.

Dieses Blockschaltbilddenken in dem man mehr kleine Kästchen reinmalt und denkt, dass es dadurch schneller wird ist oftmals nicht genau genug. :)

Ja, der SM wurde umgebaut, ist ja quasi bestätigt durch Jensen. SMs und wahrscheinlich lokale Caches...

Bei dem Takt bin ich mir nicht sicher, da ist mir die Differenz von Samsung 8nm zu TSMC N4 (5nm) zu groß, denn Samsung hatte ja bei Apple damals im Vergleich auch "gesoffen" ohne Ende, da bleibt der Takt dann automatisch auf der Strecke. Ich glaube da kommt schon ne ganze Menge vom Prozess alleine.
Schwer zu sagen. Bei AMD war mit Vega20, RDNA1 und RDNA2 ja auch beim gleichen Prozess (TSMC 7nm) das Takt-Spektrum nicht gerade klein.
Ich schätze schon, dass man da was getan haben wird an der Implementierung im Design.

Edgecrusher86
2022-09-21, 13:35:56
Ein bisschen königlicher Klamauk am Rande - viel Spaß! ;D

https://steamuserimages-a.akamaihd.net/ugc/1836928520328195226/3896C34720CF2D328008E35103CB8B0EE5368925/

:freak:

L233
2022-09-21, 13:42:28
Ja AMD hat auch HW Videoencoding aber es kommt leider noch nicht an NVENC ran
AMD vernachlässigt das HW Videoencoding seit Jahren sträflich, da hat sich AFAIK seit längerem gar nichts mehr getan, während nVidia in dem Bereich immer besser wird.

Bei AMD habe ich immer so ein bisschen den Eindruck, dass man auf nVidias Features mit einem schnell gestrickten Me-Too antwortet, welches dann nach dem Release kaum noch weiter gepflegt wird und permanent hinterher hinkt.

Das "Gesamtpaket" spricht immer noch deutlich für nVidia und ist sicherlich für viele auch den ein oder anderen Euro Aufpreis wert.

robbitop
2022-09-21, 13:49:22
Bei NV wird vergessen, dass sie eine wirklich schlagkräftige Softwaresparte haben. AMD macht auch großartige Hardware - aber deren Softwaresparte ist deutlich kleiner. Und genau das würde ich an Lisa's Stelle so schnell wie möglich ändern. Mehr eigene Initiativen und nur so viel wie nötig "me too".

Daredevil
2022-09-21, 13:49:42
Bei AMD habe ich immer so ein bisschen den Eindruck, dass man auf nVidias Features mit einem schnell gestrickten Me-Too antwortet, welches dann nach dem Release kaum noch weiter gepflegt wird und permanent hinterher hinkt.

Das "Gesamtpaket" spricht immer noch deutlich für nVidia und ist sicherlich für viele auch den ein oder anderen Euro Aufpreis wert.
Das tun sie ja auch bei den GPUs schon seit Jahren. Nvidia prescht mit Features vor und bringt Innovation in den Markt, AMD kopiert die Features und bringt sie brauchbar bis sogar gut für einen attraktiven Preis auf den Markt. Da brauchbar und gut für viele reicht, ist AMD hier auch so populär vertreten. ( Der kleine Mann wird ja gern emotional verteidigt, das habe ich früher bei ATI auch gemacht :D )

In den letzten Jahren bringt AMD ja sogar Innovation in den Markt, indem sie Ressourcen sparen können durch rBAR und den Cache Ansatz. Das verändert aber nicht grundsätzlich das Gamer leben, sondern macht ihre Produkte nur billiger bzw. Konkurrenzfähiger bei höherer Marge. Damit werden sie dieses Jahr vermutlich auch Nvidia von der Rohperformance her in den hintern treten und der Preis wird sicherlich besser sein, wenn die MultiChip von Zen in die GPU Sparte Portieren können. ( Das ist vermutlich nicht einfach?! )
Aber "irgendwas" wird immer fehlen und das macht Nvidia zu einem besonderen Brand im Gaming und AMD nur zu einem "Macht das gleiche wie Nvidia, nur günstiger" Branding. Das ist auf der FPS Skala scheiß egal, es kurbelt aber Verkäufe an. Schon alleine "RTX" ist als Marke im Gaming etabliert, das manche vermutlich nicht mal wissen, dass es einfach nur Raytracing ist.

Edgecrusher86
2022-09-21, 13:53:45
Haha:

https://videocardz.com/newz/this-geforce-rtx-4090-costs-only-56-dollars-but-it-is-made-out-of-plastic-bricks

Konami
2022-09-21, 14:00:32
Bei NV wird vergessen, dass sie eine wirklich schlagkräftige Softwaresparte haben. AMD macht auch großartige Hardware - aber deren Softwaresparte ist deutlich kleiner. Und genau das würde ich an Lisa's Stelle so schnell wie möglich ändern. Mehr eigene Initiativen und nur so viel wie nötig "me too".
Full Ack. Auch das Thema AI wird leider eher als Checkbox-Feature behandelt mit ROCm. Ich würde viel lieber AMD kaufen, aber wenn man sich auch nach Jahren noch nicht drauf verlassen kann, dass auch nur die wichtigsten Packages (TensorFlow/PyTorch) ordentlich unterstützt werden, hat man leider nicht viel Wahl. :(

Melbourne, FL
2022-09-21, 14:08:26
Ich habe mal einen Vergleich der letzten beiden Generationen angestellt. Alle Zahlen sidn gerundet...also nicht auf Kommastellen hoffen. Es kommt immer erst der Wert, also z.B. die Rechenleistung in TFLOPS und in der Spalte dahinter diese Zahlen bezogen auf die 3090 bzw. 4090 in %.

TFLOPS ist die SP-Rechenleistung unter Boost-Takt (bei der 4000 Serie bin ich nicht sicher welcher Takt es ist). VRAM ist die Menge in GB. Preis sind die Listenpreise in $ zum Launch (aufgerundet auf ganze Zehner).

GPU TFLOPS % VRAM % Preis %

4090 82,6 100 24 100 1600 100
4080-16 48,7 59 16 67 1200 75
4080-12 40,1 49 12 50 900 56

3090 35,6 100 24 100 1500 100
3080 29,8 84 10 42 700 47
3070 20,3 57 8 33 500 33

Bei der 3080er hat mal also für 47% des Preises der 3090 immer noch 84% der Rechenleistung bekommen. Bei der 4080 bezahlt man 75% des Preises der 4090 und bekommt 59% der Rechenleistung. Alleine diese Zahlen sollten augenöffnend sein.

Und nun zum Vergleich der 80er gegen die 70er Modelle der jeweiligen Serien. Das kann man deutlich weiter in die Vergangenheit machen:

GPU TFLOPS % VRAM % Preis %

4080-16 48,7 100 16 100 1200 100
4080-12 40,1 82 12 75 900 75

3080 29,8 100 10 100 700 100
3070 20,3 68 8 80 500 71

2080 10,1 100 8 100 700 100
2070 7,5 74 8 100 500 71

1080 8,9 100 8 100 600 100
1070 6,5 73 8 100 380 63

980 4,6 100 4 100 550 100
970 3,5 76 3,5 88 330 60

Da sieht man eindeutig, dass die 4080-12GB eindeutig eine 4070 oder vielleicht 4070 Ti ist...

Alexander

Troyan
2022-09-21, 14:10:37
Die 3080 hatte GA102, die 3070 GA104. Bei Pascal hatten 80 und 70er GP104, bei Turing hatte die 2070 TU106 anstatt von TU104.

Es ist doch latte, wie die Karten heißen und auf welchen Chip die basieren.

Pumpi74
2022-09-21, 14:16:30
und was hat man nach der Präsentation gelernt?:

Auf die "RTX4060Ti 16GB super" warten bis sie unter 500€ kostet und sich an seinem 1440p Monitor und den ganzen neuen Gimmicks erfreuen. Dank DLSS3 weis man auch das man keine neue CPU Plattform braucht, denn alle kommenden AAA Titel werden höchst geschmeidig laufen... :smile:

Herz was willste mehr :uhippie:

Exxtreme
2022-09-21, 14:17:39
Auf die "RTX4060Ti 16GB super" warten bis sie unter 500€ kostet und sich an seinem 1440p Monitor und den ganzen neuen Gimmicks erfreuen. Dank DLSS3 weis man auch das man keine neue CPU Plattform braucht, denn alle kommenden AAA Titel werden höchst geschmeidig laufen... :smile:

Herz was willste mehr :uhippie:

Die 30 fps wirst du beim Inputlag sehr wohl merken auch wenn die Grafikkarte das auf 60 fps hochrechnet. :)

Linmoum
2022-09-21, 14:25:44
Die 30 fps wirst du beim Inputlag sehr wohl merken auch wenn die Grafikkarte das auf 60 fps hochrechnet. :)Ich warte jetzt schon auf die Reaktionen da draußen von weniger bewanderten Nutzern.

"Scheiße! Hilfe! Ich hab laut Anzeige 80fps aber das fühlt sich trotzdem irgendwie total komisch an woran kann das liegen? "

Ex3cut3r
2022-09-21, 14:27:35
Absolut absurd was Nvidia hier treibt. Diesmal haben Sie es total übertrieben. Eine 4070 12GB wurde zur 4080 12GB hochgestuft für 1099€ die FE wohl gemerkt, customs dann bei 1200-1400€ :freak:

Damit werden Sie mittelfristig auf den Arsch fallen, immer mehr werden zu AMD greifen, da preislich einfach attraktiver.

DLSS 3 mit Cheat (Frame Doubling) wie sieht es da überhaupt mit VRR aus? Wenn das damit wegfällt schon mal ein Fail.

rentex
2022-09-21, 14:28:49
Haha:

https://videocardz.com/newz/this-geforce-rtx-4090-costs-only-56-dollars-but-it-is-made-out-of-plastic-bricks

Wenn dann bitte original von LEGO...nicht das die Steinchen die Temps nicht aushalten...;D

fondness
2022-09-21, 14:31:23
Bei NV wird vergessen, dass sie eine wirklich schlagkräftige Softwaresparte haben. AMD macht auch großartige Hardware - aber deren Softwaresparte ist deutlich kleiner. Und genau das würde ich an Lisa's Stelle so schnell wie möglich ändern. Mehr eigene Initiativen und nur so viel wie nötig "me too".

Ich sag nur Mantle (jede moderne API basiert darauf bzw. wurde sogar der Quellcode übernommen), rBAR oder FreeSync (vs. dem bescheidenen GSync wo NV sogar umschwenken musste). Zumal Argumente wie "scheint aber (noch) nicht so vermarktet zu sein" eher naja sind :ugly:

Unterm Strich bleibt bei den von dir erwähnten Punkten wohl vor allem die RT Performance über wo AMD nachlegen muss. DLSS3 muss erstmal zeigen ob es einen wesentlichen Unterschied macht.

why_me
2022-09-21, 14:33:04
Damit werden Sie mittelfristig auf den Arsch fallen, immer mehr werden zu AMD greifen, da preislich einfach attraktiver.

Abwarten was AMD macht, sie könnten Nvidia preislich richtig ans Bein pinkeln, den abverkauf der 30er Serie torpedieren und ordentlich Marktanteile abgreifen. Vermutlich wird das nicht passieren, wäre für uns Gamer aber eine interessante Möglichkeit.

DLSS 3 mit Cheat (Frame Doubling) wie sieht es da überhaupt mit VRR aus? Wenn das damit wegfällt schon mal ein Fail.

Oder mit VSYNC bzw frame cap. Läuft dann die engine nur auf halben speed? Oder werden nur unregelmäßig frames eingeworfen? :confused:

Troyan
2022-09-21, 14:33:43
Ich warte jetzt schon auf die Reaktionen da draußen von weniger bewanderten Nutzern.

"Scheiße! Hilfe! Ich hab laut Anzeige 80fps aber das fühlt sich trotzdem irgendwie total komisch an woran kann das liegen? "

Ich warte jetzt schon auf die Reaktion da draußen von weniger bewanderten Nutzern:

"Scheiße! Hilfe! Ich habe nur 10 FPS, aber bezahlt habe ich trotzdem als wenn ich 100FPS haben müsste. Irgendwie total komisch, woran kann das liegen?"

Stell mir gerade so das Gesicht vor wieder nur in 1080p mit 30 FPS zocken zu können. :eek:


DLSS 3 mit Cheat (Frame Doubling) wie sieht es da überhaupt mit VRR aus? Wenn das damit wegfällt schon mal ein Fail.


Ist irrelevant für Adaptive Sync. Die GPU sendet einfach ein Frame. Monitor hat ja kein Plan, wie es enstanden ist. So funktioniert ja auch LFC und Co.

Ex3cut3r
2022-09-21, 14:37:23
Abwarten was AMD macht, sie könnten Nvidia preislich richtig ans Bein pinkeln, den abverkauf der 30er Serie torpedieren und ordentlich Marktanteile abgreifen. Vermutlich wird das nicht passieren, wäre für uns Gamer aber eine interessante Möglichkeit.

Oder mit VSYNC bzw frame cap. Läuft dann die engine nur auf halben speed? Oder werden nur unregelmäßig frames eingeworfen? :confused:

Also ich werde es mit der 3080 Ti aussitzen, aber in 2 Jahren werde ich mir eine AMD Karte kaufen! Weil Nvidia einfach total abgedriftet ist, egal ob im Preis, im Marketing eigentlich in alle Bereichen. Es geht preislich immer nach oben bei denen. Die brauchen einen ordentlichen Denkzettel.

Exxtreme
2022-09-21, 14:40:08
Aber "irgendwas" wird immer fehlen und das macht Nvidia zu einem besonderen Brand im Gaming und AMD nur zu einem "Macht das gleiche wie Nvidia, nur günstiger" Branding. Das ist auf der FPS Skala scheiß egal, es kurbelt aber Verkäufe an. Schon alleine "RTX" ist als Marke im Gaming etabliert, das manche vermutlich nicht mal wissen, dass es einfach nur Raytracing ist.

AMD macht das noch viel fieser indem sie Nvidias Technologie mehr oder weniger obsolet machen. AMDs Lösungen sind vielleicht nicht 100% zuende gedacht (Nvidias Lösungen funktionieren auch nicht 100%ig) aber sie sind viel billiger und "open source". Sprich, Intel springt auch sofort auf den Zug auf und schon hat AMDs Technik über 50% Marktanteil, der kaum ignoriert werden kann. Und Nvidia verschwendet Transistorbudget und muss preislich nach oben gehen.

robbitop
2022-09-21, 14:44:27
Ich sag nur Mantle (jede moderne API basiert darauf bzw. wurde sogar der Quellcode übernommen), rBAR oder FreeSync (vs. dem bescheidenen GSync wo NV sogar umschwenken musste). Zumal Argumente wie "scheint aber (noch) nicht so vermarktet zu sein" eher naja sind :ugly:

1.) Mantle ist gescheitert - aber hat uns immerhin Vulkan gebracht. Und das ist fast 10 Jahre her...
Hat aber der Marke AMD nachhaltig IMO wenig gebracht
2.) Freesync kam nach G-Sync raus. In der Wahrnehmung der Masse ist das wohl eher ein "me-too" Projekt was für alle nutzbar ist. Stärkt die Marke AMD IMO nicht. (und ja ich weiß, dass die Freesync Arbeiten eher gestartet sind als die G-Sync Arbeiten und man hier ein Feature in der VESA Spec nutzen wollte usw - aber am Ende kam Freesync nunmal später auf den Markt und richtig, richtig gut dann erst noch viel sp
3.) rBAR hat AMD zuerst gebracht - aber man muss konstatitieren, dass das nur das Nutzen eines Teils der PCIe Spec ist. Was kurz darauf alle anderen auch hatten. Hat der Marke AMD nicht viel gebracht IMO.

Obiges heißt nicht, dass ich das persönlich nicht anders sehe. Aber ich bin mir auch bewußt, dass wir Nerds leider null repräsentativ für die Wahrnehmung des Massenmarktes sind. Klar war FSR, Freesync und Mantle (was dann in Vulkan aufging) tolle Möglichkeiten Features für alle zu bringen. Finde ich persönlich toll. Aber der Marke hat es wenig gebracht IMO.
Es scheint leider so zu sein, dass es für customer retention exklusive Dinge braucht. Wenn die überall laufen, gibt es keinen Zusatzgrund für die AMD Karte.So tickt der Massenmarkt leider nun einmal.

Und leider ist Vermarktung enorm wichtig. Was bringt es der Marke und der Massenwahrnehmung wenn nur ein paar Nerds von einem Feature wissen. Das ist kein "naja Argument" - das ist leider die Realität.

Thomas Gräf
2022-09-21, 14:46:01
Haha:

https://videocardz.com/newz/this-geforce-rtx-4090-costs-only-56-dollars-but-it-is-made-out-of-plastic-bricks

Bald muss man den PC in eine Nvidia Karte "reinstecken"... :biggrin:

Dural
2022-09-21, 15:05:23
Lächerlich, bei AMD gibt es höchstens paar Strohfeuer und ganz selten Lichtblicke die oft durch irgendwelche Spec. dazu geholt wurden und schon mehr oder weniger vorhanden waren (Keine Eigenentwicklungen)

Schon nur was NV in den letzten Jahren mit RT erreicht hätte würde AMD nie, ich wiederhole nie hinbekommen.

Es ist immer das selber, wer arm ist kauft AMD, wer das nötige Kleingeld hat kauf NV + die Technologie von ihnen.

Ich sehe AMD als massive PC-Gaming bremse an mit praktisch null Innovationen, nichts weiter.

Redneck
2022-09-21, 15:07:29
Das ist objektiv falsch.

(no homo)
Ein objektiv gibt es hier nicht mein lieber

BlacKi
2022-09-21, 15:08:42
Absolut absurd was Nvidia hier treibt. Diesmal haben Sie es total übertrieben. Eine 4070 12GB wurde zur 4080 12GB hochgestuft für 1099€ die FE wohl gemerkt, customs dann bei 1200-1400€ :freak:

Damit werden Sie mittelfristig auf den Arsch fallen, immer mehr werden zu AMD greifen, da preislich einfach attraktiver.

DLSS 3 mit Cheat (Frame Doubling) wie sieht es da überhaupt mit VRR aus? Wenn das damit wegfällt schon mal ein Fail.


so much hate:biggrin:


das dlss 3 feature ist kein framedoubling und ist ein echtes gerendertes frame mit neuen informationen. ausserdem ist das ein feature das man nicht nutzen muss.


die asus tuf wird es sehr wahrscheinlich zur uvp geben, so wie letztes mal nur ohne das mining hoffentlich.


ausserdem kannst du eine 3090ti kaum noch übertakten, das trifft auf die neue generation nicht zu, ich erwarte OC boosts von über 10-15%, und dabei wesentlich leiser.


die leute werden von dlss 3 begeistert sein und damit auch von den karten. das war schon bei ampere so und wird sich auch langfristig nicht im anti-nv-center nicht ändern.

rentex
2022-09-21, 15:09:13
Ein objektiv gibt es hier nicht mein lieber

Bei L233 geht das immer!

why_me
2022-09-21, 15:10:57
das dlss 3 feature ist kein framedoubling und ist ein echtes gerendertes frame mit neuen informationen.

Nein ist es nicht.

Pumpi74
2022-09-21, 15:17:20
Die 30 fps wirst du beim Inputlag sehr wohl merken auch wenn die Grafikkarte das auf 60 fps hochrechnet. :)

Die Zufriedenheit mit dem neuen Feature steht und fällt mit den Games die man zockt. Ich zocke Shooter so gut wie gar nicht mehr, in jedem Fall nicht competitive. Ansonsten zocke ich hauptsächlich Strategie. Da ist der Inputlag eher sekundär so lange es nicht all zu tief mit den Fps in den Keller geht.

Der Lag den SLI damals verursachte hat mich auch nur selten gestört. Es kommt bei dem neuen Feature eben auf den Nutzer an. Man wird nicht generell sagen können ob es gut oder schlecht ist.

mboeller
2022-09-21, 15:19:54
DLSS3 gab es schon mal. Vor ewig langer Zeit!

Siehe Microsoft Talisman Architektur

https://www.computer.org/publications/tech-news/chasing-pixels/microsofts-talisman

Und ja, es war das Jahr 1996... in der Computersteinzeit ;)

Ex3cut3r
2022-09-21, 15:24:33
so much hate:biggrin:
das dlss 3 feature ist kein framedoubling und ist ein echtes gerendertes frame mit neuen informationen. ausserdem ist das ein feature das man nicht nutzen muss.
die asus tuf wird es sehr wahrscheinlich zur uvp geben, so wie letztes mal nur ohne das mining hoffentlich.

ausserdem kannst du eine 3090ti kaum noch übertakten, das trifft auf die neue generation nicht zu, ich erwarte OC boosts von über 10-15%, und dabei wesentlich leiser.

die leute werden von dlss 3 begeistert sein und damit auch von den karten. das war schon bei ampere so und wird sich auch langfristig nicht im anti-nv-center nicht ändern.
Nein, mein Lieber kein Hate, sondern ich bin aufgewacht, wie Neo in der Matrix. Das ist einfach Wahnsinn, und ich möchte da aussteigen. Und das sagt jemand, der fast nur Nvidia Karten hatte und ein großer RT, DLSS Fan ist. Aber diesmal hat Nvidia den Vogel abgeschossen. Mit den Preisen, mit der Chip Verarschung, GA103, GA104 als 80er Karte für 1200 bis 1700€ (Customs)

Redneck
2022-09-21, 15:26:00
Ich sag nur Mantle (jede moderne API basiert darauf bzw. wurde sogar der Quellcode übernommen), rBAR oder FreeSync (vs. dem bescheidenen GSync wo NV sogar umschwenken musste). Zumal Argumente wie "scheint aber (noch) nicht so vermarktet zu sein" eher naja sind :ugly:

Unterm Strich bleibt bei den von dir erwähnten Punkten wohl vor allem die RT Performance über wo AMD nachlegen muss. DLSS3 muss erstmal zeigen ob es einen wesentlichen Unterschied macht.

Beim encoder hat sich doch auch etwas getan vor kurzem.. Egal.
Jeder kauft das, was zu ihm passt.. Wer encoder, rtx voice(osä), cuda braucht und das Geld hat..
Ich wäge es immer ab und schaue, was ich benötige (und ich behaupte einmal frech das die allerwenigsten gamer cuda benötigen aber immer mit dafür blechen).
Da ich auch ein geriebener bin, der überall versucht zu optimieren, ist perf/Watt auch eine maßgebliche Größe und da sehe ich AMD, nach wie vor, vorn (Checklisten Features hin oder her). Das war vor gar nicht langer Zeit einmal anders..

Edgecrusher86
2022-09-21, 15:28:46
Bald muss man den PC in eine Nvidia Karte "reinstecken"... :biggrin:

In der Tat - bei ASUS wird ja auch schon das Board an die Karte gesteckt. Ein erster Schritt also.
Nun ja, Jensen muss aber noch einige Nummern nachlegen, damit ich den PC in die Karte stecken kann. :cool:

Pumpi74
2022-09-21, 15:37:26
Man muss der Fairness halber aber auch mal sagen das nVidia hier eine 450Watt Klasse einführt die es früher noch nicht gab. Die 3090ti hatte zwar auch 450Watt als Angabe nur war das ja ein totaler effizienstechnischer Reinfall. Das Ding hätte man genauso gut weglassen können. Die 4090 hingegen wird als erste Karte so richtig von ihren 450Watt profitieren (auch wenn die Benchmarks das volle Potential aus Marketinggründen noch nicht zeigen). Das heißt das der Ada 103 in alter Verbrauchswährung eigentlich das Maximum mit seinen 320Watt wäre.

Was nicht heißen soll das man 1500€ für eine Grafikkarte ausgeben soll, nur im Kontext der heutigen Zeit ist das alles gar nicht so verrückt.

MiamiNice
2022-09-21, 15:38:23
Nein, mein Lieber kein Hate, sondern ich bin aufgewacht, wie Neo in der Matrix.

Du bist schon so oft aufgewacht. iPhone, Ampere und was weiß ich noch was alles.
Auf welcher Traumebene residierst den aktuell? Sollen wir eine Inception starten? ;)

BlacKi
2022-09-21, 15:44:12
Nein, mein Lieber kein Hate, sondern ich bin aufgewacht, wie Neo in der Matrix. Das ist einfach Wahnsinn, und ich möchte da aussteigen. Und das sagt jemand, der fast nur Nvidia Karten hatte und ein großer RT, DLSS Fan ist. Aber diesmal hat Nvidia den Vogel abgeschossen. Mit den Preisen, mit der Chip Verarschung, GA103, GA104 als 80er Karte für 1200 bis 1700€ (Customs)


jeder hat dir gesagt, die 3080ti für 1800€ ist zu teuer, aber neee, jetzt ist er aufgewacht, jetzt hetzt er gegen nv^^

Langlay
2022-09-21, 15:49:38
das dlss 3 feature ist kein framedoubling und ist ein echtes gerendertes frame mit neuen informationen. ausserdem ist das ein feature das man nicht nutzen muss.

Jein. Es ist kein Framedoubling, es ist aber auch kein neuer Frame mit neuen Informationen. Es ist ist ein neuer Frame, wo anhand von alten Informationen berechnet wird wie es wahrscheinlich weiter geht. Neue Information ist aber nicht in dem Frame, es ist halt nur besseres raten wie es weitergeht.

aufkrawall
2022-09-21, 15:51:55
es ist halt nur besseres raten wie es weitergeht.
Das ist bei jeder Aufgabe für ein NN so, trotzdem kann das Ergebnis beeindrucken. ;)
Muss aber nicht. Tippe, es wird wie bei DLSS einige Zeit, mitunter Jahre dauern, bis es eher kritische Betrachter halbwegs überzeugt.

BlacKi
2022-09-21, 15:57:00
Jein. Es ist kein Framedoubling, es ist aber auch kein neuer Frame mit neuen Informationen. Es ist ist ein neuer Frame, wo anhand von alten Informationen berechnet wird wie es wahrscheinlich weiter geht. Neue Information ist aber nicht in dem Frame, es ist halt nur besseres raten wie es weitergeht. ich meinte, der nutzer hat neue informationen vor seinem gesicht. das macht dlss schon lange, wie sonst schafft es dlss aus 720p mit relativ gutem ergebnis 4k bilder zu erstellen.

dargo
2022-09-21, 16:01:09
Man muss der Fairness halber aber auch mal sagen das nVidia hier eine 450Watt Klasse einführt die es früher noch nicht gab. Die 3090ti hatte zwar auch 450Watt als Angabe nur war das ja ein totaler effizienstechnischer Reinfall. Das Ding hätte man genauso gut weglassen können. Die 4090 hingegen wird als erste Karte so richtig von ihren 450Watt profitieren (auch wenn die Benchmarks das volle Potential aus Marketinggründen noch nicht zeigen).
Man kann sich aber auch alles schön saufen. :D Nach der 4090 kommt noch eine 4090TI mit vollen AD102. Das wird noch ein größerer Reinfall sein als es die 3090TI ist. Denn die 4090 ist noch einiges stärker beschnitten um in die 450W zu passen. ;) Deshalb wie gesagt... 600W bei 4090TI wären überhaupt keine Überraschung.

ich meinte, der nutzer hat neue informationen vor seinem gesicht. das macht dlss schon lange, wie sonst schafft es dlss aus 720p mit relativ gutem ergebnis 4k bilder zu erstellen.
Wat? :freak: :lol:

Exxtreme
2022-09-21, 16:08:44
Vor allem 600W. :freak: Nur mal so zum Drübernachdenken: ein Elektronik-Lötkolben hat so 30W Leistung und man verbrennt sich daran wirklich ordentlich die Finger. Jetzt muss man die 20-fache Wärme abführen. :freak:

Redneck
2022-09-21, 16:10:13
Es ist immer das selber, wer arm ist kauft AMD, wer das nötige Kleingeld hat kauf NV + die Technologie von ihnen.

Ich sehe AMD als massive PC-Gaming bremse an mit praktisch null Innovationen, nichts weiter.

Alter.. Ick glaub du hast nen nassen Hut auf.
ARME kaufen sich keine Graka für mehrere hundert Euro.. Egal ob von rot oder grün.

Manoman.. Das man heutzutage auch mit ner Graka ein fashion victim sein kann ist schon erstaunlich.

Langlay
2022-09-21, 16:11:23
Das ist bei jeder Aufgabe für ein NN so, trotzdem kann das Ergebnis beeindrucken. ;)
Muss aber nicht. Tippe, es wird wie bei DLSS einige Zeit, mitunter Jahre dauern, bis es eher kritische Betrachter halbwegs überzeugt.

Ja, ich geh auch davon aus, dass das ganz gut funktioniert. Interpolation ist ja jetzt nix neues. Das hier ist ja quasi nur ein besseres Interpolationsverfahren.

Das war mit dem raten war keine Bewertung der Qualität. Sondern mehr auf die Arbeitsweise bezogen. In English würde man wohl "well educated guess" sagen.

dargo
2022-09-21, 16:11:52
@Redneck
Du kennst wohl Dural nicht. ;D

Thomas Gräf
2022-09-21, 16:18:40
Man kann sich aber auch alles schön saufen. :D Nach der 4090 kommt noch eine 4090TI mit vollen AD102. Das wird noch ein größerer Reinfall sein als es die 3090TI ist. Denn die 4090 ist noch einiges stärker beschnitten um in die 450W zu passen. ;) Deshalb wie gesagt... 600W bei 4090TI wären überhaupt keine Überraschung.


Huii für 2000 Tacken ein beschnittener Salvage. Das wusst ich gar nich, dachte die 4090 is NVs schönste Tochter. ;D

rm-zocker
2022-09-21, 16:24:32
Ich bin bei den Preisen auch raus und werden meine 6900XT wohl noch lange weiter nutzen.
Ich hatte auf eine RTX 4080 auf die 900 Euro gehofft und was wird angeboten eine hoch Nummerierte 4070. Nein irgendwann ist es genug.
Ich hoffe das AMD da etwas normaler mit den Preisen umgehen wird.
Zu Zeiten da viele finanziell andere Probleme bevorstehen ist das von Nvidea meiner Ansicht nach der falsche Weg.
Das bezieht sich auf die Preise und auch auf den Verbrauch.

Thomas Gräf
2022-09-21, 16:33:18
Denkemal das selbst die NV Mitarbeiter es auch so sehen.
Wie hier schon etliche Male geschrieben wurde, der Handel muss erst die alten Karten absetzen. Hier hat NV mal das gemacht was sie sonst nie machen, Rücksicht genommen.
Was ja auch bekannt is das NV wohl zuviel an Kontingent geordert hat und nun mit den Chips auch rauskommen muss.
Wartet halt auf die "Refresh_Super_Super" Modelle und deren Preise.

Sardaukar.nsn
2022-09-21, 16:37:52
Frame Chasers geht in seiner Video noch mal auf die massiv reduzierte Bandbreite der 4080er Karten ein.

X3NeXNKbNJ0

Gerade läuft auch noch ein MSI live Stream https://www.youtube.com/watch?v=wUq3LdkVmr4

Vergleich der neuen und alten Suprim :freak:

https://i.imgur.com/NBGDWpP.jpg

Niall
2022-09-21, 16:40:58
Frame Chasers geht in seiner Video noch mal auf die massiv reduzierte Bandbreite der 4080er Karten ein.

https://youtu.be/X3NeXNKbNJ0

Gerade läuft auch noch ein MSI live Stream https://www.youtube.com/watch?v=wUq3LdkVmr4

Vergleich der neuen und alten Suprim :freak:

https://i.imgur.com/NBGDWpP.jpg

Ich sag ja, das mit Luft weg zu kühlen ist langsam irgendwie albern. :freak:

why_me
2022-09-21, 16:42:13
Und die 4090ti fehlt da noch. Die wird ja noch mehr verbrauchen.

dargo
2022-09-21, 16:42:49
Huii für 2000 Tacken ein beschnittener Salvage. Das wusst ich gar nich, dachte die 4090 is NVs schönste Tochter. ;D
Die 4090 hat 16384 Shader, der volle AD102 18432.


Wartet halt auf die "Refresh_Super_Super" Modelle und deren Preise.
Jetzt mal ehrlich... was willst du bei Ada noch großartig refreshen? Damit geht der Verbrauch ja noch weiter nach oben. :freak:

Sardaukar.nsn
2022-09-21, 16:46:38
Wer noch kein neues ATX 3.0 Netzteil mit 12pin Pcie Stecker hat, braucht einen Adapter für 4(!) 8pin Stecker :eek:

https://i.imgur.com/z1lyzAB.jpg

Linmoum
2022-09-21, 16:48:47
Wer noch kein neues ATX 3.0 Netzteil mit 12pin Pcie Stecker hat, braucht einen Adapter für 4(!) 8pin Stecker :eek:

https://i.imgur.com/z1lyzAB.jpgDer Gesichtsausdruck spricht Bände. ;D

Exxtreme
2022-09-21, 16:52:14
Denkemal das selbst die NV Mitarbeiter es auch so sehen.
Wie hier schon etliche Male geschrieben wurde, der Handel muss erst die alten Karten absetzen. Hier hat NV mal das gemacht was sie sonst nie machen, Rücksicht genommen.
Was ja auch bekannt is das NV wohl zuviel an Kontingent geordert hat und nun mit den Chips auch rauskommen muss.
Wartet halt auf die "Refresh_Super_Super" Modelle und deren Preise.

Die alten Karten wird man nur für sehr niedrige Preise los. Noch sind sie viel zu teuer. Und ich glaube, die Händler können auch nicht runter. Ich glaube, das ist für Nvidia grad eine saublöde Situation jetzt. :freak: Und womöglich warten viele Leute darauf was AMD bringt. Der Mining-Boom und anschließender Absturz hat echt viel kaputt gemacht. Der ganze Markt hat darauf spekuliert, dass das viel länger weitergeht. Tat es aber nicht und jetzt sitzen sie auf Bergen von Grafikkarten und können nur unter massiven Verlusten verkaufen.

Troyan
2022-09-21, 16:54:43
Wer noch kein neues ATX 3.0 Netzteil mit 12pin Pcie Stecker hat, braucht einen Adapter für 4(!) 8pin Stecker :eek:

https://i.imgur.com/z1lyzAB.jpg

Logisch. 450W sind drei 8Pin, 660W dann vier. Deswegen gibt es ja die neuen Anschlüsse. :cool:

Linmoum
2022-09-21, 16:55:52
Wenn man traurigerweise überhaupt erst >600W braucht, ist das natürlich richtig.

dargo
2022-09-21, 17:03:33
Eine Krücke... ähm, Stütze ist auch dabei. :D
https://abload.de/img/msi7rcza.jpg

Was wird wohl der Ziegelstein wiegen? 3kg? :D

Thomas Gräf
2022-09-21, 17:04:02
Wer noch kein neues ATX 3.0 Netzteil mit 12pin Pcie Stecker hat, braucht einen Adapter für 4(!) 8pin Stecker :eek:

https://i.imgur.com/z1lyzAB.jpg

Awatt, jibt quitsche neue ATX3.0 Netzteile ab 850 bis sogar 1200watt, später für den Vollausbau. :biggrin:
https://geizhals.de/?cat=gehps&xf=19420_3.0

Linmoum
2022-09-21, 17:07:07
https://www.inet.se/produkt/5413035/asus-geforce-rtx-4090-24gb-rog-strix-gaming-oc

3.65kg Paketgewicht für die Strix. Die Karte selbst dann 3kg?;D

Thomas Gräf
2022-09-21, 17:09:12
Mein Fender Jazz Bass wiegt 4kg. Geht so gibt leichtere...

dargo
2022-09-21, 17:14:10
https://www.inet.se/produkt/5413035/asus-geforce-rtx-4090-24gb-rog-strix-gaming-oc

3.65kg Paketgewicht für die Strix. Die Karte selbst dann 3kg?;D
Länge mit 357mm auch not bad. :D

igg
2022-09-21, 17:14:47
3.65kg Paketgewicht für die Strix. Die Karte selbst dann 3kg?;D
Liegt sicher am Handbuch :D

DavChrFen
2022-09-21, 17:31:52
Weiss man schon wie viel die Strix ziehen darf? Oder kommt noch eine Strix OC?

boxleitnerb
2022-09-21, 17:41:11
Was wäre das doch schön, wenn die Karten in jeder Generation gleich lang/dick/schwer wären, das gleiche verbrauchen würden und nur durch den Prozess und intelligentes Engineering die Performance steigt. Man darf noch träumen.
Hält sich kein IHV dran...

Sardaukar.nsn
2022-09-21, 17:49:57
Weiss man schon wie viel die Strix ziehen darf? Oder kommt noch eine Strix OC?

660 Watt, wie wohl alle 4090er mit dem 12pin Stecker. https://videocardz.com/newz/nvidia-geforce-rtx-4090-rtx-4080-16gb-12gb-max-tgp-and-gpu-clocks-specs-have-been-leaked

@boxleitnerb: Die Inno3D Frostbite ist keine 20cm lang ;)

MiamiNice
2022-09-21, 17:50:49
Das schlimmste an der ganzen Situation ist eigentlich, das sie nichts zum Vollausbau gesagt haben. Welcher Ampere User soll den aktuell Upgradegefühle haben, wenn die Karten alle nur so "lala" sind. Die einzige kaufbare Ada Karte ist aktuell die 4090. Aber die ist noch zu langsam um als fettes Upgrade zur 3090 durchzugehen.

Wo bleibt bitte die versprochene 800 Watt Ada Titan? Und warum kommt die nicht als erstes. Mega ätzend.

Mortalvision
2022-09-21, 17:52:07
Wow, ich bin schon ein bisschen geflasht. Auf der einen Seite dürfte wirklich ein ordentlicher Leistungssprung zu erwarten sein. Andererseits befürchte ich, dass angesichts drohender Rezession und Krise viele dieser tollen Karten im Regal liegen bleiben werden. Nicht vergessen: Es hatten sich ja schon richtig viele Gamer von Herbst 2020 bis fast Sommer 2021 gut eingedeckt (inkl. meiner Wenigkeit).

BlacKi
2022-09-21, 17:56:54
Wat? :freak: :lol:hast du mal 720p gegen 4k dlss ultra performance verglichen? das ist kein echtes 4k, aber sieht um welten besser aus als nativ. es ist durchaus nutzbar. ich spiele so in 4k mit der 3060.

Dampf
2022-09-21, 17:58:52
iiiihhhhh

Als jemand, dem Effizienz und Grázie wichtig ist, (Laptop User) ist mir dieses dicke, schwere und fette Teil ein Dorn im Auge.

L233
2022-09-21, 18:03:56
Andererseits befürchte ich, dass angesichts drohender Rezession und Krise viele dieser tollen Karten im Regal liegen bleiben werden.
Wieso befürchtest Du das? Das wäre absolut zu begrüßen. Als sich nVidia mit der 20er-Serie im Preis verhoben hatte und kaum jemand die Dinger kaufen wollte, war das Resultat dann eine 3080 zum (anfänglichen) MSRP von 699 USD.

Ich habe meine ASUS TUF 3080 OC damals für 830€ geschossen.

Jetzt erzählt mir nVidia irgendwas von knapp 1500€ für 'ne 4080?

dargo
2022-09-21, 18:06:28
hast du mal 720p gegen 4k dlss ultra performance verglichen? das ist kein echtes 4k, aber sieht um welten besser aus als nativ. es ist durchaus nutzbar. ich spiele so in 4k mit der 3060.
Welche andere Wahl hast du auch? :tongue: 3060 und ein 4k Bildschirm... ganz blöde Kombi. ;)

Thomas Gräf
2022-09-21, 18:09:27
Das schlimmste an der ganzen Situation ist eigentlich, das sie nichts zum Vollausbau gesagt haben. Welcher Ampere User soll den aktuell Upgradegefühle haben, wenn die Karten alle nur so "lala" sind. Die einzige kaufbare Ada Karte ist aktuell die 4090. Aber die ist noch zu langsam um als fettes Upgrade zur 3090 durchzugehen.

Wo bleibt bitte die versprochene 800 Watt Ada Titan? Und warum kommt die nicht als erstes. Mega ätzend.

Mhh, da haste ein Problem.
Wegens der Wakü brauchste ja das Ref Bord von NV.
Und wer weiß ob die 4090ti als Ref Bord kommen wird. (per default 600watt?)
So und EVGA is nich mehr, die hätten solch Teil gebaut auch mit Backplate Wakü.
Und son Lukü Bomber willste doch bestimmt nich haben, oder?

BlacKi
2022-09-21, 18:09:51
Welche andere Wahl hast du auch? :tongue: 3060 und ein 4k Bildschirm... ganz blöde Kombi. ;)warum? heutzutage ist das ja ziemlich entspannt. man nimmt dlss bis nativ seiner wahl.

Mhh, da haste ein Problem.
Wegens der Wakü brauchste ja das Ref Bord von NV.
Und wer weiß ob die 4090ti als Ref Bord kommen wird. (per default 600watt?)
So und EVGA is nich mehr, die hätten solch Teil gebaut auch mit Backplate Wakü.
Und son Lukü Bomber willste doch bestimmt nich haben, oder?

nicht wirklich, es wird wie immer strix waküblöcke geben. nur lassen die sich immer etwas zeit, also 1-3 monate.

dargo
2022-09-21, 18:11:07
Schon klar. :comfort:

Thomas Gräf
2022-09-21, 18:13:02
Wieso befürchtest Du das? Das wäre absolut zu begrüßen. Als sich nVidia mit der 20er-Serie im Preis verhoben hatte und kaum jemand die Dinger kaufen wollte, war das Resultat dann eine 3080 zum (anfänglichen) MSRP von 699 USD.

Ich habe meine ASUS TUF 3080 OC damals für 830€ geschossen.

Jetzt erzählt mir nVidia irgendwas von knapp 1500€ für 'ne 4080?

Wenn sich die Wogen geglättet haben...also ich seh die 4080/12Gb als
4070/12Gb wiedererwachen. Auch mit dem Preis einer 70'er GeForce.
Iwann im Sommer. ;)

crux2005
2022-09-21, 18:16:43
Sehe ich auch so. Wobei ich mich schon wundere, 328 Tensor Cores zu 1400 Einheiten ist schon eine gewaltige Steigerung bei der 4090

Nein. Die 1400 sind die Leistung oder TFLOPs(?). Real hat auch AD102 im vollausbau 568 Tensor cores. Genau wie damals TU102. ;)

Endlich eine 4090 die ich mir auch leisten kann:
https://videocardz.com/newz/this-geforce-rtx-4090-costs-only-56-dollars-but-it-is-made-out-of-plastic-bricks

;D

Thomas Gräf
2022-09-21, 18:28:30
[QUOTE=BlacKi;1311421.
...
nicht wirklich, es wird wie immer strix waküblöcke geben. nur lassen die sich immer etwas zeit, also 1-3 monate.
...[/QUOTE]

Ja in der Tat EK waterblock, aber über 600watt nur Graka diesmal. :redface:

crux2005
2022-09-21, 18:34:25
Und wieder bringt NV dieses komische VRAM Anordnung (gut, hatten sie schon 2x davor) wo ein einziger RAM Chip unten der GPU ist. Verstehe nicht wieso sie nicht eine 4-2-4-2 oder 4-4-4 Anordnung bringen (von links nach rechts im Kreis gesehen).

https://abload.de/img/zotac-rtx4090-ga102gnimq.jpg
https://videocardz.com/newz/zotac-shows-geforce-rtx-4090-with-ga102-gpu-pin-compatibility-confirmed

Rampage 2
2022-09-21, 18:43:26
Ist eigentlich schon das Whitepaper zur Lovelace-Architektur (also architekturelle Änderungen an den SMs, SP/INT-Verhältnis, Register, Scheduler, L2-Cache, etc.) raus oder kommt das erst ein paar Wochen nach Vorstellung? :confused:

R2

M4xw0lf
2022-09-21, 18:53:33
Wow, ich bin schon ein bisschen geflasht.
Von was :uconf:
Meine ich ganz ernst und eine ebenso ernst gemeinte Antwort würde mich tatsächlich interessieren.
Was gezeigt wurde glänzt ja vor allem, wenn nicht sogar ausschließlich, durch Auslassen von Information und "Vergleiche" ausgehend von verschiedenen Voraussetzungen.

Sardaukar.nsn
2022-09-21, 18:53:55
Das schlimmste an der ganzen Situation ist eigentlich, das sie nichts zum Vollausbau gesagt haben. Welcher Ampere User soll den aktuell Upgradegefühle haben, wenn die Karten alle nur so "lala" sind. Die einzige kaufbare Ada Karte ist aktuell die 4090. Aber die ist noch zu langsam um als fettes Upgrade zur 3090 durchzugehen.

Wo bleibt bitte die versprochene 800 Watt Ada Titan? Und warum kommt die nicht als erstes. Mega ätzend.

Für 800W brauchst du dann aber einen zweiten 12pin ATX 3.0 Stecker. So eine Karte habe ich noch nicht gesehen. EVGA Kingpin gibt es ja nicht mehr, vielleicht noch eine Galax HOF. Ach sehe gerade die 3090ti hat wirklich zwei von den Steckern: https://www.galax.com/en/graphics-card/hof/geforce-rtx-3090ti-hof.html

Aber erstmal abwarten wie die Leistung der 4090 sein wird. Stimmt der leak mit den 10.000 TSE 3Dmarks wäre das annähernd eine Verdopplung der DX12 Rohleistung.

BlacKi
2022-09-21, 18:59:59
Aber erstmal abwarten wie die Leistung der 4090 sein wird. Stimmt der leak mit den 10.000 TSE 3Dmarks wäre das annähernd eine Verdopplung der DX12 Rohleistung.


10k?


ich glaub ihn stört mehr, das später eine karte kommt die schneller ist als die 4090, vermutlich 1 monat nachdem er seine 4090 unter wasser gesetzt bekommen hat.

Wake
2022-09-21, 19:12:55
Custom GeForce RTX 4090 graphics cards now listed in Europe from 1900 EUR, cheaper than NVIDIA MSRP (https://videocardz.com/newz/custom-geforce-rtx-4090-graphics-cards-now-listed-in-europe-from-1900-eur-cheaper-than-nvidia-msrp)

4090er werden einem ja quasi schon nachgeworfen ;D!

Edgecrusher86
2022-09-21, 19:25:40
Da kann man gleich zwei kaufen. :freak:


3,65kg Verpackungsgewicht und 35,7cm Länge bei der Strix OC? Geil! :cool:
Ich will hoffen, dass wir zur nächsten Generation an der 40er Marke kratzen - dann sieht die HW hier nicht immer so klein und verloren aus.
Hauptsache, es werden genug Stützen mitgeliefert oder vielleicht lässt sich das gleich in den Kühler integrieren zum Ausklappen - mitsamt Längenverstellung. :biggrin:

horn 12
2022-09-21, 19:26:38
Da wohl die Leistung mieser ist als erwartet werden darf.
Die 4090 ca. 35% bis Gute 50% über einer RTX 3090TI
Mehr wird es nicht sein wenn kein DLSS 3 oder RTX gefordert wird.

RoNsOn Xs
2022-09-21, 19:30:39
Custom GeForce RTX 4090 graphics cards now listed in Europe from 1900 EUR, cheaper than NVIDIA MSRP (https://videocardz.com/newz/custom-geforce-rtx-4090-graphics-cards-now-listed-in-europe-from-1900-eur-cheaper-than-nvidia-msrp)

4090er werden einem ja quasi schon nachgeworfen ;D!
Update: That didn’t take long, the price has been adjusted to 2100 EUR:

prinz_valium_2
2022-09-21, 19:31:49
Ich habe mal einen Vergleich der letzten beiden Generationen angestellt. Alle Zahlen sidn gerundet...also nicht auf Kommastellen hoffen. Es kommt immer erst der Wert, also z.B. die Rechenleistung in TFLOPS und in der Spalte dahinter diese Zahlen bezogen auf die 3090 bzw. 4090 in %.

TFLOPS ist die SP-Rechenleistung unter Boost-Takt (bei der 4000 Serie bin ich nicht sicher welcher Takt es ist). VRAM ist die Menge in GB. Preis sind die Listenpreise in $ zum Launch (aufgerundet auf ganze Zehner).

GPU TFLOPS % VRAM % Preis %

4090 82,6 100 24 100 1600 100
4080-16 48,7 59 16 67 1200 75
4080-12 40,1 49 12 50 900 56

3090 35,6 100 24 100 1500 100
3080 29,8 84 10 42 700 47
3070 20,3 57 8 33 500 33

Bei der 3080er hat mal also für 47% des Preises der 3090 immer noch 84% der Rechenleistung bekommen. Bei der 4080 bezahlt man 75% des Preises der 4090 und bekommt 59% der Rechenleistung. Alleine diese Zahlen sollten augenöffnend sein.

Und nun zum Vergleich der 80er gegen die 70er Modelle der jeweiligen Serien. Das kann man deutlich weiter in die Vergangenheit machen:

GPU TFLOPS % VRAM % Preis %

4080-16 48,7 100 16 100 1200 100
4080-12 40,1 82 12 75 900 75

3080 29,8 100 10 100 700 100
3070 20,3 68 8 80 500 71

2080 10,1 100 8 100 700 100
2070 7,5 74 8 100 500 71

1080 8,9 100 8 100 600 100
1070 6,5 73 8 100 380 63

980 4,6 100 4 100 550 100
970 3,5 76 3,5 88 330 60

Da sieht man eindeutig, dass die 4080-12GB eindeutig eine 4070 oder vielleicht 4070 Ti ist...

Alexander
Danke für die Aufschlüsselung.
Die 1070 war schon eine der bestplatzierten Karte, die nVidia jemals rausgebracht hat.

dargo
2022-09-21, 19:34:58
Update: That didn’t take long, the price has been adjusted to 2100 EUR:
Läuft. ;D

Edgecrusher86
2022-09-21, 19:36:46
Naja, 2500€ sollte wohl passen für eine Strix OC. Wenn ausverkauft wackelt die 2 aber schnell! :D

BlacKi
2022-09-21, 19:37:31
Update: That didn’t take long, the price has been adjusted to 2100 EUR:aber nur weil die leistung höher ist als erwartet wird;D

Freestaler
2022-09-21, 19:40:45
Gibts eigentlich schon Ada mit Am5/1700 Sockel? Langsam könnte man echt das bisschen Rest auch auf ne TI binden. ;-) evtl machts auch sinn das ein neues Layout kommt, GTX anstatt ATX Spec. Mehr gewicht auf die Zentrale Komponette, die Graka mit ihrem Verbrauch und Kühler.

Edit: @Edgecrusher86, Sockel sind wieder per Steckkarte wie die Slot CPU dazumal. Cool kommt das wieder.

Edgecrusher86
2022-09-21, 19:44:13
Ja, gibt es - wurde auf die Karte gesteckt! :D

https://abload.de/img/screenshot2022-09-2115kdo9.png

X670E. :)


Awatt, jibt quitsche neue ATX3.0 Netzteile ab 850 bis sogar 1200watt, später für den Vollausbau. :biggrin:
https://geizhals.de/?cat=gehps&xf=19420_3.0


1200W ist aber ganz schön mager, wenn man einmal an die 50- und 60-Series denkt. :freak:

aufkrawall
2022-09-21, 19:48:15
Update: That didn’t take long, the price has been adjusted to 2100 EUR:
War bestimmt nur ein Versehen. :rolleyes:
Was ein mieser Hütchenspieler-Trick...

Ex3cut3r
2022-09-21, 20:10:47
Ich hab mir erstmal 2 Wochen 3DCenter Urlaub verschrieben. Ist besser sonst werde ich sehr ausfallend, und bekommme eine Sperre oder werde gebannt.

Falls mich einer "suchen" sollte, ich komme wieder, sobald Uncharted 4 raus ist. ;D

Rolsch
2022-09-21, 20:18:13
Wenn ich mir die Klötze so anschau wirds Zeit für einen neuen PC-Standard. Am besten nach LEGO Vorbild. Keine fragilen Slots mehr sonder Klötze die man ineinander stecken kann.

FastAndy
2022-09-21, 20:19:58
Ich hab mir erstmal 2 Wochen 3DCenter Urlaub verschrieben. Ist besser sonst werde ich sehr ausfallend, und bekommme eine Sperre oder werde gebannt.

Falls mich einer "suchen" sollte, ich komme wieder, sobald Uncharted 4 raus ist. ;D
Wieso kündigt man sowas an?
Warst du nicht auch der, der sich hier schon mehrfach komplett verabschiedet hatte? Ich versteh schon nicht, wie man sich so über hardware aufregen kann, dieses Geblöffe noch weniger. Sehr eigenartiges verhalten.

novl
2022-09-21, 20:24:04
Nicht vergessen: Es hatten sich ja schon richtig viele Gamer von Herbst 2020 bis fast Sommer 2021 gut eingedeckt (inkl. meiner Wenigkeit).

Ich hatte starke Zweifel an dieser Aussage habe mich eben mal durch das Steam HW Survey gearbeitet.
In der Tat gibt es derzeit mehr RTX 30XX Generation Karten ( RTX 3060 - RTX 3090 ) als damals RTX 20XX zur Hochzeit der RTX 20XX Generation.

Verstehe ich überhaupt nicht, das würde ja bedeuten das wir eine ungemeine Marktsättigung trotz der horrenden Preise der letzten 2 Jahre erreicht haben und für die wenigsten ein Upgrade lohnt.

Wirklich überraschend. (zumindest für mich)

Erbsenkönig
2022-09-21, 20:29:48
Bei diesen Preisen wird mir meine 1080 noch 2032 treue Dienste leisten müssen:freak::freak:

Meridian12
2022-09-21, 20:42:04
Der 80-er mit 16GB ist kein Vollausbau sondern nur Salvage vom AD103, der Vollausbau hat 10,5% mehr Shader und wurde noch gar nicht im Gamingsektor gezeigt. ;)


Also gibts noch eine 4080 20GB (früher mal ti :D) für 1750 Euro zu kaufen in ein paar Monaten?

Troyan
2022-09-21, 20:43:22
Wir können froh sein, dass nVidia gestern die Preise angekündigt. Heute ist Euro fast wieder ein 1% abgekackt...

Sardaukar.nsn
2022-09-21, 20:50:34
10k?


Verdammt, das war ja grob gerundet der GPU Score meiner 3080. https://www.3dmark.com/3dm/77752200

Wenn sich das mit den 20k Rohleistung + plus Extras wie DLSS 3 usw. ergibt bin ich im Geschäft für einen Nachfolger.

https://overclocking.com/wp-content/medias/2022/09/RTX-4090-Time-Spy-Extreme-725x324.jpg

Quelle: https://en.overclocking.com/3d-score-mark-rtx-4090/

MiamiNice
2022-09-21, 20:53:04
Verdammt, das war ja grob gerundet der GPU Score meiner 3080. https://www.3dmark.com/3dm/77752200

Wenn sich das mit den 20k Rohleistung + plus Extras wie DLSS 3 usw. ergibt bin ich im Geschäft für einen Nachfolger.

https://overclocking.com/wp-content/medias/2022/09/RTX-4090-Time-Spy-Extreme-725x324.jpg

Quelle: https://en.overclocking.com/3d-score-mark-rtx-4090/

Aber auf den Nachfolger Deiner Karte wartest bitte noch bis zum Refresh ;)
Man will ja nicht 2x kaufen innerhalb einer Gen.

FastAndy
2022-09-21, 20:56:03
Wir können froh sein, dass nVidia gestern die Preise angekündigt. Heute ist Euro fast wieder ein 1% abgekackt...
Garantiert sind die preise sicher nicht, aber wer wegen 100 euro überlegt, für den sind die karten sowieso nichts

Troyan
2022-09-21, 21:00:10
Kein NVLink in Lovelace, kein PCIe 5.0 (finde ich richtig strange, da Hopper 5.0 unterstützt...):https://www.techpowerup.com/299107/jensen-confirms-nvlink-support-in-ada-lovelace-is-gone

The large framebuffers and large L2 caches of Ada GPUs also reduce utilization of the PCIe interface.

Ist ja wie'ne Schnitzeljagd. Also doch großen L2 Cache?!

dargo
2022-09-21, 21:02:58
Also gibts noch eine 4080 20GB (früher mal ti :D) für 1750 Euro zu kaufen in ein paar Monaten?
20GB an einem 256Bit SI? Not. ;) Es wird sicherlich irgendwann in 2023 eine 4080TI geben, dann aber auch mit 16GB logischerweise wenn dies mit dem Vollausbau von AD103 realisiert wird.

crux2005
2022-09-21, 21:08:04
Verdammt, das war ja grob gerundet der GPU Score meiner 3080. https://www.3dmark.com/3dm/77752200

Wenn sich das mit den 20k Rohleistung + plus Extras wie DLSS 3 usw. ergibt bin ich im Geschäft für einen Nachfolger.

https://overclocking.com/wp-content/medias/2022/09/RTX-4090-Time-Spy-Extreme-725x324.jpg

Quelle: https://en.overclocking.com/3d-score-mark-rtx-4090/

Was interessiert mich Furzmark? Wenn die 4090 keine 50% über einer 3080 Ti in CP77 ist. (1440p, maxed, RT Psycho, ohne DLSS)! OK, sollen +90% sein.

Bei AMD knallen aktuell die Korken...

MiamiNice
2022-09-21, 21:12:04
Bei AMD knallen aktuell die Korken...

Weil man die Preise mehr als gedacht anheben kann?

Linmoum
2022-09-21, 21:13:44
Weil Ada aktuell aussieht wie Fiji 2.0 was die Relation aus Rohleistung und tatsächlicher Performance - ohne DLSS, aber (auch) mit RT - anbelangt.

MiamiNice
2022-09-21, 21:18:29
Weil Ada aktuell aussieht wie Fiji 2.0 was die Relation aus Rohleistung und tatsächlicher Performance - ohne DLSS, aber (auch) mit RT - anbelangt.

Ist was dran. Allerdings, vermute ich, werden die Customs das Problem mit höherem PL regeln. Imo verhungert Ada FE an seinem zahmen Powerlimit.

Grendizer
2022-09-21, 21:19:00
Weil man die Preise mehr als gedacht anheben kann?

Ich denke auch, das AMD nicht mehr mit günstig um die Kurve kommt. Die Preise der Ryzen 5XXX CPUs waren auch sehr selbstbewußt. AMD wird unter nVidia liegen, wenn die RTX Leistung abgeschlagen ist. Mit DLSS 3.0 wird es schwerer für AMD reine RTX Leistung zu verkaufen und man wird sehen müssen wie gut sich AMDs Verfahren mit nVidia messen kann.

Ich sehe da im Gaming grundsätzlich Vorteile, auch wenn DLSS implementiert werden muss. Außerdem würden die Karten in von mir genutzten Anwendungen Vorteile haben. Aber nicht zu den Preisen. Ich kann mir eine 4080 mit 16 Gb derzeit nicht leisten. Da bin ich ehrlich. Kinder und Ex-Frau wollen ihren Unterhalt und die Nebenkosten für 2 Haushalte müssen auch bezahlt werden.

Ich vermute bei mir persönlich wird die jetzt glaube ich 5 Jahre alte GTX1080 mit einer gebrauchten oder aus dem Abverkauf erworbenen Karte bis 700 Euro ersetzt werden.

crux2005
2022-09-21, 21:20:51
Weil Ada aktuell aussieht wie Fiji 2.0 was die Relation aus Rohleistung und tatsächlicher Performance - ohne DLSS, aber (auch) mit RT - anbelangt.

Wenn alleine SER +25% Leistung bringen soll wird es immer erschreckender.
Entweder kommt noch ein Wundertreiber oder da stimmt was nicht.

fondness
2022-09-21, 21:21:38
Ist was dran. Allerdings, vermute ich, werden die Customs das Problem mit höherem PL regeln. Imo verhungert Ada FE an seinem zahmen Powerlimit.

Bei 450 Watt? Die perf/Watt wäre kaum besser als beim Vorgänger trotzdem 2 full node skrinks und neuer Architektur. Ich kann das so noch immer nicht glauben.

Wenn es der Realität entspricht muss da was schief gelaufen sein und ja, dann knallen bei amd natürlich die Korken, denn das sollte man schlagen können.

Okay die Korrektur auf 90% oben ändert natürlich einiges.

MiamiNice
2022-09-21, 21:28:31
Bei 450 Watt? Die perf/Watt wäre kaum besser als beim Vorgänger trotzdem 2 full node skrinks und neuer Architektur. Ich kann das so noch immer nicht glauben.

Wenn es der Realität entspricht muss da was schief gelaufen sein und ja, dann knallen bei amd natürlich die Korken, denn das sollte man schlagen können.

Okay die Korrektur auf 90% oben ändert natürlich einiges.

Meine Vermutung ist, dass eine 4090 eigentlich eher bei 600 Watt zuhause ist aber man keine Releasekarte mit einer derartigen TDP vorstellen wollte.
Ist aber nur ein Gefühl (vielleicht auch mehr Wunsch), das werden die Reviews der Customs zeigen.
Die gezeigten Benches passen so gar nicht zu den restlichen Daten der Karte, oder geht das nur mir so?
Da muss einfach deutlich mehr Wums schlummern.

DrFreaK666
2022-09-21, 21:32:13
Das wird man schon bei Tests der FE sehen. Übertakten gehört zu einem guten Review dazu und genug Zeit scheinen die Redaktionen auch zu haben

Troyan
2022-09-21, 21:34:01
Apropos FE - hier gibt es mehr Details: https://www.techpowerup.com/299096/nvidia-details-geforce-rtx-4090-founders-edition-cooler-pcb-design-new-power-spike-management

/edit: Bestätigung für das "offene" Power-Limit:

While the RTX 4090 operates at 450 W by default, the power delivery capability allows you to increase the power limit up to 600 W for overclocking. The card features a 23-phase VRM (20-phase GPU + 3-phase memory).

Ravenhearth
2022-09-21, 21:37:23
Wenn alleine SER +25% Leistung bringen soll wird es immer erschreckender.
Entweder kommt noch ein Wundertreiber oder da stimmt was nicht.
Anscheinend muss SER explizit vom Entwickler über NVAPI genutzt werden und ist nicht automatisch aktiv, wenn ich das richtig verstehe? Der Vergleich mit OoO-Execution bei CPUs hinkt also. https://developer.nvidia.com/rtx/path-tracing/nvapi/get-started

Radeonfreak
2022-09-21, 21:38:36
Apropos FE - hier gibt es mehr Details: Richtig. Die sollen sichttps://www.techpowerup.com/299096/nvidia-details-geforce-rtx-4090-founders-edition-cooler-pcb-design-new-power-spike-management

/edit: Bestätigung für das "offene" Power-Limit:

Klingt doch gut.

Der_Korken
2022-09-21, 23:03:05
Wo bleibt bitte die versprochene 800 Watt Ada Titan? Und warum kommt die nicht als erstes. Mega ätzend.

Kann man nicht ein paar zusätzliche Heizspiralen am Kühler anbringen? Damit sollten 800W möglich sein.

N0rG
2022-09-21, 23:09:01
Meine Vermutung ist, dass eine 4090 eigentlich eher bei 600 Watt zuhause ist aber man keine Releasekarte mit einer derartigen TDP vorstellen wollte.
Ist aber nur ein Gefühl (vielleicht auch mehr Wunsch), das werden die Reviews der Customs zeigen.
Die gezeigten Benches passen so gar nicht zu den restlichen Daten der Karte, oder geht das nur mir so?
Da muss einfach deutlich mehr Wums schlummern.

Die gezeigte Leistung bei dem Takt und den ganzen Einheiten ist schon etwas eigenartig. Wenn man allerdings der Nvidia Grafik glauben darf dann gibt es zwischen 300W und 450W grade mal ~14% Mehrleistung. Zwischen 450W und 600W sollten es dann also eher unter 10% mehr sein.

https://i.imgur.com/PZXvFjM.png

Das bedeutet natürlich auch, dass man die 4090 wieder gut mit reduziertem Powerlimit betreiben kann.

Edit: Turing @285W -> Ampere @350W = ~+37,5%
Ampere @350W -> Ada @450W = ~+146%

Wenn man den Nullpunkt so setzt das Ampere/Ada 115% auseinander liegen sind Turing und Ampere nur noch 28% auseinander.
Wenn Nullpunkt so gesetzt wird, dass Turing/Ampere =+50% dann Ampere/Ada =+183%

So ganz passt das alles nicht, oder das Marketing durfte auch nochmal an der Grafik rumfummeln.

Ravenhearth
2022-09-21, 23:12:02
Die Grafik finde ich ohnehin seltsam, der Abstand zwischen Turing und Ampere ist viel zu gering.

basix
2022-09-21, 23:13:43
Ist sie nicht. Ampere war hinsichtlich Effizienz nicht viel besser als Turing: Magere +10% beim Launch-Review bei 4K
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_energieeffizienz_in_fps_pro_watt

Edit:
Hier ein Vergleich 2080 Ti, 3080, 3090 und 6800XT @ 270W
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/#abschnitt_6900_xt_6800_xt_2080_ti_3080__3090_bei_270_watt

+33% Energieeffizienz Ampere vs. Turing

Ravenhearth
2022-09-21, 23:22:41
Ich meine den Abstand bei der Performance; auf der Grafik ist Ampere (3090) nur ~1/3 schneller als Turing (2080 Ti), das kommt ja nicht ganz hin. Die y-Achse beschreibt nicht die Perf/W.

Gleichzeitig soll Lovelace weit mehr als doppelt so schnell beim gleichen Verbrauch sein. :freak:

Tomahawk
2022-09-21, 23:23:38
nVidia hatte beim Ampere-Launch einen Effizienzsteigerung von 1,9 ggü. Turing angegeben. Hier sollte man auch sehr vorsichtig sein, wie die Werte ermittelt wurden.

Zum Diagramm: Wir kennen die Skalierung nicht - daher sollte man da lieber nichts reininterpretieren.

basix
2022-09-21, 23:29:11
Ich meine den Abstand bei der Performance; auf der Grafik ist Ampere (3090) nur ~1/3 schneller als Turing (2080 Ti), das kommt ja nicht ganz hin. Die y-Achse beschreibt nicht die Perf/W.

Wenn man Y/X rechnet, erhält man Performance/Watt ;)

Aber ja, eine 3090 ist normalerweise ~1.5x schneller wie eine 2080 Ti. Hier sind es ~1.35x. Marketing-Ungenauigkeit ;)

nVidia hatte beim Ampere-Launch einen Effizienzsteigerung von 1,9 ggü. Turing angegeben. Hier sollte man auch sehr vorsichtig sein, wie die Werte ermittelt wurden.

Zum Diagramm: Wir kennen die Skalierung nicht - daher sollte man da lieber nichts reininterpretieren.
Skalierung ist keine dabei, nein. Da wir aber die zwei Basiswerte in Form von Turing und Ampere kennen sowie deren Relation: Performance sollte bei ~0 auf der Y-Achse anfangen. Sonst wäre der dargestellte Fehler, den Ravenhearth angesprochen hat, noch grösser ;)

Und da Nvidia dieses mal Perf @ Iso-Verlustleistung als 2x effizienter angibt, was diese Grafik auch in etwa zeigt, sollte das schon passen. Ist mehr die Frage, was die Messbedingung war. Ich vermute inkl. RT. Würde man die Effizienz à la Ampere-Style vergleichen, wäre man wohl bei ~3...4x effizienter als Ampere :D

Nazar
2022-09-21, 23:50:24
Ich fand die Gerüchte schon immer fragwürdig ehrlich gesagt.


NV hat ja gestern wenig Details über die uArch gegeben. Nicht mal die SP Anzahl. Insofern heißt das erstmal nichts. Ich gehe davon aus, dass große Caches verbaut wurden, weil man ansonsten ein Bandbreitenproblem hätte mit dem was an Mehr an externer Bandbreite rumkommt im Vergleich zur gestiegenen Rohleistung


Details über den SMs und echte unabhängige Benchmarks wären interessant. Das Re-Ordering müsste ja eher mehr ILP extrahieren können und somit den realen output pro SM und pro Takt steigern können. Auch wäre ja anzunehmen, dass sie Register und Schedulerresources erhöht haben pro SM.

Die Skalierung der SMs ist auch in der Regel nicht 1:1 zur Leistungserhöhung. Für RDNA2 wurde das ja mal von CB nachgemessen und da war es ein Faktor von ~0,7 (also für eine Verdoppelung der Leistung bräuchte es 2,85x mehr CUs) wenn ich mich recht erinnere.
Aber grundsätzlich würde ich erwarten, dass so viel mehr SMs und mehr Takt und die Verbesserungen pro SM mehr erreichen sollten.
Ggf. waren die Benchmarks auch zum Teil im CPU Limit, damit man DLSS 3.0 besser dastehen lassen kann.

Ich glaube man muss erstmal unabhängige Benchmarks ohne DLSS 3.0 im absoluten GPU Limit abwarten um zu sehen, was tatsächlich bei rumgekommen ist. :)


Mein Tipp:
nV geht wohl auf RT und DLSS
RZ Leistungssteigerung wurde vernachlässigt, um das Design des Chips komplett RT im Zusammenspiel mit DLSS unterzuordnen.
Das Mehr an RZ Leistung ist wirklich schlecht, wenn man sich den Bench zum FS 2020 ansieht, gibt es eine Szene komplett ohne RT und DLSS.
Es werden dort maximal 67 FPS erreicht. Das sind gerade mal 50% mehr als mit einer 3090 (44 FPS an der identischen Stelle (Messdaten kommen nicht von mir)) (ohne Ti). Bei einer 3090 Ti wären es dann so 36% Mehrperformance?
Es scheint fast so, dass der RZ Part des Designs Ampere nur mit mehr SMs und mehr Takt ist (stark vereinfacht). Und dann wäre es auch erklärbar, dass die Leistung so schwach ist.
Mehr Takt hilft natürlich, aber das wäre für mich eine Erklärung für die doch so niedrige RZ Leistung, denn bisher ist die extrem schwach.

Dampf
2022-09-21, 23:53:28
Der richtige Sprung wird sowieso erst mit RTX 5000 passieren, die auf einer brandneuen MCM-Architektur basieren wird. Ampere und Lovelace sind doch nur aufgemotzte Turings.

Linmoum
2022-09-22, 00:02:32
https://pbs.twimg.com/media/FdM6aVZXgAEm-gG?format=jpg&name=large

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59514-nvidia-stellt-die-ersten-modelle-der-geforce-rtx-40-serie-vor-update.html

Wer sprach heute noch von "Ampere Next"? Bei dem Blockdiagramm bekommt man stark genau diesen Eindruck. Kein Wunder, dass Ada scheinbar mindestens genauso eine Perf/TFLOP-Luftpumpe wie Ampere ist.

Ravenhearth
2022-09-22, 00:50:42
Uff. Also ist Ada Ampere in N4, mit mehr Einheiten und Takt, sowie neueren Tensor- sowie RT-Kernen. Nichts dabei, was die IPC an sich steigert. Selbst das Shader Execution Reordering funktioniert nicht out of the box.

Dennoch sollte der Sprung in nicht extra optimierten Titeln eigentlich etwas größer ausfallen als die ~60%. Hier limitiert wohl die Speicherbandbreite, die gegenüber der 3090 Ti schließlich nicht steigt. Der deutlich größere L2-Cache (unbestätigt, aber wahrscheinlich) scheint zwar etwas zu bewirken, aber nicht genug.

Würde vielleicht auch erklären, wieso sich die 4090 nur um ~33% von der 4080 absetzen kann; die erste hat 40% mehr Bandbreite, aber laut den Leaks nur 12,5% mehr L2-Cache.

Troyan
2022-09-22, 00:56:27
IPC existiert nicht bei GPUs wie bei CPUs. Es gibt eine Grafik-Pipeline, die star ist und Software, die abstrahiert über der GPU läuft. Die 4090 wird bis auf die Bandbreite überall eine Verdopplung gegenüber der 3090 haben. Aber durch die veralteten APIs, heißt das nicht, dass sich die Leistung durchschlägt - siehe z.B. AC:Valhalla.

VooDoo7mx
2022-09-22, 01:33:56
Also ich finde mal die präsentierten SKUs und Namensgebungen total Banane. Mir kommt das echt so vor, als ob das bei jeder nVidia Generation schlimmer wird.

Die 4080 12GiB hat ja einen komplett anderen Chip als die 4080, diesen jedoch in Vollausbau. Eigentlich ist das die klassische 4070(Ti). Einzig und allein wegen den hohen Preis wird man die Karte so nicht nennen können...

Die 4080 16GiB ist wohl auch beschnitten. Aktuell weiß man ja noch nicht wie viele SM der AD103 tatsächlich hat. Ich tippe mal auf 80, somit sind hier wohl 95% des Chips aktiv. Lässt sich auch später gut eine 4080Ti nachschieben.

Die 4090 ist ja ziemlich krass beschnittener Salvage Chip vom AD102 mit nur 90% der Einheiten aktiv.
Nur mal als Vergleich beim Ampere hatte die 3090 98% der Einheiten aktiv, die 3080Ti 95% und die 3080 12GiB 83%
Auch hier lässt sich später auch eine 4090Ti nachschieben.

Wenn der curve Editor wieder funktioniert, wird man wohl auch eine 4090 locker auf Effizienz trimmen können.

crux2005
2022-09-22, 01:46:41
Kein Wunder, dass Ada scheinbar mindestens genauso eine Perf/TFLOP-Luftpumpe wie Ampere ist.

Mindestens 20% weniger effektiv (Shaderleistung) als Ampere ist trotzdem überraschend.

Aber durch die veralteten APIs, heißt das nicht, dass sich die Leistung durchschlägt - siehe z.B. AC:Valhalla.

Genau. DX12 ist veraltet. :D
RE: Village sollte auch DX12 sein.

Thomas Gräf
2022-09-22, 02:13:14
Also ich finde mal die präsentierten SKUs und Namensgebungen total Banane. Mir kommt das echt so vor, als ob das bei jeder nVidia Generation schlimmer wird.

Die 4080 12GiB hat ja einen komplett anderen Chip als die 4080, diesen jedoch in Vollausbau. Eigentlich ist das die klassische 4070(Ti). Einzig und allein wegen den hohen Preis wird man die Karte so nicht nennen können...

Die 4080 16GiB ist wohl auch beschnitten. Aktuell weiß man ja noch nicht wie viele SM der AD103 tatsächlich hat. Ich tippe mal auf 80, somit sind hier wohl 95% des Chips aktiv. Lässt sich auch später gut eine 4080Ti nachschieben.

Die 4090 ist ja ziemlich krass beschnittener Salvage Chip vom AD102 mit nur 90% der Einheiten aktiv.
Nur mal als Vergleich beim Ampere hatte die 3090 98% der Einheiten aktiv, die 3080Ti 95% und die 3080 12GiB 83%
Auch hier lässt sich später auch eine 4090Ti nachschieben.

Wenn der curve Editor wieder funktioniert, wird man wohl auch eine 4090 locker auf Effizienz trimmen können.

Ja perfekt, ich denk das ist die Quintessenz des heutigen Abends.
Wenn man noch bedenkt das NV wohl die größte Performance in RT via DLSS verabreichen möchte.

Gott1337
2022-09-22, 03:54:34
nVidia hatte beim Ampere-Launch einen Effizienzsteigerung von 1,9 ggü. Turing angegeben. Hier sollte man auch sehr vorsichtig sein, wie die Werte ermittelt wurden.

Zum Diagramm: Wir kennen die Skalierung nicht - daher sollte man da lieber nichts reininterpretieren.
bei 60fps ja

rentex
2022-09-22, 05:52:10
Lustig wie man sich hier, an den überzogenen Energiekonsum der Karten gewöhnt...und das mitten in der größten Energiekrise Europas seit Ende des Zweiten Weltkrieges.

OgrEGT
2022-09-22, 06:20:56
https://pbs.twimg.com/media/FdM6aVZXgAEm-gG?format=jpg&name=large

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59514-nvidia-stellt-die-ersten-modelle-der-geforce-rtx-40-serie-vor-update.html

Wer sprach heute noch von "Ampere Next"? Bei dem Blockdiagramm bekommt man stark genau diesen Eindruck. Kein Wunder, dass Ada scheinbar mindestens genauso eine Perf/TFLOP-Luftpumpe wie Ampere ist.
Die RZ aber auch die RZ+RT Leistung müsste bei 16k zu 10k SPs und 512 zu

OgrEGT
2022-09-22, 06:28:28
https://pbs.twimg.com/media/FdM6aVZXgAEm-gG?format=jpg&name=large

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59514-nvidia-stellt-die-ersten-modelle-der-geforce-rtx-40-serie-vor-update.html

Wer sprach heute noch von "Ampere Next"? Bei dem Blockdiagramm bekommt man stark genau diesen Eindruck. Kein Wunder, dass Ada scheinbar mindestens genauso eine Perf/TFLOP-Luftpumpe wie Ampere ist.
Die RZ aber auch die RZ+RT Leistung müsste bei 16k zu 10k SPs und 128 3rd Gen zu 84 2nd Gen TCs deutlich höher sein... Dass sie das nicht ist wird wohl daran liegen dass die grundlegende Architektur nicht verändert wurde und die Auslastung die bei 12 zu 7 GPCs weiter relativ gesunken ist...
Der Schwerpunkt liegt einzig auf DLSS3 und das basiert hauptsächlich auf Interpolation von ganzen Frames die eigenständig von der GPU vorhergesagt und nicht von der Spiele Engine berechnet werden... hat so ein Geschmäckle wie autonomes Fahren... wir kommen hin zum autonomen Gamen... die GPU spielt alleine :ugly:

Kriegsgeier
2022-09-22, 06:37:21
Was Jay hier anspricht ist wirklich interessant:

Ich finde auch, dass NVIDIA noch einige Probleme bekommen wird, da die 4080 12GB und die 4080 16GB nur eben diesen Unterschied von 4GB auf der Verpackung aufgeführt haben! Verbraucherschützer sollen hier aktiv werden! Das ist eine Täuschung!

https://youtu.be/F7TRFK3lCOQ


Und unbedingt dieses Video reinziehen:

https://youtu.be/u07OVq3x0dc



"Moores Gesetz ist tot", sagte Huang und bezog sich auf den Standard, dass sich die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt. "Und die Fähigkeit des Mooreschen Gesetzes, die doppelte Leistung zu den gleichen Kosten oder bei der gleichen Leistung, die Hälfte der Kosten, alle anderthalb Jahre, zu liefern, ist vorbei. Es ist völlig vorbei, und so ist die Idee, dass die Kosten eines Chips im Laufe der Zeit sinken werden, leider eine Geschichte der Vergangenheit. Computing ist kein Chip-Problem, es ist ein Software- und Chip-Problem", sagte Huang.

dargo
2022-09-22, 07:10:09
Was Jay hier anspricht ist wirklich interessant:

Ich finde auch, dass NVIDIA noch einige Probleme bekommen wird, da die 4080 12GB und die 4080 16GB nur eben diesen Unterschied von 4GB auf der Verpackung aufgeführt haben! Verbraucherschützer sollen hier aktiv werden! Das ist eine Täuschung!

https://youtu.be/F7TRFK3lCOQ

Ach komm... nüchtern betrachtet ist die 3080 10GB vs. 3080 12GB auch eine Täuschung, denn beide Grafikkarten unterscheidet nicht nur der Speicher. Wo waren da die Verbraucherschützer?

Kriegsgeier
2022-09-22, 07:11:09
...Der Schwerpunkt liegt einzig auf DLSS3 und das basiert hauptsächlich auf Interpolation von ganzen Frames die eigenständig von der GPU vorhergesagt und nicht von der Spiele Engine berechnet werden... hat so ein Geschmäckle wie autonomes Fahren... wir kommen hin zum autonomen Gamen... die GPU spielt alleine :ugly:


Da triffst du es auf den Kopf: DLSS3 MUSS bei den allen seriösen Tests unbedingt sehr akribisch unter die Lupe, unter eine sehr kritische Lupe!

Kriegsgeier
2022-09-22, 07:12:01
Ach komm... nüchtern betrachtet ist die 3080 10GB vs. 3080 12GB auch eine Täuschung, denn beide Grafikkarten unterscheidet nicht nur der Speicher. Wo waren da die Verbraucherschützer?

Stimmt! Komisch, dass man da nichts gesehen hat...

PS:
AMD kann ab 3. November NVIDIA voll "überraschen" und NVIDIAs Margen wesentlich reduzieren/konsolidieren lassen!

Denn: PCBs, Kühlung und Fertigung ist bei AMD diesmal WESENTLICH günstiger.
NVIDIA wird 100% mit AMD nicht mithalten können - unmöglich bei dieser Generation.

Edgecrusher86
2022-09-22, 07:19:21
20GB an einem 256Bit SI? Not. ;) Es wird sicherlich irgendwann in 2023 eine 4080TI geben, dann aber auch mit 16GB logischerweise wenn dies mit dem Vollausbau von AD103 realisiert wird.

Da würde ich eher drauf wetten, dass der AD103 Vollausbau nur für die RTX 5000 Ada kommt - mit 32GB G6 [die RTX 6000 Ada hat ja schon den "4090 Ti Chip -> 142SM -> 18176SP, aber aufgrund des 300W Limits "nur" 48GB G6]. :cool:

Die 4080 Ti wird bestimmt den AD102 nutzen, vielleicht in der -200 oder -150 Kennung bei grob 13k SP und 320-bit SI - verkauft sich bestimmt dann auch besser - auch mit mehr Marge - und stopft die große Lücke von der 4090 zur 4080 16GB auch perfekt.
Nun ja, die kann Jensen auch erst Q1 2024 bringen im Grunde - zeitnah zur 4090 Ti. ;)

Dorn
2022-09-22, 07:27:46
Ach komm... nüchtern betrachtet ist die 3080 10GB vs. 3080 12GB auch eine Täuschung, denn beide Grafikkarten unterscheidet nicht nur der Speicher. Wo waren da die Verbraucherschützer?
Stimmt, das interessiert doch niemanden außer uns Gamer und mir ist das auch egal.
Das einzige was passieren kann irgendwann will der Staat noch eine Vergnügungssteuer welche am Verbrauch des Spass Gerätes gekoppelt ist, da ja hoher Verbrauch böse ist in diesen Zeiten...

Warum gibt es eigentlich kein Energielabel auf Grafikkarten? Das wäre witzig ;D

Kriegsgeier
2022-09-22, 07:28:19
bei der nächsten Generation Ende 2024 gehe ich davon aus, dass die Leistungsaufnahme sogar minimal zurückgeht, vielleicht auf 400Watt irgendwas zwischen Ampere und Ada und die Leistung um gute 50% steigt!
Das wäre eine perfekte Generation für mich!

Denn, der Design der Next Generation ist wahrscheinlich schon in 6 Monaten fertiggestellt...

PS: auch nicht unwahrscheinlich wäre eine 10x Leistungssteigerung bei Ray-Tracing bei der neuen Generation gegenüber Ada. Das wäre auch ein Gamechanger und endlich ein Durchbruch!

Edgecrusher86
2022-09-22, 07:30:48
Apropos FE - hier gibt es mehr Details: https://www.techpowerup.com/299096/nvidia-details-geforce-rtx-4090-founders-edition-cooler-pcb-design-new-power-spike-management

/edit: Bestätigung für das "offene" Power-Limit:

Wenn man mal schnell die Bude heizen muss - gut so. :D

https://abload.de/img/y9xhgw02wmsqoxxi2tifp.jpghttps://abload.de/img/5wtptv9wtdu7zlzeqmd9a.jpg
20+3 Phasen also nun und wie schon bei der fast baugleichen 3090 Ti FE deutlich reduzierte Lastspitzen zur RTX 3090. Wie zu erwarten war, hat sich auch der NVL nun aus dem Desktop-Markt verarbschiedet.
Gut, nur über Explicit AFR war es mMn eh für die Tonne, da 99% der Devs eh keinen Support einbauen und man halt alle alten implizierten NV-Profile für die 3090/3090 Ti gestrichen hat.

https://abload.de/img/bjzgxb1sjxhzca3wtgdi5.jpg
Micron hat zudem die Fertigung des G6X verbessert, sodass der Verbrauch herunter geht. Dies soll die Temperaturen um 10 Grad senken.

Kriegsgeier
2022-09-22, 07:44:44
Gut, dass die VRAMs nicht auf dem Rücken sind! Sehr gut sogar.

PS: was auch beeindruckt ist die 12 lagige PCB! Wird diese dadurch auch in der Dicke zunehmen und somit wesentlich stabiler werden?

dargo
2022-09-22, 07:46:57
Da würde ich eher drauf wetten, dass der AD103 Vollausbau nur für die RTX 5000 Ada kommt - mit 32GB G6 [die RTX 6000 Ada hat ja schon den "4090 Ti Chip -> 142SM -> 18176SP, aber aufgrund des 300W Limits "nur" 48GB G6]. :cool:

Erstmal ja, schließlich kannst du da wesentlich andere Preise abrufen, steigert die Marge. Später kommt aber mit hoher Wahrscheinlichkeit der volle Chip auch im Gamingsektor. So eine Generation zieht sich über mindestens zwei Jahre und da musst du was abliefern um im Gespräch zu bleiben. Dann kommt halt der Vollausbau praktisch als "Refresh".


Die 4080 Ti wird bestimmt den AD102 nutzen, vielleicht in der -200 oder -150 Kennung bei grob 13k SP und 320-bit SI - verkauft sich bestimmt dann auch besser - auch mit mehr Marge - und stopft die große Lücke von der 4090 zur 4080 16GB auch perfekt.
Nun ja, die kann Jensen auch erst Q1 2024 bringen im Grunde - zeitnah zur 4090 Ti. ;)
Wie du in den ersten Benchmarks siehst ist zwischen 4090 und 4080 16GB gar keine große Lücke. Und warum sollte Nvidia den großen AD102 weiter beschneiden wenn AD103 wesentlich kleiner ist und somit mehr Marge verspricht? Macht für mich keinen Sinn den AD102 in drei Ausführungen (4090TI, 4090, 4080TI) zu bringen und den AD103 mit nur einer (4080 16GB).

Edgecrusher86
2022-09-22, 07:49:50
Erstmal ja, schließlich kannst du da wesentlich andere Preise abrufen, steigert die Marge. Später kommt aber mit hoher Wahrscheinlichkeit der volle Chip auch im Gamingsektor. So eine Generation zieht sich über mindestens zwei Jahre und da musst du was abliefern um im Gespräch zu bleiben. Dann kommt halt der Vollausbau praktisch als "Refresh".


Wie du in den ersten Benchmarks siehst ist zwischen 4090 und 4080 16GB gar keine große Lücke. Und warum sollte Nvidia den großen AD102 weiter beschneiden wenn AD103 wesentlich kleiner ist und somit mehr Marge verspricht? Macht für mich keinen Sinn den AD102 in drei Ausführungen (4090TI, 4090, 4080TI) zu bringen und den AD103 mit nur einer (4080 16GB).

Ja gut, unterhalb einer RTX 4080 Ti könnte Jensen noch eine 4080 16GB Super bringen, korrekt. ;D



Wie du in den ersten Benchmarks siehst ist zwischen 4090 und 4080 16GB gar keine große Lücke. Und warum sollte Nvidia den großen AD102 weiter beschneiden wenn AD103 wesentlich kleiner ist und somit mehr Marge verspricht? Macht für mich keinen Sinn den AD102 in drei Ausführungen (4090TI, 4090, 4080TI) zu bringen und den AD103 mit nur einer (4080 16GB).

Och, das ist doch kein Problem - wenn man halt quasi erst eine 4090 Ti bringt [die nochmals grob 9% schneller laut Keynote ist iirc] und dann die 4080 Ti - dann ist der alte Abstand wieder hergestellt. :D

dargo
2022-09-22, 07:51:41
PS: auch nicht unwahrscheinlich wäre eine 10x Leistungssteigerung bei Ray-Tracing bei der neuen Generation gegenüber Ada. Das wäre auch ein Gamechanger und endlich ein Durchbruch!
Träum weiter. :tongue:

Schon bei Ada spricht Nvidia bei RT von zwei bis dreifachen RT-Performance vs. Ampere und letztendlich kommen davon in Games nur +25% an. Wir haben immer noch einen hybriden Ansatz in Games. ;) Hier wird immer so getan als wenn die RT-Performance um Faktor X steigt die Games auch um diesen Faktor X schneller laufen.

Edgecrusher86
2022-09-22, 07:55:30
Bis 4x, wenn man DLSS 3 verwendet - nicht ganz fair, aber gut. TU und GA wären da halt zu langsam für gewesen, so die Begründung. ;)

dargo
2022-09-22, 07:56:29
Ich rede doch nicht von dem Cheat @DLSS3. Äpfel mit Äpfel vergleichen. ;)

Edgecrusher86
2022-09-22, 07:57:38
Ich gehe schon davon aus, dass die Bildqualität überzeugen wird, sonst hätte man es nicht gebracht. Wenn das so ist, ist das für mich kein Cheat, sondern Vorsprung durch Technik. Vor allem dann nicht, wenn man es mit DL-DSR kombinieren kann - eventuell kommt auch bald 4.00x. ;)
Es ist doch Gang und Gäbe, dass alte HW früher oder später nicht alle Features (gescheit) nutzen kann - siehe Pascal + RT - das langt halt mal für ein Daumen-Kino, mehr aber auch nicht. ;)


Navi31 VBIOS clock limit is 3.72 GHz, let's keep hype under control people

Eben im Nachbar-Fred gesehen. Aha - gut, dann muss man da wohl 0,2-0,3 GHz real abziehen.

Kriegsgeier
2022-09-22, 07:57:42
ne, das habe ich nicht behauptet - wäre aber genial!
PS: müssen die RT-Cores immer in den Shadern sitzen oder kann Jensen einen separaten RT-Chip neben der GPU positionieren?

Edgecrusher86
2022-09-22, 08:00:44
Vielleicht wären die Signalwege zu lang für eine schnelle Abarbeitung?! Mein Gedankengang. Gut - per NVL etwa würde das sicher nicht bremsen.


Ich bin auch mal gespannt, wie gut man UV betreiben kann - bei der 3090 Ti war es ja leider schon stark eingeschränkt, da unterhalb 900mV die Speichergeschwindigkeit extrem eingebrochen ist - das war bei der 3090 noch nicht so - da konnte man auch 7xxmV fahren - gut, irgendwann halt mit nur 10 Gbps (etwa bei 1,3x GHz). :D

Kriegsgeier
2022-09-22, 08:04:44
Abartig, was da der neue TSMC-Prozess leistet: über 3 GHz bei GraKas, wow. Dass ich das noch erleben darf...

dargo
2022-09-22, 08:07:12
PS: müssen die RT-Cores immer in den Shadern sitzen...
Ja.

Kriegsgeier
2022-09-22, 08:09:03
An die Experten, ist da was dran?:

"So sad that Nvidia turned cheap and decided to get rid of the Full FP32 cores + dedicated INT32 cores for a Hybrid design with half FP32 and half FP32/INT32... the Core and Performance scaling is really bad with that design. If AMD stick to Full FP32 with RDNA 3 and really have 12288 FP32 Cores, they wil destroy Nvidia in Rasterization performance and also in Efficiency!"

Auch sehr interessanter Kommentar:

"Looking at the top-level pretty much confirms ADA is:

*clears throat*

Volta 4.0 or;
Turing 3.0 or;
Ampere 2.0;

The only "Major" difference in the "brand new SM" is Shader Execution Re-ordering, otherwise the functional units are arranged in the same way as Ampere, which is Turing + FP32 on INT32 dispatch share which is Volta + cache/scheduling tweaks+RT cores. Pretty much exactly as I expected it's not a brand new architecture, but then, it never needed to be.

The coolest thing for me about AD102, though, is the 12 triangles/clock of raster throughput. That's pretty wedge."

Edgecrusher86
2022-09-22, 08:11:31
Das ist in der Tat beeindruckend - 3+ GHz, ja. :up:

Naja, solange eine ordentliche Portion Mehrleistung gegeben ist - gehen wir einmal vom AC:V Benchmark als Worst-Case für die 4090 aus (50% oberhalb 3090 Ti und somit grob 60% über der 3090), ist doch alles gut.
Mich interessiert nun wirklich nicht, ob AMD in dem Fall 20-30% schneller wäre. RT wird genutzt, wenn verfügbar und das ist ja eigentlich in allen neuen AAA-Titeln der Fall; mit wenigen Ausnahmen.
Und wie gesagt - DL-DSR gibt es ja auch noch, wo zum Beispiel 2.25x etwa genauso schnell läuft wie nativ und spürbar besser aussieht (1.78x wäre dann leicht schneller bei ebenfalls etwas besserer Optik).

Colin MacLaren
2022-09-22, 08:33:19
Ein bisschen ärgere ich mich jetzt, dass ich nicht meine 3090 FE Anfang des Jahres noch schnell vertickt und in der Zwischenzeit den Laptop genutzt hatte, um damit eine 4090 zu finanzieren :( Momentan habe ich für eine 2.100 EUR+ Grafikkarte dank 8.000-EUR-Motorschaden leider nicht das Geld :(

Der Rest haut mich jetzt nicht vom Hocker. Da werde ich wohl diesen Tick (und auch den Tock nächstes Jahr) mit der 3090 noch halbwegs klarkommen müssen. Hauptsache die 120 fps in 4K DLSS Balance stehen im neuen Call of Duty. Ansonsten spiele ich eh nur Steam Deck ;)

Blase
2022-09-22, 09:21:15
Tjoa... nach diversen Videos und Berichten bin ich eher underwhelmed.

Die preisliche Ansetzung der beiden 4080er - gepaart mit dem Umstand, dass die kleine davon klar ne 4070er ist - ist ein Witz. Ich hoffe so sehr, dass AMD hier richtigerweise hart reingrätschen und ihre Chance nutzen wird.

Und bezüglich der 4090 ist der US Preis zwar wirklich "ok", aber die Dollar/Euro Umrechnung versalzt das Ganze etwas.

Die Performance Charts von nVidia sind kaum zu gebrauchen. Ohne DLSS scheinen sich die neuen Karten schwer zu tun, sich von Ampere so deutlich abzusetzen, wie man das eigentlich erwarten würden.
Und mit DLSS stellt man die Versionen 2.0 von Ampere der 3.0 von Ada gegenüber. Nicht "fair" und entsprechend nicht vergleichbar.

Ich finde aktuell das Video nicht, was ich gestern dazu noch gesehen habe. Die "Zwischenbildberechnung" von 3.0 fügt also extra Frames hinzu - und steigert so die Bildrate beträchtlich. Das erklärt die langen Balken in den nVidia Charts bei der Nutzung von DLSS. Und offensichtlich ist rein optisch das Bild auch entsprechend flüssiger (z.B. Unterschied 30 FPS ohne zu 60 FPS mit DLSS 3.0). Aber es steht die Frage im Raum, ob der Inputlag sich dann nicht trotzdem wie ein "30-Frames-Spiel" anfühlen wird. "Flüssiges Bild", aber "träge Eingabeumsetzung"?

Also ich bin sehr gespannt auf die unabhängigen Tests. Die werden dem Ganzen dann sehr genau auf den Zahn fühlen müssen...

MfG Blase

Platos
2022-09-22, 09:21:39
Ein bisschen ärgere ich mich jetzt, dass ich nicht meine 3090 FE Anfang des Jahres noch schnell vertickt und in der Zwischenzeit den Laptop genutzt hatte, um damit eine 4090 zu finanzieren :( Momentan habe ich für eine 2.100 EUR+ Grafikkarte dank 8.000-EUR-Motorschaden leider nicht das Geld :(

Der Rest haut mich jetzt nicht vom Hocker. Da werde ich wohl diesen Tick (und auch den Tock nächstes Jahr) mit der 3090 noch halbwegs klarkommen müssen. Hauptsache die 120 fps in 4K DLSS Balance stehen im neuen Call of Duty. Ansonsten spiele ich eh nur Steam Deck ;)

Ich nehm sie dir ab für 500Euro :D :freak::tongue:

Linmoum
2022-09-22, 09:31:30
Q: How does the RTX 40 Series perform compared to the 30 series if DLSS frame generation isn't turned on?

You can find more performance information here.

This chart has DLSS turned on when supported, but there are some games like Division 2 and Assassin's Creed Valhalla in the chart that don’t have DLSS, so you can see performance compared to our fastest RTX 30 Series GPU without DLSS.
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636

Also vermutlich in der Realität auch noch mal etwas weniger, als Nvidia selbst angibt. Das ist echt extrem fragwürdig, woran es es krankt. Erste Überlegung wäre Bandbreite, aber wozu dann der fette Cache wenn es offensichtlich doch nichts bringt?

Exxtreme
2022-09-22, 09:34:05
Ein Cache erhöht die Bandbreite nur marginal. Er ist dazu da um hohe Latenzen zu kaschieren.

Linmoum
2022-09-22, 09:35:58
Ich denke nicht, dass N21 mit nur 512Gb/s in UHD so performen würde, wie es tatsächlich der Fall ist. ;)

fondness
2022-09-22, 09:49:48
Ich denke nicht, dass N21 mit nur 512Gb/s in UHD so performen würde, wie es tatsächlich der Fall ist. ;)

Mhm, ohne dem ganzen spezial zeug bleiben bei den Nvidia eigenen Benchmarks 50-60% mehrleistung über. Das könnte bei unabhängigen benchmarks sogar weniger sein. Imo sind die real anliegenden Taktraten bei weitem nicht so hoch wie vermutet. Nvidia wird keine gpu bauen die an der Bandbreite verhungert. Man scheint aktuell nicht in der Lage zu sein hohe Taktraten zu fahren ohne das die TDP explodiert.

Ravenhearth
2022-09-22, 09:50:33
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636

Also vermutlich in der Realität auch noch mal etwas weniger, als Nvidia selbst angibt. Das ist echt extrem fragwürdig, woran es es krankt. Erste Überlegung wäre Bandbreite, aber wozu dann der fette Cache wenn es offensichtlich doch nichts bringt?
Wer sagt, dass er nichts bringt? Die 4090 scheint ~60% schneller als die 3090 Ti zu sein, bei gleicher Bandbreite. Ich würde also schon sagen, dass der Cache hilft, nur eben nicht genug. Laut den Leaks ist der Cache auf der 4090 außerdem auf 72MB beschnitten, das ist nur 1/8 mehr als auf der 4080.

NC
2022-09-22, 10:01:46
Aber es steht die Frage im Raum, ob der Inputlag sich dann nicht trotzdem wie ein "30-Frames-Spiel" anfühlen wird. "Flüssiges Bild", aber "träge Eingabeumsetzung"?Lag wird um ein Bild steigen. Du mußt auf das neue Bild warten um das Zwischenbild zu berechnen, dann wird das Zwischenbild (statt dem neuen) angezeigt und dann erst das neue. Du hast als von der doppelten FPS ein Frame extra lag, oder ein halbes von der originalen FPS.

Mancko
2022-09-22, 10:08:05
Mhm, ohne dem ganzen spezial zeug bleiben bei den Nvidia eigenen Benchmarks 50-60% mehrleistung über. Das könnte bei unabhängigen benchmarks sogar weniger sein. Imo sind die real anliegenden Taktraten bei weitem nicht so hoch wie vermutet. Nvidia wird keine gpu bauen die an der Bandbreite verhungert. Man scheint aktuell nicht in der Lage zu sein hohe Taktraten zu fahren ohne das die TDP explodiert.

Bedeutet bei den Taktraten aber umgekehrt dass die da mit dem Lauf der Zeit ordentlich Luft für nen Refresh haben. In 6 Monaten wird das Verfahren bei TSMC schon eine ganz andere Performance an den Tag legen. Ich rechne da tatsächlich mit einem ordentlichen Refresh im Sommer 23 der dann die Performance oben nochmal nach oben schraubt und in der Mitte die Effizienz heben wird.

Troyan
2022-09-22, 10:08:42
Es gibt keinen zusätzlichen Lag mit DLSS 3. Es interpoliert nicht aus zwei vorhandenen Frames das Mittelbild, sondern interpoliert aus vergangenen Informationen das nächste Frame.

Was nicht im selben Zuge sinken wird, ist die Eingabelatenz.

Exxtreme
2022-09-22, 10:11:51
Lag wird um ein Bild steigen. Du mußt auf das neue Bild warten um das Zwischenbild zu berechnen, dann wird das Zwischenbild (statt dem neuen) angezeigt und dann erst das neue. Du hast als von der doppelten FPS ein Frame extra lag, oder ein halbes von der originalen FPS.
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)

dildo4u
2022-09-22, 10:14:23
Es wird sich wie Grütze anfühlen darum geht es DLSS 2 hat die Latzens verbessert weil die Auflösung reduziert wurde, hier muss man immer mit 60fps als Basis anfangen ansonsten kannste es knicken.
Sehr mutig das die Cyberpunk mit 20fps zeigen und dann hoch skalieren nett für ein Video und das wars.

HOT
2022-09-22, 10:16:55
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)
Das seh ich auch als Knackpunkt bei der Geschichte. Man braucht trotzdem über 60 Basis-FPS für Games, wo es darauf ankommt. Diese Ganze Technik ist so ne Art Interlacing und ich wüsste keinen Anwendungsbereich, in dem das keine Nachteile hätte.

pilzsammler2002
2022-09-22, 10:17:37
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)

Man muss hier aber explizit zwischen DLSS3 (upscaler+FG), "DLSS3 upscaler" und "DLSS3 Frame Generation" unterscheiden.
Das macht die Benchmarks von Nvidia ja auch recht undeutlich.

Nativ = 30 FPS / Inputlag 30
DLSS upscaler = 60 FPS / Inputlag 60 FPS
DLSS3 (US + FG) = 120 FPS / Inputlag 60 FPS
DLSS FG only= 60 FPS / Inputlag 30 FPS

Natürlich kann man dann schreiben, auch mit DLSS3 FG (plus natürlich upscaler) haben wir nen geringeren Inputlag da ja das DLSS2/3 upscaling die frames zusätzlich erhöht :freak:

Troyan
2022-09-22, 10:19:47
Es wird sich wie Grütze anfühlen darum geht es DLSS 2 hat die Latzens verbessert weil die Auflösung reduziert wurde, hier muss man immer mit 60fps als Basis anfangen ansonsten kannste es knicken.
Sehr mutig das die Cyberpunk mit 20fps zeigen und dann hoch skalieren nett für ein Video und das wars.

Sie kombinieren es mit Reflex, um die Latenz so gering wie möglich zu halten. Selbst mit DLSS 2.0 und Reflex hat man angeblich in Cyberpunk eine Latenz von 62ms. Man "verliert" also gerade mal 6ms und erhält dafür 50% mehr Bilder.

Linmoum
2022-09-22, 10:20:42
Es wird sich wie Grütze anfühlen darum geht es DLSS 2 hat die Latzens verbessert weil die Auflösung reduziert wurde, hier muss man immer mit 60fps als Basis anfangen ansonsten kannste es knicken.
Sehr mutig das die Cyberpunk mit 20fps zeigen und dann hoch skalieren nett für ein Video und das wars.
Was heißt sehr mutig? Wenn ich in UHD sowieso schon >60fps habe, dann ist das ganze eh witzlos. Das sollte ja gerade eigentlich bei sehr niedrigen fps helfen, was es aber paradoxerweise nicht kann.

Exxtreme
2022-09-22, 10:24:25
Was heißt sehr mutig? Wenn ich in UHD sowieso schon >60fps habe, dann ist das ganze eh witzlos. Das sollte ja gerade eigentlich bei sehr niedrigen fps helfen, was es aber paradoxerweise nicht kann.

Hängt wiederum vom Spiel ab. Bei Strategiespielen braucht man sicherlich keine 60 fps Eingabelatenz. :) MMORPGs sind auch nicht so Eingabelatenz-kritisch da man da in aller Regel am sog. global cooldown hängt. Und der ist eine Sekunde lang und mehr. Trotzdem will man eventuell mehr als 60 fps auf dem Bildschirm haben.

Von daher, das Feature ist nice to have für mich. Aber man sollte keine Wunder in jedem Spiel erwarten.

davidzo
2022-09-22, 10:30:23
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)

Das kommt immer darauf an wie man das verkauft.
Wenn man das so vermarktet wie "Hey, wir haben deine ruckeligen 20 bis 30fps flüssig gemacht!" dann stimme ich dir zu, der input Lag steigt nicht. Ich hatte ja vorher schon den inout Lag von 20-30fps.

Lederjacke vermarktet das aber anders "guck mal, wir haben 3x mehr Leistung als die andere Grafikkarte" und in Bezug auf echte 300%, also z.B. indem ich Auflösung und Filterung reduziere und damit die Leistung verbessere ist der lag eben um 150% höher. Bedeutet: Eine 3090 mit 20 FPS liegt vom Input Lag
nur um 50% hinter einer 4090 mit 60 und DLSS3. Den 30fps input Lag der 4090 werde ich immer noch deutlich spüren selbst wenn es jetzt hübscher aussieht.

Die Technik selber mag ja begeistern, aber es ist einfach die Art und weise wie man es in den Konsumenten drückt, die widerlich ist.

Blase
2022-09-22, 10:46:26
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)

Wenn das so ist, dann ist das Feature ja dennoch eine Verbesserung. Nicht auf ganzer Linie, aber dennoch (deutlich) besser als vorher. Ich empfinde ein "stotterndes" Bild aufgrund niedriger FPS stets als störender, als eine evtl. verzögerte Eingabeumsetzung. Letzteres fällt mir genau genommen in gar keinem Spiel wirklich auf - ersteres natürlich immer, wenn die FPS nicht stimmen.

So gesehen ginge das Feature natürlich voll in Ordnung und wäre gegenüber DLSS 2 eine klare Verbesserung. Natürlich trotzdem Banane, für Benchmarks dann DLSS 2 gegen DLSS 3 antreten zu lassen. Aber von nVidia ist hier wohl nichts anderes zu erwarten :P

MfG Blase

boxleitnerb
2022-09-22, 10:51:47
Auf lange Sicht finde ich den Ansatz von spatialer und temporaler Inter-/Extrapolation schon sinnvoll. Das wird wie üblich bei den Propellerjungs auf beiden Seiten große Diskussionen erzeugen (was ist "echt"? Zählt das Frame voll/halb/nicht), aber die immer langsameren Fortschritte in der Fertigung machen so etwas imho schon nötig.
Checkerboardrendering, FSR/DLSS, wir sind schon auf dem Weg. Man muss nur sehen, wo er hinführt und welche Kompromisse die breite Masse einzugehen bereit ist. Neben dem Marketinggewinn ist eher Mainstream abwärts die Zielgruppe, denke ich.
Das von vornherein zu verteufeln und nur "echte" Frames zu wollen, ist mMn nicht zielführend, wenn wir bei gleichem Verbrauch alle 3 Jahre ca. doppelte Leistung wollen. Das klappt doch heute schon nicht mehr...

basix
2022-09-22, 10:56:31
Das Problem bei DLSS3 ist die Vergleichbarkeit: Es sind eben keine "echten" FPS. Die Bildausgabe mag flüssiger sein und je nach Spiel kann das sicher ein grosser Vorteil sein. Ob sich das Spiel dann flüssiger anfühlt, ist ein ganz anderes Thema. Reflex wird hier als Hilfsmittel verwendet, damit man allenfalls doch noch eine Verbesserung spürt. Aber gegen echte FPS + Reflex wird es hinsichtlich Input Lag nicht ankommen.

Und Nvidia will mit ihrer Vorstellung aber genau das suggerieren: "Echte" verdoppelte FPS. Was halt einfach nicht stimmt. In ihrem Performance-Vergleich wird wild mit/ohne DLSS und DLSS2/3 verglichen. Äpfel und Birnen und so...

Beim Input Lag muss man allerdings auch sagen, das es extrem viele Variablen gibt, welche zu einem anderen Erlebnis führen können:
- GPU Limit
- CPU Limit
- V-Sync / G-Sync / FreeSynce
- Game Engine. Umso neuer, wird es typischerweise höher. Doom mal ausgenommen.
- Pre-Rendered Frames Einstellung
- Verwendete Peripherie (Maus, Monitor)

Wuge
2022-09-22, 11:02:48
Mal ein ganz anderes Thema... wo NV für jedes Modell einen eigenen Chip nutzt, muss doch die Streuung der ASIC-Qualität deutlich größer sein als bisher. Wo eine 3090 sicher die besseren und die 3080 die schlechteren Chips erhalten hat, muss der funktionsfähige aber taktunfreudige/säuferische Teil der AD102 Produktion ja nun auch als 4090 ins Volk. Das wird anstrengend... :-/

Spring
2022-09-22, 11:03:07
Kp, ob schon hier gepostet, die letzten Seiten habe ich nichts dazu gefunden.

Nvidia says falling GPU prices are ‘a story of the past’ (https://www.digitaltrends.com/computing/nvidia-says-falling-gpu-prices-are-over/)

Instead of Moore’s Law, Huang focused on price points and generational improvement. “The performance of Nvidia’s $899 GPU or $1,599 GPU a year ago, two years ago, at the same price point, our performance with Ada Lovelace is monumentally better. Off the charts better.”

The response seems to echo what many of us have already been suspecting. After the GPU shortage has subsided, Nvidia and its partners were left with an oversupply of graphics cards. Once terribly overpriced, these GPUs are now up for grabs at more reasonable prices, but they’re most likely not selling as quickly as the manufacturers might have hoped.

“The 3080 was, and still is, great value, and it will continue to live on,” an Nvidia spokesperson said in another briefing, noting that it was far from dead.

The introduction of the RTX 40-Series steals the thunder from RTX 30-Series, but Nvidia still wants to sell off these older (but still very good) cards. It makes sense to price the RTX 4090 and the two RTX 4080s so high because this might push more people to buy one of the RTX 30 GPUs instead. Be that as it may, it’s sad to hear a confirmation that the prices will continue following an upward trend.

Sardaukar.nsn
2022-09-22, 11:04:59
Wer sagt, dass er nichts bringt? Die 4090 scheint ~60% schneller.


Die 60% kommen schon durch die zusätzlichen SM und die ~500mhz mehr an Takt.

Sardaukar.nsn
2022-09-22, 11:08:28
Kp, ob schon hier gepostet, die letzten Seiten habe ich nichts dazu gefunden.

Nvidia says falling GPU prices are ‘a story of the past’ (https://www.digitaltrends.com/computing/nvidia-says-falling-gpu-prices-are-over/)

Die Inflation ist halt heftig, nicht bei nur bei Energie und Lebensmitteln. Ein Ende ist leider nicht wirklich in Sicht.

Sunrise
2022-09-22, 11:15:45
Die Inflation ist halt heftig, nicht bei nur bei Energie und Lebensmitteln. Ein Ende ist leider nicht wirklich in Sicht.
Es geht nicht nur um Inflation.

TSMC kann aktuell die Preise stetig erhöhen und kleinere Prozesse werden irgendwann so teuer, dass es nur noch hochpreisige Produkte (mit ordentlich Marge) geben kann. Genau wie alle Kosten von Unternehmen immer auf den Kunden umgelagert werden, kann das selbst mit Konkurrenz nicht außer Kraft gesetzt werden, es wird lediglich abgemildert. Die Reise ist aber klar.

R&D wird auch immer teurer, da sind wir schon Welten von Werten von vor Jahren entfernt.

Nazar
2022-09-22, 11:24:26
Ich gehe schon davon aus, dass die Bildqualität überzeugen wird, sonst hätte man es nicht gebracht. Wenn das so ist, ist das für mich kein Cheat, sondern Vorsprung durch Technik. Vor allem dann nicht, wenn man es mit DL-DSR kombinieren kann - eventuell kommt auch bald 4.00x. ;)
Es ist doch Gang und Gäbe, dass alte HW früher oder später nicht alle Features (gescheit) nutzen kann - siehe Pascal + RT - das langt halt mal für ein Daumen-Kino, mehr aber auch nicht. ;)




Eben im Nachbar-Fred gesehen. Aha - gut, dann muss man da wohl 0,2-0,3 GHz real abziehen.

Ohne DLSS ist RT immer noch Lichtjahre von einer annehmbaren Performance entfernt, besonders dann, wenn es um 4K geht (CP77 RT only = zirka 30 FPS in 4K).
DLSS ist immer noch ein BQ Verschlechterer, wie man in den diversen Videos von nV sehen kann. Zwar nicht mehr so extrem wie mit DLSS 2.0, aber das mit dem Detailverlust (Texturen) in entfernten Bereichen und der Verlust der Bildschärfe, ist immer noch deutlich sichtbar.
Ich vermute, dass nV deshalb versucht mehr RT-Performance über "Upscaling" und andere, neue Ansätze einzubringen und weniger über die reine Rohleistung.
Zumindest sollte nV klar sein, dass, falls sie keine andere Lösung finden, eine ständige Erhöhung der Verlustleistung kein Weg ist, um die zwingend und dringend benötige Mehrleistung für RT erzielen zu können.
Es muss dann jeder für sich entscheiden, ob es einem wert ist, den Verlust der Bildqualität für ein angebliches Mehr an "Realismus" in Kauf nehmen zu wollen.

dargo
2022-09-22, 11:32:02
Mhm, ohne dem ganzen spezial zeug bleiben bei den Nvidia eigenen Benchmarks 50-60% mehrleistung über. Das könnte bei unabhängigen benchmarks sogar weniger sein. Imo sind die real anliegenden Taktraten bei weitem nicht so hoch wie vermutet. Nvidia wird keine gpu bauen die an der Bandbreite verhungert. Man scheint aktuell nicht in der Lage zu sein hohe Taktraten zu fahren ohne das die TDP explodiert.
Ihr immer mit euren Taktraten. Mal angenommen die RTX 4090 boostet auf 2,5Ghz hoch bei 450W Limit. Wenn du der Karte erlaubst 600W zu nuckeln was für Wunder erwarten hier die Leute wenn das Teil dann mit 2,8Ghz boostet? Das wären in dem Fall 12% mehr Takt wovon vielleicht 6-8% sich in mehr fps umwandeln lassen. Wow... ändert wirklich wahnsinnig viel an der Gesamtsituation. :freak:

Bedeutet bei den Taktraten aber umgekehrt dass die da mit dem Lauf der Zeit ordentlich Luft für nen Refresh haben. In 6 Monaten wird das Verfahren bei TSMC schon eine ganz andere Performance an den Tag legen. Ich rechne da tatsächlich mit einem ordentlichen Refresh im Sommer 23 der dann die Performance oben nochmal nach oben schraubt und in der Mitte die Effizienz heben wird.
Dann träume mal weiter. :tongue: Als ob der gleiche Fertigungsprozess an der Effizienz der Karten was ändern würde. :rolleyes: Wenn ein Refresh im gleichen Prozess kommt dann wird logischerweise der Verbrauch weiter ansteigen.

Sardaukar.nsn
2022-09-22, 11:32:33
Es geht nicht nur um Inflation.

TSMC kann aktuell die Preise stetig erhöhen und kleinere Prozesse werden irgendwann so teuer, dass es nur noch hochpreisige Produkte (mit ordentlich Marge) geben kann. Genau wie alle Kosten von Unternehmen immer auf den Kunden umgelagert werden, kann das selbst mit Konkurrenz nicht außer Kraft gesetzt werden, es wird lediglich abgemildert. Die Reise ist aber klar.

R&D wird auch immer teurer, da sind wir schon Welten von Werten von vor Jahren entfernt.

Da stimme ich dir absolut zu. Wenn Jenson sagt "...falling GPU prices are ‘a story of the past" wird das leider wohl so sein.

Wer weis wie viel GPU man in 2 Jahren noch für 1000€ bekommt. :confused:

EDIT

4090 Aorus Master :freak:

https://i.imgur.com/2yv8pe1.png

https://i.imgur.com/X7OSQwS.png

why_me
2022-09-22, 11:39:24
Gerade bei CB gesehen, aus dem Nvidia Q&A:
Please note, the existing 12 pin cables and adapters from the RTX 30 Series generation are not compatible with RTX 40 Series graphics cards.
:facepalm:

Ist das Pinout anders oder sind die Kabel nur zu dünn für die Leistungsaufnahme von Ada?

E:Gefunden, die 4 zusätzlichen Pins fehlen und über die wird das Powerbudget der GPU ausgehandelt. Sind die pins nicht vorhanden, also floatend darf die GPU nur 150W ziehen.
https://scr3.golem.de/screenshots/2203/Intel-ATX-3.0/thumb620/Intel-ATX-3.0-01.png

Ravenhearth
2022-09-22, 11:44:17
Die 60% kommen schon durch die zusätzlichen SM und die ~500mhz mehr an Takt.
Ohne den größeren Cache würden die aber wahrscheinlich nicht ankommen ;)

Nazar
2022-09-22, 11:47:49
Das ist so böse:

Zitat von hier (https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636):Q: Can someone explain these performance claims in how they relate to gaming? 2-4x faster seems unprecedented. Usually from generation to generation GPU's see a 30-50% increase in performance. Is the claim being made that these cards will at *minimum* double the performance for gaming?

Link

The RTX 4090 achieves up to 2-4x performance through a combination of software and hardware enhancements. We’ve upgraded all three RTX processors - Shader Cores, RT Cores and Tensor Cores. Combined with our new DLSS 3 AI frame generation technology the RTX 4090 delivers up to 2x performance in the latest games and creative applications vs. RTX 3090 Ti. When looking at next generation content that puts a higher workload on the GPU we see up to 4x performance gains. These are not minimum performance gains - they are the gains you can expect to see on the more computationally intensive games and applications.

Es scheint wirklich so, dass es nV nur um RT+DLSS bei Ada geht. :eek:
Ich hatte ja mal die Spekulation geäußert, dass nV sich mehr auf RT und DLSS konzentieren könnte, und die RZ Leistungssteigerung sich gegenüber einer 3090ti bei Faktor 1.5 - 1.7 befinden könnte. Das war meine schlimmste Befürchtung. Jetzt liegt die RZ Performance bei 1.5-1.7 aber zur 3090 (ohne ti). :freak:

Wer hofft, dass sich bei der RZ Leistung noch groß etwas bei den 40x0 ändern wird, der wird wohl bitter enttäuscht werden, zumindest wenn ich mir die offiziellen Antworten auf der nV FAQ HP durchlese.
Die Preise und die Umbennung der 4070 zur 4080, erscheinen mir immer mehr wie die Flucht nach vorne, um den Kunden zu täuschen, und jetzt noch schnell viel Ware für viel Geld zu verkaufen, bevor AMD auf den Markt kommt.
Gab es vorher schon mal ein Präsi von nV, wo nur verstekt wenige RZ Werte gezeigt wurden?

r3ptil3
2022-09-22, 11:53:08
Übrigens die ASUS TUF hat im Gegensatz zur Strix keinen Vapor Chamber, das ist mit auch der grösste Unterschied beim Kühler. Von der Grösse sind sie ja gleich, also nicht täuschen lassen davon.



Die PNY gefällt mir :freak::

https://pics.computerbase.de/1/0/5/0/8/1-0a36ec0b849cf15e/41-1280.68bfc22c.png

Fragman
2022-09-22, 11:55:30
Nv hat sich hier ganz auf RT konzentriert und verläßt sich auf DLSS3.
Die Rasterizerperformance, wie sie sich aktuell darstellt, ist gelinde gesagt eine Enttäuschung.
Im Hinblick auf die Nodesprünge, die Archoptimierungen, den Takt und Stromverbrauch nicht nachvollziehbar (lief beim Design was schief bzw ist das am Ende?).
Dafür dürfte der Chip insgesamt ausgewogener beim Hybridrendering sein.
Bei DLSS3 erwarte ich zudem Kinderkrankheiten, die man über die Zeit aber sicher in den Griff bekommen wird.

Damit kommen wir zum Preis, der sich hier in Europa auf Miningboomniveau befindet und dafür sorgt, das die neue xx70 und die xx80 doppelt so teuer sind als noch die Vorgänger vor 2 Jahren.
Die 4090 ist das klar bessere Produkt, der Preis aber indiskutabel hoch und durch die Leistung und das drumherum für Gamer (aus meiner Sicht) nicht zu rechtfertigen.
Produktionskosten sind laut Gerüchten wohl mind 50% höher als noch bei Ampere. Ich bin mal gespannt was der 3 Slot Monsterkühler allein kostet. Schon bei Turing standen ja 180 (?) Euro im Raum, da dürfte der vielleicht schon Richtung 300 gehen?

Persönlich bin ich bei den Preisen auch raus.
Zusammen mit den doch deutlich beschnittenen Chips, wird hier eine psychologische Grenze überschritten. Die Redshift oder die Arnold Renderperformance ist dazu auch nicht ausreichend, um privat 2K und mehr für eine Graka zu rechtfertigen.

Warten wir jetzt mal auf AMD...

Neurosphere
2022-09-22, 11:59:15
Ich hab bei dieser Generation noch mehr als bei Ampere das Gefühl das Nvidia am Gamingmarkt vorbei Entwickelt und das Featureset eigentlich für den Profimarkt ist und man nur schaut wie man es noch für Gaming nutzen kann.

Sah man ja auch sehr schön an der Präse mit 10 Minuten für Games und danach gings an Firmen und Unternehmen für über ne Stunde.


Btw:

mGARjRBJRX8

Nazar
2022-09-22, 12:05:13
Es gibt keinen zusätzlichen Lag mit DLSS 3. Es interpoliert nicht aus zwei vorhandenen Frames das Mittelbild, sondern interpoliert aus vergangenen Informationen das nächste Frame.

Was nicht im selben Zuge sinken wird, ist die Eingabelatenz.

Es wird !!!!immer!!! eine Lag geben, wenn man etwas zusätzlich tun muss, um ein Ergebnis zu erzielen. Das ist Physik.
Selbst wenn nVidia eine Zeitmaschine besitzt und Bilder aus der Zukunft holt, um diese dann einzufügen, wird der Aufwand des Einfügens ein Lag erzeugen.
Es geht also nicht darum ob es ein Lag gibt, sondern wie sehr es spürbar sein wird.
Ich kann mich natürlich auch täuschen und nVidia hat es geschafft in die Zukunft zu reisen und dann immer 1 m-Sek. vorher wieder zurückzuspringen und vor dem eigentlich Sprung in die Zukunft das Bild wieder einzufügen.
Allerdings bezweifele ich das stark, weil das alle bisherigen wissenschaftliche Erkenntnisse über den Haufen werden würde und wir dann z.B. die Energiekrise unmittelbar gelöst hätten. Man könnte auch mit 1 Watt an Energie 1 TW an Leistung erzeugen. Energie erzeugen... ;D omfg nV hat die Physik geknackt. :freak:
Echt geiler Scheiß das

Redneck
2022-09-22, 12:06:24
Die Entscheidung auf RT zu gehen ,und die Chips dahingehend aufzubohren, liegt Jahre zurück.
RZ spielte daher wohl eine untergeordnete Rolle, da für den Bildschirmbetrieb i.d.R. schnell genug (VR ist für NV immer noch Nische und seien wir mal ehrlich.. ganz Unrecht haben sie damit nicht).

Das wir bis dato noch nicht die Killer Applikation für RT gesehen haben, liegt wohl auch daran, das die RT Hardware noch nicht so weit ist/war.
Denke NV täte gut daran mehr show cases für die 4000er mit zu entwickeln.
Grundsätzlich finde ich den Ansatz von NV sehr gut.. was mir fehlt ist die Effizienz (wenn wir in Bälde Kilowattpreise von ca 50 cent haben überlegt man sich 2x, ob man sowas High Endiges benötigt und ob man den Rechner anschmeißt.
Ist ja nicht nur Strom, den wir brauchen.. Gas ist ja auch noch ungewiss (hatte gerade meinen Heizungsbauer im Haus wegen Wartung und der erzählte mir von anderen Kunden die bereits Abschlagsrechnungen von über €1k/Monat haben).
Dagegen verblaßt mein Wunsch nach grafisch opulenteren Daddeleien..

Exxtreme
2022-09-22, 12:08:36
Es scheint wirklich so, dass es nV nur um RT+DLSS bei Ada geht. :eek:
Ich hatte ja mal die Spekulation geäußert, dass nV sich mehr auf RT und DLSS konzentieren könnte, und die RZ Leistungssteigerung sich gegenüber einer 3090ti bei Faktor 1.5 - 1.7 befinden könnte. Das war meine schlimmste Befürchtung. Jetzt liegt die RZ Performance bei 1.5-1.7 aber zur 3090 (ohne ti). :freak:


Japp. Aber mit sowas habe ich tatsächlich gerechnet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13102136#post13102136). Schau dir mal die Steamcharts an mit welcher Auflösung die Mehrheit so spielt. Mehr Rastersizer-Performance wäre eine Optimierung für ~3% der Spielerschaft, und damit komplett an der Kundschaft vorbei. Von DLSS3 werden sehr viel mehr Spieler profitieren. Ergo erscheint mir das viel sinnvoller auch wenn man das Cheat ansieht.

dargo
2022-09-22, 12:10:40
https://youtu.be/mGARjRBJRX8
WTF? Die eine Gigabyte soll 5kg wiegen? Oder hält die Stütze bis zu 5kg?

Edit:
Steve befürchtet, dass er keine Karten mehr bekommt und diese selber kaufen muss nachdem er die RTX 40-er Serie genauer untersucht. Das klingt nach voller Begeisterung. ;D

Troyan
2022-09-22, 12:12:03
Nv hat sich hier ganz auf RT konzentriert und verläßt sich auf DLSS3.
Die Rasterizerperformance, wie sie sich aktuell darstellt, ist gelinde gesagt eine Enttäuschung.
Im Hinblick auf die Nodesprünge, die Archoptimierungen, den Takt und Stromverbrauch nicht nachvollziehbar (lief beim Design was schief bzw ist das am Ende?).


Mit den hohen Takt hat man eine Verdopplung der Rasterizing-Leistung. Du siehst es nur nicht in Spielen, weil Rasterizing-Spiele durch die API limitiert sind.

Wieso ist Lovelace in Spielen mit Raytracing erheblich schneller? Weil die Effekte viel besser skalieren. Cyperpunk hat Psycho-SSR, die sind auf Ampere langsamer als die Raytracing-Reflektionen. Ersetze die ganzen handoptimierten Rasterizer-Effekte und die Skalierung wird viel besser. Keine hochkomplexen Codes mehr, keine Optimierungen für zig Architekturen - simplex einfaches brute-force.

Laut nVidia bringt deren SER in Cyberpunk bis zu 44% mehr Leistung:
https://www.techpowerup.com/img/RP1nt5X1ire5H6Np.jpg
https://www.techpowerup.com/299130/nvidia-ada-ad102-block-diagram-and-new-architectural-features-detailed

20%+ Mehrleistung einzig allein nur durch die Anordnung von der Abarbeitung von Instruktionen. Das hat mit dem 2x Leistungzuwachs bei Lovelace gegenüber Ampere ja erstmal nichts zu tun.

robbitop
2022-09-22, 12:14:50
An die Experten, ist da was dran?:

"So sad that Nvidia turned cheap and decided to get rid of the Full FP32 cores + dedicated INT32 cores for a Hybrid design with half FP32 and half FP32/INT32... the Core and Performance scaling is really bad with that design. If AMD stick to Full FP32 with RDNA 3 and really have 12288 FP32 Cores, they wil destroy Nvidia in Rasterization performance and also in Efficiency!"

Auch sehr interessanter Kommentar:

"Looking at the top-level pretty much confirms ADA is:

*clears throat*

Volta 4.0 or;
Turing 3.0 or;
Ampere 2.0;

The only "Major" difference in the "brand new SM" is Shader Execution Re-ordering, otherwise the functional units are arranged in the same way as Ampere, which is Turing + FP32 on INT32 dispatch share which is Volta + cache/scheduling tweaks+RT cores. Pretty much exactly as I expected it's not a brand new architecture, but then, it never needed to be.

The coolest thing for me about AD102, though, is the 12 triangles/clock of raster throughput. That's pretty wedge."
Eine Quellenangabe wäre nett. Allein der Text zeigt, dass es sich um einen Dünnbrettbohrer handelt. Wer von Blockcharts solche Rückschlüsse zieht, ist oberflächlich. Es gab oft genug Beispiele von Implementierungen bei denen Blockcharts sehr ähnlich zu ihrem Vorgänger waren aber die physische Implementierung komplett neu war und somit auch anders ist.
Das mit den INTs ist wie schon mal geschrieben ziemlicher Blödsinn bzw gar nicht der Hauptflaschenhals in den SMs von Ampere.
Außerdem ist es überhaupt nicht relevant, wie viel pro SM herum kommt sondern wie viel pro Watt und pro Transistor herumkommt.
Als man bei Ampere der INT Unit auch FP Fähigkeiten gegeben hat ohne all die anderen Dinge in der SM zu verbreitern war das sehr transistorgünstig. Also hat man pro Transistor mehr Leistung gewonnen.

Die gesamte Implementierung wird schon allein wegen der Taktraten ein gutes Stück anders sein als Ampere. Das kommt nicht allein vom Prozess.

Lurtz
2022-09-22, 12:16:06
Würde vielleicht auch erklären, wieso sich die 4090 nur um ~33% von der 4080 absetzen kann; die erste hat 40% mehr Bandbreite, aber laut den Leaks nur 12,5% mehr L2-Cache.
Computerbase schreibt zum Cache:
Auch von einem großen L2-Cache, von dem die Gerüchteküche immer sprach, erwähnte Nvidia nichts. Allerdings ist bis jetzt noch gar nicht vom Cache geredet worden. Falls es diesbezüglich Veränderungen gegeben hat, sieht Nvidia sie aber wohl nicht als bedeutend genug an, darauf explizit einzugehen.
https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/

IPC existiert nicht bei GPUs wie bei CPUs. Es gibt eine Grafik-Pipeline, die star ist und Software, die abstrahiert über der GPU läuft. Die 4090 wird bis auf die Bandbreite überall eine Verdopplung gegenüber der 3090 haben. Aber durch die veralteten APIs, heißt das nicht, dass sich die Leistung durchschlägt - siehe z.B. AC:Valhalla.
Die veraltete DX12-API in AC:Valhalla, die auf Radeons einwandfrei und deutlich besser als die Vorgänger performet? :ulol:

robbitop
2022-09-22, 12:18:06
Ein Cache erhöht die Bandbreite nur marginal. Er ist dazu da um hohe Latenzen zu kaschieren.
Er reduziert je nach Hitrate den externen Bandbreitenbedarf. AMD hatte dazu einige Folien zu RDNA2. Und, dass das hervorragend funktioniert bewiesen so ziemlich alle RDNA2 Produkte und auch damals schon die Intel Crystalwell IGPs.

Troyan
2022-09-22, 12:20:49
Die veraltete DX12-API in AC:Valhalla, die auf Radeons einwandfrei und deutlich besser als die Vorgänger performet? :ulol:

Auf veraltete AMD Hardware. Toppi. Was sagt das über moderne, neuere Hardware aus?

Die 3090TI ist nur 50% schneller als die 3070 in den Spiel. Die 3090TI hat 75% mehr Rechenleistung und 50% mehr Bandbreite. Offensichtlich limitiert hier nicht die Rechenleistung.

dargo
2022-09-22, 12:22:45
Auf veraltete AMD Hardware. Toppi. Was sagt das über moderne, neuere Hardware aus?

Falls du mit "modern" die RTX 40-er Nvidia Serie meinst... an der Software vorbei entwickelt?


Die 3090TI ist nur 50% schneller als die 3070 in den Spiel. Die 3090TI hat 75% mehr Rechenleistung und 50% mehr Bandbreite. Offensichtlich limitiert hier nicht die Rechenleistung.
Luftpumpe dürfte dir doch schon seit zwei Jahren ein Begriff sein?

Lurtz
2022-09-22, 12:24:50
Auf veraltete AMD Hardware. Toppi. Was sagt das über moderne, neuere Hardware aus?

Die 3090TI ist nur 50% schneller als die 3070 in den Spiel. Die 3090TI hat 75% mehr Rechenleistung und 50% mehr Bandbreite. Offensichtlich limitiert hier nicht die Rechenleistung.
Tja, die Spielelandschaft ist einfach nicht modern genug für nVidias Hardware, deshalb muss man auch seit zwei Jahren immer wieder Cyberpunk 2077 und Mods für zwanzig Jahre alte Spiele präsentieren.

Vielleicht sollte Jensen Spieleentwickler werden und denen mal zeigen, wie das geht.

robbitop
2022-09-22, 12:26:57
Ich bin gespannt, wann wir mehr über die uArch wissen werden. Noch ist so viel nicht bekannt.

Grundsätzlich fände ich es besser, wenn die Hardware für Raytracing so gestaltet wird, dass sie transparent zur RT Anwendung mehr Performance liefert und beschleunigende Features keine explizite Implementierung bräuchten und wenn dann schon gar nicht über proprietäre Schnittstellen sondern über offene Schnittstellen.

Ich frage mich auf welchem Hardwarelevel (gem IMG Tec) Ada Lovelace nun ist:

Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
https://www.imaginationtech.com/products/ray-tracing/

Intel hatte für Arc meine ich auch eine Sortierfunktion vorgestellt.

Die bisherigen Einschätzungen (ich hab die Quelle leider nicht mehr) waren:
RDNA2: Level 2
Turing/Ampere: Level 3
Intel ARC: Level ~3,5

Linmoum
2022-09-22, 12:28:05
Was sagt das über moderne, neuere Hardware aus?Frag Nvidia, die als Showcase für ihre moderne Hardware ein fast zwei Jahre altes Spiel nutzen müssen. /s

why_me
2022-09-22, 12:29:35
Wenn das so weiter geht, sind wir bei release bei zehnfacher Leistung...
https://pics.computerbase.de/1/0/5/0/9/0-b607f7e3ed70fbb6/22-1080.15f99aba.png
https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/

Daredevil
2022-09-22, 12:31:07
Tja, die Spielelandschaft ist einfach nicht modern genug für nVidias Hardware, deshalb muss man auch seit zwei Jahren immer wieder Cyberpunk 2077 und Mods für zwanzig Jahre alte Spiele präsentieren.

Vielleicht sollte Jensen Spieleentwickler werden und denen mal zeigen, wie das geht.
Frag Nvidia, die als Showcase für ihre moderne Hardware ein fast zwei Jahre altes Spiel nutzen müssen. /s
Cyberpunk bleibt und ist immer noch das bekannteste Franchise Weltweit, welches hohe Anforderungen an die Hardware hat. Demnach ist es völlig nachvollziehbar, dass man dieses Spiel als "Show a Feature" nimmt.
Du wirst mir kein anderen Spiel nennen können, welches mehr gefragt ist als dieses Spiel. ( Neben Flugsimulator für extreme Anforderungen und Portal für Nerds ;) )

Troyan
2022-09-22, 12:31:20
Tja, die Spielelandschaft ist einfach nicht modern genug für nVidias Hardware, deshalb muss man auch seit zwei Jahren immer wieder Cyberpunk 2077 und Mods für zwanzig Jahre alte Spiele präsentieren.

Vielleicht sollte Jensen Spieleentwickler werden und denen mal zeigen, wie das geht.

Wenn man Hardware nur für die Vergangenheit entwickelt, gibt es keine Zukunft. Schau dir RTX Remix an. Wäre ohne Turing nicht möglich gewesen. Was sagt es uns? Veraltete AMD Hardware funktioniert bis zu einem bestimmten Punkt, dann kackt es ab. Siehe Metro Exodus EE: Ampere ist bis zu 80% schneller. Fortschritt liegt nicht in der Vergangenheit.

Jupiter
2022-09-22, 12:31:45
Cyberpunk 2077 zu nehmen ist logisch, weil da grafisch nichts heranreicht und die Popularität insbesondere unter der PC- Spielerschaft hoch ist. Dagegen ist AC grafisch eine der schlechteren Ubisoft-Serien mit einer veraltet anmutigen Optik. Dazu kommt bald die Cyberpunk 2077-Erweiterung.

dargo
2022-09-22, 12:43:52
Veraltete AMD Hardware funktioniert bis zu einem bestimmten Punkt, dann kackt es ab. Siehe Metro Exodus EE: Ampere ist bis zu 80% schneller. Fortschritt liegt nicht in der Vergangenheit.
Was erzählst du hier wieder für einen bullshit? :facepalm:
1440p:
3090 vs. 6900XT = +40%
3080 vs. 6800XT = +26%
3070 vs. 6800 = +13%

https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Metro-Exodus-Enhanced-Edition-Test-Vergleich-1371524/3/

Edit:
Ist offensichtlich auch leicht szenenabhängig denn CB kommt auf andere Werte.

1440p:
3090 vs. 6900XT = +27%
3080 vs. 6800XT = +20%
3070 vs. 6800 = +11%

https://www.computerbase.de/2021-05/metro-exodus-pc-enhanced-edition-raytracing-benchmark-test/3/

PS: CB verwendet RT normal, das dürfte die Unterschiede eher erklären.

Troyan
2022-09-22, 12:50:48
Ach dargo, hier Worst-Case Benchmarks von PCGH: https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Metro-Exodus-Enhanced-Edition-Test-Vergleich-1371524/3/

74% in 4K mit RT Ultra. Und wenn wir dabei sind:
Guardians sind es 90%: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3

So sieht nVidias RTX Racer aus:
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/dlss3-supports-over-35-games-apps/nvidia-racer-rtx-4k-ray-traced-screenshot-008.jpg

Das ist Valhalla:
https://cdnb.artstation.com/p/assets/images/images/031/772/387/large/janice-leng-ack-tanshelf03-janiceleng.jpg?1604549994
https://www.artstation.com/artwork/d8edzK

dargo
2022-09-22, 12:59:15
Jetzt schmückt der sich auch noch mit Techdemos vs. Spiele, ich gebs auf. Der Typ hat mal wieder nen Clown zum Frühstück gehabt und rafft immer noch nicht für welche Zielgruppe hauptsächlich Games entwickelt werden.

btw.
Der Denoiser bei RTX Racer ist immer noch eine Vollkatastrophe in deinem Bild, haben die 450W nicht mehr da gereicht?

Troyan
2022-09-22, 13:05:04
Jetzt schmückt der sich auch noch mit Techdemos vs. Spiele, ich gebs auf. Der Typ hat mal wieder nen Clown zum Frühstück gehabt und rafft immer noch nicht für welche Zielgruppe hauptsächlich Games entwickelt werden.

Die Techdemo soll im November veröffentlicht werden:

Our new, beyond fast GeForce RTX 40 Series graphics cards have the power to render entirely ray-traced, physically accurate virtual worlds at high resolutions and frame rates, a feat that was previously impossible. To demonstrate the possibilities of gaming on GeForce RTX 40 Series graphics cards, this November you can download and play NVIDIA Racer RTX, a free tech demonstration rendered with the most detailed graphics seen to date.
[...]
Taking control of realistically rendered and physics-accurate RC cars, you’ll navigate around four unique sand-box style environments, letting you freely interact with all the physically modeled objects scattered about. Each environment is filled with photo-real objects[...]
Each environment is rendered exclusively with full ray tracing, running at 60 FPS at 4K thanks to the power of GeForce RTX 40 Series graphics cards and NVIDIA DLSS 3’s game-changing Optical Multi Frame Generation technology. NVIDIA RTX Direct Illumination (RTXDI), NVIDIA Reservoir Spatio Temporal Importance Resampling Global Illumination (ReSTIR GI), multiple light bounces, and high ray counts create worlds with the most accurate shadows and realistic lighting ever seen in a real-time game. And in an instant, the time of day can be changed, updating world lighting accordingly, and switching-on lamps and other artificial light sources at night, transforming the scene.
https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/

Radeonfreak
2022-09-22, 13:08:48
Die Techdemo soll im November veröffentlicht werden:

Sicher wieder eingebettet in Omniverse wo man sich anmelden muss etc, anstatt Standalone. Hat mich schon bei der marble Demo gestört.

Troyan
2022-09-22, 13:10:52
Diesmal nicht:
NVIDIA Racer RTX will be available for download and play in November; developers and creators can tweak and explore the NVIDIA Omniverse project the same day.

Kriegsgeier
2022-09-22, 13:14:50
Der Denoiser bei RTX Racer ist immer noch eine Vollkatastrophe in deinem Bild, haben die 450W nicht mehr da gereicht?


Blödsinn! Sieht schon sehr feinkörnig aus. Für meine Begriffe fast perfekt.
Oder willst du eine Feinkörnigkeit wie bei Pixar-Filmen wo ein Bild über mehrere Sekunden Renderzeit hat?!
Ein wenig mehr Realitätssinn bitte ;)

fondness
2022-09-22, 13:15:01
Kp, ob schon hier gepostet, die letzten Seiten habe ich nichts dazu gefunden.

Nvidia says falling GPU prices are ‘a story of the past’ (https://www.digitaltrends.com/computing/nvidia-says-falling-gpu-prices-are-over/)

Wenn man riesige monolotische dies baut, die nicht besonders Flächeneffizient sind und eine gigantische kühlung und Stromversorgung bedürfen sicher. Navi31 dürfte nicht mal die Hälfte kosten in der Herstellung. Die Kosten pro Die skaliert quadratisch bis kubisch mit der Fläche. Der neue tsmc 4N Prozess dürfte erheblich teurer sein wie der alte Samsung 8nm Prozess.

Sunrise
2022-09-22, 13:15:07
Ich muss schon sagen, dass ich diese Demo beeindruckend empfand. Nicht ganz so “schön” inszeniert wie die neuesten Unreals (Nanite/Lumen) aber aus technischer Sicht (Realismus) im Gegensatz zur letzten Demo empfand ich das wirklich als Fortschritt.

Meridian12
2022-09-22, 13:17:02
Hat die 4xxx eigentlich nichts zu bieten ohne DLSS3?? Überall sehe ich nur DLSS3. Ich soll mir die neuste und schnellste Grafikkarte kaufen um den besten Upsacler benutzen zu können??

Macht ja irgendwie gar keinen Sinn.

Als ob VW seinen SUV Tiguan bei der Neuvorstellung nur Offroad präsentiert. Wie toll er im Vergleich zum Vorgängermodell abseits von asphaltierten Strecken jetzt unterwegs ist.
Das er da 4 mal besser unterwegs ist usw,usw.

Das alles klingt dann auch hier so, als ob auf asphaltierten Strecken es nicht viel erwähnenswertes zu sagen gibt.

dargo
2022-09-22, 13:20:22
Die Techdemo soll im November veröffentlicht werden:

Und wen interessiert das? Ich schaue mir keine langweiligen Techdemos an, ich spiele Games. Selbst dort muss man schon genug suchen um überhaupt was Interessantes zu finden.

Blödsinn! Sieht schon sehr feinkörnig aus. Für meine Begriffe fast perfekt.

Klar, wenn man auch solche sche... wie Grain steht bestimmt.


Ein wenig mehr Realitätssinn bitte ;)
Die Realität wird dir nicht gefallen. Wir sind noch viele Jahre von guter RT-Implementierung entfernt.

fondness
2022-09-22, 13:21:30
Wurde eigentlich verkündet wann es was zu kaufen gibt, bzw wann es reviews gibt?

Radeonfreak
2022-09-22, 13:21:54
Diesmal nicht:

Das wäre natürlich toll.

Ich schaue mir keine langweiligen Techdemos an.

Ich mach das gerne und freu mich jedesmal, zeigt es doch das technisch mögliche. Ich mag auch Scenedemos seit Dekaden.

Troyan
2022-09-22, 13:25:01
Wenn man riesige monolotische dies baut, die nicht besonders Flächeneffizient sind und eine gigantische kühlung und Stromversorgung bedürfen sicher. Navi31 dürfte nicht mal die Hälfte kosten in der Herstellung. Die Kosten pro Die skaliert quadratisch bis kubisch mit der Fläche. Der neue tsmc 4N Prozess dürfte erheblich teurer sein wie der alte Samsung 8nm Prozess.

Interessant. Wie genau kann Navi31 nur die Hälfte kosten, wenn AMD a) ebenfalls 5nm verwendet wird und b) erheblich mehr 6nm Wafer im Verhältnis benötigt werden.

nVidia hat 120 Millionen Transistoren pro mm^2. Sieht ziemlich effizient aus im Gegensatz zu AMD, die doppelte 6nm Fläche für die selben Speichercontroller und Cache benötigen.

Daredevil
2022-09-22, 13:27:56
Hat die 4xxx eigentlich nichts zu bieten ohne DLSS3?? Überall sehe ich nur DLSS3. Ich soll mir die neuste und schnellste Grafikkarte kaufen um den besten Upsacler benutzen zu können??

Macht ja irgendwie gar keinen Sinn.

Als ob VW seinen SUV Tiguan bei der Neuvorstellung nur Offroad präsentiert. Wie toll er im Vergleich zum Vorgängermodell abseits von asphaltierten Strecken jetzt unterwegs ist.
Das er da 4 mal besser unterwegs ist usw,usw.

Das alles klingt dann auch hier so, als ob auf asphaltierten Strecken es nicht viel erwähnenswertes zu sagen gibt.
KI is the Future. :smile:
Würde es bereits ähnliches von AMD auf den Konsolen geben, wäre es nicht mehr wegzudenken, quasi niemand würde es deaktivieren wollen.
Es ist schlicht effizienter, durch KI ein flüssigeres bzw. hübscheres Bild zu generieren als es rein nativ nach oben zu skalieren. Es wird natürlich nie so hübsch sein, aber es wird den meisten ausreichen und dabei bekommt man
1. Viel mehr FPS ( 60 statt 30 )
2. Viel mehr EyeCandy ( 4k statt 2-3k )
3. Viel mehr Effizienz ( 50% geringerer Verbrauch bei gleicher Leistung )

Deswegen und auch nur deswegen pusht Nvidia das so sehr nach vorne, da sie diese Power im Gaming benötigen, in Pro Workloads und in ihrer Enterprise Serien. Apple macht genau das gleiche und zieht mit ihren SoCs nicht ( mehr ) in reiner Leistung davon, sondern mit ihren KI Fähigkeiten. Google macht exakt das gleiche mit ihren Tensor Prozessor.
Reine Leistung ist ab einem bestimmten Punkt nicht mehr skalierbar, dort hilft KI. Raytracing wäre ohne dieses Feature heute immer noch nicht nutzbar, natürlich investiert man dort in die Zukunft.

fondness
2022-09-22, 13:31:45
Interessant. Wie genau kann Navi31 nur die Hälfte kosten, wenn AMD a) ebenfalls 5nm verwendet wird und b) erheblich mehr 6nm Wafer im Verhältnis benötigt werden.

nVidia hat 120 Millionen Transistoren pro mm^2. Sieht ziemlich effizient aus im Gegensatz zu AMD, die doppelte 6nm Fläche für die selben Speichercontroller und Cache benötigen.

Natürlich kann man ohne realen Kosten plus yields von tsmc nur spekulieren. Aber wenn die Flächenangaben stimmen, dann kostet das 308mm2 Die von Navi31 vielleicht 1/3 von dem AD102, eher weniger. 6nm wafer werden zudem erheblich günstiger sein und die winzigen 37.5 mm2 dies nutzen die runde wafer Fläche perfekt aus. Dazu noch billigere kühlung und Stromversorgung. Halbe Kosten halte ich da nicht für unwahrscheinlich.

Ravenhearth
2022-09-22, 13:38:14
Info on the L2 cache for Ada Lovelace / AD102:

The full AD102 GPU includes 98,304 KB of L2 cache (a 16x increase over the 6,144 KB in a full GA102).

The GeForce RTX 4090 includes 73,728 KB of L2 cache (a 12x increase over the 6144 KB in the GeForce RTX 3090 Ti).
https://twitter.com/i/web/status/1572874656398426112

Da waren die Leaks wohl korrekt.