PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

Thunder99
2022-06-26, 11:28:08
Oder 4070 mit 10GB und 4070Ti mit 12GB?

Thunderburne
2022-06-26, 11:38:40
Auf die News brauch man aktuell noch keinen all zu großen Wert legen meiner Meinung nach !
Wenn ich jetzt sowas raus haue dann muss das ja auch nicht stimmen und könnte nur geschätzt sein!

64Bit =4GB 4050
96Bit =6GB 4050Ti
128Bit =8GB. 4060
160Bit =10GB 4060Ti
192Bit =12GB 4070
224Bit =14GB 4070Ti
256Bit =16GB 4080

320Bit =20GB 4080Ti
352Bit =22GB 4090 könnte man machen muss nicht!
386Bit =24GB 4090/4090 Ti
386Bit =48GB Titan

Troyan
2022-06-26, 11:42:39
Die 4060 kommt bestimmt nicht mit 8GB, wenn der Vorgänger 12GB hat.

Thunderburne
2022-06-26, 11:59:38
Die 4060 kommt bestimmt nicht mit 8GB, wenn der Vorgänger 12GB hat.
Bei der 3060 hatten die keine Wahl und mussten 12 drauf packen !
Bei 6 GB wäre die Bandbreite gedrosselt worden mit 160 Bit !!!
Und bei 8 wäre die Karte zu nah von der Performance an der 3070 und die 3060 Ti hätte nicht rein gepasst!
NV hatte da sehr viele Probleme die 3000 Serie die ordentlich zu verpacken !

Die 3060 Ti z.b hat 8 Gb weil 256 Bit SI!!!!
Also weniger als eine 3060 !


Nv kann diesmal deutlich besser die Produkte zu ordnen durch die höheren Caches!

Meine Liste oben soll auch nur zeigen was z.b möglich wäre!

Troyan
2022-06-26, 13:40:29
Caches bringen nichts für Speicher. Und die 3060 (und die neue 2060) haben 12GB. Da wird der Nachfolger keine 8GB haben, weil nVidia mit 128bit Fläche sparen will.

aufkrawall
2022-06-26, 13:51:53
Caches bringen nichts für Speicher.
Natürlich bringen sie das, wenn man dadurch flexibler bei der Interface-Breite wird. Außer natürlich, man macht trotzdem nur kundenfeindliche Gewinnmaximierung wie AMD bei den kleineren RDNA2s.

Troyan
2022-06-26, 13:55:14
Flexibler? Also ich sehe bei den Gerüchten ein Rückbau, um Fläche zu sparen. Mit 128bit kommt man nicht auf 12GB, sondern eben 8GB oder 16GB. Und ob die krummen Speichermengen realität werden, ist wohl auch fraglich.

DavChrFen
2022-06-26, 14:06:53
Es gibt auch 1,5GBit Module, dachte ich zumindest bei GDDR6.

Thunderburne
2022-06-26, 14:12:00
Caches bringen nichts für Speicher. Und die 3060 (und die neue 2060) haben 12GB. Da wird der Nachfolger keine 8GB haben, weil nVidia mit 128bit Fläche sparen will.

Natürlich bringen die was !
Die kompensieren die fehlende Bandbreite!
Darum sagte ich doch NV blieb bei 3060 kaum ne Wahl sonst hätte die 6 GB bekommen!
Warum meinst du soll die 4090 96 mb L2 Cache bekommen bei 384bit!?

BlacKi
2022-06-26, 14:12:47
Also 4070 mit 10 GIB wäre einfach ein riesen Fail. Dann würde ich mir lieber ne 3080TI holen, falls man die dann zu gleichen Preisen bekommen sollte.
gebraucht vl, säuft aber mehr und wird langsamer sein, und vermutlich ohne garantie. dafür würde ich keine 600€ mehr ausgeben und doch lieber eine 4070 für 600-700€ kaufen.


aber nur in dem speziellen fall, wenn man keine lust hat auf eine 4080 oder nicht auf eine 4070ti warten will.

reaperrr
2022-06-26, 16:31:58
Die 4060 kommt bestimmt nicht mit 8GB, wenn der Vorgänger 12GB hat.
Doch, natürlich wird sie das.

Die 12GB der 3060 waren NV für das angepeilte Peissegment eigentlich zu viel, aber weil 6GB klar zu wenig gewesen wäre und man leistungsmäßig gegen die 6600XT verloren hat, brauchte man die vollen 192bit und 12GB, um genug Kaufargumente zu haben.

Mit der 4060 wird man wieder auf 8GB zurückgehen. 16GB sind für das Preissegment noch zu teuer, und man hätte sonst wieder das Problem, dass die xx60 deutlich mehr Speicher und damit weniger Nachladeruckler und Leistungsverlust in hohen Auflösungen hat als die xx70, was aus Marketing-Sicht mindestens unglücklich ist.

Außerdem dürfte der direkte Konkurrent der 4060 der N33-Salvage sein, und der wird auch nur 8GB haben.

Ex3cut3r
2022-06-26, 16:53:22
Vielleicht wissen die Hersteller (Nvidia und AMD) auch schon, dass mit Direct Storage und der Kompression, keine "übertriebeneren" Speicherbestückungen mehr nötig sind? Ist nur ein Gedanke. Aber ich denke mal, die beiden haben da gute Informationen bzw. sind mit eigenständigen Entwickler bestens in der Branche vertreten.

bbott
2022-06-26, 17:40:19
Vielleicht wissen die Hersteller (Nvidia und AMD) auch schon, dass mit Direct Storage und der Kompression, keine "übertriebeneren" Speicherbestückungen mehr nötig sind? Ist nur ein Gedanke. Aber ich denke mal, die beiden haben da gute Informationen bzw. sind mit eigenständigen Entwickler bestens in der Branche vertreten.
Da es die Games erst unterstützen müssen und eigentlich auch Windows 11 voraussetzt wirst ganz schön riskant.
RAM ist nur durch mehr RAM zu ersetzen, auch mehr Raytracing braucht mehr RAM. Warum so viele den RAM Geizt verteidigen bleibt mir ein Rätsel. Fanboys erster Güte?

Ex3cut3r
2022-06-26, 17:48:19
Warum gleich so aggro? Und eine Unterstellung als Fanboy? In meinen Comment habe ich beide erwähnt. Schlecht geschlafen? :biggrin:

Wenn beide Hersteller in der Mainstream/Performance Klasse wieder mit 8GB ankommen, aber gestiegen Caches und Direct Storage ab 2023 wohl auch in jedem Spiel eigentlich drin sein wird, Jaa...dann schließe ich daraus, das 16GB oder gar 12GB vollkommen unnötig sein werden.

VRAM Wahnsinn -> Adieu.

Lehdro
2022-06-26, 18:06:55
Wenn beide Hersteller in der Mainstream/Performance Klasse wieder mit 8GB ankommen, aber gestiegen Caches und Direct Storage ab 2023 wohl auch in jedem Spiel eigentlich drin sein wird, Jaa...dann schließe ich daraus, das 16GB oder gar 12GB vollkommen unnötig sein werden.

VRAM Wahnsinn -> Adieu.
Und alle "alten" Spiele laufen dann wie ein Eimer Scheiße?
Direct Storage wird wohl eher genutzt werden um MEHR zu machen mit demselben Budget, nicht dasselbe mit weniger. Texturen haben immer noch so viel Potenzial welches teilweise nicht genutzt wird, weil die Technik bzw. die Speichergrößen es nicht hergeben. Wir haben mittlerweile Technologien hochauflösene Texturen quasi unbegrenzt zu erzeugen, aber nutzbar ist das noch nicht wirklich.
Direct Storage verlangsamt den Anstieg der Speicheranforderungen, aber setzt ihn nicht außer Kraft oder dreht ihn gar rückwärts.

Ex3cut3r
2022-06-26, 18:08:44
Wo gibts denn bei alten Spiele Probleme mit 8GB VRAM @ 1440p oder von mir aus 4K? :confused:
Welche Spiele sollen das sein?

Lehdro
2022-06-26, 18:37:43
Wo gibts denn bei alten Spiele Probleme mit 8GB VRAM @ 1440p oder von mir aus 4K? :confused:
Welche Spiele sollen das sein?
Ist das jetzt ein Trollversuch oder meinst du das ernst?

Falls zweiteres, einfach 1-2 Seiten zurückblättern.

dargo
2022-06-26, 18:51:16
Vielleicht wissen die Hersteller (Nvidia und AMD) auch schon, dass mit Direct Storage und der Kompression, keine "übertriebeneren" Speicherbestückungen mehr nötig sind? Ist nur ein Gedanke.
Kein Gedanke, die übliche Träumerei. ;)

Monsta
2022-06-26, 18:58:03
Warum gleich so aggro? Und eine Unterstellung als Fanboy? In meinen Comment habe ich beide erwähnt. Schlecht geschlafen? :biggrin:

Wenn beide Hersteller in der Mainstream/Performance Klasse wieder mit 8GB ankommen, aber gestiegen Caches und Direct Storage ab 2023 wohl auch in jedem Spiel eigentlich drin sein wird, Jaa...dann schließe ich daraus, das 16GB oder gar 12GB vollkommen unnötig sein werden.

VRAM Wahnsinn -> Adieu.

LoL du hast einen Hersteller als Profilbild, plus die Verteidigung einer Maßnamne wo Du mumaßt das es in Zukunft bestimmt mit weniger Ram besser wird. Also mehr Fanboy geht kaum.

Was spricht gegen mehr Speicher? Teuer ist der kram eh, da kommt es auf nen 100er auch nicht mehr an.

Ex3cut3r
2022-06-26, 19:11:42
Ist das jetzt ein Trollversuch oder meinst du das ernst?

Falls zweiteres, einfach 1-2 Seiten zurückblättern.
Echt jetzt? Du kannst die 1-2 Spiele nicht aus dem Kopf nennen? Dann helfe ich dir mal: Wolfentstein 2, Doom Eternal, Gegenmaßnahme, einfach den Texture Pool eine Stufe runter stellen. Qualität ändert sich nicht.

Dann Deathloop. Lösung, an 1440p halten, kein RT und DLSS nutzen (bringt bis zu 1GB gewinn)

Weitere Titel? Jetzt wirds aber schwierig. Da muss ich ganz tief in mich gehen. :freak: :biggrin:

LoL du hast einen Hersteller als Profilbild, plus die Verteidigung einer Maßnamne wo Du mumaßt das es in Zukunft bestimmt mit weniger Ram besser wird. Also mehr Fanboy geht kaum.


Das soll ein Witz sein. Nvidia hat doch mit RTX ON angefangen.

Kein Gedanke, die übliche Träumerei. ;)

;)

dargo
2022-06-26, 19:19:27
;)

Ich freue mich jedenfalls jetzt schon auf den Shitstorm bezüglich der neuen Gen, vor allem auf die brennenden/explodierenden Rechner. ;D Ein paar Speicherkrüppel versüßen da nur noch den Spaß. ;) Aber keine Sorge... das wird sich den Gerüchten nach nicht nur auf Nvidia begrenzen. N33 soll angeblich mit 8GB kommen, bei ca. N21 Performance. :crazy: Ist offenbar ein technisches Limit. Das Ding soll bloß mit 128Bit SI kommen und 4GB GDDR6 Chips gibt es afaik nicht. Ergo kann es hier nur 8GB Vram geben.

Thunder99
2022-06-26, 19:55:30
8GB sind am der Grenze wie auch 10GB. Mehr ist immer besser und je mehr desto mehr in Zukunft kann man beruhigt sein.
Nicht alle Spiele sind sehr gut programmiert oder haben ein Engin was weniger VRAM braucht. Daher ist mehr immer besser als weniger um beruhigt und gute Performance zu haben.

Eine x60 kann zwischen 8-10GB haben, denke ich. Eine 70er 10-12, darüber 16-24.

Mit Ampere war man begrenzt oder hat man es nicht in Betracht gezogen das es wirklich notwendig war.
Mit Lovelace sieht es anders aus und das ist auch gut so :)

Ex3cut3r
2022-06-26, 19:58:02
Ich freue mich jedenfalls jetzt schon auf den Shitstorm bezüglich der neuen Gen, vor allem auf die brennenden/explodierenden Rechner. ;D Ein paar Speicherkrüppel versüßen da nur noch den Spaß. ;) Aber keine Sorge... das wird sich den Gerüchten nach nicht nur auf Nvidia begrenzen. N33 soll angeblich mit 8GB kommen, bei ca. N21 Performance. :crazy: Ist offenbar ein technisches Limit. Das Ding soll bloß mit 128Bit SI kommen und 4GB GDDR6 Chips gibt es afaik nicht. Ergo kann es hier nur 8GB Vram geben.

Das sind definitiv interessante Punkte, die du da ansprichst. Viele haben immer noch 550W NT verbaut. Die meisten Gehäuse (selbst hier) sind glaube ich nicht in der Lage eine 650W GPU + 200W CPU (Worst Case) abzuführen. Das sind alles extra Kosten, die auf einen zukommen werden.

aceCrasher
2022-06-26, 20:43:38
Wo gibts denn bei alten Spiele Probleme mit 8GB VRAM @ 1440p oder von mir aus 4K? :confused:
Welche Spiele sollen das sein?

Crusader Kings 3. In 1440p mit Ultra Texturen sind die 8GB meiner 6600XT bereits randvoll, in 4K läuft der Speicher hoffnungslos über. Und nein, die "High" Texturen sehen nicht genauso aus, sie sind *deutlich* niedriger auflösend.

Thunderburne
2022-06-26, 20:59:58
Das sind definitiv interessante Punkte, die du da ansprichst. Viele haben immer noch 550W NT verbaut. Die meisten Gehäuse (selbst hier) sind glaube ich nicht in der Lage eine 650W GPU + 200W CPU (Worst Case) abzuführen. Das sind alles extra Kosten, die auf einen zukommen werden.
Zum Glück bleibt mir da alles erspart :biggrin:
https://s20.directupload.net/images/220626/temp/lce97x2e.jpg (https://www.directupload.net/file/d/6592/lce97x2e_jpg.htm)

dargo
2022-06-26, 21:17:39
Das sind definitiv interessante Punkte, die du da ansprichst. Viele haben immer noch 550W NT verbaut. Die meisten Gehäuse (selbst hier) sind glaube ich nicht in der Lage eine 650W GPU + 200W CPU (Worst Case) abzuführen. Das sind alles extra Kosten, die auf einen zukommen werden.
Da fällt mir gerade ein... die Konzerte @Spulenfiepen dürften auch neue Dimensionen erreichen. :biggrin:

Ex3cut3r
2022-06-26, 21:49:22
Zum Glück bleibt mir da alles erspart :biggrin:
https://s20.directupload.net/images/220626/temp/lce97x2e.jpg (https://www.directupload.net/file/d/6592/lce97x2e_jpg.htm)

:eek::eek::eek:

Da fällt mir gerade ein... die Konzerte @Spulenfiepen dürften auch neue Dimensionen erreichen. :biggrin:

Das auch. Ja.

Crusader Kings 3. In 1440p mit Ultra Texturen sind die 8GB meiner 6600XT bereits randvoll, in 4K läuft der Speicher hoffnungslos über. Und nein, die "High" Texturen sehen nicht genauso aus, sie sind *deutlich* niedriger auflösend.

Leider sind Radeons nochmal ne Ecke schlechter als GeForces was die VRAM Verwaltung angeht.

Der interessante zweite Punkt betrifft die Unterschiede zwischen AMD und Nvidia. Die Geforce-Macher beweisen hier erneut, dass sie eine clevere Speicherverwaltung implementiert haben. Bedauerlicherweise sind dazu keine Details bekannt, offenbar sortiert Nvidia die Daten jedoch so um beziehungsweise lagert unwichtige Daten aus, sodass eine Geforce mehr praktisch nutzbaren Speicher aufweist als eine Radeon. Das geht im Falle von Forza Horizon 5 so weit, dass eine Geforce RTX 2060, mit lediglich 6 GiByte bewehrt, geringere Speichermangelsymptome aufweist als eine mit 8 GiByte bestückte Radeon RX 6600 (XT), RX 5700 (XT) oder Vega 56.

Quelle: https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/

Scheint kein Einzelfall zu sein, in Deathloop ist das gleiche zu beobachten z.B.

Lurtz
2022-06-26, 22:41:45
Wenn N33 und RTX 4070 mit < 12 GB VRAM kommen, kann man die Gen für den Großteil der Käufer gleich wieder in die Tonne treten :facepalm:

hardtech
2022-06-26, 23:02:33
die spiele mittlerweile vielfach aus dem konsolenbereich kommen und diese nunmal beschränkt mit ihren gpus sind, wird die nutzung des ram auf der gpu nicht merklich steigen. ausser so dinge mit rt oder andere spezialfälle.

eine 1070 aus dem jahr 2017 (5 jahre!) hatte auch 8gb wie eine heutige 3060ti, ein um ein vielfaches schneller ist.

für mich zählt ausschließlich performance pro watt. das sollten die neuen karten entweder merklich besser hinbekommen oder man kann gleich zum vorgänger greifen, der vergünstigt angeboten wird.

Rampage 2
2022-06-27, 01:26:54
gebraucht vl, säuft aber mehr und wird langsamer sein, und vermutlich ohne garantie. dafür würde ich keine 600€ mehr ausgeben und doch lieber eine 4070 für 600-700€ kaufen.

Ein *informierter* Gamer (der nicht @ 1080p spielt) würde also eine 10GB-Karte einer 12GB-Karte vorziehen, bei der Erstere nur 10-30% schneller wäre, aber 2GB weniger Puffer für die Zukunft hätte:ulol:

R2

HOT
2022-06-27, 08:32:20
Da beide Lineups noch nicht feststehen werden ist das eh alles Gelaber, also die 4070 mit 10GB und N33 mit 8. Wir werden sehen, wie die Hersteller die Marktchancen einschätzen und die Produkte letztendlich gestalten.
Eines sollte aber jetzt schon klar sein, ein N33 mit nur 8GB würde sich schlichtweg nicht verkaufen, daher werden wir sowas auch nicht sehen.

Mangel76
2022-06-27, 10:02:05
Da beide Lineups noch nicht feststehen werden ist das eh alles Gelaber, also die 3070 mit 10GB und N33 mit 8. Wir werden sehen, wie die Hersteller die Marktchancen einschätzen und die Produkte letztendlich gestalten.
Eines sollte aber jetzt schon klar sein, ein N33 mit nur 8GB würde sich schlichtweg nicht verkaufen, daher werden wir sowas auch nicht sehen.

Alles eine Frage der Portfolio- und Preisgestaltung. Als 1080p-highFPS-Karte wäre das ne tolle Karte. Fragt sich nur zu welchem Preis.

basix
2022-06-27, 11:10:49
Da beide Lineups noch nicht feststehen werden ist das eh alles Gelaber, also die 3070 mit 10GB und N33 mit 8. Wir werden sehen, wie die Hersteller die Marktchancen einschätzen und die Produkte letztendlich gestalten.
Eines sollte aber jetzt schon klar sein, ein N33 mit nur 8GB würde sich schlichtweg nicht verkaufen, daher werden wir sowas auch nicht sehen.

24Gbit Chips FTW :D

Aber ja, 8GByte wären zu wenig. Ausser AMD kommt mit irgendeinem Trick daher (Speicherkompression, HBCC, whatever), welcher den physischen Speicher virtuell vergrössert. Z.B. 8GByte bei RDNA3 verhalten sich wie 12GByte bei RDNA2. Wir werden sehen.

Bei Lovelace scheinen die Speicherinterfaces gut zu passen, wenn sie Nvidia nicht überall wieder kastriert. Ich meine, eine 4070 mit 12GByte wäre top. Dazu eine 4060 Ti mit 12GByte und eine 4060 mit 10GByte (alles auf Basis AD104). Alles OK. Eine 4080 mit 16GByte und eine 4070 Ti mit 14GByte, ebenfalls OK. 4080 Ti mit 20 GByte und darüber noch die 4090. Darunter 4050 und 4050 Ti mit 8GByte auf Basis von AD106.

Edit:
Die Size Speku von mir:
- AD102 ~610mm2
- AD103 ~400mm2
- AD104 ~310mm2
- AD106 ~220mm2
- AD106 ~190mm2

HOT
2022-06-27, 11:30:31
Alles eine Frage der Portfolio- und Preisgestaltung. Als 1080p-highFPS-Karte wäre das ne tolle Karte. Fragt sich nur zu welchem Preis.
Ist es nicht. 8GB reicht schlichtweg nicht für FHD, das wäre für FHD ja absolutes High-End. Da musst schon mit mehr Speicher rüberwachsen, sonst ergibt das keinen Sinn.

maximus_hertus
2022-06-27, 11:40:38
Eines sollte aber jetzt schon klar sein, ein N33 mit nur 8GB würde sich schlichtweg nicht verkaufen, daher werden wir sowas auch nicht sehen.

Warum? Der Gegner für die 8GB N33 lautet AD106 mit 6-8GB. Von daher sehe ich da kein Problem...

HOT
2022-06-27, 11:46:18
Warum? Der Gegner für die 8GB N33 lautet AD106 mit 6-8GB. Von daher sehe ich da kein Problem...
Nein, der landet auf AD104-Leistung, vielleicht minimal darunter.

basix
2022-06-27, 12:01:37
Ja, N33 sollte ein Stück überhalb von AD106 landen. Alles andere würde mich überraschen. Von der Rohleistung her sollten beide Chips aber auf ähnlichen Niveau liegen (4608 Cuda Cores vs. 4096 FP32-Cores; beide mit 2.5+ GHz Takt). Die Frage ist, wie die IPC von Lovelace vs. RDNA3 aussieht.

Für AD104 wird es mMn nach aber nicht reichen.

Thunder99
2022-06-27, 13:13:25
So lange es nicht Speicherchips gibt mit Zwischengrößen wird es problematisch bleiben die richtige Speichermenge zu haben (aus Hersteller und Konsumenten Sicht).

Für 1.5 und 2.5 oder 3GB Chips!!!

HOT
2022-06-27, 13:16:53
Ich fänd 32Gbit-Chips cool ;). Ich glaub 24Gbit soll es irgendwann geben als GDDR6. Das wären 12GB bei 128Bit.

Nazar
2022-06-27, 14:14:58
Auf die News brauch man aktuell noch keinen all zu großen Wert legen meiner Meinung nach !
Wenn ich jetzt sowas raus haue dann muss das ja auch nicht stimmen und könnte nur geschätzt sein!

64Bit =4GB 4050
96Bit =6GB 4050Ti
128Bit =8GB. 4060
160Bit =10GB 4060Ti
192Bit =12GB 4070
224Bit =14GB 4070Ti
256Bit =16GB 4080

320Bit =20GB 4080Ti
352Bit =22GB 4090 könnte man machen muss nicht!
386Bit =24GB 4090/4090 Ti
386Bit =48GB Titan


Hmm, das hatten wir doch schon mit Ampere und dann kam das große Erwachen.
Irgendwie habe ich das Gefühl, dass einige sich verwundert die Augen reiben werden.
Wenn das so eintritt, wie du es aufführst, wäre das so als ob der Teufel plötzlich die Harfe an der Himmelspforte zupfen würde... sehr unwahrscheinlich.
Ich möchte mich ja täuschen, aber der die Vergangenheit hat gezeigt, dass nV machen kann was sie wollen, die Nutzer kaufen es doch.
Man sollte nicht zu viel erwarten. ;)

basix
2022-06-27, 14:20:05
Es wäre aber eine sinnvolle Portfolio-Gesaltung. Wie würdest du das anders umsetzen wollen? 4080 mit 8GByte? Die 4080 wird ein gutes Stück überhalb einer 3090 zu liegen kommen.

Einzige Alternative (aus dem RDNA3 Thread und N33 Diskussion):
- Mischbestückung mit 1GB / 2GB GDDR Chips
- Somit 12GByte
- Mischbestückung wird durch den grossen L2$ und entsprechendes Caching / Prefetching "versteckt"

Aber auch hier: 12GByte in 4K mit RT und >3090 Performance wären etwas mager. 16GByte passen hier wie die Faust aufs Auge. 900$+ dafür abdrücken wird man aber vermutlich müssen.

Edit:
Was ich an dem Portfolio aber ändern würde:
- 4060 Ti = 10 oder 12GB
- 4060 = 10GB (noch mit AD104)
- 4050 Ti = 8GB (AD106)
- 4050 = 6GB

HOT
2022-06-27, 14:30:26
Wenn man bedenkt, dass auch 24GT/s GDDR6X noch kommen soll würde ich das eher so sehen:

4090 (AD102) -> 320Bit 20GB GDDR6X 21GT/s
4090Ti (AD102) -> 384Bit 24GB GDDR6X 24GT/s

4080 (AD103) -> 256Bit 16GB GDDR6 18GT/s
4080Ti (AD102) -> 256Bit 16GB GDDR6X 24GT/s

4070 (AD104) -> 192Bit 12GB GDDR6 18GT/s
4070Ti (AD103) -> 192Bit 12GB GDDR6X 21GT/s

4060 (AD106) -> 128Bit 8GB GDDR6 18GT/s (evtl. mit Option auf 16GB)
4060Ti (AD104) -> 160Bit 10GB GDDR6 18GT/s

Darunter ist egal.

Thunderburne
2022-06-27, 14:45:03
Hmm, das hatten wir doch schon mit Ampere und dann kam das große Erwachen.
Irgendwie habe ich das Gefühl, dass einige sich verwundert die Augen reiben werden.
Wenn das so eintritt, wie du es aufführst, wäre das so als ob der Teufel plötzlich die Harfe an der Himmelspforte zupfen würde... sehr unwahrscheinlich.
Ich möchte mich ja täuschen, aber der die Vergangenheit hat gezeigt, dass nV machen kann was sie wollen, die Nutzer kaufen es doch.
Man sollte nicht zu viel erwarten. ;)
Ich erwarte nix hab nur ne mögliche Variante aufgezeigt!
Nicht Zuviel hinein interpretieren.
Gruß

prinz_valium_2
2022-06-27, 16:14:51
Edit:
Die Size Speku von mir:
- AD102 ~610mm2
- AD103 ~400mm2
- AD104 ~310mm2
- AD106 ~220mm2
- AD106 ~190mm2

Klein und süß?
Ich würde da noch bei den meisten chips noch ca 50m² drauf legen.

basix
2022-06-27, 17:02:32
Klein und süß?
Ich würde da noch bei den meisten chips noch ca 50m² drauf legen.

Naja, die Chips sind 30-40% teurer als N7. Und N7 war teurer als Samsung 7nm. Die Chips wären also ohnehin deutlich teurer als die entsprechenden Ampere Derivate.

Mein Ausgangspunkt war GA102 und AD103, da selbe Anzahl SMs. N5 ist auf einen gesamten Chip her gesehen ca. 1.5x dichter als N7: https://semianalysis.substack.com/p/apple-m2-die-shot-and-architecture

N5HPC vs. N7P könnte sogar noch etwas mehr als 1.5x sein. AMD selbst gibt 2x Density an (aus den Zen 4 EPYC Folien), was sich aber vermutlich nur auf Logik bezieht.

AD103 hat deutlich mehr L2$ und dafür nur 256bit SI. Ich nehme an, dass der neue L2$ von der Density her mehr an AMDs Infinity Cache ähnelt als Amperes L2$.

Bei 628mm2 für GA102 und 256bit sowie dem 1.55x Scaling Faktor wären wir <400mm2 für AD103. Aber OK, der L2$ käme noch oben drauf, da wären +50mm2 für AD103 und somit 450mm2 nicht so schlecht.

Fusion_Power
2022-06-27, 17:59:56
Die zunehmende Leistungsaufnahme von Grafikkarten scheint doch langsam eine Rolle zu spielen, die Konkurenz bringt sich schon in Stellung:

Gaming wird teurer: AMD erwartet steigenden Strombedarf von Spiele-PCs, besonders bei Nvidia (https://www.gamestar.de/artikel/gaming-wird-teurer-interview-amd,3381941.html)
Dass die kommenden Grafikkarten von AMD (RX 7000) und Nvidia (RTX 4000) eine klar höhere Leistungsaufnahme als ihre Vorgänger mit sich bringen werden, sagt die Gerüchteküche schon länger voraus. AMDs Senior Vice President Sam Naffziger bestätigt das in einem Interview nicht nur, sondern er geht auch davon aus, dass die Entwicklung in den kommenden Jahren so weitergehen wird.
Das soll jetzt kein Anlass für nVidia/AMD gebashe werden. Allgemein wäre es zukünftig sicher eine Überlegung, ob die Leistung einer Grafikkarte in Frame pro Watt gemessen werden sollte, statt völlig auf die reinen FPS zu schauen , auch wenn die Karte viel mehr Strom zieht als die eventuell etwas langsamere Konkurrenz.
Stromkosten spielen zumindest in Deutschland eine Rolle, in anderen Ländern wird das wohl (noch) nicht der Fall sein. Da aber die Sommer eh immer heißer werden, will ein Kauf so eines GPU-Heizkraftwerkes sicher trotzdem gut überlegt sein.

Rampage 2
2022-06-27, 19:35:29
Die zunehmende Leistungsaufnahme von Grafikkarten scheint doch langsam eine Rolle zu spielen, die Konkurenz bringt sich schon in Stellung:

Gaming wird teurer: AMD erwartet steigenden Strombedarf von Spiele-PCs, besonders bei Nvidia (https://www.gamestar.de/artikel/gaming-wird-teurer-interview-amd,3381941.html)

Das soll jetzt kein Anlass für nVidia/AMD gebashe werden. Allgemein wäre es zukünftig sicher eine Überlegung, ob die Leistung einer Grafikkarte in Frame pro Watt gemessen werden sollte, statt völlig auf die reinen FPS zu schauen , auch wenn die Karte viel mehr Strom zieht als die eventuell etwas langsamere Konkurrenz.
Stromkosten spielen zumindest in Deutschland eine Rolle, in anderen Ländern wird das wohl (noch) nicht der Fall sein. Da aber die Sommer eh immer heißer werden, will ein Kauf so eines GPU-Heizkraftwerkes sicher trotzdem gut überlegt sein.

Die eigentliche Frage, die ich mir seit Langem stelle, ist:

Warum gibt es seit Ampere-Launch keine neuen Netzteile von Top-Marken wie Seasonic oder Corsair mit dem neuen 16Pin-Stecker und ATX 3.0!? :|

Insbesondere nach den ganzen Notabschaltungen von NTs schon unmittelbar nach dem Launch von Ampere (erste Berichte darüber gab es IIRC schon Ende September 2020) hätte sich hier Einiges tun müssen - tat es aber nicht.

z.B. von Seasonic gibt es Titanium-Netzteile "nur" bis 1000W - höher gibt's höchstens nur Platinum oder aber nur von Corsair. Wobei zugegeben, mehr als ein 1000W Titanium-Netzteil würde ich meiner GPU nicht gönnen - Irgendwo muss Schluss sein!

Nvidia und AMD sollten sich also wirklich Gedanken darüber machen, wie sie ihre GPUs an den Mann bringen wollen, wenn nur ein Bruchteil auch der HighEnd-Gamer über entsprechend hochdimensionierte NT's verfügt...

R2

lilgefo~
2022-06-27, 20:18:24
z.B. von Seasonic gibt es Titanium-Netzteile "nur" bis 1000W - höher gibt's höchstens nur Platinum oder aber nur von Corsair. Wobei zugegeben, mehr als ein 1000W Titanium-Netzteil würde ich meiner GPU nicht gönnen - Irgendwo muss Schluss sein!


R2

https://seasonic.com/prime-tx

bis 1600w

Thunder99
2022-06-27, 20:24:39
Meine war eigentlich 500W, jetzt werden es wohl 750W werden, wenn die neue GPU kommt

The_Invisible
2022-06-27, 20:25:57
So schlimm ist es nicht, mein 12 Jahre altes 800W Netzteil wird auch mit 5950x und 3080Ti fertig, bei Ada sollen ja die Spitzen etwas abflachen, kann also nur besser werden.

@VRAM
Nvidia typisch würde ich da eher pessimistisch bleiben, bin gespannt nachdem ja die Leaker mit 3080Ti 20GB und 3070Ti 16GB richtig eingefahren sind :D

basix
2022-06-27, 20:47:44
Jepp, die Lastspitzen waren für die Notabschaltungen verantwortlich. Bei der 3090 haben sich zum Teil ja auch 850W Netzteile versabschiedet. Bei der 3090 Ti hat sich das bereits deutlich verbessert: Viel höhere Leistungsaufnahme als die 3090, Lastspitzen aber fast identisch. Und Lastwechsel sind für ein Netzteil fordender als kontinuierliche Last. Da hat Nvidia das Verhalten wirklich massiv verbessert.

https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power-1.png
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/16/
https://www.igorslab.de/wp-content/uploads/2022/03/03-Peak-Power.png
https://www.igorslab.de/msi-geforce-rtx-3090-ti-suprim-x-im-test-heisses-eisen-oder-nur-ein-testlauf-fuer-die-geforce-rtx-4090/14/

rentex
2022-06-27, 21:07:41
Seid ihr schon so alt oder nur dement?

Rampage 2
2022-06-27, 21:09:11
https://seasonic.com/prime-tx

bis 1600w

Huch... tatsächlich! Warum ist dann bei Geizhals nur die TX-1000 gelistet? :|

R2

Edit: Und was ist mit dem 16Pin-Stecker und ATX 3.0? Fast 2 Jahre nach Release von Ampere immer noch keine entsprechenden Netzteile von Seasonic und Corsair...

aceCrasher
2022-06-28, 11:47:05
z.B. von Seasonic gibt es Titanium-Netzteile "nur" bis 1000W - höher gibt's höchstens nur Platinum oder aber nur von Corsair. Wobei zugegeben, mehr als ein 1000W Titanium-Netzteil würde ich meiner GPU nicht gönnen - Irgendwo muss Schluss sein!
R2

Es gibt noch reichlich >1000W Platinum/Titanium Netzteile von anderen Herstellern wie Super Flower oder BeQuiet. Allerdings wie du gesagt hast leider ohne den neuen HPWR Stecker, sowas kommt für mich nicht in Frage. Ich würde mir eigentlich gerne schon ein neues Netzteil für diese Grafikkarten kaufen, aber die Auswahl ist absolut erbärmlich.

iamthebear
2022-06-28, 12:26:20
Ich hoffe dass das zum Ada Release besser aussieht. Wenn ich mir nach über 10 Jahren schon ein neues Netzteil kaufe dann soll das auch am Stand der Technik sein sonst kann ich mich die nächsten 10-15 Jahre mit Adaptern herumschlagen.

Bei Gehäusen ist das Angebot derzeit auch etwas frustruerend wenn man Festplatten UND lange GPUs verbauen will.

Wuge
2022-06-28, 15:39:25
... es wird sicher entsprechende Kabel geben. Also nicht Adapter sondern komplette Kabel. Aber ihr habt schon recht, frustrierend wenn solche Standards nicht end-2-end umgesetzt werden.

HOT
2022-06-28, 16:26:19
Ich hoffe dass das zum Ada Release besser aussieht. Wenn ich mir nach über 10 Jahren schon ein neues Netzteil kaufe dann soll das auch am Stand der Technik sein sonst kann ich mich die nächsten 10-15 Jahre mit Adaptern herumschlagen.

Bei Gehäusen ist das Angebot derzeit auch etwas frustruerend wenn man Festplatten UND lange GPUs verbauen will.

Na ja, 450W geht mit Adapter, 600W nicht. Da bei Lovelace alle Spannungen bis auf die Kernspannung und Speicherspannung (die ja ebenfalls über den Stecker läuft bei NV) wegfallen, wird alles über den Stecker belastet. Will heißen, die Pin-Codierung bei >450W wird nur und ausschließlich mit entsprechenden Netzteilen überhaupt nutzbar sein. Sind die 4 Pins nicht korrekt belegt, gibts mMn kein Bild. Bei der 3090Ti ist alles noch auf die alte PCIe-Spec ausgelgt, nur mit neuem Stecker. bei Lovelace wird sich das ändern. Wer jetzt ein teures ATX2.4-Netzteil kauft könnte übelst in die Röhre gucken bei der 4090. Und bei Lovelace ist halt bei 3 150W-Kabeln einfach Schluss, kein W mehr, da man sonst die Spec verlässt, denn Lovalace dürfte sich zu 100% übers Kabel speisen (da lt. Igor keine "Gedönsspannungen" mehr), und 0% über den PEG.

Rampage 2
2022-06-28, 17:21:11
Na ja, 450W geht mit Adapter, 600W nicht. Da bei Lovelace alle Spannungen bis auf die Kernspannung und Speicherspannung (die ja ebenfalls über den Stecker läuft bei NV) wegfallen, wird alles über den Stecker belastet. Will heißen, die Pin-Codierung bei >450W wird nur und ausschließlich mit entsprechenden Netzteilen überhaupt nutzbar sein. Sind die 4 Pins nicht korrekt belegt, gibts mMn kein Bild. Bei der 3090Ti ist alles noch auf die alte PCIe-Spec ausgelgt, nur mit neuem Stecker. bei Lovelace wird sich das ändern. Wer jetzt ein teures ATX2.4-Netzteil kauft könnte übelst in die Röhre gucken bei der 4090. Und bei Lovelace ist halt bei 3 150W-Kabeln einfach Schluss, kein W mehr, da man sonst die Spec verlässt, denn Lovalace dürfte sich zu 100% übers Kabel speisen (da lt. Igor keine "Gedönsspannungen" mehr), und 0% über den PEG.

Nochmal die Frage: WARUM hat sich fast 2 Jahre seit Ampere Nichts in der Richtung getan? Seasonic, Corsair, beQuiet! & co. beobachten doch sicherlich auch die Leistungsaufnahme neuer GPU- und CPU-Generationen - und auch der ATX12VO-Stecker ist schon seit Ampere-Release in aller Munde...

R2

BlacKi
2022-06-28, 17:43:14
Nochmal die Frage: WARUM hat sich fast 2 Jahre seit Ampere Nichts in der Richtung getan? Seasonic, Corsair, beQuiet! & co. beobachten doch sicherlich auch die Leistungsaufnahme neuer GPU- und CPU-Generationen - und auch der ATX12VO-Stecker ist schon seit Ampere-Release in aller Munde...

R2die nachfrage scheint nicht da gewesen zu sein. zumal ein großteil der custom karten nicht den neuen stecker haben.


auch optisch sieht das in einem custom build semi gut aus, wenn das ein schlankes kabel ist. imho eines der gründe, warum manche karten überhaupt 3x8 pin haben, wegen der optik.



https://evatech.com.au/news/wp-content/uploads/2018/11/DSC_3084.jpg

ChaosTM
2022-06-28, 17:54:14
Huch... tatsächlich! Warum ist dann bei Geizhals nur die TX-1000 gelistet? :|

R2

Edit: Und was ist mit dem 16Pin-Stecker und ATX 3.0? Fast 2 Jahre nach Release von Ampere immer noch keine entsprechenden Netzteile von Seasonic und Corsair...


Weil die dicken Karten wahrscheinlich zu 95% in Mining Rigs gearbeitet haben bisher. ;)
Soll heißen.: Es gab keinen echten "Markt" bisher.

Rampage 2
2022-06-28, 17:57:25
die nachfrage scheint nicht da gewesen zu sein. zumal ein großteil der custom karten nicht den neuen stecker haben.


Nun, spätestens mit Lovelace wird sich das Problem der mangelnden Nachfrage von alleine lösen;D

R2

iamthebear
2022-06-28, 17:59:53
Also ich würde Performance/Watt Angaben von Herstellern generell ignorieren solange nicht genau angegeben wurde was hier genau verglichen wurde.
> 50% Performance/Watt kann heißen doppelte fps bei gleichem Verbrauch.
Es kann aber auch heißen, dass Navi31 im Notebook wenn man ihn auf ein Drittel des Desktoptaktes runterschraubt bei 6900 XT dann 200W verbraucht (siehe Ampere vs. Turing).

BlacKi
2022-06-28, 18:29:03
Nun, spätestens mit Lovelace wird sich das Problem der mangelnden Nachfrage von alleine lösen;D

R2
weil es wie bei der 3090ti nur die neuen stecker ab 450w geben wird. wahrscheinlich auch bei der 4080 wenn die 420w stimmen. aber darunter nicht wirklich.

lilgefo~
2022-06-28, 19:22:06
Huch... tatsächlich! Warum ist dann bei Geizhals nur die TX-1000 gelistet? :|

R2

Edit: Und was ist mit dem 16Pin-Stecker und ATX 3.0? Fast 2 Jahre nach Release von Ampere immer noch keine entsprechenden Netzteile von Seasonic und Corsair...

selbe webseite:

https://seasonic.com/prime-tx#cables

:sneak:

BlacKi
2022-06-28, 19:26:40
fake kabel?

iamthebear
2022-06-28, 22:52:56
Anscheinend ist das Kabel erst ab 1300W mit dabei (sogar 2 Stück).

Es ist jedoch nirgendwo erwähnt ob ATX 3.0 unterstützt wird. Dieser Standard regelt unter anderem dass die Netzteule großzügigermitLastspitzen umgehen. Bei Ada wird das wohl kein großes Thema, bei AMD jedoch schon.

BlacKi
2022-06-28, 23:06:33
es fehlen die 4pin signal kabel komplett. steht auch weiter unten, es ist lediglich ein adapter von 12+4 Pins to 8+8 Pins.

finde ich merkwürdig, wenn das der spec entspricht. das ist doch nicht für mehr als 300w spezifiziert, oder was vergesse ich da?

da kann ich auch das kabel nehmen, das bei der gpu dabei liegt? 3x 8pin to 12+4.

HOT
2022-06-28, 23:26:15
Das sind doch einfach die Adapterkabel für den NV-Stecker.

davidzo
2022-06-29, 00:48:16
Bei 75cm wohl kaum. Das sind keine Adapterkabel, die gehen direkt in die cable Management Platine von dem Netzteil.

Wie die Kabel bei cable management PSUs auf Netzteilseite verbunden sind ist sowieso nicht Teil der ATX Spezifikation und ich sehe auch keinen Grund dafür wieso da irgendeine Spezifikation gebrochen werden müsste. 300Watt für 2x8Pin ist lächerlich wenig.

Die 150Watt pro 8Pin Stecker laut ATXnorm sind krass herunter spezifiziert damit das mit unbeschichteten halb angerosteten Weißblech crimpcontakten und dünnen AWG20 Kabeln auch noch funktioniert.
Da sind gerademal 4 Ampere die da pro Pin übertragen werden. Laut offizieller Spezifikation kann Molex Mini Fit Jr. aber 13Ampere pro Pin. Mit den richtigen Kontaktmaterialien (bronze, Kupfer, vergoldet) und Kabelquerschnitten (AWG16) versteht sich.

Das ist ja genau worum es Nvidia geht, eine gewisse Qualität von Crimpcontaktmaterial und Oberflächenbeschichtung und Kabelquerschnitt und Maximallänge vorzuscheiben. Und deshalb reicht eben auch Micro Fit 3,0 obwohl die generell mit 8.5A pro Pin (10.5a in der plusverson) und maximal AWG18, obwohl das nominell weniger ist also bei normalen Mini Fit Steckkontakten nach ATX-Norm.

Aus elektrischer Sicht ist es also eher zu bevorzugen wenn die Hersteller nicht auch noch auf Netzteilseite auf einen solchen Compact-Connector setzen, sondern auf einen größeren Mini Fit der weniger voltage drop hat und thermisch weniger am Limit operiert als der auf der Grafikkarte.

HOT
2022-06-29, 07:15:22
Ach Mensch immer diese alberne Goldwaage. Man kann schon seit Ampere Launch diese Kabel für sein Seasonic Netzteil bestellen. Das heisst doch aber nicht, dass die ein ATX 2.4 NT ATX 3.0 kompatibel machen. Jetzt denkt doch mal ein bisschen nach...

Ausserdem heißt das, nur weil solche Kabel beiliegen, noch lange nicht, dass das auch 600W Kabel sind. Da gibt's ja 4 Varianten von.

Thunder99
2022-06-29, 09:23:00
Oder sie werden mit den Ada Karten angekündigt und sind verfügbar zum Release der Karten.

4080 und 420W, hoffe das nicht. Mal abwarten was wirklich kommt. Gerade wenn nur GDDR6 verbaut werden würde wäre das extrem viel mehr zur 3080 oder 2080Ti

HOT
2022-06-29, 09:52:38
Wenn die 4080 mit 420-450 kommt, ist sie problemlos mit den ATX2.4-PSUs betreibbar, Probleme dürfte es nur ab der 4090 (4080Ti) geben. Man könnte das Problem aber umgehen, wenn man einfach 2 16-Pin-Buchsen verbaut.

Wuge
2022-06-29, 12:10:00
Praktisch gibts doch keine Probleme, ein Kabel mit 2x8 Pin Netzteilseitig auf den neuen 12 (16?) PIN Stecker wird an jedem ollen Netzteil funktionieren das die 600W+CPU auf der 12V Rail liefern kann. Geht praktisch doch heute auch schon, obwohl von den 12 PINs nur 8 oder 10 überhaupt belegt sind.

Die Frage ist nur, wann das dann mal sauber und voll implementiert ist.

davidzo
2022-06-29, 14:30:13
Das heisst doch aber nicht, dass die ein ATX 2.4 NT ATX 3.0 kompatibel machen. Jetzt denkt doch mal ein bisschen nach...

Ausserdem heißt das, nur weil solche Kabel beiliegen, noch lange nicht, dass das auch 600W Kabel sind. Da gibt's ja 4 Varianten von.

Naja, man kann ein Netzteil schon ATX3.0 kompatibel machen nur über Kabel und Neuklassifizierung bzw. ohne es selbst zu ändern.
Die neue 12VHPWR Kodierung an den Sense Pins kannst du direkt im Kabel lösen, das sind ja nur GND und Open - dafür musst du nichts am Netzteil ändern.
Du hast aber völlig recht dass du für jedes netzteil genau den richtigen Adapter brauchst, der die richtige Wattzahl freigibt so wie der Hersteller es unterstützt. Es ist gefährlich den falschen 12VHPWR an einem niedrigklassigeren Netzteil zu verwenden als für das der Adapter gebaut ist.

Was die größere Stützlast und Transienten-response angeht, so müssen die Hersteller die Netzteile einfach nur neu vermessen und ggf. down raten.
ATX3.0 ist einfach nur ein neuer Bewertungsmaßstab für Spitzenlasten und Transienten. Spitzenlasten von 100µs können biszu 200% so hoch sein wie das nominelle Rating, bei einem maximalen duty cycle von 10%. Beim PCIe Stecker sogar 300%.

Das bedeutet theoretisch dass ein Netzteil welches nur 600Watt Dauerlast zur Verfügung stellt und darüber sofort einbricht nun nur noch auf 300Watt gerated werden kann, bzw. wenn man den PCIe 8pin anschaut noch weniger.

Das ist natürlich in der Realität nicht der Fall. Die meisten Komponenten im Netzteil reagieren nicht auf so kurze duty cycles, sondern auf gemittelte lasten, weil bereits bei vielen ATX2.4 Stützkondensatoren an der Ausgangsplatine verbaut sind. 200% bei 10% duty sind eben nur +10% Last die hier mehr anliegt, bzw. das Netzteil herunter gerated werden muss, bzw. +20% beim PCIe Stecker. Aus einem 800Watt Netzteil wird also ein 650Watt NT.

Und auch das ist nur die halbe Wahrheit, denn die meisten hochwertigen Netzteile unterstützen höhere Stromstärken an den PCIe Ausgängen die weit über das von ATX2.4 geforderte hinausgehen und dadurch bei einer Neuspezifizierung nach ATX3.0 wohl besser abschneiden würden als diese -20% in der Nominalleistung.

Corsair hat zum Beispiel verlauten lassen, dass ihre kleineren Netzteile für 27Ampere an einem einzelnen 8Pin PCIe Stecker ausgelegt sind (326Watt) und die Topmodelle sogar für 39Ampere (468Watt).
2x 8Pin sind also 78Ampere bzw. 936Watt. Mit 20% Derating würde das immer
noch 750Watt GPU Strom bereitstellen.


Man kann natürlich den Amtsschimmel reiten und fordern dass alle Hersteller ihre alten Netzteile nach ATX3.0 neu spezifizieren. Das wird aber wohl nicht passieren, denn mit neuen Modellen lässt sich viel besser verdienen.

Ich frage mich ob da für einen etwas gewonnen ist, wenn man doch auch mit etwas Einblick in die Materie beurteilen kann, dass ein gutklassig ausgeführtes ATX 2.4 Netzteil mit 2x8Pin AWG16, vergoldeten Kontakten und reichlich Kondensatoren an der Ausgangsplatine physisch einfach mehr Leitungsquerschnitt und Stromstärke bereitstellen kann als ein Netzteil welches die Vorgaben von ATX3.0 für den 600Watt 12VHPWR Stecker gerade so eben erreicht.

12V HPWR mit AWG18 Kabel und 12Pin (hälfte Ground), also maximal 51Ampere bei max 8.5Ampere pro Pin laut Molex Micro Fit Spezifikation. Die 600W Stecker sind also am absoluten physischen Limits des Steckers und Kabelmaterials. Würde mich nicht wundern lange Kabel hier zum problem werden mit dem voltage Drop. Es gibt praktisch keinen Spielraum für eine Netzteilherstellerimplementierung die es besser macht als der Standard, da der Standard bereits eine perfekte Umsetzung vorschreibt.

Bei 2x 8Pin PCIe sind ebenfalls 6Pins +12V und 6Pins GND, also komme ich bei einer perfekten Implementierung auf maximal 78Ampere bei 13A pro Pin laut Molex Mini Fit Jr Spezifikation. Heißt viel weniger Voltagedrop, viel weniger Kabelerwärmung etc.
Hier ist also gigantisch viel Spielraum für Netzteilhersteller um weit über den gefordertern Standard hinaus zu gehen. Ein Wechsel des Stecker wäre nicht nötig gewesen, bloß eine neue Norm die eine bestimmte Qualität vorschreibt.

Fazit ist für mich einfach dass eine perfekte Implementierung von 2x8Pin bereits jetzt besser sein kann als eine perfekte Implementiertung von 1x 12V HPWR jemals werden kann. 12V HPWR ist bereits vor der Einführung schon wieder am Limit.

Praktisch gibts doch keine Probleme, ein Kabel mit 2x8 Pin Netzteilseitig auf den neuen 12 (16?) PIN Stecker wird an jedem ollen Netzteil funktionieren das die 600W+CPU auf der 12V Rail liefern kann. Geht praktisch doch heute auch schon, obwohl von den 12 PINs nur 8 oder 10 überhaupt belegt sind.

Die Frage ist nur, wann das dann mal sauber und voll implementiert ist.
Sauber implementiert ist es wie gesagt nur wenn entsprechend ein Derating für die höheren Spitzenlasten vorgenommen wird. Effektiv sind das -10% auf die Gesamtleistung des netzteils und -20% auf den PCIe Stecker. Allerdings muss dieses bei fünf verschiedenen betriebspunkten gemessen werden, mit jeweils unterschiedlicher Spitzenlast und im Ausgleich dazu größere maximaler Lastspitzenlänge und erhöhtem Duty Cycle.
Es kann schon passieren dass ein Netzteil welches gerade so eben die normale ATX Spezifikation erreichte dann auf die Hälfte oder ehr herunter gerated werden muss.
Ohne Laborequipment wird man das nicht genau beurteilen, daher ist wie immer die Devise eine ordentliche Überdimensionierung: Viel hilft viel.

dargo
2022-06-29, 15:58:20
Also wenn diese Specs tatsächlich stimmen...
https://youtu.be/UzZ-GhToUwY?t=277

kann das eigentlich nur darauf hindeuten, dass die RTX 4080 mit dem AD103 nahe an der Kotzgrenze betrieben wird, deshalb die hohen 420W. AD102 wird wiederum stark im PT eingebremst sollten die 450W im Vergleich tatsächlich stimmen bzw. wird mit wesentlich niedrigeren Frequenzen betrieben weil offenbar bei ähnlichen Frequenzen zu AD103 der Verbrauch völlig durch die Decke gehen wird. Customs mit 600W incoming. ;D

Das eigentlich interessanteste an den Daten sind die Shader. Bei RTX 4090 nur +56% vs. RTX 3090? Das kann eigentlich nur bedeuten, dass die Shader diesmal mehr Performance auf die Straße bringen und Ada nicht mehr so eine Luftpumpe wie Ampere wird.

Rampage 2
2022-06-29, 16:30:54
Das eigentlich interessanteste an den Daten sind die Shader. Bei RTX 4090 nur +56% vs. RTX 3090? Das kann eigentlich nur bedeuten, dass die Shader diesmal mehr Performance auf die Straße bringen und Ada nicht mehr so eine Luftpumpe wie Ampere wird.

Das ist doch nun wirklich keine neue News mehr - es ist offensichtlich, dass Nvidia die Effizienz und Auslastung der einzelnen SMs erhöhen muss, um ungenutztes Potential anzuzapfen und das Maximum an Leistung rauszuholen, um N31 in die Schranken weisen zu können. Was mich allerdings auch interessieren würde, ist, ob durch die SM-internen Verbesserungen (Flaschenhälse behoben) auch die Auslastung in niedrigeren Auflösungen (1440p, 1080p) wieder steigt? (wo Ampere ja erhebliche Probleme hat(te) )

R2

davidzo
2022-06-29, 16:44:00
kann das eigentlich nur darauf hindeuten, dass die RTX 4080 mit dem AD103 nahe an der Kotzgrenze betrieben wird, deshalb die hohen 420W.


Denke das ist nur ein educated Guess von kopite7kimi

Finde die Specs aber sehr stimmig, das sind +100Watt bei jedem Modell, bzw. +29-31% an Power. Die Peaks könnten dann trotzdem 800-900Watt betragen. Die 3090 hat auch schon Peaks von fast 600Watt. Und das ist sogar schon die FE (unter 1ms), dafür braucht es nichtmal übertaktete partnermodelle.


Das eigentlich interessanteste an den Daten sind die Shader. Bei RTX 4090 nur +56% vs. RTX 3090? Das kann eigentlich nur bedeuten, dass die Shader diesmal mehr Performance auf die Straße bringen und Ada nicht mehr so eine Luftpumpe wie Ampere wird.

ja, das klingt sehr nach den vermuteten 128 dedizierten FP32 Einheiten (+64Int). Das wäre ja ein Zuwachs um 1/3. Zusammen mit dem Zuwachs an SMs wäre das dann ein Potential von +75% ohne Taktverbesserungen.
200% oder mehr sind dann nicht unrealistisch, wenn man Mehrtakt, Cache und ein prozessbedingtes seltener eingreifendes des Powerlimit gegenüber Ga102 annimmt.
Stimmt dann auch mit dem "its easy to achieve over 200% with GA102" überein. Easy mit einem hypothetischen Full GA102 und ohne das 450W TDP Limit.

dargo
2022-06-29, 16:52:25
Finde die Specs aber sehr stimmig, das sind +100Watt bei jedem Modell, bzw. +29-31% an Power. Die Peaks könnten dann trotzdem 800-900Watt betragen. Die 3090 hat auch schon Peaks von fast 600Watt. Und das ist sogar schon die FE (unter 1ms), dafür braucht es nichtmal übertaktete partnermodelle.

Die 3090TI säuft nochmals wesentlich mehr als die 3090, hat aber die gleichen Peaks. Da wurde schon was geändert und dürfte ähnlich bei Ada laufen.

basix
2022-06-29, 16:56:07
ja, das klingt sehr nach den vermuteten 128 dedizierten FP32 Einheiten (+64Int). Das wäre ja ein Zuwachs um 1/3. Zusammen mit dem Zuwachs an SMs wäre das dann ein Potential von +75% ohne Taktverbesserungen.
200% oder mehr sind dann nicht unrealistisch, wenn man Mehrtakt, Cache und ein prozessbedingtes seltener eingreifendes des Powerlimit gegenüber Ga102 annimmt.
Stimmt dann auch mit dem "its easy to achieve over 200% with GA102" überein. Easy mit einem hypothetischen Full GA102 und ohne das 450W TDP Limit.

Wie kommst du auf nur +75%? Mit +1/3 IPC und 128 / 84 SMs landet man bei genau +100%. Im besten Fall hält man diese +100% durch den grossen L2$, obwohl man mehr SMs hat (Perf/Rohleistung degradiert mit mehr Recheneinheiten).

Und theoretisch könnte es auch mehr als +1/3 IPC sein. Wieso? Die 3080 ist bei weitem nicht 1.5x so schnell wie eine 2080 Ti.

Deswegen: Doppelte 3090 Performance sollte mit 128FP+64INT ein Klacks sein. Aber auch mit Ampere SM-Konfiguration ist noch nicht alle IPC auf den Boden gebracht worden. 10% liegen da noch drin, der grosse L2$ könnte da helfen. Dann braucht es dann halt mehr Takt, um 2x 3090 zu ereichen. Und die SMs an sich könnten auf andere Weise noch mehr IPC liefern (siehe RDNA1 vs. GCN).

Das ist doch nun wirklich keine neue News mehr - es ist offensichtlich, dass Nvidia die Effizienz und Auslastung der einzelnen SMs erhöhen muss, um ungenutztes Potential anzuzapfen und das Maximum an Leistung rauszuholen, um N31 in die Schranken weisen zu können. Was mich allerdings auch interessieren würde, ist, ob durch die SM-internen Verbesserungen (Flaschenhälse behoben) auch die Auslastung in niedrigeren Auflösungen (1440p, 1080p) wieder steigt? (wo Ampere ja erhebliche Probleme hat(te) )

R2
Ist das so? Wenn man Gerüchten von Taktraten um 2.8 GHz glauben will (was ich nicht mache), ginge das evtl. auch ohne ;)

robbitop
2022-06-29, 18:14:59
Ich erwarte, dass man dual issue sheduler ports verbaut zumindest. Selbst bei "nur" 128 FPs pro SM wie Ampere wird die Auslastung schon deutlich steigen.

128 fp + 64 int, die gleichzeitig laufen sollen, klingt irgendwie merkwürdig krumm. Gibt es denn schon belastbare Indizien dafür?
Ggf ist gemeint, dass die Hälfte der FPUs auch INT können (wie bei Ampere) oder wie bei Pascal einfach alle FPUs auch INT beherrschen.

iamthebear
2022-06-29, 18:31:38
Nach aktuellem Kenntnisstand hat die 4090:
56% mehr SMs
Um die 30-40% mehr Takt (je nach TDP)
Falls eigene INT Einheiten vorhanden sind undgenutzt werden 36% mehr IPC

Wären in Summe 2.75-3x theoretische Performance
Damit könnten dann ca. 2x fps in 4K heraus kommen, unter 4K ist egal weil das nutzt bei der Perfprmance sowieso niemand mehr.

4080 hätte (verglichen mit 3090):
2.5% weniger SMs
40% mehr Takt
36% mehr IPC

Bedeutet: 85% mehr theoretische Performance bzw. um die 50% mehr fps in 4K
Gegenüber der 3080 dann 2.24x theoretische Performance bzw. 70-80% mehr fps.

Das sind aber alles Vermutungen. Es kann auch sein, dass es die IPC Steigerung gar nicht gibt und kopite doch 2x theoretische Performance gemeint hat. Es ist auch ein Zwischending möglich.

Zum Vergleich Navi31:
Wenn die Navi33 = Navi21 stimmen, dann dürfte Navi31 um die 2.7x theoretische Performance haben also möglicherweise auch um die 2x fps.

Meine Vermutung: Die 4090 wird ziemlich gleich auf mit dem Navi31 Topmodell sein.
Nvidia hat noch die 144SM Titan bzw. 140SM 4090 Ti mit 600W inder Hinterhand, AMD die Dual GCD Variante wenn sie die zum Laufen bringen.

Die Frage ist jedoch, ob die Performance für 4K Native ohne RT noch viel Sinn macht oder ob man den 4090 vs. Navi31 Vergleich nicht in 4K+RT machen sollte.

dargo
2022-06-29, 18:40:38
Die Frage ist jedoch, ob die Performance für 4K Native ohne RT noch viel Sinn macht oder ob man den 4090 vs. Navi31 Vergleich nicht in 4K+RT machen sollte.
Natürlich macht es Sinn, insbesondere für einen high fps Spieler. Und bei manchen Games muss ich nicht mal einen high fps Spieler nennen. In CP77 schafft die 3090 in 4k nicht mal durchgehend die 30fps ohne RT wohlgemerkt.
https://youtu.be/1rYWxAtE3V8?t=336

Da brauchst du schon die doppelte Performance einer RTX 4090 um da an den 120fps zu kratzen.

davidzo
2022-06-29, 19:34:46
Wie kommst du auf nur +75%? Mit +1/3 IPC und 128 / 84 SMs landet man bei genau +100%.


Mein Rechenfehler :redface:
56% * 1,33 = 75% Was natürlich den Zuwachs der Base 100% um ebenfalls 33% nicht berücksichtigt :wink:


Ist das so? Wenn man Gerüchten von Taktraten um 2.8 GHz glauben will (was ich nicht mache), ginge das evtl. auch ohne ;)

Das scheint sich aber auf Übertaktungspotential zu beziehen.
Das klingt zumindest nicht nach Default Taktraten:
It's easy to reach 2.8GHz, at least not very hard.

Genau so klingt das hier eher nach Aussagen die sich auf die theoretischen Fähigkeiten von AD102 beziehen und eben nicht auf eine konkrete SKU wie die 4090 im Auslieferungszustand:

It's very simple to reach more than 2xGA102.

How can we get 100TFLOPs from AD102?
Let a full-chip AD102 run at 2.8GHz.

iamthebear
2022-06-29, 20:46:43
Natürlich macht es Sinn, insbesondere für einen high fps Spieler. Und bei manchen Games muss ich nicht mal einen high fps Spieler nennen. In CP77 schafft die 3090 in 4k nicht mal durchgehend die 30fps ohne RT wohlgemerkt.
https://youtu.be/1rYWxAtE3V8?t=336

Da brauchst du schon die doppelte Performance einer RTX 4090 um da an den 120fps zu kratzen.[/QUOTE]

CP ist eben aus technischer Sicht eine Vollkatastrophe selbst wenn das Spiel an sicht echt toll war. Da muss man die Einstellungen mit der Hand tunen weil sonst die fps an manchen Stellen verrückt spielen. Das würde ich aber außer Konkurrenz sehen.

Das scheint sich aber auf Übertaktungspotential zu beziehen.
Das klingt zumindest nicht nach Default Taktraten:

So wie ich das verstanden habe ging es da um die Taktraten der 144SM Titan mit 800W, die Nvidia getestet hat.
Das wären dann schon stock Taktraten aber die Frage ist wer da ernsthaft noch höher gehen will.

Genau so klingt das hier eher nach Aussagen die sich auf die theoretischen Fähigkeiten von AD102 beziehen und eben nicht auf eine konkrete SKU wie die 4090 im Auslieferungszustand:

Ich habe es so verstanden:
a) Die 2xGA102 sind einfach möglich ohne die TDP auf wahnsinnige Werte zu treiben. Später hat er noch einmal konkretisiert, dass die 4090 als SKU mit 450W und nur 128SM 2x GA102 ist und zwar bezogen auf die 4K Gaming Performance.
b) Nvidia könnte eine 144SM Titan mit 2.8GHz ausliefern und so mehr als 100TFlop/s erreichen. Allerdings nicht mit 450W sondern mit den vollen 600/800W oder was auch immer man geplant hat. Allerdings alles noch Stock Taktraten und ohne exotische Kühlungsmethoden unter Umgebungstemperatur.

Ich würde einmal grob folgendes schätzen:
.) Ada hat die doppelte Energieeffizienz von Ampere wenn beide gleich hoch gepushed werden
.) Die 4090 wird mit 128SM und 450W etwas weniger gepusht als die 3090 und landet um die 2.5GHz
.) Die 4080 420W wäre sehr hoch gepushed und landet um die 2.7-2.8GHz genauso wie die 800W 144SM Titan falls sie so kommt
.) Frameraten skalieren zu ca. 70% mit der theoretischen Performance weshalb es in Summe so aussieht als wäre der Prozess nicht effizient

basix
2022-06-29, 22:51:16
So wie ich das verstanden habe ging es da um die Taktraten der 144SM Titan mit 800W, die Nvidia getestet hat.
Das wären dann schon stock Taktraten aber die Frage ist wer da ernsthaft noch höher gehen will.

[...]

Ich habe es so verstanden:
[...]
b) Nvidia könnte eine 144SM Titan mit 2.8GHz ausliefern und so mehr als 100TFlop/s erreichen. Allerdings nicht mit 450W sondern mit den vollen 600/800W oder was auch immer man geplant hat. Allerdings alles noch Stock Taktraten und ohne exotische Kühlungsmethoden unter Umgebungstemperatur.

Anhand der letzten paar Seiten hier und Igors Test der 3090 Ti würde ich folgendes annehmen:
- Titan L = 800W peak, 550-600W TDP
- Single 12VHPWR PCIe Connector (600W via Stecker, 60W via PCIe Slot)
- Hartes Power Limit durch den Single PCIe Power Connector. Für eine Referenzkarte / Titan will man da nicht drüber gehen (und ist eh schon abartig hoch)
- 140-144 SMs @ whatever clockrates are possible @ binned AD102 Die

Ich hoffe zwar immer noch, die riesig hohen TDP sind ein Fehlgerücht und max. 450W sind am Start. Aber die Hoffnung ist nicht gerade gross...

unl34shed
2022-06-29, 23:09:56
128 fp + 64 int, die gleichzeitig laufen sollen, klingt irgendwie merkwürdig krumm. Gibt es denn schon belastbare Indizien dafür?

Unter Annahme, dass die damaligen Aussage zum Turing Release noch immer in etwa stimmt und es im Schnitt pro 100 FP Instructions 36 INT Instucrtions auf GPUs gibt, macht das schon irgendwie Sinn. Da ist der Ampere Aufbau eher fraglich, verschwendet man doch große Flächen für FP ALUs, die idr. nicht mal zur Hälfte ausgelastet werden.

Das setzt natürlich voraus, dass die Instructions über die Zeit gleichmäßig verteilt auftreten und nicht zB. das ganze post-processing nur in INT abläuft.

Mit etwa 27% INT instructions (mit BF1 als größter Ausreißer sogar 33%), macht eine dritte ALU nur für INT und somit 33% dedizierte Resourcen dafür schon Sinn.

https://bit-tech.net/media/image/2018/9/c805b709-f148-44fd-afb5-406e64c68ef4.PNG

basix
2022-06-30, 00:03:59
Rein fürs Gaming scheinen 2:1 FP32/INT32 eine fast schon optimale Aufteilung zu sein. Jetzt kann man das wirklich so verbauen, mit aber wie schon öfters angemerkt einem anscheinend relativ komischen Verhältnis fürs Scheduling.

Mit FP/INT Kombi-Rechenenheiten wird man zudem nie den theoretischen max. FP32 Througput erreichen. Das geht wirklich nur, wenn INT eine separate Lane bekommt. Wer weiss, evtl. hat Lovelace ein 4-Pipe Design. 2x FP32, 2x INT32. Verdoppeltes Turing SM. Integer liegt dann zwar öfters brach und 4-Pipes sind (zu) fett, vor allem hinsichtlich Scheduling. Aber vielleicht kann man da etwas tricksen. AMD hat bei den fetteren WGPs von RDNA3 anscheinend mit VOPD-Befehlen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13044597#post13044597) ein paar Instruktionen, mit denen man 2x Rechenbefehle via Single Issue abwerfen kann, solange sie unabhängig voneinander sind. Könnte hier ähnlich funktionieren: Dual-Port Scheduler wie Ampere aber doppelte Anzahl Rechen-Befehle pro Port.

robbitop
2022-06-30, 08:04:25
Unter Annahme, dass die damaligen Aussage zum Turing Release noch immer in etwa stimmt und es im Schnitt pro 100 FP Instructions 36 INT Instucrtions auf GPUs gibt, macht das schon irgendwie Sinn. Da ist der Ampere Aufbau eher fraglich, verschwendet man doch große Flächen für FP ALUs, die idr. nicht mal zur Hälfte ausgelastet werden.

Das setzt natürlich voraus, dass die Instructions über die Zeit gleichmäßig verteilt auftreten und nicht zB. das ganze post-processing nur in INT abläuft.

Mit etwa 27% INT instructions (mit BF1 als größter Ausreißer sogar 33%), macht eine dritte ALU nur für INT und somit 33% dedizierte Resourcen dafür schon Sinn.

https://bit-tech.net/media/image/2018/9/c805b709-f148-44fd-afb5-406e64c68ef4.PNG
Vieles kann Sinn machen. Das ist die einzige Basis dafür?

Jetzt kann man das wirklich so verbauen, mit aber wie schon öfters angemerkt einem anscheinend relativ komischen Verhältnis fürs Scheduling.
So ist es.


Mit FP/INT Kombi-Rechenenheiten wird man zudem nie den theoretischen max. FP32 Througput erreichen. Das geht wirklich nur, wenn INT eine separate Lane bekommt.
Das stimmt zwar - aber im Gegenzug kostet eine separate INT Unit + scheduler resources + Register + mehr Cache + Kontrolllogik (wenn alles gleichzeitig gehen soll und keine Einschränkungen haben soll) aber auch. Man muss Oportunitätskosten vergleichen und nicht 2x FP/INT vs 2x FP + 1 INT. Die Oportunität dazu wäre 3x FP/INT.
Kombinierte Einheiten erlauben höhere Auslastung. Denn diese 100 : 36 ist sicherlich ein sehr sehr grober Mittelwert über viele Spiele, vieler Szenen. Das Spektrum und dessen Standardabweichung wird sicherlich nicht zu klein sein. Mit 2x FP + 1x INT würde man bei weniger als 50 INT Ops zu 100 FP OPs die INT Einheit nicht auslasten. Bei 3x FP/INT wäre das zumindest was die Ausführungsfähigkeit zur Instruktion betrifft nie der Fall. Oder aber 2x FP pro SM und dafür das "freiwerdende" Transistorbudget in zusätzliche SMs investieren.

Statische Verteilungen für dynamisch variierende Verhältnisse sind selten effizient.

=Floi=
2022-06-30, 11:34:14
Alles eine Frage der Portfolio- und Preisgestaltung. Als 1080p-highFPS-Karte wäre das ne tolle Karte. Fragt sich nur zu welchem Preis.

Nur ist 1440p der standard geworden und diese monitore gibt es auch sehr günstig.

Es gibt n ebenbei auch null kritik an AMDs cache, welcher eine stufe höher dann einfach versagt. Das ist doch einfach murks, wenn ich eine karte für eine auflösung so hart einteile.





Das stimmt zwar - aber im Gegenzug kostet eine separate INT Unit + scheduler resources + Register + mehr Cache + Kontrolllogik (wenn alles gleichzeitig gehen soll und keine Einschränkungen haben soll) aber auch. Man muss Oportunitätskosten vergleichen und nicht 2x FP/INT vs 2x FP + 1 INT. Die Oportunität dazu wäre 3x FP/INT.
Kombinierte Einheiten erlauben höhere Auslastung. Denn diese 100 : 36 ist sicherlich ein sehr sehr grober Mittelwert über viele Spiele, vieler Szenen. Das Spektrum und dessen Standardabweichung wird sicherlich nicht zu klein sein. Mit 2x FP + 1x INT würde man bei weniger als 50 INT Ops zu 100 FP OPs die INT Einheit nicht auslasten. Bei 3x FP/INT wäre das zumindest was die Ausführungsfähigkeit zur Instruktion betrifft nie der Fall. Oder aber 2x FP pro SM und dafür das "freiwerdende" Transistorbudget in zusätzliche SMs investieren.



Und umsonst hat man diese einheiten dann nicht aufgebohrt nach ampere.
Generell bohrt NV lieber auf. RT und tensor cores wurden teiulweise massiv aufgebohrt, aber selbst bei den HPC karten nicht erweitert!

davidzo
2022-06-30, 12:09:08
So wie ich das verstanden habe ging es da um die Taktraten der 144SM Titan mit 800W, die Nvidia getestet hat.
Das wären dann schon stock Taktraten aber die Frage ist wer da ernsthaft noch höher gehen will.

Es wäre ungewöhnlich dass eine Titan Stock schon stark übertaktet wird. In der regel ist die Titan zwar der Full Chip, aber bei zahmeren taktraten als die Ti.
Man kann auch davon ausgehen dass die Taktraten weder für die 4080, 4090 noch Ttan noch nicht in Stein gemeißelt sind.
Ich denke er interpoliert hier basierend auf dem was er gehört hat.


und zwar bezogen auf die 4K Gaming Performance.
I call Bullshit!
Er wird mit Sicherheit noch keine game Benchmarks gesehen haben. Sowas wird gehütet wie ein Grahl. Bis wenige Wochen for dem Launch gibt es fast nur synthetische Tests, selbst die Driverteams simulieren bzw. haben nur stark abgespeckte Hardware.
Wenn die Karte schon im im Partnerstatus ist, dann gäbe es eher schon die üblichen 3Dmark Leaks, aber echte game Benchmarks Leaks sind selbst dann selten. Die Treiber werden ja noch poliert und dadurch kann sich die Leistung eben last minute nochmal ändern.
Er spekuliert einfach auf Basis der Rohleistung die er durch SMs und Taktraten ausrechnen kann. Es ist nachvollziehbar dass er seine Spekulation auf 4K beschränkt, denn in 4K hat bereits Ampere die beste Skalierung, ohne größere CPU-limits. Mit 4K kann man davon ausgehen dass die Rohleistung auch größtenteils auf die Straße kommt.

Ex3cut3r
2022-06-30, 14:28:56
Natürlich macht es Sinn, insbesondere für einen high fps Spieler. Und bei manchen Games muss ich nicht mal einen high fps Spieler nennen. In CP77 schafft die 3090 in 4k nicht mal durchgehend die 30fps ohne RT wohlgemerkt.
https://youtu.be/1rYWxAtE3V8?t=336

Da brauchst du schon die doppelte Performance einer RTX 4090 um da an den 120fps zu kratzen.

Kann die Werte nicht bestätigen, läuft hier auf dem neusten Patch @ 3080 Ti mit 40-45 FPS @ 4K, kein RT, kein DLSS.

Mit DLSS Q schon mit über 60 FPS avg. und mit P kratz ich die 70-90 FPS.

1440p mit Q und RT volle Kanne (Ultra RT Beleuchtung, Spiegelungen und Schatten an) habe ich ich 70-100 FPS, fand ich eigentlich im Vergleich zur 2080, mit 30-35 FPS schon sehr nice.

ChaosTM
2022-06-30, 16:37:00
Ich schaff mit meiner popeligen 3080m auch an die 50fps - alles auf max @4k.
DLSS auf Auto.

Rampage 2
2022-06-30, 16:52:01
Kann die Werte nicht bestätigen, läuft hier auf dem neusten Patch @ 3080 Ti mit 40-45 FPS @ 4K, kein RT, kein DLSS.

Mit DLSS Q schon mit über 60 FPS avg. und mit P kratz ich die 70-90 FPS.

1440p mit Q und RT volle Kanne (Ultra RT Beleuchtung, Spiegelungen und Schatten an) habe ich ich 70-100 FPS, fand ich eigentlich im Vergleich zur 2080, mit 30-35 FPS schon sehr nice.

Wie verhält sich die Framerate in CP2077 auf einer 3080 Ti denn bei 1440p (2560x1440 ;) ) mit maximalen RT-Settings aber ohne DLSS, also nativ?

R2

dargo
2022-06-30, 17:04:11
Schön, dass ihr alle am Thema vorbei seit. :freak: Außer der erste Satz von Exe, das Thema war 4k nativ.

Kann die Werte nicht bestätigen, läuft hier auf dem neusten Patch @ 3080 Ti mit 40-45 FPS @ 4K, kein RT, kein DLSS.

Sind das auch max. Details? Also auch Psycho? Selbst wenn ändert das nicht viel, immer noch vieeeel zu weit von angenehm spielbar für mich.

Ex3cut3r
2022-06-30, 18:34:13
Schau, ich mir nochmal @ SSR Psycho an. Klar, jetzt 10 FPS mehr machen auch keine großen Unterschied (wobei mit VRR eigentlich schon)

Nur diese YouTube Videos kann man nicht immer 100% glauben, gibt richtig viele Faker, und ich habe das Gefühl die werden immer mehr. 5 Subscribers, aber 6900XT, 3090 und 3090 Ti @ 4K im "Test" als Beispiel jetzt.

YouTube Kanal unter Impressum angucken, New Dehli India. Nix gegen Indien, gibt sicherlich auch dort genug Freaks, aber gemessen am Durchschnittslohn erscheint mir das, mit 5 Subscriber doch eher unwahrscheinlich. :freak:

@Rampage 2 werde dir nachher eine PN schicken.

BlacKi
2022-06-30, 18:48:41
er sagt 4k hat aber 21:9?

Linmoum
2022-07-01, 19:57:36
However, with end-user and graphics card makers' inventories already full, used graphics cards becoming available again, and demand for gaming PCs not as strong as expected, the decline in the mining boom came quickly, forcing NVIDIA to adjust its plans, telling TSMC it would delay and scale back the first wave of orders. The first wave of orders has been delayed and scaled back.

[...]

NVIDIA wants to reduce orders, but because TSMC is unwilling to budge, the next-generation 5nm RTX 40 series will be delayed by a quarter, even to the first quarter of 2023, but NVIDIA needs to find other customers to take on the remaining capacity to minimize the impact.https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?cnlid=1&id=0000638859_23P7Q8BU6YQGPN8X7TLNT

Letzteres kann ich mir in Bezug auf TSMC richtig schön vorstellen. Die lassen sich nichts sagen, schon gar nicht von Lederjacke und seinen Spaßvögeln. Schön auflaufen lassen und das Problem hat dann berechtigterweise Nvidia.

prinz_valium_2
2022-07-01, 20:04:28
Lieber weniger ordern, als die Preise senken.
War ja leider zu Erwarten. Bin sehr gespannt auf die MSRPs

Aber dank gestaffeltem launch, wird es wohl nicht so schlecht für nVidia laufen.

Ex3cut3r
2022-07-01, 20:14:28
Jo. Quasi eine künstliche Knappheit erschaffen, die sind IHMO beide auf den Geschmack gekommen. ^^

rentex
2022-07-01, 20:18:02
Jo. Quasi eine künstliche Knappheit erschaffen, die sind IHMO beide auf den Geschmack gekommen. ^^

Dann kauft man halt in zwei Jahren wieder, wenn die nächste Gen ansteht.

Blediator16
2022-07-01, 20:19:00
Wird wohl nichts. Und das Inventar in Lagern "versauern" lassen wird auch sicher nicht günstig. Jetzt muss man nur noch auf AMD und ggf. Intel hoffen, dann sollten die Karten wieder bezahlbar sein.

prinz_valium_2
2022-07-01, 20:54:10
Dann kauft man halt in zwei Jahren wieder, wenn die nächste Gen ansteht.

Dann hast du aber wieder alte Technik.
Es muss nVidia und AMD wieder so schlecht gehen, dass sie lieber zu spot Preisen verkaufen, als gar nichts zu verkaufen. Dann kann man den Laden nämlich gleich dicht machen.

Das mag ich als Kunde am liebsten.

BlacKi
2022-07-01, 21:03:47
nv war sich schon immer selbst die größte konkurenz. dank halde von current gen nun erst recht.

es bleibt auch amd und intel nun auf ihren karten sitzen.

eine verschiebung könnte helfen, das die gelagerten karten wenigstens ohne verlust verkauft werden können. die erhöhung von waferkosten durch tsmc(glaub auch samsung hatte erhöht) frisst halt wohl fast die ganze marge auf, denn die uvp preise wurden nach alten waferkosten berechnet, nicht nach den aktuellen.

wenigstens sind diesmal genug karten zum release vorhanden, und msrp nicht üppig kalkuliert.

Linmoum
2022-07-01, 21:24:26
wenigstens sind diesmal genug karten zum release vorhanden, und msrp nicht üppig kalkuliert.Ob genug vorhanden ist, wird sich zeigen müssen. Nvidia hat dem Vernehmen nach ordentlich blechen müssen, um überhaupt noch größere N5-Kontingente abzubekommen. Ob das am Ende reicht, bezweifle ich mit Blick auf den Desktop. Erst kommt Hopper und danach alles andere.

Nvidia wird zudem nicht den Vorteil von Chiplets haben und ist daher weniger flexibel, was die zur Verfügung stehenden Kapazitäten anbelangt. Zumal AD102 sicherlich über 500mm2 groß sein wird, auch Richtung 600mm2 würden mich nicht unbedingt überraschen.

So oder so hat Nvidia mit Abstand die größten Probleme bei einem abflachenden Mining-Boom und dabei besteht eben die Gefahr, dass sich das negativ auf zukünftige Zeitpläne und Veröffentlichungen auswirkt.

DavChrFen
2022-07-01, 21:34:52
Es reisen sich doch alle um N5. Dann würde ich eben den Prozess für HPC verwenden. Wenn das nicht ausreicht: Gibt bestimmt auch Firmen, die nicht direkte Konkurrenz sind und auf N5 heiß sind.

Unicous
2022-07-01, 21:49:45
Niemand sagt von einem Quartal zum nächsten, oh ja ich hab hier noch ein Projekt auf Halde, das würde ich gerne produzieren lassen. Das ist vollkommen realitätsfern. Insbesondere wenn sich die Industrie als auch die Weltwirtschaft auf eine Rezension einstellt/zubewegt. Zudem muss die Produktion erst einmal dementsprechend umgestellt werden auch das passiert nicht wie im Zeichentrick indem man den Hebel in der Fabrik umwirft und es fallen neue Spielsachen hinten heraus. (edit: Diese ominösen Unternehmen von denen du sprichst agieren auch nicht in einem Vakuum, das losgelöst ist von dem Weltgeschehen.)

Nvidia und Co. reagieren auf den Markt und wollen ihre Marge und ASP schützen. Der Umsatzeinbruch ist schon längst einkalkuliert, aber wehe man muss dem Aktionär beichten, dass darunter die Marge leidet, weil man nicht schnell genug die Produktion heruntergefahren hat und deswegen die Lager volllaufen. Das würde ja bedeuten, man muss die Preise für den Endkunden senken und das wäre ein Katastrophe.:eek:

rentex
2022-07-01, 22:14:31
Dann hast du aber wieder alte Technik.
Es muss nVidia und AMD wieder so schlecht gehen, dass sie lieber zu spot Preisen verkaufen, als gar nichts zu verkaufen. Dann kann man den Laden nämlich gleich dicht machen.

Das mag ich als Kunde am liebsten.

Und? Hauptsache ich kann noch mit max. 60Hz zocken.
Lieber so, als NV, Geld in den Rachen zu schmeissen.

BlacKi
2022-07-01, 22:39:57
Und? Hauptsache ich kann noch mit max. 60Hz zocken.
Lieber so, als NV, Geld in den Rachen zu schmeissen.


genau, mein hauptlebensziel, nv darf so wenig wie möglich an mir verdienen:biggrin:

iamthebear
2022-07-02, 13:09:49
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?cnlid=1&id=0000638859_23P7Q8BU6YQGPN8X7TLNT

Letzteres kann ich mir in Bezug auf TSMC richtig schön vorstellen. Die lassen sich nichts sagen, schon gar nicht von Lederjacke und seinen Spaßvögeln. Schön auflaufen lassen und das Problem hat dann berechtigterweise Nvidia.

Das ist irgendwie klar. TSMC hat derzeit keine anderen Abnehmer für die Kapazitäten.

Wird wohl nichts. Und das Inventar in Lagern "versauern" lassen wird auch sicher nicht günstig. Jetzt muss man nur noch auf AMD und ggf. Intel hoffen, dann sollten die Karten wieder bezahlbar sein.

Also "versauern" wird das Inventar sicher nicht. Aber man muss die Nachfolgegeneration deutlich billiger abverkaufen als aktuell, was natürlich ziemlich bitter ist wenn man z.B. VRAM und den Rest des BOM Kits damals noch zu Wucherpreisen aufgekauft hat.
Umgekehrt glaube ich aber nicht, dass Nvidias Strategie aufgehen wird. Nach Ethereum PoS werden wird sich eine riesige Anzahl gebrauchter Miningkarten auf den Weg in den Gebrauchtmarkt machen und das in organisierter Form mit getesteten Refurbed Karten inkl. Verpackung, Garantie etc. Wenn AMD/Nvidia Preis Fixing betreiben wollen, dann müssen sie in Kauf nehmen ein halbes Jahr gar nichts zu verkaufen. So riesig ist der Bedarf an Gamingkarten mittlerweile nicht mehr. Ich denke einen Großteil der potentiellen Käufer hat man mittlerweile schon vergrault.
Ich denke es wäre sinnvoller bevor die große Ladung kommt gleich einmal die neuen High End Modelle aufzulegen, denn diese stehen in keiner Konkurrenz zum Gebrauchtmarkt.

Ob genug vorhanden ist, wird sich zeigen müssen. Nvidia hat dem Vernehmen nach ordentlich blechen müssen, um überhaupt noch größere N5-Kontingente abzubekommen. Ob das am Ende reicht, bezweifle ich mit Blick auf den Desktop. Erst kommt Hopper und danach alles andere.

Ich denke nicht, dass Nvidia mehr bezahlen muss wie AMD. Ich denke es lief in etwa so:
AMD ist Dauerkunde genauso wie Apple d.h. es war bereits ein großer Teil der bestehenden Fertigung eingeplant. Für diesen zahlt AMD normal nach Lieferung der Wafer.
Für Nvidia hat TSMC keine Kapazität zur Verfügung. Nachdem Nvidia diese jedoch trotzdem benötigt muss muss Nvidia im Voraus bezahlen, damit TSMC diese Kapazität schaffen kann. Hier wird jedoch auch das Risiko abgewälzt. Wenn diese zusätzliche Kapazität später nicht mehr benötigt wird, dann ist das Nvidias Problem und soe bleiben auf ihren Wafern sitzen.

Dass es nun einen riesigen Ansturm an günstigen GPU Dies geben wird glaube ich jedoch nicht. Wir sind immer noch in einer schweren Krise der Lieferketten und elektrische Komponenten sind immer noch nur sporadisch um Wucherpreise zu bekommen und VRAM Preise sind immer noch relativ teuer. Die Waferkosten sind hier eher zu vernachlässigen.

wolik
2022-07-02, 14:09:10
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?cnlid=1&id=0000638859_23P7Q8BU6YQGPN8X7TLNT

Letzteres kann ich mir in Bezug auf TSMC richtig schön vorstellen. Die lassen sich nichts sagen, schon gar nicht von Lederjacke und seinen Spaßvögeln. Schön auflaufen lassen und das Problem hat dann berechtigterweise Nvidia.
Ich freu mich für Preis für 4090 unter 2K.

Thunder99
2022-07-02, 14:55:26
Wer will denn noch den alten Schrott, bei den Preisen, wenn die neue Generation vor der Türe steht?
Wenn da sich Nvidia nicht ins eigene Fleisch schneidet mit der angeblichen Verzögerung und Bestellanpassung...
Sind Mal die Kontigente weg bekommt man die nicht so schnell wieder (siehe Auto Industrie)

Gott1337
2022-07-02, 20:17:04
AMD ist Dauerkunde genauso wie Apple d.h. es war bereits ein großer Teil der bestehenden Fertigung eingeplant. Für diesen zahlt AMD normal nach Lieferung der Wafer.
Für Nvidia hat TSMC keine Kapazität zur Verfügung. Nachdem Nvidia diese jedoch trotzdem benötigt muss muss Nvidia im Voraus bezahlen, damit TSMC diese Kapazität schaffen kann.
Erklär uns bitte, warum Nvidia kein "Dauer" aka Stammkunde ist.

Laut offiziellen Zahlen machte AMD knapp 5% und Nvidia 3% des Umsatzes 2021. So groß ist der Unterschied nicht wenn man bedenkt das AMD dort CPUs, GPUs und die Konsolen herstellen ließ und Nvidia nur Volta.

Unicous
2022-07-02, 20:33:14
Laut offiziellen Zahlen? Welche offiziellen Zahlen?:confused:

Seit wann schlüsselt TSMC seine Partnerschaften explizit auf?:confused:

Und wo hast du die Zahlen überhaupt her?

So sieht eine Schätzung aus wie die Aufteilung aussehen könnte
https://i.gzn.jp/img/2021/03/22/amd-tsmc-share/01.png

Ah, ich sehe wo die Zahlen her hast:

https://www.gizmochina.com/wp-content/uploads/2021/12/tsmc-top-10-customers-list.png

Das ist schon eine große Diskrepanz zwischen den Zahlen (und wie gesagt auch nur eine Schätzung). Genau deswegen ist es schwierig hier eine eindeutige Konklusion zu formulieren.

Nvidia ist jahrzehntelanger Stammkunde hat aber in den letzten Jahren deutlich an Stand bei TSMC eingebüßt, das wird durch mehrere Medienberichte zumindest kolportiert. Dass TSMC die Daumschrauben anlegt und immer mal gerne fester schraubt ist ein offenes Geheimnis. Dass Nvidia deswegen nicht mehr bevorzugt behandelt wird ist daher keine Überraschung.

Das könnte sich 2022/2023 wieder ändern, denn Nvidia hat wieder auf TSMC umgesattelt und lässt anscheinend Samsung rechts liegen. Wie sich das in der Geschäftsbeziehung auswirkt, wird man in den nächsten Monaten sehen, speziell wenn man sich die aktuelle Marktlage anschaut.

iamthebear
2022-07-02, 22:03:09
Erklär uns bitte, warum Nvidia kein "Dauer" aka Stammkunde ist.

Laut offiziellen Zahlen machte AMD knapp 5% und Nvidia 3% des Umsatzes 2021. So groß ist der Unterschied nicht wenn man bedenkt das AMD dort CPUs, GPUs und die Konsolen herstellen ließ und Nvidia nur Volta.

Das Ganze muss man immer in Relation zum Waferbedarf sehen.
AMD ist mit allen Sparten unter 10nm ausschließlich bei TSMC mit ca. 40K Wafern pro Monat. Da ist der Bedarf relativ klar vorhersehbar bzw. ist AMD (mit eine Vorlaufzeit von ca. 1 Jahr) auch relativ flexibel, ob TSMC ihnen mehr 5nm oder 6nm oder 7nm zur Verfügung stellt, da IP für beide Technologien zur Verfügung steht.

Nvidia war mit seiner Gamingsparte 2 Jahre weg, nun sind sie wieder 2 Jahre da und wer weiß wenn Samsungs 3GAP besser ist sind sie dann wieder weg und in Summe benötigt Nvidia die doppelten Wafer von AMD und es muss alles 5nm sein, da es keine 7nm Designs gibt.
Das ist für TSMC nicht kalkulierbar und sie werden nicht das Risiko eingehen, dass sie zuerst die Kapazitäten schaffen und dann mit zusammenbrechender Chipblase (was ja abzusehen war) wenn Nvidia wieder weg ist mit halb leeren Fabs da stehen.

Dovregubben
2022-07-02, 22:29:01
Bei Cutting Edge Prozessen werden sie nie nen Bedarfsmangel haben. Notfalls werden sie Preis nochmal Richtung Vor-Chipkrisen-Niveau senken.

Platos
2022-07-02, 23:55:12
Bei Cutting Edge Prozessen werden sie nie nen Bedarfsmangel haben. Notfalls werden sie Preis nochmal Richtung Vor-Chipkrisen-Niveau senken.

Natürlich, denn wäre es nicht wirtschaftlich, gäbe es den Prozess nicht. Ist quasi selbsterfüllend, ausser der Fertiger misskalkuliert extrem.

iamthebear
2022-07-03, 02:57:23
Die stark EUV lastigen Prozesse sind extrem wirtschaftlich. Hier ist der Aufwand beim Belichten deutlich geringer als noch 1-2 Generationen davor. Das Problem ist eher, dass es so investitionsintensiv ist die EUV Anlagen zu bekommen aber wenn die einmal da stehen ist es kostenmäßig nicht so tragisch.
Was weiterhin extrem teuer ist, das ist das Design aber das ist im Fall von Lovelace/RDNA3 ja auch schon fertig.

Gott1337
2022-07-03, 05:56:34
Laut offiziellen Zahlen? Welche offiziellen Zahlen?:confused:

Seit wann schlüsselt TSMC seine Partnerschaften explizit auf?:confused:

Und wo hast du die Zahlen überhaupt her?

So sieht eine Schätzung aus wie die Aufteilung aussehen könnte
https://i.gzn.jp/img/2021/03/22/amd-tsmc-share/01.png

Ah, ich sehe wo die Zahlen her hast:

https://www.gizmochina.com/wp-content/uploads/2021/12/tsmc-top-10-customers-list.png

Das ist schon eine große Diskrepanz zwischen den Zahlen (und wie gesagt auch nur eine Schätzung). Genau deswegen ist es schwierig hier eine eindeutige Konklusion zu formulieren.

Nvidia ist jahrzehntelanger Stammkunde hat aber in den letzten Jahren deutlich an Stand bei TSMC eingebüßt, das wird durch mehrere Medienberichte zumindest kolportiert. Dass TSMC die Daumschrauben anlegt und immer mal gerne fester schraubt ist ein offenes Geheimnis. Dass Nvidia deswegen nicht mehr bevorzugt behandelt wird ist daher keine Überraschung.

Das könnte sich 2022/2023 wieder ändern, denn Nvidia hat wieder auf TSMC umgesattelt und lässt anscheinend Samsung rechts liegen. Wie sich das in der Geschäftsbeziehung auswirkt, wird man in den nächsten Monaten sehen, speziell wenn man sich die aktuelle Marktlage anschaut.
Nvidia wird mit Sicherheit weniger als AMD haben, eigentlich ging es doch nur um die Aussage das AMD ein Stammkunde sei und Nvidia nicht... das Verhältnis ist bei beiden Graphen ungefähr gleich.

ChaosTM
2022-07-03, 07:29:08
Geforce RTX 4000: Nvidia reduziert TSMC-Aufträge für 5-nm-Wafer (Gerücht) (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-4000-Nvidia-reduziert-TSMC-Auftraege-fuer-5-nm-Wafer-1398343/)

Könnte auf Grund der Marktsituation gar nicht mal so falsch sein. Gebrauchte 3**0er fluten verstärkt den Gebrauchtmarkt. Und die neuen Karten werden sich viele nicht leisten können bzw. wollen, wenn es für deutlich unter 1k schon sehr flotte GPUs gibt.

NV will damit vielleicht eine ähnliche ähnliche Situation wie nach dem letzten Krypto Einbruch verhinder. Oder es ist totaler BS. :D

Thunder99
2022-07-03, 09:12:34
Die neuen Karten können sich die Leute leisten, wenn die Preise auf Pascal Niveau wären.

Einen verzögerten Start könnte ich mir schon vorstellen, aber deutlich reduzierte Bestellmenge an Wafer weniger. Wenn Kapazitäten weg sind, dann bleiben sie lange weg.

Wenn sie die Karten releasen, bevor das Mining wieder anzieht haben die Spieler was davon, mehr wie bei Ampere

ChaosTM
2022-07-03, 09:20:50
Ich befürchte NV wartet bis Krypto wieder Fahrt aufnimmt damit wir Gamer ja nix von der neuen Generation haben.
Von den Mining Companies kriegt man halt deutlich mehr Geld und man verkauft gleich Tausende auf einmal.
Macht aus betriebswirtschaftlicher Sicht leider Sinn. Alles andere ist zweitrangig für Jensen..

Der Spielebereich verliert seit Jahrein konstant an Bedeutung und wird das auch in Zukunft tun.

Nightspider
2022-07-03, 09:35:32
Wäre lustig wenn AMD die Kapazitäten von Nvidia abnehmen würde.

Für CDNA3 und Genoa und RDNA3 gibts bestimmt genug Abnehmer. :D

BlacKi
2022-07-03, 11:00:09
Wäre lustig wenn AMD die Kapazitäten von Nvidia abnehmen würde.

Für CDNA3 und Genoa und RDNA3 gibts bestimmt genug Abnehmer. :D
amd reduziert doch auch. und nicht nur amd und nv.


das nun alle reduzieren könnte die waferpreise auf mittlere sicht reduzieren.

bbott
2022-07-03, 11:08:53
amd reduziert doch auch. und nicht nur amd und nv.


das nun alle reduzieren könnte die waferpreise auf mittlere sicht reduzieren.
Nicht bei 5nm

robbitop
2022-07-03, 11:15:00
Ich denke auch dass man im CPU Bereich - insbesondere Epyc - gar nicht genug Silicon bekommen kann. Wenn es weniger GPU Bedarf gibt können es die Server CPUs wahrscheinlich einfach aufsaugen.

fondness
2022-07-03, 11:18:45
Naja, EPYC bekommt sicher Prio, da höchste Marge. Kann mir kaum vorstellen, dass es da Lieferprobleme gibt. Es gibt Gerüchte, dass AMD noch zusätzliche AM4-CPUs mit 3D-Cache und weitere Lowend-Modelle bringt, das könnte schon darauf hindeuten, dass auch beim CPUs die Nachfrage nachlässt. Gleichzeitig scheint AMD bei den zukünftigen Produkten sehr zuversichtlich, wenn man die 5nm Bestellungen beibehält.

Slipknot79
2022-07-03, 11:34:13
Geforce RTX 4000: Nvidia reduziert TSMC-Aufträge für 5-nm-Wafer (Gerücht) (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-4000-Nvidia-reduziert-TSMC-Auftraege-fuer-5-nm-Wafer-1398343/)

Dass die Lager voll sein sollen, stimmt höchstens bei den teuersten Karten 3080Ti und aufwärts bzw RX 6900 und aufwärts.
Alles andere liegt zum Teil immer noch über UVP. Somit können da keine Lager voll sein.

Nightspider
2022-07-03, 11:38:03
Die Händler wollen ja auch ungern schnell ihre Marge reduzieren, nachdem sie jetzt 1,5 Jahre in Geld schwimmen konnten.

Sie werden die Preise so langsam wie möglich reduzieren.

ChaosTM
2022-07-03, 12:09:09
Dass die Lager voll sein sollen, stimmt höchstens bei den teuersten Karten 3080Ti und aufwärts bzw RX 6900 und aufwärts.
Alles andere liegt zum Teil immer noch über UVP. Somit können da keine Lager voll sein.


Bei den kleinere Karten sind auch kaum welche beim Mining im Einsatz und daher gibt es auch keinen großen Gebrauchtmarkt.


Und ich bin mir auch ziemlich sicher, das AMD keine Probleme hätte mehr Epycs abzusetzen aber das ist der Linda Faden. Wir/ich schweifen wieder mal ab. :)

Platos
2022-07-03, 12:42:02
Die Händler wollen ja auch ungern schnell ihre Marge reduzieren, nachdem sie jetzt 1,5 Jahre in Geld schwimmen konnten.

Sie werden die Preise so langsam wie möglich reduzieren.

Wenn das Angebot höher wie die Nachfrage ist, sinkt auch der Preis. So einfach ist das. Man kann natürlich ne Weile noch die Lager auffüllen lassen und noch auf dem hohem Preis sitzen bleiben. Danach ist aber Schluss und man wird natürlich die Lager auch nicht wirklich voll laufen lassen. Wenn Lager wirklich voll wären oder drohten voll zu laufen, dann wäre die Ware aber mit absoluter Sicherheit günstiger und zwar schon lange bevor das Lager wirklich voll ist.

Nightspider
2022-07-03, 12:48:53
Es wird ja auch noch gekauft.

Hier im Forum heben ja auch manche Leute fast ab wenn sie eine 6700XT für 480 Euro kaufen können und kostenlose Spiele dazu bekommen.

Tesseract
2022-07-03, 13:43:33
es gibt momentan noch haufenweise leute die wegen der preise/verfügbarkeit im letzten jahr den neukauf verschoben haben, noch auf alten oder unterdimensioniertern zwischenlösungen sitzen usw., die wirken dem schnellen abwärtstrend wohl entgegen - es geht zwar nach unten aber es gibt keinen totalen einbruch weil dem hohen angebot noch eine halbwegs hohe nachfrage gegenüber steht.

fondness
2022-07-03, 13:47:30
Dass die Lager voll sein sollen, stimmt höchstens bei den teuersten Karten 3080Ti und aufwärts bzw RX 6900 und aufwärts.
Alles andere liegt zum Teil immer noch über UVP. Somit können da keine Lager voll sein.

Uvp in Euro kannst du vergessen, damals war der Euro Kurs noch ein völlig anderer. In USD sind die Karten längst auf Uvp und darunter.

BlacKi
2022-07-03, 14:05:27
Uvp in Euro kannst du vergessen, damals war der Euro Kurs noch ein völlig anderer. In USD sind die Karten längst auf Uvp und darunter.
uvp und msrp werden doch eh nicht 1 zu 1 umgerechnet. und selbst wenn du heute die uvp neu berechnen würdest, läge z.b. der uvp unter der aktuell günstigster 3070.


das gilt generell für nv karten. naja, bis auf karten mit eh zu hoher uvp wie die 3080ti.



bei amd karten kommt das aber teilweiße hin. zb. bei der 6700xt mit 479€ uvp incl. reduzierter mwst. und anderem wechselkurs. da müssten die günstigsten modelle eigentlich eine aktualisierte uvp von über 500€ haben.

aufkrawall
2022-07-03, 14:25:47
uvp und msrp werden doch eh nicht 1 zu 1 umgerechnet.
Werden sie nicht? Die Leitwährung für Grafikkarten ist Dollar. Warum sollte man in der Eurozone weniger Gewinn machen wollen?

BlacKi
2022-07-03, 16:04:54
Werden sie nicht? Die Leitwährung für Grafikkarten ist Dollar. Warum sollte man in der Eurozone weniger Gewinn machen wollen?nicht exakt 1 zu 1. sonst müssten die uvps ja ständig wechseln.

bbott
2022-07-03, 17:10:36
nicht exakt 1 zu 1. sonst müssten die uvps ja ständig wechseln.
Die UVP ist nur bei Einführung relevant, danach ist der Wechselkurs und Markt für den Preis entscheidend.

BlacKi
2022-07-03, 20:39:13
Die UVP ist nur bei Einführung relevant, danach ist der Wechselkurs und Markt für den Preis entscheidend.auf dem realen markt. aber die uvp bleibt normalerweiße unangetastet, es sei denn wie bei uns ändert sich mwst.

Gott1337
2022-07-03, 20:47:36
Werden sie nicht? Die Leitwährung für Grafikkarten ist Dollar. Warum sollte man in der Eurozone weniger Gewinn machen wollen?
es geht ja nicht immer um das Wollen, vielleicht will man in manchen Märkten mehr Marktanteile gewinnen zB., dann sind Unternehmen schon gewillt weniger Gewinn zu machen. Sonst wären die Preise ja Weltweit überall gleich, was sie ja nicht sind (Auch vor den Lieferproblemen)
Vllt gibt er Markt auch keine höheren Preise her und man versucht nur den Deckungsbeitrag zu erreichen.

bbott
2022-07-03, 21:46:53
auf dem realen markt. aber die uvp bleibt normalerweiße unangetastet, es sei denn wie bei uns ändert sich mwst.
Der wir auch Regelmäßig angepasst für (Groß)Händler wenn etwas größere oder länger andauernde Wechselkurs Schwankungen vorliegen. Teilweise verzichten Händer wiederum auf Marge, weil Sie kein Bock haben dem Kunden zu sagen heute ist es teurer, oder verschweigen das es heute etwas billiger geworden ist...
So fix sind die Preise nicht!

P.S. Durch Lager Kaufoptionen etc. wir auch versucht Schwankungen auszugleichen... Auch kann man Geld in Fremdwärung kaufen bzw. leihen, versichern usw.

P.S. 2: Im AMD Shop wurden die Preise jede(!) Woche beim Drop angepasst, von ca. 980 -1030 € lag die Spanne für eine RX6900 Xt soweit ich mich richtig erinnere.

BlacKi
2022-07-03, 23:58:36
Der wir auch Regelmäßig angepasst für (Groß)Händler wenn etwas größere oder länger andauernde Wechselkurs Schwankungen vorliegen. Teilweise verzichten Händer wiederum auf Marge, weil Sie kein Bock haben dem Kunden zu sagen heute ist es teurer, oder verschweigen das es heute etwas billiger geworden ist...
So fix sind die Preise nicht!

P.S. Durch Lager Kaufoptionen etc. wir auch versucht Schwankungen auszugleichen... Auch kann man Geld in Fremdwärung kaufen bzw. leihen, versichern usw.

P.S. 2: Im AMD Shop wurden die Preise jede(!) Woche beim Drop angepasst, von ca. 980 -1030 € lag die Spanne für eine RX6900 Xt soweit ich mich richtig erinnere.


das bei amds online shop sind keine deutsche uvps. nv hat da keine solchen schwankungen, auch bei den konsolen wird nicht 1 zu 1 umgerechnet.

Rampage 2
2022-07-04, 00:11:07
Sie werden die Preise so langsam wie möglich reduzieren.

Damit Lovelace noch weiter verschoben werden muss, weil sie den Altkram viel zu langsam loswerden? :ulol: Weil die Käufer die alte Generation nicht mehr zu diesen (überteuerten) Preisen kaufen wollen und so...

Da muss ein Abverkauf stattfinden, wenn Nvidia LL nicht noch länger zurückhalten will - die alten Karten sind immer noch zu teuer!

R2

BlacKi
2022-07-04, 00:31:05
beides mus abgemischt werden. verkaufszahlen vs marge. die sind darin profis.

Thunderburne
2022-07-04, 09:27:05
2,8GHZ
https://wccftech.com/nvidia-geforce-rtx-4090-24-gb-rtx-4080-16-gb-rtx-4070-10-gb-graphics-card-specs-leaked-flagship-over-2-75-ghz-rumor/

iamthebear
2022-07-04, 09:39:24
Die Distributoren kaufen die GPUs von den AIBs in US$ ein und die verlangen weltweit denselben Preis und kümmern sich nicht um den UVP im jeweiligen Land.
Der Euro liegt derzeit bei 1.04 Dollar. Mit der deutschen Umsatzsteuer von 19% ergibt das dann ca. 1:1.15

Bei ursprünglichen Nvidia Lineup kommt dann noch die Nvidia Märchensteuer hinzu, denn selbst bei ausreichender Verfügbarkeit sind die UVPs von Nvidia in der Regel nicht erreichbar. Das hat man damals gut bei der 2080 Ti um 999 Euro gesehen.

Was den Gebrauchtmarkt angeht: Über 80% der Miningkarten stecken noch in Miningfarmen siehe: https://2miners.com/de/eth-network-hashrate#:~:text=Die%20Ethereum%2DNetzwerk%2DHashrate%20spiegelt,507%20825%20935 %20h%2Fs.

Troyan
2022-07-04, 10:02:50
2,8GHZ
https://wccftech.com/nvidia-geforce-rtx-4090-24-gb-rtx-4080-16-gb-rtx-4070-10-gb-graphics-card-specs-leaked-flagship-over-2-75-ghz-rumor/

25% als die 3090TI: https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last

BlacKi
2022-07-04, 10:13:33
max boostclocktable ist jetzt eher unrelevant wenn man die performance einordnen will, da die fast nie anliegen werden.

die avg boostclock angabe der 3090 liegt bei 1695mhz, laut leak bei der 4090 2520mhz.

das sind 48% mehr takt

:smile:wenn man dazu noch bedenkt, das dann nochmal 20% mehr takt durch oc drin sind(800w)?

Troyan
2022-07-04, 10:37:47
Computerbase hat ca. 2000MHz gemessen bei der 3090TI. Average bei nVidia trifft es meisten ja gut, das wären also 25% mehr bei Lovelace oder ca. 35%.

Sieht man ja, wo nVidia die Transistoren investiert: Mehr Takt und mehr L2 Cache.

Linmoum
2022-07-04, 10:40:58
Wenn, dann solltest du lieber die 3090Ti als Vergleich nehmen, denn die hat 450W.

Da wären es +35,5% Boost vs. Boost. Aber so wie kimi bisher drauf war, macht er in zwei Wochen wieder eine 180° Drehung und ändert seine Meinung.

ChaosTM
2022-07-04, 10:49:26
Damit Lovelace noch weiter verschoben werden muss, weil sie den Altkram viel zu langsam loswerden? :ulol: Weil die Käufer die alte Generation nicht mehr zu diesen (überteuerten) Preisen kaufen wollen und so...

Da muss ein Abverkauf stattfinden, wenn Nvidia LL nicht noch länger zurückhalten will - die alten Karten sind immer noch zu teuer!

R2


Nvidia wartet mit den dicken Karten auf ein wieder-erstarken des Krypto Marktes. Dann kann man einen beträchtlichen Teil gleich en gros zu Mondpreisen an Mining Corps verkaufen und von uns natürlich auch deutlich mehr verlangen.


So viele Altbestände im Mainstream Sektor hat man glaub ich gar nicht mehr. Wir Gamer werden für Jensen immer unwichtiger. Der Serverteil der Firma hat im letzten Quartal erstmals die Grafiksparte überholt.

Und von letzterer machen Spiele Karten auch nur mehr einen gewissen Prozentsatz aus. Krypto und Profi Karten sind um Welten profitabler als 200€ Gamer Karten, die es sowieso kaum mehr gibt. Zumindest keine brauchbaren. ;)


Man kann nur hoffen, das Krypto noch eine zeit lang am Boden bleibt, dann haben wir vielleicht eine Chance auf halbwegs erschwingliche High-End Karten.

BlacKi
2022-07-04, 11:12:21
klar könnte man das verbrauchsnominiert einordnen. aber die 4090 ist eine salvage karte, die hauptsächlich tdp limitiert ist und in einem uneffizienten bereich boostet, ungleich zur 3090ti aber wohl vergleichbar mit einer 3090.


ich würde nach den leaks sogar soweit gehen, zu sagen, die 4090 wird sogar noch stärker durchs tdp limit zurückgehalten als die 3090.

basix
2022-07-04, 11:51:33
Dass sich diese Taktraten bei 450W sich bewahrheiten, halte ich nichtmals für so abwegig. Wäre ~2.3x Rohleistung zur 3090 und auf die Rohleistung normiert ~1.8x effizienter. Sowas ähnliches hatten wir schon mal: Maxwell -> Pascal. Inkl. ähnlichem Taktratensprung (~1.5x) sowie Herstellungsprozesssprung (28nm -> 16nm FinFET).

Eine 600W Variante mit Full GA102 käme zudem vermutlich ziemlich genau auf 100 TFLOPs. Und wir wissen alle: Jensen liebt solche Zahlen.

Nightspider
2022-07-04, 12:05:35
Damit Lovelace noch weiter verschoben werden muss, weil sie den Altkram viel zu langsam loswerden? :ulol: Weil die Käufer die alte Generation nicht mehr zu diesen (überteuerten) Preisen kaufen wollen und so...

Da muss ein Abverkauf stattfinden, wenn Nvidia LL nicht noch länger zurückhalten will - die alten Karten sind immer noch zu teuer!

R2

Wie schnell ein Shop die Lager leer bekommt bestimmt doch jeder Shop selbst. Zur Not können die ihre Lager in Stunden leer bekommen mit einem guten Angebotspreis.

Sie werden es nur solange hinauszögern wie sie können. Die Shops wissen schon wie lange sie warten können. Gewinnmarge ist für jeden Shop das wichtigste.

Die Leute kaufen doch jetzt schon gut ein, seit die Preise die UVP erreicht haben und leicht darunter liegen.

Ihr tut so als würde gerade niemand Grafikkarten kaufen. :ulol:


Das hat man damals gut bei der 2080 Ti um 999 Euro gesehen.

Ich finde die ganze RTX 2000 Serie muss man kritisch betrachten, was den Preis und den Benefit angeht.

Das war wie eine Pascal-Deluxe Edition.

Man hat neue Features (RTX) und bisschen mehr Leistung (+30-40%) bekommen und musste dafür auch mehr zahlen.

Dadurch das Nvidia so einen schlechten Fertigungsprozess genutzt hat, gab es keinen großen Performancesprung und die ganze Generation hat sich nur wie eine große Refresh-Generation angefühlt, deren Leistungsplus durch neue Grafikfeatures mehr als kanibalisiert wurde.

NV hat günstig Chips in 12nm fertigen lassen und trotzdem den Kunden ausgenommen.

Dank dem riesigen (doppelten) Sprung beim Fertigungsprozess wird jetzt deutlich mehr (Performance und Effizienz) beim Kunden ankommen, so das es auch bei den billigeren Karten deutlich mehr Rohleistung geben wird.

Wir werden deutlich mehr Performance pro Dollar/Euro bekommen als es die letzten 2 Jahre der Fall war und auch mehr als es jetzt nach dem Preisrutsch der Fall ist.

Während TSMC N5 vielleicht 60% teurer wird als Samsung 8nm, wird die Transistordichte über 100% ansteigen und die Taktrate scheinbar über 25%.
Die Chipkosten sind ja auch nur ein Teil der Gesamtkosten einer Grafikkarte.

Nvidia und AMD werden auch noch viel Gewinn machen, wenn auch der Kunde deutlich mehr Leistung pro Euro bekommt.

Ich bleib bei meiner Einschätzung, dass das recht wahrscheinlich die geilste Grafikkarte-Generation seit dem G80 alias 8800GTX wird und das auch auf AMDs Seite.

Und Intel macht von unten ((leichten)) Druck.


Nvidia wartet mit den dicken Karten auf ein wieder-erstarken des Krypto Marktes.

Das wäre reines Glücksspiel. Meinst du eine Milliardenschwere Firma handelt so?

Eher könnte ich mir vorstellen, dass sie den großen Mining-"Firmen" als erstes die Karten vor dem offiziellen Release anbieten mit hohen Gewinnmargen.

basix
2022-07-04, 12:31:26
Ich bleib bei meiner Einschätzung, dass das recht wahrscheinlich die geilste Grafikkarte-Generation seit dem G80 alias 8800GTX wird und das auch auf AMDs Seite.

Und Intel macht von unten ((leichten)) Druck.

Na dann drücken wir dazu doch mal die Daumen ;) Von technischer Seite habe ich da momentan nichtmal grosse Zweifel.

Was allerdings die Situation vermutlich etwas trüben wird:
- Sehr hohe Verlustleistungen
- Sehr hohe Preislagen
- Ungewisse Verfügbarkeit der Karten

kmf
2022-07-04, 13:49:15
max boostclocktable ist jetzt eher unrelevant wenn man die performance einordnen will, da die fast nie anliegen werden.

die avg boostclock angabe der 3090 liegt bei 1695mhz, laut leak bei der 4090 2520mhz.

das sind 48% mehr takt

:smile:wenn man dazu noch bedenkt, das dann nochmal 20% mehr takt durch oc drin sind(800w)?Klingt für mich sehr unwahrscheinlich, fast 1000Mhz höherer Takt. Hat Nvidia die Physik überlistet? :conf2:
Obwohl der der das geleakt hat, lag oft richtig in der Vergangenheit. :uponder:

Troyan
2022-07-04, 13:51:56
AMD hat doch auch knapp 800MHz mehr von RDNA1 auf RDNA2 (siehe 6700XT gegen 5700XT).

Nightspider
2022-07-04, 14:22:15
Klingt für mich sehr unwahrscheinlich, fast 1000Mhz höherer Takt. Hat Nvidia die Physik überlistet? :conf2:
Obwohl der der das geleakt hat, lag oft richtig in der Vergangenheit. :uponder:

So wie AMD die Physik überlistet hat. :rolleyes:

dildo4u
2022-07-04, 14:29:15
Klingt für mich sehr unwahrscheinlich, fast 1000Mhz höherer Takt. Hat Nvidia die Physik überlistet? :conf2:
Obwohl der der das geleakt hat, lag oft richtig in der Vergangenheit. :uponder:
Der Takt ist aktuell auf Pascal Level die liefen schon um 1.8Ghz, das wären 6 Jahre Stagnation.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/

kmf
2022-07-04, 14:34:35
Der Takt ist aktuell auf Pascal Level die liefen schon um 1.8Ghz, das wären 6 Jahre Stagnation.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/Also ich hatte die MSI Gaming X 1080Ti, die lief keine 1800 Mhz im Boost. Aber ich hab die auch nie übertaktet, somit weiß ich nicht, wo deren Taktgrenze lag.

BlacKi
2022-07-04, 14:36:05
Klingt für mich sehr unwahrscheinlich, fast 1000Mhz höherer Takt. Hat Nvidia die Physik überlistet? :conf2:
Obwohl der der das geleakt hat, lag oft richtig in der Vergangenheit. :uponder:


nv wechselt vom low power prozess zum high performance prozess, obendrauf vom custom 10nm prozess zum custom 5nm prozess.


und wie schon angemerkt, amd hat das praktisch sogar ohne den prozess geschafft.

basix
2022-07-04, 14:36:43
Der Takt ist aktuelle auf Pascal Level die liefen schon um 1.8Ghz, das wären 6 Jahre Stagnation.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/

Pascal hat gut +50% Takt auf Maxwell draufgelegt (ohne TDP Erhöhung 980 Ti vs. 1080 Ti). Eine 3090 taktet im Schnitt mit ~1.8 GHz. Wären bei 2.7 GHz bei der 4090 also ebenfalls +50%.

Ich sehe es so, dass die hohen Taktraten und der grosse L2$ sehr gut zusammenpassen. Bei den hohen Taktraten wird der grosse L2$ massiv helfen, da reduzierte Latenzen und somit keine / verringerte IPC Degradierung.

und wie schon angemerkt, amd hat das praktisch sogar ohne den prozess geschafft.

Infinity Cache nicht vergessen ;) Die effektive Speicherlatenz ist dadurch stark gesunken. Das ist ein nicht unwesentlicher Beitrag, dass so hohe Taktraten überhaupt erst Sinn machen. Latency Hiding von GPUs in allen Ehren, aber auch die GPUs werden immer stärker auf tiefe Latenzen hin optimiert.

aufkrawall
2022-07-04, 14:37:06
Also ich hatte die MSI Gaming X 1080Ti, die lief keine 1800 Mhz im Boost. Aber ich hab die auch nie übertaktet, somit weiß ich nicht, wo deren Taktgrenze lag.
Ziemlich ähnlich Ampere. Will man die 2GHz stabil überschreiten, brauchts schon Quatsch-Spannungen vs. 1,9GHz.

Dural
2022-07-04, 14:37:40
Seit 16nm gibt es bei NV praktisch keine Taktsteigerung mehr. Bei 12nm Turing lag es wohl an der Grösse der Chips, und andere Bereiche waren wichtiger (RT) und bei 8nm Ampere lag es wohl vor allem an Samsung, der Prozess ist bekannt das er nicht gut taktet.

TMSC 5nm müsste schon alleine einen gewaltigen Schritt nach vorne bringen, der Rest halt durch Architektur und Optimierungen.

2,3-2,4GHz müssen wir eigentlich sehen.

kmf
2022-07-04, 14:46:06
Wenn sich das bewahrheitet, werden die aktuellen Karten aber echt stark abgewertet, die 4070 sollte dann auf aktuellem 3090 Niveau liegen oder sogar leicht darüber. Herrschaftszeiten... was geht da ab? :eek:

dildo4u
2022-07-04, 14:47:35
Wenn sich das bewahrheitet, werden die aktuellen Karten aber echt stark abgewertet, die 4070 sollte dann auf aktuellem 3090 Niveau liegen oder sogar leicht darüber. Herrschaftszeiten... was geht da ab? :eek:
Der Markt bricht gerade komplett weg wenn sie ihren erhöhten Preise halten wollen muss was kommen.

https://www.tomshardware.com/news/amd-apple-nvidia-reportedly-reducing-5nm-tsmc-orders

kmf
2022-07-04, 14:49:28
Der Markt bricht gerade komplett weg wenn sie ihren erhöhten Preise halten wollen muss was kommen.
Die Chipentwicklung dauert aber Jahre, letztes Jahr hat sich kein Einbruch abgezeichnet.

dildo4u
2022-07-04, 14:59:47
Zumindest was Gameing angeht was es abzusehen das Corona Games weiter verschieben wird, das ist vom April 21.


https://www.videogameschronicle.com/news/nearly-half-of-developers-say-the-pandemic-has-delayed-their-game/

basix
2022-07-04, 15:08:08
Wenn die hohen GA102 Taktraten stimmen und die 4070 in etwa so schnell wie eine 3090 Ti sein soll, dann sehe ich nicht unbedingt wesentliche IPC Steigerungen und somit grosse Umbauten an den SMs.

84/56 = 1.5x SMs 3090 Ti / 4070
3090 Ti @ 1.95 GHz * 1.5 = 2.92 GHz

~10% höhere Taktraten von AD104 verglichen mit AD102 sind mMn nicht unwahrscheinlich (siehe 3070 vs. 3090/3080). Dazu der Vorteil, dass man mit weniger SMs eine typischerweise bereits höhere IPC hat.

300W erscheinen mir aber als zu hoch. Das sieht mir nach geprügelt aus. Dito 4080. Da würde ich eher auf >1.1x Takt verglichen zur 4090 erwarten.

Mein Tipp (wenn die Taktraten und TDP Leaks stimmen):
- 4090 mit ~2.6 GHz Boost (im Schnitt)
- 4080 mit ~3.0 GHz Boost (im Schnitt)
- 4070 mit ~3.0 GHz Boost (im Schnitt)
- Titan AD mit ~2.8 GHz @ 140 SMs @ 600W

Edit:
Ach ja, wer kommt bei der 4070 auf die lächerliche Idee, nur 10 GByte zu verbauen...
Bei einer 4060 Ti könnte ich sowas noch verstehen aber bei der 4070 nicht. Vor allem nicht, wenn sie so schnell wie eine 3090 Ti sein soll. Schon bei der 3080 mit einiges geringerer Performance war es bereits etwas grenzwertig.

Lurtz
2022-07-04, 16:28:10
Dank dem riesigen (doppelten) Sprung beim Fertigungsprozess wird jetzt deutlich mehr (Performance und Effizienz) beim Kunden ankommen, so das es auch bei den billigeren Karten deutlich mehr Rohleistung geben wird.

Wir werden deutlich mehr Performance pro Dollar/Euro bekommen als es die letzten 2 Jahre der Fall war und auch mehr als es jetzt nach dem Preisrutsch der Fall ist.
Bei mir hält sich der Hype bei einer 4070 mit 10 GB VRAM und 300 Watt TPD sehr in Grenzen. Und teurer als 500€ wird sie auch sicher.

ChaosTM
2022-07-04, 16:38:06
So etwas ist nur mäßig erregend, ja. Kanns fast nicht glauben..

BlacKi
2022-07-04, 17:08:05
naja, was willst du denn erwarten bei einer msrp von 499$:wink:

aber ich finde das auch zu wenig. selbst wenn man später noch eine 4070ti mit 12gb bringt, wer nicht warten will, muss sich halt mit den 10 begnügen. nicht so cool, zumal die 3060 schon 12 hatte. hätte man nicht langsameren verbauen können und dafür mehr?

ChaosTM
2022-07-04, 17:14:50
naja, was willst du denn erwarten bei einer msrp von 499$:wink:

aber ich finde das auch zu wenig. selbst wenn man später noch eine 4070ti mit 12gb bringt, wer nicht warten will, muss sich halt mit den 10 begnügen. nicht so cool, zumal die 3060 schon 12 hatte. hätte man nicht langsameren verbauen können und dafür mehr?


"Double/Multiple dipping" oder wie bringe ich Käufer dazu, nach ein/zwei Jahren wieder eine neu Karte kaufen zu "müssen". Geniale Strategie eigentlich. ;)

BlacKi
2022-07-04, 17:23:15
nach der logik müsste nv aber auch gleich dlss für die kleinen karten sperren.

wenn ich nicht vorhätte, sowieso dlss einzusetzen was den vram verbrauch reduziert, dann würden mich die 10gb wohl wirklich stören. aber es könnte wirklich eng werden bei spielen ohne dlss.

Wuge
2022-07-04, 18:31:00
Naja immerhin wird die 3090 dann nicht unverkäuflich. Danke dem fetten VRAM evtl. fast 50% vom EK wenn man eine für 1499 bekommen hat :P

Rampage 2
2022-07-04, 18:53:20
Edit:
Ach ja, wer kommt bei der 4070 auf die lächerliche Idee, nur 10 GByte zu verbauen...
Bei einer 4060 Ti könnte ich sowas noch verstehen aber bei der 4070 nicht. Vor allem nicht, wenn sie so schnell wie eine 3090 Ti sein soll. Schon bei der 3080 mit einiges geringerer Performance war es bereits etwas grenzwertig.

Na, Nvidia:facepalm:

Ich glaube nicht, dass sie den Bescheiss mit der 3080 10GB nochmal wiederholen können mit der 4070 - schon damals war die Rohleistung für 4K vorhanden, aber dann lief der Speicher über. Die 4070 wird wie Blei in den Regalen stehen, sollte sie wirklich mit 10GB erscheinen - es sei denn, die Käufer sind dumm wie ein Stück Holz...

R2

prinz_valium_2
2022-07-04, 18:53:41
Also ich hatte die MSI Gaming X 1080Ti, die lief keine 1800 Mhz im Boost. Aber ich hab die auch nie übertaktet, somit weiß ich nicht, wo deren Taktgrenze lag.

Naja also wenn deine 1070/1080 keine knapp 2GHz geschafft hat, dann hattest du eine absolute Krücke.

Bei der 1080Ti, weiß ich gerade nicht was da so ging und normal ist.

Tesseract
2022-07-04, 18:54:28
Also ich hatte die MSI Gaming X 1080Ti, die lief keine 1800 Mhz im Boost. Aber ich hab die auch nie übertaktet, somit weiß ich nicht, wo deren Taktgrenze lag.

1080Ti bei denen weder powerlimit noch temperatur limitierten liefen haufenweise im bereich ~2000-2080MHz, je nach chipgüte.

prinz_valium_2
2022-07-04, 19:06:16
Ich glaube auch noch nicht, dass die 4070 3090Ti Leistung haben wird.
Wie soll eine 10GB Karte das denn bitte schaffen bei 4k Auflösung.


Entweder deutlich weniger Rohleistung, oder mehr Speicher.
Sonst handelt es sich einfach nicht um ein rundes und vernünftiges Produkt.
Die 3080 mit den 10GB ging ja noch so gerade. Aber 3090Ti ist 20 bis 30% schneller

Nightspider
2022-07-04, 19:20:35
Die 4070 ist keine 4K Karte, sie ist für 1440p.

BlacKi
2022-07-04, 19:22:36
was hat denn die speichermenge mit der performance zu tun? auch wenn du aktuelle spiele in 4k spielen kannst, ist die 4070 keine native 4k karte. 1440p ist eher ihr revier.

Linmoum
2022-07-04, 19:32:26
Die 4070 ist keine 4K Karte, sie ist für 1440p. Wenn das Ding tatsächlich 3090-Performance haben sollte, ist das natürlich auch eine UHD-Karte.

Wie die Hersteller das am Ende präsentieren, ist etwas anderes (die 3090 ist laut NV ja sogar eine 8K-GPU). Von der Performance wäre die 4070 aber klar auch für UHD ausgelegt. Egal, wie sehr AMD oder Nvidia beim Speicher knausern sollten.

Dovregubben
2022-07-04, 19:38:45
Wenn das Ding tatsächlich 3090-Performance haben sollte, ist das natürlich auch eine UHD-Karte.
Quatsch. Dann kommt sowas wie die Unreal Engine 5 und knüppelt das Ding in 1440p wieder auf max 60fps runter. Es war noch nie so einfach sinnvoll Rechenleistung zu verbrennen wie bei den kommenden Spielen mit Realtime GI.

iamthebear
2022-07-04, 19:43:33
Na, Nvidia:facepalm:

Ich glaube nicht, dass sie den Bescheiss mit der 3080 10GB nochmal wiederholen können mit der 4070 - schon damals war die Rohleistung für 4K vorhanden, aber dann lief der Speicher über. Die 4070 wird wie Blei in den Regalen stehen, sollte sie wirklich mit 10GB erscheinen - es sei denn, die Käufer sind dumm wie ein Stück Holz...

R2

Nach knapp 2 Jahren sollte sich das "10GB ist viel zu wenig" Märchen der 3080 eigentlich schön langsam abgenutzt haben. Wo sind denn all die Benchmarks von 3080ern mit fps drops wegen zu wenig VRAM?

Die 4070 ist keine 4K Karte, sie ist für 1440p.

Die 4070 wird voraussichtlich um die 30% schneller als eine 3090 sein. Das ist relativ eindeutig eine 4K Karte. Aber keine 4K RT Karte.

was hat denn die speichermenge mit der performance zu tun? auch wenn du aktuelle spiele in 4k spielen kannst, ist die 4070 keine native 4k karte. 1440p ist eher ihr revier.

Je mehr Performance die Karte hat desto höhere Detaileinstellungen kann man verwenden. Und höhere Detaileinstellungen benötigen mehr VRAM. Man word z.B. mit einer 3050 kaum 4K+RT spielen. Deshalb ist es auch relativ egal ob da mit 8GB die fps wegbrechen.
Bei einer 3090 Ti sieht das aber schon anders aus.

BlacKi
2022-07-04, 19:45:45
für manche ist selbst eine 3090 keine echte 4k karte. auch ohne RT.


Je mehr Performance die Karte hat desto höhere Detaileinstellungen kann man verwenden. Und höhere Detaileinstellungen benötigen mehr VRAM. Man word z.B. mit einer 3050 kaum 4K+RT spielen. Deshalb ist es auch relativ egal ob da mit 8GB die fps wegbrechen.
Bei einer 3090 Ti sieht das aber schon anders aus.

da wir weiter 8gb karten im mainstream haben werden, die ebenfalls auf ultra rund laufen sollen, wird man darauf optimieren. nicht jedes spiel, aber für die meisten spiele wirds für fhd reichen.

der speicherbedarf ist seit dem stagnieren des vram ausbaus kaum gestiegen. kein wunder, ist ja auch gekoppelt.


Die 4070 wird voraussichtlich um die 30% schneller als eine 3090 sein. Das ist relativ eindeutig eine 4K Karte. Aber keine 4K RT Karte.
ich hab mal selbst nachgerechnet rein von den shader unterschieden komme ich auf einen faktor 1.92x was die 4090 schneller als die 4070 wird. die 4070 wird die neue 3060 bzw. 3060ti vom performance unterschied.

30% schneller ist etwas übertrieben, auch wenn die karte etwas höher takten wird.


Wie die Hersteller das am Ende präsentieren, ist etwas anderes (die 3090 ist laut NV ja sogar eine 8K-GPU). Von der Performance wäre die 4070 aber klar auch für UHD ausgelegt. Egal, wie sehr AMD oder Nvidia beim Speicher knausern sollten.
und ich betreibe hier eine 3060 mit reduziertem PL in 4k. das macht aber weder die 3060 zur 4k karte, genauso wenig wie die 3090 zur 8k karte wenn man dlss oder NIS verwendet.

Linmoum
2022-07-04, 20:10:37
Eine 3090 hängt häufig in Auflösungen unterhalb von UHD im CPU-Limit und wird durch dieses ausgebremst. Ergo liegt Leistung brach, weil anderweitig ein limitierender Faktor auftritt.

Insofern doch, sowas ist dann keine Karte für FHD oder WQHD.

basix
2022-07-04, 20:17:43
Die 4070 ist keine 4K Karte, sie ist für 1440p.
auch wenn du aktuelle spiele in 4k spielen kannst, ist die 4070 keine native 4k karte. 1440p ist eher ihr revier.

Wäre auch meine Einschätzung.
- 50er = 1080p
- 60er = 1080p - 1440p
- 70er = 1440p
- 80er = 1440p - 4K
- 90er / 80 Ti = 4K

Das ist einfach die "normale" Portfolio Gestaltung seit ~Maxwell. Klar kann man man mit einer schwächeren Karte auf eine höher Auflösung gehen. Und bei älteren Spielen kann das auch gut funktionieren. Spiele mit hohen GPU Anforderungen ab Zeitpunkt des GPU-Releases werden allerdings nicht wirklich zufriedenstellend laufen.

DLSS / FSR werden diese Grenzen zwar etwas aufweichen (wählbar nach Gusti zwischen nativ und DLSS Performance), an den Grundzügen des Portfolio Aufbaus wird sich aber nicht viel ändern. Vielleicht werden sich die Auflösungen von oben bis 2025+ vervierfachen, allerdings hauptsächlich durch DLSS / FSR / TSR und deren Einsatz in den allermeisten GPU-fordernden Spielen (1080p -> 4K DLSS Performance und 4K -> 8K DLSS Performance)

BlacKi
2022-07-04, 20:29:39
Eine 3090 hängt häufig in Auflösungen unterhalb von UHD im CPU-Limit und wird durch dieses ausgebremst. Ergo liegt Leistung brach, weil anderweitig ein limitierender Faktor auftritt.

Insofern doch, sowas ist dann keine Karte für FHD oder WQHD.


die 3090 läuft in cyberpunk in 4k mit 40 fps. ohne RT. ohne cpu limit.

Linmoum
2022-07-04, 20:31:42
Und was soll mir jetzt ein einziges Spiel sagen? :confused:

Es gab und gibt genug Tests zu Ampere und wie sich die Karten in niedrigeren Auflösungen verhalten. Was eben häufiges ausbremsen durch die CPU aufgezeigt hat. Das Problem wird sich bei den großen Karten der nächsten Gen auch in UHD aufwärts noch deutlicher zeigen bei >=2x Performance.

The_Invisible
2022-07-04, 20:38:17
Ihr hängt euch viel zu sehr am VRAM auf, da wird Jensen wieder andere Marketinginstrumente haben bzw argumentieren das 10GB ja eh mehr wie 8GB sind.
Wir sind halt an einen Punkt angelangt wo eine Verdopplung einfach net mehr so viel Sinn macht siehe auch Konsolen. Da wurde der RAM auch nur verdoppelt wo er vorher doch immer versechzehnfacht wurde, das muss man sich mal geben.
Auch beim RAM herrscht quasi seit Jahren Stillstand mit den 16GB den die meisten verbaut haben.

Nightspider
2022-07-04, 20:40:31
Die 4070 wird voraussichtlich um die 30% schneller als eine 3090 sein. Das ist relativ eindeutig eine 4K Karte. Aber keine 4K RT Karte.



Gabs in der Touring Generation eine 4K Karte? ^^

Ist alles relativ.

Mit einer 3060 kann an auch in 4K Spielen.

basix
2022-07-04, 21:10:53
Ihr hängt euch viel zu sehr am VRAM auf, da wird Jensen wieder andere Marketinginstrumente haben bzw argumentieren das 10GB ja eh mehr wie 8GB sind.
Wir sind halt an einen Punkt angelangt wo eine Verdopplung einfach net mehr so viel Sinn macht siehe auch Konsolen. Da wurde der RAM auch nur verdoppelt wo er vorher doch immer versechzehnfacht wurde, das muss man sich mal geben.
Auch beim RAM herrscht quasi seit Jahren Stillstand mit den 16GB den die meisten verbaut haben.

Klar, 10 > 8. Harter Fakt ;)

Das Problem bei 10GB: Sie limitieren bereits heute in 4K in einigen Spielen. Ergo wird das zwangsläufig in den nächsten 2-3 Jahren auch in 1440p passieren, insbesondere wegen RT. Und wenn sich wer eine 4070 für 4K holt (weil die FPS momentan noch hoch genug sind), wird schon früher einen Nachteil haben. 10GB werden sehr oft noch genug sein, sicher, dennoch sind sie eine Art Sollbruchstelle.

Und es ist einfach dämlich, weil AD104 ja 192bit und somit 12GB mitbringen könnte. Dann lieber bei der Karte +30-50$ MSRP draufpacken. Eine 3060 gibt es bereits für 329$ MSRP mit 12GB. Ich sehe darum nicht, wieso das bei 499-549$ nicht ebenfalls gehen sollte. Klar, AD104 wird teurer sein als GA106: Grösserer Chip, teurerer Prozess, höhere TDP. Verglichen mit GA104 wird sich das alles aber nicht viel nehmen: Kleinerer Chip, teuerer Prozess (aber bessere Yields), etwas höhere TDP. Von mir aus können es auch 549$ für die 4070 sein. 10GByte sind einfach suboptimal für das Anwendungsgebiet. Nicht heute, aber über die Lebensdauer der Karte schon. Und kann Nvidia und dessen Partner die 549$ MSRP auch wirklich so anbieten (im Gegensatz zu Ampere) wäre P/L auch mit +10% MSRP deutlich gestiegen. Selbst mit 599$ MSRP und Marktpreisen auf diesem Niveau wäre eine 4070 wohl günstiger als fast jede verkaufte 3070.

Ich sehe folgende Speichermengen für neue Nvidia Karten als optimal an:
- 1080p = 9GB -> AD106 (nicht ganz optimal da nur 8GB möglich)
- 1440p = 12GB -> AD104
- 4K = 16GB -> AD103
- 4K+ = 20-24 GB -> AD102

Eigentlich hat Nvidia im Gegensatz zu Ampere einen deutlich besser aufgestellten Produkt-Stack. Mit 10GB auf einer 4070 würden sie sich aber mal wieder zum Affen machen (wie die 10GB auf einer 3080).

Edit:
Hat ein Spiel ein gutes Speichermanagement, benötigt man nicht so viel Speicehr wie oben beschrieben. Nur haben das nicht alle Spiele. Ich würde gerne die oben genannten Speichermengen sehen und von mir aus können sie dann für eine lange Zeit stagnieren. Weitere Qualitätssteigerungen dann über so Sachen wie Nanite (UE5 benötigt recht wenig VRAM ausserhalb von GI), DirectStorage, gute DLSS/FSR Implementierungen (reduzierte Renderauflösungen) usw.

davidzo
2022-07-04, 21:55:40
Es muss doch irgendeinen Grund geben wieso man Retail-Kunden ja in 2-3Jahren wieder zur Kasse bitten kann.

Das macht man praktisch seit Kepler so, mit Pascal als einzigen Ausrutscher. Die Performance Karte für den Gamers sweet spot muss leistungsmäßig kompetitiv sein, aber irgendwie in ihrer Zukunftstauglichkeit beschränkt, sonst nimmt man sich die Kunden von morgen weg. Man kann das nicht immer übers Featureset machen, gerade wenn man in der Technologiesparte den Ton angibt, aber ein wenig unter VRAM Mangel tut wunder gegen die Zukunftsfähigkeit.
3GB für die 780 und ti waren absolut lächerlich, auch für die damalige Zeit. AMDs R9 290 und 390x hatten immer 4GB und selbst das war für die Rohleistung knapp weshalb man beim refresh eine 8Gb version nachgeschoben hat die auch merklich schneller war.
Von der Rohleistung könnte eine 780ti gut mit einer GTX980 und 1060 mithalten, aber die 3GB limitieren halt hart.

Nvidia hat als Marktführer mit um die 80% Marktanteil im letzten Jahrzehnt einfach wenig zu gewinnen wenn sie "noch kompetitiver" zu AMD sind. Die Marktanteile die man da noch gewinnen kann bringen doch kaum mehr Umsatz und Gewinn.
Nvidia konkurriert stattdessen zu 80% mit sich selbst. Also mit den Karten der letzten gen. Es ist daher viel wichtiger dafür zu sorgen dass der Kunde immer möglichst kurze upgrades macht, als sich um die Konkurrenz mit AMD zu konzentrieren.

Wollen wir hoffen dass es mit einem starken RDNA3 und startendem Intel GPU Business mal etwas anders wird.
Btw, ich denke schon dass nvidias VRAM Management überlegen ist und man daher auch mit leicht weniger VRAM auskommt. Ein bisschen so wie bei Apple und iOS. Die verbauen seit Jahrzehnten sehr knapp RAM in den iphones, vor allem im verhältnis zur prozessor- und GPU-Leistung. Da der Appstoe aber auch stärkere performaceziele und speichermanagement limits setzt, fällt das beim iPhone nicht so extrem aus wie man denken würde. Apple kann mit 4Gb durchaus noch auf highendniveau performen, aber bei android ist das schon das bare minimum und reicht kaum für ein mittelklasse handy.

Trotzdem ist genau der limitierte RAM genau der Grund wieso alte iphones trotz Akkutausch etc. irgendwann zu langsam sind.

Von Apple lernen heißt siegen lernen!

BlacKi
2022-07-04, 21:58:29
wer sagt denn das 5070 mehr als 12gb bekommt? mit direct storage muss man das zum glück nichtmehr.

prinz_valium_2
2022-07-04, 22:10:28
Wäre auch meine Einschätzung.
- 50er = 1080p
- 60er = 1080p - 1440p
- 70er = 1440p
- 80er = 1440p - 4K
- 90er / 80 Ti = 4K

Das ist einfach die "normale" Portfolio Gestaltung seit ~Maxwell. Klar kann man man mit einer schwächeren Karte auf eine höher Auflösung gehen. Und bei älteren Spielen kann das auch gut funktionieren. Spiele mit hohen GPU Anforderungen ab Zeitpunkt des GPU-Releases werden allerdings nicht wirklich zufriedenstellend laufen.

DLSS / FSR werden diese Grenzen zwar etwas aufweichen (wählbar nach Gusti zwischen nativ und DLSS Performance), an den Grundzügen des Portfolio Aufbaus wird sich aber nicht viel ändern. Vielleicht werden sich die Auflösungen von oben bis 2025+ vervierfachen, allerdings hauptsächlich durch DLSS / FSR / TSR und deren Einsatz in den allermeisten GPU-fordernden Spielen (1080p -> 4K DLSS Performance und 4K -> 8K DLSS Performance)

Und alle, die jetzt noch schön mit ihrer 1060 auf 1080p zocken, müssen sich dann mit einem 6 1/2 Jahre späteren Upgrade auf eine höhere Klasse sagen lassen, sie haben keine 4k GPU gekauft, eher eine für 1440p ;D

basix
2022-07-04, 22:28:45
Und alle, die jetzt noch schön mit ihrer 1060 auf 1080p zocken, müssen sich dann mit einem 6 1/2 Jahre späteren Upgrade auf eine höhere Klasse sagen lassen, sie haben keine 4k GPU gekauft, eher eine für 1440p ;D

Haha, in der Tat ;) 1440p ist verglichen mit 1080p aber ein sehr ordentliches Update, gefühlt grösser als 1440p -> 4K.

Die 1060 6GB hat sich auch genau deswegen lange gehalten: Genug Speicher. Aber mit max. Settings wird es bei einigen Spielen definitiv nicht mehr in den VRAM passen. Mittlere Details oder was auch immer ein 1060 noch stemmen mag passen da besser ;)

Und damals, als die 1060 rauskam, hatten die damaligen 4K Karten satte 11-12GByte an Speicher, nicht nur 10GByte :D

iamthebear
2022-07-04, 22:36:02
Shader skalieren derzeit noch relativ gut mit jedem Shrink, RAM ist schon am Ende.

Der Trend ist seit Jahren sowohl bei PC als auch Konsolen, dass die Shaderperformance deutlich stärker steigt als der VRAM und genau denselben Trend werden wir auch bei Spielen sehen d.h. in 4 Jahren werden die 10GB der 3080 immer noch für 4K ohne RT reichen aber die GPU Performance wird bestenfalls noch für 1440p reichen somit wenig Stress.
Wo man mehr VRAM braucht ist für 4K mit RT aber das packt eine 3080 von der GPU Performance schon jetzt nicht und in 2-3 Jahren wird das kaum besser werden.

Klar wenn es mehr VRAM wie bei der 6700/6800 XT gratis oben drauf gibt dann immer her damit.
Wenn es aber heißt 4GB VRAM mehr oder stattdessen 50% mehr SMs dann nehme ich lieber den dickeren Chip.

prinz_valium_2
2022-07-04, 22:57:15
Niemand bestreitet, dass die dauernden Ram Verdopplungen vorbei sind. Und das ist auch positiv.
Das Problem ist keine Steigerung und die massige Differenz Zwischen High End und Enthusiast.

Zu Pascal Zeiten gab es eine 1060 mit 6GB, 1070 mit 8GB und die 1080Ti mit 11GB
Dann hast du 4 und 6 Jahre später 10GB bei der 3080 und 4070, während die 3090 und 4090 mit 24GB daher kommen.


Mir passt das Verhältnis nicht.
Bei AMD und den Konsolen sieht das ganze harmonischer aus und für den Fall der Fälle besser gewappnet. Wenn die Karte nicht 6 bis 10 Jahre machen kann, dann war sie für mich falsch konzipiert.

BlacKi
2022-07-04, 23:10:01
Mir passt das Verhältnis nicht.
Bei AMD und den Konsolen sieht das ganze harmonischer aus und für den Fall der Fälle besser gewappnet. Wenn die Karte nicht 6 bis 10 Jahre machen kann, dann war sie für mich falsch konzipiert.die einzigsten karten die älter sind und noch ausreichend vram haben, waren damals überdimensioniert, und nicht im performance segment zwischen mainstream und highend. genau wie heute. auch bei amd und auch in zukunft.

basix
2022-07-04, 23:18:27
Das Problem ist keine Steigerung und die massige Differenz Zwischen High End und Enthusiast.

Was dadurch verschlimmert wird, dass zwischen 1080p und 4K oftmals <2x an VRAM Bedarf liegen. Andererseits muss man fairerweise auch anmerken, dass die 24GByte bei 4K stark überdimensioniert sind. 24GByte sind was für 8K.

Gott1337
2022-07-05, 17:18:54
Was dadurch verschlimmert wird, dass zwischen 1080p und 4K oftmals <2x an VRAM Bedarf liegen. Andererseits muss man fairerweise auch anmerken, dass die 24GByte bei 4K stark überdimensioniert sind. 24GByte sind was für 8K.
Dafür will ich mal Belege, ich bezweifle ganz stark das der Framebuffer soviel VRAM verbraucht, das denkst du dir doch alles einfach nur aus... das doppelte zwischen 2k und 4k ist einfach komplett falsch. und größer und kleiner verdrehst du auch noch, sonst macht deine Aussage ja noch weniger Sinn.

Thunder99
2022-07-05, 18:12:48
Immer nur verdoppeln ist einfach nicht mehr wirtschaftlich und sinnvoll. Daher müssen unbedingt zwischen Größen her beim VRAM. 1.5GB Module und 3GB. Einfach mit dem Speicherinterface zu beschneiden ist ja nicht immer gut für den Kunden, siehe 3080 erst 10GB und dann erkennt Nvidia endlich den Fehler und bringt eine 12GB Karte, obwohl es schon die Ti gibt.
Ohne Grund werden sie es nicht gemacht haben...
Wenn der Markt es fordert kommt es auch!

HOT
2022-07-05, 20:51:43
Niemand bestreitet, dass die dauernden Ram Verdopplungen vorbei sind. Und das ist auch positiv.
Das Problem ist keine Steigerung und die massige Differenz Zwischen High End und Enthusiast.

Zu Pascal Zeiten gab es eine 1060 mit 6GB, 1070 mit 8GB und die 1080Ti mit 11GB
Dann hast du 4 und 6 Jahre später 10GB bei der 3080 und 4070, während die 3090 und 4090 mit 24GB daher kommen.


Mir passt das Verhältnis nicht.
Bei AMD und den Konsolen sieht das ganze harmonischer aus und für den Fall der Fälle besser gewappnet. Wenn die Karte nicht 6 bis 10 Jahre machen kann, dann war sie für mich falsch konzipiert.

schon spannend, wie lange die Phasen der Speicherstagnation auch in der Vergangenheit waren:
2003: 128MB
2005: 256MB
2006: 512MB
2009: 1GB
2012: 2(3)GB
2013/4: 4GB
2015/6: 6/8GB
2017: 11GB
2020: 16/12GB
2023: 24GB

Titans und 3090 lass ich mal außen vor.

Rampage 2
2022-07-05, 22:25:41
Nach knapp 2 Jahren sollte sich das "10GB ist viel zu wenig" Märchen der 3080 eigentlich schön langsam abgenutzt haben. Wo sind denn all die Benchmarks von 3080ern mit fps drops wegen zu wenig VRAM?

Bitte was!? Es wurde in Tests wiederholt festgestellt, dass die 10GB der 3080 bei einer Reihe von Spielen in 4K nicht ausreichen - obwohl sie genug Rohleistung dafür hat! 10GB reicht sogar für 1440p nicht mehr aus in einigen Spielen (FC6, FF15, WDL, Deathloop, Minecraft RTX), von 4K ganz zu schweigen...

Und die 4070 wird deutlich mehr Leistung haben (30-40%, vielleicht sogar 50%) als die 10GB-3080!


Die 4070 wird voraussichtlich um die 30% schneller als eine 3090 sein. Das ist relativ eindeutig eine 4K Karte. Aber keine 4K RT Karte.


Je mehr Performance die Karte hat desto höhere Detaileinstellungen kann man verwenden. Und höhere Detaileinstellungen benötigen mehr VRAM.

[...]

Bei einer 3090 Ti sieht das aber schon anders aus.


:freak:

Erst behauptest du, dass die 10GB einer 4070 keine Rolle spielen und dann sagst du, dass mehr Leistung auch höhere Details ermöglicht - aber diese höheren Details dann auch mehr VRAM benötigen. Und die 4070 mit mickrigen 10GB Speicher wird voraussichtlich mehr Leistung als eine 3090 Ti mit satten 24GB Speicher haben!

R2

basix
2022-07-05, 23:08:40
Dafür will ich mal Belege, ich bezweifle ganz stark das der Framebuffer soviel VRAM verbraucht, das denkst du dir doch alles einfach nur aus... das doppelte zwischen 2k und 4k ist einfach komplett falsch. und größer und kleiner verdrehst du auch noch, sonst macht deine Aussage ja noch weniger Sinn.

Du hast meinen Post einfach nicht verstanden: VRAM Bedarf von 4K < (2x 1080p). Jetzt klarer?

Ich weiss von keinem Spiel, welches in 4K doppelten Speicher vs. 1080p benötigt. Und genau das ist das Problem der kleinen Karten: In 4K bekommt man mit der 4080 bald 16GB. Das reicht locker. Unten rum bei den 50ern kann es mit 8GB je nach Spiel bereits etwas eng werden (reicht momentan aber noch).

HOT
2022-07-05, 23:42:02
4060 -> FHD
4070 -> WQHD
4080 -> UHD

das ist ziemlich eindeutig. Alle werden RT+DLSS bei ihren jeweiligen Auflösung zusätzlich packen.
Wer mehr 4k-RT ohne DLSS will, muss zur 4090 greifen.

Gott1337
2022-07-06, 01:51:45
Du hast meinen Post einfach nicht verstanden: VRAM Bedarf von 4K < (2x 1080p). Jetzt klarer?

Ich weiss von keinem Spiel, welches in 4K doppelten Speicher vs. 1080p benötigt. Und genau das ist das Problem der kleinen Karten: In 4K bekommt man mit der 4080 bald 16GB. Das reicht locker. Unten rum bei den 50ern kann es mit 8GB je nach Spiel bereits etwas eng werden (reicht momentan aber noch).
kleiner 2 also 1.99? ich sagte auch dann macht deine Aussage keinen Sinn... Den meisten Speicher verbrauchen Texturen, da ändert sich nix wenn du die Auflösung änderst. Durch SamplerFeedback wird das auch stark reduziert also macht dein ganzer Post eben keinen Sinn....

Wieviel Ram ein Spiel verbraucht hängt zu 90% am Spiel und nicht an der Auflösung.

RoNsOn Xs
2022-07-06, 08:01:19
Bitte was!? Es wurde in Tests wiederholt festgestellt, dass die 10GB der 3080 bei einer Reihe von Spielen in 4K nicht ausreichen - obwohl sie genug Rohleistung dafür hat! 10GB reicht sogar für 1440p nicht mehr aus in einigen Spielen (FC6, FF15, WDL, Deathloop, Minecraft RTX), von 4K ganz zu schweigen...

Hast du dazu Benches?

Hier sehe ich gar keine Unterschiede:
https://www.youtube.com/watch?v=_5yxzkeEDY4

Und hier nur bei Godfall, dass der Speicher wohl etwas einschränkt:
https://www.youtube.com/watch?v=0jtWOx7va0Y

Ansonsten hätte man sich den saftigen Aufpreis schon damals sparen können.

aceCrasher
2022-07-06, 09:26:04
Hast du dazu Benches?

Hier sehe ich gar keine Unterschiede:
https://www.youtube.com/watch?v=_5yxzkeEDY4

Und hier nur bei Godfall, dass der Speicher wohl etwas einschränkt:
https://www.youtube.com/watch?v=0jtWOx7va0Y

Ansonsten hätte man sich den saftigen Aufpreis schon damals sparen können.

https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Tests/RTX-3000-Speichertest-Benchmarks-Reichen-10-GB-1373623/

Wolfenstein Youngblood 4K:
3080 10GB - 49,6fps
3080ti 12GB - 89,6fps

Minecraft RTX 4K 24-chunks:
3080 10GB - 45,6 fps (17fps!!! 1% low)
3080ti 12GB - 67,8fps (48fps 1% low)

ChaosTM
2022-07-06, 09:33:51
Kein Unterschied feststellbar .. ;)
Zu viel Speicher kann man nie haben weil man nie weiß was kommt.

Add.: vor allem wenn man für 3-4+ Jahre plant. Wer jährlich wechselt braucht sich da weniger Sorgen zu machen.

dildo4u
2022-07-06, 09:46:52
Die 3080 ist doch nur Midrange am Ende des Jahres sieht eher so aus das man ständig die Auflösung senken muss also DLSS ist fast zwang, 10 GB scheinen ok für Medium DLSS.

F1 22 DLSS Q 60fps, DLSS Balanced grad so über 75.

https://youtu.be/lWH9l5_D9uI?t=732

4070 mit 10GB nehmen ich da ich erwarte 1080p Upscaling zu nutzen.(UE 5)

The_Invisible
2022-07-06, 09:58:05
Kein Unterschied feststellbar .. ;)
Zu viel Speicher kann man nie haben weil man nie weiß was kommt.

Add.: vor allem wenn man für 3-4+ Jahre plant. Wer jährlich wechselt braucht sich da weniger Sorgen zu machen.

Mehr ist immer besser, aber solange es Alternativen gibt braucht man sich eigentlich nicht beschweren über ein gewisses Produkt. Ist ja bis zur 48GB A6000 alles offen :D

basix
2022-07-06, 10:09:27
kleiner 2 also 1.99? ich sagte auch dann macht deine Aussage keinen Sinn... Den meisten Speicher verbrauchen Texturen, da ändert sich nix wenn du die Auflösung änderst. Durch SamplerFeedback wird das auch stark reduziert also macht dein ganzer Post eben keinen Sinn....


Schau dir diverse Spieletests auf https://gamegpu.com/ an. Du wirst sehen: Steigende Auflösung = Höherer Speicherbedarf. Typischerweise benötigt 4K deutlich weniger als 2x 1080p VRAM Bedarf. Gibt aber Spiele, wo man nicht so weit davon weg ist.

Ansonsten kannst du dich ja nochmals mit dem Thema Texture MIP Bias vs. Auflösung beschäftigen.

Sampler Feedback Streaming tut hier erst mal gar nichts zur Sache. Gibt noch kein einziges Spiel auf dem Markt, welches SFS unterstützt. Bei SFS wird der Speicherbedarf für Texturen sicher drastisch reduziert, dennoch wirst du hier mit steigender Auflösung einen erhöhten Speicherbedarf haben. Weil eben mit der Auflösung auch das MIP Bias verschoben wird...und auch andere Dinge wie grössere Rendering-Buffer etc. etc.


Wieviel Ram ein Spiel verbraucht hängt zu 90% am Spiel und nicht an der Auflösung.
Thx, Captain Obvious. Das ist die einzige sinnvolle Aussage die du da tätigst: Es kommt aufs Spiel drauf an.

Nichtsdestotrotz steigt mit steigender Auflösung der VRAM Bedarf. Oder schon mal 8K Benchmarks angeschaut? https://www.gamestar.de/artikel/geforce-rtx-3090-test,3362239,seite3.html --> Deutlich erhöhter VRAM Bedarf...

ChaosTM
2022-07-06, 10:48:27
Dafür sollte sie reichen, ja.

RoNsOn Xs
2022-07-06, 10:53:11
Kein Unterschied feststellbar .. ;)
Zu viel Speicher kann man nie haben weil man nie weiß was kommt.

Add.: vor allem wenn man für 3-4+ Jahre plant. Wer jährlich wechselt braucht sich da weniger Sorgen zu machen.
Dass es Ausnahmen gibt, wird doch gar nicht bestritten. Meistens Extrembeispiele mitsamt RTX. Bei den allermeisten Games heute, macht es keinen großen Unterschied.
WIe es in Zukunft weiter geht, kann man nur spekulieren, aber heute noch nicht aussagen. Das wird man erst in ein paar Jahren sehen und nochmal gegentesten können. Jedoch: die meisten Spieler in 3 Jahren schon die nächste Karte ihr eigen nennen.
Dagegen muss man dann eben noch die Mehrkosten abwägen, denn die zusätzlichen GB gibt es ja nicht für Lau.
Über alle Spiele im Durchschnitt gesehen wird das bessere P/L-Niveau welche Karte am ehesten haben?

basix
2022-07-06, 13:29:21
Im Angesicht des anscheinend sehr grossen Performance-Sprungs von Lovelace, den noch vielen Pascal Karten (Lovelace = RTX und DLSS Update) und den langsamer werdenden Prozessschritten: Lovelace hat das Potential, sehr gut und sehr langlebig zu werden. Zu wenig Speicher wären einfach sehr schade. Und Nvidias Lovelace Chips sind hinsichtlich Speicherinterfaces mMn ja perfekt austariert. Ist nur die Frage, ob Nvidia das unnötigerweise zurückstutzt.

iamthebear
2022-07-06, 13:40:17
Nichtsdestotrotz steigt mit steigender Auflösung der VRAM Bedarf. Oder schon mal 8K Benchmarks angeschaut? https://www.gamestar.de/artikel/geforce-rtx-3090-test,3362239,seite3.html --> Deutlich erhöhter VRAM Bedarf...

Angeforderter VRAM bedeutet nicht benötigter VRAM.

Wenn das VRAM Management des Spiels richtig funktioniert, dann macht das gar nichts wenn etwas weniger VRAM da ist. VRAM ist als Cache anzusehen. Bei 4 von 6 Spielen funktioniert das auch.

Nur AC Odyssey und SoTR haben Probleme mit dem VRAM Management. Das sind mittlerweile aber nicht mehr die modernsten Titel. Im konkreten Fall war es allerdings relativ egal da 20-30fps sowieso auch mit genug VRAM nicht mehr spielbar gewesen wären. Bei zukünftigen Generationen könnten sich diese Spiele aber zu einem Problem entwickeln wenn der Trend weitergeht, dass DRAM nicht mehr shrinked, Logic aber sehr wohl noch.
Dass das Ganze vom Spiel abhängt zeigt z.B. Cyberpunk. Hier gibt es Videos von Leuten, die das Spiel mit 1GB VRAM mit 1080p Native zum Laufen bekommen haben. Zwar sind die Shader der jeweiligen Karten zwar zu langsam für flüssige Frameraten aber fps drops auf Grund des VRAMs gibt es zumindest keine.

Das was jedoch zwangsweise größere Mengen an VRAM braucht ist RT und das dürfte auch wohl der Grund für die VRAM Differenzen sein: 4070 zielt auf 4K Native ab. Da reichen 10GB, 4080 zielt auf 4K + RT ab und da braucht man deutlich mehr.

DrFreaK666
2022-07-06, 14:08:55
Ich denke in Zukunft werden Texturen weiterhin in den VRAM geladen, weshalb man bei 10GB früher oder später an dem Regler spielen muss

aufkrawall
2022-07-06, 14:21:58
4070 zielt auf 4K Native ab. Da reichen 10GB
So ein Unsinn. DL2 belegt mit RT schon in 1440p >10GB und läuft mit DLSS nicht mal auf einer 3070 richtig. Was in nativen 4k los ist, kann man sich denken. Komm mal auf die Realität klar...

basix
2022-07-06, 14:47:49
Angeforderter VRAM bedeutet nicht benötigter VRAM.
Richtig. Ein Indiz für erhöhte Anforderungen ist es dennoch.


Wenn das VRAM Management des Spiels richtig funktioniert, dann macht das gar nichts wenn etwas weniger VRAM da ist. VRAM ist als Cache anzusehen. Bei 4 von 6 Spielen funktioniert das auch.

Was passiert bei zu wenig VRAM, auch wenn das Streaming richtig funktioniert? Texturen oder gar ganze Objekte werden weggelassen. Ist das das Ziel? Bei einer neuen 500+$ Karte?

Meridian12
2022-07-06, 15:44:25
Ich kapiere die ganze Diskussion nicht.

Wie wenn man argumentiert, bei einem Sportwagen reichen ja auch 20 Liter Tankgröße.
Fährt sich super damit und spart Gewicht.

Da kann man ganz normal rumfahren. Muss man halt öfters tanken. Aber weniger Gewicht gleich leichter und schneller. Ist doch super!!!

Nein,20 Liter Tank ist scheisse. Genauso wie 10GB Speichergröße auf einer 500 Euro plus Karte Verarschung ist.

vinacis_vivids
2022-07-06, 16:57:25
Vielleicht verkauft NV wieder echte "12GB" und es stellt sich heraus, dass es 10GB mit voller Bandbreite und 2GB "extra" aufgelöteter Speicher ist. Auf der Verpackung sind es 12GB, also Wayne. Die Kundenschafe kaufen eh wieder wie Lemminge. 😂

BlacKi
2022-07-06, 17:13:27
So ein Unsinn. DL2 belegt mit RT schon in 1440p >10GB und läuft mit DLSS nicht mal auf einer 3070 richtig. Was in nativen 4k los ist, kann man sich denken. Komm mal auf die Realität klar...
mach doch das nächste mal angaben wo oder wie, denn diverse tests bescheinigen das nicht.

https://youtu.be/SNwJt119OU8?t=210


https://abload.de/img/screenshot2022-07-06amnk85.png

aufkrawall
2022-07-06, 17:23:36
mach doch das nächste mal angaben wo oder wie, denn diverse tests bescheinigen das nicht.

https://youtu.be/SNwJt119OU8?t=210


https://abload.de/img/screenshot2022-07-06amnk85.png
Sieht dem transparenten Hintergrund nach nach dem Anfangs-Wald mit viel weniger Objekten aus.
Was schon wieder zeigt, wie viel man auf diverse "VRAM-Tests" gaben kann. Genau wie bei CPU-Limit, ständig völlige Stümper am Werk.

Man muss nur ein Savegame aus der Stadt laden, und da kommen mit Upsampling 960p sofort >9,3GB raus:
https://abload.de/thumb/dyinglightgame_x6a_rwe7jgz.png (https://abload.de/image.php?img=dyinglightgame_x6a_rwe7jgz.png)

Ohne Upsampling >10GB:
https://abload.de/thumb/dyinglightgame_x6a_rw3ekm7.png (https://abload.de/image.php?img=dyinglightgame_x6a_rw3ekm7.png)

Wär ggf. mal, was mit simulierten 8GB via CUDA VRAM Allocator passiert. Schätze mal, nichts Gutes. :freak:

BlacKi
2022-07-06, 17:53:50
Sieht dem transparenten Hintergrund nach nach dem Anfangs-Wald mit viel weniger Objekten aus.
Was schon wieder zeigt, wie viel man auf diverse "VRAM-Tests" gaben kann. Genau wie bei CPU-Limit, ständig völlige Stümper am Werk.

Man muss nur ein Savegame aus der Stadt laden, und da kommen mit Upsampling 960p sofort >9,3GB raus:
[/URL]https://abload.de/thumb/dyinglightgame_x6a_rwe7jgz.png (https://abload.de/image.php?img=dyinglightgame_x6a_rwe7jgz.png)

Ohne Upsampling >10GB:
[URL]https://abload.de/thumb/dyinglightgame_x6a_rw3ekm7.png (https://abload.de/image.php?img=dyinglightgame_x6a_rw3ekm7.png)

Wär ggf. mal, was mit simulierten 8GB via CUDA VRAM Allocator passiert. Schätze mal, nichts Gutes. :freak:
aber reine belegung sagt jetzt nicht viel aus. ich dachte es fehlen texturen oder es gibt slowdowns wie bei HZD, vor dem patch.

Rampage 2
2022-07-06, 18:24:34
4070 zielt auf 4K Native ab. Da reichen 10GB, 4080 zielt auf 4K + RT ab und da braucht man deutlich mehr.

Nein, verdammt nochmal! :rolleyes:

10GB reichen niemals für 4K - zumindest nicht für die schlimmsten Speicherfresser-Games (Beispiele hatte ich in meinem letzten Posting bereits genannt). *Vielleicht* in 1440p für fast alle aktuellen Games - aber auch hier die Schlimmsten (FC6 mit HD-Texturepack + RT, Minecraft RTX mit maximalen RT-Chunks, vielleicht noch ein paar weitere Games) immer noch nicht! Und das sind ja auch nur die aktuellen Titel - wer weiß, was da in Zukunft (kurz-, mittel- oder langfristig) noch kommen wird. Man kauft sich eine GPU nicht für heute, nicht für 1 Jahr, sondern für mehrere Jahre - also muss sie zukunftstauglich sein!

R2

Thunder99
2022-07-06, 18:44:22
Psst, manche wechseln die Grafikkarten wie Unterhosen :freak:

aufkrawall
2022-07-06, 18:52:48
aber reine belegung sagt jetzt nicht viel aus.

Doch, es sagt aus, dass das Spiel mit weniger VRAM im VRAM-Pressure-Modus läuft.


ich dachte es fehlen texturen oder es gibt slowdowns wie bei HZD, vor dem patch.
Und jetzt denkst du das nicht, oder was soll deine komische Formulierung aussagen?
Gibt in HZD mit 10GB 3080 in 4k btw. immer noch schlechter streamende Texturen.

Und habs mit dem CUDA Allocator getestet, gibt zumindest die ersten Minuten mit nur noch ~8,2GB VRAM für das Spiel verfügbar Stocker, die es mit den frei belegten 9,3GB nicht gibt:
https://abload.de/thumb/dyinglightgame_x6a_rw04kk6.png (https://abload.de/image.php?img=dyinglightgame_x6a_rw04kk6.png)

Also 1GB weniger und schon spürt man es. So viel dazu, dass die Anzeige nicht aussagekräftig wäre. Bullshit.

BlacKi
2022-07-06, 19:09:07
puh, einglück hat die 3080 und die 4070 10240mb vram.

bei HZD gabs doch nen patch der die vram auslastung verbesserte, dacht damit wäre man problemfrei unterwegs.

habs spiel ja nicht. sind nicht einfach immer bei allen spielen auf dem letzten stand zu sein.

Psst, manche wechseln die Grafikkarten wie Unterhosen
sollte man auch, wenn man in der performanceklasse bleiben will.

aufkrawall
2022-07-06, 19:18:06
puh, einglück hat die 3080 und die 4070 10240mb vram.

Glück? Das reicht gerade für Sorgenfreiheit mit 960p Renderauflösung (und vielleicht noch nativen 1440p) bei einem bereits erschienenen Spiel. :freak:
Für 400€ könnte man noch drüber reden...

BlacKi
2022-07-06, 19:30:44
ich mag das wort: sorgenfrei.(y)

spiele nehmen sich normalerweiße nicht unendlich speicher. sie sind optimiert für eine vram menge. wenn nv in 5 jahren eine 500€ karte bringt, dann werden die spiele darauf gepatched in der ausgewählten auflösung auch laufen. spiele entwickler wollen nicht, das ihre spiele auf mainstream hw schlecht läuft. zumindest die allermeisten spiele.

das es den grafikfortschritt behindert, da würde ich sogar zustimmen.

aufkrawall
2022-07-06, 20:18:33
Du siehst anhand der 3070, dass dem nicht so ist.

prinz_valium_2
2022-07-06, 21:14:24
Glück? Das reicht gerade für Sorgenfreiheit mit 960p Renderauflösung (und vielleicht noch nativen 1440p) bei einem bereits erschienenen Spiel. :freak:
Für 400€ könnte man noch drüber reden...

So ist es.
Für 399€ würden viel weniger Leute darüber meckern. Aber wenn nVidia 599€ verlangt, müssen sie was bieten, oder eben mit dem Gelächter der Kunden leben.
Und dank Mining-crash, haben nun die Gaming Konsumenten wieder die Macht und sie werden nicht sowieso jede Karte los.

Lurtz
2022-07-06, 21:14:26
bei HZD gabs doch nen patch der die vram auslastung verbesserte, dacht damit wäre man problemfrei unterwegs.

Ich musste mit der 3070 in den Cauldrons die Texturen in den Cauldrons auf very low stellen, weil die Performance sonst komplett eingebrochen ist.

bbott
2022-07-06, 22:55:57
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Tests/RTX-3000-Speichertest-Benchmarks-Reichen-10-GB-1373623/

Wolfenstein Youngblood 4K:
3080 10GB - 49,6fps
3080ti 12GB - 89,6fps

Minecraft RTX 4K 24-chunks:
3080 10GB - 45,6 fps (17fps!!! 1% low)
3080ti 12GB - 67,8fps (48fps 1% low)

Fake! Trump hat getwittert: 10GB reichen für immer! :freak:

bbott
2022-07-06, 23:03:48
Ich kapiere die ganze Diskussion nicht.

Wie wenn man argumentiert, bei einem Sportwagen reichen ja auch 20 Liter Tankgröße.
Fährt sich super damit und spart Gewicht.

Da kann man ganz normal rumfahren. Muss man halt öfters tanken. Aber weniger Gewicht gleich leichter und schneller. Ist doch super!!!

Nein,20 Liter Tank ist scheisse. Genauso wie 10GB Speichergröße auf einer 500 Euro plus Karte Verarschung ist.

Darf ich Auflösen?: Fanboy. Anders kann ich es mir nicht erklären. Grafikkarten mit mehr RAM haben später immer profitiert. Wer jede Gen neu kauft ist es egal, allen andern nicht.

iamthebear
2022-07-07, 04:37:24
Omg was für eine Katastrophe. Nach 2 Jahren das erste Mal ein Spiel gefunden wo man die Details in 4K von Ultra auch Hoch runter schrauben muss. Davon stürzt sofort die Welt ein. Gut, dass die 3080 Ti Käufer die 500 Euro mehr investiert haben, damit sie auf der sicheren Seite sind ;D

Sardaukar.nsn
2022-07-07, 07:23:41
... Gut, dass die 3080 Ti Käufer die 500 Euro mehr investiert haben, damit sie auf der sicheren Seite sind ;D

Zudem ein Jahr mehr auf eine neue Grafikkarte warten mussten, die dann auch noch schneller wieder outdated ist. Trifft aber auch auf die 3090ti zu.

robbitop
2022-07-07, 11:10:56
Man muss konstatieren, dass die VRAM Entwicklung im Moment abnormal ist. Bereits die 1080ti hatte 11 GB. Das war 2016! Vor 6 Jahren. In der gleichen Zeitspanne gab es normalerweise 2x Verdopplungen zuvor. Deshalb waren VRAM Erhöhungen auch erst viel später wirksamer. Jetzt aber mit diesem Stillstand fängt es an, sich langsam bemerkbar zu machen. Wenn man eine neue GPU (speziell in der oberen Mittelklasse oder Highend) kauft, sollte man erwarten, dass es dort für eine Weile keinen VRAM Bottleneck gibt.

IMO ist es längst Zeit für 16 GB in der oberen Mittelklasse. 2016 wurden 8 GB bei der 1070/1080 eingeführt. Die R390 bekam 8 GB sogar bereits 2015. Es wird nach so langer Zeit einfach mal Zeit für eine Verdopplung. IMO gibt es da nicht viel zu diskutieren.

basix
2022-07-07, 11:30:33
Man muss konstatieren, dass die VRAM Entwicklung im Moment abnormal ist. Bereits die 1080ti hatte 11 GB. Das war 2016! Vor 6 Jahren. In der gleichen Zeitspanne gab es normalerweise 2x Verdopplungen zuvor. Deshalb waren VRAM Erhöhungen auch erst viel später wirksamer. Jetzt aber mit diesem Stillstand fängt es an, sich langsam bemerkbar zu machen. Wenn man eine neue GPU (speziell in der oberen Mittelklasse oder Highend) kauft, sollte man erwarten, dass es dort für eine Weile keinen VRAM Bottleneck gibt.

IMO ist es längst Zeit für 16 GB in der oberen Mittelklasse. 2016 wurden 8 GB bei der 1070/1080 eingeführt. Die R390 bekam 8 GB sogar bereits 2015. Es wird nach so langer Zeit einfach mal Zeit für eine Verdopplung. IMO gibt es da nicht viel zu diskutieren.

Das hat zwei gute Gründe:
- Das historische DRAM Scaling ist seit ~2017 faktisch am Ende, nur noch geringe Fortschritte bei neuen Nodes (+10...30% Density)
- Schneller Speicher wurde eher teurer als günstiger (G5 vs. G6 vs. G6X)

Deswegen ist klar, dass sich hier Kapazitätserweiterungen verlangsamen oder gar stagnieren. Und dass deswegen intensiviert nach intelligenteren Alternativen geforscht wird (z.B. Direct Storage & Sampler Feedback Streaming).

Microsoft hat das DRAM Kosten-Dilemma in ihrer Hot Chips Präsentation zur XBSX anschaulich dargestellt: https://www.tweaktown.com/news/74558/xbox-series-xs-ssd-was-13-years-in-the-making/index.html)

https://static.tweaktown.com/news/7/4/74558_11_xbox-console-team-was-planning-to-switch-ssd-flash-since-2007_full.jpg

Und bei der momentanen Situation, welche durch die Pandemie drastisch beschleunigt wurde, gab es zusätzliche Kostensteigerungen.

Ich sehe mittel- bis langfristig folgende Speichermengen als optimal an:
- Low End = 8GB
- Mainstream = 12 GB
- High End = 16 GB
- Enthusiast = 24GB

Wieso? Genug für alte, aktuelle wie neue Spiele. Und sollte auch für zukünftige Spiele reichen. Das kann von mir aus dann sehr lange so bleiben (2030?). Und weitere Verbesserungen dann bitte wie oben beschrieben mit intelligenten Lösungen und nicht mittels Brute Force mehr Speicher (Direct Storage, SFS, Nanite, DLSS/FSR/XeSS/TSR, optimierten RT Algorithmen, verbesserten Textur-Kompressionsalgorithmen, ...)

BlacKi
2022-07-07, 12:12:46
Ich musste mit der 3070 in den Cauldrons die Texturen in den Cauldrons auf very low stellen, weil die Performance sonst komplett eingebrochen ist.fuhny, weil man anfangs keine performance probleme hatte, sondern die texturen nicht richtig geladen wurden, weil kein platz.


daher weiß ich nicht, ob ich dir das abkaufen soll oder nicht.

fulgore1101
2022-07-07, 12:18:07
Zum Thema 10 bzw. 12 Gb Vram sind genug:
https://www.pcgameshardware.de/Far-Cry-6-Spiel-72873/Specials/Far-Cry-6-Technical-Review-Benchmarks-1380782/2/

Far Cry 6, 4K max Details, HD Texturen, Raytracing

RTX 3080 6,2/5,5 FPS/P1
RTX 3060 28,5/26 FPS/P1


Deathloop:
https://www.pcgameshardware.de/Deathloop-Spiel-67696/Specials/Benchmark-Test-Review-Systemanforderungen-1379400/2/

Das wichtige steht im Text noch vor den Balken. Will das aber hier nicht alles zitieren, denn die Arbeit darf durchaus auch mit einem Klick belohnt werden! :)

Final Fantasy 15:
https://www.pcgameshardware.de/Final-Fantasy-15-Spiel-118/Specials/Technik-Test-1251681/

Zitat: Die Performance der verwendeten Titan X (Pascal) @ 2.000/5.500 MHz ist in "echtem" 4K (4.096 × 2.160) nicht überragend, mit den erzielten 40 bis 50 Fps aber gut spielbar. Gelegentliche, fühlbare Slowdowns durchziehen das Geschehen, was definitiv am hohen Datenaufkommen liegt: Final Fantasy XV adressiert schlimmstenfalls den kompletten, 12 GiByte fassenden Grafikspeicher aktueller Titan-Grafikkarten. Das führt zu Stockern mit anschließender Teilleerung des Speichers (purge).

robbitop
2022-07-07, 12:26:44
Das hat zwei gute Gründe:
- Das historische DRAM Scaling ist seit ~2017 faktisch am Ende, nur noch geringe Fortschritte bei neuen Nodes (+10...30% Density)
- Schneller Speicher wurde eher teurer als günstiger (G5 vs. G6 vs. G6X)

Deswegen ist klar, dass sich hier Kapazitätserweiterungen verlangsamen oder gar stagnieren. Und dass deswegen intensiviert nach intelligenteren Alternativen geforscht wird (z.B. Direct Storage & Sampler Feedback Streaming).

....

Wieso? Genug für alte, aktuelle wie neue Spiele. Und sollte auch für zukünftige Spiele reichen. Das kann von mir aus dann sehr lange so bleiben (2030?). Und weitere Verbesserungen dann bitte wie oben beschrieben mit intelligenten Lösungen und nicht mittels Brute Force mehr Speicher (Direct Storage, SFS, Nanite, DLSS/FSR/XeSS/TSR, optimierten RT Algorithmen, verbesserten Textur-Kompressionsalgorithmen, ...)
Die Gründe dafür sind mir klar - dennoch muss es irgendwann auch mal eine Verdopplung geben. Die 399 UVP PS5 bietet 16 GB GDDR Speicher. Da sollten reine GPUs der nächsten Generation für wesentlich mehr UVP als die PS5 es auch möglich machen können. (AMD bietet das mit Navi ja auch schon ab der RX6800 Vanilla ja schon seit 2020). Selbst wenn VRAM knapp ausreicht und die Average FPS gut aussehen hat man keine Lust auf Frametimespikes wenn es dochmal hin und wieder knapp wird.

Ich frage mich außerdem was aus HBCC geworden ist. Der Ansatz war ja nicht schlecht. Die Upsamplingverfahren sparen btw gar nicht so viel VRAM. Der Backbuffer ist ja trotzdem in voller Auflösung und die Assets werden dank angepasstem LoD ja auch in voller Größe geladen.

BlacKi
2022-07-07, 12:34:13
ist ja nichts neues das 4k nativ +RT problematisch ist.

ich bin gespannt, welche uvp nv wirklich vorhat. man merke, die 4070 ist ein salvage ad104. das äquivalent einer 3060ti mit 399$ uvp.

basix
2022-07-07, 13:23:07
Die Gründe dafür sind mir klar - dennoch muss es irgendwann auch mal eine Verdopplung geben. Die 399 UVP PS5 bietet 16 GB GDDR Speicher. Da sollten reine GPUs der nächsten Generation für wesentlich mehr UVP als die PS5 es auch möglich machen können.
Ist eine Frage der Zielmarge. Die PS5 wird über Spiele Quersubventioniert. Und die GDDR6 Preise sind eben gestiegen, nicht gesunken. Klar 16GByte für 499$ sind auch unter diesen Umständen denkbar, wird bezüglich Marge allerdings nicht im Sinne von AMD liegen. Deswegen ja der gesunde Mittelweg: 12 GByte. Nicht zu viel. Nicht zu wenig.


Ich frage mich außerdem was aus HBCC geworden ist. Der Ansatz war ja nicht schlecht. Die Upsamplingverfahren sparen btw gar nicht so viel VRAM. Der Backbuffer ist ja trotzdem in voller Auflösung und die Assets werden dank angepasstem LoD ja auch in voller Größe geladen.
Weiss auch nicht, wieso der HBCC nicht mehr verwendet wird. Aber vielleicht sehen wir ja ein Revival. Vega hatte einige interessante Features mitgebracht. Der Draw Stream Binning Rasterizer und die Next Gen Geometry Engine sind jetzt erst mit RDNA3 mit vollgas unterwegs. Vielleicht kommt HBCC noch oben drüber. Im Prinzip ist der Infinity Cache aber bereits eine neue Stufe des HBCC: High Bandwith Cache = IF$, Remote Memory = VRAM.

robbitop
2022-07-07, 14:22:46
Wie gesagt: AMD zeigt mit der 6800, dass es zumindest im sub 1000 EUR Bereich möglich ist (aktuell für 669 EUR). Und das zur current gen. Zumindest bei AD102/N31 erwarte ich nicht weniger als 16 GB.

Wobei der IF$ bei VRAM Mangel nicht groß helfen wird IMO.

BlacKi
2022-07-07, 14:34:14
möglich hin oder her. auch die performance der 3080 hat nur wegen den 10gb so niedrig angeboten werden können, gründe? portfoliogestaltung.

wenn als die 4070 wegen den 10gb eine besonders attraktive preisgestaltung bekommt wie bei der 3080, dann kann man das so stehen lassen.

die ti wird dann die 12gb bringen. wohl mit deutlichem preisaufschlag, um dann in 1-2 spielen vl in einzelnen szenen probleme zu bekommen? imho sollte man das nicht pauschal verurteilen.

aufkrawall
2022-07-07, 14:43:14
Omg was für eine Katastrophe. Nach 2 Jahren das erste Mal ein Spiel gefunden wo man die Details in 4K von Ultra auch Hoch runter schrauben muss. Davon stürzt sofort die Welt ein. Gut, dass die 3080 Ti Käufer die 500 Euro mehr investiert haben, damit sie auf der sicheren Seite sind ;D
Wenn du alles so verzerrt einordnest, damit es dir in den Kram passt, sind deine bisherigen Äußerungen wohl nicht verwunderlich. Folglich sind Diskussionen mit dir nichts weiter als sich im Kreis drehende Zeitverschwendung -> ignore. :redface:

robbitop
2022-07-07, 15:29:21
Frametime Spikes würden mir schon reichen um frustriert zu sein. Ehrlich gesagt sogar schon das reine Potenzial dessen.

aufkrawall
2022-07-07, 15:35:52
Diese Meinung teile ich. Man weiß halt nie, ob das Spiel mit dem Pressure gut umgehen kann, so lala, oder ob es in einem neuen Gebiet auf einmal massive Probleme gibt.
Mir schleierhaft, wie man das so schönreden kann. :confused:
Und wenn ich eine teure Karte mit mächtiger RT-Performance hab, will ich davon auch was sehen, und nicht in RT-Vorzeigetiteln hässliche Kompromisse eingehen müssen. :freak:

The_Invisible
2022-07-07, 15:42:03
Wir sind halt die "Nerds" hier, den meisten sagt Frametime und Spike genau gar nichts. ;)

Jensen wird wieder seine "fastest gpu ever" und "RTX on" Floskel raushauen und den Speicher dann irgendwann am Schluss der Präsi auf einer Folie klein herzeigen oder verkaufts sogar als improvement. Die Leute kaufen dann trotzdem wie blöde weil die meisten ja auch gar keinen Anhaltspunkt haben was "viel Speicher" eigentlich ist.

Bin aber trotzdem gespannt wenn die 4070 10GB so kommt und bei PCGH bei Raff im Test ist und welche Phrasen da fallen :D