PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Neurosphere
2022-12-19, 19:52:54
Es scheint noch keinen RDNA 4 Thread zu geben, falls doch bitte löschen.

https://twitter.com/All_The_Watts/status/1604890063636426752

https://pbs.twimg.com/media/FkW3AJIXEAUDf_2?format=jpg&name=medium

https://pbs.twimg.com/media/FkW3AUJWIAQraWC?format=jpg&name=medium

https://pbs.twimg.com/media/FkW3AflXoAEVNL5?format=jpg&name=medium

Diesmal also GCD als IO, GCX für die WGPs und MCD.

aceCrasher
2022-12-19, 21:19:57
Gibt es zu der 3x GCX Theorie schon Infos/Rumors/Leaks, oder ist das nur eine Vermutung? Ich tippe weiterhin auf 1x GCD.

Neurosphere
2022-12-19, 22:21:34
Gibt es zu der 3x GCX Theorie schon Infos/Rumors/Leaks, oder ist das nur eine Vermutung? Ich tippe weiterhin auf 1x GCD.

Siehe Link zu Twitter. "Rumour", mehr ist es derzeit noch nicht und auch sonst gibt es keine Infos.

Unmöglich ist das aber nicht und wäre auch der Schritt den viele (mich eingeschlossen) bereits für N31 vermutet hatten. Ein GCD (bei N3x) das je nach Klasse (31,32,33) jeweils unterschiedlich oft verwendet wird. Spart halt unterschiedliche Chips.

Im Endeffekt entspricht das den damaligen, anfänglichen RDNA 3 Gerüchten.

amdfanuwe
2022-12-19, 22:31:52
Mal lieber abwarten bis verlässliche Infos rauskommen, also bis etwa 1 Woche vor Vorstellung seitens AMD.
Schraubt sonst nur die Erwartungen hoch und vom Produkt ist man nachher enttäuscht.

basix
2022-12-19, 22:35:58
So neu ist dieser "Rumor" nicht :D
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13173424#post13173424

MSABK
2022-12-19, 23:07:03
Mal lieber abwarten bis verlässliche Infos rauskommen, also bis etwa 1 Woche vor Vorstellung seitens AMD.
Schraubt sonst nur die Erwartungen hoch und vom Produkt ist man nachher enttäuscht.

Schlechter als aktuell kann es nicht mehr werden.

Nightspider
2022-12-20, 00:09:08
Patente dazu gab's ja schon vor Jahren.
Das es genau so umgesetzt wird muss aber nicht sein.

Neurosphere
2022-12-20, 10:17:58
https://wccftech.com/amd-rdna4-rumored-specifications-monstrous-129-fp32-tflops-gpu-gddr7-3-5-ghz-clock-rates-and-more/?utm_source=dlvr.it&utm_medium=twitter

Ist halt RGT, aber hey.

https://cdn.wccftech.com/wp-content/uploads/2022/12/slide1-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide2-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/SLIDE3-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide4-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide5-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide6-1456x819.jpg

maximus_hertus
2022-12-20, 11:22:15
Das liest sich eher wie ein Wunschzettel ;)

Vieles könnte ein copy und paste aus den early RDNA3 "rumors" sein, hört sich fast genauso an.

Bis RDNA4 wird ja noch viel Zeit vergehen, vor Ende 2024 wird da wohl nichts kommen. "Ernsthafte" Gerüchte / Leaks wird es wohl nicht vor Sommer 2024 geben, wenn überhaupt (so früh).

Der_Korken
2022-12-20, 12:35:01
Bei den N41 vs N31 Vergleichen könnte 2x Performance vielleicht stimmen, wenn man den aktuellen Zustand des Chips nimmt. Der Stock-Takt ist irgendwas mit 2,6x Ghz, d.h. mit >3,5Ghz bei N41 hätte man schon >30% allein durch den Takt raus. Zusammen mit 50% mehr CUs wären das in der Theorie +100%. Praktisch skaliert das natürlich nicht 1:1, aber wenn die RT-Leistung deutlich aufgebohrt wird, sollte es im Schnitt für +100% reichen. Bei N42 vs N32 sieht das imho anders aus, wenn wir bei N32 die >3,2Ghz in Games sehen, die N31 nur in compute schafft. Dito für einen hypothetischen Respin "N31+".

davidzo
2022-12-20, 13:44:20
Die RT-Leistung muss mehr als aufgebohrt werden. Man braucht eine völlig neue RT Architektur in Hardware.

AMD mag gedacht haben dass man durch das Gewicht der Konsolen die Richtung vorgeben kann wie RT auch auf dem PC implementiert und genutzt wird. Eine Zeit lang sah es auch so aus, denn RDNA2 performte in Titeln die nach RX6000 gelauncht wurden ganz gut.
Aber die haben nicht mit RTX Remix gerechnet. Die jüngsten RT remakes von Klassikern sind eine absolute Katastrophe für RDNA2 und RDNA3.
- Portal RTX: Da ist ne 3080ti 12x so schnell und die 4090 27x so schnell wie eine 6900XT
- Quake2 RTX: RX6000 ist unspielbar und Faktor 2-3x langsamer als RTX3000, ebenso rx7000 vs rtx4000
- Minecraft RTX: alle AMD Karten sind unspielbar, RTX3000 sind 2x schneller, RTX4000 200-500%
- Witcher 3 Nextgen: Die 4080 liefert hier die 1,5-2,5fache performance der 7900XTX
- CP2077: Die 3090 ist 2x so schnell wie die 6900xt, die 4090 sogar 2,3x gegenüber der 7900xtx.


Anfangs dachte ich das wären Ausnahmen, weil per RTX remix gebaut oder mit Vollbild-Pathtracing. Kann schon sein dass RTX Remix das neue hairworks ist, also absichtlich nur auf nvidia Karten läuft.
Aber da sind auch native Spiele drin die nicht mit RTX Remix gebaut sind. Ich schätze eher dass AMDs Architektur einfach überhaupt nicht für fullscreen path tracing geeignet ist.

Und ich fürchte dass die Remix Spiele uns besonders aufzeigen wo die Reise hingeht: Wenn man in einem einfachen Spiel wie Portal die komplette dynamische Beleuchtung durch fullscreen path tracing ersetzt, dann kostet das halt soviel Leistung wie hier zu sehen. Aber das ist die Zukunft, weil das den Workflow der Entwickler erheblich vereinfacht, ohne texture baking, etc.
RTX nur sparsam einzusetzen und dabei noch eine gute Ästhetik zu erzeugen kostet viel Entwickler-Overhead die Dinge händisch zu optimieren, abzuwägen ob für den jeweiligen Effekt RT oder Rasterizing zum Zuge kommt. Das ist extraaufwand den sich nur große Studios leisten können und für Crossplay-Titel erforderlich ist. Kleine Studios werden sich in Zukunft eher zwischen rasterizing only und einer einfachen aber leistungsfressenden RT Implementierung entscheiden, z.B. Vollbild-Pathtracing. 70% der Gamer haben sowieso nvidia-Karten und für die mit alten GPUs oder AMD bleibt ja noch die non-RT Version. Die Performance-optimierten RT Imoplementierungen bleiben da weg, die Spiele werden also in der Zukunft mehr wie die Egde-Cases die wir in Portal RTX, Minecraft RTX und Witcher Nextgen schon sehen.

DrFreaK666
2022-12-20, 13:52:05
... Kleine Studios werden sich in Zukunft eher zwischen rasterizing only und einer einfachen aber leistungsfressenden RTX Implementierung entscheiden. Die Performance-optimierte RT Version bleibt da weg, die Spiele werden also mehr wie die Egde-Cases die wir bei Portal RTX und Witcher Nextgen schon haben.

Kleine Studios sind nicht interessiert, dass ihr Spiel nur auf RTX4000 Karten vernünftig läuft. Das geht nur wenn Nvidia mit $$ aushilft.
Viele Indie-Games erscheinen aktuell weiterhin für die Switch.

Neurosphere
2022-12-20, 13:56:58
- Portal RTX: Da ist ne 3080ti 12x so schnell und die 4090 27x so schnell wie eine 6900XT
- Quake2 RTX: RX6000 ist unspielbar und Faktor 2-3x langsamer als RTX3000, ebenso rx7000 vs rtx4000
- Minecraft RTX: alle AMD Karten sind unspielbar, RTX3000 sind 2x schneller, RTX4000 200-500%
- Witcher 3 Nextgen: Die 4080 liefert hier die 1,5-2,5fache performance der 7900XTX
- CP2077: Die 3090 ist 2x so schnell wie die 6900xt, die 4090 sogar 2,3x gegenüber der 7900xtx.


Du redest hier aber auch von NV gesponserten Spielen. Du kannst RT so weit aufdrehen das der Effekt aber keinen optischen Nutzen mehr bringt, die HW aber nunmal ans Limit getrieben wird.

Sowas wird genau hier getan und wenn NV hier nicht Sponsern würde, gäbe es die Spiele so vermutlich nicht mal.

Keine Frage, RT ist die Zukunft, aber was derzeit läuft geht eher dahin das NVs Marketing wunderbare Arbeit leistet.

Linmoum
2022-12-20, 14:03:43
Nvidia "sponsert" genau genommen nichts bei RTX Remix, die haben extra ein eigenes Studio dafür gegründet, von dem auch schon Quake II und jetzt Portal kamen.

Gesponserte Spiele haben sowohl NV als auch AMD, da nehmen sich beide nichts. Der Unterschied ist halt, dass bei AMD da leider immer eher... weniger bei rumkommt.

Wäre schön, wenn AMD solche (Open Source) Tools wie mit RTX Remix hätte. Leider ist sowas aber auch nicht in Sicht.

davidzo
2022-12-20, 14:03:46
Ich rede nicht von Indie Games. Das ist nicht das gleiche wie kleine Studios. "Indie Games" sind schon eher ein mainstream Genre heutzutage ;D

Aber kleine Entwickler wie z.B. Slavic Magic, aber selbst Mittelgroße Nischen-Genre Studios wie Relic sind sicher froh über jedes Tool das ihnen Arbeit abnimmt. Da heißt es entweder kein RT (Manor Lords) oder eben eine schnell hingezauberte RTX Studio-Implementierung.

Ich habe derzeit eine 5700XT, spiele fast ausschließlich pc-only Titel und Nischen genres wie RTS. Aber die nächste Karte muss wohl eine Nvidia werden, denn ich sehe dass fast alle Spiele die ich bisher spiele sowie auf welche ich warte aus AMD langsamer laufen:
- KCD
- M&B II Banner Lords
- AOE IV
- Coh 3
- Manor Lords
tbc

maximus_hertus
2022-12-20, 14:07:44
Gefühlt verliert RT ein gewisses Momentum. Ja, es kommen, auch durch RTX Remix, mehr RT Spiele raus, baer bis auf 1-2% der Zocker kann das niemand flüssig spielen.

Nehmen wir mal Witcher 3 RT Ultra, aber mit DLSS Quality in 1080p. Selbst eine 3080 schafft gerade so die 60 fps, eine 3070 liegt deutlich unter 60fps.

Bei 1440p, der aktuellen Sweetspot für viele Gamer, sieht es noch desaströser aus. Nur 3090 Ti (nicht die Vanilla 3090) und die 4080+4090 schaffen 60 fps (mit DLSS).


Bei Portal RTX ist es ja auch sehr übel. Für Full HD braucht man mindestens die 4080 für 60 fps. 1440p reicht nichtmal die 4090 (für 60 fps).
Erst mit DLSS wird es besser. 1440p und DLSS -> ab 3090 die 60fps. 4K? Niet. Nichtmal die 4090.


Spielt es da eine Rolle, ob eine "kleinere" Geforce 25fps und die Radeon nur 10 fps schafft? Beides quasi unspielbar bzw. 0 Spaß Faktor.


Wenn die nächsten RT Releases weiter so performen und die PReise für Grafikkarten weiter nur eine Richtung kennen (nach oben), könnte RT in der Spielerschaft deutlich an Momentum verlieren (als neuer Standard statt Raster only).

Versteht mich nicht flasch, RT kann ein echter (positiver) Gamechanger sein, aber so lange nur 1-2% der Zocker das flüssig zocken können, wird es keine große Relevanz bekommen.

Neurosphere
2022-12-20, 14:09:44
Nvidia "sponsert" genau genommen nichts bei RTX Remix, die haben extra ein eigenes Studio dafür gegründet, von dem auch schon Quake II und jetzt Portal kamen.

Gesponserte Spiele haben sowohl NV als auch AMD, da nehmen sich beide nichts. Der Unterschied ist halt, dass bei AMD da leider immer eher... weniger bei rumkommt.

Wäre schön, wenn AMD solche (Open Source) Tools wie mit RTX Remix hätte. Leider ist sowas aber auch nicht in Sicht.

So meinte ich das nicht. Aber würde NV kein Geld springen lassen gäbe es die Spiele garnicht und bei CP würde es wohl keinen Overdrive Mode geben der nur dazu dient die 4090 in einem tollen Licht darstehen zu lassen. So viel besser als die bisherigen RT Modi wird das ganze aber wohl eher nicht ausshen, wenn man überhaupt mit dem Auge Unterschiede erkennen kann.

Ich rede nicht von Indie Games. Das ist nicht das gleiche wie kleine Studios. "Indie Games" sind schon eher ein mainstream Genre heutzutage ;D

Aber kleine Entwickler wie z.B. Slavic Magic, aber selbst Mittelgroße Nischen-Genre Studios wie Relic sind sicher froh über jedes Tool das ihnen Arbeit abnimmt. Da heißt es entweder kein RT (Manor Lords) oder eben eine schnell hingezauberte RTX Studio-Implementierung.

Ich habe derzeit eine 5700XT, spiele fast ausschließlich pc-only Titel und Nischen genres wie RTS. Aber die nächste Karte muss wohl eine Nvidia werden, denn ich sehe dass fast alle Spiele die ich bisher spiele sowie auf welche ich warte aus AMD langsamer laufen:
- KCD
- M&B II Banner Lords
- AOE IV
- Coh 3
- Manor Lords
tbc

Was willst du dir denn holen, eine 4080 für 1500€? Selbst wenn die 7900 nicht so ausgefallen ist wie angekündigt, sie bietet trotzdem am meisten fürs Geld zumindest in Raster.

davidzo
2022-12-20, 14:11:46
Du redest hier aber auch von NV gesponserten Spielen. Du kannst RT so weit aufdrehen das der Effekt aber keinen optischen Nutzen mehr bringt, die HW aber nunmal ans Limit getrieben wird.

Sowas wird genau hier getan und wenn NV hier nicht Sponsern würde, gäbe es die Spiele so vermutlich nicht mal.

Keine Frage, RT ist die Zukunft, aber was derzeit läuft geht eher dahin das NVs Marketing wunderbare Arbeit leistet.

Wie gesagt, ich glaube nicht dass es nur an RTX Remix liegt, sondern auch einfach daran dass die games fullscreen pathtracing nutzen.
Und das legt auf AMD Karten die unterirdische RT-Rohleistung von RDNA2+3 offen.
Bei selektiven RT Effekten mag AMDs-Lösung ja noch gut performen und die Ressourcen gleichmäßig ausnutzen, aber aber einer bestimmten pathtracing Auflösung gibt es einfach massive Bottleneckes bei RDNA.

Wenn du diese Ansicht Challengen willst, dann bitte mit Beweisen. Zeig mir ein full pathtracing game welches gut auf RDNA2/3 läuft bitte!



Nehmen wir mal Witcher 3 RT Ultra, aber mit DLSS Quality in 1080p. Selbst eine 3080 schafft gerade so die 60 fps, eine 3070 liegt deutlich unter 60fps.

Bei 1440p, der aktuellen Sweetspot für viele Gamer, sieht es noch desaströser aus. Nur 3090 Ti (nicht die Vanilla 3090) und die 4080+4090 schaffen 60 fps (mit DLSS).
Erstens spielt man das grundsätzlich mit DLSS und zweitens ist Witcher ein Singleplayer RPG wo 60FPS völlig ausreichen. Hell, meine Freundin spielt es mit 30FPS Cap + FSR in High auf der Steamdeck und findet das "sehr flüssig".
Wir sollten nicht Ambiente RPGs mit competitive gaming auf 144Hz Monitoren vergleichen. Für competitive spielt man sowieso besser mit textures, foilage und effects auf Min damit man die Gegner besser sieht.




Was willst du dir denn holen, eine 4080 für 1500€? Selbst wenn die 7900 nicht so ausgefallen ist wie angekündigt, sie bietet trotzdem am meisten fürs Geld zumindest in Raster.

Ich kann warten. Habe ja gerade erst auf die gebrauchte 5700xt upgegradet von einer gtx980 :biggrin:
Alle games die ich aufgelistet habe laufen ja einigermaßen drauf. Aber wie sich das jetzt schon abzeichnet wird in 1-2 Jahren weder rx6000 noch rx7000 ein Upgradepfad für mich sein. Meine Spiele sind einfach zu sehr Nischenspiele und da kümmert sich AMD leider einen Dreck um Entwicklersupport.

In 2 Jahren wird mehr als jedes zweite Spiele mit RT launchen. Und ich glaube nicht dass die RT Implementierung bei Nischenspielen so aussieht wie AMDs volloptimierte Konsolenimplementierungen, sondern eher so wie Nvidia RTX Remix Spiele.

Das ist was ich annehme.
Es kann sein dass ich falsch liege, aber ich meine einen gewissen Trend zu erkennen der AMD Produkte nicht besonders gnädig altern lässt.

Neurosphere
2022-12-20, 14:23:05
Wie gesagt, ich glaube nicht dass es nur an RTX Remix liegt, sondern auch einfach daran dass die games fullscreen pathtracing nutzen.
Und das legt auf AMD Karten die unterirdische RT-Rohleistung von RDNA2+3 offen.
Bei selektiven RT Effekten mag AMDs-Lösung ja noch gut performen und die Ressourcen gleichmäßig ausnutzen, aber aber einer bestimmten pathtracing Auflösung gibt es einfach massive Bottleneckes bei RDNA.

Wenn du diese Ansicht Challengen willst, dann bitte mit Beweisen. Zeig mir ein full pathtracing game welches gut auf RDNA2/3 läuft bitte!

Das kann ich nicht, aber du verstehst mein Argument auch nicht. Was bringt dir Path-Tracing außer das es rein Technisch ein tolles Feature ist? Es kostet halt unglaublich viel Performace, der optische Gewinn ist aber verdammt klein, wenn er denn zu einfachem RT überhaupt Vorhanden ist. ich wüsste kein Spiel das beides bietet damit man mal Vergleiche anstellen kann.


Ich kann warten. Habe ja gerade erst auf die gebrauchte 5700xt upgegradet von einer gtx980 :biggrin:
Alle games die ich aufgelistet habe laufen ja einigermaßen drauf. Aber wie sich das jetzt schon abzeichnet wird in 1-2 Jahren weder rx6000 noch rx7000 ein Upgradepfad für mich sein. Meine Spiele sind einfach zu sehr Nischenspiele und da kümmert sich AMD leider einen Dreck um Entwicklersupport.

In 2 Jahren wird mehr als jedes zweite Spiele mit RT launchen. Und ich glaube nicht dass die RT Implementierung bei Nischenspielen so aussieht wie AMDs volloptimierte Konsolenimplementierungen, sondern eher so wie Nvidia RTX Remix Spiele.
Das ist was ich annehme, kann sein dass ich falsch liege, aber ich meine einen gewissen Trend zu erkennen der AMD Produkte nicht besonders gnädig altern lässt.

Generell stimme ich dir zu, aber NV macht auch gerade die "Kill your own Child" Taktik und lässt die 30xx mit der 40xx als extrem altes Eisen dastehen. Abwarten wie sich das entwickelt, aber gerade deine Liste oben (RTX Titel) zeigt eher wo geschickt eine flasche Wahrnehmung des Marktes erzeugt wird.

w0mbat
2022-12-20, 14:31:57
Erstens spielt man das grundsätzlich mit DLSS und zweitens ist Witcher ein Singleplayer RPG wo 60FPS völlig ausreichen. Hell, meine Freundin spielt es mit 30FPS Cap + FSR in High auf der Steamdeck und findet das "sehr flüssig.
:freak:

Wir sind echt in der besten timeline! Da kauft man sich ne 2500€+ Karte und bekommt erklärt, dass 1440p das höchste der Gefühle ist und 60 FPS eigentlich auch völlig ausreichen. Argument: das Empfinden der eigenen Freundin.

Kannst du dir echt nicht ausdenken. Wenn die Lederjacke morgen sagt, 800p und 30 FPS sind geil, wird das gefeiert (die Freundin findets ja auch supi!). OMG, selten so einen traurigen und zugleich witzigen Kommentar gelesen ;D

DrFreaK666
2022-12-20, 14:35:32
...Es kann sein dass ich falsch liege, aber ich meine einen gewissen Trend zu erkennen der AMD Produkte nicht besonders gnädig altern lässt.

Bisher war es eher so, dass AMD-Hardware mit den Jahren besser gealtert ist. Kann mit RT natürlich anders aussehen

Neurosphere
2022-12-20, 14:46:49
Ist jetzt das einzige das ich gefunden habe, leider schon etwas älter:

UL_Em8uf5LI

Ich sehe hier ab RT auf Mittel keine wirklichen Unterschiede mehr, außer das die Performance zu Ultra laut CB um ca. 20-25% einbricht. Jene Unterschiede würd ich beim Spielen aber nicht wahrnehmen.

Wozu noch einen Psycho oder Overdrive Mode?!? Sorry, das ist Marketing BS durch NV.

davidzo
2022-12-20, 15:55:12
Das kann ich nicht, aber du verstehst mein Argument auch nicht. Was bringt dir Path-Tracing außer das es rein Technisch ein tolles Feature ist? Es kostet halt unglaublich viel Performace, der optische Gewinn ist aber verdammt klein, wenn er denn zu einfachem RT überhaupt Vorhanden ist. ich wüsste kein Spiel das beides bietet damit man mal Vergleiche anstellen kann.

Ich habe doch überhaupt nicht behauptet dass es ein technisch tolles Feature ist.
Ich halte es für eine low-effort RT Implementation.
Und damit ist es halt auch so attraktiv für eine größere Verbreitung in Nischen-Spielen die bis 2022 noch kein RT bieten weil es zu viel Aufwand kostete es zu implementieren.
Nur leider bin ich eben kein Triple-A Spiele Fan, sondern spiele genres wo eine Low-effort Lösung das höchste der Gefühle ist. Die Entwickler stecken da mehr Aufwand in gameplay, features und artstyle - was ich auch unterschreiben würde. Bei Grafik und Optimierung gibt man sich mit dem zufrieden was man mit den fertigen SDKs, tools und libraries mitgeliefert bekommt. Und da sieht RTX Studio halt gerade sehr attraktiv aus.

Bisher verzichten diese Titel auf RT, glücklicherweise. Aber ich kann mir eben gut vorstellen dass in 2023-24 viele Nischenspiele eine low effort RT Lösung bekommen statt gar keine. Und in 2024 würde ich schon gerne spätestens upgraden auf was midrangiges oder ne "alte" Highendkarte. Daher ist für mich AMDs RT Architektur nicht zukunftsfähig. Ich spiele jetzt noch ohne RT, ich weiß aber dass dann wenn ich mit RT spielen werde, werden die heutigen AMD highendkarten zu langsam sein.

:freak:
OMG, selten so einen traurigen und zugleich witzigen Kommentar gelesen ;D

Selten einen so nutzlosen Kommentar gelesen der nur den Thread vollspammt anstatt etwas zur Diskussion beizutragen.


Ich sehe hier ab RT auf Mittel keine wirklichen Unterschiede mehr, außer das die Performance zu Ultra laut CB um ca. 20-25% einbricht. Jene Unterschiede würd ich beim Spielen aber nicht wahrnehmen.

Das ist eine TripleA Implementierung, noch dazu cross Plattform, also so ziemlich das Gegenteil von den Spielen die ich meine.
Momentan bekommen TripleA Titel ausgereifte, gutoptimierte RT Implementierung, bei CP2077 zumindest nach langen patchzyklen.
Ich habe CP2077 Overdrive nur erwähnt um zu zeigen wie es um die Rohleistung bestellt ist wenn RT das Bottleneck ist - wie es in all den Nischen-Titeln mit RTX Remix eben der Fall ist.

Ich rechne damit dass die Mehrzahl der Spiele in 2023-24 eine wie auch immer geartete RT Implementierung bekommen. Dass diese an hochoptimierte AAA Titel wie CP2077 heranragt halte ich für die große Ausnahme.

bloodflash
2022-12-20, 17:19:35
- Portal RTX: Da ist ne 3080ti 12x so schnell und die 4090 27x so schnell wie eine 6900XT
- Quake2 RTX: RX6000 ist unspielbar und Faktor 2-3x langsamer als RTX3000, ebenso rx7000 vs rtx4000
- Minecraft RTX: alle AMD Karten sind unspielbar, RTX3000 sind 2x schneller, RTX4000 200-500%
- Witcher 3 Nextgen: Die 4080 liefert hier die 1,5-2,5fache performance der 7900XTX
- CP2077: Die 3090 ist 2x so schnell wie die 6900xt, die 4090 sogar 2,3x gegenüber der 7900xtx.

Diese schlecht optimierten, auf nV zugeschnittenen, von denen gesponsorten Titel heranzuziehen, die teils noch nicht einmal optischen Gewinn bringen und Du nennst das auch noch RTX-Remix...

Die laufen grösstenteils auf der ersten RTX-Generation grottigst bis gar nicht, auf der zweiten RTX-Generation beschissen und auf der dritten RTX-Generation nur auf den Highend-Modellen mit Abstrichen bei Auflösung und FPS. Das sind teils auch nur Grafikdemos ohne Gewinn für den Spieler.

Das ist bestenfallss nett gemeint, aber für die meisten Besitzer von RT-Hardware eher ein Schlag ins Gesicht. Diese Diskussion ist nur noch lächerlich.

DrFreaK666
2022-12-20, 17:25:03
Diese schlecht optimierten, auf nV zugeschnittenen, von denen gesponsorten Titel heranzuziehen, die teils noch nicht einmal optischen Gewinn bringen und Du nennst das auch noch RTX-Remix...

Die laufen grösstenteils auf der ersten RTX-Generation grottigst bis gar nicht, auf der zweiten RTX-Generation beschissen und auf der dritten RTX-Generation nur auf den Highend-Modellen mit Abstrichen bei Auflösung und FPS. Das sind teils auch nur Grafikdemos ohne Gewinn für den Spieler.

Das ist bestenfallss nett gemeint, aber für die meisten Besitzer von RT-Hardware eher ein Schlag ins Gesicht. Diese Diskussion ist nur noch lächerlich.

Portal ist das erste Spiel aus RTX Remix (vielleicht noch Quake 2). Weitere werden sicherlich folgen.
Fand die Idee anfangs gut, aber wenns auf nicht NV-Hardware so scheiße läuft...
https://www.nvidia.com/de-at/geforce/rtx-remix/

davidzo
2022-12-20, 17:42:41
Ich war auch schockiert davon wie schlecht das läuft. Vor allem Portal, das kommt immerhin von Valve, nicht von ein paar Studenten die im Hinterzimmer mal ne RT Demo gebastelt haben. - Obwohl vermutlich ist Valve genau das ;D
Ich rechne fest damit dass es für alle oben genannten Titel noch Patches geben wird mit denen das besser läuft, weil sonst ist es überhaupt nicht attraktiv. Das wird aus 4x performancenachteil vielleicht 2x oder 1.5x machen, aber nichts an der Tendenz ändern.

Es gibt immer mal den einen Titel der auf einer GPU oder bei einem IHV Probleme hat oder erst nach einigen Patches und Treiberupdates vernünftig läuft. Aber diese Häufung zum Jahresende 2022 ist doch mehr als sonst. Und eine Häufung bei kleinen Developern. Ist das wirklich so, dass es auf Nvidia auch unoptimiert läuft und bei AMD immer extra Optimierung braucht?

Ich bin ein großer Fan von AMD Treibern, dem open source Gedanken der viel häufiger vorkommt und der jahrelangen Unterstützung auch mit neuen Features (FSR, FRS2 ftw!). Aber wenn AMD GPUs ab 2023-24 eben nur noch bei mainstream Titeln passabel perfomen und in Nischentiteln durch die vermehrte Nutzung von RT dann abkacken, dann muss ich mir einen anderen IHV suchen.
Ich hoffe das Problem geht AMD mit RDNA4 endlich an, denn sonst werden sie auf dem PC-Markt echt Probleme bekommen.

TheGood
2022-12-20, 17:47:35
Ich habe doch überhaupt nicht behauptet dass es ein technisch tolles Feature ist.
Ich halte es für eine low-effort RT Implementation.
Und damit ist es halt auch so attraktiv für eine größere Verbreitung in Nischen-Spielen die bis 2022 noch kein RT bieten weil es zu viel Aufwand kostete es zu implementieren.
Nur leider bin ich eben kein Triple-A Spiele Fan, sondern spiele genres wo eine Low-effort Lösung das höchste der Gefühle ist. Die Entwickler stecken da mehr Aufwand in gameplay, features und artstyle - was ich auch unterschreiben würde. Bei Grafik und Optimierung gibt man sich mit dem zufrieden was man mit den fertigen SDKs, tools und libraries mitgeliefert bekommt. Und da sieht RTX Studio halt gerade sehr attraktiv aus.

Bisher verzichten diese Titel auf RT, glücklicherweise. Aber ich kann mir eben gut vorstellen dass in 2023-24 viele Nischenspiele eine low effort RT Lösung bekommen statt gar keine. Und in 2024 würde ich schon gerne spätestens upgraden auf was midrangiges oder ne "alte" Highendkarte. Daher ist für mich AMDs RT Architektur nicht zukunftsfähig. Ich spiele jetzt noch ohne RT, ich weiß aber dass dann wenn ich mit RT spielen werde, werden die heutigen AMD highendkarten zu langsam sein.



Selten einen so nutzlosen Kommentar gelesen der nur den Thread vollspammt anstatt etwas zur Diskussion beizutragen.



Das ist eine TripleA Implementierung, noch dazu cross Plattform, also so ziemlich das Gegenteil von den Spielen die ich meine.
Momentan bekommen TripleA Titel ausgereifte, gutoptimierte RT Implementierung, bei CP2077 zumindest nach langen patchzyklen.
Ich habe CP2077 Overdrive nur erwähnt um zu zeigen wie es um die Rohleistung bestellt ist wenn RT das Bottleneck ist - wie es in all den Nischen-Titeln mit RTX Remix eben der Fall ist.

Ich rechne damit dass die Mehrzahl der Spiele in 2023-24 eine wie auch immer geartete RT Implementierung bekommen. Dass diese an hochoptimierte AAA Titel wie CP2077 heranragt halte ich für die große Ausnahme.

Deine Entwiklcer nutzen eher Gamengines wie Unity oder UE5 und damit läuft RT problemlos auf AMD HArdware der ersten generation und auf der zweiten erst Recht.

https://www.gamersglobal.de/video/the-witcher-3-nextgen-update-im-technik-vergleich-pc-vs-ps5-vs-ps4-pro

Hier ein schönes Witcher 3 Vergleich auch mit RT änderungen. Leider sieht man zwischen PS5 und PC FAssung nicht mehr sooo große unterschiede. Ja das ist jetzt wieder underdog washing, aber der nutzen es auszufahren, wie bei den oben genannten Titel ist dann doch nur was für enthusiasten.... Und um Sorry Deppen zu finden die sich ne 4090 kaufen nur wegen RT.

Gipsel
2022-12-21, 10:01:07
Ich war auch schockiert davon wie schlecht das läuft. Vor allem Portal, das kommt immerhin von Valve, nicht von ein paar Studenten die im Hinterzimmer mal ne RT Demo gebastelt haben.Ähm, nein. (https://store.steampowered.com/app/2012840/Portal_with_RTX/)
Portal with RTX is a free DLC for all Portal owners developed by NVIDIA Lightspeed Studios.Oder je nach Sprachsetting auch:
Portal mit RTX ist ein kostenloser Zusatzinhalt für Besitzer von Portal und wurde von NVIDIA Lightspeed Studios entwickelt.

Lehdro
2022-12-21, 12:46:51
Wenn du diese Ansicht Challengen willst, dann bitte mit Beweisen. Zeig mir ein full pathtracing game welches gut auf RDNA2/3 läuft bitte!
Gegenargument: Zeig mir einen full pathtracing Titel der ohne NVs Hilfe/Eigenleistung zustande gekommen ist.

Das heißt zwangsläufig der Code kommt immer schon voll zugeschnitten auf NVs aktuelle Architektur raus (und läuft immer noch absolut beschissen, siehe weiter oben) - wie soll AMD das denn kontern? Es gibt auf Twitter jemanden der den Code anhand des Portal RTX Beispieles mal auseinandergenommen hat. (https://twitter.com/jirayd/status/1601036292380250112) Fazit: Die GPU wird gar nicht belastet mir RT-Berechnungen, da der Shader so absurd groß ist, dass er nur auf NV Hardware vernünftig laufen kann. Es gibt aber keinen technischen Grund das als einen monolithischen Ubershader zu implementieren, da NVs ältere Gens zwar damit umgehen können, es aber erst mit Ada performant wird. Da stimme ich dann hier der Aussage auch zu das NVs RTX push derzeit ein Schlag ins Gesicht der vorherigen RTX Käufer ist: Man muss immer die neueste Gen haben, ansonsten kannst du auch gleich AMD kaufen. "2x schneller", wenn AMD "unspielbar" ist, ob sich da die Relevanz zeigt wage ich nämlich auch arg zu bezweifeln. Da werden aus 10 FPS ganze 20, wow, da freut sich der NV Käufer der last Gen sicher :frown:

Meine Prognose: Die üblichen "Nischenspiele" werden RTX Remix wie der Teufel das Weihwasser meiden, da sie sich durchaus bewusst sind, was die durchschnittliche Käuferschaft im PC hat: Keine RTX 4090 um dann in 1440p mit DLSS auf 60 FPS rumzukrebsen. Niemand will ein neues Crysis oder Ark als Titel herausbringen, die Jahre brauchen damit der durchschnittliche Spieler eine durchschnittliche Performance erwarten kann. Zumal die ganzen RTX Remix Demos auch nur "nett" aussehen: Ich ziehe ein grafisch gut gemachtes Rasterspiel RTX Remix jederzeit vor, was vor allem an der katastrophalen Performance liegt. Grafikdemos waren früher mal cool, Gameplay zieht aber immer. Und gutes Gameplay braucht ein gewisses Grundlevel an Performance das einer möglichst großen Käuferschicht zugänglich sein muss - RTX Remix scheitert da an der Realität für die Masse, sorry.

basix
2022-12-21, 15:10:32
Gegenargument: Zeig mir einen full pathtracing Titel der ohne NVs Hilfe/Eigenleistung zustande gekommen ist.
Gibt es da nicht so Dinge wie Doom Pathraced? Bin aber nicht sicher, ob da der Rendering-Kernel von irgendwo abgekupfert wurde. Ist zumindest nicht Nvidia sponsored oder so.
https://www.notebookcheck.net/A-path-traced-mod-of-Doom-has-been-released.611857.0.html

Es gibt aber keinen technischen Grund das als einen monolithischen Ubershader zu implementieren [...]
Jein. In einer Präsentation von 2021 reden sie davon, dass dies performanter ist. Und da es von Nvidia kommt, wird für Nvidia GPUs "first" entwickelt.
https://research.nvidia.com/publication/2022-03_research-advances-toward-real-time-path-tracing

Wäre für uns sicher cool, wenn Nvidia das auch für AMD und Intel optimieren würde. Das ist allerdings nicht Nvidias Firmenpolitik.

[...]da NVs ältere Gens zwar damit umgehen können, es aber erst mit Ada performant wird. Da stimme ich dann hier der Aussage auch zu das NVs RTX push derzeit ein Schlag ins Gesicht der vorherigen RTX Käufer ist: Man muss immer die neueste Gen haben [...]
Rein schon SER bringt +20%. Dann noch die stärkeren RT-Cores. Für mich sieht es so aus, also ob die neuen RT-Core Features und die höhere Rohleistung von Turing -> Ampere -> Ada durchschlagen. Dass dies für ältere Generationen ein gewollter Nachteil ist? Denke ich nicht. Auf einer 3090 lief die Demo der oben verlinkten Nvidia Präsentation mit 1080p/30fps. Portal RTX in 1080p mit ~45fps. Das läuft anscheinend einfach nicht schneller. Dass es nicht gut performt / die Karten zu langsam sind? Definitiv. Ist mMn aber so, weil das hier wirklich natives Path Tracing in hoher Qualität ist. Und zwar "generalisiertes" Path Tracing. Das hat neben Reatime auch primär den Fokus, für Production verwendbar zu sein. Also ohne Bias und andere Unzulänglichkeiten.

Für Spiele ist dieser Ansatz einfach sehr heavy. Da sind optimiertere und massgeschneiderte Lösungen wie UE5 Lumen hinsichtlich Qualität / Performance sicher im Vorteil. Die Qualität von ReSTIR wird hier aber nicht erreicht, da damit es performanter läuft einige Kompromisse eingegangen werden müssen.

Portal RTX ist für mich also eines: Eine Raytracing/Pathtracing Techdemo. Nicht mehr.

robbitop
2022-12-21, 16:01:27
https://wccftech.com/amd-rdna4-rumored-specifications-monstrous-129-fp32-tflops-gpu-gddr7-3-5-ghz-clock-rates-and-more/?utm_source=dlvr.it&utm_medium=twitter

Ist halt RGT, aber hey.

https://cdn.wccftech.com/wp-content/uploads/2022/12/slide1-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide2-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/SLIDE3-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide4-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide5-1456x819.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/12/slide6-1456x819.jpg

Hatte RGT nicht als erster den IF$ an den hier bis zuletzt keiner glauben wollte bei N21?

robbitop
2022-12-21, 16:04:07
Die RT-Leistung muss mehr als aufgebohrt werden. Man braucht eine völlig neue RT Architektur in Hardware.

AMD mag gedacht haben dass man durch das Gewicht der Konsolen die Richtung vorgeben kann wie RT auch auf dem PC implementiert und genutzt wird. Eine Zeit lang sah es auch so aus, denn RDNA2 performte in Titeln die nach RX6000 gelauncht wurden ganz gut.
Aber die haben nicht mit RTX Remix gerechnet. Die jüngsten RT remakes von Klassikern sind eine absolute Katastrophe für RDNA2 und RDNA3.
- Portal RTX: Da ist ne 3080ti 12x so schnell und die 4090 27x so schnell wie eine 6900XT
- Quake2 RTX: RX6000 ist unspielbar und Faktor 2-3x langsamer als RTX3000, ebenso rx7000 vs rtx4000
- Minecraft RTX: alle AMD Karten sind unspielbar, RTX3000 sind 2x schneller, RTX4000 200-500%
- Witcher 3 Nextgen: Die 4080 liefert hier die 1,5-2,5fache performance der 7900XTX
- CP2077: Die 3090 ist 2x so schnell wie die 6900xt, die 4090 sogar 2,3x gegenüber der 7900xtx.


Anfangs dachte ich das wären Ausnahmen, weil per RTX remix gebaut oder mit Vollbild-Pathtracing. Kann schon sein dass RTX Remix das neue hairworks ist, also absichtlich nur auf nvidia Karten läuft.
Aber da sind auch native Spiele drin die nicht mit RTX Remix gebaut sind. Ich schätze eher dass AMDs Architektur einfach überhaupt nicht für fullscreen path tracing geeignet ist.

Und ich fürchte dass die Remix Spiele uns besonders aufzeigen wo die Reise hingeht: Wenn man in einem einfachen Spiel wie Portal die komplette dynamische Beleuchtung durch fullscreen path tracing ersetzt, dann kostet das halt soviel Leistung wie hier zu sehen. Aber das ist die Zukunft, weil das den Workflow der Entwickler erheblich vereinfacht, ohne texture baking, etc.
RTX nur sparsam einzusetzen und dabei noch eine gute Ästhetik zu erzeugen kostet viel Entwickler-Overhead die Dinge händisch zu optimieren, abzuwägen ob für den jeweiligen Effekt RT oder Rasterizing zum Zuge kommt. Das ist extraaufwand den sich nur große Studios leisten können und für Crossplay-Titel erforderlich ist. Kleine Studios werden sich in Zukunft eher zwischen rasterizing only und einer einfachen aber leistungsfressenden RT Implementierung entscheiden, z.B. Vollbild-Pathtracing. 70% der Gamer haben sowieso nvidia-Karten und für die mit alten GPUs oder AMD bleibt ja noch die non-RT Version. Die Performance-optimierten RT Imoplementierungen bleiben da weg, die Spiele werden also in der Zukunft mehr wie die Egde-Cases die wir in Portal RTX, Minecraft RTX und Witcher Nextgen schon sehen.
Bei PortalRTX hatte auf Twitter mal ein dev drauf geschaut mit AMD Performance tools und herauskam dass es absolut fragwürdig umgesetzt war und die GPU total rumidlet. Die RT HW war laut dem dev nicht der Bottleneck - es ist nur einfach unschön programmiert für nicht rtx GPUs.

Sunrise
2022-12-21, 16:36:09
Bei PortalRTX hatte auf Twitter mal ein dev drauf geschaut mit AMD Performance tools und herauskam dass es absolut fragwürdig umgesetzt war und die GPU total rumidlet. Die RT HW war laut dem dev nicht der Bottleneck - es ist nur einfach unschön programmiert für nicht rtx GPUs.
Das wird mit Garantie aufgeblähter Schrott sein, der möglichst nur auf NV HW optimal läuft… ich denke da braucht man keine Einsicht in den Code. Das ist eben typisch NV. Kommt ja auch initiativ von ihnen, warum sollte man dann den breiten Markt unterstützen… <insert Linus Torvald’s famous quote>

bloodflash
2022-12-21, 17:51:32
Das wird mit Garantie aufgeblähter Schrott sein, der möglichst nur auf NV HW optimal läuft… ich denke da braucht man keine Einsicht in den Code. Das ist eben typisch NV. Kommt ja auch initiativ von ihnen, warum sollte man dann den breiten Markt unterstützen… <insert Linus Torvald’s famous quote>
Das Dumme ist halt, dass gerade diese 5 Spiele immer als "Beweis" herhalten müssen, obwohl bei allen von Anfang an die Ursache für das Performanceverhalten klar war. Nur ein paar Uverbesserliche wollen sich offensichtlich Ihre vierstellige Ausgabe schönreden ; )

davidzo
2022-12-21, 19:15:06
Nvidia Lightspeed Studios
Danke, das erklärt einiges. Valve ist also nur der Publisher. Trotzdem hart dass denen sowas durchrutscht. Das Image färbt natürlich ab wenn so schlecht optimiertes Zeug unter einer so berühmten Valve Brand wie Portal gelauncht wird.

Gibt es da nicht so Dinge wie Doom Pathraced? Bin aber nicht sicher, ob da der Rendering-Kernel von irgendwo abgekupfert wurde. Ist zumindest nicht Nvidia sponsored oder so.
https://www.notebookcheck.net/A-path-traced-mod-of-Doom-has-been-released.611857.0.html

Wie du sagst ist das nur ne Demo und läuft bisher nur auf NV. Wäre aber spannend zu sehen.


Für Spiele ist dieser Ansatz einfach sehr heavy. Da sind optimiertere und massgeschneiderte Lösungen wie UE5 Lumen hinsichtlich Qualität / Performance sicher im Vorteil. Die Qualität von ReSTIR wird hier aber nicht erreicht, da damit es performanter läuft einige Kompromisse eingegangen werden müssen.

Portal RTX ist für mich also eines: Eine Raytracing/Pathtracing Techdemo. Nicht mehr.

Schon klar. Nur denke ich wird es in 2023/24 mehr solche Spiele geben bei denen die Optimierung bestenfalls dem level einer hingeklatschten Techdemo entspricht. Genau wie es aktuell auch viele Rasterizer Spiele gibt die unglaublich wenig optimiert sind. Sie laufen auf aktueller Hardware und das reicht um sie zu verkaufen. In Nischengenres kann man sich das leider nicht aussuchen wieviel Hardwareoptimierung man bekommt und oft wünscht man sich auch zuerst stabilitäts- oder gameplay patches.

Bei PortalRTX hatte auf Twitter mal ein dev drauf geschaut mit AMD Performance tools und herauskam dass es absolut fragwürdig umgesetzt war und die GPU total rumidlet. Die RT HW war laut dem dev nicht der Bottleneck - es ist nur einfach unschön programmiert für nicht rtx GPUs.
Kann ich mir gut vorstellen dass man da noch ne Menge herausholen kann. Bei Portal RTX rechne ich auch mit zumindest einem Patch von AMD im nächsten Treiber, wenn nicht sogar direkt einen Gamepatch von Valve/Lightspeed.

Das Dumme ist halt, dass gerade diese 5 Spiele immer als "Beweis" herhalten müssen, obwohl bei allen von Anfang an die Ursache für das Performanceverhalten klar war. Nur ein paar Uverbesserliche wollen sich offensichtlich Ihre vierstellige Ausgabe schönreden ; )

Das ist hier schon eine anderer Kontext als die vorherige 6800XT vs 3080 und die aktuelle 7900XTX vs 4080 Diskussionen.

Hier geht es um RDNA4, also Produkte für 2024. Bis dahin kann man schon annehmen dass sich RT in die Mehrzahl der Spielentwicklungen einschleicht.
Ebenso erwarte ich in 2024 dass auch Midrange und Lowend-Karten imstande sein werden die dann aktuellen Spiele mit RT Low oder Medium darzustellen. Dass RT nicht von weniger Spielen benutzt werden wird, sondern eher von mehr, da sind wir uns glaube ich alle Einig.
Die offene Frage ist also wie diese Implementierungen aussehen. Eher so wie in F1 2021, wie in CP2077 oder wie in RTX remix Titeln. Ich für meine Spieleauswahl abseits von TripleA habe die Befürchtung dass es eher Richtung RTX Remix geht. Glücklicherweise ist meine Spieleauswahl derzeit aber noch ohne RTX, so dass ich keine vierstelligen Ausgaben rechtfertigen musste.

[MK2]Mythos
2022-12-21, 19:49:06
Ist das eigentlich immer noch so dass zwei Grafikteams parallel an der nächsten und übernächsten Generation arbeiten?
In dem Fall wäre ja das Team, welches RDNA2 gebracht hat, für RDNA4 verantwortlich.

DrFreaK666
2022-12-21, 19:50:52
RTX Remix kann meines Wissens nach nur DX8 und DX9 Spiele aufpolieren. Daher Portal und die Demo mit Morrowind

aceCrasher
2022-12-21, 22:41:52
RTX Remix kann meines Wissens nach nur DX8 und DX9 Spiele aufpolieren. Daher Portal und die Demo mit Morrowind
Ich sehe hier Bethesdas Chance das Originale DX9 Skyrim NOCHMAL für 50€ als Skyrim RTX zu verkaufen :freak:


4K? Niet. Nichtmal die 4090.

Und zu Portal RTX: Keine Ahnung wieso hier alle behaupten dass das selbst auf einer 4090 in QHD nur mit ~60fps laufen würde und in 4K nicht spielbar ist. Ich habe gerade erst Portal RTX in 80-110fps @QHD mit DLSS 2 quality und allem auf Max komplett durchgespielt. 60fps hab ich nicht ein einziges Mal gesehen. In 4K (per DLDSR getestet) mit DLSS 3 Balanced sinds immernoch 100fps mit - für mich - unproblematischem Inputlag. Wer hier davon faselt dass das Spiel in 4K auf jeder Karte unspielpar ist hat halt einfach keine Ahnung - und selbstverständliche selbst keine 40er Karte - sonst wüsste die Person nämlich was für einen Dünpfiff er redet. Ich bin mir sicher dass mit DLSS3 performance (was in 4K absolut in Ordnung geht) das Spiel auch auf einer 4080 gut läuft.

Das Spiel läuft, wie im Digital Foundry Video (https://www.youtube.com/watch?v=3MSUqm_-Dgk) erkennbar übrigens auch problemlos auf einer 3080 in QHD wenn man die Max bounces auf 2 reduziert und die Denoiser Qualität herunterstellt. Bei Usern die hier seit 20 Jahren angemeldet sind sollte man meinen dass die Möglichkeit nicht in "Ultra Settings" zu spielen bekannt ist. Eure Kritik in allen Ehren, aber gelegentlich artet es in stumpfes NV Bashing aus.

Und um Sorry Deppen zu finden die sich ne 4090 kaufen nur wegen RT.
Gegenfrage: Wieso wenn nicht wegen top-aktuellster Spielegrafik sollte ich mir sonst eine 4090 kaufen?

Die AMD Performance ist allerdings, und das will ich ganz offen sagen, unverzeihlich und für mich ganz klare Absicht Nvidias. Aus Aufregung über diesem Fakt muss man aber nicht so tun als würde das Spiel nichtmal mit ihren eigenen Karten laufen.

Tangletingle
2022-12-21, 22:49:52
Das wird mit Garantie aufgeblähter Schrott sein, der möglichst nur auf NV HW optimal läuft… ich denke da braucht man keine Einsicht in den Code.
Imho läuft das nicht Mal auf nv HW "optimal".

DrFreaK666
2022-12-21, 22:51:05
Ich sehe hier Bethesdas Chance das Originale DX9 Skyrim NOCHMAL für 50€ als Skyrim RTX zu verkaufen :freak:...

Das wird nicht passieren. RTX Remix ist ein Modding-Tool

aceCrasher
2022-12-21, 22:54:38
Das wird nicht passieren. RTX Remix ist ein Modding-Tool
Bethesda X NV Lightspeed Studio :rolleyes:
War aber auch von Anfang an nur als Witz gemeint ;)

Mandalore
2023-02-19, 10:30:17
https://wccftech.com/amd-talks-rdna-4-gpu-based-ai-accelerators-next-gen-graphics-pipeline-promises-to-evolve-to-rdna-4-with-even-higher-performance-in-near-future/


Interessantes Interview mit David Wang, mit kleiner Info zu RDNA 4

amdfanuwe
2023-02-21, 17:25:59
Wenn ich darüber nachdenke, erscheint mir das Gerücht zu RDNA4 mit 1 bis 3 Chiplets a 48 CU etwas unsinnig.
Da hat sich wohl jemand gedacht: Nehmen wir die Hälfte von N31 und packen das auf ein Chiplet.

Ich spekuliere aktuell eher dahingehend, dass AMD kleinere Chiplets verwendet und bis zu 6 Stück bei N41 verbaut.
Also in etwa:

8900XTX 6 GCD
8900XT 5 GCD
8800XT 4 GCD
8700XT 3 GCD
8600XT 2 GCD
Mobile/APU 1GCD

Durch die Chiplets hat man kaum Abfall und kleinere Chiplets lassen sich besser selektieren.
Beim selektieren geht es nicht um die paar fehlerhaften Chiplets.
Es geht vielmehr um die erreichbare Frequenz und Effizienz.
Die paar besten GCD gehen dann in die XTX.
Ein paar schlechte kann man durch abschalten von CUs aufwerten und als Salvage verwenden.
Wesentlich ist: Man hat keine großen teuren salvage Chips.
So ein GCD mit 24CU ließe sich in ca. 50mm² unterbringen.
Ein Infinity FanOut Link liefert auch genügend Bandbreite wie sie aktuell bei RDNA3 zwischen L1 und L2 implementiert ist.
Eventuell kann AMD ja noch L2 auf die GCD Chiplets stacken.

Wenn die GCD im teurem Node als Chiplets kommen, müssen die irgendwo angeschlossen werden.
Dazu bietet sich ein zentraler I/O an, der auch den Controler sowie Speicher Interface und IF$ enthält.

N41 sähe somit fast wie N31 aus, nur dass diesmal die kleinen Chiplets im teuren Node gefertigt werden und der große I/O im billigem Node.

Für N42 und N42 gibt es dann halt kleinere I/O.

Leonidas
2023-04-21, 10:36:17
Mögliche RDNA4 Codenamen:
https://www.3dcenter.org/news/news-des-20-april-2023

reaperrr
2023-04-21, 22:00:24
Mögliche RDNA4 Codenamen:
https://www.3dcenter.org/news/news-des-20-april-2023
Meine Speku dazu:

Krackan
Sarlak
Omkara
Codenamen für die Desktop-SKUs (1-3 GCX).

Viola
Sabin
Codenamen der Mobile-SKUs (1-2 GCX).

Navi4X
Navi4M
Navi4C
Chips/GCDs heißen nicht mehr Navi41-43, da das Gerücht zu den Chiplet-Konfigurationen stimmt und alle drei Konfigurationen aus den selben Chiplets zusammengepuzzelt werden (Navi31+32 waren wohl eher die Codenamen für den jeweiligen GCD, bei RDNA4 gibt es nur noch einen GCX-Typ dessen Anzahl über den Codenamen bestimmt).

Navi4X: Xtreme/Enthusiast, 3 GCX.
Navi4M: Mainstream, 2 GCX.
Navi4C: Casual, 1 GCX.


Wahrscheinlich liege ich wie immer daneben und am Ende stimmt davon nix, aber egal :D

amdfanuwe
2023-04-21, 22:56:36
Navi4X: Xtreme/Enthusiast, 3 GCX.
Navi4M: Mainstream, 2 GCX.
Navi4C: Casual, 1 GCX.


Wahrscheinlich liege ich wie immer daneben und am Ende stimmt davon nix, aber egal :D
X = 10 -> 2
M = 1000 -> 8
C = 100 -> 4

:-)

OgrEGT
2023-04-22, 23:37:55
X = 10 -> 2
M = 1000 -> 8
C = 100 -> 4

:-)

Du meinst 2, 4 und 8 GCD Chiplets? :eek:
Wieviele CUs pro Chiplet?

amdfanuwe
2023-04-23, 02:37:14
Du meinst 2, 4 und 8 GCD Chiplets? :eek:
Wie viele CUs pro Chiplet?
Das weis nur AMD.

Fände es schon lustig, wenn ich richtig geraten hätte.

Bisher hat AMD 16 oder 20 CU pro SE verbaut.
Bei N21 4 SE, bei N31 6 SE.
N4M, 8 SE mit 160 CU, warum nicht?

Nachdem Nvidia mit der 4090 neue TDP Limits setzt, könnte AMD da nachziehen.

Ich frag mich, wie AMD den Controller handhabt, wenn sie wirklich ein SE auf einen GCD Chiplet setzen sollten.

Kann man den Controller aufteilen oder wird der im zentralem 6nm Chip sitzen? Wie unterscheiden sich die Controller in z.B. N31, N32, N33? Wieviel Unterschied macht das in der Chipfläche?

basix
2023-04-23, 10:29:28
Chips/GCDs heißen nicht mehr Navi41-43, da das Gerücht zu den Chiplet-Konfigurationen stimmt und alle drei Konfigurationen aus den selben Chiplets zusammengepuzzelt werden (Navi31+32 waren wohl eher die Codenamen für den jeweiligen GCD, bei RDNA4 gibt es nur noch einen GCX-Typ dessen Anzahl über den Codenamen bestimmt).

Navi4X: Xtreme/Enthusiast, 3 GCX.
Navi4M: Mainstream, 2 GCX.
Navi4C: Casual, 1 GCX.

Bin da bei dir. 1-3 GCX sind mMn sinnvoll. Bei noch mehr Chiplets wird der Overhead von duplizierten Chipteilen sowie den Chiplet Interconnetc-PHYs langsam ziemlich hoch (ausser man geht All-In beim Stacking, auf sowas wie bei Ponte Vecchio). Xtreme, Mainstream etc. scheinen von den Intel Server Chips abgekupfert zu sein :) (XCC, MCC)

Wenn ich tippen müsste:

GCX = 40...64 CU bei 2...4 Shader Engines. 4x SE bei total 64 CU sind mein Favorit, 3x SE bei 60 CU könnten allerdings sinnvoll sein hinsichtlich Performance/Area. Letzteres wäre zudem die GCX Konfiguration von N32
128...384bit. 12...24 GByte (128bit SKUs bekommen 3 GByte VRAM Packages)


Die Frage ist, ob es darunter noch was gibt. Ich habe da ein 16 CU Chiplet im Kopf (1x SE, 64bit SI), wo man max. 2x Chiplets im Verbund betreiben kann. Das wäre für Mainstream/Lowend dGPU sowie iGPU gedacht.

Kann man den Controller aufteilen oder wird der im zentralem 6nm Chip sitzen? Wie unterscheiden sich die Controller in z.B. N31, N32, N33? Wieviel Unterschied macht das in der Chipfläche?
Ich vermute, dass jedes Chiplet als eigenständige GPU arbeiten kann. Folgend die Gründe:

Zentrale Command Einheit wäre zwar vorteilhaft, da gleich wie heute und man "nur" die Arbeit auf GCX-Chiplets aufteilen muss (welche dann nur die Shader Engines tragen). Effizienztechnisch aber nicht optimal, da man für alle Commands immer mit allen Chiplets kommunizieren muss und man den L2$ irgendwo global implementieren muss. Das steigert die Bandbreitenanforderungen für die Interconnects enorm und ist sehr ungünstig hinsichtlich Data Locality
Datenlokalität: SE mit L0/L1 Caches, L2-Cache sowie Command lokal auf dem Chiplet hält die Datenwege für 90% der Datenmenge kurz. Was übrig bleibt sind die MCDs und die Kohärenz im L3$, welche man über mehrere Chiplets sharen muss. Hier sind die Bandbreiten allerdings deutlich geringer (verglichen mit L1/L2) und das mit der Kohärenz schon lange gelöst (siehe Zen).
Weiteres Indiz ist RDNA3 und N31, wo der GPU Command Block verglichen zu N21 deutlich kleiner geworden ist. Eine Grundvoraussetzung, wenn man den Block bei N Chiplets dann N Mal verbauen muss
Patent von AMD, wo man den Workstream auf mehrere Command Prozessoren / Chiplets aufteilt. Der erste Command Processor macht ein Coarse Bin Rendering (Master GCX) und verteilt die arbeit an weitere Chiplets, die dann ein Fine Bin Rendering durchführen (Slave GCX). Gab sogar News dazu: https://www.computerbase.de/2022-07/amd-patentantrag-gpu-chiplet-auslastung/ Und was noch lustig ist: In dem Patent sind 3 GPU-Chiplets in den Grafiken zu sehen :D (kann natürlich Zufall sein)


Ich habe das unten mal aufgezeichnet. Ob es den "Master Command" im IO-Tile für z.B. das Coarse Renderung benötigt weiss ich nicht (vermutlich nicht), doch die Multimedia und IO-Teile auszulagern ist bei einem GCX-Chiplet Konzept eigentlich zwingend. Das wäre dann ein kleines 40-50mm2 N4 Die.

Dazu habe ich mal N23 genommen, ein wenig rumgeschnippelt und neu zusammengefügt. Sieht doch gut aus :D

Edit:
Habe auch an N31 rumgeschnippelt und zusammengefügt.

Sowas ist zudem deutlich weniger "invasiv" als z.B. 8 GCX mit zentralem IOD und Infinity Cache und oder 2.5D/3D-Stacking. mMn geht AMD hier Schrittchen für Schrittchen in Richtung Chiplets und nicht mit einem einzelnen riesigen Schritt aufs Mal:

RDNA1 = Neue Shader Engine (CUs, grösserer L1$, ...)
RDNA2 = Infinity Cache
RDNA3 = Aufsplittung der GPU in MCD & GCD sowie Entfernung der Legacy Geometrie Pipeline (bei N31 und N32 lag ich hinsichtlich GCD und MCD bei einer Variante ziemlich richtig (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12995133#post12995133), nach X anderen spekulierten Varianten natürlich ;) Doch am Schluss zeigte sich: Die naheliegenste Lösung mit dem geringsten Bruch mit den Vorgänger-Architekturen war am wahrscheinlichsten)
RDNA4 = Aufsplittung des GCDs in GCX & IO-Chiplet
RDNA5 = Who knows :)

amdfanuwe
2023-04-23, 14:45:22
...
Ich vermute, dass jedes Chiplet als eigenständige GPU arbeiten kann. Folgend die Gründe:
...

Macht Sinn.
Mein Ansatz wäre dann praktisch ein N24 mit 1 SE als Chiplet zu verwenden ( ohne I/O und Medi Kram).
Da reicht ein kleiner L2, 1MB, auf dem Chiplet oder man lässt den weg und vergrößert L1.
Als Globalen Cache dient der IF$.
Ich hab mal dein Bild umgebaut.
83647
Ich hab mal noch einen Globalen Controller eingezeichnet, nach dem Patent könnte aber ebenso z.B. das erste Chiplet verwendet werden um das grobe Sceduling auf die anderen Chiplets zu erledigen.
Das erfordert auch keine große Bandbreite, die wird erst benötigt wenn es an die Arbeit geht die Millionen Pixel gleichzeitig zu bearbeiten.

Das Centrale Die in N6 gibt es dann mit 2, 4, 6 SI entsprechend 8GB, 16GB, 24 GB Bestückung.
Entsprechend mit 2, 4 und beim Großen 8 GCD Interfaces.
Vorteil wäre halt, dass die GCD Chiplets kaum Ausschuss haben und man selektiv die GCD auf die einzelnen SKUs verteilen kann.
Das heißt, bei den "großen" GPUs hat man nahezu keinen Ausschuss, keine "schlechten" Chips.

Bei 10 WGP pro GCD:
An Konfigurationen hätte man z.B.:
8900 XTX, 24 GB 8 GCD, 80 WGP, 160 CU
8900 XT, 24(20?) GB 6 GCD, 60 WGP, 120 CU
8800 XT, 16 GB, 4 GCD, 40 WGP, 80 CU
8700 XT, 12 GB, 3 GCD, 30 WGP, 60 CU
8600 XT, 8GB, 2 GCD, 20 WGP, 40 CU
8600, 8GB, 2 GCD, 16 WGP, 32 CU, salvaged GCDs

Nightspider
2023-05-02, 02:19:56
Wenn Blackwell und RDNA4 noch bei einem 4nm Derivat verbleiben, dann könnte hier AMD besonders durch Chipletdesigns punkten, wenn (sehr) viel Chipfläche benötigt wird um die alte Generation zu schlagen und Kaufanreize zu bieten.

Die MCDs könnte AMD weiterhin im billigen N6 fertigen und einen oder mehrere GCDs verbauen, die insgesamt die 2-3 fache Chipfläche haben wie das GCD von N31.

Natürlich muss die Effizienz dafür auch deutlich besser werden innerhalb der Architektur.

RDNA3+ könnte ja schon 15-25% effizienter laufen. Bei RDNA4 können wir nur hoffen das AMD bei der Effizienz massiv zulegt.

HOT
2023-05-02, 08:38:00
Glaub ich nicht, das Ding wird sicherlich 3nm. Auch halte ich die ganzen Schaubilder aus den oberen Postings durchgehend für Unsinn. Nett gemeinten und nett gemachten Unsinn, aber Unsinn. Das wird sicherlich was gestacktes mit spezialisierteren Chiplets und ich glaub auch nicht, dass der das noch 2024 schaffen wird.

Neurosphere
2023-05-02, 09:22:02
https://twitter.com/OreXda/status/1652931486528716800

"AMD signed to use Samsung Foundry 4nm"

Keine Ahnung obs die CPU oder GPU Sparte betrifft, könnte man also auch bei Zen 5 reinpacken. Samsung wird vermutlich wieder günstiger als TSMC sein und man umgeht die politischen Probleme die da kommen könnten. Aber wie gut Samsungs 4nm ist, keine Ahnung, ist der brauchbar?

reaperrr
2023-05-02, 11:57:36
https://twitter.com/OreXda/status/1652931486528716800

"AMD signed to use Samsung Foundry 4nm"

Keine Ahnung obs die CPU oder GPU Sparte betrifft, könnte man also auch bei Zen 5 reinpacken. Samsung wird vermutlich wieder günstiger als TSMC sein und man umgeht die politischen Probleme die da kommen könnten. Aber wie gut Samsungs 4nm ist, keine Ahnung, ist der brauchbar?
Also eigentlich ist bei Samsung alles, was über 3GAE ist, noch 7nm-Derivat. Teils mit größerem Packdichte-Sprung als TSMC N6, aber halt keine vollwertigen N5/N4-Equivalente.

Für mich eher eine Option für MCDs, IO-Dies oder Chipsätze, eher weniger für GPUs und CPUs. Aber vielleicht täusche ich mich auch. Für CCDs und GCDs/GCX von Zen5/RDNA4 wird AMD das Risiko mMn aber nicht eingehen.

Wirklich interessant würde es meiner Meinung nach erst, wenn Samsung und AMD einen Vertrag zu 3nm verkünden würden, aber dafür muss 3GAP erstmal vernünftig laufen (3GAE wird auf Foundry-Roadmaps teils gar nicht mehr genannt und vmtl. nur von Samsung selbst genutzt, wenn überhaupt).

HOT
2023-05-02, 12:12:54
Stimmt, neues IOD könnte auch daher kommen. Mit RDNA4 wird das nichts zu tun haben, oder wenn dann eher im I/O oder MCD-Bereich.

basix
2023-05-02, 19:56:57
Zen IOD, GPU MCDs, Chipsätze oder die Base Tiles für z.B. MI300 in Samsung 4nm wäre nicht völlig abwegig. Oder irgendein FPGA oder Embedded Ableger. Gibt viele Möglichkeiten.

GPU und CPU Kerneinheiten (Cores, Shader Engines) werden mMn aber bei TSMC bleiben.

mocad_tom
2023-05-02, 21:21:20
Sorry für Offtopic

Aber Gigabyte hat doch beim Veröffentlichen eines Mainboards gemeint, dass im Herbst "andere CPU" (so ähnlich) daherkommen werden.

https://www.3dcenter.org/news/news-des-24-maerz-2023

> Even though these new products are entry-level servers, CPU support does
> not end here and the AM5 platform is supported until at least 2025. The next
> generation of AMD Ryzen desktop processors that will come out later this year
> will also be supported on this AM5 platform, so customers who purchase
> these servers today have the opportunity to upgrade to the Ryzen 7000 series
> successor.

Das sind die neuen IO-Die von Samsung.

vinacis_vivids
2023-05-09, 19:25:10
Bei RDNA4 sehe ich die 64CU GCD als Basis für die GPU.

N41XTX-GCD 3nm
3x 64CU = 192CU
3x 4096SP = 12288SP fp32
3,5Ghz Takt
256 flop fp32/clk/Cu
192Cu x 3,5Ghz x 256 ~ 172 Tflops fp32

N41XT-GCD Salvage
3x 60CU = 180CU
3x 3840SP = 11520SP fp32
3,4Ghz Takt
180CU x 3,4Ghz x 256 ~ 156 Tflops fp32

N41XL GCD Salvage
3x 56CU = 168CU
3,3Ghz Takt
168CU x 3,3Ghz Takt x 256 ~ 141 Tflops fp32

N42XTX = 2xGCD full
2x64CU = 128CU
2x 4096SP = 8192SP fp32
3,6Ghz Takt
128CU x 3,6Ghz Takt x 256 ~ 117 Tflops fp32

N42XT 2XGCD Salvage
120CU x 3,5Ghz Takt x 256 ~ 107 Tflops fp32

N42XL 2XGCD Salvage
112CU x 3,3Ghz Takt x 256 ~ 94 Tflops

N4X XTX-GCD 3nm full
1x64CU = 4096SP
3,8Ghz Takt
64CU x 3,8Ghz x 256 ~ 62 Tflops fp32

N41XTX-GCD 3nm in der 3X Konfiguration wird nicht billiger.

Kommt drauf an wie die Logik sich shrinken lässt von 5nm auf 3nm.

Der 300qmm von N31XTX ließe sich bei 3nm auf 0,67 x 300qmm = 201qmm shrinken.

Da 4096SP kleiner sind als 6144SP, Faktor 0,67.
201qmm x 0,67 ~ 134,67mm^2 in 3nm TSMC. 150mm^2 gehen auch für das GCD.
Die Ausbeute dürfte bei den kleinen Chips wohl hoch sein, so dass der Preis nicht zu sehr hoch steigt für die Käufer/Kunden.
Wenn das zu teuer ist, dann gibs eben nur die 2XGCD Version.

Ich glaube nicht an eine 8xGCD Version bei RDNA4.

CrazyIvan
2023-05-23, 22:30:51
Falls es dafür einen separaten Thread gibt, sorry: Neue Infos zu MI300
https://www.tomshardware.com/news/new-amd-instinct-mi300-details-emerge-debuts-in-2-exaflop-el-capitan-supercomputer

Bestätigungen:

Die Base Dies enthalten Infinity Caches (Größe unbekannt)
Das Segment unten rechts ist wirklich der CPU Teil.

w0mbat
2023-05-23, 22:57:43
Gibt es: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13220611#post13220611

Und sowohl das mit dem Infinity Cache als auch die on-chip CPU (MI300 ist ja ne APU) war schon bekannt ;)

amdfanuwe
2023-05-23, 23:20:11
Neu ist eigentlich nur
84031
Hatte eher mit zentraler CPU wie bei MI250 gerechnet.

CrazyIvan
2023-05-24, 06:40:35
Gibt es: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13220611#post13220611

Und sowohl das mit dem Infinity Cache als auch die on-chip CPU (MI300 ist ja ne APU) war schon bekannt ;)
Danke für den Hinweis. AFAIK war IF$ vermutet, aber nicht bestätigt. Und wo sich die Zen Kerne konkret befinden, ebensowenig. Die Betonung lag auf "bestätigt" (durch offizielle Angaben)

amdfanuwe
2023-05-24, 11:05:41
IF$ stand schon auf der Folie im Januar
84036

w0mbat
2023-05-24, 11:38:42
Und im offiziellen "die-shot" konnte man sehen, wo die CPU Kerne liegen..

vinacis_vivids
2023-05-27, 13:14:25
Könnte gut sein, dass AMD die neue RDNA4 GCD-CU Aufteilung weiter auf Kosten optimiert und für <100mm^2 produziert.

Spekuliert sind 40CU physisch Maximalausbau und 38CU Vollausbau. Vier davon ergeben 152CU für (bezahlbares) RDNA4 - N41XTX
152CUs
~ 3,0Ghz
~ 116,7 Tflops fp32
64GB VRAM wäre geil, aber aus Kostengründen wohl eher 32GB VRAM und 512bit SI für RDNA4.

Dovregubben
2023-05-27, 13:52:19
Es gibt kein Bedarf an >24GB und 384 Bit sind mit GDDR7 auch mehr als genug. Eher wird das Speicherinterface nochmal schmaler. 512 Bit haben wir aus guten Gründen schon lange nicht mehr gesehen.

Langlay
2023-05-27, 14:01:32
512bit SI für RDNA4.

Ich würde Geld wetten wir werden kein 512bit Speicherinterface sehen. 16 Speicherchips und 16x PCI-E auf dem PCB gehen sich nicht gut aus. Du kriegst halt Probleme die 16 Speicherchips in gleichen Abstand zu platzieren und noch genug Platz für die Datenleitungen zum PCI-E Slot zu haben.

Die letzte Karte mit 512bit sollte Hawaii gewesen sein und der ist ja eher gemütlich unterwegs was Speichertakt angeht.

Ergo hochtaktendes 384Bit Interface ist wahrscheinlich billiger und genauso schnell wie ein 512bit Interface das dann eher gemütlich läuft.

R9 290X (Release Oct 24th, 2013)

https://i.imgur.com/8FmW5jk.jpg

https://www.techpowerup.com/gpu-specs/radeon-r9-290x.c2460

GTX 780 (Release May 23rd, 2013)

https://i.imgur.com/iW2VYKF.jpg

https://www.techpowerup.com/gpu-specs/geforce-gtx-780.c1701

Lohnt sich richtig so ein 512Bit Speicherinterface. /s

HOT
2023-05-27, 14:17:59
Wenn es Chiplet-GPUs sind, haben die u.U. ein sehr großes Package. Das wäre kein Problem. Ich bezweifle das trotzdem, da 12 32Gbit-Chips schon 48GB wären. Ich glaub eher, dass wird ein 256Bit GDDR7 Interface mit 8 32Gbit GDDR7 sehen werden mit 32GB für das Top-Produkt. Die Bandbreite realisiert man über einen gestackten IF$ mit entsprechender Kapazität. Auch bei NV wird man ähnlich handeln mMn, denn die Bandbreite zu Leistungsverhältnis ging die ganzen letzten Generationen zurück und auch hier ließe sich ein großer Cache mit Chiplets realisieren, was im endeffekt billiger kommen würde mMn als große Speicherinterfaces, aus vielerlei Gründen. Ich könnt mir vorstellen, dass wir bei der Chiplet-Generation daher 16GB im Mainstream, 24GB im High-End und 32GB im Enthusiastenbereich sehen werden.
Da ich aber glaube, dass beide Hersteller sowohl länger für Entwicklung der Chiplet-GPUs benötigen werden und aufgrund der wirtschaftlichen Situation ihren ROI erhöhen möchten, dürfte es diesmal eher 3 als 2 Jahre dauern ;). Wir sehen sicherlich noch einen Refresh bei beiden Herstellern.

reaperrr
2023-05-27, 15:17:40
Da ich aber glaube, dass beide Hersteller sowohl länger für Entwicklung der Chiplet-GPUs benötigen werden und aufgrund der wirtschaftlichen Situation ihren ROI erhöhen möchten, dürfte es diesmal eher 3 als 2 Jahre dauern ;). Wir sehen sicherlich noch einen Refresh bei beiden Herstellern.
Wenn die Leaks zum Aufbau stimmen, sind bei RDNA4 je zwei MCD an einen GCX gekoppelt, und wenn es dann auch noch stimmt, dass ein GCX 48 CUs hat, wären das bereits 50% mehr CUs je SI, was grob zu ~50% mehr Speicherbandbreite durch GDDR7 passen würde.
Cache-Stacking ist m.E. teurer als mehr MCDs, erstens ein zusätzlicher Logistik- und Assembly-Schritt, zweitens musst du den Cache dann auf alle MCDs pflanzen, statt einfach nur 2 zusätzliche MCDs zu verbauen.
Und 32GB@256bit werden auch bei GDDR7 anfangs Clampshell und 33% mehr Speicherchips als 24GB@384bit brauchen, dann hast du höhere Speicherkosten bei weniger VRAM-Bandbreite und höhere Chipkosten durch die Cachestacks.


Zum Thema ROI:
Wenn die GPUs aus verschiedenen Gründen (N33: Zu lahm + 8GB, 7900er: für die Leistung zu stromhungrig und bei RT zu weit zurück) nicht sonderlich attraktiv für die breite Masse potentieller Kunden sind, ist es in Hinblick auf Volumen und Margen besser, sie so schnell es die R&D zulässt zu ersetzen, wenn man weiß, dass der Nachfolger einige dieser Probleme nicht hat.
Wenig Verkaufsvolumen sorgt dafür, dass die Fixkosten stärker reinhauen, und wenig Marge sorgt dafür, dass das ROI so oder so nie sonderlich hoch ausfallen wird.

Also zumindest bei AMD sehe ich durchaus Druck, RDNA4 so schnell zu bringen, wie es möglich ist, vor allem wenn auch N32 unter den Erwartungen bleibt.
Dass ein einfacher Refresh hilft glaube ich auch nicht, weil NV gerade beim Takt eher mehr Luft hat als AMD. Ein Refresh macht bei AMD nur Sinn, wenn sich RDNA4 verspätet und sie sich irgendwie über Wasser halten müssen.

HOT
2023-05-27, 16:08:22
Der Aufbau ist Unsinn mMn.

vinacis_vivids
2023-05-27, 17:58:48
Ich würde Geld wetten wir werden kein 512bit Speicherinterface sehen. 16 Speicherchips und 16x PCI-E auf dem PCB gehen sich nicht gut aus. Du kriegst halt Probleme die 16 Speicherchips in gleichen Abstand zu platzieren und noch genug Platz für die Datenleitungen zum PCI-E Slot zu haben.

Die letzte Karte mit 512bit sollte Hawaii gewesen sein und der ist ja eher gemütlich unterwegs was Speichertakt angeht.

Ergo hochtaktendes 384Bit Interface ist wahrscheinlich billiger und genauso schnell wie ein 512bit Interface das dann eher gemütlich läuft.

R9 290X (Release Oct 24th, 2013)

https://i.imgur.com/8FmW5jk.jpg

https://www.techpowerup.com/gpu-specs/radeon-r9-290x.c2460

GTX 780 (Release May 23rd, 2013)

https://i.imgur.com/iW2VYKF.jpg

https://www.techpowerup.com/gpu-specs/geforce-gtx-780.c1701

Lohnt sich richtig so ein 512Bit Speicherinterface. /s

Das 512bit SI kam noch mit der R9 390X 8GB. Die gilt als am längsten haltbare GPU, die AMD jemals gebaut hat.

Ich hab nichts gegen 512bit SI, so lange es nicht überteuert ist.

00-Schneider
2023-06-29, 09:38:12
Wenn NVidia bis 2025 braucht, könnte AMD mit der 8000er Serie in 2024 wieder die Performancekrone übernehmen. Wann gab es das zuletzt?

dildo4u
2023-06-29, 09:54:06
Kommt drauf an welche Fertigung sie nutzen imo wird AMD nicht mehr als Nvidia für 3nm zahlen, könnte natürlich sein das AMD drauf setzt das der Modulare Aufbau in 4nm sie rettet.
Zen 5 könnte auch 4nm für Consumer und 3nm für Epyc nutzen da die Fertigung in 24 zu teuer ist.

Linmoum
2023-06-29, 10:01:33
Wenn NVidia bis 2025 braucht, könnte AMD mit der 8000er Serie in 2024 wieder die Performancekrone übernehmen. Wann gab es das zuletzt?Wenn 2025 an N3 liegt, dann gehe ich stark davon aus, dass auch AMD entsprechend wartet.

Exxtreme
2023-06-29, 10:02:48
Wenn NVidia bis 2025 braucht, könnte AMD mit der 8000er Serie in 2024 wieder die Performancekrone übernehmen. Wann gab es das zuletzt?

Die Frage ist eher ob AMD das will. Sie haben schon seit langem keine Ambitionen mehr Leistungskronen zu holen. Sie setzen eher auf relativ gesehen gutes P/L-Verhältnis.

robbitop
2023-06-29, 10:34:33
Naja die 6900XT war schon ziemlich kompetativ.

HOT
2023-06-29, 10:37:30
Die Frage ist eher ob AMD das will. Sie haben schon seit langem keine Ambitionen mehr Leistungskronen zu holen. Sie setzen eher auf relativ gesehen gutes P/L-Verhältnis.
So ein Unsinn. Das ist genau das, was AMD antreibt. Das ist der Motor für deren ganzes Handeln.

Linmoum
2023-06-29, 10:42:46
Naja die 6900XT war schon ziemlich kompetativ.Da hatte Nvidia aber auch den deutlichen schlechteren Node für seine Produkte. ;) Ich vermute, diesen Luxus wird kein Hersteller mehr haben, ggf. von irgendwelchen Mainstream-Produkten mal abgesehen.

BavarianRealist
2023-06-29, 10:46:06
Wenn 2025 an N3 liegt, dann gehe ich stark davon aus, dass auch AMD entsprechend wartet.

Denke, dass AMD RDNA4 auch wieder auf zwei Prozessen, also auf 5nm und 3nm, entwickelt, eben genau für diesen Fall. Das Gleiche machen sie ja angeblich bei Zen5. Und auch RDNA3 haben sie auf 6nm und 5nm entwickelt, zumal sie die Building-Blocks auch für Custom-Designs brauchen können.

Exxtreme
2023-06-29, 10:54:31
So ein Unsinn. Das ist genau das, was AMD antreibt. Das ist der Motor für deren ganzes Handeln.

Also wenn das deren Motor ist dann sind sie aber mal wieder komplett gescheitert. Oder wo ist die Konkurrenz zur RTX 4090?

Der_Korken
2023-06-29, 11:08:13
Wenn 2025 an N3 liegt, dann gehe ich stark davon aus, dass auch AMD entsprechend wartet.

Dann wird es aber wohl hoffentlich einen RDNA3 Refresh geben, wo sie den Verbrauch fixen. Oder wollen die N21 noch bis 2025 als Midrange-Chip verkaufen?

robbitop
2023-06-29, 11:35:14
Da hatte Nvidia aber auch den deutlichen schlechteren Node für seine Produkte. ;) Ich vermute, diesen Luxus wird kein Hersteller mehr haben, ggf. von irgendwelchen Mainstream-Produkten mal abgesehen.
Darum ging's ja nicht. Es ging darum, dass Exxtreme geschrieben hat, dass AMD schon lange nicht mehr die Ambition auf die Performancekrone hatte. Und das hatte man ganz offensichtlich mit RDNA2 in Form von N21 mit der 6900XT und später mit der 6950XT schon. Lange ist das IMO nicht.

Linmoum
2023-06-29, 11:48:56
Darum ging's ja nicht. Es ging darum, dass Exxtreme geschrieben hat, dass AMD schon lange nicht mehr die Ambition auf die Performancekrone hatte. Und das hatte man ganz offensichtlich mit RDNA2 in Form von N21 mit der 6900XT und später mit der 6950XT schon. Lange ist das IMO nicht.Ob man das mit RDNA2 hatte, ist aber nüchtern betrachtet reine Spekulation. Denn man wusste bei der Entwicklung sicher nicht, ob NV auch TSMC N7 nutzt oder nicht. Denn mit TSMC für Ampere hätte man sich mit RDNA2 in der Form sicherlich auch nicht mit einem GA102 geprügelt. ;)

Exxtreme
2023-06-29, 11:50:09
Darum ging's ja nicht. Es ging darum, dass Exxtreme geschrieben hat, dass AMD schon lange nicht mehr die Ambition auf die Performancekrone hatte. Und das hatte man ganz offensichtlich mit RDNA2 in Form von N21 mit der 6900XT und später mit der 6950XT schon. Lange ist das IMO nicht.

Naja, AMD hat das selbst so gesagt, dass sie nicht mehr um die Leistungskrone kämpfen. Und die Produkte machen auch nicht wirklich den Eindruck als ob sie das wollten.

Linmoum
2023-06-29, 12:21:04
Man wird sich aber auch schlecht hinstellen und sagen "wir wollten, aber die Konkurrenz ist viel zu stark für uns". Da klingt "unser Ziel war für Kunden ein gutes P/L-Verhaltnis bei bester Performance unter xx Dollar" schon deutlich besser. Damit wahrt man sein Gesicht und muss nicht zugeben, dass man eigentlich wollte, aber nicht damit gerechnet hat, dass NV einen >600mm2 raushaut.

Raff
2023-06-29, 12:54:43
Weiß man, wann Intel von TSMC wegkommen und GPUs selbst fertigen will? Das wäre (schon wieder) die Chance ... :D Aber Celestial ist noch weit weg.

MfG
Raff

Exxtreme
2023-06-29, 13:01:15
Man wird sich aber auch schlecht hinstellen und sagen "wir wollten, aber die Konkurrenz ist viel zu stark für uns". Da klingt "unser Ziel war für Kunden ein gutes P/L-Verhaltnis bei bester Performance unter xx Dollar" schon deutlich besser. Damit wahrt man sein Gesicht und muss nicht zugeben, dass man eigentlich wollte, aber nicht damit gerechnet hat, dass NV einen >600mm2 raushaut.

So wie es ausschaut, haben sie die Entscheidung doch wieder revidiert:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/High-End-GPUs-Vega-Navi-1268013/

Habe ich gar nicht mitbekommen. :)

mboeller
2023-06-29, 14:35:24
Wenn NVidia bis 2025 braucht, könnte AMD mit der 8000er Serie in 2024 wieder die Performancekrone übernehmen. Wann gab es das zuletzt?

N31 kam ja erst im Dez. '22. 2 Jahre Kadenz ... also frühestens Dez. '24
2025 ist da nicht mehr weit weg. :)

dargo
2023-06-29, 14:39:44
Dann wird es aber wohl hoffentlich einen RDNA3 Refresh geben, wo sie den Verbrauch fixen. Oder wollen die N21 noch bis 2025 als Midrange-Chip verkaufen?
Hä? Für Midrange kommt dieses Jahr N32.

maximus_hertus
2023-06-29, 14:53:19
Ich gehe davon aus, dass "Blackwell" wegen der Fertigung erst 2025 kommt. Ergo würde das auch auf RDNA4 zutreffen.

Es sei denn, die machen aus RDNA4 eine Art "Doppel-Gen", also RDNA4 "light" mit 5nm noch in 2024 (z.B. im Sommer) und schieben dann im Sommer-Herbst 2025 dann RDNA4 "full" hinterher.

Ob das Sinn macht? Keine Ahnung, hängt wohl davon ab, ob es sich finanziell überhaupt lohnen würde (und es technisch (sinnvoll) machbar wäre) RDNA4 "downzugraden" für 5(4)nm.

Da es aber afaik noch nciht mal "Gerüchte" gibt, gehe ich davon aus, dass wie immer in letzter Zeit, nV zuerst die neue Gen einläuten wird.

Der_Korken
2023-06-29, 15:04:18
Hä? Für Midrange kommt dieses Jahr N32.

Meinetwegen, aber wenn er technisch nicht besser als N21 wird, wäre das quasi ein "N21 bis 2025".

BavarianRealist
2023-06-29, 16:15:07
....
Es sei denn, die machen aus RDNA4 eine Art "Doppel-Gen", also RDNA4 "light" mit 5nm noch in 2024 (z.B. im Sommer) und schieben dann im Sommer-Herbst 2025 dann RDNA4 "full" hinterher.

Ob das Sinn macht? Keine Ahnung, hängt wohl davon ab, ob es sich finanziell überhaupt lohnen würde (und es technisch (sinnvoll) machbar wäre) RDNA4 "downzugraden" für 5(4)nm...

Sollte Micron wirklich schon in H1/2024 GDDR7 liefern können, könnte ich mir durchaus für die Lowend/Midrange-Massen-GPUs Single-Die-Ausführungen in 5nm von RDNA4 (bzw. eventuell eine Art RDNA3+) vorstellen, weil man mit dem GDDR7 schmalere Controller realisieren kann, sodass man mit GDDR7 Diesize spart. Zuletzt könnte AMD für die GPUs ebenfalls eine Art 3D-Cache bringen, sodass man auch den Cache aus dem Die heraus bekommen würde und so dann recht kleine Single-Die hätte, von denen nur die voll-funktionsfähigen einen solchen Cache bekämen und der Rest einfach Massenware würde.

HOT
2023-06-29, 16:29:09
Weiß man, wann Intel von TSMC wegkommen und GPUs selbst fertigen will? Das wäre (schon wieder) die Chance ... :D Aber Celestial ist noch weit weg.

MfG
Raff

Bisher:

Alchemy N6
Battlemage N4P/X
Celestial N3X
Druid gute Frage... könnte auch 18A werden.

N3 ist nicht der Grund für evtl. Verzögerungen. Bei NV sinds mit an Sicherheit grenzender Wahrscheinlichkeit Chiplets und eine dadurch veranschlagte verlängerte Entwicklungszeit und bei AMD ist die Frage, was die für ein Launchfenster anvisieren. Auch RNDA4 wird komplex, es wird mMn einiges an MI300-Package-Technik zum Einsatz kommen. Die Chips sind ja nicht verzögert, NV wird 25 von Anfang an geplant haben.

robbitop
2023-06-29, 16:33:20
Naja, AMD hat das selbst so gesagt, dass sie nicht mehr um die Leistungskrone kämpfen. Und die Produkte machen auch nicht wirklich den Eindruck als ob sie das wollten.
Aber doch nicht als RDNA2 aktuell war. Und der Punkt ist: das ist noch nicht lange her.
Bei RDNA3 mag das diese Runde stimmen.

HOT
2023-06-29, 16:37:13
Also wenn das deren Motor ist dann sind sie aber mal wieder komplett gescheitert. Oder wo ist die Konkurrenz zur RTX 4090?

Man scheitert auch mal, das ändert doch nix am Ziel. Das Ziel ist definitiv das Beste zu erreichen um am meisten damit zu verdienen, ist doch ganz einfach. Natürlich war das Ziel der XTX die schnellste Karte zu werden. Hat halt nicht geklappt, weil AMD sich verkalkuliert hat, ganz einfach. Passiert.

Natürlich sagt AMD hinterher, dass man nieee gedacht hat, mit der 4090 zu konkurrieren - ist halt BS-Marketing, das ist doch leicht durchschaubar. Man hat halt gefailt und kann halt keine $1500 für die XTX nehmen, doof gelaufen.

Sunrise
2023-06-29, 17:02:50
AMD oder wer auch immer kann viel schreiben, wenn der Tag lang ist.

Chancen hat AMD unter Su schon immer, und man kommt auch immer recht nahe dran, aber den Nachdruck, den Zeitgeist der Entwicklungen und vor allem R&D kann man nicht mit NV vergleichen.

Wenn also irgendein Marketing-Angestellter oder die Presse meint, das ist aber so, dann sollte man ihn einfach ignorieren.

Das gleiche gilt für irgendwelche Leute, die Fakten gerne ignorieren. NV tut definitiv immer alles dafür, dass sie an der Spitze sind.

AMD eben nicht.. End of story…

Es geht auch nichtmehr um die Treibergeschichten von vor 10 Jahren… aber insgesamt hat NV einen ganz anderen Antrieb, an den selbst Su, die ich extrem respektiere, nicht rankommt.

HOT
2023-06-29, 17:06:25
Jo das ist richtig. Man hat sich auch schon ein paar mal dazu entschieden, nicht direkt zu konkurrieren, bei der 5700XT oder der 480 z.B., weil man wusste, dass R&D nicht für alle Produkte ausreichen würde.
Intel hat das ja auch begriffen, daher das Streichkonzert.
Aber bei AMD meint man mittlerweile durch so viele Produkte, die viele Synergien haben, dass man auf jeder Hochzeit tanzen kann, daher ist diese Einschätzung total falsch in meinen Augen. Die Ansprüche sind sogar höher als bei NV. Nur sind die Produkte nicht unbedingt bis zur letzten Konsequenz vor allem Softwareseitig rund, das ist das Problem und da ist NV nach wie vor deutlich besser. Es kann auch Hardwareseitig schief gehen, dann gibts halt ne RDNA3. Wobei das ja kein echter Fail ist, das lässt sich durch die Preise einfangen und die Fertigungskosten sind verhältnismäßig gering. N31 hat nur 300mm² und die verbaute Elektronik hätte auch deutlich billiger sein können, da gibts sogar noch Sparpotenzial, wenn mans bräuchte. Aber das eigentlich größte Problem bei RDNA3 ist ja auch wieder auf der Software-Seite, die brauchen schlichtweg eine echte DLSS-Konkurrenz.

Sunrise
2023-06-29, 17:16:04
Der einzige Grund, warum das passieren könnte (den ich persönlich sehe) ist, dass Jensen den PC-Markt aufgrund von AI/KI- und Datacenter-Entwicklungen etwas geringer priorisieren wird, was ja scheinbar zumindest auftragsmäßig auch schon passiert, da sie aktuell wohl nichtmehr ihre Datacenter-Aufträge abgearbeitet bekommen (TSMC kann aufgrund dem Advanced Packaging nicht mehr liefern, Nvidia rennt ihnen die Bude ein) und sie da einen Gang zurückschalten, weil ihnen die Margen oben wichtiger sind.

AMD müsste da wirklich zeitlich perfekt alles richtig machen und genug Volumen raushauen können, aber dennoch hat NV da so einen guten Stand, dass AMD kontinuierlich perfekt abliefern müsste, um auch mal die Preise bestimmen zu können.

RDNA4 müsste also auch mal was wagen… fraglich ob AMD darauf Bock hat.

HOT
2023-06-29, 17:29:49
Also ich fand RDNA3 schon ziemlich mutig. Die wagen sich ja was, aber nicht unbedingt so wie du dir das vorstellst offensichtlich ;).
Das ist ja ne Entscheidung, die 400W-Marke zu reißen beispielsweise, das hat nicht unbedingt was mit sinnhafter Entwicklung zu tun.
AMD könnte mit RDNA4 was "wagen" und auch 450W bringen, mal sehen, wo das hinläuft. Aber ich würd schon sagen, wenn man den Chiplet-Vorteil ausspielen kann, dann in der RDNA4-Generation.

Neurosphere
2023-06-30, 11:49:51
https://twitter.com/Kepler_L2/status/1673733708422037505?t=tnYhTWVWIex6Z5mOjWxcpw&s=19

Aus dem Feed:

"Apple is mostly using N3B, and AMD will have N3E products in 2024."

Wäre AMD wirklich mal früher dran?

HOT
2023-06-30, 11:58:38
N3B ist die gefixte Vanilla N3 oder? Das Produkt von AMD könnte auch Zen5c sein, das muss nicht zwingend ne GPU sein, kann aber. Zen5c soll aber schon Q3 oder gar Q2 kommen, mal sehen, was da dran ist.

w0mbat
2023-06-30, 12:28:06
Jupp, N3B = das "echte" N3, N3E = relaxed N3

basix
2023-06-30, 13:06:05
Zen 5c ist mit guter Wahrscheinlichkeit mit N3E Unterwegs. Ob es bei RDNA4 verwendet wird steht noch in den Sternen. MI400 wird vermutlich ebenfalls auf N3 wechseln, welches Derivat auch immer und allenfalls erst 2025.

Calypso
2023-06-30, 13:46:23
Es wird wie immer werden - alle erwarten AMD halbes Jahr vor nvidia und in Realität kommt nvidia höher raus als vorher prognostiziert, und AMD dafür ein halbes Jahr später und konnte den Hype Train nicht erfüllen. Same procedure as everly release.

DrFreaK666
2023-06-30, 14:03:09
RDNA2 kam dem Hype ziemlich nah ran. Liegt für dich aber wahrscheinlich zu weit in der Vergangenheit und gilt daher nicht

Neurosphere
2023-06-30, 15:51:38
N3B ist die gefixte Vanilla N3 oder? Das Produkt von AMD könnte auch Zen5c sein, das muss nicht zwingend ne GPU sein, kann aber. Zen5c soll aber schon Q3 oder gar Q2 kommen, mal sehen, was da dran ist.

Zumindest in dem Twitter Feed geht es explizit um RDNA4.

Ich kann mir aber eigentlich nicht vorstellen das AMD wesentlich früher dran sein soll als NV wenn diese den späteren Release mit der Fertigung rechtfertigen.

HOT
2023-06-30, 16:12:08
Die Fertigung ist kein Problem, wie gesagt. Wenn es allein nach der Fertigung ginge würde auch NV Produkte in 2024 hinbekommen, bei Hopper next sieht es ja auch so aus. Das Problem ist bei NV definitiv nicht die Fertigung.

Bei AMD kommt es halt auf die Planung an. Wenn AMD RDNA4-Produkte schon in 24 plant, sind die natürlich auch N3. Wie gesagt, Zen5c ist sowieso N3, bei RDNA4 stellt sich halt die Frage der Planung und natürlich ob alles klappt wie gewünscht. Dass das Zeug N3 ist, die Frage stellt sich nicht.

Oberst
2023-07-03, 13:52:17
Zen 5c ist mit guter Wahrscheinlichkeit mit N3E Unterwegs. Ob es bei RDNA4 verwendet wird steht noch in den Sternen. MI400 wird vermutlich ebenfalls auf N3 wechseln, welches Derivat auch immer und allenfalls erst 2025.
Woher hast du die 2025? Bisher hat AMD CDNA fast im Jahrestakt erneuert, warum jetzt auf einmal nur noch in zwei Jahren?
CDNA1 kam November 2020, CDNA2 November 2021, CDNA3 Januar 2023. Man hatte also bisher 12-14 Monate für einen Wechsel. Warum geht man jetzt auf 24 Monate oder mehr?
Gerade mit der hohen Frequenz der Releases hat man in dem Bereich ja gut zu NVidia aufholen können. Wenn man überholen will, müsste man den Takt beibehalten.

Zossel
2023-07-03, 14:15:12
Es wird wie immer werden - alle erwarten AMD halbes Jahr vor nvidia und in Realität kommt nvidia höher raus als vorher prognostiziert, und AMD dafür ein halbes Jahr später und konnte den Hype Train nicht erfüllen. Same procedure as everly release.

Eigentlich könnte AMD mal zur Abwechslung mal mit den kleineren Chips starten, anstatt mit dem Top-Dog.

Bei den kleineren Chips sind auch höhere Stückzahlen drin, oder gibt es einen zwingenden Grund warum man mit dem Top-Dog starten muss?

amdfanuwe
2023-07-03, 14:38:52
Zwingend nicht, macht aber wirtschaftlich mehr Sinn.

Zossel
2023-07-03, 14:43:31
Zwingend nicht, macht aber wirtschaftlich mehr Sinn.

Wo liegt der wirtschaftliche Vorteil ein Produkt was nur für Minderheiten interessant ist als erstes raus zubringen?

robbitop
2023-07-03, 14:44:45
Halo

Zossel
2023-07-03, 15:05:19
Halo

Und das bringt mehr Kohle als in einem Markt mit relevanten Stückzahlen früher dran zu sein?

reaperrr
2023-07-03, 15:24:59
Wo liegt der wirtschaftliche Vorteil ein Produkt was nur für Minderheiten interessant ist als erstes raus zubringen?
Erstens hängt der Release meistens von der Reihenfolge ab, in der die Chips entwickelt und fertiggestellt werden. HighEnd hat hier Vorrang, weil man Schwächen in der Frontend-Skalierung etc. hier am ehesten erkennen und beheben kann. Chips künstlich zurückzuhalten kannst du dir auch nur leisten, wenn du früher dran bist als die Konkurrenz (das war zuletzt meistens nur bei Nvidia der Fall).
Zweitens ist dem Aufbau vieler kleinerer Chips nach zu urteilen, v.a. bei AMD, das runterskalieren der großen Chips designtechnisch einfacher als das spätere hochskalieren kleinerer Chips.
Drittens ist die Marge bei den HighEnd-Chips so viel höher, dass man mit relativ geringem Volumen relativ viel Geld machen kann, gerade zum Launch, und gerade Enthusiasten und Fans sind oft ungeduldig, da macht es sich besser, dass Flaggschiff zuerst rauszubringen.
Bringt man zuerst einen Mainstream-Chip, kann sich die Konkurrenz außerdem einfacher ausrechnen, wo die HighEnd-Chips landen werden, und prophylaktisch Preise senken oder die Referenz-Taktraten der eigenen kommenden Karten anpassen etc..
Und natürlich Halo-Effekt, wie robbitop schon sagte.

amdfanuwe
2023-07-03, 16:02:05
viertens sollte die Leistung über dem bisherigem Produktangebot liegen und somit den Abverkauf der Altware nicht wesentlich kanibalisieren.

Leonidas
2023-07-03, 17:25:48
Das ist heuer, wo die Performance-Sprünge kleiner werden, sogar der wichtigste Punkt. Wie wäre "Ada Lovelace" angekommen, wenn NV zuerst die 4070Ti rausgebracht hätte? NV hat mit dem Halo-Effekt der 4090 lange Zeit gut wuchern können, erst zuletzt hat sich die Stimmungslage zur RTX40-Serie grundlegend gewandelt.

Zossel
2023-07-03, 18:13:08
Das ist heuer, wo die Performance-Sprünge kleiner werden, sogar der wichtigste Punkt. Wie wäre "Ada Lovelace" angekommen, wenn NV zuerst die 4070Ti rausgebracht hätte? NV hat mit dem Halo-Effekt der 4090 lange Zeit gut wuchern können, erst zuletzt hat sich die Stimmungslage zur RTX40-Serie grundlegend gewandelt.

Ok, die Zielgruppe will also eine Show mit dessen Teilnehmern sich das Publikum auch identifizieren kann und damit irgendwie gut fühlt.

mboeller
2023-07-03, 18:51:33
Und das bringt mehr Kohle als in einem Markt mit relevanten Stückzahlen früher dran zu sein?


IMHO, nein

Aber:

Neue Generation = neuer Prozess (meistens zumindest) -> Tight Supply + hoher Preis.

Damit macht es mehr Sinn ein teures Produkt mit geringeren Stückzahlen als erstes auf den Markt zu bringen.

RDNA2 zeigte ja was passiert wenn der Prozess nicht gewechselt wird, dann macht es halt auch Sinn ein Midrange-Produkt mit hoher Stückzahl als erstes auf den Markt zu bringen

reaperrr
2023-07-03, 20:14:44
RDNA2 zeigte ja was passiert wenn der Prozess nicht gewechselt wird, dann macht es halt auch Sinn ein Midrange-Produkt mit hoher Stückzahl als erstes auf den Markt zu bringen
Naja, so Midrange war die 6800 XT nun auch wieder nicht:freak:

Und die 6700XT kam deutlich später.
Auch dort kam der größte Chip bei AMD also deutlich zuerst.

robbitop
2023-07-03, 20:20:18
Und das bringt mehr Kohle als in einem Markt mit relevanten Stückzahlen früher dran zu sein?

Offenbar ist es aus einer gewissen Konstellation von Gründen die sinnvollste Strategie. Alle großen machen es so. Und die haben Leute die sich damit vollzeit befassen und viel mehr Daten dazu haben als wir. Völlig naiv zu glauben irgendwelche Leute aus dem Forum wüssten es besser.

Neurosphere
2023-07-03, 22:04:28
Das ist heuer, wo die Performance-Sprünge kleiner werden, sogar der wichtigste Punkt.

Ist das so? Ich denke man hat heute eher ein Problem das die Leistungsaufnahme nicht weiter nach oben getrieben werden kann wie bei anderen Generationen der letzten 20 Jahre (prozentual).

Ansonsten sehe ich nicht unbedingt eine Stagnation sondern eher die normalen Schwankungen.

mboeller
2023-07-04, 06:28:46
Naja, so Midrange war die 6800 XT nun auch wieder nicht:freak:

Und die 6700XT kam deutlich später.
Auch dort kam der größte Chip bei AMD also deutlich zuerst.

stimmt... ich meinte 5700XT ... also RDNA1 ... peinlich

robbitop
2023-07-04, 11:08:32
RGT hat ein Video zu einem RT Patent veröffentlicht. RDNA4 könnte also nun eine BVH Traversal Unit haben.
Damit wäre man zumindest auf Turing/Ampere Niveau angelangt. Ich hoffe, dass das nicht alles ist. Level 4 HW wäre schön.

Mandalore
2023-07-04, 14:08:46
RGT hat ein Video zu einem RT Patent veröffentlicht. RDNA4 könnte also nun eine BVH Traversal Unit haben.
Damit wäre man zumindest auf Turing/Ampere Niveau angelangt. Ich hoffe, dass das nicht alles ist. Level 4 HW wäre schön.


https://www.youtube.com/watch?v=FrFjrtzDU1g


Welches Level hat Ada eigentlich? Bzw. wie unterscheidet es sich von Ampere?

robbitop
2023-07-04, 14:54:11
Level 4. Ist eine Zuordnung die sich IMG ausgedacht hat und damit ein wenig arbiträr: https://blog.imaginationtech.com/introducing-the-ray-tracing-levels-system-and-what-it-will-mean-for-gaming/?hs_amp=true


Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware

Ada und Alchemist haben Coherency Sorting in HW wobei der von NV (SER) weiterentwickelt zu sein scheint und auch explizit Implementierung benötigt um deutliche Vorteile zu bringen.

RDNA2/3 sind Ray box testers in HW level 2
Turing und Ampere haben eine BVH Traversal Beschleunigung in HW. RDNA4 scheint das auch zu bringen laut dem Patent.

Desweiteren hat Ada weitere Maßnahmen, BVH Traversal zu beschleunigen (braucht aber Entwicklerimplementierung). Opaque micromap engine und Displacement Micromesh Engine.

mksn7
2023-07-04, 15:33:52
Bei level 4 "coherency sorting" stellt sich imagination aber schon noch mehr vor als das was SER macht. Da wird nur nach shader typ sortiert, aber nicht nach geometrischer Kohärenz.

Ich hab auch schon "level 3.5" um das zu bezeichnen.

robbitop
2023-07-04, 18:52:14
Oh interessant :) Macht Sinn!

TheAntitheist
2023-07-04, 23:33:24
denke Geometrische Kohärenz ist mit den Mesh Shadern egal geworden. für die UE5 ists ja mit nanite auch Wurst geworden wie viele polys man da rein schmeißt und dem Shader ist es eigentlich egal ob es das gleiche Objekt ist oder nicht, der Aufwand bleibt fast gleich (immer Vorausgesetzt es wird ein Meshshader oder sowas wie nanite benutzt natürlich)

Leonidas
2023-07-05, 07:50:40
Ist folgende Auflistung korrekt?

Level2: RDNA2, RDNA3
Level3: Turing, Ampere, RDNA4
Level3.5: Ada, Alchemist
Level4: ImgTec

robbitop
2023-07-05, 09:18:40
Die Photon uArch von IMG ist laut eigenen Angaben Level 4. Sollte so stimmen.

@Antitheist
Bist du dir sicher, dass diese Randbedingungen für Pathtracing auch noch so stimmen? IIRC ist Koherenz bei Raytracing ein riesen Problem. Und da bei pathtracing ja nicht mehr gerastert wird, sondern Strahlen verschossen werden, die dann gestreut herumbouncen könnte ich mir schon vorstellen, dass andere Paradigmen/Mechanismen erforderlich sind, um Koherenz herzustellen.
Umsonst wird IMG das ja nicht definiert haben, wenn das alles schon über SW gelöst ist.

Exxtreme
2023-07-05, 10:23:50
Ist folgende Auflistung korrekt?

Level2: RDNA2, RDNA3
Level3: Turing, Ampere, RDNA4
Level3.5: Ada, Alchemist
Level4: ImgTec

Wobei diese Auflistung kein Standard ist sondern eine proprietäre Einordnung eines einzigen Herstellers für seine eigenen Produkte. Deshalb würde ich sowas jetzt nicht als eine Art Referenz nehmen. Denn andere Hersteller müssen sich nicht dran halten. Schon "Level3.5" zeigt, dass das auf Nvidia nicht passt.

robbitop
2023-07-05, 11:48:11
Ja das wurde ja hier schon mehrfach gepostet. Allerdings muss man konstatieren, dass IMG einer die RT Pioniere war und HW lange Zeit hatte bevor man auch nur an „RTX“ denken konnte. :)

basix
2023-07-05, 13:20:09
Ist folgende Auflistung korrekt?

Level2: RDNA2, RDNA3
Level3: Turing, Ampere, RDNA4
Level3.5: Ada, Alchemist
Level4: ImgTec

Da wir RDNA4 noch nicht kennen: Vielleicht ;)

Ich würde aber schon erwarten, dass RDNA4 mindestens Level 3 mitbringt. Besser Level 4. Blackwell könnte sich auch in Richtung Level 4 bewegen.

robbitop
2023-07-05, 13:56:36
Zumindest sagt das Patent nur was über die BVH HW. Es könnte also auch mehr verbaut sein. IMO darf man das für 2024/25 auch erwarten. Mit Level 3 wäre man da wo NV schon 2018 mit ihrer ersten Iteration von RTX war. Sehr dürftig. Aber leider scheint das im Moment AMDs Ansatz zu sein. Deshalb war ich aus High Level Sicht von Intels Alchemist sehr pisitiv überrrascht. Matrix Cores, und immerhin Level 3,5 Implementierung von RT Beschleunigung.

reaperrr
2023-07-06, 02:14:18
IMO darf man das für 2024/25 auch erwarten. Mit Level 3 wäre man da wo NV schon 2018 mit ihrer ersten Iteration von RTX war. Sehr dürftig. Aber leider scheint das im Moment AMDs Ansatz zu sein. Deshalb war ich aus High Level Sicht von Intels Alchemist sehr pisitiv überrrascht. Matrix Cores, und immerhin Level 3,5 Implementierung von RT Beschleunigung.
Bei den reinen Features war Intel - jetzt mal abgesehen von dem 10nm-Fiasko, wodurch Intel lange überhaupt keine neue Grafik-uArch bringen konnte - auch schon in früheren Jahren vor AMD. Bei den DX12 Tiers lag Intel im Schnitt vor AMD, eine Tesselation-Skalierung näher an Nvidia hatten sie auch (nur halt nicht die Rohperformance, um davon effektiv irgendwas zu haben).

Ist mMn primär den vorhandenen R&D-Ressourcen geschuldet. AMD's Grafik-R&D-Budget war ja noch weit in den Zen-Aufstieg hinein meilenweit unter dem von NV und ging erst wieder so richtig nach oben, als Turing schon fertig und Ampere in Entwicklung war, dass sie dann bei manchen Dingen der Musik erstmal ne Weile (mit Pech dauerhaft) hinterherlaufen, ist normal. Nvidia ist halt nie so träge geworden wie Intel.

Es ist nach wie vor schade, dass AMD einige Jahre so extrem an der Grafiksparte sparen musste, bin mir ziemlich sicher, dass sie in einigen Punkten heute schon viel weiter wären, wenn die Jahre 2012-2017 in Sachen R&D nicht budgetbedingt so viel Stillstand geherrscht hätte.

Zossel
2023-07-06, 07:56:18
Es ist nach wie vor schade, dass AMD einige Jahre so extrem an der Grafiksparte sparen musste, bin mir ziemlich sicher, dass sie in einigen Punkten heute schon viel weiter wären, wenn die Jahre 2012-2017 in Sachen R&D nicht budgetbedingt so viel Stillstand geherrscht hätte.

Bei einer derart launischen Kundschaft würde ich die auch erstmal hintenan stellen und mich auf andere Dinge konzentrieren bis ich entsprechende Produkte aus dem Abfall anderer Produkte destillieren kann.

robbitop
2023-07-06, 08:25:51
Nvidia zeigt ja dass sie dieser Kundschaft konsistent und sogar steigend immer mehr Geld abnehmen können. Aber sie haben sich auch Jahrzehnte die unangefochtene Marktführerschaft und ihr Image beim Kunden erarbeitet und konsistent abgeliefert. Produkte und Features und Innovationen. Seit G80 waren sie praktisch kaum noch zu schlagen. Die jahrelange Forschung in ehemalige Nebenthemen (für GPUs) wie compute oder AI zahlten sich irgendwann aus. Die haben immer sehr viel Geld in Forschung gesteckt.
Es wird für AMD sehr schwer, diesen Markt so zu drehen wie sie es mit Intel gemacht haben. Intel war im einer trägen Phase und bei CPUs gibt es halt keine Softwarefeatures, die dann ein Vendor auf seine Produkte locken kann.

Exxtreme
2023-07-06, 08:41:30
Bei einer derart launischen Kundschaft würde ich die auch erstmal hintenan stellen und mich auf andere Dinge konzentrieren bis ich entsprechende Produkte aus dem Abfall anderer Produkte destillieren kann.

Genau so sieht's aus. Man merkt das auch, dass AMD die Sache auch nicht so richtig ernstnimmt. Sie machen immer nur das allernötigste damit deren Kundschaft keine Nachteile hat soweit das möglich ist. Und das funktioniert halt doch ziemlich gut. Grafikkarten dürften ein nettes Zubrot sein plus ein Testlabor wo man Dinge ausprobieren kann, die man später in CPUs einbauen könnte.

YeahBuoy!
2023-07-06, 08:53:26
Genau so sieht's aus. Man merkt das auch, dass AMD die Sache auch nicht so richtig ernstnimmt. Sie machen immer nur das allernötigste damit deren Kundschaft keine Nachteile hat soweit das möglich ist. Und das funktioniert halt doch ziemlich gut. Grafikkarten dürften ein nettes Zubrot sein plus ein Testlabor wo man Dinge ausprobieren kann, die man später in CPUs einbauen könnte.

...und man behält einen Fuß in der Tür im lukrativen HPC Markt.

Achill
2023-07-06, 08:54:29
Zumindest sagt das Patent nur was über die BVH HW. Es könnte also auch mehr verbaut sein. IMO darf man das für 2024/25 auch erwarten. Mit Level 3 wäre man da wo NV schon 2018 mit ihrer ersten Iteration von RTX war. Sehr dürftig. Aber leider scheint das im Moment AMDs Ansatz zu sein. Deshalb war ich aus High Level Sicht von Intels Alchemist sehr pisitiv überrrascht. Matrix Cores, und immerhin Level 3,5 Implementierung von RT Beschleunigung.

AMD wurde in der Vergangenheit bei GPUs nicht belohnt wenn sie mal Vorreiter waren. Mag auch gut an der fehlenden Markmacht liegen um neue Techniken gegen die Konkurrenz durchzudrücken. Ähnlich sehe ich es mit R&D + tech Support Budget, das ist deutlich kleiner als von NV, dass man dann bei RT eine Generation hinter NV liegt mag für uns nicht toll sein und AMD wäre sicher auch gern an der Spitze, aber unter Ökonomischer Rahmenbedingen ist das Ergebnis wahrscheinlich schon sehr am Optimum.

Nvidia zeigt ja dass sie dieser Kundschaft konsistent und sogar steigend immer mehr Geld abnehmen können. Aber sie haben sich auch Jahrzehnte die unangefochtene Marktführerschaft und ihr Image beim Kunden erarbeitet und konsistent abgeliefert. Produkte und Features und Innovationen. Seit G80 waren sie praktisch kaum noch zu schlagen. Die jahrelange Forschung in ehemalige Nebenthemen (für GPUs) wie compute oder AI zahlten sich irgendwann aus. Die haben immer sehr viel Geld in Forschung gesteckt.
Es wird für AMD sehr schwer, diesen Markt so zu drehen wie sie es mit Intel gemacht haben. Intel war im einer trägen Phase und bei CPUs gibt es halt keine Softwarefeatures, die dann ein Vendor auf seine Produkte locken kann.

Ich glaube das ist eine Falschwahrnehmung oder evtl. trifft es auf die User wie hier im 3DC zu, es kann aber nicht auf die generelle Zielgruppe "Gamer" zutreffen, weil sonst die Umsätze nicht zurück gehen würden:


[..]
https://pics.computerbase.de/1/0/6/8/7/2-ec7f28ed7e500712/2-2160.8b3f4f41.png
[..]

robbitop
2023-07-06, 09:18:23
Naja damit es unbiased ist müsste man das auf die Umsätze des Gesamt PC Marktes normieren. Der PC Markt als solches geht ja stark zurück.
Oder man schaut sich direkt den Marktanteil an dGPUs über JPR an. Der zeigt wie brutal NVs Anteil an dGPU gewachsen ist. Aber da der PC Markt schrumpft schaut NV natürlich auch auf andere Märkte und druckt mit AI aktuell Geld.

Rumzuheulen weil man keinen Erfolg hat weil mal eine Generation ausnahmsweise gut ist, ist halt zu schnell aufgegeben. Damit man an die Position kommt, muss man viele Generationen konsistent abliefern. Und zwar mit möglichst vielen interessanten Features, die es beim anderen IHV nicht gibt (aus Endkundensicht ist das sehr unschön) und in Kombination mit dominanter Performance.

Wann hat das auf AMD GPUs zugetroffen das letzte Mal? RDNA2 war super- aber in Featuresicht hinterher. Und es war eine GPU Gen seit vielen vielen Jahren die mal wieder gut war. (und danach mit RDNA3 gleich wieder Müll abgeliefert) Davor dann zuletzt die 290X in 2013. War aber aus Featuresicht auch nicht berühmt. Damals hat NV Sachen wie TXAA und PhysX und 3D Gaming und viele andere Sachen gepusht. Bei AMD war selten echte Konsistenz geschweige denn Dominanz in der Konsistenz zu sehen. Genauso mit den Features. Man muss lange Zeit konsistent beides abliefern und dann wächst das Image und die Brand. Zuletzt hat das in der Form 2002-2005 geklappt. R300 und dessen Nachfolger haben NV in ihrer Schwächephase dominiert. Und Features gab es auch zB 6x SGMSAA während NV mit nur 2x SG rumgurkte und der Rest nur OG war. Und dann haben sie 2006 so einen Schwachsinn mit R600 gelauncht. Eine uArch die total out of touch war. Und unglücklicherweise launchte NV mit G80 auch eine unglaublich starke GPU. Und seit dem haben sie den Weg nie ganz wieder zurück gefunden.
Klar RnD war limitiert aber es fehlte IMO auch die richtige Attitüde. Aggressiv sein, SW Initiativen bringen jedes Jahr. Technisch Sachen bringen die primär geil sind und finanziell erstmal uninteressant wirken. Davon sind bei NV nämlich später ein paar Dinge in richtig lukrative Sparten gewachsen. Und es stärkt auch die Brand wenn man immer was geiles zum Vorzeigen hat.
AMD macht seit Jahren nur me-too. Und das ist evident(!) zu wenig.

Exxtreme
2023-07-06, 09:37:17
AMD macht seit Jahren nur me-too. Und das ist evident(!) zu wenig.

Die Kundschaft belohnt aber mehr als "me-too" nicht. Macht also betriebswirtschaftlich keinen Sinn da großartig Geld zu versenken. AMD hat eigentlich ein vieeel größeres Problem: so richtig schlechtes Marketing. Und das ist wiederum ein Punkt wo Nvidia so richtig aufblüht. Nvidia schafft es auch wirklich jeden Schrott ala quincunx antialiasing als endgeilen Shit darzustellen und das in die Welt hinauszuposaunen.

Linmoum
2023-07-06, 09:47:43
Wenn AMD die schnellste (also jetzt nicht nur +5%) Grafikkarte hätte, dann würden das die Käufer auch belohnen - und zwar nicht nur beim Top-Modell. Das wird aber - zumindest in der Form wie aktuell bei der 4090 - sowieso nie passieren.

robbitop
2023-07-06, 10:38:43
Die Kundschaft belohnt aber mehr als "me-too" nicht. Macht also betriebswirtschaftlich keinen Sinn da großartig Geld zu versenken. AMD hat eigentlich ein vieeel größeres Problem: so richtig schlechtes Marketing. Und das ist wiederum ein Punkt wo Nvidia so richtig aufblüht. Nvidia schafft es auch wirklich jeden Schrott ala quincunx antialiasing als endgeilen Shit darzustellen und das in die Welt hinauszuposaunen.

NV hat ein gutes PR Department. Aber sie liefern wie gesagt auch konsistent ab. Und da ist dein Argument, dass der Markt es nicht belohnt falsch. AMD hat es seit 20 Jahren nicht mehr hinbekommen konsistent über Jahre abzuliefern. Performance und Featuredominanz. Wie gesagt: einmal ist kein Mal. Da gleich abzuwinken - dann will man es offenbar nicht stark genug.
Ich bin mir sicher wenn man diese Attitüde ändern würde und etwas mehr investieren würde, könnte man langfristig die Situation schon deutlich verbessern.

HOT
2023-07-06, 11:05:48
Naa so gut ist es nun auch nicht. Man hat über die letzten 10 Jahre doch einiges Mal Porzellan beim Kunden zerschlagen.

robbitop
2023-07-06, 11:35:56
Und doch hat man >80% Marktanteil bei dGPUs. In Summe hat man da durch langen Einsatz schon eine wertvolle Marke erschaffen. Das hat AMD mit Ryzen und Epyc auch geschafft - passierte aber nicht über Nacht. Da mussten sie viele Generationen unentwegt abliefern. Und das obwohl man mit Epyc Intel schnell dominierte dauerte es dennoch JAHRE der Dominanz im Server bis man ordentlich Marktanteile holte.

HOT
2023-07-06, 11:46:59
Die Dominanz gibts ja schon seit Fermi 2.0. Das hat sich bis heute nicht geändert, AMD hat allerdings auch keine echte wirtschaftliche Priorität auf der GPU-Sparte. Es ist ja offensichtlich billiger CPUs günstig zu verticken und dafür 5nm-Kapazität zu priorisieren, also das bei GPUs zu tun. Das wird sich auch nicht ändern bis RDNA4, da ja auch Zen5 weiterhin N5/4 in Beschlag nimmt, doof für die GPU-Kapazitäten. Vielleicht setzt man bei RDNA4 dann auch mehr in GPUs rein, mal gucken. Immerhin wäre man dann ja erst mal mit GPUs in N3, während die CPUs ja nach wie vor N4 wären (es sei denn AMD plant einen Zen5-Refresh in N3). RDNA3 finanziert die Entwicklung von RDNA4, mehr will AMD mMn auch gar nicht erreichen damit. Da NV die Preise oben hält, kann AMD doch sehr zufrieden mit der Entwicklung sein.

vinacis_vivids
2023-07-06, 11:47:16
Su hatte bereits bei RDNA3 den Rotstift angesetzt und vorher Raja rausgekickt, welcher dezidierte RT-Einheiten, AI-Cores usw. auf einer GPU verbauen wollte.
RDNA3 ist rein auf Kosten bzw. small-Die-Size optimiert, was auch sehr gut ist, wenn man den ARC von Intel sieht, welcher die doppelte Fläche verbraucht für die äquivalente Leistung (A770 vs 7600). Auch Huang ist am Ende der Singel-GPU-Fahnenstange angekommen, wenn man die 800mm² Belichtungsgrenze bei Silizium sieht.

Bei RDNA4 prophezeihe ich den Abstieg von Huang als Nr. 1 beim Gaming. Der wird weiter riesen Brute-Force Chips bauen als Halo-Produkt, sich mit seiner Lederjacke vorm Ofen grinsend hinstellen und ein Dummy-Chip zeigen, den er limitiert 30 Mal verschenkt an irgendwelche Kids, die dann ihr ganzes Leben seine Chips kaufen sollen.

Das Halo-Ofenprodukt auf dem Katalog für 2999 USD, das sich keiner mehr leisten kann und seine Basis der 300-600€ / USD Käufer im Stich lassen (wie fast immer). Bei RDNA4 3nm Markterscheinung 2024 wird wahrscheinlich immer noch das volle Ampere-Lager per Marketing abverkauft.

robbitop
2023-07-06, 11:50:25
Die Dominanz gibts ja schon seit Fermi 2.0. Das hat sich bis heute nicht geändert, AMD hat allerdings auch keine echte wirtschaftliche Priorität auf der GPU-Sparte. Es ist ja offensichtlich billiger CPUs günstig zu verticken und dafür 5nm-Kapazität zu priorisieren, also das bei GPUs zu tun. Das wird sich auch nicht ändern bis RDNA4, da ja auch Zen5 weiterhin N5 in Beschlag nimmt, doof für die GPU-Kapazitäten. Vielleicht setzt man dort dann auch mehr in GPUs rein, mal gucken. Immerhin wäre man dann ja erst mal mit GPUs in N3, während die CPUs ja nach wie vor N4 wären (es sei denn AMD plant einen Zen5-Refresh in N3).
Man könnte mit beidem Geld drucken. NV beweist es.

aufkrawall
2023-07-06, 11:51:28
Herkelman und Azor sind Fehlbesetzungen. Man müsste Nvidia noch viel stärker und besser kopieren, um ihnen die Butter vom Brot zu nehmen. Dafür fehlt es diesen Leuten offenbar komplett an Vorstellungskraft und Biss. Schade, dass Su da nicht durchgreift und jemanden wie Petersen angelt.

robbitop
2023-07-06, 11:55:02
Das mit dem Biss sehe ich auch so. Der Biss den man aus der CPU Abteilung seit kurzem kennt. Oder die Einstellung wo sich intern Leute eingesetzt haben aus Epyc Threadripper zu machen. Und: Nicht nur besser kopieren sondern auch zusätzlich eigene Initiativen. Features die geil sind die Nvidia aber nicht hat. Und Hardware die pro W auch die Wurst vom Teller zieht. RDNA2 war gut - RDNA3 in der Hinsicht Müll da Stagnation trotz fullnode shrink.

HOT
2023-07-06, 11:55:51
Man könnte mit beidem Geld drucken. NV beweist es.
Nein, kann man nicht. Wenn RDNA3 weniger bringt als Zen4 an der Kasse, muss man halt Prioritäten setzen. War nur im Mining-Hype nicht so, aber jetzt fällt man halt in alte Muster zurück. Im Endeffekt zählt der Gewinn, sonst nichts.

aufkrawall
dem kann man natürlich nur voll zustimmen.

robbi
Das mit der Stagnation ist ein Märchen. Bin auf den 7nm-RDNA2-Chip mit der Leistung einer 7900XTX gespannt.

robbitop
2023-07-06, 11:59:50
Nein, kann man nicht. Wenn RDNA3 weniger bringt als Zen4 an der Kasse, muss man halt Prioritäten setzen. War nur im Mining-Hype nicht so, aber jetzt fällt man halt in alte Muster zurück. Im Endeffekt zählt der Gewinn, sonst nichts.

aufkrawall
dem kann man natürlich nur voll zustimmen.
Du hast es nicht verstanden. Damit man mit GPUs Geld drucken kann, muss man jahrelang konsistent mal was Vernünftiges abliefern. Wenn man immernur lau warmen me-too (aber schlechter) Kram abliefert ja dann kann man damit natürlich auch kein Geld drucken.

Wenn einem das Leben Zitronen gibt, kann man natürlich wie ein Dulli reinbeißen und das Gesicht verziehen oder man investiert Zeit und Mühe und macht Limonade.

robbitop
2023-07-06, 12:02:11
robbi
Das mit der Stagnation ist ein Märchen. Bin auf den 7nm-RDNA2-Chip mit der Leistung einer 7900XTX gespannt.
In Bezug auf Perf/W. Das was N31 abliefert ist traurig. Läppische 40% mehr Leistung für einen ordentlichen Schluck aus der Pulle mehr. Perf/W wurde kaum besser trotz Fullnodeshrink.

HOT
2023-07-06, 12:04:52
Du hast es nicht verstanden. Damit man mit GPUs Geld drucken kann, muss man jahrelang konsistent mal was Vernünftiges abliefern. Wenn man immernur lau warmen me-too (aber schlechter) Kram abliefert ja dann kann man damit natürlich auch kein Geld drucken.

Wenn einem das Leben Zitronen gibt, kann man natürlich wie ein Dulli reinbeißen und das Gesicht verziehen oder man investiert Zeit und Mühe und macht Limonade.

RDNA2 beweist das Gegenteil. Das stimmt eben einfach nicht. Wenn GPUs wirtschaftliche Priorität haben, muss man halt nur die Technologie im Griff behalten.

In Bezug auf Perf/W. Das was N31 abliefert ist traurig. Läppische 40% mehr Leistung für einen ordentlichen Schluck aus der Pulle mehr. Perf/W wurde kaum besser trotz Fullnodeshrink.

Yea, Märchenstunde. Klar, RDNA3 ist nicht so effizient wie der sein sollte, aber es ist nicht 0, das ist einfach gelogen. Ein entsprechender RDNA2-Chip würde wieviel brauchen? 550W?
Und Phoenix hat halt nur RDNA3 lite, wie N33. Das ist halt was anderes.

aufkrawall
2023-07-06, 12:35:01
Gerade ewig Tests durchkämmt für Perf/W über mehrere Titel hinweg, anstatt nur für einen einzelnen. Schon ein Sprung, aber gegen Lovelace halt etwas meh:
https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7900-xtx-review/32/

Mangel76
2023-07-06, 12:35:43
Man könnte mit beidem Geld drucken. NV beweist es.

Aber nur, wenn man für große GPUs auch NV-Preise aufrufen kann. AMD kann es derzeit nicht, also geht es um Kostenoptimierung statt Leistungsmaximierung. Um einen derartig gefestigten Marktführer anzugreifen, muss man sehr viel investieren und vor allem einen langen Atem haben. Bei CPUs war AMD da schon recht erfolgreich. Bei CPUs ist es aber auch einfacher, da beide quasi das gleiche können, da beide X86-CPUs bauen. Da geht es nur um das wie, nicht um das was.

Bei GPUs ist es anders. Hier hat NV einen großen Feature-Vorsprung. Dagegen ist es noch schwieriger anzukämpfen. Bei einem schrumpfenden Markt wäre es idiotisch, hier zu viel Geld zu investieren. Der professionelle Markt dagegen verspricht deutlich mehr Gewinn. Also heißt es im Gamingmarkt Kosten optimieren, im professionellen Bereich investieren!

Zossel
2023-07-06, 12:36:26
...und man behält einen Fuß in der Tür im lukrativen HPC Markt.

Spielekonsolen nicht vergessen.

Aquaschaf
2023-07-06, 12:38:16
In Bezug auf Perf/W. Das was N31 abliefert ist traurig. Läppische 40% mehr Leistung für einen ordentlichen Schluck aus der Pulle mehr. Perf/W wurde kaum besser trotz Fullnodeshrink.

Die Wahrnehmung liegt hier denke ich daran:

- Ada ist deutlich effizienter als Ampere und hat einen guten Teillastverbrauch, während der Teillastverbrauch bei Ampere in etwa genauso schlecht war wie jetzt bei RDNA3.
- RDNA3 ist etwas effizienter als RDNA2, ist beim Teillastverbrauch ein Rückschritt, und hat idle richtige Probleme.

Man muss aber bedenken dass der Fertigungssprung bei NVidia größer war als bei AMD, und eben NVidia jetzt auch große Caches und kleinere Speicherinterfaces verbaut. Das hat AMD schon bei RDNA2 gemacht; nochmal so einen architekturell "einfachen" großen Effizienzgewinn konnten sie nicht einfahren.

Unter Vollast und Auflösungen ab WQHD liegen Ada und RDNA3 was die Raster-Effizienz angeht am Ende gar nicht so weit auseinander. Je nachdem was man genau vergleicht sind es nur etwa 10-30% Unterschied. Und dann kann man noch zu Buche schlagen dass der Umstieg auf Chiplets möglicherweise zwangsläufig ein paar Prozent kostet.

Ich finde auch nicht dass die RDNA3-Karten attraktive Produkte sind, aber die Effizienz unter Last kann man nicht als Stagnation bezeichnen. Teillast ist zwar nicht schön, aber ehrlich gesagt hat da bis RDNA2 kaum jemand darauf geachtet.

HOT
2023-07-06, 12:38:39
Gerade ewig Tests durchkämmt für Perf/W über mehrere Titel hinweg, anstatt nur für einen einzelnen. Schon ein Sprung, aber gegen Lovelace halt etwas meh:
https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7900-xtx-review/32/
Korrekt. Und für Fullnode zu wenig, das stand ja nie in Zweifel ;).

Mangel76
AMD macht reine Gewinnmaximierung mit RDNA3. Man bleibt immer an der oberen Kante der EK-Preise, die man grade noch nehmen kann. Kostenoptimierung sehe ich eher nicht, die N31-Karten sind sogar sehr teuer bestückt, viel teurer als 90% der 4080 und 4090. Die AMDs tragen alle ne volle Monolith-VRM-Bestückung (Wie NVs FE), NV ist da eher mit sehr günstigen Vishay, AlphaOmega oder OnSemi-Bestückungen unterwegs. Das geht so natürlich nur bei eingeschränktem Supply so. Man kann mit der Strategie keine 50% Marktanteil bedienen.
N32 wird da was ändern, denn da wirds sicherlich ein kostenoptimiertes PCB mit kostenoptimierter Bestückung geben, auch für N31 im N32-Package.

Zossel
2023-07-06, 12:42:21
Wenn AMD die schnellste (also jetzt nicht nur +5%) Grafikkarte hätte, dann würden das die Käufer auch belohnen - und zwar nicht nur beim Top-Modell. Das wird aber - zumindest in der Form wie aktuell bei der 4090 - sowieso nie passieren.

Wer seine Kaufentscheidung für kleinere Sachen vom Top-Dog abhängig macht fehlt eindeutig das entsprechende Selbstbewusstsein.
In so einen irrationalen Markt viel Geld zu investieren ist und bleibt ein hohes Risiko.

Zossel
2023-07-06, 12:50:14
Das mit dem Biss sehe ich auch so. Der Biss den man aus der CPU Abteilung seit kurzem kennt. Oder die Einstellung wo sich intern Leute eingesetzt haben aus Epyc Threadripper zu machen. Und: Nicht nur besser kopieren sondern auch zusätzlich eigene Initiativen. Features die geil sind die Nvidia aber nicht hat. Und Hardware die pro W auch die Wurst vom Teller zieht. RDNA2 war gut - RDNA3 in der Hinsicht Müll da Stagnation trotz fullnode shrink.

Wo ist der ROI besser, bei CPUs oder bei GPUs?
Und verzetteln sollte man sich auch nicht, sondern lieber auf den Gegner fokussieren den man im Moment auch schlagen kann, und das ist im Moment Intel.

Achill
2023-07-06, 12:50:37
Naja damit es unbiased ist müsste man das auf die Umsätze des Gesamt PC Marktes normieren. Der PC Markt als solches geht ja stark zurück.
Oder man schaut sich direkt den Marktanteil an dGPUs über JPR an. Der zeigt wie brutal NVs Anteil an dGPU gewachsen ist. Aber da der PC Markt schrumpft schaut NV natürlich auch auf andere Märkte und druckt mit AI aktuell Geld.
[..]


Interessant was von den JPR Reports hängen bleibt. M.W. ist es nicht der "Marktanteil" sondern der Umsatz "im entsprechenden Quartal" welcher dann von mir unbekannten Formeln auf dGPUs von JPR gerechnet wird. Natürlich ist es so, wenn über Jahre das Verhältnis ungleich bleibt, sich auch der Marktanteil verschiebt.

Dies ist aber generell Unabhängig (selbst wenn ich mich irre) von dem Fakt, dass der PC-Gaming Markt zurück geht. Nun wollte ich nicht sagen, dass dies alleinig an den GPU Preisen von NV liegt. Aber es stützt eben auch nicht die These, dass die Mehrheit der Kunden höhere GPU-Preise akzeptziert und eben nicht zu Alternativen migriert - also PS5, XBox, Steam-Decks, Switch, ..

Btw bzgl. dGPUs - es ist seit Jahren bei Laptops oder PC-Systemen für Firmen der Fall, dass da nicht oft Intel verkauft wird sondern auch eine NV GPU mit am Board ist. Dies zählen in die Verkauften Stückzahlen kommen aber ggf. gar nicht zum Einsatz bei Spielen.


[..]
Rumzuheulen weil man keinen Erfolg hat weil mal eine Generation ausnahmsweise gut ist, ist halt zu schnell aufgegeben. Damit man an die Position kommt, muss man viele Generationen konsistent abliefern. Und zwar mit möglichst vielen interessanten Features, die es beim anderen IHV nicht gibt (aus Endkundensicht ist das sehr unschön) und in Kombination mit dominanter Performance.
[..]


Ich hoffe du meinst nicht mich oder AMD, ich habe nur versucht eine Erklärung zu geben, was mein Erwartungsbild ist und warum dies m.E. realistisch ist - oder was mir nicht realistisch erscheint. Was bringt es einen, wenn man ein Erwartungsbild aufbaut, was ggf. gar nicht erreichbar ist.


[..]
Wann hat das auf AMD GPUs zugetroffen das letzte Mal? RDNA2 war super- aber in Featuresicht hinterher. Und es war eine GPU Gen seit vielen vielen Jahren die mal wieder gut war. (und danach mit RDNA3 gleich wieder Müll abgeliefert) Davor dann zuletzt die 290X in 2013. War aber aus Featuresicht auch nicht berühmt. Damals hat NV Sachen wie TXAA und PhysX und 3D Gaming und viele andere Sachen gepusht. Bei AMD war selten echte Konsistenz geschweige denn Dominanz in der Konsistenz zu sehen. Genauso mit den Features. Man muss lange Zeit konsistent beides abliefern und dann wächst das Image und die Brand. Zuletzt hat das in der Form 2002-2005 geklappt. R300 und dessen Nachfolger haben NV in ihrer Schwächephase dominiert. Und Features gab es auch zB 6x SGMSAA während NV mit nur 2x SG rumgurkte und der Rest nur OG war. Und dann haben sie 2006 so einen Schwachsinn mit R600 gelauncht. Eine uArch die total out of touch war. Und unglücklicherweise launchte NV mit G80 auch eine unglaublich starke GPU. Und seit dem haben sie den Weg nie ganz wieder zurück gefunden.
Klar RnD war limitiert aber es fehlte IMO auch die richtige Attitüde. Aggressiv sein, SW Initiativen bringen jedes Jahr. Technisch Sachen bringen die primär geil sind und finanziell erstmal uninteressant wirken. Davon sind bei NV nämlich später ein paar Dinge in richtig lukrative Sparten gewachsen. Und es stärkt auch die Brand wenn man immer was geiles zum Vorzeigen hat.
AMD macht seit Jahren nur me-too. Und das ist evident(!) zu wenig.


Da hier 290X und Tahiti genannt wird, man sollte nicht vergessen, dass kurz bevor die 290x startet im CPU Bereich die FX Tränenzeit begann wo im Consumer und Professionellen Markt absehbar Verluste passieren würden gegen Intel. Der Erfolg der GPU wird sicherlich direkt in R&D für Zen geflossen sein.

Des weiteren wird man um 2012 schon an der PS4 und XBox gearbeitet haben.

Die 290X und Tahiti davor:
- Async-Compute
- Mantel
- ...

Nvidia mit 700er und 900er Serie:
- 900er hatte HW-Texture-Komprimierung und Polygon-Removal
- GameWorks Effekte (viele auf Tessellation basiert)
- TXAA was initial NV-GPU exklusiv war
- PhysX (nicht selbst entwickelt sondern eingekauft), 1-Core CPU Fallback (aber nicht für Konsolen) für nicht NV GPUs obwohl mittels Compute hätte laufen können (spätestens ab DX12 und VK)

Ich habe bestimmt ganz viel vergessen, aber AMD hat m.E. definitiv nicht Faul rumgesessen, genauso wenig wie NV. Was NV definitive besser macht ist das Marketing aber auch das Social-Influencern. Auch die Fach-Presse war m.E. viel zu Lieb bzgl. GameWorks und dessen Auswirkungen. Die GPUs von NV hatten auch damals schon das Problem mit zu wenig VRAM .. aber vielleicht ist dies auch gar keins wenn man es nur richtig Verkauft bekommt.

robbitop
2023-07-06, 12:55:21
RDNA2 beweist das Gegenteil. Das stimmt eben einfach nicht. Wenn GPUs wirtschaftliche Priorität haben, muss man halt nur die Technologie im Griff behalten.
Du hast es immernoch nicht verstanden: RDNA2 war EINE Generation. Davon muss man viele gute hintereinander liefern ohne zu stolpern. Und selbst bei RDNA2 hatte man Mankos. Lahmes RT und kein DLSS. Wäre FSR2 gleich gut zu DLSS und wäre es zum Launch gekommen und hätte man auch bei RT abgeliefert wäre das dann eine gesamtheitlich gute Generation gewesen. Und davon musst du halt 3-5 in Folge machen mit ein bisschen Glück dass der Gegner auch mal eine Generation nicht so gut abliefert und man mindshare einsammeln kann. Eine Generation ist keine. Siehe Ryzen/Epyc.



Yea, Märchenstunde. Klar, RDNA3 ist nicht so effizient wie der sein sollte, aber es ist nicht 0, das ist einfach gelogen. Ein entsprechender RDNA2-Chip würde wieviel brauchen? 550W?
Und Phoenix hat halt nur RDNA3 lite, wie N33. Das ist halt was anderes.
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/5/#abschnitt_energieeffizienz_in_fps_pro_watt

+18% mehr Perf/W vs 6900xt. Das ist lausig für eine neue uArch und einen Fullnodesprung. AMD hat 50% angekündigt. Und jetzt schau im Diagramm wo Ada liegt.

Wenn man sowas abliefert braucht man sich nicht zu wundern, wenn man mit GPUs eben kein Geld drucken kann.
Mit den richtigen Leuten am Steuer könnte AMD das unter Garantie besser. Man müsste aber auch ein paar Generationen lang Geduld haben.

robbitop
2023-07-06, 12:59:35
Wo ist der ROI besser, bei CPUs oder bei GPUs?
Und verzetteln sollte man sich auch nicht, sondern lieber auf den Gegner fokussieren den man im Moment auch schlagen kann, und das ist im Moment Intel.

Wenn man den ROI mit dem status quo rechnet, machen CPUs mehr Sinn. Aber nur ein Standbein ist gefährlich und mit einer stärkeren Marke könnte man auch in mehreren Standbeinen Geld drucken. Wer nur immer nach ROI entscheidet wird nie ein großartiges Unternehmen führen. Das ist Verwaltung des Stillstandes.

@Achill
AMD hat damals mehr gemacht aber auch da war es nie konsistent. R600 - kacke. RV670 - weniger kacke. RV770 - erstaunlich gutes P/L aber keine Krone und keine Killerfeatures. RV870 - gut aber keine Krone - und zumindest dieses Surround Gaming Feature. Der Nachfolger war lauwarm. Tahiti hat gerade mal für Keplermittelklasse gereicht. Erst Hawaii war wieder ein Kronenjäger. Und dann kam Fijii der richtig kacke war. Und dann Polaris gutes Mainstream Produkt aber keine Konkurrenz mehr zur 70er, 80er und 80 ti. Und dann kam Vega - auch kacke. Dann Navi 10 - so wie Polaris gutes Midrange aber keine Konkurrenz zu Highend und NV lieferte da schon RT mit Turing. Und dann kam RDNA2 die wirklich seit fast 10 Jahren endlich mal wieder eine gute uArch hinlegte. Und dann mit RDNA3 wieder nur Mittelmaß. Seit R600 ist keine Konsistenz mehr drin. Und leider viel öfter schlechte oder mittelmäßige Generationen als richtig gute. Man lieferte halt nicht ab. Entsprechend ist die Marke und der Marktanteil halt schwach.

Ist es realistisch das nich umzudrehen? Auf jedem Fall verdammt schwer. Aber nur das Dahinsiechen zu verwalten wäre schade.

HOT
2023-07-06, 12:59:46
Du hast es immernoch nicht verstanden: RDNA2 war EINE Generation. Davon muss man viele gute hintereinander liefern ohne zu stolpern. Und selbst bei RDNA2 hatte man Mankos. Lahmes RT und kein DLSS. Wäre FSR2 gleich gut zu DLSS und wäre es zum Launch gekommen und hätte man auch bei RT abgeliefert wäre das dann eine gesamtheitlich gute Generation gewesen. Und davon musst du halt 3-5 in Folge machen mit ein bisschen Glück dass der Gegner auch mal eine Generation nicht so gut abliefert und man mindshare einsammeln kann. Eine Generation ist keine. Siehe Ryzen/Epyc.

Ich halte das nach wie vor für Unsinn. Das hat nix mit Verstehen zu tun ;). Wenn AMD die Technologie im Griff hat besteht kein Problem. Du brauchst mit GPUs keinen wirtschaftlichen Erfolg, entsprechend kann man bei der Entwicklung auch mehr Risiken eingehen, das hat sich bei RDNA3 nicht ausgezahlt dieses Mal ;).
Mal sehen, was der Chiplet-Vorteil bei RDNA4 wert ist. Von der Architektur her kriegen die das hin, da mach ich mir wenig Sorgen.

https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/5/#abschnitt_energieeffizienz_in_fps_pro_watt

+18% mehr Perf/W vs 6900xt. Das ist lausig für eine neue uArch und einen Fullnodesprung.
Hat keiner bestritten, aber es ist eben immer noch fast 20% und nicht "hat die gleiche Effizienz", das ist Gelaber was dauernd nachgeplappert wird, sry. Uuuund die 6900XT läuft quasi auf dem Sweetspot. das ist ja eigentlich ein Produkt, was man sich nicht bekommt. Der Vergleich mit der 6950XT hat mMn mehr Sinn, weil beide Hersteller gern mal über den Sweetspot hinaus gehen.

Wenn man den ROI mit dem status quo rechnet, machen CPUs mehr Sinn. Aber nur ein Standbein ist gefährlich und mit einer stärkeren Marke könnte man auch in mehreren Standbeinen Geld drucken. Wer nur immer nach ROI entscheidet wird nie ein großartiges Unternehmen führen. Das ist Verwaltung des Stillstandes.

Was willst du eigentlich? Die GPUs verkaufen sich doch. Es gibt kein wirtschaftliches Problem, wirtschaftlich hat AMD alle richtig gemacht, von der Produktplatzierung bis zu Bepreisung bis zur Priorisierung. AMD hat beim Marketing Scheiß gebaut, was aber letztenlich bei dem Marktstatus der GPUs irrelevant ist und bei FSR Geld einfach liegen lassen wegen Doofheit, weil das ein paar % mehr Gewinn pro Produkt wären von der Bepreisung her.

aufkrawall
2023-07-06, 13:03:55
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/5/#abschnitt_energieeffizienz_in_fps_pro_watt

+18% mehr Perf/W vs 6900xt.
Nope, der CB-Test ist nur Doom Eternal und hat damit keine nennenswerte Aussagekraft vs. Kitguru, die über zwölf Titel den Durchschnitt bilden. Und da sinds +29% von 6900 XT auf 7900 XTX.

robbitop
2023-07-06, 13:12:51
Schon merkwürdig wie unterschiedlich die Ergebnisse über die Redaktionen sind.
Relativ zu Ada ist man jedenfalls dennoch viel zu weit zurück.


@HOT
Hat keinen Sinn mit dir zu diskutieren. Für mich da EOD. Du siehst den Punkt einfach nicht. Ist ja schön für dich wenn es dir ausreicht, wenn AMD das was sie haben weiterverwalten.
Ich als Endkunde will echte cut throat Konkurrenz und damit einen gesunden Markt. Und dazu benötigt es einen zweiten oder dritten starken IHV.
Der Beweis ist durch NV jedenfalls erbracht was man verdienen kann, wenn man konsistent abliefert.

Zossel
2023-07-06, 13:19:24
Ich als Endkunde will echte cut throat Konkurrenz

Die Shareholder entscheiden das, nicht du.

Pirx
2023-07-06, 13:23:57
Schon merkwürdig wie unterschiedlich die Ergebnisse über die Redaktionen sind....
bei deinem Link wurde nur ein Spiel genommen, da braucht man sich schon mal nicht wundern

aufkrawall
2023-07-06, 13:26:16
Bei Vulkan gehen vermutlich auch ein paar % durch die Umstellung auf den open-source Compiler verloren. Die wirds ggf. auch nicht mehr wieder geben, wenn das "Cheats" waren.

Exxtreme
2023-07-06, 13:30:43
@HOT
Hat keinen Sinn mit dir zu diskutieren. Für mich da EOD. Du siehst den Punkt einfach nicht. Ist ja schön für dich wenn es dir ausreicht, wenn AMD das was sie haben weiterverwalten.
Ich als Endkunde will echte cut throat Konkurrenz und damit einen gesunden Markt. Und dazu benötigt es einen zweiten oder dritten starken IHV.
Der Beweis ist durch NV jedenfalls erbracht was man verdienen kann, wenn man konsistent abliefert.

Bei einer AG ist das eher schwierig. Man müsste die Aktionäre davon überzeugen, dass die Geschäftsführung für etwas Geld ausgibt was sich in der Vergangenheit als ein Geldgrab entpuppt hat. Und bisher sieht das nicht so aus als ob die Aktionäre dazu bereit sind. Und wenn ich AMD Großaktionär wäre dann würde ich eher drauf drängen, dass sie erstmal die Marketingabteilug komplett auswechseln. Denn da hakt es noch viel mehr als bei der Technik. Die Technik bei AMD funktioniert, das Marketing funktioniert gar nicht.

HOT
2023-07-06, 13:31:09
[...]

@HOT
Hat keinen Sinn mit dir zu diskutieren. Für mich da EOD. Du siehst den Punkt einfach nicht. Ist ja schön für dich wenn es dir ausreicht, wenn AMD das was sie haben weiterverwalten.
Ich als Endkunde will echte cut throat Konkurrenz und damit einen gesunden Markt. Und dazu benötigt es einen zweiten oder dritten starken IHV.
Der Beweis ist durch NV jedenfalls erbracht was man verdienen kann, wenn man konsistent abliefert.

Ich verstehe es sehr wohl, du verstehst nicht, dass es hier schlichtweg kein Problem gibt. Du siehst Probleme wo keine sind ;). Und wie gut RDNA4 wird sehen wir wenn RDNA4 kommt. Es ist ja so: trotz deiner angenommenen Nachteile hat AMD den Konsolenmarkt und damit sen allergrößten Teil des Spielemarktes unter Kontrolle. Die hat man mit vermeintlich schwacher GCN-Architektur sogar erreicht. Klar sind da immer wieder Fails dabei, NV bleibt da etwas nachhaltiger dran. Aber das ist eben kein wirklicher Nachteil für AMD, das muss man einfach verstehen. RDNA2 beweist das. Man hat den Anschluss trotz Fiji, Vega, R600 und Cayman eben doch nicht verloren ;).

Dino-Fossil
2023-07-06, 13:35:33
Und wenn ich AMD Großaktionär wäre dann würde ich eher drauf drängen, dass sie erstmal die Marketingabteilug komplett auswechseln. Denn da hakt es noch viel mehr als bei der Technik. Die Technik bei AMD funktioniert, das Marketing funktioniert gar nicht.

Und die Software-Abteilung aufstocken. Z.b. über die freigewordenen Stellen der Marketingabteilung. :D
Ist zwar schon merklich besser geworden, aber noch lange nicht da, wo es sein sollte.

Achill
2023-07-06, 16:43:04
[..]

@Achill
AMD hat damals mehr gemacht aber auch da war es nie konsistent. R600 - kacke. RV670 - weniger kacke. RV770 - erstaunlich gutes P/L aber keine Krone und keine Killerfeatures. RV870 - gut aber keine Krone - und zumindest dieses Surround Gaming Feature. Der Nachfolger war lauwarm. Tahiti hat gerade mal für Keplermittelklasse gereicht. Erst Hawaii war wieder ein Kronenjäger. Und dann kam Fijii der richtig kacke war. Und dann Polaris gutes Mainstream Produkt aber keine Konkurrenz mehr zur 70er, 80er und 80 ti. Und dann kam Vega - auch kacke. Dann Navi 10 - so wie Polaris gutes Midrange aber keine Konkurrenz zu Highend und NV lieferte da schon RT mit Turing. Und dann kam RDNA2 die wirklich seit fast 10 Jahren endlich mal wieder eine gute uArch hinlegte. Und dann mit RDNA3 wieder nur Mittelmaß. Seit R600 ist keine Konsistenz mehr drin. Und leider viel öfter schlechte oder mittelmäßige Generationen als richtig gute. Man lieferte halt nicht ab. Entsprechend ist die Marke und der Marktanteil halt schwach.

Ist es realistisch das nich umzudrehen? Auf jedem Fall verdammt schwer. Aber nur das Dahinsiechen zu verwalten wäre schade.

Dem stimme ich so zu, insbesondere in Relation zu NV.

---

Und die Software-Abteilung aufstocken. Z.b. über die freigewordenen Stellen der Marketingabteilung. :D
Ist zwar schon merklich besser geworden, aber noch lange nicht da, wo es sein sollte.

+1 ... ich verstehe auch nicht wie der ROCm und HIP Stack - der nicht erst seit gestern existent - unter Linux nicht den Support für alle aktuellen GPUs gibt, egal ob Consumer oder Pro und das gleiche mit Windows. Sprich, dass man für die Wichtigen SW-Projekte nicht dediziert Leute oder ganze Teams abstellen kann um den Stack in wichtige Open- und Close-Source-Projekte zu integrieren geht auf keine Kuhhaut. Die Kosten die SW rund zu machen und dran zu bleiben sollte kleiner sein als nötiges Marketing um im nachhinein Verzögerungen oder anderes zu verklären.

Langlay
2023-07-06, 17:06:44
. Und wenn ich AMD Großaktionär wäre dann würde ich eher drauf drängen, dass sie erstmal die Marketingabteilug komplett auswechseln.

Das hätten sie eigentlich schon vor 15 Jahren oder so machen sollen. Und gefühlt ist seit dem ja auch wenig besser geworden. Und gerade in den letzten 12 Monaten ist wieder ganz schlimm mit dem AMD Marketing.

Es ist ja so: trotz deiner angenommenen Nachteile hat AMD den Konsolenmarkt und damit sen allergrößten Teil des Spielemarktes unter Kontrolle. Die hat man mit vermeintlich schwacher GCN-Architektur sogar erreicht.

Ich würde Haus und Hof drauf wetten, AMD hat die Konsolendeals nicht bekommen wegen ihrer herausragenden Grafik-IP sondern weil AMD quasi der einzige war der eine ausreichend performante CPU und GPU aus einer Hand liefern konnte und wollte.

Achill
2023-07-06, 17:16:42
[..]
Ich würde Haus und Hof drauf wetten, AMD hat die Konsolendeals nicht bekommen wegen ihrer herausragenden Grafik-IP sondern weil AMD quasi der einzige war der eine ausreichend performante CPU und GPU aus einer Hand liefern konnte und wollte.

Man sollte aber festhalten, dass Sony mit der PS3 zuerst NV eine Chance eingeräumt hat (wobei man da keine weiteren Details m.W. hat). Da der Cell-Prozessor und die NV-GPU aber anscheinend nicht zufriedenstellend für Sony waren bzw. AMD dann für die PS4 das bessere (kann auch Perf/Preis sein) Angebot gemacht hat.

Sony hat ja auch das Setup um die Xbox 360 analysieren können wo PowerPC-CPU mit ATI GPU zum Einsatz kam.

=> Konsolen mehr in Richtung PC-Hardware zu bringen hat u.a. den Vorteil, dass es im Vergleich mehr oder schneller fähige SW-Engineers gibt als wenn erst auf auf exotischere Architekturen sich erst einarbeiten muss und dann zusätzlich auch neue Erfahrung sammelt. Das kann man gar nicht Abschätzen was solche Ungewissheiten für Roadmap- oder Budgets-Planung bedeutet.

Langlay
2023-07-06, 17:42:59
=> Konsolen mehr in Richtung PC-Hardware zu bringen hat

Darauf hab ich ja angespielt. Nvidia hatte keine x86 CPU, Intel hätte sicherlich CPU und GPU liefern können wenn sie den gewollt hätten, aber wegen den paar "Krümeln" hat man sich bei Intel damals nicht für sowas krumm gemacht.

Bleibt noch AMD die ein profitables Geschäft damals eigentlich nicht ablehnen können, weil sie auf den Cashflow angewiesen waren. AMD hat die Aufträge bekommen weil sie wie im anderen Post gesagt die einzigen waren die es konnten und wollten.

robbitop
2023-07-06, 17:52:26
Die Shareholder entscheiden das, nicht du.

Die wollen maximalen Gewinn. Wenn man den Gewinn in einer Sparte mittelfristig erhöhen kann, wird da niemand was dagegen haben.

Pfuscher
2023-07-06, 18:03:25
Sehe die Diskussion hier über das große Ganze viel zu technisch und zu wenig wirtschaftlich.
Einfach mal den Gewinn, Forschungsinvestitionen, Marktkapitalisierung und Umsatz von Nvidia mit Amd und Intel vergleichen.

Marktkapitalisierung = Günstige Kredite

Intel 130
Amd 125
Nvidia 1000(erst seit kurzem)

Gewinn
Amd: Naja, viel Sonderwerte drin
https://www.planet3dnow.de/cms/67917-amd-quartalszahlen-q1-2023-mit-54-milliarden-umsatz-und-einem-verlust/

Intel
8 Milliarden

nvidia
10

Alles nur sehr grob und viele Sonderfaktoren unbeachtet.

Conclusion
Amd kann sich die Forschung, Engineers etc. gar nicht leisten um gegen Nvidia anzukommen. Für die viel geringeren Mittel die sie im GPU Bereich haben, machen sie das eigentlich ziemlich gut.

Gegen Intel kommen sie an, weil Intel einfach ein schlechtes Management seit so einigen Jahren hat.

Mangel76
2023-07-06, 18:24:37
Korrekt. Und für Fullnode zu wenig, das stand ja nie in Zweifel ;).

Mangel76
AMD macht reine Gewinnmaximierung mit RDNA3. Man bleibt immer an der oberen Kante der EK-Preise, die man grade noch nehmen kann. Kostenoptimierung sehe ich eher nicht, die N31-Karten sind sogar sehr teuer bestückt, viel teurer als 90% der 4080 und 4090. Die AMDs tragen alle ne volle Monolith-VRM-Bestückung (Wie NVs FE), NV ist da eher mit sehr günstigen Vishay, AlphaOmega oder OnSemi-Bestückungen unterwegs. Das geht so natürlich nur bei eingeschränktem Supply so. Man kann mit der Strategie keine 50% Marktanteil bedienen.
N32 wird da was ändern, denn da wirds sicherlich ein kostenoptimiertes PCB mit kostenoptimierter Bestückung geben, auch für N31 im N32-Package.

Ähm, Kostenoptimierung ist eine mögliche Strategie zur Gewinnmaximierung. Und ich rede hier nicht von der handvoll Vorzeige-MBA, sondern von den GPUs.

robbitop
2023-07-06, 18:42:47
Sehe die Diskussion hier über das große Ganze viel zu technisch und zu wenig wirtschaftlich.
Einfach mal den Gewinn, Forschungsinvestitionen, Marktkapitalisierung und Umsatz von Nvidia mit Amd und Intel vergleichen.

Marktkapitalisierung = Günstige Kredite

Intel 130
Amd 125
Nvidia 1000(erst seit kurzem)

Gewinn
Amd: Naja, viel Sonderwerte drin
https://www.planet3dnow.de/cms/67917-amd-quartalszahlen-q1-2023-mit-54-milliarden-umsatz-und-einem-verlust/

Intel
8 Milliarden

nvidia
10

Alles nur sehr grob und viele Sonderfaktoren unbeachtet.

Conclusion
Amd kann sich die Forschung, Engineers etc. gar nicht leisten um gegen Nvidia anzukommen. Für die viel geringeren Mittel die sie im GPU Bereich haben, machen sie das eigentlich ziemlich gut.

Gegen Intel kommen sie an, weil Intel einfach ein schlechtes Management seit so einigen Jahren hat.

So denken nur BWLer die allein nichts können außer etwas zu verwalten (meine nicht zwangsläufig dich). Schaue dir mal AMDs Cashreserven und Gewinne von 2015 an - da hattem sie quasi nichts. Und da haben sie nochmal alles gegeben und Zen gestemmt. Und ganz stehen geblieben sind sie in der Grafik ja auch nicht. Budget allein ist kein alleiniges Maß. Und auch NV hat die heutigen Budgets ja noch nicht schon immer.

Zossel
2023-07-06, 19:54:17
Conclusion
Amd kann sich die Forschung, Engineers etc. gar nicht leisten um gegen Nvidia anzukommen. Für die viel geringeren Mittel die sie im GPU Bereich haben, machen sie das eigentlich ziemlich gut.

Gegen Intel kommen sie an, weil Intel einfach ein schlechtes Management seit so einigen Jahren hat.

Also wenn ich mir mal so den Versuch der Übernahme von ARM anschaue ........

Und CUDA scheint wohl auch an Bedeutung zu verlieren, das könnte sich zu einem weiteren Problem von NV entwickeln.
Auch ein KI-Startup könnte ganz schnell NV Probleme machen.

Und von Intel hat man früher auch gesagt das AMD da niemals gegen ankommen wird.
IBM ist heute auch nur noch ein Schatten seiner selbst, DEC hat es komplett zerrissen.

Ich wäre da ganz vorsichtig.

Zossel
2023-07-06, 20:03:25
Ich würde Haus und Hof drauf wetten, AMD hat die Konsolendeals nicht bekommen wegen ihrer herausragenden Grafik-IP sondern weil AMD quasi der einzige war der eine ausreichend performante CPU und GPU aus einer Hand liefern konnte und wollte.

Und was wurde damals der AMD-ATI Deal zerrissen.
Und dann diese ganzen Kasperköppe die noch Jahre später ATI-GPU statt AMD-GPU gesagt haben.

NV liefert die Show die einigen wohl ziemlich wichtig ist, für eine zweite Show will das Publikum nicht zahlen, dann gibt auch keine zweite Show.
Das Leben kann manchmal so einfach sein.

Zossel
2023-07-06, 20:07:45
Ähm, Kostenoptimierung ist eine mögliche Strategie zur Gewinnmaximierung. Und ich rede hier nicht von der handvoll Vorzeige-MBA, sondern von den GPUs.

AMD sitzt noch nicht fest genug im Sattel um sich Abenteuer leisten zu können.
Es macht daher einfach Sinn sich auf Dinge zu konzentrieren wo der ROI wahrscheinlicher ist.
Asiaten spielen halt Go anstatt Schach.

Ich halte nach wie vor die Kohle für den Pensanto-Deal wesentlich besser angelegt als für irgendwelche diskreten Gamer-GPUs.

Oberst
2023-07-06, 22:00:31
Und was wurde damals der AMD-ATI Deal zerrissen.
Und dann diese ganzen Kasperköppe die noch Jahre später ATI-GPU statt AMD-GPU gesagt haben.
Das kann bei der nächsten Runde Konsolen aber auch nach hinten los gehen: AMD ist jetzt nicht mehr konkurrenzlos, da fischt jetzt auch Intel und NVidia mit. Bei Intel habe ich noch Zweifel an den Kosten (Performance Kerne sind relativ groß, Alchemist hat auch große Dies), aber das können sie evtl. über die eigene Fertigung abfangen. Bei NVidia müsste man als Konsolen Anbieter halt von x86 auf ARM wechseln. Ist heute auch kein Problem mehr, Sony nutzt ja sowieso Linux als Unterbau und MS hat ja auch ein Windows für ARM. Da wird AMD deutlich schwerere Verhandlungen haben.

Prinzipiell stimme ich dir aber zu: Ich sehe den AMD/ATI Deal auch als Gewinn für AMD an. Ohne den hätten sie Bulldozer vermutlich nicht überlebt. Denn im GPU Bereich war AMD zumindest in den Anfangszeiten von Bulldozer ja relativ erfolgreich (mit HD7970, R200/R300 und so). Das hat wichtige Gelder gebracht, um die Entwicklung von Zen voran zu treiben.

Zossel
2023-07-06, 22:28:25
Das kann bei der nächsten Runde Konsolen aber auch nach hinten los gehen: AMD ist jetzt nicht mehr konkurrenzlos, da fischt jetzt auch Intel und NVidia mit.
Hat Intel nicht den Invest für Gaming-GPUs runtergefahren?
Bei Intel habe ich noch Zweifel an den Kosten (Performance Kerne sind relativ groß, Alchemist hat auch große Dies), aber das können sie evtl. über die eigene Fertigung abfangen.
Passt nicht zu der Strategie die FABs kostendeckend zu betreiben.
Und Intel sehr tut gut daran genau das zu tun, und nicht wieder in die Schlamperei der Vergangenheit zurück zu fallen.
Bei NVidia müsste man als Konsolen Anbieter halt von x86 auf ARM wechseln. Ist heute auch kein Problem mehr, Sony nutzt ja sowieso Linux als Unterbau und MS hat ja auch ein Windows für ARM. Da wird AMD deutlich schwerere Verhandlungen haben.
Sony nutzt BSD, kein Linux. Zusätzlich zu einem X86 zu ARM JIT müsste noch ein brauchbarer Kernel-Port her. Klingt nach viel Invest und Risiko.
Und ARM bleibt immer noch ein Risiko weil kein Schwein weiß wie sich ARM in Zukunft (Softbank) entwickelt.
Und NV hat sich immer total eingepisst wenn es darum geht Infos rauszugeben, dieses Gebaren generiert Risiken für die Konsolenanbieter.

Und MS kriegt bestimmt die totale Krise wenn die auf ARM nicht die Speicherverwaltung mit Segmenten total verhunzen können, und wahrscheinlich müssten die auch endlich mal alles von 32-Bit auf 64-Bit umbauen. :-)

Pfuscher
2023-07-07, 00:00:27
So denken nur BWLer die allein nichts können außer etwas zu verwalten (meine nicht zwangsläufig dich). Schaue dir mal AMDs Cashreserven und Gewinne von 2015 an - da hattem sie quasi nichts. Und da haben sie nochmal alles gegeben und Zen gestemmt. Und ganz stehen geblieben sind sie in der Grafik ja auch nicht. Budget allein ist kein alleiniges Maß. Und auch NV hat die heutigen Budgets ja noch nicht schon immer.


Nun die Ingenieure, It Leute etc. wollen bezahlt werden und da kann sich Nvidia mehr und bessere leisten.
Amd/Ati konnte im CPU Segment aufholen weil Intel geschlafen hat.

Sagte ja im Grafikbereich sind sie erstaunlich gut, bedenkt man die Zahlen der Firmen.

Sind uns in den ganzen Punkten einig.

Habe tatsächlich bwl mal zuende studiert. Voll erwischt haha. Das mit den Zahlen hab ich aber mehr aus meinem Finance hobby.
Habe aber eine technische Ausbildung und seit Jahren im It Bereich arbeitend.
Seit 32 Jahren Gamer und auch die ein oder andere Platine getauscht und rumgelötet.

HOT
2023-07-07, 07:30:03
Ähm, Kostenoptimierung ist eine mögliche Strategie zur Gewinnmaximierung. Und ich rede hier nicht von der handvoll Vorzeige-MBA, sondern von den GPUs.
Da ist keine von Kostenoptimiert. Selbst die Hellhound, also die biligste Custrom, ist mit 20 Monolith Powerstages und entsprechend teuren Controllern und recht teuren Kondensatoren bestückt ;).

Leonidas
2023-07-07, 07:43:50
Eigentlich bewundernswert, wie es AMD geschafft hat, mit so wenig Mitteln zwischen diesen beiden Schwergewichten zu überleben. Maßgeblich dürften hierfür die folgenden 2 Punkte sein:

1. nVidia will AMD nicht an die Wand fahren, ansonsten bekommt man selber Probleme mit der Anti-Monopol-Gesetzgebung in den USA. Das ist heute weniger wichtiger, weil Gaming für NV nun weniger wichtiger ist. Aber in den ganz schwachen Zeiten von AMD war dies für NV sicherlich ein gewichtiger Punkt. NV ist dort teilweise sicherlich auch nur so hoch gesprungen wie man musste.

2. Intel hatte es sich in der 10er Dekade auf seinen Erfolgen gemütlich gemacht und hoffte nun für Ewigkeiten Vierkerner liefern zu können, die 5-10% schneller als die direkten Vorgänger sind. Dies hat mit der Zeit genau jene Lücke gelassen, in welcher man selbst von der Seite kommend hineinstoßen konnte. Wäre Intel die ganze Zeit über am Ball geblieben, wäre Zen 1 zurückhängend gewesen und AMD hätte nie diese geschäftliche Entwicklung genommen.

robbitop
2023-07-07, 08:35:25
Das kann bei der nächsten Runde Konsolen aber auch nach hinten los gehen: AMD ist jetzt nicht mehr konkurrenzlos, da fischt jetzt auch Intel und NVidia mit. Bei Intel habe ich noch Zweifel an den Kosten (Performance Kerne sind relativ groß, Alchemist hat auch große Dies), aber das können sie evtl. über die eigene Fertigung abfangen. Bei NVidia müsste man als Konsolen Anbieter halt von x86 auf ARM wechseln. Ist heute auch kein Problem mehr, Sony nutzt ja sowieso Linux als Unterbau und MS hat ja auch ein Windows für ARM. Da wird AMD deutlich schwerere Verhandlungen haben.

Prinzipiell stimme ich dir aber zu: Ich sehe den AMD/ATI Deal auch als Gewinn für AMD an. Ohne den hätten sie Bulldozer vermutlich nicht überlebt. Denn im GPU Bereich war AMD zumindest in den Anfangszeiten von Bulldozer ja relativ erfolgreich (mit HD7970, R200/R300 und so). Das hat wichtige Gelder gebracht, um die Entwicklung von Zen voran zu treiben.
Wobei man bei NV auch schon lange ein ARM/GPU Paket hätte haben können. NV hat seit der Xbox1 bei MS verschissen und seit der PS3 bei Sony. Beide waren mit den Preisen unzufrieden. Das Konsolen SoC Geschäft ist ziemlich low margin.

Leonidas
2023-07-07, 08:46:05
Die Frage ist hier, welcher Manager das bei Intel & NV verteidigen könnte: Aus welchem Zweck will man sich ein Geschäft an Land ziehen, welches auch absehbar nicht zur eigenen Margen-Strategie passt? Bei NV überhaupt nicht, bei Intel eigentlich genauso - die waren immer bis auf ganz seltene Ausnahmen hochprofitabel. Das ist mit Konsolen-SoCs nie zu realisieren, auch nicht wenn man "erstmal eingestiegen ist". Ergo dürfte man das auch perspektivisch AMD überlassen.

Die Konsolen-Hersteller müssen eher darauf hoffen, dass AMD nie ganz groß wird. Weil man dann niemanden mehr hat, der dieses Low-Margin-Geschäft mitgeht.

robbitop
2023-07-07, 09:02:04
Bei der Switch war es für NV einfach. Man musste nichts entwickeln und konnte seinen Standard SoC in hohen Mengen verticken.
Ein custom SoC wird für Nintendo sicherlich extrem teuer und nichts anderes ist für die Switch 2 aus NVs Portfolio möglich da die Tegra Nachfolger alle für Automotive und nicht für mobile gemacht worden sind.
Aber ggf kann man sich in der Mitte treffen da NV den höheren Einfluss auf die Spielestudios mit ihren proprietären Techniken und dieser Verbreitung zu schätzen weiß.

MS und Sony wird viel schwieriger. Die sind angeblich hoch zufrieden. AMD lässt sie tief mitbestimmen in der uArch und mitarbeiten - ist also extrem offen (etwas wofür nicht viele IHVs bekannt sind) - und die royalties sind ziemlich günstig.

Zossel
2023-07-07, 10:28:11
Das Konsolen SoC Geschäft ist ziemlich low margin.

Aber es bringt ein gutes Standing bei den Fabs. (Stückzahlen bzw. Waferfläche)

Zossel
2023-07-07, 10:29:39
1. nVidia will AMD nicht an die Wand fahren, ansonsten bekommt man selber Probleme mit der Anti-Monopol-Gesetzgebung in den USA. Das ist heute weniger wichtiger, weil Gaming für NV nun weniger wichtiger ist. Aber in den ganz schwachen Zeiten von AMD war dies für NV sicherlich ein gewichtiger Punkt. NV ist dort teilweise sicherlich auch nur so hoch gesprungen wie man musste.

Ist die berühmte Schublade jetzt von Intel zu Nvidia gewandert?

Achill
2023-07-07, 10:31:27
Bei der Switch war es für NV einfach. Man musste nichts entwickeln und konnte seinen Standard SoC in hohen Mengen verticken.
Ein custom SoC wird für Nintendo sicherlich extrem teuer und nichts anderes ist für die Switch 2 aus NVs Portfolio möglich da die Tegra Nachfolger alle für Automotive und nicht für mobile gemacht worden sind.
Aber ggf kann man sich in der Mitte treffen da NV den höheren Einfluss auf die Spielestudios mit ihren proprietären Techniken und dieser Verbreitung zu schätzen weiß.
[..]


Wobei ich mir nicht sicher, wie "safe" Nintendos Next für NV ist. Ich denke Nintendo beobachtet das Steam Deck und die anderen Handhelds mit AMD Mobile APUs - um eine mögliche zukünftige Konkurrenz im Auge zu behalten aber ggf. auch als technische Alternative.

robbitop
2023-07-07, 10:43:20
Aber es bringt ein gutes Standing bei den Fabs. (Stückzahlen bzw. Waferfläche)

Was soll das bringen? Die Foundries sind sowieso schon voll.

robbitop
2023-07-07, 10:45:41
Wobei ich mir nicht sicher, wie "safe" Nintendos Next für NV ist. Ich denke Nintendo beobachtet das Steam Deck und die anderen Handhelds mit AMD Mobile APUs - um eine mögliche zukünftige Konkurrenz im Auge zu behalten aber ggf. auch als technische Alternative.
Bei der Switch sehe ich die erhöhte Schwierigkeit, dass man bei ~5W SoC maximale Performance zeigen muss. Prozessnormiert. Da sind die ARM SoCs schon besser bis dato. Und da sind auch andere GPU uArchs besser als rdna. Qcom wäre noch möglich. NV hingegen kann auch den ganzen SW Bereich (SDK) mit abdecken was bis dato Nintendos Schwäche war

][immy
2023-07-07, 10:51:13
Wobei ich mir nicht sicher, wie "safe" Nintendos Next für NV ist. Ich denke Nintendo beobachtet das Steam Deck und die anderen Handhelds mit AMD Mobile APUs - um eine mögliche zukünftige Konkurrenz im Auge zu behalten aber ggf. auch als technische Alternative.

Möglich, ja, aber die ARM Kernchen haben dann doch noch Mal einen deutlich niedrigeren Verbrauch als die AMD Variante. Steckt zwar auch weniger wums dahinter, aber für Nintendo ging es eher darum das Design so schlicht wie möglich zu halten. Die CPU wurde ja sogar im Takt begrenzt, weil es für Nintendo einfach ausreichend CPU Leistung war.

Sony und MS haben sich hingegen schon an Nvidia die Finger verbrannt. Die werden das nicht mehr in Erwägung ziehen, zumal sie bei AMD recht frei bestimmen können was rein kommt.
Bei der Switch hatte Nintendo halt das Glück das Nvidia schon alles fertig hatte und deren Gerät gefloppt ist, so konnten Zulieferer, Fertigungsstrecken, Kapazitäten, etc quasi übernommen werden. Da fragt man sich letztendlich ob Nintendo sich überhaupt lange mit dem Design beschäftigt hat, oder ob man einfach ein frühes WiiU Konzept dank Nvidia relativ schnell umsetzen könnte.

Achill
2023-07-07, 10:56:45
Bei der Switch sehe ich die erhöhte Schwierigkeit, dass man bei ~5W SoC maximale Performance zeigen muss. Prozessnormiert. Da sind die ARM SoCs schon besser bis dato. Und da sind auch andere GPU uArchs besser als rdna. Qcom wäre noch möglich. NV hingegen kann auch den ganzen SW Bereich (SDK) mit abdecken was bis dato Nintendos Schwäche war

Laut offizieller Angabe sind es 6-7 W im Gaming: Information about energy efficiency and eco-design of Nintendo Switch family consoles (https://www.nintendo.co.uk/Corporate/Consumer-Information/Eco-design/Information-about-energy-efficiency-and-eco-design-of-Nintendo-Switch-family-consoles-2026830.html)

Und AnandTech misst und errechnet dann 8.9 W im undocked Mode (hier ist das Display schon abgezogen worden): https://www.anandtech.com/show/11181/a-look-at-nintendo-switch-power-consumption/2

--
Edit: Die auf AMD APUs aufbauenden Handhelds zeigen ja, das es prinzipiell funktioniert und stellen damit sehr wohl auch eine techn. Machbarkeitsstudie dar. Ob Nintendo aber deswegen switchen würde, k.a. ...

Zossel
2023-07-07, 10:59:31
Was soll das bringen? Die Foundries sind sowieso schon voll.

Heute ist nicht Gestern und Morgen ist nicht Heute.
Denk doch mal mehr strategisch und weniger taktisch.

HOT
2023-07-07, 11:13:59
Bei der Switch sehe ich die erhöhte Schwierigkeit, dass man bei ~5W SoC maximale Performance zeigen muss. Prozessnormiert. Da sind die ARM SoCs schon besser bis dato. Und da sind auch andere GPU uArchs besser als rdna. Qcom wäre noch möglich. NV hingegen kann auch den ganzen SW Bereich (SDK) mit abdecken was bis dato Nintendos Schwäche war

Die Switch 1 hat einen echt schrottigen Tegra in 20nm. Da was neues mit 5W 8 Jahres später hinzubekommen wird ja wohl überhaupt kein Problem sein. Das Ding könnte man sogar mit was anderem einfach emulieren mit heutiger Hardware :freak:.. das muss nicht mal kompatibel sein.

robbitop
2023-07-07, 11:20:12
Laut offizieller Angabe sind es 6-7 W im Gaming: Information about energy efficiency and eco-design of Nintendo Switch family consoles (https://www.nintendo.co.uk/Corporate/Consumer-Information/Eco-design/Information-about-energy-efficiency-and-eco-design-of-Nintendo-Switch-family-consoles-2026830.html)

Und AnandTech misst und errechnet dann 8.9 W im undocked Mode (hier ist das Display schon abgezogen worden): https://www.anandtech.com/show/11181/a-look-at-nintendo-switch-power-consumption/2

--
Edit: Die auf AMD APUs aufbauenden Handhelds zeigen ja, das es prinzipiell funktioniert und stellen damit sehr wohl auch eine techn. Machbarkeitsstudie dar. Ob Nintendo aber deswegen switchen würde, k.a. ...

Ja trotzdem sieht man auch beim Steamdeck dass die Performance überproportional zusammenbricht unter 15W. Alle Architekturen sind halt nur begrenzt skalierbar. Der Kram der auf den mobile Phones läuft ist einfach für einen deutlich niedrigen Betriebspunkt ausgelegt. Im 5-10W Bereich wird man mit einem modernen ARM SoC deutlich besser dastehen können.

robbitop
2023-07-07, 11:24:15
Die Switch 1 hat einen echt schrottigen Tegra in 20nm. Da was neues mit 5W 8 Jahres später hinzubekommen wird ja wohl überhaupt kein Problem sein. Das Ding könnte man sogar mit was anderem einfach emulieren mit heutiger Hardware :freak:.. das muss nicht mal kompatibel sein.
Das ist doch aber gar nicht der Anspruch. Klar könnte AMD 2023 etwas besseres hinstellen als der Standard Tegra X1 von 2015. Messen muss man sich dann aber gegen vergleichbare Opportunität. Und das wäre ein moderner ARM SoC. Da sind die CPU und GPU Cores von Anfang an für Smartphones ausgelegt - sind also viel effizienter in dem kleinen TDP Raum.
Un das klarzustellen: das liegt nicht primär am Befehlssatz sondern an der Grundauslegung. Würde AMD explizit für mobile eine neue CPU und GPU uArch machen, würde man da sicher mitspielen können. Aber ob sich das dafür lohnt? Mit dem Kram aus dem Desktop und Laptop hat man prozessnormiert in ganz kleinen TDP Envelopes ziemlich sicher sehr große Nachteile.

Achill
2023-07-07, 11:36:03
Ja trotzdem sieht man auch beim Steamdeck dass die Performance überproportional zusammenbricht unter 15W. Alle Architekturen sind halt nur begrenzt skalierbar. Der Kram der auf den mobile Phones läuft ist einfach für einen deutlich niedrigen Betriebspunkt ausgelegt. Im 5-10W Bereich wird man mit einem modernen ARM SoC deutlich besser dastehen können.

Hast du dazu mal ein Link und wird dort das gleiche Verglichen: gleiche Spiele und direkter Port, gleiche Auflösung, gleiche FPS Zahl?

Ich kenne nur folgendes für die ASUS ROG ALLY, da wird gezeigt was da eigentlich noch brach liegt bei der dynamischen Anpassung der CPU/GPU-Leistung und die Annahme, dass in solch einen Fall Nintendo dies liegen lassen würde, ist imho falsch.



Edit: Geht wohl auf allen Handhelds mit Windows
ZnEQ068poY0

ASUS ROG ALLY:
2jZ1wP10ImE

Exxtreme
2023-07-07, 11:41:58
Aber ob sich das dafür lohnt? Mit dem Kram aus dem Desktop und Laptop hat man prozessnormiert in ganz kleinen TDP Envelopes ziemlich sicher sehr große Nachteile.

Das könnte sich lohnen wenn man wie Intel ebenfalls auf Big.Little setzen würde. Sprich, schnelle Kerne und Stromsparkerne auf einer CPU. Hier könnte man sich die Entwicklungskosten teilen bzw. einsparen da man das Design dieser Stromsparkerne mehrfach verwenden könnte.

YeahBuoy!
2023-07-07, 11:54:08
Wobei ich mir nicht sicher, wie "safe" Nintendos Next für NV ist. Ich denke Nintendo beobachtet das Steam Deck und die anderen Handhelds mit AMD Mobile APUs - um eine mögliche zukünftige Konkurrenz im Auge zu behalten aber ggf. auch als technische Alternative.

Warum? Nintendo interessiert sich nicht mal für MS bzw. Sony. Die haben es geschafft sich durch die Hardware und den Spielekatalog und eine sehr treue Fanbase ihren eigenen Markt zu schaffen. Mittlerweile hat man die Indies erfolgreich auf die Plattform gelockt, Rabatte gibts bei den 1st Party Titeln selten und auch die Hardware ist ziemlich preisstabil. Sofern das Steamdeck nicht mit Nutten und Jetskis ausgeliefert wird, sehe ich nicht wie das im Handheldbereich unserer Nerdbubble jemals relevant wird.

robbitop
2023-07-07, 12:02:14
Es ist naiv anzunehmen dass man mit Desktop IP mit mobile IP in Bezug auf Perf/W im mobile typischen Powerenvelope mithalten zu können. Jede uArch hat eine gewisse Bandbreite in der sie gut skaliert und die ist begrenzt.

Zossel
2023-07-07, 12:26:15
Das könnte sich lohnen wenn man wie Intel ebenfalls auf Big.Little setzen würde. Sprich, schnelle Kerne und Stromsparkerne auf einer CPU. Hier könnte man sich die Entwicklungskosten teilen bzw. einsparen da man das Design dieser Stromsparkerne mehrfach verwenden könnte.

Gibt es einen Rumms/Verbrauch Vergleich zwischen den verschieden Konzepten von Intel und AMD?

Wenn ja, her damit.

Mangel76
2023-07-07, 19:38:32
Da ist keine von Kostenoptimiert. Selbst die Hellhound, also die biligste Custrom, ist mit 20 Monolith Powerstages und entsprechend teuren Controllern und recht teuren Kondensatoren bestückt ;).

Du willst mich nicht verstehen? Es geht um die Produktion der GPU! AMD hätte auch ein monolitisches Monster bauen können, dass mit der 4090 mithalten kann (zumindest in Raster). Man hat aber diese Strategie nicht verfolgt. Die Chiplets werden eher zur Kostensenkung als zum Erreichen der Leistungskrone eingesetzt. Strategie ist also, ein gegebenes Leistungsziel mit geringstmöglichen Kosten zu erreichen. NV geht eher den anderen Weg - möglichst hohe Preise durch maximale Leistung und tolle neue Features als Kaufanreiz. Diese Strategie ist aber auch mit großer Marktmacht einfacher umzusetzen. Für AMD lohnen sich Kosten für tolle neue Features nicht, wenn die sich aufgrund geringer Marktanteile nicht durchsetzen und daher kaum Kaufanreize geben. Hier ist es günstiger, der Follower zu sein.

robbitop
2023-07-07, 19:42:53
AMD hatte mit RDNA3 aber leider auch nicht die Perf/W um ein 4090 Pendant mit angemessener Leistungsaufnahme bringen zu können.

Ex3cut3r
2023-07-07, 20:29:59
AMD hat damals mehr gemacht aber auch da war es nie konsistent. R600 - kacke. RV670 - weniger kacke. RV770 - erstaunlich gutes P/L aber keine Krone und keine Killerfeatures. RV870 - gut aber keine Krone - und zumindest dieses Surround Gaming Feature. Der Nachfolger war lauwarm. Tahiti hat gerade mal für Keplermittelklasse gereicht. Erst Hawaii war wieder ein Kronenjäger. Und dann kam Fijii der richtig kacke war. Und dann Polaris gutes Mainstream Produkt aber keine Konkurrenz mehr zur 70er, 80er und 80 ti. Und dann kam Vega - auch kacke. Dann Navi 10 - so wie Polaris gutes Midrange aber keine Konkurrenz zu Highend und NV lieferte da schon RT mit Turing. Und dann kam RDNA2 die wirklich seit fast 10 Jahren endlich mal wieder eine gute uArch hinlegte. Und dann mit RDNA3 wieder nur Mittelmaß. Seit R600 ist keine Konsistenz mehr drin. Und leider viel öfter schlechte oder mittelmäßige Generationen als richtig gute. Man lieferte halt nicht ab. Entsprechend ist die Marke und der Marktanteil halt schwach.

Ist es realistisch das nich umzudrehen? Auf jedem Fall verdammt schwer. Aber nur das Dahinsiechen zu verwalten wäre schade.

Absolut geiler Comment, du sprichst die Punkte perfekt an. Und damit auch die Gründe, warum ich mir seit ca. 20 Jahren keine AMD/Radeon Karte gekauft habe. Und dabei möchte ich nochmal betonen, dass ich kein AMD-Hasser bin. Bei Ryzen war ich anfangs skeptisch und auch nicht überzeugt, aber schon Zen 2 fand ich wirklich toll. Und bin auch selbst auf AM4 + 3600er von einem 4770k gewechselt.

Spätestens Zen 3 war dann ein absolutes Highlight, wenn auch zu teuer anfangs. AMD hatte mit Ryzen gute Punkte gebracht, Intel CPUs links liegen zu lassen, Effizienz, reichlich Kerne + SMT in jedem Modell, gute bis starke IPC. Das waren alles Argumente, um mich zum Kauf zu animieren. Bei AMD Karten/Radeon sehe ich einfach seit Jahren kein "haben will Effekt" im Gegenteil Nvidia hat immer "Goodies" die mich viel mehr ansprechen.

vinacis_vivids
2023-07-07, 20:32:07
304mm^2 GCD vs 609mm GPU.
Die AD102 kostet in der Herstellung mehr als das Doppelte und ist nur 17-30% schneller im Raster. Bei RT-shading sind es +50%.

Chipgröße AD102 : 24,677 X 24,677 ~ 609mm^2
93 Chips pro 300mm Wafer ~ 215USD

Chipgröße N31XTX : 17,45 X 17,45 ~ 304,5mm^2
248 Chips pro 300mm Wafer ~ 80USD


Bei RDNA4 werden wir zwei kleine GCDs im package sehen und NV ist dead on arrival mit der monolitischen GPU oder nur noch ein totales Halo-Produkt für 2999USD.

Die Ausbeute ist bei großen Chips auch noch deutlich anfälliger als bei kleinen Chips.

Ein "preiswerter" hypothetischer 2 X 96CU N31XTX 3NE shrink kommt auf 192CU und ist extrem schnell und sehr klein und günstig pro GCD herzustellen.

Bei RDNA4 denke ich an die Wende im GPU-Markt zugunsten von AMD und auch die Leistungskrone durch überlegene Technik.

amdfanuwe
2023-07-07, 20:42:42
Ein "preiswerter" hypothetischer 2 X 96CU N31XTX 3NE shrink kommt auf 192CU und ist extrem schnell und sehr klein und günstig pro GCD herzustellen.

Mit 500W?

vinacis_vivids
2023-07-07, 21:38:39
https://abload.de/thumb/2023-07-0721_04_40-ts2tcd1.png (https://abload.de/image.php?img=2023-07-0721_04_40-ts2tcd1.png)

150,2 Mio. T/mm² Density bei N31XTX@N5

Mit dem Density-Faktor von 1,5-1,6 für die Logik kämen wir bei N31XTX@N3E auf 225-240 Mio. T/mm² und 189,17mm² bis 201,77mm² pro GCD mit 96CU.

Runden wir auf auf ~210,25mm² pro GCD (14,5mm X 14,5mm)
Pro 300mm Wafer gibs 285 Chips.
~20.000 USD 3N Waferpreis

70 USD pro 96CU-GCD 3NE, zwei sind 140 USD

Bei einer riesen 676mm² (26mm X 26mm) N3P GPU explodieren die Kosten:
Pro 300mm Wafer nur noch 80 Chips. Davon auch noch einige teure Defekte.

250 USD! pro GPU bei N3P

Kommt drauf an wie größenwahnsinnig Huang ist. Vielleicht dropt er auch eine 750mm² Halo-GPU um an der Spitze zu bleiben. Wenn er mit der Fläche runter geht, verliert er die Krone gegen AMD.

Der GPU-Kampf wird sich bei 500-800W Leistungsaufnahme befinden, wenn sich die Shader-Taktraten bei 3,0-3,5Ghz bewegen.

Gipsel
2023-07-07, 23:14:39
AMD hat damals mehr gemacht aber auch da war es nie konsistent. R600 - kacke. RV670 - weniger kacke. RV770 - erstaunlich gutes P/L aber keine Krone und keine Killerfeatures. RV870 - gut aber keine Krone - und zumindest dieses Surround Gaming Feature. Der Nachfolger war lauwarm. Tahiti hat gerade mal für Keplermittelklasse gereicht. Erst Hawaii war wieder ein Kronenjäger.Ein wenig trügt da wahrscheinlich die Erinnerung, ist ja auch schon über 10 Jahre her. Tahiti war bei Veröffentlichung (Ende 2011) die klar schnellste GPU. 4 Monate später kam dann Kepler (GTX600er-Serie), die sich dann mit der GTX680 etwas nach vorne schob, was aber AMD mit der 7970GHz-Edition schnell wieder konterte. Die lagen damals quasi gleichauf. Ein paar Jahre später konkurrierte Tahiti eher mit der Maxwellv2-Mittelklasse, Kepler liegt da (bis auf die Titan) weit abgeschlagen (aus der Zeit kam ja viel die "fine wine" Diskussion). Oder rechnest Du Alles außer der Titan mit GK110 (die aber erst Q1 2013 und damit knapp ein Jahr nach der GTX680 und deutlich über ein Jahr nach Tahiti rauskam) als Mittelklasse?
Aber egal, wen kümmert schon, was vor über 10 Jahren war.

https://abload.de/img/amd-radeon-nvidia-gefy7ivz.jpg
Ganz oben Tahiti, ganz unten Kepler in all seinen Variationen (GTX780 und GTX780Ti sind GK110, also das größte Die, was ~1 Jahr nach Tahiti raus kam [Mittel zwischen Standard und GHz-Edition]; die 780Ti ist nur äußerst knapp unter der Titan [die quasi keine reguläre Consumer-Karte war]).

robbitop
2023-07-08, 05:46:57
Mit Tahiti war AMD ausnahmsweise mal früher dran als NV. Und NV haben sich kaputtgelacht / gefreut, dass sie gegen diesen nur einen Mainstream Chip austüten müssen und als high end verkaufen müssen. GK104 als 80er SKU. Gedacht war dafür eigentlich GK100 der aus irgendwelchen Gründen ein respin zu gk110 brauchte. Und erst gegen diesen kam Hawaii dann an. Und Hawaii war wirklich klasse.

Titan gabs doch bei NV nur um nochmebr abzocken zu können und weil AMD immer seltener das high end abdecken konnte so dass NV billige mainstream chips als high end verkaufen konnte. Und die eigentliche high end SKU wurde dann Titan genannt „oh wir haben jetzt was oberhalb von high end“ (lol - bzw wir verkaufen high end als neue klasse und verdienen überall mehr)
Seit Kepler schossen NVs Margen dank dieser Taktik (die nur mangels Wettbewerb möglich war) in die Höhe. Das konnten sie dann lange durchziehen und dementsprechend füllten sich die Kriegskassen und RnD Budgets so dass sie kaum noch einholbar waren.

Klar war Tahitii gut aber es war kein high end. Sie hatten 2011/12 kein high end.

aufkrawall
2023-07-08, 06:29:11
was aber AMD mit der 7970GHz-Edition schnell wieder konterte. Die lagen damals quasi gleichauf.
Theoretisch. Praktisch war die Karte völlig abgeschlagen in Frostbite oder diversen Ubisoft-Spielen. Die Mischung aus GCN + Treibern war einfach furchtbar im Vergleich zu jetzt.
Insofern werden RDNA3-Besitzer auch weniger unglücklich sein, als es damals Vega-Besitzer waren. RDNA2/3 scheinen hinsichtlich Grafikfehler-Regressions mittlerweile besser als Nvidia zu sein (ist zumindest meine persönliche Erfahrung).

ianm
2023-07-08, 09:16:34
Wobei ich mir nicht sicher, wie "safe" Nintendos Next für NV ist. Ich denke Nintendo beobachtet das Steam Deck und die anderen Handhelds mit AMD Mobile APUs - um eine mögliche zukünftige Konkurrenz im Auge zu behalten aber ggf. auch als technische Alternative.
Wird definitiv wieder Nvidia, der T239 (Drake) ist seit dem Nvidia Leak bekannt und seit Monaten weiß man ungefähr in welche Richtung es geht. Da gibt es tolle Foren im Netz.

Hier ein Post mit Infos zur Hardware aus dem März: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13256014&postcount=19944

Zuletzt hört man von voller Abwärtskompatibilität und Systemseller wie TotK, Mario, Splatoon etc. sollen Upgrades auf die neue Konsole bekommen. Ob es so kommt? Sinn würde es machen.

Steam Deck Hardware und Co brauchen viel zu viel Energie, die sind keine Option. Ich glaube Nvidia ist froh den Nintendo Deal zu haben, wenn man sich die Verkaufszahlen der Switch anschaut.

robbitop
2023-07-08, 09:27:47
Jap für die Switch muss der SoC bei halber TDP mit sehr guter Perf/W auskommen. Besser weniger wenn man sich den geshrinkten X1 anschaut wie viel Akkulaufzeit der auf einmal gebracht hat. (4.5 h worst case vs 2,5h worst case in der 20 nm Version)
Der Akku der Switch hat mit seinen 16 Wh weniger als die Hälfte des Steamdecks (40Wh). Das ist eine völlig andere Geräteklasse.
Bei 4,5h Akkulaufzeit zeiht das ganze Gerät dann gerade mal 3,5 W.

Wenn T239 wirklich so stimmt wie aus deinem Link (8x A78E, 1536 Ampere Cores, 16 gb RAM, sehr moderate Taktraten), dann wird die Switch2 entweder eine größere Geräteklasse oder aber man braucht dafür einen sehr sehr modernen Fertigungsprozess. Sub 5nm mMn.
Ziemlich highend für einen Handheld aus heutiger Sicht. Das passt so überhaupt nicht zu Nintendo. Wäre aber geil…

Zossel
2023-07-08, 11:26:58
Ein wenig trügt da wahrscheinlich die Erinnerung, ist ja auch schon über 10 Jahre her. Tahiti war bei Veröffentlichung (Ende 2011) die klar schnellste GPU. 4 Monate später kam dann Kepler (GTX600er-Serie), die sich dann mit der GTX680 etwas nach vorne schob, was aber AMD mit der 7970GHz-Edition schnell wieder konterte. Die lagen damals quasi gleichauf. Ein paar Jahre später konkurrierte Tahiti eher mit der Maxwellv2-Mittelklasse, Kepler liegt da (bis auf die Titan) weit abgeschlagen (aus der Zeit kam ja viel die "fine wine" Diskussion). Oder rechnest Du Alles außer der Titan mit GK110 (die aber erst Q1 2013 und damit knapp ein Jahr nach der GTX680 und deutlich über ein Jahr nach Tahiti rauskam) als Mittelklasse?
Aber egal, wen kümmert schon, was vor über 10 Jahren war.

https://abload.de/img/amd-radeon-nvidia-gefy7ivz.jpg
Ganz oben Tahiti, ganz unten Kepler in all seinen Variationen (GTX780 und GTX780Ti sind GK110, also das größte Die, was ~1 Jahr nach Tahiti raus kam [Mittel zwischen Standard und GHz-Edition]; die 780Ti ist nur äußerst knapp unter der Titan [die quasi keine reguläre Consumer-Karte war]).

Womit wieder mal gezeigt wäre das es total egal ist was AMD baut weil die Zielgruppe auf das andere Markenlogo fixiert ist.

boxleitnerb
2023-07-08, 12:06:24
Nö, so kann man das nicht sagen. Robbitop denkt wahrscheinlich in ganzen Chipgenerationen. Hier hat Nvidia seit G80 bzgl. Top Dog nie wirklich verloren. Das Ding ist jetzt aber, dass die Generationen sich überschneiden bzw. unterschiedliche Karten zu unterschiedlichen Zeitpunkten kommen. Das macht einen 1:1 Vergleich schwierig bis je nach Sichtweise auch unsinnig. Und weiterhin muss man sich fragen, ob man nur zum Zeitpunkt X vergleicht oder über den typischen Lebenszyklus. Hier spielen dann eben andere Sachen rein, die zum Launch ggf. nebensächlich waren (Features/RT/Tess usw.)

Die Marke von NV ist halt sehr stark - und man muss schon auf Ursachenforschung gehen, was in den Posts vorher ja passiert ist. Was Gipsel schreibt, mag aus seiner Sichtweise stimmen, ist aber für den langen Zeitraum der Markenstärkung seit 2006 irrelevant.

P.S.
Die Opferrolle steht AMD zwar (der Underdog), aber dieses fatalistische "ich kann eh nix dran ändern, die dummen Kunden kaufen eh nur grün" ist weder sexy noch führt es nachhaltig zu mehr Marktanteilen.

robbitop
2023-07-08, 12:10:52
Nö, so kann man das nicht sagen. Robbitop denkt wahrscheinlich in ganzen Chipgenerationen. Hier hat Nvidia seit G80 bzgl. Top Dog nie wirklich verloren. Das Ding ist jetzt aber, dass die Generationen sich überschneiden bzw. unterschiedliche Karten zu unterschiedlichen Zeitpunkten kommen. Das macht einen 1:1 Vergleich schwierig bis je nach Sichtweise auch unsinnig. Und weiterhin muss man sich fragen, ob man nur zum Zeitpunkt X vergleicht oder über den typischen Lebenszyklus. Hier spielen dann eben andere Sachen rein, die zum Launch ggf. nebensächlich waren (Features/RT/Tess usw.)

Die Marke von NV ist halt sehr stark - und man muss schon auf Ursachenforschung gehen, was in den Posts vorher ja passiert ist. Was Gipfel schreibt, mag aus seiner Sichtweise stimmen, ist aber für den langen Zeitraum der Markenstärkung seit 2006 irrelevant.
In Chipgenerationen zu denken macht in diesem Beispiel auch Sinn. Hätte AMD bei Tahiti echtes high end geliefert, hätte Nvidia gk104 nicht als high end SKU bringen können sondern hätte gk110 als highend sku für die 6er Serie nehmen müssen. Irgendwas scheint ja mit GK100 passiert zu sein - denn es brauchte ein respin auf gk110. Dann hätte AMD gewonnen. Aber so hat sich NV gefreut, ihre Chance zu bekommen, Chips eine Klasse höher verticken zu können als für die sie gedacht waren. Kostenfreier Margin-bump mangels Wettbewerb.

Tahiti war auch reichlich ineffizient und brauchte ein 50% breiteres SI und fast 20% mehr Chipfläche im Vergleich zu GK104.


Die Opferrolle steht AMD zwar (der Underdog), aber dieses fatalistische "ich kann eh nix dran ändern, die dummen Kunden kaufen eh nur grün" ist weder sexy noch führt es nachhaltig zu mehr Marktanteilen.

Jep. Wenn man regelmäßig abgeliefert hätte, sähe es wahrscheinlich anders aus. Und grundsätzlich ist es nicht unmöglich das noch zu ändern - aber sehr schwierig weil Nvidia nicht schläft im Gegensatz zu Intel als AMD vor 5 Jahren zurück kam.

boxleitnerb
2023-07-08, 12:16:18
In Chipgenerationen zu denken macht in diesem Beispiel auch Sinn. Hätte AMD bei Tahiti echtes high end geliefert, hätte Nvidia gk104 nicht als high end SKU bringen können sondern hätte gk110 als highend sku für die 6er Serie nehmen müssen. Irgendwas scheint ja mit GK100 passiert zu sein - denn es brauchte ein respin auf gk110. Dann hätte AMD gewonnen. Aber so hat sich NV gefreut, ihre Chance zu bekommen, Chips eine Klasse höher verticken zu können als für die sie gedacht waren. Kostenfreier Margin-bump mangels Wettbewerb.

Tahiti war auch reichlich ineffizient und brauchte ein 50% breiteres SI und fast 20% mehr Chipfläche im Vergleich zu GK104.

Zum ersteren: ja
Zum zweiten Absatz: jein - anfangs ja, später ist Tahiti schon stärker geworden und im Vergleich zu vorher nicht so ineffizient. Dass AMD die GHz Edition zusätzlich geprügelt hat, hat nicht geholfen...

robbitop
2023-07-08, 12:24:48
Naja der fine wine Kram. Hilft leider nicht (zur Stärkung der Marke) wenn die Generation schon alt und irrelevant ist. Besser man holt gleich alles raus. Die Frage ist wie viel davon Vernachlässigung von NV an Treiberoptimierungen für alte uArchs war. Das ging ja schon mit Witcher 3 in 2015 los, dass Kepler unnormal langsam wurde und es dann einen shitstorm gab und Nv nochmal nachlegte.
Wenn man jetzt Tahiti vs GK104 revisited hat Tahiti (weil AMD GCN ja ewig mitgeschleppt hat) ja viel länger spielespezifische Treiberoptimierungen bekommen. Wahrscheinlich müsste man Spiele von 2014 re-visiten um den Effekt auszuschließen.

aufkrawall
2023-07-08, 14:00:18
Ältere UE4 D3D11-Spiele werden auf GCN immer noch furchtbar langsam im Vergleich zu Kepler laufen. Damals lag Epic noch mit Nvidia im Bett, heute sind sie eher selber der Boss.

Ex3cut3r
2023-07-08, 15:33:21
Robbitop trifft den Nagel auf dem Kopf. Er hat das Problem von AMD GPUs perfekt erkannt und beschrieben.

genervt
2023-07-08, 18:43:54
Naja der fine wine Kram. Hilft leider nicht (zur Stärkung der Marke) wenn die Generation schon alt und irrelevant ist. Besser man holt gleich alles raus. Die Frage ist wie viel davon Vernachlässigung von NV an Treiberoptimierungen für alte uArchs war. Das ging ja schon mit Witcher 3 in 2015 los, dass Kepler unnormal langsam wurde und es dann einen shitstorm gab und Nv nochmal nachlegte.
Wenn man jetzt Tahiti vs GK104 revisited hat Tahiti (weil AMD GCN ja ewig mitgeschleppt hat) ja viel länger spielespezifische Treiberoptimierungen bekommen. Wahrscheinlich müsste man Spiele von 2014 re-visiten um den Effekt auszuschließen.
Fine Wine hat zwei Seiten, Treiber aber auch generell die Hardwareauslegung.

AMD hatte in der Vergangenheit oft mehr Leistung auf'm Papier oder mehr VRAM.
Das zahlt sich halt hinten raus aus.

robbitop
2023-07-08, 20:02:13
GCN war damals moderner als Kepler. Bringt aber leider nix für die Marke. Und wenn es greift, gibt es schon 1-2x neuere Generationen.

Allerdings für Käufer interessant, die ihre GPU lange behalten. Das Problem dabei ist: dafür gibt es keine Garantie und es ist nicht immer so. Entsprechend ist es leider kein sicheres Kaufkriterium (außer vram).

Exxtreme
2023-07-08, 21:38:27
P.S.
Die Opferrolle steht AMD zwar (der Underdog), aber dieses fatalistische "ich kann eh nix dran ändern, die dummen Kunden kaufen eh nur grün" ist weder sexy noch führt es nachhaltig zu mehr Marktanteilen.

AMD hat ja beides gemacht: einmal innovativ sein und einmal Nvidia hinterherrennen. Und sie sehen ja was mehr Geld bringt. Wenn Letzteres lohnenswerter ist dann machen sie es halt. Damit muss man jetzt leben.


Zudem meinte MLID mal, dass AMD Nvidia sowieso nicht als Konkurrenten ansieht. Also ist es ihnen wohl auch ziemlich egal was Nvidia macht.

Linmoum
2023-07-08, 21:55:14
MLID meint viel, wenn der Tag lang ist. Wenn sie Nvidia nicht als Konkurrenten sehen, dann würden sie ihr eigenes Ding durchziehen. Was aber nicht der Fall ist, wie man permanent an den Produktlaunches erkennen kann. Nividia legt wiederholt vor (und sei es wie bei der 4060 erstmal nur mit der Ankündigung des Preises) und bei AMD setzen sich panische Abläufe in Bewegung die darin gipfeln, dass man (bis zu) 24 Stunden vor dem Release noch keinen finalen Preis hat (und den damit nicht einmal ggü. der Presse für Reviews kommunizieren kann...), obwohl man wochenlang Zeit hat und wochenlang schon längst weiß, wo Nvidia steht bzw. stehen wird.

Wenn hier wer einen weniger als Konkurrenten sieht, dann ist das Nvidia. Was man auch daran sieht, dass Jensen sich weigert, selbst bei Konkurrenz die Preise von (alten) GPUs zu senken. AMD braucht mal einen richtigen Paukenschlag, nachdem man mit RDNA3 leider wieder nur einen Schritt vor und zwei zurück gemacht hat. RDNA4 ist dann die nächste Chance, auch wenn ich bezweifle, dass man einen AD102 im Vollausbau deutlich übertreffen wird.

amdfanuwe
2023-07-08, 22:59:46
Immer das lamentieren um die Vergangenheit.
RDNA4 dürfte die Entwicklung in den letzten Zügen liegen für einen Release in 2024.
RDNA5 dürften schon ein paar neue Features in der Entwicklung sein, Release in 2026?
RDNA6 könnte schon in der Spezifikationsphase sein, Release 2028?
Bei Nvidia ebenso.
Also, was meint ihr welche Spezifikationen für die Produkte in 2028 gerade ausgetüftelt werden?

Der_Korken
2023-07-08, 23:04:45
Hätte AMD bei Tahiti echtes high end geliefert, hätte Nvidia gk104 nicht als high end SKU bringen können sondern hätte gk110 als highend sku für die 6er Serie nehmen müssen. Irgendwas scheint ja mit GK100 passiert zu sein - denn es brauchte ein respin auf gk110. Dann hätte AMD gewonnen. Aber so hat sich NV gefreut, ihre Chance zu bekommen, Chips eine Klasse höher verticken zu können als für die sie gedacht waren. Kostenfreier Margin-bump mangels Wettbewerb.

Ersteres sagt sich leicht. Klar wünschen sich alle, dass AMD irgendeinen Knaller aus dem Hut zaubert und Nvidias Flagschiff überbietet. Realistisch muss man aber sehen, wie AMD aus den Ressourcen, die sie haben, möglichst viel nachhaltige Entwicklung rausholt.

RDNA1 z.B. hat nur das obere Mainstream-Segment bedient, obwohl AMD theoretisch die Möglichkeit gehabt hätte mit einem größeren Chip und 300W Powerbudget auch den großen Turing-Chip anzugreifen. Aber dann hätte sich die Entwicklung des IF-Caches, der hohen Taktraten oder des Chiplet-Designs verzögert. Kurzfristig wäre das vielleicht ein Erfolg, aber langfristig wird man dadurch technologisch immer weiter abgehängt, wenn man jede Evolutionsstufe der eigenen Architektur nochmal in allen Größen und Formen ausdesigned und launcht.

AMD hätte auch für Zen 1 Versionen mit mehr Takt oder 8C-CCX bauen können, um gegen Skylake besser dazustehen. Oder sie hätten für Zen 2 und 3 jeweils monolithische Desktop-Modelle entwickeln können, um hier den kurzfristigen Vorteil noch weiter auszupressen. Allerdings hätte sich jede weitere Gen dadurch verzögert bzw. wäre nicht so schneller geworden. Anschaulich gesprochen hätten wir dadurch heute vielleicht noch keinen Zen 4, sondern der würde erst Ende des Jahres kommen. Oder wir hätten Zen 4, aber er wäre nur so schnell wie Zen 3. Oder wir hätten keinen 3D-Cache. Oder oder.

Lurtz
2023-07-08, 23:28:15
AMD hat ja beides gemacht: einmal innovativ sein
Wann war das denn?

Zudem meinte MLID mal, dass AMD Nvidia sowieso nicht als Konkurrenten ansieht. Also ist es ihnen wohl auch ziemlich egal was Nvidia macht.
Wirkt allein was die Preisfindung angeht nicht so :ugly:

Nightspider
2023-07-09, 00:06:19
Ersteres sagt sich leicht. Klar wünschen sich alle, dass AMD irgendeinen Knaller aus dem Hut zaubert und Nvidias Flagschiff überbietet. Realistisch muss man aber sehen, wie AMD aus den Ressourcen, die sie haben, möglichst viel nachhaltige Entwicklung rausholt.

RDNA1 z.B. hat nur das obere Mainstream-Segment bedient, obwohl AMD theoretisch die Möglichkeit gehabt hätte mit einem größeren Chip und 300W Powerbudget auch den großen Turing-Chip anzugreifen. Aber dann hätte sich die Entwicklung des IF-Caches, der hohen Taktraten oder des Chiplet-Designs verzögert. Kurzfristig wäre das vielleicht ein Erfolg, aber langfristig wird man dadurch technologisch immer weiter abgehängt, wenn man jede Evolutionsstufe der eigenen Architektur nochmal in allen Größen und Formen ausdesigned und launcht.

AMD hätte auch für Zen 1 Versionen mit mehr Takt oder 8C-CCX bauen können, um gegen Skylake besser dazustehen. Oder sie hätten für Zen 2 und 3 jeweils monolithische Desktop-Modelle entwickeln können, um hier den kurzfristigen Vorteil noch weiter auszupressen. Allerdings hätte sich jede weitere Gen dadurch verzögert bzw. wäre nicht so schneller geworden. Anschaulich gesprochen hätten wir dadurch heute vielleicht noch keinen Zen 4, sondern der würde erst Ende des Jahres kommen. Oder wir hätten Zen 4, aber er wäre nur so schnell wie Zen 3. Oder wir hätten keinen 3D-Cache. Oder oder.

Das sind gute Punkte.

Ich hoffe nur das RDNA4 nicht wieder verspätet auf den Markt kommt.

Zen4 und RDNA3 kamen zu spät und zu schlecht.

AMD bündelt halt auch viele Ressourcen für die HPC Produkte.

Die Ressourcen die für CDNA3 draufgegangen sind, dafür hätte AMD viele Gaming GPU Launches machen können.
Allerdings lernen die Ingenieure ja auch jede Menge bei solchen Meilensteinen.

Für alle Gamer (bis auf Troyan) wäre es gut, wenn RDNA4 in jeder Hinsicht ein voller Erfolg wird und einschlägt.

KarlKastor
2023-07-09, 06:31:35
Naja, in meinen Augen ist es ziemlich unerheblich ob AMD mit dem Topmodell konkurrieren kann oder nicht. Zumal AD102 auch extrem fett geworden ist
Was sie brauchen ist ein gescheite Architektur und dann eben einen Abdeckung des gesamten Portfolios darunter. Also ähnlich wie bei RDNA2.
Bei RDNA3 gibt's unten einen lauwarmem Aufguss und oben ein fetten Chip der aber nicht die Performance bringt (Takt bzw. Effizienz Problem) und in der Mitte gibt es gar nichts.
Damit gewinnt man ganz sicher keine Marktanteile.

Mortalvision
2023-07-09, 07:38:32
Jo, das wird spannend. Bin mir auch ziemlich sicher, dass sie mit RDNA4 auch das RT nicht auf 4090 Niveau pimpen können.

robbitop
2023-07-09, 08:38:11
AMD hat ja beides gemacht: einmal innovativ sein und einmal Nvidia hinterherrennen..

Du hast es immernoch nicht kapiert. Wenn man diese Strategie erfolgreich fahren will, reicht „einmal innovativ sein nicht“. Entsprechend ist das der völlig falsche Schluss, den du da ziehst.

Wenn man nicht über viele Generationen immer konsistent Performance und Innovation abliefert, gibt es nicht genug Zeit die Marke und Mindshare aufzubauen. Bei Epyc/Ryzen dauerte das 5-6 Jahre.

Aber wenn man nur einmal was gutes zeigen kann/will, ja dann ist es wohl besser im Windschatten von Nvidia hinterher zu laufen. Das Dumme ist nur, dass Nv Stück für Stück Marktanteile wegnimmt und immer weniger vom Kuchen übrig bleibt. Irgendwann lohnen GPUs dann ggf nicht mehr für AMD und wir haben ein Monopol. :up:

robbitop
2023-07-09, 08:39:58
Wann war das denn?


Einmal ganz kurz mit Mantle in den letzten 10 Jahren. Davor gabs bei R200 mal Truform. Viel mehr fällt mir dazu nicht ein.

robbitop
2023-07-09, 08:43:24
Naja, in meinen Augen ist es ziemlich unerheblich ob AMD mit dem Topmodell konkurrieren kann oder nicht. Zumal AD102 auch extrem fett geworden ist
Was sie brauchen ist ein gescheite Architektur und dann eben einen Abdeckung des gesamten Portfolios darunter. Also ähnlich wie bei RDNA2.
Bei RDNA3 gibt's unten einen lauwarmem Aufguss und oben ein fetten Chip der aber nicht die Performance bringt (Takt bzw. Effizienz Problem) und in der Mitte gibt es gar nichts.
Damit gewinnt man ganz sicher keine Marktanteile.

Naja aber AD103 ist nur 379 mm2 groß. Und nur 256 bit SI. Das ist eher unteres Performance Segment. Das wird jetzt als high end vertickt, weil AMD maximal dagegen ankommt.
Bei Ada hat Nv es hoffentlich zu weit getrieben in dem sie jede SKU nochmal um ein Level nach oben verkaufen.
(die 4060 ist eigentlich eine 4050 usw)

Und sooo fett ist AD102 auch nicht 609 mm2 und 384 bit gab es schon im high end. Wir hatten sogar schon 512 bit…

Hatstick
2023-07-09, 09:34:18
Was mich bei AMD wundert ist das Thema Streaming, was seid Jahren komplett vernachlässigt wird und man nur die Option hat, zu einer nVidia zu greifen.
AV1 Codec mit der 7000er ist gut und schön, wird aktuell nur von YT unterstützt und es ist auch nicht abzusehen, wann das eventl. zu Twitch kommt.
Streaming über CPU mit dem x264 ist im Prinzip tot. Ineffizient, schluckt viel zu viel Leistung, da sind die nVidia einfach sehr smart bei quasi 0% Auslastung.
Eigenkreation wird da wohl auch nix kommen kommen von AMD, das verstehe ich überhaupt nicht, warum die das komplett ignorieren.

robbitop
2023-07-09, 10:16:17
Ja NVENC war jahrelang eines der Features die deutlich besser funktioniert haben. AMD hat auch sowas aber leider schlechter. Da floß wirklich vergleichbar weniger Aufwand hinein. Jetzt hat NVENC für Streamer einfach eine große Bedeutung egal ob AV1 es jetzt für alle anderen auch fixen wird. Der AV1 encoder von Intel, AMD und NV scheint grob auf dem gleichen sehr hohen level zu sein.

aufkrawall
2023-07-09, 10:41:28
Eigenkreation wird da wohl auch nix kommen kommen von AMD, das verstehe ich überhaupt nicht, warum die das komplett ignorieren.
Ist das ab dem Zeitpunkt, ab dem Twitch mit AV1 geht, dann halt egal. Hoffentlich also mit dem Launch der nächsten Gen kein Thema mehr. Bei RDNA3 hat man eh andere Probleme.
Ansonsten nehme ich Highlights mit Overwolf Outplayed auf, das geht mit 100 Mbit/s gut genug. Nvidia Highlights ist unzuverlässiger Schrott im Vergleich, da ist auch nicht alles Gold.

basix
2023-07-09, 11:49:58
Jo, das wird spannend. Bin mir auch ziemlich sicher, dass sie mit RDNA4 auch das RT nicht auf 4090 Niveau pimpen können.

Was heisst für dich 4090 Niveau? Absolut oder relativ?

Absolut = Schneller als 4090
Relativ = Raster -> RT Performance Hit

Bei abslouter Performance bin ich zu 100% überzeugt, dass man die 4090 schlägt (CP2077 Pathtracing tbc). Oder besser gesagt schlagen muss. Alles andere wäre ziemlich meh.

Relative Performance ist stark vom Spiel und der Implementation abhängig. Hier wird man vermutlich nicht überall schneller als eine 4090 sein. z.B. bei CP2077 Overdrive vermutlich nicht.

Naja aber AD103 ist nur 379 mm2 groß. Und nur 256 bit SI. Das ist eher unteres Performance Segment.
"Unteres Performance Segment"? :freak: Würde ich bei 400mm2 und 16 GByte jetzt nicht behaupten. "Unteres Performance Segment" ist für mich eine 60er GPU. Was bei Ada AD106 mit 200mm2 oder anders gesagt die heutige 4060 Ti ;) (leider 8GB...). Bis und mit 4070 könnte man je nach dem auch noch dort einordnen, eine 4090 ist nur noch ~2x schneller in 1440p.

AD103 ist schon oberes Performance / High End Segment. Die 300mm2 Chips von Kepler (GK104) und Pascal (GP104) waren auch Performance / High End ;) Nicht die Top Notch GPU aber schon High End. Dass die nun >1000 Euro kostet ist eher das Problem. 700 Euro und es wäre OK.


Und sooo fett ist AD102 auch nicht 609 mm2 und 384 bit gab es schon im high end. Wir hatten sogar schon 512 bit…
Ja, ist relativ "normal" für einen High End Chip von Nvidia. Pascal war kleiner, Turing grösser. Der Rest meistens bei ~600mm2

Hatstick
2023-07-09, 12:01:18
Ist das ab dem Zeitpunkt, ab dem Twitch mit AV1 geht, dann halt egal. Hoffentlich also mit dem Launch der nächsten Gen kein Thema mehr. Bei RDNA3 hat man eh andere Probleme.
Ansonsten nehme ich Highlights mit Overwolf Outplayed auf, das geht mit 100 Mbit/s gut genug. Nvidia Highlights ist unzuverlässiger Schrott im Vergleich, da ist auch nicht alles Gold.

Ja, Prinzip Hoffnung bei AMD aber ja, sie haben wohl einfach andere Sachen zu tun und die Ressourcen sind dafür anscheinend auch gar nicht da.
Weil Twitch und AV1 ist nichts in Sicht und auch für Twitch wird das letzlich Geld kosten und das werden sie mit Sicherheit nicht ganz oben stellen, weil so gar nix zu lesen ist.

Sie müssen schon zu sehen, das sie gerade in Sachen Featureset nun nicht komplett den Anschluss an nVidia verlieren.
Mein 6800XT Kauf war vor ca. 8 Monaten die beste Option aber ja, Preis und VRAM waren der Punkt.
Da muss AMD schauen, das sie mehr als diese zwei Punkte als Pluspunkte gegenüber grün auf die Beine stellen.

fondness
2023-07-09, 12:10:02
Ersteres sagt sich leicht. Klar wünschen sich alle, dass AMD irgendeinen Knaller aus dem Hut zaubert und Nvidias Flagschiff überbietet. Realistisch muss man aber sehen, wie AMD aus den Ressourcen, die sie haben, möglichst viel nachhaltige Entwicklung rausholt.


Das ist der entscheidende Punkt, völlig absurd zu erwarten, das man mit einem Bruchteil der Ausgaben mal eben alle schlägt. Alleine schon, dass sie Intel vorführen ist beeindruckend genug. Und mit dem Budget muss AMD CPUs, GPUs und FPGAs abdecken, während Nvidia defacto nur GPUs selbst entwickelt, CPUs lizensiert und FPGAs gar nicht hat.

Allerdings hat AMD dieses Problem schon erkannt und Lisa setzt die richtigen Akzente, das RnD-Budget von AMD ist in den vergangenen Jahren regelrecht explodiert. 2020 war man bei 1.9Mrd $, 2021 bei 2.84Mrd $ und 2022 bei 5 Mrd $. Dieses Jahr liegt die Steigerung die ersten Monate wieder bei über 30% vs. 2022. Wird aber natürlich trotzdem Jahre dauern, bis sich das auf Produkte auswirkt.

Exxtreme
2023-07-09, 12:21:50
Wann war das denn?



Ummm, Truform, DP2.0 etc?


Wirkt allein was die Preisfindung angeht nicht so :ugly:


Wenn sie damit am meisten Geld machen dann bleibt das auch so. :freak:

Zossel
2023-07-09, 12:45:46
Ältere UE4 D3D11-Spiele werden auf GCN immer noch furchtbar langsam im Vergleich zu Kepler laufen. Damals lag Epic noch mit Nvidia im Bett, heute sind sie eher selber der Boss.

Alles >DX11 wird sich sowieso nicht durchsetzen.

Platos
2023-07-09, 12:48:34
Ich denke die meisten hier verstehen unter Innovation ein bisschen was anderes, als Display Port 2.0 früh einzubauen...

Das ist keine Innovation.

Altehardware
2023-07-09, 13:31:17
Wie groß ein chip werden darf hängt primär beim preis des chips
nvidia sichtweise
20-40$ low end das mti 50er klasse gemeint
40-60$ entry damit ist die 60er klase gemeint
60-90$ mid class damit ist 70er high class gemeint
90-150$ high end

Aktuell sieht es so aus da der wafer extrem teuer ist 17000$ zum vergleich zu samsung 8n 8000$ per wafer
Und die chips nur zu 40% kleiner wurden

ad107 40$ 140mm²
ad106 50$ 190mm²
ad104 90$ 290mm²
ad103 110$ 380mm²
ad102 200$ 609mm²

Der hign end chip ist quasi als Sku verdammt billig
Was nvidia hier macht ist upselling
Da die yield so gut sind will man eher die ad102 verkaufen als ad103 genauso sieht das beim ad104 aus. Auch dieser soll vermehrt verkauft werden statt ad106.
Der ad107 wird vermutlich mobil exklusiv bleiben.

Das geht solange wie amd mitzieht
daher iste s schade was ada geworden ist, gute arch guter node aber völlig falsch vermarktet
Erst wenn amd mit rdna4 die Fehler der mcm beseitigt hat wird nvidia antworten und das erst 2025 sofern amd wieder verspätet.
Wenn nicht greift man zur super keule womit ich rechne.

Intel indes ist ne Wundertüte noch völlig offen was battlemage wird.