PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 [38] 39 40 41 42 43 44 45 46 47 48

Mandalore
2023-02-19, 10:30:17
https://wccftech.com/amd-talks-rdna-4-gpu-based-ai-accelerators-next-gen-graphics-pipeline-promises-to-evolve-to-rdna-4-with-even-higher-performance-in-near-future/


Interessantes Interview mit David Wang, mit kleiner Info zu RDNA 4

Trap
2023-02-19, 11:18:07
Aus dem WCCF-Tech Artikel
Meanwhile, the AI Learning & training model is something that's done primarily on the GPU side and Wang states that their recent commitment to the ROCm software suite is now on par with NVIDIA's CUDA platform.
ROCm hat in der heute verfügbaren Version keinen RDNA3 support. Da ist "on par with CUDA" eine Formulierung, die ich nicht wählen würde :freak:

Oder doch, je nachdem wie man interpretiert ;D

MSABK
2023-02-19, 11:23:22
Ich habe das Gefühl RDNA3 wird schnell von der Bildfläche verschwinden und AMD konzentriert sich voll und ganz auf RDNA4. Ähnlich wie bei RDNA1, die war ok, aber erst RDNA2 war wirklich gut.

Gott1337
2023-02-19, 11:43:12
https://wccftech.com/amd-talks-rdna-4-gpu-based-ai-accelerators-next-gen-graphics-pipeline-promises-to-evolve-to-rdna-4-with-even-higher-performance-in-near-future/


Interessantes Interview mit David Wang, mit kleiner Info zu RDNA 4
Wenn Firmen, egal welcher Branche, nach einem Hardware release schon über die nächsten Produkte reden, ist das IMMER ein ganz schlechtes Zeichen.

dargo
2023-02-19, 12:04:48
Ich habe das Gefühl RDNA3 wird schnell von der Bildfläche verschwinden und AMD konzentriert sich voll und ganz auf RDNA4. Ähnlich wie bei RDNA1, die war ok, aber erst RDNA2 war wirklich gut.
Diese Gefühle wieder. :lol: Klar... ein IHV wirft eine ganze GPU-Generation schnell weg. :facepalm:

Wenn Firmen, egal welcher Branche, nach einem Hardware release schon über die nächsten Produkte reden, ist das IMMER ein ganz schlechtes Zeichen.
Blödsinn³. RDNA4 stand schon lange auf dem Plan, da wurde RDNA3 noch nicht mal released. Breaking News... IHVs reden über kommende Produkte in naher Zukunft. :uclap:

dildo4u
2023-02-19, 12:34:01
Ich habe das Gefühl RDNA3 wird schnell von der Bildfläche verschwinden und AMD konzentriert sich voll und ganz auf RDNA4. Ähnlich wie bei RDNA1, die war ok, aber erst RDNA2 war wirklich gut.
AMD hat ein RDNA3+ Refrech auf der Roadmap könnte eher sein das immer mehr Modelle erstmal nicht mit RDNA4 kommen wenn 3nm noch mal deutlich mehr kostet.
Diese Gen ist es nur die 7600 in 6nm, in 4nm könnte AMD RDNA3+ Modelle in der Mittelklasse bringen.

Linmoum
2023-02-19, 12:38:27
Es gibt kein RDNA3+ auf AMDs GPU-Roadmap. Das taucht einzig für Notebooks auf.

DrFreaK666
2023-02-19, 12:52:23
Und Notebook-Chips könnten nicht für auf Grafikkarten landen, weil?

=Floi=
2023-02-19, 12:59:27
Diese Gefühle wieder. :lol: Klar... ein IHV wirft eine ganze GPU-Generation schnell weg. :facepalm:



sehe ich auch nicht. Ich denke man wird RT weiter verbessern, aber beim normalen renderer irgendwann sparen.
Einzig die SPs direkt zu verdoppeln sehe ich noch als möglichkeit.

Eventuell bietet das chiplet design noch skalierungsmöglichkeiten für spezielle sachen.

edit
auch mit RDNA3 ist RDNA2 nicht schlecht!

Taigatrommel
2023-02-19, 13:01:00
https://wccftech.com/amd-talks-rdna-4-gpu-based-ai-accelerators-next-gen-graphics-pipeline-promises-to-evolve-to-rdna-4-with-even-higher-performance-in-near-future/


Interessantes Interview mit David Wang, mit kleiner Info zu RDNA 4
Vielleicht sollte AMD mit solchen Aussagen etwas vorsichtiger sein, denn die neuen Produkte werden gerne mal an solchen saloppen Vorabaussagen gemessen. Nach der Enttäuschung mit RDNA3 ganz besonders. Davon abgesehen empfinde ich es ebenfalls als kein gutes Zeichen, es mag eher ein Bauchgefühl von mir sein, doch ich sehe mich hier irgendwie an Vega erinnert, welches man dann recht schnell abservierte um sich auf die nächste Sache zu konzentrieren.

Linmoum
2023-02-19, 13:05:03
Und Notebook-Chips könnten nicht für auf Grafikkarten landen, weil?Notebook-Roadmap = APUs.

Nightspider
2023-02-19, 15:42:43
Ich hatte jetzt auch das Gefühl, das es sehr ruhig um N32 geworden ist.
Entweder weil RDNA3 mit zukünftigen Produkten eh nur noch entäuschen wird oder weil N32 sehr spät kommt, weil man versucht da noch ein par Dinge zu retten.

AMD hat ein RDNA3+ Refrech auf der Roadmap könnte eher sein das immer mehr Modelle erstmal nicht mit RDNA4 kommen wenn 3nm noch mal deutlich mehr kostet.
Diese Gen ist es nur die 7600 in 6nm, in 4nm könnte AMD RDNA3+ Modelle in der Mittelklasse bringen.

Wenn AMD den Chiplet-Ansatz nach unten hin weiter ausbaut, dann wäre das nicht nötig.

Für mobile GPUs wäre es auch sinnvoll den neusten Prozess zu nutzen, um der Konkurrenz nicht den kompletten Markt zu überlassen.

Ich hoffe inständig das AMD mit RDNA4 schneller auf dem Markt ist. Durch die fertigen MCDs spart sich AMD zumindest auch Entwicklungszeit weil man sich bei RDNA4 auf die GCDs konzentrieren kann.

basix
2023-02-19, 18:09:08
Ich hoffe bei RDNA4 auf Frühjahr 2024 und mehr Lovelace Style bei der Umsetzung (Energieffizienz, RT-Performance, FSR2/3-Qualitätssprung, SW-Featureset) ;)

reaperrr
2023-02-19, 19:03:06
AMD hat ein RDNA3+ Refrech auf der Roadmap
Der RDNA3+ Refresh soll gestrichen worden sein (von den APUs abgesehen).

könnte eher sein das immer mehr Modelle erstmal nicht mit RDNA4 kommen wenn 3nm noch mal deutlich mehr kostet.
Diese Gen ist es nur die 7600 in 6nm, in 4nm könnte AMD RDNA3+ Modelle in der Mittelklasse bringen.
N3-Wafer kosten "nur" ~25% mehr als N5, der extreme Preis-Sprung ist nur von N7/6 auf N5.

Außerdem soll RDNA4 den Chiplet-Ansatz noch eine Stufe weitertreiben und es nur noch ein 48CU-GCX-Chiplet geben, über deren Anzahl dann die Leistung skaliert wird.
1 GCX + 2 MCD = N33-Ersatz, 2 GCX + 4 MCD N32-Ersatz, 3 GCX + 6 MCD N31-Ersatz.
N33 wird mMn wahrscheinlich unterhalb von N43 erstmal der Mainstream-Desktop-Chip bleiben, da er dank N6 ziemlich günstig zu fertigen sein dürfte und die mäßige Perf/W im Desktop nicht ganz so wild ist.
Im Notebook wird die Strix Point IGP m.E. N33 verdrängen, da 24 RDNA3+ CUs in N4(P) mit IF$ wahrscheinlich nicht viel langsamer sein werden als N33, und darüber siedelt man dann halt den N43-Salvage an.

Ich hatte jetzt auch das Gefühl, das es sehr ruhig um N32 geworden ist.
Entweder weil RDNA3 mit zukünftigen Produkten eh nur noch entäuschen wird oder weil N32 sehr spät kommt, weil man versucht da noch ein par Dinge zu retten.
Ich würde sagen, man hat versucht, denn der Chip wird sein Tape-Out schon längst gehabt haben und wenn kein gravierendes Problem mehr gefunden wurde, final sein.
Nur hat sich durch den Versuch, bei N32 noch ein bisschen was zu retten der Tape-Out wahrscheinlich von Anfang 22 auf Mitte 22 oder so verzögert, weil man erstmal rausfinden wollte, was genau bei N31 bzw. RDNA3 generell denn im Argen liegt und ob man es für N32 beheben kann, und vom Tape-Out bis Release vergehen immer locker einige Monate.

dargo
2023-02-19, 19:19:23
Ich hoffe bei RDNA4 auf Frühjahr 2024 und mehr Lovelace Style bei der Umsetzung (Energieffizienz, RT-Performance, FSR2/3-Qualitätssprung, SW-Featureset) ;)
Dann hoffe mal weiter. :tongue: GPU-Generationszyklen dauern mittlerweile zwei Jahre, ist nun wirklich nichts Neues.

Nightspider
2023-02-19, 20:24:00
Das ist kein Gesetz sondern davon abhängig, wann die Firma eine neue Generation auf den Markt bringen will.

AMD könnte sich schon auf einen zeitigen RDNA4 Release fokussieren. Diese Entscheidung wäre dann aber sowieso wahrscheinlich schon im Laufe 2022 getroffen worden. Falls denn wirklich mal RDNA3+ geplant war als dedizierte GPU, dann ist es schon möglich das AMD diese gecancelt hat.
Nach CDNA3 ist bei AMD Zen5 und RDNA4 dran. Bei Zen5 hieß es ja auch, das dieser ursprünglich nur 12 Monate nach Zen4 kommen sollte, laut frühen Planungen.

Designteams hat AMD so einige und eingestellen tun sie neues Personal ja seit Jahren. Die Frage ist immer ob man die geplanten Ziele zum geplanten Zeitpunkt erreichen kann oder irgendwo die Schere ansetzt, wie beim hypothetischen RDNA3 Refresh.

reaperrr
2023-02-19, 20:51:58
Dann hoffe mal weiter. :tongue: GPU-Generationszyklen dauern mittlerweile zwei Jahre, ist nun wirklich nichts Neues.
RDNA2 kam 16 Monate nach RDNA1 raus...

Linmoum
2023-02-19, 20:55:49
RDNA war aber auch keine klassische GPU-Gen von oben nach unten, der größte Chip war ein N10 mit winzigen 251mm².

Nightspider
2023-02-19, 20:58:58
Mit kleinen GCDs könnte AMD auch zu den ersten Firmen gehören, die N3 nutzen.

Würde ja schon reichen wenn die schnellsten 2 GPUs ein paar Monate vor Nvidia auf den Markt kämen.

Linmoum
2023-02-19, 21:05:18
"Advanced Node" klingt eher nach irgendeinem verbesserten N4.

Davon ab ist man schon fest davon ausgegangen, dass AMD durch den MCM-Ansatz bei RDNA3 deutlich vor Nvidia launchen würde. Gerade T2M ist ja - eigentlich - ein großer Vorteil dieser Lösung(en). Stand jetzt haben sie weiterhin nur einen Chip auf dem Markt, wohingegen Nvidia schon bei insgesamt drei verschiedenen steht und das ohne reusing von irgendwelchen MCDs. Keine Ahnung, was AMD da fabriziert.

Nightspider
2023-02-19, 21:16:07
Das RDNA3 jede Erwartungen verfehlt hat musst du nicht erwähnen.

Aber wenn Teile wie die MCDs schon fertig sind für RDNA4 spart man sich Entwicklungszeit.

N4P würde schon auch gehen und soll von der Performance ja nahe an N3 dran sein.

N3 wird wohl trotzdem ein Stück effizienter, was für mobile wichtig wäre.

gedi
2023-02-19, 21:19:27
Das RDNA3 jede Erwartungen verfehlt hat musst du nicht erwähnen.

Aber wenn Teile wie die MCDs schon fertig sind für RDNA4 spart man sich Entwicklungszeit.



N4P würde schon auch gehen und soll von der Performance ja nahe an N3 dran sein.

N3 wird wohl trotzdem ein Stück effizienter, was für mobile wichtig wäre.


Sollten wir nicht noch warten, um Schlussfolgerungen aussprechen zu dürfen?

reaperrr
2023-02-19, 23:26:31
RDNA war aber auch keine klassische GPU-Gen von oben nach unten, der größte Chip war ein N10 mit winzigen 251mm².
Die Logik verstehe ich nicht. Größe und Anzahl der RDNA1-Chips sollte wenn überhaupt, dann auf die Entwicklungsdauer und den Abstand zwischen Vega und RDNA1 Einfluss gehabt haben, nicht auf den Abstand zwischen RDNA1 und RDNA2.

Generell hängt die Entwicklungsdauer mehr von den Architekturänderungen als der Größe und Anzahl der Chips ab (man muss die Chips ja nicht gleichzeitig launchen, was AMD ja auch nicht tut).

RDNA3 hätte wahrscheinlich schon viel früher fertig sein können, wenn AMD entweder auf Chiplets, oder auf Teile der uArch-Änderungen verzichtet hätte.
Wir wissen auch nicht, um wieviel sich der RDNA3-Launch durch diverse Probleme - Fehlersuche wg. schlechterer Leistung u. Taktbarkeit als erwartet, Nachfrageeinbruch nach RDNA2 wg. Ende des Mining-Booms, unfertige Treiber - bereits verzögert hatte.

Davon ab ist man schon fest davon ausgegangen, dass AMD durch den MCM-Ansatz bei RDNA3 deutlich vor Nvidia launchen würde. Gerade T2M ist ja - eigentlich - ein großer Vorteil dieser Lösung(en). Stand jetzt haben sie weiterhin nur einen Chip auf dem Markt, wohingegen Nvidia schon bei insgesamt drei verschiedenen steht und das ohne reusing von irgendwelchen MCDs. Keine Ahnung, was AMD da fabriziert.
Das ist ein ziemlicher Denkfehler.
Re-using bringt höchstens - wenn's gut läuft, was bei RDNA3 halt nicht der Fall war - ab dem 2. Chip was in Sachen TtM, und für N33 gilt es natürlich auch nicht.
Architekturänderungen brauchen bei Chiplets genauso lange bzw. eher noch etwas länger, weil man neben der Architektur an sich auch noch das Zusammenspiel und Packaging der Chiplets planen, testen und umsetzen muss.

Bei Chiplets geht es zu 98% um zwei Dinge: Kosten und Ausbeute (Ausbeute sowohl im Sinne von Defektrate, als auch schaffbare Taktraten).

Time to Market der kleineren Modelle ist eher ein netter Nebeneffekt, wenn man mal so weit ist, dass alle SKUs sich aus den selben Chiplets zusammensetzen und der Release-Abstand hauptsächlich davon abhängt, wie schnell man große Mengen der neuen Chiplets produzieren und zusammenflanschen kann.

Nightspider
2023-02-19, 23:37:32
Architekturänderungen brauchen bei Chiplets genauso lange bzw. eher noch etwas länger, weil man neben der Architektur an sich auch noch das Zusammenspiel und Packaging der Chiplets planen, testen und umsetzen muss.

Bei Chiplets geht es zu 98% um zwei Dinge: Kosten und Ausbeute (Ausbeute sowohl im Sinne von Defektrate, als auch schaffbare Taktraten).

Jain. Es gab da mal ein Interview wo es darum ging, das man einiges an Entwicklungszeit spart, wenn man Chiplets reusen kann.
Während man zB. diverse IO-Controller usw für einen neuen Fertigungsprozess neu designen muss, so kann man die Teile einfach erneut verwenden, wenn sie im alten Chiplet stecken und man Chips aus vers. Prozessgenerationen kombiniert.

Natürlich sind die ersten Schritte schwierig aber über Versuche ist AMD weit hinaus. AMDs Chiplets sind in der Massenproduktion und die Probleme von RDNA3 müssen überhaupt nichts mit dem Chipletdesign zu tun haben. Die MCDs funktionieren tadellos. Einzig die GCDs haben angeblich Fehler und laufen ineffizienter, als es angeblich geplant war.

AMD kann das GDDR6 PHY in den MCDs bei RDNA4 einfach weiter benutzen und muss diese nicht neu designen. Die MCDs haben genug Bandbreite für RDNA4 und lassen sich durch die Anzahl und eventuelles Stacking in verschiedene Dimensionen skalieren.
Da kann AMD also schon mal einen riesigen Haken für RDNA4 dran setzen.

Vielleicht hat die erste Chiplet-Gaming-GPU etwas länger gebraucht in der Entwicklung aber da Teile davon wiederverwendet werden (siehe Zen2 -> Zen3) könnte es es beim Nachfolger schneller gehen.

Das AMD anstrebt RDNA4 in der 1. Hälfte 2024 auf den Markt zu bringen halte ich für realistisch.

Es ist sogar realistisch das die Kadenz durch Chipletdesigns in Zukunft steigt und die IHVs kleinere Node-Sprünge mitnehmen bei den Recheneinheiten, während der IO Kram über mehrere Generationen in einem billigeren Prozess genutzt wird.
Wenn man den IO Kram nicht neu designen muss und stärker durch neue Nodes profitiert (CUs skalieren besser als Cache) und AMD sowieso für APUs die CUs in "allen" Nodes designen muss, warum dann nicht nach 1,5 Jahren gleich eine neue Gen auf den Markt werfen?

RDNA4 mit neuen GCDs 1,5 Jahre nach RDNA3
und RDNA5 1,5 Jahre nach RDNA4?
Who knows.

Nvidia wird in absehbarer Zeit auch auf Chiplets setzen und AMD muss zusehen, das sie Land gewinnen.

amdfanuwe
2023-02-20, 01:19:42
Wir wissen auch nicht, um wieviel sich der RDNA3-Launch durch diverse Probleme - Fehlersuche wg. schlechterer Leistung u. Taktbarkeit als erwartet, Nachfrageeinbruch nach RDNA2 wg. Ende des Mining-Booms, unfertige Treiber - bereits verzögert hatte.

Und nicht Corona vergessen, hat auch zu Verzögerungen geführt.

Dazu noch neue Infinity FanOut Links, die mit RDNA 3 in Massenproduktion getestet werden.

Gott1337
2023-02-20, 06:23:30
Jain. Es gab da mal ein Interview wo es darum ging, das man einiges an Entwicklungszeit spart, wenn man Chiplets reusen kann.
Während man zB. diverse IO-Controller usw für einen neuen Fertigungsprozess neu designen muss, so kann man die Teile einfach erneut verwenden, wenn sie im alten Chiplet stecken und man Chips aus vers. Prozessgenerationen kombiniert.

Natürlich sind die ersten Schritte schwierig aber über Versuche ist AMD weit hinaus. AMDs Chiplets sind in der Massenproduktion und die Probleme von RDNA3 müssen überhaupt nichts mit dem Chipletdesign zu tun haben. Die MCDs funktionieren tadellos. Einzig die GCDs haben angeblich Fehler und laufen ineffizienter, als es angeblich geplant war.

AMD kann das GDDR6 PHY in den MCDs bei RDNA4 einfach weiter benutzen und muss diese nicht neu designen. Die MCDs haben genug Bandbreite für RDNA4 und lassen sich durch die Anzahl und eventuelles Stacking in verschiedene Dimensionen skalieren.
Da kann AMD also schon mal einen riesigen Haken für RDNA4 dran setzen.

Vielleicht hat die erste Chiplet-Gaming-GPU etwas länger gebraucht in der Entwicklung aber da Teile davon wiederverwendet werden (siehe Zen2 -> Zen3) könnte es es beim Nachfolger schneller gehen.

Das AMD anstrebt RDNA4 in der 1. Hälfte 2024 auf den Markt zu bringen halte ich für realistisch.

Es ist sogar realistisch das die Kadenz durch Chipletdesigns in Zukunft steigt und die IHVs kleinere Node-Sprünge mitnehmen bei den Recheneinheiten, während der IO Kram über mehrere Generationen in einem billigeren Prozess genutzt wird.
Wenn man den IO Kram nicht neu designen muss und stärker durch neue Nodes profitiert (CUs skalieren besser als Cache) und AMD sowieso für APUs die CUs in "allen" Nodes designen muss, warum dann nicht nach 1,5 Jahren gleich eine neue Gen auf den Markt werfen?

RDNA4 mit neuen GCDs 1,5 Jahre nach RDNA3
und RDNA5 1,5 Jahre nach RDNA4?
Who knows.

Nvidia wird in absehbarer Zeit auch auf Chiplets setzen und AMD muss zusehen, das sie Land gewinnen.
Was gegen deine Theorie spricht ist ja, das N32 und N33 gar nicht schneller erschienen sind. Nvidia war deutlich schneller obwohl sie komplett verschiedene DIEs entwickelt haben.
Also soviel wird das nicht sparen, weil man solange der Node gleich ist auch dort viel kopieren kann.

und ich glaub kaum dass das bus-interface soviel Arbeitszeit verschlingt.

amdfanuwe
2023-02-20, 09:33:18
und ich glaub kaum dass das bus-interface soviel Arbeitszeit verschlingt.
Das ist das Problem mit dem Glauben. Man ist von Irrglauben nicht gefeit.

Logik und Timing kann man gut simulieren.
Bei analogem Kram wird es schon komplizierter.
Da hilft nur ausprobieren.

Ich hatte schon in manchem Projekt mit EMV Problemen zu tun.
Leitungslänge, Abschlusswiderstände, Übersprechen, Massepunkte...
Das wird einige Testwafer gekostet haben, bis man die Infinity FanOut Links beherrschte.
Und selbst dann bleibt noch ein Restrisiko ob es im finalem Aufbau in der Massenproduktion funktioniert.

Weis man halt nicht wieweit AMD da noch auf Risiko gegangen ist als die Entscheidung für das Interface fiel.

---
Kleine Anekdote: Als damals das erste Netzwerk in der FH installiert wurde, funktionierte es nicht.
Nach einigem Hin und Her hat man den HF Prof hinzugezogen.
Der berechnete dann, dass ein 50 Ohm Abschlusswiderstand an die Leitungen gehört und schon lief es.

Cyberfries
2023-02-20, 10:28:00
Was gegen deine Theorie spricht ist ja, das N32 und N33 gar nicht schneller erschienen sind. Nvidia war deutlich schneller
.

Stimmt, das kann man AMD durchaus ankreiden, dass man Nvidia immer hinterherhinkt.
Als zumindest teilweise Ehrenrettung muss aber angemerkt werden,
dass das GCD trotzdem ein eigener, neuer Chip ist, für den der Chiplet-Vorteil nicht gilt.
Das kommt erst bei dem erwarteten RDNA4-Konzept wirklich.

dildo4u
2023-02-20, 10:34:01
Wenn AMD den Chiplet-Ansatz nach unten hin weiter ausbaut, dann wäre das nicht nötig.


Der Chiplet Ansatz ist imo für High-End, selbst Strix Point in 2024 wird Monolithisch da alles bis 300mm² vermutlich Problemlos zu fertigen ist.
Die ganzen Apple M2 Max/Pro Chip sind doch Riesig und nutzen Jahre vor AMD die neuste Fertigung.

288 und 510mm²

https://www.golem.de/news/m2-pro-und-m2-max-im-vergleich-apples-beste-prozessoren-sind-nun-noch-besser-2302-171599.html

robbitop
2023-02-20, 10:37:12
Das Interview liest sich als wenn man weiter keine Hardware für Inferencing einbauen will. Mal sehen wie es mit RT HW aussieht. Nicht, dass man noch weiter zurückfällt.
Angeblich soll Blackwell ja auch schon Chiplet basiert sein.

AffenJack
2023-02-20, 11:13:41
Das AMD anstrebt RDNA4 in der 1. Hälfte 2024 auf den Markt zu bringen halte ich für realistisch.


Wie oft hatten wir die Gerüchte, dass RNDA3 so früh erscheinen wird und jetzt haben wir noch nichtmal N32 und N33 gelauncht. So spät wie RDNA3 größtenteils launcht würde ich H1 2024 ausschließen. Das wird wieder ein Launch im 2ten Halbjahr 2024. Alles andere sind wie jede Gen bei AMD Träumereien.

Die Entwicklungskosten sind hoch genug, dass man die Chipgenerationen 2 Jahre auf dem Markt lässt, um die Kosten wieder einzuspielen. Das war auch bei RDNA1 nicht anders. Die 5700XT wurde erst nach 2 Jahren durch N23 ersetzt.

Nebenbei muss AMD genauso die MCDs neu designen. Man wird bei der 2024 Gen sicherlich auf GDDR7 gehen, um genug Bandbreite zu haben. Samsung spricht da nicht umsonst schon seit 2021 von. Abgesehen davon würde ich bei AMD aber sowieso ein agressiveres Chipletdesign in Richtung MI300 erwarten, wo eh alles über den Haufen geschmissen wird bei den Chips.

Back2RDNA3: Wir haben jetzt schon Februar und man hört noch immer nichtmal ordentlich Spekulationen zum N32 Release Date?

HOT
2023-02-20, 12:15:04
Also bei Intel und bei den APUs sieht man ja schon, dass diese Generationsgrenzen stark aufweichen können. Warum sollte das nicht auch bei GPUs so sein? Wenn die kleineren GPUs bleiben kann man RDNA4 doch einfach über RDNA3 ansetzen und die alten Chips weiter fahren und die Lineups nach und nach über den gesamten Zeitraum verändern. Macht man mit RDNA2 ja im Moment auch. Ich sehe da einen generellen Strategiewechsel. High-End nutzt top-Fertigung, darunter weniger top und unten 6nm. Intel lässt die Alchemist-Generation auch aktiv während der Battlemage-Generation.

Complicated
2023-02-20, 12:28:44
Der Chiplet Ansatz ist imo für High-End, selbst Strix Point in 2024 wird Monolithisch da alles bis 300mm² vermutlich Problemlos zu fertigen ist.
Die ganzen Apple M2 Max/Pro Chip sind doch Riesig und nutzen Jahre vor AMD die neuste Fertigung.

288 und 510mm²

https://www.golem.de/news/m2-pro-und-m2-max-im-vergleich-apples-beste-prozessoren-sind-nun-noch-besser-2302-171599.html
Wo ist das Jahre vor AMDs 5nm? Der M2 verbleibt auf dem 5nm Node, da nun sicherlich auch die Stückzahlen als höher eingeschätzt werden, als bei M1. Siehe dein eigener Link.

amdfanuwe
2023-02-20, 12:58:59
Ein interessanter Artikel von Chips and Cheese zu RDNA2 interna:
https://chipsandcheese.com/2023/02/19/amds-rdna-2-shooting-for-the-top/

dargo
2023-02-20, 13:16:55
Das Interview liest sich als wenn man weiter keine Hardware für Inferencing einbauen will. Mal sehen wie es mit RT HW aussieht. Nicht, dass man noch weiter zurückfällt.

Das ist doch kompletter Käse wieder. Dieses Versteifen auf ein 1800+€ Produkt @4090 ist doch nur noch lächerlich. Weder die 7900XTX noch die 7900XT liegen weit hinter der 4080/4070TI in Games mit RT. Dass die schnellste AMD GPU weit hinter der schnellsten Nvidia GPU mit RT liegt juckt niemanden, außer paar Pimmelvergleicher in einem 3DC und Konsorten. Immer wieder geil wie man ein 1800+€ Produkt mit einem 1100+€ Produkt vergleicht. :facepalm: Noch geiler wirds dann wenn Nvidia bei der RTX5090 1799-1999$ UVP abruft. :ulol3:

Linmoum
2023-02-20, 14:22:12
Was wollt ihr immer mit der 4090? AMDs schnellste GPU (und damit AMDs größter Chip) bietet weniger RT-Performance als Nvidias drittschnellster/drittgrößter Chip in Form von AD104. Das ist nämlich das große Problem, alleine schon aus dem Grund, weil AD104 kleiner ist als AMDs N31 GCD. Man kann nur hoffen, dass der Abstand in Zukunft nicht größer wird und AMD sich nicht irgendwann nur noch mit einem xx106 rumprügelt.

Der_Korken
2023-02-20, 15:01:56
Ein interessanter Artikel von Chips and Cheese zu RDNA2 interna:
https://chipsandcheese.com/2023/02/19/amds-rdna-2-shooting-for-the-top/

Den RT-Part habe ich nur ganz grob überflogen, weil ich davon sowieso nicht so viel verstehe. Eine Grafik fand ich aber sehr interessant:

https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/02/rdna2_cache_hitrates.png?ssl=1

Die Hitrate des L1 ist ja mal richtig schlecht. Da würde ich mich dem Schreiber des Artikels anschließen, dass man mit den Transistoren lieber den L0 etwas vergrößert und den jetzigen L1 komplett weglässt. Bei den Latenzen bringt er im Bereich 32kB bis 128kB zwar Vorteile gegenüber dem L2, aber wenn die Anfrage in 70% der Fälle eh zum L2 durchgereicht wird, würde das im Schnitt gar nicht so viel ausmachen.

https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2023/02/rdna2_vector_latency.png?ssl=1

Man muss ja bedenken, die L2-Latenz ohne L1 gegenüber jetzt sinken würde. Wenn die Differenz zwischen L0 und L1 ungefähr der Zeit entspricht, die ein L1-Lookup kostet, könnte man das vom L2 abziehen und hätte diesen dann durchgehend bei ~82ns statt 98ns (und den L3 aka IF$ bei 150ns statt 166ns). Gefühlt würde die durchschnittliche Latenz dadurch sinken und es werden Transistoren gespart (mit denen man vllt. den L0 auf 24kB anheben könnte). Alternativ könnte man vielleicht auch nachdenken, den L2 wegzulassen und stattdessen die L1-Slices massiv zu vergrößern, z.B. auf 1MB. Vier Cache-Stufen sind ziemlich viel, wenn man bedenkt, dass Nvidia mit zweien auskommt.

amdfanuwe
2023-02-20, 16:06:28
Alternativ könnte man vielleicht auch nachdenken, den L2 wegzulassen und stattdessen die L1-Slices massiv zu vergrößern, z.B. auf 1MB. Vier Cache-Stufen sind ziemlich viel, wenn man bedenkt, dass Nvidia mit zweien auskommt.
Bei anderen Aufgaben könnte der L2 besser Skalieren als in den 3 Games.

Könnte vielleicht passieren mit RDNA4.
82852
Pro SE braucht es eine Datenrate von 3072 B/CLK/ 12 SE = 256 B/CLK zwischen L1 und L2.
Der Infinity FanOut Link liefert 2304/6 = 384 B/CLK.
Um 3 SE eines GCD Chiplet zu bedienen braucht es 768 B/CLK.
Das wird mit 2 IF FanOut Links erreicht.

Natürlich könnte man auch einen kleinen L2 auf dem GCD lassen, dann ist
das aber kein Globaler Cache für alle Chiplets mehr.
Die Aufgabe eines Globalen Caches wird dann vom IF-Cache übernommen.
Also L2 weg oder kleinen auf dem GCD mit 3SE um den Datentransfer etwas zu entschärfen wenn die 3SE auf einer Datenbasis arbeiten.
Ich denke auch nicht, dass AMD auf dem teurem GCD in N4/3 haufenweise Interfaces für die Kommunikation untereinander und Verbindungen zu bisherigen MCDs implementiert.
Kosten sparen, nur das nötigste auf dem GCD. Wären dann 3SE + 2 IF FanOut Links.
Gekoppelt an ein I/O in billigeren Prozess.
Da braucht man auch keine extra MCD mehr, die kann man direkt implementieren.

N41 3GCD + I/O (6 IF FO Links, 96MB IF$, 12 Mem für 24GB, 16 PCIe)
N42 2GCD + I/O (4 IF FO Links, 64MB IF$, 8 Mem für 16GB, 16 PCIe)
N42 1GCD + I/O (2 IF FO Links, 32MB IF$, 4 Mem für 8GB, 8 PCIe)

Aus Kostengründen wird man die GCDs aber nicht über dem MCD, wie bei MI300, verbauen sondern herkömmlich nebeneinander.

TheGood
2023-02-20, 16:49:09
Was wollt ihr immer mit der 4090? AMDs schnellste GPU (und damit AMDs größter Chip) bietet weniger RT-Performance als Nvidias drittschnellster/drittgrößter Chip in Form von AD104. Das ist nämlich das große Problem, alleine schon aus dem Grund, weil AD104 kleiner ist als AMDs N31 GCD. Man kann nur hoffen, dass der Abstand in Zukunft nicht größer wird und AMD sich nicht irgendwann nur noch mit einem xx106 rumprügelt.

Fakt ist doch, dass AMD mit der neuen Generation zu nvidia aufgeholt hat (Test von PCGH)

Für den Rest muss man sich nur die aktuelle 3DCenter Umfrage ansehen ;)

Nightspider
2023-02-20, 17:33:30
Man wird bei der 2024 Gen sicherlich auf GDDR7 gehen, um genug Bandbreite zu haben.

N31 schwimmt in Bandbreite. Die Bandbreite ist für N31 total überdimensioniert. AMD könnte locker bei GDDR6 bleiben.

Und ansonsten gibts noch immer die Optionen einfach 2 MCDs mehr anzubauen oder die MCDs zu stacken - angeblich sind die MCDs dazu ja in der Lage.

=Floi=
2023-02-20, 22:31:05
ist das SI getrennt wie bei NV oder hängt es an irgendwelchen einheiten?
Das könnte der grund sein, warum die NV so gut mit ihrer bandbreite auskommen.


Was wollt ihr immer mit der 4090? AMDs schnellste GPU (und damit AMDs größter Chip) bietet weniger RT-Performance als Nvidias drittschnellster/drittgrößter Chip in Form von AD104. Das ist nämlich das große Problem, alleine schon aus dem Grund, weil AD104 kleiner ist als AMDs N31 GCD. Man kann nur hoffen, dass der Abstand in Zukunft nicht größer wird und AMD sich nicht irgendwann nur noch mit einem xx106 rumprügelt.

bis dahin holt man sich die nächste karte!
das selbe bei NV. Höchstens die 4090 hat genug leistung und vram, der rest ist in 3 jahren eh outdated.
Aktuell habe ich null games wo ich RT nutze. Das feature braucht noch eine weile.

edit
mit 8gb low end nv karten wird sich RT einfach nicht schnell durchsetzen.

raffa
2023-02-23, 11:41:27
Wo bleiben denn jetzt eigentlich die kleinen Navi3x?

edit:
https://www.3dcenter.org/news/news-des-23-februar-2023

Wenn das stimmt, dann frag ich mich schon warum das so lang dauert und bedonders spannend wirkt das Lineup auch nicht.

Nightspider
2023-03-01, 08:23:52
Da es hier wohl noch nicht verlinkt wurde:

https://www.computerbase.de/2023-02/200-mhz-weniger-amds-schnellste-igpu-taktet-regional-doch-nicht-mit-3-ghz/

RDNA3 in der Phoenix APU taktet in den meisten Regionen der Welt nun doch noch 200 Mhz niedriger, als zur Präsentation angegeben.

Läuft.

Linmoum
2023-03-01, 08:35:14
Falsch.

https://www.computerbase.de/2023-01/amd-ryzen-7000-mobile-rdna-3-in-der-zen-4-apu-und-16-kerne-per-chiplet-ansatz/

AMD hat die iGPUs schon damals zur CES mit 2.6-2.8GHz angekündigt und vorgestellt. Die 3GHz standen unabhängig davon nur auf der Website. Hätte CB einfach mal den eigenen, alten Artikel nehmen sollen, bevor man Clickbait in die Tasten haut.

Mal unabhängig davon verlässt man sich nicht darauf, was AMD auf der eigenen Website schreibt. Das war vor allem in letzter Zeit so viel Quatsch.

robbitop
2023-03-01, 15:57:38
Das ist doch kompletter Käse wieder. Dieses Versteifen auf ein 1800+€ Produkt @4090 ist doch nur noch lächerlich. Weder die 7900XTX noch die 7900XT liegen weit hinter der 4080/4070TI in Games mit RT. Dass die schnellste AMD GPU weit hinter der schnellsten Nvidia GPU mit RT liegt juckt niemanden, außer paar Pimmelvergleicher in einem 3DC und Konsorten. Immer wieder geil wie man ein 1800+€ Produkt mit einem 1100+€ Produkt vergleicht. :facepalm: Noch geiler wirds dann wenn Nvidia bei der RTX5090 1799-1999$ UVP abruft. :ulol3:
Darum geht es nicht. Mit FF HW bekommt man für ein Bruchteil der Fläche in der jeweiligen Anwendung mehr Performance. AD103 kommt mit weniger Transistoren als N31 auf wesentlich mehr RT Leistung und in etwa gleiche Rasterizingleistung und das wird sicherlich immer wichtiger. Mit ein wenig Investition in FF Units kann man SKU bzw kostennormiert dann entweder mithalten oder nicht. RT wird immer wichtiger. Auch die kleinen N3x SKUs werden von den Ada Pendants in RT Spielen zerfleischt werden.
Es geht nicht um 1800 USD SKUs mit riesen dice sondern darum, dass man den Anschluss nicht verliert. Alles mit GP HW lösen zu wollen ist eben ab einem bestimmten Punkt nicht mehr sinnvoll.

Lehdro
2023-03-01, 16:18:46
Mal unabhängig davon verlässt man sich nicht darauf, was AMD auf der eigenen Website schreibt. Das war vor allem in letzter Zeit so viel Quatsch.
Tja, der Folienpraktikant ist nun auch für die Website zuständig.
Ich halte ja Daten von der AMD Website und deren Folien für ungefähr so zuverlässig wie Intels Roadmaps. Kann stimmen, muss aber nicht.

Gott1337
2023-03-02, 09:03:50
Tja, der Folienpraktikant ist nun auch für die Website zuständig.
Ich halte ja Daten von der AMD Website und deren Folien für ungefähr so zuverlässig wie Intels Roadmaps. Kann stimmen, muss aber nicht.
die Folien waren wirklich in den letzten 4 Jahren scAMeD

KarlKastor
2023-03-02, 13:52:02
Für Phoenix waren fast alle falsch. Zwei verschiedene Cache Angaben auf verschiedenen Folien, aber keine richtig.

Gott1337
2023-03-04, 23:25:39
Fakt ist doch, dass AMD mit der neuen Generation zu nvidia aufgeholt hat (Test von PCGH)

Für den Rest muss man sich nur die aktuelle 3DCenter Umfrage ansehen ;)
aufgeholt? nein. Top Dog Unterschied war noch nie so groß, DLSS wurde noch besser und DLSS 3 hat gar keine Konkurrenz. Software seitig siehts auch null besser aus leider.
Nvidia verbraucht jetzt weniger Strom, ist schneller und leiser.

robbitop
2023-03-05, 09:04:55
Naja die Frage ist was die Referenz ist. NV hat sich entschieden ein riesigen Chip auf bleeding edge für einen Markt zu bauen wo AMD keine sinnvollen Chancen für sich sieht. Entsprechend gibt es zu AD102 einfach keinen Gegenspieler sondern erst ab AD103.

Ein besserer Indikator wären normierte Kennzahlen. Perf/€ und Perf/W. Bei Letzterem liegt Ada auf jeden Fall vorn und leider muss man sagen, dass RDNA3 pro Transistor und pro Watt trotz einem full node shrink kaum besser geworden ist als RDNA2. Ada hingegen hat pro W einen klaren Sprung ggü Ampere gemacht.

IMO war RDNA2 deutlich näher dran als RDNA3. Für mich sieht RDNA3 bis dato nach einigen Fehlentscheidungen aus.

dildo4u
2023-03-05, 09:13:04
Kein Plan ob es wirklich ein Faktor ist aber Moores law meint NV kann die Die als RTX 6000 verkaufen AMD hat die Option nicht daher macht es kein Sinn eine 600mm² RDNA3 Gameing Die zu bauen.


https://youtu.be/H5lELVqb_J0

TheGood
2023-03-05, 09:32:00
aufgeholt? nein. Top Dog Unterschied war noch nie so groß, DLSS wurde noch besser und DLSS 3 hat gar keine Konkurrenz. Software seitig siehts auch null besser aus leider.
Nvidia verbraucht jetzt weniger Strom, ist schneller und leiser.
Genau, Da stinkt selbt die 4080 megamässig ab und nach unten wird es noch schlimmer werden ;)

Toller Vergleich der einfach sinnlos ist... clickbait würde man da bei den MEdien heute sagen. Oder Verdummung der Leute... Hoffentlich glaubst du selbst nicht dran ;)

MSABK
2023-03-05, 09:46:00
Naja die Frage ist was die Referenz ist. NV hat sich entschieden ein riesigen Chip auf bleeding edge für einen Markt zu bauen wo AMD keine sinnvollen Chancen für sich sieht. Entsprechend gibt es zu AD102 einfach keinen Gegenspieler sondern erst ab AD103.

Ein besserer Indikator wären normierte Kennzahlen. Perf/€ und Perf/W. Bei Letzterem liegt Ada auf jeden Fall vorn und leider muss man sagen, dass RDNA3 pro Transistor und pro Watt trotz einem full node shrink kaum besser geworden ist als RDNA2. Ada hingegen hat pro W einen klaren Sprung ggü Ampere gemacht.

IMO war RDNA2 deutlich näher dran als RDNA3. Für mich sieht RDNA3 bis dato nach einigen Fehlentscheidungen aus.

Ich gehe davon aus, bzw hoffe, dass RDNA4 da wieder ein Durchbruch in die richtige Richtung wird. RDNA1 war ja auch bissi gefesselt und im gleichen Node hat RDNA2 die Fessel gelöst.

Gott1337
2023-03-05, 10:37:34
Genau, Da stinkt selbt die 4080 megamässig ab und nach unten wird es noch schlimmer werden ;)

Toller Vergleich der einfach sinnlos ist... clickbait würde man da bei den MEdien heute sagen. Oder Verdummung der Leute... Hoffentlich glaubst du selbst nicht dran ;)
4080 bietet die gleiche Rasterleistung aber bei allem anderen Haushoch überlegen, ist deutlich kleiner und sparsamer... aber belüg dich mal selbst. Fakten interessieren dich wohl null

TheGood
2023-03-05, 10:58:14
4080 bietet die gleiche Rasterleistung aber bei allem anderen Haushoch überlegen, ist deutlich kleiner und sparsamer... aber belüg dich mal selbst. Fakten interessieren dich wohl null

Es ging logischerweise um den Vergleich 4080 zu 4090, weil das Thema Raytacing war. Aber das vergisst du bei solchen Diskussionen immer schnell und schweifst auf völlig anders zeugs ab um dich mit Fakten nicht beschäftigen zu müssen. Denn die 4080 stinkt dagegen auch nur ab.

Das ist die Realität und das wird nach unten gehend (4070, 4060) immer noch schlechter werden.


Das Thema 4080 vs 7900 kann man so oder so sehen, denn am Ende kostet die 7900 deutlich weniger. Damit kann jeder entscheiden was einem wichtiger ist.

Da komme ich nochmals auf die 3dcenter umfrage. DAs ergebnis ist leider krachend schlecht für Raytracing und das auf einer Enthusiastenhomepage.
Welcome in der Realität....


PS: Und ich sage es hier nochmals. Raytacing gehört die Zukunft (hauptsächlich bei der Beleuchtung, da es den Entwicklern viel Geld spart), vor allem wenn die Unreal Engine 5 flächendenkend genutzt wird. Also in 3-5 Jahren...

DrFreaK666
2023-03-05, 11:05:15
Eine 80er Karte ist langsamer als eine 90er Karte? Das ist ja was ganze Neues :rolleyes:

Complicated
2023-03-05, 11:30:22
Ändert sich die Sichtweise über die Performance im Vergleich AMD<->4090 oder 4080<->4090?
Alle negativen Attribute die man AMDs RDNA3 zuschreibt, sind zwangsläufig ebenfalls für alle RTX Karten ab 4080 abwärts ebenfalls gültig. Hier geht es um das Bewerten mit zweierlei Maß.

Lehdro
2023-03-05, 12:49:48
Ein besserer Indikator wären normierte Kennzahlen. Perf/€ und Perf/W. Bei Letzterem liegt Ada auf jeden Fall vorn und leider muss man sagen, dass RDNA3 pro Transistor und pro Watt trotz einem full node shrink kaum besser geworden ist als RDNA2. Ada hingegen hat pro W einen klaren Sprung ggü Ampere gemacht.

Bei der Diskussion damals (Ampere vs RDNA2) hat man gesehen das Teillasteffizienz und generelle Effizienz halt eigentlich egal ist - muss man nur mal in die Reviews von damals schauen, das wurde alles weggelächelt. Heute ist es plötzlich neben der absoluten Performance halt das Alleinstellungsmerkmal, als gäbe es die Kriterien erst seit RTX 4000 (besonders auf Teillast bezogen).

robbitop
2023-03-05, 14:51:26
RDNA2 war in Teilbereichen schon ziemlich gut. Aber zu NV fehlte es dann leider in Teildisiplinen. RT und DLSS primär. Hätte man bei beidem (zum Launch) adäquat mithalten können wäre RDNA2 sicherlich noch positiver wahrgenommen worden.

Schnitzl
2023-03-05, 20:51:00
RDNA2 war in Teilbereichen schon ziemlich gut. Aber zu NV fehlte es dann leider in Teildisiplinen. RT und DLSS primär. Hätte man bei beidem (zum Launch) adäquat mithalten können wäre RDNA2 sicherlich noch positiver wahrgenommen worden.
naja, bei RDNA2 war RT doch noch nicht so wichtig. DLSS hat mich jetzt auch nur teilweise überzeugt. Wenn ich mir die Anforderungen für Diablo4 anschaue, reicht da auch pre-Ampere/RDNA2 HW. Das mag subjektiv sein, aber ich persönlich werde sicher dieses Jahr KEIN RT/DLSS benötigen. Für andere kann das anders sein.

Lange Rede kurzer Sinn: Es wird alles nicht so heiss gegessen wies gekocht wird. Wer Cyberpunk ausgiebig spielt, kauf die ne 4090 - ich gratuliere zu dieser krassen Karte :up:
Andere haben andere Prioritäten so einfach ist das.

funfact am Rande: beide AMD 7900 Grafikkarten lassen in RT meine 3070 weit hinter sich.

Fazit: ich seh das gelassen. Denn wer spricht heute noch über 32Bit? T&L? Tesselation?
Sobald es alles Karten (oder Konkurrenten) haben wirds uninteressant und die nächste Wundertüte wird geöffnet... :tongue:

robbitop
2023-03-06, 06:40:10
Naja RT war wichtig genug dass es ein High End / Halo Feature war und es war absolut benutztbar auf Ampere. Spiele wie Control waren schon ein Hingucker. Selbst wenn der Nutzwert nur reduziert war kostet das halt Ruf beim 0815 Endkunden weil die reviews es entsprechend anmakern.
Und auch CP ist mit RT spielbar auf Ampere. Sicherlich kann man nicht alles max stellen und braucht auch DLSS aber es ist ja oft so dass high settings nicht so viel schlechter aussehen als Max Settings.

Und ja über 32 bit und TnL redet heute keiner mehr. Aber da hat NV angefangen ihre Marke aufzubauen. Und je konsistenter man vorn lag in Bezug auf Performance und Features um so mehr gibt es gute Berichterstattung und desto mehr schleift sich der Eindruck ein.

AMD muss wenn sie ein ordentliches Stück vom High Margin Kuchen abhaben wollen mehr liefern. Viel mehr Softwareinitiativem und konsistent vorn liegen. Knapper zweiter reicht nicht wenn man als gleichwertig bei der Masse der Konsumenten angesehen werden will. Das hat bei Epyc 5 Jahre konsistente Dominanz gekostet. Im Notebookbereich ist es immer noch nicht so weit trotz auch einer Jahre Dominanz.

HOT
2023-03-06, 08:50:59
Bei RDNA2 war anfangs die Fertigungsknappheit wesentlich hinderlicher als RT ;).
Heute ist das was anderes.

Savay
2023-03-06, 12:27:18
Naja RT war wichtig genug dass es ein High End / Halo Feature war und es war absolut benutztbar auf Ampere.

Guess What... es ist auch auf RDNA2 und damit erst Recht 3 absolut benutzbar.

robbitop
2023-03-06, 12:59:56
Guess What... es ist auch auf RDNA2 und damit erst Recht 3 absolut benutzbar.
Aber bei gleicher SKU Klasse deutlich weniger als beim NVidia Äquivalent. Es kostet deutlich mehr Leistung. Und das reflektieren auch so ziemlich alle Reviews und das ist genau das was der Endkäufer immer wieder liest / hört.

Wenn man von dem Billig Image weg will, muss man leider eine Weile dominieren damit das in die Köpfe der vielen vielen Millionen Enduser geht. RDNA2 war IMO näher an Ampere als RDNA3 and Ada. Klar ist RDNA3 etwas besser als RDNA2 aber nicht um das Maß die es an Innovation pro Generation braucht.

RDNA3 ist schon irgendwie interessant und seltsam zugleich. Bei N31 hat man irre viele Transistoren pro CU verbraten. Und man schafft kaum mehr Performance pro CU als N21 und kaum mehr Takt. Wenn wirklich was schief gelaufen ist und das Ding eigentlich mit >3 GHz bei der gleichen TDP laufen sollte es aber aus irgendeinem Grund nicht geklappt hat, sieht die Sache schon anders aus. Wenn man sich anschaut, wie N31 mit 3 GHz läuft wäre das ein ziemlich klarer Sieg gegen AD103 geworden.

N33 hingegen investiert hingegen gerade 18% mehr Transistoren als N23. Wie viel dabei herum kommt wissen wir noch nicht - aber anhand der ersten vorgestellen Benchmarks auch nicht wesentlich mehr als der Transistoreinsatz.

Interessant schon aber leider bis dato nicht überzeugend.

Sonyfreak
2023-03-06, 15:22:20
Und die goldene Mitte (N32 (https://www.3dcenter.org/news/geruechtekueche-die-spezifikationen-von-radeon-rx-7600-7600-xt-7700-xt-7800-xt)) kommt vielleicht erst im dritten Quartal 2023. :usad:

mfg.

Sonyfreak

amdfanuwe
2023-03-06, 15:55:11
oder gar nicht und AMD geht direkt auf N42

Complicated
2023-03-06, 17:13:32
Wenn man von dem Billig Image weg will, muss man leider eine Weile dominieren damit das in die Köpfe der vielen vielen Millionen Enduser geht.
Hier stellt sich doch die Frage ob das hier für den Thread ebenfalls gilt.
Das ständige argumentieren in Stellvertretung von fiktiven Käufern und deren Kaufentscheidung ist einfach nicht zielführend.

Wer hier im Thread die aktuelle Situation diskutieren will und die technischen Gegebenheiten, dem ist doch nicht geholfen mit Kritik an AMDs Marketing. Hier müßte doch nun jeder wissen, wann AMD N32 bringt und dass in den 2 Quartalen die darauf folgen immer noch Leute GPUs kaufen werden.

robbitop
2023-03-06, 17:29:24
Ich würde sagen: innerhalb der Grenzen des Themas darf unabhängig von den Kriterien oder Gusto des Einzelnen frei gepostet werden. Wer es nicht mag, muss ja nicht bleiben.

Ob deine Posts jetzt immer und vollständig zielführend" sind, sei mal dahingestellt. Ich glaube da hat jeder ein gewisses Spektrum zu bieten. Leben und leben lassen ;)

MSABK
2023-03-06, 17:30:10
N33 gibt es ja schon, aktuell im Notebook. Ein N32 wird da auch sicherlich schon irgendwo sein und kommen.

Complicated
2023-03-06, 18:34:26
Ich würde sagen: innerhalb der Grenzen des Themas darf unabhängig von den Kriterien oder Gusto des Einzelnen frei gepostet werden. Wer es nicht mag, muss ja nicht bleiben.
Sicher doch. Nur sollte man den Hinweis auf immer wieder kehrenden Strohmann-Argumente eben auch annehmen dann. Es taucht immer wieder in Rotation auf, wenn die sachlichen Argumente aus gehen - ich meine jetzt nicht bei dir persönlich, sondern so alle 3 Seiten in den Threads. Da sprechen Leute von Image und Marketing und meinen lediglich, dass sie es nicht abwarten können den neuesten Kram zu kaufen.

Linmoum
2023-03-06, 18:54:11
Marktanteile im einstelligen Prozentbereich liegen nun einmal schlicht (auch) an fehlendem Image und suboptimalem Marketing. Das gehört halt auch zu Produkten dazu. Denn wie viele Shader der Chip hat, wie groß das Speicherinterface ist oder ob der Chip monolithisch ist oder nicht, interessiert 95% der potentiellen Käufer gar nicht, wenn man mal ehrlich ist. Die gucken auf Balken oder irgendwelche Erfahrungswerte von anderen und kaufen danach.

Complicated
2023-03-06, 21:59:29
Schon wieder jemand der weiss was 95% der Käufer wollen - wieso schreibt hier nicht mal jeder das was er selber denkt und macht weniger falsche Annahmen darüber was 95% der anderen Käufer denken. Alleine die Aussage, dass man weiss was 95% der Käufer denken (das selbe!), zeigt dass man nicht qualifiziert ist darüber Aussagen zu machen.

Hier wird über solche Sachen diskutiert, anstatt mal darüber nachzudenken welche anderen realen unternehmerische Zwänge zu bestimmten Entscheidungen führen und zu welchem Zeitpunkt die getroffen werden mussten.

Nightspider
2023-03-06, 22:37:59
Und die goldene Mitte (N32 (https://www.3dcenter.org/news/geruechtekueche-die-spezifikationen-von-radeon-rx-7600-7600-xt-7700-xt-7800-xt)) kommt vielleicht erst im dritten Quartal 2023. :usad:

mfg.

Sonyfreak

Meine Theorie und Hoffnung:

Da N32 sowieso als letztes gekommen wäre, die Macken von N31 frühzeitig genug bekannt waren um an ein paar Schrauben für N32 drehen zu können hat sich AMD dazu entschieden N32 noch ein bisschen zu schieben und als vielleicht wichtigsten Vertreter (von der Chipgröße her) der Reihe fehlerfreier (hochtaktender) auf den Markt zu bringen.
Die ersten Gerüchte nach dem N31 Release sprachen ja auch von Fixes bei N32. Ob da was dran war, werden wir in spätestens 6-7 Monaten wissen, denke ich.

Falls N32 deutlich zulegt beim Takt, kann N31 fast EOL gehen oder spielt nur noch eine kleine Rolle, man kann deutlich besser bei den Reviews dastehen und dank gutem Preis/mm² Verhältnis die Gunst vieler Käufer für sich gewinnen.

Dafür bräuchte N32 einfach nur 500 Mhz mehr. :biggrin:

Dank 4 MCDs wird N32 sowieso preislich massiv attraktiver. 16GB sehen top aus im unteren Preissegment

Exxtreme
2023-03-06, 23:27:40
Meine Theorie und Hoffnung:

Da N32 sowieso als letztes gekommen wäre, die Macken von N31 frühzeitig genug bekannt waren um an ein paar Schrauben für N32 drehen zu können hat sich AMD dazu entschieden N32 noch ein bisschen zu schieben und als vielleicht wichtigsten Vertreter (von der Chipgröße her) der Reihe fehlerfreier (hochtaktender) auf den Markt zu bringen.


Ich glaube, die schieben das Ding eher deshalb um die Vorgängergeneration ordentlich abzuverkaufen. Jeder neue Chip ist immer eine Konkurrenz zu den alten Chips.

basix
2023-03-07, 01:18:15
Ein schneller N32 wäre für AMD viel wert. Falls das Ding in nur knapp unter einer 7900XT läge, kann man die eh ungünstig bepreiste Karte ausphasen (7900XTX bleibt als Top Dog bestehen) und die 7800XT zu einem 1. Besseren Preispunkt anbieten und 2. Günstigere Herstellungskosten / höhere Marge ausnutzen. 16GB sind zudem genug VRAM für die allermeisten Spieler und Use Cases.

Eine 7800XT mit N32 wird in der Herstellung ~60...70% wie eine 7900XTX kosten - ganze Karte. ~699$ bei nahe 7900XT Performance wäre ein einigermassen anständiges P/L und ggü. von AD104 (4070 Ti) als auch N21 (6800XT) relativ gut aufgestellt. Zumindest P/L technisch etwas attraktiver oder zumindest ähnlich wie die jetzigen Abverkaufspreise der 6800XT.

reaperrr
2023-03-07, 05:26:30
Ich glaube, die schieben das Ding eher deshalb um die Vorgängergeneration ordentlich abzuverkaufen. Jeder neue Chip ist immer eine Konkurrenz zu den alten Chips.
N21 verkauft sich aber gut, wenn sie den schon nicht mehr produzieren würden, wäre der schon längst abverkauft. Dass sie ihn weiter produzieren legt nahe, dass N32 einfach noch nicht so weit ist.

Ich denke eher, dass sich N32 tatsächlich verzögert hat, weil man anhand N31 erstmal rausfinden wollte, wo in Sachen Takt/Effizienz das Problem liegt und ob man es für N32 direkt fixen könnte.

Aber so oder so wird N32 der interessanteste RDNA3-Chip: Sicherlich für die Masse an Gamern preislich interessanter als die N31-Karten, gegenüber N31 mehr Spielraum wenn es darum geht, etwaige Taktprobleme mit der Brechstange über höhere TDP zu kompensieren, und gegenüber N22 und N33 massiv mehr Leistung.
Was auf AD104 evtl. fehlt, können sie über den Preis kompensieren.

basix
2023-03-07, 06:00:32
N32 wird ~200mm2 in N5 plus 140mm2 in N6 schwer sein. Sollte inkl. Packaging ähnlich teuer wie AD104 in der Herstellung sein. Normaler G6 könnte etwas günstiger als G6X sein, was das Mehr an Speicher kostenmässig etwas angleicht. 699$ wäre ausserdem nahe an den 679$ MSRP der 6800XT, wo AMD definitiv was dran verdient hat. Ich sehe da also noch Hoffnung für RDNA3, falls N32 die Handbremse von N31 lösen kann.

N33 sieht jetzt nicht sooo schlecht aus: 204mm2, N6, ~N22 Performance (welcher 1.6x so viel Chipfläche hat) bei vermutlich etwas besserem Stromverbrauch. 8GB sind natürlich etwas mager, das Problem hat N32 aber nicht.

horn 12
2023-03-07, 06:54:28
Nun lasst doch erst mal AMD den Treiber weiter optimieren
Sind ja nun etliche Games wo man knapp an der 4090 knabbert oder gar auf Augenhöhe ist.
Der Rest wird schon noch,- aber sicher auch nicht bei Allen nicht optimal laufenden Games!!

Nun, nach dem CPU X3D Release hat man das Jahr auf anderes fokusiert.
Dies wird schon, mal den März/ April Treiber abwarten!

Taigatrommel
2023-03-07, 14:42:24
Nun lasst doch erst mal AMD den Treiber weiter optimieren
Sind ja nun etliche Games wo man knapp an der 4090 knabbert oder gar auf Augenhöhe ist.
Der Rest wird schon noch,- aber sicher auch nicht bei Allen nicht optimal laufenden Games!!

Nun, nach dem CPU X3D Release hat man das Jahr auf anderes fokusiert.
Dies wird schon, mal den März/ April Treiber abwarten!
Was sind denn das für "etliche" Games wo die XTX auf Augenhöhe mit der 4090 liegt?

Ich denke zudem, dass für CPU und GPU komplett unterschiedliche Teams zuständig sind und das eine nichts mit dem anderen zu tun hat. Ich persönlich glaube hier an keine großen Treibersprünge mehr, selbst bei dem von dir oft angepriesenen FSR3 ist man effektiv komplett auf die Gnade der Entwickler angewiesen, ist ja nicht so, als könnte man das schlicht über den Treiber forcieren.

DrFreaK666
2023-03-07, 14:56:37
Was sind denn das für "etliche" Games wo die XTX auf Augenhöhe mit der 4090 liegt?...

Musst dir nur 1080p Benchmarks anschauen 😁
https://abload.de/img/screenshot_20230307_1zdep5.jpg (https://abload.de/image.php?img=screenshot_20230307_1zdep5.jpg)

Nakai
2023-03-07, 15:11:44
Was sind denn das für "etliche" Games wo die XTX auf Augenhöhe mit der 4090 liegt?

Ich denke zudem, dass für CPU und GPU komplett unterschiedliche Teams zuständig sind und das eine nichts mit dem anderen zu tun hat. Ich persönlich glaube hier an keine großen Treibersprünge mehr, selbst bei dem von dir oft angepriesenen FSR3 ist man effektiv komplett auf die Gnade der Entwickler angewiesen, ist ja nicht so, als könnte man das schlicht über den Treiber forcieren.

Ich hab zwar nicht breit geschaut, aber so mies, wie die 7900 xtx gegen die 4090 gesehen wird, ist sie einfach nicht.

https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi/34.html

Das ist jetzt nur eine Minfps-Metrik. Und beim normalen Average liegt man auch leicht über die 4080. Man ist nicht auf 4090 Niveau, klar, aber der Abstand ist nicht so groß, dass man AMD einen totalen Reinfall anrechnen könnte.

Exxtreme
2023-03-07, 15:30:09
Ich hab zwar nicht breit geschaut, aber so mies, wie die 7900 xtx gegen die 4090 gesehen wird, ist sie einfach nicht.

https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi/34.html

Das ist jetzt nur eine Minfps-Metrik. Und beim normalen Average liegt man auch leicht über die 4080. Man ist nicht auf 4090 Niveau, klar, aber der Abstand ist nicht so groß, dass man AMD einen totalen Reinfall anrechnen könnte.

Sehe ich absolut genauso. Auch im neuen PCGH-Test sieht man das. In Nicht-RT-Spielen sind die Min-FPS meistens über der RTX 4080, in RT-Spielen sind sie so auf RTX 3090/RTX 4070Ti-Niveau. Wobei Letzteres bissl ein Überraschungsei ist. Ist zwar nicht top aber trotzdem weit weg von mies zu sein.

Ich weiss ehrlich gesagt echt nicht, was die Leute erwartet hatten. Dass man sogar von einem Fehlschlag/einer Fehlkonstruktion spricht. Ich glaube, die Leute sind so richtig salty, dass das absolute Preisniveau der Grafikkarten so richtig hoch ist und AMD hier nicht wirklich was dagegen tut. Und dieses salty sein trübt die Objektivität. Das Problem ist halt, AMD kann nicht so viel gegen die hohen Preise tun. Wer das glaubt, der sollte sich lieber vorher informieren wie Marktwirtschaft funktioniert. Oder nach Nordkorea ziehen wo der Staat die Preise per Dekret festlegt.

Linmoum
2023-03-07, 15:42:50
"Salty" sind viele wahrscheinlich deswegen, weil AMD spätestens auf der Präsentation viel versprochen hat und dann doch deutlich weniger geliefert hat. Gerade die Dreistigkeit bei Perf/Watt-Versprechungen, wo die Realität deutlich hinter den beworbenen >50% zurückgeblieben ist.

Das andere war wahrscheinlich auch die Erwartung, dass der Abstand zwischen AMD und Nvidia nicht schon wieder größer wird, was aber leider sowohl bei Raster als auch RT der Fall ist. Konnte RDNA2 bei Raster noch mit GA102 mithalten, ist das bei RDNA3 nur noch bei AD103 der Fall. Der RT-Abstand hat sich ebenfalls vergrößert, statt dass AMD die Lücke hat kleiner werden lassen.

Was alles sehr schade ist, da gute Konkurrenz immer dem Markt und den Käufern zugute kommt.

Der_Korken
2023-03-07, 16:11:06
"Salty" sind viele wahrscheinlich deswegen, weil AMD spätestens auf der Präsentation viel versprochen hat und dann doch deutlich weniger geliefert hat. Gerade die Dreistigkeit bei Perf/Watt-Versprechungen, wo die Realität deutlich hinter den beworbenen >50% zurückgeblieben ist.

Das andere war wahrscheinlich auch die Erwartung, dass der Abstand zwischen AMD und Nvidia nicht schon wieder größer wird, was aber leider sowohl bei Raster als auch RT der Fall ist. Konnte RDNA2 bei Raster noch mit GA102 mithalten, ist das bei RDNA3 nur noch bei AD103 der Fall. Der RT-Abstand hat sich ebenfalls vergrößert, statt dass AMD die Lücke hat kleiner werden lassen.

Bei den nicht eingehaltenen Versprechungen bin ich bei dir. Nachdem man bei vorigen Präsentationen immer ziemlich on point war, hat man diesmal (zum ersten Mal seit Vega ...) geschönte Werte präsentiert.

Dass AMD nicht mit AD102 konkurriert, finde ich dagegen nicht schlimm. Man kann auch mit VW konkurrieren ohne einen direkten Gegner für den neuesten Lamborghini zu haben. Ein 600mm² 5nm-Die ist ein absurd teures Produkt, für das sich u.U. nichtmal die Entwicklungskosten lohnen. Die Radeon 4870 war zum Beispiel auch ne super Karte, selbst wenn sie "nur" mit der GTX260 konkurriert hat, weil sie dafür nur einen halb so großen Die hatte.

Ich stelle mir gerade vor wie AMD statt N31 einen gefixten N32 als erstes gelauncht hätte. Der hat quasi nur 2/3 der Produktionskosten, d.h. hätte für 649$ angeboten werden können und dabei 4070Ti-Performance bieten können, aber mit 16GB VRAM. In Zeiten teurer Wafer und schlechter Kaufkraft durch Rezession, wäre das ein Knaller gewesen. Ich denke, dass AMD so eine Art RV770-Revival auch im Sinn hatte mit RDNA3, nur dann haben sie ihr Design verkackt.

DrFreaK666
2023-03-07, 16:12:56
...Der RT-Abstand hat sich ebenfalls vergrößert, statt dass AMD die Lücke hat kleiner werden lassen...

Laut CB ist die 3080 11% schneller als die 6800 und die 4080 7% schneller als die 7900XTX (1440p mit RT).
Zumindest hier sehe ich keinen Zuwachs zugunsten von NV

HOT
2023-03-07, 16:28:41
Sehe ich absolut genauso. Auch im neuen PCGH-Test sieht man das. In Nicht-RT-Spielen sind die Min-FPS meistens über der RTX 4080, in RT-Spielen sind sie so auf RTX 3090/RTX 4070Ti-Niveau. Wobei Letzteres bissl ein Überraschungsei ist. Ist zwar nicht top aber trotzdem weit weg von mies zu sein.

Ich weiss ehrlich gesagt echt nicht, was die Leute erwartet hatten. Dass man sogar von einem Fehlschlag/einer Fehlkonstruktion spricht. Ich glaube, die Leute sind so richtig salty, dass das absolute Preisniveau der Grafikkarten so richtig hoch ist und AMD hier nicht wirklich was dagegen tut. Und dieses salty sein trübt die Objektivität. Das Problem ist halt, AMD kann nicht so viel gegen die hohen Preise tun. Wer das glaubt, der sollte sich lieber vorher informieren wie Marktwirtschaft funktioniert. Oder nach Nordkorea ziehen wo der Staat die Preise per Dekret festlegt.

Wobei mir das bei RT auch so vorkommt, als würde sie bei richtigen RTX-Titeln wie Cyberpunk dann extra schlecht laufen, bei anderen dann wieder überraschend gut. Ich glaub die Zukunft tendiert da eher in Richtung überraschend gut.
Das sind halt die RT-Dinosaurier, die für NVs RT gemacht wurden, die kacke laufen.

Exxtreme
2023-03-07, 16:45:36
"Salty" sind viele wahrscheinlich deswegen, weil AMD spätestens auf der Präsentation viel versprochen hat und dann doch deutlich weniger geliefert hat. Gerade die Dreistigkeit bei Perf/Watt-Versprechungen, wo die Realität deutlich hinter den beworbenen >50% zurückgeblieben ist.

Das andere war wahrscheinlich auch die Erwartung, dass der Abstand zwischen AMD und Nvidia nicht schon wieder größer wird, was aber leider sowohl bei Raster als auch RT der Fall ist. Konnte RDNA2 bei Raster noch mit GA102 mithalten, ist das bei RDNA3 nur noch bei AD103 der Fall. Der RT-Abstand hat sich ebenfalls vergrößert, statt dass AMD die Lücke hat kleiner werden lassen.

Was alles sehr schade ist, da gute Konkurrenz immer dem Markt und den Käufern zugute kommt.

Also "deutlich weniger" stimmt was die Energieeffizienz angeht. Das war echt dämlich mit diesen Zahlen hausieren zu gehen. Aber sonst sehe ich nichts was zuviel versprochen wurde. Für mich sieht es eher so aus als ob AMD von der RTX 4090 überrascht wurde. Andererseits fehlt bei der RTX 4090 der Zusatz "Titan". Ich wette, wäre der dabei gewesen dann würden die Leute bei weitem nicht so salty sein weil sie dann wüssten, dass das ein überzüchtetes Halo-Produkt ist.

Und der RT-Abstand hat sich nicht wirklich vergrössert bzw. nur vergrößert bei preislich komplett unterschiedlichen Produkten. Bei preislich vergleichbaren Produkten ist es im Schnitt nicht mehr geworden. Und ich kann auch verstehen warum sie da nicht viel machen. Denn RT ist halt imme noch eine totale Nische, vergleichbar mit VR.

Von daher verstehe ich die Kritik nicht so wirklich. Offenbar hat AMD einige Weltbilder zerbröselt weil sie nicht das abgeliefert haben was sich die Leute so herbei fantasiert hatten. Also der einzige wirkliche Kritikpunkt, den ich so sehe, ist der hohe Verbrauch im Multimonitorbetrieb. Wenn sie das fixen dann sollte das passen.

Complicated
2023-03-07, 17:32:56
Von daher verstehe ich die Kritik nicht so wirklich. Offenbar hat AMD einige Weltbilder zerbröselt weil sie nicht das abgeliefert haben was sich die Leute so herbei fantasiert hatten. Also der einzige wirkliche Kritikpunkt, den ich so sehe, ist der hohe Verbrauch im Multimonitorbetrieb. Wenn sie das fixen dann sollte das passen.
+1
Was mir vor allem dabei auffällt ist, dass dies noch nicht mal von den AMD-Fanboys erfolgt ist (bis auf 1-2 Ausnahmen), wie immer wieder behauptet wird. Es sind fast die selben die jetzt so darauf rum reiten.

DrFreaK666
2023-03-07, 17:56:15
Irgendwie haben eher NV-User Probleme mit AMD Hardware :ugly:

Taigatrommel
2023-03-07, 19:17:37
Irgendwie haben eher NV-User Probleme mit AMD Hardware :ugly:
Ich bin eher salty weil ich mit RDNA3 immer wieder Probleme habe, als jemand der seit der Radeon 7950 GHz Edition quasi nur AMD Grafikkarten im System hatte, kommt mir RDNA3 wie ein zweites Vega vor, vor allem wenn man zwei Jahre lang eine vollkommen unauffällige und unproblematische RDNA2 im Rechner hatte. Hinzu kommt der hohe Preis (wo man an der 7900 XT ja sehr gut sieht, dass es offenbar doch genügend Spielraum gibt, hier sind wir inzwischen 200€ unter UVP), last but not least natürlich die Erwartungen, welche durch die Vorstellung geschürt wurden.

Auch empfinde ich Aussagen wie "auf Augenhöhe mit 4090" halt irgendwo lachhaft, weil sie eine übermäßige Fantasie beflügeln. Kommt sicher drauf an, welche Reviews man sich anschaut und welche Titel getestet wurden - doch in 4k Raster sehe ich spontan bei PCGH immer wieder ein Plus von 20-30% der 4090. Bei der aktuellsten Grafikkarten Übersicht von CB liegt die XTX im Schnitt selbst in diesem Szenario nur gleichauf mit der 4080, die 4090 spielt mit 34% höherer Leistung in einer ganz anderen Liga.

DrFreaK666
2023-03-07, 19:54:58
Die 7900XT geht auch so günstig, weil sie viel zu teuer war. Der Preisabstand zur 7900XTX war viel zu gering

OgrEGT
2023-03-07, 20:51:42
Nun lasst doch erst mal AMD den Treiber weiter optimieren
Sind ja nun etliche Games wo man knapp an der 4090 knabbert oder gar auf Augenhöhe ist.
Der Rest wird schon noch,- aber sicher auch nicht bei Allen nicht optimal laufenden Games!!

Nun, nach dem CPU X3D Release hat man das Jahr auf anderes fokusiert.
Dies wird schon, mal den März/ April Treiber abwarten!

Da isser schon :)
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-3-1

Sieht aber eher nach Bugfixes aus...

Savay
2023-03-08, 23:53:21
kommt mir RDNA3 wie ein zweites Vega vor, vor allem wenn man zwei Jahre lang eine vollkommen unauffällige und unproblematische RDNA2

Was war an Vega10 denn aus Anwendersicht denn auffälliger als an Navi21?!
(biss auf den signifikant niedrigeren Multimonitor Verbrauch...bei der Vega10)

Also...so wirklich anders ist es IMHO nicht...nur hat die N21 halt nen brachialen Performance Sprung gemacht...

dildo4u
2023-03-09, 11:10:52
7600S sieht ok aus sollte keine Probleme gegen Mobile 4060 haben ich vermute aber das es wieder nur sehr wenige Geräte damit geben wird immerhin sollten die Preiswert sein.
Frage ist jetzt ob man das im Desktop sinnvoll auf 150 Watt steigern kann oder ob dann die Effizienz massiv abnimmt.

ah99ekbPMHQ


Das Notebook an sich hat Rekord Akkulaufzeit für diese Klasse.

https://youtu.be/vKxPoQR9tbQ?t=470

Taigatrommel
2023-03-09, 12:33:40
Was war an Vega10 denn aus Anwendersicht denn auffälliger als an Navi21?!
(biss auf den signifikant niedrigeren Multimonitor Verbrauch...bei der Vega10)

Also...so wirklich anders ist es IMHO nicht...nur hat die N21 halt nen brachialen Performance Sprung gemacht...
Vega hatte am Anfang, neben der Performance, mit Treiberproblemen zu kämpfen. Auch das UV hat die erste Zeit nicht wirklich funktioniert bzw. war sehr eigen. Dies meine ich mit auffällig.

HOT
2023-03-09, 12:58:12
7600S sieht ok aus sollte keine Probleme gegen Mobile 4060 haben ich vermute aber das es wieder nur sehr wenige Geräte damit geben wird immerhin sollten die Preiswert sein.
Frage ist jetzt ob man das im Desktop sinnvoll auf 150 Watt steigern kann oder ob dann die Effizienz massiv abnimmt.

https://youtu.be/ah99ekbPMHQ


Das Notebook an sich hat Rekord Akkulaufzeit für diese Klasse.

https://youtu.be/vKxPoQR9tbQ?t=470

Hart, wie gut dieser 6nm-Chip pro Watt performt :freak:. Und das bei 2,5GHz, was haben die bei N31 denn da verbrochen?
Das ganze CPU/GPU-Gespann ist bei 120W gecappt und das ist Rembrandt nicht Phoenix.

MSABK
2023-03-09, 13:36:38
N31 ist halt Chiplet. Nicht vergleichbar mit dem 7600S.

dildo4u
2023-03-09, 14:08:14
Laut dem läuft die 7600S nur bei 2.3Ghz real, die 7600XT muss AMD vermutlich deutlich weiter strecken.

https://abload.de/img/witchcwf2u.jpg

https://www.notebookcheck.com/Test-Asus-TUF-Gaming-A16-Advantage-Edition-AMD-Notebook-im-Zeichen-der-7.691571.0.html

Ist noch komplett offen was bei 2.5 bis 2.7 Ghz mit dem Verbrauch passiert.

robbitop
2023-03-09, 16:25:51
Ich finde Notebooktests immer schwierig. Da ist vieles so abhängig von der TDP und der Kühlung und sonstigen Mechanismen. Desktop wird spannend. Aber anscheinend schlägt sich N33 ganz gut (pro Transistor).

HOT
2023-03-09, 18:03:59
N31 ist halt Chiplet. Nicht vergleichbar mit dem 7600S.
Quatsch, das ist doch völlig egal. Die Chiplets sind nur Cache und mem, das wird annähernd 0 Auswirkungen haben.

vinacis_vivids
2023-03-09, 18:33:21
AMD Radeon RX 7600S ist ja gerade mal Salvage N33 1792SP mit nur 32MB IF$ und 128bit SI. Dafür performt das Silizium ja extrem gut mit nur 203mm^2 Fläche.
Bin echt gespannt wie N33 am Desktop performt und vor allem wie effizient N32 am Laptop ist.
Diese beiden Chips dürften für AMD die Tür im mobilen Segment weit weit öffnen können.

raffa
2023-03-09, 19:52:45
Notebooktests sind schwierig, aber nach einem großen Perf/Watt Steigerung sieht das nicht aus.
Allerdings ist der 28CU Navi 23 bei ~90Watt verdammt effizient.

Muss man mal abwarten, wie Navi 33 skaliert, könnte schon ne feine Einstiegskarte geben.

basix
2023-03-09, 21:05:55
Muss man mal abwarten, wie Navi 33 skaliert, könnte schon ne feine Einstiegskarte geben.

Laut dem Video:
- 2.32 GHz bei 70W
- 2.59 GHz bei 92W

raffa
2023-03-09, 21:42:53
Das schafft meine RX 6600 ziemlich genau auch

Heaven, Max Settings, 1440p

-0,50mV:
~ 2.3x Ghz bei 70W
~ 2.6x Ghz bei 92W

~ 2.7x GHz bei 105W
~ 2.8x GHz bei 120W

basix
2023-03-09, 21:45:43
Komplette Karte?

raffa
2023-03-09, 21:51:10
Ne, GPU Powerdraw nach Sensor/gesetzem Powerlimit
Das ist da auch so, oder nicht?

Ich seh bei meinem N32 durchaus auch mal 2,9Ghz (mehr gibt der Slider nicht her)
Wobei der Takt ja nicht alles ist, wenn Navi 32 bei gleichem Powerlimit ähnliche Taktraten schafft, vielleicht etwas mehr, dann läuft er ja trotzdem effizienter, hoffentlich ;)


Anbei noch ein Furmark Test von mir, normiert hab ich die Leistung auf Powertarget 100%/100W bei default Spannung. Der Sweetspot verschiebt sich je nach Workload (und Spannung) nach rechts oder nach links, ich hab leider mangels starker CPU nicht viel was ich im vollen GPU Limit testen kann. Die Taktraten in furmark sind freilich viel niedriger. Referenz: 100W: 2050Mhz

dildo4u
2023-03-10, 11:26:11
780m mit DDR5 6400.


https://videocardz.com/newz/amd-radeon-780m-integrated-rdna3-gpu-finally-breaks-3k-points-in-timespy

gbm31
2023-03-10, 11:57:50
Ich bin eher salty weil ich mit RDNA3 immer wieder Probleme habe, als jemand der seit der Radeon 7950 GHz Edition quasi nur AMD Grafikkarten im System hatte, kommt mir RDNA3 wie ein zweites Vega vor, vor allem wenn man zwei Jahre lang eine vollkommen unauffällige und unproblematische RDNA2 im Rechner hatte. Hinzu kommt der hohe Preis (wo man an der 7900 XT ja sehr gut sieht, dass es offenbar doch genügend Spielraum gibt, hier sind wir inzwischen 200€ unter UVP), last but not least natürlich die Erwartungen, welche durch die Vorstellung geschürt wurden.

Auch empfinde ich Aussagen wie "auf Augenhöhe mit 4090" halt irgendwo lachhaft, weil sie eine übermäßige Fantasie beflügeln. Kommt sicher drauf an, welche Reviews man sich anschaut und welche Titel getestet wurden - doch in 4k Raster sehe ich spontan bei PCGH immer wieder ein Plus von 20-30% der 4090. Bei der aktuellsten Grafikkarten Übersicht von CB liegt die XTX im Schnitt selbst in diesem Szenario nur gleichauf mit der 4080, die 4090 spielt mit 34% höherer Leistung in einer ganz anderen Liga.

+1

Bei aller Liebe, aber allein dass es schon wieder an allen Ecken ausser Mainstream hakt (bei mir halt Schwerpunkt VR, wo meine 7900XTX sogar schlechter performt hat als meine 6900XT) ist halt einfach zum davonrennen.

MSABK
2023-03-10, 12:18:39
780m mit DDR5 6400.


https://videocardz.com/newz/amd-radeon-780m-integrated-rdna3-gpu-finally-breaks-3k-points-in-timespy

Wie zu erwarten war, legt ein paar % drauf. Mehr geht auch nicht mit der Bandbreite.

aceCrasher
2023-03-10, 21:04:20
Wie zu erwarten war, legt ein paar % drauf. Mehr geht auch nicht mit der Bandbreite.
Mit Infinity Cache würde da deutlich mehr gehen. Das wäre mal ein Alleinstellungsmerkmal gegenüber den intel APUs, und wenns nur 16MB sind wie beim N24.

Pirx
2023-03-11, 08:46:37
dann müssten sie auch mehr CUs verbauen, ist bestimmt eine Frage der Wirtschaftlichkeit

rentex
2023-03-11, 12:03:30
aufgeholt? nein. Top Dog Unterschied war noch nie so groß, DLSS wurde noch besser und DLSS 3 hat gar keine Konkurrenz. Software seitig siehts auch null besser aus leider.
Nvidia verbraucht jetzt weniger Strom, ist schneller und leiser.

+1 Der hohe Verbrauch von RDNA3, fällt noch dazu in eine Zeit, wo Strompreise auf hohem Niveau bleiben werden (zumindest in Europa).

Exxtreme
2023-03-11, 15:38:39
Wobei die Wahrnehmung des hohen Stromverbrauchs schon arg selektiv ist. Dass die RTX 3090 Ti noch viel mehr säuft, das hat komischerweise niemanden gejuckt. :freak: Es gab hier und da mal Anmerkungen. Aber das war irgendwie kein K.O.-Kriterium. :freak:

Linmoum
2023-03-11, 15:46:36
Den Verbrauch der 3090Ti hat man eigentlich überall zurecht kritisiert, weil's halt in Relation zur 3090 völlig albern war für das geringe Leistungsplus.

Enthusiasten stören sich auch weniger am Verbrauch, wenn die Leistung stimmt. Die 370W+x, die eine 4090 im Schnitt so verbraucht, stört quasi niemanden. Da wird stattdessen überall die hohe Effizienz gelobt.

Wenn du dann aber auf der anderen Seite eine XTX hast, die für ihre erreichte Performance 355W säuft, dann ist das halt wenig erheiternd. Dasselbe Problem hat eine XT genauso.

Complicated
2023-03-11, 15:56:38
Also der hohe Verbauch stört mich sehr. Wenn Du niemanden meinst, sprichst du von Käufern der Karte. Welches Zirkelargument soll das denn bitte sein?
Preis und Verbrauch sind bei allen Nichtkäufern der Grund der höher wiegt als die beste Effizenz. Ich habe ein Limit wie viel ich ausgeben will und auch ein Limit was mein System verbrauchen darf. Das ist mein 550 W Netzteil. Was darauf nicht funktioniert, wird nicht gekauft. Und ich bin Enthusiast.

aufkrawall
2023-03-11, 16:33:34
Und ich bin Enthusiast.
Und ich Lisa Su.

Linmoum
2023-03-11, 17:10:42
Ich habe ein Limit wie viel ich ausgeben will
Und ich bin Enthusiast.
Also bist du genau kein Enthusiast, denn du beschreibst nämlich das genaue Gegenteil davon.

Enthusiasten interessiert es nicht, ob eine GPU jetzt $1500 oder $2000 kostet. Diese Leute sind eben gerade keine preisbewussten Käufer. Die interessiert es, das beste Produkt zu haben. Deswegen ist bei diesen Leuten der Verbrauch auch im Vergleich zur Leistung zweitrangig. Wenn die Leistung stimmt, dann spielt es für diese Leute auch keine Rolle, ob die Karte nun 350W oder 430W zieht.

Vega wäre damals auch ein Verkaufsschlager geworden, wenn man eine 1080Ti outperformed hätte trotz des höheren Verbrauchs. Dasselbe gilt auch für RDNA3. Da hätte sich keine Sau negativ über den Verbrauch geäußert, wenn die Performance anders ausgefallen wäre. Aber so ist man (deutlich) langsamer und säuft (deutlich) mehr als die Konkurrenz. Und das findet halt logischerweise kaum jemand gar keiner geil.

Savay
2023-03-11, 17:15:34
Also bist du genau kein Enthusiast, denn du beschreibst nämlich das genaue Gegenteil davon.

Und was passiert wenn die schnellste System plötzlich mittlere 6 stellige Beträge kostet und routinemäßig eine Leistungsaufnahme im mittleren 1 stelligen kW Bereich hat?! ;)

Lt. deiner Definition gibt es Weltweit wahrscheinlich eine mittlerweile sehr geringe und noch dazu stetig sinkende Anzahl von "echten" "Enthusiasten" bis irgendwann max. ein einziger übrig bleibt. :freak:

Dieses Labeln ist doch total albern, vor allem wenn man noch ein bewegliches und derart eng gestecktes Ziel daraus macht indem man sich immer nur an der jeweils verfügbaren absolut teuersten und Leistungshungrigsten HW orientiert.

Realistisch betrachtet ist wohl fast jeder hier im Forum wirklich Enthusiast verglichen mit den meisten anderen PC Besitzern und Gamern.
Man muss doch nur mal auf die Steam Survey schauen was im Durchschnitt normalerweise so verbaut ist.

aufkrawall
2023-03-11, 17:25:45
Defakto ist wohl jeder hier im Forum wirklich fast Enthusiast verglichen mit den meisten anderen PC Besitzern und Gamern.

Oder auch nicht, wenn man die Retailer-Verkaufszahlen sieht.
Enthusiast bezeichnet erstmal nur die Top-Tier von kaufbarer Consumer-Hardware. Wer das nicht hat, ist per enger Definition schon mal kein Enthusiast.
Wenn man nur komplett langweilige Durchschnitts-Hardware hat und aus der nicht mal noch alles rauskitzelt und auch sonst nur mit seiner 125Hz Polling-Rate-Maus höchstens Fenster in Zeitlupe verschiebt, auch nicht im weiteren Sinne.

Savay
2023-03-11, 17:28:34
Enthusiast bezeichnet erstmal nur die Top-Tier von kaufbarer Consumer-Hardware. Wer das nicht hat, ist per enger Definition schon mal kein
Enthusiast.

Enthusiast bezeichnet keine Hardware, sondern erstmal eine innere Einstellung bzw. ein zugrunde liegendes Interesse.
Keine Preislimits oder Wattlimits.

Davon abgesehen gibt es wohl niemanden, außer vlt. nem beliebigen Multimilliardär, der keine Budgetlimitierung hat oder sich anderweitige techn. Limits setzt... :freak:

Aber klar...aufgrund der HW die rauskommt definieren wir quasi wöchentlich den Kreis der Enthusiasten immer wieder um.

Letztes Jahr hattest du noch eine 3090Ti? -> Enthusiast
Mit dem Release der 4090 bist du nicht sofort gewechselt? -> keine Enthusiast mehr.
Es gibt aktuell keine Spiele die das Aufrüsten rechtfertigen? -> kein Enthusiast
Plötzlich kommt eines raus und du rüstest doch wieder auf? -> doch wieder Enthusiast...

Ganz im Ernst...das ist Albern.

Und was die Hersteller bzw. Tester als "Enthusiast" einsortieren, ist doch erstmal nur eine Zielgruppe auf die diese HW grundsätzlich abzielt...das ist aber nicht gleichbedeutend mit der Untermenge die das Angebot dann auch attraktiv findet und wirklich kauft.
Eure Definition stellt das ganze aber auf den Kopf, was es letztlich ad absurdum führt.

Langlay
2023-03-11, 18:25:13
Enthusiast bezeichnet erstmal nur die Top-Tier von kaufbarer Consumer-Hardware. Wer das nicht hat, ist per enger Definition schon mal kein Enthusiast.


Also bin ich Autoenthusiast wenn ich mir einen Rolls-Royce Phantom hole. Wenn ich mir aber einen Mazda MX-5 hole bin ich nur ein schnöder Fahrzeugführer.

kk ich hab verstanden.

Complicated
2023-03-11, 18:28:40
Also bist du genau kein Enthusiast, denn du beschreibst nämlich das genaue Gegenteil davon.
Ist das so - wo steht das denn bitte geschrieben?
Enthusiast bezeichnet keine Hardware, sondern erstmal eine innere Einstellung bzw. ein zugrunde liegendes Interesse.Das stimmt

Keine Preislimits oder Wattlimits.
Dem stimme ich nicht zu.
Was mich zum Enthusiasten macht ist maximale Leistung mit einem semipassiv gekühlten System. Für mich ist die technische Lösung innerhalb der Hardwarelimits eines Kühlsystems mit ausschließlich Gehäuselüfter, das was mich begeistrert. Ich zucke müde mit den Schultern, wenn ich etwas über 1000W Netzteile lese.

Savay
2023-03-11, 18:37:01
Dem stimme ich nicht zu.


*Der Begriff definiert ja eben keine solchen Grenzen/Werte/Limits whatever. :wink:

Also bin ich Autoenthusiast wenn ich mir einen Rolls-Royce Phantom hole.

Alles unter Centodieci zählt nicht...gibt also genau 10 Auto"enthusiasten". ;)

aufkrawall
2023-03-11, 18:41:22
Also bin ich Autoenthusiast wenn ich mir einen Rolls-Royce Phantom hole. Wenn ich mir aber einen Mazda MX-5 hole bin ich nur ein schnöder Fahrzeugführer.

Du findest, das ergibt keinen Sinn? Erklärung?
Enthusiast ist einfach nur die Fortsetzung von Highend nach oben hin. Das sollte einleuchten, wenn man nicht auf bockig macht, weil die eigene Mittelklasse-Hardware sonst als das bezeichnet werden würde, was sie tatsächlich ist.

Langlay
2023-03-11, 18:46:38
Du findest, das ergibt keinen Sinn? Erklärung?

Ja, ich finde das ergibt überhaupt keinen Sinn. Ein Phantom kaufe ich mich mir, damit ein Typ,mich so entkoppelt von der Aussenwelt wie möglich, von A nach B chaufiert.

Den Mazda MX-5 kaufe ich mir, weil der Weg das Ziel ist.

Savay
2023-03-11, 18:47:17
Enthusiast ist keine Fortsetzung von "High-End", das hat sich nur irgendein Marketing Futzie ausgedacht damit es besser klingt als "Super Duper High-End" oder "Higher-End"

Die Hardwareklasse heißt doch einfach nur so, weil aus Marketingsicht die einzigen die sich überhaupt dafür interessieren und begeistern könnten eben Enthusiasten sind.

Dazu gehören erstmal alle die auch nur relativ grob in Erwägung ziehen würden etwas in der Kategorie zu kaufen...ob es aus dem ein oder anderen Grund dazu nicht kommt oder doch ist doch vollkommen wurscht.
Du bist am Ende nicht weniger Enthusiast weil nicht immer alles was du an HW hast "Enthusiasten-HW" geschimpft wird durch Tester, Presse und den Marketingabteilungen.
Eine derartige Definition zäumt das Pferd von Hinten auf und ist am Ende total irreführend zumal schon die Einordnung recht willkürlich ist.

aufkrawall
2023-03-11, 18:49:18
Ja, ich finde das ergibt überhaupt keinen Sinn. Ein Phantom kaufe ich mich mir, damit mich ein Typ, mich so entkoppelt von der Welt wie möglich, von A nach B chaufiert.

Den Mazda MX-5 kaufe ich mir, weil der Weg das Ziel ist.
Ich hab gar kein Auto, sagt mir alles gar nichts.

BlacKi
2023-03-11, 18:49:36
ich denke, ein pc enthusiast zeichnet sich nicht zwingend durch enthusiast pc hardware aus.

enthusiast HW entstand ja nur, um überteuerte pc HW zu rechfertigen. um marketingtechnisch leute zu teurerer hardware zu bringen.

scheint geklappt zu haben...

ein pc enthusiast beigeistert sich in erster linie für pc hardware. welche das ist, ist eigentlich unrelevant. das kann auch eine vodoo 2 karte und ein alter celeron 300a sein.

Complicated
2023-03-11, 18:50:15
*Der Begriff definiert ja eben keine solchen Grenzen/Werte/Limits whatever. :wink:
Wo findest du diese Definition, ausser in den Namen für die Preissegmente der Hardwareverkäufer? Solche Definitionen kennen eigentlich nur Marketingopfer.
En·thu·si·ast, Enthusiastin/Enthusiást/

Substantiv, maskulin [der]

jemand, der sich leidenschaftlich für etwas begeistert

"No Limit" ist nirgendwo eine Bedingung für Enthusiasmus. Denn dann sind alle diejenigen, welche CPU-Leistung mit Hilfe von Spielen definieren keine Enthusiasten - da ist ständig das Limit der Grafikkarte (auch bei 720p) vorhanden und der API.
ich denke, ein pc enthusiast zeichnet sich nicht zwingend durch enthusiast pc hardware aus.

enthusiast HW entstand ja nur, um überteuerte pc HW zu rechfertigen. um marketingtechnisch leute zu teurerer hardware zu bringen.

scheint geklappt zu haben...Ganz meine Meinung :)

Savay
2023-03-11, 18:56:21
Wo findest du diese Definition, ausser in den Namen für die Preissegmente der Hardwareverkäufer?

Häh? Genau das sage ich doch... :freak:

Complicated
2023-03-11, 19:00:15
Dein Satz hat mich eben auch verwundert, da Du im folgenden Beitrag ja exakt das selbe gerschrieben hast.
*Der Begriff definiert ja eben keine solchen Grenzen/Werte/Limits whatever.
Ich verstand darunter, dass du meinst, dass es keine Limits geben darf für Enthusiasten.

Edit:
Für mich gehört z.B. die Rasperry Pi Community viel eher zu Enthusiasten, als es Gamer sind. Und wenn ich lese, jemand will Leistung out-of-the-box fällt er bei mir schon raus. Dann ist er vielleicht kompromißloser Gamer der im Enthusiast-Preissegment einkauft, aber ganz sicher ist er kein Hardware-Enthusiast. Der Werkstatt-Schrauber ist Enthusiast, nicht der Lamborghini-Fahrer ;)

Langlay
2023-03-11, 19:02:21
Ich hab gar kein Auto, sagt mir alles gar nichts.

Okay, jetzt in einfach.

Jemand der vernarrt in (s)ein Auto ist. Ist ein Autoenthusiast.

Und dabei spielt das imo keine Rolle ob das Auto nen 1973 Käfer, Porsche 911 GT3 oder ein silberner Golf TDI ist.

Da irgendwie noch so ne pseudoelitäre Segmentierung zu machen, du bist nur wirklich ein Enthusiast wenn du das beste vom Besten hast, geht da für mich einfach am Ziel vorbei.

aufkrawall
2023-03-11, 19:07:13
Da irgendwie noch so ne pseudoelitäre Segmentierung zu machen, du bist nur wirklich ein Enthusiast wenn du das beste vom Besten hast, geht da für mich einfach am Ziel vorbei.
Weshalb habe ich wohl explizit vom Enthusiast-Hardware im engeren Sinne und Hardware-Nutzung als Enthusiast im weiteren Sinne gesprochen?
Aber wer einfach nur stinklangweilige Mittelklasse-Hardware hat und damit nicht "tinkert", kann kein Enthuasiast sein. Das ist einfach nur öde (und imho bemitleidenswert, sich unbedingt zum Enthusiasten-Club dazuzählen zu wollen).

Savay
2023-03-11, 19:11:07
Schön das du anderen ihre Interessen und das Hobby absprichst...ganz schön Arrogant...

Davon abgesehen widersprichst Du Dir selbst.
Auf der letzten Seite hast es noch rein anhand des Preislabels und von irgendwelchen Wattgrenzen einfach mal pauschal eingeordnet...

Nur 550W?! ...kann ja kein Enthusiast sein.:popcorn:
"Langweilig" und "tinkern" stand als Kriterium erst gar nicht zur Verfügung.

Und in nem Jahr oder so sind dann 1000W und 3000€ die Untergrenze?!

Der Werkstatt-Schrauber ist Enthusiast, nicht der Lamborghini-Fahrer ;)

Also nen Jay Leno würde ich bspw. schon als Enthusiast bezeichnen...auch wenn der eher "nur" fährt und wohl mehr schrauben lässt... :wink:
Es kommt halt z.T auch darauf an ob du den Kram einfach nur wegen der Außenwirkung hast oder ob du dich für wirklich dafür begeisterst.

Tesseract
2023-03-11, 19:18:19
im hardwarebereich bedeutet enthusiast oberste preisklasse, das haben die hersteller so eingeführt um über früherem "high end" (was eigentlich ein widerspruch ist) eine neue klasse vermarkten zu können. mit dem eigentlichen begriff laut wörterbuch hat das nur peripher zu tun.

aufkrawall
2023-03-11, 19:21:12
Nur 550W?! ...kann ja kein Enthusiast sein.:popcorn:

Du verdrehst die getätigten Aussagen. Es steht dir natürlich frei, es nicht peinlich zu finden, wenn ein selbsternannter Enthusiast nicht mehr als ein 550W NT haben will. Geiz-Level auf Enthusiasten-Niveau, warum nicht. ;D

Savay
2023-03-11, 19:23:44
Also ist es jetzt doch der Geldbeutel und hat doch nichts mehr mit der Begeisterung oder dem "tinkern" zu tun?!

Sorry...aber entscheid dich mal.

aufkrawall
2023-03-11, 19:27:40
Also ist es jetzt doch der Geldbeutel und hat doch nichts mehr mit der Begeisterung oder dem "tinkern" zu tun?!

Gewisse Limits gibt es, ja. Wer etwa noch mit einem 2600K rumgurkt, ist wohl kaum Enthusiast, auch wenn OC, RAM etc. gemaxt sind.

Linmoum
2023-03-11, 19:40:12
im hardwarebereich bedeutet enthusiast oberste preisklasse, das haben die hersteller so eingeführt um über früherem "high end" (was eigentlich ein widerspruch ist) eine neue klasse vermarkten zu können. mit dem eigentlichen begriff laut wörterbuch hat das nur peripher zu tun.Danke. Mir ist in dem Fall auch noch nie eine andere Definition bzw. Einordnung dafür unterkommen. Ich bin davon ausgegangen, dass das speziell im Zusammenhang mit PC-Hardware jedem auch so klar ist. Vielleicht nicht dem MediaMarkt-Bernd, aber gerade doch nerdigen 3DCenter-Usern. Und jetzt diskutiert man ewig über sowas simples und landet irgendwie bei "Liebhaber". ;D

Aber gut, das sollte auch eigentlich gar nicht ein seitenlanges Thema im RDNA3-Thread sein. Diejenigen, für die das ein Problem ist, können sich ja anderweitig einfach ein neues Wort dafür ausdenken ("wollendiebesteoderschnellstehardwarekaufenhauptsachedieperformancestimmtundderre stistzweitrangig") und den Thread hier dann wieder in die eigentlich angedachte Richtung gleiten lassen.

Savay
2023-03-11, 20:10:26
Warum sollte man sich ein neues Wort für etwas ausdenken statt die bestehenden korrekt zu verwenden?

Eine Person kann schlicht keine "Enthusiast-HW" sein. (Was eine reine Marketingkategorie ist und nichts anderes)
Allenfalls ein "Enthusiast-HW" Käufer oder eben ein nicht-Käufer...

Aber weder das eine noch das andere macht ihn zu einem Enthusiasten oder umgekehrt.

OpenVMSwartoll
2023-03-11, 20:15:15
Was für eine nutzlose Diskussion über Seiten hinweg.

Ein Enthusiast ist jemand, der sich für etwas begeistert, der Geldbeutel setzt dem praktische Grenzen, muss aber die Freude nicht limitieren, die das Thema ihm generell bereitet. Vielleicht kann er jemanden beraten, der das Limit nicht so kennt. Und sich daran erfreuen.

Nen richtig flinken Rechner zu bauen, ist befriedigend.

Im HW-Bereich oder eher im Bereich des Marketing hingegen ist es der Versuch, finanziell nicht rationale Produkte schmackhaft zu machen. Ob man sich davon treiben lässt, ist dann eine andere Frage.

Langlay
2023-03-11, 20:18:11
Weshalb habe ich wohl explizit vom Enthusiast-Hardware im engeren Sinne und Hardware-Nutzung als Enthusiast im weiteren Sinne gesprochen?


Ich verstehe deine Definition. Meine Aussage ist zu fast das zu Eng. Natürlich sind die Leute die das beste vom Besten haben PC-Enthusiasten. Aber eben nicht nur die. Jeder der sich irgendwie dafür Begeistern kann ist das. Und da ist auch mehr oder weniger Egal wie die Hardware aussieht.


Aber wer einfach nur stinklangweilige Mittelklasse-Hardware hat und damit nicht "tinkert", kann kein Enthuasiast sein. Das ist einfach nur öde (und imho bemitleidenswert, sich unbedingt zum Enthusiasten-Club dazuzählen zu wollen).

Du checkst nicht worauf ich hinaus will, aber dann direkt persönlich werden. Sehr nette Diskussionskultur. Was du denkst ob ich in den "Enthusiasten-Club" gehöre oder nicht könnte mir nicht egaler sein. Ist ja auch gar nicht der Punkt.

Du kannste deine Definition ja so halten wie dir das lieb und da nach irgendwelchen Richtlinien Gatekeeping betreiben.

Gesteh dann aber bitte auch mir das ich meine Definition deutlich breiter ist als deine. Wenn du dich für PC Hardware und so Sachen begeistern kannst, biste für mich ein Enthusiast.

Lehdro
2023-03-13, 14:04:17
Wenn du dich für PC Hardware und so Sachen begeistern kannst, biste für mich ein Enthusiast.
Sehe ich auch so: Das wäre ein Hardware Enthusiast.

Enthusiast Hardware: Voodoo 6000 & Titans etc.

Complicated
2023-03-13, 16:23:22
Also nen Jay Leno würde ich bspw. schon als Enthusiast bezeichnen...auch wenn der eher "nur" fährt und wohl mehr schrauben lässt... :wink:
Es kommt halt z.T auch darauf an ob du den Kram einfach nur wegen der Außenwirkung hast oder ob du dich für wirklich dafür begeisterst.
Dem stimme ich zu :)
Jay Leno wurde sicherlich aber nicht durch den Kauf erst zum Enthusiast. Manche Enthusiasten geben dann auch Geld im Enthusiasten-Segement aus. Doch das ist nicht das Kriterium, das sie dann erst zum Enthusiast macht. Alleine der Kauf macht das allerdings auch nicht, ebenso wie bei Jay Leno nicht.
Zieh dir mal eine Kutte an und sag dann "Ich bin Hells Angel" ;D

vinacis_vivids
2023-03-13, 17:06:30
Bei mir ist AMD-Hardware tatsächlich "Liebhaberei". Kaufe auch gerne mal mehr als eine Grafikkarte (Stichwort Crossfire). Leider ist dieses Feature von beiden Herstellern abgeschaltet worden mangels Unterstützung.

Im Interview mit einem AMD-Ingineur gab's auch ne Aussage, dass AMD ein Chip bauen könne, der schneller als die 4090 ist, dann aber 1600$ kosten würde und 600W verbrauchen würde.
Die Faktoren 1600$ und 600W haben AMD dazu bewegt, es nicht zu tun.
Also werden wir nur einen leichten N31 refresh sehen, kein Monsterchip mit Monstercache.
Später vllt. einen N31 XTXH mit 3,0-3,3Ghz und etwas schnelleren 24Gbps VRAM analog zur 6950XT. Bei den Preisen versucht AMD moderat zu bleiben mit 799-999$ pro Grafikkarte.
Ist auch eine vernünftige Firmenstrategie für Gamer, damit AMD-Grafikkarten bezahlbar bleiben und sehr viel fürs Geld bieten.

Rick Bergmann im Gespräch:
https://wccftech.com/amd-says-it-is-possible-to-develop-an-nvidia-rtx-4090-competitor-with-rdna-3-gpus-but-they-decided-not-to-due-to-increased-cost-power/

rentex
2023-03-13, 19:46:22
Was für eine nutzlose Diskussion über Seiten hinweg.

Ein Enthusiast ist jemand, der sich für etwas begeistert, der Geldbeutel setzt dem praktische Grenzen, muss aber die Freude nicht limitieren, die das Thema ihm generell bereitet. Vielleicht kann er jemanden beraten, der das Limit nicht so kennt. Und sich daran erfreuen.

Nen richtig flinken Rechner zu bauen, ist befriedigend.

Im HW-Bereich oder eher im Bereich des Marketing hingegen ist es der Versuch, finanziell nicht rationale Produkte schmackhaft zu machen. Ob man sich davon treiben lässt, ist dann eine andere Frage.

+1

amdfanuwe
2023-03-17, 17:51:46
Demnächst ist doch GDC.
Ob AMD da vielleicht die 7600(XT) ankündigt?

Sieht mir danach aus, als ob sich die Lager bei 6600XT und 6650XT langsam leeren.
7700 gibt es auch kaum Angebote.

6750XT gibt es ab 468€
6700XT ab 399€
6650XT ab 319€
6600 ab 249€
Bei entsprechender Leistung würde ich
7600XT ab 349$ ~395€ und
7600 zwischen 279$ bis 299$ ~310€ bis 330€ erwarten.

Die 6700XT wäre dann attraktiv für den Preis und würde gut abverkauft,
die 6600 kann dann auch noch eine Weile gut gehandelt werden.

Wie seht ihr das?

DrFreaK666
2023-03-17, 18:33:06
Die 7600XT wird sicherlich schneller als die 6700XT und wahrscheinlich auch teurer als 400€ (behaupte ich mal)

VooDoo7mx
2023-03-17, 18:59:17
Die 7600XT wird sicherlich schneller als die 6700XT und wahrscheinlich auch teurer als 400€ (behaupte ich mal)

Da bei RDN3 ggü. RDNA2 die Leistung je CU nur eher bescheiden gestiegen ist und Navi 33 genau vie 23 weiter 32CU mit 128Bit Speicher haben wird, gehe ich davon aus, dass die Performance der 7600XT wohl nur etwas mehr als die 6650XT sein wird.
Bei Raytracing wird man wohl an eine 6700 rankommen.
Das war es dann aber auch schon.

Raff
2023-03-17, 22:28:40
Sofern die 7600 XT nicht mit 16 GiByte bestückt wird (was sehr unwahrscheinlich ist), spricht eigentlich alles für eine 6700 XT. Das ist derzeit einfach ein klasse Deal.

MfG
Raff

reaperrr
2023-03-17, 22:35:19
Da bei RDN3 ggü. RDNA2 die Leistung je CU nur eher bescheiden gestiegen ist und Navi 33 genau vie 23 weiter 32CU mit 128Bit Speicher haben wird, gehe ich davon aus, dass die Performance der 7600XT wohl nur etwas mehr als die 6650XT sein wird.
Bei Raytracing wird man wohl an eine 6700 rankommen.
Das war es dann aber auch schon.
An die 6700 (non-XT) wird man zumindest dort, wo 8GB reichen, auch in Raster rankommen, aber an die 6700XT eher nicht, das sehe ich auch so.

Ich sag mal, mit Ach und Krach die Rasterleistung der 3060Ti könnte es werden, zumindest in FullHD (also leicht über der 6700). Ist aber vmtl. der Best-Case.

gedi
2023-03-17, 22:44:26
Sofern die 7600 XT nicht mit 16 GiByte bestückt wird (was sehr unwahrscheinlich ist), spricht eigentlich alles für eine 6700 XT. Das ist derzeit einfach ein klasse Deal.

MfG
Raff

Sehe ich eben so. Für den Moment die beste P/L-Karte.

TheGood
2023-03-17, 22:59:50
Sofern die 7600 XT nicht mit 16 GiByte bestückt wird (was sehr unwahrscheinlich ist), spricht eigentlich alles für eine 6700 XT. Das ist derzeit einfach ein klasse Deal.

MfG
Raff
Dum hab ich die geholt und deine vermittelte Phantom gtx 980 in den Ruhestand entlassen :)

gedi
2023-03-17, 23:03:48
Dum hab ich die geholt und deine vermittelte Phantom gtx 980 in den Ruhestand entlassen :)

Guter Deal!

TheGood
2023-03-20, 21:11:58
Guter Deal!
Ja aber der Schub in VR war gefühlt sehr gering. liegt wohl am veralteten i7-4990.
Bin trotzdem zufrieden.

mboeller
2023-03-25, 21:01:31
Raytracing on AMD’s RDNA 2/3, and Nvidia’s Turing and Pascal:

https://chipsandcheese.com/2023/03/22/raytracing-on-amds-rdna-2-3-and-nvidias-turing-and-pascal/

DrFreaK666
2023-03-31, 17:39:39
Wieso gibt es keine Gerüchte zu den kleineren Karten?

dildo4u
2023-03-31, 17:43:14
Die 7600 gibt es schon in Laptops, die 7700/7800 fehlt aber noch aber wie Nvidia scheint es noch massig alte Karten zu geben daher kommen die neuen Karten vermutlich recht spät.


https://www.notebookcheck.net/Asus-TUF-Gaming-A16-Advantage-Edition-in-review-AMD-notebook-under-the-auspices-of-the-7.694033.0.html

amdfanuwe
2023-03-31, 18:18:07
scheint es noch massig alte Karten zu geben daher kommen die neuen Karten vermutlich recht spät.


Ist bei MF nur so eine Inventursache am laufen oder warum haben die kaum noch etwas lagernd?

dildo4u
2023-04-01, 20:26:33
7600M XT 3D Mark Werte.


https://videocardz.com/newz/amd-radeon-rx-7600m-xt-gpu-matches-geforce-rtx-4060-in-3dmark-timespy

HOT
2023-04-04, 19:13:45
Hm ich glaub AMD bringt die Karten vor allem deshalb so spät, wegen der VRAM-Unsicherheit. Ich würde mich nicht wundern, wenn die Karten erst im Juli oder später kommen und dann so aussehen werden:

- 7800(XT) 16GB
- 7700XT 16GB
- 7600(XT) 16GB
- 7400/500 8GB (N24 Refresh)

RAM ist billig im Moment und wird dann noch mal 20-40% billiger sein lt. Analysten

amdfanuwe
2023-04-04, 19:53:57
Hm ich glaub AMD bringt die Karten vor allem deshalb so spät,
Die kommen so spät, weil noch genügend 6000er im Lager sind.

HOT
2023-04-04, 20:08:35
Glaub ich nicht. Ich denke, dass die mit Vorsatz 7nm weiterproduziert haben.

iamthebear
2023-04-05, 01:08:45
RAM ist billig im Moment und wird dann noch mal 20-40% billiger sein lt. Analysten

Also ich bezweifle, dass AMD seinen RAM am Spotmarkt besorgt. Das sind alles schon viel früher abgeschlossene Rahmenverträge.

basix
2023-04-05, 02:07:22
Also ich bezweifle, dass AMD seinen RAM am Spotmarkt besorgt. Das sind alles schon viel früher abgeschlossene Rahmenverträge.

Auch Rahmenverträge werden laufend neu verhandelt. Insbesondere auch aufgrund Covid sind oftmals Elastizitätsklauseln in den Verträgen drin. Anbieter: Rohstoffe werden teurer? Sorry, du musst mehr bezahlen. Käufer: Rohstoffe werden billiger? Ich will geringere Preise.

Wie stark man darauf eingeht ist dann eine Frage des Potentials in [%] und wie man das Verhältnis kulturell handhabt (Partner oder austauschbarer Lieferant)

BavarianRealist
2023-04-05, 11:49:51
Also ich bezweifle, dass AMD seinen RAM am Spotmarkt besorgt. Das sind alles schon viel früher abgeschlossene Rahmenverträge.

Über eine bestimmte Basis-Grundmenge dürften solche Rahmenverträge im Vorfeld abgeschlossen worden sein.

Plant man aber nun nachträglich mehr zu produzieren, müsste man sich über den Markt bedienen. Und da erwarte ich, dass die niedrigeren Ram-Preise womöglich für zusätzlichen Output dienen könnten. Hier erwarte ich, dass AMD vor allem Navi33-Varianten in großen Stückzahlen in den Markt geben könnte, da hier auch die GPU günstig ist. Mal sehen, ob diesmal wirklich viele Notebooks mit AMD-GPU auf den Markt kommen.

HOT
2023-04-05, 13:29:28
Also ich bezweifle, dass AMD seinen RAM am Spotmarkt besorgt. Das sind alles schon viel früher abgeschlossene Rahmenverträge.
Blöde Frage: Wer soll die denn sonst am Spotmarkt kaufen :freak:.
Och ich brauch mal 3 Module GDDR6, bestell ich mal ;D

Mal im ernst: Wenn die Mengen, die man eingekauft hat nicht ausreichen, muss man natürlich am Spotmarkt nachlegen und die bisherigen Verträge nachverhandeln ;).

Lehdro
2023-04-05, 14:32:20
Auch Rahmenverträge werden laufend neu verhandelt. Insbesondere auch aufgrund Covid sind oftmals Elastizitätsklauseln in den Verträgen drin.
Es gibt auch Rahmenverträge mit "gleitenden" Preisen (Zeitversatz der automatischen Preisanpassung nach oben/unten ist dann Verhandlungssache), ist nicht wirklich unüblich. Der Rahmen des Vertrages bezieht sich meist sowieso nur auf allgemeine Konditionen und grundsätzliche Abnahmemengen.

dildo4u
2023-04-13, 11:12:11
W7900 48GB und W7800 mit 32 GB VRAM angekündigt


https://videocardz.com/newz/amd-unveils-radeon-pro-w7900-48gb-and-pro-w7800-32gb-rdna3-workstation-gpus

amdfanuwe
2023-04-13, 12:13:03
W7900 48GB und W7800 mit 32 GB VRAM angekündigt


https://videocardz.com/newz/amd-unveils-radeon-pro-w7900-48gb-and-pro-w7800-32gb-rdna3-workstation-gpus
W7800 dürfte N31 Resteverwertung sein, also kein N32.
Zum Vergleich:
N31 Vollausbau, 7900XTX 24GB, W7900 48GB
6 SE * 8 WGP = 48WGP = 96 CU = 6144 SP
7900XT 20GB
6 SE * 7 WGP = 42WGP = 84 CU = 5376 SP
W7800 32GB
5 SE * 7 WGP = 35WGP = 70 CU = 4480 SP

Leonidas
2023-04-13, 12:21:29
RedGamingTech: NAVI 32 & 33 - WHAT IS HAPPENING? Specs, Perf & Release Date
https://www.youtube.com/watch?v=vpQaJuqPd9o

https://pbs.twimg.com/media/FtlkxcbacAASgGO.jpg

https://pbs.twimg.com/media/FtlkymUaIAApVBi.jpg

BlacKi
2023-04-13, 12:33:15
welp, n32 an der kotzgrenze? bei derselben watt per CU sollte der chip bei 225w liegen nicht bei 285. 3ghz+ incoming und effizienz am arsch.

wenns stimmt.

und das von einem mit amd bias.

amdfanuwe
2023-04-13, 12:40:07
Welches Problem hat er da mit 27 WGP für 7700XT?
Vollausbau 7800XT:
3 SE * 10 WGP = 30 WGP = 60 CU
7700XT:
3 SE * 9 WGP = 27 WGP = 54 CU

Weitere Kombinationen wären noch:
3 SE * 8 WGP = 24 WGP = 48 CU -> 7700??
2 SE * 10 WGP = 20 WGP = 40 CU
2 SE * 9 WGP = 18 WGP = 36 CU -> Resteverwertung in Instinct Serie??

26 WGP für 7700XT stammen wohl noch aus einer Zeit als man 4 SE * 8 WGP für N32 annahm.
N32 mit 3 SE * 10 WGP scheinen sich aber zu bestätigen.

PS: Für eine 7800 gibt es keinen Platz mehr.

MSABK
2023-04-13, 12:48:16
Sind mir zu viele Watt. Erhoffe mir erst mit RDNA4 eine Besserung.

amdfanuwe
2023-04-13, 12:48:47
welp, n32 an der kotzgrenze? bei derselben watt per CU sollte der chip bei 225w liegen nicht bei 285. 3ghz+ incoming und effizienz am arsch.

wenns stimmt.

und das von einem mit amd bias.
Seh es mal anders herum: N31 wurde im Verbrauch beschränkt weil sie die nicht mit 285W/30*48=456W raushauen wollten.

Leonidas
2023-04-13, 12:49:46
Sehr gut denkbar (bzw. zu befürchten).

DrFreaK666
2023-04-13, 12:53:31
UV wirds mal wieder richten müssen

Der_Korken
2023-04-13, 12:55:41
Aus 285W soll die 7800XT also etwa die Leistung einer 6900XT rausholen, die 300W verbraucht. Damit wäre N32 für mich auch gestorben. Da kann ich mir auch einen N21 aus dem Abverkauf holen.

reaperrr
2023-04-13, 13:00:09
welp, n32 an der kotzgrenze? bei derselben watt per CU sollte der chip bei 225w liegen nicht bei 285. 3ghz+ incoming und effizienz am arsch.

wenns stimmt.

und das von einem mit amd bias.
Jep, ist aber jetzt auch nicht soooo überraschend. N32 ist halt anders als N31 nicht an der Kotzgrenze bzgl. 2x8pin+PCIe sowie Luftkühlung, und welchen Preis man nehmen kann hängt letzten Endes halt doch wieder primär von der Balkenlänge ab, ist nun mal leider so.

Außerdem ist das auf dem Papier nicht mehr TBP als die 4070 Ti, auch wenn der reale Stromverbrauch bei AMD natürlich wieder höher ausfallen wird, da die 4070 Ti ja im Normalfall nicht wirklich 285W verbraucht.

Sieht für mich danach aus, dass AMD die 7800 XT preislich mittig zwischen 4070 und 4070 Ti platzieren und über größeren Speicher und besseres P/L-Verhältnis punkten will, und mit der 7700 XT das gleiche mit Platzierung zwischen 4070 und 4060 Ti (Leistung und Speicher näher an 4070, Preis mittig dazwischen oder näher an 4060 Ti).

DrFreaK666
2023-04-13, 13:00:34
Für den gleichen Preis würde ich schon zur 7800XT greifen

robbitop
2023-04-13, 13:20:01
Was ich interessant finde: N32 soll knappe 6950XT Leistung haben. Und zwar mit 60 CUs. Die RX6800 hat auch 60 CUs. Die 6950XT ist laut Performanceindex von CB (aus dem 4070 review) 37% schneller als die 6800.
Das wäre pro CU ein ordentlicher Speedup. (Mischung aus Takt und IPC)

Laut CB taktet die RX6800 mit max 2,2 GHz: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_taktraten_in_spielen_unter_dauerlast

Sollte es bei "nur" 10% mehr "IPC" gehen (siehe CB Test der 7900XTX) mit RDNA3 vs RDNA2 wären bei einer Performancesteigerung von 35% noch 22,7% für den Takt übrig. Passt mit 2,7 GHz eigentlich ganz gut.
Also sieht es nicht nach einer großen Überraschung aus (gemessen an den Taktraten und IPC Steigerung die wir von N31 vs N21 kennen). Also wahrscheinlich weder Taktraten deutlich über 3 GHz oder noch eine deutlich gesteigerte "IPC". Das lässt den Schluss zu, dass das woran N31 betroffen ist auch auf N32 zutrifft - oder aber dass es nie einen ominösen Bug gab und das was N31 liefert repräsentativ für das ist, was mit RDNA3 im Allgemeinen zu erwarten ist.

*mit IPC meine ich salopp rohleistungsnormierte Performance oder aber taktnormierte Performance pro CU

N33 könnte fast interessanter werden, da dort die CUs offenbar aus der Sicht des Transistorbudgets viel weniger aufgebläht wurden. Man also pro Transistor an bessere Ergebnisse gekommen zu sein schien.

vinacis_vivids
2023-04-13, 13:26:24
W7800 dürfte N31 Resteverwertung sein, also kein N32.
Zum Vergleich:
N31 Vollausbau, 7900XTX 24GB, W7900 48GB
6 SE * 8 WG = 48WG = 96 CU = 6144 SP
7900XT 20GB
6 SE * 7 WG = 42WG = 84 CU = 5376 SP
W7800 32GB
5 SE * 7 WG = 35WG = 70 CU = 4480 SP

Womöglich könnte eine Desktop N31XL als 7900er erscheinen mit 70CU, 256bit SI und 16GB VRAM, der IF$ schrumpft dann auf 64MB.

Die 6800er, also N31XL kamen auch später.

Sie wäre knapp schneller als N32XT, die ebenfalls 256bit SI, 16GB VRAM und 64MB IF$ hat, aber mit 60CU etwas weniger Rechenleistung (und kleineren GCD)

Langlay
2023-04-13, 14:00:50
Die 6800er, also N31XL kamen auch später.


Nein. Die RX6800 kam zusammen mit der 6800XT als erstes Navi2X Produkt am 18.11.20 gefolgt von der 6900XT am 08.12.20.

Tarkin
2023-04-13, 14:07:44
RedGamingTech: NAVI 32 & 33 - WHAT IS HAPPENING? Specs, Perf & Release Date
https://www.youtube.com/watch?v=vpQaJuqPd9o

https://pbs.twimg.com/media/FtlkxcbacAASgGO.jpg

https://pbs.twimg.com/media/FtlkymUaIAApVBi.jpg

da hat sich mal wieder jemand irgendwelche Phantasie Specs aus dem A... gezogen :rolleyes:

reaperrr
2023-04-13, 14:26:30
Was ich interessant finde: N32 soll knappe 6950XT Leistung haben. Und zwar mit 60 CUs. Die RX6800 hat auch 60 CUs. Die 6950XT ist laut Performanceindex von CB (aus dem 4070 review) 37% schneller als die 6800.
Das wäre pro CU ein ordentlicher Speedup. (Mischung aus Takt und IPC)

Laut CB taktet die RX6800 mit max 2,2 GHz: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_taktraten_in_spielen_unter_dauerlast

Sollte es bei "nur" 10% mehr "IPC" gehen (siehe CB Test der 7900XTX) mit RDNA3 vs RDNA2 wären bei einer Performancesteigerung von 35% noch 22,7% für den Takt übrig. Passt mit 2,7 GHz eigentlich ganz gut.

Die Skalierung mit dem Takt ist aber selten linear (besser als mit mehr CUs, aber halt auch nicht 1:1).

Bei N31 sind die offiziellen Taktraten nur 2.1-2.3 für die XT und 2.3-2.5 für die XTX, trotzdem takten beide in der Praxis im Durchschnitt eher ca. 2,55 GHz unter Spielelast.
Für die 7800 XT spricht die Gerüchteküche von offiziellen Taktangaben von 2.6-2.8 GHz, was dann wahrscheinlich eher auf ~2,9 GHz Realtakt hinauslaufen würde, und ich tippe, dass N32 den auch braucht, um in die Nähe der 6950XT zu kommen.

Nicht vergessen: N31 hat ein 50% breiteres Frontend als N21 und ist auch von der IF$-Größe dichter an N21.
N32 könnte in Sachen IPC je CU ggü. N21 also evtl. noch etwas weniger Vorteil haben als N31.

Das lässt den Schluss zu, dass das woran N31 betroffen ist auch auf N32 zutrifft - oder aber dass es nie einen ominösen Bug gab und das was N31 liefert repräsentativ für das ist, was mit RDNA3 im Allgemeinen zu erwarten ist.
Laut MLID (https://www.youtube.com/watch?v=l44xorRKHfk) (ab Minute 8:30) gibt es bei RDNA3 wohl einen Architektur-Bug in der Kommunikation zwischen GCD und MCDs, der nach einigen Stunden zu Artefakten führt und für die AMD scheinbar keine Hardware-seitige Lösung finden konnte.
Um das Problem treiberseitig zu umgehen, mussten sie einen Stall einbauen, und der hat wohl mehr Leistung gekostet als sie erwartet haben bzw. haben sie mehr Schwierigkeiten als gedacht, sich die Performance anderweitig zurückzuholen.

Komplett behoben wird das Problem wohl auch erst bei RDNA4, N32 hat wohl maximal Workarounds und kleinere Bugfixes, durch die evtl. weniger Leistung verlorengeht.

Die relativ schlechte Takt/V-Kurve scheint eher noch ein zweites, separates Problem zu sein (kann aber natürlich an N6 und damit ebenfalls an den MCDs liegen).

robbitop
2023-04-13, 14:36:23
Ich hab das Video natürlich gesehen - aber bringe eine gewisse Skepsis mit. N32 wird wohl ~6 Monate nach N31 releast was zumindest die "Hoffnung" geben könnte, das entsprechende Bugs gefixt worden sind. Aber ja ggf. war der "Bug" zu invasiv oder betraf auch die MCDs.
Entsprechend interessant könnte N33 sein, da ganz andere Implementierung, anderer Prozess und keine MCDs.

Bis dato sieht es leider noch nicht danach aus, dass in RDNA3 wesentlich mehr steckt als wir kennen. Aber ggf. verändert N33 oder Phoenix diesen Eindruck. Bis dato sieht es leider nach einem Fehlgriff aus, wenn man bedenkt, dass man (für N31/32 und Phoenix) einen Fullnodeshrink hatte.

Exxtreme
2023-04-13, 14:44:00
Ich halte das nicht für einen Bug sondern IMHO liegt das eher am "general purpose"-Ansatz, den AMD verfolgt. AMD macht halt viel mehr über die Shader-ALUs. Und das ist immer ineffizienter als spezialisierte Schaltkreise. Hat aber den Vorteil, dass man sehr flexibel ist.

Eventuell holen sie mit besseren Treibern noch einiges raus. Aber grundsätzlich würde ich bei Navi 21/32 jetzt nicht so die Wunder erwarten.

robbitop
2023-04-13, 14:48:01
MLID bezieht sich auf die Benchmarks die von AMD im November (relativ zur 6950XT) veröffentlich worden sind und die Differenz zu den reviews im Dezember. Laut ihm rannte N31 intern mit der Geschwindigkeit, zeigte aber diese Artefakte. Man ging davon aus, dass der Treiber"fix" (dieser eingefügte Stall) nicht signifikant Leistung kosten würde, was dann aber nicht stimmte.
Die Differenz führte zu einem ordentlichen Shitstorm. AMD hatte 1,7x 6950xt Performance vorgestellt und heraus kamen eher 1,4-1,5x.

Wenn die von AMD gezeigten Benchmarks auch so in der Realität angekommen wären, stünde RDNA3 deutlich besser da. Und natürlich erweckt dieses eventuell "versteckte Potenzial" auch Neugier.

dargo
2023-04-13, 15:06:00
Außerdem ist das auf dem Papier nicht mehr TBP als die 4070 Ti, auch wenn der reale Stromverbrauch bei AMD natürlich wieder höher ausfallen wird, da die 4070 Ti ja im Normalfall nicht wirklich 285W verbraucht.

CB hat das mit Doom geschafft.
https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

Andere Games laufen womöglich ins Taktlimit, dann wird natürlich das großzügig gewählte PT-Limit nicht erreicht.

Aus 285W soll die 7800XT also etwa die Leistung einer 6900XT rausholen, die 300W verbraucht. Damit wäre N32 für mich auch gestorben. Da kann ich mir auch einen N21 aus dem Abverkauf holen.
Wenn das wirklich zutrifft dann ist die ganze RDNA3 Architektur für den Arsch... absoluter Reinfall. Da kann man wirklich nur hoffen, dass die 285W TBP nicht korrekt sind oder, dass AMD hier wieder mal einen völlig bescheuerten Betriebspunkt mit weit über 3Ghz gewählt hat. Lässt du bsw. die letzten 200-300Mhz fallen sind es plötzlich <250W. Aber selbst das fände ich noch ziemlich enttäuschend vs. RDNA2 beim Speed RX 7800XT = RX 6900XT.

Dino-Fossil
2023-04-13, 15:10:08
Ich bin ja nach wie vor ein wenig skeptisch, was die Bug-These angeht, weil es mir schwer fällt zu glauben, dass man etwas so relativ dramatisches erst so spät im Entwicklungszyklus feststellt.

robbitop
2023-04-13, 15:15:04
Ich finde, dass diese Einstellung auch gesund ist. Bis wir tatsächlich härter Indizien oder Beweise finden, sind das erstmal nur Gerüchte. Gerüchte die schlüssig klingen, wenn man den Kontext betrachtet - aber nicht zwangsweise wahr.

Langlay
2023-04-13, 15:27:21
Wenn das wirklich zutrifft dann ist die ganze RDNA3 Architektur für den Arsch... absoluter Reinfall. Da kann man wirklich nur hoffen, dass die 285W TBP nicht korrekt sind oder, dass AMD hier wieder mal einen völlig bescheuerten Betriebspunkt mit weit über 3Ghz gewählt hat. Lässt du bsw. die letzten 200-300Mhz fallen sind es plötzlich <250W. Aber selbst das fände ich noch ziemlich enttäuschend vs. RDNA2 beim Speed RX 7800XT = RX 6900XT.

Vorallem wenn die 7800XT wirklich mit 60 CUs kommt und RT mit CUs skaliert ist die 7800XT noch nichtmal in RT schneller als ne 6900XT.

https://i.imgur.com/CrjJlVs.jpg


Also wenn ich Milchmädchenhaft die 15 FPS der 7900XTX durch 96 teile und dann das Ergebnis mit 60 multipliziere komm ich auf 9,4 FPS für 7800XT.

Also quasi nirgendwo ein Fortschritt zu sehen, kein Wunder das sich AMD nicht unbedingt beeilt Navi32 zu releasen.

Exxtreme
2023-04-13, 15:28:49
Aber selbst das fände ich noch ziemlich enttäuschend vs. RDNA2 beim Speed RX 7800XT = RX 6900XT.

Das ist eher normal, dass Vorgänger = Nachfolger minus eine Stufe. Meine RX 5700XT ist ziemlich exakt so schnell wie eine RX 6600XT.

https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/

dargo
2023-04-13, 16:00:17
Das ist eher normal, dass Vorgänger = Nachfolger minus eine Stufe. Meine RX 5700XT ist ziemlich exakt so schnell wie eine RX 6600XT.

https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/
Das ist beides N7! Bei RDNA3 haben wir einen Fullnodewechsel! Zudem vergleich mal den Stromverbrauch 5700XT vs. 6600XT. Und da reden wir immer noch von gleicher Fertigung!!! Letzteres braucht im selben Prozess nur noch ~70% Energie der RX 5700XT.

Edit:
Bei CB sind es sogar exakt 70%... 147W vs. 210W, jeweils Referenz.
https://www.computerbase.de/2021-08/amd-radeon-rx-6600-xt-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

Redneck
2023-04-13, 17:14:42
Gibt es eigentlich irgendwo einen Artikel, in dem untersucht wurde, weshalb RDNA2/3 so abartig gut in COD performen?
Was läuft da anders, als in anderen Engines?

DrFreaK666
2023-04-13, 18:14:33
Strange Brigade läuft auf Geforce Karten auch deutlich schlechter

Iscaran
2023-04-13, 20:12:27
Gibt es eigentlich irgendwo einen Artikel, in dem untersucht wurde, weshalb RDNA2/3 so abartig gut in COD performen?
Was läuft da anders, als in anderen Engines?
AFAIK dürfte das ein Effekt von SAM sein.

In COD im speziellen bringt das wohl so 15-20%
https://www.pcgameshardware.de/Call-of-Duty-Black-Ops-Cold-War-Spiel-72929/Specials/COD-Cold-War-Benchmark-Release-Review-1362383/2/

das nVidia pendant rBar ist hier AFAIK bei weiten nicht so effektiv.

RoNsOn Xs
2023-04-13, 21:09:52
Faktisch nicht ganz richtig ist die Sache, dass rBar nicht Nvidia zuzuschreiben ist. Müsste afaik vom jeweiligen Chipsatz abhängig sein. So haben auch vermeintliche Radeon-Besitzer rBar, like me.

00-Schneider
2023-04-13, 22:33:56
Gibt es eigentlich irgendwo einen Artikel, in dem untersucht wurde, weshalb RDNA2/3 so abartig gut in COD performen?
Was läuft da anders, als in anderen Engines?


Bei den Stückzahlen, die das Game auf den Konsolen verkauft, wird das bis zur Kotzgrenze auf RDNA2 optimiert sein.

vinacis_vivids
2023-04-13, 23:12:19
Gibt es eigentlich irgendwo einen Artikel, in dem untersucht wurde, weshalb RDNA2/3 so abartig gut in COD performen?
Was läuft da anders, als in anderen Engines?

https://youtu.be/EggkR6QU7LM

Bei COD läuft die 7900XTX mit 3,7Ghz Command Prozessor und 3,2Ghz Shader-Clock 😁

Die Engine Haut da ~400fps raus. Da ist nix mit Bug, läuft astrein, wahrscheinlich zu 90% ASM Shader-Code und 10% high-level Zeugs.

Bei CPDR ist ja alles propiätäres high-level-Zeugs zu 90%, was schlecht läuft und auch viel zugemüllt ist.

Redneck
2023-04-14, 08:26:18
https://youtu.be/EggkR6QU7LM

Bei COD läuft die 7900XTX mit 3,7Ghz Command Prozessor und 3,2Ghz Shader-Clock 😁

Die Engine Haut da ~400fps raus. Da ist nix mit Bug, läuft astrein, wahrscheinlich zu 90% ASM Shader-Code und 10% high-level Zeugs.

Bei CPDR ist ja alles propiätäres high-level-Zeugs zu 90%, was schlecht läuft und auch viel zugemüllt ist.

1) ist das bei anderen hoch optimierten Titeln nicht auch so aber dort liegt der performance uplift nicht bei den nahezu gefühlt 70% ??

2) wer/was triggert den Takt des Command Prozessors bzw des Shader Clocks ? Das wird doch sicher nicht vom Game Code getriggert. Stellt sich die Frage, weshalb dieser Takt bei anderen Spielen nicht anliegt.

Daher suche ich nach einem In Depth Artikel, der versucht das zu sezieren und auf den Grund zu gehen.
COD scheint ja der einzige Titel zu sein, bei dem der erwartete und erhoffte uplift zu RDNA2 eintrifft .. und das ohne Schummeln und Abstürzen.
Was gelingt dort besser als bei anderen Titeln ?

Redneck
2023-04-14, 08:35:44
AFAIK dürfte das ein Effekt von SAM sein.

In COD im speziellen bringt das wohl so 15-20%
https://www.pcgameshardware.de/Call-of-Duty-Black-Ops-Cold-War-Spiel-72929/Specials/COD-Cold-War-Benchmark-Release-Review-1362383/2/

das nVidia pendant rBar ist hier AFAIK bei weiten nicht so effektiv.

Das kann's alleine aber nicht sein... SAM ist in anderen Titeln auch aktiv und man landet im Schnitt bei einem Zuwachs RDNA2>RDNA3 bei ungefähr 35% (?).

Selbst wenn man SAM ausschaltet und großzügig 20% herausrechnet, liegt man immer noch auf ca 50%+ (was weit über dem Schnitt ist), oder ?

dildo4u
2023-04-14, 08:51:17
Call of Duty war/ist Hauptsächlich ein Konsolen Franchise und musste mit 60fps laufen daher mach es Sinn das es zu 100% auf AMD Hardware zugeschnitten wird.

dargo
2023-04-14, 09:16:43
2) wer/was triggert den Takt des Command Prozessors bzw des Shader Clocks ? Das wird doch sicher nicht vom Game Code getriggert. Stellt sich die Frage, weshalb dieser Takt bei anderen Spielen nicht anliegt.

Ganz einfach... wenn diese Frequenzen (nicht vergessen bei einem offenen 464W PT! Im Video darf die Karte das auch saufen) in anderen Games nicht erreicht werden ist die Shaderlast dort höher. Würdest du der Karte bsw. 600W erlauben würdest du dort auch ähnliche Frequenzen sehen. Mehr als 464W (was schon verrückt genug ist) erlaubt aber afaik kein AIB bisher.

vinacis_vivids
2023-04-14, 09:23:43
https://youtu.be/jstbE2vBsIA

Bei Forspoken sind es 3,3Ghz / 3,0Ghz

https://youtu.be/U_1FvbeXTzE
https://youtu.be/HVNbVEGVnWk
https://youtu.be/JAm-TT4Tl-k

Bei Dead Space Remake, Red Dead Redemption und Hogwarts werden 3,2Ghz / 3,0Ghz erreicht.
Bei RDR ist die Leistung praktisch gleich zur 4090@3,0Ghz.


https://youtu.be/yiMGXntkCc8

Bei CP2077 sind es ~ 3,15Ghz / 2,8Ghz

Alle diese Werte wurden mit der Nitro+ 7900XTX mit ~464W Leistungsaufnahme erreicht.

Die von den Redaktionen getesteten MBA 7900XTX sind auf 355W limitiert und oftmals mit langsameren CPUs. Der Takt liegt dann bei 2,6Ghz / 2,5Ghz

Da sind teilweise +20-30% Mehrleistung drin, mit schnellerer CPU und OC.
2,6Ghz -> 3,3Ghz +27% - command prozessor
2,5Ghz -> 3,0Ghz +20% - shader


AMD hat allerdings niemals die 450-475W Karten promotet, sondern eben die 320-355W.
Geht man davon aus, dass AMD wenig Marktanteile hat und die Nitro+ 7900XTX eines der seltensten N31XTX Karten auf der Welt ist, dann ist das ein absolute Nische.

N31XTX taktet schon sehr geil nach oben, aber der Verbrauch steigt eben auch exponentiell.

Hoffe AMD bringt noch einen kleinen Refresh N31XTX+, wo die ~4,0Ghz Taktgrenze beim command prozessor und ~3,5Ghz Shader in manchen Fällen dann erreicht werden können.


N32 lässt wohl sehr lange auf sich warten, weil der Takt ggü. N31@2,6Ghz nun doch dauerhaft auf ~3,0Ghz hochgeschraubt wurde vor dem Release.

Redneck
2023-04-14, 09:44:04
Ganz einfach... wenn diese Frequenzen (nicht vergessen bei einem offenen 464W PT! Im Video darf die Karte das auch saufen) in anderen Games nicht erreicht werden ist die Shaderlast dort höher. Würdest du der Karte bsw. 600W erlauben würdest du dort auch ähnliche Frequenzen sehen. Mehr als 464W (was schon verrückt genug ist) erlaubt aber afaik kein AIB bisher.

Du meinst die Leistung wird also künstlich und bewußt durch das PT Limit begrenzt ? die höhere Leistung in COD wird doch aber auch bei den Referenz Karten erreicht und nicht nur bei einigen Customs...

dargo
2023-04-14, 09:46:57
V_V wieder in seinem Parallel-Universum. :facepalm:

Jeder kann bei CB nachlesen was max. 433W einer Nitro+ mit B1 Bios vs. 354W einer Referenz bringen. :rolleyes:
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_benchmarks_in_ultra_hd

Rechne nochmal ~1% drauf mit max. 464W. Bei Chiplotterie und gutem Sample mit gesenkter max. Spannung vielleicht nochmal ~2% drauf, das wars dann auch schon.

Du meinst die Leistung wird also künstlich und bewußt durch das PT Limit begrenzt ?

Ohne ein PT-Limit würde dir jede halbwegs aktuelle GPU durchglühen. Brauchst nur einen entsprechenden Powervirus drüber jagen.


die höhere Leistung in COD wird doch aber auch bei den Referenz Karten erreicht und nicht nur bei einigen Customs...
Keine Ahnung worauf du hinaus willst. Wenn ein CoD überdurchschnittlich gut mit RDNA2/3 performt dann wurden bei der Entwicklung diverse Parameter der Engine für Preset X so gewählt, dass diese diesen GPU-Designs besonders gut schmecken. Man nennst sowas gute Optimierung der Software bzw. Applikation für GPU-Design X.

Redneck
2023-04-14, 09:47:48
Call of Duty war/ist Hauptsächlich ein Konsolen Franchise und musste mit 60fps laufen daher mach es Sinn das es zu 100% auf AMD Hardware zugeschnitten wird.

ist das wirklich ein COD Alleinstellungsmerkmal oder ist das nicht auch so bei anderen Konsolen first Titeln ?
COD ist doch (gefühlt) nicht das Einhorn in der Gaming Landschaft.. andere Titel performen doch auch sehr ordentlich auf PS5 und Xbox bringen dann beim PC Port aber nicht den Zuwachs auf RDNA3 hin (FH5 z.B... das ist doch auf XBOX sicherlich auch tot optimiert und was kommt bei RDNA3 raus ...schlechter als RDNA2.. nein, ich möchte nicht auf ein mögliches Bug Szenario hindeuten, nur das es eben keinen Automatismus gibt der besagt "optimiert auf Konsole = läuft super auf RDNA").

Redneck
2023-04-14, 09:53:20
V_V wieder in seinem Parallel-Universum. :facepalm:

Jeder kann bei CB nachlesen was max. 433W einer Nitro+ mit B1 Bios vs. 354W einer Referenz bringen. :rolleyes:
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_leistungsaufnahme
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_benchmarks_in_ultra_hd

Rechne nochmal ~1% drauf mit max. 464W. Bei Chiplotterie und gutem Sample mit gesenkter max. Spannung vielleicht nochmal ~2% drauf, das wars dann auch schon.

Ist eh problematisch eine Custom als Vergleich heranzuziehen... ich beziehe mich ja auf die RDNA3 Präse Slides von AMD und dann die Tests der Referenz Karten und ich habe auch noch keinen Hinweis gesehen, das COD der einzige Titel sein soll, bei dem RDNA3 frei vom PT agieren darf. Gibt es solch einen Hinweis ? Falls es eine Quelle gibt, her damit :-)

dargo
2023-04-14, 10:01:48
Ist eh problematisch eine Custom als Vergleich heranzuziehen... ich beziehe mich ja auf die RDNA3 Präse Slides von AMD und dann die Tests der Referenz Karten.
Die AMD-Folien haben nichts mit der tatsächlichen Performance von N31 den du kaufen kannst gemeinsam. Dieses Thema wurde im Forum schon mehrmals durchgekaut. Es wird spekuliert, dass zum Zeitpunkt wo die Folien erstellt wurden N31 diese Performance auch erreicht hatte. Später hat man festgestellt, dass Grafikfehler aufgetaucht sind. Ergo musste AMD nach einer Lösung suchen und diese Lösung ist offenbar jetzt in Software gegossen (Treiber) die N31 ausbremst. Wie gesagt... bisher nur Spekulationen, klingt für mich aber schlüssig.

btw.
FH5 ist bei N31 kaputt (performt zu schlecht), ist AMD bekannt.

vinacis_vivids
2023-04-14, 10:09:42
@dargo

Der Artikel ist so dermaßen schlecht. Da wurden die Karten einfach in den Rechner gesteckt und dann gemessen. Der Takt der Customs sind dann bei 2,5-2,7Ghz.

Da ist nix großartiges mit OC und N31XTX wurden gar nicht richtig ausgereizt. Die Leute von CB haben einfach wenig Ahnung vom AMD-GPUs.

Das höchste der Gefühle war "Standard-Bios" mit der Nitro+ 7900XTX.

Richtig geile Leistung :freak:

Wie auch immer, ändert nichts an den 3,7Ghz / 3,2Ghz der Nitro+ 7900XTX im Video und mehrfach >3,0Ghz Takt in anderen Spielen.

Redneck
2023-04-14, 10:13:49
gerade nochmal nachgeschaut auf CB... sind "nur" 46% XTX bzg 6900XT... hatte ich irgendwie anders in Erinnerung

dargo
2023-04-14, 10:53:32
@dargo

Der Artikel ist so dermaßen schlecht. Da wurden die Karten einfach in den Rechner gesteckt und dann gemessen. Der Takt der Customs sind dann bei 2,5-2,7Ghz.

Da ist nix großartiges mit OC und N31XTX wurden gar nicht richtig ausgereizt. Die Leute von CB haben einfach wenig Ahnung vom AMD-GPUs.

Schon klar, du bist der größte Checker bei AMD-GPUs. :comfort:

Dino-Fossil
2023-04-14, 11:10:27
Die AMD-Folien haben nichts mit der tatsächlichen Performance von N31 den du kaufen kannst gemeinsam. Dieses Thema wurde im Forum schon mehrmals durchgekaut. Es wird spekuliert, dass zum Zeitpunkt wo die Folien erstellt wurden N31 diese Performance auch erreicht hatte. Später hat man festgestellt, dass Grafikfehler aufgetaucht sind. Ergo musste AMD nach einer Lösung suchen und diese Lösung ist offenbar jetzt in Software gegossen (Treiber) die N31 ausbremst. Wie gesagt... bisher nur Spekulationen, klingt für mich aber schlüssig.


Obwohl hiermit doch nun schon zwei gegenläufige Gerüchte existieren, oder?
Zum einen - RDNA3 sollte deutlich höher takten, aber ein Hardware-Bug verhindert das, womit einiges an Leistung nicht rum kommt. Dafür sprächen z.B. die ">3GHz" Folie und die getrennten Taktdomänen.
Zum anderen - RDNA3 hat einen Bug, der zu "Artefakten" führt, was per Treiber gefixt werden musste, aber die Performance deutlich ausbremst. Dafür sprächen die Exklusivtreiber nach Release, sowie die Diskrepanz in den Benchmarkfolien zwischen Vorstellung und Release.

Letztlich lässt sich aber alles auch anders erklären und wir haben nur die Aussagen von Leakern/Foristen/Tech-Youtubern. Vielleicht kommt ja bald noch ein drittes Gerücht. :biggrin:

dargo
2023-04-14, 11:20:14
Mir ist es letztendlich völlig latte ob irgendein Gerücht stimmt oder nicht. Fakt ist N31 ist nicht gut vs. N21 gelungen. Der hohe Durst bei hoher bis mittlerer Shaderlast ist ebenfalls verdächtig sowie zwei Taktdomains. Letzteres macht niemand wenn alles nach Plan läuft.

Edit:
Um das mal einigen vor Augen zu führen. Mit N31 haben wir einen Fullnodewechsel. Und selbst damit kann sich die Karte @4k im Raster nur um 43% gegenüber RX 6900XT absetzen.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_inkl_nextgen

Bei ~55W mehr wohlgemerkt. Nimmt man die custom XFX RX 6900XT Black als Anhaltspunkt sind es nur noch +35% für N31. Dabei dürfte die Black immer noch etwas weniger als 355W verbrauchen. Und nicht vergessen dabei... N21 läuft nicht im Sweetspot sondern weiter oben in der Spannungskurve. Insbesondere diese XFX Black dürfte bei =>1000mV rauskommen. Eine RX 7900XTX Referenz bewegt sich eher bei ca. 900+mV (mittlere Shaderlast), also viel näher am Sweetspot wegen dem stark begrenzten Powerlimit. Hätte AMD das Powerlimit bei N31 stärker aufgemacht würde es für N31 noch einiges schlechter aussehen in Bezug auf perf/W.

btw.
Ich hatte hier einige Messungen durchgeführt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13271699&postcount=1949

CP77 würde ich durchaus eine mittlere Shaderlast zuschreiben.

Wenn du dir die Messungen genauer anschaust würden bei einem 300W Cut ca. 2450Mhz Shaderclock bei rauskommen (Stockwerte betrachten) und dann würdest du schon eher bei ~850mV landen.

Dino-Fossil
2023-04-14, 14:21:10
Ohne hier einen auf Wundertreiber zu machen - ich frage mich allerdings auch noch, welches Potential hier noch durch bessere Ausnutzung der dual-issue-Funktionalität versteckt ist.

Sicherlich sollte Perf/Watt von N31 vs N21 allerdings auch schon ohne dual-issue etwas besser ausfallen.

Der_Korken
2023-04-14, 14:28:31
Obwohl hiermit doch nun schon zwei gegenläufige Gerüchte existieren, oder?
Zum einen - RDNA3 sollte deutlich höher takten, aber ein Hardware-Bug verhindert das, womit einiges an Leistung nicht rum kommt. Dafür sprächen z.B. die ">3GHz" Folie und die getrennten Taktdomänen.
Zum anderen - RDNA3 hat einen Bug, der zu "Artefakten" führt, was per Treiber gefixt werden musste, aber die Performance deutlich ausbremst. Dafür sprächen die Exklusivtreiber nach Release, sowie die Diskrepanz in den Benchmarkfolien zwischen Vorstellung und Release.

Letztlich lässt sich aber alles auch anders erklären und wir haben nur die Aussagen von Leakern/Foristen/Tech-Youtubern. Vielleicht kommt ja bald noch ein drittes Gerücht. :biggrin:

Dass RDNA3 nicht höher takten kann, stimmt nachweislich nicht. Mit voll aufgedrehtem Powerlimit auf Custom-Karten liefen Games bereits mit 3,2Ghz Shadertakt stabil durch. In Anwendungen lief N31 auch schon mit 3,5Ghz Shadertakt (und 3,7Ghz Frontend-Takt) auf irgendwelchen Twitter-Screenshots. Es scheint mir eher so wie dargo sagt: Shaderlastiger Code säuft so abartig, dass hohe Taktraten zwar möglich aber nicht praktikabel sind.

Wenn das ein Bug wäre, würde AMD das ohnehin nie zugeben. Imho sprechen aber einige Indizien dafür:

1. Die getrennte Taktdomain für das Forntend. Warum sollte man sowas tun? Da ist doch kein Dev hergegangen und hat gesagt: Lasst uns mal für das Frontend ne eigene Clockdomain einbauen, die 8% höher taktet. Imho trennt man die Taktraten wenn dann richtig (wie Nvidias damals bei G80), weil eines von beiden inhärent schwieriger auf Taktraten zu optimieren ist. So wirkt das aber eher wie eine Last-Minute-Lösung, um noch etwas mehr Leistung aus dem Chip zu kitzeln ohne den Shaderclock anheben zu müssen, denn der ist ja offensichtlich das Problem.

2. Die Ausrichtung von N31 erscheint fraglich. RDNA3 ist auf Density optimiert. AMD möchte möglichst wenig Material benutzen, um ihr Performance-Target zu erreichen. Warum aber baue ich dann einen "großen" GCD und lasse ihn nur mit läppischen 2,5Ghz takten? Da wäre es wirtschaftlicher gewesen auf 80 CUs zu bleiben und diese auf 3Ghz hochzuziehen. Genauso erscheint der Speicherausbau überdimensioniert. +87,5% Bandbreite auf eine 6900XT bei ~+50% Performance und 24GB VRAM. Im Grunde wären auch 5 MCDs mit dann 20GB VRAM und +56% Bandbreite mehr als ausreichend gewesen. Das spricht imho dafür, dass das interne Performance-Target eigentlich 20% höher war und man es nicht erreicht hat.

Die Sache mit dem Kommunikations-Bug von MLID ist dagegen ein völlig neues Gerücht, dass ich bis vor wenigen Tagen noch nie gehört habe. Das ist imho auch unabhängig vom Rest zu betrachten, denn hier wird nur ein Erklärungsversuch abgegeben, warum die Leistungsprojektion von AMD bei der Präsentation zu hoch war. Imho beißt sich das Gerücht schon fast ein wenig mit dem ersten, denn wenn RDNA3 sowohl 20% höher takten sollte als auch noch 10-15% durch einen Software-Workaround verliert, bewegen wir uns leistungstechnisch schon in 4090-Regionen. Das ist mir dann doch etwas zu viel des Guten.

reaperrr
2023-04-14, 14:29:58
verdächtig sowie zwei Taktdomains. Letzteres macht niemand wenn alles nach Plan läuft.
Sowas zaubert man nicht mal eben aus dem Hut, bloß weil die Shader zu viel Strom ziehen.
Eine separate Taktdomain muss von vornherein in die Architektur eingeplant und implementiert werden.

Beide Hersteller haben das Problem, dass es mit zunehmender Anzahl Shader immer schwerer wird, diese mit dem einen CommandProcessor/Gigathread-Engine vollständig auszulasten, z.B. die 4090 ist zwar verdammt schnell, aber gemessen an der Rohleistung im Vergleich zur 4080 in manchen Spielen noch viel zu langsam, das ist ein Symptom davon, auch wenn CPU (Treiber) und Bandbreite da sicher mit reinspielen.
Dass man da bei AMD einerseits auf generell höhere Taktraten, andererseits auf NOCH höheren Frontend-Takt gezielt hat, ist mMn völlig logisch.
Die Präsentation der separaten Clock-Domain als Strom-Spar-Maßnahme ist m.E. eher der Tatsache geschuldet, dass die Taktraten und Performance insgesamt zu niedrig ausgefallen sind, um mit ihnen angeben zu können, sonst hätten sie den höheren Frontend-Takt womöglich eher als Performance-erhöhendes Feature präsentiert.

Edit:
Imho beißt sich das Gerücht schon fast ein wenig mit dem ersten, denn wenn RDNA3 sowohl 20% höher takten sollte als auch noch 10-15% durch einen Software-Workaround verliert, bewegen wir uns leistungstechnisch schon in 4090-Regionen. Das ist mir dann doch etwas zu viel des Guten.
Warum? AMD selbst wollte intern sehr wohl in Raster nah an die 4090 ran, um auch ~1500$ nehmen zu können.

Was ist so schwer vorstellbar daran, dass sie sich dabei übernommen und es in gleich ZWEI Bereichen verbockt haben?

Mit weniger R&D-Ressourcen eine größere uArch-Überarbeitung, FullNode-Shrink UND Chiplets gleichzeitig anzugehen, war vielleicht einfach ein bis zwei Schritte zu viel auf einmal für das, was AMD an Personal in der Grafik-Abteilung hat.

dargo
2023-04-14, 14:42:01
Die Sache mit dem Kommunikations-Bug von MLID ist dagegen ein völlig neues Gerücht, dass ich bis vor wenigen Tagen noch nie gehört habe. Das ist imho auch unabhängig vom Rest zu betrachten, denn hier wird nur ein Erklärungsversuch abgegeben, warum die Leistungsprojektion von AMD bei der Präsentation zu hoch war. Imho beißt sich das Gerücht schon fast ein wenig mit dem ersten, denn wenn RDNA3 sowohl 20% höher takten sollte als auch noch 10-15% durch einen Software-Workaround verliert, bewegen wir uns leistungstechnisch schon in 4090-Regionen. Das ist mir dann doch etwas zu viel des Guten.
Einerseits stimme ich dir zu, andererseits muss man bei solchen Sachen immer etwas vorsichtig sein. Wir wissen nicht was das tatsächliche Powertarget für AMD bei N31 war. Rein theoretisch könnte ursprünglich das Ziel 300W oder sogar 275W gewesen sein.

Der_Korken
2023-04-14, 14:45:08
Warum? AMD selbst wollte intern sehr wohl in Raster nah an die 4090 ran, um auch ~1500$ nehmen zu können.

Was ist so schwer vorstellbar daran, dass sie sich dabei übernommen und es in gleich ZWEI Bereichen verbockt haben?

Mit weniger R&D-Ressourcen eine größere uArch-Überarbeitung, FullNode-Shrink UND Chiplets gleichzeitig anzugehen, war vielleicht einfach ein bis zwei Schritte zu viel auf einmal für das, was AMD an Personal in der Grafik-Abteilung hat.

Ich habe aufgehört von großen AMD-Flaggschiffen zu träumen. Bei AMD-GPUs wurde immer viel gehyped und am Ende kam deutlich weniger bei rum. Selbst bei RDNA2, die wirklich eine gute Gen war, war der Hype größer als das Endprodukt. Von RDNA3 ganz zu schweigen, wo anhand von Leaks einige dachten, dass N31 wirklich mit 12000 SPs ankommt und inkl. Taktsteigerung >3x so schnell wie N21 wird.

AD102 ist viel fetter als N31 und Nvidia ist kein Intel 2.0, die ihre Entwicklung zwischenzeitlich komplett haben schleifen lassen und dann Jahre gebraucht haben, um wieder in die Puschen zu kommen. Dass ein komplett gefixter N31 an eine 4090 rankommt, ist mir einfach viel zu optimistisch.

Edit:

Einerseits stimme ich dir zu, andererseits muss man bei solchen Sachen immer etwas vorsichtig sein. Wir wissen nicht was das tatsächliche Powertarget für AMD bei N31 war. Rein theoretisch könnte ursprünglich das Ziel 300W oder sogar 275W gewesen sein.

Ich schätze AMD anhand der ersten beiden RDNA-Gens so ein, dass sie einen Chip nicht größer machen als notwendig, um ihn anschließend niedrig zu takten. Wenn AMD einen 300W-Chip hätte haben wollen, wären sie eher nicht auf 96CUs gegangen, sondern hätten lieber einen kleineren Chip hochgeprügelt. Außer natürlich der Verbrauch ist so eskaliert, dass der geplante N31 auch mit 96CUs@3Ghz nur 300W verbraucht hätte :freak:.
Man kann vielleicht sagen, dass 355W nicht das ursprüngliche Ziel war, sondern aus der Not heraus noch von z.B. 335W (=6950XT) angehoben wurde, ohne das PCB ändern zu müssen.

Exxtreme
2023-04-14, 14:45:09
Warum? AMD selbst wollte intern sehr wohl in Raster nah an die 4090 ran, um auch ~1500$ nehmen zu können.


Mhhh, ich habe gelesen, dass AMD durch die RTX 4090 überrumpelt wurde da sie damit nicht rechneten, dass Nvidia so einen Monsterchip ernsthaft produzieren würde. Sprich, sie rechneten mit der RTX 4080 als Endgegner. Aber ob das stimmt, das weiss ich nicht. Ist bloß ein Gerücht gewesen.

Langlay
2023-04-14, 15:07:20
Mhhh, ich habe gelesen, dass AMD durch die RTX 4090 überrumpelt wurde da sie damit nicht rechneten, dass Nvidia so einen Monsterchip ernsthaft produzieren würde. Sprich, sie rechneten mit der RTX 4080 als Endgegner. Aber ob das stimmt, das weiss ich nicht. Ist bloß ein Gerücht gewesen.

Das Gerücht ist Schwachsinn. AMD soll also geglaubt das Nvidia beim Wechsel von Samsung 8nm auf TSMC N4 es nicht schafft mehr als 30% Mehrleistung im Vergleich 3090TI rauszuholen. Bei über einem Fullnodesprung in der Chipfertigung.

Fällt etwas schwer zu glauben, das AMD davon überrascht war. Das die 4090 60% auf die 3090ti drauflegt ist imo eher etwas weniger als vorher erwartet. Wären das 80% Uplift gewesen hätte sicherlich auch keiner verwundert gekuckt.

reaperrr
2023-04-14, 15:25:08
Fällt etwas schwer zu glauben, das AMD davon überrascht war. Das die 4090 60% auf die 3090ti drauflegt ist imo eher etwas weniger als vorher erwartet. Wären das 80% Uplift gewesen hätte sicherlich auch keiner verwundert gekuckt.
Jup, seh ich auch so.
Die 4090 ist praktisch der AD102-"Abfall" bzw. kleinste gemeinsame Nenner an Specs, die fast jeder AD102 schafft, und wird zum Teil auch noch ziemlich durch CPU/Frontend/Bandbreite ausgebremst, und ist locker 10-15% unter dem Performance-Level gelandet, den MLID & Co. die ganze Zeit von ihren Quellen genannt bekommen haben.
Mir kann keiner erzählen, dass AMD nicht mit mindestens 60-70% mehr Perf von NV gerechnet hat.

Ich kann mir nur auch nicht vorstellen, dass AMD auf die 6950XT wirklich nur ~35% Leistung bei noch höherer TDP draufpacken wollte.
Zumindest 50-60% wollten sie über eine Kombination von mehr CUs, mehr IPC durch zweite SIMD/VOPD und andere uArch-Verbesserungen sowie mehr Takt und Bandbreite sicherlich rausholen, und dann wären sie in Raster klar vor der 4080 und auch nah an der 4090 gewesen und hätten locker 20-30% höhere $-Preise nehmen können, was eine viel höhere Marge je Karte bedeutet hätte.

Das mit dem "wir haben uns entschieden, bewusst nur eine 999$ Karte zu machen" von AMD ist natürlich kompletter Quatsch. Die haben sowohl deutlich mehr Performance angepeilt, als auch nicht damit gerechnet, dass der GPU-Markt ab Q3/22 so hart einbrechen würde.

dargo
2023-04-14, 15:47:20
Es wurde von Anfang an geplant, dass RDNA3 >50% bei Perf/W vs. RDNA2 erreicht.
https://www.pcgameshardware.de/screenshots/original/2022/06/EDNA-3-AMD-1--pcgh.jpg

Dieses Ziel wurde weit verfehlt, zumindest bei N31. Wie die kleineren SKUs abschneiden wird sich zeigen.
https://abload.de/img/n31huc9i.jpg

Keine Ahnung was es da noch zu philosophieren gibt. Ergo ist irgendwas schief gelaufen. Im übrigen macht mich auch das 384Bit SI von N31 wie Korken stutzig bei dem was N31 da letztendlich abliefert. Ziemlicher Overkill.

robbitop
2023-04-14, 16:07:48
Mhhh, ich habe gelesen, dass AMD durch die RTX 4090 überrumpelt wurde da sie damit nicht rechneten, dass Nvidia so einen Monsterchip ernsthaft produzieren würde. Sprich, sie rechneten mit der RTX 4080 als Endgegner. Aber ob das stimmt, das weiss ich nicht. Ist bloß ein Gerücht gewesen.
Aus Transistorsicht ist AD102 groß. Aber der Sprung ist mit +70% jetzt kein ungeöhlicher. Ein guter? Auf jeden Fall. Aber es gab auch schon größere.
Monsterchip ist das für mich auch nicht. Neuster Node und 6xx sqmm gab es auch schon oft genug vorher. Bei 8xx sqmm hätte ich zugestimmt.
Was mich wundert ist wie überproportional viele Transistoren bei Ada und RDNA3 performancenormiert ggü ihren Vorgängern geflossen sind.

robbitop
2023-04-14, 16:13:29
Das Gerücht ist Schwachsinn. AMD soll also geglaubt das Nvidia beim Wechsel von Samsung 8nm auf TSMC N4 es nicht schafft mehr als 30% Mehrleistung im Vergleich 3090TI rauszuholen. Bei über einem Fullnodesprung in der Chipfertigung.

Eher anderthalb bis zwei Fullnodesprünge. Samsungs 8 nm ist ein 10 nm Derivat. Und normiert auf die gleiche Prozessbeschreibung liegt Samsung auch immer nicht zu knapp hinten ggü TSMC was Performance/Power angeht. Real waren es wahrscheinlich eher zwei Fullnodesprünge (wobei TSMCs 10 nm nie bei GPUs genutzt wurden).

dargo
2023-04-14, 16:19:21
Also wenn das bei Nvidia bis zu zwei Fullnodesprünge bei Ada waren dann performt die RTX 4090 aber auch ganz schön schwach. :freak: Kommen jetzt nur noch Luftpumpen je Grafikkartengeneration? X-D

DrFreaK666
2023-04-14, 16:21:21
Für was sind jetzt eigentlich die AI-Einheiten? Mehr als nur ein Checklisten-Punkt?
AMD enttäuscht mich zur Zeit was Grafikkarten angeht. Da geht es irgendwie nicht weiter.
7800XT erst im Herbst? WTF?

dargo
2023-04-14, 16:28:32
7800XT erst im Herbst? WTF?
Sofern das Ding gefixt ist bzw. näher an ursprünglichen Plänen von RDNA3 liegt ist es für alle besser.

Langlay
2023-04-14, 16:33:26
Also wenn das bei Nvidia bis zu zwei Fullnodesprünge bei Ada waren dann performt die RTX 4090 aber auch ganz schön schwach.

Ja, wobei ich davon ausgehen würde, das die 4090 auch stärker geworden wäre, wenn Navi31 stärker geworden wäre. Liegt ja noch einiges Brach im Chip und bis man die TDP voll macht hat man auch noch etwas Luft.

DrFreaK666
2023-04-14, 16:35:57
Nvidia hat dann noch mehr Monate Vorsprung. Weiß nicht wo das besser ist.
Und FSR3 kommt "bald". Wahrscheinlich ist "bald" im Englischen ein längerer Zeitraum. Man konnte nicht mal sagen, mit welchem Entwickler man zusammen arbeitet. Wenigstens einen Titel hätte man nennen können... Nichts

dargo
2023-04-14, 16:46:08
Nvidia hat dann noch mehr Monate Vorsprung. Weiß nicht wo das besser ist.

Was bringt dir eine RX 7800XT die fast das gleiche wie N21 säuft und nicht schneller ist?

DrFreaK666
2023-04-14, 17:09:53
So wie es die aktuelle Gerüchtelage zeigt? Vielleicht ist es einfach so. Kann man in 4-5 Monaten noch was an der Hardware ändern? Eher nicht

Langlay
2023-04-14, 17:13:12
So wie es die aktuelle Gerüchtelage zeigt? Vielleicht ist es einfach so. Kann man in 4-5 Monaten noch was an der Hardware ändern? Eher nicht

Naja wenn Navi32 wirklich erst im Herbst kommt, hätte man imo schon genug Zeit fürn Respin gehabt. Ist ja quasi 1 Jahr nach Erscheinen von Navi31.

dargo
2023-04-14, 17:31:10
So wie es die aktuelle Gerüchtelage zeigt? Vielleicht ist es einfach so. Kann man in 4-5 Monaten noch was an der Hardware ändern? Eher nicht
Da kann man nur spekulieren. Hängt davon ab wann AMD ein vermeidlicher Bug im Design aufgefallen ist und wie schwerwiegend dieser ist. Wenn das schon bsw. in September bis Oktober 2022 auffiel hat man imho genug Zeit.

robbitop
2023-04-14, 17:42:32
Nvidia hat dann noch mehr Monate Vorsprung. Weiß nicht wo das besser ist.
Und FSR3 kommt "bald". Wahrscheinlich ist "bald" im Englischen ein längerer Zeitraum. Man konnte nicht mal sagen, mit welchem Entwickler man zusammen arbeitet. Wenigstens einen Titel hätte man nennen können... Nichts
War bei FSR 2 aber auch so. Und zack auf einmal wurde es mit Deathloop gelauncht.

DrFreaK666
2023-04-14, 17:47:19
Schön. Deathloop Interessierte halt irgendwie kaum jemanden.
Und der Push in Richtung Konsolen ist auch ungenügend, meiner Meinung nach

robbitop
2023-04-14, 17:59:07
Darum ging es doch gar nicht. Es ging darum, dass über FSR oder Spiele/Studios die das implementieren nichts bekannt ist und ich wollte damit ausdrücken, dass es nicht ungewöhnlich ist und es dafür einen Präzedenzfall gibt.

DrFreaK666
2023-04-14, 18:11:24
Ja ok. Kann natürlich plötzlich aufploppen. Ich hoffe das taugt am Ende dann auch was

bbott
2023-04-14, 21:20:18
Sofern das Ding gefixt ist bzw. näher an ursprünglichen Plänen von RDNA3 liegt ist es für alle besser.
Dann würde er wohl eher als 7850xt kommen, da ~ N31 Performance.

Raff
2023-04-14, 22:33:06
7800XT erst im Herbst? WTF?

Herbst? War nicht eben erst vom Juni-Zeitraum die Rede? :confused:

MfG
Raff

Dino-Fossil
2023-04-14, 22:43:03
Vorstellung im Juni, heißt verfügbar im Herbst... :weg:

vinacis_vivids
2023-04-14, 23:23:01
~3,0Ghz N32XT 60CUs ist schon ordentlich. 3840SP @ RDNA3 ~ 23 Tflops fp32, 44 Tflops dual-issue fp32. 88 Tflops fp16 half precision für FSR 3.0

Thunder99
2023-04-14, 23:27:32
Nur wenn die Dual issue Sache besser läuft oder nicht die gleichen "Probleme" von N31 vorhanden sind, ansonsten wird es eng sich gut abzusetzen.

dargo
2023-04-14, 23:59:40
Mit den TFLOPs von RDNA3, Ampere und Ada kannst du dir höchstens den Hintern abwischen. :lol:

Raff
2023-04-15, 00:02:13
Für den Anfang würde es reichen, wenn RDNA 3 die ALUs so "gut" nutzt wie Ampere. ;)

Hat denn mittlerweile jemand herausgebencht (via Micro-Benchmarking), wo es bei Navi 31 klemmt? Sind das wieder zu knappe Register, der Klassiker?

MfG
Raff

Der_Korken
2023-04-15, 00:10:55
Die Register wurden doch um 50% vergrößert. Trotzdem ist die Leistung pro CU und Takt kaum gestiegen, d.h. selbst ohne Dual-Issue kommt da nicht so viel an.

dargo
2023-04-15, 00:12:17
Für den Anfang würde es reichen, wenn RDNA 3 die ALUs so "gut" nutzt wie Ampere. ;)

Ähm... offiziell hat N31 Full 6144 ALUs.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7900xtx

Eine RTX 3090Ti hat offiziell 10.752 ALUs.
https://www.nvidia.com/de-de/geforce/graphics-cards/compare/?section=compare-specs

Wer ist hier also die größere Luftpumpe? ;) Die TFLOPS hat man sich bei N31 natürlich nichts weiter als schön gerechnet.

TheAntitheist
2023-04-15, 00:19:58
Ähm... offiziell hat N31 Full 6144 ALUs.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7900xtx

Eine RTX 3090Ti hat offiziell 10.752 ALUs.
https://www.nvidia.com/de-de/geforce/graphics-cards/compare/?section=compare-specs

Wer ist hier also die größere Luftpumpe? ;) Die TFLOPS hat man sich bei N31 natürlich nichts weiter als schön gerechnet.
und jetzt mal mit dem Takt verrechnen

Langlay
2023-04-15, 00:21:16
Ähm... offiziell hat N31 Full 6144 ALUs.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7900xtx

Eine RTX 3090Ti hat offiziell 10.752 ALUs.
https://www.nvidia.com/de-de/geforce/graphics-cards/compare/?section=compare-specs

Wer ist hier also die größere Luftpumpe? ;) Die TFLOPS hat man sich bei N31 natürlich nichts weiter als schön gerechnet.

Nach AMD Zählweise hätte die 3090TI 5376 Shader.