PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

DrFreaK666
2022-10-28, 14:36:09
Dann bist du wohl niemand, der Leistung benötigt. Es gibt aber nun mal welche, die Leistung benötigen und das geht einher mit Strom, schon seit ungefähr immer.

Mir ist Preis wichtig, deswegen fallen solche Karten schonmal flach. Hab Strom nachzahlen müssen. Das muss sich nicht unbedingt wiederholen

Gipsel
2022-10-28, 14:45:32
https://twitter.com/blueisviolet/status/1585843945757515776
"RDNA3 RT similar to xbox

instead too many fixed fucntion
RDNA3 probably splitted the compute , one acted as Scalarization as frontend, to sort to etc, and fit with idea traversal (Standalone) shader"
Total sinnloser Shit-Post. Kann der Typ überhaupt irgendwas in halbwegs verständlichem Englisch posten? Ich meine, ich verlange ja noch nicht mal, daß der irgendwie versteht, daß es Null Zusammenhang seiner aufgeführten Aussagen zur XB1 mit Raytracing gibt ("RT" steht beim XB1-Kram für "real time" ;)) und das scalar/vector-Ding hat der auch nicht gepeilt.

===================

Wer ist das überhaupt? Muss man den kennen?Nein. Ist völliger Blödsinn.

Bärchentierchen
2022-10-28, 15:04:52
Dann bist du wohl niemand, der Leistung benötigt. Es gibt aber nun mal welche, die Leistung benötigen und das geht einher mit Strom, schon seit ungefähr immer.
Die Karten werden sowieso um ein vielfaches teurer mit der Zeit, da muss der Stromverbrauch nicht auch noch hochgehen.

robbitop
2022-10-28, 15:09:06
Ist wirklich nicht der Rede wert. Aber 1x 600W Stecker hätte den Vorteil, dass man alle GPUs mit diesem einen Kabel versorgen kann. Egal ob 100W oder 600W. Da sehe ich den Vorteil. für uns Nutzer. Zuerst war man bei 1x 6p, dann 2x 6p, dann 2x 6+2p...war schon nicht das Gelbe vom Ei. Von seiten Hersteller sinkt zudem die E-BOM, da weniger Stecker verbaut werden müssen.
Das sind doch nur pennies. IMO hast du es mit dem fett markierten am besten getroffen. :D

Daredevil
2022-10-28, 15:12:36
Imo solange es ums zocken geht, benötigt man die Leistung nicht sie ist nur nice to have. Und der 2. Teil ist schlichtweg falsch.

Die Leistungaufnahme ist zwar über die Zeit gestiegen, die Leistungsfähigkeit ist aber um Grössenordnungen schneller gestiegen.
Darum gehts ja, niemand "braucht" diese Leistung. Manche brauchen sie aber und denen sind kosten egal, weil sie es sich leisten können oder damit ggf. Geld verdienen. Ressourcen kosten Geld.
Wenn du Rechenjob xyz erledigen möchtest, brauchst du mehr Strom. Egal ob es 2 GPUs, 60 CPU Kerne oder eine Cloudfarm ist.


Mir ist Preis wichtig, deswegen fallen solche Karten schonmal flach. Hab Strom nachzahlen müssen. Das muss sich nicht unbedingt wiederholen
Wenn dir der Preis wichtig ist, ist es wohl sinnvoll auf KI Upscaling zu setzen, das kostet wenig Ressourcen und du kommst mit einer kleinen Karte auf das nahezu gleiche Ergebnis einer großen. Cloud Gaming ist ebenso eine Alternative mit bekannten Einschränkungen.

Die Karten werden sowieso um ein vielfaches teurer mit der Zeit, da muss der Stromverbrauch nicht auch noch hochgehen.
Du kannst noch mehr Geld zahlen und bekommst bei Apple hocheffiziente Hardware, die AMD und Nvidia hinter sich lässt, da ist die Spieleauswahl aber leider.... nicht gegeben. :D

DrFreaK666
2022-10-28, 15:39:11
...Wenn dir der Preis wichtig ist, ist es wohl sinnvoll auf KI Upscaling zu setzen, das kostet wenig Ressourcen und du kommst mit einer kleinen Karte auf das nahezu gleiche Ergebnis einer großen. Cloud Gaming ist ebenso eine Alternative mit bekannten Einschränkungen...

Cloud ist für mich keine Alternative, aber gegen Upscaling habe ich tatsächlich nichts. Mich reizt auch weniger die 7900XT (also mich interessiert schon was AMD abliefern wird), Nachfolger der 6700XT und 6800 sind eher interessant

Dino-Fossil
2022-10-28, 15:48:54
Wenn man bedenkt, dass nVidia jetzt nochmal neue 3000er Modelle bringt, befürchte ich fast ein wenig, dass diese Generation im Midrange aus einer Menge Alteisen bestehen wird und die neuen Chips eher auf das obere Marktsegmet beschränkt bleiben. Muss natürlich nicht bedeuten, dass AMD das auch so macht (oder nVidia nicht doch einfach nur Restbestände verkloppen will).

basix
2022-10-28, 17:59:37
Eine 600W GPU ist für mich kein Vorteil

Für mich auch nicht. Aber dass ich für alle GPUs das selbe Kabel verwenden kann schon ;) Klar, wäre man bei 300W und 2x 8p geblieben, gäbe es diese Diskussionen gar nicht. Das Gedöhns mit den 6+2p Steckern war aber definitiv umständlicher als jetzt mit dem einzelnen 12VHPWR Stecker. Zum Teil dann 3x 8p auf der GPU und vom Netzteil kommen nur 2x 2*8p welche man nicht trennen kann und das restliche Gelumpe hängt im Gehäuse rum.

Die konkrete technische Ausführung des 12VHPWR Steckers ist ein anderes Thema. Weniger Marge als mit 3-4x 8p hat er sicher. Bei qualitativ guter Umsetzung des Steckers sollte es aber nicht zu einem Fehler kommen. Bei 300W sowieso nicht. Die Leute bei der PCI-SIG sind ja nicht Garagen-Klempner. Das mit den Biegeradien ist aber per se ein schlechter Witz, da benutzerunfreundlich. Aber auch das ist eher eine Frage der Umsetzung und nicht des Stecker-Formats an sich.

Das sind doch nur pennies. IMO hast du es mit dem fett markierten am besten getroffen. :D
Wer den Cent nicht ehrt, ist den Euro nicht Wert ;)

Kosten sind immer relevant, egal wie hoch. Ich sage nicht, dass ich das unterstützte, da oftmals gering im Vergleich mit den gesamten Produktkosten. Ist aber Alltag in der Elektronik-Entwicklung (muss mich selber jeden Tag mit dem rumschlagen).

DrFreaK666
2022-10-28, 19:15:41
Erwartungen vielleicht etwas zurück schrauben

https://abload.de/img/screenshot_20221028_1k1fch.jpg (https://abload.de/image.php?img=screenshot_20221028_1k1fch.jpg)

Linmoum
2022-10-28, 19:20:07
Was soll "theoretische Performance" denn sein? TFLOPs (da sind wir mit den auch von ihm spekulierten Daten übrigens bbei >=3x)? Irgendeine von ihm ausgedachte Zahl/Methrik?

Thomas Gräf
2022-10-28, 19:21:50
Der soll mal lieber Softeis verkaufen gehen...

vinacis_vivids
2022-10-28, 19:25:10
Das war die Antwort auf theoretische "2 x 6900XT" Performance, also eine theoretische Verdopplung der Framerate.
Dass dies nicht in jedem Spiel so sein wird ist wohl klar. Mal gib's mehr, mal gib's weniger je nach Spiel bzw. Engine bzw. Auflösung.

Leider zeigen diese Twitter Leute auch keine Rechnungen mit Zahlen, Skalierungsmetriken und begründen auch nichts.

"2 x 6900XT" Performance ist allerdings eine Konstante, die schon länger spekuliert wird. Angesichts der extrem hohen theoretischen Rechenleistung von ~ 73,73 Tflop/s fp32 ~ 12288SP @ 3,0Ghz ist "2 x 6900XT" also eine durchschnittlich Verdopplung der Framerate schon im erwartbaren Rahmen.

Rampage 2
2022-10-28, 19:45:41
Erwartungen vielleicht etwas zurück schrauben

https://abload.de/img/screenshot_20221028_1k1fch.jpg (https://abload.de/image.php?img=screenshot_20221028_1k1fch.jpg)

Das kann überhaupt nicht stimmen, denn ein voller (48 WGP) N31 @ 3.5GHz hat bereits deutlich mehr als 3x theoretische Rohleistung und rund doppelte Bandbreite (+87,5% vs. 6900XT, +66.7% vs. 6950XT) als ein voller N21 @ 2.5GHz! Was mir eher/wirklich Sorgen macht, ist die "Schlagkraft" pro WGP, da diese selbst (ihre Anzahl) ja anscheinend nicht verdoppelt wurden, sondern lediglich die Anzahl der CUs pro WGP; die WGP-Zahl selbst hat sich nur um 20% erhöht - da befürchte ich einen "Ampere-Effekt" auch bei RDNA3... :sneak:

R2

Gott1337
2022-10-28, 20:07:58
Das war die Antwort auf theoretische "2 x 6900XT" Performance, also eine theoretische Verdopplung der Framerate.
Dass dies nicht in jedem Spiel so sein wird ist wohl klar. Mal gib's mehr, mal gib's weniger je nach Spiel bzw. Engine bzw. Auflösung.

Leider zeigen diese Twitter Leute auch keine Rechnungen mit Zahlen, Skalierungsmetriken und begründen auch nichts.

"2 x 6900XT" Performance ist allerdings eine Konstante, die schon länger spekuliert wird. Angesichts der extrem hohen theoretischen Rechenleistung von ~ 73,73 Tflop/s fp32 ~ 12288SP @ 3,0Ghz ist "2 x 6900XT" also eine durchschnittlich Verdopplung der Framerate schon im erwartbaren Rahmen.
Ich finds krass das RDNA3 kein CPU limit kennt, beeindruckend

DrFreaK666
2022-10-28, 20:13:34
Ich finds krass das RDNA3 kein CPU limit kennt, beeindruckend

Lesen und verstehen!
Mal gib's mehr, mal gib's weniger je nach Spiel bzw. Engine bzw. Auflösung

gedi
2022-10-28, 20:23:36
Lesen und verstehen!

Exakt!

Lehdro
2022-10-28, 20:32:24
Ich finds krass das RDNA3 kein CPU limit kennt, beeindruckend
Man könnte böse sein und behaupten, das überhaupt nur RDNA ein CPU Limit kennt, bei NV rennt ja alles ins Treiberlimit ;)

Badesalz
2022-10-28, 20:42:51
Ja das stimmt sogar. Er schrieb aber auch RDNA3 und nicht RDNA.

OpenVMSwartoll
2022-10-28, 21:21:44
Die Aussage ist weder Fisch noch Fleisch. Theoretisch 2x Performance. Rasterizer oder RT? Welche Auflösung?

vinacis_vivids
2022-10-28, 21:24:13
4K bzw. 2160p ist das Schlachtfeld für Navi31.

Badesalz
2022-10-28, 21:35:25
Obwohl ich mir das schon in 1440 goil vorstellen kann (4090 ja auch). Immer alles komplett auf absoluten Anschlag und es zuckt nichts nicht einmal :tongue:

Iscaran
2022-10-29, 11:35:47
Also, ich hab mir nochmal die Aussage Greymons im Hinblick auf die kolportierten Zahlen angesehen:

The theoretical performance is 2x, but it's not necessarily reflected on the game frame.


Also die TFlops steigen eigentlich deutlich stärker als nur x2.

N31 mit sehr konservativen 2.590 MHz Takt @12.288 Shadern ergibt rechnerischn 63.7 TFlops
N21 liegt bei 5.120 Shader@2.250 MHz Takt bei 23 TFlops

23 => 63.7 = 2.76x

Ja, Greymon hat sicherlich recht, dass die "Strassenleistung" nicht diesem Faktor entsprechen wird. Wörtlich sagt er das ja "eine Verdopplung der theoretischen Flops, ergibt keine Verdopplung der realen Performance", sondern wie wir alle wissen eben 2-x.

Leonidas hat dazu interessanterweise die 4090 ins Feld geführt wo im TimeSpy von +85% Flops nur +70% Leistung rauskommen.

Also aus x1.85 wird x1.7, oder anders ausgerechnet aus x2 wird x1.82

Übertragen wir das nun auf die 2.76x von N31 => 2.76/2*1.82=2.5x

Das wäre dann in 4kIndex umgelegt 348*2.5=870%

Ich denke jedoch der Leistungsverlust wird etwas höher sein als der TimeSpy vergleich.

Andere hier spekulierten ja ein Performance scaling von gar nur 30%

2.76x/2*1.3 = 1.8x => 348*1.8 = 626%

Ich selber würde schätzen dass AMD hier eher um die 60% scaling packen kann.
2.76x/2*1.6 = 2.2x => 348*2.2 = 765%

Im Gesamtbild betrachtet also würde ich meinen die UNTEREN Performanceprognosen von ~626% liegen schon verdammt nah an einer 4090.
Die obersten Performance-Prognosen wären eigentlich zu traumhaft.

Aber
1.) die Theoretischen Leistungszahlen für die obigen Abschätzungen wurden schon SEHR konservativ ausgelegt (nur 2.59 GHz Takt !!! Gerüchte reden ja von >3 GHz)
2.) ein scaling von 60% ist durchaus nicht unrealistisch. Ein Scaling von nur 30% wäre eigentlich Ampere und Ada Niveau, ich kann mir nicht vorstellen, dass AMD so einen "Entwicklungsbruch" hinlegt (betrachtet man sich die Historie von GCN5 zu RDNA1 zu RDNA2)
daher denke ich wird das Scaling hier eher im Bereich von 50-60% liegen.

Also alles in allem betrachtet denke ich wird sich die 4090 warm anziehen müssen.

HOT
2022-10-29, 11:56:33
Ich glaub der meint ganz einfach, nur weil es den Anschein hat, als wäre der N31 doppelt so schnell sein müsste, kommt das eben nicht ganz hin. Statt 2x 6900XT sollte man lieber 1,8x 6900XT erwarten oder sowas.

vinacis_vivids
2022-10-29, 12:02:13
Das kann überhaupt nicht stimmen, denn ein voller (48 WGP) N31 @ 3.5GHz hat bereits deutlich mehr als 3x theoretische Rohleistung und rund doppelte Bandbreite (+87,5% vs. 6900XT, +66.7% vs. 6950XT) als ein voller N21 @ 2.5GHz! Was mir eher/wirklich Sorgen macht, ist die "Schlagkraft" pro WGP, da diese selbst (ihre Anzahl) ja anscheinend nicht verdoppelt wurden, sondern lediglich die Anzahl der CUs pro WGP; die WGP-Zahl selbst hat sich nur um 20% erhöht - da befürchte ich einen "Ampere-Effekt" auch bei RDNA3... :sneak:

R2
RDNA 1 WGP (=2CUs x (64SP + 4TMUs)) ~ 128SP + 8 TMUs + Cache&Mem
RDNA 2 WGP (=2CUs x (64SP + 4TMUs)) ~ 128SP + 8 TMUs + Cache&Mem
RDNA 3 WGP (=2CUs x (128SP + 8TMUs)) ~ 256SP + 16TMUs + Cache&Mem

Die Schlagkraft pro WGP steigt bei RDNA 3 inkl. Takt sehr deutlich. Es ist auch zu erwarten, dass der FCLK ggü. RDNA 2 steigt.

Bei mir stellt sich nur noch die Frage wie der IF$ sich entwickelt (Größe, Granularität, Durchsatz) und welcher Takt bei den WGPs rauskommt. 3,0 oder 3,5Ghz sind ein riesen Unterschied.

Meine Befürchtung ist, dass RDNA 3 zu teuer wird, weil AMD sieht wie NV die Salvage-Chips für 2,3-2,5k € verkauft.

Was die Gerüchte bei Zen4 3D mit dem Zusatzcache (7950X3D) besagen eine krasse Explosion der Leistung. Ist nur die Frage ob der Markt das überhaupt bezahlen kann bzw. bezahlen will.

Iscaran
2022-10-29, 12:08:35
Ich glaub der meint ganz einfach, nur weil es den Anschein hat, als wäre der N31 doppelt so schnell sein müsste, kommt das eben nicht ganz hin. Statt 2x 6900XT sollte man lieber 1,8x 6900XT erwarten oder sowas.

Ja natürlich, nur ist die Rohleistung des N31 eben auch nicht "nur" doppelt so hoch, sondern fast 3x so hoch wie die einer 6900 XT?

Was machst du dann daraus?

1+1 = 2
1+1.75 = 2.75

Wieviel von 2.75 bleibt über?

robbitop
2022-10-29, 12:17:33
Ich denke Performance leaks sind sehr schwierig, weil außerhalb eines kleinen Kreises noch keiner Treiber hat. Entsprechend können die üblichen Leaker nur das was sie eventuell rein methaphorisch hören hinausposaunen. Das Ding in action gesehen werden sie nicht haben.
Specs leaken: glaubwürdig
performance deutlich vor dem launch leaken: wahrschein sehr vage wenn nicht sogar aus der Luft gegriffe oder potenziell falsch.

Kann man IMO komplett ignorieren alles was es zu performance leaks gibt

fondness
2022-10-29, 12:28:49
Ich denke Performance leaks sind sehr schwierig, weil außerhalb eines kleinen Kreises noch keiner Treiber hat. Entsprechend können die üblichen Leaker nur das was sie eventuell rein methaphorisch hören hinausposaunen. Das Ding in action gesehen werden sie nicht haben.
Specs leaken: glaubwürdig
performance deutlich vor dem launch leaken: wahrschein sehr vage wenn nicht sogar aus der Luft gegriffe oder potenziell falsch.

Kann man IMO komplett ignorieren alles was es zu performance leaks gibt

Ich stimme zu. Allerdings denke ich, dass auch bei den specs noch einiges aus der Luft gegriffen ist. Auch wenn jeder glaubt diese seinen schon final. Zumindest das mit den 16 MB 3D-Cache macht keinen Sinn, das Die wäre viel zu klein. Vieles andere wurde abgeschrieben und als Fakt genommen.

robbitop
2022-10-29, 13:10:18
Aber andererseits die Rumors bei der Cachemenge (und dass er stapelbar ist) alle deckungsgleich. Und man erinnere sich an die Rumors vor dem RDNA2 launch. Da hat hier fast jeder gesagt, dass GPU Cache quatsch ist, 128 MiB seien eh zu wenig und das sei ein Unsinn's Gerücht. Und zack trotzdem kam es so. Wer weiß, was sie da geändert haben (höhere Assoziativität der Caches, grundsätzlich cachenormiert höhere Hitrate der uArch usw), um die Hitrate nach oben zu bekommen oder einfach weniger Bandbreitenbedarf haben. Wissen wird man es dann erst nach dem launch und dann erklären sich oftmals Dinge, die vorher als merkwürdig angesehen worden sind. IMO gab es schon genug Dinge, die plötzlich anders waren, die dann aber so kamen. Wenn man lang genug dabei ist, sollte man da schon offen bleiben. :)

Ravenhearth
2022-10-29, 13:28:23
Ja natürlich, nur ist die Rohleistung des N31 eben auch nicht "nur" doppelt so hoch, sondern fast 3x so hoch wie die einer 6900 XT?
Greymon hat noch geschrieben, dass er sich mit den 2x "theoretical performance" nicht auf die Rohleistung bezog, sondern auf Synthies wie 3D Mark.

Also wenn wir davon ausgehen, dass von den 2x noch 1,8x in Spielen übrig bleiben, wird das ein sehr interessantes Duell mit der 4090. Im Mittel aller Benchmarks ist die 4090 in 4K ca. 1,75x so schnell wie die 6950XT. Das könnte also sehr eng werden, bei einigen Reviewern wird wahrscheinlich die 4090 gewinnen, bei anderen die Radeon. In Raster wohlgemerkt.

In RT wird die Geforce vorne liegen, nur wie viel ist die Frage. Vermutlich schwankt N31 hier je nach Spiel im Bereich der 4080 bis 4090, je leichter das RT, desto schneller. "Nur" 3090 Ti-Niveau wird man imo nicht erreichen, das würde man quasi schon durch die 1.8x ohne weitere RT-Verbesserungen schaffen.

Schwer einzuschätzen ist, wie selbstbewusst AMD beim Preis auftritt. Möglich, dass man die XTX für $1199 rausbringt und Nvidia deutlich unterbietet (von den Produktionskosten her könnte man es sich leisten), aber auch denkbar, dass AMD mit $1499 die 4090 nur leicht unterbietet weil man in Raster gleichauf ist. Oder irgendwas dazwischen.

robbitop
2022-10-29, 13:31:38
Noch wissen wir überhaupt nichts von der RT Implementierung von RDNA3. Alles kann, nichts muss. :)

Ravenhearth
2022-10-29, 13:41:19
Das ist richtig, aber imo ist es sehr unrealistisch anzunehmen, dass AMD bei der Implementierung von RT gar nichts verbessert hat, und ebenso, dass man es komplett mit der 4090 aufnehmen kann. Wir können es nicht komplett ausschließen, aber die Wahrscheinlichkeit dafür ist m.E. sehr gering.

fondness
2022-10-29, 13:55:27
Ich finde es immer wieder spannend das jeder schon zu wissen glaubt, dass AMD bei RT sowieso hinten sein wird...einfach weil es schon immer so war. :)
Heißt nicht, dass es nicht so sein kann, aber genausogut könnte AMD auch zumindest völlig aufgeholt haben oder gar überholt haben, wir wissen es nicht.

ChaosTM
2022-10-29, 13:56:21
Eigentlich fast unmöglich, außer die Dinger haben wirklich fantastische "Reifen".
Lang dauerts nimma bis wir es wissen.

fondness
2022-10-29, 13:57:13
Wenn man lang genug dabei ist, sollte man da schon offen bleiben. :)

Das bin ich, deshalb nehme ich die "Leaks" auch noch nicht als Fakt. :)
Allerdings wäre ein 16 MB Cache Die irgendwo bei 10mm², sowas zu bauen würde denke ich nicht soviel Sinn machen. Aber ist natürlich trotzdem möglich :)

fondness
2022-10-29, 14:00:21
Eigentlich fast unmöglich, außer die Dinger haben wirklich fantastische "Reifen".
Lang dauerts nimma bis wir es wissen.

Das Nvidia Marketing leistet offenbar wirklich gute Arbeit. Intel hat es aus dem Stand geschafft bei RT gleichzuziehen, IMG war und ist zumindest technologisch voraus. NV hat hier keinesfalls irgend ein Wunder vollbracht.

Ravenhearth
2022-10-29, 14:10:53
Du hast natürlich recht, aber wenn man keine so hohen Erwartungen hat, wird man auch nicht enttäuscht :freak: Und wenn es besser kommt als gedacht, umso besser.

Ich denke nur, wenn der angebliche Fokus bei RDNA3 auf Area stimmt, wird man bei RT verglichen mit Nvidia vermutlich eher Sparbrötchen backen. Man wird so viel machen, dass man "nah genug" herankommt, aber ohne gleichzuziehen und zu viel Fläche zu verbraten. Ich lasse mich natürlich gerne vom Gegenteil überraschen.

aufkrawall
2022-10-29, 14:14:06
Intel hat es aus dem Stand geschafft bei RT gleichzuziehen
Haben sie bei gleicher Die-Size nicht, die A770 verliert deutlich gegen die 3070.

HOT
2022-10-29, 14:29:49
Ich finde es immer wieder spannend das jeder schon zu wissen glaubt, dass AMD bei RT sowieso hinten sein wird...einfach weil es schon immer so war. :)
Heißt nicht, dass es nicht so sein kann, aber genausogut könnte AMD auch zumindest völlig aufgeholt haben oder gar überholt haben, wir wissen es nicht.
Eines ist auf jeden Fall klar: Die letztendliche RT-Leistung ist eine Entscheidung seitens AMD. Wenn RT jetzt signifikant langsamer als bei Ampere/LL sein sollte, dann ist das ne Entscheidung, die man im Designprozess getroffen hat. Ich glaube das aber nicht, man wird im Designprozess sich schon an Turing orientiert haben und versucht haben, die verhältnismäßige RT-Leistung deutlich zu übertreffen. Mal gucken was dabei rauskommt.

fondness
2022-10-29, 15:08:03
Haben sie bei gleicher Die-Size nicht, die A770 verliert deutlich gegen die 3070.

Ich meinte natürlich rein relativ. Intel verliert nach allem was ich gesehen habe nicht mehr Leistung bei RT wie NV. Das die Arch als solches nicht konkurrenzfähig ist, ist klar.

robbitop
2022-10-29, 15:31:43
Ich finde es immer wieder spannend das jeder schon zu wissen glaubt, dass AMD bei RT sowieso hinten sein wird...einfach weil es schon immer so war. :)
Heißt nicht, dass es nicht so sein kann, aber genausogut könnte AMD auch zumindest völlig aufgeholt haben oder gar überholt haben, wir wissen es nicht.
So ist es. Es kann natürlich sein. Wer aber immer nur aus der Vergangenheit die Zukunft ableiten will, wird immer mal wieder überrascht. Nichts ist statisch...
Am besten ist man IMO aufgestellt, wenn man offen für alle Möglichkeiten bleibt.




-----

Und eins ist Fakt: Special Purpose Hardware ist im jeweiligen Einsatzzweck immer effizienter (Perf/W und Perf/Transistor) als General Purpose Hardware. ;)
Wenn ein IHV sich entscheidet, RT möglichst schnell auf der Hardware zu machen, ist special purpose Hardware der beste Weg.

Gott1337
2022-10-29, 16:40:40
Haben sie bei gleicher Die-Size nicht, die A770 verliert deutlich gegen die 3070.
gibt viele Beispiele wo A770 besser skaliert als Ampere, aber der Chip hat auch deutlich mehr transistoren und ist deren RT ist auch ein Level höher als Amperes

Nightspider
2022-10-29, 17:56:35
Wie war das noch gleich mit Raytracing und Cache?

Profitiert RT von Cache bzw. könnte es sein das Navi31 mit doppeltem IF$ in Raytracing davonzieht?

Für das Marketing würde es ja fast reichen wenn das Spitzenmodell mit der 4090 konkurrieren kann. Wenn die kleineren Karten in RT zurückliegen ist es oft nicht so dramatisch, da die Kunden meist kein Problem haben die Regler mal 1-2 Stufen zurückzudrehen.

OgrEGT
2022-10-29, 20:59:27
Wie groß sind heutige BVH Modelle / Trees und haben diese ggf. einen reservierten Bereich im IF$?

https://www.reddit.com/r/hardware/comments/mg8w8r/how_big_are_bvh_structures_in_ray_traced_games/

zyck_titan
They are megabytes in size, actual size will vary based on the game in question, the number of models in a scene, etc.

Yes you could theoretically fit a BVH into a 64MB cache, but keep in mind you also need that cache for other things, so you're trading one cache occupant for another, it's not a perfect solution, it has definite tradeoffs.
(...)

Wenn ein BVH Modell 64MB groß sein kann und das ggf komplett oder in großen Teilen vorgehalten werden sollte dann wären 192MB IF$ nicht verkehrt...

iamthebear
2022-10-30, 00:05:27
Bei Baumstrukturen ist es nicht zwingend erforderlich die gesamten Daten im Cache zu halten. Selbst wenn man nur die obersten 10% in den Cache bekommt, so hat man bereits einen Großteil der VRAM zugriffe gespart.

Beispiel:
Binärer Baum mit 1 Mio Elementen und 20 Ebenen
Ohne Cache braucht man 20 RAM Zugriffe pro Suchoperation
Cached man nur (die richtigen) 1K der Elemente, so reduziert sich die Zahl auf 10


Auch wenn sich der IF$ in der Theorie stark auswirken kann, glaube ich nicht, dass er das in der Praxis auch tut. Das sieht man z.B. am Vergleich der 6650 XT vs. 6700XT.
CB Raster Rating sind 1.26x, RT Rating is 1.3x. Ich sehe da ehrlich gesagt keinen riesigen Unterschied. Die 1.3x lassen sich auch schon alleine durch die 25% mehr Shader und 50% breiteres SI erklären.

Iscaran
2022-10-30, 14:02:14
Hmmm, hab mir eben nochmal den CB-Test zur 4090 genauer angesehen.
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#diagramm-performancerating-3840-2160-rasterizer-perzentil-fps

Dabei ist in 4k die 4090 +88% schneller als die RX 6900 XT (AMD Default)
Benötigt dazu aber auch im Mittel 432 Watt, die 6900 XT nur 296 Watt
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/3/#abschnitt_leistungsaufnahme_im_detail

Dabei ist die 4090 aber gerade mal "nur" +41% besser in P/W.
https://www.computerbase.de/2022-10/effizienz-und-nachhaltigkeit-am-pc-hardware/#diagramm-performance-pro-watt-bei-maximaler-fps-3840-2160

Nun also:
1.) Wenn AMDs Aussage also zutrifft mit +50% P/W wäre man damit schonmal immer noch besser als nVidia mit der 4090er
2.) Wenn 432 Watt = 640% 4k-Index sind und AMD für 348 % 296 Watt benötigte braucht die 4090 also 0.675 W / Index% und die 6900 XT 0.850 W/ Index%
3.) Mit +50% P/W für RDNA 3 vs RDNA2 => 0.567 W/Index

Um damit 640% Index zu packen wäre also rechnerisch eine Karte mit 363 Watt nötig.

Ist die Effizienz seitens AMDs nur einen "Tick" besser als +50% P/W schauts denke ich ziemlich düster aus für die 4090.


4.) Um mit 300 W auf 640% Index zu gelangen müsste AMD auf 0.469 W/Index kommen.
Das wäre relativ zu den 0.567 W/Index nochmal eine Verbesserung um +20%
bzw. bezogen auf die 6900 XT wäre das eine P/W Sprung um + 80%...
Das wäre definitiv "too much to ask for".

Aber +60% könnten es werden. => 0.850 W / 1.6 = 0.531 W/Index
Damit wären die 640% einer 4090 bei ca 340 Watt zu schaffen.

Complicated
2022-10-30, 14:14:38
Die W/Index sind, ebenso wie W/FPS, nicht mit linearen Prozentsteigerungen extrapolierbar, basierend auf dem Verbrauch. Schau doch selber in den Tests, wie wenig Index/FPS es kostet um 100W weniger zu verbrauchen. Also ist die Umlegung von W/Indexpunkt nicht zulässig. Der Quotient verändert sich bei jedem Wattschritt

Linmoum
2022-10-30, 14:27:38
Dabei ist in 4k die 4090 +88% schneller als die RX 6900 XT (AMD Default)
Benötigt dazu aber auch im Mittel 432 Watt
Nein, die 432W sind nicht irgendein Durchschnittswert, sondern aus Doom Eternal. Also einem einzigen Spiel. Auf dieser Grundlage macht CB auch den Perf/Watt-Index.

Das ist bei CB leider undurchsichtig und wird erst im Detail erkennbar.

Igor hat im Mittel ~371W (A Total War Saga, Anno 1800, CP, FC6, HZD, GotG, ME:EE, R6, SotTR, WD:L, Wolfenstein) für die 4090 gemessen.

nordic_pegasus
2022-10-30, 15:31:22
eFtgEkPWAn4

Jay vermutet sich einen zusammen, dass RDNA3 wegen der Chiplets am Anfang noch Probleme bzgl. Kompabilität mit Anwendungen und Spielen haben wird.

Nach meinem Verständnis wird doch der zentrale GCD sich für den Treiber so verhalten wie ein monolithischer Chip. Bei RDNA2 hat doch der Cache die Recheneinheiten umrahmt, die Speichercontroller sind außen. RDNA3 zieht doch letztlich diese Struktur nur auseinander in separate Chips. Also GCD in der Mitte umrahmt von MCD mit Cache und SI. Der große Sprung wird doch erst kommen, wenn man 2 GCDs verbinden muss... oder verstehe ich das falsch?

Der_Korken
2022-10-30, 15:35:47
Nach meinem Verständnis wird doch der zentrale GCD sich für den Treiber so verhalten wie ein monolithischer Chip. Bei RDNA2 hat doch der Cache die Recheneinheiten umrahmt, die Speichercontroller sind außen. RDNA3 zieht doch letztlich diese Struktur nur auseinander in separate Chips. Also GCD in der Mitte umrahmt von MCD mit Cache und SI. Der große Sprung wird doch erst kommen, wenn man 2 GCDs verbinden muss... oder verstehe ich das falsch?

So verstehe ich das auch.

Lehdro
2022-10-30, 15:38:34
Nein, die 432W sind nicht irgendein Durchschnittswert, sondern aus Doom Eternal. Also einem einzigen Spiel. Auf dieser Grundlage macht CB auch den Perf/Watt-Index.

Das ist bei CB leider undurchsichtig und wird erst im Detail erkennbar.

Igor hat im Mittel ~371W (A Total War Saga, Anno 1800, CP, FC6, HZD, GotG, ME:EE, R6, SotTR, WD:L, Wolfenstein) für die 4090 gemessen.
Das stimmt schon, fairerweise sollte man ein Game (oder besser noch Durchschnitt aus vielen Games) nehmen wo die Leistungssteigerung auch repräsentierbar ist. Also ein Datensatz der im Schnitt genauso skaliert wie man es über die Breite ermitteln würde. Es bringt nix ein Extrembeispiel zu nehmen, wo sowohl Leistungssteigerung als auch der Verbrauch recht hoch sind, als auch das Gegenteil davon, also ein schlecht skalierendes Spiel wo die GPU Däumchen dreht und sich schon im Verbrauch drosseln kann. Ein Game einfach so rauspicken sollte man also vermeiden, ebenso Mittelwerte aus zu wenigen Games.

Meridian12
2022-10-30, 15:41:26
Also im Endeffekt kann die Karte von 4080 16GB Speed bis etwas über 4090 Speed auf den Markt kommen.
Sind somit immer noch nicht schlauer :D

Iscaran
2022-10-30, 16:49:19
Die W/Index sind, ebenso wie W/FPS, nicht mit linearen Prozentsteigerungen extrapolierbar, basierend auf dem Verbrauch.

Ja stimmt natürlich alles.
Aber bei zwei GPUs in ihren "Default" Settings "kann" man sowas schon mal als Maßzahl nehmen. Denn die neuen Chips bedienen ja wiederum ähnliche Segmente und werden wahrscheinlich auch ähnlich auf der P/W Skala "eingestellt" sein.
Soll ja auch nur zur groben Indikation dienen, und zeigt mitnichten, dass eine 4090er hier "alles vernichtet" wie so einige annehmen.
Aber in meinen Augen scheint das nur so zu sein, wegen des Doppelnode Sprunges.
Eigentlich ist die absolute Performance der 4090 eher ziemlich mau.

Bei 2 Node Sprüngen müsste allein von der Fertigung her ein Sprung von >>60-70% kommen.
Dazu eine fast verdoppelte Architektur, Architektur-Verbesserungen usw.

Schaut man sich Ada an ist es FAST nur ein Performance-Wachstum durch Taktzuwachs (fast +50% 4090 vs 3090 Ti !).
Das ganze, inklusive Doppeltem Chip resultiert dann in "mageren" +88% Performance.

Bei GCN 5 (R VII) => RDNA 1 (5700 XT) kamen ja von einem 1/3 KLEINEREN Chip OHNE Node Sprung am Ende dieselbe Performance raus. Und das bei ~300 W vs 225 W. Also P/W + 50% ohne Fertigung usw.

vinacis_vivids
2022-10-30, 17:43:09
Genauso geil ist diese Entwicklung:

https://abload.de/img/amduarchclocksvyjh1.png

Mich freut es vor allen, dass AMD innerhalb einer Node, bei 7nm von ~1,7Ghz auf ~2,0Ghz, dann auf 2,5Ghz hochtakten kann. Diese Leistung ist unvergleichbar. Mit dem 7nm refresh 6nm bei knapp ~3,0Ghz.

Bei 5nm gehe ich von der Skalierung 3,0Ghz (Release 1) -> 3,3Ghz (Refresh) -> 3,7Ghz (kleiner Chip) aus. Besser als ein Schweizer Uhrwerk :tongue:

decimad2
2022-10-30, 17:58:34
253 Seiten und kein Infogewinn :) Bis Donnerstag geht noch die 300!

Adam D.
2022-10-30, 18:11:48
253 Seiten und kein Infogewinn :) Bis Donnerstag geht noch die 300!
Man kann auf Vieles hier pfeifen, aber ganz ehrlich: Einfach hier nicht reingucken und so einen dummen Spruch ablassen - wir sind hier im Spekulationsforum.

robbitop
2022-10-30, 19:22:34
https://youtu.be/eFtgEkPWAn4

Jay vermutet sich einen zusammen, dass RDNA3 wegen der Chiplets am Anfang noch Probleme bzgl. Kompabilität mit Anwendungen und Spielen haben wird.

Nach meinem Verständnis wird doch der zentrale GCD sich für den Treiber so verhalten wie ein monolithischer Chip. Bei RDNA2 hat doch der Cache die Recheneinheiten umrahmt, die Speichercontroller sind außen. RDNA3 zieht doch letztlich diese Struktur nur auseinander in separate Chips. Also GCD in der Mitte umrahmt von MCD mit Cache und SI. Der große Sprung wird doch erst kommen, wenn man 2 GCDs verbinden muss... oder verstehe ich das falsch?
Der Typ hat null Ahnung. Dank youtube kann jeder Dummschwätzer irgendwas verbrauchen. Das ganze funktioniert natürlich transparent zur Anwendung. Deshalb wird es nie Kompatibilitätsprobleme geben.

iamthebear
2022-10-30, 20:06:58
Wo sollen mit 1 GCD die Kompatibilitätsprobleme herkommen? Das läuft genauso transparent als es Vega mit HBM tat.

Was die 50% Performance/Watt angeht:

In der Regel kann man bei jeder GPU den Energieverbrauch um ca. 1/3 senken und verliert dabei um die 10% Performance.
50% Performance/Watt können also bedeuten:
a) 50% mehr Performqnce bei selben Energieverbrauch.
b) 10% mehr Performance bei selben Energieverbrauch. Und danach taktet man die Karte 10% runter um auf die +50% Performance/Watt zu kommen

Von daher halte ich von dieser Metrik relativ wenig.

vinacis_vivids
2022-10-30, 20:40:38
Perf/Watt ist Effizienz = Ergebnis / Aufwand und ist somit eine wesentliche Metrik in der Industrie, unabhängig von deiner Meinung ;-)

Nightspider
2022-10-30, 20:46:39
Nur noch bis Donnerstag warten. :ucatch:

Und dann müssen wir nochmal 2 Jahre warten bis die erste (?) richtige Multi-GPU Grafikkarte kommt.

Ich hätte aber auch nix gegen einen Midlife Kicker mit größerem GCD in 4nm. :devil:

400mm² in N4 dürften in einem Jahr auch schon relativ günstig produzierbar sein und würde seine Käufer finden.

bbott
2022-10-30, 20:53:00
Wo sollen mit 1 GCD die Kompatibilitätsprobleme herkommen? Das läuft genauso transparent als es Vega mit HBM tat.

Was die 50% Performance/Watt angeht:


1. Er ist auf dem falschen Dampfer und braucht wohl Klicks.
2. Die 50% sollten schon größten teils durch N7->N5 kommen (~30%)

Ich hatte die ~50% alleine durch die Architektur Änderungen angenommen, mal sehen was Anfang Nov herauskommt.

Zumal sich AMD bewusst sein sollte, das R6000 vs. RX3000 AMD einen Fertigung Vorteil hatte und davon ausgehen musst, dass dieser in dieser Generation wegfällt und somit dies über Verbesserung am Chip komensiert werden muss, zuzüglich Verbesserungen seitens NV.
Wobei diese bei der NV 4000 Gen bei Rastering nicht vorhanden ist (alleine durch mehr Recheneinheiten, Takt und keine IPC Verbesserung) und bei Raytracing nur bedingt vorzeigbar sind (Software Support notwendig).

HOT
2022-10-30, 21:38:02
Nur noch bis Donnerstag warten. :ucatch:

Und dann müssen wir nochmal 2 Jahre warten bis die erste (?) richtige Multi-GPU Grafikkarte kommt.

Ich hätte aber auch nix gegen einen Midlife Kicker mit größerem GCD in 4nm. :devil:

400mm² in N4 dürften in einem Jahr auch schon relativ günstig produzierbar sein und würde seine Käufer finden.

Ob N4 oder N5P spielt eh keine Rolle.

iamthebear
2022-10-30, 22:22:14
Die 50% sollten schon größten teils durch N7->N5 kommen (~30%)

Ich hatte die ~50% alleine durch die Architektur Änderungen angenommen, mal sehen was Anfang Nov herauskommt.

Woher kommst du zu der Annahme, dass es weitere Verbesserungen der Energieeffizienz über die Architektur geben soll? Für mich sieht es eher so aus als wäre der Fokus darauf gelegt worden die GCDs möglichst kompakt zu halten.

Ich denke, dass die 50% Performance/Watt von AMD etwas zu wörtlich genommen wurden. Ich vermute, dass dies nur im Idealfall zutreffen wird je nachdem welche Modelle man vergleicht und dass der reale Durchschnitt eher um die 30% liegen wird, genauso wie es mit RDNA und RDNA2 auch schon der Fall war. Da wurden die 50% auch nicht durchgehend eingehalten.

vinacis_vivids
2022-10-30, 22:35:47
Klar wurden ~50% Performace/Watt eingehalten im Rahmen der Messtoleranz und bei breiter Auswahl der Spiele.

Badesalz
2022-10-30, 22:48:48
Ich denke, dass die 50% Performance/Watt von AMD etwas zu wörtlich genommen wurden. Ich vermute, dass dies nur im Idealfall zutreffen wird je nachdem welche Modelle man vergleicht und dass der reale Durchschnitt eher um die 30% liegen wird, genauso wie es mit RDNA und RDNA2 auch schon der Fall war. Da wurden die 50% auch nicht durchgehend eingehalten.
Ich sehe hier keine Spielräume dafür. Wenn man ">50%" schreibt, dann darf man in 2 Fällen pro 20 drunter liegen. Das was du meinst wäre "~50%".

Mit >50% und deiner Vorhersage würde man sich zum Gespött machen. Da Raja jetzt woanders ist derartiges zu tun nehme ich einfach so an, als gegeben, daß Lisa solchen Schwachsinn nicht (mehr) mitmacht.

bbott
2022-10-30, 23:15:07
Woher kommst du zu der Annahme, dass es weitere Verbesserungen der Energieeffizienz über die Architektur geben soll? Für mich sieht es eher so aus als wäre der Fokus darauf gelegt worden die GCDs möglichst kompakt zu halten.

Ich denke, dass die 50% Performance/Watt von AMD etwas zu wörtlich genommen wurden. Ich vermute, dass dies nur im Idealfall zutreffen wird je nachdem welche Modelle man vergleicht und dass der reale Durchschnitt eher um die 30% liegen wird, genauso wie es mit RDNA und RDNA2 auch schon der Fall war. Da wurden die 50% auch nicht durchgehend eingehalten.

Aus diversen Gründen unter andrem hat AMD offiziell gesagt, dass die Node Sprünge immer kleiner werden bzw. zu klein werden und man Verbesserungen vorwiegend durch Architektur Verbesserungen. Damit die Sprünge im vergleich zum Vorgänger groß genug bleiben.

Auch soll RDNA 3 alte Zöpfe abschneiden, was meist du was AMD mit den "frei werdenden" Transistoren machen wird?!

Die R6000 wurden auch nicht im Sweetspot betreiben ;)

Badesalz
2022-10-30, 23:18:15
Was gab es denn bei RDNA2 für alte Zöpfe? 2D-Beschleunigung für Win7?(?)

Aus diversen Gründen unter andrem hat AMD offiziell gesagt, dass die Node Sprünge immer kleiner werden bzw. zu klein werden und man Verbesserungen vorwiegend durch Architektur Verbesserungen. Damit die Sprünge im vergleich zum Vorgänger groß genug bleiben.Ich warte auf sowas leider vergebens bei den CPUs. Wodurch die ganzen .NET&Co. Deppen sich endlich Gedanken machen würden wie man vernünftig programmiert...

Neurosphere
2022-10-31, 00:05:09
Aus diversen Gründen unter andrem hat AMD offiziell gesagt, dass die Node Sprünge immer kleiner werden bzw. zu klein werden und man Verbesserungen vorwiegend durch Architektur Verbesserungen. Damit die Sprünge im vergleich zum Vorgänger groß genug bleiben.

Auch soll RDNA 3 alte Zöpfe abschneiden, was meist du was AMD mit den "frei werdenden" Transistoren machen wird?!

Die R6000 wurden auch nicht im Sweetspot betreiben ;)

Was will man da eigentlich alles wegnehmen? Ist ja nicht so das die Transistoren da ohne Grund reingekommen sind in der Vergangenheit und Funktionen im Zweifelsfall dann emuliert werden müssen was nicht nur Vorteile hat.

iamthebear
2022-10-31, 00:52:37
Ich sehe hier keine Spielräume dafür. Wenn man ">50%" schreibt, dann darf man in 2 Fällen pro 20 drunter liegen. Das was du meinst wäre "~50%".

Muss man nicht. Man muss nur einen speziellen Benchmark gemacht haben, in dem es 51% sind.

Mit >50% und deiner Vorhersage würde man sich zum Gespött machen. Da Raja jetzt woanders ist derartiges zu tun nehme ich einfach so an, als gegeben, daß Lisa solchen Schwachsinn nicht (mehr) mitmacht.

Raja war bei RDNA und RDNA2 auch schon lange nicht mehr da.

Klar wurden ~50% Performace/Watt eingehalten im Rahmen der Messtoleranz und bei breiter Auswahl der Spiele.

Wurde es nur dann wenn du dir die richtigen Karten für deinen Vergleich heraus pickst.

Eine niedrig getaktete 6800 vs. hoch getaktete 5700 XT hat 50% mehr Performance/Watt. Bei einer hoch getakteten 6650 XT vs. moderat getaktete 5600 XT sind es aber gerade mal 10%.

Selbes Beispiel mit RDNA vs. GCN:
5700 XT vs. Vega64 hat tatsächlich 60% mehr Performance/Watt
5700 XT vs. Radeon VII sind gerade mal 26%

Auch soll RDNA 3 alte Zöpfe abschneiden, was meist du was AMD mit den "frei werdenden" Transistoren machen wird?!

Kleinere GCDs um die Margen etwas aufzubessern.
Was

Die R6000 wurden auch nicht im Sweetspot betreiben ;)

Keine Desktop GPU wird im Sweetspot betrieben. Aber 6800-6900 XT waren schon deutlich näher dran als noch die 5700 XT, die noch mit 1.2V geprügelt wurde.

Was gab es denn bei RDNA2 für alte Zöpfe? 2D-Beschleunigung für Win7?(?)

Man braucht sich nur Navi24 ansehen. Dann weiß man schon in welche Richtung es geht:
Keine Media Engine
Nur 4 PCIe Lanes
Ich denke nicht, dass es bei RDNA2 so viele Zöpfe gibt, die gar niemand vermissen wird. Es wird halt das kleinere Übel sein.

Ich warte auf sowas leider vergebens bei den CPUs. Wodurch die ganzen .NET&Co. Deppen sich endlich Gedanken machen würden wie man vernünftig programmiert...

Also ich weiß nicht wie viel Software du schon für Kunden geschrieben hast. Bei mir als ".NET Depp" sind es mittlerweile um die 15 Jahre und in meinem Umfeld sieht es so aus:
.) Bei 95% des Codes ist es vollkommen irrelevant ob der Code nun performant ist oder nicht, da für den Anwender nicht feststellbar.
.) Bei den restlichen 5% kann man sich die Frage stellen, ob eine Optimierung die Arbeit Wert ist abgesehen von ein paar low hanging fruits.
Aber die traurige Realität ist, dass Entwicklerstunden teuer sind und man vom Kunden keinen Cent mehr bekommt nur weil ein Button vielleicht etwas flüssiger reagiert.

Aber das Ganze geht etwas am Thema vorbei denn "Zöpfe abschneiden im CPU Bereich" hat in der Regel absolut nichts mit performanter Programmierung zu tun, sondern damit, ob 20 Jahre alte Anwendungen noch laufen. Und nennenswert Transistoren kann man damit sowieso nicht sparen.

robbitop
2022-10-31, 07:15:52
Eine uArch braucht gute 3-5 Jahre. Natürlich war Raja über weite Teile der RDNA Entwicklung noch bei AMD.

Was die Entschlackung von RDNA3 angeht: man erfindet oftmals das Rad nicht neu. Sehr wahrscheinlich gibt es einiges an Implementierungsbestandteilen, was man immer weiter verwendet. Und wenn man sich an Jim Keller und das Interview mit ihm erinnert. Alle ~ 5 Jahre macht es Sinn, Dinge komplett zu hinterfragen und neu zu machen. Aufgrund neu gewonnener Erkenntnisse in dem Zeitraum und auch Paradigmenwechseln. Entsprechend kann es schon sein, dass man viele Details, die man auf den Blockschaltbildern (weil high level und weil sehr oberflächlich) nicht sieht, bei einem rewrite dann deutlich besser werden als zuvor. Ähnliches hat man mit Zen 3 auch gemacht - der ja auf den Blockschaltbildern kaum groß anders aussah als Zen 2 aber in der Implementierung selbst wohl einiges an rewrites hatte.

Abwarten - ich kann mir das aber schon vorstellen, dass man damit einiges erreichen kann. WGPs die mehr Durchsatz schaffen aber nicht größer als die alten sind.

mironicus
2022-10-31, 08:03:21
Eine 6900XT erreicht bereits knapp 10000 Punkte bei Port Royale. Eine 4090 schafft da 25000 Punkte. Bei einer Verdoppelung der RT-Leistung wären dann wohl über 20000 Punkte bei der 7900XT drin.

OgrEGT
2022-10-31, 08:14:01
https://videocardz.com/newz/amd-radeon-rx-7900-graphics-card-has-been-pictured-two-8-pin-power-connectors-confirmed
AMD Radeon RX 7900 graphics card has been pictured, two 8-pin power connectors confirmed

mironicus
2022-10-31, 08:17:51
Nur zwei 8 Pin? Da geht einem ja gleich das Herz auf. :)

horn 12
2022-10-31, 08:25:16
Ja, schlussendlich verbraucht Navi 31 weniger als RDNA 2
Nur 2,5 bis 2,75 Slot Design,
Länge unter 300mm
und deutlich mehr Kühlrippen und dies sieht alles für "ProtoType" bereits sehr gut aus.

Wenn man in die Nähe von 4090 kommt und jene für 250 - 300 Dollar unterbietet hat Nvidia auf Ganzer Linie verloren.

mironicus
2022-10-31, 08:32:56
Die Karte dürfte auch insgesamt deutlich günstiger zu produzieren sein im Vergleich zu einer 4090.

horn 12
2022-10-31, 08:41:10
1199 bis 1249 Dollar bei 115% Rasterizen Leistung
und 85% RayTraying Leistung wäre schon eine Ansage!

Zudem Leichter Kühlbar, Weniger klobig,- Stromverbrauch enorm gut
und einfach ein Runderes Produkt vor Allem auch wegen der 8 Pin Stecker und nicht dem Desaster von Nvidia

RoNsOn Xs
2022-10-31, 08:49:26
Die Karte dürfte auch insgesamt deutlich günstiger zu produzieren sein im Vergleich zu einer 4090.
Was letztlich nur mehr Marge bedeutet und keine besseren Preise für Consumer.

Gipsel
2022-10-31, 08:59:29
Woher kommst du zu der Annahme, dass es weitere Verbesserungen der Energieeffizienz über die Architektur geben soll?Du meinst, außer den mehrfachen Statements von AMD dazu? :wink:

https://abload.de/img/1666739556802c1fbm.png

In der Liste sind 5 Punkte aufgeführt. 3 bis 4 davon betreffen die Architektur.

Badesalz
2022-10-31, 09:10:21
Was letztlich nur mehr Marge bedeutet und keine besseren Preise für Consumer.Wenn AMD sich eng an die RT40 Preise hält, kaufen die Leute RT40. Auch hatte man noch genug Zeit sich das nach Zen4 genauer zu überlegen.

Wenn ich mir die Leistung und die Preise der M210pcie gegenüber der H100pcie anschaue... Wollen wir mal hoffen :tongue:

HOT
2022-10-31, 09:11:57
Denke auch, die Preise werden deutlich unter NV rangieren.

Rolsch
2022-10-31, 09:12:13
Ich tippe mal die 4090 bleibt außer Reichweite und es wird bei den 50% Zuwachs bleiben. Man wird sich als Effizienzmonster präsentieren, eine Rechnung die durchaus aufgehen könnte.

Badesalz
2022-10-31, 09:14:58
Das schöne für AMD ist grad, daß für einen Erfolg der Serie keiner so wirklich voraussetzt oder verlangt, man muss dann schon auch mit der 4090 Kopf an Kopf laufen.

Dieser "Halo" PR-Schwachsinn hat wirklich keine reale Grundlage. Jedenfalls nicht bei x86 CPUs und nicht bei GPUs. Auch die gewöhnlichen Normalos als Kundschaft kennen die jeweiligen ZWEI Akteure relativ gut.
Falls es heißen würde, AMD hat auf NV nochmals und das noch stärker verkürzt, ist das Halo genug. Das wird das Interesse der wirtschaftlich relevanten Segmente aufs Neue wecken.

Falls sie es hinbekommen. Ergo nicht nur mit dem N31.

horn 12
2022-10-31, 09:31:20
Es sollen wohl knapp 65% Watt/Performance sein
also hat Lisa Su alles wieder extrem tiefgestapelt und Donnerstag sollte man es genau wissen.

dargo
2022-10-31, 09:31:21
https://videocardz.com/newz/amd-radeon-rx-7900-graphics-card-has-been-pictured-two-8-pin-power-connectors-confirmed
AMD Radeon RX 7900 graphics card has been pictured, two 8-pin power connectors confirmed
:up:

Viele Customs werden eh auf 3x 8 Pin gehen weil sie wieder hirnverbrannte PTs setzen. Aber Hauptsache die Referenz bekommt zwei. Schon mal gutes Zeichen bezüglich Verbrauch.

Es sollen wohl knapp 65% Watt/Performance sein
also hat Lisa Su alles wieder extrem tiefgestapelt und Donnerstag sollte man es genau wissen.
Das ist u.a. das was ich so sehr bei diesem CEO mag. :D

Linmoum
2022-10-31, 09:32:36
AMD hatte schon mit RDNA2 im Vergleich zu vorher gewaltig verkürzt. Bei Raster grob Gleichstand, nachdem man vorher nur die 5700XT hatte, bei RT von Null auf bis zu ~3070-Performance. Gebracht hat es trotzdem nichts, obwohl man deutlich günstiger war und auch aktuell ist.

Halo-Produkte haben nun einmal Einfluss und den nicht zu knapp.

unl34shed
2022-10-31, 09:36:17
Es sollen wohl knapp 65% Watt/Performance sein
also hat Lisa Su alles wieder extrem tiefgestapelt und Donnerstag sollte man es genau wissen.

Sind +50% Perf/W nicht 100/150=66% Watt/Performance :confused:

Platos
2022-10-31, 09:42:51
Sind +50% Perf/W nicht 100/150=66% Watt/Performance :confused:

So ist es.

Ist genau das selbe, nur anders ausgedrückt.

Badesalz
2022-10-31, 09:43:59
AMD hatte schon mit RDNA2 im Vergleich zu vorher gewaltig verkürzt. Bei Raster grob Gleichstand, nachdem man vorher nur die 5700XT hatte, bei RT von Null auf bis zu ~3070-Performance. Gebracht hat es trotzdem nichts, obwohl man deutlich günstiger war und auch aktuell ist.
Im Gegensatz zu den kolportierten 20% von irgendeinem globalen Gesamtmarkt (?) liegt AMD bei den Leuten die sich die PCs selbst bauen wohl bei 40%. Hab ich jedenfalls noch letztens irgendwo gelesen. Das find ich jetzt nicht so mager.

Halo-Produkte haben nun einmal Einfluss und den nicht zu knapp.Nochmal. Nicht wenn du immer nur 2 Hersteller hast und der Consumer beide relativ gut kennt. Der Rest ist Fanboyismus in einer Forenblase.

robbitop
2022-10-31, 10:00:22
Das schöne für AMD ist grad, daß für einen Erfolg der Serie keiner so wirklich voraussetzt oder verlangt, man muss dann schon auch mit der 4090 Kopf an Kopf laufen.

Dieser "Halo" PR-Schwachsinn hat wirklich keine reale Grundlage. Jedenfalls nicht bei x86 CPUs und nicht bei GPUs. Auch die gewöhnlichen Normalos als Kundschaft kennen die jeweiligen ZWEI Akteure relativ gut.
Falls es heißen würde, AMD hat auf NV nochmals und das noch stärker verkürzt, ist das Halo genug. Das wird das Interesse der wirtschaftlich relevanten Segmente aufs Neue wecken.

Falls sie es hinbekommen. Ergo nicht nur mit dem N31.
Ich halte das mit dem „halo Produkte sind Schwachsinn“ für eine leere Aussage, weil das nicht durch dich belegt wurde und weil auch viele Indizien dagegen sprechen. Einfach das nur zu negieren ist viel zu dünn.

Die Marke „Geforce“ ist aus einer Summe vieler Einzelbausteine so stark. Ein nicht Unwesentlicher ist sicherlich Performanceleadership. Das kommt ggf nicht an jeden Konsumenten aber an die Meinungsmultiplikatoren, worüber sich über die Zeit ein „Ruf“ aufbaut. Die Reviews beeinflussen auch die Leute bei Bestbuy, Mediamarkt und auch den OEMs die dann eben entsprechende Empfehlung aussprechen.

Wenn das Top Produkt irrelevant wäre könnte man es auch weglassen und nur volumenstarke Modelle bringen. Ich finde es sehr auffällig wie wichtig Nvidia die Performanceleadership auch im Topsegment ist. Was da für Handstände gemacht werden.



Halo-Produkte haben nun einmal Einfluss und den nicht zu knapp.

Zumindest einen gewissen Einfluss vermute ich da auch. AMD hat eine ganze Weile als sie unter Kapital und Resourcenknappheit litten nur midrange und low end hergestellt und als man wieder die Möglichkeit hatte, hat man wieder high end gemacht. Allerdings hilft high end nur wenn man komplett wettbewerbsfähig ist und muss das auch eine ganze Weile so halten können damit der Ruf sich nach und nach aufbauen kann.

iamthebear
2022-10-31, 10:03:44
Eine uArch braucht gute 3-5 Jahre. Natürlich war Raja über weite Teile der RDNA Entwicklung noch bei AMD.

Klar war Raja bei der Entwicklung dabei. Aber die Folien mit "50% mehr Perf9rmance/Watt" hat nicht mehr er präsentiert.

Was die Entschlackung von RDNA3 angeht: man erfindet oftmals das Rad nicht neu. Sehr wahrscheinlich gibt es einiges an Implementierungsbestandteilen, was man immer weiter verwendet. Und wenn man sich an Jim Keller und das Interview mit ihm erinnert. Alle ~ 5 Jahre macht es Sinn, Dinge komplett zu hinterfragen und neu zu machen. Aufgrund neu gewonnener Erkenntnisse in dem Zeitraum und auch Paradigmenwechseln. Entsprechend kann es schon sein, dass man viele Details, die man auf den Blockschaltbildern (weil high level und weil sehr oberflächlich) nicht sieht, bei einem rewrite dann deutlich besser werden als zuvor. Ähnliches hat man mit Zen 3 auch gemacht - der ja auf den Blockschaltbildern kaum groß anders aussah als Zen 2 aber in der Implementierung selbst wohl einiges an rewrites hatte.[nquote]

Wenn ich mich richtig erinnere meinte er alle 10 Jahre wird alles neu gemacht, man sollte es aber alle 5 Jahre tun.
Ich frage mich allerdings ob sich das auch 1:1 so auf GPUs übertragen kann. Bei CPUs steigt mit jedem Shrink das Transistorbudget pro Kern wodurch sich die Voraussetzungen relativ stark ändern.
Bei GPUs hingegen kann man leichter den faulen Weg gehen und ohne viele Änderungen die Anzahl der Shader erhöhen.

[QUOTE=Gipsel;13154006]In der Liste sind 5 Punkte aufgeführt. 3 bis 4 davon betreffen die Architektur.

Also ich würde das eher als Geschwafel einstufen. Oder erklär mir mal wie "Advanced chiplet packaging" die Energieeffizienz senken soll besonders wenn dadurch die MCDs nur N6 sind.

Wenn AMD sich eng an die RT40 Preise hält, kaufen die Leute RT40. Auch hatte man noch genug Zeit sich das nach Zen4 genauer zu überlegen.

Kommt darauf an, ob es die Nvidia Karten auch um den UVP zu kaufen gibt. Wenn es die 4090 ab 2000$ zu kaufen gibt und die 7900 XTX um 1600$ bei gleicher Performance greifen die Leute zu AMD.

robbitop
2022-10-31, 10:09:55
Naja wenn AMD es wirklich gelingt die CUs deutlich stärker zu machen ohne dass sie mehr Transistoren haben, ist das bei der Vielzahl der CUs sehr wohl wichtig und sinnvoll. Wie eine gebliatete GPU aussieht sehen wir ja an AD102. 2,7x Transistoren für deutlich weniger speedup. Bis dato hat man es aber immer geschafft Transistoren zu einer besseren ratio in Performance umzuwandeln.

Wenn das mit der RDNA3 Entschlackung stimmt könnte es zu einer ähnlichen Situation wie 2009 führen: Der fette GT200 wird nur im Vollausbau vom valuechip rv770 nicht ganz eingeholt. Letzterer war deutlich kleiner, halbe SI breite und sparsamer. Und alle haben sich gewundert, wie AMD 2,5x Executionunits bei rv770 einbauen konnte mit so wenig Transistoren (nur grob 32% mehr Transistoren).

prinz_valium_2
2022-10-31, 10:12:50
Bei den CPUs ging es easy.
Performance Leadership bei geringerem Preis.

Das muss AMD auch bei den GPUs liefern.
Der Rest kommt dann von ganz alleine.

Gipsel
2022-10-31, 10:14:38
Woher kommst du zu der Annahme, dass es weitere Verbesserungen der Energieeffizienz über die Architektur geben soll?Du meinst, außer den mehrfachen Statements von AMD dazu? :wink:

https://abload.de/img/1666739556802c1fbm.png

In der Liste sind 5 Punkte aufgeführt. 3 bis 4 davon betreffen die Architektur.Also ich würde das eher als Geschwafel einstufen. Oder erklär mir mal wie "Advanced chiplet packaging" die Energieeffizienz senken soll besonders wenn dadurch die MCDs nur N6 sind.Geschwafels seitens Dir: Check. ;)

Zuerst solltest Du akzeptieren, daß in der Liste mindestens 3 architekturbezogende Änderungen (Chiplets waren die "bis 4") genannt sind, die sich auf die Energieeffizienz auswirken (danach hattest Du gefragt bzw. bezweifelt, daß es die gibt).

Und zu den Chiplets hat sich AMD schon so oft geäußert (vielleicht nicht spezifisch zu RDNA3, aber die Aussagen dazu sind übertragbar), daß man davon zumindest mal gehört haben sollte. Kurz: Kleinere Chiplets verbessern nicht nur Yield sondern auch das Binning (es sind mehr hoch taktende top-bin Dies verfügbar bzw. mehr Dies, die dies bei einem bestimmten Powertarget schaffen). Zusätzlich können optimierte Prozesse der einzelnen Dies so gewählt werden, daß die Performance oder auch der Verbrauch in einem gegebenen Kostenrahmen optimiert wird (analoges IO hat z.B. andere Ansprüche an den Prozeß als Digitallogik). Was davon genau eine Rolle bei RDNA3 spielen wird, darfst Du gerne raten. Es ist aber ein valider Punkt in der Liste.

robbitop
2022-10-31, 10:16:37
Bei den CPUs ging es easy.
Performance Leadership bei geringerem Preis.

Das muss AMD auch bei den GPUs liefern.
Der Rest kommt dann von ganz alleine.



Bei CPUs ging es nur „easy“ weil Intel gleichzeit Prozessprobleme hatte und auch weggepennt ist ohne Wettbewerber. Der damalige CEO war ein Bohnenzähler (bwler) und hat primär nur noch kosten/margenoptimierung betrieben statt Innovationen zu treiben.
Das hat Nvidia nie gemacht.

Auch ist Software bei GPUs noch eine zusätzliche Herausforderung. Die Treiber müssen top optimiert sein (was AMD ja erst seit kurzem so richtig geschafft hat - d3d11 rewrite, ogl rewrite, viel mehr Zuverlässigkeit) und die ganzen Features um sich abzusetzen (shadowplay, gsync, dlss, rtx voice uswusf) wo AMD den Anschein macht primär zu reagieren anstatt die Initiative zu ergreifen. Das muss noch deutlich besser werden.

Linmoum
2022-10-31, 10:17:27
Kommt darauf an, ob es die Nvidia Karten auch um den UVP zu kaufen gibt. Wenn es die 4090 ab 2000$ zu kaufen gibt und die 7900 XTX um 1600$ bei gleicher Performance greifen die Leute zu AMD.Wenn das so einfach wäre, hätten die Leute das schon bei der 6900XT vs. 3090 getan. Da lag der Preisunterschied sogar bei $500. Die Leute haben trotzdem mehrheitlich zur 3090 gegriffen.

Wie gesagt, ich würde das Branding bzw. den Halo-Faktor echt nicht unterschätzen. Egal ob bei unwissenden MM-Bernds oder Nerds.

robbitop
2022-10-31, 10:19:48
Brand recognition ist so unglaublich wichtig. Sieht man bei jeder Marke die das dann in Marge umwandeln kann. Coca Cola, Adidas, Apple, BMW usw.
Und das ist schwierig aufzubauen. Me too Produkte die einfach nur günstiger sind reichen da nicht.

robbitop
2022-10-31, 10:24:08
Geschwafels seitens Dir: Check. ;)

Zuerst solltest Du akzeptieren, daß in der Liste mindestens 3 architekturbezogende Änderungen (Chiplets waren die "bis 4") genannt sind, die sich auf die Energieeffizienz auswirken (danach hattest Du gefragt bzw. bezweifelt, daß es die gibt).

Und zu den Chiplets hat sich AMD schon so oft geäußert (vielleicht nicht spezifisch zu RDNA3, aber die Aussagen dazu sind übertragbar), daß man davon zumindest mal gehört haben sollte. Kurz: Kleinere Chiplets verbessern nicht nur Yield sondern auch das Binning (es sind mehr hoch taktende top-bin Dies verfügbar bzw. mehr Dies, die dies bei einem bestimmten Powertarget schaffen). Zusätzlich können optimierte Prozesse der einzelnen Dies so gewählt werden, daß die Performance oder auch der Verbrauch in einem gegebenen Kostenrahmen optimiert wird (analoges IO hat z.B. andere Ansprüche an den Prozeß als Digitallogik). Was davon genau eine Rolle bei RDNA3 spielen wird, darfst Du gerne raten. Es ist aber ein valider Punkt in der Liste.
Wie gewohnt ein Post mit Substanz und guten Argumenten :up:
Das mit dem binning und den optimierten Prozessen bezogen auf die jeweiligen Funktionen macht total Sinn und hatte ich auch noch nicht bedacht. :)

Platos
2022-10-31, 10:30:26
Wenn das so einfach wäre, hätten die Leute das schon bei der 6900XT vs. 3090 getan. Da lag der Preisunterschied sogar bei $500. Die Leute haben trotzdem mehrheitlich zur 3090 gegriffen.

Wie gesagt, ich würde das Branding bzw. den Halo-Faktor echt nicht unterschätzen. Egal ob bei unwissenden MM-Bernds oder Nerds.

Das lag primär daran, dass die 3090 50% mehr Speicher hatte, sie schneller war und DLSS 2.0 hatte (damals gabs noch nichts von AMD).

Preise zählen bei Top-Dog nur zweitrangig. Käufer solcher Karten schauen nicht aufs P/L, ansonsten hätten sie gar keine der beiden Karten gekauft.

Jetzt ist es so, dass nvidia DLSS 3.0 hat und AMD nur FSR 2.0. Für viele wird das ein Argument sein. RT wird vlt. auch besser sein, mal sehen. Also AMD gleichwertig und günstiger gabs nie an der Spitze die letzten x Jahre.

Wenn AMD an der Spitze wirklich mal gleichwertig wäre und günstiger, dann würden selbstverständlich deutlich mehr AMD kaufen. Das war nur nie der Fall die letzten Jahre.

Neurosphere
2022-10-31, 10:33:27
Ich könnte mir vorstellen das die XTX nicht bei 2*8 Pin bleibt, warten wir's ab.

Troyan
2022-10-31, 10:34:52
Naja wenn AMD es wirklich gelingt die CUs deutlich stärker zu machen ohne dass sie mehr Transistoren haben, ist das bei der Vielzahl der CUs sehr wohl wichtig und sinnvoll. Wie eine gebliatete GPU aussieht sehen wir ja an AD102. 2,7x Transistoren für deutlich weniger speedup. Bis dato hat man es aber immer geschafft Transistoren zu einer besseren ratio in Performance umzuwandeln.

Wenn das mit der RDNA3 Entschlackung stimmt könnte es zu einer ähnlichen Situation wie 2009 führen: Der fette GT200 wird nur im Vollausbau vom valuechip rv770 nicht ganz eingeholt. Letzterer war deutlich kleiner, halbe SI breite und sparsamer. Und alle haben sich gewundert, wie AMD 2,5x Executionunits bei rv770 einbauen konnte mit so wenig Transistoren (nur grob 32% mehr Transistoren).

Äh, AD103 hat 10.000 Recheneinheiten bei 378mm^2. Navi31 hat 12.200 Recheneinheiten bei angeblich 520mm^2. 37,5% größer bei 20% mehr Recheneinheiten klingt jetzt nicht toll.

Transistoren sind vollkommen egal, wenn man 120 Millionen pro mm^2 packen kann.

robbitop
2022-10-31, 10:38:06
Jetzt dreht sich der Propellerjunge die Metriken wieder zurecht. X-D
Recheneinheiten sind irrelevant. Performance ist relevant. Wir wissen noch nicht was AMD mit RDNA3 pro Recheneinheit holt. Wir wissen aber dass Ada pro Transistor und pro TFLOP eher eine Luftpumpe ist. Gemessen an Ampere, Turing und Pascal.

Laut Gerüchten (muss man abwarten) kann sich N31 mit der 4090 messen.

prinz_valium_2
2022-10-31, 10:38:37
Bei CPUs ging es nur „easy“ weil Intel gleichzeit Prozessprobleme hatte und auch weggepennt ist ohne Wettbewerber. Der damalige CEO war ein Bohnenzähler (bwler) und hat primär nur noch kosten/margenoptimierung betrieben statt Innovationen zu treiben.
Das hat Nvidia nie gemacht.

Auch ist Software bei GPUs noch eine zusätzliche Herausforderung. Die Treiber müssen top optimiert sein (was AMD ja erst seit kurzem so richtig geschafft hat - d3d11 rewrite, ogl rewrite, viel mehr Zuverlässigkeit) und die ganzen Features um sich abzusetzen (shadowplay, gsync, dlss, rtx voice uswusf) wo AMD den Anschein macht primär zu reagieren anstatt die Initiative zu ergreifen. Das muss noch deutlich besser werden.

Das ist richtig. Ich meinte mit easy auch nur das Resultat. Das zu erreichen ist bei GPUs deutlich schwieriger. Da gebe ich dir vollkommen recht.

robbitop
2022-10-31, 10:41:25
Das lag primär daran, dass die 3090 50% mehr Speicher hatte, sie schneller war und DLSS 2.0 hatte (damals gabs noch nichts von AMD).

Preise zählen bei Top-Dog nur zweitrangig. Käufer solcher Karten schauen nicht aufs P/L, ansonsten hätten sie gar keine der beiden Karten gekauft.

Jetzt ist es so, dass nvidia DLSS 3.0 hat und AMD nur FSR 2.0. Für viele wird das ein Argument sein. RT wird vlt. auch besser sein, mal sehen. Also AMD gleichwertig und günstiger gabs nie an der Spitze die letzten x Jahre.

Wenn AMD an der Spitze wirklich mal gleichwertig wäre und günstiger, dann würden selbstverständlich deutlich mehr AMD kaufen. Das war nur nie der Fall die letzten Jahre.
Das hat sicherlich auch einen Anteil. Ich gehe aber jede Wette ein, wenn beide die Produkte getauscht hättwn, hätte Nvidia trotzdem mehr GPUs verkauft. Nvidia hat einfach die deutlich stärkere Brand recognition. Das ist in einer Generation nicht grundsätzlich zu ändern. Da muss man lang dran bleiben. So wohl um es aufzubauen als auch un es einzureißen.

Berniyh
2022-10-31, 10:47:35
Oder erklär mir mal wie "Advanced chiplet packaging" die Energieeffizienz senken soll besonders wenn dadurch die MCDs nur N6 sind.
Man könnte argumentieren, dass durch die reduzierte Fläche der Teile die die energetisch wichtigen Compute Units enthalten Budget frei wird um hier gezielt effizientere Prozesse einzusetzen.
d.h. es wird realistisch die Nodes für die Chiplets aufzuspalten und es wird rentabler eine energetisch effizientere Node (also hier N5) einzusetzen.
Evtl. wäre sonst RDNA3 ja komplett auf N6 gelandet, wie es bisher nur für Navi 33 spekuliert wird.

vinacis_vivids
2022-10-31, 11:00:04
https://videocardz.com/newz/amd-radeon-rx-7900-graphics-card-has-been-pictured-two-8-pin-power-connectors-confirmed
AMD Radeon RX 7900 graphics card has been pictured, two 8-pin power connectors confirmed

https://abload.de/img/amd-radeon-rx-7000-1j4fd8.jpg

Neue Rechnung:
N31XTX = 7900XTX
300W ~ 12288 x 2 x 3 ~ 73,72 Tflops fp32

N21XTX = 6900XT
300W ~ 5120 x 2 x 2,25 ~ 23,04 Tflops fp32

CB 5120x2160 Raster avg
4090 FE – 100 fps – 2,75Ghz – 16.384SPs ~ 90,11 Tflops fp32 – 0,9011 Tflop 32/frame – 432W – 4,32W/fps – 23,14fps pro 100W
3090 Ti – 61,6 fps – 1,95Ghz – 10.752SPs ~ 41,93 Tflops fp32 – 0,6806 Tflop 32/frame – 463W – 7,51W/fps – 13,30fps pro 100W
6900 XT – 50,5 fps – 2,25Ghz – 5120SPs ~ 23,04 Tflops fp32 – 0,4562 Tflop 32/frame – 296W – 5,86W/fps – 17,06fps pro 100W

Annahme:
Referenz N21XTX ~ 300W
N31XTX Effizienz = +50 bis 60% fps/Watt ggü. N21XTX
Referenz N31XTX ~ 300W
N31XTX Takt ~ 3,0 Ghz


Rechnung-Ergebnis:
Effizienz für Rechenleistung Tflops fp32 per Watt:
N21XTX = 23,04Tflops fp32 / 296W = 0,07783 Tflops fp32/Watt
N31XTX = 73,72Tflops fp32 / 300W = 0,24573 Tflops fp32/Watt

Annahme Effizienzverlust durch breite Shader ~ 30%
N31XTX * 0,7 ~ N21XTX 0,1720 Tflops fp32/Watt
N31XTX = 73,72 Tflops fp32 ~ N21XTX* = 51,60 Tflops fp32

Effektive Erhöhung von N21XTX zu N31XTX: 51,60 / 23,06 - 1 = Erhöhung um 123,958% = Faktor 2,23958X

Errechnung der fps: 50,5 fps * 2,23958 ~ 113,09 fps

N31XTX - 113,09fps - 3,0Ghz - 12288SPs ~ 73,72 Tflops fp32 - 0,6518 Tflop 32/frame ~ 300W - 2,65W/fps - 37,69fps pro 100W

Welche Metrik passt zu AMD`s Aussage >50% perf/Watt?
N21XTX 0,4562 Tflop 32/frame
-> +50% Effizienz = 0,6843 Tflop 32/frame
-> +60% Effizienz = 0,7299 Tflop 32/frame

Annahme AMD perf/Watt ~ Tflop 32/frame +50% Effizienz
Skalierung durch Taktrate 2,8-3,0Ghz: (realistisch = AMD Referenz)
N31XTX 2,8Ghz ~ 68,81 Tflops fp32 = 0,6843 Tflop32/frame ~ (300W)
-> 100,55 fps
N31XTX 3,0Ghz ~ 73,72 Tflops fp32 = 0,6843 Tflop32/frame ~ (320W)
-> 107,73 fps

Skalierung durch Taktrate 3,1-3,3Ghz: (optimistisch = Custom Partner OC)
N31XTX 3,1Ghz ~ 76,18 Tflops fp32 = 0,6843 Tflop32/frame ~ (375W)
-> 111,32 fps
N31XTX 3,3Ghz ~ 81,10 Tflops fp32 = 0,6843 Tflop32/frame ~ (450W)
-> 118,51 fps

Bin echt gespannt welche Taktrate AMD mit 2x8Pin=300W erreicht und welche Taktraten die Custom Board mit 3x8Pin=450W erreichen.

AffenJack
2022-10-31, 11:20:17
Wenn das so einfach wäre, hätten die Leute das schon bei der 6900XT vs. 3090 getan. Da lag der Preisunterschied sogar bei $500. Die Leute haben trotzdem mehrheitlich zur 3090 gegriffen.

Wie gesagt, ich würde das Branding bzw. den Halo-Faktor echt nicht unterschätzen. Egal ob bei unwissenden MM-Bernds oder Nerds.

Nur hat man trotz 500€ Preisunterschied in der RT Leistung teilweise Perf/$ auf Nvidias Seite gehabt. Da ist es auch egal, wenn das nur bei 5% der Titel passiert. Im Kopf der Leute bleibt, in der Zukunftstechnologie kann AMD klar nicht mithalten. Solange das so ist, hat AMD auch keine Chance auf nennenswerte Marktanteilsgewinne.

Ne 4090 langweilt sich ohne RT bei 4K in den meisten Games. Die Testwebseiten werden bei der Leistung auch aufhören RT als Sonderfall zu beurteilen. Ich hoffe N31 ist da deutlich konkurenzfähiger, denn am Ende wird der Consumer nur soviel für N31 zahlen, wie die Leistung in den fordernden Titeln ist und das ist nunmal RT. Sollte AMD nicht deutlich nachbessern, müssen sie eher aufpassen, dass sie durch Battlemage nächstes Jahr nicht eher nach unten gehen mit dem Marktanteil (Falls Battlemage ein gutes Stück besser als Alchemist wird).

dargo
2022-10-31, 11:25:55
Die Testwebseiten werden bei der Leistung auch aufhören RT als Sonderfall zu beurteilen.
In deinen Träumen vielleicht. ;D Noch sind wir viele Jahre davon entfernt, dass Games auf reinen Rasterizer verzichten bzw. RT nicht mehr nur optional ist. Der nächste der keinen blassen Schimmer hat wie ein Gamingmarkt funktioniert. :uclap:

r3ptil3
2022-10-31, 11:27:24
https://abload.de/img/amd-radeon-rx-7000-1j4fd8.jpg
.

https://cdn.videocardz.com/1/2022/10/AMD-RADEON-RX-7000-2.jpg

Wird spannend, sehr spannend.

Sieht nicht nach einem Kopf an Kopf Rennen mit einer RTX 4090 aus, sondern nach einem Effizienz-König.

HOT
2022-10-31, 11:29:53
Hat das Ding ein rotes PCB? Das ist ja echt voll retro :D. Cool. Erinnert mich an meine 1900XTX damals :D.

Dass da kein Plastik die Kühlfinnen einsperrt ist endlich mal ein guter Schritt. Wenn die die XTX echt mit 300W nur bringen, ist das aber sehr sehr selbstbewusst.

dargo
2022-10-31, 11:30:51
Steht doch im Link, dass es ein Prototyp ist.

HOT
2022-10-31, 11:33:15
Ja der Kühler wird so schon passen. Und wieso sollte man die Farbe des PCBs in der Serie noch verändern?

dargo
2022-10-31, 11:34:17
Wenn die die XTX echt mit 300W nur bringen, ist das aber sehr sehr selbstbewusst.
Ich fänds zwar sehr geil, halte es aber für unwahrscheinlich. Gehe eher von 350W aus. Die ~50W dann über PCIe.

r3ptil3
2022-10-31, 11:38:01
Vielleicht deuten die Leaks oben auch nur auf das kleinere Modell hin.

XTX klingt einfach zu brutal für nur 2x 8Pin.

iamthebear
2022-10-31, 11:41:48
Wenn das so einfach wäre, hätten die Leute das schon bei der 6900XT vs. 3090 getan. Da lag der Preisunterschied sogar bei $500. Die Leute haben trotzdem mehrheitlich zur 3090 gegriffen.

Man braucht nur einen Blick auf die Mining Performance werfen:
3090: ca. 100MH/s
6900 XT: ca. 60MH/s

Das erklärt warum die 3090 um die Hälfte teurer war.

Wir wissen aber dass Ada pro Transistor und pro TFLOP eher eine Luftpumpe ist. Gemessen an Ampere, Turing und Pascal.

Gemessen an den Transistoren ja.
Aber gemessen an den TFlop?

Eine 4080 12GB soll ja die Performance einer 3090 Ti haben bei gleichen TFlop/s und das obwohl die effektive Speicherbandbreite etwas dünner bemessen ist und man einige neue Features rein gestopft hat, die wohl erst in Zukunft Performance bringen.

Laut Gerüchten (muss man abwarten) kann sich N31 mit der 4090 messen.

Da bin ich gespannt. Ich habe da meine Zweifel.

Man könnte argumentieren, dass durch die reduzierte Fläche der Teile die die energetisch wichtigen Compute Units enthalten Budget frei wird um hier gezielt effizientere Prozesse einzusetzen.
d.h. es wird realistisch die Nodes für die Chiplets aufzuspalten und es wird rentabler eine energetisch effizientere Node (also hier N5) einzusetzen.
Evtl. wäre sonst RDNA3 ja komplett auf N6 gelandet, wie es bisher nur für Navi 33 spekuliert wird.

Genau das meinte ich mit "Geschwafel". Man fertigt in 5nm und listet dann noch ein paar Neuerungen, die mit dem Thema nur sehr indirekt zu tun haben:

.) Advanced chiplet packaging senkt die Verlustleistung gegenüber bestehenden Packagingverfahren, was aber irrelevant ist weil die so ineffizient waren. dass es bisher sowieso keinen Sinn gemacht hätte
.) Was die anderen Änderungen angeht: Keine Ahnung, wird man sehen aber mir ist z.B. nicht klar wie ein "Advanced IF$" die Energieeffizienz verbessern soll wenn er kleiner wird und N31 dafür ein 384 Bit SI bekommt.

HOT
2022-10-31, 11:47:30
Die 6950XT hat ziemlich genau 340W in der Praxis mit 2 8 Pin. Könnte dann in der Praxis auch so sein. Die 7900XT dann sicherlich wirklich die 300W, die XTX dann 340-350W. Die X3D dann 420W und 3 8 Pin mit WaKü oder so.

dargo
2022-10-31, 11:49:00
Vielleicht deuten die Leaks oben auch nur auf das kleinere Modell hin.

XTX klingt einfach zu brutal für nur 2x 8Pin.
Wenn die XTX diesen ominösen, zusätzlichen Cache abbekommt und es sonst keine Änderungen gibt warum sollte diese XTX dann mehr verbrauchen?

HOT
2022-10-31, 11:51:14
Es soll ja offenbar 3 Varianten geben. Die 7900XT, 7900XTX und 7900X3D. Davon werden offenbar am 3. nur die XT und XTX vorgestellt.

dargo
2022-10-31, 11:52:02
Das ändert nichts an meiner Kernaussage. ;) Warum sollte eine X3D mehr verbrauchen als eine XTX wenn an den Frequenzen nichts geändert wird? SPs bleiben identisch.

Ravenhearth
2022-10-31, 12:01:40
Ich denke auch, dass die 3D-Version die gleiche TDP haben könnte. Größerer Cache + evtl. besseres Binning steigern die Effizienz.

Badesalz
2022-10-31, 12:17:09
@dargo
Ich hätte da was dazu ;) Wenn man auf einem passenden Intel AXV Benches durchknallt, steigt da das Powerbudget nicht auch? So, daß man gar runtertakten muss? Warum nochmal? Es gibt zwar eine klarere Abhängigkeit, aber einfach so macht der Takt nicht alleine die Watts. So allgemein.
Ich sehe aber diese Steigerung von 340W auf 420W erstmal aber auch nicht. Eher XT 290W, XTX 325W und X3D 345W. Die X3D wird dafür imho auch die am besten belichteten Chips abbekommen.

Aber ich weiß auch nicht was eine X3D soll. Ich bin da extrem gespannt. Auf die Graka prasselt der Datenstrom ganz anders als auf eine CPU. Eher so Linpack-like ;) Und bei dem kann man mein ich auch recht gut sehen, daß X3D auch bei CPUs keine universelle Lösung ist.
Bei Grakas hätt ich gesagt eh eher noch weniger. die haben gegenüber den CPUs eh traumhafte Hitraten. Na wir werden sehen. Auch mal echt spannend :D

@robbitop
Das ist alles, ich wiederhole das mal zum Letzten, bei jeweils nur 2 Herstellern zu klein für eine reale Auswirkung solchen Mumpitz.
Werbung an sich, Influenzerseuche und ähnliches gehört zu gleichem Bauland, ist aber nicht direkt die selbe Baustelle. Und nicht jeder TopDog einer Reihe erzeugt auch "Halo".

arcanum
2022-10-31, 12:27:36
ich denke es ist eine mischung aus beidem, brand recognition und top dog. nicht umsonst führen alle hersteller mittlerweile die top end produkte als erstes ins feld. selbst wenn man keinen 13900k kauft, wird man dessen performance auf die anderen produkte übertragen und diese eher als das gleichpreisige konkurrenzprodukt kaufen.

amd müsste nvidia allerdings schon vernichtend schlagen (>= 20% mehr performance für weniger geld), damit sich das merklich auf die verkaufszahlen auswirkt. amd ist noch zu klein und unbedeutend in diesem markt. ich würde im bereich der 4090 z.b. keine 79xx kaufen die +/- die gleiche performance für 300€ weniger abliefert. für die paar % aufschlag halte ich mir lieber die nvidia features vor.
anders rum wird man von amd auch keine 1200€ karte mit 4090 performance sehen, da Su mittlerweile auch bestimmte margen anpeilt und nicht mehr der billiganbieter sein will. im cpu desktop bereich ist AMD bereits im premiumbereich angekommen, was die preise angeht und sollte man nvidia irgendwann brand-technisch überholen, wird es im GPU-bereich ähnlich aussehen.

Badesalz
2022-10-31, 12:40:45
@arcanum
Das war früher so, weil es den Leuten schwer fiel diese Wahrnehmungsfehler (daruaf basiert das ja) selbst zu korrigieren. Das ist heutzutage aber in der HeimIT in einem Netz der überseht von P/L, Perf/Watt, FPS usw. Balken ist, nicht mehr so eine große Aufgabe/Überwindung.

Durch das Netz wird so manche Sandburg erst aufgebaut. So manche fällt aber auch wegen ihm.

@all
Apropos Strategien. Achtung. RDNA3 wird von den grünen nah stehenden in den himmel gepusht, damit ihr anschliessend von AMD sehr enttäuscht seid? :wink:

vinacis_vivids
2022-10-31, 12:51:17
@arcanum
Das gleiche Neusprech gabs bei Intel-CPUs als AMD mit Zen um die Ecke kam. Was hat da ein David Kanter als Experte rausgehauen mit seiner Analyse, die völlig daneben lag mit der Fehleinschätzung der IPC und Leistungsfähigkeit der Zen uArch.

Ich sehe die Zeitenwende nun bei den diskreten GPUs kommen, und zwar mit voller Wucht. NV mit 600W für ne GPU völlig am Ende ohne MCM-Konzept. Die Skalierung von 450W-600W bringt gar nichts bei einem monolithischen Chip.

AMD kann einfach mit einen 2xN32 GCD und 15360SPs kommen und eine AD102 Full 4090Ti wegfegen. Allein dieses Potential bzw. Potenz wirkt wie ein Halo-Effekt auf AMD`s diskrete GPUs.

Das musst AMD gar nicht mal zwingend tun, sondern im Mittelfeld mit N32 und N33 im wachsenden mobilen Bereich voll reinschlagen.

Platos
2022-10-31, 12:57:46
Das hat sicherlich auch einen Anteil. Ich gehe aber jede Wette ein, wenn beide die Produkte getauscht hättwn, hätte Nvidia trotzdem mehr GPUs verkauft. Nvidia hat einfach die deutlich stärkere Brand recognition. Das ist in einer Generation nicht grundsätzlich zu ändern. Da muss man lang dran bleiben. So wohl um es aufzubauen als auch un es einzureißen.

Das schon, die Marke hat natürlich einen Einfluss. Es ging mir auch nicht darum, dass in einem Fall, wo AMD an der Spitze ist, AMD mehr wie nvidia verkauft. Eher, dass dann eben einfach deutlich mehr zu AMD greifen, wie beispielsweise bei RDNA2. Aber da AMD in den letzten Jahren gar nie an der Spitze war, ist das hald eher theoretisch.

Das man AMD kauft, sieht man bei den CPUs.

Und seit DLSS und RT gibts bei AMD hald immer was auszusetzen. Ob das nun berechtigt ist, spielt keine Rolle. Die Leute wollen hald bei 1000$ nicht schon auf gewisse Features verzichten. Die, die Top-Dog kaufen, die wollen das beste.

Man siehts ja... Paar Prozent mehr, kostet aber deutlich mehr normalerweise. Es geht also darum, das beste zu haben, nicht das beste P/L.

dargo
2022-10-31, 13:01:29
Ich sehe die Zeitenwende nun bei den diskreten GPUs kommen, und zwar mit voller Wucht. NV mit 600W für ne GPU völlig am Ende ohne MCM-Konzept. Die Skalierung von 450W-600W bringt gar nichts bei einem monolithischen Chip.

AMD kann einfach mit einen 2xN32 GCD und 15360SPs kommen und eine AD102 Full 4090Ti wegfegen. Allein dieses Potential bzw. Potenz wirkt wie ein Halo-Effekt auf AMD`s diskrete GPUs.

Das musst AMD gar nicht mal zwingend tun, sondern im Mittelfeld mit N32 und N33 im wachsenden mobilen Bereich voll reinschlagen.
Ob das so einfach machbar ist ohne die üblichen Nachteile von SLI/CF sei mal dahin gestellt. Ich sehe bei AMD dennoch im Chipletdesign einen gravierenden Vorteil, jetzt mal von den Kosten abgesehen. AMD geht beim GCD erstmal nur auf max. 308mm² bei N31. Rein theoretisch wäre es imho kein Problem bei einem Refresh in einem Jahr einen neuen GCD mit sagen wir mal 400-450mm² aufzulegen. AMD müsste aber bei 6 IMCs bleiben denn ein 512Bit SI wird wohl kein IHV mehr wagen (oder war das nur auf ein monolithisches Design bezogen?). Die fehlende Bandbreite dann müsste man mit mehr Infitity Cache abfangen (wenn bei einem Chiplet Design 512Bit SI kein Problem darstellen wären auch 8 IMCs denkbar, der GCD muss dafür nur groß genug von der Fläche her sein). Die Frage ist halt bloß ob AMD für so eine monströse Gaming-SKU einen nennenswerten Markt sieht? Nvidia sind da irgendwie bei einem Refresh die Hände gebunden. Es sei denn die wollen tatsächlich bei 4nm noch was im Bereich von ~750-800mm² wagen. Nur wer soll das noch bezahlen? :freak:

PS: was aber bei so einem Refresh nicht zu vermeiden ist ist der hohe Stromverbrauch. Mit so einer SKU würde dann auch AMD um die 500W saufen müssen.

Der_Korken
2022-10-31, 13:19:52
AMD kann einfach mit einen 2xN32 GCD und 15360SPs kommen und eine AD102 Full 4090Ti wegfegen.

Diese Gerüchte haben für mich nie Sinn ergeben. 2xN32 hat gerade mal 25% mehr Recheneinheiten als N31, von denen man noch die Verluste abziehen muss, die sich durch das Aufteilen auf 2 GPUs ergeben. Wenn der Chip nur 90% so effektiv arbeitet wie ein monolithischer Chip (bedingt dadurch, dass beide Chips mit deutlich beschränkter Bandbreite untereinander kommunizieren müssen), dann ist das Konstrukt nur noch 0,9*1,25 = 1,125 mal so schnell wie N31, also wahnwitzige 12,5% schneller. Da kann AMD lieber einen selektierten N31 nehmen, ihn auf 400W hochprügeln (2xN32 würde ohnehin auch >350W liegen) und extra Cache auf die MCDs stacken. Da kommt man auch locker 12,5% oberhalb eines normalen "Full N31" rauskommen.

vinacis_vivids
2022-10-31, 13:29:46
@dargo
N3X
2xN32 GCD ~ 400mm² (15360SP @ 3,0Ghz)
Rechenleistung: 92,16 Tflop/s fp32
8XMCD ~ 37,5mm² (512bit SI - mind. 128-256MB IF$)
mind. 32-64GB VRAM ~ 1280GB/s
IF$ Bandbreite ~ 4TB/s
Summarum: ~ 700mm²

Das Ding ist rein für professionelle, die damit Geld verdienen und Content erstellen. Und für absolute Nerds.
Ist nur die Frage ob sich die Leute sowas überhaupt leisten können/wollen für bspw. 3K,4K bzw. 5K EUR. Dem einfachen Gamer fällt da doch nur noch die Kinnlade runter. Bringt auch eh nichts bei 1080p@60hz.

AMD musst auch den Markt beobachten wie die Zahlungsbereitschaft für hochwertige Monster-GPUs aussieht.

Selbst mit der hier im Forum so verhassten Vega uArch (die im Prinzip ziemlich geil war) hat AMD die Radeon Pro SSG 16GB+2TB gebaut. Bei Radeon 7 7nm-Technik 16GB, 4096bit SI spendiert.

Derzeit können nur Apple und (zum großen Teil) Nvidia solche hohe Preise ausrufen ohne dafür gesteinigt zu werden. Grundsätzlich und prinzipiell und technisch kann AMD das auch, sogar mit breiterer Auslegung. Dauert nur ne Weile bis der Markt das auch kapiert.

@Korken
Bei solchen Dinger gehts nicht mehr nur um fps, sondern um Rendering und Content creation, AI, Deep-Learning usw.

HOT
2022-10-31, 13:31:39
Das ändert nichts an meiner Kernaussage. ;) Warum sollte eine X3D mehr verbrauchen als eine XTX wenn an den Frequenzen nichts geändert wird? SPs bleiben identisch.
Damit da überhaupt ein Leistungsabstand herrscht? Nötig wäre es sicher nicht, aber man muss das ja auch irgendwie vermarkten.

dargo
2022-10-31, 13:41:13
Damit da überhaupt ein Leistungsabstand herrscht?
Wir wissen noch gar nicht was der X3D alleine bringt. Wenns für AMD genug ist muss an den Frequenzen und somit an der TDP nichts angehoben werden.

HOT
2022-10-31, 13:43:24
Wir wissen noch gar nicht was der X3D alleine bringt. Wenns für AMD genug ist muss an den Frequenzen und somit an der TDP nichts angehoben werden.
Für normale Anwendungen wird das nix bringen, für 5k-8k und semiprfessionelles Zeug wird das ziemlich reinhauen.

dargo
2022-10-31, 13:44:06
Für normale Anwendungen wird das nix bringen...
Was du so alles schon weißt meinst zu wissen. :tongue:

Der_Korken
2022-10-31, 13:46:53
@Korken
Bei solchen Dinger gehts nicht mehr nur um fps, sondern um Rendering und Content creation, AI, Deep-Learning usw.

Dann kann man auch gleich 2xN31 nehmen.

Nightspider
2022-10-31, 14:04:14
AMD kann einfach mit einen 2xN32 GCD und 15360SPs kommen und eine AD102 Full 4090Ti wegfegen. Allein dieses Potential bzw. Potenz wirkt wie ein Halo-Effekt auf AMD`s diskrete GPUs.

Solche Sätze sind dumm und heiße Luft, solange wir nicht wissen, ob AMD jetzt schon in der Lage ist eine Chiplet-Multi-GPU zu bauen, die sich nach außen hin wie ein monolithischer Chip verhält.

Platos
2022-10-31, 14:32:21
Was du so alles schon weißt meinst zu wissen. :tongue:

Ist bei ihm immer so.

reaperrr
2022-10-31, 15:04:12
Für normale Anwendungen wird das nix bringen, für 5k-8k und semiprfessionelles Zeug wird das ziemlich reinhauen.
GPUs sind nicht CPUs.

Wenn N31 ca. die 3x Rohleistung und ~1.8-2.0x reale Leistung bringen soll bei nur ~56% mehr Speicherbandbreite zum VRAM, bringt der viel schnellere IF$ definitiv eine Menge. Und wenn doppelt so viel davon da ist, kann man doppelt so viele Daten im viel schnelleren Cache unterbringen, für die man nicht in den VRAM muss.
Außerdem hat man ohne 3D-Cache weniger IF$ als N21, der in 4K schon stärker einbrach als die Amperes mit 384bit SI, ich gehe deshalb stark davon aus, dass 96MB zusätzlicher IF$ auch in 1440p und 4K schon gut was bringen würden (und für die min und max FPS auch in 1080p, weil in 1080p ein größerer Prozentsatz der Speicherzugriffe komplett in den IF$ passen würde, der halt auch schneller als der VRAM ist).

Zu guter letzt: Zugriffe auf den IF$ kosten grundsätzlich auch weniger Energie im Vergleich zum VRAM-Zugriff. Gut möglich, dass man mit 192MB IF$ eine höhere Leistung in gleicher TDP erreichen könnte, und es bei den Launch-Modellen nur aus Zeit- und Kostengründen nicht genutzt hat, für einen 4090 Ti-Konter aber nach wie vor im Visier hat.

HOT
2022-10-31, 16:03:14
Das wird schon vor allem bei höheren Auflösungen Auswirkungen haben, vielleicht noch in 4k ein bisschen. Aber bei QHD sicherlich nicht mehr. Werden wir ja eh sehen, wenn es soweit ist.

Nightspider
2022-10-31, 16:51:01
Naja selbst in QHD sollte die Hitrate noch leicht steigen und die Effizienz ebenso.

Das Diagramm, was es hier schon paar mal gab hat das ja auch gezeigt.


Edit:

https://youtu.be/Xn7tZKVXJ4M?t=993

Für 96MB IF$ wurde eine Hitrate in 1440p von 70% angegeben und in 4K von etwas über 50%.

Selbst wenn AMD die Hitrate bei RDNA3 verbessern konnte, wird man wohl auch in 1440p noch von 196MB Cache profitieren.

Berniyh
2022-10-31, 17:09:46
Klar wird man dadurch Performance gewinnen. Und wenn es nur ein paar Prozent sind, es ist halt mehr Performance.
Der Preis, der (vermutlich) dafür aufgerufen werden wird, wird dadurch natürlich nicht gerechtfertigt, aber das ist bei den Top-Class Produkten ja immer so.

Ich fände es immer noch interessant, ob AMD auch HBM-kompatible MCDs plant. Gut, im Consumerbereich werden wir die wohl eher nicht sehen, aber evtl. ja in RDNA3-basierten Profiprodukten?
Prinzipiell wäre das ja auch ein Vorteil der Chiplet Aufteilung, dass man mit den gleichen GCDs unterschiedliche Speicherinterfaces verwenden könnte.

gedi
2022-10-31, 19:07:30
Ich möchte nur nochmals an eines erinnern: N33 im notebook soll laut Gerücht sowohl 6950 als auch 3090 ziemlich alt aussehen lassen, bei 175W! Das wäre eine performance von ~4080 12GB bei 175W!

why_me
2022-10-31, 19:14:08
Muss nicht N33 sein, könnte auch ein abgespeckter N32 sein.

Badesalz
2022-10-31, 19:14:49
Ja. Natürlich. 175W im Laptop. Der sieht dann aus wie der MNT Reform v2?

Linmoum
2022-10-31, 19:15:48
175W vielleicht für GPU+CPU zusammen. Ansonsten bist du sustained bei >200W, das will zum einen niemand und das auch noch vernünftig zu kühlen ist absurd.

vinacis_vivids
2022-10-31, 19:18:53
Am Laptop sind derzeit 150W das Maximum (GPU+CPU). Könnte durchaus in die Richtung 175W gehen, für GPU+CPU im Turbomodus. Ansonsten sind die meisten Kämpfe bei ~100W Leistungsaufnahme.

Nakai
2022-10-31, 19:22:45
Naja selbst in QHD sollte die Hitrate noch leicht steigen und die Effizienz ebenso.

Das Diagramm, was es hier schon paar mal gab hat das ja auch gezeigt.


Edit:

https://youtu.be/Xn7tZKVXJ4M?t=993

Für 96MB IF$ wurde eine Hitrate in 1440p von 70% angegeben und in 4K von etwas über 50%.

Selbst wenn AMD die Hitrate bei RDNA3 verbessern konnte, wird man wohl auch in 1440p noch von 196MB Cache profitieren.

Der 96MB Cache bei N31 ist besser als der 128MB Cache bei N21. Man muss ja nicht alles Cachen. Der Cache bei N21 war ja nur ein dummer Cache. Bei N31 wird das ein bisschen anders aussehen.

Nightspider
2022-10-31, 19:23:52
Sagt das deine Glaskugel oder dein Onkel bei AMD?

robbitop
2022-10-31, 19:25:52
Eine 4080 12GB soll ja die Performance einer 3090 Ti haben bei gleichen TFlop/s und das obwohl die effektive Speicherbandbreite etwas dünner bemessen ist und man einige neue Features rein gestopft hat, die wohl erst in Zukunft Performance bringen.

1. Ampere war pro TFLOP gemessen an seinen Vorgängern und an RDNA schon eine Luftpumpe. (aber nicht pro Transistor! Ada hingegen schon)
2. die 4080 12 GB gegen die 3090 ti ist ein wenig vorteilhaft für Ada weil ad104 schmaler ist und höher taktet - diese Konfiguration steht grundsätzlich und unabhängig der uArch besser da als wenn es über die Breite geht. Das müsste man IMO normieren.
Auch gab es ja bei den NV eigenen Bemches auch welche wo die 4080 12 gb deutlich hinten lag.
Die 4090 liegt jedenfalls pro TFLOP deutlich hinter der 3090.

robbitop
2022-10-31, 19:29:14
Der 96MB Cache bei N31 ist besser als der 128MB Cache bei N21. Man muss ja nicht alles Cachen. Der Cache bei N21 war ja nur ein dummer Cache. Bei N31 wird das ein bisschen anders aussehen.

Muss man mal sehen. N31 Cache scheint doppelt so hohe Assoziativität zu haben was die Hitrate steigert und der Chip selbst hat ein 50% breiteres SI und höheren Takt.
Ggf ist auch L0-L2 (oder eine Teilmenge) gewachsen was den IF Cache entlastet.

Nakai
2022-10-31, 19:34:21
Sagt das deine Glaskugel oder dein Onkel bei AMD?

Diskussionen bei B3D.

Einerseits haben die WGPs mehr Register und mehr Cache. Und wie Robbitop schon geschrieben hat, gibt es noch viele andere Möglichkeiten die Hitrate zu erhöhen. Falls man Texturzugriffe nicht cached, was teilweise nicht soviel Sinn ergibt, dann nimmt man schon viel Druck vom Cache. Um es mal anders zu sagen, wieso sollte AMD nun weniger Cache verbauen, wenn er doch so wichtig ist?

dargo
2022-10-31, 19:45:45
Der 96MB Cache bei N31 ist besser als der 128MB Cache bei N21. Man muss ja nicht alles Cachen. Der Cache bei N21 war ja nur ein dummer Cache. Bei N31 wird das ein bisschen anders aussehen.
Ich frage mich gerade ob der überhaupt "schlauer" sein muss? Schließlich steigert AMD die Bandbreite bei N31 vs. N21 um satte 87,5% beim Speicherdurchsatz. Wahrscheinlich wirds eine Mischung aus beiden.

Nightspider
2022-10-31, 20:21:46
Diskussionen bei B3D.

Einerseits haben die WGPs mehr Register und mehr Cache. Und wie Robbitop schon geschrieben hat, gibt es noch viele andere Möglichkeiten die Hitrate zu erhöhen. Falls man Texturzugriffe nicht cached, was teilweise nicht soviel Sinn ergibt, dann nimmt man schon viel Druck vom Cache. Um es mal anders zu sagen, wieso sollte AMD nun weniger Cache verbauen, wenn er doch so wichtig ist?

Mit anderen Worten, der IF$ ist nicht besser sondern wird nur weniger stark gefordert?

gedi
2022-10-31, 20:30:43
Ja. Natürlich. 175W im Laptop. Der sieht dann aus wie der MNT Reform v2?

Wieviel zieht ein Vollausbau einer 3800ti nochmals?

Egal, es wäre nahezu 80% Impact of performance zur last Gen mit einem kickilala-chip! Und wenn es selbst ein cutdown of N32 wäre, dann lacht Lisas Herz nicht weniger! Annähernd 4080 12gb Performance bei 175w. Dichtet euch den Rest selbst zusammen...

Linmoum
2022-10-31, 20:42:02
Dichterei ist hier eher, wenn man wild Laptop und Desktop in einen Topf wirft.

vinacis_vivids
2022-10-31, 20:57:11
? @Nightspider
Allein die Steigerung des FCLK macht den IF$ gen.2 besser
IF$ gen1 Navi21XTX ~ 64 x 16 x 1940Mhz ~ 1986,65 GB/s
Hitrate 2160p 58-62% ~ 1152,25GB/s - 1231,72 GB/s ultraschneller Zugriff + 512 GB/s schnellen VRAM Zugriff. Das sind mind. 1664,25 GB/s effektive Bandbreite bei weniger Energieverbrauch als ein 384bit SI.

Wir nehmen an, dass die Hitrate steigt durch die uArch Verbesserung:

IF$ gen2 Navi31XTX 96MB IF$ ~ 64 x 24 x 2600Mhz ~ 3993,60 GB/s !
Hitrate 2160p 58-62% ~ 2316,28GB/s - 2476,03 GB/s ultraschneller Zugriff + 960 GB/s schnellen VRAM Zugriff. Das sind mind. 3276,28 GB/s effektive Bandbreite bei weniger Energieverbrauch als ein 512bit SI.

IF$ gen2 Navi31XTX 192MB IF$ ~ 64 x 24 x 2600Mhz ~ 3993,60 GB/s !
Hitrate 2160p 68-70% ~ 2715,64GB/s - 2795,52 GB/s ultraschneller Zugriff + 960 GB/s schnellen VRAM Zugriff. Das sind mind. 3675,64 GB/s effektive Bandbreite bei weniger Energieverbrauch als ein 512bit SI.

Ob es nun 3276 GB/s + oder 3675 GB/s + Bandbreite sind, ist fast egal. Die Steigerung der Bandbreite beträgt Faktor 2X bis 2,2X ggü. N21XTX. Kein Wunder, dass AMD so selbstbewusst ist.

dargo
2022-10-31, 21:07:30
Dichterei ist hier eher, wenn man wild Laptop und Desktop in einen Topf wirft.
Richtig... Mobile und Desktop verfolgen ganz andere Betriebspunkte.

OgrEGT
2022-10-31, 21:32:56
Mit anderen Worten, der IF$ ist nicht besser sondern wird nur weniger stark gefordert?

Er könnte dadurch weniger gefordert werden, dass Daten wie Texturen weniger oder nicht mehr im IF$ vorgehalten werden, da sie mit breiterem Speicherinterfache von 384bit ausreichend schnell direkt vom VRAM gelesen werden könnten... andere Daten wie BVH Modelle oder größere Teile davon könnten bevorzugt vorgehalten werden...

Nakai
2022-10-31, 21:44:04
Mit anderen Worten, der IF$ ist nicht besser sondern wird nur weniger stark gefordert?

Also Caching oder Caches generell ist ein eigenes sehr großes Forschungsfeld.

Im Endeffekt muss man sich die Frage eher so stellen: Liegt das richtige im Cache, wenn man einen Speicherzugriff macht? Wie kann man dafür sorgen, dass die wichtigen Daten im Cache liegen und dort solange wie nur möglich verbleiben, bevor sie wegen etwas anderem aus dem Cache geworfen werden.

Und andererseits ja, wenn die WGPs mehr Register haben und größere Caches besitzen, dann müssen diese selber nicht so oft auf den IF Cache und auf den RAM zugreifen. Cache ich nun Daten explizit nicht, weil der Gewinn durch den Cache eher weniger gut ist, muss ich dann diese Daten überhaupt Cachen?

Wie performant ein Cache ist, hängt von sehr vielen Faktoren ab, auch vom Usecase etc.

€:
Er könnte dadurch weniger gefordert werden, dass Daten wie Texturen weniger oder nicht mehr im IF$ vorgehalten werden, da sie mit breiterem Speicherinterfache von 384bit ausreichend schnell direkt vom VRAM gelesen werden könnten... andere Daten wie BVH Modelle oder größere Teile davon könnten bevorzugt vorgehalten werden...

Ja, zum Bleistift.

Nakai
2022-11-01, 00:06:38
https://twitter.com/Kepler_L2/status/1587207491040993280?s=20&t=Ours51rjiq34BIpOl5_dnQ

Auch extrem spannend. Oreo, OoO auf GPU-Ebene. Das ist auch eine Möglichkeit die reduzierten Caches besser zu nutzen.

Rampage 2
2022-11-01, 01:23:24
RDNA 1 WGP (=2CUs x (64SP + 4TMUs)) ~ 128SP + 8 TMUs + Cache&Mem
RDNA 2 WGP (=2CUs x (64SP + 4TMUs)) ~ 128SP + 8 TMUs + Cache&Mem
RDNA 3 WGP (=2CUs x (128SP + 8TMUs)) ~ 256SP + 16TMUs + Cache&Mem

Die Schlagkraft pro WGP steigt bei RDNA 3 inkl. Takt sehr deutlich. Es ist auch zu erwarten, dass der FCLK ggü. RDNA 2 steigt.

Sorry, habe mich falsch ausgedrückt. Ich meinte das so, dass in RDNA3 ja anscheinend *nur* die SPs (und nach deiner Aussage auch die TMUs;)) pro WGP verdoppelt wurden, aber alles Andere (z.B. Kontrollogik, CUs pro WGP) gleich geblieben ist ggü. RDNA2. Aber die Gesamtzahl der WGPs ist nur um 20% gestiegen (40 -> 48). Will damit sagen:

Zwei RDNA2-WGPs sollten trotz gleicher Menge von CUs/SPs/TMUs (beide 256 SPs und 16 TMUs) schlagkräftiger sein als eine RDNA3-WGP, weil bei Letzterem der Rest (außer SPs & TMUs) nicht verdoppelt wurde.

Noch genauer gesagt: IMO hat N31 viel zu wenig WGPs. Wären es z.B. 80 WGPs (= 2x N21) statt 48, dann hätte N31 zwar eine irrsinnig hohe/übertriebene arithmetische Rohleistung (5-6x ggü. N21, da 4x so viele Recheneinheiten + 25-40% mehr Takt), aber die restlichen Leistungsparameter wie Kontrollogik, Triangle-Throughput, Cache-Size, Registerfile-Size, etc. wären "nur" verdoppelt (bzw. 2.5-2.8x, da höherer Takt als N21). Zu einer Leistungsverdopplung gehört deutlich mehr als nur die SPs/TMUs zu verdoppeln - alles Andere sollte auch verdoppelt werden;) Ampere hat eindrucksvoll gezeigt was mit der Leistungsskalierung passiert, wenn man genau das nicht macht... :redface:

R2

robbitop
2022-11-01, 07:54:37
Naja man muss immer sehen, was man pro Watt und pro Transistor bekommt. Die neuen WGPs sollen ISO Prozess sogar ein klein bisschen kleiner sein als die alten bei +50
% Register und bis zu zweifachem Durchsatz. Auch wenn man viel weniger als den doppelten Durchsatz hinbekommt und bei +30-40% bleibt, er höht sich die Performance pro Transistor enorm. Entsprechend verbaut man so viele CU/WGPs wie das Transistorbudget hergibt.
Man darf nicht vergessen, dass man ~2,4 so viele FPUs hat und nochmal +20-30% Takt. Das sollte dann im Endeffekt in Kombination schon einen netten Boost bringen.

dildo4u
2022-11-01, 08:16:54
Treiber Overhead bei Nvidia ist immer noch massiv 1440p wird ein Massaker.

Zh8vJMdHUtQ

dargo
2022-11-01, 08:29:02
Da unterschiedliche CPUs verwendet wurden ist deine Schlussfolgerung schon etwas gewagt.

dildo4u
2022-11-01, 08:31:53
Ich tippe Mal drauf das die Masse mit dem 13900k benchen wird, umrüsten macht Sinn wenn die neue 3D CPU draußen ist.

vinacis_vivids
2022-11-01, 08:45:51
Sorry, habe mich falsch ausgedrückt. Ich meinte das so, dass in RDNA3 ja anscheinend *nur* die SPs (und nach deiner Aussage auch die TMUs;)) pro WGP verdoppelt wurden, aber alles Andere (z.B. Kontrollogik, CUs pro WGP) gleich geblieben ist ggü. RDNA2. Aber die Gesamtzahl der WGPs ist nur um 20% gestiegen (40 -> 48). Will damit sagen:

Zwei RDNA2-WGPs sollten trotz gleicher Menge von CUs/SPs/TMUs (beide 256 SPs und 16 TMUs) schlagkräftiger sein als eine RDNA3-WGP, weil bei Letzterem der Rest (außer SPs & TMUs) nicht verdoppelt wurde.

Noch genauer gesagt: IMO hat N31 viel zu wenig WGPs. Wären es z.B. 80 WGPs (= 2x N21) statt 48, dann hätte N31 zwar eine irrsinnig hohe/übertriebene arithmetische Rohleistung (5-6x ggü. N21, da 4x so viele Recheneinheiten + 25-40% mehr Takt), aber die restlichen Leistungsparameter wie Kontrollogik, Triangle-Throughput, Cache-Size, Registerfile-Size, etc. wären "nur" verdoppelt (bzw. 2.5-2.8x, da höherer Takt als N21). Zu einer Leistungsverdopplung gehört deutlich mehr als nur die SPs/TMUs zu verdoppeln - alles Andere sollte auch verdoppelt werden;) Ampere hat eindrucksvoll gezeigt was mit der Leistungsskalierung passiert, wenn man genau das nicht macht... :redface:

R2

Es ist besser die Anzahl der WGPs kompakt zu lassen, um Kontrolllogik zu sparen. Daher sehe ich die geringe Erhöhung von 40 RDNA2 WGPs auf 48 RDNA3 WGPs als unbedenklich an.

Die WGPs von RDNA3 sind erheblich "dicker" von den Transistoren her und lassen sich damit deutlich stärker takten.

Um den Takt auch besser ausnutzen zu können, insbesondere bei den TMUs, die derzeit über den Shader-Code BHV-Traversal bei Ray-Tracing ausführen müssen und bei RDNA2 somit vieles ausbremst.
Da ist nicht nur die Erhöhung der TMUs wichtig, sondern auch deren Parallelisierung bei BHV-Traversal und die Datenführung in den IF$/VRAM.
RDNA2 ist zurzeit bei intensiver RT Nutzung stark ausgebremst (alles geht über Shader-Code TMUs) . Und genau das löst sich mit RDNA3. Wie genau, werden wir bald sehen.

Die Erhöhung der Rohleistung allein ist nicht kritisch. Das geht sehr einfach über mehr Shader und Takt. Die Auslastung bei Raster + RT ist ebenfalls kritisch.

Was NV mit Ampere und nun Ada macht ist nicht AMD's Bier. Auf dem Weg zu 600W oder gar 900W sind bei den Grünen ganz andere Baustellen angesagt. Ich wette bei Ampere und Ada brechen bei ~300W im Raster+RT übelst weg.

Ergänzung: RDNA3 skaliert von iGPU in SoC Smartfone, APUs, Konsole, mobile GPU bis hin zu MCM-Desktop. Das ist eine andere Liga als Ada nur im Desktop und Laptop.

Edgecrusher86
2022-11-01, 09:10:27
Wieviel zieht ein Vollausbau einer 3800ti nochmals?

Egal, es wäre nahezu 80% Impact of performance zur last Gen mit einem kickilala-chip! Und wenn es selbst ein cutdown of N32 wäre, dann lacht Lisas Herz nicht weniger! Annähernd 4080 12gb Performance bei 175w. Dichtet euch den Rest selbst zusammen...

Also die mobile RTX 3080 Ti kommt auf 230W Peaks etwa - gesehen anhand eines Fotos vom Bekannten. :freak:


Ja, ich denke auch, dass bis 96MB IF mehr als genug mitsamt 384er SI sein werden.


Ganz schön klein, der AMD Kühler - also geht man wohl wieder den Weg hoher Temperaturen, aber dafür leise.

fondness
2022-11-01, 09:59:38
Der 96MB Cache bei N31 ist besser als der 128MB Cache bei N21. Man muss ja nicht alles Cachen. Der Cache bei N21 war ja nur ein dummer Cache. Bei N31 wird das ein bisschen anders aussehen.

Details sind natürlich noch rar, aber AMD selbst spricht ja offiziell auf den Folien von "next gen infinity cache" für RDNA3, da wird sich also auf jeden Fall was verbessert haben.

1. Ampere war pro TFLOP gemessen an seinen Vorgängern und an RDNA schon eine Luftpumpe. (aber nicht pro Transistor! Ada hingegen schon)

Wenn du berücksichtigst, dass bei N21 ein großer Teil der Transistoren für den 128Mb Cache drauf gehen war auch schon Ampere nicht besonders effizient. Ist aber natürlich schwer zu vergleichen weil man nicht weiß wieviel für die RT HW drauf geht. Und warum NV noch immer ihre Tensor-Cores im Gaming-Bereich mitschleppt ist natürlich ebenfalls fragwürdig.

fondness
2022-11-01, 10:11:07
https://twitter.com/Kepler_L2/status/1587207491040993280?s=20&t=Ours51rjiq34BIpOl5_dnQ

Auch extrem spannend. Oreo, OoO auf GPU-Ebene. Das ist auch eine Möglichkeit die reduzierten Caches besser zu nutzen.

Ja, wird immer mehr in die Richtung gehen. GPUs scheinen mittlerweile an einen Punkt angekommen zu sein, wo ein weiteres skalieren in die Breite immer weniger bringt. Was kann man dann tun?
- Mehr Takt. Das hat man ja in den letzten Jahren schon massiv forciert und wird man wohl auch weiter forcieren.
- Mehr IPC. Auch da gabs mit RDNA bzw. bei NV mit Maxwell schon erste Schritte. (Rudimentäre) OoO Execution wäre natürlich eine weitere Möglichkeit.

Ravenhearth
2022-11-01, 10:40:14
https://twitter.com/TDevilfish/status/1587172727575773187

Möglicherweise coherency sorting in RDNA3?

iamthebear
2022-11-01, 10:46:09
1. Ampere war pro TFLOP gemessen an seinen Vorgängern und an RDNA schon eine Luftpumpe. (aber nicht pro Transistor! Ada hingegen schon)

Ampere vs. Turing anhand der TFlops zu vergleichen macht wenig Sinn, da Turing eben auch INT parallel abarbeiten kann. Man könnte genauso gut argumentieren, dass Turing eine Luftpumpe ist, da in der Praxis die Hälfte der INT Einheiten inkl. zugehöriger Schedulerresourcen ungenutzt bleibt.

Im Vergleich Ampere vs. Pascal ist Ampere lediglich 10% langsamer (3060 vs. 1080 Ti). Das sind in etwa die 10% die GA104 pro SM schneller ist als GA102 und GA106.

2. die 4080 12 GB gegen die 3090 ti ist ein wenig vorteilhaft für Ada weil ad104 schmaler ist und höher taktet - diese Konfiguration steht grundsätzlich und unabhängig der uArch besser da als wenn es über die Breite geht. Das müsste man IMO normieren.
Auch gab es ja bei den NV eigenen Bemches auch welche wo die 4080 12 gb deutlich hinten lag.
Die 4090 liegt jedenfalls pro TFLOP deutlich hinter der 3090.

Was willst du da normieren? Der Takt kommt ja durch die Architektur ähnlich wie bei RDNA2 vs. RDNA.

Dass die 4090 pro TFlop hinter der 3090 liegt ist klar, da fps eben nicht linear mit TFlop skalieren besonders wenn die CPU kräftig bremst.
Die 3090 Ti ist auch nicht 3 Mal so schnell wie eine 3060 trotz 3 facher TFlop, Speicherbandbreite usw.

robbitop
2022-11-01, 10:48:20
https://twitter.com/TDevilfish/status/1587172727575773187

Möglicherweise coherency sorting in RDNA3?

Im Moment wird viel in OREO reininterpretiert. Das kann auch ein Fehlschluss sein. Muss aber nicht.
Coherency Sorting würde bedeuten, dass man von Level 2 HW auf Level 4 HW abzielt (wie Intel und NV). Wäre eine umsichtige und sinnvolle Entscheidung. Mal schauen...

Ampere vs. Turing anhand der TFlops zu vergleichen macht wenig Sinn, da Turing eben auch INT parallel abarbeiten kann. Man könnte genauso gut argumentieren, dass Turing eine Luftpumpe ist, da in der Praxis die Hälfte der INT Einheiten inkl. zugehöriger Schedulerresourcen ungenutzt bleibt.

Im Vergleich Ampere vs. Pascal ist Ampere lediglich 10% langsamer (3060 vs. 1080 Ti). Das sind in etwa die 10% die GA104 pro SM schneller ist als GA102 und GA106.
Ich habe da nur auf unseren Propellerjungen reagiert. Relevant ist nur Perf/W und Perf/USD.

1080ti ist +10% vorn und die 3060 hat 12% mehr TFLOPs (Quelle: TPU Specsheets). Kombiniert man beides um wirklich zu normieren kommt man auf knappe 24%.

Was wir sehen, ist dass RDNA/2 (abseits RT) pro TFLOP/Unit mehr herausholt. RX6800 mit 3840 FPUs vs 3060 mit 3584 SPs.
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Tests/12GB-Release-Date-Kaufen-Benchmark-Founders-Edition-1367318/2/#a4
Die 6800 liegt im PCGH Index um 59% vorn. Jetzt müssen wir noch die TFLOPs normieren (wieder TPU Specsheets). Kommt man auf 25%. Sehr ähnlich zu Pascal vs Ampere.

Allerdings habe ich Ampere nicht kritisieren wollen - es war eine sinnvolle Wahl, denn man hat mit relativ wenig Mehrtransistoren den FPU Durchsatz verdoppeln können (theoretisch - auf die Straße wird das nicht immer gebracht - unter anderem weil Ampere SMs nur 50% der Schedulerresources von Pascals haben).
Ada hingegen verbraucht deutlich mehr Transistoren als es Performance bringt (zumindest bis dato!). Und genau da ist eine potenzielle Bresche für RDNA3. Denn wenn es stimmt, dass RDNA3 eher das Gegenteil macht - also Perf/Transistor erhöhen (da man die WGPs komplett entschlackt), hat RDNA3 theoretisch die Chance zu überraschen relativ zu AD102 gemessen an seinem Transistorbudget.

Die Situation kann sich natürlich ändern, wenn der ganze RT Level 4 Kram in Ada über die NV API angesprochen wird durch den Entwickler. Allerdings wissen wir hier noch gar nichts über RDNA3.
Es könnte einen zweiten RV770 Moment geben - muss es aber nicht.


Was willst du da normieren? Der Takt kommt ja durch die Architektur ähnlich wie bei RDNA2 vs. RDNA.

Dass die 4090 pro TFlop hinter der 3090 liegt ist klar, da fps eben nicht linear mit TFlop skalieren besonders wenn die CPU kräftig bremst.
Die 3090 Ti ist auch nicht 3 Mal so schnell wie eine 3060 trotz 3 facher TFlop, Speicherbandbreite usw.

1.
Wenn ich mich auf die 4090 und die relative Performance pro FLOP beziehe, beziehe ich mich auf Benchmarks im GPU Limit. (wo man klar erkennen kann, dass niedrigere Auflösungen deutlich mehr FPS bringen als in der höchsten getesteten).
2.
Ja der Takt ist Teil der uArch. Aber er verschafft natürlich schmalen SKUs die mit den alten breiten SKUs verglichen werden einen Skalierungsvorteil. Mit dem Takt skalierst du alles innerhalb der GPU. Mit der Breite eben nicht. Takt skaliert nahezu proportional die Performance im GPU Limit. Erhöhung der Breite im Moment ~0,7. Das muss man zumindest im Hinterkopf behalten.
Natürlich wenden die IHVs genau deshalb Transistoren und R&D auf, die GPUs höher takten zu können anstatt immer nur breiter zu machen.

fondness
2022-11-01, 10:53:03
https://twitter.com/TDevilfish/status/1587172727575773187

Möglicherweise coherency sorting in RDNA3?

Zumindest das zweiten Define lässt schon hoffen: RayTracing Arbiter

Der ganze Twitter Chat ist btw ganz interessant und eine schöne Zusammenfassung. Definitiv eine "neue" Architektur mit deutlichen Anpassungen.

Badesalz
2022-11-01, 10:56:54
Ja, wird immer mehr in die Richtung gehen. GPUs scheinen mittlerweile an einen Punkt angekommen zu sein, wo ein weiteres skalieren in die Breite immer weniger bringt.Was ja die gleiche Nummer wie bei CPUs ist ;) Nur bräuchten die GPUs um an dem Punkt ebenfalls anzukommen zigfache Zahlen an "Breite" :rolleyes:

Was kann man dann tun?
- Mehr Takt. Das hat man ja in den letzten Jahren schon massiv forciert und wird man wohl auch weiter forcieren.
- Mehr IPC. Auch da gabs mit RDNA bzw. bei NV mit Maxwell schon erste Schritte. (Rudimentäre) OoO Execution wäre natürlich eine weitere Möglichkeit.
Das letzte wohl eher nicht ;) Sonst kann man sich aber halt erst darum kümmern den Datenstrom auf die Einheiten geordneter zuzubereiten. Dazu gehört halt auch die Cacheeffizienz. Das steigert ja alles am Ende auch die IPC.

vinacis_vivids
2022-11-01, 11:08:24
Wer Lust hat sich RDNA3 genauer anzuschauen wird bei "GFX11" fündig.
https://llvm.org/docs/AMDGPUUsage.html

Es gibt doch einige Veränderungen ggü. GFX10 (RDNA2).

"On GFX10.3 and GFX11 a memory attached last level (MALL) cache exists for GPU memory. The MALL cache is fully coherent with GPU memory and has no impact on system coherence. All agents (GPU and CPU) access GPU memory through the MALL cache."

Es gibt eine Art GPU-CPU Cache-Kohärenz durch den MALL cache bei RDNA3. Ich gehe stark davon aus, dass RDNA3 durch diese Fähigkeit nochmals extra von Zen4 profitiert.(und auch zum Teil von Zen3 3D)

Es taucht im Maschinencode dies hier auf:
"Monotonic Atomic" - load atomic
"If GFX11, omit dlc=1."

"Aquire Atomic" - load atomic
"If GFX11, omit dlc=1."

Das deutet auf eine feinere Granularität, feinere Grenzen beim Laden des Speichers hin.

dann noch zu compute:
https://llvm.org/docs/AMDGPUUsage.html#amdgpu-amdhsa-compute-pgm-rsrc1-gfx6-gfx11-table

"compute_pgm_rsrc3 for GFX10-GFX11"

9:4 6 bits INST_PREF_SIZE

"GFX11
Number of instruction bytes to prefetch, starting at the kernel’s entry point instruction, before wavefront starts execution. The value is 0..63 with a granularity of 128 bytes."

10 1 bit TRAP_ON_START

"GFX11
Must be 0.

If 1, wavefront starts execution by trapping into the trap handler.

CP is responsible for filling in the trap on start bit in COMPUTE_PGM_RSRC3.TRAP_ON_START according to what the runtime requests."

11 1 bit TRAP_ON_END

"GFX11
Must be 0.

If 1, wavefront execution terminates by trapping into the trap handler.

CP is responsible for filling in the trap on end bit in COMPUTE_PGM_RSRC3.TRAP_ON_END according to what the runtime requests."

31 1 bit IMAGE_OP

"GFX11
If 1, the kernel execution contains image instructions. If executed as part of a graphics pipeline, image read instructions will stall waiting for any necessary WAIT_SYNC fence to be performed in order to indicate that earlier pipeline stages have completed writing to the image.

Not used for compute kernels that are not part of a graphics pipeline and must be 0.


Die Umbauten bei der Compute-Pipeline CUs/WGPs bei RDNA3 sind doch recht stark, auch wenn vieles bei GFX10/GFX11 gleich geblieben ist.

Badesalz
2022-11-01, 11:12:46
Die Umbauten bei der Compute-Pipeline CUs/WGPs bei RDNA3 sind doch recht stark, auch wenn vieles bei GFX10/GFX11 gleich geblieben ist.Du zitierst zu compute einen riesen Haufen an Text (Platz) und schreibst dann, du hast es auch noch nicht so ganz gepeilt? Warum?

vinacis_vivids
2022-11-01, 11:33:58
Änderungen du BVH, welches zu Ray-Tacing gehört:

https://reviews.llvm.org/D133928

Zeilen: 2007 ... 2017
def int_amdgcn_ds_bvh_stack_rtn :
Intrinsic<
[llvm_i32_ty, llvm_i32_ty], // %vdst, %addr
[
llvm_i32_ty, // %addr
llvm_i32_ty, // %data0
llvm_v4i32_ty, // %data1
llvm_i32_ty, // %offset
],
[ImmArg<ArgIndex<3>>, IntrWillReturn]
>;

Zusätzlich:

271 void SelectDSBvhStackIntrinsic(SDNode *N);

Zusätzlich:

1267 defm DS_BVH_STACK_RTN_B32 : DS_Real_gfx11<0x0ad>;


Fazit: Bei RDNA3 wird ganz sicher die BVH-Traversal in Hardware laufen statt über die Compute-Shader-Codes auf den TMUs wie bei RDNA2. Das ganze sieht danach aus, als läuft BVH über int32 (mit ~ fp32 gleich) synchron zu den TMUs, statt diese zu blockieren (wie bei RDNA2).
Der Ray-Tracing Code wird die shader nicht mehr blockieren und RDNA3 wird deutlich weniger bei Zuschaltung von Ray-Tracing Code einbrechen als RDNA2.

Vielleicht kommt noch eine BVH-Kompression/Dekompression für den IF$ hinzu.
Auf jeden Fall wird RDNA3 nach den Änderungen deutlich leistungsfähiger und teurer als RDNA2.


Du zitierst zu compute einen riesen Haufen an Text (Platz) und schreibst dann, du hast es auch noch nicht so ganz gepeilt? Warum?

Vielleicht machst du mal mit? Ich brauche auch Zeit damit die Infos wirken. Zu den Compute-Sachen bei GFX11 äußere ich mich noch, nur Geduld.

davidzo
2022-11-01, 12:36:19
Vielleicht machst du mal mit? Ich brauche auch Zeit damit die Infos wirken. Zu den Compute-Sachen bei GFX11 äußere ich mich noch, nur Geduld.

:biggrin: :popcorn:
Nicht Zeit, man braucht wohl eher mehr Intelligenz und um das zu interpretieren :freak:

Das sind random Codeschnipsel. Man kann an den gewählten Bezeichnungen für die Funktionen heruminterpretieren, wirklich was Aussagen tut das aber nicht. Jeder Entwickler kann seine Funktion als "superdupamega" bezeichnen wenn er es möchte, das lässt nicht auf performance schließen. Zumal das hier um Comiler geht und nicht um den Treiber selbst. Man sollte auch nicht vergessen dass ein wesentlicher Teil des Radeon Treibers im Userspace und Mesa läuft und nicht im Kernel. Solche Funktionsdeklarationen sind relativ fruchtlos, solange man den Teil nicht kennt auf den sie referenzieren. Und schlussendlich sitzt zwischen Treiber+OS und der Hardware noch eine Firmware. Wenn man schon wüsste in welchem Format der Treiber die Hardware ansteuert lässt sich dabei noch nicht auf die Art und weise der Hardware oder gar performance derer schließen.
So ein paar zeilen sagen wirklich noch gar nichts darüber aus ob es viele Hardware Änderungen an der Compute Pipeline gibt oder nicht.

Nakai
2022-11-01, 13:01:25
:biggrin: :popcorn:
Nicht Zeit, man braucht wohl eher mehr Intelligenz und um das zu interpretieren :freak:

Das sind random Codeschnipsel. Man kann an den gewählten Bezeichnungen für die Funktionen heruminterpretieren, wirklich was Aussagen tut das aber nicht. Jeder Entwickler kann seine Funktion als "superdupamega" bezeichnen wenn er es möchte, das lässt nicht auf performance schließen. Zumal das hier um Comiler geht und nicht um den Treiber selbst. Man sollte auch nicht vergessen dass ein wesentlicher Teil des Radeon Treibers im Userspace und Mesa läuft und nicht im Kernel. Solche Funktionsdeklarationen sind relativ fruchtlos, solange man den Teil nicht kennt auf den sie referenzieren. Und schlussendlich sitzt zwischen Treiber+OS und der Hardware noch eine Firmware. Wenn man schon wüsste in welchem Format der Treiber die Hardware ansteuert lässt sich dabei noch nicht auf die Art und weise der Hardware oder gar performance derer schließen.
So ein paar zeilen sagen wirklich noch gar nichts darüber aus ob es viele Hardware Änderungen an der Compute Pipeline gibt oder nicht.

Ich hab mal ein bisschen dumm im Treiber rumgeguckt und habe ihn wirklich nur überflogen. Sieht mir nach einem hybriden Ansatz aus bei RT und ehrlich gesagt sehe ich meine Einschätzung als bekräftigt an. Die Verdopplung der SPs geht eher in Richtung, um spezielle Workloads zu beschleunigen. Die Registerbanks wurden um 50% erhöht, wie schon gemutmaßt und die Bandbreite steigt ebenso. Aber ich höre hier auch wieder auf, weil ich nicht tief genug gebuddelt habe. Um es mal so zu sagen: RDNA3 wird eher einen hybriden Ansatz verfolgen. Die Fähigkeiten der einzelnen HW-Units wurden so aufgebläht, um gewisse Workloads zu beschleunigen. Das VLIW2/VOPD-Thema kann auch eher eine Schlußfolgerung daraus sein, dass man nun viele zusätzliche Sachen in HW gegossen hat und es hiermit nach außen generell ansprechbar macht.

Naja nur noch zwei Tage...;D

Mandalore
2022-11-01, 13:15:21
Änderungen du BVH, welches zu Ray-Tacing gehört:

https://reviews.llvm.org/D133928

Zeilen: 2007 ... 2017
def int_amdgcn_ds_bvh_stack_rtn :
Intrinsic<
[llvm_i32_ty, llvm_i32_ty], // %vdst, %addr
[
llvm_i32_ty, // %addr
llvm_i32_ty, // %data0
llvm_v4i32_ty, // %data1
llvm_i32_ty, // %offset
],
[ImmArg<ArgIndex<3>>, IntrWillReturn]
>;

Zusätzlich:

271 void SelectDSBvhStackIntrinsic(SDNode *N);

Zusätzlich:

1267 defm DS_BVH_STACK_RTN_B32 : DS_Real_gfx11<0x0ad>;


Fazit: Bei RDNA3 wird ganz sicher die BVH-Traversal in Hardware laufen statt über die Compute-Shader-Codes auf den TMUs wie bei RDNA2. Das ganze sieht danach aus, als läuft BVH über int32 (mit ~ fp32 gleich) synchron zu den TMUs, statt diese zu blockieren (wie bei RDNA2).
Der Ray-Tracing Code wird die shader nicht mehr blockieren und RDNA3 wird deutlich weniger bei Zuschaltung von Ray-Tracing Code einbrechen als RDNA2.

Vielleicht kommt noch eine BVH-Kompression/Dekompression für den IF$ hinzu.
Auf jeden Fall wird RDNA3 nach den Änderungen deutlich leistungsfähiger und teurer als RDNA2.




Vielleicht machst du mal mit? Ich brauche auch Zeit damit die Infos wirken. Zu den Compute-Sachen bei GFX11 äußere ich mich noch, nur Geduld.


Wae nicht von einem ähnlichen Ansatz die Rede bei der Xbox Series X GPU erst vor paar Tagen?

Gipsel
2022-11-01, 13:39:56
Nun, wir wissen noch nicht wirklich, wie RDNA3 RT handhabt. Im Prinzip sind nur ein paar Snippets bekannt, die klar auf Änderungen hinweisen, aber das Gesamtbild und das genaue Zusammenspiel der Komponenten ist im Moment noch unklar.
Die eine (schon seit Monaten bekannte) Instruktion "DS_BVH_STACK_RTN_B32" scheint anzuzeigen, daß der BVH Traversal Stack im LDS (local data store, heißt woanders local/shared memory) liegt. Ob daß jetzt heißt, daß das komplette Traversal in Hardware gemacht wird (oder das nur zur Beschleunigung bei weiterhin shaderbasiertem Traversal genutzt wird), ist mir persönlich im Moment noch etwas zu unklar.
Am Ende könnte beispielsweise auch rauskommen, daß sich AMD nicht strikt an die Hierarchie der RT-Level wie von IMG hält. So könnte Traversal (Level 3) z.B. nicht vollständig in Hardware implementiert sein, aber z.B. trotzdem eine Art Coherency Sorting (Level 4) durchgeführt werden.
Vielleicht erfahren wir es ja schon übermorgen. :)

Disco_STFU
2022-11-01, 13:52:53
Wundert mich, dass das noch niemand gepostet hat

https://videocardz.com/newz/amd-radeon-rx-7900-graphics-card-has-been-pictured-two-8-pin-power-connectors-confirmed

Bin grade am Handy und kann die Bilder nicht einbinden... Vlt kann das jemand übernehmen!
Danke!

Ok hat sich erledigt... -.-

Lehdro
2022-11-01, 13:54:30
Einfach ein paar Seiten zurückblättern.

Badesalz
2022-11-01, 13:57:07
@Gipsel
Img hat THESEN aufgestellt wie die Fähigkeiten denen nach steigen sollten. Oder, könnten? =) Das sind keine Gesetze der Robotik oder sowas :tongue:
Irgendwer fing damit zu hausieren und dann haben plötzlich alle die dazu gehören wollen von RT-Leveln schwadroniert. Ja. Klar...

Sollte, sollte AMD jetzt 3/4 Lvl3 machen und 1/4 Lvl4 (salopp gesagt), dann ist das nichts wildes oder gar verrücktes.

PS:
Sie machen bei AVX-512 auch nicht komplett mit und können trotzdem eine klar nenneswerte und lohnenswerte Steigerung erzielen ohne die Powerbudgets zu sprengen.

Gipsel
2022-11-01, 14:10:46
Es erscheint auf jeden Fall wahrscheinlich, daß sich AMD beim Abspecken der CUs/WGPs bei RDNA3 recht deutlich an diesem Patent (https://www.freepatentsonline.com/20220188120.pdf) orientiert. Kann also sein, daß die Hardware für das Tracken der Abhängigkeiten von Befehlen wieder rausfliegt (die VLIW-Architekturen und GCN waren so konstruiert, daß man das nicht benötigte, weil Latenz immer identisch zum Durchsatz, bei RDNA ist das anders).
NVidia hat ja einen ähnlichen Ansatz verfolgt. Nachteil ist, daß der Compiler die entsprechenden Hints für den Scheduler generieren muß und dies die Codegröße damit etwas aufbläht.
Aber die Codeschnipsel in LLVM zum (ebenfalls mit RDNA3 neuen) Befehl "s_delay_alu" (ist in der gleichen Familie wie ein paar anderer ähnlicher, die nicht wirklich auf den ALUs ausgeführt werden, sondern lediglich das Verhalten des Schedulers steuern) sehen schon verdammt ähnlich zum Patent aus. Das weiß man aber auch schon wieder fast ein halbes Jahr (https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/post-2256133).
https://abload.de/img/rdna3_scoreboarding_pwcdtd.png

random Codeschnipsel von hier (https://github.com/llvm/llvm-project/blob/cbc378ecb87e3f31dd5aff91f2a621d500640412/llvm/test/CodeGen/AMDGPU/GlobalISel/insertelement.i8.ll) mit GFX10 und GFX11 im Vergleich:
; GFX10-LABEL: insertelement_s_v2i8_s_s:
; GFX10: ; %bb.0:
; GFX10-NEXT: v_mov_b32_e32 v0, 0
; GFX10-NEXT: v_cmp_eq_u32_e64 s0, s5, 1
; GFX10-NEXT: v_cmp_eq_u32_e64 s1, s5, 0
; GFX10-NEXT: global_load_ushort v0, v0, s[2:3]
; GFX10-NEXT: s_waitcnt vmcnt(0)
; GFX10-NEXT: v_lshrrev_b32_e32 v1, 8, v0
; GFX10-NEXT: v_cndmask_b32_e64 v2, v0, s4, s1
; GFX10-NEXT: v_cndmask_b32_e64 v1, v1, s4, s0
; GFX10-NEXT: s_movk_i32 s0, 0xff
; GFX10-NEXT: v_and_b32_sdwa v3, v1, s0 dst_sel:BYTE_1 dst_unused:UNUSED_PAD src0_sel:DWORD src1_sel:DWORD
; GFX10-NEXT: v_mov_b32_e32 v0, 0
; GFX10-NEXT: v_mov_b32_e32 v1, 0
; GFX10-NEXT: v_or_b32_sdwa v2, v2, v3 dst_sel:DWORD dst_unused:UNUSED_PAD src0_sel:BYTE_0 src1_sel:DWORD
; GFX10-NEXT: global_store_short v[0:1], v2, off
; GFX10-NEXT: s_endpgm
;
; GFX11-LABEL: insertelement_s_v2i8_s_s:
; GFX11: ; %bb.0:
; GFX11-NEXT: v_mov_b32_e32 v0, 0
; GFX11-NEXT: v_cmp_eq_u32_e64 s0, s5, 1
; GFX11-NEXT: global_load_u16 v0, v0, s[2:3]
; GFX11-NEXT: s_waitcnt vmcnt(0)
; GFX11-NEXT: v_lshrrev_b32_e32 v1, 8, v0
; GFX11-NEXT: s_delay_alu instid0(VALU_DEP_1) | instskip(SKIP_1) | instid1(VALU_DEP_2)
; GFX11-NEXT: v_cndmask_b32_e64 v1, v1, s4, s0
; GFX11-NEXT: v_cmp_eq_u32_e64 s0, s5, 0
; GFX11-NEXT: v_and_b32_e32 v1, 0xff, v1
; GFX11-NEXT: s_delay_alu instid0(VALU_DEP_2) | instskip(NEXT) | instid1(VALU_DEP_2)
; GFX11-NEXT: v_cndmask_b32_e64 v0, v0, s4, s0
; GFX11-NEXT: v_lshlrev_b16 v3, 8, v1
; GFX11-NEXT: s_delay_alu instid0(VALU_DEP_2) | instskip(SKIP_2) | instid1(VALU_DEP_3)
; GFX11-NEXT: v_and_b32_e32 v2, 0xff, v0
; GFX11-NEXT: v_mov_b32_e32 v0, 0
; GFX11-NEXT: v_mov_b32_e32 v1, 0
; GFX11-NEXT: v_or_b32_e32 v2, v2, v3
; GFX11-NEXT: global_store_b16 v[0:1], v2, off
; GFX11-NEXT: s_sendmsg sendmsg(MSG_DEALLOC_VGPRS)
; GFX11-NEXT: s_endpgm

Complicated
2022-11-01, 14:33:53
Ich glaube nicht, dass das tracken der Abhängigkeiten raus fliegen wird. Dieses Patent von AMD scheint darauf aufzubauen und diese Abhängigkeiten mit einem Coprozessor zu verwalten und zu markieren für eine spätere Ausführung, bei erkannten Abhängigkeiten.
https://patents.google.com/patent/US20210216368A1/en
A processor core is configured to execute a parent task that is described by a data structure stored in a memory. A coprocessor is configured to dispatch a child task to the at least one processor core in response to the coprocessor receiving a request from the parent task concurrently with the parent task executing on the at least one processor core. In some cases, the parent task registers the child task in a task pool and the child task is a future task that is configured to monitor a completion object and enqueue another task associated with the future task in response to detecting the completion object. The future task is configured to self-enqueue by adding a continuation future task to a continuation queue for subsequent execution in response to the future task failing to detect the completion object.

Dieses ältere Schaubild als Grundlage genommen, könnte das bessere Auslastung des hybriden Raytracing bewirken in Kombination:

https://cdn.eteknix.com/wp-content/uploads/2019/07/2-1-880x507.jpg

Also anstatt eines Caches einen dynamischen Dispatcher/Reorder Buffer

Gipsel
2022-11-01, 14:42:54
Ich glaube nicht, dass das tracken der Abhängigkeiten raus fliegen wird.Siehe mit dem ergänzten Beispiel (gibt sehr viele (https://github.com/llvm/llvm-project/search?q=s_delay_alu)). Alle Codeschnipsel mit RDNA3-Maschinencode aus LLVM benutzen "s_delay_alu" genau so wie im Patent beschrieben (für ganz normalen Code völlig unabhängig von RT).

Complicated
2022-11-01, 15:04:54
Ja ist schon klar, dass das nicht RT-spezifisch ist :)
Der Punkt ist, wenn zuvor ein Co-Prozessor als Dispatcher die Abhängigkeiten besser sortiert und so die delay-Zeit reduziert wird oder seltener zum tragen kommt.

Ich glaube allerdings, dass hier RT überproportional profitieren kann bei AMDs Hybrid-Ansatz mit den TMUs

Edit: Es gibt interessanterweise ein Sony-Patent um Raytracing auf der PS5 durch Software zu optimieren. Also gar nicht neue Hardware benötigt wird. Eingereicht von Mark Cerny.
https://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/Raytracing-Patent-Sony-1390152/
Wer die Vorzüge von Raytracing in vollem Umfang genießen möchte, ist bislang auf einem entsprechend leistungsstarken PC am besten aufgehoben. Zwar bieten auch die beiden Next-Gen-Konsolen Xbox Series X und Playstation 5 dedizierten Raytracing-Support, doch der geht häufig noch zulasten der Bildrate. Das könnte sich in Zukunft allerdings ändern, denn Sony hat ein Patent angemeldet, das genau dieses Problem in den Griff kriegen soll.
Ich denke das ist auch AMDs Ziel mit Ihrem Ansatz, dass Softwareseitig deutlich mehr Möglichkeiten genutzt und gefördert werden können.

basix
2022-11-01, 15:09:00
Reduzierte Divergenz (Sorting) und beschleunigtes BVH-Traversal (weniger Instructions nötig). Ersteres könnte die IPC auch in anderen Szenarien verbessern. Kommt das so, wäre das doch bereits recht vielversprechend.

Nakai
2022-11-01, 15:16:56
Reduzierte Divergenz (Sorting) und beschleunigtes BVH-Traversal (weniger Instructions nötig). Ersteres könnte die IPC auch in anderen Szenarien verbessern. Kommt das so, wäre das doch bereits recht vielversprechend.

Übermäßig viel erwarte ich da aber auch nicht. Vielversprechend ist dennoch, dass AMD wohl die gesamte CU/WGP überarbeitet hat. Naja mein Bild bzgl. RDNA3 komplettiert sich bei mir gerade...zwei Tage vor Release.

Performance-technisch wird sich N31 definitiv sehen lassen können.:)

Gipsel
2022-11-01, 15:18:38
Was s_delay_alu macht, ist schlicht den entsprechenden Instruktionen im instruction buffer (so hieß das bei GCN) bzw. der Scheduling Queue entsprechende Flags zu verpassen, so daß für diese Instruktionen kein Issue erfolgt, bis das Ergebnis der entsprechend markierten vorhergehenden Anweisungen bereitsteht. Man spart sich schlicht die Hardware für das Erkennen dieser Abhängigkeiten (die es bei RDNA1/2 gegeben hat).

Complicated
2022-11-01, 15:25:39
Spannend sind dabei die aktuellen Gerüchte für eine 2,5 fache Raytracing Leistung bei Sonys kommender PS5 Pro. DevKits sollen schon unterwegs sein.
https://playfront.de/ps5-pro-entwickler-sollen-bereits-devkits-fuer-mid-gen-refresh-besitzen/
Damals war die Rede von einer doppelten Performance und ein bessere Abstimmung auf PlayStation VR2, während die Raytracing-Fähigkeiten einen 2.5.fachen Boost erhalten sollen. Zudem soll Sony an einer Technik arbeiten, die der von AMDs FidelityFX Super Resolution ähnelt, jedoch auf eigenen Grundlagen basiert.
Daher sollte man für RDNA3 die 2,5 Raytracing-Leistung möglicherweise gar nicht so sehr nur in der verbauten Hardware suchen, sondern es ist möglicherweise ebenfalls eine Hybride Steigerung aus Software/Hardware.

Complicated
2022-11-01, 15:34:56
Man spart sich schlicht die Hardware für das Erkennen dieser Abhängigkeiten (die es bei RDNA1/2 gegeben hat).
Ich glaube nicht, dass das tracken der Abhängigkeiten raus fliegen wird. Dieses Patent von AMD scheint darauf aufzubauen und diese Abhängigkeiten mit einem Coprozessor zu verwalten und zu markieren für eine spätere Ausführung, bei erkannten Abhängigkeiten.
https://patents.google.com/patent/US20210216368A1/en

Das Patent, das ich verlinkt hatte, spart aber keine Hardware, sondern fügt einen Co-Prozessor mit Memory-Pool hinzu. Möglicherweise hast Du den Link in meinem Beitrag übersehen.
https://patentimages.storage.googleapis.com/fa/7c/10/099c8b13784dda/US20210216368A1-20210715-D00000.png

Spannend finde ich mit diesem Co-Processor+Memory-Pool in Richtung Bedeutung für ein Multi-GCD-Design zu denken.
2018 eingereicht und 2021 bewilligt worden das Patent - daher kann es schon vollständig in RDNA3 implementiert worden sein.

Edit: Wenn mich nicht alles irrt, beschreibt es eigentlich recht genau was bei Angstronomics als OREO bezeichnet wurde:
https://www.angstronomics.com/p/amds-rdna-3-graphics?s=31
One of the features in the RDNA 3 graphics pipeline is OREO: Opaque Random Export Order, which is just one of the many area saving techniques. With gfx10, the pixel shaders run out-of-order, where the outputs go into a Re-Order Buffer before moving to the rest of the pipeline in-order. With OREO, the next step (blend) can now receive and execute operations in any order and export to the next stage in-order. Thus, the ROB can be replaced with a much smaller skid buffer, saving area.
Hier kann ja beides zutreffen - der bisherige Re-Order Buffer fliegt raus und wird durch den deutlich kleineren "skid buffer" ersetzt.

Gipsel
2022-11-01, 16:45:37
Das Patent, das ich verlinkt hatte, spart aber keine Hardware, sondern fügt einen Co-Prozessor mit Memory-Pool hinzu.Und hat nichts mit dem zu tun, worüber ich schrieb. ;)
Edit: Wenn mich nicht alles irrt, beschreibt es eigentlich recht genau was bei Angstronomics als OREO bezeichnet wurde:
https://www.angstronomics.com/p/amds-rdna-3-graphics?s=31Nicht unbedingt. "Dein" Patent befaßt sich prinzipiell mit der Optimierung des Prozesses, wenn die GPU die Aufgabe nicht von der CPU bekommt, sondern die GPU sich selber einen Kernelaufruf in die Queue des Command Processors stellt ("device enqueue" oder "dynamic parallelism", wie nV das nennt). Traditionell ist das ein Compute Kernel/Shader, der je nach Ergebnis dann quasi selber wieder einen Kernel aufruft. Das ist zuerst mal für Compute-Lösungen (z.B. für die CDNA-Geschichten) wichtig. Auch deswegen fängt das ja so an: "This invention was made with Government support under PathForward Project (https://www.exascaleproject.org/research-group/pathforward/) with Lawrence Livermore National Security (Prime Contract No. DE - AC5207NA27344 , Subcontract No. B620717 ) awarded by DOE . The Government has certain rights in this invention." ;) Könnte das irgendwie auch mal für Grafikanwendungen wichtig werden? Vielleicht. Aber ich würde die Bedeutung im Moment nicht als sehr hoch ansehen.

Und was OREO angeht, die Beschreibung von Angstronomics läßt meiner Meinung nach noch deutlich zu wünschen übrig. Erklären tut die nicht wirklich etwas.
Mit GFX11 gibt es übrigens ein Flag ob ein Compute-Shader als Teil der Grafik-Pipeline vm_image-Anweisungen (das sind TMU-Anweisungen) enthält (sehr häufig für die Postprocessing und AA/Upsampling-Passes der Fall). In dem Fall stallen diese Instruktionen, bis die vorherige Stage das Signal gibt, daß alle Exports fertig sind. Dies ist eigentlich nur nötig, wenn die Ausführung überlappen kann und die sequentielle Ordnung nicht auf Ebene des Commandprocessors erzwungen wird. Ob das auch für andere Shadertypen gilt, keine Ahnung.

Complicated
2022-11-01, 17:28:21
Und hat nichts mit dem zu tun, worüber ich schrieb. ;)Das fiel mir auf ;)
Du hast aber recht, das kommt auch aus dem FPGA-Bereich und ist vermutlich CDNA zuzuordnen zunächst.

Das gilt allerdings auch für den "skid buffer" der bei OREO beschrieben ist. Möglicherweise ist RDNA3 in erster Linie Übernahme von Technologien aus CDNA die nützlich erscheinen im Desktop.

horn 12
2022-11-01, 17:51:23
AMDGPU
@AMDGPU_

At long last with RDNA3, AMD will finally send Nvidia Geforce to the shadow realm.

RDNA3 will issue RTX40 an embarrassing defeat and teach Nvidia a lesson they won't soon forget.

Don't miss this historic moment.


https://mobile.twitter.com/amdgpu_



Man munkelt anderseits von 1099 bis 1149 US Dollar bei Höherer Leistung als RTX 4090
Dies wäre ein Desaster für Nvidia!

DrFreaK666
2022-11-01, 18:02:56
AMDGPU ist ein Mega-Fanboy.
Den nimmst du hoffentlich nicht wirklich ernst

Linmoum
2022-11-01, 18:09:04
Man munkelt anderseits von 1099 bis 1149 US Dollar bei Höherer Leistung als RTX 4090
Dies wäre ein Desaster für Nvidia!
Das wäre ein Desaster für AMD und Su ist längst nicht so dumm. Komm einfach mal von der Vorstellung weg, dass AMD hier groß was zu verschenken hat. Geringere Herstellungskosten als AD102 mal außen vor, trotzdem wird es keinen N31 mit höherer Leistung (wo auch immer) für $500 weniger geben.

Ansonsten keine Ahnung, wer der Typ ist. Klingt ein bisschen nach vv Twitteraccount.

Nakai
2022-11-01, 18:10:25
Vielleicht sehen wir am 3ten November gar nicht soviel, was auch der Grund ist, wieso wir so wenig konkrete Leaks haben?

fondness
2022-11-01, 18:12:09
Heute kommen jedenfalls die Zahlen, da könnte es schon ein paar Infos von Lisa geben.

Linmoum
2022-11-01, 18:16:10
Vielleicht sehen wir am 3ten November gar nicht soviel, was auch der Grund ist, wieso wir so wenig konkrete Leaks haben?Es gibt keine Leaks, weil das diesmal wieder ein echter Livestream wird. Da kann aus voraufgezeichnetem auch nicht wieder schon großartig was vorab durchsickern. ;)

horn 12
2022-11-01, 18:21:07
Die Quaratalszahlen meinste @fondness

Iscaran
2022-11-01, 18:21:30
Naja, also er gab am 14.10.2022 auf Twitter (https://mobile.twitter.com/AMDGPU_/status/1580725765267935233?cxt=HHwWgsDS4avt7u8rAAAA) immerhin folgende "Prognose" ab:

My final RDNA3 performance, power and price prediction:

7950XT
- 2.06x raster perf (+55% per W)
- 2.64x compute perf (63tflops)
- 3.5x raw RT perf
- upto 3x raster+RT perf
- 400W
- $1,200

- Beats the 4090 by 22% (raster)

Obs stimmt :-)? Wohl eher nicht.

robbitop
2022-11-01, 18:22:19
Leaks sind ohne die HW und Treiber zu haben nicht möglich zur Performance. Plus das BIOS. Durch die strikte Restriktion zum Zugang zur Software konnte man entsprechende leaks komplett vermeiden. Performanceleaks gibt es deshalb bei beiden IHVs schon eine Weile nicht mehr.

Rolsch
2022-11-01, 18:23:05
Der Preis könnte stimmen.

amdfanuwe
2022-11-01, 18:24:30
Heute kommen jedenfalls die Zahlen, da könnte es schon ein paar Infos von Lisa geben.
Keinesfalls.
Außer dass RDNA3 und EPYC Genoa dieses Quartal kommen, wird man da nichts konkreteres erfahren.

dargo
2022-11-01, 18:25:39
Das wäre ein Desaster für AMD und Su ist längst nicht so dumm. Komm einfach mal von der Vorstellung weg, dass AMD hier groß was zu verschenken hat.
1099-1149$ sind bei dir schon "verschenken"? Wie weichgespült hat dich Nvidia schon? :uconf3: AMD hat aus gutem Grund den Weg mit dem GCD und MCDs in unterschiedlichen Fertigungsverfahren gewählt. Damit die eben nicht so abgehobene Preise wie Nvidia bei AD102 und AD103 abrufen muss. Im übrigen bedeuten 1149$ immer noch hier einen Straßenpreis von ~1400€. Verschenken... lol.

Rolsch
2022-11-01, 18:29:08
Wäre RDNA3 ein 4090 Killer hätten sie doch schon längst was über die World-Fastest-Gaming-GPU coming soon herausposaunt oder zumindest durchsickern lassen.

Complicated
2022-11-01, 18:31:37
War noch nie AMDs Stil. Und seit der HD5000 Serie haben sie auch die ganze Leakerei fast vollständig unterbunden. "Durchsickern lassen" als Marketing ist ein Foren Mythos, das will kein Unternehmen.

MSABK
2022-11-01, 18:31:43
$1200 halte ich für realistisch. Sollten bei uns dann 1499€ werden.

ChaosTM
2022-11-01, 18:36:09
Ist nicht Lisas Stil und so ist es auch viel spannender.
Mit einem Killer, speziell unter RT rechnet auch niemand wirklich, aber man könnte nahe genug herankommen, um zumindest die "4080"er zu dem Preispunkt sehr alt ausschauen zu lassen.

+ Gleicher Preis, 25% schneller, bei RT ca gleich, DP 2.0(1) und die Entscheidung wird ziemlich einfach.

bbott
2022-11-01, 18:45:19
$1200 halte ich für realistisch. Sollten bei uns dann 1499€ werden.
Preis Spekulationen sind mMn so sinnlos, die Leistung definiert was ein Produkt kostet. Da wir die Leistung nicht kennen, kennen wir erst recht nicht den Preis.

Thomas Gräf
2022-11-01, 18:52:51
Ist nicht Lisas Stil und so ist es auch viel spannender.
Mit einem Killer, speziell unter RT rechnet auch niemand wirklich, aber man könnte nahe genug herankommen, um zumindest die "4080"er zu dem Preispunkt sehr alt ausschauen zu lassen.

+ Gleicher Preis, 25% schneller, bei RT ca gleich, DP 2.0(1) und die Entscheidung wird ziemlich einfach.

Was? Du willst auf eine Zündschnur im PC verzichten... :biggrin:

AffenJack
2022-11-01, 19:03:23
1099-1149$ sind bei dir schon "verschenken"? Wie weichgespült hat dich Nvidia schon? :uconf3: AMD hat aus gutem Grund den Weg mit dem GCD und IMCs in unterschiedlichen Fertigungsverfahren gewählt. Damit die eben nicht so abgehobene Preise wie Nvidia bei AD102 und AD103 abrufen muss. Im übrigen bedeuten 1149$ immer noch hier einen Straßenpreis von ~1400€. Verschenken... lol.

Was meinst du warum N31 nur noch als 79xx kommt. Salvage 999$, daher bei uns 1200€ und Vollausbau drüber, wenn N31 leistungsmäßig nicht gerade deutlich hinterher hinkt. AMD wird mit der veränderten Namensgebung auch sicherlich die Preise erhöhen.

@Leaks
Es ist doch klar, wieso es noch kaum Leaks gibt. Die Präsi ist 1 Monat vor dem Launch und es ist noch nichtmal klar, ob auch Customs dann kommen. Da ist es kein Wunder, dass es weniger Leaks gibt. Früher hat man mit 1-2 Wochen Vorlauf gelauncht, da leakt natürlich deutlich mehr.

Mangel76
2022-11-01, 19:05:52
Preis Spekulationen sind mMn so sinnlos, die Leistung definiert was ein Produkt kostet. Da wir die Leistung nicht kennen, kennen wir erst recht nicht den Preis.
In die Preisgestaltung geht so viel mehr ein als die reine Leistung. Die Aussage ist genauso unsinnig wie die Entschuldigung der hohen Produktionskosten für die 4090-Preise. Leistung und Kosten sind nur 2 Aspekte unter vielen bei der Preisgestaltung.

Linmoum
2022-11-01, 19:10:56
1099-1149$ sind bei dir schon "verschenken"? Wie weichgespült hat dich Nvidia schon? :uconf3: AMD hat aus gutem Grund den Weg mit dem GCD und IMCs in unterschiedlichen Fertigungsverfahren gewählt. Damit die eben nicht so abgehobene Preise wie Nvidia bei AD102 und AD103 abrufen muss. Im übrigen bedeuten 1149$ immer noch hier einen Straßenpreis von ~1400€. Verschenken... lol.Was interessiert AMD der Europreis? Völlig irrelevant für deren Preisfindung.

Und ja, wenn man >4090 Performance hätte und dafür (fast) $500 weniger nimmt, dann ist das schlicht verschenken und hat nichts mehr mit wirtschaftlich sinnvollem Handeln als Unternehmen zu tun (die 6900XT hatte 50% weniger VRAM und lag bei RT auch gerne mal >2x zurück, bevor jetzt jemand mit den $999 vs. $1499 als Vergleich ankommen will). Im Übrigen auch wenn man sieht, dass die Leute auch ohne mit der Wimper zu zucken $1599 für eine 4090 auf den Tisch legen.

Ganz davon ab, dass bei alledem immer noch die Marge das entscheidende Kriterium ist. Wenn AMD für >50% den Preis aktuell bei mindestens $1200 ansetzen müsste, dann wird man das auch dann. Denn ein Preiskampf schadet AMD langfristig mehr als NV, weil man bei GPUs längst noch nicht das Mindshare hat, wie gegenüber Intel bei CPUs.

Viele freuen sich dann, dass sie ihre NV GPU günstiger kriegen. Kann man auch oft genug lesen.

prinz_valium_2
2022-11-01, 19:27:23
Das wäre ein Desaster für AMD und Su ist längst nicht so dumm. Komm einfach mal von der Vorstellung weg, dass AMD hier groß was zu verschenken hat. Geringere Herstellungskosten als AD102 mal außen vor, trotzdem wird es keinen N31 mit höherer Leistung (wo auch immer) für $500 weniger geben.

Ansonsten keine Ahnung, wer der Typ ist. Klingt ein bisschen nach vv Twitteraccount.

So funktioniert aber Wirtschaft.
Wenn du keinen Markt(anteil) hast, dann musst du ihn mit kostenlosen oder günstigen Produkten penetrieren. Preise erhöhen und Gewinne machen kannst du dann später immer noch.

So machen es alles und so hat es AMD auch mit den CPUs gemacht.
$999 war der Launchpreis der 6900XT als Halo Produkt. Die 7900XT (20GB salvage) wird genauso günstig zu produzieren sein. Also wird die Karte schon mal nicht mehr kosten. Weniger ist natürlich möglich.

Bleibt die Frage, was dann die 7900XTX kosten wird.

dargo
2022-11-01, 19:39:13
Was meinst du warum N31 nur noch als 79xx kommt.
Weil 78xx für N32 reserviert ist? Ist wohl für manche zu hoch hier einfachste Logik.


Und ja, wenn man >4090 Performance hätte und dafür (fast) $500 weniger nimmt, dann ist das schlicht verschenken und hat nichts mehr mit wirtschaftlich sinnvollem Handeln als Unternehmen zu tun...
Klar... du hast scheinbar schon vergessen wie AMD mit Ryzen erfolgreich geworden ist und wo damals die Preise bei Intel CPUs standen im Vergleich zu heute. Heute muss Intel die Preise drücken, so haben sich die Zeiten geändert.

Linmoum
2022-11-01, 19:42:00
So funktioniert aber Wirtschaft.
Wenn du keinen Markt(anteil) hast, dann musst du ihn mit kostenlosen oder günstigen Produkten penetrieren.Das ist aber nicht Sus Strategie und das siehst du auch an den GPU-Preisen. Egal ob 5700(XT) damals, die 6800XT die nur unwesentlich günstiger als die 3080 war oder auch die Preise der 6500XT.

Gerade letztere ist ein Paradebeispiel für Margen >. Marktanteile.

Daredevil
2022-11-01, 19:46:55
AMDs Preise waren bislang immer konkurrenzfähig, weil sie in den letzten Jahren immer hinter Nvidia gelauncht haben, so wie dieses Jahr auch. Natürlich ist es dann einfacher, das man das Portfolio besser an den Mitbewerber anpassen kann. Das ist keine "Lisa Strategie", sondern Marktbeobachtung. Mal davon ab, dass sie erst seit einer Generation durchgängig überhaupt ein Mitbewerber sind im HighEnd Bereich.

Genau das gleiche Spiel hat Intel dieses Jahr mit Zen4 gespielt und das Ergebnis kennt man ja. Zen4 ist "langweilig und teuer" und Intel bietet auf einmal seit gefühlt Ewigkeiten Price Value an. Wer zuletzt kommt, hat immer strategisch bessere Karten.

fondness
2022-11-01, 19:48:33
@Leaks
Es ist doch klar, wieso es noch kaum Leaks gibt. Die Präsi ist 1 Monat vor dem Launch und es ist noch nichtmal klar, ob auch Customs dann kommen. Da ist es kein Wunder, dass es weniger Leaks gibt. Früher hat man mit 1-2 Wochen Vorlauf gelauncht, da leakt natürlich deutlich mehr.

Es hat schon sehr viel mit der Firmen Philosophie zu tun. Leaks werden bewusst eingesetzt als Marketinginstrument bzw um im Gespräch zu bleiben. AMD und andere können natürlich sehr gut steuern wann was geleaked wird bzw. werden kann. Wer zb glaubt, dass es Zufall ist, dass ein Bild der 7900 mit den 2x 8 pin Anschlüssen auftaucht, nachdem Nvidia Probleme beim Stromanschluss hat, der glaubt auch an den Weihnachtsmann. Ich arbeite in einer Firma, wo sich eine ganze Abteilung damit beschäftigt, wann was wie an die Öffentlichkeit geleaked wird.

Troyan
2022-11-01, 19:51:22
Da nVidia mit der 4080 16GB die Preisgrenze schon definiert hat, wird AMD irgendwo in der Nähe liegen. Höher macht 0 Sinn, da dann der Markt komplett in sich zusammenfällt. Und dann muss man schon was bieten, was besser als eine 4090 ist.

fondness
2022-11-01, 19:55:40
So funktioniert aber Wirtschaft.
Wenn du keinen Markt(anteil) hast, dann musst du ihn mit kostenlosen oder günstigen Produkten penetrieren. Preise erhöhen und Gewinne machen kannst du dann später immer noch.

So machen es alles und so hat es AMD auch mit den CPUs gemacht.
$999 war der Launchpreis der 6900XT als Halo Produkt. Die 7900XT (20GB salvage) wird genauso günstig zu produzieren sein. Also wird die Karte schon mal nicht mehr kosten. Weniger ist natürlich möglich.

Bleibt die Frage, was dann die 7900XTX kosten wird.

Das funktioniert aber nur, wenn man so arrogant ist wie Intel und nicht bereit ist die Preise anzupassen bzw man es auch lange nicht nötig hatte. Immer wenn AMD aber gegen Nvidia einen Preiskampf gemacht hat, hat Nvidia einfach die Preise gesenkt und damit ist der Effekt verpufft.

fondness
2022-11-01, 19:58:49
Genau das gleiche Spiel hat Intel dieses Jahr mit Zen4 gespielt und das Ergebnis kennt man ja. Zen4 ist "langweilig und teuer" und Intel bietet auf einmal seit gefühlt Ewigkeiten Price Value an. Wer zuletzt kommt, hat immer strategisch bessere Karten.

Intel bietet price value an, weil der Desktop das einzige Segment ist, wo man noch konkurrenzfähig ist.

prinz_valium_2
2022-11-01, 20:02:37
Das funktioniert aber nur, wenn man so arrogant ist wie Intel und nicht bereit ist die Preise anzupassen bzw man es auch lange nicht nötig hatte. Immer wenn AMD aber gegen Nvidia einen Preiskampf gemacht hat, hat Nvidia einfach die Preise gesenkt und damit ist der Effekt verpufft.

Top. Das wäre ein Win-win.
Hoffen wir es kommt so.

vinacis_vivids
2022-11-01, 20:04:12
Ich sehe die 7900XTX ~20% schneller als 4090FE im Raster und im RT 5-10% langsamer bei NV gesponsorten RT-Demos. Bei vendorneutraler RT-Implementierung sehe ich AMD mind. Gleichstand bzw. weiter vorne.
Hardwaretechnisch und technologisch sehe ich die AMD RDNA3 uArch als deutlich besser als ADA an. Ausgeglichener, mehr Perf/Watt, mehr Perf/$, weniger Stromverbrauch, geile Leistung. Ein echtes "Geschenk" für den PC-Gamer und GPUs für den Gamer explizit gemacht.

Könnte eine Radeon 9700Pro oder Radeon 1900XTX sein wo AMD Richtung 40-50% diskrete GPU-Marktanteile marschiert (dann mit RDNA4).

Preis 1499-1599€ für 7900XTX full und 1099-1199€ für die 7900XT salvage. Ist im übrigen ne Menge Holz für ne Grafikkarte.

Eine solche uArch Leistung tut auch der neuen Mittelklasse mit N32 7800 & 7800XT 16GB sehr sehr gut und AMD kann dann viele zum Lagerwechsel bewegen. Das Portfolio sieht bei AMD viel ausgewogener aus.

Tangletingle
2022-11-01, 20:19:04
Boah der hypetrain ist wieder einmal kurz vor dem derail. Könnt ihr eure Erwartungshaltung nicht auf sinnvolles Niveau regulieren? Unfassbar.

Lyka
2022-11-01, 20:21:53
in 48h kennen wir wenigstens Eckdaten und Projektionen, bis dahin können wir gerne exzessiv spekulieren :D

mboeller
2022-11-01, 20:23:22
in 48h kennen wir wenigstens Eckdaten und Projektionen, bis dahin können wir gerne exzessiv spekulieren :D

49h

Donnerstag um 21uhr ist es soweit
https://www.youtube.com/watch?v=hhwd6UgGVk4

Sardaukar.nsn
2022-11-01, 20:32:59
Für die wasserkühlungs Leute vielleicht interessant. Alphacool aus Braunschweig sucht AMD RX 7xxx um diese zu vermessen und kostenlos Wasserkühler zu bauen.

https://i.imgur.com/2LkDCHg.jpg

Konkret geht es um dieses Programm: https://www.alphacool.com/shopware.php?sViewport=ticket&sFid=141

basix
2022-11-01, 20:33:47
Boah der hypetrain ist wieder einmal kurz vor dem derail. Könnt ihr eure Erwartungshaltung nicht auf sinnvolles Niveau regulieren? Unfassbar.

v_v ist auf Dauer-Hypetrain ;)

Alle anderen sind wohl konservativ optimistisch und hoffen auf ~4090 Performance und bei RT etwas weniger. Wenn es mehr wird sicher gerne. Und dass bei Preisen, die noch vernünftig erscheinen.

Linmoum
2022-11-01, 20:42:55
Top. Das wäre ein Win-win.
Hoffen wir es kommt so.Für die Kunden wäre es schön, für AMD aber nicht. Weil gerade dann die Leute zu Nvidia greifen, wenn die Karten (noch) günstiger werden. Das wird sich auch so schnell nicht ändern, dafür ist die Marke Nvidia viel zu stark präsent in den Köpfen und bei vielen halten sich gerade bei Radeons weiterhin die Vorurteile kaputter Treiber, während bei Nvidia alles immer toll läuft. Ob das noch stimmt, spielt dabei keine Rolle.

Der größte Verlierer eines Preiskampfes - gerade im High-End - wäre definitiv AMD. "Preiskampf" geht womöglich am ehesten noch bei einem 200mm² N33 im kostengünstigen Brot-und-Butter-N6.

Man muss aber halt auch Bedenken, dass für jedes Unternehmen die Kosten in quasi allen Bereichen in den letzten Monaten gestiegen sind und kein Ende in Sicht ist. Da ist auch noch Platz für weitere Kostensteigerungen, egal ob bei TSMC oder auf den Transportwegen. Wenn man vor dem Hintergrund in einen Preiskampf einsteigt, schadet man sich schlicht nur selbst.

AMD hat sicher genug Spielraum und wenn sie einen ~4090-Konkurrenten für $1399 anbieten würden, wäre das immer noch ein gutes Stück günstiger. Aber man sollte einfach mal seinen Kopf aufmachen und Realismus Einzug halten lassen - und der heißt eben nicht 4090-Konkurrent für <$1149. Auch weil Su nicht blind ist und sieht, dass die Leute bereit sind, viel Geld für viel Performance auszugeben.

mironicus
2022-11-01, 20:52:17
Kein Wunder das NVidia versucht, seine Karten so schnell wie möglich und so teuer wie möglich zu verkaufen. Wenn AMD seine Karten veröffentlicht, wird der Preis für die 4090 sicherlich um 700 Euro fallen müssen. :)

Badesalz
2022-11-01, 20:55:58
$1200 halte ich für realistisch. Sollten bei uns dann 1499€ werden.Blödsinn. Wie oft denn noch?

Lyka
2022-11-01, 20:56:32
49h

Donnerstag um 21uhr ist es soweit
https://www.youtube.com/watch?v=hhwd6UgGVk4


Danke, ich dachte immer, es ist mehr Nachmittag :(


Dann werde ich es in 52+h mitbekommen :|

gedi
2022-11-01, 21:04:38
Wenn man nach Twitter especially Greymon und Redgaming Tec. gehen mag, soll N31 ein Effizienz-Wunder sein. Wird auf jeden Fall interessant am 3.11 ...

Linmoum
2022-11-01, 21:10:44
Mit ">"50% Perf/Watt und 2x8pin kann man ja schon erahnen, in welche Richtung es geht. Auch, dass AMD damit realistisch nicht über 350W bei der Refernz gehen wird.

gedi
2022-11-01, 21:25:25
Mit ">"50% Perf/Watt und 2x8pin kann man ja schon erahnen, in welche Richtung es geht. Auch, dass AMD damit realistisch nicht über 350W bei der Refernz gehen wird.

Wird interessant zu sehen wie weit über 50%. Zudem scheint es so, dass in diesem Node so zu sein scheint, dass Wattage relativ gesehen nix bringt. Angefefixt bin ich trotzdem nicht, da ich kein Gamer mehr bin. Sprich ich ich verkaufe meinen Krempel und wechsle auf x670(e) und 7950 ohne dGPU!

Slipknot79
2022-11-01, 21:36:05
$1200 halte ich für realistisch. Sollten bei uns dann 1499€ werden.


1200$ würde bedoiten = 4080 RTX. Also deutlich langsamer als eine 4090. Das passt weniger zu den aktuellen "leaks".
Ich tippe eher auf ca 1400-1500$ -> 1800EUR. Von den Straßenpreisen ist da noch gar ned die Rede.
Fanboys glauben immer schnell, dass weil Lisa bei den benchmarks tief stapelt, dass es dann bei der Kohle auch so sein wird. Ja sie wird stapeln, nämlich die Kohle der fanyboys und das sicher nicht tief. (y)

nordic_pegasus
2022-11-01, 21:53:53
Für die wasserkühlungs Leute vielleicht interessant. Alphacool aus Braunschweig sucht AMD RX 7xxx um diese zu vermessen und kostenlos Wasserkühler zu bauen.

Konkret geht es um dieses Programm: https://www.alphacool.com/shopware.php?sViewport=ticket&sFid=141

war die Generationen davor genauso. Wobei leider seit RDNA2 und Ampere fast nurnoch Acryl-Varianten produziert werden. Da hat mich Alphacool verloren.

Die spannende Frage wird sein, ob zum Verkaufsstart von RDNA3 wieder erstmal nur das Referenz-Design verfügbar sein wird oder auch direkt Custom-Boards.

1200$ würde bedoiten = 4080 RTX. Also deutlich langsamer als eine 4090. Das passt weniger zu den aktuellen "leaks".

wenn AMD ordentlich verkaufen und sogar Marktanteile holen will, muss bei vergleichbarer Leistung weniger Preis aufgerufen werden. Vorhin im Live-Chat bei PCWorld auf Youtube hatte Gordon Mah Ung auch wieder gemeint, dass die Leute im Zweifel zu Nvidia greifen. AMD hatte bislang noch nicht den Ryzen-Moment bei den GPUs.

Da ich glaube, dass AMD bei RDNA3 angreifen will, glaube / hoffe ich auf $1199 bei der 7900XTX auf Niveau der 4090.

Nazar
2022-11-01, 21:57:34
Das funktioniert aber nur, wenn man so arrogant ist wie Intel und nicht bereit ist die Preise anzupassen bzw man es auch lange nicht nötig hatte. Immer wenn AMD aber gegen Nvidia einen Preiskampf gemacht hat, hat Nvidia einfach die Preise gesenkt und damit ist der Effekt verpufft.

Sobald AMD mit der 7XXX Serie vor nVidia liegt, kann AMD die Karten neu mischen.
Um das zu schaffen, müssen die Karten nicht nur deutlich schneller sein, AMD muss auch das "Grün" der Marke und, dass nvidia als quasi Alleinbesitzer von gutem und schnellem RT gilt (auch wenn die meisten gar nicht wissen wie RT "aussehen" müsste) aus den Köpfen der potenziellen Käufer herausbekommen.
Wenn AMD dann weiterhin nicht an die Leistungsfähigkeit der nVidia RT-Leistung heranreicht, muss und kann der Kampf um Anteile nur über den Preis stattfinden.
Da nVidia jetzt schon fast Verluste mit ihren Karten einfahren (wenn man den Fanboys Glauben schenken will ;)), kann nVidia gar nicht mehr auf einen Preiskampf reagieren.
So oder so würde nVidia verlieren, entweder an Ansehen, da sie ihre Kunden abgezockt haben und/oder die Marktanteile, sollte AMD wirklich besser sein als nVidia und günstiger anbieten (können).

Es liegt durchaus nahe, dass AMD eine Bombe platzen lassen könnte und dann wird es nVidia verdammt schwer haben.
Wenn die 7900XT oder XTX mit weniger Verlustleistung die Karte schlägt und AMD alles für 200$ weniger verkauft, was sollte nVidia dann machen, ohne das eigene Gesicht und das Vertrauen der Kunden zu verlieren?
Ich kann mir gut die passenden Memes dazu vorstellen.
Zur 4080 12 GB oder 4080 16GB. Im Grunde müssten diese dann umgelabelt und als das verkauft werden, was sie schon immer waren: eine 4060Ti und eine 4070Ti.

AMD müsste nVidia !!vernichtend!! schlagen, um trotz ähnlicher Preise Marktanteile zu gewinnen, aber das glaube ich nicht.
10% mehr RZ Leistung und ein Gleichstand beim RT werden AMD, bei ähnlichem Preis, keine nvidia-erzogenen Kunden zulaufen lassen. Man sieht ja, wie gut die 4090verkauft werden, trotz der Mondpreise. :freak:
Um in das Hirn eines nVidia-Abhängigen vorzudringen, hilft nur der Preishammer. ;)

Iscaran
2022-11-01, 22:11:57
Um in das Hirn eines nVidia-Abhängigen vorzudringen, hilft nur der Preishammer. ;)

Braucht man ja nur ins CPU-Lager zu gucken. Seit wann sind die Ryzens eigentlich Intel überlegen? Aber AMD musst bis vor kurzem immer DEUTLICH unter dem Intel-Marktpreis verkaufen.

Und selbst heute noch, Jahre nach dem "Dammbruch", gibt es immer noch genug "Junkies" wo auch der Preishammer nicht gewirkt hat.

Nun ist Intel wieder gleichauf und man kann froh sein, dass der Markt nicht instant wieder "zurückkippt".

Also, ich persönlich gehe da schon von einer "aggressiven" Preispolitik seitens AMD aus, vor allem WENN es stimmt, dass AMD soviel billiger produzieren können SOLL.

999€ für eine Karte die +- 4090 Leistung (Raster und ~20% weniger in RT) hat aber 30% weniger "säuft"...ja das wäre meine Erwartung

Slipknot79
2022-11-01, 22:15:33
Die Nvidia-Süchtigen wissen schon, wofür sie die Kohle rausballern. Lederjacke liefert eben auch entsprechend. Wenn das Gefühl "Nvidia liefert" (DLSS, RT/RZ-Leistung, sponsored game support, DLDSR usw...) weg ist, dann brechen ihm auch die Marktanteile ein. Das ged nicht nur über den price.
AMD war hier immer zu passiv, fast immer hat Nvidia in Sachen features vorlegen müssen, damit da was in Sachen features überhaupt was weiter ged. Auf AMDs Schlafzimmerabteilung kann man sich da überhaupt nicht verlassen. AMD müsste Nvidia in diesen Domänen schlagen für Marktanteile. Die jahrelange perf/watt-Shice ist einfach zu wenig, das haut kaum jemanden vom Hocker.
Ich sehe das ingesamt nicht mit dieser Generation.
Soweit can AMD die price gar nicht reduzieren, ohne dass die Aktionäre nervös werden und Nvidia gleichzeitig beginnt nur wegen einem Preiskampf zu wackeln.

Tangletingle
2022-11-01, 22:15:37
999€ für eine Karte die +- 4090 Leistung (Raster und ~20% weniger in RT) hat aber 30% weniger "säuft"...ja das wäre meine Erwartung

Da würde selbst ich diesmal sofort kaufen. Glauben kann ich das nicht.

Complicated
2022-11-01, 22:18:34
AMD muss gar nicht 200,- billiger sein. Die 79xx muss nur halb so gross sein wie die 4090. Da spart man sich ein neues Gehäuse und eine neue 1500 W PSU mit dem "richtigen" Stromstecker. Macht ja alleine schon 500,- weniger Ausgaben;)

why_me
2022-11-01, 22:20:02
Die Nvidia-Süchtigen wissen schon, wofür sie die Kohle rausballern. Lederjacke liefert eben auch entsprechend. Wenn das Gefühl "Nvidia liefert" (DLSS, RT/RZ-Leistung, sponsored game support, ...) weg ist, dann brechen ihm auch die Marktanteile ein. Das ged nicht nur über den price.
AMD war hier immer zu passiv, fast immer hat Nvidia in Sachen features vorlegen müssen, damit da was in Sachen features überhaupt was weiter ged. Auf AMDs Schlafzimmerabteilung kann man sich da überhaupt nicht verlassen. AMD müsste Nvidia in diesen Domänen schlagen für Marktanteile.
Ich sehe das nicht mit dieser Generation.
Soweit can AMD die price gar nicht reduzieren, ohne dass die Aktionäre nervös werden und Nvidia gleichzeitig beginnt nur wegen einem Preiskampf zu wackeln.

Sorry, wenn ich das so sage, und vielleicht kannst du da auch nichts dafür. Aber das tut echt weh beim lesen.

Slipknot79
2022-11-01, 22:22:59
How rain! :redface:

AMD muss gar nicht 200,- billiger sein. Die 79xx muss nur halb so gross sein wie die 4090. Da spart man sich ein neues Gehäuse und eine neue 1500 W PSU mit dem "richtigen" Stromstecker. Macht ja alleine schon 500,- weniger Ausgaben;)


Wenn Lisa Nvidia Kunden abwerben will, dann kommen die schon längst mit dicken Netzteilen daher von der letzten Grakageneration. Hier entstehen keine Zusatzausgaben, das dicke Netzteil eignet sich erst recht für AMD Karten. (y)
AMD Kunden hingegen mit den kleineren Netzteilen bleiben eben bei ihren Netzteilen.

Mangel76
2022-11-01, 22:27:27
Sorry, wenn ich das so sage, und vielleicht kannst du da auch nichts dafür. Aber das tut echt weh beim lesen.

Inhaltlich tut es noch mehr weh ;-)

Linmoum
2022-11-01, 22:48:12
Nach dem Call kann man sich irgendwelche Preiskämpfe und günstige Preise für RDNA3 dann auch direkt abschminken. Man merkt relativ deutlich an Sus Aussagen, dass AMD den ASP so hoch wie möglich halten will - auch, wenn das auf Kosten von Marktanteilen geht - und lieber andere sich um "unprofitable business" kümmern sollen (*hust* Intel *hust*).

Wer hätte es aber gedacht. Nunja, spätestens übermorgen werden diese ganzen "<$1100 für 4090-Performance" Träumer dann auch auf dem Boden der Tatsachen ankommen.

aceCrasher
2022-11-01, 22:59:41
Um in das Hirn eines nVidia-Abhängigen vorzudringen, hilft nur der Preishammer. ;)
Das sehe ich anders. Um in das Hirn eines 4090-Käufers vorzudringen hilft nur der Performancehammer. Was interessiert einen 4090-Käufer ob eine 10% günstigere und gleich schnelle AMD Alternative kommt? Eine 20% schnellere AMD Karte hingegen? Das würde am eigenen Stolz kratzen.

Thunderburne
2022-11-01, 23:01:46
Es wurde vor ein Paar Tagen etwas von 3 Karten erzählt die vorgestellt werden?
Ich bin gespannt was AMD da zeigt meine 4090 Master hab ich Retour gehen lassen weil ich mit der Lüftersteuerung unzufrieden war und weil die Karte da zu noch gefiept hat wie sau.
Da aktuell nur noch Scalper Preise aufgerufen werden schau ich mir erstmal die Präsi von AMD an.
Bei der 7900XTX Tippe ich mal auf einen Preis zwischen 4080 und 4090.
Bei der normalen 7900XT einen Preis knapp unter der 4080.

Slipknot79
2022-11-01, 23:08:45
Das sehe ich anders. Um in das Hirn eines 4090-Käufers vorzudringen hilft nur der Performancehammer. Was interessiert einen 4090-Käufer ob eine 10% günstigere und gleich schnelle AMD Alternative kommt? Eine 20% schnellere AMD Karte hingegen? Das würde am eigenen Stolz kratzen.


20% schnellere AMD interessiert auch nicht. Wenn Nvidia eine 20% schnellere 4090 Ti rausballert, dann werde ich sie auch nicht kaufen.
Was interessiert: Mehr performance UND/ODER dickere features und das aber möglichst als Erst-Releaser. Etwa ein FSR 3.0 + FG, das genauso schnell ist wie DLSS 3.0 + FG, eventuell mit weniger Kinderkrankheiten an den Start kommt, die selbe Bildqualität bittet und es sich mit einem AMD DLDSR-Äquivalent kombinieren lässt. Und das aber, bevor Nvidia etwas in diese Richtung released. (DLSS 3.0+FG konnte ich bisher leider nur im 3D Mark bewundern, das ist dort wirklich nicht ohne (y) )
RZ und RT natürlich mindestens die selbe performance.
Nun hat AMD eben das Problem, dass selbst wenn AMD als Erst-Releaser mit diesen Dinge daher kommt, ich trotzdem auf Nvidia warten würde, da "Nvidia liefert" sich schon eingeburnt hat.
perf/watt... gähn.

AMD muss eben die dickeren features liefern, die sich in den grünen Rüben einburnen. (y)
Nur am price zu drehen, ist einfach zu wenig, bzw. müsste so viel Move passieren, dass hier tatsächlich ein paar rote fanyboys Herinfarkte kassieren als hätte sie Lisa höchstpersönlich zärtlich berührt. :redface:

Gott1337
2022-11-01, 23:15:38
da die 4090 bei 350 watt auch nur ein paar prozent an Leistung verliert, weiß ich nicht was hier alle von wegen perf/watt reden, das wird auch fast unmöglich für AMD.

vinacis_vivids
2022-11-01, 23:24:39
7900XT Salvage ~ 4090FE Salvage für 999 USD ist nach wie vor möglich.
Die 1299USD dann für 7900XTX Full und ~20% schneller.

Preislich ist das ein großer Sprung nach vorne für AMD von 649USD 6800XT Salvage und 999 USD für 6900 XT full. Für den Salvage-Chip sind das satte ~65% Preissteigerung und für den Full-Chip "nur" ~30% Preissteigerung.

Die GPU-Chips sind/bleiben ohnehin Mangelware und sind weltweit gefragt. In EUR sind das trotzdem 1199€ für 7900XT Salvage und 1499€ für 7900XTX Full. AMD verdient da genug Kohle, auch wenn sie preislich unter NV-Jensen liegen.

Huang ist Multimilliardär und ein Meister im Geld abzocken. Der zieht den Leuten magisch das Geld aus der Tasche mit paar Rechentricks und Photoshop-Balkenverlängerung. So superteuer ist der ~608mm² Chip einfach nicht wie hier suggeriert wird. Huang macht wieder beste Mieme zum bösen Spiel. Der kann locker 800-900mm² Chips bauen, aber stattdessen kastriert er lieber AD103 auf 379mm² und will den extrem überteuert verkaufen bzw. spekuliert auf extrem viele Fanbois, so ca. 50%, die auf das 8er Labeling drauf reinfallen.

Es ist wie es ist: Schafe werden nunmal kahl geschoren und machen dann Määäähhhhh.

Aber genau das muss AMD bestrafen, und zwar mit solider Technik und mit fairen Mitteln.

Zu dem angeblich geleakten PCB:

Das 7900XT PCB ist ziemlich mächtig und es sieht eher nach 350W aus. Die 300W bei der 6900XT sind schon grenzwertig gewesen den Takt oben zu halten.
Bei der 7900XTX sind 400-420W meine Einschätzung. AMD braucht einfach auch Dampf hinter den CUs.
Für 300W sind die Chips einfach nicht groß genug oder der Takt dann zu niedrig. Die 12288SP müssen auch gefüttert werden.