Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
fondness
2022-09-19, 15:27:35
Es sollte irgendwo ~300mm2 vs. ~400mm2 hinsichtlich "Shader Arrays" liegen (N31 vs. AD102). So extrem gross ist der Unterschied jetzt also nicht. Aber klar, AMD hätte das Design mit der besseren Flächeneffizienz. Hatte RDNA2 aber auch schon, auch wenn man Tensor & RT Cores miteinbezieht. N21 vs. GA102 sind ~300...350mm2 vs. ~400mm2 für die Chips ohne I/O und bei N21 noch den Infinity Cache (Tensor & RT bei GA102 abgezogen) ;)
Und egal wie es angestellt wurde: Wenn RDNA3 sich Kopf an Kopf mit Lovelace prügelt, auch inkl. RT, ist es für AMD ein Erfolg.
Das wäre mehr als nur ein Erfolg. Wenn AMD mit 100W weniger TDP & ~100mm² weniger Shader-Chipfläche dieselbe Leistung erreichen würde, wäre NV in jedem Effizienzkriterium klar geschlagen und nur noch dank brute force konkurrenzfähig. Ganz davon abgesehen, dass das Chiplet Design die Kosten bei AMD natürlich weiter drückt. Also das glaube ich erst wenn ich es sehe.
prinz_valium_2
2022-09-19, 15:40:34
https://mobile.twitter.com/9550pro/status/1571834170900623360
Knapp 4GHz? :freak:
Klingt zu gut um Wahr zu sein, aber falls es stimmt, dann immer her damit.
Felixxz2
2022-09-19, 15:42:19
Wie sicher sind denn die 300mm2? Oder wie sicher sind die 12k Shader?
Denn so ganz passen die Beiden Werte ja nicht zusammen, außer AMD hat isoliert massiv die Shaderleistung ausgebaut, ohne den Rest entsprechend mit aufzubohren. Aber wieso sollten sie das tun, wo doch ihre Maxime in den letzten Jahren genau das Gegenteil war. Wieso sollte man jetzt ohne Not einen 73 TFLOPs Papiertiger bauen, der die Leistung nicht auf die Straße bringt?
Man hätte ja auch einfach N21 vergrößern und de Takt steigern können, wenn AD103 das Ziel wäre.
Iscaran
2022-09-19, 15:45:36
4 GHz sind bestimmt mit sehr guter Kühlung am selektierten Chip.
D.h. aber auch dass wir "Base Clock" 3GHz+ erwarten dürften....was mehr als reicht um mit Ada auf Augenhöhe zu "Verhandeln" :-)
Linmoum
2022-09-19, 15:47:24
Kepler deutet ja schon länger an, dass der Takt enorm gestiegen ist und der Abstand Ampere vs. RDNA2 beim Takt auch ähnlich bei Ada vs. RDNA3 sein soll. Was ja zwangsläufig schon >3.5GHz bedeuten müsste.
Der Vergleich mit Pascal passt aber irgendwie. Bleibt dann nur noch die Frage, ob sich das mit der Performance ähnlich verhält. ;)
It's also very similar to Pascal:
- Fewer shaders
- Higher clocks
- Lower TDP
- Less expensive memory
- Smaller die size
https://mobile.twitter.com/Kepler_L2/status/1571851565471879168
davidzo
2022-09-19, 16:03:51
4 GHz sind bestimmt mit sehr guter Kühlung am selektierten Chip.
D.h. aber auch dass wir "Base Clock" 3GHz+ erwarten dürften....was mehr als reicht um mit Ada auf Augenhöhe zu "Verhandeln" :-)
Könnte halt wirklich was gebracht haben dass man den ganzen Analogkrams auf ein extra-DIE verfrachtet um den Prozess zu 100% auf die Logik zu optimieren.
Alle reden immer von dem optimalen Prozess für den Einsatzzweck. Was für großes Potential dann freigesetzt würde wenn man spezialisierte Prozesse nutzen kann. Selbst Intel tut das in letzter Zeit. Könnte sein dass das hier ein erster Vorgeschmack auf das ist was und mit Meteor Lake erwartet oder mit Zen5 (Logic Die auch getrennt vom Cache-Die wie bei RDNA3?).
Edgecrusher86
2022-09-19, 16:15:16
Btw. => 122,9 TF/s FP32 - Full Navi 3x @ 15360SP @ 4 GHz (LN2?!) [109 wäre eine 3 GHz "3090 Ti"]. :freak:
Iscaran
2022-09-19, 16:18:35
Btw. => 122,9 TF/s FP32 - Full Navi 3x @ 15360SP @ 4 GHz (LN2?!) [109 wäre eine 3 GHz "3090 Ti"]. :freak:
4/122.9*109 => mit 3. 55 GHz wäre dann so ein N3x gleichauf mit einer derartigen 4090 Ti.
Der Herbst ist heiss. (Fuck you Klimawandel :D)
Ravenhearth
2022-09-19, 16:25:34
Wie sicher sind denn die 300mm2? Oder wie sicher sind die 12k Shader?
Denn so ganz passen die Beiden Werte ja nicht zusammen, außer AMD hat isoliert massiv die Shaderleistung ausgebaut, ohne den Rest entsprechend mit aufzubohren. Aber wieso sollten sie das tun, wo doch ihre Maxime in den letzten Jahren genau das Gegenteil war. Wieso sollte man jetzt ohne Not einen 73 TFLOPs Papiertiger bauen, der die Leistung nicht auf die Straße bringt?
Man hätte ja auch einfach N21 vergrößern und de Takt steigern können, wenn AD103 das Ziel wäre.
Angeblich (https://www.3dcenter.org/news/geruechtekueche-detaillierte-und-teils-abweichende-spezifikationen-zu-den-drei-rdna3-grafikchip) soll eine WGP von RDNA3 prozessnormiert sogar kleiner als bei RDNA2 sein, trotz der verdoppelten FP32-Einheiten, weil man sogar noch entschlackt hat. Warum auch nicht, wenn man dadurch die Perf/W und Perf/mm² massiv steigern kann? Dass die Recheneffizienz sinkt, ist da nicht wirklich von Belang; im Gegensatz zur Flächen- und Energieeffizienz ist das nur in der Theorie interessant. Ich denke auch nicht, dass man es nur mit AD103 aufnehmen wird.
Linmoum
2022-09-19, 16:30:05
Specifically, graphics card power has quickly pushed up to and beyond 400 watts. At the same time, power consumption is rapidly becoming a major concern for gamers, as not only are energy prices skyrocketing worldwide, but higher power means users must contend with ever-increasing heat dissipation and louder systems caused by the need for larger cooling solutions.
The basics of silicon design are such that driving up performance through feature adds and frequency increases will increase power super-linearly with performance as a way to meet the needs of more demanding games. But with thoughtful and innovative engineering and refinement, we can be more performant without sky-high power budgets – keeping overall costs, heat, and noise lower while still delivering breakthrough experiences and performance.
Contributing to this energy-conscious design, AMD RDNA™ 3 refines the AMD RDNA™ 2 adaptive power management technology to set workload-specific operating points, ensuring each component of the GPU uses only the power it requires for optimal performance. The new architecture also introduces a new generation of AMD Infinity Cache™, projected to offer even higher-density, lower-power caches to reduce the power needs of graphics memory, helping to cement AMD RDNA™ 3 and Radeon™ graphics as a true leader in efficiency.
https://community.amd.com/t5/gaming/advancing-performance-per-watt-to-benefit-gamers/ba-p/545586
Es würde mich mittlerweile wirklich stark wundern, wenn AMD zumindest für die Referenz die ~350W reißen tut. AiB sind logischerweise was anderes.
Edgecrusher86
2022-09-19, 16:32:23
4/122.9*109 => mit 3. 55 GHz wäre dann so ein N3x gleichauf mit einer derartigen 4090 Ti.
Der Herbst ist heiss. (Fuck you Klimawandel :D)
Zumindest wohl grob bei Raster. ;)
Linmoum
2022-09-19, 17:39:18
Wenn man weiß, dass die kommenden GPUs bis an die 4GHz takten, kann man sich zu einem "bigger doesnt necesseraly mean better" wohl auch eher hinreißen lassen. :D
basix
2022-09-19, 17:39:43
Btw. => 122,9 TF/s FP32 - Full Navi 3x @ 15360SP @ 4 GHz (LN2?!) [109 wäre eine 3 GHz "3090 Ti"]. :freak:
Momentan geht man ja eher von 12'288 SPs aus....
Nevertheless: The race to "World's First 100 TFLOPs Single GPU" has begun ;D
- AD102 @ 144SM @ 2.713 GHz
- N31 @ 60 WGP @ 3.256 GHz
- N31 @ 48 WGP @ 4.070 GHz
Linmoum
2022-09-19, 17:44:53
Wenn AMD so weiter macht, takten ihre GPUs bald so hoch wie die CPUs. ;D
Berniyh
2022-09-19, 17:49:46
Wie sicher sind denn die 300mm2? Oder wie sicher sind die 12k Shader?
Denn so ganz passen die Beiden Werte ja nicht zusammen, außer AMD hat isoliert massiv die Shaderleistung ausgebaut, ohne den Rest entsprechend mit aufzubohren. Aber wieso sollten sie das tun, wo doch ihre Maxime in den letzten Jahren genau das Gegenteil war. Wieso sollte man jetzt ohne Not einen 73 TFLOPs Papiertiger bauen, der die Leistung nicht auf die Straße bringt?
Man hätte ja auch einfach N21 vergrößern und de Takt steigern können, wenn AD103 das Ziel wäre.
Sicher ist bei RDNA3 eigentlich fast nix bis auf die GCD/MCD Aufteilung sowie die Nutzung verschiedener Prozessnodes (5nm und 6nm).
Linmoum
2022-09-19, 18:03:33
Once again the ">" is doing a lot of work here
https://mobile.twitter.com/Kepler_L2/status/1571889710657851400
Na, wer will raten? Doch wieder sandbagging deluxe? :D
basix
2022-09-19, 18:05:50
Who knows. Time will tell ;)
Neurosphere
2022-09-19, 18:17:17
https://mobile.twitter.com/Kepler_L2/status/1571889710657851400
Na, wer will raten? Doch wieder sandbagging deluxe? :D
Who knows. Time will tell ;)
Jup, erstmal Vorsichtig mit dem Hypetrain. Genau wie bei Ada wissen wir nicht welche Bedingungen für das Gezeigte / Gerücht herrschen.
AffenJack
2022-09-19, 18:20:54
https://mobile.twitter.com/Kepler_L2/status/1571889710657851400
Na, wer will raten? Doch wieder sandbagging deluxe? :D
Durchaus möglich, dass mehr rauskommt. Aber ich würde es nicht auf Basis von Keplers Post machen. Das war doch der Typ, der sich sicher war, dass N31 2020 sein Tapeout hatte und spätestens im Frühjahr 2022 rauskommt. Seine Infos zieht er glaube aus den Treibern und da ist er gut drin, aber sonstige Quellen scheint er nicht zu haben.
Linmoum
2022-09-19, 18:21:55
Ich glaube, du verwechselst hier kepler mit greymon bzgl. Tapeout.
Thunderburne
2022-09-19, 18:27:39
What 4GHZ
https://wccftech.com/amd-rdna-3-radeon-rx-7000-4-ghz-cpu-clock-rumor-refined-adaptive-power-mode-next-gen-infinity-cache-confirmed/
r3ptil3
2022-09-19, 18:29:27
Lest ihr eigentlich zumindest die letzten 2-3 Seiten, bevor ihr was postet?
Platos
2022-09-19, 18:32:02
https://wccftech.com/asus-x670e-x670-motherboard-prices-for-china-leaked-385-1300-usd/
Mainboard Preise einer anderen Welt angeblich.
Ex3cut3r
2022-09-19, 18:36:23
Was haben MB Preise hier zu suchen? :confused:
Das jegliche neue HW egal ob AMD, Intel oder Nvidia teuer bzw. teurer wird. Sollte mittlerweile jedem klar sein.
AffenJack
2022-09-19, 18:44:06
Ich glaube, du verwechselst hier kepler mit greymon bzgl. Tapeout.
Ne,ne:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-januar-2021
Navi31 working silicon exists since early 2020.
Nothing I can confirm 100% now, but from what I know Navi 31 is a 80 CU chiplet and top SKU has 2 of them.
Quelle: Kepler_L2 @ Twitter in Tweet #1 & Tweet #2 am 1./2. Januar 2021
Und da kam glaube noch so einiges von Ihm zu GCD/MCD Konfigurationen mit einer unterirdischen Trefferquote. Ist für mich niemand, den ich groß ernst nehmen kann. Einzig die Cachesachen, weil die evtl aus Treibern kommen.
Platos
2022-09-19, 18:45:21
Was haben MB Preise hier zu suchen? :confused:
Das jegliche neue HW egal ob AMD, Intel oder Nvidia teuer bzw. teurer wird. Sollte mittlerweile jedem klar sein.
Ah, sollte eig. in den Zen4 Thread gehen.
iamthebear
2022-09-19, 19:15:36
What 4GHZ
https://wccftech.com/amd-rdna-3-radeon-rx-7000-4-ghz-cpu-clock-rumor-refined-adaptive-power-mode-next-gen-infinity-cache-confirmed/
Ein bisschen mehr Infos in dem Tweet wären nett gewesen. 4GHz Stock für N31? Übertaktet mit 500W im Labor? Oder vielleicht doch mit LN2? Ohne genaue Infos sind so Angaben wertlos.
Einmap agesehen: Viel Takt ist nett aber solange wir nicht einmal annährend einen Plan von der IPC haben sagt das nicht viel.
mboeller
2022-09-19, 19:26:11
Bondrewd @ Beyond3D erzählt gerade (wenn ich das richtig verstehe) das N31 nicht ganz 90TFlops schafft. Es wären also "nur" ~3,5-3,6GHz
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-83
Linmoum
2022-09-19, 19:28:58
Egal ob jetzt Stock oder OC, aber wenn man ohne LN2 (also Luft/Wasser) mit irgendeiner RDNA3-SKU die 4GHz schafft, dann will ich das Geheimnis von AMD wissen, wie sie den Takt innerhalb von zwei Generationen nahezu verdoppelt hätten.
MSABK
2022-09-19, 19:29:27
Almost 4Ghz liest sich für moch was in Richtung 3,85Ghz oder so.
M4xw0lf
2022-09-19, 19:34:29
Bondrewd @ Beyond3D erzählt gerade (wenn ich das richtig verstehe) das N31 nicht ganz 90TFlops schafft. Es wären also "nur" ~3,5-3,6GHz
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-83
Das lese ich da nicht unbedingt.
Linmoum
2022-09-19, 19:35:14
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-84#post-2264254
Aber da. ;)
Ravenhearth
2022-09-19, 19:45:50
https://mobile.twitter.com/Kepler_L2/status/1571889710657851400
Na, wer will raten? Doch wieder sandbagging deluxe? :D
Ja, ich meine wenn AMD bei RDNA3 von >50% Perf/W spricht, muss man bedenken, dass Navi33 auch RDNA3 ist, und der kommt noch in 6nm. Wenn der schon 50% erreicht, sind die 5nm-Chips sicherlich nochmal ein gutes Stück effizienter. Mit doppelter Navi21-Performance und 350W läge Navi31 bspw. bei +70% Perf/W.
Rampage 2
2022-09-19, 19:58:36
4/122.9*109 => mit 3. 55 GHz wäre dann so ein N3x gleichauf mit einer derartigen 4090 Ti.
Der Herbst ist heiss. (Fuck you Klimawandel :D)
Die eigentliche Frage ist, wie viel die "Pro-MHz-Leistung", also die Realleistung (= Spielleistung) eines einzelnen SPs oder CUs/WGPs bei RDNA3 ggü. RDNA2 gestiegen ist bzw. wie hoch die Differenz von RDNA3 ggü. Ampere ist?
Gab es schon Tests mit einer möglchst breiten Spielepalette wo eine 6900 XT @ 2.75 GHz gegen eine 3090 Ti @ 2 GHz antritt? Wie viel langsamer ist die 6900 XT in NonRT-Games?
Zum Vergleich:
6900 XT @ 2.75 GHz: 28.16 TFlops
3090 Ti @ 2 GHz: 43.008 TFlops
Wenn die "Pro-MHz-Leistung" steigt, dann reichen auch weniger TFlops, um an 4090 ranzukommen;)
R2
Der_Korken
2022-09-19, 20:07:28
Die eigentliche Frage ist, wie viel die "Pro-MHz-Leistung", also die Realleistung (= Spielleistung) eines einzelnen SPs oder CUs/WGPs bei RDNA3 ggü. RDNA2 gestiegen ist bzw. wie hoch die Differenz von RDNA3 ggü. Ampere ist?
Die Leistung pro Flop wird wegen VLIW2 wohl eher deutlich sinken bei RDNA3. Ansonsten wäre eine Verdreifachung einfach komplett unmöglich. Die Leistung pro CU wird hingegen deutlich steigen, weil die Rohleistung verdoppelt wird.
Rampage 2
2022-09-19, 20:18:02
Die Leistung pro Flop wird wegen VLIW2 wohl eher deutlich sinken bei RDNA3. Ansonsten wäre eine Verdreifachung einfach komplett unmöglich. Die Leistung pro CU wird hingegen deutlich steigen, weil die Rohleistung verdoppelt wird.
Dann sieht es also nicht gut aus für N31 vs AD102? :eek:
R2
robbitop
2022-09-19, 20:53:22
Ist vliw2 denn schon halbwegs gesichert? Das war doch ein relativ altes unsicheres Gerücht, oder? Sicher, dass nicht sie FPUs verdoppelt wurden?
robbitop
2022-09-19, 20:57:11
Egal ob jetzt Stock oder OC, aber wenn man ohne LN2 (also Luft/Wasser) mit irgendeiner RDNA3-SKU die 4GHz schafft, dann will ich das Geheimnis von AMD wissen, wie sie den Takt innerhalb von zwei Generationen nahezu verdoppelt hätten.
Die CPU Leute haben sicherlich einen großen Anteil. Das sind Leute die seit Jahrzehnten Implementierungen mit sehr hohem Takt machen. Seit man die mit einbezogen hat, zeigt sich die Taktsteigerung. Ggf. hilft auch die Prozessoptimierung bzw library Optimierung die jetzt stringenter machbar ist wo man den I/O Kram rausnehmen konnte aus dem gcd.
basix
2022-09-19, 21:05:02
Ist vliw2 denn schon halbwegs gesichert? Das war doch ein relativ altes unsicheres Gerücht, oder? Sicher, dass nicht sie FPUs verdoppelt wurden?
Nö. Ja. Nö.
Cyberfries
2022-09-19, 21:11:16
Lest ihr eigentlich zumindest die letzten 2-3 Seiten, bevor ihr was postet?
Thunderburne doch nicht, der knallt nur Links rein. Dass in dem Fall noch Text dabei war ist schon ein Wunder.
Almost 4Ghz liest sich für moch was in Richtung 3,85Ghz oder so.
Jo. 3,5-3,6 als "fast 4" zu bezeichnen ist ... unschön um es freundlich auszudrücken.
... wo man den I/O Kram rausnehmen konnte aus dem gcd.
"I/O-Kram" ist auch weiterhin im GCD, Media Encoding, PCIe etc. werden nicht ausgelagert.
basix
2022-09-19, 21:20:44
Das Media Zeugs ist vorwiegend Logik und eh auf einer separaten Taktdomäne: Ergo egal.
PCIe ist verhältnismässig zu einem GDDR6 Interface wohl auch unkritischer.
Ob hier Libraries aber entscheidend sind? mMn ist das beim GCD egal ob monolithisch oder Chiplet. Verschiedene Libraries für verschiedene Chipteile wurden schon immer verwendet. Beim MCD kann das eher relevant sein (High Density SRAM, siehe V-Cache). Das GCD profitiert vermutlich eher von der kleineren Chipfläche und selbst da bin ich mir nicht ganz sicher. Kleinere GPUs takten zwar höher, aber hier muss man auch die Fläche der Shader Engines betrachten und nicht nur den ganzen Chip. Und nur auf die Shader Engines geschaut, wird N21 -> N31 flächenmässig schon etwas kleiner aber nicht extrem viel.
Berniyh
2022-09-19, 21:21:21
Ja, ich meine wenn AMD bei RDNA3 von >50% Perf/W spricht, muss man bedenken, dass Navi33 auch RDNA3 ist, und der kommt noch in 6nm. Wenn der schon 50% erreicht, sind die 5nm-Chips sicherlich nochmal ein gutes Stück effizienter. Mit doppelter Navi21-Performance und 350W läge Navi31 bspw. bei +70% Perf/W.
So sollte man das nicht erwarten. In der Vergangenheit galt die Aussage immer für eine spezielle Konfiguration unter bestimmten Bedingungen.
basix
2022-09-19, 21:22:39
Genau. Kann sein, muss aber nicht.
Der_Korken
2022-09-19, 22:17:34
Ist vliw2 denn schon halbwegs gesichert? Das war doch ein relativ altes unsicheres Gerücht, oder? Sicher, dass nicht sie FPUs verdoppelt wurden?
Ja, du hast Recht. Da ich das neulich erst wieder gelesen habe, schwirrte das in meinem Kopf rum. Allerdings wird die IPC auch bei doppelt so vielen ALUs pro WGP deutlich runtergehen, da alles andere nicht mitwächst (und nein, dass der Rest auch verdoppelt wurde ist angesichts der vergleichsweise "kleinen" Chips nicht realistisch).
Nazar
2022-09-19, 22:44:00
Ja, du hast Recht. Da ich das neulich erst wieder gelesen habe, schwirrte das in meinem Kopf rum. Allerdings wird die IPC auch bei doppelt so vielen ALUs pro WGP deutlich runtergehen, da alles andere nicht mitwächst (und nein, dass der Rest auch verdoppelt wurde ist angesichts der vergleichsweise "kleinen" Chips nicht realistisch).
Woran genau machst du das fest?
Insgesamt kommen mir die letzten Aussagen in diesem Thread eher als reines Gerate oder "wünsch mir was" vor. :freak:
Welchen Wert beinhaltet "deutlich runtergehen"?
Von was auf was wird es runtergehen?
Da alles andere nicht mitwächst? Was ist "alles andere"?
Ich halte mich da doch lieber an nVidia, die scheinen zu wissen, weshalb sie so viel Verlustleistung fahren müssen.
Ich schrieb schon einmal; wenn man den Foristen -besonders im Ada Thread- auch nur im Ansatz Glauben schenken würde, müsste AMD fast bei +/- 0 herauskommen, und nVidia bei 300 Watt locker 20k beim TSE erreichen. :freak:
Schaut man sich aber die gewaltigen Lüfterbrocken der 4090 an, dann habe ich extreme Zweifel, dass das so kommen wird.
Warum sollte nV, vollkommen ohne Not, so viel Geld für Material ausgeben, wenn AMD bei fast gar keiner Mehrleistung mehr herumkommt?
Hier scheint wohl eher der Wunsch der Vater des Gedankens zu sein. :wink:
Der_Korken
2022-09-20, 00:35:17
Woran genau machst du das fest?
Insgesamt kommen mir die letzten Aussagen in diesem Thread eher als reines Gerate oder "wünsch mir was" vor. :freak:
Welchen Wert beinhaltet "deutlich runtergehen"?
Von was auf was wird es runtergehen?
Da alles andere nicht mitwächst? Was ist "alles andere"?
Um nicht alles neu schreiben zu müssen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13081952#post13081952
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13082172&highlight=Scheduler#post13082172
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13082338#post13082338
Felixxz2
2022-09-20, 05:17:39
Ja, du hast Recht. Da ich das neulich erst wieder gelesen habe, schwirrte das in meinem Kopf rum. Allerdings wird die IPC auch bei doppelt so vielen ALUs pro WGP deutlich runtergehen, da alles andere nicht mitwächst (und nein, dass der Rest auch verdoppelt wurde ist angesichts der vergleichsweise "kleinen" Chips nicht realistisch).
Die IPC würde natürlich steigen, die Leistung pro FLOP würde dagegen runtergehen.
Mir kommt das alles aber noch ein wenig spanisch vor. Könnte man doppelte FPUs auch flexibel für RT nutzen? Oder für FSR 2.0? Wobei das ja nach dem eigentlichen Bild berechnet wird.
basix
2022-09-20, 06:54:48
Die IPC würde natürlich steigen, die Leistung pro FLOP würde dagegen runtergehen.
Mir kommt das alles aber noch ein wenig spanisch vor. Könnte man doppelte FPUs auch flexibel für RT nutzen? Oder für FSR 2.0? Wobei das ja nach dem eigentlichen Bild berechnet wird.
FSR2 läuft via Async Compute, also perfekt für Unterausgelastete CUs. Ebenso sollte RT-Acceleration von nicht maximal ausgelateten CUs profitieren, welche bei RDNA2 zum Teil über die Shader läuft (BVH stuff).
dargo
2022-09-20, 07:12:46
FSR2 läuft via Async Compute, also perfekt für Unterausgelastete CUs.
Quelle? Es gibt auch FSR2 @D3D11. Dort kann es nicht über AC laufen.
Thunderburne
2022-09-20, 07:46:09
Thunderburne doch nicht, der knallt nur Links rein. Dass in dem Fall noch Text dabei war ist schon ein Wunder.
Hallo ,
das war mit viel Liebe verlinkt!😊
Muss man den Inhalt des links unbedingt kommentieren?
Wen ja ich werde daran arbeiten 😀
Ich finde was man bisher über RDNA3 weis ist recht schwierig zu deuten.
Heute wird es ja voraussichtlich erste Info von Nvidia geben zur 4000 bzw. der 4090 vielleicht lockert das ja die Zunge von AMD und man bekommt mehr als nur die Info zu +50% Performance pro Watt.
Ich wünsche mir ne Riesen Überraschung bei der Raytracing Leistung ein Super Gesamtpaket halt!
Grüße euch alle
Iscaran
2022-09-20, 09:54:29
Hmm, mal noch ein paar Milchmädchenrechnungen anstellen.
Laut Leonidas hat RDNA2 (6950 XT) vs Ampere (3090 Ti) ja 23.8 vs 40 TFlops (EDIT Link (https://www.3dcenter.org/news/news-des-19-september-2022))
6950 XT erzielt damit 368% 4k-Index
3090 Ti liegt bei 408%
=>
3090 Ti = 408/40 = 10.2%/TFlop
6950 XT = 368/23.8 = 15.5%/TFlop
Damit ist aktuell RDNA2 vs Ampere ja +52% besser in "TFlops auf die Strasse bringen"
Nehmen wir nur mal an die 90 TFlops für RDNA3 stimmen und auch die 122.9 TFlops für AD102, und die IPC bleibt gleich:
=> 15.5*90 = 1395% 4k-Index
Selbes Spiel nun für 3090 Ti => Ada
10.2%*122.9 = 1254% 4k-Index
Ich, weiss ich weiss, Milchmädchen und so.
ABER: nur wenn jemand meint die 90 TFlops seien ja so krass "wenig" AD102 zieht da LOCKER davon...nein, dazu muss nVidia erstmal den ~50% Gap in der "IPC" ausbügeln damit man die TFlops annähernd 1:1 vergleichen kann!
Natürlich werden BEIDE Seiten an der IPC drehen, AMD startet auf einem hohen Level, nVidia ist aktuell eher niedrig. => Wahrscheinlich wird der Gap kleiner werden.
Aber selbst wenn der Gap statt +50% nur mehr +25% ist wird AD102 sich schwer tun mit 123 TFlops einen 90 TFlops RDNA3 zu schlagen.
Wenn RDNA3 KEINE IPC zulegt und die Zahlen alle soweit passen, dann müsste die nVidia IPC schonmal mindestens 10-15% STEIGEN um einen Performance Gleichstand zwischen 123 TFlops und 90 Tflops zu erreichen!
(15.5*90/123=11.35/10.2 = +11% IPC für Gleichstand)
Ich weiss...CAVEAT das ist nur alles sehr grob usw. aber dennoch...der Traum, dass AD102 hier um längen an RDNA3 vorbeizieht ist glaub ich anhand der Leaklage unhaltbar.
IMHO wird es immer wahrscheinlicher dass AMD hier selbst mit Performance/Watt auch die Leistungskrone kriegen kann.
EDIT: Und ich denke BEIDE werden sich die 100 TFlops GPU-"Krone" an die Wand hängen.
=> RDNA3 also ~100TFlops im Vollausbau. nVidia dann halt 123 Tflops nur um das Marketing fahren zu können "wir haben mehr TFlops" bzw. wir waren die ersten mit >100 Tflops (da Ada release ja vor RDNA3?).
Gipsel
2022-09-20, 10:01:58
Ist vliw2 denn schon halbwegs gesichert? Das war doch ein relativ altes unsicheres Gerücht, oder? Sicher, dass nicht sie FPUs verdoppelt wurden?
Der Post ist meines Wissens noch aktuell (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13044597#post13044597). Das kam aus den Informationen zum Shadercompiler.
Es ist also kein allgemeines VLIW2. Die Anzahl der Registerbänke wurde vermutlich nicht wesentlich erhöht.
Bei B3D gibt es Spekulationen, daß die Dual-Issue-Möglichkeit nicht nur auf ILP innerhalb einer Wavefront/Thread beschränkt sein könnte (sondern das quasi eine Optimierung für latenzkritische Sachen bei niedriger Occupancy ist, der Scheduler aber auch Co-Issue von zwei Vektor-Instruktionen aus 2 Wavefronts machen könnte [TLP-Nutzung], solange das in die Registerfile-Beschränkung paßt), was allerdings Einschränkungen durch die Anzahl der Registerbänke nicht aufhebt. Was da aber helfen könnte, ist daß laut Gerüchteküche N32 und N31 (anders als N33) die Größe des Registerfiles um 50% anheben soll. Dies geht dann eventuell über die Anzahl der Registerbänke (erfordert aber tiefere Eingriffe als einfach nur die Größe der Bänke jeweils um 50% anzuheben). In dem Fall würde die Bedeutung von VOPD bei N31/N32 für die Performance gegenüber N33 sinken (weil der Durchsatz im Vergleich zu N33 konsistenter über Co-Issue von 2 Wavefronts erreicht werden könnte). Das ist aber im Moment nicht belegt.
why_me
2022-09-20, 11:47:46
3090 Ti = 408/40 = 10.2%/TFlop
6950 XT = 368/23.8 = 15.5%/TFlop
Damit ist aktuell RDNA2 vs Ampere ja +52% besser in "TFlops auf die Strasse bringen"
Das Problem ist bei Ampere ja hausgemacht durch die FP+Int pipeline. Da können bei 38% Int in Spielen auch nur noch maximal 62% FP rauskommen.
Mal schauen ob Nvidia da was bei Lovelace dran ändert und wieder eine separate Int pipeline spendiert.
E: waren sogar 38%
Linmoum
2022-09-20, 14:33:20
https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-64#post-40847991
Der scheinbar extrem hohe Takt scheint laut Kepler Prozessunabhängig zu sein, also dann entsprechend auch für N33 zu gelten.
Dann waren frühere Gerüchte per se womöglich nicht falsch gewesen, was die reine Performance-Einschätzung von N33 anbelangt. Nur der Takt war deutlich zu niedrig veranschlagt.
Leonidas
2022-09-20, 14:34:58
Das Problem ist bei Ampere ja hausgemacht durch die FP+Int pipeline. Da können bei 38% Int in Spielen auch nur noch maximal 62% FP rauskommen.
Richtig. Aber wenn NV tatsächlich extra INT32-Einheiten dranhaut, können die 128 FP32 wieder zu 100% an FP32 arbeiten. Das gibt einen fetten Bumms - wenn es die Register und alles drumherum überhaupt mit Daten beliefern bzw. jene abnehmen können.
Zurückkommend zu RDNA3: Das ist derzeit noch eine Wundertüte. Niemand kann genauer sagen, wie gut sich diese starken Veränderungen auswirken. AMD wird bei den vielen Einheiten das gleiche Problem haben, dass es primär um Auslastung bzw. Datendurchsatz geht.
Linmoum
2022-09-20, 15:02:18
https://mobile.twitter.com/sherkelman/status/1572208858252156928
Vorstellung (oder doch Launch?) am 03.11.
Cyberfries
2022-09-20, 15:06:40
Dann waren frühere Gerüchte per se womöglich nicht falsch gewesen, was die reine Performance-Einschätzung von N33 anbelangt. Nur der Takt war deutlich zu niedrig veranschlagt.
Die Gerüchte lauteten: N33 etwa gleichauf N21.
Das wären bei 3,5 GHz Takt 28,7 TFlops um die 23 Tflops einer 6900xt zu erreichen, 24% Differenz.
Ein herber Einschnitt, wohl bedingt durch den Fokus auf Platzminimierung und ein schlechtes Vorzeichen für N31 vs AD102.
prinz_valium_2
2022-09-20, 15:11:10
https://mobile.twitter.com/sherkelman/status/1572208858252156928
Vorstellung (oder doch Launch?) am 03.11.
Vorstellung.
Produkte gibt es dann Ende November zum Weihnachtsgeschäft.
Linmoum
2022-09-20, 15:13:54
Ein herber Einschnitt, wohl bedingt durch den Fokus auf Platzminimierung und ein schlechtes Vorzeichen für N31 vs AD102.Die 3070 braucht +35%, um die Performance der 2080Ti zu erreichen.
Ohne zu wissen, wie konkret sich hier Ada respektive RDNA3 dann tatsächlich verhalten, ist das ziemlich sinnlos.
r3ptil3
2022-09-20, 15:15:21
Hahahaha... grossartig, 2h vor der Nvidia Vorstellung. :D
Linmoum
2022-09-20, 15:19:56
Scheint aber tatsächlich Launch und nicht bloß Ankündigung zu sein. Früher als gedacht.
DrFreaK666
2022-09-20, 15:37:52
Scheint aber tatsächlich Launch und nicht bloß Ankündigung zu sein. Früher als gedacht.
Launch am 3.11 und weitere Infos dazu früher. So verstehe ich das
Linmoum
2022-09-20, 15:43:20
Ja, wenn ich bei den Amis und native Englischsprachlern querlese, ist die allgemeine Auffassung ebenfalls 03.11 = Launch.
Ergibt ja auch irgendwo Sinn, wenn sie vorher weitere Details bekanntgeben werden. Braucht man ja nicht machen, wenn die offizielle Vorstellung sowieso erst am 03.11. ist.
r3ptil3
2022-09-20, 15:45:44
Launch am 3.11 und weitere Infos dazu früher. So verstehe ich das
Wahrlich, ansonsten heisst es ja "introduce" und "presentation".
DrFreaK666
2022-09-20, 15:48:33
mal schauen was für einen Termin Jensen nachher nennt
Neurosphere
2022-09-20, 15:50:59
mal schauen was für einen Termin Jensen nachher nennt
Vermutlich irgendwas im Oktober.
Aber ist doch gut, keine lange Wartezeit um beide Archs miteinander vergleichen zu können.
r3ptil3
2022-09-20, 15:53:50
Und wenn es Intel nicht verbockt, dann haben wir seit über 20 Jahren vielleicht das erste Mal wieder drei vollwertige Grafikkarten-Hersteller im Oktober/November im direkten Vergleich - geschichtsträchtig für diesen Markt, unabhängig davon ob jetzt eine A770 nur auf RTX 3070 Niveau ist oder nicht.
Leonidas
2022-09-20, 15:56:51
https://mobile.twitter.com/sherkelman/status/1572208858252156928
Vorstellung (oder doch Launch?) am 03.11.
Ein solcher Termin ist glasklar Vorstellung. Niemand (von den Herstellern) läßt sich eine gute Vorstellungs-Show entgehen. Release somit Mitte/Ende November.
Und das mit dem Wort "Launch" würde ich nicht ernst nehmen. Das hat im englischen keine so feste Bedeutung wie wir denken. Wenn wir "joinen" sollen, dass ist es eine Show - und eine Show findet nicht gleichzeitig zum NDA-Fall statt.
Ravenhearth
2022-09-20, 16:04:47
https://twitter.com/0x22h/status/1571141153998917633
DrFreaK666
2022-09-20, 16:08:24
Ein solcher Termin ist glasklar Vorstellung. Niemand (von den Herstellern) läßt sich eine gute Vorstellungs-Show entgehen. Release somit Mitte/Ende November.
Und das mit dem Wort "Launch" würde ich nicht ernst nehmen. Das hat im englischen keine so feste Bedeutung wie wir denken. Wenn wir "joinen" sollen, dass ist es eine Show - und eine Show findet nicht gleichzeitig zum NDA-Fall statt.
ok, und was bedeutet "More details to come soon!"?
Uhrzeit und wo gestreamt wird?
Leonidas
2022-09-20, 16:11:19
ok, und was bedeutet "More details to come soon!"?
Uhrzeit und wo gestreamt wird?
Würde ich denken.
Natürlich besteht eine Restchance. Aber mehr als 10% ist das nicht. Aber Show und NDA-Fall zusammen gibt es eigentlich nicht. Warum? Weil die Journalisten nicht an 2 Orten gleichzeitig sein können. Entweder Arbeit am Review oder Teilnahme an der Vorstellungs-Show. Deswegen Termin-Trennung.
X-Bow
2022-09-20, 16:42:03
Warum? Weil die Journalisten nicht an 2 Orten gleichzeitig sein können. Entweder Arbeit am Review oder Teilnahme an der Vorstellungs-Show. Deswegen Termin-Trennung.
Ähm wann waren denn die "Live"-Streams das letzte mal wirklich live? Das ist schon ein paar Jährchen her. Was wir am 3.11. sehen werden könnte auch heute schon aufgezeichnet worden sein... Kein Journalist muss an 2 Orten gleichzeitig sein.
Linmoum
2022-09-20, 16:45:07
Die Zen4-Vorstellung (also Desktop 7000er) war live. ;)
davidzo
2022-09-20, 16:48:30
Ähm wann waren denn die "Live"-Streams das letzte mal wirklich live? Das ist schon ein paar Jährchen her. Was wir am 3.11. sehen werden könnte auch heute schon aufgezeichnet worden sein... Kein Journalist muss an 2 Orten gleichzeitig sein.
Seit den Coronalockerungen sind das wieder echte Live-Events, mit Publikum. Live Veranstaltungen sind wesentlich beliebter und für sales-beziehungen auch viel effektiver als Online-Pitches. Das Zen4 Announcement mit Lisa war zumindest war definitiv live.
Jensen ist auch so ein Kandidat der Live-Events liebt. Der performt auch einfach besser wenn er eine Crowd hat deren Augenkontakt, Mimik, Gestik den Vortrag halten.
Lisa ist eigentlich auch eine gute Live Performerin die es genießt Publikum zu haben, aber sie hatte zur Zen5 Ankündigung einige kleine schnitzer. Ähs, Versprecher, Nuschelige oder minimal falsche Sätze sind mir da aufgefallen. Das wäre in einer non-live Aufzeichnung definitiv nicht so gewesen. Sie war anfangs nicht ganz bei der Sache, nicht ganz im flow das hat man schon gemerkt.
ChaosTM
2022-09-20, 16:58:51
AMD to Launch Radeon RX 7000 RDNA3 on 3rd November (https://www.techpowerup.com/299051/amd-to-launch-radeon-rx-7000-rdna3-on-3rd-november)
Hört sich wirklich nach Vorstellung Launch an.. mal abwarten.
Sunrise
2022-09-20, 17:59:40
Nach dem mehr als langweiligen Launch von NV ist AMD jetzt am Zug.
X-Bow
2022-09-20, 18:21:08
Die Zen4-Vorstellung (also Desktop 7000er) war live. ;)
Publikum heißt nicht gleich Live ;)
Computerbase:
"ComputerBase hat Informationen zu dem Artikel von AMD unter NDA erhalten. Bedingung war die Teilnahme eines Events in Austin, Texas. Dort wurde die Präsentation am Nachmittag (Ortszeit) aufgezeichnet und Fragen von Journalisten beantwortet; die Aufnahme eigener Bilder war nicht erlaubt. Die Kosten für die Reise wurden komplett von AMD getragen, anderweitige Bedingungen für die Veröffentlichung gab es nicht."
Linmoum
2022-09-20, 19:26:05
Nach dem mehr als langweiligen Launch von NV ist AMD jetzt am Zug.Langweilig ist relativ, aber NV hat so unglaublich viel Angriffsfläche - nicht nur beim Preis - gelassen, dass AMD da eine riesige Chance hat.
Nazar
2022-09-20, 19:34:03
Ja, ich hoffe, AMD macht das besser, besonders in Bezug auf die RZ Leistung.
Für mich zählt ausschließlich RZ Leistung, da ich fast ausschließlich in der VR unterwegs bin. RTX frisst da zu viel Leistung und DLSS blurrt wie die Hölle, nicht brauchbar für die VR.
AMD, bitte, mach es besser. :massa:
AffenJack
2022-09-20, 19:37:51
Ja, ich hoffe, AMD macht das besser, besonders in Bezug auf die RZ Leistung.
Für mich zählt ausschließlich RZ Leistung, da ich fast ausschließlich in der VR unterwegs bin. RTX frisst da zu viel Leistung und DLSS blurrt wie die Hölle, nicht brauchbar für die VR.
AMD, bitte, mach es besser. :massa:
Ich dagegen hoffe AMD macht bei RT ne Menge, Rasterizierung interessiert mich nicht mehr, da hab ich eh genug Leistung bei WQHD. Sonst seh ich mich am Ende noch bei Battlemage landen;D
Neurosphere
2022-09-20, 19:47:19
Ich dagegen hoffe AMD macht bei RT ne Menge, Rasterizierung interessiert mich nicht mehr, da hab ich eh genug Leistung bei WQHD. Sonst seh ich mich am Ende noch bei Battlemage landen;D
In 4k sieht die Sache da leider ganz anders aus. Leistung kann man nie genug haben, aber generell muss bei RT mehr passieren, das stimmt.
AffenJack
2022-09-20, 19:53:07
In 4k sieht die Sache da leider ganz anders aus. Leistung kann man nie genug haben, aber generell muss bei RT mehr passieren, das stimmt.
Da würde ich einfach Upscaling nutzen mit FSR bzw DLSS von WQHD aus. Bei 4K finde ich sieht das dann auch gut aus und ich würde auf RT nicht verzichten wollen. Bei WQHD bin ich da noch etwas zwiespältig, weil die Startauflösung zu gering ist.
Linmoum
2022-09-20, 19:59:19
Das Problem ist weiterhin, dass es schlicht extrem viele Spiele - auch solche, die kein 6+ Jahre alt sind - gibt, die weder RT noch DLSS unterstützen.
Ich hab da für mich einiges, was ich zB auch gerne mal in 8K spielen wollen würde. Wenn ich aber sehe, wo NV jetzt beispielsweise Ada in solchen Szenarien verortet, dann ist das... meh.
Zukunft ja und mit dieser Gen muss bei AMD die RT-Performance schlicht passen. Da gibt's keine Ausreden mehr. Aber dieser stumpfe Fokus vor allem jetzt auf DLSS bringt mir auch nichts, wenn immer noch derart viele Spiele ohne auf den Markt kommen. Und ich dann in solchen Fällen Abstriche mehr oder weniger hinnehmen muss.
RitterRost
2022-09-20, 20:13:14
Langweilig ist relativ, aber NV hat so unglaublich viel Angriffsfläche - nicht nur beim Preis - gelassen, dass AMD da eine riesige Chance hat.
Keine Ahnung, was genau du meinst...
Die Performance der 4000er Karten ist immer noch nicht wirklich bekannt. Womit soll AMD RDNA3 da vergleichen? Mit 2x3090 Leistung? Mit 4x3090? Oder gilt das alles nur wenn DLSS3 zum Einsatz kommt?
4x3090 Performance klingt beeindruckend... wenn es dann nur unter Quake2RTX mit DLSS3 ist - schon weniger.
Mal sehen, was AMD bietet. Vor allem, in welchen Preisrahmen AMD etwas bieten wird...
Bei den Preisen wird es meine 6700XT wohl noch eine Weile tun
Nightspider
2022-09-20, 20:36:21
Ich finds ganz interessant das Nvidia mit N4 antritt gegen AMD mit N5(Derivat).
N4 mit höherer Dichte und N5 mit höheren Taktraten?
Wenn N31 ~1Ghz mehr liefert, vielleicht sogar leicht mehr als 1Ghz, dann macht der Takt schon 40% aus.
just4FunTA
2022-09-20, 20:41:20
sagt mal wann sollen die neuen GPUs von AMD angekündigt werden? Die Preise von NV haben mich schon gerade etwas geschockt.
Tangletingle
2022-09-20, 20:41:47
3.11.
Linmoum
2022-09-20, 20:45:42
Ich finds ganz interessant das Nvidia mit N4 antritt gegen AMD mit N5(Derivat).
N4 mit höherer Dichte und N5 mit höheren Taktraten?
Wenn N31 ~1Ghz mehr liefert, vielleicht sogar leicht mehr als 1Ghz, dann macht der Takt schon 40% aus.Es ist beides N5 und auch AMD dürfte wieder einen Custom-Prozess nutzen. Nvidia nennt es schlicht nur 4N.
Laut Kepler soll der hohe Takt auch nicht am Prozess liegen, womit N33 ebenfalls sehr hoch takten würde.
Vielleicht wird RDNA3 tatsächlich das nächste Pascal verglichen mit der Konkurrenz. Weniger ALUs, deutlich höherer Takt, kleinere Dies, deutlich niedrigerer Verbrauch. Große Quizfrage dann die reale Performance, sowohl ohne aber auch mit RT. Letzteres darf keine Ausrede mehr sein und allein da muss AMD die Performance zwangsläufig eigentlich mindestens schon verdoppeln.
nordic_pegasus
2022-09-20, 21:03:57
3.11.
ist der 3.11. jetzt Verkaufsstart oder Vorstellung? Würde doch dann langsam knapp werden vor den Feiertagen, wenn die erst Ende November in den Läden stünden.
horn 12
2022-09-20, 21:22:11
03.11 . = Gewählt worden für RDNA 3
Würde Tippen Verkaufsstart weltweit
So wie hier beim RyZen 3000
Dies war der 07.07.2019 _ Erstes 07nm Verfahren!
https://www.notebookcheck.com/AMD-Ryzen-3000-Prozessoren-starten-am-7-Juli-12-und-16-Kern-Prozessoren-im-August.409946.0.html
crux2005
2022-09-20, 21:25:40
03.11 . = Gewählt worden für RDNA 3
Würde Tippen Verkaufsstart weltweit
So wie hier beim RyZen 3000
Dies war der 07.07.2019 _ Erstes 07nm Verfahren!
https://www.notebookcheck.com/AMD-Ryzen-3000-Prozessoren-starten-am-7-Juli-12-und-16-Kern-Prozessoren-im-August.409946.0.html
3.3.2023 wäre noch besser. :|
und was am 3.3.3333 erscheint will ich nicht wissen.
Launcht AMD nicht immer klassischerweise am Donnerstag? 7.7. war damals ne Ausnahme.
Ravenhearth
2022-09-20, 22:52:59
Selbst Nvidias eigene Benches bescheinigen der 4090 in normalen Spielen ja nur eine ~60% bessere Performance als der 3090 Ti, womit sie etwa 70-80% schneller als die 6950 XT wäre. Das müsste von Navi31 doch zu schaffen sein. Raytracing ist nochmal etwas anderes, aber auch hier bleibt AMD sicher nicht stehen.
AMD könnte den Preis von N31 ggü. N21 um 20% erhöhen und ihn für $1199 rausbringen, und hätte im Vergleich noch ein fantastisches Angebot. ;D
Iscaran
2022-09-20, 23:35:07
Ahahaha...ADA landet also bei 90 TFlops im Vollausbau. Heute selbst von nVidia ausposaunt.
Und das bei >450 W
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13111996#post13111996
3090 Ti = 408/40 = 10.2%/TFlop
6950 XT = 368/23.8 = 15.5%/TFlop
https://www.3dcenter.org/news/nvidia-stellt-die-ada-lovelace-generation-mit-drei-modellen-zu-geforce-rtx-4080-4090-vor
Wenn also die 4090 mit 82.6 TFlops zu +86% Leistung kommt:
=> 408*1.86 = 759% Index/82.6 TFlops = 9.2% / Tflop, das wäre sogar ca 11% SCHLECHTER als Ampere...
RDNA 3 KANN gar nicht so krass floppen, um das zu unterbieten... ausser die Leaks sind völlige Fantastereien (gut waren sie bei AD102 ja offenbar auch :-))
Selbst wenn AMD die "IPC" nicht ein deut verbessert, reichen wohl auch <3.5 GHz um mit AD102 gleichauf zu sein. Und das definitiv wohl @375W oder weniger.
Nazar
2022-09-20, 23:39:55
Selbst Nvidias eigene Benches bescheinigen der 4090 in normalen Spielen ja nur eine ~60% bessere Performance als der 3090 Ti, womit sie etwa 70-80% schneller als die 6950 XT wäre. Das müsste von Navi31 doch zu schaffen sein. Raytracing ist nochmal etwas anderes, aber auch hier bleibt AMD sicher nicht stehen.
AMD könnte den Preis von N31 ggü. N21 um 20% erhöhen und ihn für $1199 rausbringen, und hätte im Vergleich noch ein fantastisches Angebot. ;D
Bisher sind die 60% das Maximale bei einem Spiel von dreien. Eines lag sogar "nur" bei 50%.
Ich bin nur erstaunt, dass es nV sich so auf DLSS 3 versteift hat.
AMD hat angegeben, dass sie Minimum bei 50% Performacesteigerung per Watt herauskommen. Ich tippe darauf, dass eine 7900XT im Bereich von 350-400 Watt herauskommen wird und dort die Perfromancesteigerung so um die 60% per Watt liegen wird. Damit wird sie um den Faktor 1.87 bis 2.13 in der RZ Performance zulegen. Was beim RT passiert, interessiert mich eigentlich nicht, aber ich tippe auf eine um Faktor 2-3 erhöhte Leistungssteigerung.
Selbst wenn dann die 7900XT genauso teuer wie die 4090 wäre, wüsste ich welche GPU ich mir zulegen würde.
Daredevil
2022-09-20, 23:50:23
Das Problem ist weiterhin, dass es schlicht extrem viele Spiele - auch solche, die kein 6+ Jahre alt sind - gibt, die weder RT noch DLSS unterstützen.
Ich hab da für mich einiges, was ich zB auch gerne mal in 8K spielen wollen würde. Wenn ich aber sehe, wo NV jetzt beispielsweise Ada in solchen Szenarien verortet, dann ist das... meh.
Ich weiß ich bin im falschen Thread für diesen Link, aber genau für dieses Szenario hat Nvidia doch DL-DSR ins Leben gerufen.
https://www.golem.de/news/dl-dsr-nvidia-bringt-ai-downsampling-fuer-beste-bildqualitaet-2201-162345.html
Anhand von Arkanes Prey zeigt Nvidia, dass DL-DSR 2,25x (2.880 x 1.620) etwas langsamer läuft als natives FHD (1.920 x 1.080), jedoch in etwa die Qualität von 4K (3.840 x 2.160) erreicht - bei 143 fps anstatt 108 fps. Um Deep Learning Dynamic Super Resolution nutzen zu können, braucht es eine RTX-Grafikkarte, da der AI-Filter auf den Tensor-Cores läuft.
Nvidia sagt, dass DL-DSR mit den meisten Spielen funktioniert.
basix
2022-09-21, 00:04:02
DL-DSR ist ein Downsampler. DLSS ein Upsampler. Wieso soll das vergleichbar sein?
Bei 6+ Jahre alten Spielen würde ich davon ausgehen, dass 8K in allen Spielen spielbar sein wird. Damals gab es noch kein RT, welches Leistung weggefressen hatte. Nehmen wir mal das Launch-Review der 2080 Ti, 4 Jahre: Fast alle Spiele laufen in 4K mit 60+fps. Ghost Recon Wildlands ist der Worst Case mit 44fps.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
Eine 4090 sollte ~3x schneller wie eine 2080 Ti sein, was ziemlich genau den Sprung 4K -> 8K wettmacht. Ergo sollten alle entsprechend alten Spiel mit 60+fps in 8K laufen.
Bei neueren Spielen (nehmen wir Ende 2020 (https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/#abschnitt_benchmarks_in_3840__2160)) kann es sein, dass es nicht für 8K60 reicht. Aber vermutlich für eigentlich alles ohne RT >100fps @ 4K. Hier käme jetzt DL-DSR von Daredevil ins Spiel: Auflösung auf 2880p oder 3240p setzen und via DL-DSR zurück auf 4K runterrechnen.
Ich rede hier halt von der 4090. Mit einer 4080 12GB wird es entsprechend etwas enger hinsichtlich FPS, Speichermenge oder Auflösung für 60fps ;)
Daredevil
2022-09-21, 00:07:17
DL-DSR ist ein Downsampler. DLSS ein Upsampler. Wieso soll das vergleichbar sein?
Beides hat das Ziel, das Bild hübscher zu machen ohne Kompromisse bei den FPS bzw. sogar mit Verbesserungen. Insofern ist das Ziel relativ gleich, mh?
Der wichtige Faktor ist hier aber an der Stelle auch, genauso wie FSR ihn auch abdeckt: Man bezahlt das nicht mit massiv mehr Leistungsaufnahme.
Wenn AMD ne Karte rausbringt die 3 mal schneller ist als eine 6900xt und die 350w zieht, wäre 8K doch auch netter zu spielen mit 100-200w + FSR und nicht unbedingt in 8K nativ, wenn man wenige Unterschiede sieht, oder nicht? Ich sehe diese Techniken wirklich als "Lösung" für den hohen Verbrauch aktuell, den AMD und ( speziell natürlich ) Nvidia uns vorwerfen.
basix
2022-09-21, 00:18:18
Beides hat das Ziel, das Bild hübscher zu machen ohne Kompromisse bei den FPS bzw. sogar mit Verbesserungen. Insofern ist das Ziel relativ gleich, mh?
Prinzipell ja, richtig. Nur ist DLSS "echtes" Supersampling und DL-DSR hat auch so seine Schwächen. Ich finde DL-DSR gut, aber DLSS ist eine andere Liga. Ich würde behaupten: DLSS-Q bei 8K (+DSR 4x -> 4K Output) sieht bei ähnlicher Performance (DL-DSR ~2880p -> 4K Output) im Schnitt einiges besser aus als das, was DL-DSR hinbekommt. DLSS kann zwar Artefakte aufweisen, welche man bei DL-DSR nicht hat. Wenn wir aber von 4K+ Output und allenfalls auch 4K+ Renderauflösung bei 60fps reden (ging ja um 8K), reduziert sich die Artefaktneigung deutlich.
Daredevil
2022-09-21, 00:20:32
Danke für die Erläuterung. :)
Ich wollte es hier jetzt auch nicht entgleisen lassen, wollte das nur eben in den Raum werfen.
Ich mag die Option nämlich ganz gerne und nutze sie ab und an in eben diesem Szenario: Wenn man genug Leistung hat und auf 8K gehen könnte.
Gibts sowas eigentlich auch in einer Art von AMD? Da ging DSR ja auch immer ganz ordentlich, ne Option mit FSR, ist das möglich?
basix
2022-09-21, 00:25:02
Kein Thema, wir sind ja zum diskutieren da ;)
Das DSR Pendant bei AMD nennt sich VSR - Virtual Super Resolution. Den aktuellen Stand kenne ich gerade nicht, war aber Anfangs auf relativ wenige Auflösungen begrenzt und so etwas wie DL-DSR gibt es meines Wissens auch nicht (erst DL-DSR machte mMn die krummen Downsampling-Faktoren von 1.78x und 2.25x brauchbar und für 4x fehlt zum Teil halt die Performance)
Edit:
Und was ich auch mag: DLSS in Kombination mit DL-DSR ;)
Da hat AMD momentan noch einen Rückstand beim Featureset im Treiber.
Edgecrusher86
2022-09-21, 06:43:35
Ich bin mal gespannt, was AMD so ausruft. $1199-1299 MSRP (also bis grob 1649€ inkl. MwSt. bei uns) könnte ich mir vorstellen für die 7900XT - wenn sie schlau sind, ist das dann erstmal die einzige Karte mit 24GB. :biggrin:
Also kann man wohl ~ 88,5 TF/s FP32 zum Launch erwarten - 3,6 GHz bei 12288SP - ganz ordentlich. Ich bin mal gespannt, wieviel man in RT zulegen kann - will man immer auf Augenhöhe mit Ada liegen, sollte es wohl besser 3x RDNA2 sein. ;)
basix
2022-09-21, 09:21:07
Ich bin mal gespannt, was AMD so ausruft. $1199-1299 MSRP (also bis grob 1649€ inkl. MwSt. bei uns) könnte ich mir vorstellen für die 7900XT - wenn sie schlau sind, ist das dann erstmal die einzige Karte mit 24GB. :biggrin:
AMD hat verglichen mit Nvidia vermutlich die günstigeren Kostenstrukturen (Chipfläche, Chiplets, GDDR6 non-X, geringerer Stromverbrauch).
Ich sehe es ungefähr so im Portfolio...
N31:
- 7900XT, 24GB, 48WGP -> 1499$ -> 4090 Gegner
- 7800XT, 20GB, 40WGP (-1x Shader Engine) -> 1199$
N32:
- 7700XT, 16GB, 30WGP, 949$ -> 4080 16GB Gegner
- 7700, 12GB, 26WGP, 799$ -> 4080 12GB Gegner
N33:
- 7600XT, 8GB, 16WGP, 499$
- 7600, 8GB, 14WGP, 429$
- 7500XT, 6GB, 12WGP, 329$
AMD könnte sich "genötigt" fühlen, die 7700er auch zu 7800er zu machen. 80er impliziert halt eine Kategorie höher.
Also kann man wohl ~ 88,5 TF/s FP32 zum Launch erwarten - 3,6 GHz bei 12288SP - ganz ordentlich. Ich bin mal gespannt, wieviel man in RT zulegen kann - will man immer auf Augenhöhe mit Ada liegen, sollte es wohl besser 3x RDNA2 sein. ;)
Da wäre ich vorerst noch vorsichtig optimistisch ;) In spätestens 6 Wochen wissen wir mehr.
amdfanuwe
2022-09-21, 09:32:47
AMD hat 2 Möglichkeiten:
a) Sich entsprechend Preis/Leistung bei Nvidia einsortieren und ebenfalls hohe Preise aufrufen.
b) Nvidia den Stinkefinger zeigen und mit "günstigen" Preisen Marktanteile gewinnen.
Kommt halt darauf an, wie günstig und wieviel AMD produzieren kann und wieweit sie Performance mäßig mithalten können.
Ich sehe es ungefähr so im Portfolio...
.
Das Portfolio seh ich auch so aufgestellt, nur bei den Preisen bin ich nicht bei dir.
Eine 7500XT 6GB ist etwas für $200; $329 find ich reichlich überzogen.
Aber bis N33 und N32 dauert es ja noch was länger und die Preise bewegen sich nach unten.
Auch wenn AMD anständige Preise ausruft, bei dem USD/EUR Kursen werden wir trotzdem jammern.
basix
2022-09-21, 09:40:20
Wenn die Performance stimmt und ich raten müsste: Irgendwas zwischen a) und b) ;)
Linmoum
2022-09-21, 09:40:35
Da ist immer noch genug Spielraum für eine Preiserhöhung ausgehend von N21, ohne direkt in 4090-Preisregionen zu landen.
Aufgrund u.a. des enormen Kosten- und Yieldvorteils und vermutlich auch den weniger aufwendigen Kühllösungen gehe ich zwar dennoch davon aus, dass man den Preis ggü. N21 erhöht, die 4090 aber auch bei potentiell ähnlicher Perf deutlich unterbieten wird.
Andererseits hat man bei Zen4 bei 2 Launch-SKUs sogar die UVP gesenkt und es gab gar keine Preiserhöhungen dort verglichen mit Zen3. Ob man das auch bei GPUs durchziehen kann/wird? Vermutlich eher nicht.
So ein "twoninetynine!"-Moment von Su hätte natürlich definitiv was. ;)
amdfanuwe
2022-09-21, 09:58:04
Wenn die Performance stimmt und ich raten müsste: Irgendwas zwischen a) und b) ;)
Also gut dastehen und trotzdem noch eine goldene Nase verdienen.:cool:
basix
2022-09-21, 09:59:45
Also gut dastehen und trotzdem noch eine goldene Nase verdienen.:cool:
Correcto :)
Das Portfolio seh ich auch so aufgestellt, nur bei den Preisen bin ich nicht bei dir.
Eine 7500XT 6GB ist etwas für $200; $329 find ich reichlich überzogen.
Aber bis N33 und N32 dauert es ja noch was länger und die Preise bewegen sich nach unten.
Auch wenn AMD anständige Preise ausruft, bei dem USD/EUR Kursen werden wir trotzdem jammern.
Ich finde die Preise auch hoch. Ist aber vermutlich eher Realität als dass AMD mit Samariter-Preisen kommt.
Cyberfries
2022-09-21, 11:00:30
Ich sehe es ungefähr so im Portfolio...
Angeblich werden wir N33 hauptsächlich in mobilen Anwendungen sehen, nur eine SKU für den Desktop.
Und haben nicht erst zuletzt "Leaker" gemeckert, dass der Abstand zwischen der 42wgp und der 30wgp Karte zu groß sei?
Insofern wirst du möglicherweise dein Wunschportfolio nochmal überarbeiten müssen, z.b. so:
7900xt : 48wgp
7900 : 42wgp ( -1wgp/se -1mcd ? )
7800xt - 30wgp
7800 - 27wgp ( -1wgp/se )
7700xt - 20wgp ( -1se -1mcd )
7600xt - 16wgp
GrimReaper85
2022-09-21, 11:07:30
MLID sagt, dass die Preise für RDNA 3 besser sein werden, von dem, was er sagte, nehme ich an, dass 7900 XT 24GB etwa $1200 kosten wird.
Das Ding wird die RT-Leistung der 4090 ja auch nicht (ganz) erreichen wahrscheinlich. Zudem wird AMD nicht mal ansatzweise einen Ersatz für die Tensorleistung an Board (:D) haben. Ich tippe auch auf 1200$. Die 7800XT dürfte dann bei 900$ ca. landen mMn. Das NV so bescheuerte Preise für die kleineren Modelle festlegt wird AMD nicht sonderlich beeinflussen mMn. Die NV-Preise werden sich ja eh den Marktgegebenheiten anpassen. So hoch werden die Preise nur dann bleiben, wenn es kein Angebot bei den 4080ern gibt und NV die Fertigungskapazität lieber für GH100 nutzt, bevor auch China sanktioniert wird.
https://www.techpowerup.com/299033/nvidia-rush-orders-a100-and-h100-ai-gpus-with-tsmc-before-us-sanctions-hit
Ich würde bei den NVs eh keine hohe Verfügbarkeit erwarten. AMD hat das Problem nicht und kann einfach voll aufspielen mit dem Lineup, was zur Verfügung steht.
Platos
2022-09-21, 11:49:45
AMD ist doch genau so von den Sanktionen betroffen?
Edgecrusher86
2022-09-21, 11:52:02
AMD hat verglichen mit Nvidia vermutlich die günstigeren Kostenstrukturen (Chipfläche, Chiplets, GDDR6 non-X, geringerer Stromverbrauch).
Ich sehe es ungefähr so im Portfolio...
N31:
- 7900XT, 24GB, 48WGP -> 1499$ -> 4090 Gegner
- 7800XT, 20GB, 40WGP (-1x Shader Engine) -> 1199$
N32:
- 7700XT, 16GB, 30WGP, 949$ -> 4080 16GB Gegner
- 7700, 12GB, 26WGP, 799$ -> 4080 12GB Gegner
N33:
- 7600XT, 8GB, 16WGP, 499$
- 7600, 8GB, 14WGP, 429$
- 7500XT, 6GB, 12WGP, 329$
AMD könnte sich "genötigt" fühlen, die 7700er auch zu 7800er zu machen. 80er impliziert halt eine Kategorie höher.
Da wäre ich vorerst noch vorsichtig optimistisch ;) In spätestens 6 Wochen wissen wir mehr.
Ja, das Lineup dürfte wohl in etwa passen - aber ich gehe davon aus, dass man die Preise ein wenig unterhalb NV ansetzt, [-100 bis-200 zu NV jeweils] um Marktanteile zu gewinnen.
Berniyh
2022-09-21, 11:56:08
Ja, das Lineup dürfte wohl in etwa passen - aber ich gehe davon aus, dass man die Preise ein wenig unterhalb NV ansetzt, [-100 bis-200 zu NV jeweils] um Marktanteile zu gewinnen.
Die Annahme gab es auch bei RDNA2 schon. Die Vergangenheit hat aber gezeigt, dass AMD jetzt nicht so riesige Ambitionen hat Marktanteile im GPU Bereich zu gewinnen.
Ich denke man wird sich eher auf das Laptopgeschäft fokussieren, wo man ja mit den APUs (Rembrandt/Cezanne) stark drin ist, sowie Zen4.
Die Stückzahlen für RDNA3 sind wahrscheinlich wieder genauso limitiert wie bei RDNA2.
Linmoum
2022-09-21, 11:59:58
In der Vergangenheit hatte AMD aber trotzdem immer noch große bzw. größere Chips. Jetzt hat man einen N31 mit High-End-Performance auf dem neuesten Prozess mit nur winzigen mutmaßlichen ~300mm2 und der Rest sind massiv kleinere MCDs als die Zen-Chiplets.
So überzeugend, wie Su bei Zen4 bzgl. Supply Chain war/ist, denke ich, dass auch bei RDNA3 dank der Multi-Chip-Strategie größere Stückzahlen vorhanden sein werden.
YeahBuoy!
2022-09-21, 12:01:18
Wenn ich die Sanktionen der Amis richtig verstanden habe zielen die Sanktionen hauptsächlich auf dedizierte AI Beschleuniger (bspw. H100 von Nvidia oder die MI 100 von AMD) ab. Gamer Karten sind hier scheinbar teils als "Dual Use" Gut eingestuft, was bei Nivida eventuell wegen der Tensor Cores eher dazu führt das der amerikanische Zoll den Daumen senkt. Da bei AMD China für diese Sparte scheinbar keine große Rolle gespielt hat denke ich das das schlicht indifferent betrachtet wird.
Platos
2022-09-21, 12:09:43
Die Stückzahlen für RDNA3 sind wahrscheinlich wieder genauso limitiert wie bei RDNA2.
Denke ich nicht (oder hoffe es zumindest). 2020 und die folgenden 2 Jahre Gabs ne Verteuerung durch Mining, Corona-Probleme und vor allem auch die riesige Absatzmengen für Homeoffice und auch die Konsolen, die in Millionenstückzahlen Chips brauchten.
Jetzt sind die Konsolen aber nicht mehr auf dem gleichen Prozess. Die Absatzmenge für PC ist zurückgegangen (Home Office ist abgedeckt) und Corona-Probleme wie feststeckende Schiffe sind (soweit ich weiss) gerade auch kein Problem.
Mining ist vorerst in einer Stillen Phase.
Also rein theoretisch dürfte es besser laufen. Aber man kann Ware ja auch künstlich knapp halten, indem man einfach weniger ordert...
AMD ist doch genau so von den Sanktionen betroffen?
Die verkaufen aber keine AI-Hardware nach China :). NV möchte den Markt bedienen bevor es Sanktionen gibt. Es geht darum Hoppers in großer Stückzahl herzustellen und direkt nach China zu verkaufen.
Die Annahme gab es auch bei RDNA2 schon. Die Vergangenheit hat aber gezeigt, dass AMD jetzt nicht so riesige Ambitionen hat Marktanteile im GPU Bereich zu gewinnen.
Ich denke man wird sich eher auf das Laptopgeschäft fokussieren, wo man ja mit den APUs (Rembrandt/Cezanne) stark drin ist, sowie Zen4.
Die Stückzahlen für RDNA3 sind wahrscheinlich wieder genauso limitiert wie bei RDNA2.
Das ist natürlich Unsinn, weil Lieferengpässe und Mining Hype. AMD wird jetzt genug Kapazität haben, da lohnt es sich tatsächlich den Marktanteil zu vergrößern. Und das einzige Notebook-Produkt ist N33, die anderen beiden sind sehr sicher pur Desktop.
amdfanuwe
2022-09-21, 13:50:54
Aus dem Call letzte Woche:
https://seekingalpha.com/article/4541315-advanced-micro-devices-inc-amd-goldman-sachs-communacopia-technology-conference-transcript
Forrest Norrod
Yeah. I think for us we have been completely -- in the Data Center business, we have been completely supply gated for quite some time. So we are -- our growth is utterly modulated by supply. And it’s not wafer supply, we can get all the silicon, we need our partnership with both TSMC and GLOBALFOUNDRIES, it has been great and those guys have been very responsive.
For us, it’s really about substrates. So the underappreciated piece of fiber glass and metal that connect the chips encapsulate the silicon dye and connect them to the motherboard. That’s been the constraint.
I think it was a bit of a pain point for the rest of the business as well, but those substrates are a little bit simpler to manufacture and that constraint, I’d say, is gone for the rest of the business by the end of the year.
Also Chips kein Problem, die Orders werden so hoch sein, wie AMD erwartet verkaufen zu können. Substrat Problem bis Ende des Jahres gelöst.
Von daher gute Chance für AMD mit massenhaft "günstigen" Chips Marktanteile zu gewinnen.
Nvidias aktuelles Problem scheinen ja auch die alten Lagerbestände zu sein, weshalb sie die Preise so hoch ansetzen damit die Händler noch die alten 3000er, die sie teuer eingekauft haben vor ein paar Monaten, abverkaufen können.
dildo4u
2022-09-21, 13:58:39
Das ist Unsinn das sie Tonnen Kapazität haben, der 6 Core Zen 4 ist wieder bei 300€ die Boards sind absurd teuer etc.(Ganz klar Margen Play)
Die GPUs werden genauso bepreist wie RDNA2, wobei selbst 200€ unter Nvidia immer noch 900€ fürs 7800XT Modell wäre.
Berniyh
2022-09-21, 14:30:23
Und das einzige Notebook-Produkt ist N33, die anderen beiden sind sehr sicher pur Desktop.
Ja, eben …
Erinnern wir uns mal daran, dass Intel schon seit Ewigkeiten den größten Anteil an GPUs für x86 hat.
Gerade jetzt, nach dem Mining-Hype, sind Desktop GPUs ein Spiel mit dem Feuer. Desktop mit hochpreisiger GPU ist eine Nische. Gekauft werden hauptsächlich Notebooks. APU und N33, da spielt die Musik und da wird AMD die meisten Kapazitäten investieren. Die größeren GPUs haben einen hohen Waferverbrauch und wesentlich mehr Risiko, dass man es nicht zu den gewünschten Preisen losbekommt. Macht einfach wenig Sinn da all-in zu gehen und große Kapazitäten zu ordern.
Das ist Unsinn das sie Tonnen Kapazität haben, der 6 Core Zen 4 ist wieder bei 300€ die Boards sind absurd teuer etc.(Ganz klar Margen Play)
Die GPUs werden genauso bepreist wie RDNA2, wobei selbst 200€ unter Nvidia immer noch 900€ fürs 7800XT Modell wäre.
Das ist alle gar kein Vergleich zu 7nm. AMD hat schon die Kapazität bekommen, die sie haben wollten. Und als das gebucht wurde, war das wirtschaftliche Umfeld noch ein anderes. Die haben gut Kapazität. Das muss jetzt auch genutzt werden, also wird man schon recht viele GPUs produzieren, da hier die Absatzchancen gut sind. Das ist eben der Vorteil, wenn man eben nicht Marktführer ist. Man hat immer noch Chancen zu wachsen, wenn man die besseren Produkte hat.
basix
2022-09-21, 15:40:08
Und das einzige Notebook-Produkt ist N33, die anderen beiden sind sehr sicher pur Desktop.
Soweit ich verstanden habe, ist N32 auch für Mobile (RTX 4080 Competitor) und letztens gab es das Gerücht, dass Partner auch nach N31 für Mobile fragen (hohe Energieeffizienz anyone?).
Das wär natürlich für AMD ein Kracher, da sie diese Märkte bislang ja nie bedienen konnten.
Neurosphere
2022-09-21, 16:25:26
Also sollte der 3. November wirklich Launch sein, gehe ich davon aus AMD wird ein Info-Event kurz vor Ada release machen. Ich denke es wird so laufen wie beim RDNA 2 Release das etwas wie FSAA 3 geteasert wird das dann irgendwann 2023 kommt und es mit DLSS 3 aufnehmen soll.
AMD wird sich vermutlich mit der 3090 und 6950XT vergleichen und zieht halt beide deutlich ab. Man kann die neuen Archs dadurch nur schwer vergleichen weil NV für Ada die 3090ti als Benchmark rangezogen hat. Es wird aber so aussehen das die 7900XT die 4090 schlagen wird.
Ob sie das nun schafft sei mal dahingestellt.
So stelle ich mir AMDs Marketing vor.
Rein von den Zahlen die von NV nun bekannt sind denke ich aber das AMD gute Chancen hat sich auch vor der 4090 einzureihen bei einem aktuellen Spielemix mit und ohne RT. Ich denke das weiß auch NV sonst gäbe es keine Gerüchte um eine ti oder Titan oder was immer mit deutlich über 450 Watt.
RT only würde ich mich wundern wenn sie da gegen die 4090 anstinken können, aber wenn man dort dranbleiben kann hätte AMD schon viel geschafft.
Platos
2022-09-21, 17:19:55
Wenn sie eine Art DLSS 3.0 ankündigen, müssen sie aus meiner Sicht nur noch einen sehr guten Preis haben und brauchbare RT-Perfomance liefern (ohne DLSS und FSR).
Aber wäre das so einfach, wäre AMD schon lange Marktführer ^^
DrFreaK666
2022-09-21, 21:03:27
Ich glaube kaum dass AMD sowas wie DLSS 3 in Arbeit haben. Sie werden FSR 2 weiter optimieren und erwähnen, dass es nicht nur auf einer Hardware-Generation lauffähig ist
Sunrise
2022-09-21, 21:12:05
Logisch nicht, wenn die Firmenphilosophie ist, möglichst alles offen anzubieten. Was in der Vergangenheit nicht geöffnet werden konnte, hing an Fremd-IP, aber AMD geht da generell einen gänzlich anderen Weg.
Wie Musk schon sagt, Patents are for the weak…
bbott
2022-09-21, 22:11:21
Ich glaube kaum dass AMD sowas wie DLSS 3 in Arbeit haben. Sie werden FSR 2 weiter optimieren und erwähnen, dass es nicht nur auf einer Hardware-Generation lauffähig ist
Natürlich wird AMD an FSR 3 planen bzw. arbeiten.
DrFreaK666
2022-09-21, 22:32:55
Natürlich wird AMD an FSR 3 planen bzw. arbeiten.
Das heißt aber nicht dass es mit DLSS 3 konkurrieren kann
Neurosphere
2022-09-21, 22:49:25
https://twitter.com/Kepler_L2/status/1572649543963136000
Navi31 VBIOS clock limit is 3.72 GHz, let's keep hype under control people
Die 6900 XTXH hat ein Limit von 3Ghz und wo liegt die so im maximum, 2,7..2,8 Ghz?
Heißt man ist vermutlich wieder bei den 3,5 Ghz für Navi 31. Mann muss aber sagen das die kleineren Chips vermutlich höher takten. Es kann also auch Navi 33 gemeint sein der evtl. mehr auf Taktraten getrimmt ist und den 4Ghz näher kommt.
Linmoum
2022-09-21, 22:58:37
Solange die 3.72GHz kein künstliches Limit sind.
Trotzdem brachial, dass AMD bei GPUs die 4GHz in Reichweite hat. N32 und N33 dürften vermutlich wieder höher takten.
Ravenhearth
2022-09-21, 23:00:57
https://twitter.com/Kepler_L2/status/1572649543963136000
Die 6900 XTXH hat ein Limit von 3Ghz und wo liegt die so im maximum, 2,7..2,8 Ghz?
Heißt man ist vermutlich wieder bei den 3,5 Ghz für Navi 31. Mann muss aber sagen das die kleineren Chips vermutlich höher takten. Es kann also auch Navi 33 gemeint sein der evtl. mehr auf Taktraten getrimmt ist und den 4Ghz näher kommt.
Er schreibt doch explizit Navi31?
Linmoum
2022-09-21, 23:03:21
Er bezieht sich wohl auf die "almost 4GHz". Das könnte dann - analog zur 6500XT - in dem Fall auf N33 zutreffen.
basix
2022-09-21, 23:06:39
Es waren 4.0 GHz Game Clock, ganz bestimmt. Jetzt nach der 4090 Vorstellung hat man sogar das BIOS Limit auf 3.72 GHz senken können und man ist immer noch doppelt so schnell bei RT ;)
Wenn wir >3.0 GHz @ stock auf einer 7900XT sehen, wäre das mMn bereits sehr gut. Das wäre bereits 30...35% mehr Takt als bei einer 6900XT, bei 2.4x mehr FP32-Units. Ergo >3x TFLOPS als der Vorgänger. Das hat Nvidia weder bei Ampere noch Lovelace geschafft ;)
Langlay
2022-09-21, 23:34:21
Wenn wir >3.0 GHz @ stock auf einer 7900XT sehen, wäre das mMn bereits sehr gut. Das wäre bereits 30...35% mehr Takt als bei einer 6900XT, bei 2.4x mehr FP32-Units. Ergo >3x TFLOPS als der Vorgänger. Das hat Nvidia weder bei Ampere noch Lovelace geschafft ;)
Naja Navi10 hat so 2.1-2.2 GHz geschafft mit OC, Navi21 so 2,7-2,8 GHz. So 3,2-3,5 GHz könnte ich mir schon vorstellen mit OC.
basix
2022-09-21, 23:44:24
Mit OC evtl. Ich rede von Stock ;)
Langlay
2022-09-21, 23:57:15
Mit OC evtl. Ich rede von Stock ;)
Naja Stock ist halt schwierig zu vergleichen je nach dem wie konservativ man das Powerlimit wählt. Maximaltakt ist da einfacher zu vergleichen.
dargo
2022-09-22, 07:23:26
https://twitter.com/Kepler_L2/status/1572649543963136000
Die 6900 XTXH hat ein Limit von 3Ghz und wo liegt die so im maximum, 2,7..2,8 Ghz?
Vergiss die 2,7-2,8Ghz wieder ganz schnell, das schaffst du mit Glück nur mit extremen OC. Eine Sapphire RX 6950 XT Nitro+ schafft gerade mal ca. 2,45Ghz im Performance-Bios.
https://www.igorslab.de/sapphire-nitro-rx-6850xt-pure-white-im-test-heisser-feger-als-weisse-schoenheit-mit-charakter/6/
Und dabei säuft das Teil schon 325W ASIC bzw. 410W die gesamte Karte. :freak:
Bei der XFX Radeon RX 6900 XT Merc 319 Limited Black Gaming sieht es ähnlich aus. Wenn die 2,8Ghz mit OC erreicht werden liegt es nur an geringer GPU-Last. Und mit OC säuft das Teil hier dann schon schnuckelige 436W. :ucrazy:
https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/2/#abschnitt_6900_xt_xtxh_und_rtx_3090_bis_zum_absturz_uebertaktet
https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/3/
Die übertaktete Karte ist dann in Doom Eternal 13% schneller als eine Referenz 6900XT bei 47% mehr Verbrauch. :uclap: Imho sollte man sich bei N21 auf den Takt konzentrieren bei ~300W, dieser liegt im Schnitt bei ca. 2,2-2,3Ghz. Wenn N31 im Bios max. 3,72Ghz zulässt sollten 3-3,2Ghz Realtakt realistisch sein sofern AMD auf max. 350-375W geht. Diese ~4GHz sind doch wieder nur völlig übertriebene Spinnereien.
Ravenhearth
2022-09-22, 11:58:51
Laut Kepler_L2 soll AMD drei Navi31-Varianten bringen: Salvage, Full und Full + 3D-Cache, aber keine als RX 7800. Das würde auch ziemlich gut zu den drei vorgestellten Ada-Karten passen. Ich spekuliere mal:
RX 7900 "XTX" - 6 SEs, 48 WGPs, 12288 Shader, 192MB Cache, 384Bit, 24GB, 350W - $1499
RX 7900 XT - 6 SEs, 48 WGPs, 12288 Shader, 96MB Cache, 384Bit, 24GB, 350W - $1199
RX 7900 - 5 SEs, 40 WGPs, 10240 Shader, 80MB Cache, 320Bit, 20GB, 300W - $999
Die XT ist das normale High-End-Modell, das man gegen die 4080 stellt, man bietet allerdings ein gutes Stück mehr Performance. Die 7900 ist $100 teurer als die "4070", der Performance-Abstand zwischen den beiden ist allerdings auch größer. Womöglich spart sich AMD die "XTX" bei der Präsentation für den Schluss auf - a la "one more thing" - und liefert ein Top-Modell, das durch besseres Binning und den Cache vielleicht >10% schneller ist. Man ist zwar auch 25% teurer, aber das ist ein typischer Preisaufschlag für den Top Dog, wird bei einer eventuellen 4090 Ti nicht anders sein.
why_me
2022-09-22, 12:05:14
RX 7950 3GHz edition ;)
Neurosphere
2022-09-22, 12:10:51
a la "one more thing"
*speaks in mama su voice*
"And this was our highest Chip in our 7900 XTX.
But we were not at AMD, if you would not know that we have one more thing to show you. With our advanced knowlege and long living expirience in multi chip design, we managed to merge not only one GPC with additional chips, but also two.
I am proud to present to you the absolute pinacle of GPU engineering, the 7970 XTX. The first, real MCM graphics card with outstanding performance with not one, but two N31 GPCs!"
;D
Ravenhearth
2022-09-22, 12:12:53
Bei 700W dann? :freak:
Tangletingle
2022-09-22, 12:59:20
Bei 700W dann? :freak:
also so viel wie ne 4090ti. why not :D
Sunrise
2022-09-22, 13:04:16
IMHO sprengt das wieder den Rahmen (Kosten/Nutzen). Angeblich war das ja auch der Grund, warum AMD den Prozess nicht bis an den Rand (wie NV) ausgelastet hat.
Ich bin mal gespannt, ob die geleakten Konfigs wirklich alles preisgegeben haben. Wenn sie dadurch sehr hohe Takte fahren können, damit es noch ins TDP/TBP-Budget passt, dann ist das wieder so ein Vergleich zwischen PS5 und XBox…
[MK2]Mythos
2022-09-22, 13:06:37
Laut Kepler_L2 soll AMD drei Navi31-Varianten bringen: Salvage, Full und Full + 3D-Cache, aber keine als RX 7800. Das würde auch ziemlich gut zu den drei vorgestellten Ada-Karten passen. Ich spekuliere mal:
RX 7900 "XTX" - 6 SEs, 48 WGPs, 12288 Shader, 192MB Cache, 384Bit, 24GB, 350W - $1499
RX 7900 XT - 6 SEs, 48 WGPs, 12288 Shader, 96MB Cache, 384Bit, 24GB, 350W - $1199
RX 7900 - 5 SEs, 40 WGPs, 10240 Shader, 80MB Cache, 320Bit, 20GB, 300W - $999
Die XT ist das normale High-End-Modell, das man gegen die 4080 stellt, man bietet allerdings ein gutes Stück mehr Performance. Die 7900 ist $100 teurer als die "4070", der Performance-Abstand zwischen den beiden ist allerdings auch größer. Womöglich spart sich AMD die "XTX" bei der Präsentation für den Schluss auf - a la "one more thing" - und liefert ein Top-Modell, das durch besseres Binning und den Cache vielleicht >10% schneller ist. Man ist zwar auch 25% teurer, aber das ist ein typischer Preisaufschlag für den Top Dog, wird bei einer eventuellen 4090 Ti nicht anders sein.
Glaube ich absolut nicht. Ich denke nicht dass AMD sich auf das verkorkste bzw verarschende nvidia Namensschema einlässt. 7800 und 7900 und ggf 7950 dürften gesetzt sein
Ravenhearth
2022-09-22, 13:10:36
Mythos;13115019']Glaube ich absolut nicht. Ich denke nicht dass AMD sich auf das verkorkste bzw verarschende nvidia Namensschema einlässt. 7800 und 7900 und ggf 7950 dürften gesetzt sein
Ist das nicht genau das Gegenteil von dem, was Nvidia macht? Nvidia verkauft zwei unterschiedliche Chips als 4080 und differenziert sie nur anhand der Speichergröße, während AMD bei den 7900 den gleichen Chip nimmt und die Modelle durch Suffixe unterscheidet?
Thunderburne
2022-09-22, 13:18:18
Meine EX 6900XT Red Devil ging Gamestable mit Max 2600 MHz .
Durch Benchmarks mit ca.2725-50 mhz alles nur mit MPT möglich .
Um die 3GHZ wäre auf jeden Fall eine Hausnummer.
[MK2]Mythos
2022-09-22, 13:18:18
AMD wird aber zum Launch keine drei verschiedenen Grafikkarten mit der 7900 im Namen und einer Preisrange von 1000 - 1500 USD vorstellen. Und ich denke sehr wohl dass es wieder eine 7800 geben wird und die der RTX4080 16GB gegenüber positioniert wird.
Ich gehe nach nvidias Vorstellung von folgenden Preisen aus:
Top Dog 79XX 1100 USD
79XX 900 USD
78XX 700 USD
Gipsel
2022-09-22, 13:22:09
Ich spekuliere mal:
RX 7900 "XTX" - 6 SEs, 48 WGPs, 12288 Shader, 192MB Cache, 384Bit, 24GB, 350W - $1499
RX 7900 XT - 6 SEs, 48 WGPs, 12288 Shader, 96MB Cache, 384Bit, 24GB, 350W - $1199
RX 7900 - 5 SEs, 40 WGPs, 10240 Shader, 80MB Cache, 320Bit, 20GB, 300W - $999So eine Salvage-Strategie würde auf relativ hohe Yields beim GCD schließen lassen (unwahrscheinlich, daß man 2 Defekte in unterschiedlichen SEs auf einem Die hat). Daher würde ich vermuten, daß es ein Modell mit einem deaktiviertem WGP pro SE gibt (da kann man die dann nämlich mit einiger Wahrscheinlichkeit verbraten).
Also ich würde darauf tippen, daß es außer der vollen Version mit 48WGPs auch eine mit 42 WGPs geben dürfte (6 SEs * 7 WGPs). Etwas mit einer deaktivierten Shaderengine könnte z.B. auch später nachgeschoben werden (eventuell sogar mit nur 5 SEs * 7 WGPs und schmalerem Speicherinterface), um sonst im Abfall landende Dies noch loszuwerden (die klassischen SE-Versionen mit weniger Einheiten aber hohem Takt, um sich mit dann nur noch 35WGPs noch von N32 absetzen zu können).
Thunderburne
2022-09-22, 13:29:52
Mythos;13115039']AMD wird aber zum Launch keine drei verschiedenen Grafikkarten mit der 7900 im Namen und einer Preisrange von 1000 - 1500 USD vorstellen. Und ich denke sehr wohl dass es wieder eine 7800 geben wird und die der RTX4080 16GB gegenüber positioniert wird.
Ich gehe nach nvidias Vorstellung von folgenden Preisen aus:
Top Dog 79XX 1100 USD
79XX 900 USD
78XX 700 USD
Echt von so wenig ?
Die 7800XT soll doch 20Gb und 320bit bekommen und über 10000 shader liegen dazu mit einem Takt bei 3GHZ da müsste die die 4080 16GB eigentlich einäschern bei der Raster Leistung!
Da gehe ich min vom Preis Ref 1000€ und Custom bis 1250€ aus also dem Preis der 12GB RTX 4080!
Mit der 6950XT hat man ja auch gezeigt was geht glaub mit ca 1279 €.
Bei der 7900XT würden mich daher 1399€ -1599 nicht wundern wen die bei der Raster Leistung knapp bei der 4090 ankommen soll!
Und da ordne ich die Karte auch nur ein weil die RT Leistung wohl möglich geringer ausfällt .
X-Bow
2022-09-22, 14:43:09
The first, real MCM graphics card with outstanding performance with not one, but two N31 GPCs!"
;D
Das wäre tatsächlich die einzige Grafikkarte welche mich dieses Jahr zu einem Kauf bewegen würde, aber nur wenn das Ding auch RX 7990 heißt. :freak:
Ravenhearth
2022-09-22, 14:56:26
Das einzige Modell mit zwei GCDs, das ich für realistisch halte, ist der doppelte N32 mit 15360 SPs. Der könnte auf ~450W richtig abgehen. Aber der wird wahrscheinlich nur im Labor existieren - und ist für die 4090 womöglich gar nicht nötig. :redface:
Thunderburne
2022-09-22, 15:03:51
Das einzige Modell mit zwei GCDs, das ich für realistisch halte, ist der doppelte N32 mit 15360 SPs. Der könnte auf ~450W richtig abgehen. Aber der wird wahrscheinlich nur im Labor existieren - und ist für die 4090 womöglich gar nicht nötig. :redface:
Für die 4090Ti mit über 18000 shader!
mboeller
2022-09-22, 15:10:04
Das einzige Modell mit zwei GCDs, das ich für realistisch halte, ist der doppelte N32 mit 15360 SPs. Der könnte auf ~450W richtig abgehen. Aber der wird wahrscheinlich nur im Labor existieren - und ist für die 4090 womöglich gar nicht nötig. :redface:
Ist schon bekannt, wie viele TMU/ROP N31 pro WGP bekommt?
Wenn es nicht mehr sind wie beim N21, dann bleibt es bei 48/40 x (vielleicht) 3,2/~2,4GHz = ~~ 60% Mehrleistung.
Also auch nicht wirklich besser als bei der 4090. Ergo ... mal sehen.
Ravenhearth
2022-09-22, 15:26:41
Bin mir gerade nicht sicher, aber ich denke, dass es bei der bisherigen Anzahl an TMUs/ROPs bleiben wird, da die WGPs prozessnormiert ja sogar schrumpfen sollen. Das heißt aber nicht, dass die verdoppelte Shaderleistung komplett verpufft. Selbst wenn das nur +25% Spieleleistung bringt, ergäbe das mit +20% mehr WGPs und +33% mehr Takt noch die ~doppelte Leistung.
X-Bow
2022-09-22, 15:36:56
- und ist für die 4090 womöglich gar nicht nötig. :redface:
Oh es ginge mir dabei nur sekundär um die Leistung. Das wäre dann eher mal wieder eine schöne Sammlerkarte (erste MCM-Karte).:wink:
Nazar
2022-09-22, 15:37:46
Laut Kepler_L2 soll AMD drei Navi31-Varianten bringen: Salvage, Full und Full + 3D-Cache, aber keine als RX 7800. Das würde auch ziemlich gut zu den drei vorgestellten Ada-Karten passen. Ich spekuliere mal:
RX 7900 "XTX" - 6 SEs, 48 WGPs, 12288 Shader, 192MB Cache, 384Bit, 24GB, 350W - $1499
RX 7900 XT - 6 SEs, 48 WGPs, 12288 Shader, 96MB Cache, 384Bit, 24GB, 350W - $1199
RX 7900 - 5 SEs, 40 WGPs, 10240 Shader, 80MB Cache, 320Bit, 20GB, 300W - $999
Die XT ist das normale High-End-Modell, das man gegen die 4080 stellt, man bietet allerdings ein gutes Stück mehr Performance. Die 7900 ist $100 teurer als die "4070", der Performance-Abstand zwischen den beiden ist allerdings auch größer. Womöglich spart sich AMD die "XTX" bei der Präsentation für den Schluss auf - a la "one more thing" - und liefert ein Top-Modell, das durch besseres Binning und den Cache vielleicht >10% schneller ist. Man ist zwar auch 25% teurer, aber das ist ein typischer Preisaufschlag für den Top Dog, wird bei einer eventuellen 4090 Ti nicht anders sein.
Die 7900XTX wird eher auf 400Watt gehen, "nur" einen kleineren Cache, halte ich nicht für ausreichend, um die eine 7900XT mit 350 Watt gegen eine 7900XTX mit ebenfalls 350 Watt zu platzieren.
Als möglicher 4090Ti Konter wird wohl eine 7950XT(LC) mit 450 Watt kommen.
Ich drücke uns die Daumen, dass AMD bei der RZ-Performance mehr zu bieten hat als nV.
*speaks in mama su voice*
"And this was our highest Chip in our 7900 XTX.
But we were not at AMD, if you would not know that we have one more thing to show you. With our advanced knowlege and long living expirience in multi chip design, we managed to merge not only one GPC with additional chips, but also two.
I am proud to present to you the absolute pinacle of GPU engineering, the 7970 XTX. The first, real MCM graphics card with outstanding performance with not one, but two N31 GPCs!"
;D
Sollte das so kommen, was ich absolut nicht glaube, dann würde der Name komplett anders lauten. Keine Ahnung wie, aber doch ein deutlicher Unterschied zu allen anderen bisherigen Bezeichnungen. Vielleicht sogar gleich eine 8000²XT? Aber schön wäre es trotzdem. ;)
Ravenhearth
2022-09-22, 15:59:32
Sollte das so kommen, was ich absolut nicht glaube, dann würde der Name komplett anders lauten. Keine Ahnung wie, aber doch ein deutlicher Unterschied zu allen anderen bisherigen Bezeichnungen. Vielleicht sogar gleich eine 8000²XT? Aber schön wäre es trotzdem. ;)
Radeon Zeus :naughty:
basix
2022-09-22, 16:41:49
I am proud to present to you the absolute pinacle of GPU engineering, the 7970 XTX.
7970 4GHz Edition? Hmm, da läutet bei mir was ;D
https://www.techpowerup.com/gpu-specs/radeon-hd-7970-ghz-edition.c365
davidzo
2022-09-22, 16:47:17
RT only würde ich mich wundern wenn sie da gegen die 4090 anstinken können, aber wenn man dort dranbleiben kann hätte AMD schon viel geschafft.
Da habe ich auch meine größten Bedenken.
Man hört einfach zu wenig über AMDs neuen RT Ansatz. Und "verbesserte RT-Leistung gegenüber RDNA2" wie die Leaker munkeln hätte man alleine mit verdoppelten Shaderalus auch schon.
Ich glaube nicht an mehr und dies ist warum:
AMD scheint bei RDNA einen ähnlichen Entwicklungsansatz zu haben wie bei Zen1-3 auch schon: Die Entwicklung aller Generationen beginnt gleichzeitig, und die Produktgenerationen werden aus dem abgeleitet was bis zu einer bestimmten Deadline fertig enwickelt ist und in das Transistorbudget der gewählten Fertigung passt.
Alle Teams Brainstormen zu Beginn Ideen für die perfekte gaming GPU. Genau wie bei Zen, wo Chiplet und Cache Stacking, sowie 8C CCXe von Anfang an auf der Rodamap standen, fertigungsbedingt aber erst später umgesetzt werden konnten. Oder der TAGE branch predictor mit dem AMDs branch prediction accuracy erstmals vor Intels jahrzehntelange Expertise gelandet ist. Der war für Zen von Anfang angedacht aber einfach nicht rechtzeitig fertig für Zen1 sondern erst zu Zen2.
Wenn wir uns den Invocation-Punkt für AMDs RDNA Strategie vorstellen, dann müssen wir dass im Kontext vom erfolgreichen Zen1 sehen, der gerade erst auf dem Markt war und AMD hatte plötzlich mehr Ressourcen für R&D. Nvidia war mit Maxwell leicht überlegen und es zeichnete sich ab dass weitere GCN Evolutionen weder bei absoluter Leistung, Power Pro Watt noch PPA mithalten könnten. Fiji und Vega erwiesen sich als teure Verlustgeschäfte mit zweifelhafter Konkurrenzfähigkeit.
RDNA ist eine Architektur die genau diese Probleme angehen sollte. Best in class Power pro Watt, sehr gute Power per Area und die Leistungskrone für Rasterizing. Raytracing zählte nicht zum ursprünglichen Kern-Featureset und war auch egal, da es für AMD nichts genützt hätte wenn man in absoluter Leistung, PPA, PPW weiterhin so stark zurück liegt.
Daher AMDs minimal-invasiver RT-Ansatz mit RDNA2 auf den Shaderalus.
Ich sehe also keine Chance bei diesem Strategieansatz für Architekturen noch groß etwas zu RT zu ändern. RT war für die RDNA Architektur höchstens ein Nebengedanke und wird es weiter sein.
RDNA1 ist im Prinzip AMDs Maxwell done right, RDNA2 mit den hohen Taktraten erinnert mich mehr an Pascal. Turing hat AMD überrascht, mit dem massiven Einsatz von Transistoren für ein wenig verbreitetes Feature hat AMD einfach nicht gerechnet. RDNA2s RT Lösung muss schon konzipiert gewesen sein bevor man näheres über Turings Implementierung wusste.
Und die Anzeichen dafür sind auch negativ:
Die DIEsize von N31ist mit 307mm2 erheblich kleiner als man für 12288Alus erwarten würde. Wo soll also das Transistorbudget für einen völlig neuen RT-Ansatz in Hardware herkommen?
Sicher, man wird ein paar Wege gefunden haben den bisherigen RT-Pfad zu optimieren, kleine Tweaks am sorting, an den Caches und Latencies. Aber ich erwarte keine grundsätzlich neue Lösung für RT.
Und damit wird RDNA3 keine Chance haben in RT gegen Lovelace. Das Potential ist hoch für die Leistungskrone in Rasterizing, nicht zuletzt weil lovelace anscheinend sehr bescheiden skaliert, aber bei RT sehe ich wenig Anlass dazu dass es irgendwie anders wird als RDNA2 vs RTX3K.
basix
2022-09-22, 16:57:48
Die RT Cores sind im Vergleich zu eine ganzen SM bei Nvidia relativ klein. AMDs WGP würde also nicht plötzlich 2x grösser werden, nur weil sie die RT-Beschleunigung verbessern.
AMD wird sicher an RT arbeiten, ob das jetzt BVH-Handling in HW anstatt den Shader ist, werden wir sehen. Eine relative Verbesserung aber definitiv. Reicht es für Lovelace? Unmöglich zu sagen. Meine Erwartung ist allerdings, dass es nicht ganz reicht. AMD könnte aber bei RZ einen Vorteil haben. Wenn AMD 2x schneller in RZ ist, würde man auch bei einem höheren relativen Drop RZ -> RT evtl. in Schlagweite von Lovelace kommen.
Ravenhearth
2022-09-22, 16:59:46
Ich hoffe eigentlich, dass man es vier Jahre nach Turing mal auf das gleiche RT-Level (3) schafft...
prinz_valium_2
2022-09-22, 17:00:15
Laut Kepler_L2 soll AMD drei Navi31-Varianten bringen: Salvage, Full und Full + 3D-Cache, aber keine als RX 7800. Das würde auch ziemlich gut zu den drei vorgestellten Ada-Karten passen. Ich spekuliere mal:
RX 7900 "XTX" - 6 SEs, 48 WGPs, 12288 Shader, 192MB Cache, 384Bit, 24GB, 350W - $1499
RX 7900 XT - 6 SEs, 48 WGPs, 12288 Shader, 96MB Cache, 384Bit, 24GB, 350W - $1199
RX 7900 - 5 SEs, 40 WGPs, 10240 Shader, 80MB Cache, 320Bit, 20GB, 300W - $999
Falls eine SKU mit 3D Infinity Cache kommt, bin ich absolut nicht gegen 3 7900er Modelle. Das ist so schon recht logisch.
N32 sind dann 2 weitere, die hoffentlich Gleichzeitig vorgestellt werden.
Denn gerade jetzt wo nVidia unter der 4080 nichts neues bringt, hat AMD ein enormes Potential. Sollten sie aber nur 7900 launchen, ist es verschwendet. Denn im absoluten High End wird eher nVidia gekauft.
Ravenhearth
2022-09-22, 17:04:21
N32 und N33 sollen afaik erst nächstes Jahr kommen, N33 sogar als erstes.
prinz_valium_2
2022-09-22, 17:11:57
N32 und N33 sollen afaik erst nächstes Jahr kommen, N33 sogar als erstes.
Naja, wenn N31 ende November kommt, ist das auch nur 2 Monate später.
Besser als nichts, wo nVidia ja leider gar nichts auf absehbare Zeit geplant hat.
Für mich persönlich schade.
Da 7900 egal in welcher Ausführung außerhalb des Budgets liegen wird.
Da kommt ja nicht plötzlich etwas für unter $500
dargo
2022-09-22, 17:38:29
Was genau soll dieser ominöse 3D-Cache bringen wenn die Rohleistung identisch ist? Macht für mich keinen Sinn.
Berniyh
2022-09-22, 18:28:08
Ich hoffe eigentlich, dass man es vier Jahre nach Turing mal auf das gleiche RT-Level (3) schafft...
Ich hoffe eher, dass sie nicht zu viel Fläche, Kosten etc. für so nutzlose Features verschwenden. :P
Was genau soll dieser ominöse 3D-Cache bringen wenn die Rohleistung identisch ist? Macht für mich keinen Sinn.
Die hitrate für den Cache steigt halt, d.h. es muss seltener auf den VRAM zugegriffen werden, spart dort also Bandbreite.
d.h. auch bei gleicher Rohleistung kann diese besser genutzt werden und die Performance steigt.
AffenJack
2022-09-22, 18:35:55
Ich hoffe eigentlich, dass man es vier Jahre nach Turing mal auf das gleiche RT-Level (3) schafft...
Das sollte wohl klappen, bei b3d hab ich von Treibereinträgen mit BHV gelesen, die hoffentlich auf RT-Level 3 deuten. Nur ist ADA natürlich Level 4 oder sogar drüber und Intel wohl ebenso über Level 3. Aber da wird sich die Hardwarebasis und evtl. DXR 2.0 Features eh erstmal bilden müssen. Level 3 ist für mich aber auch Grundvorraussetzung, damit ich RDNA3 in Betracht ziehe.
dargo
2022-09-22, 19:20:21
Die hitrate für den Cache steigt halt, d.h. es muss seltener auf den VRAM zugegriffen werden, spart dort also Bandbreite.
d.h. auch bei gleicher Rohleistung kann diese besser genutzt werden und die Performance steigt.
Das würde im Umkehrschluss bedeuten, dass die SKU ohne den 3D Cache an Bandbreite verhungert. Wäre sehr dämlich von AMD das so zu konstruieren. Macht für mich immer noch keinen Sinn.
davidzo
2022-09-22, 19:25:24
Das würde im Umkehrschluss bedeuten, dass die SKU ohne den 3D Cache an Bandbreite verhungert. Wäre sehr dämlich von AMD das so zu konstruieren. Macht für mich immer noch keinen Sinn.
Für mich machen die Versionen ohne stacked Cache keinen Sinn.
Nur 75% des Caches von N21 für eine GPU mit 250% derRohleistung von N21 machen für mich keinen Sinn. N21 hatte schon kein besonders tolles Scaling in 4K und mehr. 96Mb sind einfach auch bei einem 384bit SI zu wenig.
aufkrawall
2022-09-22, 19:31:20
N21 hatte schon kein besonders tolles Scaling in 4K und mehr.
Unsinn.
basix
2022-09-22, 21:22:35
Für mich machen die Versionen ohne stacked Cache keinen Sinn.
Nur 75% des Caches von N21 für eine GPU mit 250% derRohleistung von N21 machen für mich keinen Sinn. N21 hatte schon kein besonders tolles Scaling in 4K und mehr. 96Mb sind einfach auch bei einem 384bit SI zu wenig.
Entweder haben alle SKUs stacked Cache oder keine. Ich tippe auf: Keine. Macht für mich bei den kleinen Die einfach keinen Sinn.
Unsinn.
Richtig. Keine Ahnung wieso das alle meinen. Irgendwer in der Nvidia Marketing Abteilung hat da gute Arbeit geleistet. N21 skaliert eigentlich ganz normal. Es ist nur GA102, der erst bei 4K wirklich aufdreht.
Berniyh
2022-09-22, 22:32:14
Das würde im Umkehrschluss bedeuten, dass die SKU ohne den 3D Cache an Bandbreite verhungert. Wäre sehr dämlich von AMD das so zu konstruieren. Macht für mich immer noch keinen Sinn.
Naja, verhungern ist evtl. etwas übertrieben. Nvidia's Ampere war ja z.B. auch komplett ohne Cache.*)
Es ist halt immer eine Frage der Abwägung. Mehr Cache ist gut für die Performance, aber kostet eben auch Geld.
Genau wie man ja auch GPUs mit unterschiedlich viel Speicherbandbreite und Speicher anbietet. Teilweise auch vom gleichen (teildeaktivierten) Chip.
*) komplett "ohne" Cache ist natürlich nicht richtig, aber der verfügbare on-chip Cache ist halt sehr überschaubar.
Ravenhearth
2022-09-22, 23:09:50
So eine Salvage-Strategie würde auf relativ hohe Yields beim GCD schließen lassen (unwahrscheinlich, daß man 2 Defekte in unterschiedlichen SEs auf einem Die hat). Daher würde ich vermuten, daß es ein Modell mit einem deaktiviertem WGP pro SE gibt (da kann man die dann nämlich mit einiger Wahrscheinlichkeit verbraten).
Also ich würde darauf tippen, daß es außer der vollen Version mit 48WGPs auch eine mit 42 WGPs geben dürfte (6 SEs * 7 WGPs). Etwas mit einer deaktivierten Shaderengine könnte z.B. auch später nachgeschoben werden (eventuell sogar mit nur 5 SEs * 7 WGPs und schmalerem Speicherinterface), um sonst im Abfall landende Dies noch loszuwerden (die klassischen SE-Versionen mit weniger Einheiten aber hohem Takt, um sich mit dann nur noch 35WGPs noch von N32 absetzen zu können).
Mit den 42 WGPs könntest du Recht haben, denn das ist die Konfiguration, die von Angstronomics für den Salvage genannt wurde; allerdings in Kombination mit nur 5 MCDs.
Naja, verhungern ist evtl. etwas übertrieben. Nvidia's Ampere war ja z.B. auch komplett ohne Cache.*)
Es ist halt immer eine Frage der Abwägung. Mehr Cache ist gut für die Performance, aber kostet eben auch Geld.
Genau wie man ja auch GPUs mit unterschiedlich viel Speicherbandbreite und Speicher anbietet. Teilweise auch vom gleichen (teildeaktivierten) Chip.
*) komplett "ohne" Cache ist natürlich nicht richtig, aber der verfügbare on-chip Cache ist halt sehr überschaubar.
Genau. Laut Angstronomics kostet der 3D-Cache ordentlich was, bringt aber nur begrenzt Mehrperformance: "There is a 3D stacked MCD also being productized (1-hi) using TSMC’s SoIC. While this doubles the Infinity Cache available, the performance benefit is limited given the cost increase." Und der 3D-Cache wird hiernach produziert, also dürfte der auch kommen. Perfekt fürs Topmodell, das sowieso immer in Relation zur Performance "zu viel" kostet.
RitterRost
2022-09-22, 23:27:59
https://wccftech.com/amd-radeon-rx-6000-rdna-2-gpus-official-price-cuts-prior-to-radeon-rx-7000-rdna-3-launch/
Radeon RX 6950 XT - $949 (Was $1099 US)
Radeon RX 6900 XT - $699 (Was $999 US)
Radeon RX 6800 XT - $599 (Was $649 US)
Radeon RX 6800 - $549 (Was $579 US)
Radeon RX 6750 XT - $419 (Was $549 US)
Radeon RX 6700 XT - $379 (Was $479 US)
Radeon RX 6650 XT - $299 (Was $399 US)
Radeon RX 6600 XT - $239 (Was $329 US)
Radeon RX 6500 XT - $169 (Was $199 US)
Radeon RX 6400 - $149 (Was $159 US)
Da werden die neuen Karten wohl oberhalb $949 liegen...
basix
2022-09-22, 23:42:26
https://wccftech.com/amd-radeon-rx-6000-rdna-2-gpus-official-price-cuts-prior-to-radeon-rx-7000-rdna-3-launch/
Radeon RX 6950 XT - $949 (Was $1099 US)
Radeon RX 6900 XT - $699 (Was $999 US)
Radeon RX 6800 XT - $599 (Was $649 US)
Radeon RX 6800 - $549 (Was $579 US)
Radeon RX 6750 XT - $419 (Was $549 US)
Radeon RX 6700 XT - $379 (Was $479 US)
Radeon RX 6650 XT - $299 (Was $399 US)
Radeon RX 6600 XT - $239 (Was $329 US)
Radeon RX 6500 XT - $169 (Was $199 US)
Radeon RX 6400 - $149 (Was $159 US)
Das wären GPU-Preise, wie sie sein sollten ;)
Wenn ich sehe, wie stark die 6600XT und 6700XT reduziert werden, spricht das für N33, nicht?
Da werden die neuen Karten wohl oberhalb $949 liegen...
Die 6950XT ist eh ein Sondermodell mit limitierter Auflage. Aber $1000+ sind es vermutlich schon.
amdfanuwe
2022-09-23, 00:57:33
Mhh, vielleicht doch nur 2 SKUs mit N31?
7900XT 24GB
7900 20GB
Mit N32 später
7800 XT 16GB
7800 16GB
7700 XT 12GB
N33
7600 XT 8GB
7600 8GB
7500 6GB
y33H@
2022-09-23, 06:41:48
Und WTF Tech macht daraus ernsthaft eine News, das seien die neuen MSRPs ... dabei steht extra per Sternchen dran, es ist Newegg ;(
fondness
2022-09-23, 07:11:29
Für mich machen die Versionen ohne stacked Cache keinen Sinn.
Nur 75% des Caches von N21 für eine GPU mit 250% derRohleistung von N21 machen für mich keinen Sinn. N21 hatte schon kein besonders tolles Scaling in 4K und mehr. 96Mb sind einfach auch bei einem 384bit SI zu wenig.
Sehe ich anders. 50% breiteres SI plus höher getakteter Speicher dürfte schon auf 70% mehr Bandbreite kommen. Dazu ist das auch immer eine Frage der Aufteilung. Bei N21 mit vier speichercontroller gingen 64MB oder 128MB. 64MB waren offenbar zu wenig mit dem 256 bit SI. Jetzt hat man 6 speichercontroller. Da gehe 96Mb oder 192 MB. Schau dir die Grafik an von AMD wieviel welche Cache größe bringt. 96 MB war schon immer der sweet Spot. Ab 128 MB scheint es zudem kaum mehr was zu bringen. Deshalb waren für mich die spekus mit größerem Cache schon immer fragwürdig.
Platos
2022-09-23, 08:54:14
Und WTF Tech macht daraus ernsthaft eine News, das seien die neuen MSRPs ... dabei steht extra per Sternchen dran, es ist Newegg ;(
Egal, jeder Artikel, der auf Preis-Leistung ei geht und irgendwie indirekt betont, dass nvidia ein beschissenes hat, soll mir Recht sein :D
basix
2022-09-23, 09:02:07
Source der "News" ist TPU (sogar verlinkt bei WCCFTech), und auch die schreiben von MSRP Cut ;)
Platos
2022-09-23, 09:04:29
Ja dann ;)
mboeller
2022-09-23, 09:05:30
Radeon RX 6950 XT - $949 (Was $1099 US)
Radeon RX 6900 XT - $699 (Was $999 US)
Radeon RX 6800 XT - $599 (Was $649 US)
Radeon RX 6800 - $549 (Was $579 US)
Radeon RX 6750 XT - $419 (Was $549 US)
Radeon RX 6700 XT - $379 (Was $479 US)
Radeon RX 6650 XT - $299 (Was $399 US)
Radeon RX 6600 XT - $239 (Was $329 US)
Radeon RX 6500 XT - $169 (Was $199 US)
Radeon RX 6400 - $149 (Was $159 US)
Da werden die neuen Karten wohl oberhalb $949 liegen...
Auch wenn es nicht von AMD kommt, sondern "nur" Newegg ist.
Die haben jetzt 2 große Lücken im Verkaufspreis. Bei ca. 500,- Dollar und bei ca. 800,- Dollar. Vielleicht sind das ja die Lücken für N33 und N32. N31 kommt dann noch on Top.
basix
2022-09-23, 09:06:08
Sehe ich anders. 50% breiteres SI plus höher getakteter Speicher dürfte schon auf 70% mehr Bandbreite kommen. Dazu ist das auch immer eine Frage der Aufteilung. Bei N21 mit vier speichercontroller gingen 64MB oder 128MB. 64MB waren offenbar zu wenig mit dem 256 bit SI. Jetzt hat man 6 speichercontroller. Da gehe 96Mb oder 192 MB. Schau dir die Grafik an von AMD wieviel welche Cache größe bringt. 96 MB war schon immer der sweet Spot. Ab 128 MB scheint es zudem kaum mehr was zu bringen. Deshalb waren für mich die spekus mit größerem Cache schon immer fragwürdig.
Ich denke auch, dass 96MByte reichen sollten. Soweit ich mitbekommen habe, hat der neue Infinity Cache auch eine erhöhte Granularität (was die Ausnutzung verbessert) und AMD wird sicher auch dazugelernt haben (was muss ich Cachen und was nicht?).
128MByte oder gar 192MByte würde sicher was bringen. Ist aber eine Kosten/Nutzen Frage. Doppelt so viel Cache = Doppelt so teuer. Bandbreiten-Multiplikator aber nur sqrt(2). Irgendwann ist es billiger, etwas weniger Cache zu verwenden und dafür ein breiteres oder höher taktendes SI.
Auch wenn es nicht von AMD kommt, sondern "nur" Newegg ist.
Die haben jetzt 2 große Lücken im Verkaufspreis. Bei ca. 500,- Dollar und bei ca. 800,- Dollar. Vielleicht sind das ja die Lücken für N33 und N32. N31 kommt dann noch on Top.
RDNA2 ist nach RDNA3 Release eh nicht mehr Konkurrenzfähig. N33 wischt mit N23 & N22 den Boden auf und ist günstiger zu produzieren (falls 200mm2 in N6 und 8GByte VRAM sich bewahrheiten). Und die Lücke bei 800$ ist eh nur künstlich, da die 6950XT ein "Spezialmodell" ist (und man damit die Preise am Top End nicht zu stark drückt, würde nicht so gut aussehen wenn Top N31 doppelt so teuer wie die 6950XT wäre).
Berniyh
2022-09-23, 09:16:46
Ich denke auch, dass 96MByte reichen sollten. Soweit ich mitbekommen habe, hat der neue Infinity Cache auch eine erhöhte Granularität (was die Ausnutzung verbessert) und AMD wird sicher auch dazugelernt haben (was muss ich Cachen und was nicht?).
Navi31 hat vor allem auch über 50% Bandbreite mehr als Navi21. ;)
Speziell bei hohen Auflösungen sollten die 192MB aber schon positiv sein. Und genau für so einen Fall kauft man ja ggf. so eine teure Karte.
dargo
2022-09-23, 09:31:18
Speziell bei hohen Auflösungen sollten die 192MB aber schon positiv sein. Und genau für so einen Fall kauft man ja ggf. so eine teure Karte.
Ich blicke da immer noch nicht durch, muss aber auch dabei sagen, dass ich mich mit dem Design von N31 noch nicht richtig beschäftigt habe. Mal angenommen es gibt den N31 einmal mit 192MB Cache und einmal mit 96MB. Dafür müsste AMD doch zwei separate GPUs designen. Das wäre doch viel zu viel Aufwand. Oder ist die Hälfte dann bei den 96MB Dingern einfach nur deaktiviert? Wäre dann recht viel Verschwendung. Auf der anderen Seite... der Infinity Cache wandert ja afaik in die mickrigen MCDs, eventuell lohnt sich deshalb der Aufwand mit unterschiedlichen Cache Größen? :uponder:
unl34shed
2022-09-23, 09:34:37
Gleiches GCD Gleiches MCD nur bei einem kommt auf das MCD noch Cache drauf. Dadurch dann auch gleiches Substrat, gleiche PCB usw.
Also das einzig neue ist ein kleiner 30mm² Chip, der nur aus Cache besteht.
Linmoum
2022-09-23, 09:34:49
Der zusätzliche Cache kommt einfach on top wie beim 5800X3D.
Daredevil
2022-09-23, 09:36:03
RDNA2 hat zwar manchmal mit dem IF geschwächelt, aber in den großen Ausführungen war es weit entfernt davon, ein Problem zu sein. Da fehlte ja nicht viel, bis es auch für 4k+ ausreicht, insofern gehe ich davon aus, das man dieses Problem gänzlich für alle Versionen lösen kann.
Der Cache nimmt zu, die Anforderungen an Speicher aber nicht, solange wir noch kein 8k+ haben.
Insofern war alles effektiv und effizient auf Kante genäht, was jetzt aber bestimmt kein Problem mehr sein wird.
Der_Korken
2022-09-23, 09:38:19
Ich blicke da immer noch nicht durch, muss aber auch dabei sagen, dass ich mich mit dem Design von N31 noch nicht richtig beschäftigt habe. Mal angenommen es gibt den N31 einmal mit 192MB Cache und einmal mit 96MB. Dafür müsste AMD doch zwei separate GPUs designen. Das wäre doch viel zu viel Aufwand. Oder ist die Hälfte dann bei den 96MB Dingern einfach nur deaktiviert? Wäre dann recht viel Verschwendung. Auf der anderen Seite... der Infinity Cache wandert ja afaik in die mickrigen MCDs, eventuell lohnt sich deshalb der Aufwand mit unterschiedlichen Cache Größen? :uponder:
So genau weiß das keiner. Angeblich sollen es 6MCDs sein, die jeweils 64bit SI und 16MB IF$ Cache haben. Auf diese könnte man optional noch weitere 16MB stacken, sodass man zwei Modelle mit verschiedenen Cache-Größen bringen könnte ohne Chipfläche zu verschwenden. Für eine "7950XT" wäre sowas denkbar, da man durch selektierte Chips, höheres PPT und den Extra-Cache vielleicht nochmal 10-15% mehr Performance rausholen kann, um Nvidias Dickschiff-Modell anzugreifen. Daher könnte die "7950XT" auch ein paar hundert Dollar teurer verkauft werden. Problem an der Theorie ist, dass 16MB Cache viel zu winzig sind, um daraus einen extra Die zu machen und vor allem sind 16MB+64bit SI viel größer als 16MB ohne 64bit SI. Wenn, dann müsste der Cache-Die eher so 48MB haben, damit die halbwegs übereinander passen, aber dann würde der IF$ gleich von 96MB auf 384MB anwachsen. Wir werden wohl sehen müssen, wie sich das in der Realität auflöst. Da Nvidia mit AD102 anscheinend all-in geht, wird AMD es sich nicht nehmen lassen da ein Konkurrenz-Modell aufzustellen, wenn sie sehen, dass sie nah genug dran sind mit einem "normalen" N31.
dargo
2022-09-23, 10:01:09
Der zusätzliche Cache kommt einfach on top wie beim 5800X3D.
Achso... ja in dem Fall würde das wieder Sinn machen. Denn der Aufwand hält sich ja in Grenzen.
So genau weiß das keiner. Angeblich sollen es 6MCDs sein, die jeweils 64bit SI und 16MB IF$ Cache haben. Auf diese könnte man optional noch weitere 16MB stacken, sodass man zwei Modelle mit verschiedenen Cache-Größen bringen könnte ohne Chipfläche zu verschwenden.
Genau darum gehts ja. :)
Navi31 hat vor allem auch über 50% Bandbreite mehr als Navi21. ;)
Speziell bei hohen Auflösungen sollten die 192MB aber schon positiv sein. Und genau für so einen Fall kauft man ja ggf. so eine teure Karte.
Da kommste wahrscheinlich nicht mit aus. Ich halte es für ziemlich wahrscheinlich, dass das Produkt mit 20-24GT/s-Speicher erscheint. Das wäre deutlich mehr als 50%. Daher braucht man auch viel weniger Cache. Mit 24GT/s wären es mehr als 100% mehr Bandbreite.
basix
2022-09-23, 11:11:13
An 24 GT/s glaube ich nicht. 20 GT/s könnten passen. Bei letzterem ist afaik auch die Spannung geringer, ergo ist es effizienter. Sind aber auch hier stattliche 1.88x Bandbreite bei N31 vs. N21
Eine 7950XT kommt dann mit 22-24 GT/s und voilà, 3D-Stacked Cache ist gar nicht nötig ;)
davidzo
2022-09-23, 11:14:57
https://wccftech.com/amd-radeon-rx-6000-rdna-2-gpus-official-price-cuts-prior-to-radeon-rx-7000-rdna-3-launch/
Radeon RX 6950 XT - $949 (Was $1099 US)
Radeon RX 6900 XT - $699 (Was $999 US)
Radeon RX 6800 XT - $599 (Was $649 US)
Radeon RX 6800 - $549 (Was $579 US)
Radeon RX 6750 XT - $419 (Was $549 US)
Radeon RX 6700 XT - $379 (Was $479 US)
Radeon RX 6650 XT - $299 (Was $399 US)
Radeon RX 6600 XT - $239 (Was $329 US)
Radeon RX 6500 XT - $169 (Was $199 US)
Radeon RX 6400 - $149 (Was $159 US)
Da werden die neuen Karten wohl oberhalb $949 liegen...
Sehr erfreulich dass AMD auch die entry SKUs im Preis justiert. Bei Nvidia ist das nicht der Fall, die sind daher extrem unattraktiv im vergleich zu highend.
Ist halt Jensen Mentalität: the more you buy the more you save
Wenn ich mir die Diesizes und PCBs von N24 und N23 so anschaue hat AMD aber auch deutlich mehr Spielraum für Preissenkungen als NV es hat.
Berniyh
2022-09-23, 11:18:34
Da kommste wahrscheinlich nicht mit aus. Ich halte es für ziemlich wahrscheinlich, dass das Produkt mit 20-24GT/s-Speicher erscheint. Das wäre deutlich mehr als 50%. Daher braucht man auch viel weniger Cache. Mit 24GT/s wären es mehr als 100% mehr Bandbreite.
Ja, natürlich. Aber die genauen Eckdaten kennt man halt nicht, daher schrieb ich halt "über 50%", denn die mind. 50% sind halt das was gesichert ist.
100% ist ja auch "über 50%". ;)
RDNA2 hat zwar manchmal mit dem IF geschwächelt, aber in den großen Ausführungen war es weit entfernt davon, ein Problem zu sein. Da fehlte ja nicht viel, bis es auch für 4k+ ausreicht, insofern gehe ich davon aus, das man dieses Problem gänzlich für alle Versionen lösen kann.
Der Cache nimmt zu, die Anforderungen an Speicher aber nicht, solange wir noch kein 8k+ haben.
Insofern war alles effektiv und effizient auf Kante genäht, was jetzt aber bestimmt kein Problem mehr sein wird.
Wenn man sich den Graph hier anschaut, dann kann man durch mehr Cache schon ggf. noch mehr rausholen:
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/57-1080.a043dd4b.png
Natürlich kann man das nicht 1:1 auf RDNA3 übertragen, da sich ja einiges ändert, aber zwischen einer 96MB und einer 192MB Version würde ich gerade bei hohen Auflösungen schon erwarten, dass man noch einige Prozent rausholen kann.
Tatsächlich würde es mich sogar wundern, wenn man so ein 192MB Produkt nicht präsentiert. evtl. halt auch als Paper-Launch, d.h. reine Balkenverlängerung.
Nightspider
2022-09-23, 11:23:37
Der zusätzliche Cache kommt einfach on top wie beim 5800X3D.
Kann mir noch immer nicht vorstellen, das der MCD >auf< den GCD kommt, wegen dem Wärmetransport.
Es heißt zwar auch das der V-Cache Gen2 - Aufbau für kühlere Temps sorgen soll ggü Gen 1 aber trotzdem bin ich da noch skeptisch.
Das Ganze unter den Chip zu bekommen wäre in jeder Hinsicht eleganter. Gerade wenn man hohe Taktraten nutzen und auch ausfahren möchte.
Wir sehen ja an Zen4 das der Verbrauch mit den Taktraten weiter nach oben geht.
Über den Daumen gepeilt würde ich sagen das man mit der V-Cache Gen 1 Technologie knapp 20% Takt einbüßen muss, um die Wärmeprobleme zu bewältigen.
Dabei waren die X3D Chips schon stark selektiert, wenn ich das richtig in Erinenrung habe.
why_me
2022-09-23, 11:31:35
Wer hat denn gesagt MCD auf GCD?
MCD neben GCD und Cache auf MCD ;)
Nightspider
2022-09-23, 11:57:40
Linmoum?
why_me
2022-09-23, 12:04:35
Nicht in dem, was du oben zitiert hast. :confused:
Linmoum
2022-09-23, 12:06:49
Natürlich auf die MCDs. War was anderes überhaupt jemals Thema? :D Sollte für dargo nur verdeutlichen, dass es keine "zweite GPU" oder dergleichen bedarf.
Nightspider
2022-09-23, 12:06:56
Kommt vielleicht darauf an, wie man seine Aussage deutet.
Aber on top wie beim X3D klingt eben schon danach, wie on top wie beim X3D. :ugly:
Ravenhearth
2022-09-23, 12:27:05
Naja, wenn N31 ende November kommt, ist das auch nur 2 Monate später.
Besser als nichts, wo nVidia ja leider gar nichts auf absehbare Zeit geplant hat.
Für mich persönlich schade.
Da 7900 egal in welcher Ausführung außerhalb des Budgets liegen wird.
Da kommt ja nicht plötzlich etwas für unter $500
Es gibt leider auch Gerüchte, dass nur N33 Anfang des Jahres kommt und N32 bis Q2/2023 auf sich warten lassen wird.
Das sollte wohl klappen, bei b3d hab ich von Treibereinträgen mit BHV gelesen, die hoffentlich auf RT-Level 3 deuten. Nur ist ADA natürlich Level 4 oder sogar drüber und Intel wohl ebenso über Level 3. Aber da wird sich die Hardwarebasis und evtl. DXR 2.0 Features eh erstmal bilden müssen. Level 3 ist für mich aber auch Grundvorraussetzung, damit ich RDNA3 in Betracht ziehe.
Das passt zu den Aussagen von MLID, dass RT bei RDNA3 ein deutlich größerer Fokus gewesen sein soll als noch bei RDNA2. Also wenn es gut läuft, kostet RT auf RDNA3 relativ gesehen nicht mehr als auf Turing/Ampere und mit Lovelace dürfte man gut mithalten, außer dieser kann seine neuen Features wie SER nutzen.
davidzo
2022-09-23, 12:28:35
Kann mir noch immer nicht vorstellen, das der MCD >auf< den GCD kommt, wegen dem Wärmetransport.
Kommt er auch nicht. Die normalen SKUs nutzen ein ganz normalen, günstigen Package RDL.
Du hast doch die Bilder von der GPU und Board gesehen, wo ist da irgendwo etwas auf dem GCD gestacked?
Die chips liegen immer nebeneinander, da ist nichts über dem GCD.
Und die V-Cache Modelle nehmen halt einen vor-bearbeiteten MCD. MCD und Cache Die werden abgeschliffen und Cache drauf gestapelt bevor das resultierende 3d Chiplet als 1:1 Ersatz auf das gleiche Info-Os Package kommt welches die ungestackte Variante auch benutzt.
Das Cache Die wird vermutlich viel weniger Layer haben als ein normaler Chip und die 16mb Cache stattdessen horizontal verteilen. Alternativ sehen wir eine Menge an dead silicon. Wie auch immer sollten die yields exzellent sein und die Maskensteps sehr wenige, so dass die Dinger "Cheap as Chips" da rauspurzeln.
Es ist eher die Menge (6x stacked Die) und das Bonding welches die eigentlichen Mehrkosten einer solchen Version ausmacht. Trotzdem sollte das immer noch günstiger heraus kommen als ein full GA102.
basix
2022-09-23, 13:00:36
Wenn Cache -> MCD Stacking überhaupt ein Ding ist, sehe ich eigentlich nur Wafer-on-Wafer als realistisch an. Bei Zens V-Cache ist es ja Chip-on-Wafer, was deutlich teurer sein sollte da weniger stark skalierbar.
Nightspider
2022-09-23, 13:06:07
Es gibt leider auch Gerüchte, dass nur N33 Anfang des Jahres kommt und N32 bis Q2/2023 auf sich warten lassen wird.
Bei diesen Meldungen frage ich mich immer ob N32 etwas weiter entwickelt ist als N31 bzgl. Dual-GCD Gerüchte. :D *excited*
Ph0b0ss
2022-09-23, 13:25:24
Wenn man sich den Graph hier anschaut, dann kann man durch mehr Cache schon ggf. noch mehr rausholen:
https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/57-1080.a043dd4b.png
Von den Hit Rates her wäre wohl für 4K (Navi 31) 6x24MB=144MB Cache der beste Kompromiss. Für 1440p (Navi 32) passt dann 4x24MB=96MB auch sehr gut. Für 1080p (Navi 33) 2x24MB=48MB.
why_me
2022-09-23, 13:48:31
Das ist aber der RDNA2 Cache. Gerüchten zu Folge soll AMD ja daran gearbeitet haben, was im Cache landet und was nicht. Wenn also Daten die nicht weiter benötigt werden im RAM landen, dann kann auch ein kleinerer Cache genügen.
Felixxz2
2022-09-23, 13:50:21
Vermutlich werden wir 96MB für die Salvage Modelle und 192MB für den Top-Dog sehen. Dabei wird der doppelte Cache in 4k vielleicht 5-15% Mehrperformance bringen, je nach Spiel, aber das ist ja dann durchaus wichtig wenn man den Zweikampf mit der 4090 sucht.
Neurosphere
2022-09-23, 13:50:36
Man darf auch nicht vergessen das L1 und L2 Cache vergrößert wurden. Das könnte den Bedarf an L3 auch etwas minimieren zuzüglich den genannten Verbesserungen und einer effizienteren Nutzung.
amdfanuwe
2022-09-23, 13:52:30
Von den Hit Rates her
Höhere Hit Rate liest sich zwar besser, aber wieviel macht das im Gameplay aus?
10% bessere Hit Rate führen ja nicht unbedingt zu 10% mehr FPS.
Mag also sein, dass mehr als 50% Hit Rate kaum noch zu mehr Performance führt? Gibt es dazu etwas, wie sich die Hit Rate auf die Performance auswirkt?
Andron
2022-09-23, 14:08:06
Höhere Hit Rate liest sich zwar besser, aber wieviel macht das im Gameplay aus?
10% bessere Hit Rate führen ja nicht unbedingt zu 10% mehr FPS.
Mag also sein, dass mehr als 50% Hit Rate kaum noch zu mehr Performance führt? Gibt es dazu etwas, wie sich die Hit Rate auf die Performance auswirkt?
Die Hit Rate des Caches hat erstmal kaum Auswirkungen auf die Performance, solange die Speicherbandbreite nicht großartig limitiert. Daher kann man keine allgemeingültige Aussage über die Auswirkung von Hitrate und Performancesteigerungen treffen.
Je höher die Hitrate, desto mehr Speicherzugriffe können abgefangen werden und es wird damit Bandbreite gespart. Anders ausgedrückt, es steigt die Gesamtbandbreite von Speicher + Cache mit steigender Hitrate an. Ob und wie sich das auf die Performance auswirkt, hängt von vielen Faktoren ab.
Verhungert eine GPU an zu schmaler Speicheranbindung, hat eine hohe Hitrate einen großen Effekt auf die Gesamtperformance. Limitiert die Vram-Anbindung nicht, hat der Cache abseits von leichten Energieeinsparungen keinen großen Effekt, unabhängig davon, wie hoch die Hitrate letztendlich ist.
Das kann man auch schön bei den CPUs beobachten: Der 5800X3D kann sich nur in Bandbreiten- und Latenzkritischen Szenarien vom Standard 5800X absetzen.
basix
2022-09-23, 14:19:26
Hit Rate muss man immer relativ zur Differenz zu 100% sehen:
- 50% Hitrate --> 100-50 = 50 --> 100/50 = 2.0x Bandbreitenmultiplikator
- 75% Hitrate --> 100-75 = 25 --> 100/25 = 4.0x
75% Hitrate ist doppelt so gut wie 50% Hitrate. Oder im Falle von Infinity Cache ist der Bandbreitenmultiplikator zum GDDR6 Interface 2x so hoch. Beim dem Thema Speicherbandbreitenmultiplikator kann man den Nutzen also sehr gut und einfach nachweisen. Bei mehrstufigen Cache-Hierarchien und wenn man noch Latenzen miteinbezieht wird es etwas komplexer aber prinzipiell gelten hier die gleichen Regeln.
Das Spiel kann man beliebig weiterspielen:
- 25% Hitrate --> 100-25 = 75 --> 100/75 = 1.33x
- 50% Hitrate --> 100-50 = 50 --> 100/50 = 2.0x
- 75% Hitrate --> 100-75 = 25 --> 100/75 = 4.0x
- 87.5% Hitrate --> 100-87.5 = 12.5 --> 100/12.5 = 8.0x
Hier sieht man auch, dass man ~50% oder höher an Hitrate anstreben sollte, um wirklich grosse Vorteile zu erzielen. Deswegen ging es bei RDNA1 -> RDNA2 von 4MB gleich 64+MB
Der_Korken
2022-09-23, 14:22:13
Das Cache Die wird vermutlich viel weniger Layer haben als ein normaler Chip und die 16mb Cache stattdessen horizontal verteilen. Alternativ sehen wir eine Menge an dead silicon.
Wie schon gesagt, ich finde ein Cache-Chiplet mit 16MB absurd. Das ist ausgehend von N21 etwa 12mm² groß, vom 5800X3D ausgehend sogar eher 9mm². Wie sehr soll man das in die Breite ziehen, um auf 30-40mm² zu kommen, damit es halbwegs zum MCD passt? Da kann AMD auch gleich mehr Cache auf die Chiplets packen, wenn man sowieso schon so viel Waferspace bezahlt.
Man darf auch nicht vergessen das L1 und L2 Cache vergrößert wurden. Das könnte den Bedarf an L3 auch etwas minimieren zuzüglich den genannten Verbesserungen und einer effizienteren Nutzung.
Es reduziert den Bandbreitenbedarf an den L3, aber es erhöht bei gleicher L3-Größe nicht die Hitrate der gesamtes Cache-Hierachie (bzw. nur marginalst um die wenigen MB, die L1 und L2 gewachsen sind).
Höhere Hit Rate liest sich zwar besser, aber wieviel macht das im Gameplay aus?
10% bessere Hit Rate führen ja nicht unbedingt zu 10% mehr FPS.
Mag also sein, dass mehr als 50% Hit Rate kaum noch zu mehr Performance führt? Gibt es dazu etwas, wie sich die Hit Rate auf die Performance auswirkt?
Um das zu beantworten bräuchte man eine quantitative Untersuchung inwiefern Highend-GPUs in Spielen latenzlimitiert sind. Der IF$ wurde angepriesen als Einsparung an VRAM-Bandbreite. Wenn der IF$ 50% der Anfragen bedient, dann verhält sich eine GPU mit 500GB/s VRAM-Bandbreite in etwa so als hätte sie 1000GB/s. Die Wahrheit ist aber, dass die eine Hälfte der Anfragen mit einer wesentlich kürzeren Wartezeit zurückkommt. Das kann zu besser ausgelasteten CUs führen als bei einer 1000GB/s-GPU ohne IF$, weil sie deutlich weniger parallele Work-Items pro CU braucht, um nie wegen Speicheranfragen zu stallen. Bei 75% Hitrate natürlich nochmal weniger.
Es gibt imho leichte Hinweise, dass Speicherlatenzen durchaus eine Rolle spielen, gerade bei großen GPUs mit vielen CUs. Die Radeon VII war komplett überversorgt mit Bandbreite, hat in einigen Titeln aber trotzdem noch zulegen können mit VRAM-OC:
https://www.computerbase.de/2019-02/amd-radeon-vii-test/5/#abschnitt_was_bringt_die_enorme_speicherbandbreite_in_spielen
Teilweise würde man wegen der geringen Steigerung von 800 auf 1000Mhz vermuten, dass die GPU gesättigt ist, aber sie legt mit 1200Mhz nochmal ein paar Prozent zu. An irgendwas muss das ja liegen.
Nightspider
2022-09-23, 14:25:38
Wie schon gesagt, ich finde ein Cache-Chiplet mit 16MB absurd. Das ist ausgehend von N21 etwa 12mm² groß, vom 5800X3D ausgehend sogar eher 9mm². Wie sehr soll man das in die Breite ziehen, um auf 30-40mm² zu kommen, damit es halbwegs zum MCD passt? Da kann AMD auch gleich mehr Cache auf die Chiplets packen, wenn man sowieso schon so viel Waferspace bezahlt.
Ich stochere jetzt zwar ziemlich im Nebel am könnte AMD nicht auch andere analoge Parts (OPVs?) für beispielsweise die Spannungsversorgung/Regulation in die MCDs verfrachtet haben?
amdfanuwe
2022-09-23, 14:26:35
Die Hit Rate des Caches hat erstmal kaum Auswirkungen auf die Performance, solange die Speicherbandbreite nicht großartig limitiert.
Danke, schön erklärt.
Gibt es denn Spiel Genres, die viel Speicherbandbreite benötigen?
Wie hängt RT an der Speicherbandbreite?
Der_Korken
2022-09-23, 14:28:01
Ich stochere jetzt zwar ziemlich im Nebel am könnte AMD nicht auch andere analoge Parts (OPVs?) für beispielsweise die Spannungsversorgung/Regulation in die MCDs verfrachtet haben?
Vielleicht, aber was hat das damit zu tun, dass 16MB-Chiplets viel zu klein sind? Nicht die MCDs sind zu klein, sondern das was draufgestackt werden soll.
Nightspider
2022-09-23, 14:31:11
Um das zu beantworten bräuchte man eine quantitative Untersuchung inwiefern Highend-GPUs in Spielen latenzlimitiert sind. Der IF$ wurde angepriesen als Einsparung an VRAM-Bandbreite. Wenn der IF$ 50% der Anfragen bedient, dann verhält sich eine GPU mit 500GB/s VRAM-Bandbreite in etwa so als hätte sie 1000GB/s. Die Wahrheit ist aber, dass die eine Hälfte der Anfragen mit einer wesentlich kürzeren Wartezeit zurückkommt. Das kann zu besser ausgelasteten CUs führen als bei einer 1000GB/s-GPU ohne IF$, weil sie deutlich weniger parallele Work-Items pro CU braucht, um nie wegen Speicheranfragen zu stallen. Bei 75% Hitrate natürlich nochmal weniger.
Es gibt imho leichte Hinweise, dass Speicherlatenzen durchaus eine Rolle spielen, gerade bei großen GPUs mit vielen CUs. Die Radeon VII war komplett überversorgt mit Bandbreite, hat in einigen Titeln aber trotzdem noch zulegen können mit VRAM-OC:
https://www.computerbase.de/2019-02/amd-radeon-vii-test/5/#abschnitt_was_bringt_die_enorme_speicherbandbreite_in_spielen
Teilweise würde man wegen der geringen Steigerung von 800 auf 1000Mhz vermuten, dass die GPU gesättigt ist, aber sie legt mit 1200Mhz nochmal ein paar Prozent zu. An irgendwas muss das ja liegen.
Danke für den Beitrag.
Die Wahrheit ist aber, dass die eine Hälfte der Anfragen mit einer wesentlich kürzeren Wartezeit zurückkommt.
Und es wird Energie gespart. Weiß man eigentlich wie viel Energie N21 potentiell dank des IF$ gespart haben könnte?
Die ganze Cache-Thematik könnte ja auch ein Grund sein warum RDNA3 ggü. Ada Lovelace so gut dastehen könnte.
Man hat es ja schon an der PS5 gesehen das hoher Takt und damit auch hoch taktender Cache viel herausholen ggü. einer GPU mit mehr Shadern aber langsamerem Takt.
Vielleicht, aber was hat das damit zu tun, dass 16MB-Chiplets viel zu klein sind? Nicht die MCDs sind zu klein, sondern das was draufgestackt werden soll.
Ach so meinst du das. Vielleicht ist der Cache Latenz optimiert und man wollte nicht weiter in die Fläche gehen um die Latenzen extrem klein zu halten? Wäre auch ein Grund dafür, warum man den Cache stapeln will bei der Top-Tier-Variante.
Wäre natürlich nur der Fall falls man wirklich mit extremen Latenzen viel Performance aus den ganzen Shadern herausholen kann. Vorstellbar ist es imo schon.
€:
Habe auch zu wenig Ahnung wie hoch man Cache takten lassen kann, wenn man will, selbst bei Stacking und ob AMD die MCDs, bzw. den Cache der MCDs synchron mit einem geringen Teiler zu den Shadern takten lassen kann.
basix
2022-09-23, 14:33:36
Zum Thema Hitrate und Bandbreitenmultiplikator hatte ich das vor langem mal in ein Excel-Sheet gepackt und extrapoliert:
Infinity-Cache Kapazität muss in etwa linear mit der Anzahl Pixel ansteigen, um die selbe Hitrate zu erzielen
Verdoppelter Infinity-Cache resultiert bei gleichblbeibender Auflösung in ~sqrt(2) Steigerung des Bandbreitenmultiplikators: 1/(100% - Hitrate)
Wenn ihr den selben Bandbreitenmultiplikator zwischen 1080p -> 4K -> 8K haben wollt, müsst ihr folgende Infinity-Cache Mengen verwenden (als Faktoren):
1080p = 1x
4K = 4x
8K = 16x
In Realität ist es anhand der Infinity-Cache Daten von AMD nicht ganz linear (~3.5, ~13x) aber näherungsweise stimmt es.
amdfanuwe
2022-09-23, 14:36:58
Wie schon gesagt, ich finde ein Cache-Chiplet mit 16MB absurd. Das ist ausgehend von N21 etwa 12mm² groß, vom 5800X3D ausgehend sogar eher 9mm². Wie sehr soll man das in die Breite ziehen, um auf 30-40mm² zu kommen, damit es halbwegs zum MCD passt? Da kann AMD auch gleich mehr Cache auf die Chiplets packen, wenn man sowieso schon so viel Waferspace bezahlt.
Seh ich auch so.
Wenn da wirklich gestackter Cache kommt, hab fallen mir nur 2 Erklärungen ein:
1) Auf dem Stacked Die ist noch etwas mehr drauf, z.B. die AI Einheiten die in einem Patent erwähnt wurden. Erscheint mir aber nicht sinnvoll, da die einzelnen MCDs schlecht miteinander kommunizieren können.
2) Das ist ein kleinserien Testballon für zukünftige Projekte. Wenns klappt, hat man ein paar MCDs mit stacked Cache fürs High End. Wenn nicht, hat man viel gelernt und nichts verloren.
why_me
2022-09-23, 14:41:36
Um das zu beantworten bräuchte man eine quantitative Untersuchung inwiefern Highend-GPUs in Spielen latenzlimitiert sind. Der IF$ wurde angepriesen als Einsparung an VRAM-Bandbreite. Wenn der IF$ 50% der Anfragen bedient, dann verhält sich eine GPU mit 500GB/s VRAM-Bandbreite in etwa so als hätte sie 1000GB/s. Die Wahrheit ist aber, dass die eine Hälfte der Anfragen mit einer wesentlich kürzeren Wartezeit zurückkommt. Das kann zu besser ausgelasteten CUs führen als bei einer 1000GB/s-GPU ohne IF$, weil sie deutlich weniger parallele Work-Items pro CU braucht, um nie wegen Speicheranfragen zu stallen. Bei 75% Hitrate natürlich nochmal weniger.
Latenz ist eine eher untergeordnete Rolle bei GPUs im RZ. Da der workload relativ gut vorhersehbar ist. Sieht man ja auch an dem Benchmark.
Mit RT sieht das sicher etwas anders aus, da de BHVs wild auf den Speicher zugreifen, hier kann die Latenz des Cache durchaus vorteile bringen. Aber dafür müsste der Cache mMn. auch deutlich größer sein um den ganzen BHV + geometrie zu beinhalten.
Nightspider
2022-09-23, 14:44:56
Am Ende ist es wie beim X3D.
Auf dem MCD steckt nicht die halbe Größe von der gestackten Variante sondern nur ein Drittel. ;)
Sprich: Wenn beispielsweise analoge Parts im "grund MCD" stecken, könnte der darauf gestapelte Chip nur Cache beeinhalten aber dafür die doppelte Menge, was laut why_me's Aussage ja Raytracing gut beschleunigen könnte.
basix
2022-09-23, 14:48:27
Falls es wen interessiert: Formel, um durchschnittliche Latenz zu berechnen
Infinity Cache Latenz * Hitrate [%] + GDDR6 Latenz * (1-Hitrate[%])
Proof: AMD gibt -34% durchschnittliche Latenz (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54610-endlich-wieder-ein-duell-auf-augenhoehe-radeon-rx-6800-und-radeon-rx-6800-xt-im-test.html?start=2) an
Infinity Cache = 114ns & GDDR6 = 264ns: https://chipsandcheese.com/2021/04/16/measuring-gpu-memory-latency/
Infinity Cache = average "up to 58%" Hitrate @ 4K
0.58 * 114ns = 66.1
0.42 * 264ns = 110.9
66.1 + 110.9 = 177ns
177ns / 264ns = 0.67 --> -33% --> Sind ziemlich genau and den -34% von AMDs Angabe dran ;)
Und es sollte somit auch klar sein, dass mit höherer Infinity Cache Hitrate auch automatisch die durschschnittliche Latenz sinkt.
Nightspider
2022-09-23, 14:51:15
Interessant, ich hätte gedacht das die Latenzen vom IF$ noch deutlich kleiner sind im Vergleich zum externen GDDR6.
Gipsel
2022-09-23, 14:56:46
Also wenn es gut läuft, kostet RT auf RDNA3 relativ gesehen nicht mehr als auf Turing/Ampere und mit Lovelace dürfte man gut mithalten, außer dieser kann seine neuen Features wie SER nutzen.Apropos SER, was ich ganz lustig finde, ist daß dieses Feature schon vor langer Zeit in Verbindung mit AMD durch die Gerüchteküche geisterte (gibt seit [mindestens] 10 Jahren Patente von AMD dazu [Stichwort: wavefront reforming/repacking]), das dann aber nie gekommen ist (lohnte wohl den Aufwand nicht, insbesondere auch mit der verringerten Wavefrontgröße mit RDNA [64 => 32]). Aber mit RT kommt jetzt zumindest nVidia offenbar zu einem anderen Schluß. Eventuell kommt so ein Feature auch bei AMD dann in Zukunft wieder auf den Tisch.
Edit: Sieht so aus, als wenn nV's SER nicht wirklich transparent für die Shader ist, sondern explizit angesprochen werden muß (https://developer.nvidia.com/rtx/path-tracing/nvapi/get-started), um optimale Performance zu bringen:
SER is a new scheduling system that reorders shading work on-the-fly for better execution efficiency. It is useful on ray traced workloads, as it achieves maximum parallelism and performance from path tracing shaders. It is an NVIDIA API extension, making it very simple and easy to leverage.Das finde ich jetzt eher enttäuschend. Mal sehen, wie das am Ende funktioniert.
basix
2022-09-23, 15:05:57
Interessant, ich hätte gedacht das die Latenzen vom IF$ noch deutlich kleiner sind im Vergleich zum externen GDDR6.
Das meiste der Latenz kommt vom L2$ (ist bereits bei ~90ns). Der Infinity Cache fügt nur +20ns hinzu, was extrem gut ist. Oder anders gesagt: Anhand der Grafik ist ersichtlich, dass die Latenz bis und mit Infinity Cache (~115ns) geringer ist als bei Nvidia bis und mit L2$ (~135ns).
Apropos SER, was ich ganz lustig finde, ist daß dieses Feature schon vor langer Zeit in Verbindung mit AMD durch die Gerüchteküche geisterte (gibt [mindestens] ein 10 Jahre altes Patent von AMD dazu [Stichwort: wavefront reforming]), daß dann aber nie gekommen ist (lohnte wohl den Aufwand nicht, insbesondere auch mit der verringerten Wavefrontgröße mit RDNA [64 => 32]). Aber mit RT kommt jetzt zumindest nVidia offenbar zu einem anderen Schluß. Eventuell kommt so ein Feature auch bei AMD dann in Zukunft wieder auf den Tisch.
Edit: Sieht so aus, als wenn nV's SER nicht wirklich transparent für die Shader ist, sondern explizit angesprochen werden muß (https://developer.nvidia.com/rtx/path-tracing/nvapi/get-started):
Das finde ich jetzt eher enttäuschend.
SER ist immer aktiv. Soll aber bei dediziertem manuellem Ansprechen des Spiels mehr Performance bringen. Zumindest schreibt Computerbase das so: https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/#abschnitt_sortierte_programme_sollen_deutlich_mehr_leistung_bei_ada_bringen
Damit „Shader Execution Reordering“ optimal funktionieren kann, ist ein manueller Eingriff des Entwicklers notwendig. SER ist zwar automatisch auf GeForce RTX 4000 aktiv, kann vom Entwickler aber beeinflusst werden. Nvidia argumentiert dies damit, dass der Entwickler eben am besten weiß, wann welcher Workload anliegt und wie die einzelnen Programme idealerweise sortiert werden sollen. SER kann über eine spezielle API angesprochen werden.
Berniyh
2022-09-23, 15:14:36
Die ganze Cache-Thematik könnte ja auch ein Grund sein warum RDNA3 ggü. Ada Lovelace so gut dastehen könnte.
Nvidia hat doch auch den Cache ordentlich vergrößert.
basix
2022-09-23, 15:15:57
Jepp, ich sehe da vom Prinzip her keinen wesentlichen Unterschied.
unl34shed
2022-09-23, 15:31:37
SER ist immer aktiv. Soll aber bei dediziertem manuellem Ansprechen des Spiels mehr Performance bringen. Zumindest schreibt Computerbase das so: https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/#abschnitt_sortierte_programme_sollen_deutlich_mehr_leistung_bei_ada_bringen
Auch wenn es hier Offtopic ist, sorry.
Müsste, wenn SER dauerhaft an ist, nicht auch eine Performancesteigerung bei allen Spielen zu sehen sein. Ich erinnere an die +60% in aktuellen Spielen. Dann wäre die Performance pro Flop, noch ein größerer Flop (der war schlecht, ich weiß).
basix
2022-09-23, 15:37:05
Auch wenn es hier Offtopic ist, sorry.
Müsste, wenn SER dauerhaft an ist, nicht auch eine Performancesteigerung bei allen Spielen zu sehen sein. Ich erinnere an die +60% in aktuellen Spielen. Dann wäre die Performance pro Flop, noch ein größerer Flop (der war schlecht, ich weiß).
Ist ein guter Punkt. Ich habe mir genau das selbe überlegt. Irgendwo scheint es bei Ada zu klemmen, insbesondere bei der 4090. Die 4080 16GB scheint gegenüber der 3090 in etwa so zu liegen zu kommen, wie man es vom Taktanstieg her erwarten würde. SER müsste hier eigentlich noch obendrauf kommen. Sieht man aber nicht. Die Datenlage ist mit 3 Games aber noch relativ dünn.
Und die 4090 sieht dagegen noch viel schlechter aus. Entweder die FLOPS verpuffen irgendwo oder Nvidia ist Sandbagging (Spiele genommen, die schlecht skalieren). Wäre allerdings das erste Mal, wo Nvidia Sandbagging betreibt :D
--> Ich würde mal Reviews abwarten
Edit:
Um nochmals auf die Hitrates zu sprechen zu kommen: Temporales Supersampling wie FSR 2.0 ergänzt sich hier optimal mit einem grossen Cache. Bei 8K müsste man riesige Caches für vernünftige Hitrates verwenden. Bleibt man hingegen bei ~4K und nimmt FSR 2.0 Performance dazu, sind 8K definitiv gut machbar. Hier sind 96...256 MByte in etwa der Bereich, wo sinnvoll ist und auch noch ökonomisch tragbar sein kann. Analog dazu kann man das selbe natürlich auf niedrigere Auflösungen und schwächere Chips anwenden.
Sunrise
2022-09-23, 15:56:35
Auch wenn es hier Offtopic ist, sorry.
Müsste, wenn SER dauerhaft an ist, nicht auch eine Performancesteigerung bei allen Spielen zu sehen sein. Ich erinnere an die +60% in aktuellen Spielen. Dann wäre die Performance pro Flop, noch ein größerer Flop (der war schlecht, ich weiß).
So wie ich Jensen verstanden hatte, hat das direkt nur starke Auswirkungen auf Raytracing (wegen der extremen Parallelität). Daher auch diese hohen Steigerungen, die NV da "mit optimaler Nutzung" anführt.
Ich bin mal gespannt, wie sich RDNA3 da verhält, da soll es ja auch gesalzene Raytracing-Verbesserungen geben.
Grendizer
2022-09-23, 15:57:17
So wie ich Jensen verstanden hatte, hat das direkt nur starke Auswirkungen auf Raytracing (wegen der extremen Parallelität). Daher auch diese hohen Steigerungen, die NV da "mit optimaler Nutzung" anführt.
waren es nicht nur +25% Performance ?
basix
2022-09-23, 16:01:31
Beim RT Overdrive Mode von Cyberpunk sollen es +44% sein:
https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/#abschnitt_sortierte_programme_sollen_deutlich_mehr_leistung_bei_ada_bringen
Alben nennt eine Performanceverbesserung bei Raytracing-Programmen durch SER von 44 Prozent in Cyberpunk 2077 mit dem noch nicht verfügbaren Overdrive-RT-Preset, 29 Prozent in Portal RTX und 20 Prozent in Racer RTX. Bei den Angaben handelt es sich um tatsächliche Leistungsverbesserungen in Form von FPS – intern können die Shader noch einmal deutlich mehr beschleunigt werden. Bei Rasterizer-Programmen spricht Nvidia von bis zu 25 Prozent mehr Leistung.
+25% max. sollen es in non-RT Anwendungen sein (allerdings vermutlich vom Entwickler optimiertes SER)
Nightspider
2022-09-23, 18:49:52
https://twitter.com/Kepler_L2/status/1573347712917184514
Wenn es stimmt verdoppelt sich der L1 aber L2 bleibt gleich groß.
basix
2022-09-23, 18:56:37
Das ist schon länger bekannt. L0 & L1 wachsen mit den FP32-Units pro WGP & Shader-Engine mit. N31 sollte 1.5x L2$ wie N21 haben, da 384bit. Die wichtigste Änderung ist vermutlich die Steigerung auf 192kB Vector Register pro SIMD.
Gipsel
2022-09-23, 19:54:07
Der Post ist meines Wissens noch aktuell (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13044597#post13044597). Das kam aus den Informationen zum Shadercompiler.
Es ist also kein allgemeines VLIW2. Die Anzahl der Registerbänke wurde vermutlich nicht wesentlich erhöht.
Bei B3D gibt es Spekulationen, daß die Dual-Issue-Möglichkeit nicht nur auf ILP innerhalb einer Wavefront/Thread beschränkt sein könnte (sondern das quasi eine Optimierung für latenzkritische Sachen bei niedriger Occupancy ist, der Scheduler aber auch Co-Issue von zwei Vektor-Instruktionen aus 2 Wavefronts machen könnte [TLP-Nutzung], solange das in die Registerfile-Beschränkung paßt), was allerdings Einschränkungen durch die Anzahl der Registerbänke nicht aufhebt. Was da aber helfen könnte, ist daß laut Gerüchteküche N32 und N31 (anders als N33) die Größe des Registerfiles um 50% anheben soll. Dies geht dann eventuell über die Anzahl der Registerbänke (erfordert aber tiefere Eingriffe als einfach nur die Größe der Bänke jeweils um 50% anzuheben). In dem Fall würde die Bedeutung von VOPD bei N31/N32 für die Performance gegenüber N33 sinken (weil der Durchsatz im Vergleich zu N33 konsistenter über Co-Issue von 2 Wavefronts erreicht werden könnte). Das ist aber im Moment nicht belegt.
https://twitter.com/Kepler_L2/status/1573347712917184514Der LLVM-Patch liefert jetzt einen Hinweis, daß N31 und N32 tatsächlich die Anzahl der Registerbänke (und damit die Registerbandbreite) um 50% anhebt. Dies versteckt sich in der Bemerkung, daß die Granularität der Registerallokation ebenfalls um 50% steigt (eine Wavefront muß in allen Bänken gleich viele Register belegen, die Granularität [und die Anzahl der der für eine Wavefront reservierten Register] ist also immer ein Vielfaches der Bankanzahl).
def FeatureGFX11FullVGPRs : SubtargetFeature<"gfx11-full-vgprs",
"HasGFX11FullVGPRs",
"true",
"GFX11 with 50% more physical VGPRs and 50% larger allocation granule than GFX10">;
Nightspider
2022-09-23, 20:01:10
Wie viel bringt das grob über den Daumen gepeilt?
Linmoum
2022-09-23, 20:02:54
Also die allseits spekulierte ~2x Performance vs. N21 würde ich in Kombination mit +30% Takt (~3GHz Game Clock) nicht mehr ausschließen wollen.
Gipsel
2022-09-23, 20:12:50
Wie viel bringt das grob über den Daumen gepeilt?Daß die Registerbandbreite zum dauerhaften Co-Issue von zwei 3-Operanden FMAs (also 6 Vektor-Operanden aus den vGPRs pro Takt [ohne Skalarregister oder Forwarding]) ausreichen dürfte und dies nicht über die Registerbandbreite ausgebremst wird (anders könnte es mit 4 Operanden-FMAs aussehen, die aber per VOPD sowieso nicht gehen [und dann als Co-Issue von 2 Wavefronts eventuell auch nicht, wenn man das nicht aus den oben erwähnten anderen Quellen bedienen kann]).
Wie das genau funktioniert (und mit welcher Performance), läßt sich ohne weitere Details noch nicht abschätzen.
aufkrawall
2022-09-23, 20:16:37
Also die allseits spekulierte ~2x Performance vs. N21 würde ich in Kombination mit +30% Takt (~3GHz Game Clock) nicht mehr ausschließen wollen.
Wär ja auch schlecht, wenn nicht, wenn Ada +80-100% in RT-lastigen Szenarien schafft.
Die RT-Performance von RDNA3 müsste sich also ca. vervierfachen, um konkurrenzfähig zu sein.
Linmoum
2022-09-23, 20:31:57
Du setzt es also als selbstverständlich an, dass AMD hier mit einem ~300mm² Die die Raster-Performance verdoppelt und damit Nvidias 4090 auf Basis eines fetten, >600mm² großen Die in die Schranken weisen würde? Überrascht mich.
RT ist ja völlig losgekoppelt davon, da sich schlicht und ergreifend überhaupt nicht realistisch abschätzen lässt, wo RDNA3 da landen wird.
Ravenhearth
2022-09-23, 21:08:09
Die 600mm² bei Nvidia beinhalten allerdings das Speicherinterface und 96MB Cache, die 300mm² bei AMD nicht. ;) Man kann nicht nur den GCD betrachten, das ist ja kein fairer Vergleich. Insgesamt ist N21 ~533mm² groß, komplett in 5nm gefertigt wäre das etwas weniger, aber es ist nun nicht so, dass der Chip nur halb so groß wie AD102 ist. Ich halte es dennoch für möglich, dass AMD bei der Performance mithält, schließlich hat N31 keine Tensor-Kerne und RDNA3 soll einen massiven Sprung bei der Perf/mm² machen.
Man muss sich das mal überlegen: Angeblich sollen sowohl N33 wie auch AD106 ca. 200mm² messen, dabei wird von AD106 eine 3070-ähnliche Performance erwartet; von N33 tendenziell sogar etwas mehr, und das obwohl es 4nm gegen 6nm steht. Wenn sich diese Effizienz bewahrheitet, ist RDNA3 besser als geschnitten Brot :freak:
Linmoum
2022-09-23, 21:23:47
Es ist beides wertvolle und schweineteure N5-Waferfläche, die AMD bzw. NV aufwenden müssen. Der eine etwas über 600mm², der andere nach aktuellem Stand etwas über 300mm².
Dass NV (noch) keinen MCM-Ansatz hat und weiter riesige Mono-Dies baut/bauen muss, ist ja nicht AMDs Schuld.
Blediator16
2022-09-23, 23:09:56
https://twitter.com/CapFrameX/status/1573189202392629255
Yeah I don’t get this. People are upset about pricing, I get that, but there’s basically zero chance that AMD is gonna deliver a card even remotely comparable. That said, if they can nail the low and mid-range market, they’ll be in good shape.
Ich archiviere seine Aussage mal, damit man in Zukunft die Tests von DF besser einordnen kann. Die Meinung scheint bereits gebildet worden zu sein.
https://s20.directupload.net/images/220923/db8jmayi.jpg
M4xw0lf
2022-09-23, 23:12:37
Oh wow, wusste nicht dass Troyan bei DF arbeitet.
ChaosTM
2022-09-23, 23:15:42
Wär ja auch schlecht, wenn nicht, wenn Ada +80-100% in RT-lastigen Szenarien schafft.
Die RT-Performance von RDNA3 müsste sich also ca. vervierfachen, um konkurrenzfähig zu sein.
jop theoretisch, aber wir wissen bisher genau nada..
Die Balkenlänge bei cyperpunk wirds schon richten ;)
DrFreaK666
2022-09-23, 23:52:14
jop theoretisch, aber wir wissen bisher genau nada..
Die Balkenlänge bei cyperpunk wirds schon richten ;)
Naja, AMD wird eher Valhalla oder FH5 nehmen
ChaosTM
2022-09-23, 23:55:32
Lisa ist nicht so predictable wie Jensen ;)
prinz_valium_2
2022-09-24, 00:06:53
https://twitter.com/CapFrameX/status/1573189202392629255
Ich archiviere seine Aussage mal, damit man in Zukunft die Tests von DF besser einordnen kann. Die Meinung scheint bereits gebildet worden zu sein.
https://s20.directupload.net/images/220923/db8jmayi.jpg
Weil die halt nur ein paar RT und DLSS Titel interessiert. Die machen keinen PC Rastarizer Testparkour wie PC Outlets.
Nakai
2022-09-24, 00:53:59
Wie viel bringt das grob über den Daumen gepeilt?
11
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.