Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
vinacis_vivids
2022-10-23, 23:32:44
Mythos;13147588']Also ich finde, iamthebear hat sich jetzt genug Seitenlang ziemlich pessimistischen Quatsch zusammengesponnen (sorry). Man könnte das jetzt auch einfach so stehenlassen und auf neue Leaks/Infos warten.
Der Typ hat überhaupt nicht ordentlich gelesen und ist nicht ordentlich auf die Beiträge eingegangen. Auch fehlen ihm so fundamentale Kenntnisse um überhaupt irgendwas einschätzen zu können.
@Topic
AMD 6nm ist bei 3Ghz mit RDNA2. Bei RDNA3 wird auf 3.3-3.5 Ghz geschätzt mit 3,72Ghz Obergrenze, womöglich sogar 4Ghz BIOS-Lock.
Das immer wieder Leute mit schwachen Einschätzungen kommen, zeigt dass diese einfach keine Ahnung haben.
basix
2022-10-23, 23:38:52
Hast du dazu einen Link? Das ist an mir vorbei gegangen. Und ehrlich gesagt kann ich das auch nicht glauben, dann müsste N31 ja drei Mal so schnell wie N21 sein...
An einem Link wäre ich auch interessiert ;)
amdfanuwe
2022-10-24, 00:42:52
link
https://www.3dcenter.org/news/news-des-15-august-2022
amdfanuwe
2022-10-24, 00:45:12
AMD 6nm ist bei 3Ghz mit RDNA2.
Wären ja noch was mehr als beim N24 in N6.
Iscaran
2022-10-24, 00:48:18
link
https://www.3dcenter.org/news/news-des-15-august-2022
Und da ist auch was ich im Kopf hatte, geschrieben von Kepler:
In theory it should allow N31/N32 to stay on a linear scale of perf/TFlops instead of falling off as it usually happens on GPUs.
Deswegen hab ich oben eine Einschätzung mit 80-90% Skalierung und eine mit weniger (50-60%)
Ich kann mir absolut nicht vorstellen, dass AMDs Verdoppelte Units hier nur mit 30% einschlagen. Wenn eine Verdopplung weniger bringt als 50% dann kann man es eigentlich auch lassen und lieber den Takt hochdrehen.
amdfanuwe
2022-10-24, 01:08:23
Ich kann mir absolut nicht vorstellen, dass AMDs Verdoppelte Units hier nur mit 30% einschlagen.
Ich freu mich lieber nachher wenn es mehr wird als das ich enttäuscht bin wenns schlechter als gedacht performt.
Aber selbst mit 30% wäre er billiger und schneller als N22.
Ravenhearth
2022-10-24, 01:10:02
link
https://www.3dcenter.org/news/news-des-15-august-2022
Nunja, das ist eine Einschätzung von Kepler, die ich allerdings nicht teile. Nur weil die VRF um 50% zulegt, führt das noch nicht dazu, dass die Leistung linear skaliert, wenn andere Ressourcen nicht mit skalieren. Angesichts dessen, dass die WGPs nicht größer ausfallen sollen, ist es allerdings unrealistisch, dass dem so ist.
Ich kann mir absolut nicht vorstellen, dass AMDs Verdoppelte Units hier nur mit 30% einschlagen. Wenn eine Verdopplung weniger bringt als 50% dann kann man es eigentlich auch lassen und lieber den Takt hochdrehen.
Quatsch. Wenn man durch verdoppelte Einheiten +40% rausbekommt bei gleicher Transistorenzahl und Area (und womöglich Energie) durch andere Optimierungen, wäre man blöd, es nicht zu machen. +40% Takt kommt einem nicht so günstig beim Verbrauch. Dass die Perf/TFLOPs streng genommen runtergeht, ist in der Praxis unwichtig, wenn die PPA stimmt (siehe z.B. RV770).
basix
2022-10-24, 08:29:10
link
https://www.3dcenter.org/news/news-des-15-august-2022
Wäre schön, wenn es stimmt. Wäre aber fast zu gut um wahr zu sein. Das einzige was wohl sicher ist, ist dass N33 weniger von den zusätzlichen FP32-Einheiten profitieren wird.
Quatsch. Wenn man durch verdoppelte Einheiten +40% rausbekommt bei gleicher Transistorenzahl und Area (und womöglich Energie) durch andere Optimierungen, wäre man blöd, es nicht zu machen. +40% Takt kommt einem nicht so günstig beim Verbrauch. Dass die Perf/TFLOPs streng genommen runtergeht, ist in der Praxis unwichtig, wenn die PPA stimmt (siehe z.B. RV770).
Genau. FLOPS sind eigentlich egal. PPA ist entscheidend.
Ich würde aber zusätzlich sagen, das die reine Transistoranzahl bei Iso-Prozess egal ist. "Area" ist hier der bessere Ausdruck als "Transistoranzahl". Wenn die Fläche nicht steigt, kostet es dich nicht mehr. Lovelace wird von einigen als "Transistor-Luftpumpe" bezeichnet. Ja, verglichen mit Vorgängern braucht Lovelace viele Transistoren. Bezüglich PPA schaut es wegen dem aber nicht schlecht aus: ~2x PPA, was ein sehr ordentlicher Sprung für nur eine Generation ist. Die letzte Generation mit solch einem Sprung war Pascal (RT Anwendungen ausgenommen), wo man auf FinFET gewechselt ist.
robbitop
2022-10-24, 08:47:56
Aber Fläche über Nodesprünge zu vergleichen ignoriert, dass Fläche durch neuere Nodes immer teurer wird.
Außerdem: wenn man in Perf/Transistor gut da steht, steht man auch in Perf/Fläche gut da.
Wahrscheinlich bekommt Ada noch einen großen Boost, wenn in zukünftigen RT Spielen die neuen Level 4 Features auch genutzt werden. Aber nach heutigen Spielen braucht Ada schon ziemlich viele Transistoren für seine Leistung. Der Performanceuplift pro Transistor ist schon lange nicht so mau gewesen.
Nightspider
2022-10-24, 08:52:03
Mir ist relativ egal ob N33 nun bisschen langsamer wird als N21.
Hauptsache das Teil lässt sich günstig in N6 fertigen, hat ein paar Einsparungen, welche der Masse nicht weh tun und wird zu einem sehr guten Preis angeboten.
AMD braucht Marktanteile und die Kunden wollen bessere Preise. Mit N33 könnte AMD das schaffen.
Ich sehe es schon seit ein paar Jahren so, das man im unteren Preisbereich nicht mehr den neuesten Node benötigt und lieber etwas in die breite gehen kann.
Allerdings wäre es natürlich gut gewesen, wenn diese Chips dafür etwas eher auf den Markt kommen. Wer zuerst kommt, mahlt zuerst.
][immy
2022-10-24, 09:35:48
Aber Fläche über Nodesprünge zu vergleichen ignoriert, dass Fläche durch neuere Nodes immer teurer wird.
Außerdem: wenn man in Perf/Transistor gut da steht, steht man auch in Perf/Fläche gut da.
Wahrscheinlich bekommt Ada noch einen großen Boost, wenn in zukünftigen RT Spielen die neuen Level 4 Features auch genutzt werden. Aber nach heutigen Spielen braucht Ada schon ziemlich viele Transistoren für seine Leistung. Der Performanceuplift pro Transistor ist schon lange nicht so mau gewesen.
Der Transistorcount ist bei nvidia seit der RX20x0 Serie im Eimer. Die Chips sind da gewaltig angewachsen ohne das es bei klassischem Rendering wirklich große Sprünge gab. Und sobald die neuen Technik verwendet wird, sind die Chips dann doch zu langsam.
Ähnliches gab es aber eigentlich auch bei GCN allerdings nicht in diesem extremen Umfang. Mit RDNA2 gab es noch mal den Cache der viel Fläche frisst aber dadurch das Speicherinterface stark entlastet wodurch es an dieser Stelle günstiger werden konnte.
Fragt sich natürlich was passiert wenn tatsächlich mal mehr RT & co verwendet wird.
amdfanuwe
2022-10-24, 09:36:55
Hauptsache das Teil lässt sich günstig in N6 fertigen,
Hab dazu gestern noch was gerechnet wie jan für die CPU in seinem Video.
Ich komme auf eine BOM von:
AD102 ~300$
N21 ~ 170$
N31 ~170$
N32 ~120$
N33 ~50$
N24 ~30$
N33 in N5 bei 150mm² käme ich auf ~60$
Natürlich nur Hausnummern mit 17000$ für N5 Wafer und 10000$ für N6 Wafer. Dazu noch 20$ Packaging für N31/2, 10$ bei N33.
Wer selbst rechnen möchte: http://cloud.mooreelite.com/tools/die-yield-calculator/index.html
robbitop
2022-10-24, 09:42:37
[immy;13147737']Der Transistorcount ist bei nvidia seit der RX20x0 Serie im Eimer. Die Chips sind da gewaltig angewachsen ohne das es bei klassischem Rendering wirklich große Sprünge gab. Und sobald die neuen Technik verwendet wird, sind die Chips dann doch zu langsam.
Ähnliches gab es aber eigentlich auch bei GCN allerdings nicht in diesem extremen Umfang. Mit RDNA2 gab es noch mal den Cache der viel Fläche frisst aber dadurch das Speicherinterface stark entlastet wodurch es an dieser Stelle günstiger werden konnte.
Fragt sich natürlich was passiert wenn tatsächlich mal mehr RT & co verwendet wird.
TU102 -> GA102 waren +55% Transistoren und man hat auch das gleiche oder leicht mehr in Leistung bekommen.
Bei GP102->TU102 waren es auch grob +50% mehr Transistoren aber nur ~30-35% mehr Leistung. Aber dafür kam Raytracing Hardware und Tensorcores für DLSS dazu. Das ist aus heutiger Sicht schon akzeptabel.
GA102 -> AD102 sind es 2,7x Transistoren für 1,6-1,8x Leistung. So schlecht war das Verhältnis IIRC schon lange nicht mehr oder noch nie. Müsste man jetzt bis in die Analen zurückvergleichen - habe ich aber keine Lust.
basix
2022-10-24, 10:50:59
Aber Fläche über Nodesprünge zu vergleichen ignoriert, dass Fläche durch neuere Nodes immer teurer wird.
Deswegen sage ich ja "Iso-Prozess". Transistorzahlen können durch die neu sehr grossen On-Chip Caches massiv ansteigen, ohne dass die Fläche grossartig ansteigt.
Außerdem: wenn man in Perf/Transistor gut da steht, steht man auch in Perf/Fläche gut da.
Natürlich ;) Nur kann es sein, dass durch gewisse Eigenheiten die Transistor-Dichte steigt, ohne mehr Fläche zu beanspruchen. Z.B. durch grosse Caches oder High Density Libraries. Und diese Mehrtransistoren helfen dann bei Takt und Energieeffizienz. PPA steigt also effektiv, ohne dass der Chip grösser wird. Auf dem Papier verbucht man dann aber mehr Transistoren. Ist das Design deswegen dann schlechter? Nein. Deswegen sage ich: Die Anzahl Transistoren ist an sich egal. PPA bei Iso-Prozess ist entscheidend. Ob du hier 2x so viel Tansistoren auf dem Papier stehen hast, ist da nicht wirklich relevant, vor allem wenn die Chip-Fläche nicht gross betroffen ist. Und bei Ada ist die Density enorm gestiegen, weswegen die Chipfläche hinsichtlich Performance recht gut ausschaut.
Wahrscheinlich bekommt Ada noch einen großen Boost, wenn in zukünftigen RT Spielen die neuen Level 4 Features auch genutzt werden. Aber nach heutigen Spielen braucht Ada schon ziemlich viele Transistoren für seine Leistung. Der Performanceuplift pro Transistor ist schon lange nicht so mau gewesen.
Wie gesagt: Anzahl Transistoren sind egal. Wenn RDNA3 z.B. "nur" 80 MTr/mm2 hinbringt, der Chip aber die selbe Perf/Area wie Lovelace aufweist, ist RDNA3 dann besser? Nur weil Perf/Transistor besser ist? Ich würde eher sagen, beide wären gleichwertig, da Performance/Area oder inkl. bei gleicher Energieffizienz die ganze PPA eben gleich ist. Selber / sehr ähnlicher Prozess-Node (Kosten), vergleichbare PPA, ergo gleichwertiges Design. Anzahl Transistoren: Nicht relevant.
robbitop
2022-10-24, 10:54:10
Ja aber ISO Prozess hast du ja nicht - insofern bringt der Vergleich keinen praktischen Nutzen. Entsprechend sind Transistoren "the next best thing".
Wenn man für jedes Produkt wüsste, was die gesamtheit des Siliziums kostet, könnte man eher Perf/EUR für das Silizium vergleichen.
Iscaran
2022-10-24, 11:30:54
Ich freu mich lieber nachher wenn es mehr wird als das ich enttäuscht bin wenns schlechter als gedacht performt.
Aber selbst mit 30% wäre er billiger und schneller als N22.
Also von GCN5 auf RDNA1 hat man die Leistung pro CU nahezu verdoppelt, so dass am Ende mit 40 CUs praktisch dasselbe rauskaum wie vorher mit 60 CUs
Arch | Modell | CUs | Takt Boost | TFlops | 4k-Index | GFlops/Index | Index/CU
GCN5 | Radeon VII | 60 | 1800 | 13.824 | 177 | 78.1 | 2.95
RDNA1 | 5700 XT | 40 | 1905 | 9.7536 | 167 | 58.4 | 4.175
RDNA2 | 6900 XT | 80 | 2250 | 23.04 | 348 | 66.2 | 4.35
Von RDNA1 auf RDNA2 hat man ebenso die Anzahl der Shader verdoppelt. Die Leistung pro CU aber sogar noch weiter gesteigert. (wegen Takt)
Das ganze skalierte also nahezu linear.
Warum nun plötzlich das ganze skaling auf grottenschlechte 30% einbrechen soll, leuchtet mir nicht ein. Zumal man ja offenbar auch da durch Design-Anpassung (Registervergrößerung) genau dem entgegenwirkt?
Wie gesagt 100% skalierung ist nicht drin, aber 80% könnte ich mir sehr wohl vorstellen. Nur 30% erscheint mir absurd wenig, betrachtet man sich die Historie der RDNA Entwicklung im Rückspiegel.
Um nochmal darauf zu kommen, ich glaube, dass diese N33-Vorhersagen einfach falsch sind, oder besser, Missinterpretiert.
N10 N7 -> 40CUs -> 251mm² -> 10,3Mio T
N23 N7 -> 32CUs -> 237mm² -> 11,7Mio T
N33 N6 -> 32CUs -> 205mm² -> vielleicht maixmal 13Mio T
Wie sollen da 4096 Shader Platz finden?
mboeller
2022-10-24, 11:47:11
Um nochmal darauf zu kommen, ich glaube, dass diese N33-Vorhersagen einfach falsch sind, oder besser, Missinterpretiert.
N10 N7 -> 40CUs -> 251mm² -> 10,3Mio T
N23 N7 -> 32CUs -> 237mm² -> 11,7Mio T
N33 N6 -> 32CUs -> 205mm² -> vielleicht maixmal 13Mio T
Wie sollen da 4096 Shader Platz finden?
so:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13141385&postcount=4349
N33 ist auch N5, nur das I/O-Die ist 6/7nm. Dann passt es.
Ravenhearth
2022-10-24, 12:17:58
Um nochmal darauf zu kommen, ich glaube, dass diese N33-Vorhersagen einfach falsch sind, oder besser, Missinterpretiert.
N10 N7 -> 40CUs -> 251mm² -> 10,3Mio T
N23 N7 -> 32CUs -> 237mm² -> 11,7Mio T
N33 N6 -> 32CUs -> 205mm² -> vielleicht maixmal 13Mio T
Wie sollen da 4096 Shader Platz finden?
So: (https://www.angstronomics.com/p/amds-rdna-3-graphics)
However, the design philosophy of gfx11 is all about area, area, area. What is the best way to achieve the performance target with minimal area? The rearchitected Compute Unit and Optimized Graphics Pipeline changes are mostly about trimming the fat in pursuit of the lowest area and cost (example: halving relative FP64 rate to 1/32). As a result of this focus, PPA is significantly increased. In fact, at the same node, an RDNA 3 WGP is slightly smaller in area than an RDNA 2 WGP, despite packing double the ALUs.
amdfanuwe
2022-10-24, 12:20:21
Wie gesagt 100% skalierung ist nicht drin, aber 80% könnte ich mir sehr wohl vorstellen. Nur 30% erscheint mir absurd wenig, betrachtet man sich die Historie der RDNA Entwicklung im Rückspiegel.
30% sind ja auch nur eine Hutnummer, weil ich keine Ahnung von der Skalierung habe.
Die Wahrheit liegt wohl irgendwo zwischen 30% und 80%. :smile:
Mit 40% sind wir dann schon auf 6800 Niveau und darüber kommt schon die 6800XT, mit 80% sind wir bei 6900XT.
Wohlgemerkt nur in FHD. Bei 4K fehlt die Bandbreite.
basix
2022-10-24, 12:23:27
Um nochmal darauf zu kommen, ich glaube, dass diese N33-Vorhersagen einfach falsch sind, oder besser, Missinterpretiert.
N10 N7 -> 40CUs -> 251mm² -> 10,3Mio T
N23 N7 -> 32CUs -> 237mm² -> 11,7Mio T
N33 N6 -> 32CUs -> 205mm² -> vielleicht maixmal 13Mio T
Wie sollen da 4096 Shader Platz finden?
Nochmals: Reine ALUs sind relativ günstig. Sonst müssten die Tensor Cores von Nvidia viel mehr Fläche belegen, obwohl sie hinsichtlich FLOPS gleich viel FLOPS liefern wie die Shader-Units. Gleiche viele FLOPS ist hinsichtlich FP16/FP32 normiert gesehen: Quadratische Zunahme der FPU bei erhöhter Genauigkeit (Tensor bei Ampere liefern 4x FP16 vs. FP32 auf den Shader-Units, ergo ~gleiche Fläche für die FPU-ALUs). Trotzdem steigt die SM Fläche inkl. massiver Anzahl Tensor-FLOPS nur um ~20% and (TU106 vs. TU116) - und das noch inkl. RT-Cores: https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/
Wenn AMD dann noch den Rest der Pipeline entschlackt (NGG only, OREO, ...) ist es schon denkbar, dass die zusätzlichen FP32-Einheiten keine zusätzliche Fläche beanspruchen. Man muss die Fläche der CU anhand des Turing Beispiels "nur" um ~10-20% senken, dann sollten die zusätzlichen FP32-Units bereits ~flächenneutral reinpassen.
Und da ist N23 der wohl beste Vergleich, da identische Anzahl CUs, IF$ sowie Speicherinterface. Dazu Verbesserungen durch N6 und schon purzelt ein kleineres Die als N23 raus, obwohl doppelt so viele FP32-Units verbaut sind. Man darf nur nicht erwarten, dass das auch gleichzeitig 2x Performance pro Takt bedeutet.
30% sind ja auch nur eine Hutnummer, weil ich keine Ahnung von der Skalierung habe.
Die Wahrheit liegt wohl irgendwo zwischen 30% und 80%. :smile:
Mit 40% sind wir dann schon auf 6800 Niveau und darüber kommt schon die 6800XT, mit 80% sind wir bei 6900XT.
Wohlgemerkt nur in FHD. Bei 4K fehlt die Bandbreite.
30% ist das, was Ampere in etwa erreichte. Wenn man die grösser werdenden L1$, VGPRs sowie VOPD2 / VLIW2 Befehle noch mitnimmt, sollte die Skalierung eigentlich etwas besser ausfallen. Bei N33 fällt das mit den VGPRs aber weg ;)
N33 wird meiner Meinung nach in 1080p irgendwo in der Nähe der 6800XT landen und umso höher die Auflösung wird in Richtung 6800 non-XT zurückfallen. Das ist inkl. Takterhöhung gemeint. bei 3.0 Ghz vs. 2.5 Ghz (N33 vs. N23) wären das dann ~1.5x Performance pro CU, was ich als nicht unabwegig ansehe. Der grössere L1$ sowie schnellerer Speicher (z.B. 20 Gbps anstatt 16 Gbps) sollte hier helfen, damit N33 nicht zu schnell Bandwidth-Starved wird.
vinacis_vivids
2022-10-24, 13:18:57
https://abload.de/img/relative-performance_yld0o.png
Für N33 ist das Ziel N22XT (RX6700XT) bis N21XL (RX6800) in 1080p. Das ist realistisch bei 32MB IF$, 128bit SI und 4096SP.
N22XT ~ 2,6Ghz -> 13,3 Tflop/s fp32
N21XL ~ 2,1Ghz -> 16,1 Tflop/s fp32
N33XT ~ 3,0Ghz -> 24,5 Tflop/s fp32
30-40% Effizienzverlust durch schmalen SI und kleinen IF$ ~ 14,7 - 17,1 RDNA2 Tflop/s fp32.
N33XT kommt bei realistischer Schätzung von etwas schneller als N22XT bis hin zu etwas schneller als N21XL. Voraussetzung ist u.a. der bessere internte Takt des IF$, uArch Verbesserungen usw.
Mit 128bit bzw. 8 Channels bei ~2,4-2,6Ghz IF-CLK sind 1228,8 - 1331,2 GB/s Bandbreite bei N33 zu erwarten. N21XL kommt mit 256bit SI, 16 Channels und 1,55Ghz IF-CLK auf 1587,2 GB/s. N22XT 192bit bzw. 12 Channels ~1,94Ghz IF-CLK auf 1490,0 GB/s.
N33XT kommt mit mehr Rechenleistung, aber weniger Bandbreite. Daher werden die hohen Shaderzahlen (4096 bei N33) auch nicht ganz so durchschlagen wie bei RDNA2. Shaderlogik scheint sehr sehr günstig zu sein, also viele Shader für wenig Siliziumfläche, weshalb AMD so viel reinpackt.
N21 & N22 von RDNA2 werden auf jeden Fall überflüssig mit Erscheinen von N33 & N32.
Bitte auch beachten, dass es 1080p ist für N33.
Die Effizienz der "schmalen" Bandbreite bei N33 wird womöglich noch durch schnellere CPUs (SAM), DDR5-RAM und PCIe 5.0 noch verbessert. All diese Faktoren schlagen bei 1080p mehr durch.
DrFreaK666
2022-10-24, 16:25:58
was zum Geier ist das denn?
https://www.rra.go.kr/ko/license/A_b_popup.do?app_no=202217210000309499
why_me
2022-10-24, 16:30:11
Wo hast du das denn her?
Dürfte sehr sicher ein EMV-Test einer Grafikkarte sein. Zumindest machen die das https://www.rra.go.kr/en/other_main/wave.do
Irgendwie komisch, dass das immer noch unter ATI läuft...
Tangletingle
2022-10-24, 16:38:22
ati technologies ulc ist halt immer noch ne firma und teil von amd: https://www.amd.com/en/corporate/locations
das sind die büros in canada. in markham und in calgary also dem ursprünglichen sitz von ATI.
So: (https://www.angstronomics.com/p/amds-rdna-3-graphics)
Ich hab da zweifel, dass das für 200mm² in N6 reichen würde, das "area area area" ich bezweifle wirklich ernsthaft, dass das die Grundlage von aller Designphiliophie war, ich halte das für puren BS. Perf/W ist das Designziel. Die kleine Chipfläche ergibt sich aus dem Chipletdesign+N5. Sollte N33 N5 sein, können wir noch mal darüber reden, aber in N6 bin ich davon nicht abzubringen. Zumal das schon ne harte Flächenreduktion wäre, das sind dann 30mm² weniger dank N6, da käme BHV ja noch dazu beispielsweise.
robbitop
2022-10-24, 16:49:56
Angstronomics hatte bis dato eine sehr gute Reputation was ihre Inhalte angeht. So einfach würde ich das nicht abtun. (zumindest dass AMD RDNA3 Area efficiency als design goal hatte und ordentlich entschlacken konnten - das passt zu den relativ moderaten Die sizes)
Ravenhearth
2022-10-24, 16:54:18
Ich hab da zweifel, dass das für 200mm² in N6 reichen würde, das "area area area" ich bezweifle wirklich ernsthaft, dass das die Grundlage von aller Designphiliophie war, ich halte das für puren BS. Perf/W ist das Designziel.
Perf/W und Perf/Area schließen sich ja nicht aus, im Gegenteil. Weniger Transistoren = weniger switching power
Perf/W und Perf/Area schließen sich ja nicht aus, im Gegenteil. Weniger Transistoren = weniger switching power
Unsinn. Du kannst auch mit Fläche und Transistoren auf weniger Verbrauch optimieren.
Angstronomics hatte bis dato eine sehr gute Reputation was ihre Inhalte angeht. So einfach würde ich das nicht abtun. (zumindest dass AMD RDNA3 Area efficiency als design goal hatte und ordentlich entschlacken konnten - das passt zu den relativ moderaten Die sizes)
Mit doch furzegal, was die für ne Reputation haben. Wenn die 200mm² und N6 stimmen, kommt das nicht hin.
Ravenhearth
2022-10-24, 17:20:25
Unsinn. Du kannst auch mit Fläche und Transistoren auf weniger Verbrauch optimieren.
Ich habe nicht das Gegenteil behauptet. Aber weniger Transistoren machen es nicht schwieriger ;)
AffenJack
2022-10-24, 17:29:44
Mit doch furzegal, was die für ne Reputation haben. Wenn die 200mm² und N6 stimmen, kommt das nicht hin.
Angstronomics hat nie behauptet, dass N33 in die Nähe von N21 kommt. Das waren immer andere Quellen. Die Infos passen aber Null zusammen mit der Größe. Ich glaube tatsächlich eher Angstronomics und erwarte N33 auf N22 Niveau plus paar Prozent, dafür aber als sehr kosteneffizienten Chip.
robbitop
2022-10-24, 17:32:48
Mit doch furzegal, was die für ne Reputation haben. Wenn die 200mm² und N6 stimmen, kommt das nicht hin.
Das meinte ich nicht. Ich meinte den Fakt, dass man grundsätzlich RDNA3 als uArch auf Entschlackung und die area als design target ausgelegt hat. Was spricht ganz grundsätzlich dagegen?
Mir geht es hier nicht speziell um N33 sondern um RDNA3, denn darauf war auch der Post auf den du reagiert hast gemünzt.
Angstronomics hat nie behauptet, dass N33 in die Nähe von N21 kommt. Das waren immer andere Quellen. Die Infos passen aber Null zusammen mit der Größe. Ich glaube tatsächlich eher Angstronomics und erwarte N33 auf N22 Niveau plus paar Prozent, dafür aber als sehr kosteneffizienten Chip.
This :up: Ich glaube er hat den Text nichtmal gelesen und wettert erstmal dagegen :rolleyes:
Berniyh
2022-10-24, 18:05:09
Angstronomics hat nie behauptet, dass N33 in die Nähe von N21 kommt.
Bei solchen Aussagen sollte man sich eh nicht zu viele Gedanken drüber machen.
Das kann sich letztendlich auch auf einen Benchmark oder eine kleine Selektion beziehen. Oder z.B. auch nur auf 1080p, nicht aber 4k.
Sowas sollte man nicht auf die Waagschale legen.
robbitop
2022-10-24, 18:20:36
Es ist auch sehr unglaubwürdig trotz besserer uArch und leicht dichterem Prozess einen über doppelt so großen Die das Wasser reichen zu können. Ggf kommt man in RT näher dran durch mehr RT Hardware. In Hardware gegossene Dinge sind bekanntermaßen für den jeweiligen Anwendungszweck halt irre effizient (pro Transistor und pro W) verglichen mit General Purpose.
Ravenhearth
2022-10-24, 18:34:26
Ich glaube allerdings schon, dass N33 es durch die Kombination von verdoppelten ALUs + mehr Takt in 1080p zumindest mit Navi21XL aufnehmen kann. N22 ist nur 1/3 schneller als N23, das sollte man auf jeden Fall übertreffen.
horn 12
2022-10-24, 18:53:16
https://overclock3d.net/news/gpu_displays/amd_s_rdna_3_rx_7900_xt_reportedly_packs_20gb_of_memory_and_isn_t_radeon_s_next-gen_flagship/1
4090 Performance ?
https://twitter.com/harukaze5719/status/1584415108855652352
3 Karten Modelle
dargo
2022-10-24, 18:59:03
Ich fänds wieder lustig wenn AMD Benchmarks raushaut wo N31 die RTX 4090 erreicht, es aber nicht der schnellste N31 ist. :D
Edit:
Die Idee mit dem GCD und MCDs gefällt mir immer mehr. Sowohl bei Salvage vom N31 als auch N32 spart man sich jedes Mal die knapp 38mm² Die Size und endlich wird es auch bessere Produktabstufungen geben was sich hoffentlich auch beim Preis positiv bemerkbar macht. Salvage N31 mit 320Bit SI und 20GB sowie Salvage N32 mit 192Bit SI und 12GB.
vinacis_vivids
2022-10-24, 19:04:50
Das sieht dann vllt. so aus:
- RADEON RX 7970XT Navi 31 XTX 48WGP/96 CU/12288FP32
- RADEON RX 7950XT Navi 31 XT 42WGP/84CU/10752FP32
- RADEON RX 7900XT Navi 31 XL 36WGP/72CU/9216FP32 ~ RTX 4090
Schöner cut nach unten um die 4090 zu erreichen.
basix
2022-10-24, 19:06:37
Ich glaube allerdings schon, dass N33 es durch die Kombination von verdoppelten ALUs + mehr Takt in 1080p zumindest mit Navi21XL aufnehmen kann. N22 ist nur 1/3 schneller als N23, das sollte man auf jeden Fall übertreffen.
+1
N22 nicht zu egalisieren oder übertreffen wäre einfach unplausibel, ausser N33 taktet Null höher als N23 und RDNA3 wäre eine extreme Luftpumpe was Perf/FLOPS anbelangt. Noch schlechter als Ampere.
Und wir reden hier ja wirklich nur von 1080p oder max. 1440p. Bei 4K wird die Bandbreite ausgehen und im Falle von 8GByte der Speicher.
Adam D.
2022-10-24, 19:19:44
Das sieht dann vllt. so aus:
- RADEON RX 7970XT Navi 31 XTX 48WGP/96 CU/12288FP32
- RADEON RX 7950XT Navi 31 XT 42WGP/84CU/10752FP32
- RADEON RX 7900XT Navi 31 XL 36WGP/72CU/9216FP32 ~ RTX 4090
Schöner cut nach unten um die 4090 zu erreichen.
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Die 4090 hat gerade Leistungsrekorde aufgestellt, aber klar: AMD schüttelt das Leistungsniveau locker mit einer stark beschnittenen Salvage-SKU aus dem Ärmel, das liegt doch auf der Hand :freak:
prinz_valium_2
2022-10-24, 19:22:25
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Die 4090 hat gerade Leistungsrekorde aufgestellt, aber klar: AMD schüttelt das Leistungsniveau locker mit einer stark beschnittenen Salvage-SKU aus dem Ärmel, das liegt doch auf der Hand :freak:
4090 ist auch stark beschnitten, abgesehen von Speicher(interface)
Aber ich glaube es auch erst, wenn ich es sehe.
Der_Korken
2022-10-24, 19:34:25
Sind bei den 200mm²-Spekulationen um N33 eigentlich SI und Cache inbegriffen oder kommt das über die MCDs dazu?
fondness
2022-10-24, 19:38:29
Sind bei den 200mm²-Spekulationen um N33 eigentlich SI und Cache inbegriffen oder kommt das über die MCDs dazu?
Bisher hieß es N33 sei Single die. Aber spannende Frage, könnte vielleicht des rätseln Lösung sein. Wenn zu den 200mm2 in N6 noch zwei oder drei MCDs dazu kommen, wäre die Sache mit N21 Performance natürlich deutlich realistischer.
Imo werden sich so einige Spekulationen als falsch herausstellen. Das mit N33 Single die ist ja in Wahrheit auch schon eine uralt Spekulation und könnte wie so vieles genausogut eine Ente sein.
Sunrise
2022-10-24, 19:57:34
Die Boardnamen sind verdächtig:
D70401
D70201
D70203
Also identischer Chip-Codename N31 (D70) mit beim Enthusiast-Produkt verdoppeltem X (GCD? Infinity-Cache?) während die dritte Variante einfach nur der zweiten entspricht aber deaktiviert ist.
OgrEGT
2022-10-24, 19:58:53
Sind bei den 200mm²-Spekulationen um N33 eigentlich SI und Cache inbegriffen oder kommt das über die MCDs dazu?
Gem. angstronomics monolithisch ~200mm2.
https://videocardz.com/newz/amds-main-navi-31-gpu-reportedly-has-96mb-of-infinity-cache-navi-32-is-up-to-7680-cores
Dural
2022-10-24, 20:03:36
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Die 4090 hat gerade Leistungsrekorde aufgestellt, aber klar: AMD schüttelt das Leistungsniveau locker mit einer stark beschnittenen Salvage-SKU aus dem Ärmel, das liegt doch auf der Hand :freak:
Willkommen im AMD Threads, geht schon seit 15 Jahren so ;)
Ich finde das navi3 unheimlich schwer einzuschätzen ist, wie kaum eine andere GPU davor. Es ist einfach zu viel anders.
Berniyh
2022-10-24, 20:15:02
Ich glaube allerdings schon, dass N33 es durch die Kombination von verdoppelten ALUs + mehr Takt in 1080p zumindest mit Navi21XL aufnehmen kann. N22 ist nur 1/3 schneller als N23, das sollte man auf jeden Fall übertreffen.
Wie gesagt, das kommt sicherlich auf die Situation an.
Deine Aussage ist ja letztendlich auch nichtssagend.
Ein Trabbi kann es sicher auch mit einem Bugatti Veyron aufnehmen, solange man sich nicht auf eine Disziplin festlegt. ;)
w0mbat
2022-10-24, 20:15:54
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Hä? N21 war deutlich schneller als gedacht und hat mit weniger Transistoren auf einem ~100mm² kleineren die mit der 3090 mitgezogen, bzw. in 1080p und 1440p war sie sogar häufig schneller. Ach, und effizienter war sie auch noch.
Wieso du dieses Bsp., in dem der Radeon Chip schneller war als gedacht, als Argument nimmst, dass AMD dieses mal langsamer als gedacht sein soll, ist mir unverständlich.
Ich würde da eher Aufführen, dass RDNA3 wohl starken Fokus auf eine platzsparende Architektur legt und vor allem wirtschaftlich hergestellt werden soll. Dazu kommt hinzu, dass AMD 5nm + 6nm kombiniert, während Nvidia schon auf den verbesserten 4nm Prozess setzt und mit über 76 Mrd. Transistoren einen riesen Chip gebaut hat.
Das ist mMn ein viel besseres Argument, wieso ich denke, dass Nvidia vorne liegen wird.
[MK2]Mythos
2022-10-24, 20:16:47
Willkommen im AMD Threads, geht schon seit 15 Jahren so ;)
Ich finde das navi3 unheimlich schwer einzuschätzen ist, wie kaum eine andere GPU davor. Es ist einfach zu viel anders.
Gib doch nochmal nen Tipp wie 2020 ab. RTX3070 Niveau hast du damals als Gegner für AMDs Top Dog ausgemacht. Also an deiner Stelle würde ich hier ganz kleine Brötchen backen. ;)
fondness
2022-10-24, 20:16:59
Willkommen im AMD Threads, geht schon seit 15 Jahren so ;)
Ich finde das navi3 unheimlich schwer einzuschätzen ist, wie kaum eine andere GPU davor. Es ist einfach zu viel anders.
Naja, die speku, dass der teildeaktivierte 320 bit N31 gegen die 4090 reicht kam ja von jemand anderen. Heißt ja noch lange nicht, dass es stimmt. Aber ja die Einschätzung ist extrem schwierig, auch weil sich viele Leaks widersprechen und man nicht weiß, was stimmt und was nicht.
dargo
2022-10-24, 20:18:17
Mythos;13148299']Gib doch nochmal nen Tipp wie 2020 ab. RTX3070 Niveau hast du damals als Gegner für AMDs Top Dog ausgemacht. Also an deiner Stelle würde ich hier ganz kleine Brötchen backen. ;)
owned ;D
robbitop
2022-10-24, 20:24:17
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Die 4090 hat gerade Leistungsrekorde aufgestellt, aber klar: AMD schüttelt das Leistungsniveau locker mit einer stark beschnittenen Salvage-SKU aus dem Ärmel, das liegt doch auf der Hand :freak:
Naja Faktor 1,6 - 1,8 bei 2,7x Transistoren. Das ist relativ lauwarm pro Transistor. Es wurden halt irre viele Transistoren eingesetzt. N21 hat außerhalb von RT ja auch GA102 gematcht was damals niemand glauben wollte. Alles kann, nichts muss.
robbitop
2022-10-24, 20:26:41
Mythos;13148299']Gib doch nochmal nen Tipp wie 2020 ab. RTX3070 Niveau hast du damals als Gegner für AMDs Top Dog ausgemacht. Also an deiner Stelle würde ich hier ganz kleine Brötchen backen. ;)
Frag mal Troyan. Der sucht dir einen RT Kirschenbenchmark raus, der genau das zeigt und behauptet, das sei repräsentativ. :D
Propellerjungs halt
Schnitzl
2022-10-24, 20:36:11
Genau dieselbe Kacke wie bei N21 - man kann diese absurde Träumerei offenbar einfach nicht in den Griff bekommen.
Die 4090 hat gerade Leistungsrekorde aufgestellt, aber klar: AMD schüttelt das Leistungsniveau locker mit einer stark beschnittenen Salvage-SKU aus dem Ärmel, das liegt doch auf der Hand :freak:
Du hast vergessen, den Post durch den v_v-Filter durchzulassen :P
https://overclock3d.net/news/gpu_displays/amd_s_rdna_3_rx_7900_xt_reportedly_packs_20gb_of_memory_and_isn_t_radeon_s_next-gen_flagship/1
4090 Performance ?
interessant. So langsam ergibt sich ein Bild:
Evtl. ist jeweils 7900XT schneller als 4090 und 7950XT schneller als 4090Ti ... aber nur in Raster.
Würde mich hart wundern wenn AMD nVidia bei RT überholt, d.h. RTX40x0 ist immer noch mit Abstand schneller. Vermute aber dass sich der Abstand verringert.
Mit DLSS 3.x wird nVidia weiter uneinholbar bleiben, das ist denke ich recht sicher.
Wie heisst das bei AMD? Super Resolution? Ich hoffe da gibts auch was neues, inzwischen sollte auch der Letzte bei AMD gemerkt haben dass man nVidia auch SW-seitig contra bieten muss.
Sonst zerstört nVidias Marketing AMD erneut....
Nakai
2022-10-24, 20:37:38
Naja Faktor 1,6 - 1,8 bei 2,7x Transistoren. Das ist relativ lauwarm pro Transistor. Es wurden halt irre viele Transistoren eingesetzt. N21 hat außerhalb von RT ja auch GA102 gematcht was damals niemand glauben wollte. Alles kann, nichts muss.
Naja, NV hat bei Pascal und Maxwell auch schon brutale Effizienzsprünge hingekriegt. Deswegen wundert mich das ein bisschen. Wenn AMD ein bisschen effizienter mit den Transistoren umgeht, dann hat NV margentechnisch ein Problem. Das Problem kann sich auch ausweiten. Es sollte schon gut machbar sein, an NV heranzukommen.
Adam D.
2022-10-24, 20:40:38
Naja Faktor 1,6 - 1,8 bei 2,7x Transistoren. Das ist relativ lauwarm pro Transistor. Es wurden halt irre viele Transistoren eingesetzt. N21 hat außerhalb von RT ja auch GA102 gematcht was damals niemand glauben wollte. Alles kann, nichts muss.
Genau darum geht es mir doch - N21 war ein großer Erfolg (abseits von RT), der für viele durch diese absurden Spekulationen vor Release weniger beeindruckend erschien. Selbiges gilt jetzt wieder. Mit dem Unterschied, dass NV nochmal mächtiger vorgelegt hat. Wenn AMD aufschließen kann und die RT-Lücke evtl. noch etwas schließen kann, wäre das ein noch größerer Erfolg, der nur durch diesen unsinnigen Hype geschmälert werden kann.
Linmoum
2022-10-24, 20:47:15
Naja Faktor 1,6 - 1,8 bei 2,7x Transistoren. Das ist relativ lauwarm pro Transistor. Es wurden halt irre viele Transistoren eingesetzt.Du vergleichst hier aber auch immer den Salvage. Da sind noch mal 10-15% mehr Performance drin durch den Vollausbau bei AD102, da bist du bei RT dann eher Faktor 1.8x - 2x, letzteres ist ja jetzt schon vereinzelt mit der 4090 vs. 3090Ti drin und die xtors ändern an der enormen Leistung per se ja erst einmal nichts. Die ist trotzdem da, auch wenn man natürlich erwarten würde, dass sie eigentlich noch höher liegen sollte/müsste. ;)
Aber wie gesagt, nach den ganzen Gerüchten bei Nvidia, die ja auch Faktor >2x als Zuwachs ausgegeben haben, sollte man mittlerweile auch bei RDNA3 etwas vorsichtiger sein. AMD braucht für eine 4090 in Raster-Performance aber grob fast diesen Faktor 2x für eine Parität und wenn wir 2x8pin als gegeben ansehen, dann muss dafür Perf/Watt massiv oberhalb der angedeuteten ">"50% liegen. Denn auf Kante genäht werden sie sich nach Polaris nicht noch einmal leisten.
Raster-Perf steht aber sowieso am Scheideweg, weil die CPUs aktuell schlicht (noch) nicht hinterherkommen. Die Probleme sind unterhalb von UHD eklatant und selbst dort haben wir dennoch öfters derart hohe Frameraten, dass die CPU auch hier schon zum Flaschenhals wird. Das war vorher auch schon bei Simulatoren, MMOs oder sowas wie Anno 1800 der Fall, aber jetzt halt noch mal eine ganze Ecke verschärft.
Es war zwar klar, dass das schon jetzt mit Ada/RDNA3 Probleme geben wird, aber wenn ich mir vorstelle, dass wir hier ggf. in zwei Jahren wieder >50% mehr Performance bekommen, dann müssen Intel und AMD zaubern können. Raster ist noch immer nice2have, sollte aber längst nicht mehr im Fokus stehen oder als grundlegendes Argument herhalten.
Naja, NV hat bei Pascal und Maxwell auch schon brutale Effizienzsprünge hingekriegt. Deswegen wundert mich das ein bisschen. Wenn AMD ein bisschen effizienter mit den Transistoren umgeht, dann hat NV margentechnisch ein Problem. Das Problem kann sich auch ausweiten. Es sollte schon gut machbar sein, an NV heranzukommen.AMD hat mit RDNA2 innerhalb desselben Nodes einen riesigen Perf/Watt-Sprung gemacht, sowas wiederholst du auch nicht alle Tage.
Aber auch hier musst du wieder unterscheiden zwischen Raster und RT. Jensen mag zwar Balken und die Leistungskrone, aber man sieht, wie unglaublich der Fokus - zurecht - auf RT gelegt wird. Wenn der N31-Vollausbau den AD102-Salvage in Raster um 5-10% schlägt, der AD102-Salvage in RT aber mit +50% deutlich in Front liegt (alles natürlich fiktiv, bevor sich hier jemand dran aufhängen möchte ;) ), wird ihn das wenig tangieren. Und dann kann Nvidia immer noch - ganz unabhängig vom Software-Ecosystem, was ja nicht nur aus DLSS/FSR besteht - die deutlich höheren Preise verlangen. Wie sehr auf dem Papier eigentlich tolle Hardware nicht helfen kann, weiß AMD mit GCN zur Genüge.
Neurosphere
2022-10-24, 20:51:37
Genau darum geht es mir doch - N21 war ein großer Erfolg (abseits von RT), der für viele durch diese absurden Spekulationen vor Release weniger beeindruckend erschien. Selbiges gilt jetzt wieder. Mit dem Unterschied, dass NV nochmal mächtiger vorgelegt hat. Wenn AMD aufschließen kann und die RT-Lücke evtl. noch etwas schließen kann, wäre das ein noch größerer Erfolg, der nur durch diesen unsinnigen Hype geschmälert werden kann.
Leider hast du das aber immer und es ist auch nicht nur bei AMD so sondern zieht sich durch die Bank. Kaum gibt es wohlwollende Nachrichten werden sie ins absurd positive verzerrt, siehe die Auflistung eine Seite zuvor.
Andersrum ist es aber halt das gleiche. Die Wahrheit liegt irgendwo dazwischen.
prinz_valium_2
2022-10-24, 20:58:51
Die Boardnamen sind verdächtig:
D70401
D70201
D70203
Also identischer Chip-Codename N31 (D70) mit beim Enthusiast-Produkt verdoppeltem X (GCD? Infinity-Cache?) während die dritte Variante einfach nur der zweiten entspricht aber deaktiviert ist.
Good catch
Dural
2022-10-24, 21:10:57
Mythos;13148299']Gib doch nochmal nen Tipp wie 2020 ab. RTX3070 Niveau hast du damals als Gegner für AMDs Top Dog ausgemacht. Also an deiner Stelle würde ich hier ganz kleine Brötchen backen. ;)
Danke für die Erinnerung, manchmal bin ich schon fast erstaunt wie gut ich bin ;)
Aus dem cb Test der 6900xt, gerade mal 6% schneller. Aber eigentlich habe ich navi2 zu hoch eingeschätz, den die einschätzung war ja noch ohne Cache und ohne den hohen Takt.
dargo
2022-10-24, 21:15:03
Winde dich hier jetzt nicht raus. Du hattest ganz klar behauptet N21 würde bei Raster max. bei der 3070 rauskommen. :rolleyes:
w0mbat
2022-10-24, 21:30:46
Danke für die Erinnerung, manchmal bin ich schon fast erstaunt wie gut ich bin ;)
Aus dem cb Test der 6900xt, gerade mal 6% schneller. Aber eigentlich habe ich navi2 zu hoch eingeschätz, den die einschätzung war ja noch ohne Cache und ohne den hohen Takt.
Hm...
Redneck
2022-10-24, 21:31:38
Mit DLSS 3.x wird nVidia weiter uneinholbar bleiben, das ist denke ich recht sicher.
Wie heisst das bei AMD? Super Resolution? Ich hoffe da gibts auch was neues, inzwischen sollte auch der Letzte bei AMD gemerkt haben dass man nVidia auch SW-seitig contra bieten muss.
Sonst zerstört nVidias Marketing AMD erneut....
Ach hör doch mit dem DLSS Quatsch auf. Das hat AMD doch bereits mit FSR 2.x widerlegt, das das ein Alleinstellungsmerkmal von Hardware mit Tensor Kernen ist. Eine 3.0 mit FI ist alles andere als Magie. Würde mich nicht wundern wenn AMD bei RDNA3 Release mit ner Ankündigung ankommt, das FSR in Bälde auch FI kann.
Redneck
2022-10-24, 21:35:58
Winde dich hier jetzt nicht raus. Du hattest ganz klar behauptet N21 würde bei Raster max. bei der 3070 rauskommen. :rolleyes:
Bist Du Dir sicher? Hatte er nicht immer behauptet RT wäre mit RDNA2 nicht zu Gebrauchen und am Ende lag man auf 3070 Level in RT.. Vielleicht wird so ein Schuh draus ;-)
Badesalz
2022-10-24, 21:36:13
@dargo
Nicht einfach lesen -> Verstehen. Der ist wohl schon ziemlich gut. Er wird nämlich jetzt genauso nervös wie damals. Und schreibt deswegen genau das gleiche Zeug daher.
D.h. seine Einschätzungen - die, über welche er nicht laut spricht - liegen wohl höher als bei N2x damals :up: Das wäre dann in der Tat ein Paukenschlag, wenn sich seine stillen Vorahnungen bestätigen sollten.
Also, ich sehe das jedenfalls, so wie 4090 vorlegte, und dann mehr auf die Verkürzen als davor auf RT30... Er marodiert jedenfalls jetzt schon in AMD-Threads. Das war für AMD eigentlich immer ein gutes Zeichen gewesen.
Der Typ ist richtig gut =)
w0mbat
2022-10-24, 21:38:46
Bist Du Dir sicher? Hatte er nicht immer behauptet RT wäre mit RDNA2 nicht zu Gebrauchen und am Ende lag man auf 3070 Level in RT.. Vielleicht wird so ein Schuh draus ;-)
Schau dir mal mein post zwei über dir an, die 3070 wird in RT total abgehängt. Auch diese Behauptung stimmt also nicht.
vinacis_vivids
2022-10-24, 22:09:27
AMD Radeon RX 7900 XTX
https://videocardz.com/newz/amd-rumored-to-launch-radeon-rx-7900-xtx-graphics-card
Navi 31 XTX 48WGP/96 CU/12288FP32 = RX 7900 XTX
Navi 31 XT 42WGP/84CU/10752FP32 = RX 7900 XT
Navi 31 XL 36WGP/72CU/9216FP32 = RX 7900 GT?
Das "XTX" Branding wurde seit der X1900 XTX aus dem Jahr 2006 nicht mehr verwendet. Also 15 Jahre ist es her. Die X1950 XTX war ein refresh des R580.
2022: RX 7900 XTX = X1900 XTX und RTX 4090 = 7900 GTX ?
https://abload.de/img/2022-10-2422_01_32-atm1cm8.png
Wenn die Skalierung von RDNA3 nahezu perfekt ist, sehe ich durchaus ~30% Vorsprung für N31XTX zu AD102 Salvage.
Jahr 2006: XTX, XT und GT
https://abload.de/img/2022-10-2422_05_02-gpuide5.png
Badesalz
2022-10-24, 22:14:53
Nun..., also wenn ihr schon korrekterweise) den falschen Prophet Dural aufzieht, wie gut lag eigentlich vinacis_vivids das letzte Mal mit seinen Wahrsagungen?
Seine Beiträge machen mir meist irgendwie Angst...daß ich ggf. nicht weit genug weg wohne.
why_me
2022-10-24, 22:17:15
Der übertreibt es immer. Da schlägt es ins komplette Gegenteil aus. Dural 30% zu niedrig, v_v 30% zu hoch. Die goldene Mitte von beiden wirds am Ende werden :D
unl34shed
2022-10-24, 22:26:19
Danke für die Erinnerung, manchmal bin ich schon fast erstaunt wie gut ich bin ;)
Aus dem cb Test der 6900xt, gerade mal 6% schneller. Aber eigentlich habe ich navi2 zu hoch eingeschätz, den die einschätzung war ja noch ohne Cache und ohne den hohen Takt.
Nur zur Erinnerung:
3070 vs XT :rolleyes:
OK, reiner Spiele Durchschnitt am besten CB.
Noch ein Nachtrag: in 4K
Wer steigt mit ein? :tongue:
Also nix mit einem RT Cherry Pick :P
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Bei CB ist die 6800XT >30% schneller als die 3070, sowohl in 4k RT als auch 4k Raster.
Oder aber gleich schnell wie die 3080 in Raster und 10% langsamer in RT 4k.
Oh und +30% über der 3070 war übrigens die Einschätzung der anderen, wer lag wohl richtig ;D
So viel dazu...
E:
Es gibt auch keine XTX, das ist einfach wieder ein Hirngespinst von einem AMD Troll.
Ist übrigens auch 100% richtig gewesen...
Badesalz
2022-10-24, 22:26:31
@why_me
Also stehen die Eckdaten an sich fest :tongue: Wir sind dann DIE ERSTEN die es richtig vorausgesagt haben.
Jetzt müsste nur noch wer diese dural-vivids Gleichung lösen :wink:
@unl34shed
Eine Erklärung warum du dich mit dem Müll persönlich auseinandersetzt? :|
unl34shed
2022-10-24, 22:36:03
Mich hats nur interessiert und das war die Suche nach Dural und 3070 im RDNA2 Thread, hat keine 2 Min gedauert...
Schnitzl
2022-10-24, 23:14:41
Ach hör doch mit dem DLSS Quatsch auf. Das hat AMD doch bereits mit FSR 2.x widerlegt, das das ein Alleinstellungsmerkmal von Hardware mit Tensor Kernen ist. Eine 3.0 mit FI ist alles andere als Magie. Würde mich nicht wundern wenn AMD bei RDNA3 Release mit ner Ankündigung ankommt, das FSR in Bälde auch FI kann.
das wäre super :up:
P.S.: ich persönlich finde DLSS Murks. Bei Control getestet und für scheisse befunden.
Lieber hier und da ein paar Regler anpassen und native 1440p
DrFreaK666
2022-10-24, 23:16:36
das wäre super :up:
P.S.: ich persönlich finde DLSS Murks. Bei Control getestet und für scheisse befunden.
Lieber hier und da ein paar Regler anpassen und native 1440p
Mit einem Spiel getestet... na dann :ugly:
Exxtreme
2022-10-24, 23:36:23
Naja, DLSS ist halt schon technisch eine Absenkung der Bildqualität da das Bild mit einer niedrigeren Auflösung berechnet wird. Und da muss das Bild in bestimmten Bereichen schon weniger Informationen enthalten als ein natives Bild. Das liegt in der Natur der Sache.
basix
2022-10-24, 23:37:17
P.S.: ich persönlich finde DLSS Murks. Bei Control getestet und für scheisse befunden.
Lieber hier und da ein paar Regler anpassen und native 1440p
In 1440p ist DLSS-Q noch akzeptabel. Darunter überzeugt es mich nicht. Ab 4K aufwärts ist DLSS / FSR aber wirklich gut. Wenn du einen 1440p Monitor wie ich hast, geht das via DSR (Nvidia) oder VSR (AMD). Mit etwas wie einer 3070 oder vergleichbar sollte das in den meisten Spielen ohne Probleme klappen (4K DLSS-Q)
Slipknot79
2022-10-25, 00:03:59
Naja, DLSS ist halt schon technisch eine Absenkung der Bildqualität da das Bild mit einer niedrigeren Auflösung berechnet wird. Und da muss das Bild in bestimmten Bereichen schon weniger Informationen enthalten als ein natives Bild. Das liegt in der Natur der Sache.
In Shadow of da Tomb Raider sehe ich in 2,25x DLDSR und DLSS-Q keinen wirklichen Unterschied? :redface:
CAS etc sind dann auch nicht moar notwendig.
basix
2022-10-25, 00:21:07
Naja, DLSS ist halt schon technisch eine Absenkung der Bildqualität da das Bild mit einer niedrigeren Auflösung berechnet wird. Und da muss das Bild in bestimmten Bereichen schon weniger Informationen enthalten als ein natives Bild.
Das stimmt so nicht. Temporales Supersampling kann eine bessere Bildqualiät als nativ bieten. Im Endeffekt können nämlich viel mehr Samples und somit Informationen für das Bild verwendet werden (bei FSR 2 z.B. bis zu 72 Samples pro Pixel). Das mit der besseren Qualität hat aber Limiten. Umso höher die FPS sowie Render- als auch Ausgabeauflösung, desto besser die Qualität von DLSS und Co. Bei 1440p und DLSS-Q wird mit 960p gerendert, was für gute Qualität noch ausreicht. Das Problem hier sind eher die schlechten Implementationen. Gute Implementationen verbessern die Bildqualität. z.B. HZD macht mit DLSS / FSR2 einen riesigen Qualitätssprung: Gräser werden sauber gefiltert, geglättet und rekonstruiert. Man sieht viel mehr Details und das Bild ist obendrauf noch viel ruhiger. DLSS und FSR ersetzten ausserdem das TAA, was insbesondere <4K in vielen Fällen einfach unscharf aussieht. Mit TAA gehen viele Details verloren, welche man mittels DLSS oder FSR wieder zu gesicht bekommt.
aufkrawall
2022-10-25, 00:23:50
Control ist nicht das beste Beispiel, das shippt eine alte 2.1-Version und braucht extrem viel Sharpen.
Trotzdem ist das Bild aber viel stabiler und leidet unter weniger Ghosting als mit dem Schrott-TAA.
r3ptil3
2022-10-25, 01:02:20
AMD Radeon RX 7900 XTX “RDNA 3” Flagship Graphics Card To Pack 24 GB GDDR6 Memory
https://i.ibb.co/m6vs2S9/image.png
https://wccftech.com/amd-radeon-rx-7900-xtx-rdna-3-graphics-card-24-gb-gddr6-memory-rumor/
Mögen die wildesten Gerüchte beginnen (und vielleicht auch bewahrheiten).
dargo
2022-10-25, 07:16:06
Der Typ ist richtig gut =)
Im Trollen auf jeden Fall.
Badesalz
2022-10-25, 07:57:53
@basix
Du hast ja mit so einigen eigenen Gedanken gekämpft während es Schreibens :wink: Das Bild wird durch die Mattscheibe oft ruhiger. Klar, Das mit den Details aber... Man muss sich das im ersten Schritt auch garnicht so kompliziert vorstellen und die Nuancen der Technik verstehen. Das sind simpelste Gleichungen:
Wenn man eine Leistungssteigerung erreicht, hat die GPU weniger zu rechnen. Wenn es an einigen Stellen trotzdem nahezu gleich gut oder gar minimal besser aussieht als nativ, muss es an ausreichend vielen anderen Stellen entsprechend schlechter aussehen.
Das ist abseits von Kritik oder für einen selbst annehmbaren trade-offs wie es eben ist.
Es ist aber eben auch langsam an der Zeit, bei dem was einerseits die Fanboys und andererseits vor allem die wirtschaftlich gesteuerten Clowns und Pusher aus den Diskussionen über DLSS machen, da auch mal ne Weile dagegen zu halten.
robbitop
2022-10-25, 08:38:43
Du vergleichst hier aber auch immer den Salvage. Da sind noch mal 10-15% mehr Performance drin durch den Vollausbau bei AD102, da bist du bei RT dann eher Faktor 1.8x - 2x, letzteres ist ja jetzt schon vereinzelt mit der 4090 vs. 3090Ti drin und die xtors ändern an der enormen Leistung per se ja erst einmal nichts. Die ist trotzdem da, auch wenn man natürlich erwarten würde, dass sie eigentlich noch höher liegen sollte/müsste. ;)
Es sind 12% mehr Units. Und wenn die mit mehr als 0,7 (der übliche Skalierungsfaktor mit Einheiten) skalieren wäre ich sehr überrascht. Alles andere ist nur hochprügeln des Betriebspunktes, was die 4090 über OC auch kann. Also grob 9% mehr Performance durch das Freischalten der Units.
Dann sind wir im allerbesten aktuell kirschigsten Kirschenfall der RT Benchmarks bei Faktor 2 (jedoch nicht im groben repräsentativen Schnitt über alle Games). Für 2,7x Transistoren. Das ändert an meiner Grundaussage nichts. ;)
Für mich sieht das schon aus wie eine Bresche in die AMD eine Art RV770 legen kann, sofern es stimmt, dass man eher in die andere Richtung geht und das Design eher flächen/transistoreffizienter machen will. Man erinnere sich wie viel kleiner und billiger RV770 war als GT200 und als 4870 kam man sehr nah in Schlagweite des GT200 Top dogs.
Raster-Perf steht aber sowieso am Scheideweg, weil die CPUs aktuell schlicht (noch) nicht hinterherkommen. Die Probleme sind unterhalb von UHD eklatant und selbst dort haben wir dennoch öfters derart hohe Frameraten, dass die CPU auch hier schon zum Flaschenhals wird. Das war vorher auch schon bei Simulatoren, MMOs oder sowas wie Anno 1800 der Fall, aber jetzt halt noch mal eine ganze Ecke verschärft.
Es war zwar klar, dass das schon jetzt mit Ada/RDNA3 Probleme geben wird, aber wenn ich mir vorstelle, dass wir hier ggf. in zwei Jahren wieder >50% mehr Performance bekommen, dann müssen Intel und AMD zaubern können. Raster ist noch immer nice2have, sollte aber längst nicht mehr im Fokus stehen oder als grundlegendes Argument herhalten.
Für die Masse mag das stimmen. Für uns Nerds ist GPU Leistung aber wie Geld auf dem Konto: mehr geht immer.
Ultra Details und Downsampling zernichtet GPU Performance. ;)
Außerdem sind hohe Refreshraten auch immer attraktiver auch mit 4K. Mehr Bildschärfe und weniger Input in Bewegung ist schön. 120-240 fps in 4K müssen erstmal geschafft werden um die modernsten 4K Monitore an die Grenze zu treiben. Und je mehr fps und Hz desto schärfer das Bild in Bewegung.
Außerdem ist die RT Performance von RDNA3 erstmal abzuwarten. Viele vermuten, dass sie in RT deutlich schlechter dastehen wird. Abwarten. Ggf. hat man da auch aufgeholt.
fondness
2022-10-25, 08:54:13
Es sind 12% mehr Units. Und wenn die mit mehr als 0,7 (der übliche Skalierungsfaktor mit Einheiten) skalieren wäre ich sehr überrascht. Alles andere ist nur hochprügeln des Betriebspunktes, was die 4090 über OC auch kann. Also grob 9% mehr Performance durch das Freischalten der Units.
Dann sind wir im allerbesten aktuell kirschigsten Kirschenfall der RT Benchmarks bei Faktor 2 (jedoch nicht im groben repräsentativen Schnitt über alle Games). Für 2,7x Transistoren. Das ändert an meiner Grundaussage nichts. ;)
Gibt es jetzt eigentlich schon Analyse zu AD102, warum er nicht schneller ist? Ich meine wir reden nach wie vor von mehr als doppelt so viel FLOPs und angeblich deutlich stärker gestiegener RT-Performance. In der Praxis reicht es nicht mal in RT für Faktor 2. Skaliert das mehr an Einheiten nicht? Dann würde nämlich auch ein voller Chip kaum schneller sein. Limitiert die Bandbreite? Auch das wäre problematisch für einen vollen Chip.
Außerdem ist die RT Performance von RDNA3 erstmal abzuwarten. Viele vermuten, dass sie in RT deutlich schlechter dastehen wird. Abwarten. Ggf. hat man da auch aufgeholt.
Ja finde ich auch spannend. Zumal AD102 in Relation kaum schneller ist in RT als Ampere. Alle glauben jetzt, dass das manuelle sorting Wunderdinge vollbringen wird, aber auch das ist erstmal abzuwarten. Zumal es nicht mal eine DX-Implementierung gibt. Und automatisch sortiert wird laut Nvidia eh schon, das ist also zumindest zum Teil schon in den Benchmarks inkludiert.
mboeller
2022-10-25, 09:03:46
Gibt es jetzt eigentlich schon Analyse zu AD102, warum er nicht schneller ist?
da das hier der RDNA3 Thread ist:
vielleicht hat Nvidia das "AMD Problem"?
AMD bringt ja ihre Leistung nicht auf den Boden wenn sie die Anzahl der CU erhöhen. zB. XBOX <-> PS5
Soweit ich mich erinnere war eine der Begründungen für die hohe Taktrate + wenige CU bei der PS5 das eine breitere GPU die Leistung nur ungenügend auf die Straße bringen würde.
Deshalb eben auch bei RDNA3 max. 48 WGP und dafür jeder WGP mit doppelter Leistung.
dargo
2022-10-25, 09:10:26
Für die Masse mag das stimmen. Für uns Nerds ist GPU Leistung aber wie Geld auf dem Konto: mehr geht immer.
Ultra Details und Downsampling zernichtet GPU Performance. ;)
Außerdem sind hohe Refreshraten auch immer attraktiver auch mit 4K. Mehr Bildschärfe und weniger Input in Bewegung ist schön. 120-240 fps in 4K müssen erstmal geschafft werden um die modernsten 4K Monitore an die Grenze zu treiben. Und je mehr fps und Hz desto schärfer das Bild in Bewegung.
Außerdem ist die RT Performance von RDNA3 erstmal abzuwarten. Viele vermuten, dass sie in RT deutlich schlechter dastehen wird. Abwarten. Ggf. hat man da auch aufgeholt.
Diese Märch Rasterizer wäre nicht so wichtig ist eh kompletter Mumpitz. Erstens gehts bei einer neuen Gen nicht nur um die Topdogs sondern um das gesamte Portfolio. Zweitens hilft selbstverständlich eine deutliche Anhebung von Rasterizer-Performance auch in Games mit RT da es nach wie vor ein hybrider Ansatz ist und lange bleibt.
robbitop
2022-10-25, 09:17:53
Diese Märch Rasterizer wäre nicht so wichtig ist eh kompletter Mumpitz. Erstens gehts bei einer neuen Gen nicht nur um die Topdogs sondern um das gesamte Portfolio. Zweitens hilft selbstverständlich eine deutliche Anhebung von Rasterizer-Performance auch in Games mit RT da es nach wie vor ein hybrider Ansatz ist und lange bleibt.
Ja das stimmt. Die Masse kauft den Topdog nicht. Und die zweite Aussage ist genauso richtig. :)
unl34shed
2022-10-25, 09:32:01
Limitiert die Bandbreite? Auch das wäre problematisch für einen vollen Chip.
Wenn es die Bandbreite wäre, hätte die 4080 12GB nicht eine so viel schlechtere Performance wie die relativ ähnliche 3090Ti. Und hier sollte ja eigentlich der L2 noch helfen, außer Nvidia hat ein Problem und muss den riesen Cache zu oft flushen?
Ist aber OT hier.
fondness
2022-10-25, 09:43:35
Hab dazu gestern noch was gerechnet wie jan für die CPU in seinem Video.
Ich komme auf eine BOM von:
AD102 ~300$
N21 ~ 170$
N31 ~170$
N32 ~120$
N33 ~50$
N24 ~30$
N33 in N5 bei 150mm² käme ich auf ~60$
Natürlich nur Hausnummern mit 17000$ für N5 Wafer und 10000$ für N6 Wafer. Dazu noch 20$ Packaging für N31/2, 10$ bei N33.
Wer selbst rechnen möchte: http://cloud.mooreelite.com/tools/die-yield-calculator/index.html
Danke. Ist sicher nur ein grober Richtwert, zeigt aber dennoch, warum AMD den Chiplet-Ansatz gewählt hat. Kaum mehr als die halben Kosten als AD102 für N31. Und dabei hat man sogar noch den Vorteil, das man bei reduzierten SI sich MCDs sparen kann, also gar nicht verbauen muss.
robbitop
2022-10-25, 09:59:15
Wenn es die Bandbreite wäre, hätte die 4080 12GB nicht eine so viel schlechtere Performance wie die relativ ähnliche 3090Ti. Und hier sollte ja eigentlich der L2 noch helfen, außer Nvidia hat ein Problem und muss den riesen Cache zu oft flushen?
Ist aber OT hier.
Die 4080 12 GB hat so ziemlich das gleiche Verhältnis aus Rechenleistung und Bandbreite wie die 4090.
Man könnte aber mal die Skalierung vom Memoryclock bei einer 4090 nachmessen um die These des Bandbreitenlimits zu prüfen.
Eigentlich sind moderne Designs gut ausbalanciert und es gibt nicht mehr den einen Flaschenhals (weil es kostenineffizient wäre weil der Rückschluss ist, dass man andere Sachen unnötig überdimensioniert hat). Würde mich also wundern, wenn es das eine Bottleneck gäbe.
GerryB
2022-10-25, 10:21:16
Die 4090 OCer im Luxx schwören auf Vram-OCen. Ist messbar linear ansteigend, würde ich denken.
werde mal im Sup-Thread reinschauen, die nehmen sogar ne größere Resi
(da scheints noch net voll durchzuschlagen, leider auch zu wenige Posts, die 3 sind zu ähnlich)
sorry für OT
Nichtsdestotrotz wirds sicher spannend in 5k, wie der Cache von AMD im Vgl. dagegen so funzt.
Iscaran
2022-10-25, 10:29:53
AMD bringt ja ihre Leistung nicht auf den Boden wenn sie die Anzahl der CU erhöhen. zB. XBOX <-> PS5
Das war mit GCN so - aber seit RDNA bringt AMD die Leistung "mehr auf den Boden" als nVidia (pro CU/SM gesehen).
basix
2022-10-25, 11:48:25
@basix
Du hast ja mit so einigen eigenen Gedanken gekämpft während es Schreibens :wink: Das Bild wird durch die Mattscheibe oft ruhiger. Klar, Das mit den Details aber... Man muss sich das im ersten Schritt auch garnicht so kompliziert vorstellen und die Nuancen der Technik verstehen. Das sind simpelste Gleichungen:
Wenn man eine Leistungssteigerung erreicht, hat die GPU weniger zu rechnen. Wenn es an einigen Stellen trotzdem nahezu gleich gut oder gar minimal besser aussieht als nativ, muss es an ausreichend vielen anderen Stellen entsprechend schlechter aussehen.
Das ist abseits von Kritik oder für einen selbst annehmbaren trade-offs wie es eben ist.
Hast du Temporal Supersampling verstanden oder nicht? ;) Und hast du effektiv Testberichte mit Bildvergleichen angeschaut? Sieht bei guten Implementationen besser als nativ aus (feine Geometrie etc.) ;)
Pro gerendertes Bild hast du weniger Informationen, ganz klar. Deswegen die Leistungssteigerung. Aber über mehrere Frames hinweg erreicht man potentiell eben deutlich mehr. Das ist ja der ganze Witz aller temporalen Ansätze: Über die Zeit genug Informationen für ein gutes Bild zu erhalten. Wenn du die Auflösung um 2x senkst, aber 4x Frames miteinander verrechnest, was hast du dann? Effektiv 2x mehr Informationen. Supersampling. Idealfall ist hier natürlich ein Standbild, deswegen sieht DLSS und Co. in Standbildern am besten aus.
DLSS und FSR jittern die Pixelpositionen und können so über die Zeit mehr Details samplen als es ein starres Grid mit fixer Auflösung ohne temporalen Re-Use je könnte. Hier dazu die Präsentation zu DLSS 2.0:
http://behindthepixels.io/assets/files/DLSS2.0.pdf
Ein anderes Beispiel ist Raytracing. Das funktioniert momentan nur via temporal re-use in Realtime genug performant. Vom Prinzip her sehr ähnlich wie das, was DLSS und Co machen. Einfach beschränkt auf RT-Rays und Beleuchtung. Bei RT werden über die Zeit stochastisch Rays gejittert und von mehreren Frames zusammengefasst, damit es überhaupt nach einem Bild aussieht und nicht einem wertlosen Punkte-Haufen. Egal ob UE5 mit Lumen via Surface Cache, Nvidia via ReSTIR oder Unity mit was auch immer sie nutzen: Sind alles Spatio-Temporale Ansätze. Zeitliches und räumliches aufkumulieren von Informationen. Genau wie DLSS und FSR2. Kannst dir gerne folgendes Paper von Nvidia durchlesen (mathematische Kapitel kann man skippen, wenn es nicht interessiert): Ist sogar "spatio-temporal" re-use und nicht nur "temporal": https://research.nvidia.com/publication/2021-07_rearchitecting-spatiotemporal-resampling-production
Probleme von temporalen Ansätzen: Das Tracking der Informationen bei sich verändernder Umgebung und in Bereichen wie z.B. Disocclusion weniger Samples als nativ. Deswegen gibt es Ghosting, Smearing und andere Artefakte. Doch auch da gibt es Lösungen: z.B. entsprechende Bereiche mit höherer Auflösung samplen oder anderweitige Filtereinstellungen variieren. Nvidias letzte Arbeiten zu ReSTIR zeigen das, wo Disocclusion-Bereiche 8x gesampled weden verglichen mit dem restlichen Bild. Und auch Updates an Lumen der UE5 zeigen in diese Richtung (Matrix Demo), wo durch höheres abtasten und verkürzten FIlterzeit hinter sich bewegenden Fahrzeugen das Ghosting massiv reduziert wird (finde gerade den Link nicht, gibt ein sehr gutes Bild dazu, was den Unterschied aufzeigt. UE 5.1 sollte das so implemntiert haben).
Deswegen ganz klar: Temporal Supersampling oder im Falle RT spatio-temporal re-use kann die Bildqualität verbessern, obwohl die Performance höher ist. Und das ist kein Widerspruch, wenn man verstanden hat, was hier "temporal" und "supersampling" mässig genau passiert: Man erhält mit der Zeit genug Informationen (oder sogar mehr), damit das Bild gut oder gar besser aussieht. Schlechte DLSS/FSR Implementationen sehen schlechter aus als nativ, ja. Das ist aber keine Eigenheit des Verfahrens an sich, sondern einfach keine gute Implementation (fehlende, fehlerhafte oder zu ungenaue Inputs von Seiten Spiele-Engine).
Die 4090 OCer im Luxx schwören auf Vram-OCen. Ist messbar linear ansteigend, würde ich denken.
Kann ich bestätigen.
Akkarin
2022-10-25, 12:48:00
Wie genau setzten sich die Kosten einer fertigen Grafikkarte eigentlich zusammen? Also wie viel des Endpreises ist Gewinn, Kosten des Chips (+packaging), RAM, PCB+VRM, Kühler?
Wie ändern sich die Kosten des PCB/VRM/Kühler wenn man 300, 350, 400 und 450W Versionen hat?
Bei Grafikkartenpreisen von >>1k USD hören sich Unterschiede von 170 vs. 300 USD bei den Chips selbst nach gar nicht so viel an.
mr coffee
2022-10-25, 12:51:49
Naja, doch schon. Das ist ja fast eine Verdoppelung. Damit du nicht Marge verlierst, muss sich natürlich der Erlös ähnlich verhalten.
why_me
2022-10-25, 13:02:40
Die großen Kostentreiber sind der Grafikchip und VRAM.
Grefikchip ist abhängig vom Prozessnode und der Größe.
VRAM kosten 2GB 16Gbps chips bei Mouser ~30€. Wobei die AIBs da deutlich bessere Konditionen haben werden. Ich gehe mal von <10$/GB aus.
Das PCB wird durch die Anzahl sehr günstig. Dürfte deutlich unter 20€ liegen.
Die Spannungswandler werden pro Phase auch im unteren einstelligen Eurobereich liegen.
Dann bleibt noch der Kühler. Die Lamellen, Heatpipes und Lüfter an sich, dürften nicht so teuer sein (siehe CPU Kühler). Die große Unbekannte ist hier die Vapor Chamber. Aber auch die dürfte nicht all zu teuer herzustellen sein. Vapor Chambers wurden ja auch schon bei relativ günstigen Karten verbaut.
Akkarin
2022-10-25, 13:39:02
Hab dazu gestern noch was gerechnet wie jan für die CPU in seinem Video.
Ich komme auf eine BOM von:
AD102 ~300$
N21 ~ 170$
N31 ~170$
N32 ~120$
N33 ~50$
N24 ~30$
N33 in N5 bei 150mm² käme ich auf ~60$
Natürlich nur Hausnummern mit 17000$ für N5 Wafer und 10000$ für N6 Wafer. Dazu noch 20$ Packaging für N31/2, 10$ bei N33.
Wer selbst rechnen möchte: http://cloud.mooreelite.com/tools/die-yield-calculator/index.html
Mit den Annahmen das Packaging 10$ kostet, die Chips quadratisch sind und keine der partial oder defective Dies benutzbar sind (sind sie vermutlich schon?) komme ich auf 160$ für AD103 und 120$ für AD104. Ich würde vermuten das nVidia einen leichten Kostenvorteil bei AD103 vs. N31 und bei AD104 vs N32 hätte? Die große Frage ist welche RDNA3 Chips mit welchen Lovelace Chips konkurieren.
Naja, doch schon. Das ist ja fast eine Verdoppelung. Damit du nicht Marge verlierst, muss sich natürlich der Erlös ähnlich verhalten.
Gross Margin ist wichtig, aber ist Gewinn pro Karte nicht genauso wichtig solange es genug Waver gibt? Ich würde lieber einen 300$ Chip für 600$ an OEMs verkaufen als einen 170$ Chip für 400, all else being equal. (die gross margin wird vermutlich auch gut unter 100% liegen)
Die großen Kostentreiber sind der Grafikchip und VRAM.
Grefikchip ist abhängig vom Prozessnode und der Größe.
VRAM kosten 2GB 16Gbps chips bei Mouser ~30€. Wobei die AIBs da deutlich bessere Konditionen haben werden. Ich gehe mal von <10$/GB aus.
Das PCB wird durch die Anzahl sehr günstig. Dürfte deutlich unter 20€ liegen.
Die Spannungswandler werden pro Phase auch im unteren einstelligen Eurobereich liegen.
Dann bleibt noch der Kühler. Die Lamellen, Heatpipes und Lüfter an sich, dürften nicht so teuer sein (siehe CPU Kühler). Die große Unbekannte ist hier die Vapor Chamber. Aber auch die dürfte nicht all zu teuer herzustellen sein. Vapor Chambers wurden ja auch schon bei relativ günstigen Karten verbaut.
Damit würde eine 4090 ~750$ in der Herstellung kosten. Was haben OEMs und Retailer so für Gross Margins?
Das RAM tatsächlich so teuer ist erstaunt mich immer wieder, auch wenn man es eigentlich weis. Entscheidungen ob man jetzt 8, 12, 16, 20 oder 24GB RAM verbaut sind richtig wichtig und können einen gewaltigen Preisvorteil bringen. Kein Wunder das nVidia da so geizig ist, das AMD so viel verbaut ist eher verwunderlich.
basix
2022-10-25, 13:41:33
Power Electronics sind in der Summe auch nicht zu verachten. Bei zum Teil 20 Phasen auf der Grafikkarte. Kühler kostet sicher auch was, aber verglichen VRAM und GPU sicher deutlich weniger.
GerryB
2022-10-25, 13:51:08
Das RAM tatsächlich so teuer ist erstaunt mich immer wieder, auch wenn man es eigentlich weis. Entscheidungen ob man jetzt 8, 12, 16, 20 oder 24GB RAM verbaut sind richtig wichtig und können einen gewaltigen Preisvorteil bringen. Kein Wunder das nVidia da so geizig ist, das AMD so viel verbaut ist eher verwunderlich.
das liegt am X, welches extra kostet
Nebenbei spart AMD ohne X auch noch W.
amdfanuwe
2022-10-25, 13:58:20
Das PCB wird durch die Anzahl sehr günstig. ...
Dann bleibt noch der Kühler.
Kannst du mal ne Hausnummer für z.B. 3050/6600 und 4090/7950 raushauen?
Also nur Karte, Kühler, Montage, Verpackung, Transport.
Kämen 20$ bei 6600 und 100$ bei 7950 hin? ( hab nur geraten)
Kann man dann rechnen:
GPU Chip + Marge + RAM + OEM Kosten + OEM Marge + Händlermarge + MWST
Also für 6600 etwa
50$ Chip +100%Marge = 100$
100$ GPU + 80$ RAM + 20$ OEM Kosten + 10% OEM Marge = 220$
220$ OEM Preis + 10% Händlermarge = 242$
242$= ~242€ + 19%MWST = 288€ Ladenpreis
Für 6900/6800 etwa
170$ Chip + 100% Marge = 340$
340$ GPU + 160$ RAM + 100$ OEM Kosten + 10% OEM Marge = 660$
660$ OEM Preis + 10% Händlermarge = 726$
726$ = ~726€ + 19%MWST = 864€ Ladenpreis
Nur zur Klarstellung: Ich rate nur rum und hab keine Ahnung wie die Margen real aussehen. Wenn einer bessere Zahlen hat, immer her damit.
Berniyh
2022-10-25, 14:01:45
Man sollte auch nicht vergessen, dass viele andere Faktoren deutlich teurer geworden sind. Der Transport per Container ist z.B. während Corona um einen Faktor 10 angestiegen.
(Und das ist ja noch die günstige Variante, die ersten Karten werden ja sogar per Luftfracht transportiert, was aber auch teurer geworden ist.)
Gipsel
2022-10-25, 14:30:49
Was ich ja wirklich lustig finden würde, wäre die Situation, daß AMD für ein eventuelles Cachestacking auf den MCDs die 64MB VCache-Dies vom Zen3 wiederbenutzt. Die Die-Größen stimmen im Prinzip ja recht gut überein (MCD laut Angstronomics 37,5mm², VCache-Die 36mm²). In dem Fall bräuchte man keinerlei "structural silicon" oder Ähnliches. Den benötigten Takt schaffen die locker und die Bandbreite ist auch hoch genug. Fraglicher Punkt wäre halt die Kontaktierung der SRAM-Blöcke oberhalb der PHYs, die dann eventuell etwas tricky werden dürfte. Aber da kann man sich bestimmt auch irgendwas überlegen (z.B. könnten nicht die kompletten 64MB verfügbar sein oder die Latenz ist durch suboptimales Wiring höher als beim 5800X3D [für GPUs wäre eine etwas höhere Latenz sicher tolerabel]).
fondness
2022-10-25, 14:35:49
Was ich ja wirklich lustig finden würde, wäre die Situation, daß AMD für ein eventuelles Cachestacking auf den MCDs die 64MB VCache-Dies vom Zen3 wiederbenutzt. Die Die-Größen stimmen im Prinzip ja recht gut überein (MCD laut Angstronomics 37,5mm², VCache-Die 36mm²). In dem Fall bräuchte man keinerlei "structural silicon" oder Ähnliches. Den benötigten Takt schaffen die locker und die Bandbreite ist auch hoch genug. Fraglicher Punkt wäre halt die Kontaktierung der SRAM-Blöcke oberhalb der PHYs, die dann eventuell etwas tricky werden dürfte. Aber da kann man sich bestimmt auch irgendwas überlegen (z.B. könnten nicht die kompletten 64MB verfügbar sein oder die Latenz ist durch suboptimales Wiring höher als beim 5800X3D [für GPUs wäre eine etwas höhere Latenz sicher tolerabel]).
Ich denke nach wie vor, dass das eine Ente ist. AMD hat ausdrücklich nur bei MI300 von 3D stacking gesprochen. Bei Navi nur von Multi Chip. Außerdem wären 64 MB pro MCD viel zu viel und das spekulierte 16 MB die viel zu klein.
Gipsel
2022-10-25, 14:46:01
Ich denke nach wie vor, dass das eine Ente ist. AMD hat ausdrücklich nur bei MI300 von 3D stacking gesprochen. Bei Navi nur von Multi Chip. Außerdem wären 64 MB pro MCD viel zu viel und das spekulierte 16 MB die viel zu klein.Schon klar, aber Überraschungen möchte ich nicht völlig ausschließen.
Nehmen wir mal an, daß wegen der geschilderten Kontaktierungsprobleme oberhalb der PHYs nur 48MB von den vorhandenen 64MB angesprochen werden können. Das würde dann schön runde 64MB pro MCD(+VCache) ergeben. Nette Steigerung gegenüber RDNA2.
Aber im Prinzip stimme ich mit Dir überein, daß 16MB pro MCD nach einem ziemlichen Sparangebot aussehen. Angesichts dessen wie dicht AMD den Cache packen kann und von wo man mit RDNA2 kommt, würde ich auch mehr erwarten (sprich keinen Rückschritt). Da muß AMD irgendwo mit der Replacement-Policy zaubern, damit das Sinn ergibt.
why_me
2022-10-25, 15:01:14
Kannst du mal ne Hausnummer für z.B. 3050/6600 und 4090/7950 raushauen?
Also nur Karte, Kühler, Montage, Verpackung, Transport.
Kämen 20$ bei 6600 und 100$ bei 7950 hin? ( hab nur geraten)
Mir ist nicht ganz klar, was du jetzt von mir hören willst. Genaue Zahlen habe ich auch nicht, bin in einer ganz anderen Branche tätig.
Aber gerade PCBs sind mit hoher Stückzahl überraschend günstig. 8 Lagen, 170x250mm bei 10k Stück kosten dann unter 15$/Stk.
Kann man dann rechnen:
GPU Chip + Marge + RAM + OEM Kosten + OEM Marge + Händlermarge + MWST
Da fehlen ein paar dinge. Vorallem die Bauteile, Kühler, Montage etc.
Auch eine Marge von 100% ist sehr hoch, wir reden hier nicht von Apple.
Generell sind die Preise sehr schwer zu schätzen. Durch die schiere Menge an Karten, die Produziert werden, erhalten die AIBs viel bessere Preise. Da sind dann auch ganz schnell 60% Rabatt drin.
Nur mal als bei 10k Grafikkarten wie eine 4090, sind das dann 120k Speicherchips, 230k Spannungswandler, Millionen Kondensatoren, etc. Das sind Stückzahlen, da sind BWLer schon mit Cents Gewinn pro Bauteil zufrieden.
why_me
2022-10-25, 15:12:31
Ich denke nach wie vor, dass das eine Ente ist. AMD hat ausdrücklich nur bei MI300 von 3D stacking gesprochen. Bei Navi nur von Multi Chip. Außerdem wären 64 MB pro MCD viel zu viel und das spekulierte 16 MB die viel zu klein.
Auch wenn ich dir bei der Größe zustimme, die Idee von Gipsel ist aber dennoch interessant.
Die Cache Chiplets von Zen sind ja schon vorhanden. Diese also auch für RDNA3 zu verwenden hätte eigentlich nur Vorteile.
- Kosten können neben Zen auch auf die Grafikkarten umgelegt werden, dadurch bleibt der Cache vergleichsweise günstig
- Auch ein kleinere Cache für RDNA3 bräuchte die gleiche größe fürs stacking, warum also nicht den vohandenen verwenden?
Dass der Cache dann am Ende eventuell zu groß ist... Wobei, gibt es eigentlich einen Cache, der zu groß sein kann?
vinacis_vivids
2022-10-25, 16:20:08
Zu groß eher nicht, nur zu teuer. AMD musst die Margen und diskreten GPU Verkäufe erhöhen. Das ist die größte Herausforderung zurzeit.
Es fehlt an Experten für AMD - GPUs.
amdfanuwe
2022-10-25, 16:43:59
Mir ist nicht ganz klar, was du jetzt von mir hören willst.
Eigentlich nur, ob man mit 20$ - 100$ an Kosten für den OEM ohne RAM und ohne GPU Chip rechnen kann.
Oder könnte das bei einer 4090 noch höher liegen?
100% Marge und mehr ist wohl nur für neue Chips drin.
Normalerweise wird es ja billiger oder im Abverkauf hat man dann gar keine Marge mehr.
Also in der Mischkalkulation über alle Produkte müssen schon ein paar Produkte mit sehr hoher Marge dabei sein.
basix
2022-10-25, 17:17:08
Was ich ja wirklich lustig finden würde, wäre die Situation, daß AMD für ein eventuelles Cachestacking auf den MCDs die 64MB VCache-Dies vom Zen3 wiederbenutzt. Die Die-Größen stimmen im Prinzip ja recht gut überein (MCD laut Angstronomics 37,5mm², VCache-Die 36mm²). In dem Fall bräuchte man keinerlei "structural silicon" oder Ähnliches. Den benötigten Takt schaffen die locker und die Bandbreite ist auch hoch genug. Fraglicher Punkt wäre halt die Kontaktierung der SRAM-Blöcke oberhalb der PHYs, die dann eventuell etwas tricky werden dürfte. Aber da kann man sich bestimmt auch irgendwas überlegen (z.B. könnten nicht die kompletten 64MB verfügbar sein oder die Latenz ist durch suboptimales Wiring höher als beim 5800X3D [für GPUs wäre eine etwas höhere Latenz sicher tolerabel]).
Von der Idee her gut, nur etwas Overkill, nicht? 6x 48...80 MByte pro MCD: 288...480 MByte an Cache. 48...80: V-Cache Salvage ja/nein und ob die MCDs dann effektiv noch 16MB Cache tragen oder nicht. Dazu die wohl doch recht hohen Kosten (wenn MCD = V-Cache, ginge zwar Wafer-on-Wafer 3D_SoIC).
Technisch sicher interessant, aber hinsichtlich Notwendigkeit: Nö. Lovelace kommt auch mit 384bit und 96MByte ganz gut zurecht. Und die Kosten will man nur in die Hand nehmen, wenn auch wirklich notwendig. Deswegen glaube ich nicht, dass da irgendwas auf die MCDs gestacked wird ausser Staub und Wärmeleitpaste ;)
fondness
2022-10-25, 17:39:36
KyleBennett, der schon den DP2.1 für Navi 31 geleaked hat sagt, AMD wird nicht den neuen PCIe connector verwenden
"After the @NVIDIAGeForce melting drama, I have verified through multiple sources that @Radeon Navi 31 ref cards will NOT use the 12VHPWR power adapter, and I could not verify any AIBs using 12VHPWR on N31 either. Picture in case you don't know what a smoked 12VHPWR looks like"
https://twitter.com/KyleBennett/status/1584856217335517186?t=U9pgdpgVNlXyzEDgjJwX-A&s=19
ChaosTM
2022-10-25, 17:50:23
Oh, DP 2.1 wäre schon sehr angenehm. Die 12 Pin Geschichte wird etwas zu sehr aufgebauscht und gilt hauptsächlich für grindig verarbeitete Adapter, oder lieg ich das falsch ?
nordic_pegasus
2022-10-25, 17:50:52
Angstronomics hatte ja bereits vor Wochen geschrieben, dass die Navi31 Referenz-Karte nur 2x8pin haben wird. Igor hatte bei seiner PCB Prognose von 3x8pin bei den AIB Modellen gesprochen.
Ich frage mich nur bei den 50% mehr Performance per Watt, wie AMD hier bei dem Referenz-Design und 2x8pin mehr als Faktor 1,5 rausholen will. Die 6950XT stellt mit einer TDP von 335 Watt ziemlich das Maximum dar, was man offiziell mit 2x8pin machen kann. Eine AMD Referenz-Karte mit 3x8pin kann ich mir irgendwie nicht vorstellen.
unl34shed
2022-10-25, 17:55:41
Scott Herkelman von AMD hat es auch noch mal bestätigt, dass wohl keine RDNA3 Graka den 12pin Stecker nutzen soll.
Edit: Ob er damit allerdings AIBs mit einbezieht oder nur AMDs Refferenzkarten meint?
The Radeon RX 6000 series and upcoming RDNA 3 GPUs will not use this power connector.
Twitter (https://twitter.com/sherkelman/status/1584931430483705859?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1584931 430483705859%7Ctwgr%5Ee923b5a2be694c40afb0c67b7aee48215fe6aa8e%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Famd-rdna-3-speculation-rumours-and-discussion.62092%2Fpage-102)
Edit2: Welche anderen Upcomming RDNA3 Karten könnte er meinen? Titan class?
Wenn die Referenzkarten keine haben, dann auch nicht die Customs. Die orientieren sich ja an AMD und werden da wohl kaum Alleingänge machen.
Gipsel
2022-10-25, 18:01:29
Von der Idee her gut, nur etwas Overkill, nicht? 6x 48...80 MByte pro MCD: 288...480 MByte an Cache. 48...80: V-Cache Salvage ja/nein und ob die MCDs dann effektiv noch 16MB Cache tragen oder nicht. Dazu die wohl doch recht hohen Kosten (wenn MCD = V-Cache, ginge zwar Wafer-on-Wafer 3D_SoIC).
Die VCache-Dies haben fast 100% Yield (vermutlich höher als der Mounting-Yield, SRAM hat üblicherweise integrierte Redundanz), da braucht man kein Salvage nur dafür. Das Beispiel mit den vielleicht verfügbaren 48MB (statt der physisch vorhandenen 64MB) bezog sich auf die Schwierigkeit, die Signale vernünftig zum kompletten SRAM-Arrays zu routen (z.B. insbesondere direkt über dem GDDR6-PHY). Die gestackte Version (MCD-Cache + V-Cache) hätte also dann z.B. immer 64MB für die Kombination (statt der physisch vorhandenen 64MB). Ein Teil des SRAMs würde schlicht nicht genutzt (bei den vergleichsweise geringen Stückzahlen sicher billiger als ein extra Cache-Die nur dafür aufzulegen). Ich würde sogar wetten, selbst wenn nur 32MB vom V-Cache-Die nutzbar wären (also 48MB insgesamt, falls ein MCD tatsächlich nur 16MB enthält), das immer noch günstiger wäre.
Konkret, es gibt Modelle ohne V-Cache (96MB Cache in 6 MCD für das volle 384bit Interface-Modell mit 24GB RAM bzw. 80MB Cache in 5 MCDs für das Salvage-Modell mit 320bit Interface und 20GB RAM) und das eine Enthusiast-Top-Modell mit allen drum und dran (6 MCDs + V-Cache mit dann z.B. 288MB Cache, falls 32MB V-Cache nutzbar oder 384MB Cache, falls 48MB pro V-Cache-Die nutzbar). Nur genau eine V-Cache-Größe wird verfügbar sein. Es gibt ja auch keine Cache-Salvage-Versionen vom 5800X3D oder bei den X-Versionen von Epyc.
Und bezüglich Overkill hat why_me das ja schon gut beantwortet:
Dass der Cache dann am Ende eventuell zu groß ist... Wobei, gibt es eigentlich einen Cache, der zu groß sein kann?Die Hitrate im 128MB Cache von N21 hat AMD bei 4k mit nur gut 60% angegeben. Dies wird zukünftig mit komplexeren Spielen tendentiell eher sinken und heißt umgekehrt auch, daß die cache miss rate dort bei knapp 40% liegt. Das ist für CPU-Verhältnisse noch ziemlich wenig. Die Nötigkeit von extrem großen Caches, um bei GPUs auf akzeptable Hitraten zu kommen, hat ja quasi bis gestern dazu geführt, daß man nur sehr kleine verbaut hat. Die Caches dienten quasi nur zur Bandbreiten-Amplifikation, die Latenz blieb so oder so ziemlich grausam. Dies verschiebt sich allerdings zwar langsam aber stetig. Inzwischen achten auch GPUs etwas mehr auf Latenz, so daß sich die Betrachtungen zum Cache ebenfalls wandeln.
Technisch sicher interessant, aber hinsichtlich Notwendigkeit: Nö. Lovelace kommt auch mit 384bit und 96MByte ganz gut zurecht.Und Ampere kam auch mit nur 6MB Last Level Cache zurecht. Sind die 96MB von AD102 jetzt auch umsonst? Und wenn AMD bei N21 128MB verbaut hat, vielleicht will man jetzt für das Topmodell deutlich höher gehen, um noch weitere Vorteile in bestimmten Situationen rauszuholen?
Und die Kosten will man nur in die Hand nehmen, wenn auch wirklich notwendig. Deswegen glaube ich nicht, dass da irgendwas auf die MCDs gestacked wird ausser Staub und Wärmeleitpaste ;)Vermutlich bekommt ja nur das Top-Modell Cache-Stacks (wenn überhaupt). Dort kann man die hohen Kosten dafür durchaus rechtfertigen, selbst wenn es nur 5-10% Performance bringen sollte.
Gipsel
2022-10-25, 18:02:32
Ich frage mich nur bei den 50% mehr Performance per Watt, wie AMD hier bei dem Referenz-Design und 2x8pin mehr als Faktor 1,5 rausholen will.
>50% war die Angabe von AMD. ;)
Thunder99
2022-10-25, 18:05:07
Wird der neue ATX 3.0 Standard zum Rohrkrepierer?
ChaosTM
2022-10-25, 18:08:11
>50% war die Angabe von AMD. ;)
Lisas Angaben sind meist sogar leichte Understatements. ;)
nordic_pegasus
2022-10-25, 18:09:52
>50% war die Angabe von AMD. ;)
auch wenn ich auf RDNA3 warte und für mich diese Runde kein Nvidia in Betracht kommt, dennoch steige ich noch nicht in den Hype-Train ein. Ich erwarte plus 50% und freue mich über alles darüber hinaus am 3.11.
Wobei Chiplets, PCIe gen5, DP2.1 und ggfs. sogar 3D-Cache nach absoluten HW-P0rn klingen. Wenn AMD dann noch wirklich dem neuen Stromstecker den Mittelfinger zeigt, umso besser. Man muss ja nicht jede Modeerscheinung, welche von Nvidia gepusht wurde, damit die 3090FE einen kleinen Stecker bekommt, mitmachen ;-)
Btw... wenn man auf Zahlen steht, wird ein 7950X3D plus eine 7950XT (oder auch 7900XTX) ziemlich nice.
basix
2022-10-25, 18:20:16
Und bezüglich Overkill hat why_me das ja schon gut beantwortet:
Die Hitrate im 128MB Cache von N21 hat AMD bei 4k mit nur gut 60% angegeben. Dies wird zukünftig mit komplexeren Spielen tendentiell eher sinken und heißt umgekehrt auch, daß die cache miss rate dort bei knapp 40% liegt. Das ist für CPU-Verhältnisse noch ziemlich wenig. Die Nötigkeit von extrem großen Caches, um bei GPUs auf akzeptable Hitraten zu kommen, hat ja quasi bis gestern dazu geführt, daß man nur sehr kleine verbaut hat. Die Caches dienten quasi nur zur Bandbreiten-Amplifikation, die Latenz blieb so oder so ziemlich grausam. Dies verschiebt sich allerdings zwar langsam aber stetig. Inzwischen achten auch GPUs etwas mehr auf Latenz, so daß sich die Betrachtungen zum Cache ebenfalls wandeln.
Overkill bezieht sich nicht darauf, dass mehr Cache nicht gut wäre. Sondern dass P/L-Bewertung nicht unbedingt gut ausfällt, falls die 96 MByte ausreichen.
Und Ampere kam auch mit nur 6MB Last Level Cache zurecht. Sind die 96MB von AD102 jetzt auch umsonst? Und wenn AMD bei N21 128MB verbaut hat, vielleicht will man jetzt für das Topmodell deutlich höher gehen, um noch weitere Vorteile in bestimmten Situationen rauszuholen?
Nichts dergleichen habe ich gesagt ;) Nur scheint die Kombination aus 96MByte LLC und 384bit für die Performance einer RTX 4090 oder gar darüber auszureichen. Deswegen der Punkt, dass dies auch für N31 reichen könnte und man nicht auf 256+ MByte Cache angewiesen ist.
Vermutlich bekommt ja nur das Top-Modell Cache-Stacks (wenn überhaupt). Dort kann man die hohen Kosten dafür durchaus rechtfertigen, selbst wenn es nur 5-10% Performance bringen sollte.
Dennoch zahlst du die zusätzliche Infrastruktur aus TSV für alle N31 und N32 (MCD = Grösser). Ist in der Gesamtkostenrechnung evtl. nur ein paar tiefe einstellige Prozent, aber dennoch vorhanden.
Wenn es +10% kostet und +10% Performance bringt, why not, go for it. Wird aber viel mehr sein als das. Die zusätzlichen Kosten auf den anderen SKUs muss man dann ebenfalls mitberüchsichtigen. Und diese sind aufgrund deren deutlich höheren Stückzahlen eben dann plötzlich viel höher.
Beispiel:
- 10'000 GPUs mit V-Cache +30% Kosten pro Chip (Annahme, da doppelt N6 Silizium-Fläche verbaut wird)
- 1 Mio GPUs ohne V-Cache mit +2% Kosten, da MCDs jeweils ~2-3mm2 grösser werden aufgrund der TSV-Reihen
--> (1 Mio * 2% + 10k * 1.3) / 10k = 3.3x --> Effektive Kosten für das Halo-Produkt
nordic_pegasus
2022-10-25, 18:26:20
Wird der neue ATX 3.0 Standard zum Rohrkrepierer?
ich hatte schon einmal geschrieben, dass ich nicht verstehe, warum man nicht analog zu Profi-Karten anstatt des PCIe-Steckers auf EPS umgestiegen ist. Ein 8pin EPS Stecker hat 4x12V. Man könnte mit 2xEPS mehr Leistung in die Karten liefern als mit einem PCIe gen5 Stecker, wobei beides die gleiche Länge auf dem PCB einnehmen würden.
Die PSU-Hersteller nutzen doch sowieso bei den meisten Modellen für die PCIe und EPS Kabel die gleichen Anschlüsse am Netzteil. Hier hätte man maximal noch ein paar EPS-Kabel als Aufrüstkits auf den Markt schmeissen müssen.
Genau wie der interne USB 3.0 Stecker im Vergleich zum USB 1.1/2.0 Stecker einfach nur schlimm ist. Wie oft hat man schon verbogene 3.0 Stecker gesehen im Vergleich zum 2.0. Manche Specs sind einfach Mist.
Linmoum
2022-10-25, 18:43:25
Scott Herkelman von AMD hat es auch noch mal bestätigt, dass wohl keine RDNA3 Graka den 12pin Stecker nutzen soll.
Edit: Ob er damit allerdings AIBs mit einbezieht oder nur AMDs Refferenzkarten meint?
Twitter (https://twitter.com/sherkelman/status/1584931430483705859?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1584931 430483705859%7Ctwgr%5Ee923b5a2be694c40afb0c67b7aee48215fe6aa8e%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Famd-rdna-3-speculation-rumours-and-discussion.62092%2Fpage-102)
Edit2: Welche anderen Upcomming RDNA3 Karten könnte er meinen? Titan class?"Upcoming RDNA3 GPUs" -> 7000er. So wie RDNA2 die 6000er sind.
Das wird damit für sämtliche AiB und (Referenz)Karten auf Basis von RDNA3 gelten.
unl34shed
2022-10-25, 18:47:37
Ja, hatte ein Aussetzer und irgendwie RX 6000 mit RDNA3 in Verbindung gebracht...
vinacis_vivids
2022-10-25, 19:13:37
Die spekulierten 96MB IF$ für N31 12288SP erscheinen mir anfänglich etwas zu wenig im Vergleich zu 128MB IF$ bei N21 5120SP.
Nach längerer Überlegung dennoch durchaus passend. Warum?
AD102 Salvage 72MB L2$
AD102 Full 96MB L2$
Aus technologischer/technischer Sicht gesehen ist die Skalierung N21->N31 auf 192MB IF$ deutlich besser für höhere Auflösungen, mehr RT, mehr Takt, Energie sparen usw.. Allerdings ist der Markt zu langsam und das Kampffeld ist eher auf 2160p@120-175hz ausgelegt. Da bringen die 192MB IF$ keine (wenig) nennenswerten Vorteile (Grenznutzenkurve) sondern mehr Kostennachteile. Der Unterschied bei der Hitrate 96MB IF$ vs. 192MB IF$ ist bei 2160p einfach zu gering.
Alle Tests sind derzeit mehr oder weniger auf max. 2160p ausgelegt. Nur wenige testen mit 2880p. Der Halo-Effekt beim AMD-WIN ist vermutlich zu gering, weil NV derzeit zuviel das eigene geschlossene Zeugs pusht. Für einen Salvage AD102 zahlen die Leute 2200-2500€, das muss man sich mal auf der Zunge zergehen lassen. Das sind reine Spekulationspreise und überhaupt nicht zu erklären.
Die gleiche/äquivalente Leistung gibs bei AMD vermutlich für ~1500€. Der Markt ist und bleibt irrational.
Wie bei Zen4 vermute ich eher dass AMD auf 3D-stacked IF$ bei RDNA3 in diesem Jahr verzichtet. Die Kunden sind noch gar nicht bereit so hohe Preise für AMD-GPU zu bezahlen wie bei NV-GPU.
AMD muss mit RDNA3 viel viel stärker ins Bewusstsein der Spieler und auch ins Bewusstsein der Unternehmer rücken und sich selbst mehr pushen, vor allem auch im deutschsprachigen Raum. Nicht nur bei den CPUs, sondern auch bei den diskreten GPUs mit der hervorragenden RDNA uArch.
Platos
2022-10-25, 19:23:23
>50% war die Angabe von AMD. ;)
Auf welcher Aussage genau basiert das nochmals?
Neurosphere
2022-10-25, 19:42:35
Man darf bei der Wattfrage und was dabei rum kommt auch nicht vergessen das eine 4090 bei 350 Watt laut luxx Test gerade mal 4% langsamer ist.
Die möglichen 350 Watt für RDNA3 wirken nur wenig, wenn man glaubt daß die 4090 die 450 Watt wirklich benötigt.
Sollte AMD also nur ein paar Prozent effizienter sein reichen auch die 350 Watt um sich behaupten zu können oder gleichwertig zu sein.
ChaosTM
2022-10-25, 19:47:00
Man darf bei der Wattfrage und was dabei rum kommt auch nicht vergessen das eine 4090 bei 350 Watt laut luxx Test gerade mal 4% langsamer ist.
Die möglichen 350 Watt für RDNA3 wirken nur wenig, wenn man glaubt daß die 4090 die 450 Watt wirklich benötigt.
Sollte AMD also nur ein paar Prozent effizienter sein reichen auch die 350 Watt um sich behaupten zu können oder gleichwertig zu sein.
Ist ein ähnliches Problem, das auch ZEN4 hatte. Lieber zu viel als zu wenig Strom, auch wenns so gut wie keinen Sinn macht. ;)
mczak
2022-10-25, 19:49:17
Wird der neue ATX 3.0 Standard zum Rohrkrepierer?
Würde ich nicht annehmen, ist halt wohl einfach noch etwas zu früh für AMD. Wenn man tatsächlich bloss 2x8 Pin braucht ist auch die Notwendigkeit nicht so da unbedingt den neuen Stecker verwenden zu müssen für den man dann in der Praxis sowieso einen Adapter verwendet weil Netzteile mit Unterstützung dafür noch nicht breit verfügbar sind (und wer den PC aufrüstet kauft deswegen eh kein neues Netzteil).
Berniyh
2022-10-25, 19:53:14
Man darf bei der Wattfrage und was dabei rum kommt auch nicht vergessen das eine 4090 bei 350 Watt laut luxx Test gerade mal 4% langsamer ist.
Fast 30% mehr aufgenommene Leistung für 4% mehr Performance?
Sowas macht man doch eigentlich nur, wenn die Kacke wirklich am Dampfen ist?
nordic_pegasus
2022-10-25, 20:01:22
Man darf bei der Wattfrage und was dabei rum kommt auch nicht vergessen das eine 4090 bei 350 Watt laut luxx Test gerade mal 4% langsamer ist.
der Anteil an Usern die selbst Hand anlegen im BIOS / Treiber / Software für OC / UV / Powerlimit ist selbst im DIY Bereich gering. Auf den Gesamtmarkt betrachtet mutmaßlich winzig.
Natürlich ist eine 4090 optimiert deutlich effizienter als die offizielle TDP erscheinen lässt. Aber letztlich haben sich Nvidia und die AIB für die Werte entschieden, darum sollte man auch mit diesen Werten messen und bewerten. Wenn AMD bei Zen4 offiziell nur DDR5-5200 supportet und die TDP auf 170 Watt einstellt, sollte man auch default damit benchen. Gleiches gilt für Raptor Lake und den 13900K mit Temperaturen kurz vor Meltdown.
Das man im zweiten Schritt noch zeigt, wie man das System optimieren kann, steht natürlich jedem Reviewer frei. Gerade bei den aktuellen Strompreisen. Aber warum sollten die Reviewer die Dummheiten der Hersteller kaschieren vor dem Konsumenten? (Aussage gilt neutral für AMD / Intel / Nvidia)
Neurosphere
2022-10-25, 20:11:55
der Anteil an Usern die selbst Hand anlegen im BIOS / Treiber / Software für OC / UV / Powerlimit ist selbst im DIY Bereich gering. Auf den Gesamtmarkt betrachtet mutmaßlich winzig.
Natürlich ist eine 4090 optimiert deutlich effizienter als die offizielle TDP erscheinen lässt. Aber letztlich haben sich Nvidia und die AIB für die Werte entschieden, darum sollte man auch mit diesen Werten messen und bewerten. Wenn AMD bei Zen4 offiziell nur DDR5-5200 supportet und die TDP auf 170 Watt einstellt, sollte man auch default damit benchen. Gleiches gilt für Raptor Lake und den 13900K mit Temperaturen kurz vor Meltdown.
Das man im zweiten Schritt noch zeigt, wie man das System optimieren kann, steht natürlich jedem Reviewer frei. Gerade bei den aktuellen Strompreisen. Aber warum sollten die Reviewer die Dummheiten der Hersteller kaschieren vor dem Konsumenten? (Aussage gilt neutral für AMD / Intel / Nvidia)
Du hast die Aussage meines Posts nicht verstanden. Es geht mir darum das AMD mit 350 Watt konkurrenzfähig sein kann auch wenn das verglichen mit den 450 Watt der 4090 nach "zu wenig" aussieht.
Iscaran
2022-10-25, 20:44:09
Es geht mir darum das AMD mit 350 Watt konkurrenzfähig sein kann auch wenn das verglichen mit den 450 Watt der 4090 nach "zu wenig" aussieht.
An dem Punkt waren wir ja schon vor 20 Seiten oder so - vor allem wenn man die Gerüchte und Aussagen auf die bekannten Daten einer 6900 XT appliziert.
6900 XT@300 W = 348% 4k-Index.
4090 @450 W = 640%
4090 @300 W = 582%
Eine absolut maximal konservativ geschätzte RDNA3 auf Basis der 6900 XT ist dann:
348*1.5 = 522 %
Das ist ein Wert der eigentlich als das absolute MINIMUM betrachtet werden muss, was RDNA 3 leisten kann/wird.
Von 522% sind es gerade mal +23% zu 640% bzw. gerade mal +11% bis zu den 582% die eine 4090 @300W hat.
Und von 300 W kann man locker mal +10% nach oben gehen => wie z.B. der Nach-Release der 6950 XT gezeigt hat (welche ja mit 335 W TDP operiert).
Und damit hat man praktisch das Leistungsniveau der 4090 erreicht - unter absoluten Worst Case annehmen zu allem.
Ist P/W nur "minimal" besser als die abgeschätzten +50% (Stichwort >50% !)
Dann sieht das nochmal ziemlich anders aus.
Und mit 2x8 Pin kann AMD AFAIK eigentlich bis 375 W TDP gehen...
Nur mal so am Rande erwähnt. Und ich denke, WENN AMD diesmal so nah dran ist, dann werden wir ein Halo-Produkt sehen, was >300 W hat (375 W?).
Nicht ohne "Grund" hat nVidia die default TDP der 4090er Serie ja schliesslich auf 450 W gesetzt, OBWOHL diese +50% TDP (gegenüber 300 W) nur 10% Leistung bringen.
Und nicht ohne Grund versucht nVidia auf biegen und brechen völlig neue TDP-Klassen bei den Board-Partnern durchzuboxen. Schmelzende Stecker und Kabel hin oder her...
https://twitter.com/KyleBennett/status/1584856217335517186?t=U9pgdpgVNlXyzEDgjJwX-A&s=19
OgrEGT
2022-10-25, 20:44:32
Auf welcher Aussage genau basiert das nochmals?
Das wurde offiziell auf dem letzten Financial Analyst Day von AMD kommuniziert (David Wang)
https://www.planet3dnow.de/cms/65472-amd-financial-analyst-day-2022-alle-praesentationen/4/
https://www.planet3dnow.de/cms/wp-content/gallery/amd-financial-analyst-day-2022-david-wang/AMD_Financial_Analyst_Day_2022_DavidWang_08.png
Neurosphere
2022-10-25, 21:01:16
An dem Punkt waren wir ja schon vor 20 Seiten oder so - vor allem wenn man die Gerüchte und Aussagen auf die bekannten Daten einer 6900 XT appliziert.
6900 XT@300 W = 348% 4k-Index.
4090 @450 W = 640%
4090 @300 W = 582%
Eine absolut maximal konservativ geschätzte RDNA3 auf Basis der 6900 XT ist dann:
348*1.5 = 522 %
Das ist ein Wert der eigentlich als das absolute MINIMUM betrachtet werden muss, was RDNA 3 leisten kann/wird.
Von 522% sind es gerade mal +23% zu 640% bzw. gerade mal +11% bis zu den 582% die eine 4090 @300W hat.
Und von 300 W kann man locker mal +10% nach oben gehen => wie z.B. der Nach-Release der 6950 XT gezeigt hat (welche ja mit 335 W TDP operiert).
Und damit hat man praktisch das Leistungsniveau der 4090 erreicht - unter absoluten Worst Case annehmen zu allem.
Ist P/W nur "minimal" besser als die abgeschätzten +50% (Stichwort >50% !)
Dann sieht das nochmal ziemlich anders aus.
Und mit 2x8 Pin kann AMD AFAIK eigentlich bis 375 W TDP gehen...
Nur mal so am Rande erwähnt. Und ich denke, WENN AMD diesmal so nah dran ist, dann werden wir ein Halo-Produkt sehen, was >300 W hat (375 W?).
Nicht ohne "Grund" hat nVidia die default TDP der 4090er Serie ja schliesslich auf 450 W gesetzt, OBWOHL diese +50% TDP (gegenüber 300 W) nur 10% Leistung bringen.
Und nicht ohne Grund versucht nVidia auf biegen und brechen völlig neue TDP-Klassen bei den Board-Partnern durchzuboxen. Schmelzende Stecker und Kabel hin oder her...
https://twitter.com/KyleBennett/status/1584856217335517186?t=U9pgdpgVNlXyzEDgjJwX-A&s=19
Auf 375 Watt mit 2*8 Pin wird man nicht gehen. Realistischer sind da 350-360 Watt max um nicht zu viel über den PCIe zu bekommen.
Die Frage ist ob man nicht evtl doch, zumindest für die XTX oder wie das Ding nun heißen mag, auf 3*8 Pin geht. Mit 400 Watt und vergleichbarer Leistung hätte man die 4090 kassiert, sofern die Leistung halbwegs mit der Leistungsaufnahme skaliert und man die +50% halten kann.
Piefkee
2022-10-25, 21:11:01
https://twitter.com/sherkelman/status/1584931430483705859?s=20&t=PT4-1iodyYq3cQR8mYrFWw
Offiziel Navi3X nutzt keinen 12V ATX5.0
ChaosTM
2022-10-25, 21:13:13
Wenn 2x 8 Pin reicht um zumindest in die Nähe zu kommen, wäre das schon grandios.
Den Brettpartnern kann man einen 3. nicht verbieten..
Neurosphere
2022-10-25, 21:19:40
Generell, um die 4090 zu schlagen darf sie halt bei 350 Watt, oder wieviel letzten Endes anliegt nicht schlechter Performer als die 4090 oder muss besser skalieren mit mehr Watt.
Andernfalls bringt es auch nichts wenn die Partner ihr 3 Anschlüsse geben.
nordic_pegasus
2022-10-25, 21:34:25
Auf 375 Watt mit 2*8 Pin wird man nicht gehen. Realistischer sind da 350-360 Watt max um nicht zu viel über den PCIe zu bekommen.
Igor predigt immer, dass die ATX Spec nur 5,5 Ampere am PCIe Slot erlaubt, das macht 66 Watt. Aber auch diese sollte man nicht ausreizen.
Darum sind die 335Watt der 6950XT @ 2x8pin schon recht nahe an der Schmerzgrenze. Natürlich könnte ein 8pin PCIe Anschluss deutlich mehr als die offiziellen 150 Watt.
Lehdro
2022-10-25, 21:55:20
Natürlich könnte ein 8pin PCIe Anschluss deutlich mehr als die offiziellen 150 Watt.
Das Ding hat immerhin selbst bei größter Misshandlung eine Sicherheitsmarge von der der 12VHPWR nur träumen kann. Wurde damals doch schon getestet, selbst 100% Überlast sind maximal für das Netzteil ein Problem. (https://www.youtube.com/watch?v=LQZa-FsvlOo)
Lieber mehr Saft als spezifiziert über den unkaputtbaren normalo 8 Pin als innerhalb der Spec mit einem 600W Schrottstecker der trotzdem in Flammen aufgeht.
why_me
2022-10-25, 22:09:20
Eigentlich nur, ob man mit 20$ - 100$ an Kosten für den OEM ohne RAM und ohne GPU Chip rechnen kann.
Oder könnte das bei einer 4090 noch höher liegen?
Achso hast du das gemeint. Puh das ist wirklich schwer zu sagen. Als Hausnummer würde ich die 20$ als zu wenig einschätzen, da ja die DP/HDMI Stecker und der Stromstecker immer vorhanden sein muss.
Würde da eher 40$-100$ schätzen. Ist aber auch nur ein Bauchgefühl. Wie gesagt, die bekommen da Mengenrabatte, da ist es verdammt schwer das abzuschätzen.
TheGood
2022-10-25, 22:45:13
JA das wird eine spannende Vorstellung nächste Woche :)
Denke AMD wird sich mit der 4090 messen können und die ganz Diskussion ums Thema Effizienz und es dort bei AMD keine so großen Fortschritte mehr gibt, ist schon ziemlich die Augen vor der realität zu verschließen. AMD macht seit RDNA nichts anderes bei jeder neuen GPUs Architektur und führen das mit RDNA3 konsequent weiter, ggf. sogar auf die Spitze.
Das passt auch gut zu den ganzen Konsolendesigns, da steht dies auch an oberster Stelle.
Spannend wird sein, ob sie damit die 4090 erreichen, übertrumpfen oder nicht nur nahekommen.
Ich erwarte mindestens einen Gleichstand, welchen Sie dank Fokus auf Effizienz (nicht nur perf/Watt) auch hinbekommen werden. Zumindest im Raster. Bei RT werden sie vermutlich deutlich zurückliegen. Trotzdem sollte es für Global Illumination locker ausreichen. Man sieht ja jetzt schon, dass das bei weitem nicht so viel RT performance frisst wie die Showcase spiegelungen, welche selten viel sichtbaren Mehrwert in der Grafik bringen. Siehe auch Lumen und Nanite. (Ausnahmen bestätigen die Regel)
ChaosTM
2022-10-25, 22:50:08
Man wird mit 300-350 Watt sehr nahe herankommen bezüglich classic rasterization, und bei heavy RTRT sachen immer noch mindesten 20-40% zurück liegen.
Dank DP2.1 trotzdem ein No-Brainer für mich.
Nazar
2022-10-25, 23:37:07
Wenn es die Bandbreite wäre, hätte die 4080 12GB nicht eine so viel schlechtere Performance wie die relativ ähnliche 3090Ti. Und hier sollte ja eigentlich der L2 noch helfen, außer Nvidia hat ein Problem und muss den riesen Cache zu oft flushen?
Ist aber OT hier.
Wenn die CPU der einzige limitierende Faktor wäre, dann würde die Leistung so wie in den MSFS2020 aussehen. Alle nVidia-GPUs auf demselben Leistungsniveau.
Ich vermute eher, dass es nVidia nicht so gut mit dem Cache als Bandbreitenstrecker hinbekommen hat wie AMD. nVidia schafft es nicht, die Leistung der vielen Rechenknechte alle gleichzeitig auf die Bahn bringen zu können.
Es kommt mir auch so vor, als ob die Abstände in den gezeigten nVidia Benchmarks sehr genau mit den Bandbreiten der einzelnen GPU-Serien skalieren.
Die Erklärung, dass trotz vieler Multicoretitel die Leistung der GPUs allesamt in ein CPU-Limit laufen sollen, scheint mir ein bisschen weit hergeholt (zu einfach ;)).
unl34shed
2022-10-25, 23:57:07
falscher Quote? ich hab nichts zu CPUs geschrieben...
Nazar
2022-10-26, 00:08:48
falscher Quote? ich hab nichts zu CPUs geschrieben...
Nein, war schon richtig. Ich wollte nur deinen Gedanken aufgreifen und weiter fortführen. Kam wohl nicht so rüber. ;)
vinacis_vivids
2022-10-26, 02:33:32
Ich vermute eher, dass es nVidia nicht so gut mit dem Cache als Bandbreitenstrecker hinbekommen hat wie AMD. nVidia schafft es nicht, die Leistung der vielen Rechenknechte alle gleichzeitig auf die Bahn bringen zu können.
Es kommt mir auch so vor, als ob die Abstände in den gezeigten nVidia Benchmarks sehr genau mit den Bandbreiten der einzelnen GPU-Serien skalieren.
Die Erklärung, dass trotz vieler Multicoretitel die Leistung der GPUs allesamt in ein CPU-Limit laufen sollen, scheint mir ein bisschen weit hergeholt (zu einfach ;)).
Was IF$ + fp16 (FSR) + hohe Taktraten angeht ist RDNA2 bereits an der Spitze. N21 hat deutlich mehr (und einen besseren) Cache als AD102 Salvage.
https://de.gamegpu.com/Aktion-/-fps-/-tps/Call-of-Duty-Modern-Warfare-2-Grafikkarte-testen
https://abload.de/img/2022-10-2602_07_33-cax5ey1.png
Von N10XT 2560SP zu N21XT 5120SP sehen wir eine ~100% , also perfekte Skalierung. Hier sind doppelte Shader = doppelte Leistung.
Bei dieser Konfiguration ist es gut möglich, dass N33XT schneller ist als AD102 Salvage.
DrFreaK666
2022-10-26, 03:19:33
cool, in 1080p mit FSR. Dafür ist die 7900XT bestimmt auch gedacht
Badesalz
2022-10-26, 08:01:47
Das ist hier manchmal alles so unnötig schwierig... Soll der N33XT denn in eine 7900XT werden?
Igor predigt immer, dass die ATX Spec nur 5,5 Ampere am PCIe Slot erlaubt, das macht 66 Watt. Aber auch diese sollte man nicht ausreizen.
Darum sind die 335Watt der 6950XT @ 2x8pin schon recht nahe an der Schmerzgrenze. Natürlich könnte ein 8pin PCIe Anschluss deutlich mehr als die offiziellen 150 Watt.
Der Port liefert 12V, 3,3V und 5V. 5,5A kommen über 12V,nur das greift die Grafikkarte ab, das war auch der Skandal damals, dass dir 480 Referenz 6,5A zog. Kein Hersteller wird heute mehr als 50W aus dem PEG ziehen.
Badesalz
2022-10-26, 09:14:47
Ja. Viele Beileser hat es verwirrt, daß die "75W" eigentlich aus 66W 12V und max. 9.9W 3.3V bestehen ;) Daß sich das nicht so sauber summieren lässt :tongue: war der Fingerzeig, daß man da mit einer +- Auslegung lieber 65W ziehen soltle als 67W.
Allerdings, und andererseits, sah ich seit PCIe2.0 niemals Desktopboards und auch keine Netzteil(schienen), wo 70W aus dem PEG auch nach 50 Jahren irgendein Problem sein müsste. Eher stirbt das aus 10 anderen Gründen als deswegen.
Ich weiß nicht was der Wallossek da SO empfindlich ist. Echt nicht. Ohne Frage aber waren und sind die 6.5A schon klar zu viel. Sowas muss nicht sein. Wird aber auch imho nicht wiederkommen :wink: Trotzdem, daß die Leute da immer mal draufschauen: TOP :up: Fortlaufende, ständige QS ist immer der Idealfall =)
BIS max. 70W sehe ich da aber wie gesagt noch keinen Spielraum für Krokodilstränen... Niemand steckt eine fette Graka auf irgendwelche µATX halb-embedded Boards.
edit:
PCIe 1.0 kommt! :D
"Darüber hinaus verfügt PCI Express mit der Skalierbarkeit der Busbreite bis x32 und der Möglichkeit, die Taktfrequenz weiter zu erhöhen, noch über ausreichendes Entwicklungspotenzial. Allerdings steht die Notwendigkeit der höheren Busgeschwindigkeit infolge wachsenden Grafikspeichers in Frage. Aktuell schöpfen nur wenige Profianwendungen die volle Performance von AGP 8x aus."
https://www.channelpartner.de/a/agp-ausgereizt-der-naechste-standard-heisst-pci-express,630569
Gipsel
2022-10-26, 10:30:15
Overkill bezieht sich nicht darauf, dass mehr Cache nicht gut wäre. Sondern dass P/L-Bewertung nicht unbedingt gut ausfällt, falls die 96 MByte ausreichen.Die Gerüchte sprechen davon, daß nur das oberste Enthusiast-Modell die Cache-Stacks bekommen soll. Dort rechtfertigen +10% Performance auch mal schnell einen +40% Preisaufschlag oder so (zumindest scheint der Markt das herzugeben).
Nichts dergleichen habe ich gesagt ;) Nur scheint die Kombination aus 96MByte LLC und 384bit für die Performance einer RTX 4090 oder gar darüber auszureichen. Deswegen der Punkt, dass dies auch für N31 reichen könnte und man nicht auf 256+ MByte Cache angewiesen ist.Falls N31 auf eine Verdopplung der (Raster-)Performance abzielt, muß man doch eventuell irgendwie abfangen, daß sich die Speicherbandbreite nicht verdoppelt, oder? Für das zweithöchste Modell mögen ja durch interne Verbesserungen 96MB Cache ausreichen, aber falls man für einen überschaubaren Aufwand daß mal glatt verdrei- oder vervierfachen kann (und damit z.B. 10% mehr Leistung rausholt), warum nicht? Was das bringen kann, zeigt doch z.B. der 5800X3D. ;)
Dennoch zahlst du die zusätzliche Infrastruktur aus TSV für alle N31 und N32 (MCD = Grösser). Ist in der Gesamtkostenrechnung evtl. nur ein paar tiefe einstellige Prozent, aber dennoch vorhanden.Nein. Bei Zen2 und Zen3 zahlt man ja auch nicht überall für das Abdünnen der Dies und die TSVs mit. Die werden bei den für die normalen Modelle vorgesehenen Dies (bei Zen2 [die ja ebenso die Kontakte für ein gestacktes Cache-Die besitzen!] sind das alle) nämlich schlicht erst mal gar nicht nicht geätzt (und das Abdünnen spart man sich natürlich auch [und ohne Abdünnen gibt es auch kein Ätzen der TSVs]). Die Mehrkosten belaufen sich also lediglich auf das Design selber (einmalige Kosten, vermutlich überschaubar, siehe der CPU-Sparte) und die minimale Fläche für die Kontakte, die man mehr benötigt (das sind Bruchteile eines mm² für alle zusammen, die man aufgrund von Randbedingungen beim Layout eventuell sowieso nicht anderweitig hätte nutzen können [die meisten Dies haben ein wenig ungenutzte Fläche irgendwo]). Aber wenn man nicht stackt, dann fallen natürlich auch keine Kosten für das Abdünnen, das Ätzen der TSVs und die Montage der Cache-Stacks an.
Wenn es +10% kostet und +10% Performance bringt, why not, go for it.Im absoluten High-End wird die Preis-Leistungskurve stark nichtlinear.
Wird aber viel mehr sein als das. Die zusätzlichen Kosten auf den anderen SKUs muss man dann ebenfalls mitberüchsichtigen.Diese Kosten sind quasi vernachlässigbar (siehe Zen3).
davidzo
2022-10-26, 10:34:05
Das Ding hat immerhin selbst bei größter Misshandlung eine Sicherheitsmarge von der der 12VHPWR nur träumen kann. Wurde damals doch schon getestet, selbst 100% Überlast sind maximal für das Netzteil ein Problem. (https://www.youtube.com/watch?v=LQZa-FsvlOo)
Lieber mehr Saft als spezifiziert über den unkaputtbaren normalo 8 Pin als innerhalb der Spec mit einem 600W Schrottstecker der trotzdem in Flammen aufgeht.
Eben. Die Offensichtliche Lösung wäre gewesen einen neuen 12Pin oder 16Pin Stecker auf Molex Mini Fit Basis (RM 4.2mm) zu bauen anstatt der miniaturisierten Micro Fit (RM 3.0). Der Bisherige 8Pin PCIe Stecker hat eh nur 3x Stromführende +12V pins (+5x GND), ein neuer 12Pin Stecker könnte das mal eben verdoppeln. Einfach eine neue Codierung um zu verhindern dass man alte 6/8Pin PCIe Stecker einsetzt.
Direkt auf 16Pin zu gehen würde 600W+ so auch bei dünnem AWG20 Kabel und verzinnten Crimp-Kontakten noch vertragen.
ATX 3.1 incoming?
vinacis_vivids
2022-10-26, 11:33:38
cool, in 1080p mit FSR. Dafür ist die 7900XT bestimmt auch gedacht
2160p +FSR/DLSS
https://abload.de/img/2022-10-2611_25_42-unogcb4.png
Das Sub-Mem System ist bei RDNA2 mehrere Generationen besser als bei NV Ada. Die Tflops (fp32/fp16=mixed precision) kommen bei RDNA2 so richtig richtig geil auf die Straße.
Hier ist der Abstand gerade mal ~25% von RTX4090 zu 6900XT
NV bewirbt zunehmend mit DLSS. Auch die 7900XT wird bei manchen Fällen auf FSR zurück greifen müssen.
Badesalz
2022-10-26, 12:23:29
Ich sehe das ehrlich gesagt nicht so. Die 2x 8pol waren der natürliche Schutz vor Irrsinn im heimischen Desktop.
Wenn man (real) beim Consumer mehr als 70W-150W+150W braucht, dann hat man den Herstellungsprozess vergewaltigt. Seiht man ja am Kühler der 4090. Eine Karte wo man auch erst schauen muss, ob man das in den BigTower reinbekommt. Ehrlich... Das ist aber soweit egal, weil das eh so ein Produkt ist wie für einen Autofahrer weder ein Lambo noch ein McLaren, sondern ein Bugatti. Unwirklich und fern der allermeisten Realität :rolleyes:
Daher hat es mich doch schon gewundert wieviel Einfluss NV hat und diese Absurdität gleich zu einer neuen ATX-Spezifikation führte. Echt ein Hammer.Mach mal neuen ATX. Wir brauchen mehr Watt aus der Leitung.
4x 10GbE Karten gab es auch solange nicht bis man es endlich auf ganz knapp unter 23.7W typisch und ganz knapp unter 29W unter kurzen worst case peaks drücken konnte :rolleyes:
DrFreaK666
2022-10-26, 12:32:47
2160p +FSR/DLSS
https://abload.de/img/2022-10-2611_25_42-unogcb4.png
Das Sub-Mem System ist bei RDNA2 mehrere Generationen besser als bei NV Ada. Die Tflops (fp32/fp16=mixed precision) kommen bei RDNA2 so richtig richtig geil auf die Straße.
Hier ist der Abstand gerade mal ~25% von RTX4090 zu 6900XT
NV bewirbt zunehmend mit DLSS. Auch die 7900XT wird bei manchen Fällen auf FSR zurück greifen müssen.
Du hast hier "aus Versehen" ein anderes Spiel genommen.
https://abload.de/img/mw2k6dcu.jpg (https://abload.de/image.php?img=mw2k6dcu.jpg)
basix
2022-10-26, 12:55:57
Falls N31 auf eine Verdopplung der (Raster-)Performance abzielt, muß man doch eventuell irgendwie abfangen, daß sich die Speicherbandbreite nicht verdoppelt, oder? Für das zweithöchste Modell mögen ja durch interne Verbesserungen 96MB Cache ausreichen, aber falls man für einen überschaubaren Aufwand daß mal glatt verdrei- oder vervierfachen kann (und damit z.B. 10% mehr Leistung rausholt), warum nicht? Was das bringen kann, zeigt doch z.B. der 5800X3D. ;)
Nochmals: Ich sage nicht, dass es nichts nützt. Ich hinterfrage nur die Kosten/Nutzen Rechnung von stacked Cache. Zumindest zum jetzigen Zeitpunkt. Langfristig wird man vermutlich sowieso auf solche Modell wechseln, steht aber immer in Konkurrenz mit einem grösseren MCD: 32MByte vs. 16 MByte + V-Cache. Und dann noch die Frage, wie sich die Anzahl MCDs ins Portfolio integrieren hinsichtlich Speichermenge und VRAM-Bandbreite. Wenn man bei 128...384bit und 8...24 GByte bleiben will, machen irgendwann einfach auch grössere MCDs sinn. Weil ja der gesamte Produktstack nach oben skaliert werden will und nicht nur die High-End SKUs (-> in Richtung RDNA4). Und ich noch nicht überzeugt, dass ein grösseres MCD teurer wäre als kleines MCD + V-Cache.
Nein. Bei Zen2 und Zen3 zahlt man ja auch nicht überall für das Abdünnen der Dies und die TSVs mit. Die werden bei den für die normalen Modelle vorgesehenen Dies (bei Zen2 [die ja ebenso die Kontakte für ein gestacktes Cache-Die besitzen!] sind das alle) nämlich schlicht erst mal gar nicht nicht geätzt (und das Abdünnen spart man sich natürlich auch [und ohne Abdünnen gibt es auch kein Ätzen der TSVs]). Die Mehrkosten belaufen sich also lediglich auf das Design selber (einmalige Kosten, vermutlich überschaubar, siehe der CPU-Sparte) und die minimale Fläche für die Kontakte, die man mehr benötigt (das sind Bruchteile eines mm² für alle zusammen, die man aufgrund von Randbedingungen beim Layout eventuell sowieso nicht anderweitig hätte nutzen können [die meisten Dies haben ein wenig ungenutzte Fläche irgendwo]). Aber wenn man nicht stackt, dann fallen natürlich auch keine Kosten für das Abdünnen, das Ätzen der TSVs und die Montage der Cache-Stacks an.
Wo habe ich was zu Kosten für Abschleifen etc. was gesagt? Ich habe nur die vergrösserte Silizium-Fläche miteinbezogen. Die steigt nämlich bei allen MCDs aufgrund der TSVs ;) Auch bei denen, die kein Stacked Cache verwenden.
Die 2mm2, welche ich abgeschätzt hatte, sind aber etwas zu grosszügig gewesen. Sind anhand dieser Werte ~0.8mm2 für das Zen 3 CCD:
https://ascii.jp/elem/000/004/080/4080992/2/
Und dass diese Fläche sonst nicht verwendet werden könne und die Die Size damit nicht oder fast nicht ansteigt, ist eine schwere Speku von dir und kein Fakt ;)
Diese Kosten sind quasi vernachlässigbar (siehe Zen3).
Auf die entsprechenden High-End SKUs umgelegt sind die Kosten signifikant. Falls man es übers ganze Portfolio verstreicht ist es ebenfalls nicht nichts. 1-2% Kostenerhöhung mögen "vernachlässigbar" erscheinen, geht aber alles zulasten der Marge. AMD will Geld verdienen und nicht uns was schenken.
Und das alles ändert nichts an der zugrundeliegenden Aussage, dass die Gesamtkosten steigen. Klar, jetzt kann man sagen, dass man das mit V-Cache bei Zen 3 auch macht. Ändert aber immer noch nichts: Es ist teurer. Bei Zen gibt es neben "Spiele-König" noch Server und das Ramping-Up der Technologie für HVM. Da gab es also noch andere Gründe dafür. Hinsichtlich Amortisation der Kosten: Wenn man 2% höhere Kosten hat, aber >3% Umsatz mit den Spezial SKUs scheffelt, macht es langsam Sinn.
Jetzt die Frage: Ist das dann auch bei den dGPUs so? Machen die paar wenigen Spezial-SKUs obenraus wirklich so viel Umsatz aus?
Und nochmals die Frage: 96 MByte könnten reichen und evtl. ist die Leistungssteigerung mit V-Cache ~0. Die RTX 4090 hat 72MByte und ist bereits sehr schnell. Nützt AD102 die vollen 96MByte? Wissen wir noch nicht. N31 sollte aber mindestens ebenfalls 96MByte aufweisen. Nützt ein noch grösserer IF$ der grössten N31 Karte? Wissen wir nicht.
Berniyh
2022-10-26, 13:12:30
Nochmals: Ich sage nicht, dass es nichts nützt. Ich hinterfrage nur die Kosten/Nutzen Rechnung von stacked Cache.
Es ist ja auch nicht zu erwarten, dass AMD das für Volumenmodelle umsetzt.
Wenn überhaupt, dann wird es ein Halo Modell und davon werden eh nicht mehr als eine Handvoll verkauft.
So in etwa wie die Fury oder Radeon VII damals.
Könnte mir daher auch vorstellen, dass man mit so einem Modell bis zur CES wartet.
vinacis_vivids
2022-10-26, 13:13:32
Du hast beim hier "aus Versehen" ein anderes Spiel genommen.
https://abload.de/img/mw2k6dcu.jpg (https://abload.de/image.php?img=mw2k6dcu.jpg)
Nein kein Versehen. Guck dir mal die uArch Skalierung an:
Navi10XT zu N21XTX: 30fps -> 70fps (+233%) :D
Die extrem potenten 5120SP von N21 hauen mehr als doppelt rein als die 2560SP von N10.
GA102 Sal. zu AD102 Sal. : 60fps -> 108fps (+180%)
Skalierungsansatz:
N21XTX zu N31XT: 70fps -> 126fps (+180%)
N21XTX zu N31XT: 70fps -> 161fps (+233%)
Selbst bei einer relativ moderaten Skalierung unter 2X ist die 7900XT deutlich schneller als RXT4090 :D
Linmoum
2022-10-26, 13:15:32
Ich habe da einen Hinweis für dich: Fängt mit CPU an und hört mit Limit auf. Erkennt man eigentlich offensichtlich.
aufkrawall
2022-10-26, 13:16:56
Ich habe da einen Hinweis für dich: Fängt mit CPU an und hört mit Limit auf. Erkennt man eigentlich offensichtlich.
Er hat leider seine eigene Schwurbler-Definition von CPU-Limit.
basix
2022-10-26, 13:18:23
Es ist ja auch nicht zu erwarten, dass AMD das für Volumenmodelle umsetzt.
Wenn überhaupt, dann wird es ein Halo Modell und davon werden eh nicht mehr als eine Handvoll verkauft.
So in etwa wie die Fury oder Radeon VII damals.
Könnte mir daher auch vorstellen, dass man mit so einem Modell bis zur CES wartet.
Wir wissen gar nicht, ob zusätzlicher Cache überhaupt was bringt. Das ist meine Hypothese.
Und hinsichtlich Kosten ist das Halo-Produkt egal. Es geht darum, dass aufgrund V-Cache die Kosten aller GPUs mit MCDs steigen würden. Dann sind die Stückzahlen dann schlagartig viel grösser und 1-2% Kostenanstieg macht dann absolut gesehen auch viel mehr aus.
KodeX
2022-10-26, 13:18:45
Nein kein Versehen. Guck dir mal die uArch Skalierung an:
Navi10XT zu N21XTX: 30fps -> 70fps (+233%) :D
Die extrem potenten 5120SP von N21 hauen mehr als doppelt rein als die 2560SP von N10.
GA102 Sal. zu AD102 Sal. : 60fps -> 108fps (+180%)
Skalierungsansatz:
N21XTX zu N31XT: 70fps -> 126fps (+180%)
N21XTX zu N31XT: 70fps -> 161fps (+233%)
Selbst bei einer relativ moderaten Skalierung unter 2X ist die 7900XT deutlich schneller als RXT4090 :D
Du meinst sicherlich +133 bzw. +80 Prozent. ;-)
vinacis_vivids
2022-10-26, 13:21:43
Ich habe da einen Hinweis für dich: Fängt mit CPU an und hört mit Limit auf. Erkennt man eigentlich offensichtlich.
Ist schon hier berücksichtigt mit 720p FSR/DLSS fp16-Rendering, welches bei 246fps liegt und nicht bei 108fps :-D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13149378&postcount=4896
Das CPU Limit liegt bei ~246fps und ihr Laien kommt mir bei 2160p@108fps mit CPU-Limit. HAHAHAH.
robbitop
2022-10-26, 13:33:01
FSR macht vieles mit FP32. Bei DLSS ist vor allem das NN in 16 bit (was aber keine Rolle spielt) und das ganze Sampling ist natürlich in voller Genauigkeit.
Berniyh
2022-10-26, 13:55:30
Wir wissen gar nicht, ob zusätzlicher Cache überhaupt was bringt. Das ist meine Hypothese.
Ein bisschen was wird es auf jeden Fall bringen. Ob es das wert ist ist eine andere Frage.
Es geht darum, dass aufgrund V-Cache die Kosten aller GPUs mit MCDs steigen würden. Dann sind die Stückzahlen dann schlagartig viel grösser und 1-2% Kostenanstieg macht dann absolut gesehen auch viel mehr aus.
Der Effekt scheint aber nicht so groß zu sein, sonst hätte man es ja auch nicht bei Zen 3 umgesetzt.
Gipsel
2022-10-26, 14:18:41
Nochmals: Ich sage nicht, dass es nichts nützt. Ich hinterfrage nur die Kosten/Nutzen Rechnung von stacked Cache. Zumindest zum jetzigen Zeitpunkt. Langfristig wird man vermutlich sowieso auf solche Modell wechseln, steht aber immer in Konkurrenz mit einem grösseren MCD: 32MByte vs. 16 MByte + V-Cache.Und im Vergleich zu einem größeren MCD (mit deutlichen Mehrkosten pro MCD) gewinnt die optional gestackte Variante eben in Anbetracht der Flexibilität (nur bestimmte High-End-Modelle bekomen die Stacks) und auch der Kosten (MCDs für die kleineren Modelle mit hohen Stückzahlen sind billiger). Es gibt eben ein Fenster (man wird sehen, ob AMD sich in diesem sieht), wo das in der Gesamtbetrachtung quasi zwangsläufig die günstigste Variante sein wird.
Und dann noch die Frage, wie sich die Anzahl MCDs ins Portfolio integrieren hinsichtlich Speichermenge und VRAM-Bandbreite. Wenn man bei 128...384bit und 8...24 GByte bleiben will, machen irgendwann einfach auch grössere MCDs sinn. Weil ja der gesamte Produktstack nach oben skaliert werden will und nicht nur die High-End SKUs (-> in Richtung RDNA4). Und ich noch nicht überzeugt, dass ein grösseres MCD teurer wäre als kleines MCD + V-Cache.Hmm, sehe das Problem nicht.
Man skaliert MCDs mit Speicherinterfacebreite, wie man das quasi auch bisher machte (der LLC war bisher auch schon immer am Speicherinterface aligned). Ein oder vielleicht zwei Topmodelle (die üblicherweise überproportional teuer verkauft werden) erhalten dann eventuell die Cache-Stacks noch obendrauf, um die Performance per Verdrei- oder Vervierfachung der Cachgröße (insbesondere in hohen Auflösung) noch mal zu boosten. Die Mehrkosten für die Modelle mit Cache-Stacks sind dann natürlich deutlich. Aber das ist für ein Halo-Produkt auch nichts Ungewöhnliches und kann sich durchaus rentieren. Selbst wenn man die Mehrkosten nur direkt weitergibt (also sogar eine geringere Marge akzeptieren würde), kann sich das wegen dem Imagegewinn lohnen. Die geringen Stückzahlen würden es allerdings nahelegen, daß man die Cache-Dies auch gerne woanders benutzen würde (wenn es nicht die Zen3 V-Cache-Dies sind, dann eventuell die von Zen4?).
Die bei der potentiellen Stacking-Variante bei allen MCDs anfallenden Mehrkosten wäre dagegen sehr überschaubar. Das kostet (wenn man Deine Zahlen zu den Zen V-Cache-Dies annimmt [TSMC bietet inzwischen noch dichtere Lösungen an] und weiterhin, daß sich davon nichts durch kleineren natürlichen Verschnitt des Layouts ausgleichen läßt) ~2% zusätzliche Fläche für die MCDs, was in weniger als das Mehrkosten für die MCD-Dies ausmacht. Von den Die-Gesamtkosten (inklusive GCD) liegt man dann bei <0,5%, für die Gesamtkosten der Karte dann also wohl eher bei <0,2% Overhead. Da sind wir also vielleicht bei zweistelligen Cent-Beträgen. Wie gesagt lohnt sich da auch der Blick in den CPU-Bereich. Alle Zen2 und Zen3 CPUs haben diese Kontaktpads ohne das AMD in Mehrkosten ertrinkt.
Wo habe ich was zu Kosten für Abschleifen etc. was gesagt? Ich habe nur die vergrösserte Silizium-Fläche miteinbezogen. Die steigt nämlich bei allen MCDs aufgrund der TSVs ;) Auch bei denen, die kein Stacked Cache verwenden.Ohne das Abschleifen und Ätzen gibt es aber schlicht keine TSVs (das sind die geätzten und dann mit Metall aufgefüllten Löcher für die Kontakte) ;). Man hat lediglich einen Sack (mikroskopisch kleiner und ohne Stacking redundante weil nicht erreichbare) Kontaktpads im Design, die minimalste Mehrkosten (wir reden von Cent-Beträgen) verursachen.
Und dass diese Fläche sonst nicht verwendet werden könne und die Die Size damit nicht oder fast nicht ansteigt, ist eine schwere Speku von dir und kein Fakt ;)Worauf ich mich bezog, ist daß die Die-Abmaße am Ende davon abhängen, wie gut man alle Blöcke in einen rechteckigen Kasten pressen kann. Auf quasi jedem Die finden man quasi leere Flächen, die gewissermaßen Verschnitt darstellen. Im Best-Case steigt die Die-Fläche also nicht oder weniger als um die Gesamtfläche der Kontakte (worst case wäre andersrum). Und na klar ist spekulativ, wie viel das in einem konkreten Beispiel ausmacht, ich habe einen Mechanismus genannt, der den fraglichen Flächenzuwachs bei einem optimierten Design nahe ans Rauschniveau drücken könnte.
1-2% Kostenerhöhung mögen "vernachlässigbar" erscheinenFür die ungestackten Modelle dürfte es locker eine Größenordnung weniger sein. Und man gewinnt dafür die Flexibilität ein gestacktes Topmodell anbieten zu können. Das ist auch was wert, im Zweifelsfall sogar Geld. ;)
Jetzt die Frage: Ist das dann auch bei den dGPUs so? Machen die paar wenigen Spezial-SKUs obenraus wirklich so viel Umsatz aus?Außer dem reinen Gewinn/Umsatz gibt es auch noch sowas wie Mindshare, den man mit Halo-Produkten deutlich hochschrauben kann.
Und nochmals die Frage: 96 MByte könnten reichen und evtl. ist die Leistungssteigerung mit V-Cache ~0.Das ist anhand der von N21 bekannten Daten (~62% Hitrate in 4k bei 128MB) quasi ausgeschlossen. Wie soll da Faktor 3 oder 4 mehr Cache quasi nie und nimmer auch nur irgendetwas bringen? Das ist ein ziemlich absurd klingender Vorschlag, insbesondere bei sehr datenintensiven Anwendungen wie Echtzeit 3D-Grafik (es ist quasi ausgeschlossen, daß Alles in den Cache paßt [außer bei irgendwelchem Uralt-Kram]).
Die RTX 4090 hat 72MByte und ist bereits sehr schnell.Und es wäre mit 144MB sicher noch etwas schneller. ;)
Nützt AD102 die vollen 96MByte? Wissen wir noch nicht.Doch, da wir wissen, wie Cache ganz allgemein funktioniert. Da wird nichts freigelassen, weil das irgendwie nicht genutzt/gebraucht würde.
N31 sollte aber mindestens ebenfalls 96MByte aufweisen. Nützt ein noch grösserer IF$ der grössten N31 Karte? Wissen wir nicht.Doch, mehr Cache bringt bei ansonsten gleichen Rahmenbedingungen mehr Performance. Unklar ist maximal, wie viel genau. ;)
Nakai
2022-10-26, 17:14:58
Bei Zen3 gab es auch stacked Caches. Hat das jemand erwartet? Nein. War es möglich? Ja. Wenn es MCDs gibt, dann macht der Support von stacked Caches Sinn. Ob es so kommt -> kA.
Ansonsten würd man auch an der Cache-Effizienz geschraubt haben. Wie effizient ein Cache-System ist, hängt ja nicht nur an der Größe dieser ab, sondern von sehr vielen Faktoren. Da kann ein Lastlevel Cache von 96 MB insgesamt besser sein, als ein Cache von 128 MB wenn das drumherum auch passt.
Gipsel
2022-10-26, 17:23:38
Ansonsten würd man auch an der Cache-Effizienz geschraubt haben. Wie effizient ein Cache-System ist, hängt ja nicht nur an der Größe dieser ab, sondern von sehr vielen Faktoren. Da kann ein Lastlevel Cache von 96 MB insgesamt besser sein, als ein Cache von 128 MB wenn das drumherum auch passt.Sicher. Angstronomics sprach z.B. davon, daß die Größe der SRAM-Bänke halbiert wurde und die Bandbreite verdoppelt (bei gleicher Größe, Bandbreite pro Bank identisch). Eine Möglichkeit wäre, daß AMD zusätzlich auch die Assoziativität verdoppelt hat. Dies hat typischerweise erhöhte Hitraten zur Folge (oft sagt man grob ähnlich wie eine Verdopplung der Cachegröße, zumindest bei CPUs). Dies ist allerdings recht stark vom Zugriffsmuster abhängig. Bei GPUs würde ich vermuten, daß eine Vergrößerung des Caches meist mehr bringt als die Assoziativität um den gleichen Faktor zu erhöhen. Aber beim Vergleich von 96MB zu 128MB kann man das durch die Assoziativität im Schnitt sicher ausgleichen.
basix
2022-10-26, 19:18:44
Ich finde immer noch erstaunlich, das 7 Tage vor Release / Showcase so wenig rausgesickert ist. War das nicht auch bei RDNA2 schon so? Ich erwarte irgendwie noch die eine oder andere Überraschung, welche RDNA3 mitbringt und ich bin sehr gespannt, wie sie das mit den Chiplets am Schluss umgesetzt haben. Ich kann mich nur zu gut an den Zen V-Cache erinnern, wo alle möglichen Konzepte hinsichtlich L3-Cache Erweiterung und Stacking diskutiert wurden, es am Schluss aber doch anders kam (obwohl die V-Cache Lösung irgendwie naheliegend ist).
OpenVMSwartoll
2022-10-26, 19:31:19
Ich finde immer noch erstaunlich, das 7 Tage vor Release / Showcase so wenig rausgesickert ist. War das nicht auch bei RDNA2 schon so? Ich erwarte irgendwie noch die eine oder andere Überraschung, welche RDNA3 mitbringt und ich bin sehr gespannt, wie sie das mit den Chiplets am Schluss umgesetzt haben. Ich kann mich nur zu gut an den Zen V-Cache erinnern, wo alle möglichen Konzepte hinsichtlich L3-Cache Erweiterung und Stacking diskutiert wurden, es am Schluss aber doch anders kam (obwohl die V-Cache Lösung irgendwie naheliegend ist).
Ich tippe darauf, dass zuerst Karten von AMD kommen und Partnerkarten später. Ansonsten hätten wir wahrscheinlich schon differenziertere Leaks in dieser Phase.
Aber ist Kaffesatzlesen.
basix
2022-10-26, 19:47:16
Hätte auch darauf getippt, dass Partnerkarten etwas später kommen. Gab aber bereits Gerüchte, dass Chips usw. bei Partnern angekommen sind.
bbott
2022-10-26, 19:48:44
Ich finde immer noch erstaunlich, das 7 Tage vor Release / Showcase so wenig rausgesickert ist. War das nicht auch bei RDNA2 schon so? Ich erwarte irgendwie noch die eine oder andere Überraschung, welche RDNA3 mitbringt und ich bin sehr gespannt, wie sie das mit den Chiplets am Schluss umgesetzt haben. Ich kann mich nur zu gut an den Zen V-Cache erinnern, wo alle möglichen Konzepte hinsichtlich L3-Cache Erweiterung und Stacking diskutiert wurden, es am Schluss aber doch anders kam (obwohl die V-Cache Lösung irgendwie naheliegend ist).
Ja, echt Wahnsinn das nicht mal ein 3DMark Score durchsickert. War das bei RDNA2 auch so extrem? Eine Woche vorher immer noch kein 3DMark?
OpenVMSwartoll
2022-10-26, 19:53:16
Hätte auch darauf getippt, dass Partnerkarten etwas später kommen. Gab aber bereits Gerüchte, dass Chips usw. bei Partnern angekommen sind.
Naja, Chips zu haben und ein BIOS sind ja zwei verschiedene Dinge, wenn ich nicht gänzlich irre.
Berniyh
2022-10-26, 20:25:26
Ich finde immer noch erstaunlich, das 7 Tage vor Release / Showcase so wenig rausgesickert ist. War das nicht auch bei RDNA2 schon so? Ich erwarte irgendwie noch die eine oder andere Überraschung, welche RDNA3 mitbringt und ich bin sehr gespannt, wie sie das mit den Chiplets am Schluss umgesetzt haben. Ich kann mich nur zu gut an den Zen V-Cache erinnern, wo alle möglichen Konzepte hinsichtlich L3-Cache Erweiterung und Stacking diskutiert wurden, es am Schluss aber doch anders kam (obwohl die V-Cache Lösung irgendwie naheliegend ist).
Tatsächlich dürfte gerade die neuerliche Trennung zwischen Präsentation und Marktstart einer der Gründe sein, warum man inzwischen weniger vorab über die Karten weiß, denn so vergeht weniger Zeit zwischen der Einbindung der Boardhersteller und der Präsentation der Karten.
Gerade die Boardhersteller waren ja früher auch eine der wesentlichen Quellen für Leaks.
Natürlich ist das aber auch nur ein Puzzlestück.
basix
2022-10-26, 21:06:30
Naja, Chips zu haben und ein BIOS sind ja zwei verschiedene Dinge, wenn ich nicht gänzlich irre.
Guter Punkt. Dass sie kein BIOS haben spricht dafür, dass Boardpartner später dran sein werden als die Referenzkarten.
Tatsächlich dürfte gerade die neuerliche Trennung zwischen Präsentation und Marktstart einer der Gründe sein, warum man inzwischen weniger vorab über die Karten weiß, denn so vergeht weniger Zeit zwischen der Einbindung der Boardhersteller und der Präsentation der Karten.
Gerade die Boardhersteller waren ja früher auch eine der wesentlichen Quellen für Leaks.
Jepp, denke ich auch.
OgrEGT
2022-10-26, 21:24:09
Wir wissen gar nicht, ob zusätzlicher Cache überhaupt was bringt. Das ist meine Hypothese.
Und hinsichtlich Kosten ist das Halo-Produkt egal. Es geht darum, dass aufgrund V-Cache die Kosten aller GPUs mit MCDs steigen würden. Dann sind die Stückzahlen dann schlagartig viel grösser und 1-2% Kostenanstieg macht dann absolut gesehen auch viel mehr aus.
Richtig. Ohne den Nutzen von IF$ 2.0 an sich zu kennen und diesen mengenabhängig vergleichend abzuschätzen ist ohne Messwerte schwer möglich. Und ohne das ist auch keine Nutzen/Kosten Abschätzung möglich.
Iscaran
2022-10-26, 22:37:12
Ja, echt Wahnsinn das nicht mal ein 3DMark Score durchsickert. War das bei RDNA2 auch so extrem? Eine Woche vorher immer noch kein 3DMark?
@stock clocks(?) ~2281 MHz
Radeon 6900 XT = 19600 (https://www.3dmark.com/spy/29776660)
Basierend darauf und der Marketing Aussage von AMD (+50% P/W) schätze ich mal eine RDNA 3 Top Dog @300 Watt auf ~30.000.
iamthebear
2022-10-26, 22:42:06
Beim Vergleich von GPUs sollte immer der Graphics Score verglichen werden.
Abgesehen davon ist der Timespy Extreme Score aussagekräftiger.
bbott
2022-10-26, 22:52:46
@stock clocks(?) ~2281 MHz
Radeon 6900 XT = 19600 (https://www.3dmark.com/spy/29776660)
Basierend darauf und der Marketing Aussage von AMD (+50% P/W) schätze ich mal eine RDNA 3 Top Dog @300 Watt auf ~30.000.
Hochrechnungen gibt es so einige, das ist definitiv sehr tief gestapelt. Es stehen auch 2-2,25x im Raum (40.000- 45.000), es wird wohl irgend was dazwischen :D
Ich meine Screenshots von 3DMark oder ähnliches.
Badesalz
2022-10-26, 23:07:47
300Watt haut hin, aber es sind knapp 40.000.
Iscaran
2022-10-26, 23:30:16
Abgesehen davon ist der Timespy Extreme Score aussagekräftiger.
Na dann eben Timespy Extreme:
6900 XT @stock (~2300 MHz) 10.500
=> RDNA 3 @300W = 15.800
:-D.
Ist aber eher die Untergrenze denke ich was wir sehen werden. Mein Pro Tip ist ~20.000
[MK2]Mythos
2022-10-26, 23:37:17
50% mehr Punkte wäre in der Tat eine absolute Enttäuschung in meinen Augen.
aceCrasher
2022-10-26, 23:47:58
Aus >100% mehr Shadern, 50% breiterem SI und mehr Takt nur +50% Performance rauszuholen wäre ein Desaster.
Nightspider
2022-10-27, 00:04:10
Mal sehen was Navi31 so kann. :D
*Hände reib*
robbitop
2022-10-27, 09:25:15
Ich finde immer noch erstaunlich, das 7 Tage vor Release / Showcase so wenig rausgesickert ist. War das nicht auch bei RDNA2 schon so? Ich erwarte irgendwie noch die eine oder andere Überraschung, welche RDNA3 mitbringt und ich bin sehr gespannt, wie sie das mit den Chiplets am Schluss umgesetzt haben. Ich kann mich nur zu gut an den Zen V-Cache erinnern, wo alle möglichen Konzepte hinsichtlich L3-Cache Erweiterung und Stacking diskutiert wurden, es am Schluss aber doch anders kam (obwohl die V-Cache Lösung irgendwie naheliegend ist).
Naja wir wissen doch bereits die Eckdaten. Speichermenge, WGPs, grober Takt, Speichergeschwindigkeit grob, Speicherinterfacebreite, Mindestcachemenge, Chipletkonfiguration, die size, codenamen. Das ist doch schon mega viel was man vor Launch weiß.
Was wir noch nicht wissen, ist was dabei rumkommt. ^^ Performance sickert aber heutzutage bei GPUs nur noch ganz selten durch (Fakes und Einschätzungen mal exkludiert) weil in der Regel, die Treiber von der Hardware getrennt werden und außerhalb von AMD die Treiber erst sehr sehr spät zur Verfügung gestellt werden. Entsprechend selbst wenn ein AIB was leaken wöllte, könnte er nicht, weil ohne Treiber die HW nur ein toter Klotz ist. Deshalb sind frühe Performanceleaks (sofern sie nicht direkt aus dem Herzen von NV/AMD kommen) fast immer fake heutzutage. Selbst bei AMD und NV haben wahrscheinlich sehr lange nur sehr wenige (relativ gesprochen) Leute Zugriff auf beides gleichzeitig.
KodeX
2022-10-27, 10:15:44
Na dann eben Timespy Extreme:
6900 XT @stock (~2300 MHz) 10.500
=> RDNA 3 @300W = 15.800
:-D.
Ist aber eher die Untergrenze denke ich was wir sehen werden. Mein Pro Tip ist ~20.000
Gab es da nicht schon einen Leak, der von "mehr als 19.000" für das Referenzmodell und von "mehr als 20.000" für Costum-Modelle sprach?
Nazar
2022-10-27, 10:26:01
Ich glaube du verwechselst das mit den alten nVidia Leaks. Da gab es genau diese "Hausnummern". :wink:
mironicus
2022-10-27, 10:26:44
Also wenn ein Timespy Extreme-Wert deutlich über der einer 4090 liegen würde, hätten wir doch sicherlich schon einen solchen Leak.
Virtual
2022-10-27, 10:38:20
Also wenn ein Timespy Extreme-Wert deutlich über der einer 4090 liegen würde, hätten wir doch sicherlich schon einen solchen Leak.Die Treiber sind mit guter Wahrscheinlichkeit limitiert, d.h. hochgradig ineffizient, da kann es naturgemäß keinen sinnvollen Leak geben und das ist wohl auch so beabsichtigt.
vinacis_vivids
2022-10-27, 10:59:33
Vor allem ist das MCM-Aufbau. Also eine völlig neue Ära an Treibern ist da nötig inkl. Abwärtskompatibilität. Bei RDNA3 ist fast alles umgebaut worden.
KodeX
2022-10-27, 11:14:01
Ich glaube du verwechselst das mit den alten nVidia Leaks. Da gab es genau diese "Hausnummern". :wink:
Nein, ich verwechsle da nichts. Hier ist der Original-Link:
https://twitter.com/harukaze5719/status/1557639076638904320
Das wurde auch hier in diesem Thread diskutiert.
why_me
2022-10-27, 11:22:55
Naja wir wissen doch bereits die Eckdaten. Speichermenge, WGPs, grober Takt, Speichergeschwindigkeit grob, Speicherinterfacebreite, Mindestcachemenge, Chipletkonfiguration, die size, codenamen. Das ist doch schon mega viel was man vor Launch weiß.
Leider alles nur die groben Werte. Die interessanten Details wie Aufbau der WGPs (breitere CUs oder mehr CUs), Erweiterung der RT fähigkeiten (BVH Beschleunigung), Cache verbesserungen... sind leider immer noch unbekannt.
Was wirklich nervt, denn das sind die interessanten dinge. Takt, Shader, etc ist zwar nett, aber das ist alles so grob...
Savay
2022-10-27, 11:29:55
Am 03.11. soll es Gerüchteweise ja nen großen Leak dazu geben...
[MK2]Mythos
2022-10-27, 11:38:26
Eben, die paar Tage halten wir jetzt auch noch aus. Und in der Zwischenzeit beschäftigt man sich einfach mit dem Schauspiel um den abfackelnden Nvidia power Adapter. :D
vinacis_vivids
2022-10-27, 11:40:37
Leider alles nur die groben Werte. Die interessanten Details wie Aufbau der WGPs (breitere CUs oder mehr CUs), Erweiterung der RT fähigkeiten (BVH Beschleunigung), Cache verbesserungen... sind leider immer noch unbekannt.
Was wirklich nervt, denn das sind die interessanten dinge. Takt, Shader, etc ist zwar nett, aber das ist alles so grob...
Diese Sachen wurden nicht mal bei RDNA2 veröffentlicht, sondern nur für RDNA1. Das Wissen dafür ist zu wertvoll und zu selten (vor allem auf Deutsch), dass es einfach so verschenkt wird.
why_me
2022-10-27, 11:53:57
Deutsch, Englisch oder Klingonisch ist mir doch am Ende egal, dafür gibts zur not Übersetzer. Aber etwas mehr als WGPs und Chipgröße zum Spekulieren wäre schon nett. :biggrin:
iamthebear
2022-10-27, 12:01:42
Das Problem ist, dass an der Architektur so viel herum gedreht wurde, dass wir keinen Plan haben wo wir Takt/WGPs performancemäßig einordnen sollen. Ich hätte an der Stelle lieber einmal einen 3DMark Leak als Anhaltspunkt. Dann kann man sich basierend darauf den Rest wieder zusammenrechnen.
Gipsel
2022-10-27, 13:13:08
Aus >100% mehr Shadern, 50% breiterem SI und mehr Takt nur +50% Performance rauszuholen wäre ein Desaster.Daß die Anzahl der ALUs ("Shader") alleine nicht so viel aussagt, sollte doch inzwischen weit verbreitetes Wissen sein. Denn man kann es auch anders betrachten:
Die aktuellen Gerüchte gehen von einem +20% Zuwachs der Anzahl der WGPs/CUs aus. Diese sollen stärker ausfallen (interner Aufbau noch etwas unklar; Verdopplung der ALUs pro CU ergibt keine Verdopplung der Performance; nV liefert genügend Beispiele dafür). Weiterhin soll der Takt deutlich steigen (+25%?). Diese beiden Faktoren alleine würden (bei angenommen gleichbleibender Effizienz) +50% Performance ergeben.
Die gesteigerte Speicherbandbreite (+66%) sollte das nicht einschränken.
Zusätzliche Steigerungen durch den geänderten Aufbau der WGPs (der im Detail ja immer noch unbekannt ist) können spekuliert werden, die Auswirkungen könnten aber je nach Situation entweder sehr deutlich (>50%) oder aber auch sehr überschaubar (<20%) ausfallen. Der von AMD angekündigte "Infinity Cache 2.0" sollte hoffentlich dabei helfen, daß die Performancesteigerungen nicht durch die +66% Speicherbandbreite wesentlich begrenzt werden (sondern auch darüber liegen könnte), aber auch, daß der Chiplet-Aufbau nicht zu Performance-Regressionen führt.
TLDR:
ALU-Anzahl*Takt ist ein recht schlechtes Mittel zur Performancevorhersage, solange man nicht mehr weiß.
GerryB
2022-10-27, 13:14:51
Wennschon Unchartered, dann vllt. in UWQHD, weil da auf jeden Fall die 6800xt+6950 kaum limitiert ist, ... bzgl. Hitrate und PL,
kann also frei takten.
Ob die Abstände 3070-3080-3090 normal sind, mögen Andere beurteilen.
Iscaran
2022-10-27, 14:32:01
Nein, ich verwechsle da nichts. Hier ist der Original-Link:
https://twitter.com/harukaze5719/status/1557639076638904320
Das wurde auch hier in diesem Thread diskutiert.
Vielen Dank für den Reminder!
Na da haben wir es ja 19.000+ - wurde halt nur nicht geglaubt.
Mittlerweile mit den mehr bekannten Eckdaten, würde ich das in der Tat als ein plausiblen Leak deklarieren.
Iscaran
2022-10-27, 14:34:01
Die aktuellen Gerüchte gehen von einem +20% Zuwachs der Anzahl der WGPs/CUs aus. Diese sollen stärker ausfallen (interner Aufbau noch etwas unklar; Verdopplung der ALUs pro CU ergibt keine Verdopplung der Performance; nV liefert genügend Beispiele dafür). Weiterhin soll der Takt deutlich steigen (+25%?). Diese beiden Faktoren alleine würden (bei angenommen gleichbleibender Effizienz) +50% Performance ergeben.
Mittlerweile bin ich aber eher der Ansicht, dass wir eine Gang hin zu 4CUs/WGP sehen dürften. Die Anhebung der Register usw. zeigt IMHO ebenfalls in diese Richtung.
Da dürfte möglicherweise wesentlich mehr Performance ankommen als nur durch die Verdopplung der Shader in den CUs.
Gipsel
2022-10-27, 14:39:10
Mittlerweile bin ich aber eher der Ansicht, dass wir eine Gang hin zu 4CUs/WGP sehen dürften. Die Anhebung der Register usw. zeigt IMHO ebenfalls in diese Richtung.Eher nicht. Entscheidend ist ja normalerweise die Menge der Register pro Scheduler/vALU-Einheit. Und wir bekommen dort 50% mehr Register (und eine Verdopplung der ALU-Ressourcen). Das spricht gegen 4CUs/WGP (in dem Fall würden wir aus Programmiersicht von -25% Registern reden statt +50%).
Nazar
2022-10-27, 14:39:24
Nein, ich verwechsle da nichts. Hier ist der Original-Link:
https://twitter.com/harukaze5719/status/1557639076638904320
Das wurde auch hier in diesem Thread diskutiert.
Der Kerl schreibt folgendes:
Wäre das Leistungsziel von AMD nicht ähnlich dem vom nVidia? Ich weiß nicht, ob man 20.000 erreichen könnte, aber vielleicht sind 18.000 oder so das Leistungsziel für die RX 7900 XT?
Für mich sind das zwei Fragen und kein Leak.
harukaze5719 ist nicht durch Leaks aufgefallen, sondern eher, dass er selber wild drauflos spekuliert und viele Fragen stellt. So wie die oben. :wink:
E: sehe gerade das Greymon55 geantwortet hatte. 19k+ wäre ja dann so in der Nähe der 4090. Nur sehe ich immer noch keinen 3DMark Leak. ;)
KodeX
2022-10-27, 14:46:45
Der Kerl schreibt folgendes:
Wäre das Leistungsziel von AMD nicht ähnlich dem vom nVidia? Ich weiß nicht, ob man 20.000 erreichen könnte, aber vielleicht sind 18.000 oder so das Leistungsziel für die RX 7900 XT?
Für mich sind das zwei Fragen und kein Leak.
harukaze5719 ist nicht durch Leaks aufgefallen, sondern eher, dass er selber wild drauflos spekuliert und viele Fragen stellt. So wie die oben. :wink:
Wichtig ist aber die Antwort von Greymon55.
Mandalore
2022-10-27, 14:58:25
Gibt es eigentlich einen IPC Vergleich zwischen Ada und Ampere?
Und wieso geht man auf niedrigere IPC im Gegensatz zu CPUs?
vinacis_vivids
2022-10-27, 15:15:28
Die Gerüchteküche sieht derzeit so aus:
https://quasarzone.com/bbs/qn_report/views/329766
https://abload.de/img/7cbcb934d5bfea4af1480anet6.png
Mit dem Score bei ~300W bin ich sehr sehr zufrieden zumal die 7900XT möglicherweise ein N31 Salvage ist.
Wenn 19K für N31XTX FullChip und 420W sein sollte, dann ist es im unteren Bereich des Erwartbaren.
unl34shed
2022-10-27, 15:20:00
Gibt es eigentlich einen IPC Vergleich zwischen Ada und Ampere?
Beim Vergleich der abekündigten 4080 12GB mit der 3090ti scheint die IPC zurück gegangen zu sein. Beide haben relativ ähnliche Specs und die 4080 liefert in vielen der Tests, die Nvidia gezeigt weniger fps. Dass es an den 12GB Speicher liegt bezweifle ich und eigentlich müsste die 4080 Dank höherem Takt und weniger Shadern einen Vorteil haben da sie besser ausgelastet werden sollte.
basix
2022-10-27, 15:22:57
...eigentlich müsste die 4080 Dank höherem Takt und weniger Shadern einen Vorteil haben da sie besser ausgelastet werden sollte.
Nicht unbedingt. Durch höheren Takt hat man eigentlich immer effektiv höhere Latenzen (in Clock Cycles). Das reduziert die IPC. Der grosse L2$ sollte hier aber stark helfen, wie es auch der IF$ bei RDNA2 tat.
DrFreaK666
2022-10-27, 15:41:59
Die RTX ist hier nicht das Thema. Bitte nicht ausweiten
vinacis_vivids
2022-10-27, 15:53:30
AOMP Release 16.0-1 Compiler Within LLVM Updated To Support AMD RDNA 3 “GFX11” GPUs & Phoenix APUs
https://wccftech.com/aomp-release-16-0-1-compiler-within-llvm-updated-to-support-amd-rdna-3-gfx11-gpus-phoenix-apus/
Berniyh
2022-10-27, 16:09:18
Was wir noch nicht wissen, ist was dabei rumkommt. ^^ Performance sickert aber heutzutage bei GPUs nur noch ganz selten durch (Fakes und Einschätzungen mal exkludiert) weil in der Regel, die Treiber von der Hardware getrennt werden und außerhalb von AMD die Treiber erst sehr sehr spät zur Verfügung gestellt werden. Entsprechend selbst wenn ein AIB was leaken wöllte, könnte er nicht, weil ohne Treiber die HW nur ein toter Klotz ist. Deshalb sind frühe Performanceleaks (sofern sie nicht direkt aus dem Herzen von NV/AMD kommen) fast immer fake heutzutage. Selbst bei AMD und NV haben wahrscheinlich sehr lange nur sehr wenige (relativ gesprochen) Leute Zugriff auf beides gleichzeitig.
Ich bezweifle, dass das wirklich der Grund ist.
Für Linux gibt es einen (mutmaßlich) voll funktionsfähigen Treiber, der auch in der Performance nicht (signifikant) eingeschränkt sein sollte.
(Es gibt keine 0-Day Patches dafür zum Release.)
Natürlich ist das dann nicht Allerweltsliebling Windows 10/11, aber es zeigt zumindest, dass man sich mit den Treibern offensichtlich nicht sooo sehr zurück hält.
Und wenn man wollte, dann könnte man auch mit dem Linux Treiber irgendwelche Benchmarks durchführen und mit anderen Karten vergleichen.
robbitop
2022-10-27, 16:49:40
Nicht unbedingt. Durch höheren Takt hat man eigentlich immer effektiv höhere Latenzen (in Clock Cycles). Das reduziert die IPC. Der grosse L2$ sollte hier aber stark helfen, wie es auch der IF$ bei RDNA2 tat.
Naja aber dennoch skaliert halt alles im Chip und zwar nahezu linear mit Clock und nicht alles wenn man nur die CUs/SMs skaliert. Letzteres skalierte zuletzt mit einer Proportionalität von ~0,7
Grundsätzlich hat er schon recht, dass die Skalierung über den Takt besser ist als über die Breite. Die Extrembeispiele sieht man bei GCN. Vega 8 ist pro FLOP deutlich besser als jede andere GCN SKU.
Nakai
2022-10-27, 17:47:10
Daß die Anzahl der ALUs ("Shader") alleine nicht so viel aussagt, sollte doch inzwischen weit verbreitetes Wissen sein. Denn man kann es auch anders betrachten:
Die aktuellen Gerüchte gehen von einem +20% Zuwachs der Anzahl der WGPs/CUs aus. Diese sollen stärker ausfallen (interner Aufbau noch etwas unklar; Verdopplung der ALUs pro CU ergibt keine Verdopplung der Performance; nV liefert genügend Beispiele dafür). Weiterhin soll der Takt deutlich steigen (+25%?). Diese beiden Faktoren alleine würden (bei angenommen gleichbleibender Effizienz) +50% Performance ergeben.
Die gesteigerte Speicherbandbreite (+66%) sollte das nicht einschränken.
Zusätzliche Steigerungen durch den geänderten Aufbau der WGPs (der im Detail ja immer noch unbekannt ist) können spekuliert werden, die Auswirkungen könnten aber je nach Situation entweder sehr deutlich (>50%) oder aber auch sehr überschaubar (<20%) ausfallen. Der von AMD angekündigte "Infinity Cache 2.0" sollte hoffentlich dabei helfen, daß die Performancesteigerungen nicht durch die +66% Speicherbandbreite wesentlich begrenzt werden (sondern auch darüber liegen könnte), aber auch, daß der Chiplet-Aufbau nicht zu Performance-Regressionen führt.
TLDR:
ALU-Anzahl*Takt ist ein recht schlechtes Mittel zur Performancevorhersage, solange man nicht mehr weiß.
Ich bin mal ganz direkt. Für typische Usecases werden die verdoppelten WGPs eher einen überschaubaren Performancegewinn liefern.
Der Infinity Cache (siehe B3D) wird wohl auf Nutzbarkeit optimiert werden. Ergo wird wohl nicht mehr alles gecacht, was auch Sinn macht. Was man in den WGPs cachen kann, wird lokal gecacht, was nicht wirklich einfach gecacht werden kann, wird gar nicht mehr gecacht (Texturen). Ergo denke ich schon, dass die 96 MB mehr als ausreichend sind. Da sehe ich keine Probleme.
Bei RT sehe ich aber deutlich mehr Spielrauch um eher eine deutlich höhere Performance auf uns zukommen. Im Kern muss ich ganz einfach sagen, dass wir RTX 4090 Performance sehen werden, bei Raster und bei RT. Bei RT sehe ich eher Faktor 3 zusätzliche Performance. Und das alles bei deutlich niedrigerer TDP.
robbitop
2022-10-27, 17:59:46
Ich bezweifle, dass das wirklich der Grund ist.
Für Linux gibt es einen (mutmaßlich) voll funktionsfähigen Treiber, der auch in der Performance nicht (signifikant) eingeschränkt sein sollte.
(Es gibt keine 0-Day Patches dafür zum Release.)
Natürlich ist das dann nicht Allerweltsliebling Windows 10/11, aber es zeigt zumindest, dass man sich mit den Treibern offensichtlich nicht sooo sehr zurück hält.
Und wenn man wollte, dann könnte man auch mit dem Linux Treiber irgendwelche Benchmarks durchführen und mit anderen Karten vergleichen.
Mit Linux wird es (so dumm das klingt) für 0815 Leaker aber viel schwieriger. Jeder kennt sich mit Windows aus und man kann mal schnell einen Benchmark starten. Irgendeinen angeblichen Treiber aufzufinden und da garantiert was rumhacken zu müssen und das unter Linux lauffähig zu bekommen kann nur eine Teilmenge der Leute. Nicht unmöglich und wahrscheinlich für Linux affine Leute lächerlich - aber es ist einfach so.
Und den funktionsfähigen Linuxtreiber gibt es wahrscheinlich auch noch nicht so lange, oder? Ggf. kommt noch hinzu, dass das GPU BIOS ggf auch nicht ausgeliefert war.
Neurosphere
2022-10-27, 18:07:41
Waren die Linux-Treiber auch wirklich lauffähig?
Nur weil irgendwelche Bezeichnungen ausgelesen werden konnten heißt das ja nicht sofort das man die HW damit auch zum Laufen bekommt.
basix
2022-10-27, 18:55:21
Naja aber dennoch skaliert halt alles im Chip und zwar nahezu linear mit Clock und nicht alles wenn man nur die CUs/SMs skaliert. Letzteres skalierte zuletzt mit einer Proportionalität von ~0,7
Grundsätzlich hat er schon recht, dass die Skalierung über den Takt besser ist als über die Breite. Die Extrembeispiele sieht man bei GCN. Vega 8 ist pro FLOP deutlich besser als jede andere GCN SKU.
Natürlich ist Skalierung über Takt normalerweise besser. Aber nur, wenn alles in selbem Masse mitskaliert. Dann wäre es in der Theorie linear. Die RTX 4090 zeigt schön, das der (Main)-Chiptakt nicht den höchsten Ertrag bringt und bei weitem nicht linear skaliert.
Wenn Caches, VRAM und anderweitige Clock-Domains nicht mit den CU/SM Clock mitskalieren, dann wird die IPC geringer. Entweder aufgrund Bandbreite oder Latenz (ich gehe mal davon aus, das Rasterizer/TMUs etc. am CU Clock hängen).
Wenn der VRAM Takt gleich bleibt, ist ein Hochtaktdesign wie RDNA2 effektiv weiter weg vom VRAM verglichen mit RDNA1. Einfach weil es mehr Clock Cycles benötigt. Dem kann man mit höher taktendem VRAM oder grösseren Caches entgegenwirken, welche die effektive Latenz und Bandbreite verbessern.
Iscaran
2022-10-27, 19:04:58
Eher nicht. Entscheidend ist ja normalerweise die Menge der Register pro Scheduler/vALU-Einheit. Und wir bekommen dort 50% mehr Register (und eine Verdopplung der ALU-Ressourcen). Das spricht gegen 4CUs/WGP (in dem Fall würden wir aus Programmiersicht von -25% Registern reden statt +50%).
Hmm, du hast vermutlich recht. Hab mir nochmal das RDNA2 ISA Whitepaper angeschaut. Da ist ein Schaubild das zeigt das die sGPRs und vGPRs in der Tat in JEDER CU lokalisiert sind.
Dachte immer die wären WGP lokalisiert und damit DCU übergreifend.
Dann ist das wahrscheinlichste wohl wirklich die Dopplung der Shader, bei +50% Registerzuwachs. Logisch wären da +100% gewesen, aber vielleicht reichen die +50% auch, weil man durch die Dopplung der Shader und damit der Wavefronts evtl. sowieso in Auslastungs-/Verteilungsprobleme gerät?
So oder so - es wird denke ich höchst interessant am 3.11.
Berniyh
2022-10-27, 20:13:49
Mit Linux wird es (so dumm das klingt) für 0815 Leaker aber viel schwieriger. Jeder kennt sich mit Windows aus und man kann mal schnell einen Benchmark starten. Irgendeinen angeblichen Treiber aufzufinden und da garantiert was rumhacken zu müssen und das unter Linux lauffähig zu bekommen kann nur eine Teilmenge der Leute. Nicht unmöglich und wahrscheinlich für Linux affine Leute lächerlich - aber es ist einfach so.
Im Prinzip stimmt das schon, aber es ist machbar.
Und wo ein Wille ist, da ist auch ein Weg. ;)
Und den funktionsfähigen Linuxtreiber gibt es wahrscheinlich auch noch nicht so lange, oder?
Das ist schwierig genau zu beantworten. Die ersten Patches gab es glaube ich schon vor 1.5 Jahren. Aber ab wann der jetzt wirklich funktionsfähig ist? Keine Ahnung. So kurz vor Release sollte es aber schon auf der Zielgeraden angekommen sein.
Ggf. kommt noch hinzu, dass das GPU BIOS ggf auch nicht ausgeliefert war.
Das stimmt natürlich, daran habe ich nicht gedacht.
Waren die Linux-Treiber auch wirklich lauffähig?
Nun, die Frage kann ich dir natürlich nicht beantworten, konnte es ja mangels Hardware nicht testen. Ich gehe aber schon davon aus.
robbitop's Hinweis auf das GPU BIOS hat mich aber auch noch daran erinnert, dass man ja Firmware Dateien braucht. Die könnten tatsächlich erst recht kurzfristig veröffentlicht werden. Das könnte ein Knackpunkt sein.
Ich dachte zwar, dass es die für RDNA3 auch schon gab, aber evtl. bringe ich da gerade auch etwas durcheinander.
Badesalz
2022-10-27, 20:15:18
Es scheint so als wenn es die richtige Entscheidung war nicht auf den 12VHPWR Müll aufzuspringen :tongue:
So ein Dreck würde "im Serverraum" auch niemals durchgehen.
mczak
2022-10-27, 20:42:33
robbitop's Hinweis auf das GPU BIOS hat mich aber auch noch daran erinnert, dass man ja Firmware Dateien braucht. Die könnten tatsächlich erst recht kurzfristig veröffentlicht werden. Das könnte ein Knackpunkt sein.
Ich dachte zwar, dass es die für RDNA3 auch schon gab, aber evtl. bringe ich da gerade auch etwas durcheinander.
Ich glaube nicht dass die schon veröffentlicht wurden - für die Zen 4 APU gab's die knapp 2 Wochen vor Release (und die waren da ja auch nicht sonderlich interessant).
Wobei man die vielleicht aus dem Windows-Treiber extrahieren könnte? Irgendeinen Treiber werden die Kartenhersteller ja wohl haben auch wenn der nicht voll funktionsfähig ist (man möchte ja wohl gerne testen ob die Spannungswandler abrauchen unter Volllast oder sowas...).
Dino-Fossil
2022-10-27, 20:54:05
Das ist schwierig genau zu beantworten. Die ersten Patches gab es glaube ich schon vor 1.5 Jahren. Aber ab wann der jetzt wirklich funktionsfähig ist? Keine Ahnung. So kurz vor Release sollte es aber schon auf der Zielgeraden angekommen sein.
Bisher hat es eigentlich meist 1-2 Kernel-Versionen nach Release benötigt, bis AMD Hardware dann wirklich rund lief. Hat sich zwar immer weiter gebessert in den letzten Jahren, aber ich würde nicht unbedingt darauf wetten, dass man unter Linux eine RDNA3 GPU am Release-Tag wirklich problemlos nutzen kann.
Berniyh
2022-10-27, 21:11:18
aber ich würde nicht unbedingt darauf wetten, dass man unter Linux eine RDNA3 GPU am Release-Tag wirklich problemlos nutzen kann.
Würdest du denn die Wette für Windows eingehen? :D
iamthebear
2022-10-27, 23:33:54
Ich denke der Hauptunterschied ist:
.) Bei Nvidia launchen FE und AIB Modelle gleichzeitig d.h. bei Vorstellung vorher befinden sich die AIB Modelle bereits in der Massenproduktion d.h. die AIBs müssen schon das Release BIOS haben bzw. die Treiber zumindest so weit sein, dass man zumindest einen Benchmark laufen lassen kann um zu sehen, ob abgesehen von Kühlung und Elektrik alles richtig läuft.
.) Bei AMD gibt es am Anfang nur die eigenen Karten wo sich niemand traut zu leaken weil das relativ offensichtlich wäre wo es her kommt und bis die AIBs das Launch BIOS wirklich brauchen hat AMD die Karten schon selbst zumindest vorgestellt.
Mit Linux wird es (so dumm das klingt) für 0815 Leaker aber viel schwieriger. Jeder kennt sich mit Windows aus und man kann mal schnell einen Benchmark starten. Irgendeinen angeblichen Treiber aufzufinden und da garantiert was rumhacken zu müssen und das unter Linux lauffähig zu bekommen kann nur eine Teilmenge der Leute. Nicht unmöglich und wahrscheinlich für Linux affine Leute lächerlich - aber es ist einfach so.
Ich bin bei Linux nicht so auf dem aktuellen Stand aber einen Treiber, bei dem nur der Source ohne Binaries vorliegen zu kompilieren und dann in das System so einzubinden, dass dieser beim Booten geladen wird halte ich jetzt nicht für so trivial.
aufkrawall
2022-10-27, 23:36:41
(Es gibt keine 0-Day Patches dafür zum Release.)
Aber die Firmwares sind getrennt, Binary-Blobs und erscheinen oft später. Und ohne Firmware keine 3D-Beschleunigung.
mczak
2022-10-28, 00:52:27
Ich bin bei Linux nicht so auf dem aktuellen Stand aber einen Treiber, bei dem nur der Source ohne Binaries vorliegen zu kompilieren und dann in das System so einzubinden, dass dieser beim Booten geladen wird halte ich jetzt nicht für so trivial.
Das ist nicht unbedingt notwendig, die Distributionen haben zwar nicht den neuesten Kernel und die neueste Mesa-Version, aber dafür gibt es alternative Paketquellen.
Neurosphere
2022-10-28, 06:42:30
Es scheint so als wenn es die richtige Entscheidung war nicht auf den 12VHPWR Müll aufzuspringen :tongue:
So ein Dreck würde "im Serverraum" auch niemals durchgehen.
Ich hab mich eigentlich auf den neuen Stecker gefreut und fand es schade das AMD nicht aufgesprungen ist.
Die Karte in den Slot zu stecken nur um dann nochmal 2-3 Stecker ans andere Ende anschließen zu müssen ist nun wirklich nicht das wahre. Vielleicht hätte man aber den Weg wie damals bei 6 und 8 Pin PCIe gehen sollen und die Stecker je nach Leistung unterschiedlich machen, entweder durch Anzahl der Adern oder halt nicht steckerkompatibel.
Wenn man überlegt wie viele Leute bei so einem Thema mitarbeiten und mitreden wirkt es letzten Endes nicht sehr durchdacht.
Badesalz
2022-10-28, 07:20:10
@Neurosphere
Warum hast du dich gefreut? Du freust dich auf >0.5kW Grafikkarten?
Das ist sowieso keine Lösung für die Zukunft. NV überfährt das schon bei der Einführung teilweise deutlich (!)
AMD ist nicht "aufgesprungen", weil sie mit dem vorhandenen jedenfalls diesmal noch, auskommen. Irgendwas hat NV aber vor sich her getrieben :wink:
12VHPWR ist ja auch erst die eine Sache. Diese kriminellen Adapter eine andere.
Wenn du dir aber ganz in Ruhe anschaust welches Gestrippe sich da auf welcher Fläche zusammenfindet, dann war der primäre Gedanke "vor allem platzsparend". Daher finde ich das richtig gut, daß dieser Müll von NV-ATX denen jetzt um die Ohren fliegt. Denn irgendwas sagt mir, daß dies mit der 4090 nicht nur an dem Adapter hängen bleibt:
https://hwbusters.com/gpu/nvidia-rtx-4090-detailed-power-analysis-ideal-power-supply/
Demgegenüber war es aber natürlich ein Riesen-SKAN-DAL als AMD mit der 480 zuviel aus dem PCIe zog. Natürlich.
OgrEGT
2022-10-28, 08:34:39
(...)
Demgegenüber was es aber natürlich ein Riesen-SKAN-DAL als AMD mit der 480 zuviel aus dem PCIe zog. Natürlich.
...und da gab es nur die Befürchtung es könnte zu Problemen durch Überbelastung kommen... ist da jemals etwas durchgebrannt?
Auch kam ja schnell ein Treiber Update...
Jetzt kokelts wirklich und alles kein Problem :ugly:
Wenn es so wie es ausschaut der Billig Adapter von NV das Problem ist mit minderwertiger mechanischer Sicherheit dann muss NV diese einfach und unkompliziert zurückrufen bzw. auf eigene Kosten austauschen was bei 2000Eur Karten eigentlich selbstverständlich sein sollte...
Badesalz
2022-10-28, 09:02:01
Mir nach wird das nicht beim Adapter hängenbleiben
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13151431#post13151431
Es kann aber sein, daß wenigstens die Netzteile das "nativ" hart regeln werden ;)
Neurosphere
2022-10-28, 09:52:33
@Neurosphere
Warum hast du dich gefreut? Du freust dich auf >0.5kW Grafikkarten?
Das ist sowieso keine Lösung für die Zukunft. NV überfährt das schon bei der Einführung teilweise deutlich (!)
Ich hab ja geschrieben was mich als Nutzer stört. Auch bei AMD werde ich 2 oder 3 Kabel extra anschließen müssen. Das sind dann zwar nur 525 Watt statt 600, aber halt drei Kabel die irgendwie verlegen muss. Sorry, aber die alten PCIe sind nunmal wirklich überholt und das nicht erst seit diese oder letzter Gen
Badesalz
2022-10-28, 11:25:06
Du siehst ja EINDEUTIG, daß die neue Lösung keine ist. Wenn AMD da nicht mitmacht steigert das nur die Chance auf eine spätere Lösung die man dann endlich auch so nennen kann. 12VHPWRv2 :|
Es ging eh nicht darum, daß man da auf keinen Fall was neues machen müsste, sondern um die Rotze die man sich dafür mal eben ausgedacht hat.
nordic_pegasus
2022-10-28, 12:40:18
Ich hab ja geschrieben was mich als Nutzer stört. Auch bei AMD werde ich 2 oder 3 Kabel extra anschließen müssen. Das sind dann zwar nur 525 Watt statt 600, aber halt drei Kabel die irgendwie verlegen muss. Sorry, aber die alten PCIe sind nunmal wirklich überholt und das nicht erst seit diese oder letzter Gen
derzeit verwenden mutmaßlich 99% der Nutzer einer Nvidia Karte mit 12pin oder 12+2pin Anschluss entweder
a) den Adapter von Nvidia
b) ein Adapterkabel für ihr altes ATX 2.xx Netzteil, welches auf 2 bis 4 PCIe Anschlüsse am Netzteil terminiert
Von daher sehe ich faktisch keinen signifkanten Unterschied, ob man direkt 3 Kabel an die Grafikkarte anschließt oder einen Adapter verwendet, der auf mehrere Kabel umwandelt.
Wenn irgendwann ATX 3.0 Netzteile standard sind mit nativen PCIe gen5 Kabeln, dann wird es natürlich eine Erleichterung beim Kabelmanagement sein. Aber soweit sind wir noch lange nicht.
Du siehst ja EINDEUTIG, daß die neue Lösung keine ist. Wenn AMD da nicht mitmacht steigert das nur die Chance auf eine spätere Lösung die man dann endlich auch so nennen kann. 12VHPWRv2 :|
Es ging eh nicht darum, daß man da auf keinen Fall was neues machen müsste, sondern um die Rotze die man sich dafür mal eben ausgedacht hat.
So wenig ich den neuen Stecker mag, weil die Minituriasierung der Terminals und des Rastermaßes bei gleichzeitig gestiegener Stromstärke pro Leitung nach meinem technischen Verständnis einfach nur Schwachsinn ist, dennoch verstehe ich das generelle Bashing auf diesen Stecker nicht. Bei der 3090 gab es auch keine Probleme. Warum? Weil der damalige Nvidia-Adapter 12 gecrimpte Leitungen hatte und keine 8 gelöteten Leitungen auf 12 Terminals.
Das aktuelle Problem ist der Adapter von Nvidia, dieser ist eine fehlerhafte Konstruktion. Die Lötpunkte sind eine Schwachstelle, es gibt keine Zugentlastung. Das heisst aber auch, dass Nvidia das Problem mit einem neuen Adapter lösen kann ohne alle 4090 tauschen zu müssen.
AMD konnte wohl bei RDNA3 auf den neuen Stecker verzichten, weil der Stromverbrauch weiterhin nur 2x8pin beim Referenz-Design und maximal 3x8pin bei AiB Custom-Designs erfordert. Also im Westen nichts Neues. Dagegen war der 600Watt Stecker bei Nvidia wohl die Vorbereitung auf eine Karte, die wir letztlich doch nicht erleben mussten, weil TSMC 4N deutlich besser geworden ist als man ursprünglich befürchtet hatte (noch mit Samsung Prozess?).
Das jetzt AMD revisionistisch auf den Zug aufspringt und den Verzicht auf den Stecker der Konkurrenz unter Nase reibt, ist plump aber auch legitim.
Adam D.
2022-10-28, 13:03:11
https://videocardz.com/newz/amd-radeon-rx-7900-series-rumored-to-launch-in-early-december
Launch Anfang Dezember, das XTX-Kürzel scheint sich zu bestätigen. Kann man das als Ausdruck von Selbstbewusstsein werten? ;D
robbitop
2022-10-28, 13:04:33
Ob man jetzt 1 oder 3 Stecker reinsteckt. Ganz ehrlich: wayne?
Badesalz
2022-10-28, 13:15:50
Das jetzt AMD revisionistisch auf den Zug aufspringt und den Verzicht auf den Stecker der Konkurrenz unter Nase reibt, ist plump aber auch legitim.AMD hätte sich das wahrscheinlich angeschaut, aber für RDNA3 brauchen sie das einfach nicht. Damit braucht man sich auch auf keine Experimente einlassen, wie NV es grad bei uns daheim tut.
Dino-Fossil
2022-10-28, 13:19:11
Kann man das als Ausdruck von Selbstbewusstsein werten? ;D
Wäre zu wünschen, wobei man die Bulldozer damals auch FX genannt hatte (glaube aber nicht, dass RDNA3 ein neuer Bulldozer wird)...
robbitop
2022-10-28, 13:24:01
Naja dass man von N31 ein Salvage und einen Full Chip hat, ist ja nicht unbedingt ungewöhnlich. Und ob der jetzt XT oder XTX heißt, spielt keine große Rolle. Abwarten, was der Chip "auf dem Platz" kann.
vinacis_vivids
2022-10-28, 13:25:33
https://twitter.com/blueisviolet/status/1585843945757515776
"RDNA3 RT similar to xbox
instead too many fixed fucntion
RDNA3 probably splitted the compute , one acted as Scalarization as frontend, to sort to etc, and fit with idea traversal (Standalone) shader"
mr coffee
2022-10-28, 13:26:06
Es spielt insofern eine Rolle, dass bei der selbstbewussten Namensgebung auch entsprechende Leistung zu erwarten ist.
robbitop
2022-10-28, 13:30:31
Bei der katastrophalen Radeon 2900 gab es auch ein XTX Modell
https://www.techpowerup.com/gpu-specs/radeon-hd-2900-xtx.c2140
G80 hat man aber nirgends auch nur ansatzweise eingeholt.
Ich weiß nicht, ob das unbedingt viel Selbstbewußtsein ausstrahlen muss. Ggf. gibt es auch 3x SKUs aber man will die 50 sich noch für den Refresh aufheben und keine der SKUs 78xx nennen weil für N32 reserviert. Erstmal den Ball flach halten.
why_me
2022-10-28, 13:32:30
https://twitter.com/blueisviolet/status/1585843945757515776
[I]"RDNA3 RT similar to xbox
Wer ist das überhaupt? Muss man den kennen?
Lehdro
2022-10-28, 13:34:27
Bei der katastrophalen Radeon 2900 gab es auch ein XTX Modell
https://www.techpowerup.com/gpu-specs/radeon-hd-2900-xtx.c2140
The Radeon HD 2900 XTX was a graphics card by ATI, that was never released.
I wonder why. :rolleyes:
Adam D.
2022-10-28, 13:35:32
Ich weiß nicht, ob das unbedingt viel Selbstbewußtsein ausstrahlen muss. Ggf. gibt es auch 3x SKUs aber man will die 50 sich noch für den Refresh aufheben und keine der SKUs 78xx nennen weil für N32 reserviert. Erstmal den Ball flach halten.
Ich denke, das ist die naheliegendste Erklärung. Sollte die 24GB-Karte wirklich an die 4090 heranreichen, könnte man ja evtl. noch einen Gegenspieler zur 4090 Ti bringen - auch wenn ich nicht so wirklich dran glauben mag.
basix
2022-10-28, 13:47:22
Ob man jetzt 1 oder 3 Stecker reinsteckt. Ganz ehrlich: wayne?
Ist wirklich nicht der Rede wert. Aber 1x 600W Stecker hätte den Vorteil, dass man alle GPUs mit diesem einen Kabel versorgen kann. Egal ob 100W oder 600W. Da sehe ich den Vorteil. für uns Nutzer. Zuerst war man bei 1x 6p, dann 2x 6p, dann 2x 6+2p...war schon nicht das Gelbe vom Ei. Von seiten Hersteller sinkt zudem die E-BOM, da weniger Stecker verbaut werden müssen.
Meridian12
2022-10-28, 14:06:12
Ich denke, das ist die naheliegendste Erklärung. Sollte die 24GB-Karte wirklich an die 4090 heranreichen, könnte man ja evtl. noch einen Gegenspieler zur 4090 Ti bringen - auch wenn ich nicht so wirklich dran glauben mag.
Wobei hier die Frage natürlich nach dem anvisierten Kaufpreis ist der AMD Karte.
Bei zB 1400 Euro wäre eine TI für 2500 Euro nicht so wirklich der Knaller.
Zumal die 4090 ja keine Karte ist,die eine TI nötig macht. Ausser für die,die unbedingt immer die teuerste Gamingkarte benötigen für ihr Selbstbewusstsein :D
Dass die 7900XT nur 20GB hat, daran würde ich festmachen, dass da schon Abstand zur 4090 herrscht.
Und leider klingt dieser
https://twitter.com/blueisviolet/status/1585843945757515776
"RDNA3 RT similar to xbox
instead too many fixed fucntion
RDNA3 probably splitted the compute , one acted as Scalarization as frontend, to sort to etc, and fit with idea traversal (Standalone) shader"
... Ansatz schon sehr stark nach AMD. Mal sehen, wie das dann in der Praxis läuft und ob da überhaupt was dran ist.
DrFreaK666
2022-10-28, 14:16:16
Ist wirklich nicht der Rede wert. Aber 1x 600W Stecker hätte den Vorteil, dass man alle GPUs mit diesem einen Kabel versorgen kann. Egal ob 100W oder 600W. Da sehe ich den Vorteil. für uns Nutzer. Zuerst war man bei 1x 6p, dann 2x 6p, dann 2x 6+2p...war schon nicht das Gelbe vom Ei. Von seiten Hersteller sinkt zudem die E-BOM, da weniger Stecker verbaut werden müssen.
Eine 600W GPU ist für mich kein Vorteil
Eine 600W GPU ist für mich kein Vorteil
Jo dem muss ich absolut zustimmen. So ein Mist käme mir nicht in den Rechner. 300W, die man bei 120-150W herunteregeln kann, wenn man das will, das wär optimal. Derzeit betreibe ich meine 6800 auf ~120W (auf 1,8GHz), das reicht für die meisten Sachen.
Daredevil
2022-10-28, 14:18:13
Eine 600W GPU ist für mich kein Vorteil
Dann bist du wohl niemand, der Leistung benötigt. Es gibt aber nun mal welche, die Leistung benötigen und das geht einher mit Strom, schon seit ungefähr immer.
Langlay
2022-10-28, 14:30:47
Dann bist du wohl niemand, der Leistung benötigt. Es gibt aber nun mal welche, die Leistung benötigen und das geht einher mit Strom, schon seit ungefähr immer.
Imo solange es ums zocken geht, benötigt man die Leistung nicht sie ist nur nice to have. Und der 2. Teil ist schlichtweg falsch.
Die Leistungaufnahme ist zwar über die Zeit gestiegen, die Leistungsfähigkeit ist aber um Grössenordnungen schneller gestiegen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.