PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 [51] 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Ravenhearth
2020-09-26, 18:42:34
Was ist aus der Aussage von einem Dev (Mark Cerny?) geworden, dass RDNA2 konstruktionsbedingt nicht mehr als 2,25Ghz schafft? Hat N22 als einziger Chip diese Limitierung nicht? Fragen über Fragen
Die Frequenzen sind wohl das Maximum der Spannungskurve, da hat Navi10 auch schon 2100 MHz. Real dürften die also etwas niedriger ausfallen.

Langlay
2020-09-26, 18:45:09
Der in GPUz gezeigte Verbrauch geht so um ~10w runter, wenn man den HBM2 von 1000 auf 800Mhz taktet. Das müsste doch eher bedeuten, dass er mit zum "ASIC" zählt, oder? Oder zumindest hat es eine Verbindung.

Der Meinung bin ich ja schon seit ewigen Zeiten das bei HBM Karten der HBM mit zum ASIC Verbrauch zählt. Ist z.b. auch so im Overclockeringguide im PCGH Forum so erklärt.

https://extreme.pcgameshardware.de/threads/rx-vega-56-64-overclocking-undervolting-anleitung-rajintek-morpheus-2-inkl-backplate.512389/

GPU Power(ASIC): Die Leistungsaufnahme von GPU und HBM ohne Wandlerverluste.

Lüfter und eventuelles RGB BlingBling kommen natürlich noch dazu beim Gesamtverbrauch zusätzlich zu den Wandlerverlusten.

aufkrawall
2020-09-26, 18:47:08
Hatte die Vega 56 das gleiche Board wie die 64? Da das für >300W ausgelegt war, sind die Verluste sicherlich nicht ohne.

dargo
2020-09-26, 18:49:27
Für mich sehen die Taktraten und CUs auch sehr komisch aus. N22 müsste eigentlich 48 CUs haben, damit die Abstände passen. Zwar wird suggeriert, dass N22 das durch höheren Takt kompensiert, aber das wirft ja direkt die nächste Frage auf: Warum kann dieser Chip so viel höher takten als die anderen?
Also für mich sieht es recht schlüssig aus wenn N22 nur 40CUs hat. Der Abstand zur 80 CU GPU inkl. Salvage wäre einfach zu groß bei gleichen Taktraten. Offenbar kommt man mit der 40CU GPU in einen realen Taktbereich von 2,2-2,3Ghz bei max. 2,5Ghz für den Arbeitsbereich. N21 muss man dann wieder etwas stärker im Takt einbremsen damit du nicht bei 400+W für die gesamte Karte landest. N21 wird man sicherlich auch so hoch takten können wie N22. Nur halt eher mit Wakü und höherem PT als diese 238W GPU-Power. Ich sehe hier durchaus Parallelen zur XBSX und PS5. Letztere taktet mit weniger CUs höher. Die Taktmauer von RDNA 2 wird sicherlich etwas über 2,5Ghz liegen sofern die Tabelle stimmt. Das heißt jetzt natürlich nicht, dass N22 diese 2,5Ghz mit nur 170W PT schafft. Das ist wie ich schon angemerkt habe nur der max. Wert für die Spannungskurve.


Achja, und GDDR6+HBM2 gleichzeitig finde ich immer noch bescheuert.

Ich auch, denn ich kann mir nicht zusammen reimen was das bringen soll? Links GDDR6 Controller, rechts HBM Controller mit jeweils gleicher Bandbreite? Dann kann ich rechts auch gleich GDDR6 Controller nehmen. :tongue: Irgendwas übersehen wir hier. :uponder:

Langlay
2020-09-26, 18:50:22
Hatte die Vega 56 das gleiche Board wie die 64? Da das für >300W ausgelegt war, sind die Verluste sicherlich nicht ohne.

Die Referenz Vega56 und 64 hatten das gleiche Board in gleicher Bestückung, wie das bei den Customs aussieht weiss ich allerdings nicht. Allerdings sind die Referenzboards vom AMD VRM mäßig naturgemäß over engineered.

Ravenhearth
2020-09-26, 18:51:46
Also für mich sieht es recht schlüssig aus wenn N22 nur 40CUs hat. Der Abstand zur 80 CU GPU inkl. Salvage wäre einfach zu groß bei gleichen Taktraten. Offenbar kommt man mit der 40CU GPU in einen realen Taktbereich von 2,2-2,3Ghz bei max. 2,5Ghz für den Arbeitsbereich. N21 muss man dann wieder etwas stärker im Takt einbremsen damit du nicht bei 400+W für die gesamte Karte landest. N21 wird man sicherlich auch so hoch takten können wie N22. Nur halt eher mit Wakü und höherem PT als diese 238W GPU-Power. Ich sehe hier durchaus Parallelen zur XBSX und PS5. Letztere taktet mit weniger CUs höher. Die Taktmauer von RDNA 2 wird sicherlich etwas über 2,5Ghz liegen sofern die Tabelle stimmt. Das heißt jetzt natürlich nicht, dass N22 diese 2,5Ghz mit nur 170W PT schafft.
Das erklärt nur die 32 CUs von Navi23 nicht. Wenn der auch so hoch taktet wie Navi22, ist der Abstand sehr gering. Wenn nicht, warum nicht? Dann hätten auch weniger CUs bei mehr Takt gereicht.

gedi
2020-09-26, 18:52:31
Wie hoch war eigentlich die TBP bei ner Referenz-V64?

Linmoum
2020-09-26, 18:54:48
Einzig logische Erklärung wäre in meinen Augen, dass N23 mobile-only ist. Auch, wenn ich nach oben hin noch nicht weiß, wie AMD den Platz zwischen N21 und N22 füllen will. Mit Salvages von N21?

Ravenhearth
2020-09-26, 18:57:21
Was ist eigentlich mit Navi24? Ist der noch kleiner als Navi23 oder sitzt der zwischen Navi21 und Navi22?

Daredevil
2020-09-26, 18:57:54
Wieso sind denn diese Einträge eigentlich in MacOS Big Sur vorhanden?
Apple will doch in Zukunft eigentlich ihr eigenes Silicon verbauen, es sei denn, die kombinieren das ganze immer noch mit AMD GPUs.
Die dicke Navi für den MacPro ist ja recht logisch ( Muss stetig gepflegt werden ), die kleineren Modelle für den iMac oder Macbook sind aber auch denkbar, schließlich will Apple ja Gaming pushen.
Würde mich zwar überraschen, ich habe aber auch keine Ahnung, was am meisten Sinn macht. :D

Und wenn man Gaming pushen möchte, dann sicherlich auch mit den gleichen Kram, der in Konsolen steckt.
Schließlich wollen die Arbeitsrechner ja auch ein wenig RT für Workloads.

dargo
2020-09-26, 18:59:26
Bei N10 steht eine Frequenz von 1.4G, beim N21 2.05, bzw. 2.2G. Um diese Geschichte ging’s. Und nichts was man ernst nehmen müsste! Von daher bin ich mir sicher, dass MB einen Scherz gemacht hat.
Ich weiß ehrlich gesagt nicht was ich mit den Daten zu N10 anfangen soll? Die Frequenzen sprechen für eine Mobileversion, die GPU-Power eindeutig dagegen. Vielleicht trollt uns nur einer mit dieser Tabelle. :D

Das erklärt nur die 32 CUs von Navi23 nicht. Wenn der auch so hoch taktet wie Navi22, ist der Abstand sehr gering. Wenn nicht, warum nicht? Dann hätten auch weniger CUs bei mehr Takt gereicht.
Ich muss zugeben mit den kleinen Dingern beschäftige ich mich nicht sonderlich. :redface:

mboeller
2020-09-26, 19:04:46
@gedi und mboeller

Ihr fantasiert nur wieder rum. Bitte mehr Substanz in die Diskussion bringen.

schau dir einfach die Navi10 Frequenzen in der Reddit Tabelle an ...

hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440549&postcount=12447

gedi
2020-09-26, 19:06:26
Ich weiß ehrlich gesagt nicht was ich mit den Daten zu N10 anfangen soll? Die Frequenzen sprechen für eine Mobileversion, die GPU-Power eindeutig dagegen. Vielleicht trollt uns nur einer mit dieser Tabelle. :D

Die Angabe stimmt schon, weiß jetzt nicht welcher P-State das bei N10 ist. Es ist allerdings die erste Stufe für 3D-Anwendungen. Hier spielt natürlich die Load und das Treiberprofil eine Rolle. So ganz ernst nehmen kann ich die Tabelle allerdings auch nicht, zu viel Phantasie und so ....

dargo
2020-09-26, 19:06:44
schau dir einfach die Navi10 Frequenzen in der Reddit Tabelle an ...

hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440549&postcount=12447
Die sind bullshit. Da passt überhaupt nichts. Max. 1Ghz spricht für Mobile, 180W komplett dagegen. Wenn ich einen N22 mit 170W habe wofür brauche ich dann einen N10 mit 180W? Völlig gaga. Wie ich schon sagte... eventuell trollt uns nur einer.

mboeller
2020-09-26, 19:07:15
Bei N10 steht eine Frequenz von 1.4G, beim N21 2.05, bzw. 2.2G. Um diese Geschichte ging’s. Und nichts was man ernst nehmen müsste! Von daher bin ich mir sicher, dass MB einen Scherz gemacht hat.

ja sicher... deshalb ja das ;D

Langlay
2020-09-26, 19:07:42
Wie hoch war eigentlich die TBP bei ner Referenz-V64?

Vega64 Referenz hatte 220W ASIC Powerlimit und TBP von 295W.

BoMbY
2020-09-26, 19:08:01
Interessant:


Samsung’s HBM2E can also attain a transfer speed of 4.2Gbps, the maximum tested data rate to date, enabling up to a 538GB/s bandwidth per stack in certain future applications.


https://news.samsung.com/us/samsung-flashbolt-industrys-first-3rd-generation-16gb-hbm2e/

Vielleicht ist es nicht HBM2 mit 2.0 Gbps (2 Stacks mit 512 GB/s gesamt) sondern HBM2E mit 4.0 Gbps (2 Stacks mit 1024 GB/s gesamt).

Ravenhearth
2020-09-26, 19:10:35
80 CUs mit 1024 GB/s und 40 CUs mit 384 GB/s?

Berniyh
2020-09-26, 19:16:33
Der in GPUz gezeigte Verbrauch geht so um ~10w runter, wenn man den HBM2 von 1000 auf 800Mhz taktet. Das müsste doch eher bedeuten, dass er mit zum "ASIC" zählt, oder? Oder zumindest hat es eine Verbindung.
Es muss nicht unbedingt der Speicher sein, könnte auch das Speicherinterface sein, welches dann weniger Leistung frisst.

Gouvernator
2020-09-26, 19:17:00
hast du spiele mit dlss unterstützung?

kannst du mal checken wie hoch der vram verbrauch unter 8k nativ und 8k dlss quality bis ultra performance ist?
Mechwarrior 5
nativ 16,5Gb
DLSS
performance 11,9gb
balanced 12.6gb
quality 13,7 gb

Berniyh
2020-09-26, 19:18:53
Was ist eigentlich mit Navi24? Ist der noch kleiner als Navi23 oder sitzt der zwischen Navi21 und Navi22?
Über Navi 24 wissen wir nichts, außer, dass es den Chip angeblich geben soll.

gedi
2020-09-26, 19:20:43
Es muss nicht unbedingt der Speicher sein, könnte auch das Speicherinterface sein, welches dann weniger Leistung frisst.

Nö, der Interposer hat 0.95V fix, wenn man daran nichts ändert. Zudem ist es bei HBM wirklich so, dass es auch da P-States gibt.
Siehe VBios V64 und V56

dargo
2020-09-26, 19:27:06
In dem Vergleich von Langlay (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11899377&postcount=10) kommt die Verbrauchsersparnis ebenfalls von der niedrigeren Voltage im P2 State des Memory-Controllers bei 800Mhz HBM. Man hätte für einen besseren Vergleich die PP-Table etwas anders gestalten können. In P3 bsw. 820Mhz beim Speicher angeben damit der P3 State garantiert in beiden Fällen greift und somit in beiden Fällen der Speichercontroller mit 900mV angesteuert wird.

Langlay
2020-09-26, 19:33:31
In dem Vergleich von Langlay (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11899377&postcount=10) kommt die Verbrauchsersparnis ebenfalls von der niedrigeren Voltage im P2 State des Memory-Controllers bei 800Mhz HBM. Man hätte für einen besseren Vergleich die PP-Table etwas anders gestalten können. In P3 bsw. 820Mhz beim Speicher angeben damit der P3 State garantiert in beiden Fällen greift und somit in beiden Fällen der Speichercontroller mit 900mV angesteuert wird.

Ja im Nachgang her könnte man sicherlich optimieren. Allerdings erscheint mir 10W nur für den Memorycontroller von 800 auf 945MHz schon recht viel. Hieße ja bei linearer Skalierung das der Memorycontroller allein 60W rausballert.

gedi
2020-09-26, 19:42:27
Ja im Nachgang her könnte man sicherlich optimieren. Allerdings erscheint mir 10W nur für den Memorycontroller von 800 auf 945MHz schon recht viel. Hieße ja bei linearer Skalierung das der Memorycontroller allein 60W rausballert.

Mir fällt noch etwas ein: war es bei Vega nicht so, wenn man dem Interposer nur 0.85V gab der HBM nur noch mit 800mhz angesprochen wurde?

dargo
2020-09-26, 19:45:04
Ja im Nachgang her könnte man sicherlich optimieren. Allerdings erscheint mir 10W nur für den Memorycontroller von 800 auf 945MHz schon recht viel. Hieße ja bei linearer Skalierung das der Memorycontroller allein 60W rausballert.
So meinte ich es nicht. :) Hättest du zusätzlich meine Variante probiert wüssten wir was alleine der HBM mit weniger Frequenz einspart. So wissen wir halt "nur" was der HBM + Memory-Controller gemeinsam einsparen.

gedi
2020-09-26, 19:47:43
Wie ist das bei dem Samsung HBM eigentlich? Läuft der frei ohne Interposer und Anbindung über ein normales SI? Würde zumindest erklären, dass sowohl als auch verbaut werden können

dargo
2020-09-26, 20:18:48
Wie kommst du jetzt auf den Trichter? Wie willst du die ganzen Datenleitungen zur GPU sonst ausführen?

Edit:
Lese dich mal hier ein. :)
https://semiengineering.com/gddr6-and-hbm2-signal-integrity-challenges-for-ai/

gedi
2020-09-26, 20:24:58
Wie kommst du jetzt auf den Trichter? Wie willst du die ganzen Datenleitungen zur GPU sonst ausführen?

Es gab doch mal ne Folie, wo ein Interposer nicht mehr benötigt wird. Wobei das mit dem SI und HBM eigentlich auch Quatsch ist. Keine Ahnung :confused:

Danke für den Link :) Ich hab’s nur kurz überflogen, aber letzte Absatz bestätigt mich doch mehr. Naja egal, es kommt wie es kommt. Sprich RDNA2 ab ins Mobo und schauen was bei rumkommt

dargo
2020-09-26, 20:27:52
Du meinst bestimmt reines 3D-Stacking, also GPU und HBM übereinander gestapelt. Ob sowas jemals im Desktop kommt? Stelle ich mir schwierig bei der Kühlung gegenüber dem jetzigen 2,5D-Stacking vor.

Cyberfries
2020-09-26, 20:28:23
kopite7kimi
I don't know, but someone told me the target frequency of NAVI21 is 2.3GHz. I have no evidence.

Wie kommst du jetzt auf den Trichter?

Wurde zuletzt diskutiert, z.B. hier:

ASE kann HBM direkt auf das Substrat packen ohne Interposer

gedi
2020-09-26, 20:36:06
kopite7kimi




Wurde zuletzt diskutiert, z.B. hier:

Die Anbindung?

Der_Korken
2020-09-26, 20:37:02
Also für mich sieht es recht schlüssig aus wenn N22 nur 40CUs hat. Der Abstand zur 80 CU GPU inkl. Salvage wäre einfach zu groß bei gleichen Taktraten. Offenbar kommt man mit der 40CU GPU in einen realen Taktbereich von 2,2-2,3Ghz bei max. 2,5Ghz für den Arbeitsbereich. N21 muss man dann wieder etwas stärker im Takt einbremsen damit du nicht bei 400+W für die gesamte Karte landest.:

Selbst ein 72CU-Salvage hätte immer noch satte 80% mehr CUs als ein voller N22. Selbst wenn letzterer 20% höher taktet (und das ist eigentlich schon krass viel, das wäre sowas wie 1,6Ghz vs 1.92Ghz bei N10, also ultra-low-voltage vs. Kotzgrenze), sind es noch +50% für N21 Salvage vs N22 Full. Mich machen diese hohen Unterschiede bei den Taktraten stutzig - ich kann mich nicht erinnern, wann sowas schon mal vorkam. Eventuell aus Urzeiten die 6600GT vs 6800GT, aber da waren es auch 110nm vs 130nm. N21 und N23 wirken künstlich eingebremst, was wirtschaftlich schlecht ist. Bei N21 kann man vielleicht noch argumentieren, dass AMD einen "overclocker's dream" rausbringen will, aber bei N23 hört es dann auf. Gib dem N22 48CUs und den selben Takt wie die anderen und die Abstände (50% und 65% vs 25% und 100%) ergeben viel mehr Sinn.

Es muss nicht unbedingt der Speicher sein, könnte auch das Speicherinterface sein, welches dann weniger Leistung frisst.

Ich denke auch, dass es das sein wird. Der Memory Controller und die PHYs fressen auch einiges. Zudem, wenn bei V10 der HBM schon in der ASIC-Power drin war, was hat denn da noch 65-70W gezogen? Die VRMs und die Platine? :freak: Wie kann eine 5700XT dann nur 45W für VRMs, Platine und den GDDR6 zusammen brauchen? Ergibt für mich keinen Sinn.

Linmoum
2020-09-26, 20:40:27
Bei N21 kann man vielleicht noch argumentieren, dass AMD einen "overclocker's dream" rausbringen will, aber bei N23 hört es dann auf.Wie gesagt, mMn exklusiver Chip für Mobile. Rein logisch betrachtet ergibt alles andere auch keinen Sinn, da es auch von N22 Salvages geben wird.

SKYNET
2020-09-26, 20:46:00
Dafür wird sich auch ne Lösung finden. Und ist ja nich so das es ominöse Blackscreens und Abstürze bei AMD noch nicht gab.

ja, nen fix via treiber oder bios, wo man dann min. 5% leistung verliert... und somit nicht mehr das produkt ist, das beworben und dann gekauft wurde... :freak:

ja, navi ist auch sonen kandidat... hoffe bei RDNA2 auf besserung...

SKYNET
2020-09-26, 20:48:24
Selbst ein 72CU-Salvage hätte immer noch satte 80% mehr CUs als ein voller N22. Selbst wenn letzterer 20% höher taktet (und das ist eigentlich schon krass viel, das wäre sowas wie 1,6Ghz vs 1.92Ghz bei N10, also ultra-low-voltage vs. Kotzgrenze), sind es noch +50% für N21 Salvage vs N22 Full. Mich machen diese hohen Unterschiede bei den Taktraten stutzig - ich kann mich nicht erinnern, wann sowas schon mal vorkam. Eventuell aus Urzeiten die 6600GT vs 6800GT, aber da waren es auch 110nm vs 130nm. N21 und N23 wirken künstlich eingebremst, was wirtschaftlich schlecht ist. Bei N21 kann man vielleicht noch argumentieren, dass AMD einen "overclocker's dream" rausbringen will, aber bei N23 hört es dann auf. Gib dem N22 48CUs und den selben Takt wie die anderen und die Abstände (50% und 65% vs 25% und 100%) ergeben viel mehr Sinn.



Ich denke auch, dass es das sein wird. Der Memory Controller und die PHYs fressen auch einiges. Zudem, wenn bei V10 der HBM schon in der ASIC-Power drin war, was hat denn da noch 65-70W gezogen? Die VRMs und die Platine? :freak: Wie kann eine 5700XT dann nur 45W für VRMs, Platine und den GDDR6 zusammen brauchen? Ergibt für mich keinen Sinn.


wenn mich nicht alles täuscht, ist der speicher IMMER!! in der ASIC rechnung mit drinne, egal ob HBM oder GDDR... man möge mich berichtigen, wenns nicht so ist...

gedi
2020-09-26, 20:48:30
Wie gesagt, mMn exklusiver Chip für Mobile. Rein logisch betrachtet ergibt alles andere auch keinen Sinn, da es auch von N22 Salvages geben wird.

Wie läuft es dann deiner Meinung nach ab: N21 Full+HBM 3090-Segment, leicht kastrierter N21+HBM 3080 Segment und ein arg kastrierter N21 mit GDDR6 gleich 3070Ti Segment? Hm:confused:

AffenJack
2020-09-26, 20:49:39
Wie gesagt, mMn exklusiver Chip für Mobile. Rein logisch betrachtet ergibt alles andere auch keinen Sinn, da es auch von N22 Salvages geben wird.

Was ist mit einem Apple Exklusiven Chip, wie Navi12? Soweit ich verstanden hab, wird Apple auch bei den GPUs komplett auf eigene GPUs wechseln, aber ob das schon jetzt der Fall sein wird?

Linmoum
2020-09-26, 20:52:20
Keine Ahnung, wie bzw. mit was AMD die Lücke zwischen N21 und N22 schließen will. Entweder N24 ordnet sich unterhalb von N23 ein oder das ist der Chip zwischen N21 und N22.

rogame hatte ja gestern spekuliert: Navi21 XTX/XT/XL mit HBM, XE dafür nur mit GDDR6. Vielleicht verwurstet man N21 ja für alles mögliche, auch, wenn es mich überraschen würde, wenn sie hier auf beides setzen.

Was ist mit einem Apple Exklusiven Chip, wie Navi12? Soweit ich verstanden hab, wird Apple auch bei den GPUs komplett auf eigene GPUs wechseln, aber ob das schon jetzt der Fall sein wird?
Die Möglichkeit besteht natürlich auch. Wie gesagt, für einen "Desktop-Chip" ist das Ding einfach überflüssig und ich glaube auch nicht, dass wir den dort sehen werden.

Cyberfries
2020-09-26, 20:53:20
Die Anbindung?

Wonach fragst du? Es geht in dem Beitrag von unl34shed (Pfeil anklicken) unter anderem um HBM ohne Interposer.

Wie gesagt, mMn exklusiver Chip für Mobile

Nach der Tabelle ist N22 mit 170w und 192bit schon auf Mobil zugeschnitten.
Was willst du da noch groß verbessern bei N23? Kannst ja nicht noch schnell die Architektur stromsparend umbauen.

Gib dem N22 48CUs und den selben Takt wie die anderen und die Abstände (50% und 65% vs 25% und 100%) ergeben viel mehr Sinn.

Das hier.

Wie läuft es dann deiner Meinung nach ab: N21 Full+HBM 3090-Segment

Ich würde nicht von der 3090 träumen. 3080 ist das bessere Ziel.

Was ist mit einem Apple Exklusiven Chip, wie Navi12?

Unwahrscheinlich. Von N12 (40CU) zu N23 (32CU) lohnt wohl kaum eine Neuentwicklung.

Entweder N24 ordnet sich unterhalb von N23 ein oder das ist der Chip zwischen N21 und N22.

N24 steht gegen Sommer 2021 an. Nach über nem halben Jahr muss man die Lücke nicht mehr schließen,
wenn N31 schon gegen Ende21/Anfang22 kommt. Was anderes als unten abrunden oder Custom würde mich wundern.

Daredevil
2020-09-26, 20:58:29
Ich würde nicht von der 3090 träumen. 3080 ist das bessere Ziel.

Muss man diese Karten denn überhaupt unterscheiden, wenn sie eh nur ~15% Unterschied machen?
Wenn AMD die 3080 angreifen möchte, greifen sie auch automatisch die 3090 an.
Weil 5% schneller als eine 3080 ist ein Angriff auf die 3080, als auch auf die 3090, die Karte wäre in dem Fall halt nur 10% langsamer.

3080 und 3090 kannste für 99% aller Gamer in einen Topf stecken.

gedi
2020-09-26, 21:07:01
Wonach fragst du? Es geht in dem Beitrag von unl34shed (Pfeil anklicken) unter anderem um HBM ohne Interposer.



Nach der Tabelle ist N22 mit 170w und 192bit schon auf Mobil zugeschnitten.
Was willst du da noch groß verbessern bei N23? Kannst ja nicht noch schnell die Architektur stromsparend umbauen.



Das hier.




Ich würde nicht von der 3090 träumen. 3080 ist das bessere Ziel.



Unwahrscheinlich. Von N12 (40CU) zu N23 (32CU) lohnt wohl kaum eine Neuentwicklung.



N24 steht gegen Sommer 2021 an. Nach über nem halben Jahr muss man die Lücke nicht mehr schließen,
wenn N31 schon gegen Ende21/Anfang22 kommt. Was anderes als unten abrunden oder Custom würde mich wundern.

Pfeil? Ich sehe keinen?! Zur 3090: Gab doch den Leak, dass N21 knapp 6% vor der 3090 rausgekommen soll. Kann klar nen Fake sein, ...
N22 bei 170w und mobil? Nicht dein ernst?! Zudem bin ich mir eigentlich sehr sicher, dass N22 bei 256-Bit rauskommt und N23 bei 192-Bit. Die Chips sollten eigentlich 5700(xt) und 5600 beerben. Darunter macht RT auch keinen Sinn, somit bleibt die 5500 so wie sie ist, nur halt sehr viel günstiger zu erwerben.

Linmoum
2020-09-26, 21:08:52
Zudem bin ich mir eigentlich sehr sicher, dass N22 bei 256-Bit rauskommt und N23 bei 192-Bit.Jetzt haben wir Fakten und du siehst es trotzdem noch anders? :freak:

Digidi
2020-09-26, 21:15:04
Pfeil? Ich sehe keinen?! Zur 3090: Gab doch den Leak, dass N21 knapp 6% vor der 3090 rausgekommen soll. Kann klar nen Fake sein, ...
N22 bei 170w und mobil? Nicht dein ernst?! Zudem bin ich mir eigentlich sehr sicher, dass N22 bei 256-Bit rauskommt und N23 bei 192-Bit. Die Chips sollten eigentlich 5700(xt) und 5600 beerben. Darunter macht RT auch keinen Sinn, somit bleibt die 5500 so wie sie ist, nur halt sehr viel günstiger zu erwerben.


Wie kann man nur so voreingenommen sein und sich jetzt schon festlegen auf etwas was noch überrhaupt nicht klar ist. Der Treiber läst zurzeit alles zu HBM im mix mit GDDR6 etc wir wissen nichts gar nichts!

Lass mich raten du hast dir eine 3080 bestellt und machst dir nun in die Hose das die Navi21 Karten besser sein können, also redest du dir das alles schön? Da bin ich mir sehr sicher! :D

Cyberfries
2020-09-26, 21:16:10
Weil 5% schneller als eine 3080 ist ein Angriff auf die 3080, als auch auf die 3090, die Karte wäre in dem Fall halt nur 10% langsamer.

Das setzt voraus, dass die 3080 geschlagen wird.

Pfeil? Ich sehe keinen?!

Du kannst bei Zitaten den Pfeil hinter dem Namen anklicken um zum Ursprungsbeitrag zu kommen....

N22 bei 170w und mobil?

N10 lag 10watt drüber, trotzdem findest du den Chip in einigen Notebooks, ebenso wie 2060/1660.
Das ist für schlanke Notebooks gerade noch die Größenordnung von ca.60watt,
die gut passt ins 08/15-Medien/Business-Notebook.
Und drunter sind wir eher so bei N14/TU117, da wäre noch weniger Strom nicht schlecht, 32CU eher zuviel.

Jetzt haben wir Fakten und du siehst es trotzdem noch anders? :freak:

Bei dem merkwürdigen Portfolio das sich hier ergibt kann ich ihm das nicht verübeln...

gedi
2020-09-26, 21:16:58
Jetzt haben wir Fakten und du siehst es trotzdem noch anders? :freak:

Fakten? Zeig

dargo
2020-09-26, 21:21:49
Selbst ein 72CU-Salvage hätte immer noch satte 80% mehr CUs als ein voller N22. Selbst wenn letzterer 20% höher taktet (und das ist eigentlich schon krass viel, das wäre sowas wie 1,6Ghz vs 1.92Ghz bei N10, also ultra-low-voltage vs. Kotzgrenze), sind es noch +50% für N21 Salvage vs N22 Full.
Du vergisst hierbei, dass ein Salvage N21 mit hoher Wahrscheinlichkeit auch niedrigere Frequenzen (mit frei wählbaren PT-Limits gar kein Problem) als der TopDog fahren wird. Wie das halt so in der Regel der Fall ist. Und ob der Salvage 72 CUs abbekommt wissen wir auch noch nicht. Es könnten auch 68 CUs sein.


rogame hatte ja gestern spekuliert: Navi21 XTX/XT/XL mit HBM, XE dafür nur mit GDDR6. Vielleicht verwurstet man N21 ja für alles mögliche, auch, wenn es mich überraschen würde, wenn sie hier auf beides setzen.

Vier Leistungssegmente aus der selben GPU? Das wäre Selbstmord bei spekulierten 427-505mm². :freak:


Nach der Tabelle ist N22 mit 170w und 192bit schon auf Mobil zugeschnitten.

What? 170W ASIC in Mobile? Wer will das denn verbauen? :freak:

gedi
2020-09-26, 21:22:23
Wie kann man nur so voreingenommen sein und sich jetzt schon festlegen auf etwas was noch überrhaupt nicht klar ist. Der Treiber läst zurzeit alles zu HBM im mix mit GDDR6 etc wir wissen nichts gar nichts!

Lass mich raten du hast dir eine 3080 bestellt und machst dir nun in die Hose das die Navi21 Karten besser sein können, also redest du dir das alles schön? Da bin ich mir sehr sicher! :D

Sorry, das ist kindisch. Ich mag die Lisa mehr als Jensen, von daher...

Es macht mich, ohne heute in Twitter geschaut zu haben, relativ ratlos was da gepostet wird. Insbesondere die Horn-Tabelle schmeißt mich so ein wenig aus der Bahn

@Cyberfries

Danke, du hast es erfasst!

Berniyh
2020-09-26, 21:28:13
Keine Ahnung, wie bzw. mit was AMD die Lücke zwischen N21 und N22 schließen will. Entweder N24 ordnet sich unterhalb von N23 ein oder das ist der Chip zwischen N21 und N22.

rogame hatte ja gestern spekuliert: Navi21 XTX/XT/XL mit HBM, XE dafür nur mit GDDR6. Vielleicht verwurstet man N21 ja für alles mögliche, auch, wenn es mich überraschen würde, wenn sie hier auf beides setzen.
Also wenn es wirklich stimmt, dass Navi 21 sowohl HBM als auch GDDR6 kann, dann macht die große Lücke zwischen Navi 21 und Navi 22 halbwegs Sinn:

Tier 1 (z.B. XTX): HBM2 mit 16-24 GB, Vollaktiviert
Tier 2 (z.B. XT): HBM2 mit 16 GB, vollaktiviert. Alternativ 16 GB GDDR6 256 Bit (falls es diese Secret Sauce zwecks Bandbreiteneffizienz gibt)
Tier 3: 256 Bit GDDR6, mit 64 CU, 16 GB
Tier 4: 192 Bit GDDR6, mit 48 CU, 12 GB

Wenn die kolportierten Chipflächen stimmen, dann könnten man selbst bei dieser größeren Salvages mit Navi 21 noch rentabel sein.
Der Wechsel der Speichers würde das ermöglichen.

Es war aber ja die Spekulation, dass HBM2 nur für die Apple-exclusive kommt.
Kann ich mir – sollte das mit HBM2 stimmen – aber nicht so richtig vorstellen.
AMD muss doch wissen, dass es Anwender gibt, die für HBM2 auch etwas mehr zahlen würden. Also warum nicht auch eine Karte mit der Spec anbieten?

Generell stehe ich dem aber noch skeptisch gegenüber. Zwar mag ich das glauben was die Firmware uns an der Stelle sagt, aber es gibt einfach zu viele Fragezeichen, wie das funktionieren soll.
AMD hat zwar schon vor Jahren verlauten lassen, dass sie viele Dinge abstrahieren um mehr Flexibilität zu haben (Daher ja die ganzen Fabrics, SDP, SDF etc.), aber bislang war es als weitgehend unmöglich angesehen worden beide Speichertypen (also GDDR und HBM) in einem Chip anzusprechen.
Wenn es AMD gelungen sein soll das ohne signifikante Nachteile umzusetzen, dann wäre das in meinen Augen ein ziemlich großer Coup.

Berniyh
2020-09-26, 21:30:30
Nach der Tabelle ist N22 mit 170w und 192bit schon auf Mobil zugeschnitten.
Was willst du da noch groß verbessern bei N23? Kannst ja nicht noch schnell die Architektur stromsparend umbauen.
Keine Ahnung, aber fällt dir eine bessere Erklärung dafür ein, dass es wohl so einen geringen Abstand zwischen Navi 22 und 23 gibt.
N24 steht gegen Sommer 2021 an. Nach über nem halben Jahr muss man die Lücke nicht mehr schließen,
Stimmt. Navi 24 wird dann wohl der Nachfolger von Navi 14 werden, mit grob 20-24 CU.

Berniyh
2020-09-26, 21:32:46
Jetzt haben wir Fakten und du siehst es trotzdem noch anders? :freak:
Vergiss es, er glaubt keine Fakten die von AMD selbst kommen.
Muss schon irgendein Leaker mit undefinierten Quellen sein, sonst ist es unglaubwürdig. :freak:

unl34shed
2020-09-26, 21:34:00
Also wenn es wirklich stimmt, dass Navi 21 sowohl HBM als auch GDDR6 kann, dann macht die große Lücke zwischen Navi 21 und Navi 22 halbwegs Sinn:

Aber eigentlich macht das doch nur sinn, wenn es sich um einen MCM handelt und man die IO Teil austauschen kann, oder?


Dafür das N21 HBM hat spricht mMn. bereits das xGMI Interface, da wird es eine Profikarte von geben, daher glaub ich eigentlich nicht, dass man den Chip direkt in der Bandbreite limitiert.

E:
aber bislang war es als weitgehend unmöglich angesehen worden beide Speichertypen (also GDDR und HBM) in einem Chip anzusprechen.

Als unmöglich wurde es nie angesehen, das sind einfach ein paar mehr Speichercontroller, es wurde nur nie als wirtschaftlich angesehen, da in jedem Fall ein Teil des Chips brach liegt und nur Kosten verursacht.

gedi
2020-09-26, 21:37:06
Sieht ja alles gut aus, was du da vermutest. Aber Tier 4 mit 48CUs bei 192-Bit? Das Ding ist bereits an Bandbreite verhungert, bevor es eingebaut wurde. Die 48CU-Variante sollte sich doch mit einer 3070Ti anlegen können ...

Ich würde hier von 256-Bit an min. 14GPS ausgehen wollen. Ansonsten hast du 1080p-Karte

@Bernieh

Welche offiziellen Fakten von AMD? Wenn du die hast, dann bist du exklusiv

dargo
2020-09-26, 21:37:29
Also wenn es wirklich stimmt, dass Navi 21 sowohl HBM als auch GDDR6 kann, dann macht die große Lücke zwischen Navi 21 und Navi 22 halbwegs Sinn:

Tier 1 (z.B. XTX): HBM2 mit 16-24 GB, Vollaktiviert
Tier 2 (z.B. XT): HBM2 mit 16 GB, vollaktiviert. Alternativ 16 GB GDDR6 256 Bit (falls es diese Secret Sauce zwecks Bandbreiteneffizienz gibt)
Tier 3: 256 Bit GDDR6, mit 64 CU, 16 GB
Tier 4: 192 Bit GDDR6, mit 48 CU, 12 GB

Wenn die kolportierten Chipflächen stimmen, dann könnten man selbst bei dieser größeren Salvages mit Navi 21 noch rentabel sein.
Der Wechsel der Speichers würde das ermöglichen.

Sorry, aber das wäre Selbstmord. Du würdest mit Tier 4 (und da wäre die Nachfrage noch einiges größer weil wesentlich kleineres Preissegment) fast den halben Die für lau raushauen. :freak:

gedi
2020-09-26, 21:47:33
Ist doch wirklich kurios diesmal: wir stehen beim Topdog zwischen 2080Ti/3070 und über 3090. Gab es so etwas schon einmal? Also ein Preisbereich von 549€-1399€.

unl34shed
2020-09-26, 21:50:01
Die 2080Ti/3070 waren schon von Anfang an unrealistisch, 40 RDNA1 CUs sind gleich schnell wie 40 Truing SMs. Und auf einmal sollen 80 RDNA2 CUs nur noch so schnell sein wie 68 Turing SMs?

dargo
2020-09-26, 21:51:20
Ist doch wirklich kurios diesmal: wir stehen beim Topdog zwischen 2080Ti/3070 und über 3090. Gab es so etwas schon einmal? Also ein Preisbereich von 549€-1399€.
Wer ist wir? Du meinst sicherlich dich damit, denn außer dir glaubt hier afaik keiner bei 80 CUs nur an die 3070.

gedi
2020-09-26, 21:52:10
Die 2080Ti/3070 waren schon von Anfang an unrealistisch, 40 RDNA1 CUs sind gleich schnell wie 40 Truing SMs. Und auf einmal sollen 80 RDNA2 CUs nur noch so schnell sein wie 68 Turing SMs?

Bei 256-Bit, ich würde behaupten-jau

Linmoum
2020-09-26, 21:52:24
3070/2080Ti war und ist schon immer kompletter Schwachfug, aber kommt natürlich mehrheitlich auch nur aus einer Ecke.

dargo
2020-09-26, 21:55:36
Bei 256-Bit, ich würde behaupten-jau
Alter... überleg doch mal wofür AMD einen riesen Aufwand mit 80CUs betreiben sollte wenn das Ding an der Speicherbandbreite verhungert? :facepalm: Wie stellst du dir eigentlich so ein GPU-Design-Prozedere vor? Man entwickelt die GPU über Jahre und stellt in letzter Minute fest... oh scheiße wir haben viel zu wenig Bandbreite? :freak:

gedi
2020-09-26, 21:57:18
3070/2080Ti war und ist schon immer kompletter Schwachfug, aber kommt natürlich mehrheitlich auch nur aus einer Ecke.

Wurde allerdings versucht relativ glaubhaft zu vermitteln. Big Navi mit 16GB und in etwa 10% über einer 2080Ti Fe bei 549€

gedi
2020-09-26, 22:00:15
Alter... überleg doch mal wofür AMD einen riesen Aufwand mit 80CUs betreiben sollte wenn das Ding an der Speicherbandbreite verhungert? :facepalm: Wie stellst du dir eigentlich so ein GPU-Design-Prozedere vor? Man entwickelt die GPU über Jahre und stellt in letzter Minute fest... oh scheiße wir haben viel zu wenig Bandbreite? :freak:

Du hast meinen Post nicht verstanden! Blättere eine Seite zurück

dargo
2020-09-26, 22:02:35
Nee lass mal, das wird mir zu blöd.

Lurtz
2020-09-26, 22:04:09
Wie wahrscheinlich ist es dass die Karten mit einem funktionierenden (!) AV1-Decoder kommen? :ugly:

PrinceGSC
2020-09-26, 22:11:28
Wie wahrscheinlich ist es dass die Karten mit einem funktionierenden (!) AV1-Decoder kommen? :ugly:

Hatte AMD das nicht schon bestätigt? 🤔 ich meine es mal irgendwo gelesen zu haben

Edit:
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/RX-6000-bekommt-AV1-Unterstuetzung-1358188/

Ein Linux-Treiber macht klar, dass die AMD Radeon RX 6000 AV1-Unterstützung bekommt. Video Core Next 3.0 ist in Navi 21 (Sienna Cichlid) und Navi 22 (Navy Flounder) zu finden und damit wird der Standard von allen drei großen Anbietern im CPU- und GPU-Bereich voll unterstützt.

gedi
2020-09-26, 22:14:03
Im Endeffekt war es ironisch gemeint. Du kannst aus den 256-Bit auch gerne ein 64-Bit SI machen. Sprich all das was auf den Thread reingeprasselt ist, kann selbst für nen Laien wie mich unmöglich zutreffen. Ebenso die Aussage 48CUs an 192-Bit? Macht für mich keinen Sinn, da ich annehme, dass die ALUs auf RDNA2 effizienter arbeiten als die auf Ampere. Warum sollte ich dann ne 48CU GPU an 192-Bit verhungern lassen?

gedi
2020-09-26, 22:15:56
Wie wahrscheinlich ist es dass die Karten mit einem funktionierenden (!) AV1-Decoder kommen? :ugly:

Du meinst das Ding, welches auf Ampere gerade nicht funktioniert?

Berniyh
2020-09-26, 22:24:44
Aber eigentlich macht das doch nur sinn, wenn es sich um einen MCM handelt und man die IO Teil austauschen kann, oder?
Tja, keine Ahnung, evtl. kann man das Design auch irgendwie so machen, dass das nicht notwendig ist?

gedi
2020-09-26, 22:32:50
Tja, keine Ahnung, evtl. kann man das Design auch irgendwie so machen, dass das nicht notwendig ist?

Zudem macht MCM wieder nen Interposer notwendig, außerdem erst mit 5nm verifiziert

Cyberfries
2020-09-26, 22:34:21
What? 170W ASIC in Mobile? Wer will das denn verbauen? :freak:

.... ernsthaft?
N10 hat 180w ASIC im Desktop, die Mobilkarte liegt bei 60w. Wieviel Energie wohl N22 mobil braucht?

Wer ist wir? Du meinst sicherlich dich damit, denn außer dir glaubt hier afaik keiner bei 80 CUs nur an die 3070.

Man muss eine Aussage nicht reflexartig ablehnen nur weil sie von gedi kommt.
Blätter die letzten 30 Seiten durch und du wirst viele Namen finden.

Keine Ahnung, aber fällt dir eine bessere Erklärung dafür ein, dass es wohl so einen geringen Abstand zwischen Navi 22 und 23 gibt.

Leider nein. Ich hoffe noch auf eine Fehlinformation. Aber es scheint wohl so zu sein:

This is accurate enough for old pre-release FW params.
A few things are still a ways off but
And the mobile APUs are gonna lay waste to TGL

Berniyh
2020-09-26, 22:34:34
Sieht ja alles gut aus, was du da vermutest. Aber Tier 4 mit 48CUs bei 192-Bit? Das Ding ist bereits an Bandbreite verhungert
Kommt darauf an. Wenn es die Secret Sauce gibt, dann greift die da genauso wie bei den 256 Bit.
Ansonsten macht es natürlich keinen Sinn, da hast du recht.
Wobei AMD mit der 5600 XT gezeigt hat, dass sie auch manchmal Dinge umsetzen die wir als sinnlos erachten.
Welche offiziellen Fakten von AMD? Wenn du die hast, dann bist du exklusiv
Also die Diskussion fang ich jetzt wirklich nicht wieder an …

Sorry, aber das wäre Selbstmord. Du würdest mit Tier 4 (und da wäre die Nachfrage noch einiges größer weil wesentlich kleineres Preissegment) fast den halben Die für lau raushauen. :freak:
Naja, irgendwie muss man die Lücke zwischen den Chips ja vernünftig abdecken.

Aber letztendlich hängt es halt von der relativen Performance der beiden Chips ab.

dargo
2020-09-26, 22:39:25
Gedi... du bist einfach nur noch anstrengend wieder hier. Vielleicht verstehst du es so?

Eine XBox One X hat eine Bandbreite von 326GB/s bei 6 TFLOPs. Die RX580 liefert bei etwa 6,1 TFLOPs 256GB/s. Die Konsole hat hier eine etwas höhere Bandbreite da die CPU davon auch noch was haben will. Eine XBox Series X mit 12 TFLOPs hat bei 52 CUs max. 560GB/s Bandbreite. Glaubst du ernsthaft AMD spendiert einer 80 CU GPU mit um die 20 TFLOPs nur 512GB/s an einem 256Bit SI? :freak: Das passt doch hinten und vorne nicht. Also hör bitte endlich mit dem Müll auf.

.... ernsthaft?
N10 hat 180w ASIC im Desktop, die Mobilkarte liegt bei 60w. Wieviel Energie wohl N22 mobil braucht?

Kann es sein, dass wir aneinander vorbei reden? In dieser ominösen Tabelle steht was von N10a und b mit jeweils 180W ASIC bei mickrigen max. 1Ghz. Wie kommst du jetzt auf N22 Mobile? :confused:


Man muss eine Aussage nicht reflexartig ablehnen nur weil sie von gedi kommt.
Blätter die letzten 30 Seiten durch und du wirst viele Namen finden.

Ich habe echt keine Lust mich mit so einem Blödsinn zu beschäftigen. Von mir aus dann gedi und Konsorten. Sorry, dass ich mir nicht alle Namen merken kann. Mit dem Alter wirds nicht leichter.

gedi
2020-09-26, 22:40:45
.... ernsthaft?
N10 hat 180w ASIC im Desktop, die Mobilkarte liegt bei 60w. Wieviel Energie wohl N22 mobil braucht?



Man muss eine Aussage nicht reflexartig ablehnen nur weil sie von gedi kommt.
Blätter die letzten 30 Seiten durch und du wirst viele Namen finden.



Leider nein. Ich hoffe noch auf eine Fehlinformation. Aber es scheint wohl so zu sein:

Ich glaube ich werde ein Fanboy von dir. Du hast echt geschnallt wie ich ticke. Ich habe zwar u.a Informatik studiert, allerdings von der Technik relativ wenig, bis keine Ahnung. Von daher lebe ich von den Tatsachen, welche mir Foren, Twitter usw. wiedergeben.

dildo4u
2020-09-26, 22:44:02
3070/2080Ti war und ist schon immer kompletter Schwachfug, aber kommt natürlich mehrheitlich auch nur aus einer Ecke.
Könnte wie bei der 5700XT ablaufen Nvidia muss eine Refresh der 3070 bringen um wieder vorne zu liegen.

gedi
2020-09-26, 22:46:57
Gedi... du bist einfach nur noch anstrengend wieder hier. Vielleicht verstehst du es so?

Eine XBox One X hat eine Bandbreite von 326GB/s bei 6 TFLOPs. Die RX580 liefert bei etwa 6,1 TFLOPs 256GB/s. Die Konsole hat hier eine etwas höhere Bandbreite da die CPU davon auch noch was haben will. Eine XBox Series X mit 12 TFLOPs hat bei 52 CUs max. 560GB/s Bandbreite. Glaubst du ernsthaft AMD spendiert einer 80 CU GPU mit um die 20 TFLOPs nur 512GB/s an einem 256Bit SI? :freak: Das passt doch hinten und vorne nicht. Also hör bitte endlich mit dem Müll auf.

Du hast nicht aufgepasst. Ich glaube, ich war ne zeitlang der einzige, welcher an HBM geglaubt hat und noch immer glaubt. Neu ist nu, wohl kein Interposer (außer es handelt sich wirklich um MCM)!

dargo
2020-09-26, 22:47:54
Könnte wie bei der 5700XT ablaufen Nvidia muss eine Refresh der 3070 bringen um wieder vorne zu liegen.
Nvidia kann nicht mal GA102 liefern und du willst schon einen Refresh sehen? :freak:

Du hast nicht aufgepasst. Ich glaube, ich war ne zeitlang der einzige, welcher an HBM geglaubt hat und noch immer glaubt. Neu ist nu, wohl kein Interposer (außer es handelt sich wirklich um MCM)!
Genau... ich habe nicht aufgepasst. :rolleyes: Hast du schon den Überblick über deinen eigenen Murks verloren?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440900&postcount=12561

Du wechselst hier ständig zwischen HBM und 256/192Bit GDDR6, dir kann doch kein Schwein mehr folgen.

gedi
2020-09-26, 22:56:51
Nvidia kann nicht mal GA102 liefern und du willst schon einen Refresh sehen? :freak:


Genau... ich habe nicht aufgepasst. :rolleyes: Hast du schon den Überblick überd einen eigenen Murks verloren?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440900&postcount=12561

Dazu stehe ich nach wie vor und ich glaube du verstehst nicht was ich ausdrücken will! Ich habe 80CUs die min. 50% effektiver arbeiten soll als der Vorgänger. Allerdings gebe ich dem Ding 256-Bit bei 16GPS, was bleibt übrig? Nicht mehr viel!
Und der Post kam auch aus der Zeit mit dem Hypercache, für mich kompletter Blödsinn

Ich versuche mir nur nen Reim drauf zu machen. HBM, für mich, vor allem da AMD der Vorreiter im Consumer-Segment war/ist, die beste Variante. Dann kam das Gerücht auf, HBM und RDNA2, gibts nicht. Okay, dann ein breites SI. Thats it. Vielleicht kannst du mir nu folgen...

dildo4u
2020-09-26, 23:01:36
Nvidia kann nicht mal GA102 liefern und du willst schon einen Refresh sehen? :freak:

Ich schätze das es am Ram liegt wird man aber sehen wenn die 3070 launcht.

dargo
2020-09-26, 23:03:49
Dazu stehe ich nach wie vor und ich glaube du verstehst nicht was ich ausdrücken will! Ich habe 80CUs die min. 50% effektiver arbeiten soll als der Vorgänger. Allerdings gebe ich dem Ding 256-Bit bei 16GPS, was bleibt übrig? Nicht mehr viel!
Und der Post kam auch aus der Zeit mit dem Hypercache, für mich kompletter Blödsinn
Nochmal das letzte Mal dann bin ich bei dir raus.

Ein 80CU RDNA 2 kommt entweder mit zwei HBM2e Stacks (820GB/s, für die 920GB/s von Micron ist es imho zu spät und womöglich auch gar nicht nötig, aber vielleicht irre ich mich auch was den Zeitraum zwischen Massenproduktion Speicher und Release GPU angeht) oder 384Bit SI GDDR6 (768GB/s). Diese beiden Varianten liefern genug Bandbreite. Sollte RDNA 2 mit 256Bit SI GDDR6 kommen hat AMD irgendwelche secret sauce in petto um die fehlende Bandbreite zu kompensieren. Letzteres halte ich für sehr unwahrscheinlich da schon die XBSX an 320Bit hängt, zumindest die 10GB. Warum machst du dir das Leben so schwer?!

Linmoum
2020-09-26, 23:11:18
Könnte wie bei der 5700XT ablaufen Nvidia muss eine Refresh der 3070 bringen um wieder vorne zu liegen.Nein, könnte es nicht. Lass(t) diesen GA104-Schwachsinn einfach mal sein. Der prügelt sich mit N22 und 40CU rum. Was kein Wunder ist, wenn man den (potentiellen) Takt von diesem und dann den von Ampere sieht. Alleine da wird Nvidia massiv abstinken.

Berniyh
2020-09-26, 23:39:41
oder 384Bit SI GDDR6 (768GB/s).
Nach dem was wir durch die verfügbaren Firmwares wissen können war das ausschließen.
Natürlich unter der Voraussetzung, dass die Firmware korrekt ist, aber davon würde ich nun ausgehen.

dildo4u
2020-09-26, 23:50:07
Nein, könnte es nicht. Lass(t) diesen GA104-Schwachsinn einfach mal sein. Der prügelt sich mit N22 und 40CU rum. Was kein Wunder ist, wenn man den (potentiellen) Takt von diesem und dann den von Ampere sieht. Alleine da wird Nvidia massiv abstinken.
Die PS5 liegt bei 10 Tflops, da kommen 40CU maximal auf 2080S Speed.
Damit könnte die höste Gameing Version mit 60CU locker über der 3070 landen.

dargo
2020-09-27, 00:03:19
Nach dem was wir durch die verfügbaren Firmwares wissen können war das ausschließen.
Natürlich unter der Voraussetzung, dass die Firmware korrekt ist, aber davon würde ich nun ausgehen.
Was ist wenn AMD gezielt hier Falschinformationen streut? Ist das zu weit gedacht?

Complicated
2020-09-27, 02:26:12
Mal was konkretes: https://www.computerbase.de/2020-09/radeon-rx-6900-big-navi-21-2-ghz-238-watt-tdp/
Navi 21 soll dabei sowohl als Navi 21 a als auch Navi 21 b aufgelegt werden, ob beide Varianten in dieser Form als Consumer-Grafikkarte auf den Markt kommen, kann selbstverständlich noch nicht mit Sicherheit gesagt werden.

Die beiden Varianten des Chips sollen sich dabei primär beim maximalen Boost-Takt sowie der TDP unterscheiden. Während der Navi 21 a bis zu 2.050 MHz bei einer TDP von 200 Watt liefern soll, sehen die Einträge in der „Discovery Firmware“ für Navi 21 b gar bis zu 2.200 MHz bei einer TDP von 238 Watt vor. Die 80 CUs mit 5.120 Shadern sind bereits seit August dieses Jahres kein Geheimnis mehr.

Da es sich bei den Angaben zur Leistungsaufnahme („Socket Power Limit“) um den reinen Grafikprozessor handelt, könnte sich die TDP von Big Navi am Ende bei rund 250 bis 300 Watt einpendeln. Mit einem GPU-Takt von 2.050 bis 2.200 MHz würde eine „Radeon RX 6900“ schlussendlich auf 21 bis 22,5 TFLOPS Rechen- respektive Shaderleistung kommen.
aus macOS BigSur ausgelesen.
N22 mit bis zu 2.500 GHZ Takt.

Linmoum
2020-09-27, 02:34:32
Du hast die letzten gefühlten 10 Seiten verschlafen, oder? :D

Complicated
2020-09-27, 02:38:14
Ups...mir wurden keine neuen Beiträge angezeigt in dem Thread und ich habe nur 2 Seiten zurück geblättert -Sorry :rolleyes:

SKYNET
2020-09-27, 02:54:40
Der Typ ist einfach der Brüller. ;D Vor wenigen Jahren sagte er noch Nvidia braucht keine Wakü und heute kommt er mit LN2 @900W Powerlimit? X-D Der Vergleich Ampere TFLOPs vs. Turing/RDNA(2) TFLOPs setzt dem ganzen die Krönung auf. ;D ;D ;D

hat gründe warum der bei mir auf ignore ist... leider zu oft erliege ich der versuchung "beitrag anzeigen" X-D

[MK2]Mythos
2020-09-27, 03:08:30
Das witzige daran ist ja, dass es mir eigentlich fast egal ist, ob ne RTX3080 20gb oder ein entsprechendes AMD Pendant in meinen Rechner wandert, das bessere Produkt wird gekauft. So einfach ist das. Allerdings nur um Durals Fanboyherz eins auszuwischen, hoffe ich dass BN Ampere richtig zersägt. :D

Linmoum
2020-09-27, 03:34:22
RDNA2 scheint AMDs Pascal zu werden. Deutliche Effizienzsteigerung gegenüber dem Vorgänger (und das in dem Fall sogar mit demselben Prozess) bei gleichzeitig massivem Taktanstieg. Wenn AMD clever ist, dann werben sie mit OC und hohem Takt. Ich gehe stark davon aus, dass man diesmal dann auch wirklich von Overclockers Dream sprechen darf. ;D

KodeX
2020-09-27, 04:51:13
Viele scheinen zu vergessen oder nicht zu berücksichtigen, dass AMD mit RDNA1 überhaupt nicht in die Vollen gegangen ist. Die Effizienz von Navi 10 ist (je nach Ausführung) mit Turing vergleichbar. Man hätte mit Sicherheit auch einen Chip auflegen können, der (als ganze Karte) bei knapp 300 Watt ein 2080-Ti-Konkurrent gewesenen wäre. Das hat AMD meiner Vermutung nach nicht getan, weil man seinen Fokus bewusst auf das lukrativere CPU-Geschäft legen wollte. Möglich wäre es bestimmt gewesen.

RDNA2 würde ich nicht als Revolution sehen, sondern (wie es der Name bereits verrät) als Evolutionsstufe. Klar, verglichen mit der 5700 XT wird der Sprung gigantisch ausfallen. Berücksichtigt man jedoch den hypothetischen RDNA1-High-End-Chip, wirken Performance-Prognosen für Big Navi in Höhe 3080 oder 3090 gar nicht mal so unrealistisch. Ich bin optimistisch und gleichzeitig sehr gespannt. Die sich teilweise widersprechende Gerüchtelage verspricht einen heißen Herbst. :-D

NC
2020-09-27, 06:26:39
Viele scheinen zu vergessen oder nicht zu berücksichtigen, dass AMD mit RDNA1 überhaupt nicht in die Vollen gegangen ist. Die Effizienz von Navi 10 ist (je nach Ausführung) mit Turing vergleichbar. Man hätte mit Sicherheit auch einen Chip auflegen können, der (als ganze Karte) bei knapp 300 Watt ein 2080-Ti-Konkurrent gewesenen wäre. Das hat AMD meiner Vermutung nach nicht getan, weil man seinen Fokus bewusst auf das lukrativere CPU-Geschäft legen wollte. Möglich wäre es bestimmt gewesen.

AMD soll mit Absicht einen komplett anderen Markt und somit Einnahmen liegen gelassen haben wegen ihren CPUs? Das klingt mir erstmal nicht ganz nachvollziehbar.
Wäre es nicht eher wahrscheinlich, dass deren Technologie, z.B. RT, VRS usw. vielleicht noch garnicht aufgehollt hatte? NV soll ja schliesslich 10 Jahre daran geforscht haben, da sind 2 Jahre für AMD schon unglaublich kurz um das in einen neuen Chip zu verbauen UND das auch noch auf nützlichen Niveau auf Software Seite zu unterstützen.
Ich wäre überrascht, wenn die erste RT Implementierung mit Turing RTX mithalten könnte, das wäre schon ein riesen Erfolg mMn.

mironicus
2020-09-27, 08:34:19
Die Taktraten zu Navi 21 passen doch super zu den bekannten Daten zur PS5. Und wenn AMD tatsächlich auf eine hohe TDP verzichtet, überlassen sie es den Enthusiasten noch das letzte herauszuquetschen, genau wie man es vor drei Jahren bei NVidia gewöhnt war.

dargo
2020-09-27, 09:04:44
Mal was konkretes: https://www.computerbase.de/2020-09/radeon-rx-6900-big-navi-21-2-ghz-238-watt-tdp/

Ohje... was hat sich CB da wieder aus der geleakten Tabelle konstruiert? :freak:

1. Was sollen 1089Mhz beim Speicher sein? Es gibt nur höchstens 1000Mhz mit GDDR6, das wäre 16Gbps. Die 577 - 1089Mhz sind wie ich schon sagte der SoC Takt. Man kommt schon alleine drauf da min. 577Mhz viel zu hoch wären. Navi 10 taktet in Idle mit 100Mhz bei GDDR6 14 Gbps. Ein weiteres Indiz, dass es nicht der Speichertakt sein kann sind die vier P-States des Speichers die in dieser Tabelle aufgetaucht sind.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440549&postcount=12447

Wer MPT kennt weiß wovon ich spreche. Es wäre schon sehr seltsam wenn AMD den 16Gbps Speicher übertaktet.

Edit:
P0 bis P3 passen hier perfekt zu den P-States von Navi10.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12440631&postcount=12463

P3 bekommt dann logischerweise 1000Mhz wegen 16Gbps GDDR6. Wenn die Tabelle stimmt wäre somit HBM eigentlich wieder vom Tisch für N21.

2. Wie kommt CB auf den Trichter, dass N21a mit 200W TDP ebenfalls 80 CUs hat? Ich ging hier einfach davon aus das wäre der Salvage. Was mich an dieser geleakten Tabelle auch stutzig macht... bei N21a sieht es nach einem Arbeitsbereich von 500-2050Mhz aus. Diese 2050Mhz stehen auch unter "freq_table_gfx[1] (MHz)". Warum stehen dort 2200Mhz wenn der Arbeitsbereich von N21b ebenfalls mit 500-2050Mhz ausgewiesen ist? Das ergibt wenig Sinn. Die gleiche Ungereimheit sehe ich auch bei N10a/b.

PS: Natürlich wäre hier ein N21a als XT und ein N21b als XTX denkbar. Aber hat AMD sowas nötig? Ich meine selbst wenn wir annehmen, dass die max. 2,2Ghz vs. 2,05Ghz real anliegen (wovon ich nicht ausgehe) sind das poppelige 7% mehr Takt und am Ende hat man irgendwas um die 3-4% mehr Performance. Für so einen Pups 19% mehr GPU-Power rausballern? Muss man Nvidia alles nachmachen? :freak:

gedi
2020-09-27, 09:31:13
Es könnte doch auch sein, dass N21 die 69 und 6800-Serie bedient. N22 dann 6700. Keine Ahnung...

Aber: Wenn das Ding so gut performed, dann hat sich das mit günstig und so

Hasenpfote
2020-09-27, 09:33:50
AMD soll mit Absicht einen komplett anderen Markt und somit Einnahmen liegen gelassen haben wegen ihren CPUs? Das klingt mir erstmal nicht ganz nachvollziehbar.Das hab ich auch schon woanders gelesen. Der CPU-Markt ist einfach volumen- und umsatzstärker und vor allem wollten sie endlich auch bei den OEMs punkten. Wir Selbstbauer sind ja nur ne mickrige Nische. Insbesondere wo AMD eigentlich nur im deutschsprachigen Raum eine nennenswerte Kundschaft hatte. Der Rest der Welt verbaute fleißig Intel.

Ansonsten überleg mal kurz, wieviele CPUs verglichen mit GPUs verkauft werden. Insbesondere im Notebookbereich, wo es oftmals gar kein diskrete GPU mehr gibt.

Für RDNA (1? oder 2?) sind dann wohl einige von der CPU-Truppe zur GPU gewechselt und haben sich dort insbesondere um die Verringerung des Strombedarfs gekümmert.

Berniyh
2020-09-27, 09:37:56
Was ist wenn AMD gezielt hier Falschinformationen streut? Ist das zu weit gedacht?
Meiner Meinung nach schon, wenn sie einen Treiber releasen der komplett falsche Informationen enthält.
Damit würde man sich auf sehr dünnes Eis begeben und einen ziemlich großen Shitstorm riskieren.
100%ig ausschließen kann man das aber natürlich nicht.

Für wahrscheinlicher würde ich es da aber halten, dass Fehler drin sind. Ist jetzt nicht unbedingt extrem wahrscheinlich, dass das alles Grütze ist, aber Fehler / Bugs sind jetzt ja nichts neues, kann schon mal passieren.

Dennoch halte ich die Informationen für deutlich belastbarer als Leak X von Leaker Y.
Wesentlicher Grund dafür ist, dass sich in der Vergangenheit eigentlich alles was wir aus den verfügbaren Treiberdaten gelernt haben auch als korrekt herausgestellt hat und zudem AMD nach Veröffentlichungen meistens versucht hat die Informationen wieder einzuschränken.
(Indem z.B. Hardwaredaten wieder entfernt wurden oder – wie jetzt – die Art geändert wird wie die Hardwaredaten ausgelesen werden, auch wenn das jetzt auch schon wieder obsolet ist.)

Der einzige, der meiner Einschätzung nach eine ähnlich gute Trefferquote wie diese Treiberuntersuchungen hat ist Komachi, aber dessen Informationen basieren glaube ich auch auf Treiberdaten (ich meine auf Vorversionen des Windowstreibers).

gedi
2020-09-27, 09:50:41
Meiner Meinung nach schon, wenn sie einen Treiber releasen der komplett falsche Informationen enthält.
Damit würde man sich auf sehr dünnes Eis begeben und einen ziemlich großen Shitstorm riskieren.
100%ig ausschließen kann man das aber natürlich nicht.

Für wahrscheinlicher würde ich es da aber halten, dass Fehler drin sind. Ist jetzt nicht unbedingt extrem wahrscheinlich, dass das alles Grütze ist, aber Fehler / Bugs sind jetzt ja nichts neues, kann schon mal passieren.

Dennoch halte ich die Informationen für deutlich belastbarer als Leak X von Leaker Y.
Wesentlicher Grund dafür ist, dass sich in der Vergangenheit eigentlich alles was wir aus den verfügbaren Treiberdaten gelernt haben auch als korrekt herausgestellt hat und zudem AMD nach Veröffentlichungen meistens versucht hat die Informationen wieder einzuschränken.
(Indem z.B. Hardwaredaten wieder entfernt wurden oder – wie jetzt – die Art geändert wird wie die Hardwaredaten ausgelesen werden, auch wenn das jetzt auch schon wieder obsolet ist.)

Der einzige, der meiner Einschätzung nach eine ähnlich gute Trefferquote wie diese Treiberuntersuchungen hat ist Komachi, aber dessen Informationen basieren glaube ich auch auf Treiberdaten (ich meine auf Vorversionen des Windowstreibers).

Helmm aus Igors Forum weiß diesbezüglich auch einiges, schließlich ist er Verfasser des MPT.

HOT
2020-09-27, 09:59:50
Es könnte doch auch sein, dass N21 die 69 und 6800-Serie bedient. N22 dann 6700. Keine Ahnung...

Aber: Wenn das Ding so gut performed, dann hat sich das mit günstig und so
Das wird den Nagel ziemlich auf den Kopf treffen.
Es war ja schon sehr lange von 2 Salvagestufen die Rede, wenn man die XTX dazuaddiert sind das 4 Produkte.

Mit 200W und 238W sind natürlich die Chip-TDPs gemeint. Ein 238W-Chip wird deshalb so ausgesucht sein, damit das Referenzboard 300W TDP hat, das wäre dann N21XTX, also 6900XT.

80CUs + 16GB (18)16GT-RAM bei 238W -> 6900XT
80CUs + 16GB 16GT-RAM bei 200W -> 6900
72CUs + 16GB 16GT-RAM bei 180-200W -> 6800XT
64CUs + 12GB 16GT-RAM bei 150-180W -> 6800

40CUs + 12GB 14GT-RAM bei ca. 150W -> 6700XT usw.

dargo
2020-09-27, 10:12:00
Macht für mich immer noch keinen Sinn. Die Gründe gegen 4 Ausbaustufen eines einzelnen Chips hatte ich bereits genannt. Viel zu kostspielig, wir reden hier nicht von 100mm² Dies. Als weiteres kann ich mir nicht vorstellen, dass N21 mit nur 200W TDP 80 CUs haben soll. Afaik wurden bei der XBSX 140W mit 52 CUs bei 1,825Ghz spekuliert und N21 soll plötzlich nur 60W mehr TDP bei ganzen 80 CUs haben wo am Desktop noch höhere Frequenzen gefahren werden wodurch die Perf/W dann logischerweise wieder etwas leidet? Klingt für mich nicht realistisch.


80CUs + 16GB (18)16GT-RAM bei 238W -> 6900XT
80CUs + 16GB 16GT-RAM bei 200W -> 6900
72CUs + 16GB 16GT-RAM bei 180-200W -> 6800XT
64CUs + 12GB 16GT-RAM bei 150-180W -> 6800

Löl? ;D Die 72 CU GPU wäre komplett sinnfrei. Auch die 64 CU GPU macht mit 180W gar keinen Sinn wenn die 80 CU GPU 200W haben soll.


64CUs + 12GB 16GT-RAM bei 150-180W -> 6800

40CUs + 12GB 14GT-RAM bei ca. 150W -> 6700XT usw.
Das ergibt dann auch voll Sinn. :freak:

why_me
2020-09-27, 10:22:58
Es ergibt doch alles keinen Sinn. Je mehr Information aktuell durchdringen, desto verwirrender wird das Ganze.

Wer hatte denn schon 32 und 40 CUs auf dem Shirm? 32 sind normalerweise doch salvage von 40...

Cyberfries
2020-09-27, 10:25:15
Was sollen 1089Mhz beim Speicher sein?

Gute Einwände. 1089 max. oc-limit?
XTX und XT mit minimalem Unterschied hatten wir bei N10 auch schon.
Die Taktraten passen bei N10 doch ohnehin nicht:
gfxclk (MHz) 300 - 1000
freq_table_gfx[1] (MHz) 1400

Es war ja schon sehr lange von 2 Salvagestufen die Rede

Es war von 2 Salvage-Skus die Rede, nicht von 2 Salvagestufen. Laut Gerüchten
wurden Varianten gestrichen. Gegen 2 Stufen spricht auch immer noch _rogames Aufschlüsselung:
Navi21 GL-XL => D417__ (vgl. Pro-Varianten)
Navi21 XTX => D4120_ (vgl. Anniversary, Vollausbau, bin+oc)
Navi21 XT => D41205 (vgl. 5700xt->Vollausbau)
Navi21 XL => D41401 (vgl. 5700->abgespeckt)

gedi
2020-09-27, 10:28:24
Macht für mich immer noch keinen Sinn. Die Gründe gegen 4 Ausbaustufen eines einzelnen Chips hatte ich bereits genannt. Viel zu kostspielig, wir reden hier nicht von 100mm² Dies. Als weiteres kann ich mir nicht vorstellen, dass N21 mit nur 200W TDP 80 CUs haben soll. Afaik wurden bei der XBSX 140W mit 52 CUs bei 1,825Ghz spekuliert und N21 soll plötzlich nur 60W mehr TDP bei ganzen 80 CUs haben wo am Desktop noch höhere Frequenzen gefahren werden wodurch die Perf/W dann logischerweise wieder etwas leidet? Klingt für mich nicht realistisch.


Löl? ;D Die 72 CU GPU wäre komplett sinnfrei. Auch die 64 CU GPU macht mit 180W gar keinen Sinn wenn die 80 CU GPU 200W haben soll.


Das ergibt dann auch voll Sinn. :freak:

Wenn man sich die Konkurrenz anschaut, dann ist da auch nicht viel Unterschied zwischen 3090 und 3080, weder bei der Performance, noch bei der Leistungsaufnahme. Und hier glaube ich, dass die 6900 gegen 3090 antritt und die 6800 gegen 3080. Zudem setzt NV hier ebenso auf einen Chip - GA102.

RitterRost
2020-09-27, 10:46:19
Die Taktraten zu Navi 21 passen doch super zu den bekannten Daten zur PS5. Und wenn AMD tatsächlich auf eine hohe TDP verzichtet, überlassen sie es den Enthusiasten noch das letzte herauszuquetschen, genau wie man es vor drei Jahren bei NVidia gewöhnt war.

Ich denke nicht, dass wir es noch mal erleben werden, dass die Hersteller (egal ob AMD, Nvidia oder Intel) bei den Top-Modellen massig OC ermöglichen werden.
AMD hat es bei den CPUs ja gezeigt. Alles passend selektiert und konfiguriert (beste Kerne boosten am höchsten). Powertarget erhöhen bringt meist wenig, weil entweder die Temperatur am Anschlag ist, oder der Chip einfach nicht höher takten kann.
Und die Spannungsversorgung wird (mit etwas Sicherheitsspielraum) auf das Powertarget ausgelegt. Da wird nicht viel mehr möglich sein.
Bei Nvidia war die Spannungsversorgung anscheinend gerade etwas zu ambitioniert...

Auch die Intel-Folien zu TigerLake zeigten, wie die Spannung-zu-Frequenz Kurve für die CPUs optimiert wurde -> die Hersteller nutzen also immer ausgefeiltere Methoden, einen höheren Takt bei weniger Spannung/Verlustleistung zu ermöglichen. Dabei bleibt das altbekannte OC IMHO einfach auf der Strecke.
Vielleicht hat man Glück, und kann mit Untervolten ein bisschen was vom Sicherheitsspielraum nutzen, aber sonst...

dargo
2020-09-27, 11:05:40
Es ergibt doch alles keinen Sinn. Je mehr Information aktuell durchdringen, desto verwirrender wird das Ganze.

Wer hatte denn schon 32 und 40 CUs auf dem Shirm? 32 sind normalerweise doch salvage von 40...
Ich glaube dieser ganze Flickenteppich an mickrigen Informationen wird von den Leakern nur falsch gedeutet. Bei dem Beispiel von dir würde ich da auch einfach auf einen Salvage tippen sofern die 40 CU GPU es tatsächlich gibt. Eine separate GPU für nur 8 CUs weniger ist ja kompletter bullshit. Man könnte jetzt auch annehmen, dass diese 32 CU GPU irgendwo bei Apple mit bsw. wieder HBM wandert. Aber auch da macht so ne extra 32 CU GPU wenig Sinn, siehe AMD Radeon Pro 5600M mit 40 CUs wie Navi10.

Wenn man sich die Konkurrenz anschaut, dann ist da auch nicht viel Unterschied zwischen 3090 und 3080, weder bei der Performance, noch bei der Leistungsaufnahme. Und hier glaube ich, dass die 6900 gegen 3090 antritt und die 6800 gegen 3080. Zudem setzt NV hier ebenso auf einen Chip - GA102.
Bei der Leistungsaufnahme hast du recht. Die 350W vs. 320W sind auch irgendwie Banane beim GA102. Allerdings gibt es bei GA102 keine vier Ausbaustufen.

BigBangBacket
2020-09-27, 11:09:20
BN soll ja USB-C haben. Dazu habe ich mal ein paar Fragen.
Im November sollen ja endlich die vorbestellen HP Reverb G2 ausgeliefert werden. Das HMD hat ja auch USB-C. Bedeutet ja erstmal ein Vorteil für AMD. Aber da ich dann die Reverb nicht über einen externen Stromanschluss anschließen muss, bedeutet es ja das die Reverb komplett den Strom über die Graks bezieht. Kann das zu Problemen mit der Stromversorgung der Graka führen? Fehlt dem Chip dann nicht was? Oder denke ich da falsch?!

Ich finde auch keine guten Tests zu USB C.

Gerade wenn AMD eventuell auch die 300w knackt.. setze ich lieber auf einen externen Stromanschluss

dargo
2020-09-27, 11:15:43
Gute Einwände. 1089 max. oc-limit?

Denkbar, aber unwahrscheinlich da die min. Frequenz mir zu hoch für P0 aussieht und die vier P-States für den Speicher gut ersichtlich sind. Warum wird hier die ganze Zeit der SOC-Clock ignoriert? Von der Frequenz-Range her passt der sogar ganz gut.


XTX und XT mit minimalem Unterschied hatten wir bei N10 auch schon.

Habe ich was verpasst?

Edit:
Ah... du meinst sicherlich diese limitierte Auflage der AMD Radeon RX 5700 XT 50th Anniversary?
https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt-50th-anniversary.c3438

Ok... die gabs wirklich. Aber nur Referenz, von daher habe ich dem wenig Beachtung geschenkt.

Berniyh
2020-09-27, 11:16:33
BN soll ja USB-C haben. Dazu habe ich mal ein paar Fragen.
Im November sollen ja endlich die vorbestellen HP Reverb G2 ausgeliefert werden. Das HMD hat ja auch USB-C. Bedeutet ja erstmal ein Vorteil für AMD. Aber da ich dann die Reverb nicht über einen externen Stromanschluss anschließen muss, bedeutet es ja das die Reverb komplett den Strom über die Graks bezieht. Kann das zu Problemen mit der Stromversorgung der Graka führen? Fehlt dem Chip dann nicht was? Oder denke ich da falsch?!
Wie viel zieht denn das HMD?

Meines Wissens ist über USB aber eigentlich immer nur 5W garantiert und das wird die GPU schon noch schaffen.
Alles weitere müssen Versorger und Verbraucher aushandeln.
Kann also sein, dass die GPU hier dem Verbraucher sagt, dass max. x W zur Verfügung stehen und das dann für dein HMD zu wenig ist.
Aber für solche Fälle müsste eigentlich eine Möglichkeit am HMD bestehen eine separate Stromversorgung herzustellen.

HOT
2020-09-27, 11:18:25
Die ganze Nummer ist sowieso wieder extrem komisch, 2,2GHz bei N21 aber 2,5GHz bei N22? Hä?

Complicated
2020-09-27, 11:19:05
Ich glaube nicht, dass der USB-C der GPU Powerdelivery hat. Nicht jeder USB versorgt ein externes Gerät mit Strom. Zumindest wäre ich überrascht, wenn diese zusätzliche Last auch noch über die GPU versorgt werden würde. Wobei die VR-Brille ja nicht viel zieht - sicher eine interessante Frage ob da auch eine externe SSD ohne Stromanschluß funktioniert ebenso wie ein VR-Headset.

dargo
2020-09-27, 11:20:47
Die ganze Nummer ist sowieso wieder extrem komisch, 2,2GHz bei N21 aber 2,5GHz bei N22? Hä?
Hatte ich schon mal gesagt. Den fetten N21 musst du stärker in der Frequenz einbremsen damit dir der Verbrauch nicht durch die Decke schießt. Das heißt nicht, dass N21 diesen Takt nicht auch schafft. Das wäre dann was für die Wakü-Freunde mit wesentlich höheren PT-Limit. Oder willst du schon die ~400W bei N21 Referenz sehen? Ich jedenfalls nicht.

Berniyh
2020-09-27, 11:24:42
Die ganze Nummer ist sowieso wieder extrem komisch, 2,2GHz bei N21 aber 2,5GHz bei N22? Hä?
Ich würde mich jetzt nicht zu sehr auf die Frequenzen einschießen.
Das könnte auch teilweise noch provisorisch sein (zumal glaube ich die richtigen Frequenzen eh vom BIOS der Karte ausgelesen werden, sonst hätten ja alle Customs die gleiche Config).
Bei der 5600 XT haben sie ja sogar noch mal kurzfristig die Frequenzen geändert …

Also insofern: würde die Frequenzen mit Vorsicht genießen

woodsdog
2020-09-27, 11:24:53
der USB-C Verbrauch geht logischerweise vom Maximal-Verbrauch der Karte ab. Lüfter, LED-Gedöhns etc sind ja auch in der "Board Power" enthalten und kommen nicht der GPU zugute.

Cyberfries
2020-09-27, 11:26:53
Kann es sein, dass wir aneinander vorbei reden? In dieser ominösen Tabelle steht was von N10a und b mit jeweils 180W ASIC bei mickrigen max. 1Ghz. Wie kommst du jetzt auf N22 Mobile?

Bezieht sich darauf ob ein extra Mobil-Chip nötig ist. Ausgehend von der 5700xt mit 180w ASIC
und der 5600m (N10) mit 60w sollte N22 mit 170w ASIC problemlos mobil eingesetzt werden können

Und hier glaube ich, dass die 6900 gegen 3090 antritt und die 6800 gegen 3080.

Abgesehen davon, dass ich hier nochmal auf die Hype-Bremse treten muss und schon 3080-5% gut wären.
Bei der 5000-Serie hat AMD gerade Zahlen soweit als möglich vermieden mit der 5600 als einziger Ausnahme.
Warum sollte das jetzt anders sein? Ich erwarte keine 6800.

Habe ich was verpasst?

XTX=50th anni @235watt

...das die Reverb komplett den Strom über die Graks bezieht.

Sind das nicht nur 6watt die die Reverb zieht? Da würde ich mir keine Sorgen machen.

...dass diese 32 CU GPU irgendwo bei Apple mit bsw. wieder HBM wandert.

32CU +25% durch RDNA2 entspricht 40CU-RDNA1. 128bit wäre 1024bit HBM.
Chipflächeneinsparung, gleiche Leistung, ein HBM-Stapel weniger, kein Interposer.
Der Chip wäre deutlich günstiger.

BigBangBacket
2020-09-27, 11:27:07
Wie viel zieht denn das HMD?

Meines Wissens ist über USB aber eigentlich immer nur 5W garantiert und das wird die GPU schon noch schaffen.
Alles weitere müssen Versorger und Verbraucher aushandeln.
Kann also sein, dass die GPU hier dem Verbraucher sagt, dass max. x W zur Verfügung stehen und das dann für dein HMD zu wenig ist.
Aber für solche Fälle müsste eigentlich eine Möglichkeit am HMD bestehen eine separate Stromversorgung herzustellen.

Über den genauen Verbrauch finde ich nichts. Nur das der USB C über 6W bringen muss, ansonsten muss man die externe Strombersorgung mit abschliessen.
6w hört sich jetzt ja nicht erstmal viel an. Aber wie schon erwähnt...ist abhängig davon wie durstig BN ist. Bei Ampere würde ich mich nicht trauen da noch was an den eh nicht vorhandenen USB C anzuschliessen

Kalmar
2020-09-27, 11:28:33
Mit den zwei Speichertypen. Amd hat durch Apple Erfahrung mit einem Chip und zwei unterschiedlichen Speichertypen. Vielleicht war es für einen speichertype (vermutlich hbm) in der Planungsphase unsicher (ob zu dem Zeitpunkt lieferbar oder in ausreichender Zahl).

also könnte man doch sagen, wenn wirklich ans limit (strom usw.) geht, wir planen beides. Wenn es mit hbm klappt bringen wir ihn teuer raus, wenn der speicherchip nicht verfügbar bringen wir nur den normalen raus?
oder sind die Entwicklungskosten so exorbitant mehr das man das für ein haloprodukt seit jahren nicht machen würde?

amd hat erfahrung mit hbm, erfahrung mit einem chip auf ein zwei speicherinterfaces und dürfte ziemlich genau kosten/nutzen usw. Abschätzen können. Oder hmb ist nicht ausreichend lieferbar (oder wurde damals in der planung nur so eingeschätzt).

woodsdog
2020-09-27, 11:37:54
Über den genauen Verbrauch finde ich nichts. Nur das der USB C über 6W bringen muss, ansonsten muss man die externe Strombersorgung mit abschliessen.
6w hört sich jetzt ja nicht erstmal viel an. Aber wie schon erwähnt...ist abhängig davon wie durstig BN ist. Bei Ampere würde ich mich nicht trauen da noch was an den eh nicht vorhandenen USB C anzuschliessen

Bei Turing war via USB-C eine Virtual Link Schnittstelle realisiert die laut Spec bis zu 27W liefern können muss. Ob noch mehr geht ist mir nicht bekannt.

Aber wie andere hier geschrieben haben, kann an einem USB-C Anschluss auch nur 7,5W raus fallen. Warum AMD das aber nun unbedingt in minimal spec verbauen sollte sehe ich irgendwie nicht. Wenn man kein VR Headset aka Virtual Link nutzen kann, was soll das dann.

BigBangBacket
2020-09-27, 11:46:16
Bei Turing war via USB-C eine Virtual Link Schnittstelle realisiert die laut Spec bis zu 27W liefern können muss. Ob noch mehr geht ist mir nicht bekannt.

Aber wie andere hier geschrieben haben, kann an einem USB-C Anschluss auch nur 7,5W raus fallen. Warum AMD das aber nun unbedingt in minimal spec verbauen sollte sehe ich irgendwie nicht. Wenn man kein VR Headset aka Virtual Link nutzen kann, was soll das dann.

Sorry füs Offtopic. Aber diese ganze USB C Sache ist komplett an mir vorbeigezogen.
Ich würde mich freuen wenn du mir kurz erklärst welche Nachteile entstehen könnten, wenn ich die G2 einfach über Adapter und Stromstecker an USB A anschließen würde. Bringt C auch spürbare Vorteile bei der Übertragung .
Es gibt recht wenig gute Tests über VR und USB C im Netz. Zumindestens habe ich keine gefunden.

Sollte C soviel Vorteile bringen, würde ich wirklich erstmal auf BN warten. Wer weiss wann die 3090 eh wieder lieferbar ist.

woodsdog
2020-09-27, 11:52:58
Naja, der primäre Vorteil von USB-C mit Virtual Link ist halt, dass alles über ein Kabel laufen kann. Ob da von der höheren potenziellen Bandbreite profitiert wird, hängt ja primär vom Endgerät ab.

RitterRost
2020-09-27, 11:57:40
Ich habe das so verstanden, dass USB-C einfach mittlerweile von einigen Monitoren als Anschluss genutzt werden kann. Da können ja auch die Video-Signale drin sein.
Es ist also nur eine weitere Video-Buchse, wie HDMI, DP, DVI oder VGA.

Die ca. 30W Power Budget für Virtual Link wären natürlich doof. Aber, ich kenne mich mit VR Headsets auch nicht aus (und plane da auch keine Anschaffung).

krissbay
2020-09-27, 12:08:50
Newegg hat diese Tabelle gepostet :eek:
https://cdn.discordapp.com/attachments/467397040523968523/759697926237847562/unknown.png

hier (https://www.newegg.com/insider/how-to-choose-graphics-card/?cm_sp=Tools-_-INFOCARD-_-3080-_-article_tool_usa_graphics_card-_-1) original zu finden

nairune
2020-09-27, 12:09:32
Seit wann wird bei AMD der Strom vom gesamten Board limitiert? Das Powerlimit gilt nur für den "ASIC"-Verbrauch und daran hält sich die Regelung sklavisch. Völlig egal wie effizient die VRMs arbeiten oder was der GDDR6 zieht. Genauso wird es auch mit dem USB-C sein: wenn da Strom drüber gezogen wird, kommt das halt oben drauf. Den Puffer dafür werden die VRMs schon haben.

Berniyh
2020-09-27, 12:10:16
Nach genauerem Überlegen ist es wahrscheinlich doch nicht so kritisch.
Man kann sich dabei zunutze machen, dass Grafikkarten ja bis zu 75W über den PCI Slot ziehen dürfen, davon aber eigentlich nie Gebrauch machen, sondern die GPU Versorgung zu über 99% über die Zusatzstecker sicherstellen.

Wenn man nun am USB-C ein vernünftiges Limit definiert von z.B. 60W (12 V, wie über PCI-E bereitgestellt bei max. 5A), dann sollte sich das weitgehend unabhängig von der GPU Versorgung gestalten lassen.
Mehr als 60W wäre hingegen deutlich aufwendiger, denn dafür müsste man dann 20 V bereitstellen.

Berniyh
2020-09-27, 12:12:00
Newegg hat diese Tabelle gepostet :eek:
https://cdn.discordapp.com/attachments/467397040523968523/759697926237847562/unknown.png

hier (https://www.newegg.com/insider/how-to-choose-graphics-card/?cm_sp=Tools-_-INFOCARD-_-3080-_-article_tool_usa_graphics_card-_-1) original zu finden
Ne, 6700 XT mit 6GB VRAM?

Klar, wenn sich AMD lächerlich machen will …
Sorry, finde ich nicht so wirklich glaubwürdig.

ChaosTM
2020-09-27, 12:15:19
6GB für eine Midrange Karte wäre fast so idiotisch wie 10GB für eine High-Endige. Das stimmt.

BigBangBacket
2020-09-27, 12:24:53
Danke an alle bezüglich des USB C Anschlusses.
Wäre persönlich definitiv ein Pluspunkt für AMD.

Complicated
2020-09-27, 12:25:24
Ne, 6700 XT mit 6GB VRAM?

Klar, wenn sich AMD lächerlich machen will …
Sorry, finde ich nicht so wirklich glaubwürdig.
Das sehe ich ebenso - das allein macht das unglaubwürdig. Und warum sollte die 6700 ein identisches SI haben wie die 6800.
6800 ist vielleicht noch ein Salvage der 6900, die 6700 sicherlich nicht mehr, das ist eher N22.

dargo
2020-09-27, 12:25:59
6GB für eine Midrange Karte wäre fast so idiotisch wie 10GB für eine High-Endige. Das stimmt.
Nicht nur das. Bei ebenfalls 40 CUs ein geringerer Baseclock als bei Navi10? Ja... sehr glaubhaft. :freak:

Daredevil
2020-09-27, 12:27:02
Das sind dann halt die 50% Perf/Watt ^^

unl34shed
2020-09-27, 12:39:09
Ich vermute mal, das ist ein Versuch mehr Nvidia Karten zu verkaufen. Laut dem Text wird die Performance der Karten durch die Cude Cores bestimmt, stimmt zwar, aber dass die bei Ampere weniger wert sind wird nicht erwähnt. Für dem DAU ist damit die 3090 2,4x schneller als die 2080Ti.
Das ganze gepaart mit den AMD Karten mit wenig Speicher und weniger Cores, da würde ich auch Ampere kaufen.

E: Fehlende Boost clocks und nur 1,5GHz Base bei AMD ist auch seeehr komisch.

Achill
2020-09-27, 12:40:12
Das sind dann halt die 50% Perf/Watt ^^

:uconf3: ... Das macht man doch nicht ... ;) ;D

gedi
2020-09-27, 12:42:18
Newegg hat sich die Daten aus Techpowerup geklaut :)

unl34shed
2020-09-27, 12:45:01
Da hat die 6700XT aber auch keine 6GB und es gibt Boost Clocks :confused:
https://www.techpowerup.com/gpu-specs/?architecture=RDNA+2.0&sort=generation

E: Und die Baseclock der 6900 wäre auch zu hoch.

davidzo
2020-09-27, 12:48:25
Die ganze Nummer ist sowieso wieder extrem komisch, 2,2GHz bei N21 aber 2,5GHz bei N22? Hä?

so ungewöhnlich ist das nicht, nv macht das seit Jahren so dass die 104er und 106er chips höher takten als die 102 und 100er. Bei der 6600GT waren das sogar 25% Mehrtakt auf die 6800Ultra und sogar 42% Mehrtakt als die 6800GT.
2,2->2,5Ghz ist jetzt kein besonders großer Sprung und für einen deutlich kleinere Chip völlig in Ordnung. Vor allem da nvidia ja vorgelegt hat und man sich dadurch bei AMD quasi an keinerlei Effizienzvorgaben mehr halten muss. Der größere Chip ist vielleicht ein bisschen durch total board power und Kühlung limitiert, den kleineren kann man aber ohne limits zu brechen weiter entfernt vom sweet spot takten.

Berniyh
2020-09-27, 12:49:48
Da hat die 6700XT aber auch keine 6GB und es gibt Boost Clocks :confused:
https://www.techpowerup.com/gpu-specs/?architecture=RDNA+2.0&sort=generation

E: Und die Baseclock der 6900 wäre auch zu hoch.
Und TPU schreibt auch noch explizit dazu, dass die Daten provisorisch sind und nur die aktuellen Gerüchte reflektieren. Ist also nicht wirklich aussagekräftig.

Cyberfries
2020-09-27, 13:19:15
Amd hat durch Apple Erfahrung mit einem Chip und zwei unterschiedlichen Speichertypen.
N14 und N12 sind abseits der CUs deutlich anders aufgebaut. Da gibts keine Erfahrungen für 1Chip/2Interfaces.
GPC &co sind nichtmal halb so groß, I/O anders, ROPs anders gruppiert.... und natürlich anderes Interface

... und nur die aktuellen Gerüchte reflektieren.
Die Gerüchte aufgrund deren TPU diese Aussagen trifft hab ich noch nicht gesehen.
10GB GDDR6 für eine 6500XT an 160bit mit 64ROPs? xBox mit 10GB und 80ROPs?
Zufallszahlengenerator triffts wohl eher.

dargo
2020-09-27, 13:23:30
Das sind dann halt die 50% Perf/Watt ^^
Dann hätte die PS5 mit ihren 36 CUs ja mehr Takt als die Desktop-Variante. :ulol:

Da hat die 6700XT aber auch keine 6GB und es gibt Boost Clocks :confused:
https://www.techpowerup.com/gpu-specs/?architecture=RDNA+2.0&sort=generation

Die schreiben sich da einen Müll zusammen. :freak: Bei RX6000 geben die nur den angeblichen Baseclock an. Bei der PS5 dann den Boostclock. :crazy:

btw.
Wo siehst du da den Boostblock bei RX 6000? Ich sehe da nur den Baseclock (bei so tiefen Werten) und daneben Memoryclock.

Edit:
Dieser recht große Einschnitt bei N21 Salvage (SI Cut, Speichercut, nur 75% der CUs) wäre auch sehr ungewöhnt für AMD. Wann hatten wir sowas bei AMD zuletzt? Ich kann mich daran nicht mehr erinnern. Aber gut... man kann das Portfoliovorgehen auch ändern. Der Nachteil dabei ist wiederum, dass man den Salvage durch den recht großen Einschnitt tiefer im Preis ansetzen muss was sich in der Marge niederschlägt. Oder man kompensiert das indem der Topdog preislich höher angesetzt wird als ursprünglich geplant.

Beispiel:
RX 6900XT --> 5120 Shader, 16GB GDDR6, 256Bit SI = 799$
RX 6800XT --> 4608 Shader, 16GB GDDR6, 256Bit SI = 649$

RX 6900XT --> 5120 Shader, 16GB GDDR6, 256Bit SI = 849$
RX 6800XT --> 3840 Shader, 12GB GDDR6, 192Bit SI = 599$

Nightspider
2020-09-27, 13:27:41
Wenn die Karte nur ~250W brauchen würde, wie von Computerbas behauptet bräuchte sie ja nicht zwei 8 Pin Stecker.

Linmoum
2020-09-27, 13:30:19
Die 238W sind TDP, nicht TBP. Letzteres dürfte irgendwo bei 280-300W liegen.

Berniyh
2020-09-27, 13:30:39
Die Gerüchte aufgrund deren TPU diese Aussagen trifft hab ich noch nicht gesehen.
Das ist halt das was die auf die Seite schreiben.

Cyberfries
2020-09-27, 13:34:16
Zur 2x8pin-Debatte und zur ASIC inkl/exkl. HBM-Debatte, aus dem CBS-Vega-Test:
Sowohl die Radeon RX Vega 64 als auch die Radeon RX Vega 56 bieten zwei Acht-Pin-Stromstecker für den Betrieb. Die Radeon RX Vega 64 ist mit einer Board Power von 295 Watt angegeben (GPU+HBM2: 220 Watt), die Radeon RX Vega 56 kommt auf 210 Watt (GPU+HBM2: 165 Watt).


Das ist halt das was die auf die Seite schreiben.

Ich weiß, ich habs gelesen. Ist trotzdem BS.

unl34shed
2020-09-27, 13:38:43
btw.
Wo siehst du da den Boostblock bei RX 6000? Ich sehe da nur den Baseclock (bei so tiefen Werten) und daneben Memoryclock.

Einfach mal auf die Karten klicken ;)

SKYNET
2020-09-27, 13:41:39
und wenn man mal alles in ne kiste wirft: neue playse soll 4K @ 60fps schaffen mit 36CUs, neue xbox hat 560GB/s speicherbandbreite mit 52CUs... wenn man das ganze mal hochrechnet, wird die 80CU version min. 900GB/s speicherbandbreite haben, somit sind die 256bit anbindung schonmal vom tisch... weiss eh nicht wer sonen dämliches gerücht gestreut hat... war bestimmt der jensen mit seinem trollaccount :ulol:

heisst das ding hat entweder ne 512bit anbindung, oder HBM2 drauf, alles andere kann man eigentlich gänzlich ausschliessen.

das topmodell wird sicherlich mit 32GB aufwarten, und ne minimal langsamere version mit 16GB...

80CUs
min. 900GB/s --> HBM2 oder GDDR6 @ 512bit
2100MHz GPU(boost)
32GB

jetzt mal so meine spekulatius....

why_me
2020-09-27, 13:46:34
80CUs
min. 900GB/s --> HBM2 oder GDDR6 @ 512bit
2100MHz GPU(boost)
32GB

jetzt mal so meine spekulatius....

Und damit sind wir wieder am gleichen Punkt wie vor 2 Monate.... wir drehen uns hier irgendwie im Kreis, weil nichts passen will. ;D

SKYNET
2020-09-27, 13:50:26
Und damit sind wir wieder am gleichen Punkt wie vor 2 Monate.... wir drehen uns hier irgendwie im Kreis, weil nichts passen will. ;D


naja, dass ist aber das logischte was passen könnte... alles andere ist zuwenig(pessimisten) oder zu viel des guten(träumer)...

gleiche wie mit dem preis... der topdog wird sicherlich KEINE 499/599 kosten, sondern gehe eher davon aus das die karte sich oberhalb der 3080 einpendelt preislich(maybe 799-849 für die FE)

Linmoum
2020-09-27, 13:52:06
Träumer ist eher ein 512bit SI. Das ist noch unlogischer als gleich HBM zu nutzen. 384bit kann man direkt wegen der 16GiB ausschließen. Also entweder 256bit+Cache oder HBM.

Berniyh
2020-09-27, 13:52:08
Ich weiß, ich habs gelesen. Ist trotzdem BS.
Das mag sein, war aber gar nicht der Punkt, sondern eher, dass wenn sie von TPU abgeschrieben haben man auf die Daten eben nichts geben kann. ;)

dargo
2020-09-27, 13:53:47
und wenn man mal alles in ne kiste wirft: neue playse soll 4K @ 60fps schaffen mit 36CUs, neue xbox hat 560GB/s speicherbandbreite mit 52CUs... wenn man das ganze mal hochrechnet, wird die 80CU version min. 900GB/s speicherbandbreite haben, somit sind die 256bit anbindung schonmal vom tisch... weiss eh nicht wer sonen dämliches gerücht gestreut hat... war bestimmt der jensen mit seinem trollaccount :ulol:

heisst das ding hat entweder ne 512bit anbindung, oder HBM2 drauf, alles andere kann man eigentlich gänzlich ausschliessen.

Naja... es geistert noch irgendwelche secret sauce @Cache als Gerücht rum. :tongue:

btw.
Ich hoffe du bist nicht auf dieses Konsolenmarketing mit 4k/60fps reingefallen, oder etwa doch? :| Ratchet & Clank wird schon mal mit 30fps @4k + RT laufen. Es wird auch einen 60fps Modus geben, dann aber mit Abstrichen versteht sich von selbst. Kein RT, low RT, weniger Details, dynamische Auflösung oder weiß der Kuckuck was.

Einfach mal auf die Karten klicken ;)
:redface:

Sieht mit 2GHz überall eher nach Platzhalter aus.

/Locutus oB
2020-09-27, 13:57:56
BN soll ja USB-C haben. Dazu habe ich mal ein paar Fragen.
Im November sollen ja endlich die vorbestellen HP Reverb G2 ausgeliefert werden. Das HMD hat ja auch USB-C. Bedeutet ja erstmal ein Vorteil für AMD. Aber da ich dann die Reverb nicht über einen externen Stromanschluss anschließen muss, bedeutet es ja das die Reverb komplett den Strom über die Graks bezieht. Kann das zu Problemen mit der Stromversorgung der Graka führen? Fehlt dem Chip dann nicht was? Oder denke ich da falsch?!

Ich finde auch keine guten Tests zu USB C.

Gerade wenn AMD eventuell auch die 300w knackt.. setze ich lieber auf einen externen Stromanschluss

https://en.wikipedia.org/wiki/VirtualLink

da steht max. 27 watt

Hakim
2020-09-27, 13:59:15
Mir wäre HBM einfach lieber als ein 256 Bit SI + Cache. Beim zweiten hab ich die Befürchtung das es entweder entsprechend optimiert werden muss oder es einfach vom Spiel zu Spiel mal schlecht profitiert und mal gut.

SKYNET
2020-09-27, 14:02:14
Naja... es geistert noch irgendwelche secret sauce @Cache als Gerücht rum. :tongue:

btw.
Ich hoffe du bist nicht auf dieses Konsolenmarketing mit 4k/60fps reingefallen, oder etwa doch? :| Ratchet & Clank wird schon mal mit 30fps @4k + RT laufen. Es wird auch einen 60fps Modus geben, dann aber mit Abstrichen versteht sich von selbst. Kein RT, low RT, weniger Details, dynamische Auflösung oder weiß der Kuckuck was.


naja, mit RT wirds sicherlich keine 60fps in 4k geben, essei AMD hat den heiligen gral aus dem hut gezaubert was RT performance angeht X-D

dargo
2020-09-27, 14:03:47
Mir wäre HBM einfach lieber als ein 256 Bit SI + Cache. Beim zweiten hab ich die Befürchtung das es entweder entsprechend optimiert werden muss oder es einfach vom Spiel zu Spiel mal schlecht profitiert und mal gut.
:confused:

Optimierst du bei CPUs für den L3 Cache? Aus Softwaresicht ist das doch uninteressant. Das muss schon die Hardware selbst verwalten. Auf Softwareebene wird es sicherlich Unterschiede geben wie effizient so ein Cache dann letztendlich ist. Aber das hatten wir schon immer. Oder glaubst du die Mechaniken in modernen GPUs die Bandbreite sparen sollen verhalten sich in jedem Spiel gleich?

unl34shed
2020-09-27, 14:03:48
:redface:

Sieht mit 2GHz überall eher nach Platzhalter aus.

Hab auch nie etwas anderes behauptet, aber wenn NewEgg da abgeschrieben haben sollte, hätten sie auch den Boost abschreiben können.

Linmoum
2020-09-27, 14:07:38
Nah, Platzhalter sind das weniger. Da das in MacOS Big Sur zu finden sind, könnte das auch auf (kommende) Apple-GPUs hindeuten.

Für Navi10 würde die letzten Monat vorgestellte Radeon Pro 5700 passen, die hat z.B. einen Takt von 1350MHz (hinterlegt sind 1400MHz).

dargo
2020-09-27, 14:13:47
Für Navi10 würde die letzten Monat vorgestellte Radeon Pro 5700 passen, die hat z.B. einen Takt von 1350MHz (hinterlegt sind 1400MHz).
Meinst du das hier?
https://www.computerbase.de/2020-08/apple-imac-mitte-2020/

gedi
2020-09-27, 15:26:50
Hab auch nie etwas anderes behauptet, aber wenn NewEgg da abgeschrieben haben sollte, hätten sie auch den Boost abschreiben können.

Aber Newegg weiß doch ebenso wenig über Navi, wie wir?! Von daher gebe ich wesentlich mehr auf die Angaben seitens Apple OS, als auf Newegg.

unl34shed
2020-09-27, 15:29:27
Das behaupte ich doch auch nicht, ich halte die Werte genauso für BS...

Der_Korken
2020-09-27, 15:34:20
so ungewöhnlich ist das nicht, nv macht das seit Jahren so dass die 104er und 106er chips höher takten als die 102 und 100er. Bei der 6600GT waren das sogar 25% Mehrtakt auf die 6800Ultra und sogar 42% Mehrtakt als die 6800GT.
2,2->2,5Ghz ist jetzt kein besonders großer Sprung und für einen deutlich kleinere Chip völlig in Ordnung.

Das Beispiel mit der 6600GT hatte ich schon gebracht: Der Chip war aber auch 110nm (+hi-k?) vs 130nm. Außerdem erklärt das nicht, warum der kleine Chip dann plötzlich wieder so viel niedriger taktet als der mittlere. Ja, es könnte ein mobile-only-chip sein, aber hätte man dafür nicht auch einfach den 40CU-Chip nehmen und undervolten/-clocken können? Und stattdessen der 32CU-Chip auf 24-28CUs schrumpfen und bei Bedarf auch auf 2,5Ghz prügeln.

Daredevil
2020-09-27, 15:38:15
Das sind nun einmal Einträge bei Apple gewesen. ( Falls das überhaupt Sinn macht, da Apple Silicon kommt... )
Da gibt es ein System, welches 500w Karten vertragen kann, alle anderen sind stark TDP limitiert im iMac, Macbook, MacMini ect. Die Navi im Macbook hat die gleichen Einheiten als ne 5700xt und taktet mit knapp 1 Ghz.
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/
Da hat AMD btw. auch schon HBM mit 2.048 Bit genutzt, verbraucht insgesamt halt 50w.

Da kannste auch ne 80CU Geschichte in ein iMac packen bei 100w. :<
Taktraten von MacOS auf den Desktop Markt zu übertragen ist da nicht leicht ^^

SKYNET
2020-09-27, 15:45:12
Das sind nun einmal Einträge bei Apple gewesen. ( Falls das überhaupt Sinn macht, da Apple Silicon kommt... )
Da gibt es ein System, welches 500w Karten vertragen kann, alle anderen sind stark TDP limitiert im iMac, Macbook, MacMini ect. Die Navi im Macbook hat die gleichen Einheiten als ne 5700xt und taktet mit knapp 1 Ghz.
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/
Da hat AMD btw. auch schon HBM mit 2.048 Bit genutzt, verbraucht insgesamt halt 50w.

Da kannste auch ne 80CU Geschichte in ein iMac packen bei 100w. :<
Taktraten von MacOS auf den Desktop Markt zu übertragen ist da nicht leicht ^^


bevor apple so performante GPUs bauen kann wie AMD/NV, werdne noch einige jahre ins land gehen... denke vor 2023 wird da nix kommen das leistungsmässig mit den big playern mithalten kann... siehe intel, die wie lange nun an XE rumdocktern? und vor 2021 kommt da auch nix...

Daredevil
2020-09-27, 15:51:24
bevor apple so performante GPUs bauen kann wie AMD/NV, werdne noch einige jahre ins land gehen... denke vor 2023 wird da nix kommen das leistungsmässig mit den big playern mithalten kann... siehe intel, die wie lange nun an XE rumdocktern? und vor 2021 kommt da auch nix...
Ja, ne.

Apple hat folgendes gezeigt:
https://abload.de/img/unbenanntxajhy.png
https://abload.de/img/unbenanntdkj4f.png
( Ganzes Video https://www.youtube.com/watch?v=fT9HUZ21FbQ )

Da siehst du nichts von AMD, weswegen ich mich immer noch frage, wieso in Big Sur Einträge zu Navi zu finden sein sollten. Aber ist halt ne Beta. Oder es kommen halt dieses und nächstes Jahr halt noch Intel Macs mit AMD GPUs, was aber eigentlich wenig Sinn macht.

Btw.
Ein A12Z (7w ) ist im Compute 1/3 von dem, was eine 5300M (50w ) ist.

dargo
2020-09-27, 16:15:20
Das sind schöne Marketingbegriffe, mehr aber auch nicht. Was sollen die da sonst schreiben? Slower and Less power efficient? :freak: Wie performant das Ganze im Vergleich zu Nvidia/AMD dann ist muss sich erstmal beweisen.

Daredevil
2020-09-27, 16:27:28
Das interessante ist an dem Bildchen ja nicht das Versprechen, sondern das Apple Silicon Macs weder mit AMD noch Nvidia GPUs kommen, aber halt mit Apple GPU.
Das heißt kommende Intel Macs werden mit Intel/AMD/Nvidia ausgestattet sein, Apple Silicon Macs nicht.

Die Frage daran ist aber halt, kommen noch Intel Macs? :C
Weil sonst macht der Eintrag in MacOS ja .... keinen Sinn.

Schnitzl
2020-09-27, 16:51:53
es gibt ein Update bei Computerbase, verwirrt aber imho mehr als es hilft (?)
https://www.computerbase.de/2020-09/radeon-rx-6900-big-navi-21-2-ghz-238-watt-tdp/#update-2020-09-27T16:07

Complicated
2020-09-27, 16:54:19
Auf Folie 1 ist AMD in einem Intel based Mac gelistet.
Folie 2 hat keine Referenz zu diskreten GPUs, kann also auch nur auf die CPU/SoCs (iGPU) bezogen sein.
Die nächsten 2 Jahre werden da eben weiter Intel, Nvidia und AMD eingepflegt.

Stretcher
2020-09-27, 16:55:26
Was ist wenn AMD gezielt hier Falschinformationen streut? Ist das zu weit gedacht?

So etwas machen Unternehmen immer. Sie streuen Falschinformationen über die Leistung ihrer Produkte und überraschen dann ganz plötzlich.:rolleyes:

Complicated
2020-09-27, 16:56:20
@Schnitzl - Siehe

Newegg hat diese Tabelle gepostet :eek:
https://cdn.discordapp.com/attachments/467397040523968523/759697926237847562/unknown.png

hier (https://www.newegg.com/insider/how-to-choose-graphics-card/?cm_sp=Tools-_-INFOCARD-_-3080-_-article_tool_usa_graphics_card-_-1) original zu finden

HOT
2020-09-27, 17:11:44
Bei der Newegg-Liste fehlen ja die 6900 und 6800 ohne XT. Das sind dann natürlich weitere Salvage-Varianten. Wenn man das vervollständigen würde, würde das folgende Config ergeben:

6900XT -> (N21XT) 80CUs, 300W, 256Bit, 16GB
6900 -> (N21XL) 72CUs, 2x0W, 256Bit, 16GB
6800XT -> (N21XE) 60CUs (2. Salvage-Stufe), 200W, 192Bit, 12GB
6800 -> (N22XT) 40CUs, 200W, 192Bit, 12GB
6700XT -> (N22XL) 36CUs, 150W, 192Bit, 6/12GB
(6700 -> N22XE, 32CUs, 120W, 128Bit, 4/8GB)
(6600XT -> N23XT, 24CUs, 120W, 128Bit, 4/8GB usw.)

Es war ja schon recht früh ne 2. Salvagestufe für N21 geleakt, bei der auch ein Speichercontroller wegfallen sollte. Das sollte man bei der Liste nicht außer Acht gelassen werden.

SKYNET
2020-09-27, 17:18:54
Btw.
Ein A12Z (7w ) ist im Compute 1/3 von dem, was eine 5300M (50w ) ist.

in ausgewählten anwendungen... im schnitt dürfte das ding nichtmal 10% der leistung in compute erreichen wie die 5300M...

ist wie mit der tatsache, das sonen iphone ja angeblich schneller ist als nen 3950X :ulol: X-D

Daredevil
2020-09-27, 17:32:15
in ausgewählten anwendungen... im schnitt dürfte das ding nichtmal 10% der leistung in compute erreichen wie die 5300M...

Welche Anwendungen sind denn das? Zeig doch mal ne Quelle.

PS: Deine Fantasie ist keine. :- )

Schnitzl
2020-09-27, 17:42:02
@Schnitzl - Siehe
sry ich bin langsam zu alt für das hier :freak:
mitlesen ist auch interessant, bin sehr gespannt was am Ende rauskommt mit Navi2

Danke an alle die erklären und aufschlüssen bzw die Puzzelteile versuchen zu verbinden :up:

NC
2020-09-27, 17:42:54
:confused:

Optimierst du bei CPUs für den L3 Cache? Aus Softwaresicht ist das doch uninteressant.
Es ist sehr gängig für Caches zu optimieren, es ist eigentlich sogar das wichtigste. Nicht nur auf CPUs, wenn du auf GPUs wirklich was rausholen willst, dann passt du dass Zugriffsverhalten dem jeweiligem Cache an bzw. nutzt den richtigen Cache für das Zugriffsverhalten. Das kann echt 100x Unterschied machen.

w0mbat
2020-09-27, 17:45:34
Noch ein Monat und wir wissen immer noch nix :D

Linmoum
2020-09-27, 17:52:25
Naja, das ein oder andere wissen wir dank MacOS Big Sur ja seit gestern schon. ;)

dargo
2020-09-27, 17:54:07
6900XT -> (N21XT) 80CUs, 300W, 256Bit, 16GB
6900 -> (N21XL) 72CUs, 2x0W, 256Bit, 16GB
6800XT -> (N21XE) 60CUs (2. Salvage-Stufe), 200W, 192Bit, 12GB
6800 -> (N22XT) 40CUs, 200W, 192Bit, 12GB
6700XT -> (N22XL) 36CUs, 150W, 192Bit, 6/12GB
(6700 -> N22XE, 32CUs, 120W, 128Bit, 4/8GB)
(6600XT -> N23XT, 24CUs, 120W, 128Bit, 4/8GB usw.)

Das sieht gar nicht mal so unrealistisch aus. :uponder: Außer die 120W bei N23XT, da würde ich schon eher max. 100W mit 24 CUs erwarten (Navi14 liegt schon mit 22 CUs bei 130W). Ich kann mich zwar immer noch nicht so ganz mit dem zweiten Salvage von N21 anfreunden. Aber ok... vielleicht kompensiert AMD das dadurch, dass N22 mit nur 40 CUs weiterhin recht klein bleibt. Wenn N22 eine ähnliche Größe wie Navi10 hat könnte man da auch die zweite Salvagestufe bringen. Siehe Navi10 mit 5700XT/5700 und 5600XT. Für den N22XE fände ich dann aber 160Bit SI mit 5/10GB besser im Portfolio.

Es ist sehr gängig für Caches zu optimieren, es ist eigentlich sogar das wichtigste. Nicht nur auf CPUs, wenn du auf GPUs wirklich was rausholen willst, dann passt du dass Zugriffsverhalten dem jeweiligem Cache an bzw. nutzt den richtigen Cache für das Zugriffsverhalten. Das kann echt 100x Unterschied machen.
Du weißt aber schon, dass in einem CCX alle Cores Zugriff auf den vollen L3 Cache haben?

davidzo
2020-09-27, 17:54:28
Naja, das ein oder andere wissen wir dank MacOS Big Sur ja seit gestern schon. ;)

Wir wissen immer noch nicht ob HMB oder GDDR im top dog, ob es einen Cache gibt oder nicht. Ob man im Highend konkurrieren wird (wofür man entsprechende bandbreite oder cachemaßnahmen bräuchte) oder nur bis in das performance-feld.
Also wissen wir so gut wie gar nichts :rolleyes:

Daredevil
2020-09-27, 17:59:45
Ob man im Highend konkurrieren wird (wofür man entsprechende bandbreite oder cachemaßnahmen bräuchte) oder nur bis in das performance-feld.
Also wissen wir so gut wie gar nichts :rolleyes:
Hmmm naja. Wenn man davon ausgeht, dass Apple diese Dinger verbauen möchte im MacPro, weil der 500w abführen kann als GPU, dann wird wohl kaum eine langsamere GPU verbaut werden, oder?

Folgende Komponenten müssen also geschlagen werden bzw. dafür muss es dann einen Nachfolger geben:
AMD Radeon Pro W5700X
40 Recheneinheiten, 2560 Stream*prozessoren

16 GB GDDR6 Grafikspeicher mit 448 GB/s Speicher*bandbreite

Bis zu 9,4 TeraFLOPS einfache Präzision oder 18,9 TeraFLOPS halbgenaue Präzision

Vier Thunderbolt 3 Anschlüsse und ein HDMI 2.0 Anschluss auf der Karte

Zwei DisplayPort Verbindungen, die zum System führen, um interne Thunderbolt 3 Anschlüsse zu unterstützen

Unterstützung für Display Stream Compression (DSC)

Unterstützung für bis zu sechs 4K Displays, drei 5K Displays oder drei Pro Display XDR
AMD Radeon Pro Vega II
64 Recheneinheiten, 4096 Stream*prozessoren

32 GB HBM2 Grafikspeicher mit 1 TB/s Speicher*bandbreite

Bis zu 14.1 TeraFLOPS einfache Präzision oder 28.3 TeraFLOPS halbgenaue Präzision

Die Infinity Fabric Link Verbindung ermöglicht den Anschluss von zwei Vega II GPUs mit bis zu 84 GB/s

Vier Thunderbolt 3 Anschlüsse und ein HDMI 2.0 Anschluss auf der Karte

Zwei DisplayPort Verbindungen, die zum System führen, um interne Thunderbolt 3 Anschlüsse zu unterstützen

Unterstützung für bis zu sechs 4K Displays, drei 5K Displays oder zwei Pro Display XDR
AMD Radeon Pro Vega II Duo
Zwei Vega II GPUs mit je 64 Rechen*einheiten und 4096 Stream*prozessoren

64 GB HBM2 Grafikspeicher (32 GB pro GPU), jeweils mit 1 TB/s Speicher*bandbreite

Bis zu 28.3 TeraFLOPS einfache Präzision oder 56.6 TeraFLOPS halbgenaue Präzision

Die On‑Board Infinity Fabric Link Verbindung verbindet die beiden Vega II GPUs mit bis zu 84 GB/s

Vier Thunderbolt 3 Anschlüsse und ein HDMI 2.0 Anschluss auf der Karte

Vier DisplayPort Verbindungen, die zum System führen, um interne Thunderbolt 3 Anschlüsse zu unterstützen

Unterstützung für bis zu acht 4K Displays, vier 5K Displays oder vier Pro Display XDR

Insofern wird AMD wohl kaum eine GPU testen, die langsamer ist als das jetzige, was besteht mit einer 300w GPU. ^^

Linmoum
2020-09-27, 18:00:36
Wir wissen immer noch nicht ob HMB oder GDDR im top dog, ob es einen Cache gibt oder nicht. Ob man im Highend konkurrieren wird (wofür man entsprechende bandbreite oder cachemaßnahmen bräuchte) oder nur bis in das performance-feld.
Also wissen wir so gut wie gar nichts :rolleyes:Stimmt, mein Fehler. Das sind ja die einzigen Sachen, die es bei GPUs zu wissen gibt. Und es existiert natürlich auch nur N21 und sonst nix mit RDNA2.

AlterSack
2020-09-27, 18:35:22
Träumer ist eher ein 512bit SI. Das ist noch unlogischer als gleich HBM zu nutzen. 384bit kann man direkt wegen der 16GiB ausschließen. Also entweder 256bit+Cache oder HBM.

Im Thread stand zu lesen, dass ein 128bit gddr6-Interface etwa 30mm² benötigt,
der angebliche "Gamecache" etwa 120mm². ...ergibt in dem Fall 180mm²
gegenüber 10mm² für ein 1024bit HBM2-Interface.
das ergäbe 20-40mm² bei HBM vs. 180mm² Cache+256bit gddr6.
...was ist hier logischer?

gedi
2020-09-27, 18:46:39
Mal was etwas ungewöhnliches. Über die Quelle weiß ich noch nix.

https://www.hardwareluxx.de/community/attachments/c3dfbc11c07af639d545b34fbe04f2763e595f8160ec179f715feedc803c5e56-png.534443/

prinz_valium_2
2020-09-27, 18:50:57
Mal was etwas ungewöhnliches. Über die Quelle weiß ich noch nix.

https://www.hardwareluxx.de/community/attachments/c3dfbc11c07af639d545b34fbe04f2763e595f8160ec179f715feedc803c5e56-png.534443/

Schon eher.
Glaubt doch keiner, dass wir hier 80CUs mit 2GHz an unter 500GB/s sehen, wenn die Xbox Series X 52CUs 1.8GHz mit 560GB/s hat

AlterSack
2020-09-27, 18:52:02
Mal was etwas ungewöhnliches. Über die Quelle weiß ich noch nix.

https://www.hardwareluxx.de/community/attachments/c3dfbc11c07af639d545b34fbe04f2763e595f8160ec179f715feedc803c5e56-png.534443/

Warum den N21 1x mit HBM und 2x mit GDDR6?
Die zusätzliche Fläche für GDDR6 find ich nicht schlüssig (120mm² bei 512 bit).
Zumal die schnellste Variante die geringste Bandbreite hätte.
...glaube nichts, hinterfrage alles, denke selbst (Zitat Albrecht Müller).

Cyberfries
2020-09-27, 18:55:36
Was mich am allermeisten an den MacOS-Daten stört sind die Angaben zu N10 und N14.

Zunächst: Warum enthält "AMDRadeonX6000HWLibs" Daten zur 5000-Serie?
parameter_cache_depth passt nicht zu den bisherigen Daten
Weiterhin gibt es keine N10 oder N14 sku die zu den veröffentlichten Daten passt.
- iMac Pro 5700 taktet 1350mhz, 5700xt 1499mhz - bei 130w TDP.
- Mac Pro W5700 taktet 1840mhz.
Mit Speichertakt können wir genauso weitermachen, N14 gleiches Bild.

Bei N2x mag das Argument gerechtfertigt sein, dass Daten während der Entwicklung sich ändern können,
Frequenzen und TDP nicht final sind, aber doch nicht bei alten Karten?

gedi
2020-09-27, 18:57:24
Die 6950 könnte Apple-Exclusiv sein. Ansonsten imo viel zu optimistisch.

gedi
2020-09-27, 19:06:50
Wobei die Tabelle in einer Hinsicht Sinn ergibt. 5700 und 5600 gehen EOL, die Kikilala-Klasse 5500XT mit 8GB und darunter wird umbenannt und viel billiger. Vielleicht auch im besseren Fertigungsprozess bei max. 75W TBP.

Unicous
2020-09-27, 19:13:03
Die Quelle ist ein feuchter Traum von irgendjemanden. Der screenshot wandert schon eine Weile durch die Foren.

gedi
2020-09-27, 19:14:32
Die Quelle ist ein feuchter Traum von irgendjemanden. Der screenshot wandert schon eine Weile durch die Foren.

Das dachte ich mir schon:) Obwohl ich hier schon ein Halo-Produkt erkennen kann.

Berniyh
2020-09-27, 19:16:34
Mal was etwas ungewöhnliches. Über die Quelle weiß ich noch nix.

https://www.hardwareluxx.de/community/attachments/c3dfbc11c07af639d545b34fbe04f2763e595f8160ec179f715feedc803c5e56-png.534443/
Das würde halt bedeuten, dass sich zwei Speicherkanäle einen Texturkanalcache teilen. Sowas hat AMD bisher glaube ich noch nie gemacht.

Insofern hab ich daran so meine Zweifel.

gedi
2020-09-27, 19:20:19
Was mich am allermeisten an den MacOS-Daten stört sind die Angaben zu N10 und N14.

Zunächst: Warum enthält "AMDRadeonX6000HWLibs" Daten zur 5000-Serie?
parameter_cache_depth passt nicht zu den bisherigen Daten
Weiterhin gibt es keine N10 oder N14 sku die zu den veröffentlichten Daten passt.
- iMac Pro 5700 taktet 1350mhz, 5700xt 1499mhz - bei 130w TDP.
- Mac Pro W5700 taktet 1840mhz.
Mit Speichertakt können wir genauso weitermachen, N14 gleiches Bild.

Bei N2x mag das Argument gerechtfertigt sein, dass Daten während der Entwicklung sich ändern können,
Frequenzen und TDP nicht final sind, aber doch nicht bei alten Karten?

Die Speicherdaten passen zu N10! Ansonsten hast du vermutlich recht.

Berniyh
2020-09-27, 19:25:08
Was mich am allermeisten an den MacOS-Daten stört sind die Angaben zu N10 und N14.

Zunächst: Warum enthält "AMDRadeonX6000HWLibs" Daten zur 5000-Serie?
Evtl. ist er an der Stelle einfach unpräzise. Er hat ausgeführt wie er an die Daten für die 6000 Serie gekommen ist.
Es ist aber davon auszugehen, dass eine äuqivalente Datei auch für die 5000 Serie existiert, da AMD – laut diversen Treiberpatches – für Navi komplett auf die Discovery Binary Route gehen will.

Weiterhin gibt es keine N10 oder N14 sku die zu den veröffentlichten Daten passt.
- iMac Pro 5700 taktet 1350mhz, 5700xt 1499mhz - bei 130w TDP.
- Mac Pro W5700 taktet 1840mhz.
Mit Speichertakt können wir genauso weitermachen, N14 gleiches Bild.
Wie ich schon mal schrieb: auf die Taktraten würde ich nicht viel geben, die müssen eigentlich vom BIOS der Karte ausgelesen werden, denn sonst gäbe es ja keine Custom Modelle mit Hersteller-OC.
Insofern sollte es gar nicht sonderlich wichtig sein was da drin steht, evtl. ist das nur für irgendwelche internen Testboards die noch kein (finales) BIOS haben.

Dazu scheint es mir, dass die Treiber-Devs teilweise gar nicht mit den echten Boards arbeiten.
Neulich in einem Patch stand mal ein Kommentar im Sinne von "das ist provisorisch, muss noch an einem echten SKU verifiziert werden".
Will heißen: die bekommen da wohl teilweise auch einfach nur irgendwelche data sheets die sie dann implementieren. (getestet wird aber hoffentlich dann doch noch ;) :D)
Die grundlegenden Eigenschaften der Architektur (Anzahl WGPs, CUs etc.) sollten dann schon korrekt sein, aber manche Dinge sind vermutlich auch provisorisch (denkbar bei allem was man nachträglich verändern kann, wie Frequenzen oder Powertargets).

Insofern sehe ich diese ganzen Diskussionen um die Frequenzen etc. auch als recht sinnlos an, da ich da nichts drauf geben würde.

Berniyh
2020-09-27, 19:26:58
Die 6950 könnte Apple-Exclusiv sein. Ansonsten imo viel zu optimistisch.
Bei der 5500 XT gibt es ja auch die Apple-Exclusive, die hat man aber auch 5500 XT genannt und nicht 5550 XT.
Wenn also diese Tabelle stimmt, dann wäre zu erwarten, dass die 6950 auch ihren Weg in den regulären Handel findet.

Ich gehe aber davon aus, dass die Tabelle ein Fake ist, insofern …

gedi
2020-09-27, 19:34:29
Bei der 5500 XT gibt es ja auch die Apple-Exclusive, die hat man aber auch 5500 XT genannt und nicht 5550 XT.
Wenn also diese Tabelle stimmt, dann wäre zu erwarten, dass die 6950 auch ihren Weg in den regulären Handel findet.

Ich gehe aber davon aus, dass die Tabelle ein Fake ist, insofern …

Full ack, liest sich für mich aber noch immer glaubwürdiger als das Ding von Newegg. Ich hoffe ja auf den 8.10., wo vielleicht die Nextgen AMD-Plattform wenigstens ganz kurz in Aktion gezeigt wird. Wenn es auch nur Firestrike in 1080p ist.

mboeller
2020-09-27, 19:42:43
Das würde halt bedeuten, dass sich zwei Speicherkanäle einen Texturkanalcache teilen. Sowas hat AMD bisher glaube ich noch nie gemacht.

Insofern hab ich daran so meine Zweifel.

ich weiß jetzt nicht genau was du meinst, aber ich versuche es trotzdem mal...

Die XBox one X hat 8 RBE (32 ROP's) mit je 256KB L2-Cache und 12 Speicherkanäle (384bit).

Also eine 1/1,5 Ratio

Link: https://en.wikichip.org/wiki/microsoft/scorpio_engine

gedi
2020-09-27, 19:51:25
ich weiß jetzt nicht genau was du meinst, aber ich versuche es trotzdem mal...

Die XBox one X hat 8 RBE (32 ROP's) mit je 256KB L2-Cache und 12 Speicherkanäle (384bit).

Also eine 1/1,5 Ratio

Link: https://en.wikichip.org/wiki/microsoft/scorpio_engine

Bin gerade nicht informiert bei den Konsolen, aber was für ne GPU wurde bei einer XBOX_X verbaut?

Cyberfries
2020-09-27, 19:58:13
Evtl. ist er an der Stelle einfach unpräzise.

Extra weitere Dateien auslesen, anstatt die bisherige Tabelle für bekannte Daten zu verwenden?

denn sonst gäbe es ja keine Custom Modelle mit Hersteller-OC.

Seit wann gibts für Apple Custom-Karten?

Die grundlegenden Eigenschaften der Architektur (Anzahl WGPs, CUs etc.) sollten dann schon korrekt sein, aber manche Dinge sind vermutlich auch provisorisch

Wie gesagt, N1x sollte nicht mehr als "provisorisch" laufen.

edit: Wenn ich schon mal am meckern bin: N31 mit der tupfengleichen Konfiguration wie N21?
pffff... Da würde ich eher erwarten dass AMD noch einen draufsetzt in Erwartung des Konters.

NC
2020-09-27, 20:09:08
Du weißt aber schon, dass in einem CCX alle Cores Zugriff auf den vollen L3 Cache haben?
Gerade das macht die cache optimierung wichtig

Berniyh
2020-09-27, 20:30:56
ich weiß jetzt nicht genau was du meinst, aber ich versuche es trotzdem mal...

Die XBox one X hat 8 RBE (32 ROP's) mit je 256KB L2-Cache und 12 Speicherkanäle (384bit).
z.B. die 5700 XT hat 16 TCCS und auch 16 Speicherkanäle (man braucht bei GDDR6 2 Kanäle / Baustein).
Bei Navi 21 wissen wir, dass der Chip auch 16 TCCS hat, daher ging man bislang von 16 Speicherkanälen aus, was eben 256 Bit bedeuten würde.
Prinzipiell ist es möglich, dass AMD hier ein Verhältnis von 1:2 ansetzt, d.h. Navi 21 hätte 16 TCCS, aber 32 Speicherkanäle.
Das hat man halt so bislang bei den dedizierten GPUs nicht gemacht (darauf bezog ich mich).
Wobei ich mir bei Fiji nicht ganz sicher bin wie viele Caches und Speicherkanäle der Chip hatte. Das könnte ein Gegenbeispiel sein.
Extra weitere Dateien auslesen, anstatt die bisherige Tabelle für bekannte Daten zu verwenden?
Wenn man eine zweite Quelle hat ist es doch sinnvoll diese zu verwenden, findest du nicht?
Seit wann gibts für Apple Custom-Karten?
Das ist an der Stelle irrelevant. Wie ich schon mehrfach sagte hat AMD an diversen Stellen (z.B. im Phoronix Forum) durchklingen lassen, dass man die gleiche Code Basis für mehrere Plattformen nutzt.
Der Treiber für Apple dürfte im Wesentlichen der Linux Treiber sein, ggf. mit ein paar plattformspezifischen Anpassungen hier und da.
Dass er die Discovery Binary dort ausgelesen hat spricht auch dafür, denn genau das führt AMD unter Linux derzeit auch ein.
Der Grund, weshalb er es unter MacOS gemacht hat ist einfach, dass die Binary dort schon vorliegt, was meines Wissens unter Linux (noch) nicht der Fall ist.
Dort gibt es nur die "regulären" Firmware Dateien.
Wie gesagt, N1x sollte nicht mehr als "provisorisch" laufen.
Das stimmt, ist aber an der Stelle auch irrelevant, denn wie gesagt … die Daten werden sicherlich vom BIOS der Karte ausgelesen, da man über Firmware Dateien (oder sonstige statische Methoden) schlicht und einfach nicht die richtigen Daten bekommen kann.
Außer man führt riesige LUTs die man ständig aktualisieren muss, aber da wirst du mir sicher auch zustimmen, dass das Unsinn wäre, oder? ;)
edit: Wenn ich schon mal am meckern bin: N31 mit der tupfengleichen Konfiguration wie N21?
Ja, das hat mich auch gewundert, aber hab mich dann entschieden da erstmal kein Hirnschmalz zu verwenden. Wir haben selbst bei Navi 21 noch zu viele Fragezeichen, da macht es keinen Sinn über Navi 31 zu sinnieren.
Lediglich würden diese 80 CU bei Navi 31 in meinen Augen tendenziell gegen ein MCM Konzept sprechen, denn da würde man ja eher mit 40 CU Chiplets rechnen, oder?

Complicated
2020-09-27, 20:34:49
sry ich bin langsam zu alt für das hier :freak:
mitlesen ist auch interessant, bin sehr gespannt was am Ende rauskommt mit Navi2Keine Sorge, ging mir gestern genauso. Hier gehts auch recht schnell...
Im Thread stand zu lesen, dass ein 128bit gddr6-Interface etwa 30mm² benötigt,
der angebliche "Gamecache" etwa 120mm². ...ergibt in dem Fall 180mm²
gegenüber 10mm² für ein 1024bit HBM2-Interface.
das ergäbe 20-40mm² bei HBM vs. 180mm² Cache+256bit gddr6.
...was ist hier logischer?
Die Flächenzahlen hat hier jemand sich selber zusammengereimt und die stimmen auch nicht für die SIs. Und der "Gamecache" ist auch noch nicht bestätigt und könnte ebensogut ein eigener Chips sein, wobei ich da eine andere Theorie habe;

Das würde halt bedeuten, dass sich zwei Speicherkanäle einen Texturkanalcache teilen. Sowas hat AMD bisher glaube ich noch nie gemacht.

Insofern hab ich daran so meine Zweifel.
Aber genau das könnte sein - erinnere dich mal an das Hybrid-Raytracing Patent. Dort ist der Texturecache beschrieben und auch der zusätzliche Kanal parallel für die BHV FFU bei Raytracing. Was macht denn der ganze Kram wenn kein Raytracing aktiv ist? Möglicherweise nutzt AMD genau diese Ressourcen dann eben dafür. Heute Mittag hatte ich mir das mal genauer angeschaut. Auf Seite 23 Abschnitt [022] und [023] hier nochmals der Link:
https://www.freepatentsonline.com/20190197761.pdf
Das hört sich an als ob der größere Texturecache auch ohne die FFU und Raytracing genutzt werden kann (state machine programable or fixed function) - also möglicherweise verbirgt sich hier das Geheimnis der geringeren Bandbreite, nicht nur für Raytracing, sondern auch dann wenn Raytracing nicht genutzt wird. So ganz klar ist mir das noch nicht...

Berniyh
2020-09-27, 20:56:01
Aber genau das könnte sein - erinnere dich mal an das Hybrid-Raytracing Patent. Dort ist der Texturecache beschrieben und auch der zusätzliche Kanal parallel für die BHV FFU bei Raytracing. Was macht denn der ganze Kram wenn kein Raytracing aktiv ist? Möglicherweise nutzt AMD genau diese Ressourcen dann eben dafür. Heute Mittag hatte ich mir das mal genauer angeschaut. Auf Seite 23 Abschnitt [022] und [023] hier nochmals der Link:
https://www.freepatentsonline.com/20190197761.pdf
Das hört sich an als ob der größere Texturecache auch ohne die FFU und Raytracing genutzt werden kann (state machine programable or fixed function) - also möglicherweise verbirgt sich hier das Geheimnis der geringeren Bandbreite, nicht nur für Raytracing, sondern auch dann wenn Raytracing nicht genutzt wird. So ganz klar ist mir das noch nicht...
Ja, wäre möglich. Keine Frage.

Übrigens wäre Arcturus ein Hinweis darauf, denn der hat auch 16 TCCS, also genauso viele wie Vega 10, Navi 10 und Navi 12 (jeweils 16xSDP) und halb so viele wie Vega 20 (wobei letzteres eine Vermutung ist, ich konnte keine gpu_info Binary für Vega 20 finden, 32xSDP ist da aber sicher).

unl34shed
2020-09-27, 21:15:36
Die Einträge wurden übrigens bei Newegg rausgenommen.

davidzo
2020-09-27, 21:30:07
Hmmm naja. Wenn man davon ausgeht, dass Apple diese Dinger verbauen möchte im MacPro, weil der 500w abführen kann als GPU, dann wird wohl kaum eine langsamere GPU verbaut werden, oder?

Folgende Komponenten müssen also geschlagen werden bzw. dafür muss es dann einen Nachfolger geben:




Insofern wird AMD wohl kaum eine GPU testen, die langsamer ist als das jetzige, was besteht mit einer 300w GPU. ^^

Was in Apple treibern auftaucht ist völlig Wumpe und hat nichts damit zutun was nachher in macs verbaut wird. Wenn das so wäre, dann hätten wir schon lange einen Mac mit raven ridge und renoir, die tauchen nämlich auch regelmäßig in apple treiberblobs auf. Ich denke die kriegen halt grundsätzlich ziemlichen early beta code von AMD als Teil von dem OEM Deal (der Grund wieso NV raus ist, die waren closed source). Da macht sich dann keiner den aufwand das zeug heraus zu filtern was chips betrifft die vorraussichtlich gar nicht in macs verbaut werden, die nehmen den code erstmal so wie sie ihn von AMD bekommen.
Wenn Apple was dickeres als die vegaII duo braucht, dann gibts halt arcturus, am besten mit zwei oder gar vier chips auf einer doppelten karte.

Ich sehe die apple treiber nicht als Hinweis darauf in welcher Leistungsklasse AMD landen wird. Das hat damit gar nichts zutun und bei der Entscheidung von Apple für AMD Grafiken (wie lange noch?) stand noch überhaupt nicht fest was für ein Leistungsniveau Nvidia in 2020 mit Ampere erreichen würde.

Berniyh
2020-09-27, 21:33:35
Was in Apple treibern auftaucht ist völlig Wumpe und hat nichts damit zutun was nachher in macs verbaut wird. Wenn das so wäre, dann hätten wir schon lange einen Mac mit raven ridge und renoir, die tauchen nämlich auch regelmäßig in apple treiberblobs auf.
Wie schon mehrfach gesagt: es gibt da eine gemeinsame Treiberbasis
Wenn Apple was dickeres als die vegaII duo braucht, dann gibts halt arcturus, am besten mit zwei oder gar vier chips auf einer doppelten karte.
Arcturus kann soweit wir wissen keine Grafikausgabe.

dargo
2020-09-27, 21:40:40
Gerade das macht die cache optimierung wichtig
Definiere mal was du unter Optimierung verstehst. Mir wird nämlich nicht ganz klar was du für einen shared Cache optimieren willst. Eventuell hilft dieses Bild dabei worauf ich hinaus will.
https://www.extremetech.com/wp-content/uploads/2014/09/Haswell-Labeled.jpg

Agent117
2020-09-27, 21:46:18
Lediglich würden diese 80 CU bei Navi 31 in meinen Augen tendenziell gegen ein MCM Konzept sprechen, denn da würde man ja eher mit 40 CU Chiplets rechnen, oder?

40 sollte zu groß sein. Zen 2 mit seinen 80 mm² und schon 8 kernen sollte schon etwa das Optimum sein, wenn man alle Märkte bedienen will.
40 CU wären auch 2021 noch 170 bis 200 mm².
Bei GPUs sollte das Aufteilen generell deutlich aufwendiger als bei CPUs sein, wenn man dafür mal "geschnitten" hat, ist sollte es leichter als bei CPUs sein, mehrere kleinere Einheiten zu verwenden. Den Fertigungskosten täte das gut.

BTW: Weiß jemand, was es mit Navi 21s zweitem Command Processor auf sich hat ? Navi 22 scheint dies ja nicht zu haben. Lässt sich daraus was Richtung Vorstufe Chiplet ableiten ?

Complicated
2020-09-27, 21:48:01
Definiere mal was du unter Optimierung verstehst. Mir wird nämlich nicht ganz klar was du für einen shared Cache optimieren willst. Eventuell hilft dieses Bild dabei worauf ich hinaus will.
https://www.extremetech.com/wp-content/uploads/2014/09/Haswell-Labeled.jpgSeid ihr beide im Thread verrutscht? :D

Complicated
2020-09-27, 22:17:06
40 sollte zu groß sein. Zen 2 mit seinen 80 mm² und schon 8 kernen sollte schon etwa das Optimum sein, wenn man alle Märkte bedienen will.
40 CU wären auch 2021 noch 170 bis 200 mm².
Na ich weiss nicht, wenn ich mir den NAvi10 Die (251mm²) so anschaue, würde vielleicht die Hälfte davon auf den IO-Die ausgelagert - den darfst du in dem Vergleich mit Zen2s 80mm² nicht ausser acht lassen.
Da bis du schon bei 120mm² runter für 40 CUs und ROPS. PHY, IO und Memory Controller runter. Dann noch etwas Prozess-Optimierung und Foorplan-Optimierung und das sind ca. 100 mm² pi mal Daumen:


https://preview.redd.it/jxniefh8pvb41.jpg?width=5529&format=pjpg&auto=webp&a3f622f5

Berniyh
2020-09-27, 22:19:33
BTW: Weiß jemand, was es mit Navi 21s zweitem Command Processor auf sich hat ? Navi 22 scheint dies ja nicht zu haben. Lässt sich daraus was Richtung Vorstufe Chiplet ableiten ?
Mir ist gerade nicht ganz klar was du meinst. Hast du nen Link? Dann lässt sich das evtl. nachvollziehen.
Ja, das hat mich auch gewundert, aber hab mich dann entschieden da erstmal kein Hirnschmalz zu verwenden. Wir haben selbst bei Navi 21 noch zu viele Fragezeichen, da macht es keinen Sinn über Navi 31 zu sinnieren.
Lediglich würden diese 80 CU bei Navi 31 in meinen Augen tendenziell gegen ein MCM Konzept sprechen, denn da würde man ja eher mit 40 CU Chiplets rechnen, oder?
Nach etwas nachdenken:
evtl. plant man einen Refresh/Shrink von Navi 21 in N5a (oder e oder wie auch immer diese AMD-spezifische Prozess heißt) ein.
Sei es nun als Pipecleaner, um Kapazitäten von 7nm zu 5nm (wo ja angeblich Kapazitäten frei werden) zu verschieben oder einfach um etwas mehr Zeit bei der Umsetzung von MCM zu haben.
Oder aber um eben noch mal einen drauf setzen zu können, da das ja schon noch mal einen Vorteil gegenüber N7e bringen sollte (wenngleich der Sprung natürlich nicht so groß wie gegenüber N7 wäre).
Rein von der Architektur her wäre das natürlich eigentlich ein Navi 2x Chip, aber evtl. lässt man das dann trotzdem als Navi 3x laufen, sei es nur zur Abgrenzung oder man hat halt noch ein paar RDNA3-spezifische Upgrades mit an Bord.

Würde aber darauf hindeuten, dass Navi 31 möglicherweise schon im 1HJ 2021 aufschlägt?

unl34shed
2020-09-27, 22:35:55
Mir ist gerade nicht ganz klar was du meinst. Hast du nen Link? Dann lässt sich das evtl. nachvollziehen.

Vermutlich hier den Dual Pipe Graphics command processor
https://i.redd.it/zn0o4t0140b51.jpg

nairune
2020-09-27, 22:43:34
Definiere mal was du unter Optimierung verstehst. Mir wird nämlich nicht ganz klar was du für einen shared Cache optimieren willst. Eventuell hilft dieses Bild dabei worauf ich hinaus will.
https://www.extremetech.com/wp-content/uploads/2014/09/Haswell-Labeled.jpg
Und das erklärt jetzt was?
Beim Programmieren kann man sehr wohl versuchen, der CPU bei der Effizienz ihrer Caches zu "helfen". Wenn das in der Vergangenheit für GPUs irrelevant war und sich das mit Navi2 ändert, wäre das schon ein Punkt, wo Spiele unterschiedlich anschlagen können.

Für CPUs kannst du das in großem Umfang ergoogeln, wenn es dich interessiert, hier einer der ersten Treffer:
https://stackoverflow.com/questions/16699247/what-is-a-cache-friendly-code

Berniyh
2020-09-27, 22:50:29
Vermutlich hier den Dual Pipe Graphics command processor
https://i.redd.it/zn0o4t0140b51.jpg
Ah so.

Da steht halt auch dabei, dass aktuell (im Linux Treiber) nur einer davon genutzt wird, also wird sich das derzeit nicht wirklich auflösen lassen.

NC
2020-09-27, 23:09:02
Definiere mal was du unter Optimierung verstehst. Mir wird nämlich nicht ganz klar was du für einen shared Cache optimieren willst. Eventuell hilft dieses Bild dabei worauf ich hinaus will.
https://www.extremetech.com/wp-content/uploads/2014/09/Haswell-Labeled.jpg
Im einfachsten Fall, dass der Datensatz in den L3 passt wenn alle Threads/Kerne dran arbeiten.
Oder dass alle Kerne überhaupt erstmal an derselben Aufgabe arbeiten. (Viele Engines erstellen stumpf "Worker" die willkürliche Tasks machen und sich nicht selten gegenseitig den L3 löchern (mit thread-pinning ist das eher kein L2 bzw. L1 Problem, esseiden du hast Hyperthreading).

Aber allgemein wird wirklich viel, gerade bei Konsolen für Cache optimiert. Denn egal wieviel du multithreadest oder vektorisierst, oder auch super tolle Algorithmen anwendest, oft wirst du im Profiler sehen dass die CPU wegen Cache-Misses hunderte Cycles wartet.


Wenn du wirklich tiefere informationen willst wie für Cache optimiert wird, schau dir vielleicht: http://gameprogrammingpatterns.com/data-locality.html an.

Klar, er beschreibt nur die grundlegenen Schritte, und für jeden Cache optimierst du anders.
Aber der wirklich wichtige Punkt ist: beachtest du nicht die Regeln eines Caches, dann läuft dein Code als ob es den Cache nicht gibt (nein, nicht als ob du ihn halbierst, es ist tatsächlich oft so dass du Cache Trashing hast -> der Cache casht nicht).

dargo
2020-09-28, 06:11:44
@NC

Konsole ist ein anderes Thema. Es ging mir nur um Parallelen zu dem angeblichen Cache bei N21 zu finden der die fehlende Bandbreite bei 256BIt SI + GDDR6 kompensieren soll. Also warum der Spieleentwickler bei dieser Art von Hardware was speziell optimieren muss? Als anderes Beispiel könnte man hier den Broadwell mit seinem 128MB eDRAM und L4 Cache ausführen. Afaik wurde für diese CPU nichts Spezielles auf Softwareseite im Bereich Spiele gemacht. Dennoch profitiert sowohl die iGPU als auch die CPU von diesem Design. Alleine auf CPU-Seite habe ich durch den eDRAM bis zu +30% Performance gesehen vs. non eDRAM.

PS: ich versuche einfach nur herauszufinden ob so eine Lösung technisch sinnvoll wäre. Ob sie dann wirtschaftlich sinnvoll ist steht auf einem anderen Blatt.

PingpiN
2020-09-28, 10:40:37
Schade das AMD nicht All-In gegangen ist. AMD ärgert sich bestimmt grade weil sie bestimmt wie jeder andere wegen der schlechten Performance der 3080 überrascht sind. Nach Jahrzehnten hätte AMD erstmals wieder die GPU Krone holen können. Jetzt wird es ein abgespeckter Chip der wieder nicht an Nvidia rankommen wird..

Dschounz
2020-09-28, 10:43:45
@NC

Konsole ist ein anderes Thema. Es ging mir nur um Parallelen zu dem angeblichen Cache bei N21 zu finden der die fehlende Bandbreite bei 256BIt SI + GDDR6 kompensieren soll. Also warum der Spieleentwickler bei dieser Art von Hardware was speziell optimieren muss? Als anderes Beispiel könnte man hier den Broadwell mit seinem 128MB eDRAM und L4 Cache ausführen. Afaik wurde für diese CPU nichts Spezielles auf Softwareseite im Bereich Spiele gemacht. Dennoch profitiert sowohl die iGPU als auch die CPU von diesem Design. Alleine auf CPU-Seite habe ich durch den eDRAM bis zu +30% Performance gesehen vs. non eDRAM.

PS: ich versuche einfach nur herauszufinden ob so eine Lösung technisch sinnvoll wäre. Ob sie dann wirtschaftlich sinnvoll ist steht auf einem anderen Blatt.


Ich hab tatsächlich noch den 5775c am laufen; günstig geschossen und vom Xeon 1231v3 aus gesehen grade in Spielen (Stichwort Latenz) einen erheblichen Boost bei den MinFPS.

Bei dem Secret-Sauce-Cache, der kolportiert wird bei BigNavi, muss dieser aber, im Gegensatz zu einer CPU, den Datenpool, der an der Bandbreite hängt, komplett abdecken.
Das könnte, je nach Game-Engine, auch voll in die Hose gehen, wenn's nicht reicht.

Bei höheren Auflösung halte ich die im Raum stehenden 128MB für grenzwertig...deswegen wäre mir ein HBM-Interface lieber :wink:

Complicated
2020-09-28, 10:52:58
Siehe

Aber genau das könnte sein - erinnere dich mal an das Hybrid-Raytracing Patent. Dort ist der Texturecache beschrieben und auch der zusätzliche Kanal parallel für die BHV FFU bei Raytracing. Was macht denn der ganze Kram wenn kein Raytracing aktiv ist? Möglicherweise nutzt AMD genau diese Ressourcen dann eben dafür. Heute Mittag hatte ich mir das mal genauer angeschaut. Auf Seite 23 Abschnitt [022] und [023] hier nochmals der Link:
https://www.freepatentsonline.com/20190197761.pdf
Das hört sich an als ob der größere Texturecache auch ohne die FFU und Raytracing genutzt werden kann (state machine programable or fixed function) - also möglicherweise verbirgt sich hier das Geheimnis der geringeren Bandbreite, nicht nur für Raytracing, sondern auch dann wenn Raytracing nicht genutzt wird. So ganz klar ist mir das noch nicht...Das wäre komplett in Hardware gelöst, wenn diese vorhandene Ressourcen dazu eingesetzt werden würden...

HOT
2020-09-28, 10:53:10
Navi 2x hat nix mit Chiplets am Hut, das sollte klar sein. N31 wird offenbar den I/O-Bereich auslagern und zwar auf dem Träger, das scheint auch relativ klar zu sein, mehr wird aber auch nicht passieren.
N31 ist mMn sowieso nur ein Zwischenschritt und keine ganze Generation. Ich denke, dass RDNA3 eben nur aus diesem einen Chip besteht. N5 wird einfach noch zu teuer sein, um damit Massenprodukte zu fertigen für AMD. Man wird den Chip ja dennoch als Pipecleaner verwenden, da waren die Chips für gewöhnlich ja auch 300mm²+, nur bei Polaris nicht, da war halt nichts größeres geplant, sonst wär das da auch so gewesen. Von daher kann man davon ausgehen, dass N31 ca. 250-350mm² hat, zzgl. des I/O-Chips. Man wird dem Chip extra Optimierungen für RT mitgegeben haben, sodass auch path tracing Sachen wie Minecraft anständig laufen (was sie bei RDNA2 wohl nicht tun werden) und eben diese Aufteilung, das wars im Großen und Ganzen mMn. Das werden dann irgendwas zwischen 96 und 128CUs insgesamt sein, mit Tendenz zu eher mehr, also als vorläufiger Vollausbau. RDNA4 dürfte dann wieder die ganze Organisation seit RDNA1 umschmeißen, was ja auch klar ist bei der Umstellung auf Chiplets und ich erwarte diese Gen (wie auch Hopper-Consumer) nicht vor 23 - die Zyklen werden länger, die Kosten steigen, die Probleme potenzieren sich.

Complicated
2020-09-28, 10:56:56
Ich würde bei N31 in diesem Fall eher nicht von einem großen Chip ausgehen - das macht für Chiplets kaum Sinn und auch nicht für einen schnellen Release. IMHO wird das erste Chiplet nicht über 40CUs sein und die Chipletgröße wird auch um die max. 100 mm² groß sein. Zwischen 100 und 300 mm² können locker 9 Monate liegen für wirtschaftliche Yields. (Siehe Abstand Apple->GPUs rampUp)

Nur dann kann das Chipletdesign auch seine ganzen Vorteile ausspielen.

davidzo
2020-09-28, 11:10:44
Navi 2x hat nix mit Chiplets am Hut, das sollte klar sein. N31 wird offenbar den I/O-Bereich auslagern, das scheint auch relativ klar zu sein, mehr aber auch nicht.
N31 ist mMn sowieso nur ein Zwischenschritt und keine ganze Generation. Ich denke, dass RDNA3 eben nur aus diesem einen Chip besteht. N5 wird einfach noch zu teuer sein, um damit Massenprodukte zu fertigen für AMD. Man wird den Chip ja dennoch als Pipecleaner verwenden, da waren die Chips für Gewöhnlich ja auch 300mm²+, nur bei Polaris nicht, da war halt nichts größeres geplant, sonst wär das da auch so gewesen. Von daher kann man davon ausgehen, dass N31 ca. 250-350mm² hat, zzg. des I/O-Chips.

Ich würde bei N31 in diesem Fall eher nicht von einem großen Chip ausgehen - das macht für Chiplets kaum Sinn und auch nicht für einen schnellen Release. IMHO wird das erste Chiplet nicht über 40CUs sein und die Chipletgröße wird auch um die max. 100 mm² groß sein. Zwischen 100 und 300 mm² können locker 9 Monate liegen für wirtschaftliche Yields. (Siehe Abstand Apple->GPUs rampUp)

Nur dann kann das Chipletdesign auch seine ganzen Vorteile ausspielen.

Ich wäre da nicht so sicher dass mit dem chiplet design dass gemeint ist was hier so kolportiert wird. Es ist sehr wahrscheinlich dass AMD uns da noch überraschen wird, genau so wie wir bei Zen2 überrascht waren.
Chiplet heißt erstmal nur dass man moderne packaging technologien benutzt bei denen verschiedene Fertigungsprozesse in einem package kombiniert werden. Prinzipiell könnte man auch 2.5D Packages wie Vega bzw. CoWos schon als Chiplets bezeichnen.
Wir denken bisher nur total von der Multi GPU Seite, also mehrere GPUs die in sich gleich sind und parallel an einem Bild rendern. Möglich sind aber auch ganz andere Aufteilungen.
Der große Nachteil an einer solchen Multi chip GPU ist der enorm hohe Bandbreitenbedarf zwischen den chips und der daraus resultierende höhere Energieverbrauch gegenüber einem Chip.

Packaging Technologien sind aber vor allem enabler für high bandwith verbindungen die vorher so nicht möglich waren. Zum Beispiel HBM via interposer, aber mittlerweile auch via Package oder EMIB. Anstatt diesen Vorteil nun zu benutzen um den großen Nachteil von Multichip auszugleichen, nämlich die chip to chip crossbar, muss man imo viel eher darauf gucken was damit möglich wäre wenn man eine normale "fette" single GPU erweitern will. Gibt es workloads die embedded dram benutzen könnten oder von caching enorm profitieren? Kann man hbm direkt auf den DIE stapeln und als eine art high speed cache benutzen während die große Masse als langsamer GDDR angebunden ist? Lohnt es sich dann PCIe, SI und Displayengine auszulagern?

Von daher würde ich jetzt nicht automatisch an einen chip denken der die CUs auf mehrere Chiplets verteilt. Viel sinnvoller finde ich imo die Auflösung dass einfach ein anderer ("idealer") Fertigungsprozess für den jeweiligen typ logik benutzt wird. Das bedeutet dass ein Chiplet eventuell nur CUs und die dafür bvenötigten caches enthält, ein anderer die VCE und i/o, etc.

Berniyh
2020-09-28, 11:12:44
Schade das AMD nicht All-In gegangen ist. AMD ärgert sich bestimmt grade weil sie bestimmt wie jeder andere wegen der schlechten Performance der 3080 überrascht sind. Nach Jahrzehnten hätte AMD erstmals wieder die GPU Krone holen können. Jetzt wird es ein abgespeckter Chip der wieder nicht an Nvidia rankommen wird..
Also ich hab noch keinen ernsthaften Benchmark gesehen, du etwa?

Es ist noch ein wenig früh für ein Fazit, meinst du nicht?

Berniyh
2020-09-28, 11:16:00
Wir wissen noch nichts über RDNA3, außer, dass es einen Navi 31 Chip geben wird und dieser mutmaßlich 80 CU hat und HOT spekuliert mal wieder rum als wäre schon alles offen gelegt. Und noch dazu RDNA4, wovon wir bisher noch gar nichts gehört haben.
Macht mal wieder bissle langsam, das driftet sonst bissle arg ab hier …

Abgesehen davon sprach dieser Leak, welcher für Navi 3x MCM andeutete auch von der Abwesenheit von 2.5D Stacking bei Navi 2x, welches wir ja nach den Gerüchten durchaus wieder diskutieren (in der einen oder anderen Form).

HOT
2020-09-28, 11:21:09
N31 hat keine Chiplets, da gehe ich jede Wette ein. Woher kommt, dass N31 80 CUs haben soll? Und natürlich spekulier ich frei, denn es gibt keine Infos.

basix
2020-09-28, 11:24:51
Bei RDNA3 sehe ich am ehesten den Zen 2 Aufbau: 1x MCD und 2x GCD. Die Dual Graphics Pipe von Sienna Cichlid deutet das mMn an. Auf den GCD kommen dann 2 Shader Engines bis und mit L1. Auf den MCD der ganze Rest (vermutlich in 6nm). Die L2-Latenz ist eh relativ hoch und dessen Bandbreite nicht viel höher als die Speicherbandbreite, deswegen sollte das Auslagern in den MCD keine wesentlichen Nachteile mitbringen (ausser grössere Chipfläche). Da das MCD relativ klein sein wird, sehe ich hier HBM auch als sehr wahrscheinlich an (2048bit, 3.2Gbit/s , InFo_ms). Damit wäre das MCD so ca. 120mm2 und die GCDs je nach Anzahl CUs. Bei 40 CUs und 2 Shader Engines <100mm2 in 5nm. Bei 56 CUs (siehe XBSX) ca. 120mm2. Mit diesen zwei Chips (GCD, MCD) könnte man alles zwischen 32 und 112 CUs abdecken und hätte wohl sehr gute Yields. Wenn nur 1x GCD verwendet wird, reicht auch 1x HBM-Stapel, das erhöht den Yield auf MCD Seite, obwohl 6nm als 7nm Abkömmling aus dem Stand gute Yields erreichen sollte.

RDNA3 wäre damit sehr performant aber grosse Chips sind es eben auch nicht. 100-120mm2 ist winzig im Vergleich zu heutigen GPUs.

gedi
2020-09-28, 11:24:54
https://twitter.com/avery78/status/1309696259280629761?s=21

Wahrscheinlich Fake, zwecks des Datums, ansonsten aber, hmm

Piefkee
2020-09-28, 11:24:56
N31 hat keine Chiplets, da gehe ich jede Wette ein. Woher kommt, dass N31 80 CUs haben soll? Und natürlich spekulier ich frei, denn es gibt keine Infos.

Steht im BigSur IOs Update. Dort sind alle Configs hinterlegt. Navi21 und Navi31 haben die selbe CU Count von 80.

Für Navi31 gibt mehrere Leaks/Gerüchte zu Chiplets

Cyberfries
2020-09-28, 11:25:42
Nur dann kann das Chipletdesign auch seine ganzen Vorteile ausspielen.

Werden aber keine Chiplets. AMD hat nicht umsonst 3d-Stapeln auf der Roadmap stehen:
2015 2.5D HBM
2017 MCM
2019 Chiplets
2021 3D Packaging
War zwar auf der Roadmap als Future angegeben, aber damit würde ich rechnen.

N31 wird offenbar den I/O-Bereich auslagern und zwar auf dem Träger, das scheint auch relativ klar zu sein, mehr wird aber auch nicht passieren. N5 wird einfach noch zu teuer sein,

Kann durchaus auch passieren, dass der Träger/IO-Die noch in einem älteren Verfahren vom Band läuft.

An sich gibt es aber für RDNA3 einen eigenen Faden.

HOT
2020-09-28, 11:34:13
Genau das ist realistisch. Wenn N31 80CUs hat und das bekannt ist, ist der Chip auch nicht so weit weg. Dann wird der auf jeden Fall im Laufe des nächsten Jahres das Licht der Welt erblicken.
Dann würde ich aber auch sagen, dass diese CUs ganz schön aufgebohrt wurden... und ich rechne immer noch mit 250+mm². Natürlich wird das ein großer Chip. Vielleicht versucht man das Stacking ja direkt in die "Masse" zu bringen und damit Erfahrung zu sammeln...

Aber Chiplets sind utopisch, dafür ist RDNA einfach ungeeignet. Dafür braucht man ne komplett darauf angepasste Architektur. Das Problem ist einfach zu groß, das wird was für den nächsten großen Wurf nach 2-3 Jahren Entwicklungszeit. N31 wird der letzte Chip der ersten RDNA-Generation mMn. Die zweite (ab RDNA4) wird dann komplett modular.

So lange hätte man übrigens noch die Option die gesamte RDNA2-Generation in N6 zu refreshen.

Complicated
2020-09-28, 12:09:13
Das widerspricht sich doch - sobald ein IO-Die im Einsatz ist, sind es Chiplets. Egal wie groß oder welches Packaging da verwendet wird. Warum sollte man einen voll eigenständig funktionsfähigen GPU-Die mit einem IO verbinden?

3D Packaging bestimmt nur wo das Chiplet eingesetzt wird und nicht ob es ein Chiplet ist. Ohne Chiplet kein 3D-Packaging (ausser es ist nur der HBM der oben drauf kommt)

HOT
2020-09-28, 12:14:07
Der Chip bleibt ja im Grunde monolithisch. Er wäre auch monolithisch geblieben, wenn die Fertigung nicht so scheisse teuer wär. So macht man eben einen Kompromiss, um die Kosten im Zaum zu halten. Aber es ist eben was anderes, den Chip in viele Teile zu spalten, wenn die Architektur dafür nicht gedacht ist. I/O lässt sich relativ schmerzfrei abtrennen. Man könnte von einer GPU+I/O-Chiplet sprechen, aber es bleibt eine GPU.

Complicated
2020-09-28, 12:15:08
IO-Die+GPU monolithisch - welchen Sinn würde das ergeben?

HOT
2020-09-28, 12:21:38
Jetzt häng dich nicht an diesem Scheiss Begriff auf.

basix
2020-09-28, 12:26:51
IO-Die+GPU monolithisch - welchen Sinn würde das ergeben?

Macht es schon, wenn 5nm Kapazität knapp ist. Man spart sich ca. 100-150mm2 beim I/O-Bereich, je nachdem ob HBM oder GDDR6 und ob der L2 auf dem MCD ist oder nicht. Es wäre zumindest ein erster Schritt in diese Richtung. Aber wenn ich schon den Aufwand in sowas reinstecken würde, würde ich mit mindestens 2x GCD rechnen. Dann ist die Lösung deutlich skalierbarer und im Endeffekt aufgrund der viel höheren Stückzahlen sowie kleineren Chips auch günstiger, vor allem bei den SKUs mit zwei GCD. Zudem kann man hier auch wie bei Zen 2 stärker Binning betreiben. Am oberen Ende 10-20% mehr Performance rauszuholen kann entscheidend sein ob Performancekrone oder nicht.

HOT
2020-09-28, 12:35:57
Das geht bei CPUs, aber nicht bei GPUs. Von daher wird das nicht passieren. Man muss das schon komplett vorbereiten. Man kann nicht einfach so ne GPU aufteilen, das erfordert massiv Arbeit.
Es ist ja was völlig anderes, ob du nur einen I/O-Bereich abtrennst oder ob du das Frontend aufteilen musst. Dann würde man eher das Frontend von mehreren Backends trennen oder sowas. Es wird sofort unüberschaubar komplex, das wird man nicht bei N31 machen. Chiplets in CPU war schwer, Chiplets in GPU wird noch extrem viel schwerer. Man sieht ja auch an CPUs, allein schon bei der CCX-Organisation, dass das nicht reibungsfrei geht, sondern dass das auch immer Nachteile mit sich bringt. Bei GPUs ist das potenzen komplexer.

Complicated
2020-09-28, 12:45:51
Jetzt häng dich nicht an diesem Scheiss Begriff auf.Was für ein dummer Spruch in einem Forum wo es um technische Dinge geht - Blau ist jetzt Rot und wir reden lieber aneinander vorbei und saugen uns alles aus den Fingern? Krieg mal deinen Ton in den Griff, wenn du schon nicht in der Lage bist dich präzise auszudrücken.

HOT
2020-09-28, 12:48:06
Du kannst das bezeichnen wie du Bock hast, das ist jetzt weder ein geschützter noch ein sinnvoll befüllter Begriff. Das ist einfach ein Begriff... Die Goldwaage ist hier einfach nicht sinnvoll. Sag meinetwegen Hyrid zu dem Ding.

Berniyh
2020-09-28, 12:49:07
Woher kommt, dass N31 80 CUs haben soll? Und natürlich spekulier ich frei, denn es gibt keine Infos.
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/

Stammt aus dem AMD Treiber für MacOS. Daher ja meine Idee, dass es sich bei Navi 31 evtl. einfach um einen Shrink (evtl. mit leichten Anpassungen) von Navi 21 in 5nm handelt.
Aber das war nur die einfachste Erklärung, andere Möglichkeiten sind auf jeden Fall denkbar.
Für Navi31 gibt mehrere Leaks/Gerüchte zu Chiplets
Also mir sind nur 2 Gerüchte zu Navi 3x bekannt. Die Posts aus dem taiwanesischen Forum bzgl. MCM bei Navi 3x und der oben verlinkte Post zu Reddit.
Mehr gibt es meines Wissens nicht?

Und in den Forenposts war explizit 2.5D für Navi 2x verneint, wo wir derzeit halt irgendwie vermuten, dass es doch kommt (weil es scheinbar HBM2 Varianten von Navi 21 gibt).

Screemer
2020-09-28, 12:50:08
...

basix
2020-09-28, 12:55:04
Das geht bei CPUs, aber nicht bei GPUs. Von daher wird das nicht passieren. Man muss das schon komplett vorbereiten. Man kann nicht einfach so ne GPU aufteilen, das erfordert massiv Arbeit.
Wenn das sagst, geht es also nicht? :rolleyes:


Es ist ja was völlig anderes, ob du nur einen I/O-Bereich abtrennst oder ob du das Frontend aufteilen musst. Dann würde man eher das Frontend von mehreren Backends trennen oder sowas. Es wird sofort unüberschaubar komplex, das wird man nicht bei N31 machen. Chiplets in CPU war schwer, Chiplets in GPU wird noch extrem viel schwerer. Man sieht ja auch an CPUs, allein schon bei der CCX-Organisation, dass das nicht reibungsfrei geht, sondern dass das auch immer Nachteile mit sich bringt. Bei GPUs ist das potenzen komplexer.
Hast du meinen Post weiter oben gelesen? Alles was mit Kontrolllogik für die gesamte GPU zu tun hat, bleibt auf dem MCD (Command Processor, ACEs, Geometry Engine, allenfalls L2). Alles Compute (CUs, RBs, Raytracing, usw.) käme auf den GCD. Nachfolged das GCD in Blau umrahmt.

Complicated
2020-09-28, 13:46:14
Du kannst das bezeichnen wie du Bock hast, das ist jetzt weder ein geschützter noch ein sinnvoll befüllter Begriff. Das ist einfach ein Begriff... Die Goldwaage ist hier einfach nicht sinnvoll. Sag meinetwegen Hyrid zu dem Ding.
Es wäre nett wenn du deinen Egotrip abschaltest und auch an fremdsprachige Foristen denkst, die durchaus den Begriff mit bestimmten Eigenschaften verbinden. Es ist klar definiert was monolithisch ist und was ein Chiplet. Monolithische Chiplets sind einfach ein Bullshit der nicht existiert. Das ist kein Esoterik Forum ...

Soll ich mal NOPs statt ROPs schreiben oder 7jm anstatt 7nm?

Cyberfries
2020-09-28, 14:00:07
Wer soviel Wert auf korrekte Benennung legt, sollte vlt nicht mehr über Chiplets bei RDNA3 reden.
Schon allein um Verwirrung vorzubeugen, zusätzlich auch weil mehrere GCDs nicht gesichert sind.
Allgemein würde ich jedoch für diese Diskussion nochmals den RDNA3-Thread empfehlen.

HOT
2020-09-28, 14:38:07
Wenn das sagst, geht es also nicht? :rolleyes:
das ist nicht persönlich gemeint, also mach kein Drama daraus.


Hast du meinen Post weiter oben gelesen? Alles was mit Kontrolllogik für die gesamte GPU zu tun hat, bleibt auf dem MCD (Command Processor, ACEs, Geometry Engine, allenfalls L2). Alles Compute (CUs, RBs, Raytracing, usw.) käme auf den GCD. Nachfolged das GCD in Blau umrahmt.
Das sag ich ja, das wird aber nix bei N3x. Wie gesagt sind die Gerüchte 80CUs, das wird auf jeden Fall monolithisch bleiben. Das passt ja auch in 200-350mm² rein. Dafür lohnt sich jedenfalls der ganze Stunt nicht. I/O-Die abtrennen ist da ne ganz andere Kiste, das kann man nämlich relativ einfach dazu verwenden um Kosten einzusparen. Bei Chiplets machst du das ganz große Fass auf und genau das machts extrem unwahrscheinlich.
Die wahrscheinlichste Vairante, nicht nur subjektiv, ist jedenfalls ein monolithisches Die mit abgetrenntem I/O-Bereich auf einem MCM.

Complicated
2020-09-28, 15:13:37
Wer soviel Wert auf korrekte Benennung legt, sollte vlt nicht mehr über Chiplets bei RDNA3 reden.
Also wenn ich jemandem sag, dass es 300mm² "monlitische Chiplets" nicht gibt soll ich das Wort "Chiplet" dabei nicht benutzen das ich zitiert habe? Hast du noch andere sinnvolle Komminikationsratschläge oder möchtest du zuerst den Kontext überprüfen und dann den entsprechend richtigen Adressaten für deine Belehrung finden?

Cyberfries
2020-09-28, 17:43:13
Nochmal zu dem MacOS-reddit-Beitrag:
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3

Dieser wurde ergänzt um Navi21_lite Daten, die wichtigsten davon:
num_se 2
num_cu_per_sh 14
num_tccs 20
u/stblr ordnet das der xBox Series X zu, was zu deren 56CUs und 320bit Interface passt.
Weiterhin zeigt num_tccs, dass eine Entkopplung nicht stattfindet, 384/512bit also weiter unwahrscheinlich.

....oder möchtest du zuerst den Kontext überprüfen und dann den entsprechend richtigen Adressaten für deine Belehrung finden?

Da ich in der Lage bin an den Ausgangspunkt der Diskussion zu scrollen, habe ich durchaus den Richtigen erwischt.

Complicated
2020-09-28, 17:50:56
Bitte Zitat wo ich für N31 Chiplets prognostiziere. Beweise dein Textverständnis.

gedi
2020-09-28, 18:13:15
Nochmal zu dem MacOS-reddit-Beitrag:
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3

Dieser wurde ergänzt um Navi21_lite Daten, die wichtigsten davon:
num_se 2
num_cu_per_sh 14
num_tccs 20
u/stblr ordnet das der xBox Series X zu, was zu deren 56CUs und 320bit Interface passt.
Weiterhin zeigt num_tccs, dass eine Entkopplung nicht stattfindet, 384/512bit also weiter unwahrscheinlich.



Da ich in der Lage bin an den Ausgangspunkt der Diskussion zu scrollen, habe ich durchaus den Richtigen erwischt.

Hm, sieht laut der Tabelle wirklich nach einem 256-Bit SI aus :( Vermutlich dumme Frage aber geht 256-Bit an HBM?

Benutzername
2020-09-28, 18:15:06
Macht es schon, wenn 5nm Kapazität knapp ist. Man spart sich ca. 100-150mm2 beim I/O-Bereich, je nachdem ob HBM oder GDDR6 und ob der L2 auf dem MCD ist oder nicht. Es wäre zumindest ein erster Schritt in diese Richtung. Aber wenn ich schon den Aufwand in sowas reinstecken würde, würde ich mit mindestens 2x GCD rechnen. Dann ist die Lösung deutlich skalierbarer und im Endeffekt aufgrund der viel höheren Stückzahlen sowie kleineren Chips auch günstiger, vor allem bei den SKUs mit zwei GCD. Zudem kann man hier auch wie bei Zen 2 stärker Binning betreiben. Am oberen Ende 10-20% mehr Performance rauszuholen kann entscheidend sein ob Performancekrone oder nicht.


Man kann auch unterschiedliche i/o chips je nach verwendetem RAM-Typ bauen. Sonste muss man ja zwei verschiedene Schnittstellen auf den Chip tun für HBM und GDDR. Das ist ja das tolle an den verschiedenen i/o Chips, daß man das ändern kann. Man könnte auch sowas wie einen "GPU-Threadripper" bauen mit einem wieder anderen i/o Chip. Die GPU Chiplets könnte man auch mit einem Zen Chiplet kombinieren und eine neue Art APU bauen. Da bieten sich einige Möglichkeiten auch wenn im Moment AMD ja zu monolithischen APUs geht.

basix
2020-09-28, 18:22:39
Naja, ich würde GDDR gleich ganz weglassen und nur HBM verwenden ;)

Ansonsten hast du definitiv recht, ein IOD führt zu höherer Flexibilität.

Berniyh
2020-09-28, 18:23:23
Hm, sieht laut der Tabelle wirklich nach einem 256-Bit SI aus :( Vermutlich dumme Frage aber geht 256-Bit an HBM?
Man kann mit 16 Speicherkanälen entweder 256 Bit GDDR6 oder 2048 Bit HBM2 anbinden.
(Wobei das bislang ein exklusives "oder" war, derzeit wird ja spekuliert, ob AMD irgendwie auch beides ermöglicht hat.)

Wobei eine Entkopplung von TCCS und Speicherkanälen zumindest bei Arcturus wahrscheinlich ist, denn der hat auch nur 16 TCCS, aber wohl 32 Speicherkanäle (4096 Bit HBM2).

basix
2020-09-28, 18:25:24
Hm, sieht laut der Tabelle wirklich nach einem 256-Bit SI aus :( ?
Die SI-Breite ist doch egal, solange die Performance und die Speichermenge stimmt. Du musst also nicht traurig sein ;)

Wenn es 80 CUs sind wird man auch etwas in Richtung 2x 5700 XT Performance erwarten dürfen. Und das wäre 3080 FE Niveau ;)

gedi
2020-09-28, 18:28:22
Man kann mit 16 Speicherkanälen entweder 256 Bit GDDR6 oder 2048 Bit HBM2 anbinden.
(Wobei das bislang ein exklusives "oder" war, derzeit wird ja spekuliert, ob AMD irgendwie auch beides ermöglicht hat.)

Wobei eine Entkopplung von TCCS und Speicherkanälen zumindest bei Arcturus wahrscheinlich ist, denn der hat auch nur 16 TCCS, aber wohl 32 Speicherkanäle (4096 Bit HBM2).

Vielen Dank für die Erklärung. Ich dachte nur, dass 128-Bit an 2048-Bit anhängen müssen.

@basix

Warum sollte ich traurig sein, dann macht die 5700XT halt nochmals ne Ehrenrunde von 2 Jahren

mr coffee
2020-09-28, 18:30:20
Würde denn eine Kombination Sinn machen? Also HBM und GDDR6?

Berniyh
2020-09-28, 18:34:55
Nochmal zu dem MacOS-reddit-Beitrag:
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3

Dieser wurde ergänzt um Navi21_lite Daten, die wichtigsten davon:
num_se 2
num_cu_per_sh 14
num_tccs 20
u/stblr ordnet das der xBox Series X zu, was zu deren 56CUs und 320bit Interface passt.
Scheint so, als wenn Navi 21 Lite eine Entwicklungsstufe von Navi 21, ausgerichtet auf die XBox.
num_packer_per_sc und max_waves_per_simd sind hier ja auch noch identisch zu Navi 10 und nicht zu Navi 2x.

Witzig dabei ist, dass genau das gemutmaßt wurde als die Einträge auftauchten:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12124009#post12124009

Die Playstation 5 läuft wahrscheinlich dann als Navi 22 LITE?
(Auch da wäre das Speicherinterface dann etwas größer als bei der non-LITE Version.)