PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

iamthebear
2022-07-27, 22:31:07
Wenn Navi33 als 7600 XT launched bedeutet das ja nicht zwangsweise, dass sie auch die Preise von der 6600 XT erben wird. Eine Erhöhung auf z.B. 450$ ist durchaus denkbar.

mboeller
2022-07-28, 21:59:30
bzgl. N33 mit 16GB:

https://www.notebookcheck.com/Sapphire-verdoppelt-den-Grafikspeicher-der-AMD-Radeon-RX-6500-XT-auf-8-GB-GDDR6-zum-kleinen-Aufpreis.637556.0.html


Sapphire hat eine neue Variante der AMD Radeon RX 6500 XT vorgestellt, die 8 GB statt der üblichen 4 GB GDDR6-Grafikspeicher

Diese Version der Grafikkarte ist hierzulande noch nicht erhältlich, in den USA kostet diese mit 229,99 US-Dollar aber nur 20 US-Dollar mehr als die Version mit 4 GB Grafikspeicher

wird dieser nach wie vor an einem 64-bit-Interface angebunden und mit einem Speichertakt von 18 Gbps betrieben, sodass die Speicherbandbreite unverändert bei 143,9 GB/s bleibt


4GB GDDR6 mit 18Gbps kosten den Verbraucher nur ca. US$20.

BlacKi
2022-07-28, 22:16:47
Wenn Navi33 als 7600 XT launched bedeutet das ja nicht zwangsweise, dass sie auch die Preise von der 6600 XT erben wird. Eine Erhöhung auf z.B. 450$ ist durchaus denkbar.




wenn das denn reicht. der vorgänger hatte 237mm² in 7nm und nun in 6nm fast doppelt so groß?


amd hat hier den vorteil, das nv die kleinen karten doch viel später bringt und die alten amd karten nicht verschenkt werden. d.h. man kann die uvp frei nach oben hin gestalten, und dann einfach später zusammen mit den anderen karten den preis anpassen.

HOT
2022-07-29, 10:04:42
Wie kommt man auf diesen Schwachsinn, dass N33 die 7600 sein könnte?

Linmoum
2022-07-29, 10:07:54
Wie kommt man auf diesen Schwachsinn, dass GA102 die 3080 sein könnte?

Namen sind Schall und Rauch. Ist doch völlig latte, ob das Ding 7600, 7600XT, 7700 oder Hans-Günther heißt.

HOT
2022-07-29, 10:28:05
Das ist aber ein völlig anderes Marktsegment.

nordic_pegasus
2022-07-29, 11:03:11
MLID hatte doch schon vor sehr vielen Monaten gesagt, dass Navi33 fast die Rohleistung von Navi21 in Full-HD haben wird, aber nur 8GB und PCIe x8 bekommen soll. Und darum ab WQHD deutlich schwächer wird als Navi21. Das klingt für mich eher nach einer potentiellen 7600 Karte als einer 7700.

Cyberfries
2022-07-29, 12:39:20
Die 7600XT soll mMn die attraktivste Karte für all die verbliebenen 1080p-Spieler werden.

Diese Narrative wird hier jetzt seit den ersten N33-Gerüchten verbreitet. Aber ganz ehrlich:
Im Jahr 2023 noch eine reine 1080p-Karte zu veröffentlichen, zu gerüchtehalber 500+ € ....

Klar, die Steam-Umfrage zeigt noch große 1080p-Anteile, da geht es aber hauptsächlich um Altgeräte,
das ist für eine Karte die bis 2025 am Markt bleibt nicht wirklich relevant. "Nur" 1080p kann für N33 nicht das Ziel sein.

N33 könnte 1x N5 GCD + 2-3x N6 MCD sein.

Auch denkbar, nur lassen sich 3 MCD schlecht um ein kleines GCD anordnen.

Das ist aber ein völlig anderes Marktsegment.

Und die RX 590 war damals im gleichen Marktsegment wie heute die 6900 XT ?

MLID hatte ... gesagt ...

Glaubwürdigkeit dahin...

dass Navi33 fast die Rohleistung von Navi21 in Full-HD haben wird

Wie sollen 4096 ALUs bei über 3 GHz Takt eine niedrigere Rohleistung als 5120 Shader bei 2,3 GHz Takt erreichen?
Alternative Mathematik?

mboeller
2022-07-29, 12:58:53
Wie kommt man auf diesen Schwachsinn, dass N33 die 7600 sein könnte?

N33 fängt anscheinend schon bei RX7500 an!

https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eec

https://cdn.videocardz.com/1/2022/07/AFOX-RX-7000-1.png

Linmoum
2022-07-29, 13:00:39
Sowas sind nur nichtssagende Platzhalternamen, die Unternehmen vorsichtshalber immer eintragen lassen. Eine 5800XT z.B. hat es schließlich auch nie gegeben.

basix
2022-07-29, 13:37:47
N33 fängt anscheinend schon bei RX7500 an!

https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eec

https://cdn.videocardz.com/1/2022/07/AFOX-RX-7000-1.png


N31:
- 6*8 WGP -> 48 WGP -> 7900XT / 24GB
- 6*7 WGP -> 42 WGP -> 7900 / 24GB
- 5*8 WGP -> 40 WGP -> 7800XT / 20GB

N32:
- 4*8 WGP -> 32 WGP -> 7800 / 16GB
- 4*7 WGP -> 28 WGP -> 7700XT / 16GB
- 3*8 WGP -> 24 WGP -> 7700 / 14GB

N33:
- 2*8 WGP -> 16 WGP -> 7600XT / 12GB (96bit @ 22Gbps GDDR6)
- 2*7 WGP -> 14 WGP -> 7600 / 12GB (96bit @ 18Gbps GDDR6)

N33 Mobile:
- 2*8 WGP -> 16 WGP -> M7700XT / 16GB (128bit @ 16Gbps GDDR6)
- 2*7 WGP -> 14 WGP -> M7700 / 12GB (96bit @ 16Gbps GDDR6)

Angepasste Namen und korrigierte WGPs ;)

amdfanuwe
2022-07-29, 15:25:43
Bei CB wird folgendes spekuliert:

---------------
https://www.computerbase.de/2022-07/amd-rdna-3-navi-31-koennte-mit-3-modellen-ab-oktober-starten/
N31:
- 6*8 WGP -> 48 WGP -> 7975XT / 24GB
- 6*x WGP -> 44/46? WGP -> 7950XT / 24GB
- 5*8 WGP -> 40 WGP -> 7900XT / 20GB

N32:
- 4*8 WGP -> 32 WGP -> 7800XT / 16GB
- 4*7 WGP -> 28 WGP -> 7800 / 16/12?GB
- 3*8 WGP -> 24 WGP -> 7700XT / 12GB

N33:
- 2*10 WGP -> 20 WGP -> 7600XT / 8GB
- 2*8 WGP -> 16 WGP -> 7600 / 8GB
- 1*10 WGP -> 10 WGP -> 7500XT / 6GB

-----------------
Die 9000er Namen, 46 oder 44 WPG, 12 GB für 7800 sowie 10WGP/SE bei N33 finde ich irgendwie unstimmig.

Hier mal meine aktuelle Version :) ohne Gewähr
N31:
- 6*8 WGP -> 48 WGP -> 7950XT / 24GB
- 6*7 WGP -> 42 WGP -> 7900XT / 24GB
- 5*8 WGP -> 40 WGP -> 7900 / 20GB Lower CLK

N32:
- 4*8 WGP -> 32 WGP -> 7800XT / 16GB
- 4*7 WGP -> 28 WGP -> 7800 / 16GB
- 3*8 WGP -> 24 WGP -> 7700XT / 12GB Lower CLK

N33:
- 2*8 WGP -> 16 WGP -> 7600XT / 8GB
- 2*7 WGP -> 14 WGP -> 7600 / 8GB
- 1*8 WGP -> 8 WGP -> 7500XT / 4? 6GB Lower CLK

N33 mit 10 statt 8 WGP/SE wäre auch nett.
Allerdings frage ich mich, wie sich die Anzahl der ALUs/SE auswirkt.
Bei N20 waren es noch max 1280 ALUs/SE. Bei N30 wären es 2048 ALUs/SE bzw. bei N33 mit 10 WGP/SE sogar 2560ALUs/SE.

dargo
2022-07-29, 17:50:14
Huch... "gleich" 9 Modelle (3 je SKU) bei RDNA3? AMD gibt wohl richtig Gas bei der nächsten Gen. :freak: Das neue GPU-Design scheint echt grandios flexibel zu sein. :)

Cyberfries
2022-07-29, 18:04:17
Bei CB wird folgendes spekuliert:
7975XT
7950XT

Ist schon wieder 2011? Ne, das ist doch Quark, so ein Bezeichnungsschema wird wohl kaum kommen,
da haben Computerbase und Kepler_L2 daneben gegriffen. Und N31 mit 46 WGP?
Klar, 4% Differenz, lohnt sich da was einzuschieben. Wie bereits gesagt: Die Luft für drei N31-Varianten ist zu dünn.

N31 mit 48 oder 42 WGP und 24 GB als 7900 XT und 7900
N32 mit 32 oder 28 WGP und 16 GB als 7800 XT und 7800
N32 mit 22 WGP und 12 GB als 7700 XT
N33 mit 16 oder 14 WGP und 16/8 GB als 7600 XT und 7600

Mit den entsprechenden Taktraten ergäbe das relativ regelmäßige 20-25%-Sprünge für ein sinnvolles Portfolio.
Darunter können die 6750 XT und 6650 XT im Programm bleiben, vielleicht sogar ohne Umbenennung.

dargo
2022-07-29, 18:56:07
Darunter können die 6750 XT und 6650 XT im Programm bleiben, vielleicht sogar ohne Umbenennung.
Bitte nicht, sinnloseste SKUs im aktuellen Portfolio neben der 6950XT.

amdfanuwe
2022-07-29, 19:01:05
Klar, 4% Differenz, lohnt sich da was einzuschieben. Wie bereits gesagt: Die Luft für drei N31-Varianten ist zu dünn.

Kommt darauf an, wie man selektiert.
Die Chips erreichen unterschiedliche Taktraten bei unterschiedlichem Verbrauch.

1)Durch die Chiplets könnte AMD gut sortieren und sehr gut taktende effiziente Chips mit sehr guten MCDs in einem Topmodell anbieten.
2)Gut Taktende und zur weiteren Differentierung mit deaktivierten WGPs.
3)Der gering Taktende Rest mit einer deaktivierten SE.

Bei monolithischem Design sammelt man für 1) erst mal eine Weile.

Die MCDs lassen sich bestimmt auch gut sortieren, Zum einem schon mal ein exellenter Yield wegen 40mm², zum anderem verwendbar für 22/24GPs und der Rest für geringere Takte.

------
- 6*7 WGP -> 42 WGP -> 7900XT / 24GB
- 5*8 WGP -> 40 WGP -> 7900 / 20GB Lower CLK

N32:
- 4*8 WGP -> 32 WGP -> 7800XT / 16GB
-------
eine gering Taktende 7900 N31 könnte sich gut zwischen hoch taktenden N32 und gut Taktender N31 positionieren. Bei 10% geringerem Takt ( also statt 3,3GHz knapp 3.0GHz) verhielten sich die 40WGP wie 36.
Da hat AMD viel Spielraum.

Lehdro
2022-07-29, 19:06:24
Bitte nicht, sinnloseste SKUs im aktuellen Portfolio neben der 6950XT.
Die 6750XT ist von denen die einzig sinnvolle SKU zum Beibehalten. Schneller als die 6700XT bei quasi selbem Verbrauch. (https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop)

gedi
2022-07-29, 19:07:40
Feel curious-is it a RDNA3 Thread?

Lehdro
2022-07-29, 19:26:21
Feel curious-is it a RDNA3 Thread?
Ja, irgendwo muss man den Cutoff bei RDNA3 im Lineup ja machen. Es wird imo kein N33 mit ~6800 Performance geben - da sitzt die 6750XT bzw. deren Refresh. N33 dann ~6900XT und N33 Salvage zwischen 6800 und 6800XT. Darunter RDNA2 mit N22 in Form der ~6750XT Performance.

gedi
2022-07-29, 19:48:27
Ich wäre mit Performance-Angaben sehr vorsichtig! Das was auf Twitter geleakt wurde, deutet eher auf eine Performance der 4070 gegen 3080 +10% hin und 4080 gegen eine 3090Ti auf Gleichstand hin! Es wird eine Meh-Area in this decade!

dargo
2022-07-29, 19:48:59
Die 6750XT ist von denen die einzig sinnvolle SKU zum Beibehalten. Schneller als die 6700XT bei quasi selbem Verbrauch. (https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop)
Ok... scheint ja wirklich keine Brechstange zu sein.

amdfanuwe
2022-07-29, 20:14:19
Ja, irgendwo muss man den Cutoff bei RDNA3 im Lineup ja machen. ...
Darunter RDNA2 mit N22 in Form der ~6750XT Performance.
N24 wird sicherlich noch erhalten bleiben, N22 dürfte sich kaum noch lohnen.
Der xx50 Aufguss deutet eher auf einen Abverkauf der Chips hin.

N31 kann AMD in den Markt werfen, ohne die anderen 6000er großartig zu Kanibalisieren.
Je nach SKU und Preis bleibt auch bei einem N33 noch 6600 und 6800/6900 attraktiv.
Wir wissen aber auch nicht, ob AMD zum Schlag gegen Nvidia ausholt. Effizienztechnisch und Preis/Leistung könnte AMD mit MCM das bessere Angebot stellen und Nvidia die Gewinnmargen versauen.

Neurosphere
2022-07-29, 20:22:35
https://twitter.com/greymon55/status/1553033131334451202

Navi 31 im November und ähnlich schnell wie AD102.

BiG OnE
2022-07-29, 22:07:36
Das mit dem ähnlich schnell steht da nicht.

Neurosphere
2022-07-29, 22:21:22
Das mit dem ähnlich schnell steht da nicht.

Stimmt, steht hier:

https://twitter.com/greymon55/status/1553034827506794496

GrimReaper85
2022-07-29, 22:25:44
Aufstellungen mit TDPs:
https://twitter.com/Kepler_L2/status/1545605190685966336

Unicous
2022-07-29, 22:27:25
Uups, zu spät

31 is about the same level as AD102, but the final TBP is uncertain, so its upper limit is not known.
https://twitter.com/greymon55/status/1553034827506794496

Da die Twitter-"Leaker" diese Generation alles Mögliche berichten sich alle paar Tage selbst widersprechen und dann wieder einen neuen Leak parat haben, kann man eigentlich gar nichts mehr dazu sagen. Wir sind nur wenige Monate entfernt und wissen eigentlich genauso viel wie Anfang des Jahres.

iamthebear
2022-07-29, 22:44:47
Ich wäre mit Performance-Angaben sehr vorsichtig! Das was auf Twitter geleakt wurde, deutet eher auf eine Performance der 4070 gegen 3080 +10% hin und 4080 gegen eine 3090Ti auf Gleichstand hin! Es wird eine Meh-Area in this decade!

kopite meinte für Timespy Extreme:
4070: 10K
4080: 15K
4090: 18K allerdings war die stark beschnitten. Tendenz denke ich eher gegen 20K

Durchschnittswert in den 3DMark Datenbanken:
3080: 8045
3080 Ti: 9180
3090: 9483
3090 Ti: 10857

Das bedeutet:
4070: 24% über der 3080
4080: 38% über der 3090 Ti bzw. 86% über der 3080

Allerdings:
Wenn die 4080 mit 420W kommt, dann bedeutet dies, dass sie bei 300W eher nur um die 13K haben wird. Das wären gerade einmal 42% über der 3080 Ti und das bei vermutlich ähnlichem Preis. Das ist jetzt nicht so überwältigend.

Lehdro
2022-07-30, 00:02:24
N24 wird sicherlich noch erhalten bleiben, N22 dürfte sich kaum noch lohnen.
Der xx50 Aufguss deutet eher auf einen Abverkauf der Chips hin.

Es gibt keine Leaks zu N34 o.ä.

Irgendwie muss AMD das nach unten auffüllen: N22-N23-N24 sind schon da und können bei Bedarf einfach fortgeführt werden. N22 und N23 könnte man sogar recht kostengünstig auf N6 portieren. N24 ist sogar schon N6, somit ist klar dass das relativ easy ist. N22 mit ~330mm² N7P auf N6 portiert wird sicher billiger sein als N33...sind ja beides Monolithen, anders als N32 und N31.

Mit RDNA4 kommt dann wieder ein neuer Schwung Mid-lowend GPUs, ohne Refreshs. Es hieß ja schon vor langer Zeit das N4x mehr Chips hat als N3x. (https://twitter.com/greymon55/status/1425452531669377031?s=20&t=dGMgOgbPhHpoUNABqSBBxw)

amdfanuwe
2022-07-30, 01:24:45
Es gibt keine Leaks zu N34 o.ä.
...
N22 mit ~330mm² N7P auf N6 portiert wird sicher billiger sein als N33...sind ja beides Monolithen, anders als N32 und N31.

Wo schreib ich was zu N34?
Ob N33 monolithisch ist oder nicht, jedenfalls wird der kleiner als N22.
Und ich denke nicht, dass N22 billiger ist als N33.

Den N23 in der 6600er Serie könnte AMD noch etwas weiterlaufen lassen.
Mit erscheinen von N33 werden die auf <300€ abrutschen.
Kommt halt darauf an, wie AMD den Markt aufmischen will.

reaperrr
2022-07-30, 01:27:40
N22 mit ~330mm² N7P auf N6 portiert wird sicher billiger sein als N33
Weniger als du denkst.
Der Chip selbst vielleicht ein wenig, wobei N6 in Sachen Fläche nur dann ein bisschen was bringt, wenn du den in N6 re-designst, ein reiner Port (der wahrscheinlicher wäre) würde nur davon profitieren, dass N6 dank EUV kein Multi-Patterning etc. mehr braucht und deshalb etwas günstigere Produktionskosten als N7(P) hat, und minimal weniger Saft für den gleichen Takt braucht.
Die Vorteile hat N33 aber halt auch, nur dass er halt etwas größer ist (wobei es auch schon Gerüchte von ~370mm² gab, so viel mehr ist das gar nicht).

ABER: Die Karten wären mit N22 mit vollem SI teurer, weil das breitere SI und breitere PCIe-Interface sowie die zusätzlichen Speicherchips das PCB der Karte so viel teurer machen, dass die Karten insgesamt am Ende in der Herstellung mehr kosten als N33-Karten.

Und letztlich wird N33 wohl auch so viel schneller, dass selbst ein kastrierter N33XL von AMD noch zu nem höheren Preis als ein N22XT verkauft werden kann.
Du darfst hier nicht vergessen, dass AMD für einen N33XL wahrscheinlich so viel mehr von den Board-Partnern nehmen kann als für einen N22XT(X), dass die ~10-15% mehr Fläche allein dadurch schon mehr als aufgefangen werden.


Ich bin und bleibe der Ansicht, dass N23 der RDNA2-Chip ist, der die besten Chancen hat, im 7K-Lineup aufzutauchen, nämlich als 7500(XT), gefolgt von N24 als 7400XT/7300.
N22 sehe ich im Desktop nicht weiterlaufen, passt weder vom Chipgröße/Speed-Verhältnis noch der Speicherkonfiguration sonderlich gut ins 7K-Lineup rein. N33 klar schneller zu leicht niedrigeren Kosten für die Karten, N23 VIEL günstiger bei nur moderat weniger Performance.
Lieber einfach mehr N33 produzieren, da hätte AMD wesentlich mehr von.

amdfanuwe
2022-07-30, 02:00:48
Die Vorteile hat N33 aber halt auch, nur dass er halt etwas größer ist (wobei es auch schon Gerüchte von ~370mm² gab, so viel mehr ist das gar nicht).

Ihr geht noch von N33 monolithisch in N6 aus?
Ich gehe schon von N33 N5 aus. Kleinerer Chip und ein paar Prozessschritte mehr als N6 dürften im Preis nicht den großen Unterschied ausmachen.


Ich bin und bleibe der Ansicht, dass N23 der RDNA2-Chip ist, der die besten Chancen hat, im 7K-Lineup aufzutauchen, nämlich als 7500(XT), gefolgt von N24 als 7400XT/7300.
N22 sehe ich im Desktop nicht weiterlaufen, passt weder vom Chipgröße/Speed-Verhältnis noch der Speicherkonfiguration sonderlich gut ins 7K-Lineup rein.
Seh ich ähnlich. N33 150mm² GCD N5 mit einem MCD 40 mm² 8GB Clamshell Bestückung könnte gar günstiger als N22 sein. Zumindest in der Mischkalkulation wobei da nur die schlechtesten N33 Chips verwendet werden.

reaperrr
2022-07-30, 11:44:09
Ihr geht noch von N33 monolithisch in N6 aus?
Ich gehe schon von N33 N5 aus. Kleinerer Chip und ein paar Prozessschritte mehr als N6 dürften im Preis nicht den großen Unterschied ausmachen.
Wirklich wissen tun wir es natürlich erst, wenn es auch wirklich handfestes zum Thema gibt.

Aber ich sehe es nach wie vor so, dass einfach so viel für N6 spricht, dass es für mich Stand jetzt die logischere Wahl wäre:

- Wenn sich das Preisverhältnis von N5 zu N7/6 seit dem letzten Preis-Leak nicht nennenswert geändert hat, ist der Preisnachteil von N5 (ca. 80% teurer) definitiv höher als der Flächenvorteil (wg. SRAM u. Interfaces nur grob 45-50% dichter für einen monolitischen Chip).
- Nicht nur günstigere Wafer-, sondern auch Designkosten (kein Multi-Patterning) -> weniger umzulegende Fixkosten, weniger Zeitaufwand (bessere Time-to-Market)
- Chip-Entwicklung dauert Jahre, als die N33-Entwicklung begonnen wurde, war noch gar nicht 100% klar, wie schnell und wie gut die Ausbeute bei N5(P) zu diesem Zeitpunkt sein würden
- Chiplets schließe ich für N33 auch so gut wie aus, weil ich bezweifle, dass sich neben der N5-Verwendung v.a. auch die zusätzlichen Assembly-Kosten für einen das 1080p-/<500$-Segment anpeilenden Chip lohnen

Aufgrund aller oben genannten Punkte bliebe eigentlich nur noch Perf/Effizienz als Vorteil, aber der wäre - speziell im Desktop - auch nicht so groß, wie manche vielleicht denken:

- Performancevorteil von N5 ggü. N7/6 ist höchstens halb so hoch wie der von N7 damals zu 12LP
- Performance-Skalierung mit dem Takt über die in N6 erreichbaren Taktraten hinaus wird möglicherweise durch das schmale SI ohnehin ausgebremst. Wenn die 11-15% mehr Takt in N5 (gibt da unterschiedliche Perf-Angaben zum Vorteil von N5 ggü. N7/6 bei gleicher TDP) am Ende nur 7-8% mehr Performance bringen würden, bei gleichzeitig 20%+X höheren Kosten, hielte sich der Vorteil von N5 doch arg in Grenzen.
- Mehr Fläche bedeutet auch leichtere Wärmeabfuhr. Der grundsätzliche Taktvorteil von N5 ließe sich zumindest im Desktop teilweise durch eine höhere Leistungsaufnahme kompensieren, die dank größerem Chip auch nicht so schwer wegzukühlen wäre.

Letztlich würden wir mMn bei monolithisch in N5 oder 5/6nm-Chiplets wie bei N31/32 von grob geschätzt irgendwo im Bereich von 20-40% höheren Chipkosten reden, für vielleicht 5-8% Performancevorteil.
Anders ausgedrückt: Ich glaube, dass das Verhältnis von Perf zu Chipkosten in N6 so viel besser ist, dass N6 selbst dann Sinn macht, wenn man aufgrund der Performance am Ende vielleicht den einen oder anderen $ weniger nehmen muss, als man in N5 gekonnt hätte.
Also im Grunde ne Kosten-Leistungsrechnungs-Geschichte.

BavarianRealist
2022-07-30, 11:57:35
Ihr geht noch von N33 monolithisch in N6 aus?
Ich gehe schon von N33 N5 aus. Kleinerer Chip und ein paar Prozessschritte mehr als N6 dürften im Preis nicht den großen Unterschied ausmachen.


Seh ich ähnlich. N33 150mm² GCD N5 mit einem MCD 40 mm² 8GB Clamshell Bestückung könnte gar günstiger als N22 sein. Zumindest in der Mischkalkulation wobei da nur die schlechtesten N33 Chips verwendet werden.

AMD braucht meines Erachtens einen monolithischen GPU-Chip schon alleine für die Notebooks: bei niedrigen Takten dürfte das monolithische Konzept effizienter sein. Zudem ist es umempfindlicher gegen thermische und mechanische Belastungen, die im Notebook eine große Rolle spielen. Zuletzt wird der Kostenvorteil für ein so einen Monolith mit fallenden Waferkosten immer größer, weil dann die Kosten für einen Chiplet-Aufbau immer mehr ins Gewicht fallen würden.

Zu bedenken: N6 wird jetzt dann doch langsam zu einem "alten" Prozess. Wenn jetzt die hohe Nachfrage für Semis langsam nach lässt, werden hier die Preise anfangen zu fallen, sodass AMD davon profitieren wird.

Linmoum
2022-07-30, 12:02:04
Time-to-Market wäre gerade durch die flexible GCD/MCD-Kombo deutlich besser, zumal AMD die MCD für jeden der drei GCD bequem nutzen kann.

Die Entwicklung bei AMD geht nach dem Namensschema der Chips. N31 war als erstes, N33 als letztes dran. Da man also definitiv mit N5 als Basis begonnen hat bei der Entwicklung, gab es da auch für einen N33-N5 keine Unklarheiten mehr, die es nicht schon vorher gegeben hätte.

Ich halte es nicht für unwahrscheinlich, dass N22 insgesamt höhere Fertigungskosten hat, als es ein kleines N5-GCD samt noch viel kleinerer N6-MCD hätte, zumal wir uns bei einem N6-N33 auch wieder bei deutlich über 300mm² befinden würden.

Auch sehe ich nicht, warum ein Mono-N33 einen Effizienzvorteil ggü. einem N5/N6-Hybrid haben sollte. Etwaige Effizienznachteile durch den Chiplet-Approach - sofern es sie überhaupt in nennenswertem Umfang gibt - steht in der Hinsicht ein besserer Prozess gegenüber, der einen deutlichen Sprung bei Perf/Watt erlaubt ggü. N6.

Der wichtigste Punkt allem in allem ist aber IMO, den @basix auch vor kurzem angeführt hatte: Mit einem N6-N33 klaust du dem Zen4-IOD Kapazitäten, da das Teil ebenfalls in N6 gefertigt wird. Durch max. 2xMCD reduzierst du den Flächenbedarf von >300mm² auf nur noch ~80mm². Du kriegst mehr IOD für deine CPUs und kannst dementsprechend mehr davon fertigen.

AMD denkt nicht mehr getrennt nur in CPUs oder GPUs. Da geht alles zusammen über.

Cyberfries
2022-07-30, 12:47:42
eine gering Taktende 7900 N31 könnte sich gut zwischen hoch taktenden N32 und gut Taktender N31 positionieren.

N31 gibt ein Hochprügeln nicht wirklich her und irgendwo muss auch eine Refresh-Reserve bleiben.
Deine Beispielrechnung lässt nur 12,5% Rohleistung zwischen N31-40 und N32-32.
Zum Vergleich: 6800 zu 6700xt 26%, 6700xt zu 6600xt 39%. (3dc-Index)

Mit welchem nVidia-Produkt soll die Karte denn konkurrieren? Bei Gleichstand zwischen N31-48 und 4090
sollte N31-42 die 4080 locker im Griff haben und die 4070 gegen N32 kein Land sehen.
Die 6800 gabs nur, weil die 6700xt für die 3070 zu langsam war. Eine N31-40 hat keinen Platz und keinen Zweck.

N33 150mm² GCD N5 mit einem MCD 40 mm² 8GB Clamshell Bestückung könnte gar günstiger als N22 sein.

Die 150mm² sind geschätzt auf Basis des N31=350mm²-Leak.
Mir ist zuletzt aufgefallen, dass die 350mm² vor ziemlich genau einem Jahr schonmal genannt wurden.
Aber für eines von zwei 30WGP-N31-GCD. N33 wurde damals mit 440mm² genannt, dem doppelten deiner Schätzung.
Und Greymon ist so ein Fehler leider zuzutrauen.

Aufgrund aller oben genannten Punkte bliebe eigentlich nur noch Perf/Effizienz als Vorteil,...
- ... Taktvorteil von N5 ließe sich zumindest im Desktop teilweise durch eine höhere Leistungsaufnahme kompensieren ...

N33 soll zuvorderst für mobile Anwendungen entwickelt worden sein.
Du lieferst hier genau die Gründe, weshalb ein N6-Monolith nur zweite Wahl ist.

AMD braucht meines Erachtens einen monolithischen GPU-Chip schon alleine für die Notebooks:
...
Zudem ist es umempfindlicher gegen thermische und mechanische Belastungen, die im Notebook eine große Rolle spielen.

Weil es bei Ryzen auch so ist?
Da läuft aber der Datentransport nicht direkt zwischen den Chiplets, andere Ausgangslage.
Und was sollen "mechanische Belastungen" sein? Wenn du dein Notebook zuklappst, wird der Chip nicht mitgefaltet.

Dieses N33 = monolithisch war ohnehin immer ungenau, richtig ist "single GCD" (https://twitter.com/Kepler_L2/status/1402298079513096199).
It's technically wrong to say Navi 33 is monolithic, it's just a single GCD but there's more than 1 die...
Wurde hier vor 13 Monaten auch schonmal diskutiert. Ist eben auch genauso glaubwürdig wie jeder andere RDNA3-Leak

basix
2022-07-30, 13:14:54
mMn gibt es genau zwei sinnvolle Aufbauten:
- Alle N3x kommen mit Single GCD und entsprechend skalierter Anzahl MCDs
- Alle N3x verwenden das selbe Basis GCD, Skalierung der GPU mit entsprechender Anzahl GCDs und MCDs. Deswegen auch die Schritte 4096 / 8192 / 12288 SPs sowie 128 / 256 / 384 bit

Und hier scheint die erste Variante die technisch deutlich einfachere Lösung zu sein. Die zweite Lösung hätte den Charme einer enormen Skalierbarkeit, ist technisch aber viel aufwändiger. Und AMD könnte bei entsprechender Systemarchitektur und Bedarf auch auf 4x GCDs gehen (siehe 16384 SP Gerüchte). Wäre zwar ein 512bit Monster, aber was macht man nicht alles für die Leistungskrone :D IMO ist aber die erste Variante die wahrscheinlichere, weil einfacher (KISS schlägt zu ;)).

reaperrr
2022-07-30, 13:15:54
Dieses N33 = monolithisch war ohnehin immer ungenau, richtig ist "single GCD" (https://twitter.com/Kepler_L2/status/1402298079513096199).

It's technically wrong to say Navi 33 is monolithic, it's just a single GCD but there's more than 1 die...

Wurde hier vor 13 Monaten auch schonmal diskutiert. Ist eben auch genauso glaubwürdig wie jeder andere RDNA3-Leak
OK, die Tweets und Diskussion dazu sind an mir vorbeigegangen, scheint zu einer Zeit gewesen zu sein, als ich anderweitig beschäftigt war.

BavarianRealist
2022-07-30, 13:20:10
...Der wichtigste Punkt allem in allem ist aber IMO, den @basix auch vor kurzem angeführt hatte: Mit einem N6-N33 klaust du dem Zen4-IOD Kapazitäten, da das Teil ebenfalls in N6 gefertigt wird...

Die Wafermenge, die die N6-IODs verbrauchen, dürfte keine Rolle spielen: die CPU-Mengen sind sehr klein im Vergleich zu den viel größern APUs in N7/N6. Zudem sind all die aktuellen bisherigen GPU in N7/N6. Zuletzt fallen bald große N7/N6-Wafermengen weg, die vorher für Zen3 nötig waren bzw. für die bisheringe GPUs. N6-Kapazitäten dürften nicht mehr knapp sein, zumal zuletzt auch SoC-Hersteller für Mobilephones hier kürzen.

amdfanuwe
2022-07-30, 13:35:06
Also im Grunde ne Kosten-Leistungsrechnungs-Geschichte.
Genau da liegt das Problem: Wir kennen die Zahlen dazu nicht.

Die Kosten eines fertigen Wafers berechnen sich aus Kosten für die SI-Scheibe + x * (Kosten für die Masken und die Belichtung und Ätzschritte).

EUV Masken sind teurer und halten nicht so lange, dafür braucht es weniger Masken. Zudem lässt sich TSMC erstmal den Prozess besser bezahlen, die teureren EUV Maschinen müssen sich ja amortisieren.

https://fuse.wikichip.org/wp-content/uploads/2020/03/tsmc-mask-count.png
7 nm is roughly 87 masks, and 5 nm is back down to 81 masks. Without EUV, 5 nm would have been at 115 masks.
Quelle : https://fuse.wikichip.org/news/3398/tsmc-details-5-nm/

Ob ein Chip in 6nm billiger als in 7nm wird, hängt wohl vom Anteil der gut skalierenden Logik ab.

Das ist aber nur ein Aspekt.
Ein wesentlicher Kostenfaktor für N5 und kleiner liegt in der Software und Verifikation.
Es müssen neue teure Tools angeschafft werden für die Entwicklung. Das Mehr an Transistoren erlaubt komplexere Schaltungen und Optimierungen.
Die Entwicklungskosten, die auf den einzelnen Chip umgelegt werden, steigen enorm.

https://i0.wp.com/semiengineering.com/wp-content/uploads/2018/06/nano3.png?w=996&ssl=1
Quelle: https://semiengineering.com/big-trouble-at-3nm/#:~:text=Generally%2C%20IC%20design%20costs%20have,%241.5%20billion%2C%20accordi ng%20to%20IBS.
Design costs are also a problem. Generally, IC design costs have jumped from $51.3 million for a 28nm planar device to $297.8 million for a 7nm chip and $542.2 million for 5nm, according to IBS. But at 3nm, IC design costs range from a staggering $500 million to $1.5 billion, according to IBS. The $1.5 billion figure involves a complex GPU at Nvidia.
Letztendlich kann eine Firma nur günstige Chips herstellen, wenn sie diese Kosten auf viele Chips verteilen kann.
Da seh ich AMD in einer guten Position.

Bin mal gespannt, wie sich das mit N30 Serie auflöst.

Linmoum
2022-07-30, 13:41:31
Die Wafermenge, die die N6-IODs verbrauchen, dürfte keine Rolle spielen: die CPU-Mengen sind sehr klein im Vergleich zu den viel größern APUs in N7/N6.Du verwechselst hier klein mit groß. AMD listet für Milan(-X) 23 verschiedene SKUs, bei Rome sind es sogar 25. Beides ist N7. Du kannst dir vorstellen, was hier alles an Volumen nötig ist. Nicht nur bei den Chiplets selbst, sondern auch das notwendige IOD. Das ist hier zwar noch nicht N6, aber das gilt analog für die kommenden Zen4-CPUs, die dann eben auf ein N6 IOD wechseln.

Zudem sind all die aktuellen bisherigen GPU in N7/N6.AMD hat aber nicht nur GPUs und nur weil eine neue Servergeneration an den Start geht, wird die Produktion der alten nicht direkt eingestellt. Das läuft noch Jahre weiter und dafür fallen weiterhin auch entsprechenden Kapazitäten an. Gleiches gilt für Embedded, wo AMD Verfügbarkeit für 10 Jahre garantiert.

Zuletzt fallen bald große N7/N6-Wafermengen weg, die vorher für Zen3 nötig waren bzw. für die bisheringe GPUs.Und es kommt dafür das IOD hinzu. Dazu laufen eben noch alte Servergenerationen oder Embedded und selbst die Zen2/3(+) APUs weiter. Alles N7/N6. Genau wie die Konsolen.

Das Volumen hier liegt in Relation massiv höher, als nur bei Desktop-Gaming-Grafikkarten.

N6-Kapazitäten dürften nicht mehr knapp sein, zumal zuletzt auch SoC-Hersteller für Mobilephones hier kürzen.Es geht nicht nur um knapp, sondern insbesondere um Margen-/Gewinnmaximierung. Egal ob nun im Desktop ein 7700X oder 7950X, ob Genoa(-X)/Bergamo/Sierra für Server/Cloud: Jedes IOD weniger bedeutet eine SKU, die du nicht herstellen kannst. Die Margen sind hier deutlich höher, als bei und mit Gaming-GPUs.

Ich bin einfach froh, wenn dieses Mono-Märchen endlich irgendwann mal offiziell debunked ist. Auch, wenn ich weiterhin nicht verstehe, warum man immer mantraartig davon ausgehen muss. Es ergibt keinen Sinn.

basix
2022-07-30, 13:52:46
Die Wafermenge, die die N6-IODs verbrauchen, dürfte keine Rolle spielen: die CPU-Mengen sind sehr klein im Vergleich zu den viel größern APUs in N7/N6. Zudem sind all die aktuellen bisherigen GPU in N7/N6. Zuletzt fallen bald große N7/N6-Wafermengen weg, die vorher für Zen3 nötig waren bzw. für die bisheringe GPUs. N6-Kapazitäten dürften nicht mehr knapp sein, zumal zuletzt auch SoC-Hersteller für Mobilephones hier kürzen.

- Eine 1x CCD CPU benötigt bei Zen 4 fast 1.5x mehr N6 Fläche (80mm2 CCD vs. 120mm IOD) --> Steigerung, mehr pro CPU
- AMD will mehr CPU-Marktanteile = Höhere Stückzahlen nötig --> Steigerung, mehr CPUs (egal ob Zen 2/3/4, benötigen alle N6/7)
- Konsolen SoCs haben Lieferengpässe, Produktionssteigerung ist schon lange nötig --> Steigerung, mehr SoCs
- Mid/Low End APUs bleiben in 6/7nm --> Bleibt, obendrauf die 5nm Phoenix APUs für insgesamt höhere APU Stückzahlen
- V-Cache bleibt in N6. Mehr V-Cache CPUs = Mehr V-Cache Chiplets benötigt --> Steigerung
- Low End GPUs bleiben in 7nm --> Bleibt
- AMD will mehr GPU-Marktanteil = Deutlich höhere Stückzahlen nötig --> Mehr GPUs (MCDs etc.)
- GPU MCDs kommen in N6 --> Verkauft man 2x mehr GPUs für mehr Marktanteil --> ~Bleibt (N31 mit 6x 40mm2 MCD = 240mm2 --> N21 = 520mm2)

Ich sehe da also keinen Grund, wieso die IOD Mengen keine Rolle spielen und dass irgendwo viel N6/7 Kapazität wegfällt. Wenn AMD die Stückzahlen nicht steigern will, OK, dann vielleicht. Ich glaube aber schon, dass AMD einen höheren Marktanteil anstreben will ;)

amdfanuwe
2022-07-30, 14:15:27
Mit welchem nVidia-Produkt soll die Karte denn konkurrieren?
Erst mal Danke für deinen konstruktiven Beitrag.
Hab ich unter dem Aspekt noch nicht gesehen.

Andererseits läßt sich das auch umdrehen: Mit welchem Produkt will Nvidia konkurrieren? Letztendlich bestimmt der Preis, welches Produkt sich verkauft.

Refreshreserve sehe ich nicht so eng, bringt bei AMDs xx50 grad mal 3-5%.
Ergab sich früher eher daraus, das die guten Chips gesammelt wurden und durch die Prozessverbesserungen ein besseres SKU als Refresh sich lohnte.

Bei den Leaks, die dann noch durch andere "Leaker" verdreht werden, weiß man wirklich nicht woran man ist. Eventuell noch durch AMD gestreute falschleaks um die Leaker zu entlarven...

Spekulieren wir also weiter und lassen uns überraschen, was AMD letztendlich bringt.

GrimReaper85
2022-07-30, 17:16:38
Ich war gelangweilt, also habe ich einige Schätzungen darüber angestellt, wozu die 7950 XT in der Lage sein sollte. Ich habe aktuelle 6900 XT-Nummern genommen, es verliert 10% bei 190W und 30% bei 130W.
Dann nahm ich 3DCenter-Schätzungen für 7970 XT (2x 6900 XT) und zog 12% für 7950 XT ab.

SOTRR 1440p Highest:
400W - 300 FPS
250W - 270 FPS
200W - 240 FPS
170W - 210 FPS

Cyberpunk 1440p RT Ultra:
400W - 60 FPS
170W - 40 FPS

Und jetzt mit RX 6800 bekomme ich bei 170W 133 FPS in SOTTR und 20 FPS in Cyberpunk. Und 6900 XT bei 270W 170 FPS und 22 FPS.
Auch wenn meine Schätzungen 20% zu optimistisch sind, sollte das immer noch ~6900 XT im Raster bei nur 170W und ~3070 Ti - 3080 10G in RT bei nur 170W ergeben. Beide 100W weniger.
Auf jeden Fall sollte es eine epische Karte sein. Es sollte sogar 9700 Pro gut sein, also in 20 Jahren schloss sich der Kreis.

Leonidas
2022-08-02, 15:46:31
Dieses N33 = monolithisch war ohnehin immer ungenau, richtig ist "single GCD" (https://twitter.com/Kepler_L2/status/1402298079513096199).

It's technically wrong to say Navi 33 is monolithic, it's just a single GCD but there's more than 1 die...

Möglicherweise steckt hier die Auflösung drin. Dies wurde seinerzeit (Juni 2021) nicht wirklich beachtet, weil es nicht in die damalige Vorstellung von Navi 3X passte. Heuer nun nach der ganzen Spec-Umwälzung bei Navi 3X kann es durchaus sein, dass AMD auch in dieser Frage etwas ganz anders macht als es einstmals geplant war.

Berniyh
2022-08-02, 16:00:08
Heuer nun nach der ganzen Spec-Umwälzung bei Navi 3X kann es durchaus sein, dass AMD auch in dieser Frage etwas ganz anders macht als es einstmals geplant war.
Insofern es wirklich diese Umplanung seitens AMD gab.
Meiner Meinung nach hatten die Leaker einfach keine richtigen Infos.
Davon würde ich sowieso fast immer ausgehen. ;)

Neurosphere
2022-08-02, 17:58:20
Insofern es wirklich diese Umplanung seitens AMD gab.
Meiner Meinung nach hatten die Leaker einfach keine richtigen Infos.
Davon würde ich sowieso fast immer ausgehen. ;)

Ich würde eher davon ausgehen das bewusst BS gestreut wird.

Unicous
2022-08-02, 22:28:11
Hat hier nichts zu suchen, hier geht es um RDNA3, nicht um AMDs finanzielle Situation.:rolleyes:

Linmoum
2022-08-02, 22:28:31
Was hat das jetzt mit RDNA3 zu tun? :confused: Für Earnings gibt's doch einen eigenen Thread.

ChaosTM
2022-08-02, 22:37:50
AMD hat schon seit Jahren deutlich mehr Geld für R&D und es wird mit jedem Jahr/Quarter mehr.

Warten wir RDNA3 ab. Hab da eigentlich ein gutes Gefühl. Je "näher" man NV kommt, desto besser für uns..

Ohne den RTRT Hype und vor allem DLSS (bestes NV Feature) war man schon knapp dran oder sogar vorne.
Letzteres ist praktisch Geschichte. Der Vorsprung bei den Strukturbreiten ist allerdings mit der neuen Gen dahin.
Wird spannend.

prinz_valium_2
2022-08-02, 22:39:13
LOL.

Vor 5 posts wurde noch darüber geredet ob es sinnvoll ist N33 in N6 oder N5 zu produzieren, weil das möglicherweise Kostengünstiger ist, auch wenn wenn man Insgesamt dann nur weniger nehmen kann


Dann ändert AMD, dank Xilinx kauf, seine Segmente und zum Ersten mal sind Consumer CPUs und GPUs getrennt aufgelistet und man kann auf deren Performance schließen.


Aber das hat hier nichts zu Suchen. Ihr seid ja lustig.

Tangletingle
2022-08-02, 22:42:33
Genau da ging's um den topic und bei deinem Scheiß halt nicht. Gtfo!

Hier ist der thread den du suchst: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312

Unicous
2022-08-02, 22:47:47
Ich wüsste nicht, dass hier im Thread über die Finanzen des Unternehmens gesprochen wurde, dass du dir wegen einer Diskussion zu den Kosten der Chips eine Rechtfertigung zurechtschneiderst, hier einen random Screenshot reinzuknallen, zeigt, dass du im Trüben fischst.:wink:

Dass du zudem verschleierst, dass bei Gaming auch Konsolen inbegriffen sind (edit: Habe den Satz überlesen, du hast es erwähnt) und der Umsatz höher ist als letztes Jahr zeigt, dass du an einer echten Diskussion eh nicht interessiert bist. Fakt ist, der Umsatz ist im Vergleich zum letzten Jahr deutlich gestiegen, der Gewinn leicht... was das alles mit RDNA 3 zu tun hat... keine Ahnung.:rolleyes:

prinz_valium_2
2022-08-02, 23:07:53
Genau da ging's um den topic und bei deinem Scheiß halt nicht. Gtfo!

Hier ist der thread den du suchst: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312

Und das ist Kontext zu genau der Sache.
Wenn dir nicht passt, dann GTFO yourself.

Wie leicht manche getriggert werden. Ganz dünne Haut:rolleyes:

Unicous
2022-08-02, 23:12:03
Und das ist Kontext zu genau der Sache.


Bullshit.

In den Architektur-Threads haben allgemeine Finanz-Diskussionen nichts zu suchen.

Die ökomischen Faktoren bei einzelnen Chips sind nicht vergleichbar mit allgemeinen Quartalszahlen, da kannst du dich noch so sehr winden.:freak:

vinacis_vivids
2022-08-03, 00:25:26
Die finanzielle Frage wäre interessant wenn N33 6nm mit 8GB kommt. Gepaart mit 4096SP und 2,8-3,4Ghz Taktrange ist das eine immense Leistung von ~23-27 Tflop/s fp32. Richtig viel Power für 1080p und auch 1440p. 499 USD wäre ein sehr guter Preis.

Von N23 237mm² auf N33 400-440mm² ist das auch ein sehr schöner Sprung.

Ich habe mal die Taktratenentwicklung von AMD über die Jahre bildlich gemacht:
Von 14nm auf 12nm hat der Polaris-Shrink nur moderat Mehrtakt geschafft.
Innerhalb des 7nm node und der Umsteig auf 6nm macht AMD krasse Taktsprünge:

https://abload.de/img/amduarchclocksvyjh1.png

iamthebear
2022-08-03, 00:41:44
Der Taktratensprung von Navi24 liegt einfach daran, dass AMD die kleinen Chips bis zum Anschlag taktet. Pro CU zieht die 6500 XT um 60% mehr Saft als die 6900 XT. So gesehen ist der Taktratensprung auf über 3GHz noch beachtlicher.

Leonidas
2022-08-03, 03:17:53
Insofern es wirklich diese Umplanung seitens AMD gab.
Meiner Meinung nach hatten die Leaker einfach keine richtigen Infos.
Davon würde ich sowieso fast immer ausgehen. ;)

Wenn es keine richtigen Infos gäbe, würden die sich alle widersprechen. Es war aber vorher allgemein gesetzt, das N31 mit 2 GCD und 15k FP32 kommt.




Ich würde eher davon ausgehen das bewusst BS gestreut wird.

Genauso denkbar. Das erklärt, wieso alle dasselbe berichten.




Im Gegensatz zu nVidia, macht AMD leider immer noch kein Geld mit gaming GPUs

Wäre sicherlich besser, ist aber noch keine Bedingung. Wichtiger ist, das AMD insgesamt das Geld für die Entwicklung reinholt. Der Rest folgt nach, wenn man sich wieder über mehr als eine Gen als ernsthafter Herausforderer für NV gezeigt hat. Im CPU-Bereich hat AMD auch erst richtig angefangen zu verdienen mit der 3. Zen-Gen (Zen 2).

Neurosphere
2022-08-03, 06:49:49
Zum einen ist es nicht das schlechteste Segment, zum anderen ist man von einem Minus in 2020 zu einem deutlichen plus in 2021 gekommen. Eine Änderung von ca. 1,1 Milliarden. Das hat man im allgemeinen RDNA2 zu verdanken, egal wo er nun eingesetzt wird.

Aber nun BTT.

Alles Navi Chips sollen nun doch dieses Jahr kommen laut den üblichen Twitterern.

Berniyh
2022-08-03, 07:12:12
Wenn es keine richtigen Infos gäbe, würden die sich alle widersprechen. Es war aber vorher allgemein gesetzt, das N31 mit 2 GCD und 15k FP32 kommt.
Konnte man sich das nicht aus den Firmwaredaten herleiten die zusammen mit N21 schon verfügbar waren?
Die wurden aber damals schon angezweifelt, weil die Eckdaten teilweise zu identisch zu N21 waren.

HOT
2022-08-03, 07:40:09
https://www.techpowerup.com/297433/amd-confirms-ryzen-7000-launch-within-q3-radeon-rx-7000-series-within-2022

AMD selbst bestätigt Rdna3 Launch dieses Jahr.

Linmoum
2022-08-03, 11:55:49
Übrigens noch aus dem Call von gestern. Hatte ich mich doch nicht verhört, wollte allerdings noch mal sichergehen.

Our next-generation RDNA 3 architecture is another major step forward for our graphics roadmap, delivering more than a 50% generational improvement in performance per watt by combining our most advanced gaming architecture with 5-nanometer triplet manufacturing.

Spätestens jetzt sollte man von den Gerüchten um einen Mono-N6-N33 wegkommen. Es war und ist einfach Quatsch.

Edit: triplet muss natürlich Chiplet heißen. Transkript nicht ganz richtig. Aber wird trotzdem jeder wissen, was gemeint ist. ;)

Berniyh
2022-08-03, 12:12:39
Spätestens jetzt sollte man von den Gerüchten um einen Mono-N6-N33 wegkommen. Es war und ist einfach Quatsch.
Das muss man nicht so interpretieren. Letztendlich sagt das einfach nur aus, dass es für RDNA3 Chiplets gibt, aber es muss ja nicht zwingend die ganze Architektur nur aus Chiplets bestehen.
Für die CPUs hat man es ja auch so gemacht, dass ein Teil der CPUs (genauer gesagt die APUs mit Grafikeinheit) eben weiter monolithisch sind (zumindest bislang).

Damit will ich nicht behaupten, dass N33 zwingend monolithisch ist, aber das kannst du auf Basis der Aussage nicht ausschließen.

amdfanuwe
2022-08-03, 12:16:49
Es war aber vorher allgemein gesetzt, das N31 mit 2 GCD und 15k FP32 kommt.

War wohl Plan A.
Könnte Probleme mit dem Interconnect zwischen den GCDs und der TDP gegeben haben.
Nun gibt es erstmal einen konservativeren Plan B.

Dazu Fake streuen um die Leaks zu entlarven und wir sind am aktuellem Punkt nichts konkretes zu wissen.

Wenigstens sind 5nm und Chiplets bestätigt.

Linmoum
2022-08-03, 12:21:23
Das muss man nicht so interpretieren. Letztendlich sagt das einfach nur aus, dass es für RDNA3 Chiplets gibt, aber es muss ja nicht zwingend die ganze Architektur nur aus Chiplets bestehen.
Für die CPUs hat man es ja auch so gemacht, dass ein Teil der CPUs (genauer gesagt die APUs mit Grafikeinheit) eben weiter monolithisch sind (zumindest bislang).

Damit will ich nicht behaupten, dass N33 zwingend monolithisch ist, aber das kannst du auf Basis der Aussage nicht ausschließen.
N6 ist faktisch endgültig auszuschließen. Mono-N5 schluckt deutlich mehr N5-Kapazitäten als N5-GCD + N6-MCDs.

Aber gut, mittlerweile scheint es ja an der Tagesordnung zu sein, dass man scheinbar schon offizielle Aussagen hinterfragen tut. Verstehe das, wer will.

fondness
2022-08-03, 12:32:03
Möglicherweise steckt hier die Auflösung drin. Dies wurde seinerzeit (Juni 2021) nicht wirklich beachtet, weil es nicht in die damalige Vorstellung von Navi 3X passte. Heuer nun nach der ganzen Spec-Umwälzung bei Navi 3X kann es durchaus sein, dass AMD auch in dieser Frage etwas ganz anders macht als es einstmals geplant war.

Absurd zu glauben, dass man sowas kurzfristig umplanen kann.

HOT
2022-08-03, 13:16:59
Das muss man nicht so interpretieren. Letztendlich sagt das einfach nur aus, dass es für RDNA3 Chiplets gibt, aber es muss ja nicht zwingend die ganze Architektur nur aus Chiplets bestehen.
Für die CPUs hat man es ja auch so gemacht, dass ein Teil der CPUs (genauer gesagt die APUs mit Grafikeinheit) eben weiter monolithisch sind (zumindest bislang).

Damit will ich nicht behaupten, dass N33 zwingend monolithisch ist, aber das kannst du auf Basis der Aussage nicht ausschließen.
Doch kann man. Mit der Aussage auf den Folien vorher und den kolportierten Taktraten kann man N6 ziemlich sicher ausschließen. N33 in N6 war Unsinn.

Linmoum
2022-08-03, 13:35:40
Naja, N24 boostet auch schon bis knapp an die 3GHz ohne Mühe. Vom Takt selbst würde ich nicht auf den Node schließen.

Davon ab guck dir den Taktsprung von RDNA auf RDNA2 an, das war trotzdem beides N7.

amdfanuwe
2022-08-03, 13:39:36
Absurd zu glauben, dass man sowas kurzfristig umplanen kann.
Wieso nicht? Wird ja nicht alles verworfen. Zudem dürften mehrere Pläne existieren. Die wesentlichen neuen Elemente, Neue WGPs mit überarbeitetem Cache, Media Engine dürften auch schon ordentlich evaluiert worden sein.
Geht eigentlich nur um das Package, Takt und TDP.

Notfall Fallback wäre wohl ein simpler N20 Shrink auf 5nm gewesen.

Zudem ist es nicht Intel
Sapphire Rapids in 12 Steppings

HOT
2022-08-03, 14:26:55
Ich stimme zu, man kann das nicht umplanen. Es gibt auch keinen Notfallplan, wenn das Teil nicht funzt macht man es eben so lange, bis es geht oder man hat kein Produkt - siehe eben Intel.

Leonidas
2022-08-03, 14:44:06
Absurd zu glauben, dass man sowas kurzfristig umplanen kann.

Hat auch niemand behauptet, das es kurzfristig umgeplant wurde. Wir wissen doch nicht, wann dies alles passiert ist. Wir wissen nur, wann die Info nach draußen drang. Daraus läßt sich 0,0 schließen, wann AMD was geplant hat.

Natürlich kann dies alles trotzdem Fehl-Information gewesen sein. Aber wir haben keinerlei belastbare Anhaltspunkte weder in die eine noch in die andere Richtung. Deswegen wäre ich vorsichtig, irgendwas auf Basis einer fehlerhaften "Logik" auszuschließen.

iamthebear
2022-08-03, 22:44:03
War wohl Plan A.
Könnte Probleme mit dem Interconnect zwischen den GCDs und der TDP gegeben haben.
Nun gibt es erstmal einen konservativeren Plan B.

Das denke ich auch. Vermutlich bekommt es AMD in der Zeit bei Gaming Workloads einfach nicht besser hin. AMD hat einfach beide Varianten parallel designed und getestet und dann aber nur die Single GCD Variante zum Tape out geschickt.

Andererseits schwirrt mir seit längerum schon eine weitere Mögliche Erklärung durch den Kopf:
Was ist wenn Navi31 die Single GCD Variante ist (1GCD + 6 MCDs)
Und Navi32 dann die Dual GCD Variante (1-2 GCDs + IO + 4/8 MCDs)

Das würde erklären warum Navi33 auch nach dem aktualisierten Plan vor Navi32 kommen soll.

N6 ist faktisch endgültig auszuschließen. Mono-N5 schluckt deutlich mehr N5-Kapazitäten als N5-GCD + N6-MCDs.

Aber gut, mittlerweile scheint es ja an der Tagesordnung zu sein, dass man scheinbar schon offizielle Aussagen hinterfragen tut. Verstehe das, wer will.

Also ich interpretiere das so:
.) RDNA3 launched 2022 mit dem High End Modell (Navi31)
.) Navi31 hat Chiplets, wobei die GCDs in 5nm gefertigt sind, die MCDs in 6nm (war bisher auch immer so, dass sich nm Angaben bei Zen2/3 nur auf den CCD bezogen haben)

Was NICHT behauptet wurde ist:
.) Das ALLE auf RDNA3 basierenden Lösungen in 2022 vorgestellt werden.
.) Dass ALLE jemals vorgestellten Lösungen, die auf RDNA3 basieren in 5nm gefertigt werden

Um ehrlich zu sein glaube ich nicht, dass sich der ganze Aufwand bei Navi33 lohnt:
.) Ein monolithischer Die ist immer noch relativ klein und Yields sind sehr gut.
.) Man braucht sowieso ein paar teildefekte Dies zur Segmentierung
.) Der Logikanteil ist bei nur 16 WGPs relativ gering. Der IO Teil dürfte bei einem Navi33 schon fast die Hälfte ausmachen.
.) Wenn man 128MB IF$ verbauen will dann sind die MCDs nach aktuellem Kenntnisstand zu Navi31/2 inkompatibel, da diese nur 32MB haben und 64MB nur mit 3D Stacking erreicht werden.
.) Das ganze Packaging und der Testaufwand dann für einen Chip, wo die fertige GPU nur 400$ kosten darf zu teuer ist.
.) Der geringere Energiebedarf von 5nm auch nicht benötigt werden

Doch kann man. Mit der Aussage auf den Folien vorher und den kolportierten Taktraten kann man N6 ziemlich sicher ausschließen. N33 in N6 war Unsinn.

Die Taktraten kommen einfach dadurch zu Stande, dass AMD das Ding treibt ohne Ende. War ja bei RDNA2 auch das Gleiche. Beim Topmodell oben wird gespart und je weiter runter man kommt desto mehr steigt der Energiebedarf pro CU. Die 6500XT hat 60% mehr Energiebedarf pro CU trotz 6nm. Dafür eben auch 2.8GHz statt 2.3GHz.

Linmoum
2022-08-03, 22:59:51
RDNA3 ist N5. Fertig aus. Ehrlich jetzt, langsam wird's doch völlig albern, das immer noch anzuzweifeln. Das hier wäre auch keine N7/N6-Situation mit Kompatibilität, sondern N6 statt N5.

Relativ klein ist nicht klein und kostet immer noch deutlich mehr Fläche. Egal, wie gut die Yields sind. AMD hat spätestens mit N24 gezeigt, wie wichtig Die Size für sie ist. Da wäre mit vielen Vorteilen mehr möglich gewesen, man hat sich aus Gründen aber dagegen entschieden.

N33 wird auch sicherlich nicht nur $400 kosten. Inflation, teurerer Prozess mit N5. Nope.

128 MiB sind auch gar nicht nötig, 64 MiB haben laut AMD schon in FHD eine Hitrate von ~70%. Das ist sogar mehr als 128 MiB in WQHD.

Perf/Watt steigt durch N5 deutlich. Das wird selbstverständlich insbesondere dann benötigt, wenn der Chip auch seinen Weg in Notebooks finden soll. Dafür ist das Teil in FHD prädestiniert für. Darüber gibt's dann immer noch N32.

basix
2022-08-03, 23:14:49
Naja, mit ~N21 Performance und hoher RT-Leistung wäre WQHD schon in Schlagweite für N33 ;) Aber ich stimme dir zu, dass 64MByte für 1080p garantiert reichen und für 1440p wohl auch. Als Referenz die 6600XT mit 32MByte IF$ und 16GT/s @ 128bit:
- 32 -> 64 MByte -> 1.41x Bandbreitenmultiplikator
- 16 -> 21-24 GT/s -> 1.3...1.5x Bandbreitenmultiplikator
- Total: 1.86...2.12x Bandbreite --> Reicht für eine 6900XT, welche ~2...2.1x so schnell ist in 1080p/1440p

Dazu noch Optimierungen am Caching des IF$ (hatte einer der AMD Leute in einem Interview angetönt) und allenfalls anderweitige Optimierungen bzüglich Bandbreitenbedarf. Müsste reichen.

Nur wären bei 1440p 8GByte ein Klotz am Bein...ich hoffe hier immer noch auf 12GByte an 96bit :D

iamthebear
2022-08-04, 00:24:10
RDNA3 ist N5. Fertig aus. Ehrlich jetzt, langsam wird's doch völlig albern, das immer noch anzuzweifeln. Das hier wäre auch keine N7/N6-Situation mit Kompatibilität, sondern N6 statt N5.

Es sagen halt ALLE Leaker bisher das Gegenteil und bei der AMD Folie geht es meiner Ansicht nach ausschließlich um Navi31. Von Navi33 werden wir 2022 denke ich nichts mehr sehen.

AMD hat spätestens mit N24 gezeigt, wie wichtig Die Size für sie ist. Da wäre mit vielen Vorteilen mehr möglich gewesen, man hat sich aus Gründen aber dagegen entschieden.

Navi24 ist ein Low End Produkt. Das muss so klein wie möglich sein sonst ist es unwirtschaftlich.

N33 wird auch sicherlich nicht nur $400 kosten. Inflation, teurerer Prozess mit N5. Nope.

Nicht schon wieder das Märchen mit den teuren 5nm Wafern. Das sollte sich eigentlich mittlerweile schon herumgesprochen haben, dass die Tabelle Fake ware. Da hat nur irgendein Analyst wild herumgeraten und das relativ schlecht und vor 3 Jahren.

5nm Wafer kosten ziemlich genau dasselbe wie 7nm Wafer nämlich im Schnitt um die 10K $ das Stück. Einziger Unterschied: Wenn man Kapazität haben will, dann muss man im Vorhinein bezahlen und das Geld hat AMD nur sehr beschränkt. Deshalb muss ein größerer Teil auf 6/7nm ausweichen (Zen4 IO Dies, MCDs, kleine GPUs wo sich 5nm nicht lohnt usw.)

128 MiB sind auch gar nicht nötig, 64 MiB haben laut AMD schon in FHD eine Hitrate von ~70%. Das ist sogar mehr als 128 MiB in WQHD.

AMDs Hitrate Grafik bezieht sich auf Spiele aus dem Jahr 2020. Das was da im Portfolio drin war spiele ich schon mit meiner 1070 Ti auf 1440p.
Falls Navi33 tatsächlich eine Full HD Karte ist, dann müssen auch die Performanceprognosen von "6900 XT Performance" ordentlich daneben gelegen haben.

Perf/Watt steigt durch N5 deutlich. Das wird selbstverständlich insbesondere dann benötigt, wenn der Chip auch seinen Weg in Notebooks finden soll. Dafür ist das Teil in FHD prädestiniert für. Darüber gibt's dann immer noch N32.

Alles ab Navi23 abwärts deckt AMD im Notebook mit APUs ab.
Die Modelle darüber (Navi21n22) kannst du derzeit an einer Hand abzählen. OK das war etwas übertrieben. Du brauchst eine Hand und 2 Ohren, denn laut Geizhals sind es genau 7 Modelle.
Zum Vergleich Nvidia Notebooks mit 3070 oder höher gibt es 335.

HOT
2022-08-04, 00:30:48
AMD sagt 5nm,da sind dann alle leaker der Welt egal.

Leonidas
2022-08-04, 03:20:19
Wieso wird von einer allgemeinen, im Zweifelsfall nicht-exklusiven Aussage auf eine exklusive Aussage geschlossen? Das wurde nicht explizit gesagt - ergo sind beide Auslegungen möglich.

Was mich stört ist nicht die Annahme, RDNA3 wäre ausschließlich 5nm. Diese Annahme ist voll legitim. Was mich stört ist, dass einige das direkt aus AMD-Aussagen lesen wollen. Doch wenn AMD das hätte sagen wollen, würde man "RDNA3 ist ausschließlich 5nm" sagen. AMD hat das "ausschließlich" weggelassen, ergo kann man aus AMDs Aussage alles mögliche deuten.

Vergleiche: "RDNA ist 7nm". Jo, und was ist mit Navi 24?

Zweite Argumentations-Schiene: Wir wissen, das N31 und N32 aus Teilen 5nm und Teilen 6nm (MCDs) bestehen. Ergo müsste AMD dies eigentlich auch so angeben, um gänzlich korrekt zu sein. Hat man allerdings nicht - was die AMD-Angabe herunterstuft von "technisch vollständige Angabe" zu "Marketing-Angabe, die nur das beste wiederspiegelt". Allein aus N31 und N32 ist erwiesen, dass AMDs Angabe keineswegs eine vollständige Angabe darstellt, aus welcher heraus man also sichere Interpretationen ableiten könnte. Damit ist jegliche Auslegung in Richtung "AMD meint ausschließlich 5nm" vollkommen obsolet. PS: Was nicht bedeutet, dass N33 nicht doch 5nm sein kann. Nur hat es uns AMD bisher nicht bestätigt.

HOT
2022-08-04, 07:01:13
N24 zählt nicht, der war nie Teil des ursprünglichen Launch-Lineups, das waren N21-23. Es war ja auch nie klar, ob das Teil wirklich in den Desktop-Markt kommt. Die APUs zählen die ja auch nicht mit. Und die IODs wurden bei CPUs auch nie mit angegeben, also wieso sollte man das bei RDNA3 jetzt machen?

basix
2022-08-04, 07:44:21
Wieso wird von einer allgemeinen, im Zweifelsfall nicht-exklusiven Aussage auf eine exklusive Aussage geschlossen? Das wurde nicht explizit gesagt - ergo sind beide Auslegungen möglich.

Was mich stört ist nicht die Annahme, RDNA3 wäre ausschließlich 5nm. Diese Annahme ist voll legitim. Was mich stört ist, dass einige das direkt aus AMD-Aussagen lesen wollen. Doch wenn AMD das hätte sagen wollen, würde man "RDNA3 ist ausschließlich 5nm" sagen. AMD hat das "ausschließlich" weggelassen, ergo kann man aus AMDs Aussage alles mögliche deuten.


Ja, momentan ist ein N33 in N6 noch nicht auszuschliessen. Meiner Meinung nach ist N5 aus diversen Gründen einfach deutlich wahrscheinlicher. Ob monolithisch oder nicht ist auch so eine Frage, wobei ich auch hier auf Chiplets tendiere.


Zweite Argumentations-Schiene: Wir wissen, das N31 und N32 aus Teilen 5nm und Teilen 6nm (MCDs) bestehen. Ergo müsste AMD dies eigentlich auch so angeben, um gänzlich korrekt zu sein. Hat man allerdings nicht - was die AMD-Angabe herunterstuft von "technisch vollständige Angabe" zu "Marketing-Angabe, die nur das beste wiederspiegelt". Allein aus N31 und N32 ist erwiesen, dass AMDs Angabe keineswegs eine vollständige Angabe darstellt, aus welcher heraus man also sichere Interpretationen ableiten könnte. Damit ist jegliche Auslegung in Richtung "AMD meint ausschließlich 5nm" vollkommen obsolet. PS: Was nicht bedeutet, dass N33 nicht doch 5nm sein kann. Nur hat es uns AMD bisher nicht bestätigt.

Hier musste ich ein wenig schmunzeln, nach deiner vorigen Aussage hinsichtlich Annahmen und so :) Ja wissen wir denn, dass die MCDs in N6 kommen? Ich würde sagen: Nein ;) Es ist nur der generelle Konsens, dass dies sehr viel Sinn machen würde (Kosten, nur schlecht skalierende IP wie SRAM und GDDR-PHY).

Die einzigen momentan belastbaren Aussagen sind:
- Chiplets für mindestens einen Teil der SKUs
- Mindestens ein Teil der Chiplets kommt in N5
- (6x MCDs aus dem Linux-Treiber Leak)

Neurosphere
2022-08-04, 07:45:28
Was für mich nach dem derzeitigen Stand Sinn machen würde, es gibt 2 Chips. Beide in 5nm.

N33 1* Variante 1
N32 1* Variante 2
N31 2* Variante 1
Der ominöse N3x 2* Variante 2

HOT
2022-08-04, 08:30:38
Ich stehe momentan auch auf dem Standpunkt, dass alle 3 Varianten N5 sind mit MCDs und GCDs.

N31 -> 6 MCDs
N32 -> 4 MCDs
N33 -> 2 MCDs

ein komplettes Lineup. Chips, die darunter kommen könnten, also ein N34, dürften dann wieder monolithisch sein, aber ich würde sagen, ein N34 ist noch so weit weg, der wird sicherlich in einer N4-Variante gefertigt würde. Wenn man N22S und N23S sieht, gäbe es ja 3 monolithische N6-GPUs, nämlich eben diese und N24.

Übrigens sagte Lisa, dass High-End noch dieses Jahr kommt, also 7800-79x0XT(X). N33 kommt sicherlich erst zur CES.

Es wurde ja zu N33 auch unglaublich viel Quatsch verbreitet letztes Jahr, da gabs ja die Nummer mit "N33 kommt zuerst", "N33 ist N6", "N33 ist monolithisch" usw. Später stellte sich heraus, dass N31 zuerst Tape Out hatte und N33 als letztes, Puff, da platzte die Informationsblase von vorher.

Berniyh
2022-08-04, 09:03:09
N24 zählt nicht, der war nie Teil des ursprünglichen Launch-Lineups, das waren N21-23. Es war ja auch nie klar, ob das Teil wirklich in den Desktop-Markt kommt. Die APUs zählen die ja auch nicht mit. Und die IODs wurden bei CPUs auch nie mit angegeben, also wieso sollte man das bei RDNA3 jetzt machen?
Ihr dreht euch echt immer alles so hin wie es passt, oder wie?

Wie kann man so engstirnig sein?

HOT
2022-08-04, 09:25:08
Das kann ich zurückgeben. N24 ist offensichtlich ein reiner Mobilchip, gehörte nicht zum Launchlineup. Wieso sollte AMD das in 2020(!) auf einer Folie für den RDNA2-Start berückstichtigen? Das ergibt einfach keinen Sinn. Dann müsste AMD jetzt auf seiner Folie eben bei RDNA3 auch 5 und 4nm erwähnen. Tun sie das?

Linmoum
2022-08-04, 09:35:23
Bei Zen3 und RDNA2 war auch die Rede von 7nm und Rembrandt ist N6. Warum drehen sich Diskussionen jetzt über APUs? HOTs Argument bzgl. N24 ergibt ebenfalls Sinn und ist logisch. AMD hat selbst zugegeben, dass das ein ursprünglich Mobile-only entwickelter Chip war.

Aber macht ihr halt einfach mal. Leaker sagen A und AMD sagt B, aber B muss ja nicht sein weil Baum. Ehrlich jetzt?

Berniyh
2022-08-04, 10:39:06
Das kann ich zurückgeben. N24 ist offensichtlich ein reiner Mobilchip, gehörte nicht zum Launchlineup. Wieso sollte AMD das in 2020(!) auf einer Folie für den RDNA2-Start berückstichtigen? Das ergibt einfach keinen Sinn. Dann müsste AMD jetzt auf seiner Folie eben bei RDNA3 auch 5 und 4nm erwähnen. Tun sie das?
Es steht außer Frage, dass Navi24 deutlich später gelauncht wurde und daher wahrscheinlich auch das Design später fertiggestellt wurde.
Hab ich auch selbst damals so geäußert.
Wann AMD aber das Konzept und Design für den Chip geplant hat und ob der auch Teil der ursprünglichen Planung war, das kannst du einfach nicht wissen.
Es ist durchaus möglich, dass N24 immer ein Teil des Plans war, aber auch von Anfang angeplant worden war, dass man den erst später umsetzt.
Weil keine Priorität, evtl. wollte man auch gezielt schon 6nm mitnehmen, könnte da viele Gründe geben.
Und natürlich ist es auch möglich, dass der Chip nicht Teil der ursprünglichen Planung war und man sich später entschieden hat auf RDNA2-Basis doch noch einen Chip mehr zu bringen.

Der wesentliche Punkt ist, dass ihr irgendwelche Fetzen an Informationen nehmt und dann daraus das große ganze Bild rekonstruiert.
Das ist auch in Ordnung, man will ja verstehen wie es zu welcher Entscheidung gekommen ist und was man daraus für die Zukunft herleiten könnte.
Aber ihr vergesst, dass bei der Rekonstruktion immer irgendwelche Annahmen getroffen werden müssen und die müssen eben nicht zwingend stimmen. Spekulation eben.
Leaker sagen A und AMD sagt B, aber B muss ja nicht sein weil Baum. Ehrlich jetzt?
Nö, es geht nicht darum ob A oder B, es geht darum, dass B nicht so scharf definiert ist, wie du es interpretierst.
Meine Güte Leute, die Welt ist nicht schwarz-weiß. Noch nicht mal nur Graustufen …

basix
2022-08-04, 11:23:16
Ich stehe momentan auch auf dem Standpunkt, dass alle 3 Varianten N5 sind mit MCDs und GCDs.

N31 -> 6 MCDs
N32 -> 4 MCDs
N33 -> 2 MCDs

Halte ich momentan auch für die wahrscheinlichste Lösung.

Nazar
2022-08-04, 11:31:28
Wieso wird von einer allgemeinen, im Zweifelsfall nicht-exklusiven Aussage auf eine exklusive Aussage geschlossen? Das wurde nicht explizit gesagt - ergo sind beide Auslegungen möglich.

Was mich stört ist nicht die Annahme, RDNA3 wäre ausschließlich 5nm. Diese Annahme ist voll legitim. Was mich stört ist, dass einige das direkt aus AMD-Aussagen lesen wollen. Doch wenn AMD das hätte sagen wollen, würde man "RDNA3 ist ausschließlich 5nm" sagen. AMD hat das "ausschließlich" weggelassen, ergo kann man aus AMDs Aussage alles mögliche deuten.

Vergleiche: "RDNA ist 7nm". Jo, und was ist mit Navi 24?

Zweite Argumentations-Schiene: Wir wissen, das N31 und N32 aus Teilen 5nm und Teilen 6nm (MCDs) bestehen. Ergo müsste AMD dies eigentlich auch so angeben, um gänzlich korrekt zu sein. Hat man allerdings nicht - was die AMD-Angabe herunterstuft von "technisch vollständige Angabe" zu "Marketing-Angabe, die nur das beste wiederspiegelt". Allein aus N31 und N32 ist erwiesen, dass AMDs Angabe keineswegs eine vollständige Angabe darstellt, aus welcher heraus man also sichere Interpretationen ableiten könnte. Damit ist jegliche Auslegung in Richtung "AMD meint ausschließlich 5nm" vollkommen obsolet. PS: Was nicht bedeutet, dass N33 nicht doch 5nm sein kann. Nur hat es uns AMD bisher nicht bestätigt.

Deine von mir markierte Aussage ist nicht mal im Ansatz belastbar.
Nur und wirklich nur, wenn es eine oder mehrere Abweichungen von einer Aussage gibt, würde man diese Abweichung(en) hervorheben und nicht, dass die schon getätigte Aussage etwas Exklusives ist, wenn es gar nicht exklusive sein muss, da es eh die einzige Aussage ist.
Es wäre vollkommen sinnbefreit, etwas extra hervorzuheben, was eh einzigartig ist.
Umgekehrt würde ein Schuh daraus. Wenn es Abweichung von einer Aussage gibt, hebt man diese Abweichung hervor.
Ein PKW wird in der Regel mit einem Motor verkauft, es sei denn, es ist ein Hybride (erkennt man oder? -> Hybride). Niemand würde schreiben, das Auto wird exklusiv nur mit einem Motor ausgeliefert, wenn in der Vorstellung weder Hybride oder eine andere Abweichung vorhanden ist.
Ergo ist die offizielle Aussage von AMD im Grunde so zu werten, wie sie ist; alles in 5 nm. :wink:

unl34shed
2022-08-04, 12:11:21
Ergo ist die offizielle Aussage von AMD im Grunde so zu werten, wie sie ist; alles in 5 nm. :wink:

Es fehlt noch ein "zum jetzigen Zeitpunkt", denn die Aussagen sind immer eine Momentaufnahme, um den Bogen zur N24 Diskussion zu bekommen. Es wir hier nicht über mögliche zukünftige Produkte geschrieben. Es kann ein shrink auf N4 oder neues Die in N4 in einem Jahr geplant sein, das wir dann zum jetzigen Zeitpunkt aber nicht sagen. Ungelegte Eier und Pläne können sich ändern.

Da aber nach aktuellem Stand N31 bis N33 relativ zeitgleich gelauncht werden ist es halt eher unwahrscheinlich, dass hier was in 6nm kommt (abseits der MCD Chiplets)

HOT
2022-08-04, 12:28:01
Es steht außer Frage, dass Navi24 deutlich später gelauncht wurde und daher wahrscheinlich auch das Design später fertiggestellt wurde.
Hab ich auch selbst damals so geäußert.
Wann AMD aber das Konzept und Design für den Chip geplant hat und ob der auch Teil der ursprünglichen Planung war, das kannst du einfach nicht wissen.
Es ist durchaus möglich, dass N24 immer ein Teil des Plans war, aber auch von Anfang angeplant worden war, dass man den erst später umsetzt.
Weil keine Priorität, evtl. wollte man auch gezielt schon 6nm mitnehmen, könnte da viele Gründe geben.
Und natürlich ist es auch möglich, dass der Chip nicht Teil der ursprünglichen Planung war und man sich später entschieden hat auf RDNA2-Basis doch noch einen Chip mehr zu bringen.

Der wesentliche Punkt ist, dass ihr irgendwelche Fetzen an Informationen nehmt und dann daraus das große ganze Bild rekonstruiert.
Das ist auch in Ordnung, man will ja verstehen wie es zu welcher Entscheidung gekommen ist und was man daraus für die Zukunft herleiten könnte.
Aber ihr vergesst, dass bei der Rekonstruktion immer irgendwelche Annahmen getroffen werden müssen und die müssen eben nicht zwingend stimmen. Spekulation eben.

Nö, es geht nicht darum ob A oder B, es geht darum, dass B nicht so scharf definiert ist, wie du es interpretierst.
Meine Güte Leute, die Welt ist nicht schwarz-weiß. Noch nicht mal nur Graustufen …

Der wesentliche Punkt ist, dass N24 keinerlei Rolle gepielt hat als AMD damals die Folien in 2020 gemacht hat und genauso spielt ein potenzieller N34 ebensowenig eine Rolle bei den jetzigen Folien. Damals gings um N21, 22, 23, heute um N31, 32, 33. Damals hat AMD 7nm geschrieben, ist so eingetreten, heute schreiben sie 5nm, wird auch so eintreten. Es gibt da keinen Spielraum. Wenn AMD klipp und klar 5nm schreibt, sind die 5nm und basta.

amdfanuwe
2022-08-04, 12:44:30
Steht nicht umsonst unter den Roadmap Folien:
"All raodmaps are subject to change"

HOT
2022-08-04, 12:50:53
Toll :freak: Das ist ein WAHNSINNS Argument

Linmoum
2022-08-04, 12:53:57
@amdfanuwe

Das natürlich auch. Aber AMD gibt ja nicht nur auf Roadmaps N5 für RDNA3 an. Die Aussage von Su am Dienstag im Investorencall ist zum aktuellen Zeitpunkt eindeutig. Da N33 aufgrund des Releaseschedules auch schon seinen Tape-Out gehabt haben dürfte, sowieso.

Linmoum
2022-08-05, 23:47:03
Just throwing this out there in case it's true...

There's a small chance the CUs in Navi31/32 are different from the CUs in Navi33/Phoenix.

It would be one of the most bizarre design choices/segmentation in recent years so take it with a grain of salt ��
The CUs in N33/PHX would have lower "IPC". As for why they wouldn't just use the same CU design and just scale up/down the number of CUs as needed I have no idea ��*♂️
https://mobile.twitter.com/Kepler_L2/status/1555625361387421697

amdfanuwe
2022-08-06, 01:12:48
lol. Da Phönix in 4nm kommt rechnen wir nun mit N33 in 4nm?
edit:

Könnten das mit der AIE zusammenhängen?
https://www.xilinx.com/products/technology/ai-engine.html
https://www.xilinx.com/content/dam/xilinx/support/documents/white_papers/wp506-ai-engine.pdf
https://www.xilinx.com/content/dam/xilinx/support/documents/white_papers/EW2020-Deep-Learning-Inference-AICore.pdf

Inwiefern unterscheidet sich solch eine AI-Unit von einem Shader bzw. CU?
Könnte AMD da was miteinander verknüppelt haben?
Kommt man damit weg von dem starrem SE Aufbau und geht über zu einem adaptiven Interconnect der AIE (CUs)?
Könnte das außer bei AI auch Vorteile bei Ray Tracing bringen?

edit 2:
Ab Zen 5 soll die AIE in jeden Prozessor rein. Könnte AVX dadurch ersetzt werden?

basix
2022-08-06, 09:20:17
Wenn N33 & Phoenix anders sind: Keine Matrix Einheiten? Kleinere Caches?

fondness
2022-08-06, 10:34:01
Wenn N33 dafür bessere Perf/Watt hat könnte das Sinn machen. Navi33/Phoenix sind natürlich auch mobile Material.

HOT
2022-08-06, 12:55:31
RDNA3 hat sicherlich auch AIE. Das werden die ersten sein, die damit kommen werden.
Und da N33 nur wenig später als die restlichen RDNA3 tape out hatte, werden die alle ähnlich sein, eben N5 mit MCDs. Phoenix ist der Pipecleaner für N4 und wird sicherlich auch Mobilgene haben, also dichter gepackt sein und dafür nen Tacken langsamer, wie die älteren APUs.

GrimReaper85
2022-08-06, 16:11:53
https://twitter.com/CapFrameX/status/1555815663473532930
https://twitter.com/sillkyjohnson/status/1555820544909459457
(Show more replies)
You seem to be living under a rock.. RDNA2 beat ampere in efficiency
Full gpus - RT+ RASTER+COMPUTE
220 watts 3070
>
340 watts 6950xt

Vielleicht findet das jemand interessant. Ich habe 24 RT-Spiele verglichen, alles bei max + RT Medium (13 Spiele, da einige nur RT On haben) und max + RT max.

RX 6800 960 mV, 2220 MHz, PL 170W TGP (ca. 200W TBP)
3080 12GB 775 mV, 1725 MHz, kein PL, durchschnittlich etwa 265W

RT off – 3080 15% schneller, 6800 13% effizienter
RT Medium - 3080 45% schneller und 10% effizienter
RT max - 3080 60% schneller und 20% effizienter

Sicher, 3070 hat eine viel bessere Effizienz als 6950 XT mit aktiviertem RT, wie jemand auf Twitter vorgeschlagen hat. Gleiche Geschwindigkeit, aber deutlich geringerer Verbrauch. Aber was nützt das, wenn man sowieso nur 25 FPS bekommt?
https://www.techpowerup.com/review/amd-radeon-rx-6950-xt-reference-design/32.html
Natürlich ist keine Radeon-Karte mit der 3080 vergleichbar mit RT. Das Beste, was Sie mit Radeon erreichen können, ist ein geringerer Verbrauch. 6800 oder 6800XT/6900XT mit niedriger Leistungsgrenze und 3080 sind ein viel besserer Vergleich zwischen AMD und Nvidia.

Ich mag beide Karten, aber keine ist perfekt. Aber deshalb steht die neue Generation vor der Haustür.

iamthebear
2022-08-06, 16:37:31
Das sind eben 2 unterschiedliche Designphilosophien:
a) Nvidia hat für RT und AI mehr dedizierte Einheiten. Das ist vollkommen klar, dass bei solchen Workloads die Performance höher ist bzw. damit auch die Performance/Watt.
b) AMD verbaut bei starrer Hardware nur das Nötigste und setzt stattdessen auf mehr Shader, die universal genutzt werden und kann mit demselben Transistorbudget von diesen etwas mehr verbauen.

Nazar
2022-08-11, 08:54:56
https://twitter.com/CapFrameX/status/1555815663473532930
https://twitter.com/sillkyjohnson/status/1555820544909459457
(Show more replies)



Vielleicht findet das jemand interessant. Ich habe 24 RT-Spiele verglichen, alles bei max + RT Medium (13 Spiele, da einige nur RT On haben) und max + RT max.

RX 6800 960 mV, 2220 MHz, PL 170W TGP (ca. 200W TBP)
3080 12GB 775 mV, 1725 MHz, kein PL, durchschnittlich etwa 265W

RT off – 3080 15% schneller, 6800 13% effizienter
RT Medium - 3080 45% schneller und 10% effizienter
RT max - 3080 60% schneller und 20% effizienter

Sicher, 3070 hat eine viel bessere Effizienz als 6950 XT mit aktiviertem RT, wie jemand auf Twitter vorgeschlagen hat. Gleiche Geschwindigkeit, aber deutlich geringerer Verbrauch. Aber was nützt das, wenn man sowieso nur 25 FPS bekommt?
https://www.techpowerup.com/review/amd-radeon-rx-6950-xt-reference-design/32.html
Natürlich ist keine Radeon-Karte mit der 3080 vergleichbar mit RT. Das Beste, was Sie mit Radeon erreichen können, ist ein geringerer Verbrauch. 6800 oder 6800XT/6900XT mit niedriger Leistungsgrenze und 3080 sind ein viel besserer Vergleich zwischen AMD und Nvidia.

Ich mag beide Karten, aber keine ist perfekt. Aber deshalb steht die neue Generation vor der Haustür.

Du hast es ja selber geschrieben, für die meistens Spieler, selbst wenn sie denn ein RT fähige GPU ihr Eigen nennen dürfen, ist RT nicht effektiv nutzbar. Dass ein Effizienzvergleich auf Basis von RT ein Griff nach einem Strohhalm ist, dürfte dann auch nicht weiter verwundern, da RZ ganz klar die Basis für mehr als 90% der Spieler über viele Jahre bleiben wird.

y33H@
2022-08-11, 10:27:00
Ob RT nutzbar ist oder nicht, hängt massiv vom Spiel ab ...

Thomas Gräf
2022-08-11, 14:05:59
Vom Spiel? Das Spiel und dessen Idee dafür sind doch unschuldig an der Misere.
Würde eher sagen Schuld sind die Fähigkeiten der Programmierer und die zu kleine Kriegskasse des Programmier Studios.
Da liegt der Hase im Pfeffer. ;)

Ein uralter Spruch sagt "Software sells Hardware" !

Nazar
2022-08-11, 23:41:08
Du hast es ja selber geschrieben, für die meisten Spieler, selbst wenn sie denn ein RT fähige GPU ihr Eigen nennen dürfen, ist RT nicht effektiv nutzbar. Dass ein Effizienzvergleich auf Basis von RT ein Griff nach einem Strohhalm ist, dürfte dann auch nicht weiter verwundern, da RZ ganz klar die Basis für mehr als 90% der Spieler über viele Jahre bleiben wird.

Ob RT nutzbar ist oder nicht, hängt massiv vom Spiel ab ...

Ich habe es oben in meinem Zitat hervorgehoben. Es bleibt dabei: die meisten Spieler müssen RT abschalten, um überhaupt ein Spiel mit all seiner Pracht spielen zu können. Die Effekte, die RT derzeit in Spielen bietet, sind kein Gegenwert für den teils extremen Performanceverlust. Wenn man dann noch weiß, dass selbst Spieletester massive Probleme haben zu erkennen, ob RT in einem Spiel aktiv ist oder nicht, dann macht das RT derzeit einfach nur irrelevant für die meisten Spieler.
Selbst RT-Besoffene, die meinen, sie würden in jedem Spiel auf Anhieb RT erkennen, versagen auf ganzer Linie, wenn sie ein frisches Spiel ansehen müssen, dass sie selber noch nie gespielt haben. Die Trefferquote liegt ähnlich hoch wie beim Raten (~50%). Ich konnte den Leuten sogar zweimal die identische Szene, ohne sie zu verändern, vorspielen, und sie meinten felsenfest, dass es einen deutlichen Unterschied gab (der Glaube versetzt eben doch Berge ;D).
Und selbst wenn man Vergleichsbilder anbietet, ist es immer noch ein Ratespiel bei der überwältigenden Mehrheit.
Ich kann allerdings einem vollkommen unbedarften Nichtspieler die gleiche Szene einmal mit AA und ohne AA vorspielen und er erkennt sofort einen Unterschied, auch wenn er nicht weiß, weshalb das so ist, aber die Trefferquote liegt bei weit über 97%, und die Tester empfanden allesamt die Szene mit aktiven AA als angenehmer für die Augen. Also "Noobs" erreichen bei AA auf Anhieb eine Trefferquote von fast 100%, weil es einen deutlich positiv sichtbaren Unterschied gibt, während die RT-Pros sich schon schwertun, ob RT an oder aus oder überhaupt vorhanden ist. Das alleine sollte allen RT-Gläubigen eigentlich die Augen öffnen.
Aber so sind sie halt, die "Fans". RT: die Magie, die man gar nicht sieht, die nicht da ist. Oder doch?
Solange man Vergleichsszenen benötigt, um die angeblichen Vorteile von RT aufzuzeigen, so lange bleibt RT nur eine Verschwendung von Ressourcen und eine Verarschung der Kunden.

Zossel
2022-08-12, 07:12:08
Solange man Vergleichsszenen benötigt, um die angeblichen Vorteile von RT aufzuzeigen, so lange bleibt RT nur eine Verschwendung von Ressourcen und eine Verarschung der Kunden.

Erinnert mich an den Test von mp3 vom Heise Verlag wo der Tester mit einem Hörschaden am zuverlässigsten die mp3s raus gehört hat.

mboeller
2022-08-12, 07:59:31
Selbst RT-Besoffene, die meinen, sie würden in jedem Spiel auf Anhieb RT erkennen, versagen auf ganzer Linie, wenn sie ein frisches Spiel ansehen müssen, dass sie selber noch nie gespielt haben.

ich oute mich mal als RT-Noob.

Ich dachte bisher immer RT sieht man sehr zuverlässig daran, dass die Spiegelungen (vor allem bei Wasser) extrem übertrieben und extrem unrealistisch aussehen. Zumindest bei Fotos erkennt man daran RT sehr zuverlässig ... je unnatürlicher es aussieht desto zuverlässiger wurden RT-Spiegelungen verwendet.

Neurosphere
2022-08-12, 08:28:18
https://pbs.twimg.com/media/FZ4oCIoVEAQvQ-p?format=png&name=large

Von Greymon kommt die Info das eine Navi 31 zmindest in ersten Tests über 19k Punkte geschafft hat. Er sagt aber selbst das er nicht weiß ob es ein voller N31 war und das die TDP noch nicht final war.

https://twitter.com/harukaze5719/status/1557639076638904320

IceKillFX57
2022-08-12, 08:32:03
Das einzige Spiel wo ich merke das RT aktiv ist oder nicht, ist Spiderman. Und das auf Anhieb.

Für mich ist RT einfach ein ineffizientes Tool um die Arbeit für die Designer/Programmierer anzunehmen. Damals wurde ja oft hier und da wo es nur geht so gut es geht gefaket. Also Texturen Baken, Shader programmieren/optimieren. Nur Bereiche Berechnen/Rendern die von der Kamera erfasst wurden u.s.w

Noch kann man sich RT nicht leisten. Aber sobald es nutzbar ist. (Sagen wir mal in 3 Jahren), dann ist es völlig in Ordnung.

Fakt ist, natives 4K, Max Settings, RT und 144Hz/FPS sind mit HighEnd nicht möglich.

basix
2022-08-12, 10:12:30
https://pbs.twimg.com/media/FZ4oCIoVEAQvQ-p?format=png&name=large

Von Greymon kommt die Info das eine Navi 31 zmindest in ersten Tests über 19k Punkte geschafft hat. Er sagt aber selbst das er nicht weiß ob es ein voller N31 war und das die TDP noch nicht final war.

https://twitter.com/harukaze5719/status/1557639076638904320

Eine 6900XT macht ~8800 Punkte beim TSE GPU Score.

Exxtreme
2022-08-12, 11:12:22
Für mich ist RT einfach ein ineffizientes Tool um die Arbeit für die Designer/Programmierer anzunehmen. Damals wurde ja oft hier und da wo es nur geht so gut es geht gefaket. Also Texturen Baken, Shader programmieren/optimieren. Nur Bereiche Berechnen/Rendern die von der Kamera erfasst wurden u.s.w


RT ist beträchtlich exakter als gefakte Schatten und Lichtquellen. Ist nicht unbedingt dazu da um Programmierern Arbeit abzunehmen. Ach ja, auch RT berechnet nur das was sichtbar ist.

Troyan
2022-08-12, 11:13:47
Natürlich existiert Raytracing, um Entwickler Arbeit abzunehmen. Es ist eine reine Brute-Force Methode um Licht zu berechnen. Deswegen sind Raytracing-Bücher auch viel, viel dünner als Bücher, die sich mit Rasterizing beschäftigen.

Exxtreme
2022-08-12, 11:17:24
Natürlich existiert Raytracing, um Entwickler Arbeit abzunehmen. Es ist eine reine Brute-Force Methode um Licht zu berechnen. Deswegen sind Raytracing-Bücher auch viel, viel dünner als Bücher, die sich mit Rasterizing beschäftigen.

Weil Raytracing vergleichsweise simpel ist. Ist aber trotzdem die Premium-Lösung. Wie Supersampling auch. Ist zwar langsam, dafür das beste was Qualität angeht weil es schlicht nichts auslässt.

dargo
2022-08-12, 11:22:39
Weil Raytracing vergleichsweise simpel ist. Ist aber trotzdem die Premium-Lösung. Wie Supersampling auch. Ist zwar langsam, dafür das beste was Qualität angeht weil es schlicht nichts auslässt.
Guter Witz... erstmal sollten mal die DEVs den Ameisenhaufen in den RT-Reflektionen beseitigen bevor man es auf die Meute loslässt. :rolleyes: Und da steckt man in der Zwickmühle... für mehr Rays ist die Hardware noch zu lahm, für optimale Denoiser ebenso.

Edit:
Eine kleine Kostprobe gefälligst von Control welches von der grünen Fraktion hier jahrelang so gelobt wurde?
https://abload.de/thumb/control_2022.07.31-20y7cgm.png (https://abload.de/image.php?img=control_2022.07.31-20y7cgm.png)

Und das ist nativ 1440p mit max. Settings + max. RT. Mit DLSS/FSR wird das in den Reflektionen noch übler aussehen. Und diese Szene ist noch relativ harmlos, da gibts noch viel "bessere" Kandidaten. Vor allem sieht man die Probleme insbesondere in Bewegung wenn der Ameisenhaufen ständig aktiv ist. Zb. auf dem Boden oder der Jacke der Protagonistin.

basix
2022-08-12, 13:29:37
Kein Problem, das meiste dieser Unzulänglichkeiten wird primär über Algorithmen-Verbesserungen deutlich abgeschwächt werden. Siehe z.B. hier:
https://www.youtube.com/watch?v=W1UDzxtrhes

Dazu noch schnellere HW mit RDNA3 und Lovelace. Und wenn man zukünftig das RT-Zeugs an die Output-Auflösung anhängt (Sample Jittering etc.), dann verschwindet auch dieser Nachteil beim temporalen Upsampling.

Nicht alles so negativ sehen ;)

dargo
2022-08-12, 13:36:46
Pfff... und wann wird das in Games passieren? 5 oder eher 7-8 Jahre nach Turing mit dem ganzen RT-Hype? Erzähle mir was Neues. ;)

Gott1337
2022-08-12, 14:04:08
Guter Witz... erstmal sollten mal die DEVs den Ameisenhaufen in den RT-Reflektionen beseitigen bevor man es auf die Meute loslässt. :rolleyes: Und da steckt man in der Zwickmühle... für mehr Rays ist die Hardware noch zu lahm, für optimale Denoiser ebenso.

Edit:
Eine kleine Kostprobe gefälligst von Control welches von der grünen Fraktion hier jahrelang so gelobt wurde?
https://abload.de/thumb/control_2022.07.31-20y7cgm.png (https://abload.de/image.php?img=control_2022.07.31-20y7cgm.png)

Und das ist nativ 1440p mit max. Settings + max. RT. Mit DLSS/FSR wird das in den Reflektionen noch übler aussehen. Und diese Szene ist noch relativ harmlos, da gibts noch viel "bessere" Kandidaten. Vor allem sieht man die Probleme insbesondere in Bewegung wenn der Ameisenhaufen ständig aktiv ist. Zb. auf dem Boden oder der Jacke der Protagonistin.
das TRAURIGSTE BEISPIEL ever.
das was du da beklagst sind die normals und roughness maps, na gute Nacht. ;D
Du hast ja absolut gar keine Ahnung ahahaha

mironicus
2022-08-12, 14:39:35
Eine 6900XT macht ~8800 Punkte beim TSE GPU Score.

Wohl eher 10500. Frisch getestet. ;)

Linmoum
2022-08-12, 14:48:18
Kommt womöglich auch auf den Treiber an. Der Großteil tummelt sich laut Datenbank bei 9000-10000.

boxleitnerb
2022-08-12, 15:17:05
Jede Technologie steckt am Anfang in den Kinderschuhen und kostet viel Performance. Das ist nicht nur das Normalste der Welt, sondern gerade die Alteingesessenen hier sollten sich daran erinnern und etwas…offener…sein.

dargo
2022-08-12, 15:48:45
Jede Technologie steckt am Anfang in den Kinderschuhen und kostet viel Performance. Das ist nicht nur das Normalste der Welt, sondern gerade die Alteingesessenen hier sollten sich daran erinnern und etwas…offener…sein.
Mir brauchst du das nicht erzählen. Ich beobachte die Entwicklung völlig tiefenentspannt (die viele Jahre brauchen wird) und amüsiere mich köstlich über diverse hyperventilierende grüne Männchen. :D

boxleitnerb
2022-08-12, 15:55:53
Mir brauchst du das nicht erzählen. Ich beobachte die Entwicklung völlig tiefenentspannt (die viele Jahre brauchen wird) und amüsiere mich köstlich über diverse hyperventilierende grüne Männchen. :D

Ich finde beide Einstellungen blöd. Die eine wirkt bremsend und technologiefeindlich, die andere eben hypend. Irgendwas dazwischen wäre gut. Finde es halt schade, dass die Technologiebegeisterung in den Grabenkämpfen untergegangen ist.

dargo
2022-08-12, 15:58:46
Vielleicht werde ich langsam zu alt für eine Begeisterung. Ich finds etwas schade, dass die Spielerschaft wieder Versuchskaninchen spielen darf bis diese Technologie mal vernünftig ausgereift ist. Verstehe natürlich aber auf der anderen Seite auch, dass kein IHV sofort in die Vollen gehen kann. Finanziell zu riskant.

Exxtreme
2022-08-12, 16:49:22
Vielleicht werde ich langsam zu alt für eine Begeisterung. Ich finds etwas schade, dass die Spielerschaft wieder Versuchskaninchen spielen darf bis diese Technologie mal vernünftig ausgereift ist. Verstehe natürlich aber auf der anderen Seite auch, dass kein IHV sofort in die Vollen gehen kann. Finanziell zu riskant.
Versuchskaninchen war man schon immer als Spieler. Es haben sich sehr viele Dinge am Ende nicht durchgesetzt. Und das nicht nur bei Spielern sondern bei Computern allgemein.

Neurosphere
2022-08-12, 17:44:00
Versuchskaninchen war man schon immer als Spieler. Es haben sich sehr viele Dinge am Ende nicht durchgesetzt. Und das nicht nur bei Spielern sondern bei Computern allgemein.

Kann die Aussagen auch nicht Nachvollziehen. Ich wüsste in der Geschichte nix das sofort "da" war. Sei es TnL, die ganzen Mapping Techniken usw. Hat immer einige Jahre von der Ankündigung bis zum Standard gedauert.

Linmoum
2022-08-12, 19:05:20
Angstronomics hat auch ein paar Infos zu RDNA3.

Navi 31

gfx1100 (Plum Bonito)
Chiplet - 1x GCD + 6x MCD (0-hi or 1-hi)
48 WGP (96 legacy CUs, 12288 ALUs)
6 Shader Engines / 12 Shader Arrays
Infinity Cache 96MB (0-hi), 192MB (1-hi)
384-bit GDDR6
GCD on TSMC N5, ~308 mm²
MCD on TSMC N6, ~37.5 mm²

The world’s first chiplet GPU, Navi31 makes use of TSMC’s fanout technology (InFO_oS) to lower costs, surrounding a central 48 WGP Graphics Chiplet Die (GCD) with 6 Memory Chiplet Dies (MCD), each containing 16MB of Infinity Cache and the GDDR6 controllers with 64-bit wide PHYs. The organic fanout layer has a 35-micron bump pitch, the densest available in the industry. There is a 3D stacked MCD also being productized (1-hi) using TSMC’s SoIC. While this doubles the Infinity Cache available, the performance benefit is limited given the cost increase. Thus, the main Navi31 SKU will have 96MB of Infinity Cache (0-hi). This is lower than the 128MB in Navi21. A cut-down SKU will offer 42 WGP and 5x MCD (80MB Cache, 320-bit GDDR6).

The reference card appears to have an updated 3-fan design that is slightly taller than the previous generation, with a distinctive 3 red stripe accent on a section of the heatsink fins near the dual 8-pin connectors.

Navi32

gfx1101 (Wheat Nas)
Chiplet - 1x GCD + 4x MCD (0-hi)
30 WGP (60 legacy CUs, 7680 ALUs)
3 Shader Engines / 6 Shader Arrays
Infinity Cache 64MB (0-hi)
256-bit GDDR6
GCD on TSMC N5, ~200 mm²
MCD on TSMC N6, ~37.5 mm²

Coming in 2023, Navi32 is a smaller version of Navi31, reusing the same MCDs. Navi32 will also be coming to mobile as a high-end GPU offering in AMD Advantage laptops. There were plans for a 128MB (1-hi) version, however it might not be productized due to the aforementioned costs. Thus Navi32’s 64MB is also smaller than Navi22’s 96MB.

Navi33

gfx1102 (Hotpink Bonefish)
Monolithic
16 WGP (32 legacy CUs, 4096 ALUs)
2 Shader Engines / 4 Shader Arrays
Infinity Cache 32MB
128-bit GDDR6
TSMC N6, ~203 mm²

Navi33 is the mobile-first push for AMD. They expect robust sales of AMD Advantage laptops with it, as the design is drop-in compatible with Navi23 PCBs, minimizing OEM board re-spin headaches. They aim to ship more Navi33 silicon for mobile than to desktop AIB cards. The first concepts showed Navi33 as a chiplet design with 18 WGP and 2x MCD, but this could not meet the volume and cost structure of this class of GPU vs a monolithic design.

As an aside, Navi33 outperforms Intel’s top end Alchemist GPU while being less than half the cost to make and pulling less power.

As a result of this focus, PPA is significantly increased. In fact, at the same node, an RDNA 3 WGP is slightly smaller in area than an RDNA 2 WGP, despite packing double the ALUs.
One of the features in the RDNA 3 graphics pipeline is OREO: Opaque Random Export Order, which is just one of the many area saving techniques. With gfx10, the pixel shaders run out-of-order, where the outputs go into a Re-Order Buffer before moving to the rest of the pipeline in-order. With OREO, the next step (blend) can now receive and execute operations in any order and export to the next stage in-order. Thus, the ROB can be replaced with a much smaller skid buffer, saving area.
The Memory Attached Last Level (MALL) Cache blocks are each halved in size, doubling the number of banks for the same cache amount. There are also changes and additions that increase graphics to MALL bandwidth and reduce the penalty of going out to VRAM.

https://www.angstronomics.com/p/amds-rdna-3-graphics

Das mit N33 halte ich zwar immer noch für Quatsch, aber ansonsten: Weniger IF$ als bisher angenommen, deutlich kleinere GCD-Size als bisher angenommen. Mit den damaligen Exklusiv-Infos zu AM5 und auch zu Raphael (5.7GHz/5.85GHz fmax, die sich ja langsam zu bestätigen scheinen) sind da aber durchaus gewisse Quellen vorhanden.

Edit: Bondrewd dazu
Kabooley.
Thank you to Mr. Juicey for dropping the bomb.

Geht wohl tatsächlich in die richtige Richtung. Scheint der Fokus Nr. 1 wohl tatsächlich auf Flächeneffizienz gelegen zu haben.

basix
2022-08-12, 19:57:12
Dass AMD die Zielperformance mit möglichst wenig Fläche erreicht, ist definitiv in ihrem Interesse. Das "A" in PPA kommt von irgendwoher ;) Kommt das so wie beschrieben bei entsprechend hoher Performance: Respekt.

N33 scheint mir hier aber extrem kompakt zu sein. Ist kleiner als N23 bei doppelten FP32-Units - im fast selbe Node, wtf?

Und dann soll das 3x davon and WGPs in N5 300mm2 gross sein? Hmm...

Und wie das mit dem 0-hi / 1-hi aussehen soll, erschliesst sich mir auch nicht ganz.

mboeller
2022-08-12, 20:00:23
wow, die GDC sind ja "winzig".

Das ist noch viel verwunderlicher, wenn man sich dann den anderen Artikel über 5nm bei TSMC durchliest:

https://www.angstronomics.com/p/the-truth-of-tsmc-5nm

AffenJack
2022-08-12, 20:11:16
Die Die Sizes sind wirklich verdammt klein, wenn sie so stimmen. Ich glaube aber nicht, dass man damit die gleiche IPC behalten wird und ebenso zweifle ich an den Performanceangaben der anderen Leaker.

Es hieß ja immer N31 über 2x N21 und extrem teuer. Das sieht für mich eher so aus, als wenn AMD nicht groß über 1000$ gehen will, aber dementsprechend die Performance auch weniger hochgehen wird als angenommen. Er spricht ja auch bei N33 von A770 schlagen und nicht N21 Territorium, wie vorherige Leaks. Das passt dann auch deutlich eher zu der kleinen Cachegröße. N21 wird für N33 außerhalb der Reichweite sein, aber das braucht man auch nicht. Durch die kleinen Größen wird man extrem kompetitiv in den Herstellkosten sein.

Linmoum
2022-08-12, 20:20:10
Wenn AMD mit einem ~310mm² N5 GCD (+ den billig kleinen N6 MCDs) mit einem AD102 mithalten kann bzw. diesen ggf. sogar schlägt, dann auf jeden Fall Chapeau. Es würde mich bei der Die Size nicht wundern, wenn wir hier auf N5 und die Fläche bezogen 2xN31 = 1xAD102 haben.

Ich meine, der kolportierte Rahmen von 350mm²-400mm² für das N31 GCD, in dem sich das bisher immer grob bewegt hat, war ja schon eher winzig. Aber nur knapp über 300mm² sind eine richtige Hausnummer.

Und wenn wir mal annehmen, dass N33 tatsächlich in dieser Konfiguration kommt, dann ist das aber locker eine maximal $3xx GPU. N23 hat AMD für $329/$379 auf den Markt geschmissen und N33 wäre hier noch mal ~35mm² kleiner.

iamthebear
2022-08-12, 20:21:30
OK ich muss zugeben, dass mich das doch ziemlich überrascht aber wenn ich das Ganze noch einmal betrachte, macht das Ganze so deutlich mehr Sinn und es lassen sich damit auch alle Unstimmigkeiten erklären.

Meine Performanceeinschätzung:
.) Navi24 bleibt im Lineup so wie es ist mit 100mm² N6
.) Navi33 ersetzt Navi23 und wird leistungsmäßig ca. auf demselben Niveau bzw. etwas darüber liegen. Bisherige Leaks mit 350-400mm² und 6900 XT waren Schwachsinn. Die haben Daten von Navi32 und 33 vermischt. Navi33 hat jedoch wie Kepler schon angedeutet hat andere (mehr kompaktere) Shader als Navi31/32 mit weniger IPC. Somit sind die 8GB VRAM auch wieder mehr als genug und die ganze Aufregung war umsonst, genauso bei der Speicheranbindung.
.) Navi32 ersetzt Navi22, ist gesamt ca. gleich groß und wird leistungsmäßig ca. 30% über Navi21 liegen (wie auch schon damals von MLID verkündet).
.) Navi31 ersetzt dann Navi21 (in Summe etwas größer) und dürfe wenn man Greymon55 glauben darf in etwa auf 4090 Niveau bzw. 2x 6900XT theoretischer Performance liegen. Auch hier hatte MLID mit den Zahlen Recht, hat nur fälschlicherweise behauptet, dass er echte Gaming fps meint. Real dürften je nach Spiel in 4K im Schnitt wohl um die 70-80% mehr fps raus kommen bzw. 90% mehr in Benchmarks wie TSE mit niedriger CPU Last.

Wo ich meine Bedenken habe:
.) Ich hoffe einmal, dass die bisher geleakten Preise von 400-500$ für N33 bzw. 700-800$ für N32, 1500$ für N31 genauso Schwachsinn waren wie vorher die Performanceprognosen. Falls doch bleibt nur abwarten und hoffen, dass Nvidia/AMD an ihren bestellten Wafern ersticken und gezwungen sind wieder Richtung normales Niveau zu senken wenn wie weiterhin Gaming GPUs verkaufen wollen.

.) Wenn man dem Chart von AMD glauben darf dann habe ich arge Bedenken was die Hitraten bei 4K und darüber angeht. Selbst N21 bricht ja schon leicht unter 4K ein. Das wird bei N32 mit halbiertem IF$ und 30% mehr Shaderpower kaum besser werden.
Was N31 angeht so dürfte zusätzliche Speicherinterface gerade einmal etwas mehr als den IF$ kompensieren. Für 2x Shaderpower und im Schnitt eine Auflösungsstufe höher (bzw. mehr Details oder RT) wird das schon echt knapp. Die Spiele sind seither auch 2 Jahre neuer geworden und haben höhere Datenmengen.

basix
2022-08-12, 20:28:13
Wenn man dem Chart von AMD glauben darf dann habe ich arge Bedenken was die Hitraten bei 4K und darüber angeht. Selbst N21 bricht ja schon leicht unter 4K ein. Das wird bei N32 mit halbiertem IF$ und 30% mehr Shaderpower kaum besser werden.
Was N31 angeht so dürfte zusätzliche Speicherinterface gerade einmal etwas mehr als den IF$ kompensieren. Für 2x Shaderpower und im Schnitt eine Auflösungsstufe höher (bzw. mehr Details oder RT) wird das schon echt knapp. Die Spiele sind seither auch 2 Jahre neuer geworden und haben höhere Datenmengen.

Ich weiss zwar nicht, wo N21 wirklich einknickt bei 4K aber dennoch folgendes:
- 384bit
- 20-24 Gbps GDDR6
- Verbesserte Nutzung des IF$ (man lernt dazu)
- Optional: RDNA3 geht generell effizenter mit Bandbreite um

Ich sehe nicht, dass N31 an der Bandbreite scheitert. Zumindest nicht bis und mit 4K.

Linmoum
2022-08-12, 20:29:28
Also dass N33 mit doppelten ALUs nur N23-Performance erreicht, kann man dann doch komplett ausschließen. Zumal der Takt mit RDNA3 ja auch noch mal nach oben gehen wird.

N32 hätte - ausgehend von 20gbps GDDR6 - 640GB/s zzgl. IF$. Für WQHD wird das überhaupt kein Problem sein und auch in UHD sehe ich das nicht als problematisch. Die 3080 hat 760GB/s ohne zusätzlichen Cache.

Aber nach Keplers "N33 CUs are probably different from N31/N32 CUs" ergibt das mit dem von Angstronomics hier genannten dann doch irgendwie wieder Sinn.

iamthebear
2022-08-12, 20:35:34
Wenn AMD mit einem ~310mm² N5 GCD (+ den billig kleinen N6 MCDs) mit einem AD102 mithalten kann bzw. diesen ggf. sogar schlägt, dann auf jeden Fall Chapeau. Es würde mich bei der Die Size nicht wundern, wenn wir hier auf N5 und die Fläche bezogen 2xN31 = 1xAD102 haben.[quote]

Die 37,5mm² sind für EIN MCD. Verbaut werden jedoch 6 Stück davon:
308 + 6*37,5 = 533mm²

AD102 wird laut kopite um die 600mm² haben.

Das ist jetzt nicht unbedingt so ein riesiger Unterschied.

Das "mithalten" bezieht sich ja nur auf die Raster Performance und wahrscheinlich wieder nur bei niedrigeren Auflösungen/Details.

[quote]Ich meine, der kolportierte Rahmen von 350mm²-400mm² für das N31 GCD, in dem sich das bisher immer grob bewegt hat, war ja schon eher winzig. Aber nur knapp über 300mm² sind eine richtige Hausnummer.

Wenn man bei N21 nur die Teile zählt, die im GCD liegen ist dieser auch nur um die 320mm² groß. Wenn man von einem 1.6x Shrink für Logic ausgeht dann ist das zwar nicht schlecht aber auch nicht umwerfend. Man darf die WGPs nicht als 2x RDNA2 sehen nur weil diese doppelt so viele FP32 Einheiten haben. Ohne die ganze Verwaltungslogik dahinter zu verdoppeln bekommt man da keine 2x Performance raus.

Und wenn wir mal annehmen, dass N33 tatsächlich in dieser Konfiguration kommt, dann ist das aber locker eine maximal $3xx GPU. N23 hat AMD für $329/$379 auf den Markt geschmissen und N33 wäre hier noch mal ~35mm² kleiner.

Die N23 Preis sind zu Miningzeiten entstanden ist sind komplett überzogen.
Wenn man die 6800XT als Messlatte anlegt, so wäre 400$ für die 6700 XT bzw. 250$ für die 6600XT angemessen gewesen.
Ich will AMD hier keinen Vorwurf machen, denn zumindest waren sie ehrlich aber langfristig hoffe ich doch auf andere Marktverhältnisse wenn man sich die aktuellen Quartalszahlen von Nvidia und AMDs dGPU Sparte ansieht.

davidzo
2022-08-12, 20:58:51
Wow, viel vernünftiger als die bisherigen wilden Spekulationen.
Übrigens ist man auf der NV-Seite auch wieder auf dem Teppich, mit 300Watt für die 4070, 320W für die 4080 und vorerst 450W für den Topdog.

Da hat man Nvidia ganz schön ins leere Rennen lassen mit den 300% performance Gerüchten vor fast zwei Jahren. Hut ab wenn dass eine absichtliche AMD Strategie war und Nvidia deswegen monatelang an 600 oder gar 800Watt Boards herum geschraubt hat die im Desktop PC doch wirklich nicht praxisfähig sind... ;D


Mir ist zwar kaum verständlich wie Navi33 mit einem Speichersystem das auf den ersten Blick aussieht wie das von Navi23 die Performance einer 6900xt erreichen oder übertreffen soll, aber das trifft ja auf die größeren Chips wohl auch zu.

Vielleicht hat man deutlich an der Cachebandbreite und Granularität gedreht, womit der Cache einen höheren Beitrag zur effektiven Gesamtbandbreite erziehlen kann. Angstromics deutet ja in die Richtung dass die Slices kleiner geworden sind und die Latenzen zum main memory geringer.

Nvidia macht mit ihrem L2 Cache von Ampere zu Lovelace das Umgekehrte. Von feingranular und hoher Gesamtbandbeite hin zu größeren Slices mit höherer Density.
Dann hätten beide Top Dogs 96MB LLC.

Sieht aus als wenn die sich einander langsam angleichen, obwohl das bei RDNA eben die dritte Cache-Stufe ist und bei NV nur die zweite.
Spannend wie die beiden Hersteller aus gegensätzlichen Richtungen und auf völlig unterschiedlichen Wegen sich anscheinend auf zwei Designs mit starken Ähnlichkeiten gesettled haben.
Überraschend dass die Cache Designs bei Ampere vs RDNA noch so unterschiedlich waren und nun eine Generation später sehr ähnlich sein können, sowohl bei der Density als auch Bandbreite.

davidzo
2022-08-12, 21:14:12
Sry doublepost, plz merge @mods


Die Die Sizes sind wirklich verdammt klein, wenn sie so stimmen. Ich glaube aber nicht, dass man damit die gleiche IPC behalten wird und ebenso zweifle ich an den Performanceangaben der anderen Leaker.

Naja, es gibt noch die Taktraten und die skalieren auch ohne IPC-Verbesserungen gut. AMD scheint sein 5nm Prozessvariante sehr auf Clockspeed optimiert zu haben, siehe 5,8Ghz Zen4.
Mit den gemunkelten 3,2Ghz wäre das schon fast glatt die 3,0fache Rohleistung von Navi31 vs Navi21. Da kann man eine geringfügige IPC Regression noch gut wegstecken. Siehe RDNA1 vs RDNA2, da gab es auch eine Regression bei der IPC im Gegenzug für mehr Takt und Bandbreite.


N21 wird für N33 außerhalb der Reichweite sein, aber das braucht man auch nicht. Durch die kleinen Größen wird man extrem kompetitiv in den Herstellkosten sein.

Es könnte durchaus wie bei Hawai vs Polaris ablaufen. Da war Hawai beim Launch auch noch deutlich schneller, vor allem in hohen Auflösungen.
4096 Shader mit Taktraten jenseits von 3Ghz können durchaus 5120 bei 2,4Ghz schlagen wenn die Bandbreite nicht limitiert, also in FHD und WQHD. Wenn RDNA3 dazu auch die bessere RT-Implementierung hat wäre das durchaus ein guter Navi21 Ersatz. Ist halt in 2023 keine 4K karte mehr sondern nur noch Midlevel wenn die Messlatte insgesamt um 100% nach oben geschoben wird.

Iscaran
2022-08-12, 21:14:51
Mir erscheint es etwas komisch dass man nur 16 MB IF$ pro MCD hat, bei der MCD-größe von 37.5 mm^2.

OgrEGT (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13055407#post13055407) hatte zur Packdichte des IF$ interessante Zahlen gebracht:
------------------------------
https://mobile.twitter.com/locuza_/s...48639440670722
N21 N7
32b SI 6.32mm2
64MB IF$ 44.58mm2

https://www.tsmc.com/english/dedicat...gy/logic/l_7nm
In addition, N6 manufacturing process delivers 18% higher logic density over the N7 process.

Wenn wir davon ausgehen dass das SI nicht skaliert der IF$ mit 18%

N3x MCD N6
2x32b SI 12.6mm2
64MB IF$ 37.8mm2
Insg. ca. 50mm2
------------------------------
Wenn wir das nur auf die 37.5 mm^2 übertragen erscheint mir 16 MB IF$ pro MCD einfach zu niedrig zu sein.

64 MB ist sicherlich auch zu hoch. Aber mit den Zahlen würden 32 MB IF$ pro MCD einfach perfekt passen.
OgrEGTs Spekulation würde auf 64/37.8mm^2 = 1.69... MB/mm^2 kommen.

Übertrage ich das auf die kolportierte MCD fläche von 37.5 mm^2:
- 2x32 bit Phy = 12.6mm^2
Rest also 24.9 mm^2 *1.69 MB/mm^2 = 42 MB...

Das wird sicherlich nicht 42 MB sein sondern 32 MB oder 48 MB.

Da Anstronomics mit 16 MB sehr tief stapelt, würde ich mal die 32 MB Version als Plausibel erachten.

=>
N31 1 GCD in N5 mit 48 WGP ~308 mm^2 + 6 MCDs in N6 mit 32 MB IF$ und je 2x32 bit = 192 MB und 384 bit SI.

N32 und N33 entsprechend...komisch erscheint mir hier nur, dass AMD wohl tatsächlich 3 unterschiedliche GCDs auflegt (48 WGP, 30 WGP und 16 WGP) obwohl der Chip ja aus "chiplets" besteht.

Würde mich nicht wundern wenn wir am Ende dann sehen:
N31 = 3 GCDs zu je 16 WGP + 6 MCDs
N32 = 2 GCDs + 4 MCDs
N33 = GCD + 2 MCDs

Linmoum
2022-08-12, 21:21:35
Angstronomics/SkyJuice hat iirc damals auch zuerst die (reale) IPC von Zen4 genannt. Der hat seine Quellen und die sind - wie man sieht - nicht nur oberflächlicher Natur. Da Bondrewd zu den Informationen hier auch entsprechend zustimmend reagiert hat (und der wusste damals schon pre-RDNA2-Launch eine ganze Menge) kann man das im Prinzip als gesichert ansehen.

Nichts gegen jemanden wie Greymon oder andere Twitteraner, aber hier vertraue ich dann doch eindeutig Angstronomics und Bondrewd.

dargo
2022-08-12, 21:29:23
Wow, viel vernünftiger als die bisherigen wilden Spekulationen.
Übrigens ist man auf der NV-Seite auch wieder auf dem Teppich, mit 300Watt für die 4070, 320 für die 4080 und vorerst 450W für den Topdog.

Ähm... nun mal langsam. Aktuell heißt die vorläufige Speku:
4070 = 285W
4080 = 320W
4090 = 450W

Die 4090 ist nicht der Topdog, sondern nur der Salvage vom Topdog. ;) Und diesmal ist die 4090 stärker beschnitten als noch die 3090 bei Ampere. Sollten sich also die 450W für die 4090 bewahrheiten wird NV spielend bei der 4090TI oder Titan (Namen sind wumpe) die 500W sprengen, wenn nicht sogar 600W erreichen.

davidzo
2022-08-12, 21:32:31
Die 4090 ist nicht der Topdog, sondern nur der Salvage vom Topdog. ;) Und diesmal ist die 4090 stärker beschnitten als noch die 3090 bei Ampere.

Was ist daran nicht zu verstehen?

vorerst

Die Titan /Titanium kommt garantiert nicht mehr dieses Jahr und auch nicht früh nächstes. Die kommt eher in Q3 nachdem in Q1-2 das restliche AD portfolio gelauncht ist und man lange genug binning betrieben hat.

ChaosTM
2022-08-12, 21:36:01
4070 = 285W
4080 = 320W
4090 = 450W

Klingt "vernünftig" und dass sich NV noch genug Platz nach oben lässt für eventuelle Gegenangriffe und vor allem den Refresh ist auch klar.
Wie stark die 4090er beschnitten wird werden wir sehen.

Cyberfries
2022-08-12, 21:41:13
... aber hier vertraue ich dann doch eindeutig Angstronomics und Bondrewd.

Vertrauen für die Genannten mag ja ganz nett sein.
Angesichts der genannten Daten würde ich dann doch an einigen Stellen kritisch hinterfragen.
Die mickrigen Cache-Mengen auf großer Fläche, die bereits Iscaran angesprochen hat.
Die seltsame Konfiguration von N32 mit abweichender WGP-Menge und ungerader SE-Zahl - gabs noch nie.
Der wundersam winzige N33. Ein halbes N32-GCD mit zwei MCDs wäre bereits bei 175mm² - in N5.
Und dann noch so einige kleine Irritationen im Text, die die Glaubwürdigkeit schmälern. z.B. N33 mit 18 WGP?

dargo
2022-08-12, 21:49:19
Die Titan /Titanium kommt garantiert nicht mehr dieses Jahr und auch nicht früh nächstes. Die kommt eher in Q3 nachdem in Q1-2 das restliche AD portfolio gelauncht ist und man lange genug binning betrieben hat.
Och... da wäre ich mir nicht so sicher. Hängt alles davon ab wie N31 performt.

iamthebear
2022-08-12, 22:28:31
N21 N7
32b SI 6.32mm2
64MB IF$ 44.58mm2

TSMC hat nur Angaben zu Logic gemacht. Das habe ich bisher so interpretiert, dass SRAM nicht shrinked. Sonst hätten sie es denke ich erwähnt.
Abgesehen davon wurde ja nur die Kapazität des IF$ halbiert, nicht jedoch seine Anbindung weshalb ich von etwas mehr als der halben Größe ausgehen würde.

Ich würde für IF$ + SI einmal um die 25-30mm² schätzen.
Die Differenz erklärt sich vermutlich durch die Die to Die Kommunikation.
Bei Navi31 wurden bei den Die Shots große Teile rund um die IF$ Slices als Infinity Fabric markiert. Ob dem auch wirklich so ist oder ob da nicht doch ein Teil zur Verwaltungslogik des Cache gehört der mitwandert kann denke ich nur AMD sagen.

Rein von der Rechnung würde ich zwar auch 32MB glauben allerdings wirkt Skyjuice hier so selbstbewusst, dass ich seine Version mit den 16MB erst mal glauben werde.

N32 und N33 entsprechend...komisch erscheint mir hier nur, dass AMD wohl tatsächlich 3 unterschiedliche GCDs auflegt (48 WGP, 30 WGP und 16 WGP) obwohl der Chip ja aus "chiplets" besteht.

Würde mich nicht wundern wenn wir am Ende dann sehen:
N31 = 3 GCDs zu je 16 WGP + 6 MCDs
N32 = 2 GCDs + 4 MCDs
N33 = GCD + 2 MCDs

Ich gehe davon aus, dass AMD technologisch derzeit noch nicht in der Lage ist einen Gaming Chip mit 2 GCDs zu fertigen.
Die Karte müsste sich nach außen hin als eine GPU ausgeben was bedeutet, dass alle MCDs geshared werden müssen damit jeder GCD auf den gesamten RAM zugreifen kann.
Es gab dazu ein Patent von AMD aber ob das wirklich ohne gröbere Performanceeinbrüche so umsetzbar ist steht noch in den Sternen. Kann sein, dass das das mit RDNA4 so weit sein wird.
Einmal abgesehen davon stellt sich mir die Frage wozu? Die Yields von N5 sind excellent und 300mm² ist für Navi31 immer noch relativ klein. Der Sinn von Chiplets ist bei AMD, dass sie schlechter skalierende Teile auf ältere Prozesse auslagern. Bei Zen2/3 hatte man noch vertragliche Verpflichtungen mit GF und musste dort was fertigen. Bei Zen4/RDNA3 hatte man nicht genug Cash um die Kapazitäten im Vorfeld zu bezahlen wie Nvidia und muss deshalb etwas sparen.

davidzo
2022-08-12, 22:52:51
Wie wahrscheinlich haltet ihr es dass AMD VCN weglässt?

Sie bauen ja bereits in Zen4 eine GPU ein, womöglich bereits inkl. VCN, womit der Codec in der GPU redundant wäre. Auch Intel hat ja vergleichbare Codecs in der CPU weshalb man sie in der GPU nicht mehr bräuchte. Und das spart definitiv Strom da es wesentlich mehr Energie kostet das VRAM Interface wach zu halten, als den normalen Hauptspeicher der CPU. Siehe Stromverbrauch von GPUs unter Teillast bzw. Videolast. Da fährt der GDDR mitunter vollen Takt für ein bisschen Youtube.
Also den Mut zur Weglassung haben sie ja bereits mit Navi24 aufgebracht, ausgerechnet im OEMspace wo diese Codecs doch eigentlich so wichtig sind.

Wenn man sich auf dem wertvollen 5nm Haupt-DIE also VCN sparen könnte, schafft das Platz für die ALUs. Richtig geschickt wäre es sogar wenn man die Display engines oder PCIe irgendwie in die MCDs quetschen kann. Mehr GCDs heißt dann = mehr Display engines. :biggrin:

Wenn die 306mm2 wirklich fast nur aus ALUs bestehen muss das gar nicht unbedingt weniger Fläche sein als AD102.
Bei GA102 nehmen die Alus auch nur rund 47% der Fläche ein, Rest sind Cache, SI, Rops, Displayengine, NVENC, NVlink, PCIEgen4 etc.

Bei Zen4/RDNA3 hatte man nicht genug Cash um die Kapazitäten im Vorfeld zu bezahlen wie Nvidia und muss deshalb etwas sparen.
Ich denke nicht dass AMD gleichviel zahlt wie nvidia. TSMC bittet nur besonders zur Kasse wenn neue Produktionskapazitäten geschaffen werden, insbesondere neue Kapazitäten die über die langfristige Planung hinaus gehen. AMD ist allerdings Stammkunde und belegt bereits einige Produktionslinien und wird extrem früh gebucht haben. Einen großen Aufschlag wird man daher nicht bezahlt haben weil die Kapazitäten schon eingeplant waren. Und bei der ursprünglichen Planung hat AMD eben auch viel N6 Kapazität reserviert, nicht nur N5, was dann eben das Design beeinflusst hat welches AMD nun baut.

Gott1337
2022-08-12, 23:11:31
Einen großen Aufschlag wird man daher nicht bezahlt haben weil die Kapazitäten schon eingeplant waren. Und bei der ursprünglichen Planung hat AMD eben auch viel N6 Kapazität reserviert, nicht nur N5, was dann eben das Design beeinflusst hat welches AMD nun baut.
dann zählt das auch für Nvidia, das Volumen war ja nur 1/3? oder so weniger als das von AMD. das hatten wir hier schon alles besprochen.

€dit: https://www.tomshardware.com/news/amd-becomes-tsmc-third-largest-customer 2.8% vs 4.3 % also ja

iamthebear
2022-08-12, 23:24:36
Die mickrigen Cache-Mengen auf großer Fläche, die bereits Iscaran angesprochen hat.

Siehe oben. Vermutlich brauchen die MCDs dann halt doch etwas mehr Platz als sie es in einem monolithischen Die bräuchten.
Und wenn die MCDs bereits 40% des Gesamt Dies ausmachen verstehe ich AMD, dass diese nicht mehr Cache rein stopfen wollen solange das System nicht min. 40% speicherlimitiert ist. Die verdoppelten FP32bringen sicher mehr Performance als die ursprünglich angekündigten 512MB.

Die seltsame Konfiguration von N32 mit abweichender WGP-Menge und ungerader SE-Zahl - gabs noch nie.

Navi31/32: 10 WGP/SE
Navi33: 8 WGP/SE
Ist also nicht wirklich neu. 3 SE mag zwar unüblich sein aber ich wüsste auch nicht was dagegen sprechen würde. Das würde zumindest erklären woher die Verwirrungen mit den 60 WGPs herkommen:
Einer sagt "RDNA3 hat 10 WGP/SE". Einer sagt "Navi31 hat 6 SE", einer sagt "Navi32 ist ca. 2/3 von Navi31" und schon wird daraus eine zwar in sich schlüssige aber komplett falsche Konstellation abgeleitet.

Der wundersam winzige N33. Ein halbes N32-GCD mit zwei MCDs wäre bereits bei 175mm² - in N5.

Das konnte Kepler L2 schon auflösen. Navi33 hat abgespeckte WGPs mit weniger IPC.
Es waren einfach die Performanceprognosen für N33 falsch. Das waren vermutlich N32 Daten mit niedrigeren Taktraten.

Und dann noch so einige kleine Irritationen im Text, die die Glaubwürdigkeit schmälern. z.B. N33 mit 18 WGP?

Nochmal lesen ;-)
Er berichtet von einem alternativen Konzept von N33 mit 18WGP + 2 MCDs. Dieses wurde jedoch aus Kostengründen verworfen da einfach bei den kleinen Chips nicht sinnvoll.

Lehdro
2022-08-12, 23:41:24
Die 37,5mm² sind für EIN MCD. Verbaut werden jedoch 6 Stück davon:
308 + 6*37,5 = 533mm²

AD102 wird laut kopite um die 600mm² haben.

Das ist jetzt nicht unbedingt so ein riesiger Unterschied.

Doch ist es, da fast die Hälfte der Die-Area im deutlich billigerem N6 verbaut wird. Klar kostet das aufwendigere Packaging wiederum mehr, aber rein von Performance/Area und damit auch Performance/Cost gesehen, sollte das deutlich besser ausfallen als monolithische 600mm². Vor allem wenn man bedenkt was das für die Yields bedeutet.
Die Frage ist halt nur: Reicht das für einen Platz (nahe genug) an der Spitze? Oder macht man damit zu viel Abstriche?

amdfanuwe
2022-08-13, 00:03:07
N3x MCD N6
2x32b SI 12.6mm2
64MB IF$ 37.8mm2
Insg. ca. 50mm2
------------------------------
Wenn wir das nur auf die 37.5 mm^2 übertragen erscheint mir 16 MB IF$ pro MCD einfach zu niedrig zu sein.

Erscheint mir auch zu niedrig. Bei deiner Rechnung musst du noch die Verwaltungslogik, reicht ja nicht nur Cache Zellen zu implementieren, und das Interface zum GDC hinzurechnen.
Ich weiß nicht, wieviel die Verwaltung ausmacht.

obwohl der Chip ja aus "chiplets" besteht.

Würde mich nicht wundern wenn wir am Ende dann sehen:
N31 = 3 GCDs zu je 16 WGP + 6 MCDs
N32 = 2 GCDs + 4 MCDs
N33 = GCD + 2 MCDs
Mit MCD und GCD hat man ja Chiplets.
Bei Ryzen und EPYC hat man ja auch verschiedene I/O Dies.
Die GCDs aufzuteilen ist halt schwierig wegen dem globalem L2 Cache. Da braucht es dann wohl andere Verbindungstechnik und Aufteilung.


Die seltsame Konfiguration von N32 mit abweichender WGP-Menge und ungerader SE-Zahl - gabs noch nie.
Der wundersam winzige N33. Ein halbes N32-GCD mit zwei MCDs wäre bereits bei 175mm² - in N5.
Und dann noch so einige kleine Irritationen im Text, die die Glaubwürdigkeit schmälern. z.B. N33 mit 18 WGP?
Naja, bei N21 und N22 sind es 10 WGP/ SE, bei N23 und N24 8 WGP/ SE.
Salvage N21 gibt es auch mit 3 SE.
N22 hat 2 SE und 3*64Bit SI.
N22 Salvage hat 9 WGP/SE.
Also da scheint AMD ziemlich variabel zu sein bei der Anzahl der WGP/SI und breite des SI.
Letztendlich wird die Optimale Variante durch TDP, Takt, Bandbreite, geplanten Salvage Varianten, Mobile Tauglichkeit etc. bestimmt. Werden die Erbsenzähler bei AMD sich schon was bei gedacht haben. Sehe ich also kein Problem mit abweichender WGP und ungerader SE Anzahl.

Du beziehst dich zudem auf diese Textstelle:
The first concepts showed Navi33 as a chiplet design with 18 WGP and 2x MCD, but this could not meet the volume and cost structure of this class of GPU vs a monolithic design.
Monolithisch 6nm dann halt nur 16 WGP.
Und wenn der monolithische Chip nur 1 Cent billiger ist, lohnt sich das bei Millionen Stückzahlen.

edit: War wohl nicht so schnell wie iamthebear

Neurosphere
2022-08-13, 00:12:18
Genrelle Frage, warum sollte dieser SkyJuice nun glaubwürdiger als alle anderen Leaker sein? Ja, er geht mehr auf technische Details ein, aber ob das nun 1 zu 1 Stimmt was er da schreibt?

amdfanuwe
2022-08-13, 00:17:10
Stimmt was er da schreibt?
Seh ich als weitere Variante. Bin gespannt, was AMD letztendlich bringt.

y33H@
2022-08-13, 00:21:04
[...]Ja, ich weiß - Raytracing ist doof, solange es auf AMDs Karten schlechter läuft :ucatch:

Linmoum
2022-08-13, 00:27:48
Man schaue sich einfach seinen detaillierten Artikel zu AM5 an. Das hat alles Hand und Fuß. Nicht nur vom "Know-How" her, sondern auch hinsichtlich des Wahrheitsgehalts. Er hatte den IPC-Zuwachs von Zen4 vor allen anderen genannt. Die 5.7/5.85fmax für Zen4 stammen auch von ihm und auch das kann man mittlerweile als gesichert ansehen.

Und wie gesagt, dazu die Reaktion von Bondrewd. Der Kerl mag von seiner Schreibweise her ein etwas eigenartiger Typ sein, aber der wusste vor zwei Jahren vor RDNA2 darüber schon verdammt viel. Wenn er die Ausführungen untermauert, dann steckt da mehr hinter als nur der nächste Twitter-Leak.

Skyjuice hat wie alle anderen auch seinen normalen Twitter Account, seit Mai halt auch mit Angstronomics.

Thunderburne
2022-08-13, 00:32:12
https://videocardz.com/newz/amds-main-navi-31-gpu-reportedly-has-96mb-of-infinity-cache-navi-32-is-up-to-7680-cores

https://wccftech.com/amd-rdna-3-navi-31-navi-32-navi-33-gpus-radeon-rx-7000-graphics-cards-detailed/

Linmoum
2022-08-13, 00:41:02
Worüber reden wir hier wohl schon die ganze Zeit? :freak:

prinz_valium_2
2022-08-13, 01:29:06
Hoffe AMD ändert was an ihrem Namensschema und der Menge an Karten, die es gibt.
Die 6000er Serie waren einfach zu viele und unübersichtlich. Selbst für jemanden wie mich war es da schwer die Performance sofort einzuordnen anhand der GPU.

Da war die 5000er Serie deutlich besser.
Ich mag die XT nicht. Dann doch lieber 50er SKUs, wie bei den CPUs.
Dazu etwas weniger salvage Modelle gleich zu beginn.

7950 ist N31
7900 ist N31 Salvage mit 320bit
7800 ist N32
7600 ist N33


nVidia wird mit 3 GPUs starten. Und bei AMD sind es schon 4, wenn das Portfolio extrem reduziert wird.

Nazar
2022-08-13, 02:22:50
Ja, ich weiß - Raytracing ist doof, solange es auf AMDs Karten schlechter läuft :ucatch:

Kausale Zusammenhänge zu erfassen, ist offensichtlich nicht deine Stärke. :wink:
Das derzeit schlechte RT läuft auch auf nV Beschleunigern beschissen. Dass RT auf AMD Beschleunigern noch schlechter läuft, widerspricht meiner Aussage inwiefern?

Der Mehrwert ist derzeit nicht offensichtlich, ohne Vergleichsbilder.
99% der Spieler erkennen nicht den Unterschied zwischen RT an oder aus, bzw. können es gar nicht einer Technik zuordnen.
Die heutigen Spiele haben ganz andere Probleme, als dass man RT benötigt, um noch weniger Performance für weniger Details zu erhalten.

Z.B. würde man die verbratende Performance für folgendes viel dringender:
Bessere Texturen, natürlicheres Aussehen, mehr Objekte, bessere Physik, bessere AI, ....

Solltest du endlich mal Argumente haben, um damit meine Thesen widerlegen zu können, bin ich gerne bereit mir diese zu erlesen, ansonsten sollten wir hier das Thema zu den Akten legen. :wink:

ChaosTM
2022-08-13, 02:45:25
Normalerweise bin ich nicht so oft auf Nazar`s Seite, aber in dem Bereich liegen wir fast gleich auf.

:)

DrFreaK666
2022-08-13, 03:21:55
K...
Der Mehrwert ist derzeit nicht offensichtlich, ohne Vergleichsbilder...

Das kann man aber zu vielen Sachen sagen. High vs Very High. 8xAF vs 16xAF. SSAO vs HBAO+ usw.
Und wer die realistischere Beleuchtung und Beschattung bei Metro Exodus Enhanced im Vergleich zum Original nicht als Mehrwert ansieht, dem ist nicht zu helfen.
Auch Spiderman sieht ohne die RT-Spiegelungen einfach nur falsch aus

HOT
2022-08-13, 07:52:08
Also da ist es wieder: N33 und N6 passt dennoch nicht zusammen mit 203mm². Das geht einfach nicht auf. 2 MCDs sind >70mm² in N6. Dann bleiben also 130, vielleicht 135mm² für die GPU übrig, das würde nur in N5 passen. Entweder stimmen die 203mm² nicht oder N6 stimmt nicht, ich wette auf letzteres.

Cyberfries
2022-08-13, 08:22:38
Siehe oben. Vermutlich brauchen die MCDs dann halt doch etwas mehr Platz als sie es in einem monolithischen Die bräuchten.

Bei einem stark auf minimalen Flächenverbrauch optimierten Chip verschenkt man also einfach so ein Drittel pro MCD?
Die Flächenangaben sind nicht wie bei 3D V-Cache ohne Logik und die Infinity Fabric ist nicht so groß.

Und wenn die MCDs bereits 40% des Gesamt Dies ausmachen

40% sind nicht viel, das entspricht dem Verhältnis bei N21. 2,4x Shaderzahl bei 0,75x Inf$ und das Verhältnis bleibt gleich?

solange das System nicht min. 40% speicherlimitiert ist. Die verdoppelten FP32bringen sicher mehr Performance als die ursprünglich angekündigten 512MB.

Die 32mb von N23 sind schon knapp. Von 512mb spricht schon lange keiner mehr, 192mb waren der letzte Stand,
was immerhin 1,5x N21 ist und nicht wie dieses Gerücht ein Rückschritt.

Das konnte Kepler L2 schon auflösen. Navi33 hat abgespeckte WGPs mit weniger IPC.

"Aufgelöst" wurde da noch nichts. Seine Idee von kleineren Regs würde bei einer RDNA2-WGP ca. 5% ausmachen.

Nochmal lesen ;-)
Er berichtet von einem alternativen Konzept von N33 mit 18WGP + 2 MCDs.

Und eben das es so ein Konzept je gegeben hat zweifle ich an. Außer, es würde exklusiv für N33 die SE/SH/WGP-Struktur geändert.

Salvage N21 gibt es auch mit 3 SE.
N22 Salvage hat 9 WGP/SE.
Also da scheint AMD ziemlich variabel zu sein bei der Anzahl der WGP/SI und breite des SI.

Abspeckungen sind für den grundsätzlichen Chipaufbau irrelevant. AMD meidet die Zahl 3 wie der Teufel das Weihwasser.
Dabei gabs diverse Chips die von 3SE profitiert hätten (Polaris 10, N22, Xbox One X), aber den Aufwand hat man vermieden.

Linmoum
2022-08-13, 08:33:23
Another amazing leak from SkyJuice! The perf/area of RDNA3 looks incredible, even down to min-maxing N32 as 3SE * 10WGP vs 4SE *8WGP. The die area of N33 also lends credence to my previous leak of different design CU designs...
...with N33/PHX having a Vector Register File of 128KB (same as all RDNA1/2 GPUs) and N31/N32 having a beefier VRF at 192KB. This could allow for some very interesting perf scaling at the high end. I'm also looking forward to the clock speeds being leaked soon, fun times ahead��
https://mobile.twitter.com/Kepler_L2/status/1558266425915088897

Es kann wie gesagt jeder glauben, was er mag. Aber für mich ist das ob der Urquelle und der Reaktionen vertrauenswürdiger Leute mehr als nur ein einfacher Leak.

Redneck
2022-08-13, 08:41:26
@ Nazar: sehe ich auch so bzw ich habe bis dato keine Killer app für RT gesehen, die mich umstimmt in meiner Meinung

Es ist ja schön und gut, wenn der Einsatz von RT den Entwicklern Arbeit abnimmt ABER was habe ich als Kunde davon?

Wird Spiel A dadurch günstiger - nö

Wird Spiel A dadurch komplexer, weil die eingesparte Zeit anderweitig eingesetzt wird? - eher nicht

Dafür erkaufen wir uns eine miese Performance für 0 ersichtlichen Benefit
(das Pixel peeper wie Alex Bat. darauf abfahren ist aus technischer Sicht ja ok aber für den 08/15 gamer hat es (bis heute) keinen ersichtlichen Mehrwert.
Der Tag wird kommen aber stand heute ist RT lediglich ein Marketing Buzzword für Mich.

Vor langer Zeit stand RT für mich noch für Photorealistische Grafik.
Mittlerweile denke ich das mehr Details viel wichtiger sind als physikalisch korrekt berechnetes Licht.. Sprichwort Nanite.

amdfanuwe
2022-08-13, 09:12:14
Welche Namensgebung würde euch besser gefallen?
Variante 1
N31:
- 7900XT 24GB
- 7800XT 20GB
- 7800 20GB
N32:
- 7700XT 16GB
- 7600XT 12GB
N33:
- 7500XT 8GB
-------------------------
Variante 2
N31:
- 7950XT 24GB
- 7900XT 20GB
- 7900 20GB
N32:
- 7800XT 16GB
- 7700XT 12GB
N33:
- 7600XT 8GB

Dazu ein paar non-XT Salvage Varianten bei Bedarf.
N32 und N33 lassen sich auch in Mobile verarbeiten, da braucht man nicht alle salvage Varianten für Desktop zu bringen.

reaperrr
2022-08-13, 09:16:46
Also da ist es wieder: N33 und N6 passt dennoch nicht zusammen mit 203mm². Das geht einfach nicht auf. 2 MCDs sind >70mm² in N6. Dann bleiben also 130, vielleicht 135mm² für die GPU übrig, das würde nur in N5 passen. Entweder stimmen die 203mm² nicht oder N6 stimmt nicht, ich wette auf letzteres.
Weißt du, wie hoch der Anteil der CUs an den 251mm² von Navi10 war?
Sage und schreibe 81mm², nicht mal ein Drittel der Gesamtfläche.

Unterschätze niemals, wie hoch der Flächenanteil von SI und Cache an der Gesamtfläche einer GPU ist.

135mm² für Frontend, 32 CUs und Backend ist durchaus nicht unrealistisch, wenn die WGPs wirklich prozess-normalisiert geschrumpft werden konnten und N6 auch noch ein bisschen bringt.

HOT
2022-08-13, 09:21:40
Jo, passt nur dann nicht zu den restlichen Chipgrößen. N32 ist nicht mal 2x N33 und dann genau ohne das Gedöns >200mm² uind das Frontend haben sie beide. Das passt halt nur in N5, es sei denn, N33 hätte ganz andere WGPs.

amdfanuwe
2022-08-13, 09:21:58
Zudem spart man sich in der monolithischen Variante das Interface für die Chiplet Anbindung.

HOT
2022-08-13, 09:26:45
Das macht den Bock natürlich wahnsinnig fett :freak:

Linmoum
2022-08-13, 09:27:04
es sei denn, N33 hätte ganz andere WGPs.Wir haben eventuell einen Gewinner. ;) Kepler hatte ähnliches vor ein paar Tagen schon angedeutet, dass N33/Phoenix nicht gleich N31/N32 sind.

HOT
2022-08-13, 09:29:33
So wie WGP Desktop mit RT und WGP Mobil mit fast kein RT?

reaperrr
2022-08-13, 09:46:01
So wie WGP Desktop mit RT und WGP Mobil mit fast kein RT?
Ich weiß nicht, wie wichtig die VRFs für RT sind, aber es geht glaub ich eher um allgemeine IPC.

Zitat von kepler_l2, oben von Linmoum verlinkt:
...with N33/PHX having a Vector Register File of 128KB (same as all RDNA1/2 GPUs) and N31/N32 having a beefier VRF at 192KB.
Die Register brauchen relativ viel von der CU/WGP-Fläche.
Die Steigerung auf 192KB ist wohl N31/32-exklusiv, weil die IPC dadurch im Durchschnitt weniger steigt als die Fläche und evtl. der Verbrauch, weshalb man beim N33 wegen N6 und PHX wegen APU (primär Mobile, weshalb die letzten paar Prozent Verbrauch/Fläche hier problematischer sind als bei großen GPUs) darauf verzichtet hat.

AffenJack
2022-08-13, 09:49:25
Es könnte durchaus wie bei Hawai vs Polaris ablaufen. Da war Hawai beim Launch auch noch deutlich schneller, vor allem in hohen Auflösungen.
4096 Shader mit Taktraten jenseits von 3Ghz können durchaus 5120 bei 2,4Ghz schlagen wenn die Bandbreite nicht limitiert, also in FHD und WQHD. Wenn RDNA3 dazu auch die bessere RT-Implementierung hat wäre das durchaus ein guter Navi21 Ersatz. Ist halt in 2023 keine 4K karte mehr sondern nur noch Midlevel wenn die Messlatte insgesamt um 100% nach oben geschoben wird.

Nicht bei der Größe in 6nm. N22 Geschwindigkeit ist realistisch und auch immernoch top, schließlich ersetzt man dann einen 335mm² Chip durch einen 203mm² Chip im gleichen Prozess. Selbst das ist in Sachen Flächeneffizienz ein riesiger Architektursprung. N21 mit so einem kleinen Chip glaube ich nicht dran.

Ich weiß nicht, wie wichtig die VRFs für RT sind, aber es geht glaub ich eher um allgemeine IPC.

Die Register brauchen relativ viel von der CU/WGP-Fläche.
Die Steigerung auf 192KB ist wohl N31/32-exklusiv, weil die IPC dadurch im Durchschnitt weniger steigt als die Fläche und evtl. der Verbrauch, weshalb man beim N33 wegen N6 und PHX wegen APU (primär Mobile, weshalb die letzten paar Prozent Verbrauch/Fläche hier problematischer sind als bei großen GPUs) darauf verzichtet hat.

Das würde darauf deuten, dass man es ähnlich wie Nvidia mit Ampere macht. Ampere hat nur FP32 verdoppelt in den SM ohne die Register zu vergrößern und anderes zu verdoppeln. Das gleiche könnte AMD bei N33 machen, auch bei Nvidia dürfte der Grund gewesen sein, dass reine FP32 Units nicht viel Fläche fressen. TMUs etc könnte man zumindest bei 6nm nicht verdoppeln. Das würde dann eher zu dem Prozess passen. Wieviel hat Nvidia behauptet durch Verdopplung von FP32 zu gewinnen? Waren das 30%?

Für N32/N31 vergrößert man dagegen die Register und ändert evtl noch mehr um die IPC Verluste wieder etwas auszugleichen.

Edit:
Mal bei CB geguckt, da hat FP32 Verdopplung 3080 vs 2080Ti so grob 20% gebracht bei gleicher Taktrate.

N33 4096 ALUs = N23 2048 ALUs plus 20-25%, dazu 10-15% Taktsteigerung und man ist knapp oberhalb von N22 in FullHD und Gleichstand in WQHD. Da passen dann auch 8GB Ram für die Leistungsklasse und man hat den Die von 236mm² N23 sogar zu 203mm³ verkleinern können.
Desto länger ich drüber nachdenke, desto stimmiger wird das Bild auch in 6nm.

Nur N32/N31 kann man natürlich überhaupt nicht einschätzen, wenn da die CUs verändert sind.

prinz_valium_2
2022-08-13, 10:31:38
Welche Namensgebung würde euch besser gefallen?
Variante 1
N31:
- 7900XT 24GB
- 7800XT 20GB
- 7800 20GB
N32:
- 7700XT 16GB
- 7600XT 12GB
N33:
- 7500XT 8GB
-------------------------
Variante 2
N31:
- 7950XT 24GB
- 7900XT 20GB
- 7900 20GB
N32:
- 7800XT 16GB
- 7700XT 12GB
N33:
- 7600XT 8GB

Dazu ein paar non-XT Salvage Varianten bei Bedarf.
N32 und N33 lassen sich auch in Mobile verarbeiten, da braucht man nicht alle salvage Varianten für Desktop zu bringen.

2
Wobei ich nicht weiß, warum der N32 Salvage eine 7700XT sein muss?
7700 tut es auch, wenn es dort sowieso nur 2 Karten gibt.
7950XT ist auch ein bisschen redundant, aber ich verstehe, dass man schlecht eine 7900XT haben kann und dann nur eine 7950 darüber.


Wenn es 3 Karten beim N31 gibt, würde ich das hier am besten finden:

N31:
- 7950 24GB
- 7900 20GB
- 7800XT 20GB
N32:
- 7800 16GB
- 7700 12GB
N33:
- 7600XT 8GB
- 7600


Das die Sache aber nicht in Stein gemeißelt ist, wie bei Nvidia, zeit das Problem, was Amd mit ihren Namen hat.

basix
2022-08-13, 11:14:30
Mal bei CB geguckt, da hat FP32 Verdopplung 3080 vs 2080Ti so grob 20% gebracht bei gleicher Taktrate.

N33 4096 ALUs = N23 2048 ALUs plus 20-25%, dazu 10-15% Taktsteigerung und man ist knapp oberhalb von N22 in FullHD und Gleichstand in WQHD. Da passen dann auch 8GB Ram für die Leistungsklasse und man hat den Die von 236mm² N23 sogar zu 203mm³ verkleinern können.
Desto länger ich drüber nachdenke, desto stimmiger wird das Bild auch in 6nm.

Ich hätte N33 bei ~6800 eingeschätzt. Bis zur 6800 liegen 1.5...1.6x bei 1080p und 1440p. Bis jetzt hiess es immer >3GHz für N33. Also auch wenn die IPC pro FLOP wie bei Ampere stark degradiert.

Wenn AMD die IPC besser halten kann, wäre man eher bei ~6800XT. Rein von den FLOPS her würde es bei 3.0 GHz auch für eine 6900XT reichen. Bei 32MByte IF$, 128bit wird das aber etwas schwierig, selbst bei 1080p.

Der_Korken
2022-08-13, 11:44:25
Wenn es 3 Karten beim N31 gibt, würde ich das hier am besten finden:

N31:
- 7950 24GB
- 7900 20GB
- 7800XT 20GB
N32:
- 7800 16GB
- 7700 12GB
N33:
- 7600XT 8GB
- 7600

Das ist ja Kraut und Rüben :tongue:

Wenn wir hier über Zahlenästhetik sprechen, würde ich persönlich nie die gleiche Zahl mit zwei Chips verkaufen (7800XT hat N31 und 7800 hat N32), weil das XT für mich einen geringen Unterschied signalisiert aber die Hunderterstelle einen großen.

Mir gefällt von oben Variante 2 besser. 500 ist als Serie zu niedrig für N33, der wohl mindestens die jetzige 6700XT schlagen wird. Zwischen N32 und N33 könnte eine große Lücke klaffen, sodass es Sinn macht einen Salvage mit 12GB aufzulegen und den dann einen Hunderter niedriger zu benennen als den vollen N32.

Cyberfries
2022-08-13, 11:49:57
Welche Namensgebung würde euch besser gefallen?

Warum will eigentlich momentan jeder AMDs Namensgebung neu erfinden?
Oder anders gefragt, warum sollte AMD von seinem aktuellen Schema abweichen?

Die Register brauchen relativ viel von der CU/WGP-Fläche.

Wenn das hier (https://cdn.nemez.net/die/Navi/rdna2/N22_annotated_text.jpg) halbwegs akkurat ist, sind Stream Processor und Vector Register weniger als 40% einer WGP.
Sagen wir 20% einer WGP für VRFs, ver-1,5-facht wird die WGP um 10% größer.

Zwischen N31 und N32 liegen laut Angstromonics 18 WGP und 108mm², Common Core etc. wären dann 20mm².
N33 CC+ 20mm² + 16 abgespeckte WGP 87mm² + 2 MCD 75mm² => 182mm².
Damit lägen zwischen N5+N6 und N6-monolith nur rund 10%. N5 muss grottig sein, waren nicht mal 84% versprochen?

AffenJack
2022-08-13, 11:52:14
Ich hätte N33 bei ~6800 eingeschätzt. Bis zur 6800 liegen 1.5...1.6x bei 1080p und 1440p. Bis jetzt hiess es immer >3GHz für N33. Also auch wenn die IPC pro FLOP wie bei Ampere stark degradiert.

Wenn AMD die IPC besser halten kann, wäre man eher bei ~6800XT. Rein von den FLOPS her würde es bei 3.0 GHz auch für eine 6900XT reichen. Bei 32MByte IF$, 128bit wird das aber etwas schwierig, selbst bei 1080p.

Nicht in 6nm. Außerdem hat das Ding so wenig IF Cache und veil zu wenig Bandbreite. Ich hab vorher höchstens an 6800 Niveau geglaubt und bei der kleinen Größe in 6nm kann ich mir das auf keinen Fall vorstellen, außer sie treiben die Karte auf über 200W mit komplett irrsinnigen Takt.

Thunderburne
2022-08-13, 11:59:51
https://wccftech.com/roundup/amd-radeon-rx-7900-xt/

1000$ ?

Linmoum
2022-08-13, 12:05:43
Ich sehe da kein Problem, dass man mit 320GB/s und 32Mbyte IF$ auch eine 6800 erreicht. Wenn AMD mit RDNA3 noch einmal einen ähnlichen Taktsprung hinlegt - dass der Takt erneut steigen wird, wissen wir offiziell ja schon - wie mit RDNA zu RDNA2, dann könnten wir hier auch durchaus ~3GHz game clock sehen. Tendenziell womöglich sogar mehr, die 6500XT taktet ja schon standardmäßig mit ~2.9GHz.

Die 6800 taktet gerade mal mit rund 2.2GHz real, das wäre alleine schon ein Taktsprung von >=35%. Ich sehe da - zumindest in der Theorie - kein Problem, warum man mit einem ~200mm² Chip nicht auch eine solche Performance erreichen können sollte.

Natürlich nicht in UHD und womöglich auch nicht in WQHD, aber in FHD halte ich das für durchaus realistisch.

https://wccftech.com/roundup/amd-radeon-rx-7900-xt/
Geht's da um das, worüber wir schon seitenlang diskutieren? Oder was neues? Wäre schön, wenn du auch mal ggf. etwas dazu schreiben oder zitieren könntest, statt immer nur Links ohne weitere Infos zu droppen. ;)

Meridian12
2022-08-13, 12:06:47
Bin mal gespannt was bei der Karte wirklich am Ende rauskommt.

Zumal je nach Leistung AMD NVIDIA gehörig eventuelle Mondpreise austreiben könnte.

Manche denken ja bei der 4090 an 2000 Euro und mehr.

Das kann NVIDIA natürlich alles vergessen, wenn die Navi 31 gleich schnell wäre. DLSS und Raytracing dürften als Vorteile ja quasi wegfallen. Dann wäre der doppelte Preis wirklich nur noch von NVIDIA Fanatikern zu rechtfertigen.

Natprlich ausgehend davon, dass AMD nicht die 7900 dann bei zB 1599 Euro UVP anbietet.

Wenn AMD NVIDIA Marktanteile wegnehmen will, müssen sie halt auch das deutlich bessere P/L anbieten.Oder deutlich schneller sein, was ich aber nicht glaube, dass Navi 31 die 4900 wegbügelt :D

BlacKi
2022-08-13, 13:17:05
also 1800€ wären wohl immernoch grob 1500$, also der preis der 3090. die zeiten wo man das 1zu1 nehmen konnte sind vorbei. es wird auch bei amd nicht bei 999€ bleiben. ich glaub das n31 deutlich teurer wird als n21 und da nv zuerst rauskommt, wird sich amd an nv orientieren. war bei den topdogs fast immer so. da die 4090 schon hart beschnitten ist, könnte ich mir einen msrp preis von 1499$ vorstellen. und amd dann knapp darunter.

ich rechne schon so mit 1099-1199$ für das topdmodell, vl mehr, denn man bietet viel mehr hardware an als last gen. mehr silizium und mehr speicher.

amdfanuwe
2022-08-13, 13:33:02
2
Wobei ich nicht weiß, warum der N32 Salvage eine 7700XT sein muss?

Für jede 100er Stelle eine eigene Speicherbestückung.

Oder anders gefragt, warum sollte AMD von seinem aktuellen Schema abweichen?

Erklär mal das Schema:
N21:
6900XT 16GB
6800XT 16GB
6800 16GB
N22:
6700XT 12GB
6700 10GB
N23:
6600XT 8GB
6600 8GB
N24:
6500XT 4GB
6400 4GB

Demnach gäbe es dann
Variante 3
N31:
7900XT 24GB
7800XT 24GB
7800 20/24GB?
N32:
7700XT 16GB
7700 12GB
N33:
7600XT 8GB
7600 8GB
N24 läuft weiter.

was ich aber nicht glaube, dass Navi 31 die 4900 wegbügelt :D
Von der alleine kann Nvidia nicht überleben.
Wenn AMD die Preise entsprechend ansetzt, können sie Nvidia schon ordentlich die Gewinnmarge versauen.

Linmoum
2022-08-13, 13:41:04
Wenn die Größen für die GCDs stimmen und N33 tatsächlich ein ~200mm2 N6 ist, dann wird man Nvidia noch viel mehr ärgern als nur mit Margen.

Wenn sich die Lieferketten normalisieren und AMD nicht mehr supply constrained ist - Su hatte ja angedeutet, dass sich das noch im Laufe des Jahres bessern würde - dann kann man den Markt gerade mit so einem N33-Winzling fast schon fluten. Wenn man will, natürlich. Gut, N24 ist noch mal nur halb so groß, aber das Ding war ja von Anfang an trotzdem extrem gut und in Massen verfügbar.

Iscaran
2022-08-13, 13:50:31
Schau ich grad nochmal detailierter auf die Angstronomics Daten von zuvor (https://www.angstronomics.com/p/amds-rdna-3-graphics):

Navi 31

gfx1100 (Plum Bonito)
Chiplet - 1x GCD + 6x MCD (0-hi or 1-hi)
48 WGP (96 legacy CUs, 12288 ALUs)
6 Shader Engines / 12 Shader Arrays
Infinity Cache 96MB (0-hi), 192MB (1-hi)
384-bit GDDR6
GCD on TSMC N5, ~308 mm²
MCD on TSMC N6, ~37.5 mm²

Navi32

gfx1101 (Wheat Nas)
Chiplet - 1x GCD + 4x MCD (0-hi)
30 WGP (60 legacy CUs, 7680 ALUs)
3 Shader Engines / 6 Shader Arrays
Infinity Cache 64MB (0-hi)
256-bit GDDR6
GCD on TSMC N5, ~200 mm²
MCD on TSMC N6, ~37.5 mm²

Navi33

gfx1102 (Hotpink Bonefish)
Monolithic
16 WGP (32 legacy CUs, 4096 ALUs)
2 Shader Engines / 4 Shader Arrays
Infinity Cache 32MB
128-bit GDDR6
TSMC N6, ~203 mm²

Warum sollte AMD unterschiedliche Ansätze zu WGP/SE fahren?
N21 bestand aus 40 WGPs in 4 Arrays also 4x10. (Bild (https://pbs.twimg.com/media/E20kL6AXEAQ2y0K?format=jpg&name=large))
N22 bestand aus 20 WGPs in 2 Arrays also 2x10. (Bild (https://pbs.twimg.com/media/E20kMmIWEAAn3CN?format=jpg&name=large))

Von N21 gab es insgesamt 3 Stufen, 2 Salvage (30 bzw. 36 WGP) und den Vollausbau (40 WGP) mit entsprechend deaktivierten Einheiten. Designtechnisch war N22 im Grunde genommen auch "einfach" ein halber N21.

N23 und N24 wiederum ähnlich. N24 = 1/2 N23
N23 waren 16 WGPs in 2 Arrays also 2x8 (Bild (https://pbs.twimg.com/media/E20kNTuX0AMwsKg?format=jpg&name=large))
N24 waren nur noch 8 WGPs und lagen in 2 Arrays mit 2x4 vor (Launch-Analyse (https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6500-xt))

So oder so erscheint es mir komplett abwegig warum AMD für RDNA3 also 2x "identische" Designrules (N31 und N33) bringt aber N32 davon grund-schematisch abweichen sollte um ausgerechnet so was "marginales" wie 2 WGP.

Angstronomics leak sagt:

N31 = 48 WGP in 6x8 Config
N32 = 30 WGP in 3x10 Config ?
N33 = 16 WGP in 2x8 Config

WARUM sollte AMD hier den Designaufwand betreiben und eine völlig andere "Kernlogik" mit 3x10 aufstellen...

N32 wird 32 WGP mit 4x8 Config sein
Ebenso die "geschichten" mit 0-hi und 1-hi. Das dient alles nur der Verschleierung, damit er seine Quellen schützen kann.

Ich leg mich fest (EDIT: und basierend auf der MCD-Die Size die ich als glaubwürdig einschätze, weil es auch gut zu den OgrEGT Schätzungen passt 32 MB cache pro MCD /EDIT):
N31 6x8 WGP mit 192 MB Cache (6 MCD zu je 32 MB) und 384 Bit SI (6 MCD zu je 64 bit)
=> 24 GB RAM erlaubt
GCD ~308mm^2 (wie Angstromics schreibt)

N32 4x8 WGP mit 128 MB Cache (4 MCD zu je 32 MB) und 256 Bit Si (4 MCD zu je 64bit)
=> 16 GB RAM
GCD wäre dann 308/48*32 = 205 mm^2 (Angstronomics gibt ja ~200 mm^2)

N33 2x8 WGP mit 64 MB Cache (2 MCD zu je 32 MB) und 128 Bit Si (2 MCD zu je 64bit)
=> 8 GB RAM

GCD in 5N wäre 103 mm^2 + 2 MCD in 6N = 178 mm^2.

Warum hier ein "Monolith" mit >203 mm^2 nur in N6 "besser" und billiger sein soll erschliesst sich mir nicht.

Selbst wenn N33 in N6 wäre und monolith, am Platzbedarf der "MCD"s ändert sich nicht viel (man spart etwas an Bridge Conncetion area ein, aber sonst eher nichts) => 75 mm^2 wären das SI+IF$ bei N33 in N6 so oder so, blieben also für den GCD-Teil 128 mm^2 über.

Bei RDNA2 N24 passten 8 WGP mit 64 bit SI in 107 mm^2 in N6

Ein Doppelter RDNA2 N24 wären dann also ~214 mm^2 - das könnte somit schon passen, aber auch da wiederum VERMUTE ich Angstronomics hat zum N33 KEINE Die-Size Info, hat aber die Info dass es 16 WGP sind und "dichtet" nun mit den bislang existierenden Gerüchten von wegen "Monolith" und N6 die Größe von ~203 mm^2 hin (weil das einfach 2xN24 ist)

IMHO dürfte das vor allem Zeigen dass die Info zu N33 sehr unsicher ist, N31 und N32 zeichen sich hingegen schon sehr deutlich ab.

IMHO ist N33 aber auch nur deswegen so "unklar" weil die Leute an ihrem "Monolithisch" festhängen und KEINER bislang infos zu N31/N32 & N33 aus EINER HAND hat => Unterschiedliche Designteams?

amdfanuwe
2022-08-13, 13:53:15
dann kann man den Markt gerade mit so einem N33-Winzling fast schon fluten. Wenn man will, natürlich.
Wichtig wäre es für AMD im Mobile Markt Fuss zu fassen.
Da wird noch wie selbstverständlich Nvidia verbaut und da verdienen sie auch ordentlich.

mboeller
2022-08-13, 13:57:45
Zwischenfrage bzgl. IF$

Kann es sein, dass die kleinen Infinity Cache-Größen dadurch möglich werden weil AMD jetzt alles durchgehend komprimiert speichert?

prinz_valium_2
2022-08-13, 15:23:16
Wenn wir hier über Zahlenästhetik sprechen, würde ich persönlich nie die gleiche Zahl mit zwei Chips verkaufen (7800XT hat N31 und 7800 hat N32), weil das XT für mich einen geringen Unterschied signalisiert aber die Hunderterstelle einen großen.

.

Das ist das Problem mit AMD, wenn die so viele GPUs aus einem die machen.
Ich denke die Zahlen sollten sich an der Leistung orientieren. Den die, der dahinter steckt, kennen eh nur die wenigstens.

Der Leistungsunterschied zwischen Doppel Salvage N31 und Vollausbau N32 dürfte nicht so groß ausfallen.
Wenn aus dem N32 mit einmal 16GB und einmal 12GB zwei Karten gemacht werden, dann muss da schon eine 100 zwischen liegen.


Wie gesagt, bei AMD ist es leider nicht eindeutig. Bei nVidia stellt sich die Diskussion gar nicht erst.

Cyberfries
2022-08-13, 16:02:07
Wie gesagt, bei AMD ist es leider nicht eindeutig. Bei nVidia stellt sich die Diskussion gar nicht erst.

nVidia machts nicht besser, siehe 3060ti vs. 3060. Die Ti liegt wesentlich näher an der 3070 als an der 3060.
Bei AMD sind meist auch die Abstände zwischen Voll- und Teilausbau geringer. Problem ist einfach, dass es zu wenige Zahlen gibt.

Für jede 100er Stelle eine eigene Speicherbestückung.

Obwohl die Speicherbestückung meist zu den 100ern passt, bedeutet nicht dass sie der Grund für diese Benennung ist.

Erklär mal das Schema:

Tausenderstelle: Generation
Hunderterstelle: Zugrundeliegender Chip
Zehnerstelle: Kennzeichnung eines Refresh
Einerstelle: Ungenutzt
Suffix: Zusätzliche Abgrenzung von Varianten

Üblicherweise eine Hunderterstelle je Chip, außer bei sehr starker Abspeckung (6500/6400) oder vielen Varianten (5700/5600).
XT kennzeichnet nicht unbedingt den Vollausbau, sondern weist auf Mehrverbrauch hin. (6900xt/6800xt 300w - 6800 250w)

Navi33
TSMC N6, ~203 mm²


Nach etwas Werte jonglieren: Mit einem Zahlendreher wäre das wesentlich glaubhafter.
230 mm² passen besser zur verbauten Hardware und ließen sich auch weiterhin in N23-PCBs einsetzen.
(16 wgp in N5: 87mm² + 20mm² Rest * 1,8 für N7 / 1,2 für N6 + 75mm² mcds => 236mm² vs. N23 237mm²)

nordic_pegasus
2022-08-13, 16:29:00
MLID scheint ja die Leaks von Angstronomics sehr plausibel einzustufen. Was mich positiv überraschen würde, wenn dieser Passus wirklich stimmen würde zu Navi31:


The reference card appears to have an updated 3-fan design that is slightly taller than the previous generation, with a distinctive 3 red stripe accent on a section of the heatsink fins near the dual 8-pin connectors.


Wirklich nur 2 klassische 8pin Stromanschlüsse genau wie Navi21 Referenz begrenzt ja die maximale TDP auf 366 Watt (also 2x 150 Watt plus 66 Watt aus dem PCIe Slot, laut Igor sind ja hier keine 75 Watt möglich, weil maximal 5,5 A laut Specs). Ich würde mich freuen, wenn man nicht zwangsläufig ein neues Netzteil mit PCIe Gen5 Stromstecker benötigen würde bzw. eine Kabelpeitsche.

prinz_valium_2
2022-08-13, 16:32:53
nVidia machts nicht besser, siehe 3060ti vs. 3060. Die Ti liegt wesentlich näher an der 3070 als an der 3060.
Bei AMD sind meist auch die Abstände zwischen Voll- und Teilausbau geringer. Problem ist einfach, dass es zu wenige Zahlen gibt.


Aber trotzdem stellt sich die Frage der Namensgebung nicht.
Das Portfolio ist vorhersehbar und konsistent was das Namensschema angeht.

Mehr will ich gar nicht.
AMD bekommt es bei den CPUs ja auch perfekt hin und macht es sogar deutlich als die Konkurrenz Intel.


Ich sehe auch kein Problem darin, dass eine TI näher an der oberen Karte ist als an der Unteren. Im Gegenteil. Ich finde so soll genau so sein.
Und dann würde auch wieder die 7800XT als N31 dopple salvage passen.
Am besten wäre natürlich nur 2 Karten mit dem N31. Aber das ist wohl leider nicht zu erwarten.

amdfanuwe
2022-08-13, 16:48:23
Hunderterstelle: Zugrundeliegender Chip

Üblicherweise eine Hunderterstelle je Chip, außer bei sehr starker Abspeckung (6500/6400) oder vielen Varianten (5700/5600).
XT kennzeichnet nicht unbedingt den Vollausbau, sondern weist auf Mehrverbrauch hin. (6900xt/6800xt 300w - 6800 250w)

5500/5300 noch vergessen.
Wegen der vielen Ausnahmen hab ich eben Probleme mit:
Hunderterstelle: Zugrundeliegender Chip

Vielleicht eher Hunderterstelle für Leistungssegment:
x900, x800 -> 4k, Enthusiast/Prosumer
x700 -> WQHD, High Performance
x600 -> Full HD, Mainstream
<x600 -> Entry


XT deutet eher auf mehr Leistung, entsprechend teurer und höheren Verbrauch, aber nicht unbedingt weniger effizient als die non-XT- Varianten.

Mal sehen, was AMD aufstellt. Mit Chiplet und 3D IF$ haben sie jede Menge Möglichkeiten. Die könnten alle 10% Leistungszuwachs eine Karte positionieren.

Aber egal, ich hoffe für mich ist eine 12GB Karte zu einem akzeptablem Preis dabei.

Gipsel
2022-08-13, 17:45:42
Nach etwas Werte jonglieren: Mit einem Zahlendreher wäre das wesentlich glaubhafter.
230 mm² passen besser zur verbauten Hardware und ließen sich auch weiterhin in N23-PCBs einsetzen.
(16 wgp in N5: 87mm² + 20mm² Rest * 1,8 für N7 / 1,2 für N6 + 75mm² mcds => 236mm² vs. N23 237mm²)
GPU-Dies werden schon lange nicht mehr direkt auf das PCB der Grafikkarte gelötet. Da ist quasi immer noch ein organischer Träger (wie bei CPUs) dazwischen, der das Pinout locker wieder hinbiegen kann.
Der Skalierungsfaktor 1,8 für Logik zwischen N5 und N7 ist nicht allgemeingültig. Das gilt nur für bestimmte Bibliotheken und Rahmenbedingungen und zudem sowieso nur für Logik (in der Realität kommt wohl häufig nur Faktor 1,5-1,6 rum, wenn man gleichzeitig auch die Performance steigern will). Zudem enthalten GPUs recht viel SRAM, welcher deutlich schlechter skaliert (Faktor 1,3). Weiterhin spart man beim monolithischen Chip die Interfaces zwischen GCD und MCD (je nachdem wie man das macht, können das auch etliche mm² werden, bei direktem Die-zu-Die-Stacking spart man Fläche [und Leistungsaufnahme]). Kurz: Die Überschlagsrechnung ist ziemlich wacklig.

========================

Mal ganz allgemein:
Wo ist in den letzten Gerüchten eigentlich der IO-Die geblieben? Ich meine, das PCIe-Interface und die ganzen Display-Ausgänge sind flächenmäßig ja auch nicht ganz umsonst und auf einem N5-Die schon eine gewisse Belastung (da das quasi nicht/kaum schrumpft). Soll das jetzt mit im GCD sitzen und wir bekommen (neben jeweils 4 Display-Ausgängen) z.B. 16 PCIe-Lanes bei N31 und 8 Lanes bei N32 und N33 oder was?

Linmoum
2022-08-13, 17:54:34
Gab es überhaupt mal wirklich ernsthafte und auch länger anhaltende Gerüchte zu einem separaten IO-Die? Ich glaube, das hatte Greymon irgendwann mal eingestreut und kurz darauf kam dann schon der Schwenk rüber auf die 1+6 Config, die sich ja bis heute und auch bei Angstronomics weiter hält.

Bondrewd zu N33:
They're 200% correct.
N33 is almost RV770 reborn.
Almost.
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-74#post-2259914

AffenJack
2022-08-13, 22:15:03
Ich sehe da kein Problem, dass man mit 320GB/s und 32Mbyte IF$ auch eine 6800 erreicht. Wenn AMD mit RDNA3 noch einmal einen ähnlichen Taktsprung hinlegt - dass der Takt erneut steigen wird, wissen wir offiziell ja schon - wie mit RDNA zu RDNA2, dann könnten wir hier auch durchaus ~3GHz game clock sehen. Tendenziell womöglich sogar mehr, die 6500XT taktet ja schon standardmäßig mit ~2.9GHz.

Die 6800 taktet gerade mal mit rund 2.2GHz real, das wäre alleine schon ein Taktsprung von >=35%. Ich sehe da - zumindest in der Theorie - kein Problem, warum man mit einem ~200mm² Chip nicht auch eine solche Performance erreichen können sollte.

Natürlich nicht in UHD und womöglich auch nicht in WQHD, aber in FHD halte ich das für durchaus realistisch.


40% weniger Bandbreite ohne den kleineren IF mitzurechnen sind schon massiv gegenüber der 6800. Aber das ist ja nicht alles, du hast auch 25% weniger Texelfüllrate bei 3ghz, denn die TMUs werden bei so einem kleinen Chip definitiv bei 128 Stück bleiben. Und selbst die Pixelfüllrate wird kleiner sein als bei einer 6800.

Ebenso von der anderen Seite, also N23 betrachtet, haben wir nur +25% Bandbreite, +20% Texelfüllrate und +20% Pixelfüllrate bei 3ghz. Einzig die FP32 Steigerung wird massiv gegenüber N23. Daraus sollen dann +50-60%% werden? Glaube ich nicht wirklich dran. Es wird Games wie Doom geben, die komplett Shaderlimitiert sind und wo N33 einen N21 im Regen stehen lässt. Aber der Durchschnitt dürfte darunter landen denke ich. Aber vll überraschen sie mich ja, kann es mir nur schwer vorstellen. Am Ende sind es auch nur 10% Unterschied zwischen ner 6800 und meiner Erwartung.


Edit:
Nimmt man mal die erwarteten Performancewerte von N31 (2,1-2,2x 6900) und nimmt an, dass N31 wegen 5nm die gleichen Taktraten schafft wie N33 in 6nm, daher 3x Gflops, Bandbreite etc.. Dann sollte so Faktor 2,8 in der Geschwindigkeit rauskommen mit ähnlicher Skalierung wie RDNA2 (Ist mir eben erst aufgefallen, dass N21 echt hervorragend mit den Rohdaten skaliert gegen N23). Damit landen wir bei N33 auch wieder knapp unter der 6800 in WQHD.

Wir brauchen dann aber auch keine veränderten Shader in N32/N31, sonst passen die Performanceangaben der verschiedenen Chips nicht. Außer man schafft in 5nm nicht die Taktraten des 6nm Chips, aber mit gerade mal 300mm² im besseren Prozess würde ich das schon erwarten. Daher zweifle ich jetzt doch eher an Keplers Aussagen. Bisher gab es sowas bei AMD auch noch nie in der Form, allerdings gabs sonst ja auch nie so eine Trennung MCM/Singledie.

basix
2022-08-14, 19:26:48
Zwischenfrage bzgl. IF$

Kann es sein, dass die kleinen Infinity Cache-Größen dadurch möglich werden weil AMD jetzt alles durchgehend komprimiert speichert?
Kann sein, ja. Aber vieles war schon vorhin komprimiert. Schwierig zu sagen, was das jetzt ausmacht.

Mal ganz allgemein:
Wo ist in den letzten Gerüchten eigentlich der IO-Die geblieben? Ich meine, das PCIe-Interface und die ganzen Display-Ausgänge sind flächenmäßig ja auch nicht ganz umsonst und auf einem N5-Die schon eine gewisse Belastung (da das quasi nicht/kaum schrumpft). Soll das jetzt mit im GCD sitzen und wir bekommen (neben jeweils 4 Display-Ausgängen) z.B. 16 PCIe-Lanes bei N31 und 8 Lanes bei N32 und N33 oder was?
Ich würde ein separates IOD ja begrüssen. Sind doch ~40mm2 in N7, was so auf einem N21 drauf ist. Mit neu DP2.0 und AV1 En-/Decoding wohl noch mehr.

VCN usw. wird vermutlich allerdings gut mit N5 skalieren und man hätte die IP für Phoenix vorbereitet. Ich tippe auf ~30mm2 in N5, wo sich das Auslagern dann evtl. noch nicht lohnt.

40% weniger Bandbreite ohne den kleineren IF mitzurechnen sind schon massiv gegenüber der 6800. Aber das ist ja nicht alles, du hast auch 25% weniger Texelfüllrate bei 3ghz, denn die TMUs werden bei so einem kleinen Chip definitiv bei 128 Stück bleiben. Und selbst die Pixelfüllrate wird kleiner sein als bei einer 6800.

Ebenso von der anderen Seite, also N23 betrachtet, haben wir nur +25% Bandbreite, +20% Texelfüllrate und +20% Pixelfüllrate bei 3ghz. Einzig die FP32 Steigerung wird massiv gegenüber N23. Daraus sollen dann +50-60%% werden? Glaube ich nicht wirklich dran. Es wird Games wie Doom geben, die komplett Shaderlimitiert sind und wo N33 einen N21 im Regen stehen lässt. Aber der Durchschnitt dürfte darunter landen denke ich. Aber vll überraschen sie mich ja, kann es mir nur schwer vorstellen. Am Ende sind es auch nur 10% Unterschied zwischen ner 6800 und meiner Erwartung
Wie du im zweiten Teil schreibst, nimmt man lieber N23 als Referenz als N21 ;)

Bei der Bandbreite könnte es auch +50% sein, gibt 24Gbps GDDR6. Und dazu AMDs Verbesserungen am IF$ und wie mboeller geschrieben allenfalls verbesserte Kompression der Daten. Schwierig abzuschätzen, wo wir dann landen werden.

iamthebear
2022-08-14, 19:34:27
Wenn man Navi23 auf 6nm shrinked ist dieser immer noch etwas größer als N33.
Die 6800 ohne die deaktivierten Shader und geshrinked auf 6nm würde etwa 400mm² gros sein.

Wann hat das letzte Mal ein Hersteller 2x Performance/Fläche bei selber Fertigung raus geholt?

Meine Prognose für N33 ist zwischen N23 und N22.

Linmoum
2022-08-14, 19:45:39
4096 ALUs vs. 2560 ALUs
320GB/s zzgl. 32Mbyte IF$ vs. 384GB/s zzgl. 96Mbyte IF$ (ausgehend von 20Gbps für N33)
~3GHz (N33) vs. ~2.5GHz (N23)

Bandbreite wäre für FHD mehr als ausreichend vorhanden, selbst wenn es am Ende sogar nur 18Gbps GDDR6 wird. Mit diesen Specs liegt ein N33 niemals hinter einer 6700XT. Never. Auch nicht hinter einer 6750XT.

basix
2022-08-14, 20:06:25
Meine Prognose für N33 ist zwischen N23 und N22.

Die 6700XT ist ~1.33x schneller wie eine 6600XT. Mit doppelten VALUs und den kolportierten >3.0GHz Takt soll man nun nichtmal an eine 6700XT rankommen?

Wenn man Navi23 auf 6nm shrinked ist dieser immer noch etwas größer als N33.
Die 6800 ohne die deaktivierten Shader und geshrinked auf 6nm würde etwa 400mm² gros sein.

Wann hat das letzte Mal ein Hersteller 2x Performance/Fläche bei selber Fertigung raus geholt?
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-75#post-2259972

iamthebear
2022-08-15, 01:37:23
Wenn es so einfach wäre die GPU so stark abzuspecken und gleichzeitig die Shaderleistung zu verdoppeln dann hätte AMDs das wohl schon viel früher gemacht. Das ist immer ein Trade off und es wird die IPC vermutlich massiv abfallen nicht nur wenigen dem Speicherinterface sondern weil alles im Hintergrund nicht mitskaliert.

Der gute Mann im Beyond3D Forum hat ein paar Erinnerungslücken. Wenn ich nach dem computerbase Rating gehe:

R520 (Radeon X1800 XT) ⇾ R580 (Radeon X1950 XTX) was 3.25× with just 22 % more die space (including other improvements, e.g. beefier ROPs) on the same node and using the same architecture.

Das waren keine 3.25x sondern lediglich 28% mehr Performance für 20% mehr Transistoren.

R520 (Radeon X1800 XT) ⇾ RV570 (Radeon X1950 PRO) was 2.16× with 20 % less die space on a half-node step (inferior 80nm process which resulted in reduced clock speed). With a clock increase comparable to Navi 21 ⇾ Navi 33, it would be 3.38× higher arithmetic performance at 20 % smaller area - much bigger step than Navi 21 ⇾ Navi 33 (achieved even on the same architecture).

Die X1950 Pro war 14% langsamer

RV670 (Radeon HD 3870) ⇾ RV770 (Radeon HD 4870) was 2.41× with 33 % more die space (including much improved ROPs) on the same node, done within 7 months.

4870 waren 85% more fps bei 44% mehr Transistoren. Nicht schlecht, lag zum Großteil aber an GDDR5.
Die HD4670 war z.B. 10% langsamer als die 3870 bei 23% weniger Transistoren.
Also gesamt gesehen: Gute Architektur aber eben auch kein 2x Wunder.

Und den Takt von Navi33: Der kommt auch nicht von selbst. Das ist auch immer ein Tradeoff.

w0mbat
2022-08-15, 02:08:51
Nur redet er eben nicht von der Spiele Leistung, sondern von "compute throuput" (was auch immer das sein mag).

HOT
2022-08-15, 07:58:13
iamthebear
AFAIK gilt das nur für Tests, die gemacht wurden, als der Kram noch aktuell war. Je neuer die DX9 Sachen wurden, desto mehr setzte sich die X1900 ab.

Gipsel
2022-08-15, 10:06:50
iamthebear
AFAIK gilt das nur für Tests, die gemacht wurden, als der Kram doch aktuell war. Je neuer die DX9 Sachen wurden, desto mehr setzte sich die X1900 ab.Ja. Die frühen GPUs hatten aus heutiger Sicht extreme ALU:TEX Verhältnisse, oft 1:1 (pro ALU gab es eine TMU, heute ist man typischerweise bei mindestens 16:1 mit Tendenz zu 32:1 [Ampere, RDNA3?], auch wenn das eine grobe Vereinfachung und nicht ganz fair ist [es waren damals meist kleine Vektor-ALUs]). Mit R580 hat man die ALUs (bei Beibehaltung der TMU-Zahl) verdreifacht, also das ALU:TEX-Verhältnis von 1:1 auf 3:1 angehoben. Damit war man deutlich besser auf modernere Workloads angepaßt. Und dies zeigt sich dort auch recht deutlich.

Der_Korken
2022-08-15, 12:38:29
Nur redet er eben nicht von der Spiele Leistung, sondern von "compute throuput" (was auch immer das sein mag).

Wenn man sich die theoretischen Flops/s anguckt, dann kann N33 da natürlich stark sein, aber die werden ohne entsprechende Skalierung der anderen Chipteile nicht auf die Straße gebracht werden können. Ich finde die Skepsis, dass ein 200mm²-Chip plötzlich mit einem doppelt so großen Chip konkurrieren können soll (bei gleichem oder weniger Verbrauch) völlig berechtigt.

iamthebear
AFAIK gilt das nur für Tests, die gemacht wurden, als der Kram noch aktuell war. Je neuer die DX9 Sachen wurden, desto mehr setzte sich die X1900 ab.

Dann würde man analog zu heute aber nur dann eine große Leistungssteigerung von RDNA3 erwarten, wenn man sich Workloads der Zukunft anschaut, die sich hinreichend stark von heutigen Workloads unterscheiden müssen. Oder anders gesagt: Auf heutigen Engines schlägt die Verdopplung der SPs dann kaum durch.

Ich finde R580 war ein Sonderfall, weil R520 nicht gut ausbalanciert war. Der hatte doppelt so viele Transistoren wie R480, aber trotzdem die gleiche Anzahl TMUs und Shader (16) und auch nicht viel mehr Takt. Erst R580 hat die Architektur in die Breite gezogen und wirklich die Rohleistung erhöht. Beim RV770 gab es einen ähnlichen Effekt, weil der vorige R600 sehr überladen wirkte - wieder knapp doppelt so viele Transistoren wie R580, aber wieder nur 16 TMUs, immerhin 64 statt 48 Shader, dafür ein völlig überdimensioniertes 512bit SI. Jetzt habe ich bei RDNA1 und 2 nicht den Eindruck, dass dort übermäßig viel Fläche für das drumrum draufgeht und viel zu wenig für die Recheneinheiten. Klar ist man deutlich hinter Ampere, aber ich finde es ehrlich gesagt besser wenn eine GPU shaderlimitiert ist und dafür ihre Leistung konsistent auf die Straße bekommt, als einen oversized shader block wie bei Fiji zu haben, der in wenigen Anwendungen alles zerlegt aber sonst immer sehr schwankende Performance bietet.

Edit: Was die Performance-Einschätzungen angeht, würde ich bei RDNA3 lieber mit den WGPs rechnen als mit den reinen SPs. N21 hatte 40 WGPs mit 2,3Ghz. N31 soll 48WGPs mit 3,2Ghz (?). Das wären +20% für die WGPs und +40% für den Takt, also +68% Leistung, abzüglich Skalierungseffekte vielleicht +60%. Das wäre so die Baseline, die man auf jeden Fall erwarten kann. Die Unbekannte ist, wieviel reale Leistung man aus den verdoppelten Vektoreinheiten bekommt. Wenn man +25% für realistisch hält, ergäbe das eine Leistungsverdopplung. Eventuell erwartet AMD, dass mit zukünftigen Engines und insbesondere mit RT genug Instruktionen anfallen, die sich vektorisieren lassen. Die Antwort könnte also sein, dass die Vektor-Verdopplung heute nur 10-15% bringt, in ein oder zwei Jahren aber mit 50% durchschlägt und sich das flächentechnisch stark lohnt. Wie aber beim R580 wäre das eine Wette in die Zukunft und setzt voraus, dass heutige GPUs für zukünftige Engines stark unbalanciert sind.

bbott
2022-08-15, 16:27:44
Wenn es so einfach wäre die GPU so stark abzuspecken und gleichzeitig die Shaderleistung zu verdoppeln dann hätte AMDs das wohl schon viel früher gemacht. Das ist immer ein Trade off und es wird die IPC vermutlich massiv abfallen nicht nur wenigen dem Speicherinterface sondern weil alles im Hintergrund nicht mitskaliert.

Der gute Mann im Beyond3D Forum hat ein paar Erinnerungslücken. Wenn ich nach dem computerbase Rating gehe:



Das waren keine 3.25x sondern lediglich 28% mehr Performance für 20% mehr Transistoren.



Die X1950 Pro war 14% langsamer



4870 waren 85% more fps bei 44% mehr Transistoren. Nicht schlecht, lag zum Großteil aber an GDDR5.
Die HD4670 war z.B. 10% langsamer als die 3870 bei 23% weniger Transistoren.
Also gesamt gesehen: Gute Architektur aber eben auch kein 2x Wunder.

Und den Takt von Navi33: Der kommt auch nicht von selbst. Das ist auch immer ein Tradeoff.
Was bring dir die das mehr an Bandbreite, wenn die Rechenleistung nicht gestiegen wäre?! Anders rum wird ein Schuh draus, wegen der mehr Performance wurde mehr Bandbreite notwendig.

OgrEGT
2022-08-15, 16:46:41
Edit: Was die Performance-Einschätzungen angeht, würde ich bei RDNA3 lieber mit den WGPs rechnen als mit den reinen SPs. N21 hatte 40 WGPs mit 2,3Ghz. N31 soll 48WGPs mit 3,2Ghz (?). Das wären +20% für die WGPs und +40% für den Takt, also +68% Leistung, abzüglich Skalierungseffekte vielleicht +60%. Das wäre so die Baseline, die man auf jeden Fall erwarten kann. Die Unbekannte ist, wieviel reale Leistung man aus den verdoppelten Vektoreinheiten bekommt. Wenn man +25% für realistisch hält, ergäbe das eine Leistungsverdopplung. Eventuell erwartet AMD, dass mit zukünftigen Engines und insbesondere mit RT genug Instruktionen anfallen, die sich vektorisieren lassen. Die Antwort könnte also sein, dass die Vektor-Verdopplung heute nur 10-15% bringt, in ein oder zwei Jahren aber mit 50% durchschlägt und sich das flächentechnisch stark lohnt. Wie aber beim R580 wäre das eine Wette in die Zukunft und setzt voraus, dass heutige GPUs für zukünftige Engines stark unbalanciert sind.

Warum? Das würde bedeuten, dass alle archiketonischen Veränderungen außen vor blieben und man von 48 "N21" WGPs ausgehen würde, die einfach höher getaktet werden. Zudem hat eine N31 WGP doppelt so viele SPs als eine N21 WGP.

----------------------
N21

4 SE (Shader Engines)
10 SA (Shader Arrays) (2 SAs per SE)
40 WGP (Workgroups) (4 WGPs per SA)
80 CU (Compute Units) (2 CUs per WGP)
5120 SP (Stream Processors) (64 SPs per CU / 128 SPs per WGP)

N31

6 SE (Shader Engines)
12 SA (Shader Arrays) (2 SAs per SE)
48 WGP (Workgroups) (4 WGPs per SA)
96 CU (Compute Units) (2 CUs per WGP)
12288 SP (Stream Processors) (128 SPs per CU / 256 SPs per WGP)

Der_Korken
2022-08-15, 17:09:55
Warum? Das würde bedeuten, dass alle archiketonischen Veränderungen außen vor blieben und man von 48 "N21" WGPs ausgehen würde, die einfach höher getaktet werden. Zudem hat eine N31 WGP doppelt so viele SPs als eine N21 WGP.


Weil das ein wesentlich realistischeres Performance-Bild abgibt. Eine WGP besteht doch nicht nur aus den Vektor-Einheiten. Man braucht auch Dekoder, Scheduler, Register (gerade die fressen viel Platz) und Caches. Ob diese Dinge auch alle aufgebohrt wurden, weiß bis jetzt niemand, aber angesichts dessen, dass die Die-Fläche pro WGP nicht oder kaum steigen soll, ist davon nicht auszugehen. Ansonsten hätte AMD jahrelang alles falsch gemacht, wenn man jetzt mal eben so doppelt so viel Leistung aus der gleichen Fläche rausholen könnte.

Außerdem habe ich nicht geschrieben, dass die Leistung pro WGP gar nicht steigt, sondern dass man die Verdopplung der Vektor-Einheiten als einen Speed-Up betrachten sollte, der im Durchschnitt die Performance pro WGP um x% erhöht. Oder anders gesagt: AMD hat beim Design der GPU sicherlich nicht gesagt, das Design-Ziel sind 12280SPs und dann haben die sich überlegt, wie sie das irgendwie auf WGPs und SEs aufteilen. Die haben sich eher ihre bestehenden WGPs genommen, geguckt was da bei aktuellen und geschätzt bei zukünftigen Workloads am stärksten limitiert und das aufgebohrt. Bei CPUs kommt auch keiner auf die Idee, dass sich die Leistung eines Kerns verdoppelt nur weil die FPU doppelt so breit gemacht wurde. In Spezialfällen vielleicht, aber nicht im Schnitt.

basix
2022-08-15, 18:56:44
Eine WGP besteht doch nicht nur aus den Vektor-Einheiten. Man braucht auch Dekoder, Scheduler, Register (gerade die fressen viel Platz) und Caches. Ob diese Dinge auch alle aufgebohrt wurden, weiß bis jetzt niemand, aber angesichts dessen, dass die Die-Fläche pro WGP nicht oder kaum steigen soll, ist davon nicht auszugehen. Ansonsten hätte AMD jahrelang alles falsch gemacht, wenn man jetzt mal eben so doppelt so viel Leistung aus der gleichen Fläche rausholen könnte.


R&D ist ein kontinuierlicher Prozess. Da gibt es nicht ein "vorher war alles schlecht und fail". Fakt ist aber, dass AMDs CUs über die Zeit angewachsen sind. RDNA1 wurde gegenüber Vega deutlich fetter pro CU. Und schon Vega vorher wurde deutlich fetter als Polaris. Kannst es ja mal anschauen, Anzahl Transistoren pro SP (auf gesamten Chip gerechnet):
- RDNA1 ~1.3x Vega
- Vega ~1.2x Polaris
- Polaris ~1.1x Hawaii/Fiji
- Hawaii ~1.05x Tahiti

Resultat:
- RDNA1 ~2.0x Tahiti (!)
- Inkl. Takt hat RDNA1 die selben FLOPS/Transistor wie Tahiti

Ist halt die Frage, welche Features man einbaut und mit welchem Ansatz man die Performance-Ziele erreichen will. Und ob man genug R&D Ressourcen dazu verfügbar hat. RDNA3 setzt allem anschein nach die Axt an und die Altlasten werden ausgemerzt (z.B. alte Geometry Pipeline). Dazu ein Rebalancing in Richtung mehr Compute, was bei Shader/Compute-lastigem Code und RT genau das Richtige ist. War vor 3-4 Jahren halt weniger im Fokus und als RDNA3 2019/2020 finalisiert wurde, war schon klar dass RT the next big thing wird (Turing war schon released, Konsolen inkl. RT Support). Mit der UE5 kommt z.B. auch eine Engine, welche mit Nanite und Lumen zu einem grossen Teil rein mit Compute skaliert (und AMD wusste davon vermutlich bereits, die Nanite/Lumen Demo wurde im Mai 2020 auf PS5 und XBOX demonstriert, was damaligen Support von AMD wahrscheinlich macht). Dazu der Kostendruck, der sich bei 7nm erhöht hat (aber anscheinend noch tragbar war) und ab 5nm und beyond nochmals deutlich zunimmt. Flächeneffiziente Designs gewinnen hier also zusätzlich an Priorität.

Der_Korken
2022-08-15, 20:32:34
Resultat:
- RDNA1 ~2.0x Tahiti (!)
- Inkl. Takt hat RDNA1 die selben FLOPS/Transistor wie Tahiti


Naja, das bestätigt doch nur die Argumentation, dass die Anzahl der SPs nicht so entscheidend ist. Eine RDNA1-CU ist doppelt so groß wie eine GCN1-CU, obwohl beide den gleichen theoretischen Durchsatz pro Takt haben. Eine 5700XT taktet etwa doppelt so hoch wie eine 7970 und hat 25% mehr CUs, also theoretisch 2,5x so viele Flops/s. Laut 3DC-Index ist die 5700XT aber 1190/360 = 3.3x so schnell wie eine 7970. Das Mehr an Transistoren ist also nicht nur in eine Takterhöhung sondern auch eine deutlich höhere IPC geflossen. Insofern ist der Transistorenverbrauch von RDNA1 irgendwie gerechtfertigt, auch wenn man die SPs pro CU nicht erhöht hat. Was sagt es also jetzt aus, dass eine RDNA3-CU doppelt so viele SPs hat wie bei RDNA1 und 2? Erstmal nicht viel. Wenn durch das deutlich verschobene Verhältnis zwischen SPs und Rest innerhalb einer CU die IPC wieder massiv abnimmt, bewegt man sich wieder Richtung GCN. Es wird natürlich einen Grund haben, warum AMD die SPs gleich verdoppelt hat und nicht z.B. um 50% erhöht hat.

Mein Punkt war aber eigentlich, dass eine Performance-Abschätzung über die WGPs zu einer besseren Performance-Einschätzung führt als über die Anzahl der SPs. In ersterem Fall vergleiche ich WGP für WGP und muss nur abschätzen wieviel Performance mir der höhere theoretische Durchsatz gibt. In zweitem Fall muss ich eine RDNA3-WGP mit zwei RDNA2-WGPs vergleichen (ich will ja iso-SPs vergleichen) und muss dann abschätzen wieviel Performance ich durch halbierte Scheduler, Dekode, Register und Caches verliere. Anhand des geringen Größenwachstums scheint mir ein RDNA3-WGP viel näher an einem RDNA2-WGP dran zu sein als an zwei RDNA2-WGPs.

davidzo
2022-08-15, 21:39:06
Was ich merkwürdig finde ist der Umstand dass AMD RDNA3 wohl durchgängig mit 1-Hi MCDs geplant hatte, das nun aber laut Angstronomics erstmal gecancelt hat.
96MB IF$ sind echt wenig für den Top dog Chip. 192MB hätten viel besser gepasst als Navi21 Nachfolger und das war ja anscheinend auch mal geplant.

Was sind die Gründe dafür?
1. Zu wenig Fertigungskapazitäten in TSMCs packaging plant.
1.1 Zen4 braucht 3DCache um mit RTL konkurrieren zu können und das hat Vorrang. RTG zieht dabei den kürzeren, würde aber gerne mit der 1-hi Variante nachlegen sobald sich das bei TSMC entspannt.
1.2 AMD erwartet generell einen höheren Absatz von RDNA3 als RDNA2, was auf entsprechend attraktive Preise und gute Konkurrenzfähigkeit hindeutet.
2. Man ist von Lovelace derart unimpressed dass man die 1-Hi Version schlicht nicht braucht. Ggf. behält man die 192mb cache-Variante als Konter in der Hinterhand sollte Full AD102 + Brechstange schneller sein als erwartet.
3. RDNA3 ist nicht konkurrenzfähig mit Lovelace und mit mehr Cache immer noch langsamer. Keine 1-Hi Version zu bauen ist einfach Schadensbegrenzung von Seiten AMD. Niedrige Kosten = Kokurrenzfähig immerhin mit AD104 und AD106 über den Preis.

HOT
2022-08-15, 21:43:27
Ich kann mir das eigentlich nur so vorstellen, dass man die Stacks von vornherein nur für das absolute Top-Produkt überhaupt geplant hat oder man hat als der Chip praktisch fertig war gesehen, dass die Bandbreite in der Praxis ausreicht für 4k.

nordic_pegasus
2022-08-15, 22:06:41
kann es sein, das TSMC das 3D-Stacking noch nicht für N6 freigegeben hat? Wenn Navi31 wirklich im November in den Läden stehen soll, wäre es doch höchste Zeit, wenn man wirklich 1-Hi MCDs bringen will, selbst wenn es nur der Top-Dog wäre.

Vielleicht ist ja darum 1-Hi erstmal gestrichen oder verschoben.

Linmoum
2022-08-15, 22:13:20
Vielleicht will man womöglich auch gar nicht mehr als 96Mbyte bringen, weil man festgestellt hat, dass alles darüber keinen Nutzen (auch in Relation zu den Kosten) hat.

Zur Not hat man was für einen Refresh.

davidzo
2022-08-15, 22:48:09
Sollten die eigenen FPGA Simulationen so sehr off gewesen sein?
Es war ja sogar ein 2-hi MCD geplant mit 288mb cache laut Angstronomics. Wie kann man sich nur so gravierend verschätzt haben? Das heißt ja quasi auch das RDNA1, RDNA2, Ampere, turing, pascal etc. mittlerweile die total falschen Verhältnisse aus Bandbreite und Alu-Leistung haben. Schwer zu glauben, denn der typische gaming Workload verändert sich langsam, nicht einfach von heute auf morgen!
Und man hat ja selber gesagt das ausgerechnet AMDs RT Implementierung massiv vom cache profitiert. Wenn der jetzt schrumpft und gleichzeitig die Grafikpipeline "entschlackt" ist das doch kein gutes omen für RT?!

Der_Korken
2022-08-15, 23:13:00
Das mit den MCDs verwirrt mich gerade etwas. Ich hatte das so verstanden, dass N31 insgesamt 6 MCDs bekommt, die jeweils 32MB Cache und ein 64bit SI haben. Wie kann man diese MCDs jetzt einfach weglassen? Befindet sich das SI dann doch im Base-Die? Und wie kommt man auf 96MB Cache? Dazu müsste die Hälfte des Caches dann auch im Base-Die liegen und die MCDs jeweils nur 16MB haben. Das passt für mich vorne und hinten nicht zusammen:

1. Wenn der Base-Die noch 384bit SI und 96MB Cache hat, kann der zusammen mit 20% mehr und fetteren WGPs doch nicht bloß 300mm² groß sein. DRAM und PHYs skalieren sehr schlecht mit N5.
2. Die 37,5mm² für die MCDs, die ich gelesen habe, wären viel zu groß. Das entspricht der Größe eines 64MB-Cache-Chiplets für die CPUs. Ein 16MB-Chiplet, welches man bräuchte, um von 96 auf 192MB zu kommen, wäre <10mm² groß. Also bitte. Selbst 32MB wären schon sehr klein als Chip. 32MB+64bit SI, das würde gut zu 37,5mm² passen.

Linmoum
2022-08-15, 23:19:38
Es sind laut Angstronomics auch weiterhin 6 MCDs inkl. SI, es sollen aber nur die von dir genannten 16 MByte IF$ pro MCD sein statt der bisher vermuteten 32 MByte.

The world’s first chiplet GPU, Navi31 makes use of TSMC’s fanout technology (InFO_oS) to lower costs, surrounding a central 48 WGP Graphics Chiplet Die (GCD) with 6 Memory Chiplet Dies (MCD), each containing 16MB of Infinity Cache and the GDDR6 controllers with 64-bit wide PHYs.

davidzo
2022-08-15, 23:24:38
Das mit den MCDs verwirrt mich gerade etwas. Ich hatte das so verstanden, dass N31 insgesamt 6 MCDs bekommt, die jeweils 32MB Cache und ein 64bit SI haben.

Jeweils 16mb und 64bit.


Wie kann man diese MCDs jetzt einfach weglassen? Befindet sich das SI dann doch im Base-Die?

Nein, wenn ein MCD weggelassen wird hat man auch weniger VRAM und ein kleineres SI. Im Gespräch ist eine 80mb Cache + 320bit Variante, also 5 von 6 MCDs. Das wird mit großer Wahrscheinlichkeit aber einfach ein salvage sein und physisch werden auf dem package dann trotzdem 6 MCDs vorhanden sein.


2. Die 37,5mm² für die MCDs, die ich gelesen habe, wären viel zu groß. Das entspricht der Größe eines 64MB-Cache-Chiplets für die CPUs. Ein 16MB-Chiplet, welches man bräuchte, um von 96 auf 192MB zu kommen, wäre <10mm² groß. Also bitte. Selbst 32MB wären schon sehr klein als Chip. 32MB+64bit SI, das würde gut zu 37,5mm² passen.
Das ist ein CPU-Cache, der hätte viel zu wenig Bandbreite. Außerdem enthält Infinity Cache auch immer eine Crossbar die alle Cache Blöcke verbindet. Neben der Verbindung zum GCD müssen die MCDs also auch untereinander oder über einen bus im GCD miteinander verbunden sein.
Die Cache-blöcke sollen gegenüber RDNA2 außerdem halbiert worden sein, womit der cache Feingranularer wird und die Bandbreite pro Größeneinheit verdoppelt wird. Das kostet Fläche, weil mehr Kontroll-logik. Zudem soll die penalty zum VRAM geringer sein, was auch immer damit gemeint ist (Latency?)

Der_Korken
2022-08-15, 23:24:47
Es sind laut Angstronomics auch weiterhin 6 MCDs inkl. SI, es sollen aber nur die von dir genannten 16 MByte IF$ pro MCD sein statt der bisher vermuteten 32 MByte.

OK, das kommt hin. Was ist der aktuelle Konsens wie die mit dem GCD verbunden werden? Stacking oder Interposer?

Edit:


Das ist ein CPU-Cache, der hätte viel zu wenig Bandbreite. Außerdem enthält Infinity Cache auch immer eine Crossbar die alle Cache Blöcke verbindet. Neben der Verbindung zum GCD müssen die MCDs also auch untereinander oder über einen bus im GCD miteinander verbunden sein.
ie Cache-blöcke sollen gegenüber RDNA2 außerdem halbiert worden sein, womit der cache Feingranularer wird und die Bandbreite pro Größeneinheit verdoppelt wird. Das kostet Fläche, weil mehr Kontroll-logik. Zudem soll die penalty zum GDDR geringer sein, was auch immer damit gemeint ist (Latency?)

OK, Bandbreite ist ein Argument, aber man sollte auch bedenken, dass der Cache deutlich größer und in mehrere Stücke segmentiert ist im Gegensatz zu Vermeer. Matisse hatte mit zwei separaten L3-Caches auch doppelt so viel Gesamtbandbreite wie Vermeer, d.h. allein das Aufteilen in 6 separate Slices bringt schon was. Wir hatten ja schon die Diskussion, dass jeder Slice nur die Adressen cached, die sich an seinem SI befinden. Alles andere wäre energetisch Selbstmord und würde so gut wie keine Performance bringen.

iamthebear
2022-08-16, 02:45:25
Sollten die eigenen FPGA Simulationen so sehr off gewesen sein?
Es war ja sogar ein 2-hi MCD geplant mit 288mb cache laut Angstronomics. Wie kann man sich nur so gravierend verschätzt haben? Das heißt ja quasi auch das RDNA1, RDNA2, Ampere, turing, pascal etc. mittlerweile die total falschen Verhältnisse aus Bandbreite und Alu-Leistung haben. Schwer zu glauben, denn der typische gaming Workload verändert sich langsam, nicht einfach von heute auf morgen!
Und man hat ja selber gesagt das ausgerechnet AMDs RT Implementierung massiv vom cache profitiert. Wenn der jetzt schrumpft und gleichzeitig die Grafikpipeline "entschlackt" ist das doch kein gutes omen für RT?!

Ich denke es ist eher umgekehrt:
Man hatte den Plan 288MB als Alternative für das Topmodell anzubieten, hat aber bei den Simulationen gesehen, dass der Nutzen in keinem Verhältnis zu den Kosten steht.

Das mit den falschen Verhältnissen hängt zu einem großen Teil ja gar nicht an der Architektur sondern an den aktuellen Trends bzw. dass diese Fehlinterpretiert werden z.B. wie sehr shrinked Logic vs. SRAM oder welchen Preis hat VRAM usw.

bbott
2022-08-16, 10:11:30
Wäre es Denkbar 1-2 MCDs auf eine highend APU zu verbauen? Damit könnte man die Lücke zwischen iGPU und dGPU verkleinern.

HOT
2022-08-16, 10:16:08
Vielleicht ist ein Teil des IF$ auch noch in der GPU zusätzlich, dass wir hier ein 4 oder 5 Stufiges Cache-System haben.

robbitop
2022-08-16, 10:59:18
Lovelace soll auch nur 48 MiB Cache haben. Dazu kommen ggf ggü rdna2 2 Aspekte:
1. ggf stieg die Bandbreiteneffizienz der uArch selbst (oder die Cachehitrate pro MiB)
2. die RT Pipeline ist nicht mehr so auf Cache angewiesen, da mehr in HW vorliegt (siehe Turing/Ampere)

@basix
Kompression als Bandbreitenreduktionsmaßnahme (Z/color compression, dcc) spart afaik aktuell nur Bandbreite aber keinen Speicherplatz. (Bei der Texturkompression hingegen spart man auch Platz) Ggf. Hat sich das zu RDNA3 geändert.

unl34shed
2022-08-16, 11:13:38
2. würde aber bedeuten, man hat hauptsächlich für RT den IF$ eingebaut und die letzten
Generation unnötig viel Speicherbandbreite (da kein RT) verbaut hat. Oder?

robbitop
2022-08-16, 11:17:21
Für RT und weil man Energie sparen wollte (man hätte mindestens ein 50% breiteres SI benötigt ohne Cache). Datentransfers kosten einen Großteil des Energiebudgets und lokale Datentransfers sind billiger als auf den externe.

Die gesparte Energie konnte man zT in Takt und Transistorbudget für mehr CUs investieren. Bei Rasterizing ist rdna2 sehr effizient und schnell.

Ich persönlich vermute, dass AMD bis inkl RDNA2 auch noch nicht auf NVs Level war was Bandbreiteneffizienz anging. Das Thema hat der Cache gelöst.

Grundsätzlich scheint ein großer LLC sinnvoll zu sein. Aber ggf brauvht man durch Weiterentwicklung einfach weniger davon pro FLOP.

BavarianRealist
2022-08-16, 15:12:48
Wenn Nvidia wirklich ein so großes Inventory-Problem hat, heißt das für mich, dass sich Nvidia ziemlich verkalkuliert hat.

Ich würde das so interpretieren: Nvidia könnte davon ausgegangen sein, dass die alten 30xx-Karten nicht so stark im Preis gesenkt werden müssen, wenn sie die Neuen erstmal viel teurer anbieten, weil sie sich sicher wähnten, dass die 40xx über den neuen RDNA3 zu liegen kämen.

Aber: hat AMD nicht im CC gesagt, dass man in Q3 nicht viele Grakas verkaufen wird, d.h. AMD vermutlich bereits kaum mehr RDNA2-Produkte haben sollte, die man noch verkaufen kann/muss, ehe RDNA3 kommt (in Q4!)? Das würde dann heißen, AMD hätte schon frühzeitig die RDNA2-Produktion herunter gefahren, weil man davon ausgegangen sein könnte, dass sich die RDNA2 nicht mehr vekaufen lassen, sobald RDNA3 da ist.

Meine Schlussfolgerung daraus wäre:
Auch AMDs RDNA3 dürften den Leistungslevel deutlich nach oben verschieben und AMD dürfte sie nicht zu teuer anbieten, sodass die alte Gerernation von Grakas nur noch viel billiiger ansetzbar wäre, egal ob RDNA2 oder 30xx. Unter diesen Annahmen ergibt das Ganze für mich Sinn.

basix
2022-08-16, 15:14:54
Anhand der aktuelle Gerüchtelage ist RDNA3 schneller und günstiger zu produzieren (N33 schlägt N22 mit vermutlich gutem Abstand, N32 schlägt N21 ebenfalls deutlich, bei jeweils weniger Speicher und relativ kleinen Chips). Da würde ich die Produktion auch runterfahren ;)

basix
2022-08-16, 16:36:38
Ich habe mal die Chipgrössen miteinander verglichen und sie scheinen untereinander einigermassen stimmig zu sein. Auch das kleine N6 Die von N33:
- N31: 308mm2 @ N5, 6x MCD
- N32: 200mm2 @ N5, 4x MCD
- N33: 203mm2 @ N6, monolithisch

Annahmen:
- Uncore & IO / Display / Video in N5 = 30mm2 (x16 PCIe, HDMI, DP, VCN, ...)
- Uncore & IO / Display / Video in N6 = 40mm2 (x8 PCIe, HDMI, DP, VCN, ...)
- 1x MCD Link PHY = 8mm2 @ 512bit (Referenz = HBM PHY mit 25um anstatt 35um Pitch)
- N6 -> N5 Area Scaling = 1.5x
- Abgespeckte N33 Shader-Engines = 1.1x Area Reduktion
- GGDR6 SI = 15mm2 pro 64bit (Referenz = Navi 10 & Locuza)
- 32 MByte IF$ = 25mm2 (Referenz = RDNA2 Präsentationen & Locuza)

N31:
- 6x Shader Engine @ N5 = 308 - 6*8 - 30 = 230mm2
- 2x Shader Engine @ N5 = 77mm2

N32:
- 3x Shader Engine @ N5 = 200 - 4*8 - 30 = 138mm2
- N31 vs. N32 #1 = 12'288 / 7680 = 1.6x
- N31 vs. N32 #2 = 230 / 138 = 1.67x
- Da 3x vs. 6x Shader Engines, ist ein Unterschied >1.6x zu erwarten. 1.67x scheint dies zu bestätigen

N33:
- 2x Shader Engine @ N6 = 77mm2 * 1.5 / 1.1 = 105mm2
- +128bit SI = 105 + 2*15 = 135mm2
- +Uncore/Video/Display = 135 + 40 = 175mm2
- +32MByte IF-Cache = 175 + 25 = 200mm2

Aus meiner Sicht:
Könnte also passen. Wenn jetzt die IPC noch stimmt, wäre das eine enorme PPA Steigerung.

AffenJack
2022-08-16, 17:36:08
Aber: hat AMD nicht im CC gesagt, dass man in Q3 nicht viele Grakas verkaufen wird, d.h. AMD vermutlich bereits kaum mehr RDNA2-Produkte haben sollte, die man noch verkaufen kann/muss, ehe RDNA3 kommt (in Q4!)? Das würde dann heißen, AMD hätte schon frühzeitig die RDNA2-Produktion herunter gefahren, weil man davon ausgegangen sein könnte, dass sich die RDNA2 nicht mehr vekaufen lassen, sobald RDNA3 da ist.


Der Umsatz geht runter, weil auch AMD vom Mining profitiert hat, wenn auch nicht so stark. Aber AMD hat genauso noch genug Inventory von RDNA2, wenn auch nicht im gleichen Rahmen wie Nvidia. Aber alleine die Verkäufe der 6900XT für 699$ in den USA zeigen, dass man noch einige N21 loswerden muss. Hätte man kaum mehr was auf Lager würde man nicht so tief runter gehen.

Linmoum
2022-08-16, 18:38:56
Su hatte klar gesagt "we don't have excess inventory".

Würde der Umsatz (nur) wegen Mining runtergehen, hätte nicht auch Intel im Client-Geschäft solche Probleme. Oder selbst OEMs. Der PC-Markt allgemein ist zurzeit rückläufig. Su hat ja bereits von sequentiellem Wachstum in Q4 gesprochene wegen neuer (=RDNA3) Produkte.

Nightspider
2022-08-16, 18:59:35
Anhand der aktuelle Gerüchtelage ist RDNA3 schneller und günstiger zu produzieren (N33 schlägt N22 mit vermutlich gutem Abstand, N32 schlägt N21 ebenfalls deutlich, bei jeweils weniger Speicher und relativ kleinen Chips). Da würde ich die Produktion auch runterfahren ;)

RDNA3 ist schneller?

Meinst du pro Chipfläche?

Kann mir kaum vorstellen das man ein ~600-700mm² Nvidia Monster mit 600W schlagen wird. ^^

AffenJack
2022-08-16, 19:01:05
Su hatte klar gesagt "we don't have excess inventory".

Was nur heißt, dass man soviel Karten hat, dass man von ausgeht sie loszuwerden und das macht man indem man den Preis ordentlich runter korrigiert wie bei der 6900XT. Hätte man kaum noch Karten, würde man einfach beim alten Preis auslaufen lassen.
Nvidia hat das Problem, dass sie selbst mit reduzierten Preisen die Karten nicht schnell genug loskriegen. Erst ab dem Punkt wird ein CEO das in einem Call kommunizieren, weil es Richtung Abschreibungen geht.


Würde der Umsatz (nur) wegen Mining runtergehen, hätte nicht auch Intel im Client-Geschäft solche Probleme. Oder selbst OEMs. Der PC-Markt allgemein ist zurzeit rückläufig. Su hat ja bereits von sequentiellem Wachstum in Q4 gesprochene wegen neuer (=RDNA3) Produkte.

Das Marktumfeld ist auch nicht das beste, aber es wäre naiv zu glauben, dass AMD nicht ebenso in geringerem Maße als NV durch Mining profitiert hat. Wobei gut, Huang sagt ja auch ist Marktumfeld, also ists wohl nur das.;D

Das Q4 sequentiell wächst ist selbst ohne RDNA3 klar. Q4 mit dem Weihnachtsgeschäft hat sogut wie immer sequentielles Wachstum bei einem normal funktionierenden Markt und das ist in Q3 der Fall nachdem Mining durch ist.

amdfanuwe
2022-08-16, 20:18:43
Nvidia hat das Problem, dass sie selbst mit reduzierten Preisen die Karten nicht schnell genug loskriegen.

Vor allem wenn AMD auch reduziert. Wird Nvidia mehr weh tun als AMD mit geringerem Bestand.


aber es wäre naiv zu glauben, dass AMD nicht ebenso in geringerem Maße als NV durch Mining profitiert hat.
Haben sie, haben aber wohl eher Kapazitäten ins lukrativere Servergeschäft gesteckt.
Q4 wird AMD von ZEN4 profitieren, RDNA3 dürfte sich erst auf Q1/23 auswirken.

Linmoum
2022-08-16, 20:29:08
Su sprach explizit von sequentiellem Wachstum in Q4 durch neue Produkte. Kann bei Grafikkarten natürlich nur RDNA3 sein. Heißt erst einmal rein logisch betrachtet, dass man nicht erst irgendwann im Dezember launchen wird. Denn dann bleibt für das Quartal tatsächlich kaum was in relevantem Umfang hängen.

Bei Zen4 ist das ja logisch mit erst Q4, wenn man erst am 27.09. launcht. Ich vermute, dass man bei RDNA3 noch vor Beginn der Holiday Season launchen wird. Also spätestens Mitte November. Ein halbes Quartal ist auch ausreichend genug, um davon profitieren zu können.

amdfanuwe
2022-08-16, 21:01:21
Ein halbes Quartal ist auch ausreichend genug, um davon profitieren zu können.
Dürfte aber erstmal teure N31 sein.
Ich hoffe darauf, nächstes Jahr endlich mal einen akzeptablen Nachfolger im 300€-400€ Bereich für meine RX 480 zu bekommen. Dürfte dann N33 sein.

basix
2022-08-16, 22:22:45
RDNA3 ist schneller?

Meinst du pro Chipfläche?

Kann mir kaum vorstellen das man ein ~600-700mm² Nvidia Monster mit 600W schlagen wird. ^^

Ich habe auf RDNA2 Bezug genommen. Und ja: Da ist RDNA3 schneller ;)

Und zu Lovelace: Wir werden sehen.

iamthebear
2022-08-16, 23:56:16
Ich denke AMD hat hier mit den MCDs deutlich mehr Flexibilität. Wenn 24GB bei N31 zu teuer werden dann lässt man einfach 2 MCDs weg und stacked stattdessen den Cache auf die verbleibenden oben drauf.
Genauso könnte man mit N32 verfahren. Dann gibt es nur mehr 3 MCDs mit 192Bit statt 256Bit bzw. 12 statt 16GB und dafür 96MB statt 64MB IF$.

davidzo
2022-08-17, 00:07:56
Aber alleine die Verkäufe der 6900XT für 699$ in den USA zeigen, dass man noch einige N21 loswerden muss.
Das zeigt lediglich dass man auf das kompetitive Umfeld (Nvidia) reagiert.


Kann mir kaum vorstellen das man ein ~600-700mm² Nvidia Monster mit 600W schlagen wird. ^^
600mm2 mit 450W

Navi31 sind insgesamt 533mm2. Das sollte schon nah beieinander herauskommen.
Navi21 hat mit 520mm2 AD102 Leistung (611mm2) erreicht obwohl praktisch schon ein Teil des SI in diesen 520mm inkludiert ist (ohne Cache nur 450mm2). Und das ist nicht nur die bessere Density von TSMCs Prozess, denn es sind auch 26,8 vs 28,2Mrd Transistoren.
Wenn man SI und LLC herausrechnet, dann hat RDNA2 eine höhere PPA als Ampere, von RT-cases mal abgesehen.

Thunderburne
2022-08-17, 11:58:15
https://www.computerbase.de/2022-08/navi-31-32-und-33-handfeste-geruechte-zu-amds-radeon-rx-7000-mit-rdna-3/

Linmoum
2022-08-17, 12:17:29
Nichts Neues, nur der bereits durchgekaute Angstronomics-Artikel von letzter Woche...

00-Schneider
2022-08-17, 17:05:51
Wie wahrscheinlich ist es, dass das Flagship der neuen Serie in Sachen RT-Leistung mit einer 4090 mithalten wird können?

(unabhängig vom Preisunterschied und Stromverbrauch)

aufkrawall
2022-08-17, 17:11:18
Wissen wir nicht, über die Hardware ist immer noch fast nichts bekannt. Nvidia hatte aber etwa bei CP77 zig Leute am RT in dem Spiel arbeiten lassen, so etwas wird bei AMD wohl weiterhin nicht passieren. Wie man das findet, mag jeder selbst entscheiden.

AffenJack
2022-08-17, 18:05:20
Wie wahrscheinlich ist es, dass das Flagship der neuen Serie in Sachen RT-Leistung mit einer 4090 mithalten wird können?

(unabhängig vom Preisunterschied und Stromverbrauch)

Unmöglich zu wissen, ohne Details zu kennen, aber aufholen ist tendenziell erstmal schwieriger. IMG Tec hat mal fürs Marketing ihrer RT Beschleuniger Level der Beschleunigung definiert. AMD ist da auf Stufe 2, Nvidia 3, IMGTec auf 4 und neuerdings hat man ein Zwischenlevel 3.5 eingeführt hab ich irgendwo gesehen. Dieses passt wohl zu Intel und es gibt Andeutungen, dass Nvidia ebenso in die Richtung gehen wird (Traversal Shader). Das ist aber noch nichtmal in Direct X implementiert. Bei AMD weiß man dagegen so ziemlich gar nix, wie es weitergeht.

fondness
2022-08-17, 18:09:20
Aufholen ist tendenziell schwieriger? Was ist denn das für eine Logik?! Aufholen ist immer einfacher, da man sich viel abschauen kann. Und das man nichts weiß ist erstmal logisch, es macht keinen Sinn die aktuelle Generation mit irgendwelchen Vorankündigungen madig zu machen.

fondness
2022-08-17, 18:10:51
Wissen wir nicht, über die Hardware ist immer noch fast nichts bekannt. Nvidia hatte aber etwa bei CP77 zig Leute am RT in dem Spiel arbeiten lassen, so etwas wird bei AMD wohl weiterhin nicht passieren. Wie man das findet, mag jeder selbst entscheiden.

Was wird bei AMD nicht passieren? Dass man Spieleentwickler unterstützt? Das passiert doch laufend. Die RT Spiele wo AMD gut mithalten kann sind wohl kein Zufall ^^

OgrEGT
2022-08-17, 18:49:43
Schau ich grad nochmal detailierter auf die Angstronomics Daten von zuvor (https://www.angstronomics.com/p/amds-rdna-3-graphics):

Navi 31

gfx1100 (Plum Bonito)
Chiplet - 1x GCD + 6x MCD (0-hi or 1-hi)
48 WGP (96 legacy CUs, 12288 ALUs)
6 Shader Engines / 12 Shader Arrays
Infinity Cache 96MB (0-hi), 192MB (1-hi)
384-bit GDDR6
GCD on TSMC N5, ~308 mm²
MCD on TSMC N6, ~37.5 mm²

Navi32

gfx1101 (Wheat Nas)
Chiplet - 1x GCD + 4x MCD (0-hi)
30 WGP (60 legacy CUs, 7680 ALUs)
3 Shader Engines / 6 Shader Arrays
Infinity Cache 64MB (0-hi)
256-bit GDDR6
GCD on TSMC N5, ~200 mm²
MCD on TSMC N6, ~37.5 mm²

Navi33

gfx1102 (Hotpink Bonefish)
Monolithic
16 WGP (32 legacy CUs, 4096 ALUs)
2 Shader Engines / 4 Shader Arrays
Infinity Cache 32MB
128-bit GDDR6
TSMC N6, ~203 mm²

Warum sollte AMD unterschiedliche Ansätze zu WGP/SE fahren?
N21 bestand aus 40 WGPs in 4 Arrays also 4x10. (Bild (https://pbs.twimg.com/media/E20kL6AXEAQ2y0K?format=jpg&name=large))
N22 bestand aus 20 WGPs in 2 Arrays also 2x10. (Bild (https://pbs.twimg.com/media/E20kMmIWEAAn3CN?format=jpg&name=large))

Von N21 gab es insgesamt 3 Stufen, 2 Salvage (30 bzw. 36 WGP) und den Vollausbau (40 WGP) mit entsprechend deaktivierten Einheiten. Designtechnisch war N22 im Grunde genommen auch "einfach" ein halber N21.

N23 und N24 wiederum ähnlich. N24 = 1/2 N23
N23 waren 16 WGPs in 2 Arrays also 2x8 (Bild (https://pbs.twimg.com/media/E20kNTuX0AMwsKg?format=jpg&name=large))
N24 waren nur noch 8 WGPs und lagen in 2 Arrays mit 2x4 vor (Launch-Analyse (https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6500-xt))

So oder so erscheint es mir komplett abwegig warum AMD für RDNA3 also 2x "identische" Designrules (N31 und N33) bringt aber N32 davon grund-schematisch abweichen sollte um ausgerechnet so was "marginales" wie 2 WGP.

Angstronomics leak sagt:

N31 = 48 WGP in 6x8 Config
N32 = 30 WGP in 3x10 Config ?
N33 = 16 WGP in 2x8 Config

WARUM sollte AMD hier den Designaufwand betreiben und eine völlig andere "Kernlogik" mit 3x10 aufstellen...

N32 wird 32 WGP mit 4x8 Config sein
Ebenso die "geschichten" mit 0-hi und 1-hi. Das dient alles nur der Verschleierung, damit er seine Quellen schützen kann.

Ich leg mich fest (EDIT: und basierend auf der MCD-Die Size die ich als glaubwürdig einschätze, weil es auch gut zu den OgrEGT Schätzungen passt 32 MB cache pro MCD /EDIT):
N31 6x8 WGP mit 192 MB Cache (6 MCD zu je 32 MB) und 384 Bit SI (6 MCD zu je 64 bit)
=> 24 GB RAM erlaubt
GCD ~308mm^2 (wie Angstromics schreibt)

N32 4x8 WGP mit 128 MB Cache (4 MCD zu je 32 MB) und 256 Bit Si (4 MCD zu je 64bit)
=> 16 GB RAM
GCD wäre dann 308/48*32 = 205 mm^2 (Angstronomics gibt ja ~200 mm^2)

N33 2x8 WGP mit 64 MB Cache (2 MCD zu je 32 MB) und 128 Bit Si (2 MCD zu je 64bit)
=> 8 GB RAM

GCD in 5N wäre 103 mm^2 + 2 MCD in 6N = 178 mm^2.

Warum hier ein "Monolith" mit >203 mm^2 nur in N6 "besser" und billiger sein soll erschliesst sich mir nicht.

Selbst wenn N33 in N6 wäre und monolith, am Platzbedarf der "MCD"s ändert sich nicht viel (man spart etwas an Bridge Conncetion area ein, aber sonst eher nichts) => 75 mm^2 wären das SI+IF$ bei N33 in N6 so oder so, blieben also für den GCD-Teil 128 mm^2 über.

Bei RDNA2 N24 passten 8 WGP mit 64 bit SI in 107 mm^2 in N6

Ein Doppelter RDNA2 N24 wären dann also ~214 mm^2 - das könnte somit schon passen, aber auch da wiederum VERMUTE ich Angstronomics hat zum N33 KEINE Die-Size Info, hat aber die Info dass es 16 WGP sind und "dichtet" nun mit den bislang existierenden Gerüchten von wegen "Monolith" und N6 die Größe von ~203 mm^2 hin (weil das einfach 2xN24 ist)

IMHO dürfte das vor allem Zeigen dass die Info zu N33 sehr unsicher ist, N31 und N32 zeichen sich hingegen schon sehr deutlich ab.

IMHO ist N33 aber auch nur deswegen so "unklar" weil die Leute an ihrem "Monolithisch" festhängen und KEINER bislang infos zu N31/N32 & N33 aus EINER HAND hat => Unterschiedliche Designteams?

Ich würde auch vermuten, dass die Daten zu N32 so nicht stimmen, bzw. ggf. nicht korrekt interpretiert werden.

Für N3x wird derzeit vermutet:

2 Shader Arrays per Shader Engine
4 WGPs per Shader Array
2 CUs per WGP
128 SPs per CU / 256 SPs per WGP

Das passt sowohl auf N31 als auch N33 mit 6SEs (12288 SPs) bzw. 2 SEs (4096 SPs).

Es macht keinen Sinn nur bei N32 bei 30 WGPs auf 5 WGPs per Shader Array bzw. 10 WGPs per Shader Engine zu gehen. Ich glaube eher dass N32 die gleiche Architektur hat und im Vollausbau 32 WGP hat von denen ggf. nur 30 aktiv sind... Zu den anderen Chips ist auch nur jeweils der Vollausbau bekannt, allerdings nicht wie viele WGPs in welcher SKU aktiv sind...

iamthebear
2022-08-17, 20:21:32
Ich darf nur daran erinnern, dass es RDNA2 auch in 2 Konfigurationen gab:
Navi21/22 waren 4x10 bzw. 2x10
Navi23/24 waren 2*8 bzw. 1*8

Ich denke, dass AMD bei den Simulationen festgestellt hat, dass beide Varianten aus Performance/Area Sicht sinnvoll funktionieren und man sich aus reiner Segmentierung so entschieden hat.

Navi31 ist 6x8 da 6x10 zu viel TDP bzw. zu hohe Verkaufspreise bedeutet hätte.

Navi32 mit 3x8 wäre 2x was etwas zu viel ist siehe 6700 XT vs. 6800 XT, 4x8 wäre 1.5x also zu wenig da keine Salvage mehr sinnvoll rein passt z.B. 6700 XT vs. 6600 XT, die 3x10 sind ca. 1.7x und ein guter Kompromiss

Navi33 dürfte mit 2x8 ca. 1.8x sein wenn die WGPs gleich sind bzw. 2x+ wenn die WGPs etwas abgespeckt wurden. Das passt bei Midrange vs. Mainstream aber besser. Ich denke dass man mit einem 12 WGP/3MCD/12GB Modell die Lücke gut schließen kann.

Für Navi33 erwarte ich kräftigere Abspeckunten beim IO Teil. Es wird mindestens auf PCIe 5.0 x8 gekürzt werden und habe das Gefühl, dass die MediaEngine wieder raus fliegt, da bei Zen4 ja eine in der CPU vorhanden ist bzw. Intel ja auch eine in der iGPU bietet.

bbott
2022-08-17, 21:27:21
Unmöglich zu wissen, ohne Details zu kennen, aber aufholen ist tendenziell erstmal schwieriger. IMG Tec hat mal fürs Marketing ihrer RT Beschleuniger Level der Beschleunigung definiert. AMD ist da auf Stufe 2, Nvidia 3, IMGTec auf 4 und neuerdings hat man ein Zwischenlevel 3.5 eingeführt hab ich irgendwo gesehen. Dieses passt wohl zu Intel und es gibt Andeutungen, dass Nvidia ebenso in die Richtung gehen wird (Traversal Shader). Das ist aber noch nichtmal in Direct X implementiert. Bei AMD weiß man dagegen so ziemlich gar nix, wie es weitergeht.
Hast du eine Quelle mit mehr Infos?

basix
2022-08-17, 21:49:43
Es macht keinen Sinn nur bei N32 bei 30 WGPs auf 5 WGPs per Shader Array bzw. 10 WGPs per Shader Engine zu gehen. Ich glaube eher dass N32 die gleiche Architektur hat und im Vollausbau 32 WGP hat von denen ggf. nur 30 aktiv sind... Zu den anderen Chips ist auch nur jeweils der Vollausbau bekannt, allerdings nicht wie viele WGPs in welcher SKU aktiv sind...

Doch, macht sehr wohl Sinn. Eine Shader Engine kommt mit Overhead daher (Kontrollogik, L1-Cache, Rasterizer, ROPs, ...). Deswegen wird 3x10 vermutlich in mehr Perf/mm2 resultieren als 4x8. Ganz einfach. Bei N31 machen mehr Shader Engines und dafür etwas kleinere Sinn (6x8), da es schwer wird den breiten Chip voll auszulasten. Mehr Cache und Kontrollogik kann da helfen. N33 scheint eh etwas speziell zu sein (agespeckte WGPs).

Und wie bereits angetönt: Es gibt bereits einige RDNA Chips mit 10x WGP pro Shader Engine (N10, N12, N22, N21). N14 kam sogar mit einer 1x12 Konfiguration.

Edit:
Wenn man sich RDNA2 Die Shots anschaut, weist 3x10 vs. 4x8 eine ~1.05x höhere Flächeneffizienz auf, was FLOPS/mm2 anbelangt (auf eine einzelne Shader Engine bezogen).

iamthebear
2022-08-17, 23:09:58
Hast du eine Quelle mit mehr Infos?

Also wenn du das mit den unterschiedlichen Leveln meinst. Das ist hier beschrieben:
https://www.imaginationtech.com/resources/whats-your-level-the-six-levels-of-ray-tracing-acceleration/

Einfach bei der Registrierung eine Dummy Mailadresse eingeben, wird nicht geprüft.

Was die Traversal Shader bzw. die Kategorie 3.5 angeht:
Davon habe ich auch schon was gehört, kann jedoch keinen Link dazu geben.

Aber derzeit ist "Traversal Shaders" als "possible new features" in der DXR Doku gelistet. Aber das sehe ich jetzt nicht unbedingt als Hindernis. Nvidia und MS können ja miteinander reden: Nvidia baut es in die Hardware/Treiber ein und MS liefert das Ganze mit dem nächsten Windows Update hinten nach. Wie üblich wird das Ganze sowieso eine Weile dauern bis das von Spieleentwicklern übernommen wird.
Wenn man sich RDNA2 Die Shots anschaut, weist 3x10 vs. 4x8 eine ~1.05x höhere Flächeneffizienz auf, was FLOPS/mm2 anbelangt.

Mit welcher Fläche hast du da gerechnet?
Falls du die gesamte Die Size genommen hast hinkt das etwas:
.) Von den 520mm² des Navi21 sind ca. 80mm² IO Teil. Dieser hat einen fixen Flächenbedarf auch wenn die Anzahl der Shader halbiert wird. Das sieht man z.B. bei Navi21 vs. 22
.) Der IF$ bzw. das SI skalieren nicht linear mit der Anzahl der CUs. Von Navi21 auf 22 wurden CUs auf die Hälfte reduziert, IF$/SI aber nur auf 3/4.
Von Navi22 auf 23 wurden die CUs um 20% reduziert, SI um 1/3 und IF$ um 2/3. Beim IO Teil wurde das PCIe Interface um 1/2 reduziert, der Rest bleibt aber gleich.
Das führt zu seltsamen Verzerrungseffekten weshalb man für einen sinnvollen Vergleich eigentlich die Größe in den Die Shots ausmessen müsste. Im Grunde sieht man aber eigentlich schon den Block, um den es geht nämlich den, wo TMUS, ROPs etc. drin sind.
Das macht im Fall von Navi21/22 vs. 23/24 ja durchaus Sinn, dass die höheren Karten etwas mehr Shader haben, da diese für höhere Auslösungen vorgesehen sind wo der Flaschenhals eher bei den Shadern liegt.
Für Navi3x bedeutet dies, dass es durchaus Sinn macht, dass Navi33 nur 8 WGPs/Shader Engine hat, Navi32 jedoch 10.
Ob die Theorie mit dem "besseren Auslasten" von Navi31 mit 8 WGPs wirklich aufgeht da bin ich noch etwas skeptisch. Ich denke hier war der Grund einfach, dass 6x10 in Summe einfach zu viel gewesen wäre. Damit macht man aus einer 400W Karte, die mit 300W auch noch vernünftig läuft eine 500W Karte, die in den meisten Gehäusen zu Problemen führen wird.

amdfanuwe
2022-08-17, 23:16:10
Doch, macht sehr wohl Sinn.
Seh ich auch so.

Design Ziel
N31: maximale Performance bei gegebener TDP.

N33: Günstig für Massenmarkt. Der Anteil an gut shrinkender Logik im Verhältnis zum Rest ist relativ gering, das aufwändigerer Package verteuert den Chip zusätzlich. Performance/Watt, Performance/Fläche, maximaler Takt sind nicht so wichtig für das angestrebte Segment. Da kann 6nm monolithisch durchaus günstiger sein.

N32: Günstig. Flächeneffizienz wichtiger als optimale Leistung. 4*8 mag effizienter als 3*10 sein, in dem Segment aber nicht so wichtig. Also 3*10 billiger und bringt gewünschte Performance zwischen N31 und N33.

Soweit plausibel. Maximale Performance in High-End. Minimale Kosten für die anderen Segmente.

basix
2022-08-17, 23:28:09
Mit welcher Fläche hast du da gerechnet?

Steht ja da: Shader Engine isoliert betrachtet.


Das macht im Fall von Navi21/22 vs. 23/24 ja durchaus Sinn, dass die höheren Karten etwas mehr Shader haben, da diese für höhere Auslösungen vorgesehen sind wo der Flaschenhals eher bei den Shadern liegt.
Für Navi3x bedeutet dies, dass es durchaus Sinn macht, dass Navi33 nur 8 WGPs/Shader Engine hat, Navi32 jedoch 10.
Ob die Theorie mit dem "besseren Auslasten" von Navi31 mit 8 WGPs wirklich aufgeht da bin ich noch etwas skeptisch. Ich denke hier war der Grund einfach, dass 6x10 in Summe einfach zu viel gewesen wäre..
6x10 wären sicher etwas viel. Wieso dann nicht 5x10 ;)

Seh ich auch so.

Design Ziel
N31: maximale Performance bei gegebener TDP.

N33: Günstig für Massenmarkt. Der Anteil an gut shrinkender Logik im Verhältnis zum Rest ist relativ gering, das aufwändigerer Package verteuert den Chip zusätzlich. Performance/Watt, Performance/Fläche, maximaler Takt sind nicht so wichtig für das angestrebte Segment. Da kann 6nm monolithisch durchaus günstiger sein.

N32: Günstig. Flächeneffizienz wichtiger als optimale Leistung. 4*8 mag effizienter als 3*10 sein, in dem Segment aber nicht so wichtig. Also 3*10 billiger und bringt gewünschte Performance zwischen N31 und N33.

Soweit plausibel. Maximale Performance in High-End. Minimale Kosten für die anderen Segmente.
Oder anderer Grund: Ein 3x10 Arrangement passt einfach besser vom Chip-Layout her als 4x8 ;)

iamthebear
2022-08-18, 00:29:59
Steht ja da: Shader Engine isoliert betrachtet.

Sorry habe ich überlesen.

6x10 wären sicher etwas viel. Wieso dann nicht 5x10 ;)

Dann müsste AMD aber die Form der Shader Engines anpassen damit die WGPs alle in einer Reihe sind statt 2 und dann alle Shader Engines nebeneinander. Nvidia hat es beim GA102 auch so gemacht aber ob das für die Signalwege ideal ist, das ist eine andere Frage.

Iscaran
2022-08-18, 00:36:49
*grübel*

Nochmal die Zahlen aus dem Gerücht (SE = Shader Engine, SA = Shader Array, WGP = Work Group Processor).
Zum Vergleich auch nochmal RDNA1 (https://fuse.wikichip.org/news/3331/radeon-rx-5700-navi-and-the-rdna-architecture/2/) und RDNA2 (https://twitter.com/locuza_/status/1399137861216129027):

RDNA1
N10 2 SE / 4 SA / je 5 WGP = 20 WGP
N14 1 SE / 2 SA / je 6 WGP = 11(12) WGP (weil mind. 1 immer deaktiviert war) N14 war aber so oder so eine Art "Notnagel" für OEMs nach-released wurde.

RDNA2
N21 4 SE / 8 SA / je 5 WGP = 40 WGP
N22 2 SE / 4 SA / je 5 WGP = 20 WGP
N23 2 SE / 4 SA / je 4 WGP = 16 WGP
N24 1 SE / 2 SA / je 4 WGP = 8 WGP (deutlich später nach-released)

RDNA3 (Gerücht)
N31 6 SE / 12 SA / je 4 WGP = 48 WGP
N32 3 SE / 6 SA / je 5 WGP = 30 WGP
N33 2 SE / 4 SA / je 4 WGP = 16 WGP

So betrachtet war ja N22 = N10 und N21 = 2xN22 bzw 2xN10 (inkl. Veränderungen an den Baueinheiten selbst).
Aber nur mal vom "Logik-Layout" her eben N21 = 2xN22 = 2xN10
N23 ist insofern seltsam weil er nur 4 WGP kleiner als N22 war...aber gerade um Chipfläche zu sparen hat man auch erheblich am neuen Cache gespart und am SI. Vermutlich konnte man so "recht schnell" einen kleineren Chip designen basierend auf N22 indem man einfach 1 WGPs pro SA wegliess (und den Cache und das SI kastrierte). (ca 1/3 kleiner! als N22, heisst also statt 2 N22 aus dem Wafer erhält man 3 N23 => 50% mehr Chips.
So konnte man schnell einen kleineren Die produzieren ohne viel "Design" aufwand zu schieben(?) und so der (unerwartet?) hohen Nachfrage gerade im Mainstream besser gerecht werden.

N32 passt hier irgendwie einfach überhaupt nicht rein in die "Bau-Logik".
Warum so "anders"???

Könnte natürlich sein, dass es wie bei N14 ein Chip mit "per Default" deaktivierten 2 WGPs ist - aber im Unterschied zu N14 ist N32 ja kein "salvage" oder low-end Produkt wo man auf maximale Ausbeute bzw. Chipzahl hin designed?

Alternativ stimmt halt das Gerücht nicht so ganz:

alternative Design-rules die eher zum "Baukasten" passen:
N31 6 SE / 12 SA / je 4 WGP = 48 WGP
Var1-N32 34 SE / 68 SA / je 54 WGP = 3032 WGP
Var2-N32 3 SE / 6 SA / je 56 WGP = 3036 WGP
N33 2 SE / 4 SA / je 4 WGP = 16 WGP

Die Variante mit 36 WGP oder eben 32 WGP mit 2 deaktivierten scheint mir hier noch am logischsten zu sein.
36 WGP würde auch vom Abstand her vermutlich besser zu N31 passen und die Design Variante mit 32 verbauten und nur 30 aktiven WGP ist zumindest sehr nahe dran, allerdings hat AMD bislang nur bei absoluten Low-Cost chips auf soetwas zurückgegriffen (der OEM N14 ist glaub ich das EINZIGE Beispiel dafür)