PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

HOT
2023-08-12, 09:45:26
Wer ist hier jetzt borniert?

Nur ein paar Sachem zum Denken:
1.) Wie verwandelt man sein Software-AI-Erzeugnis in Geld?
2.) Wie hinderlich werden künftige Regulierungen, die so sicher kommen werden wie das Amen in der Kirche, für die AI-Software-Startups?
3.) Wie desaströs werden fernöstliche AI-Billig-Angebote ggü. der westlichen AI? (Ost -West-Konflikt bahnt sich auch hier an)
4.) Wie stark werden AI-Auswirkungen auf den Arbeitsmarkt (Versicherungen z.B.) und wie stark werden Staaten das ausbremsen deswegen?

Es gibt ein paar echt üble Hindernisse, die den Markt stark bremsen könnten. Hinzu kommt noch die Zeit, die alle vergessen. Die Entwicklung wird in einem gewissen Zeitraum passieren, das geht nicht bis morgen. Allein dieser Faktor wird die Blasenbildung befördern.

ianm
2023-08-12, 10:29:45
Und die Schattenseiten von AI schaut sich niemand an. Hauptsache die Kohle stimmt. Der Heilsbringer wird AI nicht, vielleicht sogar das genaue Gegenteil.

Ein interessanter Blickwinkel:

brQLpTnDwyg

DrFreaK666
2023-08-12, 11:04:05
Bitte nicht vom Thema abschweifen
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576534&highlight=Intelligenz

bbott
2023-08-12, 11:28:16
Ich glaube nicht, dass das eine Blase ist. Das ist erst der Anfang. Für das Inferencing und Training braucht es halt brutal Matrixrechenleistung. Und des werden immer mehr NNs die trainiert und genutzt werden und die werden immer komplexer. Da ist Platz für exponentielles Wachstum an HW Verkäufen.
Sehe ich nicht so langsam verstehen die Leute das es nicht das leistet was AI verspricht. Es werden si derzeiten Grenzen hnd Einschränkung immer deutlicher. Das wird wieder stark abflachen, natürlich nicht verschwinden.
Außerdem werden denke ich auch hier AI Beschleunjger welche für bestimmte Bereiche entwickelt werden, NV Lösungen weitestgehend überflüssig machen, war doch bei vielen Anwendungen so, bspl. Mining.

Wie viel Silizium in % man bei NV für AI verwendet werden? Wenn AI only Dies kommen, reden wir weiter ;-)

HOT
2023-08-12, 12:03:30
Ich hätt da mal ne Spekulation für ein Lineup als Teilrefresh für eine potenzielle 8k-Serie Ende 2024:

8900XT -> N31 (Rev.B?) Full, 24GB 24GT/s RAM, 450W TBP
8900 -> N31 Full, 20GB, 315W
8800XT -> N31 84 CUs, 16GB, 290W
8800 -> N31 70 CUs, 16GB, 275W
8700XT -> N43 Full (48CUs), 12GB GDDR7, 220W
8700 -> N43 40CUs, 12GB GDDR7, 180W
8600XT -> N43 32CUs, 12GB GDDR7, 150W
8600 -> N44 Full (24CUs), 8GB

Toms (MLID) Traumtänzerei von wegen N43 hat N31-Leistung halte ich für pures Wunschdenken, das wird mMn nicht passieren.

horn 12
2023-08-12, 14:07:30
Bitte und wie schnell N31 (Rev. B)
4090 Performance plus 0 bis +5%

Teilweise aber auch knapp unter 4090

TheAntitheist
2023-08-12, 16:30:29
Man kann nur hoffen, dass vom AI Boom etwas Positives zurück bleibt. Ansonsten sieht das erstmal sehr ähnlich aus.

Nvidia will mit Gaming scheinbar auch nicht mehr groß was zu tun haben - und AMD mit der kommenden Generation auch nicht wirklich. Hauptsache man verkauft überteuere Hardware an AI Startups und die üblichen Verdächtigen im IT Bereich. Alles für den Shareholder.
sorry aber Nvidia hat sehr stark ins Gaming investiert, jede Innovation der letzten 10 Jahre kam doch von Nvidia. Ja überteuert aber dennoch lassen sie die Gamer nicht fallen. Dazu ist Jensen auch einfach ein bisschen nur viel am zocken. bei AMD sieht das natürlich anders aus, immer nur das Minimum abliefern.

ianm
2023-08-13, 09:28:27
sorry aber Nvidia hat sehr stark ins Gaming investiert, jede Innovation der letzten 10 Jahre kam doch von Nvidia. Ja überteuert aber dennoch lassen sie die Gamer nicht fallen. Dazu ist Jensen auch einfach ein bisschen nur viel am zocken. bei AMD sieht das natürlich anders aus, immer nur das Minimum abliefern.
Das mit den Innovationen würde ich nicht so unterschreiben. Ist aber auch irrelevant. Was ich meine ist sowas:

https://www.techradar.com/computing/gpu/nvidias-ai-dominance-will-be-the-death-knell-for-its-geforce-graphics-cards

Wenn im AI Bereich mehr Geld zu machen ist und NV die beste Hardware dafür hat, warum sollen sie noch groß in Gaming investieren? Die Anzeichen sind doch alle da. RDNA4 wird im Highend zurück geschraubt und die Situation wird evtl. ähnlich wie zu RDNA1 sein. Macht vielleicht auch Sinn, wenn man etwas vom AI Kuchen abhaben möchte und die Packaging Kapazitäten endlich und limitierend sind. Shareholder haben schließlich beide.

Als Gamer muss ich, so mein Sichtweise bisher, damit rechnen, dass Preise oben bleiben werden, Verfügbarkeit stark reguliert wird und im schlimmsten Fall auch die Leistungszuwächse zur alten Generation überschaubar bleiben. Also ähnlich wie diese Generation. Und das wäre echt schade.

The_Invisible
2023-08-13, 10:45:07
Glaub kaum das Jensen das Thema gaming fallen lassen wird, das war von Anfang an sein "baby" was das erst alles ermöglicht hat.
Workstation 3d/ai Karten braucht man immer, da wird die Reste Verwertung halt in gamegrafikarten landen.

Achill
2023-08-13, 11:08:06
Vielleicht ging es ja in meinen Speku-Post unter, aber ich habe nie gesagt - noch bin ich der Meinung, dass die nächste große AMD GPU nicht kommt.

Mein Punkt war, dass die ggf. einfach nur nicht für den Gaming-Bereich verfügbar wird sollte genügend Abnehmer in einen anderen Markt geben, und dieser kann situativ Wichtiger sein. Und das gleich gilt für NV ..

Imho wird AMD noch NV diese komplett vom Gaming-Markt ausschließen, dafür hätte dies hinsichtlich PR keine gute Wirkung (sieht man ja hier schon was los ist, obwohl noch gar nichts fest steht). Die werden einfach eine weitere Preisklasse nach oben geschoben ...

davidzo
2023-08-13, 11:23:40
Wir hatten im RDNA3 Thread ja bereits die Diskussion dass ein dreifacher monolitischer N33 in N5 für AMD vermutlich effizienter, hochtaktender und wesentlich günstiger gewesen wäre als der jetzige Chiplet-verbund.
Der Chip wäre unter 40Mrd transistoren groß und damit wohl auch nicht größer als der jetzige GCD.

Hier sehe ich den eigentlichen Grund wieso N41 und N42 gecancelt wurden und stattdessen mit monolitischen Chips unterhalb des absoluten Highends ersetzt wurden. Das dürfte aber schon gut ein Jahr her sein, als man wusste wie N31 heraus kommt. Das kommt auch zeitlich hin mit einer Neukonzeption von N43 und N44 bis jetzt.

Der eigentliche Grund für die Chiplets war stacked cache und damit der Griff nach der Leistungskrone. AMD scheint aber im Interconnect und den MCDs wesentlich mehr Energie zu verbraten als geplant. Ohne den hohen Takt macht der gestackte Cache keinen Sinn, da man die 4090 eh nicht erreicht, geschweige denn einen hypothetischen full AD102 den nvidia jederzeit bringen könnte.

Es gab ja schon Tests die festgestellt haben dass der Takt bei reiner compute-Last locker über 3Ghz liegt aber drastisch sinkt sobald die ROPs voll ausgelastet sind, was aber auch das SI oder der IFcache sein können.

Dazu kommen noch die Probleme mit dem RDL, wo man anscheinend mit organic RDL geplant hatte, am Ende aber doch das teurere SI-RDL zum Einsatz kommen musste.

Der N31 den wir aktuell sehen ist zusammengestrichen um die Kosten in Grenzen zu halten. Die 7900GRE mit verkleinertem Package ist ein weiteres Indiz dafür das es für AMD für RDNA3 jetzt nur noch um Kostenoptimierung geht.

Wir können also begründet vermuten dass nach heutigem Wissensstand ein monolitischer 300mm2 Chip mit 3x N33 Architektur besser gewesen wäre als der Versuch eines Highend Chiplet-Monsters mit MCDs mit optionalem gestacktem Cache.

Ich gehe davon aus dass AMD zu einer ähnlichen Schlussfolgerung gekommen ist und daher die großen Chiplet-GPUs von RDNA4 gestrichen hat. Diese bauen auf demselben MCD Konstrukt wie N31 und N32 auf, leiden also an denselben Problemen die N31 zurück halten.

Der_Korken
Nein, mMn ist N43 in N4 kaum mehr als ein Navi3.5. Wenn das Ding in N3 kommt und mehr als 2 SEs hat, können wir drüber reden, aber das glaub ich nicht. Der wird 2x10WGP haben, vielleicht packt er zusätzlich die 3GHz, das wäre dann aber kaum mehr als AD106. Alles andere ist aus meiner Sicht unter den Voraussetzungen einfach unrealistisch. MMn ist der Chip vor allem billig, genau wie N33, mit all seinen Nachteilen. ein Strategiewechsel ist ja erst jetzt zu erwarten, wo die "Katastrophe" eingetreten ist.

Da wäre ich mir nicht so sicher. Bloß weil er die "3" im Namen hat muss der nichts mit N33 zutun haben.

Hatten wir denn zeitgleich zu N41 und N42 schon Gerüchte zu N43 und N44 oder gibt es die neuen Codenamen erst seit heute?

N33 ist der einzige Chip der nicht komplett schief gelaufen ist bei der RDNA3 Serie. Pünktlich erschienen, günstig in der Herstellung, sehr gut verfügbar dank N6, modernes featureset und sogar im mobile trotz N6 konkurrenzfähig zu AD107 in N4. 159mm2 bzw. 18,9Mrd Transistoren in N4 dürften erheblich teurer sein als 13,3Mrd auf 200mm2 in N6.

Was wäre denn wenn AMD mit RDNA4 gar nicht vor hatte N33 zu ersetzen, sondern den Lowend der RX8000er Serie einfach mit refresh N33 Karten besetzt?
Dann könnten N43 und N44 auch Nachfolger von N31 und N32 sein: Monolitisch in N5/N4, kostenoptimiert ohne stacked cache und RDL, energieeffizienter und über 3Ghz taktend und mit neuer RT-Hardware.
Das wären dann zwar kein Highend-Contender mehr, aber analog zu Polaris10 und Navi10 damals kann man ziemlich solide Performance-Chips erwarten.

amdfanuwe
2023-08-13, 13:10:25
Gaming Markt seh ich so:
AMD braucht GPU für APU, Mobile, Konsolen und Semicustom.
Nvidia hat bisher gut verdient mit Mobile und Desktop AIB.
Für Nvidia bricht aber zunehmend der Low-End Massenmarkt weg weil APUs immer stärker werden und Intel und AMD ihre GPUs auch bündeln werden.
Ist die Frage, wie lange es sich für Nvidia noch lohnt in Gaming zu investieren.

horn 12
2023-08-13, 14:15:07
@davidzo

und wie schnell wird dann der RDNA 3 Refresh, also N43 und N44 als Midrange und Unteres bis gar Lowend
und der 3.5 Navi sollte ca. welche Performance dann verfolgen können?

davidzo
2023-08-13, 14:57:36
@davidzo

und wie schnell wird dann der RDNA 3 Refresh, also N43 und N44 als Midrange und Unteres bis gar Lowend
und der 3.5 Navi sollte ca. welche Performance dann verfolgen können?

Kommt auf den CU-count an. Es ist alles denkbar, weiterhin 96CU, also ein "Navi31 done right" oder eine Aufstockung auf 128CU oder ein Rückgang nur 80CU wie N21. Letzteres wäre mit etwas Mehrtakt dann auch zumindest auf RX7000 Niveau, also immerhin kein Rückschritt.

Ein N31 refresh in monolithisch mir 96 CUs und 96mb Cache und GFX1102 Architektur wäre wohl unter 40Mrd Transistoren in rund 300mm2 in N4 denkbar. Ich denke da wird AMD ansetzen.

Der N31 GCD hat zwar bereits 150Mtr/mm2 in N5 während Nvidia bei den Lovelace Chips nur auf 120-125Mtr/mm2 kommt. Allerdings hat nvidia eben auch PCIe, SI Analogkrams und SRAM Cache an Bord. Diese Density kann man von einem monolitischen Chip von AMD auch erwarten.

GFX1100 und 1101 (N31 und N32) schleppen aber anscheinend viel Ballast mit herum. 58Mrd für N31 sind viel zu viel gegenüber 39,9 für 3x N33 oder 26,8 bei N21 mit größerem cache.
Das kann nicht nur der vergrößerte L1 Registerspace sein, denn ein exakt dreifacher N33 hätte eine auch dreifache Video-engine und 8x PCIe Lanes zu viel.

Unabhängig vom CU-count kann man mit deutlichem Fortschritt bei der RT-Leistung rechnen, da RDNA4 ja mindestens dedizierte BVH Processing units mitbringen soll, also RT LVL3 wie Turing, Ampere. Die werden sicherlich auch etwas Diespace kosten.

Wenn AMD tatsächlich nur noch monolitische midrange Chips unter 300mm2 anbietet, dann wären 80CUs mit Mehrtakt auf 7900XTX Leistung (also vor AD103) und RT Leistung auf 4080 Niveau denkbar.
Wenn AMD auch Dies über 400mm2 bauen würde, wäre ein Highend Chip mit 128CUs und Rasterizing und RT performance auf dem Niveau von AD102 drin.

Mit N3 wäre noch mehr drin, allerdings rechne ich nicht damit dass AMD sich bei einer "performance-Chip-Strategie" an solch einen teuren Node wagt.

RDNA3 ist nicht per Se eine ineffiziente Architektur. Es lief nur einiges bei der Implementierung schief. An N33 sieht man aber wie effizient bei der PPA die GFX1102 Architektur wirklich sein kann. Lovelace braucht für vergleichbare Performance biszu 42% mehr Transistoren und ein teureres, leistungsfähigeres Fertigungsverfahren (N33 vs AD107). Abschreiben würde ich AMDs neue RDNA4 Strategie also nicht, selbst wenn erstmal nur noch performance-chips kommen.

Thunder99
2023-08-13, 16:02:35
Chiplets sind die Zukunft. Denke nicht, dass AMD es schon wieder aufgibt. Die Probleme oder Limitierungen müssen aber gelöst werden damit es besser funktioniert als Nav31/32.
Wenn sie für Navi4x es aussetzen, dann nur um mehr Zeit zu gewinnen um dann umso stärker zu sein.

horn 12
2023-08-13, 16:44:50
Nun, somit kommt vor Oktober bis Dezember 2024 wohl nix, kaum schnelleres als 7900XTX und dann wird die Karte 2 Jahre jung und wird sich bis dato gut von 4080 absetzen können.
Bin auf die Präsentation von AMD Ende August gespannt.

w0mbat
2023-08-14, 20:09:17
MLID mit einigen interessanten leaks. Anscheinend war ein ziemlich krasses chiplet design geplant.
Ki2j11GcoU0

BlacKi
2023-08-14, 20:10:44
neue gerüchte von MLID:

navi4c flagship war wohl als splitterhaufen design geplant^^
https://cdn.videocardz.com/1/2023/08/AMD-NAVI-4C-HERO.jpg
https://videocardz.com/newz/amds-canceled-radeon-rx-8000-navi-4c-gpu-diagram-has-been-partially-leaked

w0mbat
2023-08-14, 20:29:08
Sieht fast aus wie MI300.

Der_Korken
2023-08-14, 20:53:59
Uff, bei so einer Konstruktion wundert es mich nicht, dass AMD das gecancelt hat. Grundsätzlich ist die Idee natürlich eine Adaptierung von Zen 2 für GPUs und AMD hätte mit einem Compute-Die und einem Interposer-Die das ganze Lineup aufstellen können. Selbst wenn man davon ausgeht, dass AMD das Loadbalancing hinbekommen hätte und das Konstrukt nach oben skaliert hätte, kann AMD nicht die Engpässe beim Packaging lösen. Für den Topdog wäre es vielleicht gegangen, weil man hier wenig Stückzahl und hohe Verkaufspreise hat. Aber für Midrange siehts schwer aus. Und nur für ein Flaggschiff hat sich das alles nicht gelohnt, sodass jetzt nur zwei Monolithen für Midrange und Lowend kommen. Das wäre für mich eine schlüssige Story.

amdfanuwe
2023-08-14, 21:59:09
SED enthielte also nur eine SE (mit L2?).
AID enthielte wohl IF$ und 2 SI.
MID auch klar, PCIe, MM-Engine, Video I/O.
Aber wo sitzt der Controller? Ein großer mit im MID?

Hypadaiper
2023-08-14, 22:32:49
Ist denn gesichert, dass es Monolithen werden ? Eventuell hat AMD Probleme beim load balancing und geht deswegen nur midrange mit ihrer splitter Taktik.

Leonidas
2023-08-15, 09:22:00
... sodass jetzt nur zwei Monolithen für Midrange und Lowend kommen. Das wäre für mich eine schlüssige Story.

Das wäre eigentlich unschlüssig hoch 3. Weil AMD jetzt noch die Zeitreserven hat, um sich was neues auszudenken. Wieso sollte man Midrange (N43 ist dies nicht) willkürlich liegenlassen, wenn noch Zeit da ist, die Architektur selber kein Problem darstellt und man ein Baukasten-System vor der Nase hat?

Nur weil wir nicht wissen, was AMD anstelle von N41/N42 plant, bedeutet das nicht, das AMD da gar nichts mehr plant.

The_Invisible
2023-08-15, 09:29:44
Nun, somit kommt vor Oktober bis Dezember 2024 wohl nix, kaum schnelleres als 7900XTX und dann wird die Karte 2 Jahre jung und wird sich bis dato gut von 4080 absetzen können.
Bin auf die Präsentation von AMD Ende August gespannt.

Glaub kaum das es weniger RT spiele geben wird und da schaut's noch immer böse aus für AMD, siehe ratchet rift apart mit RT.

Hoffe sie stecken hier endlich mehr R&D für RDNA4 rein...

Linmoum
2023-08-15, 09:29:51
Ob AMD tatsächlich solch riesige Zeitreserven hätte, vermag ich nicht zu beurteilen, wenn das Endprodukt dann aber zeitlich schon (zu) nah an RDNA5 wäre, dann wird man sich den ganzen Aufwand verständlicherweise sparen, gerade bei Desktop-GPUs.

fondness
2023-08-15, 10:22:20
Uff, bei so einer Konstruktion wundert es mich nicht, dass AMD das gecancelt hat. Grundsätzlich ist die Idee natürlich eine Adaptierung von Zen 2 für GPUs und AMD hätte mit einem Compute-Die und einem Interposer-Die das ganze Lineup aufstellen können. Selbst wenn man davon ausgeht, dass AMD das Loadbalancing hinbekommen hätte und das Konstrukt nach oben skaliert hätte, kann AMD nicht die Engpässe beim Packaging lösen. Für den Topdog wäre es vielleicht gegangen, weil man hier wenig Stückzahl und hohe Verkaufspreise hat. Aber für Midrange siehts schwer aus. Und nur für ein Flaggschiff hat sich das alles nicht gelohnt, sodass jetzt nur zwei Monolithen für Midrange und Lowend kommen. Das wäre für mich eine schlüssige Story.

Ja sehe ich auch so, vor allem durch die laut TSMC länger anhaltenden Packaging Engpässe kann man ein solches Design nicht verwenden und musste womöglich relativ kurzfristig umplanen.

robbitop
2023-08-15, 10:49:24
Man kann nur hoffen, dass Samsung und Intel (als foundry) in die Puschen kommen, damit es mehr Wettbewerb auf dem neusten Prozess (und damit mehr Kapazität auf diesem) gibt.
Alle rennen zu TSMC und suprise suprise die Kapazität für bleeding edge reicht nicht für viele (außer Apple die sich das erkaufen).

dargo
2023-08-15, 11:00:58
Glaub kaum das es weniger RT spiele geben wird und da schaut's noch immer böse aus für AMD, siehe ratchet rift apart mit RT.

Gähn... der Mehrwert von RT in R+C ist kaum vorhanden. Keine Ahnung wie man auf die Idee kommt man müsste das verwenden (gibt genug Fuckups damit), ist immer noch optional. Und selbst wenn man der Meinung ist man braucht das läuft es sogar auf N21 ohne Probleme mit Upscaling.

Hatstick
2023-08-15, 11:16:30
Hat AMD mit "keine High-End Grafikkarten" mehr mit RDNA4 die Sache etwas ausführlicher beschrieben oder meinen sie damit mehr oder weniger ihre über 1000€ Karten (zu Release)?

Kommt mir bissl komisch vor, weil ich immer gedacht habe vom Chipdesign ist gerade jetzt RDNA3 so eine Art Übergang mit ihren Chiplets usw. und mit RDNA4 steht die Geschichte dann soweit und sie können vielleicht ein Stück mehr oben angreifen aber gerade zur nächsten Gen dann wohl gar nicht mehr als Konkurrent für die 80er der nVidia releasen?

RTX 5090 dann bei 2500€ oder wie soll sich das im Zweifel entwickeln?
Sehe es nicht nur aus der Sicht von uns als Hardware Käufer, sondern auch aus der Sicht der Spieledevs, für die es ja auch nicht gerade ein Vorteil ist, wenn sich viele Consumer wegen den Preisen oder eventl. dann durch die Auswahl sehr mit einem GPU Kauf zurück halten?

dargo
2023-08-15, 11:21:38
Hat AMD mit "keine High-End Grafikkarten" mehr mit RDNA4 die Sache etwas ausführlicher beschrieben oder meinen sie damit mehr oder weniger ihre über 1000€ Karten (zu Release)?

Ich schätze AMD sieht keinen nennenswerten Markt bei den PC-Spielern weit oberhalb 999$. Und das finde ich auch gar nicht mal so verkehrt. Schon die Preise der RTX 4090 sind verrückt, wo soll das dann von Gen zu Gen führen? In 10 Jahren kostet der Togdog dann 5.000$ für sowas belangloses wie Gaming? :ulol:

BlacKi
2023-08-15, 11:26:40
die 4090 verkauft sich aber sehr gut. wenn amd da keinen markt drin sieht, warum startet man das R&D überhaupt für solche flagship gpus? und auch generell sehe ich, ausser für enthusiast karten, keinen mehrwert für chiplet gpus. für mainstream gpus rentiert es sich nicht auf chiplets zu setzen.

ich teile die meinung eher, das die projektierung einfach zuviel war. man hat sich überhoben. man hat wohl mit 19-21 tiles geplant. das ist schon verdammt krass.

The_Invisible
2023-08-15, 11:27:21
Die meisten Hobbys sind "belanglos" und da ist Gaming sicher eines der günstigeren davon... würde keiner über >1000EUR kaufen hätte man das nach der ersten Titan schon eingestellt, man muss dann aber schon was kompromissloses bieten

dargo
2023-08-15, 11:29:21
die 4090 verkauft sich aber sehr gut.
Woran machst du das fest? Ich hoffe nicht alleine an irgendwelchen Zahlen aus DE. Zudem ist die 4090 auch außerhalb vom Gaming gut verwendbar und es ist nur "Abfall". Ich glaube kaum NV hätte AD102 alleine fürs Gaming designt, das lohnt nicht. Soll heißen... mit einer SKU die du in anderen Märkten sehr teuer los wirst gehst du ein deutlich niedrigeres Risiko ein.

Die meisten Hobbys sind "belanglos" und da ist Gaming sicher eines der günstigeren davon... würde keiner über >1000EUR kaufen hätte man das nach der ersten Titan schon eingestellt, man muss dann aber schon was kompromissloses bieten
Lol... jede Hardware ist nichts weiter als ein Kompromiss.

Hatstick
2023-08-15, 11:38:51
Aber profitiert AMD nicht auch von den hohen UVPs der aktuellen nVidia Gen?
Keiner von uns weiß, ob AMDs UVP wirklich so geplant waren oder sie natürlich "gerne" ihre Produkte dementsprechend nach oben korrigiert haben?

Wobei ich auch dabei bin und mich 1000€ + Karten nicht jucken, bzw. ich das Geld dafür nicht mehr ausgeben würde aber klar braucht man auch die sehr gut betuchten Gamer, keine Frage.

Naja, lassen wir uns mal negativ überraschen zur nächsten Gen. :freak:

dargo
2023-08-15, 11:41:06
Aber profitiert AMD nicht auch von den hohen UVPs der aktuellen nVidia Gen?

Sicherlich... jeder profitiert wenn er sein Produkt nicht verramschen muss.


Keiner von uns weiß, ob AMDs UVP wirklich so geplant waren oder sie natürlich "gerne" ihre Produkte dementsprechend nach oben korrigiert haben?

Also ich habe bei N31 keine Preisanpassung nach oben mit 999$ gesehen vs. N21. Nüchtern betrachtet war N21 später mit der RX 6950XT sogar teurer.

BlacKi
2023-08-15, 11:42:35
Woran machst du das fest? Ich hoffe nicht alleine an irgendwelchen Zahlen aus DE. Zudem ist die 4090 auch außerhalb vom Gaming gut verwendbar und es ist nur "Abfall".pretty easy


aktueller steam survey
https://abload.de/img/screenshot2023-08-15al8iwb.pnghttps://store.steampowered.com/hwsurvey?platform=pc






aber selbst wenn das R&D für solche teuren karten nicht profitabel wäre, wäre es noch schlimmer R&D dafür auszugeben und die karten *Navi4c hust* zu canceln.

dargo
2023-08-15, 11:57:46
pretty easy


aktueller steam survey
https://abload.de/img/screenshot2023-08-15al8iwb.pnghttps://store.steampowered.com/hwsurvey?platform=pc

Was genau soll mir die Grafik jetzt zeigen? Dass sich Ada allgemein eher schlecht verkauft? Bei Steam liegt selbst die 7900XTX bei 0,17%, das bedeutet auf eine RX 7900XTX verkauft Nvidia nicht mal vier RTX 4090. Eigentlich müsste man hier eher die RTX 4080 in Betracht ziehen da sie deutlich näher am Preis der RX 7900XTX liegt. Und hier sieht es noch etwas schlechter aus. Nicht mal drei Geforce Karten auf eine Radeon. Bei dem aktuellen Marktverhältnis nichts worauf Nvidia stolz sein kann.

PS: die ganze Steam-Statistik zeigt eigentlich recht deutlich, dass unter den Top 10 Karten nur Grakas unterhalb 1000€ landen. Die erste Grafikkarte die >1000€ kostet ist an Pos. 37. :freak:

BlacKi
2023-08-15, 12:07:22
Was genau soll mir die Grafik jetzt zeigen?


ganz einfach: flagship gpus(4090) sind genauso wichtig deutlich günstigere karten (4070ti).


warum willst du die 4090 gegen amd karten vergleichen? der vergleich muss möglichst nahe liegen. auch im zeitlichen ramen.

HOT
2023-08-15, 12:07:57
Uff, bei so einer Konstruktion wundert es mich nicht, dass AMD das gecancelt hat. Grundsätzlich ist die Idee natürlich eine Adaptierung von Zen 2 für GPUs und AMD hätte mit einem Compute-Die und einem Interposer-Die das ganze Lineup aufstellen können. Selbst wenn man davon ausgeht, dass AMD das Loadbalancing hinbekommen hätte und das Konstrukt nach oben skaliert hätte, kann AMD nicht die Engpässe beim Packaging lösen. Für den Topdog wäre es vielleicht gegangen, weil man hier wenig Stückzahl und hohe Verkaufspreise hat. Aber für Midrange siehts schwer aus. Und nur für ein Flaggschiff hat sich das alles nicht gelohnt, sodass jetzt nur zwei Monolithen für Midrange und Lowend kommen. Das wäre für mich eine schlüssige Story.

Es ist gar nicht sicher, dass AMD das nicht hinbekommt. MMn werden die dafür einfach etwas mehr Zeit brauchen und die nimmt man sich jetzt. Was viel viel wichtiger ist, ist, dass AMD die Fertigungskapazitäten hierfür sowieso nicht zur Verfügung hat, weil die samt und sonders eh für MI300 und MI400 genutzt werden. Selbst wenn AMD das rechtzeitig hinbekommen hätte, wäre das Produkt so oder so gecancelt worden.

Ich hab noch einige Gedanken:
1.) Mit 9 SEs hätte das Ding unglaublich viele WGPs gehabt und eine unglaubliche Leistung und wahrscheinlich in Richtung 1000mm². Ja das wäre ein übelstes Teil geworden.
2.) MI400 wird der Türöffner für die Chipletsbasistechnologie für diese Art neuer Grafikchips sein
3.) TSMC baut seine Packagingtechnologie stark aus und das wird helfen, dass sowas auch den Consimer erreichen kann.

Ein Produkt in der Art ein Jahr später, also Ende 25, ist durchaus realistisch aus meiner Sicht, dann RDNA4.5

Nightspider
2023-08-15, 12:13:12
Nur weil wir nicht wissen, was AMD anstelle von N41/N42 plant, bedeutet das nicht, das AMD da gar nichts mehr plant.

MI400 :D

Angeblich könnte sich die Situationen mit dem Packaging Ende 2024 / 2025 etwas entspannen - auch je nach AI Nachfrage.

Ich halte es daher für möglich das es AMD Ende 2025 mit N51 nochmal wagt aber parallel trotzdem einen monolithischen ~500mm² Chip plant, falls man doch die ganzen Advanced Packaging Kapazitäten für CDNA nutzen will.

Könnte AMD Ende 2025 schon mit kleinen N2 Chips planen?

Die Shader Engine Dies könnten potentiell sehr klein sein.

dargo
2023-08-15, 12:14:17
ganz einfach: flagship gpus(4090) sind genauso wichtig deutlich günstigere karten (4070ti).

Lol... die 4070TI sowie die 4080 schneiden nur so schlecht ab weil Nvidia die ganzen Segmente verschoben hat. Sprich... diese Karten sehen vs. Vorgänger deutlich schlechter aus und sind deshalb auch nicht so stark gefragt. Eine 3070TI/3080/3080TI hatten sich noch besser verkauft als eine 3090 laut Steam. Insbesondere die 3080 vs. 3090 steht da deutlich besser da.

Nightspider
2023-08-15, 12:38:27
für mainstream gpus rentiert es sich nicht auf chiplets zu setzen.

Noch nicht. Lass mal noch 1-2 Generationen vergehen.

Das ist die Zukunft, auch für Mainstream Grafikkarten.

DrFreaK666
2023-08-15, 13:32:11
ganz einfach: flagship gpus(4090) sind genauso wichtig deutlich günstigere karten (4070ti)...

lol. So hätte es NV wohl gerne. Der Mehrzahl sind günstige Grafikkarten wichtig und keine für 1000+€

Der_Korken
2023-08-15, 13:38:28
Das wäre eigentlich unschlüssig hoch 3. Weil AMD jetzt noch die Zeitreserven hat, um sich was neues auszudenken. Wieso sollte man Midrange (N43 ist dies nicht) willkürlich liegenlassen, wenn noch Zeit da ist, die Architektur selber kein Problem darstellt und man ein Baukasten-System vor der Nase hat?

Es könnte schlicht eine Kostenfrage sein. Angenommen, AMD hat ihr Baukasten-System im Zeitplan und es würde voraussichtlich Ende 2024 fertig. Jetzt sieht AMD aber, dass sie sich bezüglich der Packaging-Kapazitäten komplett verkalkuliert haben und sie gar nicht genug Kontingente bekommen, um ihre ganzen gefertigen Einzel-Dies auch zusammenzubauen (oder sie müssten andere Hersteller überbieten, aber dann werden die GPUs für den Consumer-Markt viel zu teuer).

Was also tun? Man nutzt die neuen CUs und SEs, um daraus einen kleinen und mittelgroßen N44 und N43 zu schnitzen. Das kostet Extrazeit, weil der Verbund um die SEs herum neu gelayoutet werden muss. Die Interposer-Dies und co. kann man ja nicht nutzen. Für den oberen Performance-Bereich könnte man auch jeweils einen N41 und N42 bringen, aber vielleicht verzichtet AMD darauf, weil das zusätzlich zu N43 und N44 noch mehr Zeit kostet, sodass es schon mit dem Zeitplan für RDNA5 kollidiert. Das wäre ja schließlich vier zusätzliche Dies, die gar nicht eingeplant waren. Den breakeven wann sich der Zusatzaufwand vs Stückzahl lohnt, hat AMD vielleicht zwischen einem hypothetischen N42 und N43 gesetzt.

Wie groß welcher Chip am Ende sein wird und was "Highend" bedeutet, werden wir dann sehen müssen. 9 SEs mit je zwei Shader Arrays mit je 5 WGPs wären umgerechnet 180 CUs, also knapp doppelt so viel N31. Dazu der Takt, den N31 nicht geschafft und die neue HW-Implementierung für BVH-Traversals ... das hätte ein 600W Monster sein können. Wenn N43 "nur" 1/3 des vollen Flagschiffs wird, wäre das immer noch ein ziemlich schneller Chip.

Lol... die 4070TI sowie die 4080 schneiden nur so schlecht ab weil Nvidia die ganzen Segmente verschoben hat. Sprich... diese Karten sehen vs. Vorgänger deutlich schlechter aus und sind deshalb auch nicht so stark gefragt. Eine 3070TI/3080/3080TI hatten sich noch besser verkauft als eine 3090 laut Steam. Insbesondere die 3080 vs. 3090 steht da deutlich besser da.

Die 3080 ist ein Sonderfall gewesen, da sie auf dem 102er Chip basierte. Das gab es seit der GTX780 nicht mehr. Insofern kann man die 4080 noch durchgehen lassen, aber ab 4070Ti abwärts haben wir ein immer absurder werdendes Uplabelling wie du sagst.

horn 12
2023-08-15, 13:58:35
Nun wir reden da immer von 1 1/4 bis gar knapp 2 Jahre bis was Besseres als 7900XTX daherkommt.
Denke dafür wird es FSR 3.0 richten
und der Performance Treiber der zeitgleich kommen wird.

Nightspider
2023-08-15, 14:02:57
Wer mehr Leistung will wird einfach Nvidia kaufen.

BlacKi
2023-08-15, 14:04:23
lol. So hätte es NV wohl gerne. Der Mehrzahl sind günstige Grafikkarten wichtig und keine für 1000+€flagship gpus verkaufen auch kleinere modelle.

Eine 3070TI/3080/3080TI hatten sich noch besser verkauft als eine 3090 laut Steam. Insbesondere die 3080 vs. 3090 steht da deutlich besser da.

da die margen mit dem preis zunehmen, bleibt das trotzdem ein finanzielles wichtiges segment. wenn du alle karten unter 1000€ mit den karten über 1000€ vergleichst dann machst du dich lächerlich.

der punkt ist, umso teurer und schneller du die karten werden lässt, umso mehr segmente kann man bedienen und mehr geld machen. du musst schon 3-5x mehr 3060er verkaufen um die marge einer 3090 reinzuholen. vielleicht sind die günstigeren modelle wichtiger als die teuren, aber am gesammtgewinn aller karten tragen sie dennoch stark bei.

mboeller
2023-08-15, 14:17:06
1) Navi 4c erinnert mich an einige ältere Patente von AMD

2) wenn das Diagramm so stimmt hat es AMD (irgendwie) doch geschafft das komplette Shading auch beim Gaming dezentral zu organisieren (ansonsten würde Navi 4c keinen Sinn machen). Das war ja bisher der Knackpunkt bei verteilten GPU-Architekturen fürs Gaming.

3) Speku: wenn es bei Navi 4c funktioniert, warum dann nicht auch bei monolitischen Midrange Navi43/44 GPU's + Bridge (1-3)? Der Ballast, den man dann mitschleppt ist bei Highend zu verschmerzen.

HOT
2023-08-15, 14:54:40
Offenbar sind N43 und N44 auch deutlich heftiger als gedacht. Tom (MLID) macht da ein paar Anmerkungen die interessant sind, denn N43 kann ja ruhig so groß werden, wie man das kostentechnisch optimal verarbeiten kann, also ca. 250-350mm².
Außerdem kann auch N43 und N44 mit MCDs entwickelt worden sein. So kann es schon sein, dass man ne 8800XT mit einem voll ausgebauten N43 machen kann, die in etwa N31-Leistung erreichen kann (vllt. nicht unbedingt in UHD wegen fehlender Bandbreite).

MMn war die nächste Generation von beiden Herstellern extrem geplant (sicher x2 Leistung), beides wird mMn nicht umgesetzt, beide nicht wegen AI. Man sollte bedenken, beide, also Blackwell 1xx consumer und N4x, wurden wärend des Mininghypes geplant aber mMn nicht umgesetzt oder im Falle von N43/44 nur zum Teil.

robbitop
2023-08-15, 15:15:06
2) wenn das Diagramm so stimmt hat es AMD (irgendwie) doch geschafft das komplette Shading auch beim Gaming dezentral zu organisieren (ansonsten würde Navi 4c keinen Sinn machen). Das war ja bisher der Knackpunkt bei verteilten GPU-Architekturen fürs Gaming.


Naja der M1 Ultra zeigte schon in 2021, dass das Aufteilen von mehreren GPUs mit effizientem und schnellen Interconnect funktioniert und skaliert. Von dort aus gesehen, kann man GPUs sicherlich noch weiter disaggregieren. Solange der Interconnect schnell und effizient genug ist, spricht (sofern man die Mehrtransistoren an Interfaces pro Chiplet akzeptiert) wenig dagegen.

HOT
2023-08-15, 15:26:35
Stacking per TSV ist schneller.

dargo
2023-08-15, 15:30:50
da die margen mit dem preis zunehmen, bleibt das trotzdem ein finanzielles wichtiges segment. wenn du alle karten unter 1000€ mit den karten über 1000€ vergleichst dann machst du dich lächerlich.

der punkt ist, umso teurer und schneller du die karten werden lässt, umso mehr segmente kann man bedienen und mehr geld machen. du musst schon 3-5x mehr 3060er verkaufen um die marge einer 3090 reinzuholen. vielleicht sind die günstigeren modelle wichtiger als die teuren, aber am gesammtgewinn aller karten tragen sie dennoch stark bei.
Entscheide dich mal was du willst. :freak:

Gehts dir um Margen die keinen interessieren, außer den IHV selbst und seine Aktionäre oder gehts dir um Marktanteile? Für die Marktanteile beim PC-Gaming sind die 3060-er mit Faktor 5 (um mal ein fiktives Beispiel zu nennen, laut Steam ist es Faktor >8) wichtiger als die 3090.

BlacKi
2023-08-15, 15:38:50
Entscheide dich mal was du willst. :freak:

Gehts dir um Margen die keinen interessieren, außer den IHV selbst und seine Aktionäre oder gehts dir um Marktanteile? Für die Marktanteile beim PC-Gaming sind die 3060-er mit Faktor 5 (um mal ein fiktives Beispiel zu nennen) wichtiger als die 3090.es gehts ums geld machen. da sind die marktanteile nur ein teil davon, denn auch das halo produkt verkauft kleinere gpus besser. kurz gesagt, die 4090 als halo produkt lässt auch 4060er karten besser verkaufen. dazu kommt, wenn man 3080ti 3090 und 3090ti zusammen nimmt(das waren alles 1000€+ karten), dann würde man mit dem verzicht dieser karten auf sehr viel geld verzichten.bestimmt 20-30% aller gewinne von nv im gaming segment.



auf 1000€+ karten zu verzichten kostet auch amd geld. man lässt grafikkarten segmente liegen, die gewinne erzielt hätten.

Nightspider
2023-08-15, 15:39:04
Naja der M1 Ultra zeigte schon in 2021

Er wurde am 9. März 2022 vorgestellt.

horn 12
2023-08-15, 19:59:12
@HOT

Nun, so ein N43/ N44 wird es wohl nicht vor Spätsommer, Herbst 2024 geben
sprich frühestens in einem Jahr.
und denke da steht die 7900XT / XTX ganz in einem Anderen Licht da wie derzeit
und auch N4x wird davon stark profitieren.

dargo
2023-08-16, 07:47:31
es gehts ums geld machen. da sind die marktanteile nur ein teil davon, denn auch das halo produkt verkauft kleinere gpus besser. kurz gesagt, die 4090 als halo produkt lässt auch 4060er karten besser verkaufen.
Ist nur Blödsinn, ich sehe keinen Ansturm auf die 4060 obwohl die 4090 die schnellste Karte ist.


auf 1000€+ karten zu verzichten kostet auch amd geld. man lässt grafikkarten segmente liegen, die gewinne erzielt hätten.
Ohne zu wissen wie viele dieser Karten AMD überhaupt absetzen kann ist das reine Spekulation von dir, sonst nichts. AMD hat nichts davon wenn sie eine Karte bringen die ungefähr gleich schnell wie eine RTX 4090 ist zum Preis von 1.499$ wenn nachher sowieso die meisten Interessenten zur RTX 4090 greifen. Ich sehe auch bei Intel keine Anzeichen bisher für so ein teures Segment im Gamingbereich. Mal sehen ob Intel überhaupt was bis 699$ beim Nachfolger von ARC bringt.

dildo4u
2023-08-16, 07:57:06
Wird mit der Zeit wahr werden weder AMD noch NV wollen Karten mit 12GB für 300€ verkaufen.
Wenn die 7700 50% schneller als 7600 ist wird der Preis entsprechend aussehen, die 7600 hat genau Null Vorteile gegenüber 4060.

DrFreaK666
2023-08-16, 08:25:23
die 7600 hat genau Null Vorteile gegenüber 4060.

Treiber-Panel :D

00-Schneider
2023-08-16, 09:15:00
Im Block ab 49:00 gehts um RDNA4:

e-MIABrH_NY

Iscaran
2023-08-16, 09:28:20
die 7600 hat genau Null Vorteile gegenüber 4060.

269$ vs 299$ ist für mich genug Vorteil.

00-Schneider
2023-08-16, 09:32:05
269$ vs 299$ ist für mich genug Vorteil.


30$ mehr für DLSS2, DLSS3, DLAA und besserer RT-Performance ist ein no-brainer. ;D

Linmoum
2023-08-16, 09:41:35
Plus deutlich geringerer Verbrauch, wodurch auch einfachere/kompaktere Customs kaufbar sind, die dann trotzdem leise bleiben.

Das finde ich aber unabhängig davon immer gefährlich, stumpf nur auf irgendeinen Preis zu schauen und alles andere auszublenden. Billiger hat seine Gründe und die sollte man ganz grundsätzlich beleuchten.

BlacKi
2023-08-16, 10:09:55
Ist nur Blödsinn, ich sehe keinen Ansturm auf die 4060 obwohl die 4090 die schnellste Karte ist.


Ohne zu wissen wie viele dieser Karten AMD überhaupt absetzen kann ist das reine Spekulation von dir, sonst nichts. AMD hat nichts davon wenn sie eine Karte bringen die ungefähr gleich schnell wie eine RTX 4090 ist zum Preis von 1.499$ wenn nachher sowieso die meisten Interessenten zur RTX 4090 greifen. Ich sehe auch bei Intel keine Anzeichen bisher für so ein teures Segment im Gamingbereich. Mal sehen ob Intel überhaupt was bis 699$ beim Nachfolger von ARC bringt.du stellst auch nur reine spekulationen an. ich schreib also demnächst auch einfach wie du: ist nur blödsinn und fertig.



ich bin hier an der stelle fertig. EOD

Exxtreme
2023-08-16, 10:19:01
30$ mehr für DLSS2, DLSS3, DLAA und besserer RT-Performance ist ein no-brainer. ;D

Wobei RT und DLSS3 bei so einer Karte eher ein "Steht auf der Schachtel"-Feature ist. In der Praxis sind solche Features in solchen Produkten eher unbrauchbar.

00-Schneider
2023-08-16, 10:21:23
Wobei RT und DLSS3 bei so einer Karte eher ein "Steht auf der Schachtel"-Feature ist. In der Praxis sind solche Features in solchen Produkten eher unbrauchbar.

Auch in 1080p mit niedrigen RT-Settings?

RT-AO und Schatten sind jetzt nicht super expensive.

Exxtreme
2023-08-16, 11:12:55
Auch in 1080p mit niedrigen RT-Settings?

RT-AO und Schatten sind jetzt nicht super expensive.

Für solche Einstellungen reicht auch Ampere oder Rdna2. :) Und Dlss3 hat halt den Nachteil, dass man sich schnell sehr hohe Eingabelatenzen einfängt. Und dann ist das ein ganz blöder Tradeoff wenn man mehr fps gegen viel höhere Latenzen tauschen muss.

Iscaran
2023-08-16, 11:36:22
Plus deutlich geringerer Verbrauch, wodurch auch einfachere/kompaktere Customs kaufbar sind, die dann trotzdem leise bleiben.


Ja deswegen sind im Test die 30W sparsameren Custom GEforces auch gleich laut oder lauter als das olle Referenzdesign von AMD
https://www.computerbase.de/2023-06/nvidia-geforce-rtx-4060-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop_update

Ob 130 oder 160 W ist bei den Kühllösungen die mittlerweile auf 400 W getrimmt sind nahezu egal. Da spielen soviel mehr Faktoren wie Verarbeitung und konkreter Aufbau der Kühllösung viel mehr rein als so eine "Pauschalaussage" von dir.

Leistungsmäßig stehen wir bei 187% vs 175% 4kIndex.

Und auf die Schachtel-Features hat Exxtreme ja schon gut verwiesen.

Das größte Manko sind sowie die nur 8 GB bei beiden Karten - aber vor allem wenn man RT nutzen will, was ja angeglich ein Featurvorteil der 4060 sei.

8 GB reichen gerade noch für Diablo IV in FHD - wenn man mit Nachladerucklern bei Teleporten leben kann.

robbitop
2023-08-16, 11:41:14
Die Verkaufszahlen von Ada sind nicht so doll, weil Ada in allen SKUs einfach zu teuer für das Gebotene ist. Und das in der Zeit der Rezession und Inflation. Da haben die Leute halt noch weniger Bock auf einmal noch viel viel mehr Geld pro FPS auszugeben. Die 4060 ist ja eigentlich eher eine 4050, denn anders lässt sich nicht erklären, dass sie praktisch nicht schneller als ihre Vorgängerin ist (und das geht allen Ada SKUs so). Und obwohl SKUs hochgelabelt sind, sind sie teurer geworden. Klar, dass da kaum einer zuschlägt.
NV ist es egal - die drosseln die Produktion und leiten alles in Datacenter / AI um, wo man sich dumm und dämlich verdient. Consumermargen sind NV mittlerweile einfach zu klein geworden - es müssen jetzt überall die Margen aus dem Profibereich sein (wo allerdings der Kunde mit dem Produkt ja Wert erzeugt durch seine Arbeit - wohingegen der Consumer nur zockt und keinen Wert erzeugt).
Bei der Konstellation hilft ein gutes Halo Produkt dann leider nur noch begrenzt. (Dinge sind halt oftmals mit komplexer als nur eine Variable ;))

dildo4u
2023-08-16, 11:42:03
Upsampling ist in der Klasse gang und gäbe die Konsolen werden halt TSR/FSR nutzen und Nvidia DLSS.
Also fährt man durch die Bank besser so lange sich FSR was Qualität angeht nicht deutlich steigert.


https://youtu.be/TlnVqKn2Th8?t=336

Achill
2023-08-16, 12:13:43
Upsampling ist in der Klasse gang und gäbe die Konsolen werden halt TSR/FSR nutzen und Nvidia DLSS.
Also fährt man durch die Bank besser so lange sich FSR was Qualität angeht nicht deutlich steigert.


https://youtu.be/TlnVqKn2Th8?t=336

Was hat das mit der Specu zu RDNA4 zu tun?

--
@All können wir hier zurück zur RDNA4 Speku kommen und die Unendliche Geschichte, warum NV besser als AMD ist, in einen der anderen Threads austragen?

robbitop
2023-08-17, 17:19:21
Hier ein Rendering von N41 wie er hätte aussehen sollen:
https://www.pcgameshardware.de/RAM-Hardware-154108/News/AMD-Radeon-RX-8000-Navi-41-RDNA-4-Grafikprozessor-1426888/

Allerdings widerspricht das der Schnittskizze von MLID:
https://youtu.be/Ki2j11GcoU0?si=DYf7DKxiEZihwEL1&t=3776

Bei MLID sitzen je 3x SEs (shader engine) auf einem AID (active interposer). In dem Schnittbild von MLID sind 9 SEs nebeneinander auf insgesamt 3x AIDs zu sehen.
Wobei ich das sowieso merkwürdig fand - wäre das Gesamtkonstrukt und die Chiplets quadratisch würde das bedeuten, dass man 9x9 = 81 Shaderchiplets hätte.

Wahrscheinlich hat jemand eine Skizze gemacht, der ein paar Angaben gehört hat aber sie falsch gezeichnet hat. Das Rendering aus dem PCGH Artikel sieht da schon eher sinnvoll aus. (wobei insgesamt 9x SEs auch schon eine ordentliche Herausforderung wären). Und diese Konfiguration ginge nur wenn die AIDs nicht quadratisch wären sondern längliche Rechtecke.

Bei den AIDs nehme ich an, dass die im Prinzip die bisherigen MCDs (Cache und IMC) mit den Interposeraufgaben (Verbindung für Daten und Stromzufuhr) kombinieren. 3x AIDs könnten dann ein 384 bit SI insgesamt bilden. Pro AID dann >= 32 MiB LLC.
Wenn das geklappt hätte und aus Powersicht nicht zu viele Nachteile hat (der Bandbreitenbedarf zwischen sämtlichen Chiplets ist sicherlich enorm und jedes Bit and Kommunikation kostet halt auch Energie), wäre das schon der Knaller (wie im CPU Bereich). Der neuste Prozess nur für die SEs, die dann wirklich klein sind. Entsprechend hoch sind die Yields und der output pro Waver. Der Rest kann in günstigeren Prozessen gefertigt werden. Und mit einem Satz an Chiplets könnte man dann sein ganzes Portfolio skalieren. Und auch nach oben wären dann (wenn man Fläche, Kosten und TDP dafür hat) keine Grenzen mehr offen.

Odal
2023-08-17, 17:34:52
bzgl. 7600 vs 4060

269$ vs 299$ ist für mich genug Vorteil.


Naja also mal als Milchmädchenrechnung

35Watt * 3h * 365d * 3y = 36,xx€ mehr Stromverbrauch nach 3 Jahren Nutzung.

Auch wenn 3h am Tag viel sind aber bei vielen läuft die Karte dann noch ne Weile länger bzw. in Rechnern von Familie und Bekannten.

Rein von den Kosten nehmen die sich nichts bzw. geht sogar eher in Richtung Vorteil grün.

basix
2023-08-17, 18:10:16
Hier ein Rendering von N41 wie er hätte aussehen sollen:
https://www.pcgameshardware.de/RAM-Hardware-154108/News/AMD-Radeon-RX-8000-Navi-41-RDNA-4-Grafikprozessor-1426888/

Allerdings widerspricht das der Schnittskizze von MLID:
https://youtu.be/Ki2j11GcoU0?si=DYf7DKxiEZihwEL1&t=3776

Bei MLID sitzen je 3x SEs (shader engine) auf einem AID (active interposer). In dem Schnittbild von MLID sind 9 SEs nebeneinander auf insgesamt 3x AIDs zu sehen.
Wobei ich das sowieso merkwürdig fand - wäre das Gesamtkonstrukt und die Chiplets quadratisch würde das bedeuten, dass man 9x9 = 81 Shaderchiplets hätte.

Wahrscheinlich hat jemand eine Skizze gemacht, der ein paar Angaben gehört hat aber sie falsch gezeichnet hat. Das Rendering aus dem PCGH Artikel sieht da schon eher sinnvoll aus. (wobei insgesamt 9x SEs auch schon eine ordentliche Herausforderung wären). Und diese Konfiguration ginge nur wenn die AIDs nicht quadratisch wären sondern längliche Rechtecke.

Hast du dir das Bild bei PCGH genau genug angeguckt? Sind 3x AID ;) Da widerspricht sich nichts. Das Schnittbild bei MLID ist auch nur eine Schemata-Skizze.

Die Proportionen der Chiplets sind in den PCGH Renderings vermutlich allerdings nicht richtig. IOD und Chiplet-Bridges sind vom Seitenverhältnis sehr ungünstig lang und schmal. Auch das AID ist nicht optimal.

Ursprung der ganzen Geschichte: Patent von Michael Mantor
- 1x IOD
- 3x AID mit GDDR-PHY, Command Processor, Infinity Cache und Die-to-Die Interconnects
- 3x SED pro AID gestacked, total 9x SED
https://www.freepatentsonline.com/20220320042.pdf

DrFreaK666
2023-08-17, 18:22:02
bzgl. 7600 vs 4060




Naja also mal als Milchmädchenrechnung

35Watt * 3h * 365d * 3y = 36,xx€ mehr Stromverbrauch nach 3 Jahren Nutzung.

Auch wenn 3h am Tag viel sind aber bei vielen läuft die Karte dann noch ne Weile länger bzw. in Rechnern von Familie und Bekannten.

Rein von den Kosten nehmen die sich nichts bzw. geht sogar eher in Richtung Vorteil grün.

7600 ist RDNA3. Willkommen im RDNA4 Thread ;)
Aber sonst: ja

robbitop
2023-08-17, 18:29:11
Hast du dir das Bild bei PCGH genau genug angeguckt? Sind 3x AID ;) Da widerspricht sich nichts. Das Schnittbild bei MLID ist auch nur eine Schemata-Skizze.

Die Proportionen der Chiplets sind in den PCGH Renderings vermutlich allerdings nicht richtig. IOD und Chiplet-Bridges sind vom Seitenverhältnis sehr ungünstig lang und schmal. Auch das AID ist nicht optimal.

Ursprung der ganzen Geschichte: Patent von Michael Mantor
- 1x IOD
- 3x AID mit GDDR-PHY, Command Processor, Infinity Cache und Die-to-Die Interconnects
- 3x SED pro AID gestacked, total 9x SED
https://www.freepatentsonline.com/20220320042.pdf
Mich haben eher die SED verwirrt - die AIDs sind eigentlich klar, sofern sie rechteckig (länglich) sind. Im Querschnitt sah man bei MLID 9. Wenn man das Package von PCGH gedanklich schneiden würde (Querschnitt halt), würde man nie mehr als 3x SEDs sehen. Bei MLID sieht man 9x im Querschnitt.
Und für mich sieht MLIDs Bild nach einem Querschnitt aus nicht nach einem Schema. Wenn es ein Schema ist, ok dann passt es wieder.

Danke für die Erwähnung des Patents. Dann ist der ganze "Leak" ja wirklich lachhaft wenn es als Patent (seit Oktober 2022?) einsehbar ist...(und in dem Falle ist es unklar, ob sowas konkret für RDNA4 überhaupt geplant war - ggf. hat da bloß jemand das Patent gesehen und dann Schlussfolgerungen gezogen die nicht notwendigerweise wahr sind)

robbitop
2023-08-17, 18:40:42
Kurz in das Patent geschaut. Der Command Prozessor scheint im Active Interposer untergebracht zu sein. Das macht auch Sinn, damit man das wenigstens über bis zu 3x SE verteilen kann.
Dazu noch den IMC und Cache laut dem Patent. Auch das macht Sinn.

Ich lache mich schlapp und MLID verkauft ein offenes Patent (was deckungsgleich mit seinem "leak") ist als großen "leak".;D;D;D

basix
2023-08-17, 18:48:25
Er hat das Patent unter dem Video verlinkt ;)

Edit:
Interessant im Patent ist auch, dass man Cache auf die Bridge Chips stacken könnte. Für eine Skalierung des IF$ wäre das sicher interessant und der wohl bestmögliche Ort.

robbitop
2023-08-17, 18:56:27
Das mag ja sein - im Video behauptet er aber was er erzählt sei ein Leak aus seinen Quellen bei AMD. (oder impliziert es zumindest)

Die Überschrift des Videos heißt "RX 8900 XTX Design Leak..."

basix
2023-08-17, 19:38:47
Das Bild von MLID zeigt einige technische Aspekte, welche im Patent nirgendwo zu finden sind. Und ein solches Bild von AMD impliziert verglichen mit einem Patent viel eher, dass daran gearbeitet wird.

Aber egal was MLID sagt oder tut:
Das Patent und der Designansatz ist interessant. Sicher ziemlich komplex und man würde wieder von GCD & MCD weggehen. Doch es hat doch irgendwie Hand und Fuss.

robbitop
2023-08-17, 19:49:54
Welcher Aspekt ist nicht im Patent zu finden? Ich meine ich habe alle gefunden. Was hab ich übersehen? :)


Das Patent und der Designansatz ist interessant. Sicher ziemlich komplex und man würde wieder von GCD & MCD weggehen. Doch es hat doch irgendwie Hand und Fuss.
Das sehe ich auch so. Hoffentlich ist sind die potenziellen Nachteile nicht all zu hoch. (Auslastung / Mehrverbrauch für die Inter-Chiplet Kommunikation). Dank vertikalem Stacking und CoWoS-L sollte sich der Aspekt des Mehrverbrauchs in Grenzen halten hoffentlich.

basix
2023-08-17, 20:16:35
Welcher Aspekt ist nicht im Patent zu finden? Ich meine ich habe alle gefunden. Was hab ich übersehen? :)

COW-L, COW-V, C4-Bumps ;)

Das sind konkrete prozesstechnische Beschreibungen, welche im Patent nicht vorkommen (weil für das Patent irrelevant).

robbitop
2023-08-17, 20:35:43
Ja nagut aber eigentlich sind diese Techniken naheliegend für die Umsetzung. Das kann auch jemand fabriziert haben, nachdem er das Patent gelesen hat. Und die "Zeichnung" sieht auch nicht gerade professionell aus. Ich bin da skeptisch.

Lurtz
2023-08-17, 21:49:41
Ich lache mich schlapp und MLID verkauft ein offenes Patent (was deckungsgleich mit seinem "leak") ist als großen "leak".;D;D;D
Solange ihm mit ständigen Verlinken wie hier Views beschert werden, braucht er auch nichts zu ändern.

basix
2023-08-17, 22:37:53
MLID hat verglichen zu den meisten anderen YT "Leakern" meistens etwas mehr Substanz. Bei Intel scheint er relativ gute Quellen zu haben. Bei AMD kommt zum Teil auch was (z.B. MI300 Aufbau). Jedenfalls höre ich ihm lieber zu als Redgamingtech, der schwafelt viel von "absolutely destroys everything", und zwar im Slalom zwischen AMD, Nvidia und Intel :D

robbitop
2023-08-18, 09:18:21
Ja das sehe ich auch so.

reaperrr
2023-08-18, 10:12:41
Die Quellen von MLID scheinen größtenteils zuverlässig zu sein. Er zieht nur teilweise aus korrekten Infos die falschen Schlüsse, so wie die anderen Gerüchteküchen auch, aber er ist schon seriöser/weniger unseriös als die meisten anderen.

RGT nimmt absichtlich BILD-artige Schlagzeilen um Klicks zu generieren, und labert dann ewig rum, um aus 2 Minuten Infos 15 Minuten Videos machen zu können.
Seine Quellen scheinen aber ebenfalls mehrheitlich zuverlässig zu sein. Nur der "aus prinzipiell zu diesem Zeitpunkt richtigen Infos hirnrissigen Quark zusammenfabulieren"-Faktor ist bei ihm nochmal deutlich größer als bei MLID.

Bestes Beispiel waren die frühen Performance-Spekulationen zu RDNA3: Da hat RGT von bis zu 2,7x Performance gesprochen.
Nur: Das haben seine Quellen wahrscheinlich so nie gesagt. Wahrscheinlich hat er nur TFLOP-Angaben bekommen, die a) Dual-Issue beinhalteten, und b) aus Zeiten stammten, als AMD noch glaubte, mit N31 etwas höhere Taktraten zu schaffen.
Denn: Mit 96 CUs und Dual-Issue brauchst du nur 12,5% höhere Taktraten als eine 6950XT, um auf 2,7x maximale TFLOPs zu kommen. Dann würde da durchaus ein Schuh draus.
Letztlich sind halt sowohl DualIssue-Auslastung als auch Taktraten unter den Erwartungen geblieben, weshalb AMD dann wiederum auf IF$-Stacking verzichtet hat, was auch noch ein paar Prozentpunkte Leistung gebracht hätte.

HOT
2023-08-18, 14:24:47
Trotzdem hat Red schon das ein oder andere Mal echte Knaller gebracht. Aber ich stimme zu, er ist sehr anstrengend.

Mal einen Gedanken: Wenn die Basischips aktive Interposer sind, müssen die mittleren gestackten Chips eigentlich das Frontend sein und die 6 Äußeren, die diese umgeben, müssten die SEs sein, anders ergibt das aus meiner Sicht keinen Sinn. Dann hätte jeder SED 12 WGPs, was das Maximum für die derzeitige Topologie pro SE darstellt und mMn deutlich besser passt.
MMn werden die SE-Chips bei RDNA5 TSV von oben und unten bekommen, sodass man die nächste Generation WGPs mit 4 CUs bauen kann, also 3dimensional. Damit hätte ein potenzieller RDNA4.5-Kandidat für Ende 25 dann weiterhin 72WGPs, aber 288CUs ;). So hätte man sich 1 Jahr Entwicklungszeit für die RDNA4-Basistopologie gesichertund würde gleichzeitig von deutlich höherer Rohleistung profitieren und dem neuesten N3-Prozess für die SEDs. Sowas hätte Radeon 9700 Pro-Potenzial.

robbitop
2023-08-18, 15:05:10
Die Quellen von MLID scheinen größtenteils zuverlässig zu sein. Er zieht nur teilweise aus korrekten Infos die falschen Schlüsse, so wie die anderen Gerüchteküchen auch, aber er ist schon seriöser/weniger unseriös als die meisten anderen.

RGT nimmt absichtlich BILD-artige Schlagzeilen um Klicks zu generieren, und labert dann ewig rum, um aus 2 Minuten Infos 15 Minuten Videos machen zu können.
Seine Quellen scheinen aber ebenfalls mehrheitlich zuverlässig zu sein. Nur der "aus prinzipiell zu diesem Zeitpunkt richtigen Infos hirnrissigen Quark zusammenfabulieren"-Faktor ist bei ihm nochmal deutlich größer als bei MLID.

Was ich sehr angenehm finde, ist dass beide ihre Infos auf einer slide stichpunktartig zusammenfassen. Ich scrubbe dann immer zu den slides, lese die durch. Zack sind aus 15 minuten Sinnlosgelaber 30 sek geworden :up:

Lehdro
2023-08-18, 15:08:25
Was ich sehr angenehm finde, ist dass beide ihre Infos auf einer slide stichpunktartig zusammenfassen. Ich scrubbe dann immer zu den slides, lese die durch. Zack sind aus 15 minuten Sinnlosgelaber 30 sek geworden :up:
Ich guck mir die Slides einfach auf Twitter an und lese dann amüsiert die Kommentare der anderen Leaker dazu. Dauert auch nur 30s und man hat noch gleich confirmation der anderen oder halt nicht.

robbitop
2023-08-18, 15:08:46
Trotzdem hat Red schon das ein oder andere Mal echte Knaller gebracht. Aber ich stimme zu, er ist sehr anstrengend.

Mal einen Gedanken: Wenn die Basischips aktive Interposer sind, müssen die mittleren gestackten Chips eigentlich das Frontend sein und die 6 Äußeren, die diese umgeben, müssten die SEs sein, anders ergibt das aus meiner Sicht keinen Sinn. Dann hätte jeder SED 12 WGPs, was das Maximum für die derzeitige Topologie pro SE darstellt und mMn deutlich besser passt.
MMn werden die SE-Chips bei RDNA5 TSV von oben und unten bekommen, sodass man die nächste Generation WGPs mit 4 CUs bauen kann, also 3dimensional. Damit hätte ein potenzieller RDNA4.5-Kandidat für Ende 25 dann weiterhin 72WGPs, aber 288CUs ;). So hätte man sich 1 Jahr Entwicklungszeit für die RDNA4-Basistopologie gesichertund würde gleichzeitig von deutlich höherer Rohleistung profitieren und dem neuesten N3-Prozess für die SEDs. Sowas hätte Radeon 9700 Pro-Potenzial.
Im Patent steht drin, dass die Active Interposer den Command Prozessor (dann für die Ansteuerung von den SEDs die pro AID gestackt sind) enthalten, den LLC, den IMC und die Kommunikationslogik und Verdrahtung zu den anderen Chiplets.
Die SEDs enthalten im Prinzip nur noch die WGPs (+ggf ROPs). Ob der Rasterizer ("Front End") beim AID ist - wo auch der Command Prozessor sein soll - oder jedes SED sein eignenen Rasterizer hat steht meine ich nicht drin. Genauso unsicher kann man sich mit den ROPs sein. Das Patent beschreibt allerdings dass alles was hohe Energiedichte hat im SED liegt. Entspreched vermute ich, dass jedes SED seinen eigenen Rasterizer und ROPs mitbringt.
Und dann gibt es noch das I/O chiplet. Wahrscheinlich Videodecoder, Videoein und Ausgänge und das PCIe Interface.

Bild des Renderings: https://www.pcgameshardware.de/RAM-Hardware-154108/News/AMD-Radeon-RX-8000-Navi-41-RDNA-4-Grafikprozessor-1426888/galerie/3779302/

Bild aus dem Patent:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=84970&d=1692288487

Das Patent: https://www.freepatentsonline.com/20220320042.pdf

Laut RGT soll obige Konfiguration wohl so in RDNA5 als high end kommen. Mit insgesamt 135/ 270 CUs oder 180 WGPs / 360 CUs. (es ist noch unklar ob es 3x oder 4x Shader Engines mit je 5 WGPs pro SED geben wird)
https://youtu.be/QkOqG8QlniQ?si=kBvfgRSm0_y2Nd4V&t=660

Je nach dem wann das Ding kommt und was die WGPs dann können (und je nach dem wie sie skalieren) könnte das schon ein Monster werden. Aber leider gibt es mit zunehmender Anzahl an Ausführungseinheiten immer schlechtere Skalierung. Das ist der Grund warum Gen für Gen nicht einfach nur mehr SMs/CUs verbaut werden sondern aktiv nach mehr "IPC" und nach mehr Takt gesucht wird und dort viele Transistoren investiert werden. Wer weiß wie schnell so ein 180 WGP Teil wirklich wäre bzw wie gut es ausgelastet wäre.
Wahrscheinlich würden dort möglichst hohe Auflösungen und RT (steigert die Auslastung) helfen.

dildo4u
2023-08-19, 08:11:30
Erste Spekulation zu Midrange in 2024, hauptsächlich Modelle die im Laptop Sinn machen.


7cEKTr70YBY

HOT
2023-08-19, 09:56:29
Da schwurbelt er sich nen ganz schönen Mist zusammen. Aber die Aussagen der Quellen sind durchaus interessant. Wenn man noch in der Designphase des Chips ist, kann es durchaus sein, dass N43 hinterher anders aussehen wird als ursprünglich geplant. Midrange ist für AMD x500-x600. Demnach wäre N43 ein glasklarer N33-Nachfolger mit allen Folgen. 4 statt 3nm,, 8 PCIe-Lanes, wenige SEs, wahrscheinlich 2 und damit maximal 40CUs würde ich sagen usw. Daraus könnten jetzt einfach mehr CUs werden, also den Chip etwas aufblasen. 3nm ist mMn eh Wunschdenken, das wird AMD mMn auf keinen Fall machen. Die 3nm sind nur für Server und KI reserviert, da bin ich mir sicher.

thx @Robbie, ich hatte mich gefragt, wo das Frontend untergebracht ist.

aufkrawall
2023-08-19, 09:58:16
"Midrange", "Notebook". Das klingt so "spannend" wie Intels Arc-Roadmap. :rolleyes:

dildo4u
2023-08-19, 10:02:39
Jup und dort ist er deutlich negativer was so eine Strategie angeht, das ganze führt dazu das Intel eine echte Chance hat Vergleichbare Modelle zu bringen.

Linmoum
2023-08-19, 10:24:54
Intel kommt auch von einer ganz anderen Basis bei GPUs als AMD. Andererseits konnte AMD in der jüngeren auch nur mit RDNA2 bzw. Fiji ansatzweise mit Nvidias xx102 mithalten. Bei ersterem aber auch nur ohne RT und bei letzterem auch nur in UHD und nur dann, wenn die kleinen 4GiB groß genug waren.

Insofern ist es sogar eher die Regel als Ausnahme, ganz oben mit Nvidia konkurrieren zu können. Wobei es gerade Chiplets eigentlich einfacher machen sollten, statt ständig nur noch riesige Monolithen zu fertigen. Und irgendwann wird letzteres halt auch schlicht nicht mehr möglich sein.

Gefühlt muss man mittlerweile aber tatsächlich mehr auf Intel hoffen, hier mal Druck zu machen. Scheint bei AMD irgendwie wenig begeisternd auszusehen. Und mann muss halt auch wollen.

Altehardware
2023-08-19, 10:25:37
ja das hatte ich auch gesehen
Somit folgendes herauszuholen
n43 und n44 sind Monolithen vermutlich n4x node
Die chips könnte folgende Größe haben n44 150mm² in n3 node und in n4x 200mm² n3 150mm² beide kosten dann etwa das gleiche und etwa 45$ vs 44$
Der n43 dürfte n3 node sein 230mm² groß sein chip kostet um die 70$-87$
Die perf wird allerdings zum Ratespiel da rdna3 ein design Fehler hat und dieser sich nur mit vergrößertem sram fixen lässt sprich man braucht min 10% chipfläche dazu, das habe ich berücksichtig
Wenn das so sein sollte kommt es darauf an welchen Takt man dann erreicht optimistisch wären es
n4x 3,55ghz und in n3 etwa 3,7ghz
Und das bei n44 32cu ~17tf etwa 349€
n43 64cu ~35,4tf ab 449€ bis 539€

damit können wir davon ausgehen das amd nächstes Jahr ne
rx8800xtx und 8800xt sowie rx8700 und rx8600 bringt

64cu 599€ 18gb gddr7 32gbps 35,4tf
54cu 499€ 18gb 29,9tf
48cu 449€ 12gb 26,6tf
32cu 349€ 12gb 17tf
28cu 299€ 9gb 14,8tf

Derzeit
32cu ~11,9tf 299€ rx7600
48cu 12gb~17,9tf 449€ rx7700xt
54cu 16gb ~20tf 549€ rx7800
60cu 16gb ~22tf 649€ rx7800xt (entspricht der rtx4070)

Pessimistisch nur 2,9ghz und somit weit davon entfernt mid class zu sein.
dann sehe ich eher
rx8600 28cu 12gb gddr6 24gbps 12,1tf 289€
rx8700 32cu 13,8tf 329€
r8700xt 48cu 20tf 399€
rx8800 54cu 16gb 23tf 449€
rx 8800xt 64cu 16gb 27,7tf 549€
kein gddr7 nur gddr6 24gbps einmal 96bit einmal 128bit

In beiden Fällen steigt die P/L an aber das zweite Szenario ist wahrscheinlicher.

horn 12
2023-08-19, 13:43:42
Würde die 7900XTX bis ins Jahr 2025 - Mitte 2025 also knappe 2 Jahre noch an der Spitze sehen.
Da kommt von NV auch bis zur Cebit 2025 kaum etwas Neues!

BlacKi
2023-08-19, 15:22:59
also 64cu mit +50% perf/w würde n31xtx schlagen. ob es kommt weiß keiner. aber midrange ist das nichtmehr.

dildo4u
2023-08-19, 15:46:42
50% würde Sinn machen wenn sie von Samsung auf TSMC wechseln, der Sprung wird Kleiner sein.
Kann sein das ich mich irre aber TSMC selber gibt deutlich weniger an.

BlacKi
2023-08-19, 16:45:21
die 50% kommen ja nicht nur alleine vom fertigungsprozess, das rdna3 die perf/w versprechen nicht gehalten haben, bedeutet ja nicht automatisch, das rdna4 das auch verkackt.

im optimalsten fall, wenn alles klappt könnte n43 schneller sein als n31. just saying.

OgrEGT
2023-08-19, 17:56:57
@robitop
Wie arbeiten die insg 3 Command Prozessoren und 9 Rasterizer im Frontend zusammen?

robbitop
2023-08-19, 23:13:54
Steht nicht im Patent aber sie sind ja dank interposer, vertical stacking und cowos-l mit so hohen bandbreiten und geringen latenzen verbunden, dass es unproblematisch sein sollte. Die spezifischen Details weiß aktuell wohl nur AMD.

basix
2023-08-20, 00:24:38
Soweit ich das Patent verstanden habe ist die komplette Shader Engine im SED untergebracht. Also inkl. ROPs, TMUs, L1$ usw.

L2$, Infinity Cache und Command Processor sind im AID.

dildo4u
2023-08-20, 07:47:41
die 50% kommen ja nicht nur alleine vom fertigungsprozess, das rdna3 die perf/w versprechen nicht gehalten haben, bedeutet ja nicht automatisch, das rdna4 das auch verkackt.

im optimalsten fall, wenn alles klappt könnte n43 schneller sein als n31. just saying.
Ich würde zustimmen aber es sollte zwei Modelle drüber geben ich tippe eher drauf das wir was im Bereich der PS5 Pro bekommen.
Die PC Version könnte z.b GDDR7 nutzen auf Konsole GDDR6, damit könnte man dann über 500€ verlangen.

Ich erwarte das die 8600 die 7700XT erreicht und 8700 7900XT, wie MILD im Video gesagt hat 3090 Ti Performance endlich für Mainstream Preise.

robbitop
2023-08-20, 08:16:18
Soweit ich das Patent verstanden habe ist die komplette Shader Engine im SED untergebracht. Also inkl. ROPs, TMUs, L1$ usw.

L2$, Infinity Cache und Command Processor sind im AID.

Wird der L2 im Patent im AID verortet? Ich hätte ihn eher im SED vermutet. Der würde sicher etwas helfen das Maß an Interchiplet Kommunikation etwas zu verringern (die ja trotz modernstem packaging immer noch etwas mehr Energie kostet als im gleichen Chip). Und bis dato sind es ka nur ein paar MiB.

basix
2023-08-20, 12:03:58
Wird der L2 im Patent im AID verortet? Ich hätte ihn eher im SED vermutet. Der würde sicher etwas helfen das Maß an Interchiplet Kommunikation etwas zu verringern (die ja trotz modernstem packaging immer noch etwas mehr Energie kostet als im gleichen Chip). Und bis dato sind es ka nur ein paar MiB.

Nein, im Patent wird nichts über den L2$ gesagt. Aber der L2$ liegt typischerweise gleich neben dem CP und ist Unified/Shared pro GPU. L1$ sind privat pro SE, deswegen das unbedingt ins SED. L2$ im SED hat 2 Probleme: Cache skaliert schlecht (Fläche) und muss über alle SED shared werden, da jedes SED aus irgendeinem Teil des L2$ lesen kann (da eben unified/shared). Aus meiner Sicht ist ein L2$ im SED also nicht vorteilhaft, da man viel Daten-Traffic über die 3D-Chiplet Interfaces generiert.

Man kann schauen, dass beim Stacking der L2$ (oder ein Slice davon bei 3x SED) direkt unter dem SE-Frontent liegt. Damit sind die Datenwege minimiert. Schematisch stelle ich mir das so vor wie im angehängten Bild:
- 3x SED mit jeweils 1x Shader Engine
- 16 MByte Slice IF$ unter dem Shader Array. nicht extrem dicht gepackt, da Power Vias zu den CUs müssen. Pro SED ein eigener IF$-Slice (im linken Bild nur bei 1x SED gezeichnet)
- L2$-Slice direkt unter dem SE-Frontend. Für jedes SED separat (im linken Bild nur bei 1x SED gezeichnet)

Das AID hat dann noch die GDDR6-PHY und die Chiplet Interconnects integriert.

basix
2023-08-20, 12:10:04
Die letzten Gerüchte von MLID zu nur noch N43 & N44 sowie monolithisch sind mMn aber auch nicht so abwegig. mMn sogar relativ smart:
- 250...750$ Bereich (90% des GPU Marktes)
- Ca. 4060...4080 Performance Bereich (mit Glück noch etwas darüber), dafür typ. günstiger (Perf/$)
- Mobil-Fokus, wo grössere Chips eh nicht ausgefahren werden können (TDP Limitierung)
- Relativ günstig zu produzieren (Marge stimmt für AMD, Perf/$ stimmt für den Kunden)
- Schnellere Time-to-Market von RDNA4 und RDNA5, da man Aufwand spart (RDNA4 = Q2/2024 und RDNA5 = Q4/2025?). Damit wäre man verglichen zu Nvidia jeweils früher dran, was Käufer anlockt (bessere Perf/$, Perf/W, Perf absolut bei RDNA5)
- Performance/Watt Leadership oder zumindest auf Augenhöhe wie Blackwell könnte schon stattfinden (somit kein Nachteil fürs Portfolio, wenn Blackwell später released wird)
- Time-to-Market und Performance/Watt: Allenfalls ideal für den 2024 Notebook-Zyklus, wo RDNA4 dann besser dastehen könnte als Lovelace (Blackwell ist zu diesem Zeitpunkt noch nicht released)

Linmoum
2023-08-20, 12:24:36
Man hätte schon mit RDNA3 erwartet, dass AMD hier einen klaren TTM-Vorteil hat. Bei Nvidia kommt man - überspitzt formuliert - gar nicht mehr hinterher bei dem, was die schon alles im Desktop und Mobile rausgeballert haben. Bei AMD darf man hier immer noch mit der Lupe suchen, N32 kommt erst 9 Monate nach N31 auf den Markt und wird dann sogar nur die ~Performance von N21 anbieten. Für den Kunden Null Gewinn.

Aber unabhängig davon ist es fast schon egal, welchen Teil des Marktes AMD bedient oder bedienen will. Sie haben aktuell mit RDNA3 einen solch großen Rückstand, dass sie den mit RDNA4 nicht nur aufholen müssen, sondern mit Blick auf die Konkurrenz daraus einen deutlicheren Vorsprung machen sollten. Das wird schon schwer genug. Perf/$ ist schon jetzt verglichen mit Nvidia alles andere als ein Beinbruch, aber damit gewinnen sie auch keinen Blumentopf.

AMD ist mittlerweile an einem Punkt angelangt, wo sie entweder aggressiv beim Preis sein müssen (=heißt auf Margen verzichten, wird daher nicht passieren) oder sie etwas raushauen müssen, was derart effizienz sowie performant ist und auch softwareseitig einen riesigen Sprung macht, dass es Blackwell in die Schranken weisen kann, um überhaupt größere Stückzahlen absetzen zu können und "Mindshare" zu haben. Ansonsten kaufen die Leute weiterhin Nvidia, weil Jensen nicht Intel oder Gelsinger ist, die ständig mit ihren Nodes Probleme haben oder Produkte bringen, die die Leute von ganz alleine zur anderen Plattform treiben.

DrFreaK666
2023-08-20, 12:38:18
AMD sollte Mark Cerny mit ins Boot holen. Vielleicht hat er die zündende Idee

AffenJack
2023-08-20, 13:09:29
- Schnellere Time-to-Market von RDNA4 und RDNA5, da man Aufwand spart (RDNA4 = Q2/2024 und RDNA5 = Q4/2025?). Damit wäre man verglichen zu Nvidia jeweils früher dran, was Käufer anlockt (bessere Perf/$, Perf/W, Perf absolut bei RDNA5)


Woher kommt diese Zeitangabe für RDNA4? Nicht einmal MLID hat Q2 24 angedeutet. Mit einem N32 in Q3 23 wird man diesen sicherlich nicht vor Q3 24 ersetzen. Da hätte man N32 gleich komplett einstampfen können, weil der Releaseaufwand nicht mal mehr Sinn macht.

Ein dann schnell folgender RDNA5 wäre schon eher möglich im High-End Bereich, während RDNA5 Midrange dann wie N32 erst nach 1 Jahr Verzögerung kommt.

DrFreaK666
2023-08-20, 13:17:24
Ich behaupte mal er spekuliert im Spekulations-Forum

Der_Korken
2023-08-20, 14:07:38
Nein, im Patent wird nichts über den L2$ gesagt. Aber der L2$ liegt typischerweise gleich neben dem CP und ist Unified/Shared pro GPU. L1$ sind privat pro SE, deswegen das unbedingt ins SED. L2$ im SED hat 2 Probleme: Cache skaliert schlecht (Fläche) und muss über alle SED shared werden, da jedes SED aus irgendeinem Teil des L2$ lesen kann (da eben unified/shared). Aus meiner Sicht ist ein L2$ im SED also nicht vorteilhaft, da man viel Daten-Traffic über die 3D-Chiplet Interfaces generiert.

Imho muss AMD an der Cache-Aufteilung etwas ändern, wenn sie je eine Shader-Engine auf einen Die packen. Im Moment haben wir:
L0 pro WGP
L1 pro Shader-Array
L2 global
L3 global (IF$ = L3 für mich)

Wenn zwischen den Shader-Engines jetzt Chipgrenzen gezogen werden, dann sollte es einen Cache geben, der die gesamte Shader-Engine bedient, denn die jetzige Aufteilung wäre Murks. Man könnte entweder den L2 aufteilen und jeder Shader-Engine einen privaten L2 geben oder man zieht den L1 auf Shader-Engine-Level hoch. Oder beides: Man verkürzt auf drei Cache-Levels, nämlich pro WGP, pro Shader-Engine und global. Ich habe schon öfter auf die Tests von Chips and Cheese verwiesen, wo der jetzige L1 eine absolut miese Hitrate hat, während L0 und L2 sehr gut abschnitten. Die Transistoren wären also im L0 oder L2 wahrscheinlich besser aufgehoben.

basix
2023-08-21, 08:45:28
Woher kommt diese Zeitangabe für RDNA4? Nicht einmal MLID hat Q2 24 angedeutet.
Speku? ;)

Interessant wäre ein sehr früher Release, weil man deutlich früher als Blackwell dran wäre und im besten Fall in die 2024er Notebooks reindesigned wird (weil schnell und energieffizient). Das gäbe gute Presse und bei gutem Perf/$ auch den ein oder anderen dGPU Käufer ;)

Mit einem N32 in Q3 23 wird man diesen sicherlich nicht vor Q3 24 ersetzen. Da hätte man N32 gleich komplett einstampfen können, weil der Releaseaufwand nicht mal mehr Sinn macht
Ich sehe das nicht so tragisch. RDNA3 ist gegenüber Lovelace schon nicht ganz auf Augenhöhe und wenn RDNA4 wirklich gut wird, hat AMD mehr von einem frühen RDNA4 Release. Dann kann man die vermutlich teurer herzustellenden N31/N32 EoL setzen. Zudem hat man N32 deutlich verzögert. Der wäre schon lange marktreif.

Imho muss AMD an der Cache-Aufteilung etwas ändern, wenn sie je eine Shader-Engine auf einen Die packen. Im Moment haben wir:
L0 pro WGP
L1 pro Shader-Array
L2 global
L3 global (IF$ = L3 für mich)

Wenn zwischen den Shader-Engines jetzt Chipgrenzen gezogen werden, dann sollte es einen Cache geben, der die gesamte Shader-Engine bedient, denn die jetzige Aufteilung wäre Murks. Man könnte entweder den L2 aufteilen und jeder Shader-Engine einen privaten L2 geben oder man zieht den L1 auf Shader-Engine-Level hoch. Oder beides: Man verkürzt auf drei Cache-Levels, nämlich pro WGP, pro Shader-Engine und global. Ich habe schon öfter auf die Tests von Chips and Cheese verwiesen, wo der jetzige L1 eine absolut miese Hitrate hat, während L0 und L2 sehr gut abschnitten. Die Transistoren wären also im L0 oder L2 wahrscheinlich besser aufgehoben.

Die niedrigen L1-Hitrates deuten an: Ein privater L2$ bringt nichts, ausser er ist ziemlich gross (>= 1MByte). Dann lieber den L1$ aufbohren und den Infinity Cache zum L2$ machen. Beim SED + AID Konzept wäre sowas denkbar. Beim GCD + MCD Konzept wäre das ungünstig gewesen.

Alles in allem ist die Cache-Hierarchie bei RDNA3 schon gut, um Datenlokalität zu fördern. Die Flächenausdehnung vom IF$ ist relativ gross und der L2$ kann deutlich mehr Bandbreite liefern. Ich würde da jetzt nicht zwingen was ändern, ausser dass L0/L1 besser werden könnten.

Der_Korken
2023-08-21, 09:09:33
Die niedrigen L1-Hitrates deuten an: Ein privater L2$ bringt nichts, ausser er ist ziemlich gross (>= 1MByte). Dann lieber den L1$ aufbohren und den Infinity Cache zum L2$ machen. Beim SED + AID Konzept wäre sowas denkbar. Beim GCD + MCD Konzept wäre das ungünstig gewesen.

Sehe ich auch so. Der L1 ist gerademal so groß wie die darunterliegenden vier L0-Caches. Bei RDNA2 teilweise sogar kleiner (bei 5WGPs pro SH). Was also im L0 misst, wird selten vom L1 aufgefangen. Je nachdem wie groß ein SED ausfällt vom WGP-Count wären so 2-4MB ne ganz gute Größe für den L2. Der IF$ wird sicherlich >128MB liegen, wenn ich nicht gar >200MB, d.h. der wäre ebenfalls ein gutes Stück größer als die Summe der darunterliegenden L2-Caches.

Gipsel
2023-08-21, 09:40:32
Imho muss AMD an der Cache-Aufteilung etwas ändern, wenn sie je eine Shader-Engine auf einen Die packen. Im Moment haben wir:
L0 pro WGPKleine Präzisierung:
Der I-Cache (32kB) und der sD-Cache (16kB) ist pro WGP, der vD-Cache (wo üblicherweise die meisten Grafikdaten drüber laufen [an dem hängen z.B. die TMUs]) ist pro CU (gibt zwei pro WGP) und wurde bei RDNA3 von 16kB auf 32kB pro CU verdoppelt.

davidzo
2023-08-21, 17:12:52
Man kann schauen, dass beim Stacking der L2$ (oder ein Slice davon bei 3x SED) direkt unter dem SE-Frontent liegt. Damit sind die Datenwege minimiert. Schematisch stelle ich mir das so vor wie im angehängten Bild:
- 3x SED mit jeweils 1x Shader Engine
- 16 MByte Slice IF$ unter dem Shader Array. nicht extrem dicht gepackt, da Power Vias zu den CUs müssen. Pro SED ein eigener IF$-Slice (im linken Bild nur bei 1x SED gezeichnet)
- L2$-Slice direkt unter dem SE-Frontend. Für jedes SED separat (im linken Bild nur bei 1x SED gezeichnet)

Das AID hat dann noch die GDDR6-PHY und die Chiplet Interconnects integriert.

Ja, den Cache in einem anderen Verfahren zu fertigen macht Sinn, aber wieso müssen das Chiplets sein und kann man den nicht einfach auf den active base-Die verteilen? Die Kühlung spielt bei einem Cache der unter den SEDs "buried" ist weniger eine Rolle und wenn das Verfahren einigermaßen reif ist, stimmt auch der yield von so einem riesen-DIE. Wenn das eh ein globaler IFcache ist, kann man auch zur Not ein paar megabyte deaktivieren. Das ganze auf einem DIE zu haben spart halt massiv an Interconnect fläche und vermutlich auch Power.

Im Gegensatz zur CPU wo es unterschiedliche Workloads gibt und non-X3D CPUs für die meisten Workloads schon Sinn machen, braucht die GPU den Cache eigentlich immer, egal ob es ne gre, xt oder xtx SKU wird.
Insofern macht auch cache Die stacking wie er bei N31 geplant war und verworfen wurde imo nicht viel Sinn.
Entweder das Base-Modell mit 0-Hi MCDs ist eher Bandbreitenlimitiert (bei N31 der Fall?), oder die 1-Hi und 2Hi Varianten skalieren kaum noch mit der extra Bandbreite (deswegen wurde N31 mit 192mb und 288mb IF$ gestrichen).

Ich brauche ja eh für jede SED-Kombination einen neuen Base-DIE der die konkrete Anzahl an SEDs verbinden kann. Da kann ich dann gleich die richtige Menge an Cache mit auf den Base-DIE packen, das reduziert die Anzahl an benötigten DIEs und Masken.


Aber im Moment deutet ja eh vieles auf monolitische N43 und N44 hin.
Wenn N31 wirklich mit 192mb geplant war und aktuell unter zu wenig Bandbreite leidet, dann könnte es durchaus sein dass AMD bei von anfang an monolitisch geplanten Chips die Cachegröße wieder anhebt.
Nicht vergessen darf man neben der Hitrate + efekktiven Bandbreite auch den TDP impact von mehr IFcache. DRAM und ein Speichercontroller verbrauchen einfach mehr Energie als SRAM Cache. Ein größerer Cache senkt also auch den Verbrauch, wodurch der Shader Engine Clock wieder steigen könnte. Neben den zwei Clock-domains für Shader Alus und Frontend könnte man auch das Backend, also die ROPs, den IFcache und die Memory controller in einer eigenen Domain entkoppeln. Dann kann man eventuell besser dem hohen Verbrauch von N31 bei Speicherinterface- bzw. ROP-Last begegnen.

basix
2023-08-21, 17:30:56
Ja, den Cache in einem anderen Verfahren zu fertigen macht Sinn, aber wieso müssen das Chiplets sein und kann man den nicht einfach auf den active base-Die verteilen?

Klar, so wäre es gedacht ;) Alles im AID, keine separaten Chiplets. Dann hätte man auch den Benefit, dass die shared Units (Command Processor, L2$, Infinity Cache, Speicherinterfaces) auf dem selben Die liegen ("monolithisch"), was die Effizienz fördert. Nur die SED mit den Shader Engines mit grundsätzlich "privaten" Ausführungseinheiten werden oben drauf gepackt. Und eben noch das MID mit I/O & Video separat.

Aber evtl. kommt das alles erst später bei RDNA5, time will tell.

HOT
2023-08-22, 21:12:01
Also ich würde mal sagen, dass folgendes passiert ist:

- N4C (das große Mopped) erfordert sehr viel Optimierungszeit und Personalaufwandt
- Die Strategie des Unternehmens verlagerte sich von GFX (Mining) zu KI, es ist einfach deutlich mehr zu verdienen so


Aufgrund dieser beiden Tatsachen dürfte man die Reißleine schon länger gezogen haben bei RDNA4. Das ist nur jetzt erst rausgekommen. Aufgrund des Strategiewechsels hat man N43 neu designt, mit 4 SEs ausgestattet, sodass dieser in FHD und QHD N31-Leistung erreichen kann - die Rede war ja von 64CUs. Mit etwas mehr RDNA4-IPC und deutlich mehr Shadertakt kann man N31 denke ich auch praktisch schlagen. Mit 256Bit GDDR6 und 64MB IF$ dürfte man zumindest in QHD konkurrenzfähig dazu sein. N44 würde ebenfalls als kleineres Produkt hinzugefügt, um eine 8600 und 8500 zu haben, 2 SEs mit 32CUs würde passen. 32MB IF$ und 128Bit sind obligatorisch hierfür.

N4C wurde mMn auf Ende 25 verschoben (die Arbeit, die da reingeflossen ist, schmeißt man nicht weg, wenns funktioniert, offenbar war ja die Funktion nicht das Problem), das ganze Konstrukt kommt mMn wie geplant, nur die SEDs werden dann später mit RDNA5-Technik neu angepasst, damit würde man 1 Jahr später ein echtes Halo-Produkt haben und der Entwicklungsaufwandt hierfür wäre wesentlich besser überschaubar - neben der Tatsache, dass man Ende 25 auch mehr Packaging-Kapazitäten und N3-Fertigungskapazität dafür hätte. Statt N4C wurde mMn MI400 vorgezogen, sodass der Entwicklungsaufwandt jetzt hierein fließt.
Würde theoretisch die KI-Blase, aufgrund weswegen auch immer, können ja auch wirtschaftliche Gründe sein, dann könnte AMD das Projekt zudem recht schnell wieder hochfahren.

mboeller
2023-08-23, 07:18:06
IMO:

ich finde die Diskussion über die Caches ja ganz nett, aber was ist mit dem Elefanten im Porzellanladen?


Wie arbeiten die insg 3 Command Prozessoren und 9 Rasterizer im Frontend zusammen?


Allerdings gibt es dazu ja sehr wenige Infos. Und AMD wird kaum AFR wiederbeleben.

Da N4c ein "richtiges" Projekt/Produkt war sollte AMD dafür ja endlich eine Lösung gefunden haben.

basix
2023-08-23, 08:57:13
Da gibt es einfach das Patent, welches vor langem mal diskutiert wurde:
- 1x Chiplet übernimmt Coarse Bin Rendering
- Arbeitslast wird dann für Fine Bin Rendering auf mehrere Chiplets verteilt

Mehr wissen wir auch nicht:
https://www.computerbase.de/2022-07/amd-patentantrag-gpu-chiplet-auslastung/

Kann gut sein, dass AMD es für RDNA4 nicht gebacken gekriegt bekommt und deswegen nur noch monolithische N43 & N44 auflegt. Das Chiplet Zeugs kommt dann mit RDNA5, wer weiss.

HOT
2023-08-23, 09:25:01
Das hat nix mit "bekommts nicht gebacken" zu tun, sondern mit wirtschaftlichen Erwägungen. Grafik -> weggeschoben, MI400 -> vorgezogen. Nirgendwo war zu lesen, dass es Probleme gab, es wurde immer geschrieben, dass der Aufwand zu hoch wäre. Und das ist auch komplett logisch, sowohl N3 als auch das advanced Packaging wird von (MI300)MI400 ausgelastet werden. Für eine GPU in der Klasse gibts keinen Produktionsplatz und das Projekt wird auch von den Erfahrungen von MI400 profitieren, wird also billiger.

mboeller
2023-08-23, 09:26:02
Da gibt es einfach das Patent, welches vor langem mal diskutiert wurde:
- 1x Chiplet übernimmt Coarse Bin Rendering
- Arbeitslast wird dann für Fine Bin Rendering auf mehrere Chiplets verteilt

Mehr wissen wir auch nicht:
https://www.computerbase.de/2022-07/amd-patentantrag-gpu-chiplet-auslastung/

Kann gut sein, dass AMD es für RDNA4 nicht gebacken gekriegt bekommt und deswegen nur noch monolithische N43 & N44 auflegt. Das Chiplet Zeugs kommt dann mit RDNA5, wer weiss.

Danke, das Patent kannte ich noch nicht.

basix
2023-08-23, 09:32:13
Das hat nix mit "bekommts nicht gebacken" zu tun, sondern mit wirtschaftlichen Erwägungen. Grafik -> weggeschoben, MI400 -> vorgezogen. Nirgendwo war zu lesen, dass es Probleme gab, es wurde immer geschrieben, dass der Aufwand zu hoch wäre. Und das ist auch komplett logisch, sowohl N3 als auch das advanced Packaging wird von (MI300)MI400 ausgelastet werden. Für eine GPU in der Klasse gibts keinen Produktionsplatz und das Projekt wird auch von den Erfahrungen von MI400 profitieren, wird also billiger.

"Aufwand zu hoch" = später Marketrelease. Nicht gebacken bekommen kann technische aber auch zeitliche Faktoren beinhalten ;) AMD könnte RDNA4 schon mit Chiplets realisieren, nur wären sie dann evtl. 6-9 Monate später dran. Weil es eben sehr komplex ist. Wäre das gut für AMD? Wohl eher nicht. Zeit = Geld / Opportunitätskosten

Das Thema Packaging ist dann noch ein weiterer Aspekt, wie du richtig anmerkst.

HOT
2023-08-23, 13:49:40
Das klang mir nur zu endgültig ;).

robbitop
2023-08-23, 14:15:07
Ich denke mal, dass das was jetzt aktuell bleeding edge im packaging ist, über die Zeit immer mehr zum Mainstream wird. Kapazität/Verfügbarkeit steigt, Kosten sinken.
Das Rendering von N41 sah schon sehr aus wie das was AMD bei MI300 gemacht hat - mit dem Unterschied, dass letzteres ein Profiprodukt mit entsprechenden Kosten und Margen ist. Das wird sicherlich früher oder später auch für günstigere Consumerprodukte möglich sein. Ich vermute, die Konfiguration war zu teuer und hätte Kapazität für die Margenträchtige AI sparte weggenommen.
IMO ist es für diese Konfiguration im Consumermarkt einfach noch zu früh. Das wird sich aber ändern mit der Zeit.

HOT
2023-08-23, 14:41:50
Exakt.

BlacKi
2023-08-23, 17:01:56
wann löst hbm den gddr speicher ab? ist schon etwas her, kann mich nichtmehr klar drann erinnern^^

HOT
2023-08-23, 17:50:28
Aufgeschoben ist nicht aufgehoben :D.

basix
2023-08-23, 18:32:05
wann löst hbm den gddr speicher ab? ist schon etwas her, kann mich nichtmehr klar drann erinnern^^

RDNA7 ;)

robbitop
2023-08-23, 18:45:04
HBM scheint nach wie vor teurer zu sein (inkl erhöhtem Packagingaufwand) als GDDR. Beide Speichertypen werden immer schneller.
Aus Powersicht war damals HBM besser. (was Sinn macht, weil deutlich näher an der GPU und per Interposer verbunden - da kostet kedes bit weniger Energie)
Ich würde aber vermuten, dass der Vorteil mit den immer größer werdenden Last Level Caches abnimmt da weniger Datentransfers notwendig sind durch gesteigertes reuse.

basix
2023-08-23, 19:18:15
Ab einem gewissen Punkt wird ein breiteres externes interface ökonomischer als ein sehr grosser LLC. Das Problem ist, dass die Hitrate des LLC nur ungefähr mit der Wurzel der LLC-Mengensteigerung steigt. Ein externes SI skaliert dagegen linear.

Die schnellste aktuelle GPU hat 72MByte LLC und 384bit mit 21Gbps. GDDR7 soll bis 36 Gbps gehen. Hier noch ~256 MByte LLC dazu und man ist naiv gerechnet bei ca. 3.2x effektiver Bandbreite. Reicht also noch für ca. 2-3x Generationen, ohne sonstwas am Konzept zu ändern. Ein verdoppelter LLC bringt ab dann nochmals 1.5x mehr Bandbreite. Aber hey, das sind nochmals +256MByte! Dementsprechend teuer wird das dann. Wenn es also nicht noch schnelleren Speicher nach GDDR7 gibt, dann wird man vermutlich dann auf HBM umsteigen. Und ist auch kein Problem. 1x 8Gbps HBM3e/4 wird bis ~2028/9 relativ günstig sein und 1TByte/s pro Stack liefern. 3x Stacks für das Topmodell in Form von "Navi 71" und das passt. Liefert 1.78x Bandbreite von 384bit mit 36Gbps. HBM gibt es dann schon >10 Jahre, Prozesse sind etabliert und für Consumer reichen 4-hi Stacks.

Sicher ist: Der Moment wird kommen. Die Frage ist nur wann ;)

robbitop
2023-08-23, 19:31:11
Kann natürlich sein. Andererseits kann man irgendwann auch sram kosteneffizient herstellen und stacken - siehe VCache.
Ggf ist aus Powersicht auch irgendwann beides sinnvoll. HBM und ein großer LLC.

Hypadaiper
2023-08-23, 19:48:33
Weiß nicht ob es schon gepostet wurde..aber was haltet Ihr hiervon?

https://wccftech.com/samsung-receives-huge-order-of-hbm3-memory-to-power-amd-mi300x-gpus/

Wird wohl rein für die mi300 Reihe sein. Mich wundert es nur, dass Samsung plötzlich im leading edge mitfertigen kann. Wäre für die wohl auch ein großer Erfolg, gerade die ganze IP Geschichte mit AMD zu teilen ( siehe auch mobile gpu). Bahnt sich da eine neue Freundschaft an ?

BlacKi
2023-08-23, 19:59:54
Ich würde aber vermuten, dass der Vorteil mit den immer größer werdenden Last Level Caches abnimmt da weniger Datentransfers notwendig sind durch gesteigertes reuse.


bei amd ist er wieder kleiner geworden und man hat das SI größer gemacht. waren 128mb zu teuer?


ich bezweifle auch bei nv das man hier eine verdoppelung zeitnah sehen wird.


man hat hier einfach SI gegen cache getauscht. energetisch sinnvoll, aber billiger? es wird auch mit 3-2-1nm prozessen immer unwahrscheinlicher das sich der cache nochmal verdoppeln wird. dann wäre kein platz mehr für das SI^^



mit gddr7 vor der tür bekommen wir zwar mehr bandbreite, aber um die bandbreite zu erreichen wird das pcb und R&D viel teurer werden.



es wird wohl noch fortschritte geben, aber die werden immer teurer.

robbitop
2023-08-23, 20:06:46
Man wird Cache stacken müssen. Kleine Cache chiplets in einem billigen Prozess mit praktisch 100% yield.

Über N31 kann man nur spekulieren. N31 soll ja angeblich mit gestackten MCDs (also mit 192 mib) geplant gewesen sein, erreichte aber nicht den gewünschten Durchsatz.

BlacKi
2023-08-23, 20:16:39
die fläche ist und bleibt teuer. da weder cache noch SI durch die prozesse skalieren, sollte man meinen 7nm wäre günstiger als 6nm für cache und SI. das schein aber nicht der fall zu sein, sonst wären die bei n31 in 7nm und nicht in 6nm. 12nm scheint jetzt auch keine wesentlichen preislichen vorteile zu bringen sonst, hätte man die IO DIE nicht in 6nm gebracht. der vorteil durch günstigere prozesse schein nicht groß vorhanden zu sein, und das packaging ist wohl auch noch teuer, sonst hätte man n41/n42 wohl bringen können.

für mich sieht das alles nach copium aus.

robbitop
2023-08-23, 20:31:54
6nm ist ein cost down prozess von 7 nm. Und erst ab 5 nm gibt es praktisch keine Skalierung mehr bei SRAM. Davor gab es dort noch Skalierung.
Ich vermute, dass es am Ende eine Mischung aus allem sein wird. Modernerer Speicher, LLC und modernes Packaging. Barr ob man den Cache jetzt nich viel weiter hochskaliert ist fraglich - das denke ich auch. Aber zurück nehmen wird man ihn sicherlich nicht.

BlacKi
2023-08-23, 20:45:29
Und erst ab 5 nm gibt es praktisch keine Skalierung mehr bei SRAM.
mein stand ist, es gibt schon viel länger keine skalierung für cache oder SI.


mal davon abgesehen, ändert das garnichts an meiner aussage, das cache und SI nicht weiter skalieren wird und cache und SI weiter teuer bleiben.

iamthebear
2023-08-23, 20:52:55
HBM scheint nach wie vor teurer zu sein (inkl erhöhtem Packagingaufwand) als GDDR. Beide Speichertypen werden immer schneller.
Aus Powersicht war damals HBM besser. (was Sinn macht, weil deutlich näher an der GPU und per Interposer verbunden - da kostet kedes bit weniger Energie)

Wenn man sich die Bandbreite und vergleichsweise niedrige Verlustleistung der H100 Karten ansieht ist dem sicher immer noch so.
Die Frage ist was es kostet. Ich denke AMD hat aus Vega gelernt und wird sich hüten HBM in den 500$ Bereich zu bringen.

Ich würde aber vermuten, dass der Vorteil mit den immer größer werdenden Last Level Caches abnimmt da weniger Datentransfers notwendig sind durch gesteigertes reuse.

Ich sehe da langfristig eher die andere Tendenz. SRAM skaliert spätestens mit 3nm gar nicht mehr. Da werden die Caches nicht mehr stark wachsen. Mit RDNA3 wurden diese sogar kleiner.
Logik skaliert jedoch noch d.h. der Bandbreitenbedarf steigt.
Speicherinterfaces skalieren schon lange nicht mehr und es sind nach GDDR7 auch kaum Nachfolgetechnologien in Sicht es sei denn man erkauft sich die Performance mit noch mehr Energiebedarf pro Bit durch aufwändigere Codierung der Signale. Näher hin zum GPU Die kann man auch nicht mehr.

Man wird Cache stacken müssen. Kleine Cache chiplets in einem billigen Prozess mit praktisch 100% yield.

Über N31 kann man nur spekulieren. N31 soll ja angeblich mit gestackten MCDs (also mit 192 mib) geplant gewesen sein, erreichte aber nicht den gewünschten Durchsatz.

Wenn man sich Navi31 vs. Navi33 ansieht sehe ich ehrlich gesagt nicht den Fortschritt durch die Chiplet Architektur.

Was die 192MB angeht so standen die Kosten vermutlich in keinem Verhältnis zum Nutzen.

Ich denke, dass AMD im GPU Bereich langfristig dazu über gehen wird statt dem L3 gleich den DRAM selbst auf den Die zu stacken:
.) Leading Edge Logic Die mit den Shader Engines
.) DRAM oben drauf gestacked
.) PCIe, Displayausgänge etc. auf einen extra IO Die

Nur thermisch könnte das noch eine Herausforderung werden.

robbitop
2023-08-23, 21:04:59
mein stand ist, es gibt schon viel länger keine skalierung für cache oder SI.
Dann solltest du noch einmal recherchieren. Die Skalierung nahm ab aber nicht linear. Und seit 5 nm gibt es dann gar keine Skalierung mehr.


mal davon abgesehen, ändert das garnichts an meiner aussage, das cache und SI nicht weiter skalieren wird und cache und SI weiter teuer bleiben.
Das nicht aber zumindest kann Cache als chiplet einen Kostenvorteil erarbeiten. Aber allein löst es das Kostenprobl nicht.
Und deshalb wird es wahrscheinlich auf eine Kombination aus allem hinauslaufen. LLC (der nicht mehr wachsen ggf sogar schrumpfen wird pro TFlop), modernerem Speicher, Bandbreiteneffizienzsteigerung und modernen packagingmethoden.

robbitop
2023-08-23, 21:10:54
Wenn man sich Navi31 vs. Navi33 ansieht sehe ich ehrlich gesagt nicht den Fortschritt durch die Chiplet Architektur.

Naja die beiden sind extrem unterschiedlich. Bei N31 wurden verglichen mit N33 massiv viele Transistoren in die CUs verballert, die bis dato fast keinen Mehrwert zeigen.
Für einen echten Vergleich bräuchte man zwei gleiche Designs und die BOM Kosten.



Was die 192MB angeht so standen die Kosten vermutlich in keinem Verhältnis zum Nutzen.
So wie N31 performt hat offensichtlich nicht.


Ich denke, dass AMD im GPU Bereich langfristig dazu über gehen wird statt dem L3 gleich den DRAM selbst auf den Die zu stacken:
.) Leading Edge Logic Die mit den Shader Engines
.) DRAM oben drauf gestacked
.) PCIe, Displayausgänge etc. auf einen extra IO Die

Nur thermisch könnte das noch eine Herausforderung werden.
Ja DRAM wäre billiger. Ggf auch als EDRAM in einen aktiven Interposer einbaubar.

BlacKi
2023-08-23, 21:21:29
Dann solltest du noch einmal recherchieren. Die Skalierung nahm ab aber nicht linear. Und seit 5 nm gibt es dann gar keine Skalierung mehr.

Und deshalb wird es wahrscheinlich auf eine Kombination aus allem hinauslaufen.


ich hatte ja auf dich gehofft, weil ich es nicht finde.


ich denke, AI und Upscaling techniques werden in zukunft einen großen teil beim performance fortschritt sein. durch diese techniken spart man vorallendingen bandbreite ein.


dlss p in 4k hat den banbreitenbedarf einer fhd karte, der deutlich niedriger ist als in 4k native. das einsparpotential von 4x durch dlss performance hat das 8x einsparpotential von gddr7.



wer native denkt, ist abgehängt.

bald kommen spiele in AI. ich schaue seine AI news und bin regelmäßig geflashed was jetzt schon geht. https://www.youtube.com/@neulandpro

gruntzmaker
2023-08-23, 21:24:26
www.wccftech.com/amd-teases-upcoming-enthusiast-radeon-rx-7000-gpu-first-look-new-reference-design/

WCCFTech teasert die RX7800XT an und natürlich FSR 3. Ich schätze, wir werden beides zu sehen bekommen.

Den Atem anhalten muss man aber nicht. Die RX7900 GRE hätten die Kunden wohl viel lieber auch für den westlichen Markt gesehen. Die RX 7800 XT ist eher ein Produkt der Marke "Kein Schritt nach vorne".

FSR 3... Da dürfen wir uns nicht viel von versprechen. Imho wird klar werden, dass AMD eine Verlegenheitslösung präsentieren wird.

Für Rdna 4 ist FSR aber ein Fingerzeig, wird man nun mehr auf KI bei den Rekonstruktionstechniken setzen, oder nicht. Denn FSR 3 wird die Technik sein, mit der sie auch RDNA 4 bewerben (können/müssen)

AMD braucht in einem Markt, in dem sie mit Nvidia konkurrieren größere Partner. Auch schon die Ankündigung mit einer kleinen RX 8000 Lösung macht das klar. Auch wenn es ketzerisch klingt, aber warum machen AMD und Intel in Sachen GPU nicht endlich gemeinsame Sache? Beide setzen auf Chiplets und könnten erheblich voneinander profitieren.

TheAntitheist
2023-08-24, 16:17:05
www.wccftech.com/amd-teases-upcoming-enthusiast-radeon-rx-7000-gpu-first-look-new-reference-design/

WCCFTech teasert die RX7800XT an und natürlich FSR 3. Ich schätze, wir werden beides zu sehen bekommen.

Den Atem anhalten muss man aber nicht. Die RX7900 GRE hätten die Kunden wohl viel lieber auch für den westlichen Markt gesehen. Die RX 7800 XT ist eher ein Produkt der Marke "Kein Schritt nach vorne".

FSR 3... Da dürfen wir uns nicht viel von versprechen. Imho wird klar werden, dass AMD eine Verlegenheitslösung präsentieren wird.

Für Rdna 4 ist FSR aber ein Fingerzeig, wird man nun mehr auf KI bei den Rekonstruktionstechniken setzen, oder nicht. Denn FSR 3 wird die Technik sein, mit der sie auch RDNA 4 bewerben (können/müssen)

AMD braucht in einem Markt, in dem sie mit Nvidia konkurrieren größere Partner. Auch schon die Ankündigung mit einer kleinen RX 8000 Lösung macht das klar. Auch wenn es ketzerisch klingt, aber warum machen AMD und Intel in Sachen GPU nicht endlich gemeinsame Sache? Beide setzen auf Chiplets und könnten erheblich voneinander profitieren.Ja aber dann verliert doch AMD die Abwärtskompatibilität und andere Vendor können FSR"4" dann auch nicht mehr nutzen. Dann kann man ja auch direkt XeSS nutzen.

Achill
2023-08-24, 16:51:15
www.wccftech.com/amd-teases-upcoming-enthusiast-radeon-rx-7000-gpu-first-look-new-reference-design/

WCCFTech teasert die RX7800XT an und natürlich FSR 3. Ich schätze, wir werden beides zu sehen bekommen.

Den Atem anhalten muss man aber nicht. Die RX7900 GRE hätten die Kunden wohl viel lieber auch für den westlichen Markt gesehen. Die RX 7800 XT ist eher ein Produkt der Marke "Kein Schritt nach vorne".

FSR 3... Da dürfen wir uns nicht viel von versprechen. Imho wird klar werden, dass AMD eine Verlegenheitslösung präsentieren wird.

[..]


In dem Artikel wird gar nichts geteasert, es steht im entsprechenden Abschnitt:


[..]
Besides the two graphics cards, it is also likely that AMD would give us an official update on HYPR-RX & the highly anticipated FSR 3 tech that was meant to compete against DLSS 3.
[..]


Es wird angenommen (da nicht von AMD gesagt), dass es "wahrscheinlich ist", dass es ein Update zu den Themen gibt oder auch nicht. @gruntzmaker mit deinen Text erzeugst du eine Erwartungshaltung die so nicht einmal von wccftech geteilt wird.
=> Wenn es keine Infos gibt, dann passt dein Satz "FSR 3... Da dürfen wir uns nicht viel von versprechen. Imho wird klar werden, dass AMD eine Verlegenheitslösung präsentieren wird." natürlich super ...

robbitop
2023-08-24, 17:34:35
Hab ich mir auch gedacht X-D

w0mbat
2023-08-25, 12:30:31
Navi43/44 hatten angeblich schon ihr tape-out, könnte echt H1 werden.

HOT
2023-08-25, 12:38:23
Glaub ich nicht. N43 dürfte schon bald tape tut haben, N44 würd ich mal auf später tippen. N32 ist mit Sicherheit bis mindestens Anfang 25 am Markt. Den Anfang dürfte N43 machen um die 7900XT(X) zu ersetzten durch ne 8800XT, vorausgesetzt die 64CUs stimmen auch.

8800XT -> N43 full -> in etwas 7900XTX-Leistung, bei 4k langsamer, unter 4k schneller, RT immer schneller, 24GB GDDR7 (24Gbit)
8700XT -> N43 salvage, 16GB
8700 -> N43 12GB
8600 -> N44 full 12GB (24Gbit)
8500 -> N44 salvage 8GB

Linmoum
2023-08-25, 12:40:12
Wenn das erst jetzt kürzlich war (Quelle dafür?), dann ziemlich sicher nicht vor Q3 2024, wahrscheinlicher ist in dem Fall eher Q4 2024. Bei Nvidia hätte ich keine Zweifel, dass das H1 2024 werden würde in so einem Fall. Bei AMD aber nicht, das waren bei N31 auch schon 14 Monate vom angeblichen Tapeout (Oktober 2021) bis zum Launch im Dezember 2022.

w0mbat
2023-08-25, 12:46:03
N31 war auch ein deutlich komplizierteres design. Navi43/44 sollen ja beides kleinere monlitische Chips sein.

Der_Korken
2023-08-25, 12:46:56
Wobei es im Falle von N31 eher nach Software-Problemen aussah, die den Launch verzögert haben. Da wurden selbst Monate nach Launch ausschließlich neue RDNA3-Treiber released und überall noch nachgebessert. Dennoch scheint Tapeout+12M ein realistischer Release-Zeitpunkt zu sein. Woher auch immer die Info kommt, dass RDNA4 schon Tapeout hatte, wo es sich doch wegen der Abkehr vom Chiplet-Design noch um mehrere Monate verzögern sollte.

basix
2023-08-25, 13:32:25
Navi43/44 hatten angeblich schon ihr tape-out, könnte echt H1 werden.

Woher kommt die Info mit dem Tapeout?

w0mbat
2023-08-25, 13:36:05
Von Kepler auf Twitter: https://twitter.com/Kepler_L2/status/1695011846409842849

Lehdro
2023-08-25, 13:43:03
Woher auch immer die Info kommt, dass RDNA4 schon Tapeout hatte, wo es sich doch wegen der Abkehr vom Chiplet-Design noch um mehrere Monate verzögern sollte.
Ich dachte N43/44 sind wieder Monolithen?

Der_Korken
2023-08-25, 16:42:50
Ich dachte N43/44 sind wieder Monolithen?

Deswegen ja auch Abkehr vom Chiplets-Design.

ChaosTM
2023-08-25, 16:54:03
Abkehr vom Chiplet Design geht einfach nicht ob der Größe.
Selbst NV hat höchsten noch eine Generation übrig, wo Monolithisch funktionieren kann.

Dann ist man unweigerlich an oder über der grenze des Machbaren.

ist nicht auf meinem Mist gewachsen - ich suche die Links

Der_Korken
2023-08-25, 17:00:20
Es geht um das Gerücht, dass AMD die alten Pläne für RDNA4 auf Chiplet-Basis eingestampft hat und eine weitere Gen Monolithen bringen will. Dies ging auf Kosten der Highend-Modelle, weil die wahrscheinlich sonst mit RDNA5 kollidieren würden (die sehr wohl wieder auf Chiplets basieren können).

Linmoum
2023-08-25, 17:01:29
Abkehr vom Chiplet Design geht einfach nicht ob der Größe.Wenn man mit RDNA4 nicht (mehr) vorhat, ganz oben mitzuspielen, dann braucht man auch keine Chiplets.

ChaosTM
2023-08-25, 17:05:11
Warum sollte man all die Erfahrungen, die man mit RDNA3 gesammelt hat wegschmeißen, außer es führt zu gar nichts ? Kann ich mir nicht vorstellen.

NV muss sich früher oder später dem selben Problem stellen.

daher glaube ich nicht an das Gerücht...

Lurtz
2023-08-25, 17:15:32
Edit.

Der_Korken
2023-08-25, 17:21:35
Warum sollte man all die Erfahrungen, die man mit RDNA3 gesammelt hat wegschmeißen, außer es führt zu gar nichts ? Kann ich mir nicht vorstellen.

NV muss sich früher oder später dem selben Problem stellen.

daher glaube ich nicht an das Gerücht...

Engpässe bei den Packaging-Kapazitäten. Was nützt dir ein tolles Design, wenn du es nicht herstellen kannst? Hätte AMD gewusst wie es bei RDNA3 laufen würde, hätten sie diese Gen auch monolithisch hergestellt und nur MI300 auf Chiplet-Basis gelassen. Außerdem weiß man nie, ob es nicht Probleme beim Die-Stacking gab und AMD es auf RDNA5 verschoben hat, um nicht die ganze Generation zu gefährden.

BlacKi
2023-08-25, 17:47:27
Selbst NV hat höchsten noch eine Generation übrig, wo Monolithisch funktionieren kann.

kommt drauf an, wie hoch der generational leap ausfallen wird.


wenn man mit 25-30% von der 4090 auf die 5090 zufrieden ist, könnten 450-500mm² in 3nm bringen und dann die 6090 in 3nm mit 700mm².


wäre zumindest ein denkbares szenario, wenn amd ebenfalls kleinere brötchen backt. sieht zumindest bei rdna4 so aus.

ChaosTM
2023-08-25, 18:31:16
Könnte alles stimmen, aber früher* oder später wird sich auch NV im GPU Bereich darum kümmern müssen.
Wie ich schon gesagt habe, die nächste Generation wird wohl noch monolithisch sein.

* NV hat so was sicher schon in Entwicklung

KarlKastor
2023-08-26, 11:54:09
wenn man mit 25-30% von der 4090 auf die 5090 zufrieden ist, könnten 450-500mm² in 3nm bringen und dann die 6090 in 3nm mit 700mm².

Wo soll die Performance herkommen?
Transistordichte ist 1.3x. Bei 30% mehr Performance wird der Chip auch wieder AD102 Größe haben.

00-Schneider
2023-08-26, 12:06:55
wenn man mit 25-30% von der 4090 auf die 5090 zufrieden ist, könnten 450-500mm² in 3nm bringen und dann die 6090 in 3nm mit 700mm².


Alles unter 50% wäre ein Witz. Bei 30% Mehrleistung baue ich die Bude jedenfalls nicht aus, und geb mir den ganzen Verkaufsstress.

HOT
2023-08-26, 12:47:45
kommt drauf an, wie hoch der generational leap ausfallen wird.


wenn man mit 25-30% von der 4090 auf die 5090 zufrieden ist, könnten 450-500mm² in 3nm bringen und dann die 6090 in 3nm mit 700mm².


wäre zumindest ein denkbares szenario, wenn amd ebenfalls kleinere brötchen backt. sieht zumindest bei rdna4 so aus.

Weder mMn weder hier noch da 3nm geben. Das wird alles für KI-Zeug gebraucht. Da machen beide 10x mehr Gewinn mit, es wird alles, was für NV und AMD an 3nm verfügbar ist für BW1xx und MI400/Turin-Dense draufgehen.

KarlKastor
2023-08-26, 13:09:28
Und Nvidia hat schon vor drei Jahren gewusst, dass es ab diesen Jahr mit AI so richtig abgeht?
Der Nachfolger kommt dann eben später, wenn genug Kapazität da ist.

HOT
2023-08-26, 13:16:06
Deswegen heißen die Consumerchips GB2xx ;).
Erinnert sich jemand an Maxwell? Da war es nicht Prozess sondern Featureset.
AMDs Northern Islands hatte aber damals auch ein ähnliches Problem, weil TSMC 32nm ganz gecancelt hatte, da mußte man auf 40nm backporten und der Top-Chip Cayman fiel deutlich kleiner aus als geplant. Klar, ich kann mit meiner Annahme falsch liegen, aber ich würd definitiv nicht mit 3nm für Consumer rechnen bei den Grafikchips, man könnte stark enttäuscht werden - zumal NV ja ne Geschichte hat, mit nicht unbedingt state-of-the-art-Prozessen für Consumerchips.
Außerdem soll GB202 ja auch nur noch 144SMs und nicht an die 200, wie die ursprünglichen Gerüchte waren.

AlterSack
2023-08-28, 19:39:44
Glaub ich nicht. N43 dürfte schon bald tape tut haben, N44 würd ich mal auf später tippen. N32 ist mit Sicherheit bis mindestens Anfang 25 am Markt. Den Anfang dürfte N43 machen um die 7900XT(X) zu ersetzten durch ne 8800XT, vorausgesetzt die 64CUs stimmen auch.

8800XT -> N43 full -> in etwas 7900XTX-Leistung, bei 4k langsamer, unter 4k schneller, RT immer schneller, 24GB GDDR7 (24Gbit)
8700XT -> N43 salvage, 16GB
8700 -> N43 12GB
8600 -> N44 full 12GB (24Gbit)
8500 -> N44 salvage 8GB

wäre n43 (auch mit 64 cu) nicht eher 8600xt?
hab keine ahnung wie schnell gddr7 sein wird,
aber möglicherweise (falls schnell genug) gibt es
auch nur 16gb an 128 bit...?

BlacKi
2023-08-28, 20:00:48
wäre n43 (auch mit 64 cu) nicht eher 8600xt?
hab keine ahnung wie schnell gddr7 sein wird,
aber möglicherweise (falls schnell genug) gibt es
auch nur 16gb an 128 bit...?du versuchst grafikkarten, anhand von SI und internem chipnamen, marketing namen zuzuordnen? kannst du in zukunft knicken.


die 8600xt wäre in deinem fall dann bis zu 300% schneller als die 7600. das macht keinen sinn. ich würde tippen, das man alles über 70% eine nächst höhere einstufung geben wird, und in dem fall wohl 8800xt.

desweiteren tippe ich mindestens auf 50% mehr SI, also 192bit, aber 256bit mit gddr6 ist auch eine option. wenn der cache so klein bleibt wie bei rdna3, dann bräuchte man vl sogar 256bit an gddr7.

mczak
2023-08-28, 20:05:36
hab keine ahnung wie schnell gddr7 sein wird, aber möglicherweise (falls schnell genug) gibt es auch nur 16gb an 128 bit...?
gddr6 gibt es mit bis zu 24 gb/s (wobei AMD nur maximal 20 gb/s benutzt), gddr7 soll mit 32 gb/s starten - das wäre schon eine ordentliche Steigerung.
Das Problem ist aber es sind noch keine 32 gbit grossen gddr7 Chips angekündigt, was heisst mit 128 bit breitem SI gehen mit den 16 gbit Chips bloss 8 GB (man könnte natürlich Clamshell-Modus nutzen aber bekanntlich vermeiden die Graka-Hersteller den wenn es nicht wirklich absolut unbedingt sein muss auf Consumerkarten).
micron hat immerhin 24 gbit Chips auf der Roadmap was immerhin 12 GB Karten bei 128bit SI ermöglichen würde aber der Zeitplan ist unklar.

amdfanuwe
2023-08-28, 20:24:50
Ist denn eigentlich sicher, dass N44 der kleinere Chip ist?
Oder bleibt es nach Streichung von N41 und N42 bei N43 als N33 Nachfolger und N44 wird der neue größere Chip.
In etwa N43 40CU 128Bit SI und N44 verdoppelt auf 80CU 256Bit SI.

reaperrr
2023-08-28, 21:43:16
Ist denn eigentlich sicher, dass N44 der kleinere Chip ist?
Oder bleibt es nach Streichung von N41 und N42 bei N43 als N33 Nachfolger und N44 wird der neue größere Chip.
In etwa N43 40CU 128Bit SI und N44 verdoppelt auf 80CU 256Bit SI.
So sicher wir halt ohne offizielle Infos sein können, denn zu dem Zeitpunkt wo die Streichung von den Chiplet-N4x beschlossen wurde, dürfte es schon zu spät gewesen sein, um noch einen von Grund auf neuen größeren monolithischen Chip innerhalb eines vertretbaren Zeitrahmens aus dem Boden zu stampfen.

Dass RDNA4 anders als RDNA3 auch wieder bis runter zu N44 gehen würde, schwebte auch schon seit über einem Jahr durch die Gerüchteküche.
N24 ist ja nicht mehr wirklich konkurrenzfähig außerhalb von Büro-PCs (wo ihm IGPs langsam auch das Wasser abgraben).

Außerdem soll laut MLID zumindest angedacht gewesen sein (kann natürlich sein, dass es nicht mehr aktuell ist), dass N43 64 CUs und N44 32 CUs bekommen sollte.
Passt ein wenig dazu, dass für N41 mal 144 CUs im Raum standen, N42 wäre vermutlich 96 CUs gewesen.

robbitop
2023-08-29, 09:08:37
Alles unter 50% wäre ein Witz. Bei 30% Mehrleistung baue ich die Bude jedenfalls nicht aus, und geb mir den ganzen Verkaufsstress.
Erinnert sich noch jemand an die 2080ti (Turing)? :biggrin:
Und dann war die trotz kaum Mehrleistung auch noch besonders teuer. :freak:

HOT
2023-08-29, 10:07:47
amdfanuwe
Interessanter Gedanke

reaperrr
Wenn das jetzt erst durchgesickert es, die Tape Outs aber schon waren, wird offensichtlich AMD diese strategiesche Entscheidung weit vorher getroffen haben, aus der N4C-Entwicklung den Druck herauszunehmen ;).

BavarianRealist
2023-08-29, 11:41:29
Bei den 4nm monolithischen GPUs gibt es zu bedenken, dass Cache und Controller schon lange nicht mehr shrinken, sodass es an sich wenig Sinn machen dürfte, wenn N44 weniger als 40CU hätte: dann wäre es von der Diesize vermutlich ziemlich egal, ob das Ding in 4nm oder 6nm hergestellt würde, nur dass 4nm wohl weit mehr als das Doppelte kosten dürfte.

AMD willl ja daher bei den RDNA4 auf GDDR7 gehen, um aufgrund der höheren Datenrate mit schmaleren (=kleineren) Controllern auszukommen, da die nur Diesize fressen.

HOT
2023-08-29, 11:44:10
Wenn die jetzt schon Tape Out hatten, aber Samsung und skHynix jetzt erst GDDR7 Samples liefern, könnte es auch sein, dass N4x noch auf GDDR6 setzen wird. Bei NV ist es ja offenbar auch so - GB202 und 203 sollten ja nur GDDR6X bekommen.

TheAntitheist
2023-08-29, 16:19:37
Erinnert sich noch jemand an die 2080ti (Turing)? :biggrin:
Und dann war die trotz kaum Mehrleistung auch noch besonders teuer. :freak:
da gabs schon bis über 40% Mehrleistung, Nvidia hat dort aber schon Die-budget in DLSS und RT investiert, das unterschlägst du schon... allein DLSS gibt ja deswegen auch heutztage noch einen extremen boost also ist die Mehrleistung schon irgendwo bei 70% ohne RT

HOT
2023-08-29, 20:41:01
Laut RGT erhärtet sich die Einschätzung, dass sowohl RDNA4 als auch BM im ersten H 24 auftauchen werden. GDDR7 sollte dann für RDNA4 ausgeschlossen sein, die dürften beide maximal 256Bit GDDR6 liefen und damit 16GB.

horn 12
2023-08-29, 20:48:41
Nun, wäre dann nicht mal 7900XTX Performance und da wird die 7900XTX ja auch dann bald 2 Jahre jung, wenn es etwas Schnelleres erst Anfang/ Mitte 2025 geben werden sollte.

Der_Korken
2023-08-29, 22:30:51
1H24 klingt viel zu früh für RDNA4. Das kann nur dann hinhauen, wenn entweder RDNA3 massiv zu spät war (z.B. 6 Monate) oder wenn die Modelle, die erscheinen sollen von vornherein als Monolithen geplant waren und nicht wegen Neuausrichtung um mehrere Monate nach hinten verschoben werden mussten. Und selbst dann wären <=18 Monate auf N31 sehr sehr früh.

][immy
2023-08-29, 22:54:38
1H24 klingt viel zu früh für RDNA4. Das kann nur dann hinhauen, wenn entweder RDNA3 massiv zu spät war (z.B. 6 Monate) oder wenn die Modelle, die erscheinen sollen von vornherein als Monolithen geplant waren und nicht wegen Neuausrichtung um mehrere Monate nach hinten verschoben werden mussten. Und selbst dann wären <=18 Monate auf N31 sehr sehr früh.
Aber auch darum geht es ja bei den chiplets. Das nicht alles neu designed werden muss.

memory_stick
2023-08-29, 23:09:39
N43/44 sollen monolithisch sein, keine chiplets. Ausserdem könnte von N31/32 ja nur das mem chiplet wiederverwendet werden, und dann wären die auf GDDR6 beschränkt. Also Wiederverwendbarkeit zwischen den Generationen sehe ich bei den GPU chiplets bisher! nicht wirklich.

BlacKi
2023-08-29, 23:26:30
[immy;13383473']Aber auch darum geht es ja bei den chiplets. Das nicht alles neu designed werden muss.wenn du cache und SI meinst, das ist blödsinn. die muss jede 1-2 gen angepasst werden, sonst hast du irgendwann eine rx 9500 mit 384bit SI.

im prinzip muss alles optimiert werden.

der punkt von chiplet design ist: 1. kleine DIE chiplets haben weniger abfall, und 2. kleine chiplets können zu großen grafikkarten skalieren. wenn es klappt. 3. könnte man grafikkarten bauen, die monlitisch nicht möglich wären, weit über 800mm² fläche. aber amd scheint das für gaming nichtmehr vorzuhaben.

n31/n32 ist sozusagen nur die vorausbaustufe von echten chiphaufen designs.

HOT
2023-08-29, 23:47:57
1H24 klingt viel zu früh für RDNA4. Das kann nur dann hinhauen, wenn entweder RDNA3 massiv zu spät war (z.B. 6 Monate) oder wenn die Modelle, die erscheinen sollen von vornherein als Monolithen geplant waren und nicht wegen Neuausrichtung um mehrere Monate nach hinten verschoben werden mussten. Und selbst dann wären <=18 Monate auf N31 sehr sehr früh.

Wenn die schon im August Tape Out hatten werden die bis zum April in den Regalen stehen.

horn 12
2023-08-30, 07:08:10
Und sollten dann N31 und N31 Salvage ersetzen, oder zumindest in dessen Nähe kommen
mit 16GB DDR6 Speicher und da rüstet kein 7900 XT/ XTX Käufer um.

Linmoum
2023-08-30, 09:20:00
Wenn die schon im August Tape Out hatten werden die bis zum April in den Regalen stehen.7 Monate sind aber arg viel Schönrechnerei.

HOT
2023-08-30, 09:43:55
Das heißt doch nicht, dass das auch der Plan ist, aber das kann der Plan sein. Ich wär einfach nur vorsichtig mit diesen Einschätzungen. Selbst wenn der dann im Juni kommt, wäre das immer noch 1H24. Und 10 Monate sind sehr realistisch. Ich denke aber AMD wird den Launch wieder relativ heftig verzögern und den dann launchen, wenn man es am besten gebrauchen kann, vielleicht wieder September.

Langlay
2023-08-30, 09:55:56
gebrauchen könnte AMD den Launch letzte Woche ...

HOT
2023-08-30, 09:58:14
Ob die den brauchen ist von vielen Faktoren abhängig. Aber wir haben ja gelernt, dass AMD für Gewinnmaximierung auch auf Marktanteil im GPU-Bereich verzichtet. Mal sehen, wann die das für sinnvoll halten.

Der_Korken
2023-08-30, 12:33:09
Wenn die schon im August Tape Out hatten werden die bis zum April in den Regalen stehen.

Wie gesagt: Das kann nur dann stimmen, wenn die Chips von vornherein so geplant waren und/oder RDNA3 sehr viel mehr Verspätung hatte als wir bisher dachten.

Ich hätte sicher nichts dagegen. Ein N32 done right mit >=3Ghz Takt, Hardware-Einheiten für BVH-Traversal und ein paar Verbesserungen am Dual-Issue-Design (= mehr IPC) würde auch mit 16GB und 256bit GDDR6 gut aussehen. Das wäre performancetechnisch immer noch unterhalb einer 4080 mit ebenfalls "nur" 16GB und AMD könnte auf PCIe 5.0 hochgehen, um eventuellen VRAM-Mangel zu kompensieren. Wenn die Bandbreite zu knapp ist, kann bis dahin schnellerer GDDR6 genutzt oder der IF$-Cache auf 96MB vergrößert werden (gibt ja keinen Grund warum nicht auch 12MB pro Channel gehen sollten). Das ganze könnte in 4nm in 300mm² passen und an die Performance einer 7900XT rankommen.

OgrEGT
2023-08-30, 13:57:07
Wie gesagt: Das kann nur dann stimmen, wenn die Chips von vornherein so geplant waren und/oder RDNA3 sehr viel mehr Verspätung hatte als wir bisher dachten.

Ich hätte sicher nichts dagegen. Ein N32 done right mit >=3Ghz Takt, Hardware-Einheiten für BVH-Traversal und ein paar Verbesserungen am Dual-Issue-Design (= mehr IPC) würde auch mit 16GB und 256bit GDDR6 gut aussehen. Das wäre performancetechnisch immer noch unterhalb einer 4080 mit ebenfalls "nur" 16GB und AMD könnte auf PCIe 5.0 hochgehen, um eventuellen VRAM-Mangel zu kompensieren. Wenn die Bandbreite zu knapp ist, kann bis dahin schnellerer GDDR6 genutzt oder der IF$-Cache auf 96MB vergrößert werden (gibt ja keinen Grund warum nicht auch 12MB pro Channel gehen sollten). Das ganze könnte in 4nm in 300mm² passen und an die Performance einer 7900XT rankommen.
Ob das dann weniger Leistungsaufnahme hat als die 7900XT?

HOT
2023-08-30, 14:02:29
Wenn die die 64CUs an die Grenze prügeln wird das Teil nicht sparsam ;).

Der_Korken
2023-08-30, 14:05:03
Ob das dann weniger Leistungsaufnahme hat als die 7900XT?

Davon würde ich ausgehen. +50% Perf/W gegenüber RDNA2 ist das absolute Minimum, was man für RDNA4 erwarten kann, denn das war schon das Ziel für RDNA3. Eine 7900XT ist ca. 20% schneller als eine 6950XT. Für 1.5-fache Effizienz dürfte der Verbrauch nur ca. 270W betragen. Durch hohe Taktraten würde ich mich nicht abschrecken lassen, denn die sind bei RDNA4 sicherlich gefixt.

Ist aber alles blind ins Blaue geraten, vielleicht sind die RDNA4-Chips auch nur günstiger Ersatz für N32 und N33 und die 7900er bleiben uns noch länger erhalten.

bbott
2023-08-30, 15:33:02
Ich dachte eigentlich das AMD auch langsam bei den GPU liefert wie bei Zen, insbesondere durch die Chiplets, auch das vielleicht der Rhythmus auf Jährlich ändert. Bisher gibt es nur den Preisvorteil für AMD, welcher kaum bis gar nicht beim Kunden ankommt.

Die Streichung von N41/42 hört sich schon mal nicht gut an. Da kann man nur hoffen, dass es weitere Chip Projekte gibt wie beim N31, oder aber N51/52 deutlich schneller folgen. Ich habe jedenfalls langsam den Überblick verloren. Da muss ich gleich noch mal nach einer aktuellen Roadmap von Leo suchen...

TheGood
2023-08-30, 21:21:01
dass RDNA3 viel zu spät war sollten doch allen klar sein. Die hatten alle doch schon im August oder früher auf dem Plan... Spätestens da wurden die chiplets für die RDNA 4 generation schon abgesägt... Eher noch im Frühjahr 2022 nach den ersten nicht erfolgreichen Tests.

mboeller
2023-08-31, 08:37:38
dass RDNA3 viel zu spät war sollten doch allen klar sein. Die hatten alle doch schon im August oder früher auf dem Plan... Spätestens da wurden die chiplets für die RDNA 4 generation schon abgesägt... Eher noch im Frühjahr 2022 nach den ersten nicht erfolgreichen Tests.

Nach den ganzen Videos/Gerüchten wurde N41/N42 erst dieses Jahr im Frühjahr oder Sommer abgesägt.

N43/44 waren aber vielleicht, wie N33 schon immer monolithische GPUs.

Altehardware
2023-08-31, 09:48:15
wenn beide Monolithen sind kann es nur sein das sony einen angefordert hat und somit der chip mit 60cu exklusiv bleibt
Womit am desktop nur der n44 geben wird mit maximal 40cu das wäre für den markt katastrophal
40*2,34*3,55*64=21,5tf da müsste die sku min bei 400$ sein und als rx8600xt bezeichnet werden
Daran zweifle ich aber
derzeit
rx7700xt +- 18tf 449$
rtx4060ti +-16tf 16gb 499$
rx7800xt 22tf 499$
rtx4070 22,9tf 599$

Wenn n44 kommt wird es nach der Veröffentlichung der ps5 pro sein da kursiert etwa q4 2024 rum
Womit n44 vermutlich q1 oder q2 2025 kommt.
preislich wäre durchaus denkbar das man bei n44 um die 399$ anstrebt.
ob n43 dann auch auf dem desktop kommt ist unklar wenn ja dürfte am sich auf etwa rx7900xt perf ab 599$ freuen.
beide chips in n4x

TheGood
2023-08-31, 22:20:19
Nach den ganzen Videos/Gerüchten wurde N41/N42 erst dieses Jahr im Frühjahr oder Sommer abgesägt.

N43/44 waren aber vielleicht, wie N33 schon immer monolithische GPUs.

Ist für mich aber unwahrscheinlich. Das Ding wurde ziemlich früh gecancelt, sonst hätten sie nicht jetzt schon den Tape Out für die nächste Generation.

Die wussten relativ schnell (um den jahreswechsel) dass am N31 was faul ist und vermutlich hat es etwas mit dem Chiplet Design zu tun. Was soll es auch anders sein, wenn man genau dessen Nachfolger cappt?
DAss man zu wenig interposer stacking kapazität hat, oder wie das heisst, ist doch unwahrscheinlich.... Bzw. deswegen verzichte ich nicht auf ne ganze Enthusiasten Chipserie Serie die ich mit guten MArgen verkaufen kann.

ABer jeder hat hier seine eigene Interpretation...

amdfanuwe
2023-08-31, 22:36:47
deswegen verzichte ich nicht auf ne ganze Enthusiasten Chipserie Serie die ich mit guten MArgen verkaufen kann.


Wie gut sollen die Margen denn sein? Bei MI300 dürfte sie wesentlich höher sein und solche Mengen an Enthusiasten GPUs setzt AMD auch nicht ab.

Der_Korken
2023-08-31, 22:57:40
Als Lowend-Lösung für RDNA4 könnte AMD sowas wie N33 geplant haben, d.h. ein Chip mit der neuesten Architektur, aber monolithisch und im vorigen Fertigungsprozess. Für kleine Chips lohnt sich der ganze Overhead des Stackings vielleicht nicht und der Vorteil von Chiplets schrumpft auch, je kleiner das Endprodukt ist. Um ohne eine Stacking-Lösung mehr vom Markt abzudecken, könnten sie den Lowend-Chip einfach verdoppelt und als zweiten Monolith eingeschoben haben. Das wären dann N44 und N43, beide in 4nm, während die gestackte Lösung SEDs in 3nm verwendet hätte. Das wäre wenig Aufwand, leicht herzustellen und trotzdem von der Performance her gut, vor allem weil der Vorgänger schwächer ausfiel als geplant.

TheGood
2023-09-02, 08:03:30
Wie gut sollen die Margen denn sein? Bei MI300 dürfte sie wesentlich höher sein und solche Mengen an Enthusiasten GPUs setzt AMD auch nicht ab.
Mindfactory sagt da was anderes.

Nvidia zu deiner Theorie mit den professionellen Chips ebenfalls.

Wobei ich mich dahingehend korrigieren muss, ob es wirklich das Chiplet Design ist, ist ja unklar, da der N33 das gleiche Problem hat wie der N31. Vielleicht doch eher nicht.

amdfanuwe
2023-09-02, 12:26:56
Mindfactory sagt da was anderes.

Nvidia zu deiner Theorie mit den professionellen Chips ebenfalls.

Wobei ich mich dahingehend korrigieren muss, ob es wirklich das Chiplet Design ist, ist ja unklar, da der N33 das gleiche Problem hat wie der N31. Vielleicht doch eher nicht.
Häh???
Wo sagt MF etwas zu Margen und Nvidia was zu meiner Theorie?
Gacker mal richtig.
Im Vergleich zu den HPC GPUs sind die Consumer Margen gering.

HOT
2023-09-02, 13:12:55
Als Lowend-Lösung für RDNA4 könnte AMD sowas wie N33 geplant haben, d.h. ein Chip mit der neuesten Architektur, aber monolithisch und im vorigen Fertigungsprozess. Für kleine Chips lohnt sich der ganze Overhead des Stackings vielleicht nicht und der Vorteil von Chiplets schrumpft auch, je kleiner das Endprodukt ist. Um ohne eine Stacking-Lösung mehr vom Markt abzudecken, könnten sie den Lowend-Chip einfach verdoppelt und als zweiten Monolith eingeschoben haben. Das wären dann N44 und N43, beide in 4nm, während die gestackte Lösung SEDs in 3nm verwendet hätte. Das wäre wenig Aufwand, leicht herzustellen und trotzdem von der Performance her gut, vor allem weil der Vorgänger schwächer ausfiel als geplant.

Das war ja auch erst meine Annahme, dass N43 ein N33-Nachfolger ist. Aber ich denke, das wird nicht korrekt sein, da N43 der maximal sinnvolle Monolith in N4 sein dürfte. Mit ca. 250-300mm²+ in N4 ist das Ding erheblich Leistungsfähiger und teurer als irgendwas in der Range vorher. Außerdem scheint N44 ein halber N43 zu sein.

amdfanuwe
2023-09-02, 14:42:26
da N43 der maximal sinnvolle Monolith in N4 sein dürfte.
Wenn ursprünglich N41 bis N43 geplant war und jetzt ein N42 Ersatz monolithisch kommt, warum sollten sie N43 umbenennen?
Aber sind ja nur interne Namen und wir müssen abwarten, bis sich was konkretes von AMD dazu zeigt.
Vielleicht sollten wir bis dahin einfach nur von N4Big und N4Little reden.

HOT
2023-09-02, 15:41:54
Weil N41 soviel mehr Power gebracht hätte, dass er ne völlig neue Kategorie geworden wäre. N42 rutscht dann entsprechend auf den $1000-Spot.

Der_Korken
2023-09-02, 16:30:51
Das war ja auch erst meine Annahme, dass N43 ein N33-Nachfolger ist. Aber ich denke, das wird nicht korrekt sein, da N43 der maximal sinnvolle Monolith in N4 sein dürfte. Mit ca. 250-300mm²+ in N4 ist das Ding erheblich Leistungsfähiger und teurer als irgendwas in der Range vorher. Außerdem scheint N44 ein halber N43 zu sein.

Nicht N43, sondern N44 ist der N33-Nachfolger. Die Zahlen rutschen eins auf, weil "N41" (er wird so nicht gehießen haben) durch das Stacking so viel größer und teurer als N31 geworden wäre, dass er quasi eine neue Performance-Klasse aufmacht (hast du auch geschrieben). Alternativ hätte man die Chips auch N40 bis N43 nennen können.

Falls die 9 SEDs gestimmt haben, frage ich mich wieviele CUs drauf gewesen wären. Bei N31 dürften 2 SEs mit 32 CUs irgendwas um die 70-80mm² groß sein. Mit einem eigenen L2 und TSVs für die Verbindung dann um die 90mm². In N3 entsprechend noch ein wenig kleiner, selbst wenn zusätzliche Transistoren für Verbesserungen draufgehen (mehr L1 bzw. L0, RT-Hardware, Matrix-Einheiten, etc.). Damit wäre der Vollausbau 9x32CUs = 288CUs geworden. Mit gefixten Taktraten wäre 3-fache N31-Leistung im Bereich des möglichen gewesen, in RT sogar locker. Der Verbrauch wäre dann selbst mit +50% Perf/W irgendwo bei 500W >600W rausgekommen. Viel, aber nicht weit weg von der 4090 und sogar weit über der 4090.

Davon ausgehend, wäre "N42" dann eine Config mit 2x3SEDs gewesen und der alte N43 mit 1x3SEDs und somit auf N31-Niveau. Vielleicht sind 32CUs pro SED auch übertrieben und es sind nur kleine 50-60mm²Chiplets mit 24CUs und wir reden "nur" noch über 2,25x N31-Leistung im Vollausbau. Ich fände es aber nicht abwegig, wenn AMD diese einmalige Chance genutzt hätte, um Nvidia mal richtig eins auszuwischen, selbst wenn es ein 3000$-Monster geworden wäre.

Unterhalb von N43, der immernoch irgendwo >=500$ zu finden gewesen wäre, hätte sich ein monolithischer 150-200mm²-Chip á la N44 noch angeboten. Der könnte die selbe CU-Config wie Strix Halo haben (40 CUs) mit höheren Taktraten und besserer RT-Beschleunigung. Mit 12GB GDDR6 @192bit wäre hier irgendwas um oder knapp unter RX7700XT-Leistung möglich gewesen, für 250-300$ - deswegen N33-Nachfolger. Mit allen Chiplet-Varianten gecancelt, könnte AMD stattdessen einen 80CU-Monolithen in N4 eingeschoben haben, der entsprechend auf N31-Niveau rauskommt. Der hätte den Vorteil ohne Advanced Packaging auszukommen, kaum mehr N5/N4-Fläche zu brauchen (dafür aber keine N6-Fläche) und durch weniger Verbrauch generall attraktiver zu sein und für Notebooks geeignet zu sein.

Edit: Brainfart, 3x Performance bei 1,5x Effizienz macht natürlich 2x Verbrauch und nicht nur 1,5x :redface: Hab die 500W editiert.

Langlay
2023-09-02, 17:14:01
Vielleicht sind 32CUs pro SED auch übertrieben und es sind nur kleine 50-60mm²Chiplets mit 24CUs und wir reden "nur" noch über 2,25x N31-Leistung im Vollausbau. Ich fände es aber nicht abwegig, wenn AMD diese einmalige Chance genutzt hätte, um Nvidia mal richtig eins auszuwischen, selbst wenn es ein 3000$-Monster geworden wäre.


Nach Milchmädchenrechnung (angenommen hab ich die 4090 ist im Schnitt 30% schneller als die 7900XTX) müsste Nvidia 70-75% Performancesteigerung haben damit der Nachfolger der 4090 irgendwo bei 225% Navi31 rauskommt. Wäre sicherlich eher der optimale Fall, aber 60% Performancesteigerung sind für Nvidia imo schon durchaus realistisch.

Also wären 225% Navi31 wohl eher das Minimalziel wenn man unbedingt über Nvidia rauskommen will und man annimmt das Nvidia so grob 60% auf die 4090 packt. Und wahrscheinlich würde die meisten dann trotzdem das grüne Gegenstück kaufen.

amdfanuwe
2023-09-02, 17:26:51
könnte AMD stattdessen einen 80CU-Monolithen in N4 eingeschoben haben, der entsprechend auf N31-Niveau rauskommt.
Praktisch wie N21 80CU und N22 40CU.
Wird N4little 40CU gar im Strix Halo verbaut?

Bisher seh ich bei AMD immer nur 16 CU oder 20CU pro SE.
Bei den Chiplet Varianten hätte ich eher 20CU, 1xSE vermutet.
Lassen sich besser selektieren und bei 9 Chiplets wäre man bei 180 CU für N41 gewesen.

gedi
2023-09-02, 18:02:13
Wie gesichert sind die Informationen überhaupt? Könnte es nicht sein, dass AMD einfach die Nomenklaviatur geändert haben könnte?

Der_Korken
2023-09-02, 18:21:32
Also wären 225% Navi31 wohl eher das Minimalziel wenn man unbedingt über Nvidia rauskommen will und man annimmt das Nvidia so grob 60% auf die 4090 packt. Und wahrscheinlich würde die meisten dann trotzdem das grüne Gegenstück kaufen.

Wie gesagt, ich halte es nicht für völlig verrückt, dass AMD versuchen wollte ihren Rome-Moment auf GPUs zu übertragen. Da haben sie den Skalierungsvorteil der Chiplets bis ans Maximum gepusht und Intel mit 64 Kernen einfach komplett überrollt. Da sie nach wie vor Varianten mit ein oder zwei AIDs verkauft hätten, wäre es keine große Investition gewesen ein absurdes Flaggschiff zu launchen, einfach um Nvidia einmal zu schlagen und die mediale Aufmerksamkeit auszuschlachten.

Bisher seh ich bei AMD immer nur 16 CU oder 20CU pro SE.
Bei den Chiplet Varianten hätte ich eher 20CU, 1xSE vermutet.
Lassen sich besser selektieren und bei 9 Chiplets wäre man bei 180 CU für N41 gewesen.

20 CUs wären viel zu klein. Das wären bereits in N5 nur 50mm², in N3 nochmal weniger. Dann hätten sie eher nur 6 SEDs gebaut, wenn 288CUs zuviel wären. Der Name "Shader-Engine-Die" impliziert ja nicht, dass dort nur eine Shader-Engine drauf ist, sondern nur dort nichts anderes (außer ggf. privater Cache) drauf ist ;).

amdfanuwe
2023-09-02, 18:52:08
20 CUs wären viel zu klein. Das wären bereits in N5 nur 50mm², in N3 nochmal weniger.
Zum einem weiß man nicht, wie AMD die N4 CUs noch aufbläst, zum anderem ist der gestackte L3 Cache bei Zen 3D auch nur 41mm² groß.
Auch weiß hier keiner, wie der Yield sich beim Stacking mit der Größe der Chiplets verhält. Vielleicht spielt es keine Rolle, vielleicht lassen sich kleinere Chiplets einfachen stacken.
Also "viel zu klein" erscheint mir das nicht.

TheGood
2023-09-02, 22:07:04
Häh???
Wo sagt MF etwas zu Margen und Nvidia was zu meiner Theorie?
Gacker mal richtig.
Im Vergleich zu den HPC GPUs sind die Consumer Margen gering.
es ging um die enthusiasten verkaufsmengen von nvidia und amd.

reaperrr
2023-09-03, 02:22:41
- N3E (N3P wäre zu dem Zeitpunkt noch nicht weit genug gewesen) elektrisch oberhalb des SweetSpots laut TSMC selbst nur ~15% mehr Perf (Transistoren oder Takt) @ ISO-Power als N5
- Gerüchteküche sprach schon vor Monaten von 144 CUs
- 9 SEDs ergäben bei je einer SE in N31-Konfig rein zufällig exakt 144 CUs

Hier im Forum: "Nee, zu wenig, das müssen 180 oder besser gleich 288 gewesen sein".

"Kann nicht sein, was nicht sein darf" at its best ;D

Im Ernst: Schon bei N31 ist man nicht grundlos nur auf 96 statt 120 CUs gegangen (ob's die richtige Entscheidung war ist schwer zu sagen, mit mehr CUs hätte man in gleicher TDP niedriger takten müssen und nen größeren Chip gehabt, der vielleicht nicht signifikant schneller gewesen wäre). Die Prozesse werden immer teurer je mm², und das Frontend wird immer mehr zum Auslastungs-Flaschenhals. Fürs Frontend wird es auf Sicht natürlich irgendwelche Lösungen geben, aber mMn werden beide Hersteller bis auf Weiteres in erster Linie immer schauen, "wieviel können wir erstmal über mehr Takt und IPC-Verbesserungen rausholen".
Mehr CUs/SMs werden in der Rangliste erstmal relativ weit unten stehen (jedenfalls bezogen auf Gaming-GPUs), vor allem so lange es keine Prozesse gibt, die signifikant besser als die N5/N4-Familie sind, ohne auch massiv teurer zu sein.

KarlKastor
2023-09-03, 07:20:15
- N3E (N3P wäre zu dem Zeitpunkt noch nicht weit genug gewesen) elektrisch oberhalb des SweetSpots laut TSMC selbst nur ~15% mehr Perf (Transistoren oder Takt) @ ISO-Power als N5
-
Wieso schreibst du Transistoren oder Takt? Es ist ganz einfach Takt. Man kann ganz einfach den Takt nicht erhöhen und hat dann 32% mehr Effizienz, die man in mehr Transistoren investieren kann.

HOT
2023-09-03, 08:54:38
Du kannst auch haufenweise Massentransistoren verbauen und somit eine bessere Taktbarkeit erzeugen ;). Transistormenge ist komplett unabhängig vom Takt.


Ich denke, RDNA4 hätte mit N41 144CUs (8x9WGPs) gehabt, aber was jetzt kommt ein Jahr später wird mMn zusätzlich noch Stacking mitbringen auf den SEDs, also 2 SED übereinander stapeln, und damit auf 288CUs verdoppeln. Dann hat ein WGP eben 4 CUs und würde damit in die 3. Dimension vorstoßen - 4CUs ohne die Latenzen zu erhöhen.

Der_Korken
2023-09-03, 10:33:41
288 CUs wären ohne Dual-Issue gerade mal so viele SPs wie ein AD102 im Vollausbau hat. Zudem wären das geschätzt um die 600mm² Gesamtfläche für die SEDs in N3 und das gleich nochmal für die AIDs in N6 oder N4. Absurd teuer? Absolut. Unmöglich herzustellen? Nein, man stöpselt einfach mehr Bauteile zusammen, die man für kleinere Produkte eh benutzt.

Wir reden am Ende natürlich über ein Produkt, das sehr wahrscheinlich gestrichen wurde und die Größe kann auch ein Grund dafür gewesen. Für 144 CUs würde AMD imho nicht 9 Einzel-Dies verwenden. Da reden wir in 3N über <40mm². Zu kleine Chiplets lohnen irgendwann weniger, weil beim Schneiden der Dies Fläche verschwendet wird und Stacking sicherlich auch eine Fehlerrate hat. Ob der breakeven bei 40mm² schon erreicht ist, weiß ich nicht, aber sehr kleine Dies haben nicht nur Vorteile (und ja, ich weiß dass der 3D-Cache der CPUs so klein ist - das kann aber einfach daran liegen, dass mehr als 64MB Zusatz-Cache nicht lohnen und bei zu breiter Ausdehnung die Latenz stärker steigt). Vielleicht sind 144 CUs auch nur N43N42 mit zwei AIDs gewesen und es waren 24 CUs pro SED, wer weiß.

HOT
2023-09-14, 09:18:45
https://twitter.com/BitsAndChipsEng/status/1700089047656395084?

Hab doch von Anfang an gesagt, dass es hier vor allem um N3 geht. Und ich lag offenbar richtig.
Und gehe mittlerweile jede Wette ein, dass GB2xx genau deshalb auch N4 wird - das dürfte ziemlich klar sein, nach TSMCs Aussage:
https://www.tomshardware.com/news/tsmc-shortage-of-nvidias-ai-gpus-to-persist-for-15-years
Da sind ja schon 4nm knapp, wieso sollte NV N3 für Consumer verschwenden?

DrFreaK666
2023-11-23, 02:28:18
Neue Lebenszeichen
AMD’s Next-Gen RDNA 4 “Radeon RX 8000” GPUs GFX1200 & GFX1201 GPUs Spotted, Possibly Navi 44 & Navi 48
https://wccftech.com/amd-next-gen-rdna-4-radeon-rx-8000-gpus-gfx1200-gfx1201-gpus-spotted/

Großartige Infos gibt es aber weiterhin nicht

Altehardware
2023-11-25, 05:33:42
Langsam dreht der hype train bei amd gpu auch durch
N48 und n44 sollen 32wgp (64cu) 20wgo (40cu)
haben mt korrigieter sram größe kommt die arch auf etwa 3,55ghz in n4x node in n3 wären sogar grob 3,8ghz drin

Nun die frage ob sich das lohnt

N4x kostet derzeit bei tsmc 11000$
N3 Neuer preis 20000$
N5 der aktuelle node etwa 13000$

Da ist klar das man rdna4 auf N4x bringt in monolithisch obwohl das teurer ist als n6 der nur noch 9000$ kostet

Verträge werden im voraus gemacht und die preise zu der zeit gelten bis zum Abschluss des Vertrages also kostete der n6 node noch 2021 10000$ und der n5 node noch 16000$
Womit auch klar ist das man n31 rebranded wird und der preis dieser deutlich sinken wird.

Etwa dem rx8900xtx mit n31 voll Ausbau ab 700$ 37tf =rx7900xtx
Dann rx8800xt mit n48 Vollausbau ab 600$ 34tf =rx7900xt
Dann rx8700 (56cu) 550$ 29,5tf = rx7900 gre
Dann rx8600xt 40cu 400$ 21tf = rx7800xt
Dann rx8600 36cu 350$ 19,5tf = rx7700xt

Und das ist die pessimistische Ansicht
Das Spannende ist aber wie effizient das wird
Nehme ich an das amd ursprüngliche +50% Effizienz bei rdna3 dann endlich zutreffen wird das so aussehen.
Derzeit 6% mehr Effizienz vs rdna2 dann wäre der n44 bei 120-150w bei 21tf
Wie das sein kann liegt an amd design der Architektur das man effizienter als nvidia ist.
Aber wir immer, ich rechne eher mit etwa 180w tbp für 20tf das wäre quasi gesetzt mal meine nächste gpu bis zur ps6 2028
Das wäre im übrigen die min Anforderung ab der ps5 pro die bei 20-24tf liegt ab 2024

ich hoffe aber das sony primär dann 4k fokussieren wird was mir nen Aufschub bringt den 24tf für 4k bedeuten keine Änderung an den Anforderungen bis 2028.

DXR ist gesondert zu sehen da sind min 30tf Pflicht und das wird es vor 2026 nicht geben bei unter 200w gpu
Dafür ist zwingend n2 notwendig mit der aktuellen ada Architektur design
Das aber wird sich ändern rtx60 wird eine komplett neue arch sein.
Amd rdna5 wird mcm und ebenfalls in n3 bis vielleicht sogar schon n2 deutliche Skalierbarkeit haben.

nvidia ist offen ob rtx50 n4x oder n3e wird beides ließe sich sku designen die sich lohnen. Auch möglich das man in high end auf n3 geht und im low end die letzte ihrer Art auf n4x
Ne rtx5060 mit gb206 2gpc 32sm bei 3,1ghz =20tf bei vermutlich 160w
Das wäre 2025 so weit eher q4 als q1
amd hat zu der Zeit schon fasst nen Jahr dasselbe im Angebot gut möglich das die Angabe 2025 für rtx50 nicht stimmt und es eher q4 2024 start ist.


Derzeit läuft der Ai boom der bald abebben wird das steht sicher die nächsten Quartalszahlen werden nen Trend geben bis q2 2024 dann der komplette ai boom weg ist.
Ab dann mus nvidia sich wieder auf deren Brot butter Geschafft fokussieren was ein release der rtx50 Serie in q4 2024 eher möglich macht aber dann auch komplett innerhalb von 2 Monaten. Abseits dem high end Modell der in n3 kommt.

nun wir werden sehen amd rdna4 könnte schon q2 2024 kommen
Bis dahin wird sich preislich wenig tun der Abverkauf der alte gen läuft und amd Vorrat schmilzt schneller als der von nvidia
Daher nehme ich an das rx7700xt bald für 379$ und rx7800 xt für 469$ kommen wird
Die rx7900xtx auf dann nur noch 799$ fällt.
Die rx7900xt auf 700$
und die rx7900gre weltweit für 599$ kommt.
Und zuletzt die rx7600 auf 199$ fällt
da ist platz für ne rx7700 für 299$ mit 10gb
Aber das ist unklar ob sich das lohnt

Nvidia muss darauf reagieren weswegen der im Januar geplante super refresh mehr sein wird als nur die zwei eher high end sku.

Was mich davon abhält ne rx7700xt zu kaufen ist der immense verbrauch der sku von min 230w das geht gar nicht
ne rx7700 würde das fixen maximal 200w aber wäre mir zu wenig vram.
das ewige Wartespiel geht weiter.
Ne quadro a3500m wäre genau die konfig die ich gerne hätte 40sm 2,2ghz 140w und das für maximal 300€

robbitop
2023-11-25, 06:55:34
Warum sollte der AI Boom abebben? Das ist kein Trend. Es wird immer mehr Applikationen mit AI grmacht und die NNs werden immer komplexer. Dafür braucht es HW zum Training und Imferencing. Warum sollte das abebben? Wird es IMO nicht.

Aber ggf wird die Kapazität für Fertigung genug wachsen um den Bedarf zu stillen und der Markt wird sicherlich einen Weg finden die Preise durch mehr Wettbewerb (AI Firmen sprießen wie Pilze aus dem Biden) zu senken. Das ganz große Gelddrucken und das Quasimonopol bei Nvidia wird nicht ewig halten.
Aber AI ist gekommen um zu bleiben. Jeder der sich mit dem Thema AI etwas befasst wird das erkennen. Es gibt keine AI Bubble nur weil es eine Mining bubble gab.

][immy
2023-11-25, 08:51:15
Ggfs werden dafür in Zukunft aber keine Grafikchips mehr verwendet sondern einfach Chips die genau darauf spezialisiert sind. Wenn der Markt groß genug dafür ist, wird es da sicherlich bald was für geben.aber Speicher ist dann natürlich trotzdem ein Problem.



Was mich davon abhält ne rx7700xt zu kaufen ist der immense verbrauch der sku von min 230w das geht gar nicht
ne rx7700 würde das fixen maximal 200w aber wäre mir zu wenig vram.
das ewige Wartespiel geht weiter.
Ne quadro a3500m wäre genau die konfig die ich gerne hätte 40sm 2,2ghz 140w und das für maximal 300€
Ja, das hat AMD einfach nicht unter Kontrolle bekommen in dieser Generation. Wohl auch ein eGrund warum die sich nicht von der letzten wirklich absetzen konnte außer bei den ganz teuren Chips, welche aber auch nicht so viel schneller waren.
Hatte AMD das Problem mit der 77/7800 unter Kontrolle gebracht hatten wir aber wohl vermutlich gesehen das die midrange (bei den Preisen eigentlich schon high end) chips die darüber schlagen. Gut man hätte auch die Boardpower entsprechend zügeln können.

robbitop
2023-11-25, 09:04:56
Klaro. Nvidia baut ja schon länger seperate Chips für non Gaming (Hopper zB) AMD auch (CDNA).
Und es gibt mittlerweile viele Chips für AI von anderen. Das Hauptproblem scheint zu sein, dass die AI Chip (weil hoch rentabel) viel Kontingent kosten und das ist endlich. Auch bei AMD und NV. Und dann werden Opportunitätskosten betrachtet. Pro mm2 AI kann man Geld drucken - entsprechend gehen die Erwartungen für die Gewinnspannen im non AI Segment auch hoch.

Der Markt wird erst wieder gesund, wenn es so viel Kontingent gibt, dass diese Opportunitätsrechnung nicht mehr gilt. Angebot muss größer als Nachfrage werden. Nur dann hat man bei P/L wieder Wettbewerb. Wenns anderes herum ist wird auf Kosten des Konsumenten Geld gedruckt. Kaputter Markt.
Aber mittelfristig wird der Kapitalismus dort wie immer einen Weg finden. Es werden ja Kapazitäten aufgebaut ohne Ende. Das dauert nur. Und irgendwann kippt es wieder.

The_Invisible
2023-11-25, 09:28:01
[immy;13442228']Ggfs werden dafür in Zukunft aber keine Grafikchips mehr verwendet sondern einfach Chips die genau darauf spezialisiert sind. Wenn der Markt groß genug dafür ist, wird es da sicherlich bald was für geben.aber Speicher ist dann natürlich trotzdem ein Problem.


Nimmt aber auch im Consumerbereich immer mehr Fahrt auf, MS fängt es an in Windows zu implementieren bzw mit TensorRT & Co auch lokale Hardware zu nutzen.
Da bleibt dann nur Grafikkarte oder CPU übrig wo man das laufen lassen könnte, Zusatzkarte wird wohl keiner einbauen (hallo physx). Mobilchips sind hier sogar schon weiter & nutzen das auch für lokale Verarbeitung.

robbitop
2023-11-25, 09:31:45
Die APUs haben das ja schon und Intels CPUs auch. Nur noch eine Frage der Zeit bis auch die Desktop Ryzens das bekommen.

Der_Korken
2023-11-25, 10:12:22
Langsam dreht der hype train bei amd gpu auch durch
N48 und n44 sollen 32wgp (64cu) 20wgo (40cu)
haben mt korrigieter sram größe kommt die arch auf etwa 3,55ghz in n4x node in n3 wären sogar grob 3,8ghz drin

[...]

Womit auch klar ist das man n31 rebranded wird und der preis dieser deutlich sinken wird.

Etwa dem rx8900xtx mit n31 voll Ausbau ab 700$ 37tf =rx7900xtx
Dann rx8800xt mit n48 Vollausbau ab 600$ 34tf =rx7900xt
Dann rx8700 (56cu) 550$ 29,5tf = rx7900 gre
Dann rx8600xt 40cu 400$ 21tf = rx7800xt
Dann rx8600 36cu 350$ 19,5tf = rx7700xt

Ich würde anzweifeln, ob ein N31 Refresh überhaupt schneller wäre als ein hypothetischer N48 mit 64CUs und 3,5Ghz. Von den reinen Flops/s her ja, aber der kleinere Chip hat den Vorteil, dass weniger Einheiten leichter auszulasten sind. Dazu kämen noch RDNA4-spezifische Änderungen, afaik sollen die SALUs überarbeitet worden sein. Dazu hat das Dual-Issueing noch viel Potenzial, da es bisher kaum zur IPC von RDNA3 beigetragen hat. Und wenn AMD endlich mal BVH-Traversals in HW unterstützt, würde N31 selbst mit höheren Taktraten in RT keinen Stich mehr sehen.

N32 ist natürlich mausetot durch N44/48, das ist klar. N33 kann sich vielleicht als Billigheimer á la Polaris noch halten, aber mit 40 CUs in N4 würde N44 flächentechnisch und preislich schon weit runtergehen können.

Altehardware
2023-11-25, 10:38:18
Der Grund warum ich Ai als kurzfristige boom sehe liegt erstens an kommende Spezialisierte chips die kommen und was wichtiger ist, mit was kann man mit ai geld generieren.
Und ist es rechtlich auf festen Füßen.
Ai kann helfen aber nix erschaffen oder produzieren und effektiver wird damit auch nix selbst in software schreiben ist ai weit davon entfernt produktiv zu leisten OHNE Fehler.
Das einzige was Ai kann ist massive daten auswerten und könnte helfen dies für Staatliche Überwachung und manipulation zu nutzen.
Das ist kein Geschäfts Feld für den Konsumentenmarkt Einzig despotische Länder haben daran Interesse. Und die anderen als Verteidigung.
privatwirtschaftlich lässt sich da kein geld erzeugen.
Als feature für bestehende Produkte eventuell nützlich was bis auf Bildbearbeitung bis hin zum upscaling dann Schluss ist.
Das große potential in faken von material um damit kosten zu sparen wird auf heftige rechtliche Hürden stoßen.
Darum sehe ich Ai allgemein eher als Hilfe und nur bedingt nützlich an.

basix
2023-11-25, 10:53:44
Nimmt aber auch im Consumerbereich immer mehr Fahrt auf, MS fängt es an in Windows zu implementieren bzw mit TensorRT & Co auch lokale Hardware zu nutzen.
Da bleibt dann nur Grafikkarte oder CPU übrig wo man das laufen lassen könnte, Zusatzkarte wird wohl keiner einbauen (hallo physx). Mobilchips sind hier sogar schon weiter & nutzen das auch für lokale Verarbeitung.

Gibt von Microsoft glaube sogar eine Vorgabe von 40-50 TOPS, um den (zukünftigen?) "AI Powered/Capable" Sticker zu bekommen. Deswegen haben all die neuen Mobile Chips (Qualcomm Snapdragon X, Strix Point, Meteor Lake) genau das auch in dieser Grössenordnung integriert.

BlacKi
2023-11-25, 11:00:00
Der Grund warum ich Ai als kurzfristige boom sehe liegt erstens an kommende Spezialisierte chips die kommen und was wichtiger ist, mit was kann man mit ai geld generieren.
Und ist es rechtlich auf festen Füßen.
Ai kann helfen aber nix erschaffen oder produzieren und effektiver wird damit auch nix selbst in software schreiben ist ai weit davon entfernt produktiv zu leisten OHNE Fehler.
Das einzige was Ai kann ist massive daten auswerten und könnte helfen dies für Staatliche Überwachung und manipulation zu nutzen.
Das ist kein Geschäfts Feld für den Konsumentenmarkt Einzig despotische Länder haben daran Interesse. Und die anderen als Verteidigung.
privatwirtschaftlich lässt sich da kein geld erzeugen.
Als feature für bestehende Produkte eventuell nützlich was bis auf Bildbearbeitung bis hin zum upscaling dann Schluss ist.
Das große potential in faken von material um damit kosten zu sparen wird auf heftige rechtliche Hürden stoßen.
Darum sehe ich Ai allgemein eher als Hilfe und nur bedingt nützlich an.

massenhaft daten gibts aber nicht nur beim staat. gerade in der medizin sehe ich AI als beschleuniger. und da ist auf jedenfall geld zu verdienen. auch bei dem autonomen fahren wird sich AI durchsetzen müssen. aber das ist wesentlich schwieriger als in der medizin, da man dort einfach die AI nachträglich kontrollieren kann, da schaut ein mediziner nochmal drüber. das geht beim autonomen fahren nicht. auch gibt es unterschiedliche verkehrstechnische unterschiede.

aber in einem punkt hast du recht, AI hat bis jetzt noch nichtmal groß potential gezeigt geld verdienen zu können.

ab dem moment, wo das passiert, und das wird passieren, dann haben wir eine richtige chip shortage auf dauer. und in einem ausmaß, das die letzte cryptoblase mit ihren auswirkungen ein kindergeburtstag war. es könnte nicht nur pc gaming töten, sondern auch konsolen. wir werden praktisch in die steinzeit zurückgeworfen, weil du deine 5 jahre alte rx 7800xt lieber für 3000€ verkaufst, als zu riskieren, das sie bei dir im system verreckt.

basix
2023-11-25, 11:21:56
In Punkto Bildgenerierung, Textzusammenfassungen oder Coding gibt es schon bereits heute deutliche Zeitersparnisse. Alles Dinge, die man im professionellen Bereich gebrauchen kann. Und die Tools sind relativ leicht zu nutzen (=viele können es Anwenden, welche eigentlich gar nicht das Know How dazu haben).

Wenn man sagt, Software schreiben geht nicht: Ja, ist nicht fehlerfrei. Aber als Prototyp / Ausgangspunkt ist es nicht schlecht. Das kann bereits enorm helfen. Wenn da eine Entwickler-Stunde 100 Euro kostet, kommt da schnell einiges zusammen. Man verdient also kein Geld, man spart aber Zeit/Geld ein, weil die Effektivität steigt. Und weil die Effektivität steigt, kann man sich mehr um Dinge kümmern, welche zukünftig Geld einbringen können (neue Produkte, Produkterweiterungen). Stichwort Opportunitätskosten. Also indirekt verdient man wieder Geld ;)

Nicht umsonst nutzen das >100 Mio. Leute auf der Welt. Nicht weil es "nur" lustig ist, sondern weil es effektiv hilft, Zeit einzusparen. Und genau das ist der Grund, warum AI kein Hype ist, sondern langfristig bleiben wird.

Irgendwelche Bildfilter, Noise-Cancelling Sachen usw. für Consumer ist ein Nebenaspekt, der einfach die Produktqualität erhöht. Die Integrierung in den Arbeits-Workflow (wie oben beschrieben als Supporting-Tool) ist mMn der Punkt mit dem deutlich längeren Hebel, wieso AI sehr mächtig sein kann. Und dann gibt es Sachen wie Climate Modeling, medizinische Analysen usw. welche ohne AI in dieser Qualität und Performance gar nicht möglich wären.

AffenJack
2023-11-25, 12:06:03
löschen bitte, Doppelpost.

AffenJack
2023-11-25, 12:11:06
Neue Lebenszeichen

https://wccftech.com/amd-next-gen-rdna-4-radeon-rx-8000-gpus-gfx1200-gfx1201-gpus-spotted/

Großartige Infos gibt es aber weiterhin nicht

Aber immerhin gibt das Anhaltspunkt dafür, dass man wirklich zur Jahresmitte 2024 launcht. RDNA3 waren 8 Monate vom ersten Auftauchen der IDs in LLVM.

Gehen wir mal vom gleichen aus, wären wir bei Juli Launch.
CES Vorstellung und Juli verfügbarkeit klingt durchaus nach nem Plan.


aber in einem punkt hast du recht, AI hat bis jetzt noch nichtmal groß potential gezeigt geld verdienen zu können.


Geld verdienen? Nein. Aber auch nur nicht, weil es teilweise frei verfügbar ist und von Microsoft direkt integriert wird. Es hat in diversen Bürojobs im Marketing, Vertragserstellung etc. schon gezeigt, dass es zu massiven Produktivitätsgewinnnen/Einsparungen führen wird.
2030 wird das Verwenden von KI so eine Grundvorraussetzung für Bürojobs sein, wie Office/Excelkenntnisse heute. (Außer in Behörden und Firmen, wo Computer ja immernoch Neuland sind...)

robbitop
2023-11-26, 08:58:00
Der Grund warum ich Ai als kurzfristige boom sehe liegt erstens an kommende Spezialisierte chips die kommen und was wichtiger ist, mit was kann man mit ai geld generieren.
Und ist es rechtlich auf festen Füßen.
Ai kann helfen aber nix erschaffen oder produzieren und effektiver wird damit auch nix selbst in software schreiben ist ai weit davon entfernt produktiv zu leisten OHNE Fehler.
Das einzige was Ai kann ist massive daten auswerten und könnte helfen dies für Staatliche Überwachung und manipulation zu nutzen.
Das ist kein Geschäfts Feld für den Konsumentenmarkt Einzig despotische Länder haben daran Interesse. Und die anderen als Verteidigung.
privatwirtschaftlich lässt sich da kein geld erzeugen.
Als feature für bestehende Produkte eventuell nützlich was bis auf Bildbearbeitung bis hin zum upscaling dann Schluss ist.
Das große potential in faken von material um damit kosten zu sparen wird auf heftige rechtliche Hürden stoßen.
Darum sehe ich Ai allgemein eher als Hilfe und nur bedingt nützlich an.
1.) Ist das was wir von AI heute sehen gerade mal die Spitze des Eisbergs
2.) Wird es in manchen Branchen schon genutzt um Mitavreiterstunden zu sparen. Bei Nvidia wird ein großer Tril des Layoutings per AI gemacht - bei Intel Arc seit kurzem auch.
3.) Die Ergebnisse von AI sind nicht perfekt aber man kann sie bereits nutzen um richtig Zeit zu sparen. Zum Beispiel für gutes Writing (nutze ich täglich) und es scheint da ja kaum Grenzen zu geben. Selbst für grobe Recherche scheint GPT-4 schon zu taugen. Microsoft sieht es anscheined auch so. Ohne Grund haben sie nich Milliarden in OpenAI geschoben und rollen den Office Assistant aus.
Sobald man die Produktivität erhöhen kann, ist das auch etwas wert.
Eine andere Anwendung ist autonomes Fahren - wenn das erstmal durch ist, spart das extremst viel menschliche Arbeit und ist damit auch was wert.
Tesla arbeitet ja auch schon an Arbeitskräften (Roboter „Optimus“) die In Fabriken Arbeiten tätigen sollen, die bisher nur Menschen erledigen können. Klar dauert das noch. Aber die Fortschritte sind so groß, dass es nicht unrealistisch erscheint.

Und wenn man sieht, dass GPT-4 heute schon auf dem level von Junior Engineers Fragen beantworten kann und bedenkt wie schnell das kam, dann wird es eher viel viel krasser werden mittelfristig.

Schon heute kann man als Firma ein Sprachmodell auf sämtliche Informationen die es in der Firma gibt (oder sie genutzt werden sollen) trainieren und das LLM kann dann Fragen beantworten. Supporthotline mit weniger Menschen weil AI das unterste Level ersetzt und ein Großteil der Fragen beantworten kann.
Füttert man es mit genug Daten kann es auch Probleme diagnostizieren, die bis dato Experten brauchte und damit war das Wissen von manchen als „tribal knowledge“ in den Firmen und ging verloren, wenn diese Experten weg waren. Es gibt potenziell ein sehr breites Spektrum an Aufgaben, die es übernehmen kann, die direkte Wertschöpfung beinhalten weil kein Mensch mehr nötig ist (bzw weniger Menschenstunden pro Output).

Wer ein wenig die Fortschritte verfolgt (die ja seit der Einführung der Transformer enorm sind) und ein wenig Weitblick hat, dem ist inuitiv klar, dass an AI kein Weg vorbei führen wird. Und das „Endziel“ ist AGI.

Aber wie gesagt: es muss nicht langfristig zu teurer HW führen. Der Markt wird Wege finden, das Angebot hochzukurbeln (mehr Kapazität, mehr Wettbewerber im AI HW space)

Wer glaubt, dass AI eine Blase ist, lebt entweder hinter dem Mond oder fehlt der Weitblick. Nur weil Mining eine Blase war, heisst das nicht dass AI eine ist.

OgrEGT
2023-11-26, 09:50:24
Es wäre gut aber kritisch zu bleiben und die Probleme und Gefahren die von AI ausgehen nicht zu übersehen... Auch die gesellschaftlichen Probleme die durch den Wandel bevorstehen sind offenbar vielen nicht klar... wo wollen wir für uns als Mensch hin? Was sollen viele Menschen arbeiten wenn wir deren Arbeit durch AI wegrationalisieren? Sollen alle jetzt KI Programmierer werden?

Es sieht so aus als wolle man so vieles was uns als Mensch ausmacht durch KI und Automation ersetzen... schöne neue Welt?

robbitop
2023-11-26, 10:01:27
Alles nicht falsch aber wahrscheinlich irrelevant. Die Büchse der Pandora ist geöffnet und wird sich nicht mehr schließen. Hunderte wenn nicht tausende Firmen forschen in einem Wettkampf und es werden immer mehr. Das Potenzial ist einfach zu groß. Da hilft alle Kritik und Angst nichts. Wer schlau ist, stellt sich drauf ein und versucht das Potenzial zu nutzen.

Leonidas
2023-11-26, 12:59:03
Beides ist richtig: Sowohl kann man den laufenden Zug nicht mehr aufhalten. Die Gedanken darüber, wohin dieser fährt und wo die Gesellschaft sich das Recht zur Weichenstellung herausnehmen sollte, gehören aber genauso dazu.

BlacKi
2023-11-26, 13:26:25
richtig, man kann schlicht nicht weltweit nein zu AI sagen.

robbitop
2023-11-26, 17:12:35
Beides ist richtig: Sowohl kann man den laufenden Zug nicht mehr aufhalten. Die Gedanken darüber, wohin dieser fährt und wo die Gesellschaft sich das Recht zur Weichenstellung herausnehmen sollte, gehören aber genauso dazu.

Ja absolut. Bringt aber halt nichts.

Leonidas
2023-11-26, 18:13:22
Natürlich kann man als Zyniker sagen, dass da sowieso keine Weichenstellung passieren wird, dafür sind Politik & Regulierer zu lahm. Aber deswegen die grundsätzlichen Gedanken hierzu nicht zu denken, halte ich für einen Fehler. Irgendwann kommen Politik & Regulierer dann doch an - und dann kommt es darauf an, welcher Boden mit welchen Ideen & Thesen bereitet wurde.

HOT
2023-11-26, 19:02:09
Die Implikationen, die AI in Zukunft mitbringen wird haben wir nicht mal im Ansatz überhaupt verstanden. Das kommt völlig anders, als man sich das jetzt vorstellt, von daher ist es gar nicht möglich da was zu regulieren.
Dennoch muss man im Hinblick auf Hardware von einer Blasenbildung sprechen. Das wird irgendwann platzen und nen Haufen Opfer (Firmen) kosten, das war bei jeder einzelnen revolutionären Entwicklung so. Wirtschaftlichkeit und Entwicklung sind 2 unterschiedliche Paar Schuhe. Netscape sah zuerst aus wie der Gewinner des Browserkriegs, Yahoo wie der Gewinner von .com usw. Heftige Booms flachen zwangsläufig ab und bei manchen gehts dann auch wieder runter. Das hat jetzt nichts mit der Entwicklung von AI über Jahrzehnte zu tun, das wird so oder so stattfinden, aber man sollte da etwas Realismus walten lassen, vieles wird gut funktionieren und sich in Umsatz verwandeln lassen, anderes hingegen nicht. Die eigentliche Revolution findet mMn aber zuerst gar nicht so in der Digitalisierung und Automatisierung statt, schaut mal nach draußen in die realen Firmen, das jetzt zu prognostizieren ist lächerlich. Die meisten Firmen sind genau 0 sinnvoll digitalisiert, wie soll das mit AI klappen? Ne, den größten Impact wird das Ganze gesellschaftlich haben, neue Firmen zu Konzernen machen, neue Oligarchen hervorbingen, massive vor allem mediale Revolutionen wird AI bringen, weniger realwirtschaftliche - vorerst. Das ist ein neue Boom, mit dem man mal wieder Reich werden kann, das kann aber auch ganz andere Folgen noch haben, die man nicht überblicken kann - Krieg, Stagnation oder Goldenes Zeitalter, alles ist möglich

][immy
2023-11-27, 00:39:30
Nimmt aber auch im Consumerbereich immer mehr Fahrt auf, MS fängt es an in Windows zu implementieren bzw mit TensorRT & Co auch lokale Hardware zu nutzen.
Da bleibt dann nur Grafikkarte oder CPU übrig wo man das laufen lassen könnte, Zusatzkarte wird wohl keiner einbauen (hallo physx). Mobilchips sind hier sogar schon weiter & nutzen das auch für lokale Verarbeitung.
Das wird nicht lange halten. Schon jetzt wird alles mögliche in die Cloud ausgelagert was geht. Und schon aufgrund der nötigen Rechenkapazität und der Algorithmen wird sich das Feld immer mehr in die Richtung verschieben.
Was auf heimischen PCs ausgeführt wird hä an ende wenig mit AI zu tun. Die verarbeiten höchstens Ergebnisse.

OgrEGT
2023-11-27, 06:20:35
Natürlich kann man als Zyniker sagen, dass da sowieso keine Weichenstellung passieren wird, dafür sind Politik & Regulierer zu lahm. Aber deswegen die grundsätzlichen Gedanken hierzu nicht zu denken, halte ich für einen Fehler. Irgendwann kommen Politik & Regulierer dann doch an - und dann kommt es darauf an, welcher Boden mit welchen Ideen & Thesen bereitet wurde.
Absolut :up:
Bestes Beispiel für fehlende Regulierung sind die sozialen Netzwerke... was haben die in vielen Bereichen gebracht? Sucht Zwietracht Fake News...

OgrEGT
2023-11-27, 06:29:49
Ganz wichtig bzw. unbedingt notwendig wird eine Kennzeichnungspflicht für KI generierte Inhalte sein... sozusagen zum Schutz von menschlich geistigem Eigentum...

OgrEGT
2023-11-27, 06:36:33
Aber eigentlich alles Offtopic...

Zossel
2023-11-27, 06:43:00
sozusagen zum Schutz von menschlich geistigem Eigentum...

Wo ist der Unterschied zu den Ergüssen von biologischen neuronalen Netzen?

OgrEGT
2023-11-27, 08:12:16
Wo ist der Unterschied zu den Ergüssen von biologischen neuronalen Netzen?

Eigentlich dem Wesen nach keiner... fake content bleibt fake content... der AI fake content ist eben nur noch schwerer von wahren Inhalten zu unterscheiden...

Leonidas
2023-11-27, 08:40:51
Um es back to topic zu führen: Was kann man von AMD erwarten, wie die KI-Beschleunigung auf ihren Grafik-Lösungen unterstützen werden? Niedrige Rechengenauigkeiten (INT8 & INT4) sind da ein guter Weg, um selbst aus Consumer-Modellen viel KI-Leistung herauszuholen. Wie ist AMD diesbezüglich jetzt aufgestellt und was macht RDNA4 da besser?

Schließlich ist anzunehmen, das Windows 12 eine Empfehlung pro soundsoviel KI-Leistung ausspricht - und das werden die kleineren RDNA4-Chips sicherlich bieten wollen.

HOT
2023-11-27, 09:41:10
Die KI-Liestung von RDNA3 ist doch gut.
RDNA4 wird sicherlich nicht sooo viel Unterschied sein, dedizierte Einheiten wird es mMn erst ab RDNA5 geben, wobei ich das für RDNA4 auch als irrelevant empfinde, da das ja eh nur Mainstream wird. Für Windows wird es aber immer dicke reichen :freak:.

robbitop
2023-11-27, 09:44:53
Um es back to topic zu führen: Was kann man von AMD erwarten, wie die KI-Beschleunigung auf ihren Grafik-Lösungen unterstützen werden? Niedrige Rechengenauigkeiten (INT8 & INT4) sind da ein guter Weg, um selbst aus Consumer-Modellen viel KI-Leistung herauszuholen. Wie ist AMD diesbezüglich jetzt aufgestellt und was macht RDNA4 da besser?

Schließlich ist anzunehmen, das Windows 12 eine Empfehlung pro soundsoviel KI-Leistung ausspricht - und das werden die kleineren RDNA4-Chips sicherlich bieten wollen.
Im Consumersegment (für das ja eigentlich nur Inferencing relevant ist):
AMD ist seit RDNA3 (dafür, dass nur Vektor FPUs vorliegen) ganz gut aufgestellt. Dank WMMA gibt es ein passendes Instruction Set was für die Datentypen für NN Applikationen gut passt.
George Hotz (der Gründer von Comma.ai) meinte, dass die Radeon 7900 XTX pro TFLOP auch für ML pro Preiseinheit ziemlich gut sind auch wenn sie keine Matrix Cores hat. Seine neue Firma Tinycorp entwickelt eine entsprechende Middleware die mit jeder HW gute Ergebnisse für Inferencing und Training erzielt und pro USD sollen die Radeons gar nicht so schlecht sein.

Ob man bei RDNA zukünftig noch Matrix Cores verbauen wird - das hängt davon ab, ob AMD im 3D Bereich entsprechende SW Applikationen (z.B. Upsampling mit NN oder auch ray reconstruction / denoising und ich bin mir sicher dass es da noch viele andere Möglichkeiten gibt) hinbekommt. Bis dato sah es nicht so aus, als hätten sie für diese Art Software in house die richtigen Leute in der richtigen Anzahl. Solange sich daran nichts ändert (und das kann potenziell ja schon passiert sein), ist auch entsprechende HW nutzlos.
Das war bei Intel anders. Die hatten ja ab dem Beginn schon mit XeSS bewiesen, dass sie ein schlagkräftiges ML SW team haben.

Im Pro Segment (Training und Inferincing):
Bei CDNA 3 gibt es ja bereits Matrix Cores die WMMA unterstützen. Siehe AMD Instinct MI300.

davidzo
2023-11-27, 17:09:27
Für Consumer Inferencing hat man ja außerdem XDNA, was wohl deutlich effizienter ist als das über die GPU laufen zu lassen. Ich meine mich zu erinnern dass die ganzen Microsoft Studio Effekte praktisch mit Idle-Stromverbrauch durchlaufen, während eine GPU oder gar CPU dafür schon richtig Saft braucht.
12 Tops (Int8) aktuell bzw. 45Tops für Strix Point ist auch nicht zu verachten. Letzteres ist mehr als eine Tesla A2 mit AD107 die für selbiges immerhin 60Watt braucht.

Ich kann mir vorstellen dass es sich deshalb nicht lohnt dedizierte Matrix Engines in den Consumer GPUs zu verbauen. Ohne den direkt gekoppelten SRAM wie bei XDNA sind die nicht so effizient und blähen nur das das Infinity fabric auf, neben mehr static power und Transistoren.

Viel größere Modelle kann man mit Consumerkarten auch nicht fahren, da dafür dann irgendwann der VRAM fehlt. Da ist shared memory schon von Vorteil.

AMD ordnet übrigens Ryzen AI in "small models" ein und die Radeon GPUs zusammen mit "Epyc XDNA AI" in "medium models". "Large Models" bleiben dann den Instincs Beschleunigern vorbehalten. Fragt sich nur was manmit Epyc XDNA meint. Entweder Phoenix basierte embedded SKUs für edge AI anwendungen (computer vision) oder man meint Mi-300, was ja aber eigentlich zu instinct gehört und meines Wissens nach nicht mit xdna beworben wird. Oder man meint die V70, welche aber eigentlich unter der Xilinx alveo brand läuft und nicht als epyc. Oder man hat noch was in petto was wir noch nicht gesehen haben?