Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Angeblich soll RDNA4 in einem Samsung 4nm-Prozess kommen. Das könnte erklären, warum da bisher überhaupt nichts belastbares bekannt ist außer den Chip-Namen.
Auch eine Art Mendocino-Nachfolger soll von Samsung kommen mit Zen5c-Kernen (und RDNA4-Grafik?).
So hat man natürlich für Zen5+Mobile die Bahn komplett frei bei TSMC.
Altehardware
2024-03-24, 14:32:57
Was aber die perf komplett einbrechen lässt damit dürfte amd ganz auf angriff zu gehe mit dann n44 bei 250$ und n48 bei 450$ und das nur bei 14,7 und 29,8tf
Das wäre gerade mal rtx4070ti perf bzw rx7900gre damit müsste ein n48 für den Konsolen ersatz bei 48cu auf 350$ setzen
Das deutet auf eine sehr günstige ps5 pro hin mit nur 400$
dargo
2024-03-24, 14:46:44
Sorry, aber das ist doch kompletter Quatsch. Die PS5 hat nach 3,5 Jahren kaum im Preis nachgelassen und jetzt soll der Nachfolger direkt zum Release 400$ kosten? Zu köstlich. :tongue:
Altehardware
2024-03-24, 15:03:47
Das hat nen Grund die ps5 pro hat kein bluray Laufwerk mehr dabei der chip ist um 50% billiger und schneller.
Der vram preis ist bei nur noch 3$ per 18gbps 16gbit die ps5 pro ersetzt die ps5 die laufen nicht mehr parallel.
Sprich sony hat die Produktion eingestellt. gut möglich das bald ne redesign der ps5 kommt in sf4x node
DrFreaK666
2024-03-24, 15:12:50
"Sony Says Big PS5 Price Cut Would Be 'Very Difficult'"
https://www.ign.com/articles/sony-says-big-ps5-price-cut-would-be-very-difficult
Ich sehe keine PS5 Pro für 400. Jedenfalls nicht offiziell zu Release
dargo
2024-03-24, 15:14:02
Träum weiter. :)
Wie viel wird die PS5 Pro kosten?
Besonders spannend dürfte die Frage nach dem Preis der PS5 Pro sein. Bei der PS4 Pro entschied sich Sony seinerzeit dazu, das Mid-Gen-Upgrade zum Preis von 399,99 Euro anzubieten, während der Preis der Standard- und Slim-Varianten gesenkt wurde.
Sollte Sony dieser Strategie treu bleiben und sollten sich die Gerüchte um den PS5 Pro-Start Ende des Jahres bewahrheiten, müsste das Unternehmen den Preis der PS5 Slim schon nach knapp einem Jahr senken. Derzeit ist die Konsole für 549,99 Euro (Standard-Modell) beziehungsweise 449,99 Euro (Digital-Edition) erhältlich.
Ein Schritt, mit dem wir angesichts der wirtschaftlichen Entwicklung der letzten Jahre eher nicht rechnen. Somit wäre denkbar, dass die PS5 Pro möglicherweise etwas teurer ausfällt als die Slim-Variante. Dass Konsolenanbieter solch ein Szenario durchaus in Kauf nehmen, stellte Microsoft im November 2017 mit dem Launch der Xbox One X unter Beweis.
https://www.play3.de/2024/03/24/ps5-pro-release-hardware-spiele-alle-geruechte-zusammengefasst/
Die spekulieren zwar auch nur, aber bei der aktuellen Lage (Inflation etc.) gehe ich nicht von einem kleineren Preis aus wie die PS5 zum Release. Ich würde auch eher auf vielleicht 599$ tippen. Wir werden sehen wer näher dran ist. ;)
Linmoum
2024-03-24, 15:15:10
Die Slim ohne Laufwerk hat schon einen UVP von $449. Und wie kommt man darauf, dass der Chip 50% billiger ist? Weder ist Sony so blöd, und verkauft deutlich potentere Hardware für einen niedrigeren Preis (die Konsolen sind so schon subventioniert genug), noch wird auf der anderen Seite AMD plötzlich anfangen, Ramschpreise zu verlangen und den Markt mit billigeren RDNA4-Grafikkarten zu fluten. Geht alles nur auf Kosten der Margen und da ist AMDs Ausrichtung und Standpunkt deutlich genug.
Altehardware
2024-03-24, 15:33:44
Die aktuelle ps5 kostet 450€ digital udn disk kaum mehr 499€
In dollar sind das 400$ und 449$
Linmoum
2024-03-24, 15:43:01
Ja, nur sind (aktuelle) Straßenpreise völlig irrelevant. Ein 9800X3D wird nicht für knapp 345€ erscheinen, nur weil der Vorgänger gerade so viel kostet.
ChaosTM
2024-03-24, 15:59:02
Ja, nur sind (aktuelle) Straßenpreise völlig irrelevant. Ein 9800X3D wird nicht für knapp 345€ erscheinen, nur weil der Vorgänger gerade so viel kostet.
Spricht eigentlich wenig dagegen. Außer Intel hat nichts vergleichbares..
Vielleicht 400
Nightspider
2024-03-24, 16:08:36
Wie teuer war ein N7 Wafer vor 3,5 Jahren und was kostet aktuell ein N6 Wafer?
The_Invisible
2024-03-24, 16:17:33
Spricht eigentlich wenig dagegen. Außer Intel hat nichts vergleichbares..
Vielleicht 400
Wohl kaum wenn die Vorgänger am Anfang schon bei knapp 500 waren.
DrFreaK666
2024-03-24, 16:38:33
Die aktuelle ps5 kostet 450€ digital udn disk kaum mehr 499€
In dollar sind das 400$ und 449$
Von MS wird es höchstwahrscheinlich keine Pro-Konsole geben. Wieso also die PS5 Pro verscherbeln? Das macht überhaupt keinen Sinn
mboeller
2024-03-24, 16:54:09
Wie teuer war ein N7 Wafer vor 3,5 Jahren und was kostet aktuell ein N6 Wafer?
solange wir nicht wissen wie groß der PS5Pro SoC ist...
TheAntitheist
2024-03-26, 17:02:09
solange wir nicht wissen wie groß der PS5Pro SoC ist...
ist doch egal wie groß die PS5Pro ist, die Frage war ja wie teuer die Wafer sind... die Wafer sind jetzt mit Sicherheit schon im Preis gesunken, die meisten GPUs, Smartphones etc werden ja schon in kleineren Strukturen hergestellt.
Die Frage ist eher sind die Preise um 20% oder 40% gesunken. würde eher zum ersteren tendieren, Gerüchte sagen ja das die PS5P <400mm² sein wird.
Ergo nicht viel größer als das jetzige SoC
Ja, nur sind (aktuelle) Straßenpreise völlig irrelevant. Ein 9800X3D wird nicht für knapp 345€ erscheinen, nur weil der Vorgänger gerade so viel kostet.
Wir erinnern uns: die sind für 489$ (5800X3D) bzw. 499$ (7800X3D) erschienen. Beim 9800X3D würde ich mit mindestens 549$ Startpreis rechnen, denn ich würde sagen, dass ARL ohne Cache in Games da nicht gegen anstinken kann.
Und bei der PS5 Pro ist es scheissegal, wie billig der Viola-SoC von Samsung ist. Das steckt sich Sony+AMD einfach ein. Das Teil wird mindestens 499$, wenn nicht 549$ kosten.
Altehardware
2024-03-26, 21:10:57
wie zen5 wird ist noch offen man munkelt zwischen 10-20% ipc arrow lake soll wohl 30% zulegen zumindest bis luna lake dürfte das auch hinkommen.
Was noch offen ist ob intel auf tsmc umstellt oder nicht dann könnte man zumindest die Taktraten relativ genau bestimmen amd wird demnach zen 5 kein mhz mehr Takt haben (5,7ghz) das kommt erst mit zen6 was auf n3 basieren wird.
also rechne ich bei zen 6 keine arch Änderungen sondern purer Takt auf 6,5ghz
Intel wie gesagt offen meteor lake gibt nen Hinweis wie viel die arch verbessert wurde aber wird vom Takt stark gedrosselt (maxed 4,5ghz aktuell)
Das kennen wir von intels Odyssey von 14nm 2013 bis 2020
es kann gut sein das zen5 und intels arrow lake gleichauf sein werden.
Arrow Lake Projektionen für das Desktop-Top-Produkt vs. 13900k war ca. 5-10% mehr Performance. Das bedeutet 30% mehr IPC aber sicherlich 15%-20% weniger Takt.
Bei Mobil wirds sicherlich besser aussehen, hier werden die 30% mehr IPC für eine deutlich bessere Perf/W-Bilanz sorgen, also ca. 30% sicherlich, bei 15W sogar sogar noch besser (LNL).
Das heißt also, man ist im Mobilbereich wieder konkurrenzfähig und ggü. Zen5 im Desktop damit sicherlich auch, aber der X3D wird in weiter Ferne sein.
DrFreaK666
2024-03-26, 23:23:54
geht's hier noch um Grafik-Chips?
Für Konsolen-Spekulationen haben wir einen Thread
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13514019#post13514019
Irgendwie scheint AMD diesmal besonders gut dicht zu halten, keine Leaks, keine genauein Angaben, nur Schätzungen bisher. Das einzige, was jetzt halbwegs sicher scheint ist der SF4X-Prozess von Samsung und dass das Tape Out beider Chips (N44 und N48; ist nicht mal bekannt welcher der Große ist) schon im Sommer 23 war. Die Speicherinterfaces sind pure Schätzungen ohne Gehalt (kein GDDR7 ist klar bei dem frühens Silizium von Mitte 23), irgendwas um die 60 CUs, was alles heißen kann, es gibt wirklich gar nichts sinnvolles, worüber man belastbar spekulieren kann. Hinzu kommt Hardware BHV und bessere AI-Leistung, das wars.
basix
2024-03-27, 09:39:38
Ich habe immer noch meine Zweifel, dass RDNA4 in einem Samsung Prozess kommt. Lowend APUs, Embedded und Mobile Chips (Samsung SoCs) klar. Aber dGPUs? Halte ich für etwas unwahrscheinlich.
Warum? Ich seh da keine Probleme.
AMD braucht halt alle N4-Kontingente für die neuen CCDs und APUs.
Wir haben jetzt 2 CCDs (8 und 16c), und 5 APUs auf N4 (2 Phoenix, Kraken, Strix/Halo).
Das AMD da eine weitere APU, die PS5 Pro-Viola und die GPUs nach Samsung auslagert ist doch einfach ne logische Folge, zumal die GPUs ja eh kein Enthusiastenkrempel sind.
Ich glaub auch nicht, dass die X-Variante so viel schlechter ist als N4, vielleicht weniger Packdichte. Und man muss bedenken, dass die Dinger ewig am Markt sind.
KarlKastor
2024-03-27, 11:46:35
Warum? Ich seh da keine Probleme.
Ich glaub auch nicht, dass die X-Variante so viel schlechter ist als N4, vielleicht weniger Packdichte.
Bei den ARM CPUs ist die Effizienz von 4LPP+ erheblich schlechter. Maximal auf dem Niveau von N7.
Aha, Stichprobe 1 von 1. Ich warte da eher auf eine etwas fundiertere Bewertung als den Quatsch.
KarlKastor
2024-03-27, 14:02:57
Stimmt, dein Beleg ist natürlich deutlich überzeugender. Ach so, da ist gar keiner.
Das ist aber auch keiner.
robbitop
2024-03-27, 17:15:29
Immer wenn Samsung Prozesse vergleichbar mit TSMCs sind liegen die Samsungs hinten. Bei den Snapdragons war es zB auch so. Wenn Samsung die Wafer günstiger anbietet, hat das seinen Grund.
KarlKastor
2024-03-27, 17:30:13
Es ist aber der beste Vergleich den wir haben. Wir haben zig CPU und GPU Vergleiche bei gleicher Architektur im SoC Bereich. N4 gefertigte SoC sind da bei der Effizienz 25-50% besser.
Du kommst dann daher und meinst, komplett ohne eine Begründung, dass die Prozesse nicht so unterschiedlich sind.
Ich habe nie behauptet, dass es bei den GPUs genau so aussehen muss wie bei den SoC. Du hast rein gar kein Argument außer, dass ich Quatsch erzähle, ohne dass zu begründen.
Du bist halt unfähig Diskussionen zu führen. Aber gut, dass ist ja nichts neues.
25-50% ;D, ja ne ist klar. Hab ja nicht bestritten, dass die besser sind, aber sie werden vergleichbar sein. 25-50% ist absolut lächerlich. Hör mit diesen bescheuerten Übertreibungen auf.
Und es interessiert sowieso nicht, wieviel besser die bei N4 sein könnten Perf/W. Interessant ist nur, wie die Dinger im Desktop performen und wenn die da ein paar MHz weniger haben als bei N4 ist das ein simpler Tradeoff. Mobil hat AMD eh Strix Halo und der kommt garantiert von TSMC.
Ich sehe N44 und N48 eh nicht als Mobilchips. Wann geht das in euren Kopf, das ist eine Kostenrechnung, die 5-10% Performance sind da kaum entscheidend. Wichtig ist, dass die auch mit niedrigen Preisen performen in der Bilanz. Das ist ne Mainstreamgeneration, nicht mehr.
mboeller
2024-03-28, 11:47:04
25-50% ;D, ja ne ist klar. Hab ja nicht bestritten, dass die besser sind, aber sie werden vergleichbar sein. 25-50% ist absolut lächerlich. Hör mit diesen bescheuerten Übertreibungen auf.
Und es interessiert sowieso nicht, wieviel besser die bei N4 sein könnten Perf/W. Interessant ist nur, wie die Dinger im Desktop performen und wenn die da ein paar MHz weniger haben als bei N4 ist das ein simpler Tradeoff. Mobil hat AMD eh Strix Halo und der kommt garantiert von TSMC.
Ich sehe N44 und N48 eh nicht als Mobilchips. Wann geht das in euren Kopf, das ist eine Kostenrechnung, die 5-10% Performance sind da kaum entscheidend. Wichtig ist, dass die auch mit niedrigen Preisen performen in der Bilanz. Das ist ne Mainstreamgeneration, nicht mehr.
Ich will auch was von dem was du so rauchst. Muss gut sein das Zeug
Qualcomm’s Snapdragon 765 SoC which was also manufactured on Samsung’s 7LPP node, and featuring Cortex-A76 cores. In that comparison we saw that The Exynos 990 and the Snapdragon 765’s A76 cores behaves very similarly in terms of power consumption, however they fell behind TSMC-based Cortex-A76 cores by anywhere from 20% to 30%
So at least at first glance, our theory that Samsung’s 5LPE merely just catches up with the power consumption and power efficiency of TSMC’s N7/N7P nodes seems to be valid – at least at these frequencies.
https://www.anandtech.com/show/16463/snapdragon-888-vs-exynos-2100-galaxy-s21-ultra/2
50% sind klar eine Übertreibung, aber 25% war genau spot-on
Redneck
2024-03-28, 11:52:08
Wenn RDNA4 auf "High End" verzichtet und diese Gen "nur" Einstiegs und Mittelklasse bedienen möchte, weshalb dann die bleeding edge Fertigung nutzen... damit erschwert man sich nur
ein konkurrenzfähiges pricing im Markt. Samsung macht da schon Sinn (vorausgesetzt Ihr Prozess ist tatsächlich viel günstiger). Manoman wird das wieder eine langweilige Situation am Markt..
Richtig. Das Ding ist auf AMDs Prioritätenliste eben nicht so irre weit oben. Das muss lange billig zu produzieren sein, hat was von Polaris.
Und wie gesagt, Stichprobe 1 von 1, das sind auch keine 25%. Wenn hoch kommt sind das im Finalprodukt dann 15% mehr Perf/W am Sweetspot und vllt. 100MHz weniger Maximaltakt. Das ist total wurscht, wenn der Chip 25% weniger kostet als bei TSMC. Ich möchte auch daran erinnern, dass man sich für N33 für N6 statt N5 entschieden hat mit voller Absicht.
Vielleicht ist das aber auch gar nicht so gut vergleichbar, es ist ja auffällig, dass RDNA4 offenbar nur von Samsung zu kommen scheint. Strix Point/Halo und Kraken Point sind RDNA3.5. Es kann also sein, dass RDNA4 auch auf SF4X entwickelt wurde und für TSMC dann portiert werden müsste (wo i.Ü. eben umgekehrt auch ein Großteil der 25% herkommen dürften...). mboellers Link ist sowieso für die Tonne, hat hierfür 0 Aussagekraft.
KarlKastor
2024-03-28, 14:54:33
25-50% ;D, ja ne ist klar. Hab ja nicht bestritten, dass die besser sind, aber sie werden vergleichbar sein. 25-50% ist absolut lächerlich. Hör mit diesen bescheuerten Übertreibungen auf.
DU bist der einzige der laecherlich ist. Wo sind denn die Belege? Nur heisse Luft. Aber die messen einfach nur alle falsch, ich weiss.
SpecInt: Exynos 2400 vs SD8G3: 15 vs 22 (bei sogar noch niedrigerem Takt)
SD8G1 vs SD8G1: 14 vs 23 (bei sogar noch niedrigerem Takt)
https://pbs.twimg.com/media/GEs1GWabYAAlI7z?format=png&name=medium
GPU:
SD8G1 vs SD8G1+: 4.8 vs 6.7
https://pbs.twimg.com/media/GF1WUXwaEAIG_9F?format=png&name=medium
Geekbench 3000 Punkte:
SD8G1 vs SD8G1+: 4.1 W vs 6.3 W
Ein 780G in 5LPE ist schlechter als ein 778G in N6
https://socpk.com/cpucurve/
Aztec Ruins 40 FPS:
SD8G1 vs SD8G1+: 4.4 W vs 6.8 W
Ein 780G in 5LPE ist schlechter als ein 778G in N6
https://socpk.com/gpucurve/
Wann geht das in euren Kopf, das ist eine Kostenrechnung, die 5-10% Performance sind da kaum entscheidend. Wichtig ist, dass die auch mit niedrigen Preisen performen in der Bilanz. Das ist ne Mainstreamgeneration, nicht mehr.Es hat jeder verstanden, das hier der Preis entscheidend ist. Nur ausser dir hat auch jeder verstanden, dass die Kostenersparnis mit einem deutlich minderwertigerem Prozess bezahlt wird. Nur du glaubst, dass die nahezu gleichwertig sind. Deswegen reissen sich auch alle darum und Samsung kann sich vor Auftraegen gar nicht retten.
Leonidas
2024-03-28, 15:26:23
Wie teuer war ein N7 Wafer vor 3,5 Jahren und was kostet aktuell ein N6 Wafer?
N7 Wafer anno 2020: $10'720
N7 Wafer aktuell: $9725
N6 Wafer aktuell: ???
Sind durchschnittliche Preise, sprich sagen nichts exaktes aus zu dem, was NV und AMD bezahlen. Aber es zeigt zumindest darauf hin, dass die Preisrückgänge nicht so schnell bzw. stark stattfinden.
Quelle:
https://www.3dcenter.org/news/news-des-27-juni-2023
PS: Der größere Preisvorteil kommt mit den Jahren wahrscheinlich über die bessere Ausbeute. Wenn man 2020 bei 50-70% lag und heuer bei 95%, dann ist dass schon ein handfester Vorteil.
DU bist der einzige der laecherlich ist. Wo sind denn die Belege? Nur heisse Luft. Aber die messen einfach nur alle falsch, ich weiss.
SpecInt: Exynos 2400 vs SD8G3: 15 vs 22 (bei sogar noch niedrigerem Takt)
SD8G1 vs SD8G1: 14 vs 23 (bei sogar noch niedrigerem Takt)
https://pbs.twimg.com/media/GEs1GWabYAAlI7z?format=png&name=medium
GPU:
SD8G1 vs SD8G1+: 4.8 vs 6.7
https://pbs.twimg.com/media/GF1WUXwaEAIG_9F?format=png&name=medium
Geekbench 3000 Punkte:
SD8G1 vs SD8G1+: 4.1 W vs 6.3 W
Ein 780G in 5LPE ist schlechter als ein 778G in N6
https://socpk.com/cpucurve/
Aztec Ruins 40 FPS:
SD8G1 vs SD8G1+: 4.4 W vs 6.8 W
Ein 780G in 5LPE ist schlechter als ein 778G in N6
https://socpk.com/gpucurve/
[...]
Irrelevant, wir reden hier nicht von 5LPE. Was soll der Quatsch? LPE ist eine stark entschärfte Varite von Samsung 5nm. Passt doch gut zu N6. 5 LPE -> 5 LPP -> 4 LPE -> 4 LPP -> SF4X. Haste mal auf das Datum des Artikels geschaut?
Hier was zu Samsungs ersten Ultra-High-Performance-Prozess SF4X https://www.anandtech.com/show/18858/samsung-to-unveil-refined-3nm-and-performanceenhanced-4nm-nodes
@Leo, die regulären Preise sagen in Wirklichkeit wahrscheinlich gar nichts aus bei Rabatten, Verträgen und Kontingenten von Großherstellern, die werden wir niemals erfahren, wenn das nicht einer leakt.
robbitop
2024-03-29, 10:42:16
Es gibt genug Präzedenzfälle in der Vergangenheit wo der Samsungprozess signifikant hinter dem TSMC Prozess lag. Da die Komplexität mit kleineren Nodes zunimmt, ist jegliche Position die sich nicht an die bisherige Präzednz orientiert naiv.
KarlKastor
2024-03-29, 12:07:04
Irrelevant, wir reden hier nicht von 5LPE. Was soll der Quatsch?
Aha, 5LPE ist alles was du aus dem Post mitnimmst? Das ist selbst für dein Niveau lächerlich.
LPE ist eine stark entschärfte Varite von Samsung 5nm. Passt doch gut zu N6. 5 LPE -> 5 LPP -> 4 LPE -> 4 LPP -> SF4X.
Was ist eine entschärfte Variante? Eigene Nomenklatur? E steht für early, nur so als Tipp. Ist eben die erste Iteration.
Die Unterschiede sind minimal wie zwischen N7 und N7P oder N6. Im Grunde sind das alles 7nm Nodes. Sieht man auch in Testergebnisse, so man sich denn welche anschaut.
Haste mal auf das Datum des Artikels geschaut?
Welcher Artikel? Du sprichst in Rätseln.
Ich hab da was durcheinandergeworfen, aber dein Datenwust ist trotzdem total irrelevant für SF4X-Produkte von AMD. Ist halt Äpfel mit Birnen. Da wird ja pauschal alles verglichen und du versuchst damit irgendwas zu belegen. Ist nur leider Unsinn.
Übrigens ist der Exynos 2400 nur SF4, nicht SF4X. Die GPU zu vergleichen ist sowieso völlig behämmert, wir wissen, dass RDNA3 nicht so wirklich effizient ist.
mczak
2024-03-29, 15:53:10
Würde man für GPUs nicht eher SF4P nehmen als den für HPC optimierten SF4X? Leider gibt's bei Samsung ja nicht wirklich eine Uebersicht wie sich da die verschiedenen 4nm Prozesse unterscheiden.
Aber wie auch immer ich sehe prinzipiell kein Problem darin GPUs in einem etwas schlechteren, dafür günstigeren, Prozess zu fertigen. Will man dieselbe Performance erreichen aber erreicht nicht denselben Takt kann man ja den etwas senken und die GPU etwas verbreitern, selbst allfällige Effizienznachteile könnte man so (zumindest bei Desktop-Produkten) problemlos ausgleichen (jedenfalls wenn die Fertigung nicht allzu viel schlechter ist, sonst geht die Rechnung dann irgendwann nicht mehr auf). Der Chip kann ja dann je nach Fertigungskosten trotzdem günstiger sein.
Das ist prinzipiell weniger problematisch als bei CPUs und damit auch APUs, weil man dort erstens nicht einfach mehr CPU-Kerne verbauen kann (man könnte evtl. eine low-end APU mit 8 statt 6 Kernen bauen aber will sicher keine CCX-Grenzen sprengen), und zweitens hat man da immer einen Nachteil weil Single-Thread Performance eben wichtig ist.
mczak
2024-03-29, 15:59:06
Übrigens ist der Exynos 2400 nur SF4, nicht SF4X.
Nein der ist explizit SF4P (4LPP+, SF4 ist 4LPP). Keine Ahnung wieviel der besser ist. (Bei anderen Exynos-Chips wie dem 1480 weiss man gar nicht in welchem Prozess der genau gefertigt wird weil Samsung bloss "4nm" angibt.)
Der_Korken
2024-03-29, 17:00:01
Wenn AMD eine deutlich schlechtere Fertigung für N48 verwenden sollte, dann ergeben die Prognosen bezüglich 7900GRE-Performance wieder Sinn. Die Effizienz könnte sich damit gegenüber RDNA3 trotz etwaiger Verbrauchsfixes sogar noch verschlechtern, d.h. ein <300mm²-Die wäre gar nicht in der Lage mehr Performance als eine 7900GRE zu liefern, weil er durch den höheren Verbrauch (>265W) einfach überhitzen würde. Damit wäre RDNA4 für mich gestorben.
reaperrr
2024-03-29, 18:06:48
Würde man für GPUs nicht eher SF4P nehmen als den für HPC optimierten SF4X? Leider gibt's bei Samsung ja nicht wirklich eine Uebersicht wie sich da die verschiedenen 4nm Prozesse unterscheiden.
SF4X soll entweder ~10% mehr Perf @ Iso-Power oder 23% weniger Verbrauch @ Iso-Perf bringen. Ob das nun im Vergleich zu SF4(P) oder was älterem ist, wird leider nicht genauer erwähnt.
Nur klingt es zumindest danach, dass es kein rein auf mehr Takt mit der Brechstange optimierter Prozess ist wie TSMC's N4X, wo nur 5% mehr Perf genannt und Effizienz gleich ganz unterschlagen wird (wohl weil N4X so viel leakier ist als N4P, dass die 5% mehr Takt mit ordentlich Saft bezahlt werden und nur für "Verbrauch egal, Hauptsache mehr Takt"-Produkte gedacht sind).
Rein von den Perf/Effizienz-Angaben scheint SF4X eher Samsungs Versuch N4P zu kontern zu sein (das X soll wohl nur suggerieren, wie cool/toll der Prozess doch ist...), wobei wir natürlich konkrete Produkte bräuchten, um zu sehen wie die Verhältnisse in der Praxis aussehen. Da wir von Samsung reden, wäre schon ~N5P-Perf/W ein ziemlicher Fortschritt und Erfolg.
reaperrr
2024-03-29, 18:20:16
Wenn AMD eine deutlich schlechtere Fertigung für N48 verwenden sollte, dann ergeben die Prognosen bezüglich 7900GRE-Performance wieder Sinn. Die Effizienz könnte sich damit gegenüber RDNA3 trotz etwaiger Verbrauchsfixes sogar noch verschlechtern, d.h. ein <300mm²-Die wäre gar nicht in der Lage mehr Performance als eine 7900GRE zu liefern, weil er durch den höheren Verbrauch (>265W) einfach überhitzen würde. Damit wäre RDNA4 für mich gestorben.
Dann könnten sie auch gleich bei N32 bleiben und ne 7850 XT mit vollen 20 Gbps und 285W TDP bringen, sowie ne 7750 XT.
Wobei es natürlich möglich ist, dass Samsung seinen Prozess für AMD so viel billiger angeboten hat, dass N48 deutlich günstiger als N32 zu fertigen ist, da könnten sie eine relativ enttäuschende Perf/W über günstigere Preise und die Speicherbandbreite/-ausstattung kompensieren.
Leicht über 7900 GRE Perf in Raster und über 7900 XT Perf in RT sowie 16GB für 449$ oder gar 399$ wäre für Mainstream schon OK, wobei sie es Nvidia damit natürlich ziemlich leicht machen würden, die Leistung kriegt NV vermutlich schon mit GB206 hin, wenn sie den etwas prügeln und mit 16GB in Clamshell bringen.
Naja, abwarten.
mboeller
2024-03-29, 19:07:59
Wenn AMD eine deutlich schlechtere Fertigung für N48 verwenden sollte, dann ergeben die Prognosen bezüglich 7900GRE-Performance wieder Sinn. Die Effizienz könnte sich damit gegenüber RDNA3 trotz etwaiger Verbrauchsfixes sogar noch verschlechtern, d.h. ein <300mm²-Die wäre gar nicht in der Lage mehr Performance als eine 7900GRE zu liefern, weil er durch den höheren Verbrauch (>265W) einfach überhitzen würde. Damit wäre RDNA4 für mich gestorben.
yep ... deshalb auch der Kommentar über das "rauchen"
Warum sollte AMD xx(x) Millionen in die Entwicklung und die Fertigung einer neuen Generation stecken nur damit sie nicht von der Stelle kommen. Macht halt imho GAR keinen Sinn.
reaperrr
2024-03-29, 19:20:21
yep ... deshalb auch der Kommentar über das "rauchen"
Warum sollte AMD xx(x) Millionen in die Entwicklung und die Fertigung einer neuen Generation stecken nur damit sie nicht von der Stelle kommen. Macht halt imho GAR keinen Sinn.
Für N44 als Erbe von N33 könnte SF4P oder SF4X gut genug sein.
Fraglich nur, ob es sich lohnt einen einzelnen Chip zu Samsung zu portieren.
Generell fischen wir aber eh ziemlich im Trüben hier, MLID sagt für N48 >300mm² und >=7900XT, RGT sagt <250mm² aber nur >=7900GRE.
Einer von beiden liegt halt falsch.
Entweder N48 ist groß und auch recht schnell, oder er ist kleiner und billiger als N10 und schlägt immerhin die 79GRE. Das von beiden Gerüchten jeweils nur der negative Part zutrifft, halte ich dann doch für zu viel des Pessimismus.
Das Gesamtpaket muss schon entweder klar besser oder zumindest klar billiger im Preis als der Vorgänger werden.
Der_Korken
2024-03-29, 20:19:46
Das Gerücht von <250mm² ist imho Quatsch, wenn wir von 256bit SI ausgehen. Bei N10 blieb schon wenig Fläche für die SEs und CUs übrig, wenn man davon jetzt noch den Platz für 64MB Cache abzieht, wo soll da noch Rechenleistung unterkommen? Die CUs bei RDNA3 sind schon sehr kompakt (siehe N23 vs N33), d.h. man kann nicht erwarten, dass AMD plötzlich einen Riesensprung bei Perf/mm² macht. Zumal ja auch von einer besseren RT-Implementierung die Rede ist, die es nicht umsonst geben wird.
vinacis_vivids
2024-03-29, 21:17:18
Könnte mir sehr gut eine Dual-GCD N48 Version vorstellen.
8192SP (2X4096)
~3,0Ghz
~98,3 Tflops fp32
~196,6 Tflops fp16 (FSR3 Tflops)
384bit SI
24GB VRAM
36Gbps
1728 GB/s
Mit knapp ~200 Tflops fp16 für FSR3 + AI-Enhanced FG-Algorithmus lassen sich schon ordentliche Bilder zaubern.
Bei so einer Dual-GCD Karte ließe sich auch ein AI int8 Chip mit 900 TOPS für KI/RT integrieren , also dreifache PS5-Pro Leistung.
So eine Karte am Desktop hätte wieder seinen Reiz und man könnte 8K-Displays halbwegs schön gestalten bei 240hz.
RT-Games hätten inkl. Upscaling dann genügend Leistung für 240hz Displays und höhere Auflösung.
Altehardware
2024-03-29, 22:15:41
Das sind Monolithen daraus wird nix
von samsung weis ichg das von 10nm auf sf4 dazwischen agb es nix abseits nvidia Spezial 10nm akä 8nm 22% denser wurde
Der 14nm wovon die letzten amd sku kamen mit vega64 hatte man zu 10nm nen dieshrink von 43% also abseits der arch Änderung von vega und nen hbm SI der sehr groß war dürfte das so aussehen
495mm²/10*5,5=272,25 das mal 0,56*0,78=118,9 +das aktuelle Si Größe von 102mm² (128bit)=220mm² chip als n44 der n48 ist doppelt so groß mit 440mm²
klar wird die vega arch deutlich größer ausfallen beim cache daher kann man gut nen viertel abziehen womit dann 383mm² anzunehmen ist für den n48
Der n44 bei 192m²
Taktraten dürften dann bei 3,1ghz sein das ergibt sich aus den vergleich 7nm vega vs 7nm rdna wo man von 1,4 auf 1,9ghz (gleicher node) kam und dann auf 2,4ghz (gleicher node) und geplant aktuell 3,3ghz (n5) geworden 2,7ghz (n6 aktuell bei n33)
Das bedeutet mit n4x von tsmc wäre man bei min 3,7ghz bei samsung sf4x min bei 3,0ghz
3,1ghz dürften mt arch Anpassungen gut hinkommen
daher sind die rx7900xt maximal und minimal rx7900gre realistisch
Das bedeutet aber auch das die entry bei 15tf und 13tf sein wird womit definitiv das 240$ und 290$ sku werden
Womit so aussehen wird
rx8600 16gb 308gb/s 13tf 140w tbp 270€ = rx7600xt
rx8600xt 16gb 330gb/s 15tf 145w 320€ =rx6750xt
rx8700 16gb 652gb/s 22tf 190w 440€ =rx7800xt
rx8700xt 16gb 687gb/s 29,7tf 230w 500€ =rx7900gre bis rx7900xt
n44 grob 30$ und 37$ sku ab 239$ bis 299$
n48 grob 70$ und 95$ sku ab 389$ bis 489$
rdna3 mit mcm n5 n6 ist deutlich teurer als der sf4x node
Sf4s dürfte etwa das kosten was der n6 kostet aktuell um die 9k$
folglich müsste diese preise mit erheblichen Margen anstieg drin sein derzeit marge 80% dann 120% wie bei der rx7600/xt
Der Markt gibt das her die Konsole dürfte bei 440$ starten etwa die perf der rx8700
Somit dürfte bis zur gamescom ordentliche rabbataktionen geben für rdna3 sku und das alle
Konsolen Ankündigung vermutl Sommer game fest
Dann starten die gpu preiskämnpfe bis ende 2024
nvidia muss darauf reagieren.
Der_Korken
2024-03-29, 23:18:00
Könnte mir sehr gut eine Dual-GCD N48 Version vorstellen.
8192SP (2X4096)
~3,0Ghz
~98,3 Tflops fp32
~196,6 Tflops fp16 (FSR3 Tflops)
384bit SI
24GB VRAM
36Gbps
1728 GB/s
Mit knapp ~200 Tflops fp16 für FSR3 + AI-Enhanced FG-Algorithmus lassen sich schon ordentliche Bilder zaubern.
https://videocardz.com/newz/amds-canceled-radeon-rx-8000-navi-4c-gpu-diagram-has-been-partially-leaked
Anhand dieses Leaks würde ich eher davon ausgehen, dass N48 in einer 3x3-Konfiguration im Vollausbau kommt. Das wären dann 9x64 = 576CUs und somit auf jeden Fall deutlich schneller als das von Nvidia geplante Dual-GB102-Flaggschiff. In Wirklichkeit hat AMD die alten RDNA4-Pläne gar nicht gecancelt, sondern sie haben es geschafft das Stacking durch bessere Übertragungsprotokolle überflüssig zu machen, sodass die 9 GCDs alle direkt aufs Package kommen statt auf irgendwelche Träger. Damit wird 8K Gaming mit 240Hz definitiv zum Standard werden, sobald RDNA4 rauskommt.
vinacis_vivids
2024-03-29, 23:46:23
Das würde bedeuten, dass AMD die CDNA3 Packaging Technologie auf RDNA4 übertragen muss um mit GB202 mithalten zu können. Ansonsten droht die Marginalisierung in der Mittelklasse wie zu Polaris10 Zeiten bei 250€ während NV 2000€ Pro Grafikkarte verkauft.
RDNA4 mit nur 64CU wäre allein überhaupt nicht konkurrenzfähig gegen GB202 im Maximalausbau.
Vor allem wird bei Huang mit 600W bis 900W spekuliert.
Bei AMD drohte man auch mit 600W Brechstange im Gaming.
Im HPC-Kampf sind 650-750W gang und gäbe. Der wird jetzt auch auf Desktop ausgedehnt?
Oder AMD baut gigantisch große CUs, die extrem hoch takten und 600W schlucken.
Oder zwei Grafikkarten im mGPU mit 2 x 450W Modelle. Wären dann 900W allein für GPUs.
Totale Brechstange gegen Huangs Monopolstellung ?
Der_Korken
2024-03-30, 22:24:03
Spaß beseite:
Es gibt neues Futter für den Hypetrain:
https://twitter.com/All_The_Watts/status/1774060521077260557
7900XT < N48 < 7900XTX
Das kann man natürlich auch wieder auf viele Weisen interpretieren. Wenn sich das nur auf RT bezieht, während N48 in Raster nur 7900GRE-Level ist, hätte der Leak nicht gelogen :D.
rentex
2024-03-30, 23:17:49
Spaß beseite:
Es gibt neues Futter für den Hypetrain:
https://twitter.com/All_The_Watts/status/1774060521077260557
7900XT < N48 < 7900XTX
Das kann man natürlich auch wieder auf viele Weisen interpretieren. Wenn sich das nur auf RT bezieht, während N48 in Raster nur 7900GRE-Level ist, hätte der Leak nicht gelogen :D.
Welche Hypetrain? Bisserl mehr RT Performance bringt AMD nicht sonderlich weiter...wollen sie ja auch nicht.
Redneck
2024-03-31, 09:29:00
yep ... deshalb auch der Kommentar über das "rauchen"
Warum sollte AMD xx(x) Millionen in die Entwicklung und die Fertigung einer neuen Generation stecken nur damit sie nicht von der Stelle kommen. Macht halt imho GAR keinen Sinn.
Für mich sieht das nach einer Bad execution aus.
N41 wäre stark geworden, war aber technisch über-ambitioniert und wäre zu teuer geworden, um mit Blackwell mithalten zu können (wenn man davon ausgeht, das amd weiterhin ähnliche Raster Performance zu niedrigeren Preis anbieten will oder muss, da man im Raytracing weiterhin Hinterherhinkt).
Dann kommt man bei den Software Features auch nicht voran und NV zieht weiter voraus,weswegen man keine Absatztmöglichkeiten für N41 sah.
Wenn N48 auf dem Level von N31 landet, dann ist das Ziel eigentlich erreicht.. Aber wenn Blackwell überdurchschnittlich schneller wird als Ada, dann sitzt AMD in der Klemme und hat man bei AMD wohl frühzeitig gesehen ( sofern Samsung wirklich wahr sein sollte). Hinzu kommt, daß AMDs Fokus derzeit voll auf AI liegt (man schaue sich die letzten Interviews der AMD Granden auf YT an). Ich denke das man dies Gen auf AMD Seite abgehakt hat..mir geht es jedenfalls so und ich werde meine 6900xt wohl durch Blackwell ersetzen.
Nakai
2024-03-31, 19:45:41
N48 und N44 sollen als gute Alternativen zu N31 und N32 sein. Wird eher so ein RV670 Moment sein, aber N31 durchgängig zu schlagen, will ich erst sehen...
vinacis_vivids
2024-03-31, 19:53:57
Mich verwundert es, dass es nichts gegen Blackwell GB202 192SM / 512bit gibt. Huang hat durchsickern lassen, dass er den Gaming Markt verlassen kann.
RDNA4 64CU gegen Blackwell 192SM wäre ein totales Monopol Seitens grün. Das wäre ohne entsprechenden Hardware-Konter von AMD nur noch technologische Stagnation für die nächsten 10 Jahre und keine gute Entwicklung.
Linmoum
2024-03-31, 20:13:30
Nvidia ist nicht Intel oder AMD, technologische Stagnation gibt es dort nicht (ok, beim Speicher geizen mal außen vor..). Man kann diese Firma für einiges kritisieren, aber eines muss man neidlos anerkennen: Und zwar, dass sie sich nicht auf Erfolge in der Vergangenheit ausruht. Selbst dann nicht, wenn sie der "Konkurrenz" schon meilenweit voraus ist.
Bei AMD ist es am Ende vermutlich eine rein wirtschaftliche Entscheidung. Wahrscheinlich hat man die Befürchtung, wenn man irgendwie "All In" geht, dass man die Grafikkarten am Ende trotzdem (relativ gesehen) verschleudern muss, weil man sie nur schwer verkauft bekommt. Hardware alleine reicht halt nicht mehr, das ging noch zu pre-Turing-Zeiten. Seit Ray Tracing und DLSS sind Software/Ökosystem nach und nach genauso wichtig geworden.
Ich vermute eher, dass AMD darauf setzt, dass mehrere (kleinere) GCDs für Gaming-Zwecke ohne Nachteile funktionieren. Sowas wie >600mm2 Dies kann/will sich AMD offenkundig nicht mehr leisten (wobei man ja selbst schon gegen ein ~380mm2 AD103 vermutlich größere Probleme hat, was Wirtschaftlichkeit anbelangt...).
Fehlende Konkurrenz ist am Ende nie gut für den Markt. Konkurrenz zu schaffen, liegt aber einzig an AMD in dieser Hinsicht.
Zossel
2024-03-31, 20:18:06
Huang hat durchsickern lassen, dass er den Gaming Markt verlassen kann.
Bei 1KW pro KI-Chip (oder so ähnlich) könnten die feuchten KI-Träume schnell an der Verfügbarkeit von elektrischen Strom zerschellen.
vinacis_vivids
2024-03-31, 20:20:01
Könnte auch ne Durststrecke im oberen Regal beim PC-Gaming geben wie zu Vega64 / RDNA1, wo AMD von 484mm^2 auf 251mm^2 schrumpfen musste.
Die RDNA4-uArch wird eher auf PS5-Pro Konsole und UE5 scheinen als CP2077-RT und AW2, worauf das grüne Marketing ja 90% hofft.
Das neue Volk ist richtig arm und kann sich nur noch 200mm^2 APU Chips leisten.
Altehardware
2024-03-31, 20:27:55
Es bleibt dabei maximal sehe ich n48 und n44 bei rx7900xt bis rx7600xt
Es wird n33 n32 ersetzen n31 bleibt am markt abe rauch nru solange bis amd die produzierten sku weg hat.
So wird die rx7900xt/x weiterlaufen bis q4 2025 wo dann rdna5 mit 120cu kommen wird mit dann auf n3 node mcm chip bei 3,9ghz Takt. und ein high end sku mit 180cu das wird amd gleichauf bringen mit nvidia rtx5090
amd verzichte hier auf 15% Takt =30% Energieersparnis das dürfte diese sku bei knapp 350w bringen wo nvidia mit der rtx5090 450w ziehen wird.
Das ist aber erst bei rdna5 der fall.
jetzt wird man mit sf4x beide etwa ada Effizienz sein mit kleinen chips von 185mm² 120w tbp und knapp 380mm² 200w
Und nochmal
rx8600 grob 13tf =rx7600xt 329€
rx8600xt grob 15tf =rx6750xt 379€
rx8700 grob 25tf =rx7800xt 449€
rx8700xt grob 29tf= rx7900xt bei 2,0ghz 559€
ps5 pro grob 22tf 60cu 2,23 bis 2,4ghz 499€
nvidia Reaktion vermutlich rtx4060 super ersetzt die rtx4060ti und rtx4060ti super diese kommen schon bald. Sowie rtx4070 gddr6
basix
2024-04-01, 11:43:26
N48 und N44 sollen als gute Alternativen zu N31 und N32 sein. Wird eher so ein RV670 Moment sein, aber N31 durchgängig zu schlagen, will ich erst sehen...
Wenn N48 ~300mm2 gross ist und >4070 Ti Super rauskommt, bestenfalls ~4080, dann wäre das für AMD ein attraktiver Chip. Deutlich günstiger als N31 in der Fertigung und gegenüber Lovelace auch besser aufgestellt (Chipgrösse, Energieverbrauch, RT-Performance). Blackwell ist noch ein bisschen eine Wundertüte, was dort kommt und wann es kommt. RDNA4 wird es gegen Blackwell vermutlich nicht leicht haben aber deutlich leichter als RDNA3.
N44 auf ~7700XT Niveau wäre ebenfalls ein Win für AMD. Sollte bei ca. 200mm2 rauskommen und somit einiges günstiger als N32 in der Fertigung sein. Dazu wiederum die zusätzlichen Vorteile von RDNA4. Einzig die 128bit machen mir hier noch etwas Sorgen. Wäre es 192bit oder gäbe es 24Gbit GDDR-Chips wäre alles im Lot.
BavarianRealist
2024-04-01, 16:11:10
Wurde angeblich vor einigen Tagen auf Samsungs Webpage (https://semiconductor.samsung.com/processor/mobile-processor/exynos-1480/) veröffentlicht:
"...The Exynos 1480 introduces Xclipse 530 GPU performance to a broader set of users, which is based on the latest mobile AMD RDNA™ architecture and improves performance by 53% compared to the previous generation.4 Console graphic features such as variable rate shading and super resolution are provided by Xclipse 530, vastly improving your mobile gaming experience..."
Nachdem der Chip auf Samsungs aktuellem 4nm-Prozess hergestellt sein soll, stellt sich die Frage, ob hier nicht auch die neuen RDNA3.5/4 schon drin sind, die in die Navi44/48 kommen könnten, falls diese wirklich von Samsung hergestellt werden sollen?
basix
2024-04-01, 16:20:40
Etwas in Richtung RDNA3.5 könnte ich mir vorstellen, wenn auch mit Vorbehalt (Release-Datum deutlich früher als AMD APUs mit RDNA3.5). RDNA4 sicher nicht, das wäre viel zu früh.
RDNA3.5 könnte nochmals mehr Sinn machen, wenn man die letzten Gerüchte hinsichtlich von Samsung gefertigten APUs noch berücksichtigt.
mboeller
2024-04-01, 20:36:56
Mich verwundert es, dass es nichts gegen Blackwell GB202 192SM / 512bit gibt. Huang hat durchsickern lassen, dass er den Gaming Markt verlassen kann.
Warum sollten sie?
Halo-Effekte gibt es bei GPU's anscheinend nur bei Nvidia ;)
N44+N48 sind anscheinend die Nachfolger von N33/N32 ... und damit vor allem für den großen Laptop-Markt wichtig. Soweit ich mich erinnere sind 80-90% aller "PC"-Käufe inzwischen Laptops. Alles was größer ist ist dafür nicht geeignet.
Und sie erhalten sich die technologische Basis für weitere Konsolen.
Da N41/42 anscheinend schief gegangen sind ist das für AMD wahrscheinlich die beste Entscheidung. Vielleicht sogar langfristig.
Wurde angeblich vor einigen Tagen auf Samsungs Webpage (https://semiconductor.samsung.com/processor/mobile-processor/exynos-1480/) veröffentlicht:
"...The Exynos 1480 introduces Xclipse 530 GPU performance to a broader set of users, which is based on the latest mobile AMD RDNA™ architecture and improves performance by 53% compared to the previous generation.4 Console graphic features such as variable rate shading and super resolution are provided by Xclipse 530, vastly improving your mobile gaming experience..."
Nachdem der Chip auf Samsungs aktuellem 4nm-Prozess hergestellt sein soll, stellt sich die Frage, ob hier nicht auch die neuen RDNA3.5/4 schon drin sind, die in die Navi44/48 kommen könnten, falls diese wirklich von Samsung hergestellt werden sollen?
So würde ich das auch sehen, das wird RDNA4 oder ein Spinoff davon sein. RDNA3.5 wird es mMn nur für die TSMC-APUs geben.
mboeller
Nein, AMD weiß genau, dass sie beim Notebook-Markt keinen Stich landen werden, daher gibts ja Strix Halo. N4x wirds zwar geben für Mobil, aber das wird nicht der primäre Zweck sein. Dieser ist Kosten runter, damit man die Dinger noch in 3-4 Jahren absetzen kann, wie Polaris eben. Das sind keine Halo-Produkte, sondern rein Brot und Butter.
Man wird N31 auch nicht ersetzen, ich wette die Dinger gibts weiterhin - N32 wird ersetzt, weg mit den Chiplets im Mainstream; N33 wird ebenfalls weiter genutzt werden genau wie N24.
[MK2]Mythos
2024-04-01, 21:47:32
Dann wird N31 aber nochmal ne Schippe drauflegen müssen und/oder rebranded. Das passt ja sonst absolut gar nicht ins Raster wenn die RX7900xtx der "King" bleibt und die 8xxx Karten langsamer werden.
reaperrr
2024-04-01, 22:09:33
Mythos;13518373']Dann wird N31 aber nochmal ne Schippe drauflegen müssen und/oder rebranded. Das passt ja sonst absolut gar nicht ins Raster wenn die RX7900xtx der "King" bleibt und die 8xxx Karten langsamer werden.
Einfach keine N31 mehr und keine 8900er, sehe das Problem nicht.
Die N48-Karten werden viel billiger und in RT wahrscheinlich schneller als die 7900 XTX, wozu die dann noch am Markt halten?
Zu den Preisen, die AMD für die 7900 XTX spätestens nach Blackwell-Release veranschlagen müsste, machen sie wahrscheinlich garkeinen Profit mehr, dann lieber ganz einstampfen und N48XTX über den Preis positionieren, schneller als die 7900XT soll der ja immerhin werden.
Die paar Prozent mehr Raster der 7900 XTX helfen dem 8000er Line-Up gegen BW auch nicht, und der Stromverbrauch gepaart mit der nicht konkurrenzfähigen RT-Perf macht die Karte im Gesamtpaket trotz etwas mehr Raster-Leistung und 24GB unattraktiv gegenüber sowohl dem schnellsten N48 als auch den BW-Karten in dem Preissegment.
Und dass die Yield-Rate von N31 gut genug ist, um nur noch ne (rebrandete) 7900 XTX, aber keine 7900 XT/GRE mehr zu produzieren, sehe ich auch nicht, und bei denen wäre die Margen-Situation eher noch prekärer.
Einzige Ausnahme: Landet N48 in Raster wirklich doch nur auf ~7900GRE-Niveau und nur in RT über 7900XT, dann würden sie N31 vmtl. als 8800 XT (umgelabelte 7900XT mit Mini-OC) und 8900 XT (umgelabelte 79XTX mit Mini-OC) am Markt halten und N48 nur als 8700 XT und 8700 bringen.
maximus_hertus
2024-04-01, 22:17:20
N31 einfach einen "Eigennamen" geben, wie damals die Fury (X).
Dann könnte es so aussehen:
N31 "Fury 2 X" - N31 - 24 GB - 799 USD
8800 XT - N48 full - 16GB - 549-599 USD
8700 XT - N48 Salvage - 16 GB - 449-479 USD
8600 XT - N44 full - 16GB - 349 USD
8600 - N44 salvage - 8GB - 279 USD
8500 XT - rebranded 7600 - 8GB - 199 USD
Bei nV scheint es ja nur die 5090 und ggf. die 5080 noch 2024 zu geben.
5070 und darunter wohl erst 2025.
AMD könnte dann 2025 die Karten entsprechend im Preis etwas senken (inoffiziell). N48 um ca. 50 USD und N44 um ca. 20-30 USD.
Ich sehe leider nicht, dass AMD beim P/L viel besser sein wird als die aktuellen Karten. Die haben auch nur noch die MArgen im Kopf.
Der_Korken
2024-04-01, 22:25:45
Einfach keine N31 mehr und keine 8900er, sehe das Problem nicht.
Die N48-Karten werden viel billiger und in RT wahrscheinlich schneller als die 7900 XTX, wozu die dann noch am Markt halten?
Zu den Preisen, die AMD für die 7900 XTX spätestens nach Blackwell-Release veranschlagen müsste, machen sie wahrscheinlich garkeinen Profit mehr, dann lieber ganz einstampfen und N48XTX über den Preis positionieren, schneller als die 7900XT soll der ja immerhin werden.
This. Gerade wenn N48XT in RT schneller ist als N31XTX, hat N31 keinen Platz mehr im 8000er Lineup.
BlacKi
2024-04-02, 05:02:40
klingt logisch als amd konsument. aber eins dürfte gewiss sein, die werden mit n48 kein preisdumping betreiben, um ihr eigenes altes preisniveau zu torpedieren. wenn nv kein preisdumping mit blackwell betreibt, dann werden die gpus recht teuer bleiben, egal wie billig n48 in der herstellung ist.
ich denke, amd wird den zeitlichen vorteil für sich nutzen und n48 recht hochpreisig ansetzen, dann kann man immernoch später gegen blackwell die preise senken. wenn man durchgängig schneller ist als die xt, dann wird man wohl 699€ ansetzen und kann die xtx dann knapp darüber hochpreisig halten.
reaperrr
2024-04-02, 07:19:07
klingt logisch als amd konsument. aber eins dürfte gewiss sein, die werden mit n48 kein preisdumping betreiben, um ihr eigenes altes preisniveau zu torpedieren. wenn nv kein preisdumping mit blackwell betreibt, dann werden die gpus recht teuer bleiben, egal wie billig n48 in der herstellung ist.
ich denke, amd wird den zeitlichen vorteil für sich nutzen und n48 recht hochpreisig ansetzen, dann kann man immernoch später gegen blackwell die preise senken.
Natürlich (leider).
Ich meinte mit billiger vor allem die Produktionskosten, nur bedingt die Endverbraucherpreise.
wenn man durchgängig schneller ist als die xt, dann wird man wohl 699€ ansetzen und kann die xtx dann knapp darüber hochpreisig halten.
Ich glaube halt, dass N31 in der Produktion so viel teurer ist, dass es keinen Sinn macht die XTX über der N48-XT weiterlaufen zu lassen, von bis dahin nicht verkauften Restbeständen natürlich abgesehen.
Wir reden bei N48 von einem monolithischen 4nm-Die unter 350mm², nur 16GB RAM und günstigerem PCB+Kühler auf der einen Seite, vs. ~300mm² N5-GCD, 6x37mm² N6-MCDs, 50% mehr VRAM-Chips, teureres PCB+Kühlung sowie sicher nicht ganz billiges transportieren der Chiplets zur Assembly und die Assembly selbst.
Noch nicht berücksichtigt ist dabei, dass jegliche N31-Salvage das eigentliche Problem darstellen: mach sie zu billig, und sie kannibalisieren N48 bei viel schlechterer Marge (oder Verlust). Zu teuer, und du wirst sie nicht mehr los.
Die 7900 XTX ist nur ~18% schneller als die 7900XT in 4K, und sogar nur 12-15% in 1440p, je nach Spieleauswahl.
Wenn N48XT schneller als die 79XT in Raster und schneller als die XTX in RT ist (und bei Perf/W klar gewinnt), kann AMD für die XTX höchstens noch ~50-100€ mehr verlangen. Da verdient AMD dann an der XTX wohl weniger als an N48XT, in dem Fall wär's sinnvoller, die N31-Produktion schon vorher einzustellen, über künstliche Verknappung die Preise der restlichen XTX-Exemplare hoch genug zu halten und die Masse der Nachfrage so früh wie möglich direkt mit N48 zu bedienen, der immerhin die 4070TiS in Raster klar schlägt (wenn >79XT stimmt) und in RT ganz nah dran sein dürfte, vereinzelt vielleicht sogar vorne.
dargo
2024-04-02, 07:32:28
klingt logisch als amd konsument. aber eins dürfte gewiss sein, die werden mit n48 kein preisdumping betreiben, um ihr eigenes altes preisniveau zu torpedieren.
Keine Ahnung wie du auf Preisdumping kommst. NV ist schon länger bei den Preisen dermaßen abgehoben, dass AMD gar kein Preisdumping mehr betreiben muss. Bei vergleichbarer Performance einfach 10-15% das Produkt günstiger anbieten und gut ist.
[MK2]Mythos
2024-04-02, 07:59:20
Keine Ahnung wie du auf Preisdumping kommst. NV ist schon länger bei den Preisen dermaßen abgehoben, dass AMD gar kein Preisdumping mehr betreiben muss. Bei vergleichbarer Performance einfach 10-15% das Produkt günstiger anbieten und gut ist.
Auch das macht AMD schon lange nicht mehr. Weder bei RDNA2, noch bei RDNA3, obwohl gerade RDNA3 doch deutlich unterlegen war bzw ist.
robbitop
2024-04-02, 08:04:31
Mythos;13518373']Dann wird N31 aber nochmal ne Schippe drauflegen müssen und/oder rebranded. Das passt ja sonst absolut gar nicht ins Raster wenn die RX7900xtx der "King" bleibt und die 8xxx Karten langsamer werden.
Naja Polaris (rx480) war anfangs auch langsamer als Fijii (R9 Fury X) und Navi 10 (5700xt) auch als Vega 20 (Radeon VII).
dargo
2024-04-02, 08:31:10
Mythos;13518474']Auch das macht AMD schon lange nicht mehr. Weder bei RDNA2, noch bei RDNA3, obwohl gerade RDNA3 doch deutlich unterlegen war bzw ist.
Natürlich machen die das. Bei der RTX 4080 vs. RX 7900XTX betrug der Unterschied sogar 20%. RX 6900XT vs. RTX 3090 waren sogar gigantische 50% Preisdifferenz. Ok... je nachdem aus welcher Perspektive man es betrachtet. Wenn es um günstiger geht war AMD im ersten Fall knapp 17% günstiger, im zweiten Fall knapp über 33% günstiger.
Die lassen die XT und XTX einfach am Markt.
Dass man die N48 Full 8800XT nennen wird, darin sind wir uns glaub ich einig.
8800 -> N48
8700 -> N44
8600 -> N33 hat was von Pitcairn damals ;).
Redneck
2024-04-02, 10:32:22
Die lassen die XT und XTX einfach am Markt.
Dass man die N48 Full 8800XT nennen wird, darin sind wir uns glaub ich einig.
8800 -> N48
8700 -> N44
8600 -> N33 hat was von Pitcairn damals ;).
7900XT+XTX am Markt lassen ? zu welchen Preisen ?
Gegen welche Blackwells sollen die antreten ?
Die sind doch weder technologisch noch marketingtechnisch (old technology) sexy. Wer soll das kaufen ?
Sehr unwahrscheinlich imho.
dargo
2024-04-02, 10:32:59
Es ist doch ganz einfach... mit N48 lässt AMD entweder N31 am Markt oder N31 geht dann langsam EOL. Wenn ersteres zutrifft holt man sich die etwas kleinere Marge bei N31 über N48 wieder zurück. Einfach den Preis ein bissel höher setzen. Letzteres ist womöglich gar nicht mal nötig wenn die Fertigungskosten geringer ausfallen als bei N31, wovon ich hier definitiv ausgehe. Und N48 wird eh eine größere Zielgruppe ansprechen als N31. Schon alleine deshalb weil N48 keine UVP von 999$ haben wird, bei weitem nicht.
7900XT+XTX am Markt lassen ? zu welchen Preisen ?
Gegen welche Blackwells sollen die antreten ?
Die sind doch weder technologisch noch marketingtechnisch (old technology) sexy. Wer soll das kaufen ?
Sehr unwahrscheinlich imho.
Bis das gesamte Portfolio von Blackwell kommt dauerts noch Einiges. Ich erinnere da gerne mal zurück. Anfangs kam die RX 6900XT für 999$. Später lag der Straßenpreis im Abverkauf bei der Hälfte. Bis Blackwell mit vergleichbarer Performance zu N31 kommt ist N31 bereits 2-2,5 Jahre im Markt.
Seh ich auch so. Dann sinken halt die Preise. Aber eine neue Karte macht man glaube ich nicht. Muss ja auch nicht sein, denn ne 5070 kommt eh frühestens Mitte 25, vielleicht sogar noch später, weil NV noch so krass viele Adas auf Lager hat.
BavarianRealist
2024-04-02, 11:24:09
Da AMD die N5/N4-Kapazitäten für Zen5, die APUs und AI brauchen wird, gehe ich davon aus, dass Navi31/32 auslaufen werden.
Bleibt ja nur N31 übrig und der hat nur 300mm², ich sehe dafür kein Anzeichen. Daher hat man ja etliches nach Samsung geshiftet.
maximus_hertus
2024-04-02, 12:52:28
8800 -> N48
8700 -> N44
8600 -> N33 hat was von Pitcairn damals ;).
N44 als 8700?
Wenn man die letzten Infos sich ansieht, dann schafft man mit N44 nicht N32 einzuholen und eine 8700, die hinter einer 7700 liegt, wäre nicht so geil. Selbst wenn man die Karte "nur" 8700 ohne XT nennt.
Die x700er werden seit längerer Zeit als 1440p Karten (von AMD) beworben. Das wird bei N44 wohl eher schwer.
Ich könnte mir vorstellen, dass man 8800 und 8700 für N48 und deren Varianten nimmt und N44 Karten als 8600er Varianten auf den Markt bringt.
N33 dann als 8500 (XT) und nur als 8GB.
N24 dann als 8400 (XT) mit 4-8GB.
8400 (XT) - N24 - 4-8GB
8500 (XT) - N33 - 8GB
8600 (XT) - N44 - 8GB (ggf. 16GB wie bei der 7600 XT)
8700 (XT) - N48 Salvage - 12 oder 16GB
8800 (XT) - N48 full - 16GB
dargo
2024-04-02, 13:11:22
Ist denn jetzt eigentlich 100% sicher, dass RDNA4 Desktop von Samsung kommt? In dem Fall mache ich mir etwas Sorgen um die Perf/W. :(
Andi_90
2024-04-02, 13:16:06
Ist denn jetzt eigentlich 100% sicher, dass RDNA4 Desktop von Samsung kommt? In dem Fall mache ich mir etwas Sorgen um die Perf/W. :(
Steht doch nicht mal im Raum? Keine AMD Produkt ist auf der soll bei Samsung kommen, nur der Low-Ende nachfolger "Pollock" gab es Gerüchte für Samsung.
Foundry Wechsel macht definitiv keinen Sinn, da es nicht an Kapazität mangelt.
dargo
2024-04-02, 13:17:26
Uff... dann bin ich erleichtert.
Altehardware
2024-04-02, 13:31:28
markt Ananlyse sagt ganz klar
n44 2 sku rx8600 28cu rx8600xt 32cu 13tf und 15tf diese ersetzt die rx7600 und rx7600xt bei nur +15%
n48 mit 2 sku rx8700 und rx8700xt mit 25,8tf und 29,0tf die rx7800xt wie die rx7700xt
+39%-43%
preise kann man davon ausgehen das die Konsole auch etwa 500€ dann
rx8600 330€ =rx7600xt perf +-identisch
rx8600xt 350€ =rx7600xt +15%
rx8700 480€
rx8700xt 550€
werden gut möglich das amd die rx8700 tbp limitiert auf 200w dann wird man nur 2,8ghz erreiche von 3,1ghz und mt dann 23,4tf die Konsolen perf erreichen
das wäre vs rx7800xt gerade mal +15% die es für 510€ gibt.
Die ps5 pro dürfte zwischen 2,23ghz kompa Modus bis 2,4ghz laufen was dann mit rdna4 Anpassung bei 23,0tf wäre.
Die cpu ist eher ein problem darum die geringe perf Zuwachs in raster von nur 45% das kompensiert man mit den 60hz 4k Modus
Hatstick
2024-04-02, 13:58:32
Wenn wir mal grob den schnellsten RDNA4 Chip auf Höhe einer 7900XT einordnen, dann bin ich vor allem gespannt, was AMD da Ende 2024 noch für aufrufen will?
Da sehe ich nicht mehr wie 499 - 549€ UVP.
Zum einen wäre das eher wenig Marge für AMD aber zum anderen kannst diese Leistungsklasse aber auch nicht mehr für 700€ + anbieten, wenn man mit bissl Glück die 7900XT jetzt schon aktuell für 700€ oder gar knapp drunter bekommt.
Wird auf jeden Fall interessant sein...
PS: Die 7900GRE für unter 600€.
Den Stillstand bzgl. Rasterleistung hatten wir schon von der letzten zur aktuellen Generation, das kann AMD so eigentlich nicht noch mal min. 1 - 1,5 Jahre anbieten aber maximal 549€ schmeckt ihnen wahrscheinlich auch nicht.
Die großen Margen haben sie im Schatten von nVidia ja auch gerne mitgenommen.
Ist denn jetzt eigentlich 100% sicher, dass RDNA4 Desktop von Samsung kommt? In dem Fall mache ich mir etwas Sorgen um die Perf/W. :(
Schon im Mai 23 gab es einen Leak, dass etliche Produkte bei Samsung in 4nm gefertigt werden sollten. Vor kurzem gab es einen Leak, welche Produkte das sein sollen und das diese Produkte in SF4X produziert werden (also wie der nächste Exynos mit RDNA mobile und die Tenstorrent-NPUs), das waren:
- N4x (mach dir Sorgen)
- Sonoma Vallay (4c-APU)
- Sonys Viola (PS5 Pro)
und ich spekulierte schon, dass es auch zusätzlich zu dem von TSMC von Samsung ein Zen5-CCD geben könnte für die Massenprodukte.
Andi_90
2024-04-02, 15:23:10
Schon im Mai 23 gab es einen Leak, dass etliche Produkte bei Samsung in 4nm gefertigt werden sollten. Vor kurzem gab es einen Leak, welche Produkte das sein sollen und das diese Produkte in SF4X produziert werden (also wie der nächste Exynos mit RDNA mobile und die Tenstorrent-NPUs), das waren:
- N4x (mach dir Sorgen)
- Sonoma Vallay (4c-APU)
- Sonys Viola (PS5 Pro)
und ich spekulierte schon, dass es auch zusätzlich zu dem von TSMC von Samsung ein Zen5-CCD geben könnte für die Massenprodukte.
Leak =! Gerücht
Bei dem besagten Gerücht geht es um eine Low-End APU die auf Zen5C und RDNA4 basiert. Diese soll bei Samsung produziert werden.
N4x dGPU kenn ich keine Gerüchte außer vll Digitimes ;D
PS5 Pro glaube ich niemals, Risiko viel zu groß
Kann man glauben oder nicht, wir werden es bald genau wissen ;). Ausschließen würde ich derzeit nichts.
Und bezüglich der PS5 Pro, wenn Sony damit auch nur 5% der Kosten spart, dann machen die das.
dargo
2024-04-02, 15:50:28
Und bezüglich der PS5 Pro, wenn Sony damit auch nur 5% der Kosten spart, dann machen die das.
Nicht unbedingt, denn Sony ist Perf/W auch wichtig. Laute Konsolen sind out. Und je mehr Abwärme desto aufwändigere Kühlung notwendig, was wiederum mehr kostet.
Ja, das war in den 5% schon eingepreist, was denn sonst. Es mag ja sein, dass der Prozess minimal schlechter ist als N4, aber das ist letztendlich nur ne Kostenfrage, sonst nix.
vinacis_vivids
2024-04-02, 16:59:36
So ein konservativer RDNA4 für PS5-Pro kann ich nachvollziehen, aber nicht die Sparversion am Desktop.
Da würde AMD am Chef-Gaming Desktop für ältere Männer den Benchmarking-Kampf verlieren. Das NV-Monopol wäre schlecht für die technische Entwicklung.
Wir hatten in der Vergangenheit zu harten Zeiten auch Dual-GPU und Quad-GPU gehabt. Eine hypothetische Dual 7900GRE Version mit RDNA4 uArch und 32GB VRAM / 160CU / 512bit SI wäre wieder konkurrenzfähig gegen GB202.
Eine Dual-GCD 7900XTX mit RDNA4 uArch käme auf 192CU 96WGP / 192MB unified IF$ / 48GB unified VRAM / 768bit SI. Da ein Cut am SI immer der sparsamste Weg ist, ist auch eine 32GB 512bit Version möglich.
Leichte Verbesserungen am Takt auf ~3,0Ghz all CUs und ~3,5Ghz Front-End und die 192CUs sind wieder oben dabei.
Die FSR3-Abtastung mit fp16-Nutzung wären bei im dual-issue Modus bei theoretisch maximal ~300 Tflops fp16 möglich. Das ist eine Menge Rechenleistung bspw. für Frame-Generation.
Wäre vielleicht besser wenn AMD Frame-Generation den schweren propiätären RT-Code aussortiert statt stupide per Brute-Force alles zu verdoppeln.
Wenn AMD die Technik freigeben würde... hm.
Andi_90
2024-04-02, 17:07:50
Ja, das war in den 5% schon eingepreist, was denn sonst. Es mag ja sein, dass der Prozess minimal schlechter ist als N4, aber das ist letztendlich nur ne Kostenfrage, sonst nix.
AMD muss für sich die Frage beantworten ob sie eine weiterhin eine Exclusive-Partnerschaft mit TSMC haben möchte oder auf mehrere Foundries gehen möchte.
Man kann nicht wie damals von Foundry A auf B portieren. Da sind eigene Design, NDAs etc enthalten. Aktuell ist AMD bei TSMC ein exklusiver Partner wie Apple und bekommt dadurch auch gewisse Deals die andere nicht bekommen. Z.b. QCOM oder Nvidia(jetzt auch wieder exkl. TSMC Kunde).
Bei dem AMD Mendocino Nachfolger (SS 4NM) wird man eventuell aus Kostengründen auf Samsung gehen. Gerade so das man weiterhin die Exklusiven TSMC Partnerschaft behält.
TheAntitheist
2024-04-02, 18:09:45
AMD muss für sich die Frage beantworten ob sie eine weiterhin eine Exclusive-Partnerschaft mit TSMC haben möchte oder auf mehrere Foundries gehen möchte.
Man kann nicht wie damals von Foundry A auf B portieren. Da sind eigene Design, NDAs etc enthalten. Aktuell ist AMD bei TSMC ein exklusiver Partner wie Apple und bekommt dadurch auch gewisse Deals die andere nicht bekommen. Z.b. QCOM oder Nvidia(jetzt auch wieder exkl. TSMC Kunde).
Bei dem AMD Mendocino Nachfolger (SS 4NM) wird man eventuell aus Kostengründen auf Samsung gehen. Gerade so das man weiterhin die Exklusiven TSMC Partnerschaft behält.
Nvidia bekommt custom nodes (Anpassungen die Nvidia wünscht) also seh ich da keine Nachteile für Nvidia. TSMC wäre auch schön blöd manche Firmen zu benachteiligen, wenn das die Runde macht dann gute Nacht.
HarryHirsch
2024-04-02, 19:02:51
Nvidia bekommt custom nodes (Anpassungen die Nvidia wünscht) also seh ich da keine Nachteile für Nvidia. TSMC wäre auch schön blöd manche Firmen zu benachteiligen, wenn das die Runde macht dann gute Nacht.
bekommt nv ihren custom kram einfach so oder kostet das extra?
was wäre denn eine alternative zu tsmc?
Was wenn man N31 nach RDNA 3.5 shiftet. Also ein N31 done right? In 4nm/6nm sollte der Die doch etwas kleiner ausfallen und man kommt dann auf die gewollten <3.5g und liegt dann ohne RT im Bereich einer 4090 +/-? Das Ganze bei 400W... Wäre doch eine Möglichkeit, imo...
BavarianRealist
2024-04-02, 19:24:50
Wenn man bedenkt, dass Navi48 zwar in der Raster-Leistung etwas unterhalb von Navi31 liegt, aber dafür weit höhere RT-Leistung und bessere Effizienz liefern dürfte, bezweifle ich sehr, dass Navi-31 noch weiter produziert wird. Vielmehr glaube ich, dass AMD Navi-31 beeits weitgehend eingestellt haben dürfte, weil N5/N4 jetzt viel wertvoller für Anderes eingesetzt werden kann.
Die jetzt noch ausgelieferten Navi31 düften aus dem Lager kommen; ich denke, AMD hat rechtzeitig genug N5/N4-Wafer bestellt und den "Überschuss" davon, solange CDNA3 nicht in Massenproduktion ging bzw. man nicht alles für Zen4 brauchte auf andere N4/N5-Produkte verteilt haben, eben auf Navi-31/32 und Phoenix/Hawk-Point. Die Tatsache, dass man Phoenix/Hawk-Point in keinster Weise aggressiv in den Markt gibt, ist für mich ein Anhaltspunkt dafür, dass man bereits jetzt die meisten N4/N5-Wafer lieber anders verwendet: für CDNA3 und Zen4 bzw. in vermutlich bereits für Zen5.
Erste Benchmarks zu Strix Point dürften Aufschlüsse geben. N48 wird im Raster zwischen N32/GRE und bei RT zwischen 7900xt und xtx liegen. Der Preis maybe 529€! Das ganze verpackt bei 190w und gut. Mehr isses nicht.
dargo
2024-04-02, 20:04:39
N48 wird im Raster zwischen N32/GRE und bei RT zwischen 7900xt und xtx liegen.
Wurde schon mehrmals gesagt, dass das keinen Sinn mit 64CUs und >3Ghz ergibt. Ein N32 taktet mit lächerlichen ~2,4GHz im Schnitt, das ist N21 Niveau.
Das ganze verpackt bei 190w und gut.
Auch das ergibt überhaupt keinen Sinn. Warum sollte AMD bei nur 190W aufhören wenn sie die SKU höher takten können wo du wiederum mehr Geld für verlangen kannst weil mehr Performance? Bissel mehr logisch denken bitte. Ich würde schon von ca. 225-250W ausgehen. Eventuell sogar ca. 275W wenn AMD aus der SKU sehr viel Frequenz rausholen kann. Mit sehr viel meine ich >3,3Ghz.
Edit:
Mal ein ganz simples Rechenbeispiel... erkläre mir bitte warum AMD diese SKU mit 190W für 529€ bringen sollte wenn sie bei 250W 599€ verlangen könnten?
vinacis_vivids
2024-04-02, 20:20:05
MBA und Custom OC Modelle lösen das Problem.
mboeller
2024-04-02, 20:21:17
Erste Benchmarks zu Strix Point dürften Aufschlüsse geben. N48 wird im Raster zwischen N32/GRE und bei RT zwischen 7900xt und xtx liegen. Der Preis maybe 529€! Das ganze verpackt bei 190w und gut. Mehr isses nicht.
im anandtech Forum gibt es gerade "Infos" von Xino, dass Strix Point mit 12 von 16 CU + 22-24w in "TS" 3150 erreicht, also so ca. 30% schneller ist als der Vorgänger.
leider kann man nicht direkt nachschauen, da "Xino" seine Threads nicht öffentlich zugänglich macht.
https://forums.anandtech.com/threads/zen-5-discussion-epyc-turin-and-strix-point-granite-ridge-ryzen-8000.2607350/page-336#post-41184262
dargo
2024-04-02, 20:26:30
MBA und Custom OC Modelle lösen das Problem.
Nein, sie lösen das Problem nicht. Denn jeder SKU (egal ob MBA oder OC-Custom) bringt die gleiche Marge für AMD. Nur weil du irgendein OC-Modell für mehr Asche kaufst... davon hat AMD nichts.
Lt RGT soll N48 nur 237mm² haben. Das ist etwas sehr klein für 64CUs mMn. Langsam werden die Infos auch etwas konkreter.
basix
2024-04-02, 21:42:32
287mm2 könnte ich noch glauben. Und selbst das wäre sehr kompakt.
basix
2024-04-02, 22:01:16
Wird es nicht sein. Soll ja alles monolithisch sein...
HarryHirsch
2024-04-02, 22:07:31
gibt es immer noch keinen interconnect krams für gpus?
ich hab nach all der zeit mehr erwartet
Der_Korken
2024-04-02, 22:56:04
gibt es immer noch keinen interconnect krams für gpus?
ich hab nach all der zeit mehr erwartet
Klar, wird von N31 und N32 verwendet, aber ist wohl so teuer oder verknappt, dass AMD wieder zu monolithisch umschwenkt.
Und ja, 237mm² passen nicht zu den bisherigen Specs. Entweder sind es keine 64 CUs oder keine 256bit SI oder deutlich unter 3Ghz Takt oder nicht monolithisch.
reaperrr
2024-04-02, 23:03:11
Und ja, 237mm² passen nicht zu den bisherigen Specs. Entweder sind es keine 64 CUs oder keine 256bit SI oder deutlich unter 3Ghz Takt oder nicht monolithisch.
Ich hab es schon zuvor gesagt:
Entweder RGT (kleiner Chip, aber auch nur ~79GRE-Raster-Perf) oder MLID (zw. 300 und 350mm², Raster-Perf >79XT) liegt diesmal komplett daneben.
Am Ende reden sie vielleicht auch von unterschiedlichen Chips... (RGT von N44, MLID von N48, oder sowas...).
Twitter-Leaker bestätigen in Sachen N48-Perf bisher aber eher MLID.
basix
2024-04-03, 09:18:43
~7900XT Performance oder leicht mehr hören sich einfach sehr realistisch an, wenn man 64 CU mit knapp über 3 GHz als Erwartung hat.
Die sehr weit auseinandergehenden Die Sizes finde ich noch lustig. Wer hat wohl von wem die falschen Infos zugesteckt bekommen? :D ~300mm2 für N48 schätze ich als sehr realistisch ein. Die RGT Angabe von N23 > N48 > N33 finde ich sehr, sehr sportlich. Aber ich habe es mir nochmals durch den Kopf gehen lassen und prinzipiell gäbe es eine ganz kleine Chance, dass man das erreichen könnte. N4 mit etwas mehr Density, GDDR6-SI toppt bei z.B. 18Gbps und ist dafür auf Density ausgelegt (kleinere PHY), Optimierungen am Infinity Cache (Cache Blöcke zusammenlegen), dazu noch Zen 4c mässige Optimierungen an den Caches (Register, L0-L2 sowie L3) und dem Logik-Placement. Dann wäre es theoretisch denkbar, dass man bei 220...230mm2 rauskommt. Aber das wäre ein wenn, wenn, wenn Best Case Resultat. Als Basis für diese Überlegung habe ich N32 genommen, wo man mit 200mm2 und 60CU daherkommt. Ich kam auf eine notwendige Density Steigerung von ~30...40% für Shader Engines, Register & L0...L2 etc. und ca. 25% bei Infinity Cache und GDDR6-SI. N4 zusammen mit obigen Design-Optimierungen (wenn überhaupt möglich, mir unbekannt) besteht eine haardünne Chance für so ein kompaktes Die. Ich glaube ehrlich gesagt nicht daran. Aber wenn AMD das hinkriegen sollte: Chapeau.
Dass N44 bei N23 > N44 > N33 landet ist mMn auch wahrscheinlicher. Dann aber wohl eher näher bei N33. Und N48 dann auch eher >300mm2.
Edit:
Apropos kleine Die Size, 256bit SI und kleineren PHY. Ein schönes Beispiel ist der altehrwürdige Pitcarin mit GDDR5. Der hatte 256bit bei 212mm2 und viel kleinere PHY als Tahiti. Navi 10 bei 251mm2 hatte GDDR6 und ebenfalls 256bit. Nvidias Chips haben typischerweise auch kompaktere PHY als die von AMD. Ist also vermutlich nicht unmöglich, 256bit bei einem so kleinen Chip zu verbauen. Aber wie gesagt: Wäre sehr, sehr sportlich das ganze.
https://www.3dcenter.org/news/amd-veroeffentlicht-bessere-die-shots-von-southern-islands
reaperrr
2024-04-03, 11:05:46
~7900XT Performance oder leicht mehr hören sich einfach sehr realistisch an, wenn man 64 CU mit knapp über 3 GHz als Erwartung hat.
Die sehr weit auseinandergehenden Die Sizes finde ich noch lustig. Wer hat wohl von wem die falschen Infos zugesteckt bekommen? :D ~300mm2 für N48 schätze ich als sehr realistisch ein. Die RGT Angabe von N23 > N44 > N33 finde ich sehr, sehr sportlich. Aber ich habe es mir nochmals durch den Kopf gehen lassen und prinzipiell gäbe es eine ganz kleine Chance, dass man das erreichen könnte. N4 mit etwas mehr Density, GDDR6-SI toppt bei z.B. 18Gbps und ist dafür auf Density ausgelegt (kleinere PHY), Optimierungen am Infinity Cache (Cache Blöcke zusammenlegen), dazu noch Zen 4c mässige Optimierungen an den Caches (Register, L0-L2 sowie L3) und dem Logik-Placement. Dann wäre es theoretisch denkbar, dass man bei 220...230mm2 rauskommt. Aber das wäre ein wenn, wenn, wenn Best Case Resultat. Als Basis für diese Überlegung habe ich N32 genommen, wo man mit 200mm2 und 60CU daherkommt. Ich kam auf eine notwendige Density Steigerung von ~30...40% für Shader Engines, Register & L0...L2 etc. und ca. 25% bei Infinity Cache und GDDR6-SI. N4 zusammen mit obigen Design-Optimierungen (wenn überhaupt möglich, mir unbekannt) besteht eine haardünne Chance für so ein kompaktes Die. Ich glaube ehrlich gesagt nicht daran. Aber wenn AMD das hinkriegen sollte: Chapeau.
Dass N44 bei N23 > N44 > N33 landet ist mMn auch wahrscheinlicher. Dann aber wohl eher näher bei N33. Und N48 dann auch eher >300mm2.
Edit:
Apropos kleine Die Size, 256bit SI und kleineren PHY. Ein schönes Beispiel ist der altehrwürdige Pitcarin mit GDDR5. Der hatte 256bit bei 212mm2 und viel kleinere PHY als Tahiti. Navi 10 bei 251mm2 hatte GDDR6 und ebenfalls 256bit. Nvidias Chips haben typischerweise auch kompaktere PHY als die von AMD. Ist also vermutlich nicht unmöglich, 256bit bei einem so kleinen Chip zu verbauen. Aber wie gesagt: Wäre sehr, sehr sportlich das ganze.
https://www.3dcenter.org/news/amd-veroeffentlicht-bessere-die-shots-von-southern-islands
Unmöglich ist es grundsätzlich nicht, das stimmt.
Bei N5 hatte TSMC auch u.a. explizit damit geworben, dass auch die Transistordichte von analogen Transistoren mal wieder etwas gestiegen ist (bis zu ~20%), und N5/4 sind auch - N3B mal ausgeklammert - der fürs erste letzte Prozess mit nennenswerten Density-Steigerungen beim SRAM.
Wenn die SI-PHYs nicht viel größer als die IF-Interfaces von N32 sind und AMD die Mainstream-RDNA4 vllt. stärker auf Packdichte getrimmt hat, analog zu N33 bei RDNA3, wer weiß.
Andererseits, ein paar Transistoren sollten die zusätzlichen RT- und KI-Verbesserungen schon kosten, und N48 hat immerhin 4 statt 3 ShaderEngines und immerhin 4 zusätzliche CUs, und natürlich werden die 64 MB IF$ jetzt nicht nur 20mm² belegen.
Eine Möglichkeit wäre, dass man an anderen Stellen Transistoren und Fläche gespart hat, z.B. nur noch 16 ROPs je SE für 64 insgesamt, das wären 32 weniger als N32, oder zurück auf die 128KB-Register von N33 gegangen ist (und Dual-Issue auf anderem Weg verbessert hat) sowie weniger Masse-Transistoren als bei N32 verbaut hat und die höheren Taktraten durch Pipeline-Optimierungen erreicht.
Trotzdem klingen die ~300+ mm² für mich aktuell glaubwürdiger, denn dass sie plötzlich Nvidia in Sachen Perf/mm² so deutlich schlagen, wäre trotz RDNA2 zuvor schon eine Überraschung.
Der_Korken
2024-04-03, 12:49:45
Trotzdem klingen die ~300+ mm² für mich aktuell glaubwürdiger, denn dass sie plötzlich Nvidia in Sachen Perf/mm² so deutlich schlagen, wäre trotz RDNA2 zuvor schon eine Überraschung.
Nicht nur bei Perf/mm², sondern auch bei Perf/W. N10 war mit 180W GPU-Verbrauch (und 220W gesamt) schon ein ziemlich Hitzkopf. Mehr als 250W sehe ich auf so einem kleinen Chip nicht und wäre für 4070TiS-Leistung +0-10% schon extrem stark. Man darf ja nicht vergessen, dass das Teil >3Ghz takten soll, d.h. tendenziell über dem Sweetspot, während N31/N32 ihre jetzige Effizienz nur durch ihren extrem niedrigen Arbeitspunkt erkauft haben.
Nakai
2024-04-03, 12:59:35
~7900XT Performance oder leicht mehr hören sich einfach sehr realistisch an, wenn man 64 CU mit knapp über 3 GHz als Erwartung hat.
Die sehr weit auseinandergehenden Die Sizes finde ich noch lustig. Wer hat wohl von wem die falschen Infos zugesteckt bekommen? :D ~300mm2 für N48 schätze ich als sehr realistisch ein. Die RGT Angabe von N23 > N48 > N33 finde ich sehr, sehr sportlich. Aber ich habe es mir nochmals durch den Kopf gehen lassen und prinzipiell gäbe es eine ganz kleine Chance, dass man das erreichen könnte. N4 mit etwas mehr Density, GDDR6-SI toppt bei z.B. 18Gbps und ist dafür auf Density ausgelegt (kleinere PHY), Optimierungen am Infinity Cache (Cache Blöcke zusammenlegen), dazu noch Zen 4c mässige Optimierungen an den Caches (Register, L0-L2 sowie L3) und dem Logik-Placement. Dann wäre es theoretisch denkbar, dass man bei 220...230mm2 rauskommt. Aber das wäre ein wenn, wenn, wenn Best Case Resultat. Als Basis für diese Überlegung habe ich N32 genommen, wo man mit 200mm2 und 60CU daherkommt. Ich kam auf eine notwendige Density Steigerung von ~30...40% für Shader Engines, Register & L0...L2 etc. und ca. 25% bei Infinity Cache und GDDR6-SI. N4 zusammen mit obigen Design-Optimierungen (wenn überhaupt möglich, mir unbekannt) besteht eine haardünne Chance für so ein kompaktes Die. Ich glaube ehrlich gesagt nicht daran. Aber wenn AMD das hinkriegen sollte: Chapeau.
Dass N44 bei N23 > N44 > N33 landet ist mMn auch wahrscheinlicher. Dann aber wohl eher näher bei N33. Und N48 dann auch eher >300mm2.
Edit:
Apropos kleine Die Size, 256bit SI und kleineren PHY. Ein schönes Beispiel ist der altehrwürdige Pitcarin mit GDDR5. Der hatte 256bit bei 212mm2 und viel kleinere PHY als Tahiti. Navi 10 bei 251mm2 hatte GDDR6 und ebenfalls 256bit. Nvidias Chips haben typischerweise auch kompaktere PHY als die von AMD. Ist also vermutlich nicht unmöglich, 256bit bei einem so kleinen Chip zu verbauen. Aber wie gesagt: Wäre sehr, sehr sportlich das ganze.
https://www.3dcenter.org/news/amd-veroeffentlicht-bessere-die-shots-von-southern-islands
Rechnet doch erstmal die ganzen MCM-Interconnects raus. Das sind bei 12 PHYs bei N31 und 8 bei N32.
Wenn man wirklich pro-AMD so eine Milchmädchenrechnung machen möchte, dann kommt man schon mit biegen und brechen auf N31 raus.
N31 hat 48 WGPs und N44 soll eben 32 haben.
Ergo muss man kombiniert 50% drauflegen pro WGP, damit man Performance-Gleichstand bei der Rohleistung hätte. Ist das schaffbar? Prinzipiell schon, aber ich sehe keine gravierenden architekturellen Veränderungen, welche das erreichen könnten. Ja, vielleicht schafft man bei RT eben höhere prozentuelle Gewinne von der Effizienz, beim Rastern sehe ich da nicht viel.
Und dann haben wir noch das Problem mit dem Flaschenhals der Speicherbandbreite.
Wahrscheinlich hat ein Leaker irgendwelche netten Folien gesehen, wo drinsteht, dass IPC pro Takt unter bestimmten Bedingungen bei 20% ansteigt.
Bei Raster, einfach Anzahl WGPs nehmen und mit Takt multiplizieren (N32+X).
Bei Raytracing, nochmal einen Faktor reinmultiplizieren (~N31 Level).
Gleiches gilt für N48 im Bezug auf N32.
dargo
2024-04-03, 13:05:26
Man darf ja nicht vergessen, dass das Teil >3Ghz takten soll, d.h. tendenziell über dem Sweetspot, während N31/N32 ihre jetzige Effizienz nur durch ihren extrem niedrigen Arbeitspunkt erkauft haben.
Dieser Vergleich macht überhaupt keinen Sinn. Erstens weißt du nicht wo die Taktgrenze von N48 liegt. Wenn die bei bsw. 3,6Ghz liegt explodiert der Stromverbrauch noch nicht so sehr bei "nur" 3Ghz (vorausgesetzt natürlich das Ding arbeitet in der V/F-Kurve ähnlich wie RDNA2 und nicht wie der misslungene RDNA3). Zweitens lasst endlich diese schwachsinnigen Vergleiche mit RDNA3. Jeder weiß, dass das Ding viel zu durstig geworden ist. Wäre RDNA3 nicht so durstig geworden hätte N32 auch schon mit um die 3Ghz takten können.
Der_Korken
2024-04-03, 13:20:32
Dieser Vergleich macht überhaupt keinen Sinn. Erstens weißt du nicht wo die Taktgrenze von N48 liegt. Wenn die bei bsw. 3,6Ghz liegt explodiert der Stromverbrauch noch nicht so sehr bei "nur" 3Ghz (vorausgesetzt natürlich das Ding arbeitet in der V/F-Kurve ähnlich wie RDNA2 und nicht wie der misslungene RDNA3). Zweitens lasst endlich diese schwachsinnigen Vergleiche mit RDNA3. Jeder weiß, dass das Ding viel zu durstig geworden ist. Wäre RDNA3 nicht so durstig geworden hätte N32 auch schon mit um die 3Ghz takten können.
Ich bin mir der Problematik von RDNA3 bewusst, ich predige die schon seit über einem Jahr. Laut Leaks soll N48 irgendwo um die 3,1-3,3Ghz takten und da dürfte auch ohne Verbrauchsprobleme bei den jetzigen RDNA3-Chips die f/V-Kurve ziemlich steil werden. Ich halte es für unwahrscheinlich, dass RDNA4 im (mehr oder weniger) gleichen Prozess und ohne Einsatz zusätzlicher Transistoren taktmäßig nochmal stark auf RDNA3 drauflegt. Und genau darum geht es gerade: Um sich die 237mm² für so einen Chip irgendwie realistisch zu rechnen, muss man massiv dichter packen, was Taktbarkeit kostet statt neue einzubringen. Bei 300-350mm² wäre das mit der Taktbarkeit was ganz anderes.
][immy
2024-04-03, 13:32:25
Dieser Vergleich macht überhaupt keinen Sinn. Erstens weißt du nicht wo die Taktgrenze von N48 liegt. Wenn die bei bsw. 3,6Ghz liegt explodiert der Stromverbrauch noch nicht so sehr bei "nur" 3Ghz (vorausgesetzt natürlich das Ding arbeitet in der V/F-Kurve ähnlich wie RDNA2 und nicht wie der misslungene RDNA3). Zweitens lasst endlich diese schwachsinnigen Vergleiche mit RDNA3. Jeder weiß, dass das Ding viel zu durstig geworden ist. Wäre RDNA3 nicht so durstig geworden hätte N32 auch schon mit um die 3Ghz takten können.
Du vergisst aber das GPUs selten an ihrem sweet Spot getaktet werden, sondern meist so hoch gehen wie es der Chip schafft. Also man kann davon ausgehen das der saufen wird, besonders wenn AMD extra keinen größeren Chip bringt. Da wird man beim Verbrauch dann wohl schon an die normalen Grenzen stoßen.
Die letzten Jahre ist eigentlich kein AMD Chip so gut gewesen wie die Gerüchte ihn gerne gesehen hätten, daher gehe ich auch bei diesem Chip davon aus daß er maximal rx7900xt erreichen kann bei günstigerer Produktion. beim RT dann vielleicht schneller aber das war es dann auch schon. Wundert erwarte ich da keine.
Aber gut möglich das man die theoretischen Flops durch dual issue nun besser verwenden kann und dadurch an Effizienz deutlich zulegt. Aber so Recht glauben kann ich das nach bisheriger Datenlage nicht.
Exxtreme
2024-04-03, 13:54:23
Also ich gehe davon aus, dass N48 ein Nebenprodukt der PS5 Pro wird. Und ich würde da ehrlich gesagt keine Wunder erwarten. Sprich, 7900 GRE-Leistung und bei RT geht es womöglich in Richtung RTX 4070 Ti. Wenn man das zu einem vernünftigen Preis bekommt dann sehe ich da keine Probleme. Ich glaube, schneller sein als Battlemage wird da die allerhöchste Priorität haben.
vinacis_vivids
2024-04-03, 14:09:12
Hauptsache RDNA4 ist in UE5 schneller als die lahme 4080. So Level 4090 und darüber kann ich mir sehr sehr gut vorstellen.
reaperrr
2024-04-03, 14:37:11
Also ich gehe davon aus, dass N48 ein Nebenprodukt der PS5 Pro wird. Und ich würde da ehrlich gesagt keine Wunder erwarten. Sprich, 7900 GRE-Leistung und bei RT geht es womöglich in Richtung RTX 4070 Ti. Wenn man das zu einem vernünftigen Preis bekommt dann sehe ich da keine Probleme. Ich glaube, schneller sein als Battlemage wird da die allerhöchste Priorität haben.
Und ich gehe davon aus, dass die einzige Verbindung darin besteht, dass AMD für Sony ein paar der RDNA4-Verbesserungen - die verbesserte skalare Einheit und das verbesserte Raytracing - von RDNA4 zurückportiert hat, und sonst nichts.
Die PS5Pro-GPU hat nur 2 SE und nur 60 CU im Vollausbau, und bleibt gerüchteweise eventuell sogar bei N6 als Prozess, das ist letztlich ein völlig anderes Design.
Dass N48 mit 1 zusätzlicher SE ggü. N32, 4 zusätzlichen CUs, mindestens leichten IPC-Verbesserungen auch in Raster, immerhin leicht höherem Speicher- und deutlich höheren GPU-Taktraten nur 6% schneller als ne 7800XT werden soll, ist schon ziemlich unwahrscheinlich.
BavarianRealist
2024-04-03, 16:26:13
Vergleicht man Navi23 mit Navi33, so muss ich feststellen, dass ich praktisch keine Vorteile von RDNA3 gegenüber RDNA2 finden kann. Obwohl Navi33 in N6 statt N7 hergestellt ist, gibt es nicht mal Effizienz-Vorteile. Es dürfte also fast egal sein, von welcher Architektur man für eine Weiterentwicklung aus geht:
Zu bedenken gibt es: RDNA2 ist in N7 und N6 (Sony-SoC Oberon) bereits realisiert, zudem in Samsungs Exynos-iGPU für Mobile, d.h. bei RDNA2 dürfte AMD in Bezug auf Effizienz bereits mehr KnowHow haben.
RDNA3 ist zwar in N5, N6 und über Phoenix/Hawk-Point bereits auch in N4 realisiert worden als iGPU umgesetzt worden.
Da die GPU von PS4 auf RDNA2 basiert und man hier anscheinend auch bei N6 bleibt (weil auch Zen2) bzw. keine Kompatibilitäts-Probleme riskieren will, denke ich, dass man hier von RDNA2 aus weiter entwickelt. Hier sehe ich insbesondere eine mögliche Kooperation zwischen AMD und Sony im Bereich der Software: AMDs FSR könnte mit Sonys Knowledge zu PSSR weiter geführt worden sein (reine Sepkulation von mir!).
Gleichzeitig wurde AMDs RDNA2 in Samsungs 4LPP+-Prozess bereits umgesetzt und soll weiter auch als Weiterentwicklung für Exynos-2500 auf Samsungs 3nm-Prozess (https://www.gsmarena.com/rumor_the_exynos_2500_might_use_googles_tpu_for_ai_acceleration-news-62284.php) kommen d.h. auch in diesen Fällen wäre RDNA2 die Ausgangsbasis.
Sollten die kommenden Navi-44/48 ebenfalls auf einem Samsung-Prozess (4LPP+ oder dem neuen 3nm-Prozess) kommen, dann dürfte der Ausgangspunkt für RDNA4 wohl der RDNA2-Ansatz sein. Und sollte tatsächlich gar der neuere 3nm-Prozess von Samsung zum Einsatz kommen, dann wären die von RedGamingTech genannten kleinen Die-Sizes nicht so ganz unrealistisch.
Davon unabhängig dürfte man auf TSMCs N4 aus Phonix nach Strix-Point weiterhin aber auf der dort verwendeten RDNA3-Entwicklung (die AMD neuerdings ja RDNA3+ nennt) weiter aufbauen, sodass diese Weiterentwicklung dann nicht ganz dem RDNA4 entsprechen würden, womit dann auch die Verwirrung mit den unterschiedlichen Bezeichnungen (RDNA3+ bzw. RDNA3.5 und RDNA4) Sinn ergäben.
Exxtreme
2024-04-03, 16:30:48
Dass N48 mit 1 zusätzlicher SE ggü. N32, 4 zusätzlichen CUs, mindestens leichten IPC-Verbesserungen auch in Raster, immerhin leicht höherem Speicher- und deutlich höheren GPU-Taktraten nur 6% schneller als ne 7800XT werden soll, ist schon ziemlich unwahrscheinlich.
Wenn man bedenkt in welchen Auflösungen die Mehrheit so spielt dann macht 7900 GRE-Leistung durchaus Sinn. Mehr Leistung braucht's echt nur in UHD. Nur sind Spieler, die in UHD spielen wiederum eine winzige Minderheit. Und für die setzt man wohl keine neue Grafikkarte auf wenn man schon Navi 31 hat.
Navi 3x hat eine RT-Schwäche. Wenn man die mit Navi 48 beheben kann dann sollte das passen. Vor allem dann wenn das preislich auch noch stimmt.
Achill
2024-04-03, 17:07:57
[..]
Da die GPU von PS4 auf RDNA2 basiert und man hier anscheinend auch bei N6 bleibt (weil auch Zen2) bzw. keine Kompatibilitäts-Probleme riskieren will, denke ich, dass man hier von RDNA2 aus weiter entwickelt. Hier sehe ich insbesondere eine mögliche Kooperation zwischen AMD und Sony im Bereich der Software: AMDs FSR könnte mit Sonys Knowledge zu PSSR weiter geführt worden sein (reine Sepkulation von mir!).
[..]
Ich könnte mir eher Vorstellen, dass es jetzt ausreichende Kapazität bzw. ggf. Überkapazitäten beim N6 Prozess gibt und ein größerer Chip zumindest nicht teurer werden muss als der vergleichsweise kleine Chip der klassischen PS5. Würde mich nicht wundern, wenn Sony eine Kostenerhöhung verhindern / gering halten will.
dargo
2024-04-03, 17:16:06
[immy;13519156']Du vergisst aber das GPUs selten an ihrem sweet Spot getaktet werden, sondern meist so hoch gehen wie es der Chip schafft.
Unsinn... N21 darf mit max. 2,5GHz boosten, hat der als Referenz nie in normalen Gaming-Workloads getan da powerlimitiert. Bei N31 sieht es aus bekannten Gründen noch schlimmer aus... der darf mit fast 3Ghz max. boosten wovon auch er als Referenz weit in mittel bis hoch heizenden Gaming-Workloads entfernt ist.
Die PS5Pro-GPU hat nur 2 SE und nur 60 CU im Vollausbau, und bleibt gerüchteweise eventuell sogar bei N6 als Prozess, das ist letztlich ein völlig anderes Design.
Vergiss bitte dabei nicht, dass eine Konsolen-APU nie als Fullchip released wird um die Ausbeute zu verbessern. Da müsstest du zu viele APUs in den Müll schmeißen. Am Desktop kannst du diese natürlich als Salvage loswerden was bei Konsolen nicht geht. Wenn die PS5-Pro mit 60 CUs kommt hat der Chip sicherlich 64 CUs.
vinacis_vivids
2024-04-03, 17:46:22
Bis auf die zwei RT Spiele CP2077 und AW2 sponsored by Nvidia. Wen interessiert auf ner Konsole überhaupt noch RT ? Kaum jemanden.
Mich verwundert, dass die NV-Jünger ständig versuchen hier zu stänkern und AMD's GPU-Entwicklung in Richtung "billig NV", RTX bla-blub zu herbeizurufen.
Da wird nix passieren, eher wird der RT Code einfach im Treiber aussortiert wie einst Tessellation, Hairworks, Physix usw. per Treiber-Haken.
AMD sieht die Investition in offenes KI-Upscaling per WMMA und Frame-Generation per Asynchronous-Compute als den besseren weg als propiätäre beschränkte RT-Cores und propiätärem KI-Upscaling.
Im HPC wurde NV's Monopol bereits durchbrochen durch CDNA3. Dieser Schlag im "Halo" Bereich fehlt noch im expliziten PC-Gaming Bereich.
Das geht natürlich nicht wie sich die NV-Kids das hier vorstellen, sondern mittels AMD APUs im mobilen Bereich, Handhelds, Konsole und eben auch PC-Gaming.
Ich glaube Su ist einfach nicht so scharf auf den expliziten high-end Gaming GPU-Markt, wo alte Herren schon länger sich hinter Huang gestellt und eingereiht haben.
Dann lieber das sichere Geld bei den kleineren Konsolen-APUs holen statt zuviel Risiko bei der Entwicklung einer riesen MCM-Gaming GPU.
Wäre natürlich für mich trotzdem eine Enttäuschung wenn AMD den GPU-Markt am PC den Alleinunterhalter Huang überlässt mit Blackwell.
Im Prinzip ist Huangs Monolith BW202 einfach zu schlagen per Dual-GCD oder Triple-GCD.
aufkrawall
2024-04-03, 17:54:09
War ja nur schon ohne ein weiteres Compute-Die ein Desaster bei RDNA3, da kann ja gar nichts schiefgehen. :freak:
Linmoum
2024-04-03, 18:00:58
Wen interessiert auf ner Konsole überhaupt noch RT ? Kaum jemanden.Es interessiert augenscheinlich extrem stark Sony, wie man an den Gerüchten zur PS5 Pro sieht. Oder anders gesagt jeden klar denkenden, der die Augen nicht vor der Realität verschließt. Was auch AMD nicht tut.
BlacKi
2024-04-03, 18:27:39
Wir reden bei N48 von einem monolithischen 4nm-Die unter 350mm², nur 16GB RAM und günstigerem PCB+Kühler auf der einen Seite, vs. ~300mm² N5-GCD, 6x37mm² N6-MCDs, 50% mehr VRAM-Chips, teureres PCB+Kühlung sowie sicher nicht ganz billiges transportieren der Chiplets zur Assembly und die Assembly selbst.
Noch nicht berücksichtigt ist dabei, dass jegliche N31-Salvage das eigentliche Problem darstellen: mach sie zu billig, und sie kannibalisieren N48 bei viel schlechterer Marge (oder Verlust). Zu teuer, und du wirst sie nicht mehr los.
also richtig geil klingt das jetzt aber nicht. lediglich der stromverbrauch ist halt niedriger. von den kosten her, kann man hier mit mehr vram die karten auch teurer verkaufen. das wäre auch wahrscheinlich. und bei n48 vs n31 stehen 350mm² n4p vs (304mm² 5nm + 225mm² 7nm) gegenüber. klar sehen das auf den ersten blick 529mm² deutlich teurer aus als 350mm², aber könnten die 7nm tiles nicht erheblich günstiger sein, sodass der vorteil nur noch knapp gegeben ist? bleibt lediglich das teurere packaging. und +8gb vram sind auch kaum teurer. mag sein das prozentual die marge bei n48 besser sein wird, aber wenn n31 70-100€ teurer bleibt, dann geht n31 nirgendwo hin. und hart beschnittene karten werden halt unattraktiver, aber bei langjähriger fertigung fallen doch angeblich immer weniger schlechte DIEs an.
ich glaub, man will 24gb karten im portfolio halten.
dargo
2024-04-03, 18:30:10
Es interessiert augenscheinlich extrem stark Sony, wie man an den Gerüchten zur PS5 Pro sieht. Oder anders gesagt jeden klar denkenden, der die Augen nicht vor der Realität verschließt.
Sind auch nur 6 Jahre nach Turing + Lebenszeit von ca. 3-4 Jahren der PS5-Pro. ;D Im übrigen kann die PS5 auch RT.
bbott
2024-04-04, 00:32:19
Es interessiert augenscheinlich extrem stark Sony, wie man an den Gerüchten zur PS5 Pro sieht. Oder anders gesagt jeden klar denkenden, der die Augen nicht vor der Realität verschließt. Was auch AMD nicht tut.
Das bedeutet in etwa (2-)4 Jahren wird RT vielleicht wirklich relevant. Die erste echt RT Konsole wird wohl die PS6.
Neue Spiele werden immer unwichtiger und unbedeutender für die breite Masse:
Analyse: 6 Jahre alte Spiele beliebter als neue (https://www.pcgameshardware.de/Spiele-Thema-239104/News/Analyse-Es-werden-mehr-ueber-6-Jahre-alte-Spiele-gezockt-als-neue-1444424/)
Die Entwicklungskosten werden wohl auf immer weniger Schultern verteilt, das Risiko stiegt weiter und weiter.
dargo
2024-04-04, 06:42:49
Das bedeutet in etwa (2-)4 Jahren wird RT vielleicht wirklich relevant. Die erste echt RT Konsole wird wohl die PS6.
Wenn du eine PS6 als Maßstab nehmen möchtest kannst du nochmal paar Jahre drauf rechnen denn mit Erscheinen einer neuen Konsole (und damit meine ich nicht die kleinen Refreshes @Pro) bekommt der PC eh nur Ports der Vorgänger-Konsolen ab. Was auch völlig normal ist. Mit einer neuen Konsole steigen die Hardwareanforderungen auf einen Schlag erheblich an und so schnell rüstet der Mainstream am PC nicht auf, es braucht immer eine gewisse Übergangszeit. Die DEVs sind ja nicht doof, die schauen sich immer an was der Mainstream so im Rechner hat um entsprechenden Absatz bei den Stückzahlen generieren zu können und entsprechend portiert man auf diese Hardware. Und da richtet man sich nach dem Mainstream und nicht nach 1.500+€ Grafikkarten wie es gerne so manche Träumer im 3DC hätten.
The_Invisible
2024-04-04, 06:56:16
Es interessiert augenscheinlich extrem stark Sony, wie man an den Gerüchten zur PS5 Pro sieht. Oder anders gesagt jeden klar denkenden, der die Augen nicht vor der Realität verschließt. Was auch AMD nicht tut.
Die ganze Industrie will RT + AI aber manche Forenexperten hier halt nicht, auch nix Neues. Und dann noch Turing schlechtreden wollen obwohl die in Vorschuss damit gegangen sind. Aber gut das Sony hier Druck macht, kann AMD davon ja nur profitieren.
dargo
2024-04-04, 07:02:32
Sony macht Druck? ;D Du hast echt keinen blassen Schimmer wie das zwischen Sony und AMD läuft. :lol:
OgrEGT
2024-04-04, 07:44:44
Immer die gleiche schwarz/weiß Diskussion um RT... die Technik hat großes Potential und wird eingesetzt... es gibt gute wie auch schlechte Beispiele in Bezug auf opt. Nutzen vs. Aufwand/Kosten...
Problem heutzutage ist einfach dass sich die Rechenleistung nicht mehr in so großen Sprüngen wie früher zu vertretbaren Kosten steigern lässt und dadurch brauchen so rechenintensive Features wie RT einfach länger bis sie sich in den Mainstream/Konsolen durchsetzen...
dildo4u
2024-04-04, 08:03:47
Bis auf die zwei RT Spiele CP2077 und AW2 sponsored by Nvidia. Wen interessiert auf ner Konsole überhaupt noch RT ? Kaum jemanden.
Mich verwundert, dass die NV-Jünger ständig versuchen hier zu stänkern und AMD's GPU-Entwicklung in Richtung "billig NV", RTX bla-blub zu herbeizurufen.
Der Markt hat doch längst gesprochen oder warum gibt es 7900XT für 700$ Hinweis das entspricht nicht der Raster Performance.
Diese Karten sind viel zu teuer als Konsolen Ersatz die müssen massiv mehr bieten.
basix
2024-04-04, 10:06:23
Immer die gleiche schwarz/weiß Diskussion um RT... die Technik hat großes Potential und wird eingesetzt... es gibt gute wie auch schlechte Beispiele in Bezug auf opt. Nutzen vs. Aufwand/Kosten...
Problem heutzutage ist einfach dass sich die Rechenleistung nicht mehr in so großen Sprüngen wie früher zu vertretbaren Kosten steigern lässt und dadurch brauchen so rechenintensive Features wie RT einfach länger bis sie sich in den Mainstream/Konsolen durchsetzen...
RT ist ein sehr breites Gebiet. Von SW Techniken und Mix mit Raster-Techniken über HW-RT bis Pathtracing. RT ist in diesem Sinne extrem skalierbar. Und mit HW-Acceleration und verschiedenen Flughöhen davon gibt es da noch zusätzlichen Spielraum. Und dann gibte sd da oben drauf noch Temporal Upsampling, Frame Generation und Ray Reconstruction. Vieles davon ist noch relativ jung und auch die SW-Algorithmen verbessern sich stetig (siehe Nvidias Release von RTXGI 2.0 letzte Woche und den 2x Performance Boost bei HW-RT mit dem Release der UE 5.4 im April). Es geht da also sehr viel, nur dauert das wie du richtig sagst etwas länger als früher.
dargo
2024-04-04, 11:41:49
Der Markt hat doch längst gesprochen oder warum gibt es 7900XT für 700$ Hinweis das entspricht nicht der Raster Performance.
Ganz einfach... weil das Ding bereits 1,5 Jahre im Markt ist. Für so einen Zeitraum hat der Preis sogar viel zu wenig nachgegeben.
BavarianRealist
2024-04-04, 11:53:44
Wenn Sonys PS4pro zu Weihnachten auf den Markt kommen soll, muss die Auslieferung der neuen SoCs spätestens in Q2, mehr oder minder in Bälde, beginnen, damit genügend Konsolen lieferbar sind. Das würde heißen, dass das Ding längst in Massenproduktion wäre und letztlich schon rund 6 Monate so gut wie fertig sein müsste.
Nachdem nach den Gerüchen zu PS4pro dort die RT-Leistung stark steigen soll, muss AMD hier schon recht lange dran sein. Es kann sich hier meines Erachtens kaum um eine Weiter-Entwicklung ausgehend von RDNA3 handeln, dafür musste hierfür bereits früher angefangen worden sein. Der Ausgangspunkt hierfür könnte dann eigentlich nur RDNA2 sein, so wie er in PS4 drin ist, zumal Sony die Kompatibiltität zur PS4 sehr wichtig sein dürfte.
Nachdem RDNA3 nicht der Hit ist und AMD nun erstmal kein Highend mehr macht, warum sollte man nicht selbst später entschieden haben, selbst auf diese Entwicklung zurück zu greifen? Vielleicht hat man sich erstmal damit begnügt und daher dann Navi41/42/43 eingestellt? Hinzu käme, dass dann eigentlich auch das PSSR von Sony schnell für AMDs kommende GPUs verfügbar wäre, oder?
][immy
2024-04-04, 12:17:12
Rdna3 reicht da völlig aus als sprung. Schon dadurch daß es ein größerer chip ist, ist das alles gut erklärbar. Und schau mal an wie lächerlich RT auf der PS5 bislang eigentlich umgesetzt ist. Stark eingeschränkte Sichtweite, deutlich reduzierte Details, reduzierte Sichtweite (Rest qubemaps), stark reduzierte Auflösung, Checkerbord Rendering für RT, ... für die paar RT Effekte.
Am PC hätte AMD mit den ganzen Beschränkungen auch eine ordentliche RT Leistung abgeliefert, aber allein die Auflösung für RT lies sich bei den PC ports nicht so weit runter drehen. Es war eher das Talent der Entwickler alles tricks zu nutzen die verfügbar waren um hier etwas abzuliefern was trotzdem gut aussah (wenn man nicht zu genau hingeschaut hat).
Wir werden sehen wo das landet, aber erwartet keine Wunder, das ist immer noch eine Konsole.
BavarianRealist
2024-04-04, 12:33:51
Insgesamt sehe ich AMDs Weg bei GPU ganz gezielt in Richtung Effizienz und auch Density (wichtig für die APUs und günstige Preise!), da es hier den riesigen Markt für eine iGPU in den ganzen SoCs für die Mobile-Phones gibt. Aber eben auch die immer häufiger werdenden Gaming-Handhelds, in die AMDs APUs jetzt immer mehr einziehen, wenn sie entsprechend günstig werden. Dieser Markt ist ungleich größer als das dem gegenüber doch sehr kleine PC-Gamer-Segment.
Wenn AMD mit seiner GPU-Technolgie im Mobile-Phone-Segment Fuß fassen solte, dann eröffnet sich hier die Chance für AMD, die eigene Technologie zu einer Art Standard zu machen. Und um ins Mobile-Segment zu kommen, könnten die Gaming-Handhelds der Schlüssel zum Erfolg sein.
Und zuletzt: werden AMDs GPUs deutlich effizienter als die von Nvidia, dann wird es für AMD ein Leichttes sein, bald auch die diskreten Grakas für Notebooks zu liefern.
The_Invisible
2024-04-04, 12:41:04
Sony macht Druck? ;D Du hast echt keinen blassen Schimmer wie das zwischen Sony und AMD läuft. :lol:
Stimmt bei alleine ~120Mio verkauften PS4s hat Sony natürlich nix zu mitreden :lol: Sei doch froh, dann kannst du auch mit RDNA4 Mal RT genießen
robbitop
2024-04-04, 14:01:35
Stimmt bei alleine ~120Mio verkauften PS4s hat Sony natürlich nix zu mitreden :lol: Sei doch froh, dann kannst du auch mit RDNA4 Mal RT genießen
Ich glaube eher, dass dargo meint, dass Sony und AMD bereits gut zusammenarbeiten und gut abgestimmt sind und Sony nicht unzufrieden ist. Immerhin ist man Wiederholungstäter.
Ich kann mir auch gut vorstellen, dass AMD nicht verschlossen ggü neueren Entwicklungen ist. Dass RDNA3 so aussieht, wie es aussieht kann an vielen anderen Gründen gelegen haben. Muss aber nicht für die Nachfolger gelten.
dargo
2024-04-04, 15:05:06
Stimmt bei alleine ~120Mio verkauften PS4s hat Sony natürlich nix zu mitreden :lol:
Wie ich schon sagte... absolut Null Ahnung.
1. Welchen Druck soll Sony auf AMD ausüben bei den kleinen Margen bei Konsolen?
2. Was wäre für Sony die Alternative? Nvidia? ;D
Sony äußert Wünsche die in Preisbudget X und Powerbudget Y zum Zeitpunkt Z passen. Dann setzt man sich zusammen und einigt sich was machbar ist. Ist nun wirklich kein Voodoo. Von irgendwelchen Druck zu fasseln den Sony auf AMD ausübt ist echt nur noch Comedy pur wieder im 3DC.
woodsdog
2024-04-04, 15:12:28
Wie ich schon sagte... absolut Null Ahnung.
1. Welchen Druck soll Sony auf AMD ausüben bei den kleinen Margen bei Konsolen?
2. Was wäre für Sony die Alternative? Nvidia? ;D
Sony äußert Wünsche die in Preisbudget X und Powerbudget Y zum Zeitpunkt Z passen. Dann setzt man sich zusammen und einigt sich was machbar ist. Ist nun wirklich kein Voodoo. Von irgendwelchen Druck zu fasseln den Sony auf AMD ausübt ist echt nur noch Comedy pur wieder im 3DC.
Und du hast da natürlich Branchen-internen Einblick aka nicht "Null Ahnung" wie es zwischen zwei internationalen IT Konzernen gelaufen ist, im Gegensatz zu dem Rest von uns hier im "Comedy 3DC".
Das wäre für weniger versierte Experten ein ganz schön großes Fenster zum raushängen, danke das du uns das erklärst!
</s>
basix
2024-04-04, 15:50:30
Ich glaube AMD <-> Sony kann man mit "Collaboration" beschreiben. Hat auch Mark Cerny schon so gesagt. Sony kann Wünsche und Vorschläge einbringen oder gar eigene IP einfliessen lassen und AMD schaut, was sie davon umsetzuen können. Und umgekehrt zeigt AMD die eigenen internen Roadmaps und IP-Blöcke und Sony kann entscheiden, was sie davon haben wollen. Man ist dort nicht völlig frei, deswegen "Semi-Custom", aber Anpassungen sind möglich.
Sony kann in dem Sinne Druck aufbauen, dass sie etwas mit höherer Priorisierung wünschen. Das kann bei AMD dann auch zu einer höheren Priorisierung führen oder z.B. dem gerüchteweisen RT-Accelerator Backport von RDNA4. Das ist aber immer partnerschaftlich zu sehen. Sony könnte GigaGPU verlangen und AMD könnte das auch bauen, aber halt mit entsprechendem Budget- und Zeitaufwand den Sony berappen müsste. Oder AMD könnte auch den Auftrag ablehnen, wenn sie die Ressourcen dazu nicht haben.
BavarianRealist
2024-04-04, 16:56:45
Für Sonys PS5-SoCs geht rund die selbe Menge Wafer drauf wie für AMDs gesamte Notebook-APUs. Da kommt es meines Erachtens dann schon ziemlich drauf an, dass man das Silizium gut einsetzt.
AMD liefert das Hardware-Knowhow, hat aber nur eine begrenzte Entwicklungs-Kapazität, sodass man für die Custom-Entwicklungen nicht alles leisten kann, es sei denn, man kann das dafür Entwickelte auch sinnvoll für eigene Produkte nutzen.
Sony investiert dagegen sehr viel Kohle in die Software für diese Konsolen, womit sie letztlich das Geld verdienen, d.h. 100%ige Abwärtskompatibilität ist hier vermutlich Voraussetzung.
Sony dürfte zudem recht gut verstehen, wohin der Gaming-Markt geht, d.h. sie dürften noch besser wissen, was die zukünftigen GPUs können müssen.
Von daher liegt es für mich nahe, dass man sich hier nach solanger Zusammenarbeit regelmäßig zusammen setzt und über die langfristige Strategie gemeinsam nachdenkt. Nachdem AMD bei der Software ein Defizit hat (z.B. FSR) und Sony gleichzeitig seine Vorstellungen gerne maximal umgesetzt haben möchte (d.h. Sony seine Software gerne auch für PCs verkauft), warum dann nicht die Zusammenarbeit vertiefen?
robbitop
2024-04-04, 17:24:36
Haben sie ja mit Checkerboarding und dem ID Buffer (dafür ist HW nötig) ja mit der PS4PRO ja auch schon mal gemacht. Und wenn Sony Matrixleistung haben will -> das hat AMD auch in petto. Matrixcores werden seit Jahren in CDNA verbaut und ansonsten hat man noch XDNA IP.
The_Invisible
2024-04-04, 17:53:53
Ich glaube eher, dass dargo meint, dass Sony und AMD bereits gut zusammenarbeiten und gut abgestimmt sind und Sony nicht unzufrieden ist. Immerhin ist man Wiederholungstäter.
Ich kann mir auch gut vorstellen, dass AMD nicht verschlossen ggü neueren Entwicklungen ist. Dass RDNA3 so aussieht, wie es aussieht kann an vielen anderen Gründen gelegen haben. Muss aber nicht für die Nachfolger gelten.
Wenn für das PS5-Pro Siegel Raytracing Pflicht ist wird Sony eben eine gewisse RT-Performance erwartet haben. Auch Nintendo wird von Nvidia gewisse Features erwarten für ihre Konsole. Ist nichts besonderes das man als Abnehmer nur mal gewisse Vorgaben macht.
Warum dargo immer so durch die Decke geht wenn irgendwo RT vorkommt ist mir schleierhaft...
aufkrawall
2024-04-04, 18:55:59
Dass Sony "Druck macht", hast du dir trotzdem ausgedacht. ;)
Es war halt im Rahmen des Custom SoCs durch die RDNA4-Entwicklung schon möglich, das "zurückzuportieren". Alles andere ist doch pure Spekulation.
Ansonsten wäre ein SoC mit Designs von anderen Herstellern halt ziemlich unsicheres Fahrwasser und man müsste mit mehreren Firmen gleichzeitig arbeiten. Intel-only fällt wegen der miesen Flächeneffizienz raus, und wahrscheinlich ist Intel auch noch immer viel zu unerfahren bei GPUs für solche komplexen Projekte. Als Bittsteller wird AMD da wohl eher nicht auftreten müssen.
fondness
2024-04-04, 19:56:59
Wenn für das PS5-Pro Siegel Raytracing Pflicht ist wird Sony eben eine gewisse RT-Performance erwartet haben.
Sony braucht vor allem verkaufsargumente für die ps5 Pro. RDNA4 wird wohl deutlich mehr RT performance liefern und das nützt Sony natürlich aus um für die ps5 pro zu werben. Würde RDNA4 weiter keine gute RT Performance liefern, dann würde Sony eben mit 8k werben oder was auch immer. So zu tun als würde Sony hier aktiv die Entwicklung bei AMD steuern erscheint mir etwas übertrieben. Was nicht heißt, dass man sich nichts wünschen kann, oder das nicht vielleicht manche Vorschläge einfließen. Umgekehrt könnte man ja genausogut behaupten, dass Raytracing für Sony offenbar nicht so wichtig ist, sonst hätten sie schon bei der ps5 eine höhere Performance "geordert" :-)
AffenJack
2024-04-04, 20:07:45
Dass Sony "Druck macht", hast du dir trotzdem ausgedacht. ;)
Es war halt im Rahmen des Custom SoCs durch die RDNA4-Entwicklung schon möglich, das "zurückzuportieren". Alles andere ist doch pure Spekulation.
Ansonsten wäre ein SoC mit Designs von anderen Herstellern halt ziemlich unsicheres Fahrwasser und man müsste mit mehreren Firmen gleichzeitig arbeiten. Intel-only fällt wegen der miesen Flächeneffizienz raus, und wahrscheinlich ist Intel auch noch immer viel zu unerfahren bei GPUs für solche komplexen Projekte. Als Bittsteller wird AMD da wohl eher nicht auftreten müssen.
Druck muss man nicht unbedingt dadurch machen, dass man abwandern will. Druck kann genauso bedeuten, dass man klar sagt, die Rasterizersteigerung ist so klein, wenn ihr es nicht schafft dann wenigstens in RT ne ordentliche Schippe drauf zu legen, dann lohnt sich für uns keine Pro und ihr verdient genauso wie wir nix dran. Ne PS5Pro die nur die Softwareentwicklung für die Devs erschwert durch eine zusätzliche Hardware bringt Sony einfach nix, wenn es keine nennenswerten Steigerungen gibt.
fondness
2024-04-04, 21:20:06
Druck muss man nicht unbedingt dadurch machen, dass man abwandern will. Druck kann genauso bedeuten, dass man klar sagt, die Rasterizersteigerung ist so klein, wenn ihr es nicht schafft dann wenigstens in RT ne ordentliche Schippe drauf zu legen, dann lohnt sich für uns keine Pro und ihr verdient genauso wie wir nix dran. Ne PS5Pro die nur die Softwareentwicklung für die Devs erschwert durch eine zusätzliche Hardware bringt Sony einfach nix, wenn es keine nennenswerten Steigerungen gibt.
Als ob sich Sony das aussuchen könnte. Alleine schon um von Microsoft nicht abgehängt zu werden und neue Käufer zu triggern braucht Sony eine pro. Zumal sich Sony die Rasterizersteigerung hingegen schon aussuchen kann, also ergibt die Argumentation auch keinen Sinn.
Lurtz
2024-04-04, 21:24:26
Als ob sich Sony das aussuchen könnte. Alleine schon um von Microsoft nicht abgehängt zu werden und neue Käufer zu triggern braucht Sony eine pro. Zumal sich Sony die Rasterizersteigerung hingegen schon aussuchen kann, also ergibt die Argumentation auch keinen Sinn.
Wann hast du zuletzt den Konsolenmarkt betrachtet, zum Start der XBox 360? :ugly:
fondness
2024-04-04, 21:26:39
Wann hast du zuletzt den Konsolenmarkt betrachtet, zum Start der XBox 360? :ugly:
Also jetzt zurück lehnen und warten, bis man überholt wird? Sorry aber so läuft das nicht. Auch Sony kann sich bestimmten Marktdynamiken nicht verschließen. Wenn Microsoft eine Pro liefert und Sony nicht, wirkt sich das mit Sicherheit negativ auf die verkaufszahlen aus.
Linmoum
2024-04-04, 21:41:44
Was soll sich da negativ auswirken? Nintendo hat Gammel-Hardware in der Switch und dominiert den Markt bei den Verkaufszahlen. Sonys Software-/Spieleangebot ist einfach meilenweit dem von Microsoft voraus. Also genau ein entscheidender Punkt, warum auch die Switch so erfolgreich ist.
Am Ende entscheidet nicht AMD, was Sony kriegt. Sondern Sony sagt AMD, was sie wollen/brauchen und bekommt das dann, sofern es möglich ist. Und wenn die PS5 Pro eben den Fokus auf einen massiven Leistungssprung bei RT legt, dann weil Sony das so wollte.
Diese ganze Diskussion ist doch aber sowieso komplett überflüssig, weil AMD nicht wie gewisse 3DCenter-Member ist, und RT nur müde belächelt wird. Das werden manche dann auch mit RDNA4, spätestens aber vermutlich RDNA5 auch merken. Die Umsetzung bei AMD dauert halt nur lange, aber das ist auch der einzige Faktor. Und dass sich schon ein kleine(re)s Mono-Konstrukt mit RDNA4 bei RT von N31 absetzen wird (wenn man dann Single-Die vs. GCD+MCD in Relation setzt), halte ich für relativ sicher. Und das würde deutlich zeigen, wo ebenfalls auch AMD die Zukunft sieht. Nämlich in der Realität und nicht irgendwelchen Fantasien.
fondness
2024-04-05, 12:35:45
Sondern Sony sagt AMD, was sie wollen/brauchen und bekommt das dann, sofern es möglich ist.
Richtig, und möglich ist das, was AMD zur Verfügung hat. ;) Die Diskussion hier ist wieder mal köstlich, die NV-Fans sind der Meinung, Sony bestimmt die Technologie-Roadmap von AMD. ;D Völlig absurd wird das ganze spätestens dann, wenn man berücksichtigt, dass neben Sony natürlich auch Microsoft, Tesla, Valve und andere Semi-Custom-Chips von AMD beziehen. Vermutlich hat AMD gar keine Roadmap mehr sondern die Semi-Custom-Kunden müssen sich zusammen raufen und entscheiden was sie wollen. :crazy:
AffenJack
2024-04-05, 15:37:42
Richtig, und möglich ist das, was AMD zur Verfügung hat. ;) Die Diskussion hier ist wieder mal köstlich, die NV-Fans sind der Meinung, Sony bestimmt die Technologie-Roadmap von AMD. ;D Völlig absurd wird das ganze spätestens dann, wenn man berücksichtigt, dass neben Sony natürlich auch Microsoft, Tesla, Valve und andere Semi-Custom-Chips von AMD beziehen. Vermutlich hat AMD gar keine Roadmap mehr sondern die Semi-Custom-Kunden müssen sich zusammen raufen und entscheiden was sie wollen. :crazy:
Nö, völlig absurd ist deine Ansicht von AMDs Semi Custom Business, dass Sony als größter Kunde von AMD keinen Einfluss auf AMD Entwicklungen hätte. Die Playstation generiert mehr Umsatz als alle anderen GPU Verkäufe und hat dementsprechend natürlich Einfluss auf die Roadmap. Wenn AMD Sony verschiedene Möglichkeiten für zukünftige Entwicklungen vorstellt, dann wird AMD natürlich die Richtung eher realisieren, die für Sony wichtig ist.
Wieso meinst du wohl, dass die gesamte Entwicklung einer neuen Konsole, wie auf der Xbox Roadmap 6-7 Jahre dauert? Wenn man nur von der Stange nehmen würde, was AMD anbietet, dann würde das ganze max 4 Jahre dauern. Aber man spricht von Anfang an, in welche Richtung es gehen soll und bestimmt natürlich Entwicklungen mit.
Das ist genauso, wie der Einfluss von Firmen wie Apple auf TSMCs Nodes. Klar entwickelt am Ende TSMC, aber die großen Kunden haben natürlich in Kooperation einen Einfluss auf gewisse Parameter der Roadmap oder eigene Optimierungen wie 4N bei Nvidia.
/Locutus oB
2024-04-05, 15:43:49
jetzt is es wieder gut... off topic...
mboeller
2024-04-05, 16:25:17
kann das jemand einordnen:
https://twitter.com/All_The_Watts/status/1776244864856051785
4️⃣8️⃣
32
64
256
693
2770
~240 mm²
4️⃣4️⃣
16
32
128
288
515
~130 mm²
die Die-Areas sind "winzig".
32WGP/64CU/256bit + 16WGP/32CU/128bit sind IMHO klar, aber was sollen die Zahlen "693" "2770" und "288" "515"
fondness
2024-04-05, 16:31:10
jetzt is es wieder gut... off topic...
Ja gut ich lass es gut sein, auch wenn ich noch viel zu sagen hätte. :D
kann das jemand einordnen:
https://twitter.com/All_The_Watts/status/1776244864856051785
die Die-Areas sind "winzig".
32WGP/64CU/256bit + 16WGP/32CU/128bit sind IMHO klar, aber was sollen die Zahlen "693" "2770" und "288" "515"
Am ehesten
WPG
CU
SI
Bandbreite
Taktrate
Die-Size
Bei N44 fehlt wohl eine 2 vor der Taktrate.
dargo
2024-04-05, 16:33:54
Nö, völlig absurd ist deine Ansicht von AMDs Semi Custom Business, dass Sony als größter Kunde von AMD keinen Einfluss auf AMD Entwicklungen hätte. Die Playstation generiert mehr Umsatz als alle anderen GPU Verkäufe und hat dementsprechend natürlich Einfluss auf die Roadmap.
Umsatz ist fast wayne wenn die Marge mickrig ausfällt, insbesondere wenn dadurch Wafer blockiert werden wo wesentlich mehr Marge in anderen Bereichen generiert werden kann. Einziger Vorteil bei Sony und Microsoft den AMD hat ist ein großes, gesichertes Volumen über einen langen Zeitraum.
robbitop
2024-04-05, 16:38:04
Also doch keine utopischen 3200-3500 MHz? ^^
dargo
2024-04-05, 16:39:36
Also doch keine utopischen 3200-3500 MHz? ^^
Willst du wieder eine langweilige Diskussion hier starten nur weil jemand bei twitter paar Zahlen raushaut? :freak:
robbitop
2024-04-05, 16:54:47
„Wuff“. Wir werden ja am Ende sehen was raus kommt. ;)
dargo
2024-04-05, 17:00:41
Richtig, ergo Füße still halten bis gesicherte Daten da sind.
robbitop
2024-04-05, 17:01:34
Ist ein freies Land ;)
dargo
2024-04-05, 17:04:32
Dann mach dir mal besser Gedanken wie die angeblichen 693GB/s Bandbreite zustande kommen. Dafür wären nämlich 22Gbps GDDR6 nötig.
robbitop
2024-04-05, 17:08:21
Guter Punkt :) Den gibt’s nicht.
Es sei denn Samsung hat den 24 gbps Varporevare RAM doch möglich gemacht oder noch unwahrscheinlicher: man nutzt gddr6x X-D
Oder gddr7 - aber dann würde man noch höhere Taktraten erwarten.
N32 hat 19.5 gbps - wenn man deutlich mehr Performance sehen will bei gleicher IF$ Größe muss man (sofern es in der Bandbreiteneffizienz keine großen Sprünge gab) auch mehr Bandbreite sehen. Andererseits hat die gre sogar weniger Bandbreite und mehr Performance. Aber aber für ~+30% ggü N32 muss man so oder so was drauf legen an Bandbreite.
Der_Korken
2024-04-05, 17:17:31
Ja gut ich lass es gut sein, auch wenn ich noch viel zu sagen hätte. :D
Am ehesten
WPG
CU
SI
Bandbreite
Taktrate
Die-Size
Bei N44 fehlt wohl eine 2 vor der Taktrate.
Bandbreite kommt hin, das wären 18Gbps für N44 und 21,66Gbps für N48. Aber zweiteres kann kein Takt sein, denn N44 wird wohl kaum mit 515Mhz takten.
robbitop
2024-04-05, 17:23:53
Bandbreite kommt hin, das wären 18Gbps für N44 und 21,66Gbps für N48. Aber zweiteres kann kein Takt sein, denn N44 wird wohl kaum mit 515Mhz takten.
Ggf hat man da eine 2 vergessen.
reaperrr
2024-04-05, 17:25:46
Also doch keine utopischen 3200-3500 MHz? ^^
Utopisch ist an 3200 MHz ganz allgemein erstmal garnix, dafür bräuchte man vermutlich nur eine beliebige RDNA2-GPU auf N4P shrinken, auch wenn es für solche Taktraten wohl relativ gute Kühlung bräuchte wegen Energiedichte.
Ändert nichts daran, dass ich die Zahlen von AtW glaube, weil sie mMn zu spezifisch und schlüssig sind, um aus der Luft gegriffen zu sein.
Klar, theoretisch kann man alles faken, aber AtW ist halt auch nicht irgendwer.
Interessant ist, dass 693GB/s Bandbreite 21,66 Gbps Speichertakt entsprechen würden, also nicht nur 20Gbps.
Bin gespannt, ob's stimmt und wo der Takt herkommt (übertakteter 20Gbps-VRAM? AMD-exklusiver 22Gbps-GDDR6 von Samsung oder Hynix? Die höchste gut yieldende Taktrate, die Samsungs nomineller 24Gbps-RAM hervorbringt?).
Der_Korken
2024-04-05, 17:30:03
Ggf hat man da eine 2 vergessen.
Möglich, aber dennoch ungewöhnlich, dass der große Chip höher taktet. Außer das ist irgendein völlig belangloser Base-Takt der außer in Furmark quasi nie anliegt. Vor allem kommt vom selben Leaker, dass N48 zwischen 7900XT und XTX liegen soll. Mit "nur" 2770Mhz müsste die IPC pro CU ja enorm ansteigen, um das zu schaffen - bei einem angeblich winzigen 240mm²-Chip, der für die jetzigen CUs schon kaum Platz hätte. Um das irgendwie unter einen Hut zu bringen, müssten die Performance-Schätzungen allesamt mit ordentlich RT einhergehen, während die Rasterperformance halt wirklich bestenfalls auf 7900GRE-Level ist.
robbitop
2024-04-05, 17:30:22
@reaperrr
Shrinks allein haben selten deutlich höhere Taktraten erzielt in den letzten Jahren. Zumal 4 nm nur ein constitution Prozess von 5 nm ist und kein full node shrink wie 16->7 oder 7->5. Wenn Navi 4x tatsächlich auf einem Samsung Prozess läuft wäre das auch nicht gerade förderlich da nach bisherigen Track record man TSMC da auch etwas hinterher hängt. Aber auch das ist noch alles offen und nur ein Gerücht.
We will see…
Und ggf hat Samsung den 24 gbps nie serienreif bekommen aber packt ggf 22 gbps mit den chips.
Will man deutlich schneller als N32 werden braucht es auch etwas mehr Bandbreite. Der letzte große Sprung an Bandbreiteneffizienz ist lange her und grundsätzlich nimmt man bei sowas schon das Gesetz des sinkenden Grenzertrags an (low hanging fruits sind abgeerntet) - aber wissen kann man natürlich nie ob es nicht doch irgendeinen Durchbruch gab.
robbitop
2024-04-05, 17:35:31
Möglich, aber dennoch ungewöhnlich, dass der große Chip höher taktet. Außer das ist irgendein völlig belangloser Base-Takt der außer in Furmark quasi nie anliegt. Vor allem kommt vom selben Leaker, dass N48 zwischen 7900XT und XTX liegen soll. Mit "nur" 2770Mhz müsste die IPC pro CU ja enorm ansteigen, um das zu schaffen - bei einem angeblich winzigen 240mm²-Chip, der für die jetzigen CUs schon kaum Platz hätte. Um das irgendwie unter einen Hut zu bringen, müssten die Performance-Schätzungen allesamt mit ordentlich RT einhergehen, während die Rasterperformance halt wirklich bestenfalls auf 7900GRE-Level ist.
Ja das können auch konservative boost oder sogar base clocks sein.
Aber ansonsten taktet die 7900xtx doch in der Praxis auch am höchsten von allen rdna3 skus out of the box. So ungewöhnlich ist das nicht. Ggf will man die kleine SKU auch nicht ganz so hoch prügeln wie die große. Viele Möglichkeiten.
dargo
2024-04-05, 17:47:03
Möglich, aber dennoch ungewöhnlich, dass der große Chip höher taktet.
Da sehe ich nichts Ungewöhnliches. Den max. Boost bestimmt in erster Linie das Powerlimit. Denkbar wäre, dass AMD den Betriebspunkt von N44 etwas konservativer wählt weil die Bandbreite dort eh schon mickig ist und weitere Coretaktsteigerungen einfach verpuffen. Dann wählst du halt ein kleineres Powerlimit und schon boostet das Ding weniger.
Außer das ist irgendein völlig belangloser Base-Takt der außer in Furmark quasi nie anliegt.
Gibt es überhaupt noch einen Baseclock? AMD spricht nur noch von Game-/ und Boost Frequency. Eine RX 7800XT hat eine Game Frequency von 2124Mhz.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7800-xt
AffenJack
2024-04-05, 18:19:36
Die Taktraten passen mit der spekulierten Diesize zusammen. Bei solchen Packdichten kann man große Taktsteigerungen vergessen. So ergibt das erstmal von den Daten ein passendes Bild. Auch den 22gbps Ramtakt finde ich jetzt durchaus möglich, wenn man bei GDDR6 bleibt. Immerhin sind 2 Jahre vergangen seit den 20Gbps von N31 und wir haben Samsungs 24Gbps Anküdigungen.
Ich würde hier jetzt allerdings nicht so viel Leistung erwarten, wie in manchen Spekulationen. Die Bandbreite und der Takt begrenzen die Leistung, N31 Niveau wäre da eher knapp über 79GRE in meinen Augen. Aber das ist auch nicht nötig, denn das wäre dann ein hervorrangendes Design für einen Preisleistungsking und ich würde nicht mehr als 449$ erwarten.
Dann mach dir mal besser Gedanken wie die angeblichen 693GB/s Bandbreite zustande kommen. Dafür wären nämlich 22Gbps GDDR6 nötig.
Vielleicht hat Samsung oder skhynix das ja endlich mal geschafft, diese Speichergeschwindigkeiten bereitzustellen ;D.
Wenn man bedenkt, dass skhynix vollmundig 27GT/s GDDR6 angekündigt hat vor 2 Jahren oder so ist das alles ganz schön peinlich... auch mehr als 16Gb Kapazität hat niemand hinbekommen, obwohl das doppelte spezifiziert ist. GDDR6 wird sicherlich als eher schlechter Standard in die Geschichte eingehen, denn das scheint ja auch technisch schwer beherrschbar zu sein...
robbitop
2024-04-05, 18:34:31
Die Taktraten passen mit der spekulierten Diesize zusammen. Bei solchen Packdichten kann man große Taktsteigerungen vergessen. So ergibt das erstmal von den Daten ein passendes Bild. Auch den 22gbps Ramtakt finde ich jetzt durchaus möglich, wenn man bei GDDR6 bleibt. Immerhin sind 2 Jahre vergangen seit den 20Gbps von N31 und wir haben Samsungs 24Gbps Anküdigungen.
Ich würde hier jetzt allerdings nicht so viel Leistung erwarten, wie in manchen Spekulationen. Die Bandbreite und der Takt begrenzen die Leistung, N31 Niveau wäre da eher knapp über 79GRE in meinen Augen. Aber das ist auch nicht nötig, denn das wäre dann ein hervorrangendes Design für einen Preisleistungsking und ich würde nicht mehr als 449$ erwarten.
Wenn die 680 gb/s stimmen, wäre das immerhin 18% mehr als die GRE. Wenn man davon ausgeht dass die GRE quasi am Bandbreitenlimit ist und es da keine signifikanten Fortschritte gibt, wäre das das Performance-ceiling für N48.
Der Floor wäre ausgehend von den 620 gb/s von N32 dann gerade mal 8% ggü N32. Also könnte das grob das Spektrum von GRE bis + 18% über der GRE sein. Das wäre knapp unterhalb der 7900XT. (alles bei Raster)
Die 22 gbps sehe ich auch so wie du - das kann ggf möglich sein.
mboeller
2024-04-05, 18:37:06
Also doch keine utopischen 3200-3500 MHz? ^^
die komischen Zahlen könnten auch die effektive Bandbreite in GB/sec sein.
Macht zumindest mehr Sinn, als die GPU-MHz. Ansonsten wäre die Performance-Einschätzung von der gleichen Quelle etwas schräg. ~7900XT-Performance mit 32WGP und 2,8GHz wäre doch etwas zu gut, oder?
ach ja die 2. Zahl das soll der IF$ sein, also 64MB für N48 und 32MB für N44.
robbitop
2024-04-05, 18:37:51
die komischen Zahlen könnten auch die effektive Bandbreite in GB/sec sein.
Macht zumindest mehr Sinn, als die GPU-MHz. Ansonsten wäre die Performance-Einschätzung von der gleichen Quelle etwas schräg. ~7900XT-Performance mit 32WGP und 2,8GHz wäre doch etwas zu gut, oder?
2770 gb/s? X-D Da passen MHz eher.
Wenn man die 18% ggü der gre holen will braucht es aber entweder mehr „ipc“ oder tatsächlich bis zu 3200 MHz.
Mit 2770 MHz wäre das eher gre oder knapp mehr als gre niveau (weil Takt besser skaliert als CUs).
dargo
2024-04-05, 18:41:22
2770 gb/s? X-D Da passen MHz eher.
Nö... die effektive Bandbreite von N32 beträgt bereits bis zu 2708GB/s.
BlacKi
2024-04-05, 18:55:04
Gibt es überhaupt noch einen Baseclock? AMD spricht nur noch von Game-/ und Boost Frequency. Eine RX 7800XT hat eine Game Frequency von 2124Mhz.
ob die taktraten für die folien wirklich schon feststehen? glaub eher, dass das zahlen von den testkarten sind. die angabe wird wohl wirklich für den chiptakt stehen, welchen der chiptakte da auch immer ausgelesen wurde. verm. wusste der tester selbst nichtmal welcher takt da ausgespuckt wurde? front end oder shader?
mboeller
2024-04-05, 18:56:41
2770 gb/s? X-D Da passen MHz eher.
Wenn man die 18% ggü der gre holen will braucht es aber entweder mehr „ipc“ oder tatsächlich bis zu 3200 MHz.
Mit 2770 MHz wäre das eher gre oder knapp mehr als gre niveau (weil Takt besser skaliert als CUs).
https://twitter.com/mango_raw/status/1776251550987436344
2770/515 could also be "effective memory bandwidth"
(7800XT = 2708 GB/s, 7600 = 476.9 GB/s)
dann würde bei den 515 auch keine "2" fehlen
BlacKi
2024-04-05, 19:04:20
die zahlen sagen mir nichts. kann das jemand aufklären?
basix
2024-04-05, 19:08:01
Die Taktraten passen mit der spekulierten Diesize zusammen. Bei solchen Packdichten kann man große Taktsteigerungen vergessen. So ergibt das erstmal von den Daten ein passendes Bild.
Habe das selbe gedacht. Packt man extrem dicht, muss man halt bei den Taktraten etwas Federn lassen. Ähnlich wie Zen 4c. Kann aber wie schon erwähnt Game Clock oder Boost Clock sein.
Im Endeffekt ist der Takt aber eigentlich nebensächlich. Die Performance ist entscheidend. Und landet man bei diesen kleinen Die in etwa mittig zwischen 7900XT und XTX, wäre das mMn ein starkes Stück.
die zahlen sagen mir nichts. kann das jemand aufklären?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13520406#post13520406
dargo
2024-04-05, 19:13:38
Im Endeffekt ist der Takt aber eigentlich nebensächlich. Die Performance ist entscheidend. Und landet man bei diesen kleinen Die in etwa mittig zwischen 7900XT und XTX, wäre das mMn ein starkes Stück.
Ähm... nicht zu früh freuen ohne den Verbrauch zu kennen. Zwischen 7900XT und XTX bei 230-250W feiere ich dann mit. ;)
ob die taktraten für die folien wirklich schon feststehen? glaub eher, dass das zahlen von den testkarten sind.
Möglich ist vieles... könnten genauso Frequenzen vom ES sein. Gameclock, effektive Bandbreite oder, oder, oder. ;D
basix
2024-04-05, 19:20:48
Ähm... nicht zu früh freuen ohne den Verbrauch zu kennen. Zwischen 7900XT und XTX bei 230-250W feiere ich dann mit. ;)
300W wird schwierig bei 240mm2 ;)
fondness
2024-04-05, 19:25:51
Btw, bei der PS5 pro werden 60 CUs spekuliert, da sind aber sicher 4 CUs deaktiviert um eine hohe Yieldrate zu erreichen. Würde mich nicht wundern, wenn N48 schlicht Recycling der PS5 pro GPU ist. Das war wohl auch das was am schnellsten ging, nachdem man aufgrund der hohen AI Nachfrage auf die großen 3D stacked GPUs verzichten musste. Und Sony legt natürlich großen Wert auf Flächeneffizienz da bei zb 50 mio Stück natürlich jeder Euro zählt.
robbitop
2024-04-05, 19:40:52
Nö... die effektive Bandbreite von N32 beträgt bereits bis zu 2708GB/s.
Good point. :up: Kann natürlich auch sein. Aber wenn man kaum mehr effektive Bandbreite als N32 hat, limitiert das natürlich etwas das Potenzial sofern man davon ausgeht dass es keine großen Sprünge in der Bandbreiteneffizienz gibt.
robbitop
2024-04-05, 19:46:30
Im Endeffekt ist der Takt aber eigentlich nebensächlich. Die Performance ist entscheidend. Und landet man bei diesen kleinen Die in etwa mittig zwischen 7900XT und XTX, wäre das mMn ein starkes Stück.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13520406#post13520406
Ja aber irgendwoher muss die Performance ja kommen. Takt, Bandbreite und CUs. Es sei denn wir erwarten einen signifikanten Sprung in „IPC“ und/oder BB Effizienz.
BlacKi
2024-04-05, 20:26:29
@basix ich meinte die zahlen zur eff. bandbreite. die zahlen sagen mir nichts und googlen hilft da auch nicht.
Der_Korken
2024-04-05, 21:13:45
@basix ich meinte die zahlen zur eff. bandbreite. die zahlen sagen mir nichts und googlen hilft da auch nicht.
+1
Da ist wahrscheinlich die Cache-Hitrate des IF$ mit eingerechnet, aber wie kommt man da auf einen Faktor 5 Unterschied? 2x durch den Bandbreitenunterschied und dann nochmal 2,5x durch eine bessere Hitrate, wo der IF$ aber nur doppelt so groß ist?
(abgesehen davon, dass die Metrik "effective bandwidth" eh sehr irreführend ist, da der L2 auch shared ist und bereits Zugriffe abfängt)
dargo
2024-04-05, 21:46:29
300W wird schwierig bei 240mm2 ;)
Stimmt auch wieder. Wenn das Ding mit 210W (reale Messung von CB) wie damals die RX 5700XT kommt wäre das echt der Hammer.
mczak
2024-04-05, 21:54:43
die Die-Areas sind "winzig".
In der Tat. Das wären ~20% kleiner als AD107 bzw. AD104 - und N48 damit auch nur wenig (~20%) grösser als der GCD von N32. Klar der Prozess ist etwas dichter gepackt aber die wären dann auf jeden Fall vergleichsweise günstig zu produzieren.
Der_Korken
2024-04-05, 22:49:36
Stimmt auch wieder. Wenn das Ding mit 210W (reale Messung von CB) wie damals die RX 5700XT kommt wäre das echt der Hammer.
250-260W würde man bei der Diesize auch irgendwie hinkriegen: https://www.computerbase.de/2019-09/radeon-rx-5700-xt-custom-test/#abschnitt_lautstaerke_temperatur_und_leistungsaufnahme_im_detail
Nicht dass ich mir das wünschen würde, aber ich gehe bei AMD per default immer erstmal davon aus, dass sie ihre Chips prügeln. RDNA3 ist da aus bekannten Gründen eine Ausnahme.
Ich warte aber immer noch auf den Haken an der Sache: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13518943&postcount=1608
Edit: Was mir an diesem bereits geposteten Leak (https://twitter.com/All_The_Watts/status/1774060521077260557) gerade noch auffällt: 31 mit Pfeil nach unten muss sich nicht zwangsläufig auf die 7900XT beziehen, sondern es könnte auch die 7900GRE gemeint sein. Die große Spanne wäre dann mit RT zu erklären, z.B. weil N48 in Raster langsamer ist als eine 7900XT (aber schneller als eine 7900GRE), in RT aber schneller (aber langsamer als eine 7900XTX).
N32 -> 60 CUs und 3SEs in 200mm² in N5
N48 -> 64 CUs und 4SEs in 237mm² in N4
Die WGPs sind garantiert größer mit mehr Logik und für den Takt wesentlich mehr Transistoren, der 4. SE kostet sicher auch einiges an Fläche, da muss dann noch 64MB Cache rein -> never passt das.
fondness
Kann ja sein mit der PS5 Pro, ist aber keine Erklärung. Die Zen2-CPU ist winzig, es gibt keinen IF$ und der wird in 4nm 300mm²+ haben. Der SoC wird später durch Shrinks günstiger. Die eigentliche GPU kommt dann sicherlich auf ca. 200mm², der Rest ist I/O, CPU, Cache. Und oh Wunder, die 237mm² passen nicht.
reaperrr
2024-04-06, 00:13:06
Btw, bei der PS5 pro werden 60 CUs spekuliert, da sind aber sicher 4 CUs deaktiviert um eine hohe Yieldrate zu erreichen. Würde mich nicht wundern, wenn N48 schlicht Recycling der PS5 pro GPU ist. Das war wohl auch das was am schnellsten ging, nachdem man aufgrund der hohen AI Nachfrage auf die großen 3D stacked GPUs verzichten musste. Und Sony legt natürlich großen Wert auf Flächeneffizienz da bei zb 50 mio Stück natürlich jeder Euro zählt.
Keine, ich wiederhole: Keine der vorherigen Konsolen-iGPUs seit der XBOne/PS4 war identisch zu irgendeinem Desktop-Modell.
Alle wichen mindestens beim Layout und entweder der Frontend-Breite, dem Cache, dem exakten IP-Level oder der CU-Zahl im Vollausbau von der nächst-ähnlichsten Desktop-GPU ab. Ohne Ausnahme.
Die PS5Pro-GPU hat keinen IF$, ist ein Hybrid aus RDNA3+4, hat nur 2 ShaderEngines usw.
Das ist kein N48.
Btw, bei der PS5 pro werden 60 CUs spekuliert, da sind aber sicher 4 CUs deaktiviert um eine hohe Yieldrate zu erreichen.
Richtig, und das wäre bei 4 ShaderEngines/8 ShaderArrays, die ich von N48 erwarten würde, technisch gar nicht möglich, da könnte man nur in 8CU-Schritten deaktivieren.
Sony kann sich schmalere Frontends leisten, weil sie bessere ShaderCompiler und weniger Treiber-/OS-Overhead haben.
Das war wohl auch das was am schnellsten ging, nachdem man aufgrund der hohen AI Nachfrage auf die großen 3D stacked GPUs verzichten musste.
Auf die Chiplet-GPUs hat man hauptsächlich verzichtet, weil man die trotz monatelanger Verzögerungen bis Mitte 2023 noch immer nicht rund laufen hatte und nicht noch mehr Ressourcen in ein Projekt pumpen wollte, dass am Ende wahrscheinlich dann "too little, too late" geworden wäre.
Und N48 muss schon seit mindestens 2-3 Jahren in Entwicklung sein um dieses Jahr rauszukommen, da war vom AI-Hype noch nix zu sehen und lief noch der Mining-Boom.
Und Sony legt natürlich großen Wert auf Flächeneffizienz da bei zb 50 mio Stück natürlich jeder Euro zählt.
AMD auch. Da gibt's oft genug Gerüchte von unzufriedenen Ingenieuren, weil die "Erbsenzähler" in der Führung so extrem auf Performance pro mm² schauen, statt in erster Linie auf Performance um vielleicht mal Nvidia zu schlagen.
Bei N31 hätten die Ingenieure sicher lieber 120 CUs verbaut, statt (vergeblich) auf höhere Taktraten zu schielen.
Auch bei N33 hätten 40 CUs bei etwas weniger Takt wohl nicht geschadet, gerade gegenüber der 4060 Ti.
Die 7900 XTX ist nur ~18% schneller als die 7900XT in 4K, und sogar nur 12-15% in 1440p, je nach Spieleauswahl.
Es sind übrigens gut 20 Prozent in allen Fällen - falls nein, limitiert die Infrastruktur.
MfG
Raff
OgrEGT
2024-04-06, 03:47:10
N32 -> 60 CUs und 3SEs in 200mm² in N5
N48 -> 64 CUs und 4SEs in 237mm² in N4
Die WGPs sind garantiert größer mit mehr Logik und für den Takt wesentlich mehr Transistoren, der 4. SE kostet sicher auch einiges an Fläche, da muss dann noch 64MB Cache rein -> never passt das.
fondness
Kann ja sein mit der PS5 Pro, ist aber keine Erklärung. Die Zen2-CPU ist winzig, es gibt keinen IF$ und der wird in 4nm 300mm²+ haben. Der SoC wird später durch Shrinks günstiger. Die eigentliche GPU kommt dann sicherlich auf ca. 200mm², der Rest ist I/O, CPU, Cache. Und oh Wunder, die 237mm² passen nicht.
Wie sicher ist es denn dass es kein Basedie oder MCDs gibt?
Leonidas
2024-04-06, 05:02:36
Btw, bei der PS5 pro werden 60 CUs spekuliert, da sind aber sicher 4 CUs deaktiviert um eine hohe Yieldrate zu erreichen. Würde mich nicht wundern, wenn N48 schlicht Recycling der PS5 pro GPU ist.
Zweckmäßig wäre es. Aber: Alle Konsolen-SoCs sind Monolithen. N48 als Grafiklösung für die PS5Pro würde das in zwei Chips zerteilen. Erscheint per se als unwahrscheinlich, weil es neue Probleme nach sich zieht.
dildo4u
2024-04-06, 08:01:21
Btw, bei der PS5 pro werden 60 CUs spekuliert, da sind aber sicher 4 CUs deaktiviert um eine hohe Yieldrate zu erreichen. Würde mich nicht wundern, wenn N48 schlicht Recycling der PS5 pro GPU ist. Das war wohl auch das was am schnellsten ging, nachdem man aufgrund der hohen AI Nachfrage auf die großen 3D stacked GPUs verzichten musste. Und Sony legt natürlich großen Wert auf Flächeneffizienz da bei zb 50 mio Stück natürlich jeder Euro zählt.
Du kannst PC Karten nicht mit den Konsolen gleichsetzen Entwickler brauchen die Devkit am besten 1 Jahr vor Release daher die ganzen Gerüchte das Sony RDNA3.5 nutzt und zusätzliche Funktionen selber implementiert.
Wie sicher ist es denn dass es kein Basedie oder MCDs gibt?
Gar nicht sicher. Für mich klingt das auch plausibel. 4 MCDs für N48 und 2 MCDs für N44.
basix
2024-04-06, 10:21:46
Was mich neben den Chip-Daten noch beschäftigt ist die VRAM Konfiguration. Nochmals 8GByte bei einer Mainstream Karte wäre einfach blöd.
Da AMD mit der 7600XT bereits eine relativ günstige Karte mit 16GByte gebracht hat und beim VRAM generell nicht so knausrig wie Nvidia ist, bin ich deswegen vorsichtig optimistisch für N44.
Dann sähe das Lineup in etwa so aus:
Chip|SKU|CU|SI|VRAM|VRAM Speed|PCIe Lanes
N48|8800XT|64CU|256bit|16GB|21.7 Gbps|x16
N48|8700XT|56 CU|256bit|16GB|18 Gbps|x16
N48|8700|48 CU|192bit|12GB|18 Gbps|x16
N44|8600XT|32CU|128bit|16GB|18 Gbps|x8
N44|8600|28 CU|96bit|12GB|18 Gbps|x8
N44|8500XT|24 CU|128bit|8GB|16 Gbps|x8
18Gbps ist so der "günstigste" GDDR6, da alle drei grossen GDDR-Hersteller das im Angebot haben (Hynix, Micron, Samsung). Und auch die PS5 Pro soll auf 18Gbps setzen, genau aus dem selben Grund. Wie auch schon 7700XT und 7600(XT) sowie die RDNA2 xx50XT Refreshes auch 18Gbps verwenden. Damit hätte man auch für RDNA4 das nötige Volumen und den Speicher-Wettbewerb, damit die VRAM-Kosten möglichst tief gehalten werden können. Nur die 8800XT setzt auf schnelleren Speicher. Kann sein, dass die irgendein Performance-Ziel übertreffen soll und das nur mit schnellerem Speicher geht, wie z.B. >7900XT oder 4070TiS als Ziel.
AffenJack
2024-04-06, 11:18:37
Was mich neben den Chip-Daten noch beschäftigt ist die VRAM Konfiguration. Nochmals 8GByte bei einer Mainstream Karte wäre einfach blöd.
Da AMD mit der 7600XT bereits eine relativ günstige Karte mit 16GByte gebracht hat und beim VRAM generell nicht so knausrig wie Nvidia ist, bin ich deswegen vorsichtig optimistisch für N44.
Dann sähe das Lineup in etwa so aus:
Chip|SKU|CU|SI|VRAM|VRAM Speed|PCIe Lanes
N48|8800XT|64CU|256bit|16GB|21.7 Gbps|x16
N48|8700XT|56 CU|256bit|16GB|18 Gbps|x16
N48|8700|48 CU|192bit|12GB|18 Gbps|x16
N44|8600XT|32CU|128bit|16GB|18 Gbps|x8
N44|8600|28 CU|96bit|12GB|18 Gbps|x8
N44|8500XT|24 CU|128bit|8GB|16 Gbps|x8
18Gbps ist so der "günstigste" GDDR6, da alle drei grossen GDDR-Hersteller das im Angebot haben (Hynix, Micron, Samsung). Und auch die PS5 Pro soll auf 18Gbps setzen, genau aus dem selben Grund. Wie auch schon 7700XT und 7600(XT) sowie die RDNA2 xx50XT Refreshes auch 18Gbps verwenden. Damit hätte man auch für RDNA4 das nötige Volumen und den Speicher-Wettbewerb, damit die VRAM-Kosten möglichst tief gehalten werden können. Nur die 8800XT setzt auf schnelleren Speicher. Kann sein, dass die irgendein Performance-Ziel übertreffen soll und das nur mit schnellerem Speicher geht, wie z.B. >7900XT oder 4070TiS als Ziel.
Ne 8600 mit 96Bit würde an der Bandbreite verhungern. Ich seh da das Lineup bei dem Rammengen gleichbleibend zur letzten Gen. 8600XT mit 16GB und drunter gibts dann nur noch 8GB. 96Bit mit Clamshell macht preislich wenig Sinn, weil es die Karten an sich zu teuer macht. Ne 8Gb 8600 kann man deutlich günstiger anbieten und wird in der Leistung mit der vollen Bandbreite auch deutlich höher landen, als mit 96Bit.
Ne 7600 ist immernoch im Preisbereich 280€/270$ und 7600XT 350€/330$. Darunter ist noch ein Haufen Platz, der weder von Nvidia noch AMD bedient wird. Ich würde auf 230$/299$ für die neuen N44 GPUs hoffen. Ich glaube, dass man damit eine Menge Kunden finden könnte, die gerade nix ordentliches kaufen können. Der Bereich wurde ja komplett außen vor gelassen von beiden.
basix
2024-04-06, 11:23:14
Ja, 96bit sind dort vermutlich grenzwertig. Aber wenn die 8GByte voll laufen, was bei modernen Spielen schon öfters mal bei 1080p passiert, ist die GPU-Performance egal. Und auch allfällig günstigere Kosten helfen dann nicht (4GByte kosten ~10$ am Spot Market). 16GByte auf der anderen Seite wären dann wieder Overkill. Lieber etwas an der Bandbreite hungern und dafür -5% Performance in Kauf nehmen, dafür laufen alle Spiele ruckelfrei und hat ggü. 16GByte noch ein wenig Kosten eingespart. Insgesamt der bessere Tradeoff. Mit 96bit bekommst du noch eine zusätzliche Salvage-Stufe des Chips, was die Kosten noch etwas reduzieren sollte. Passt schon.
Ausserdem: Clamshell macht die 7600XT mit 16GByte bei 329$ bereits. Ist suboptimal, sicher, aber nicht ein Deal-Breaker.
Edit:
Ich würde auf 230$/299$ für die neuen N44 GPUs hoffen. Ich glaube, dass man damit eine Menge Kunden finden könnte, die gerade nix ordentliches kaufen können.
Das wären 8600 und 8500XT ;) Die 8600XT wäre wohl ~329$ oder so, also etwa gleich teuer wie eine 7600XT. Eine 8600 könnte bei ~279$ landen, etwa dort wo die RX7600 released wurde. RDNA4 wird eine P/L Steigerung bringen, aber Wunder und sehr niedrige Preise würde ich nicht erwarten. Zumindest nicht bei Release. Wenn Blackwell kommt, könnten die Preise dann noch etwas nach unten rutschen.
Die 8600XT sollte eine 4060 Ti schlagen können. Zusammen mit 16GByte eine gute Karte (wenn auch RT usw. nicht aus dem Rahmen fallen). Auch eine 8600 mit 12GByte und etwas mehr als 4060 Performance wäre eine anständige Karte.
Bei der 8500XT würde ich allenfalls sogar eine 70W Version sehen, ohne PCIe Power Connector. Bei ~200...230$ OK, mit 8GByte muss man aber sicher etwas an den Settings drehen oder man spielt eher etwas ältere Spiele.
Edit 2:
Evtl. ist N44 pinkompatibel mit N33. Dann hätten die Boardpartner die PCBs auch schon ready, also 7600er PCB ohne Clamshell und als 7600XT PCB mit Clamshell ;) Dito bei N48 mit N32.
Ich denke aber es macht Sinn, neue PCBs aufzulegen. Da die Chips anscheinend deutlich kleiner sind und vermutlich auch weniger Saft ziehen, könnte man auch die PCBs kleiner machen und noch mehr optimieren.
robbitop
2024-04-06, 11:53:56
Gibt es bei GDDR6 keine 24gbit (3 gib pro chip statt 2 analog zu den neuen ddr5 modulen) chips? Dann wären auch mehr Speichermengenoptionen drin.
AffenJack
2024-04-06, 11:59:20
Ja, 96bit sind dort vermutlich grenzwertig. Aber wenn die 8GByte voll laufen, was bei modernen Spielen schon öfters mal bei 1080p passiert, ist die GPU-Performance egal. Und auch allfällig günstigere Kosten helfen dann nicht (4GByte kosten ~10$ am Spot Market). 16GByte auf der anderen Seite wären dann wieder Overkill. Lieber etwas an der Bandbreite hungern und dafür -5% Performance in Kauf nehmen, dafür laufen alle Spiele ruckelfrei. Insgesamt der bessere Tradeoff. Mit 96bit bekommst du noch eine zusätzliche Salvage-Stufe des Chips, was die Kosten noch etwas reduzieren sollte. Passt schon.
Ausserdem: Clamshell macht die 7600XT mit 16GByte bei 329$ bereits. Ist suboptimal, sicher, aber nicht ein Deal-Breaker.
Edit:
Das wären 8600 und 8500XT ;) Die 8600XT wäre wohl ~329$ oder so, also etwa gleich teuer wie eine 7600XT. Eine 8600 könnte bei ~279$ landen, etwa dort wo die RX7600 released wurde. RDNA4 wird eine P/L Steigerung bringen, aber Wunder und sehr niedrige Preise würde ich nicht erwarten. Zumindest nicht bei Release. Wenn Blackwell kommt, sollten die Preise dann noch etwas nach unten rutschen.
Die 8600XT sollte eine 4060 Ti schlagen können. Zusammen mit 16GByte eine gute Karte (wenn auch RT usw. nicht aus dem Rahmen fallen).
Ja, wir haben 60$ Unterschied zwischen 8Gb und 16Gb inkl. Clamshell. Mit 96Bit Clamshell und 12 GB hast du vielleicht noch 30$ Unterschied und du hast deutlich mehr Performanceverlust als 5% durch das Interface. Das Ding wird dir niemand kaufen und macht als zusätzliche SKU keinen Sinn. Da lieber eine deutliche Lücke und dafür eine GPU mit 8Gb, die wenn man die Texturqualität ne Stufe runter dreht 10% schneller ist als die 12Gb Karte.
Ich glaube/hoffe wir sehen die 8600XT nicht bei 330$. Mit den kleinen Chipgrößen glaube ich bei N48 auch eher an 449$/380$ Preise und damit einem nach unten rücken. Deshalb auch die 8600XT bei 299$ und 8600 240$, damit da genug Abstand ist. Da drunter weiterhin wie jetzt nur 1 Chip (Abseits von OEM/China Exoten). Wieso sollte man da noch eine weitere GPU bringen? Hat man jetzt auch nicht gemacht? 4060Ti Niveau wäre meine Erwartung für N44.
Gibt es bei GDDR6 keine 24gbit (3 gib pro chip statt 2 analog zu den neuen ddr5 modulen) chips? Dann wären auch mehr Speichermengenoptionen drin.
Nein, bei GDDR6 gibts da definitiv nix und wir wohl auch nicht mehr kommen. Selbst bei GDDR7 kommts ja anscheinend erst später.
basix
2024-04-06, 12:10:35
Gibt es bei GDDR6 keine 24gbit (3 gib pro chip statt 2 analog zu den neuen ddr5 modulen) chips? Dann wären auch mehr Speichermengenoptionen drin.
Leider nein. Und wird es wohl nie geben. Bei GDDR7 steht es auf der Roadmap, wird initial aber vermutlich auch zuerst mit 16Gbit erscheinen.
Ja, wir haben 60$ Unterschied zwischen 8Gb und 16Gb inkl. Clamshell. Mit 96Bit Clamshell und 12 GB hast du vielleicht noch 30$ Unterschied und du hast deutlich mehr Performanceverlust als 5% durch das Interface. Das Ding wird dir niemand kaufen und macht als zusätzliche SKU keinen Sinn. Da lieber eine deutliche Lücke und dafür eine GPU mit 8Gb, die wenn man die Texturqualität ne Stufe runter dreht 10% schneller ist als die 12Gb Karte.
Die Preisunterschiede kann AMD "frei" festlegen ;) Die von mir vorgeschlagenen 279$ und 329$ wären ein sinnvoller Abstand. Und ein kleiner Abstand hat etwas von Upselling Charakter. Siehe 7700XT zu 7800XT.
Zu 8GByte: Die 10% mehr FPS wären es mir verglichen mit höherer Texturqualität und LoD (=zum Teil deutlich bessere Bildqualität) sowie "VRAM Sorglosigkeit" ehrlich gesagt nicht wert. Ist insgesamt einfach das unrundere Produkt. Und ich kaufe eine GPU, welche bereits heute mit 8GByte limitiert und sich das in Zukunft noch verschlimmert? Da sind +10% Performance ein schlechtes Verkaufsargument. Es gibt zudem immer mehr Benchmark Parcours, wo die 8GByte Karten die 10% Performance bereits verlieren, weil sie eben zu wenig Speicher haben ;)
Ich glaube/hoffe wir sehen die 8600XT nicht bei 330$. Mit den kleinen Chipgrößen glaube ich bei N44 auch eher an 449$/380$ Preise und damit einem nach unten rücken. Deshalb auch die 8600XT bei 299$ und 8600 240$, damit da genug Abstand ist. Da drunter weiterhin wie jetzt nur 1 Chip. Wieso sollte man da noch eine weitere GPU bringen? Hat man jetzt auch nicht gemacht? 4060Ti Niveau wäre meine Erwartung für N44.
Ich hätte auch gerne niedrigere Preise. Aber realistischerweise setzt AMD die Preise so an, dass sie etwas mehr verdienen als bei RDNA3 und bei Blackwell Release noch etwas Luft nach unten haben.
Und wieso man noch etwas darunter bringen sollte? 70W und kein PCIe Power Connector ;) Diese Lücke im Portfolio wurde zuletzt mit der RX6400 bedient. Wobei N24 für Desktop doch sehr suboptimal war (PCIe x4 und 4GByte, kein AV1 & H264/H265 Decoding). Da wäre PCIe x8 und 8GByte sowie die Video Codecs ein grosser Sprung.
BlacKi
2024-04-06, 12:18:09
Ich hätte auch gerne niedrigere Preise. Aber realistischerweise setzt AMD die Preise so an, dass sie etwas mehr verdienen und bei Blackwell Release noch etwas Luft nach unten haben.
mehr verdienen ja. aktionäre und so. die zeiten, wo amd ihre HW im preiskampf feilbieten musste, sind aktuell vorbei. das gilt einfach für jedes stück silizium. die margen im gaming sektor sind generell zu niedrig vs rest. ich denke nicht, das blackwell der grund dafür ist. wenn der gaming sektor keine hohen margen zahlt, werden lieber die stückzahlen reduziert.
genau wie beim ölpreis...
AffenJack
2024-04-06, 12:22:36
Die Preisunterschiede kann AMD "frei" festlegen ;) Die von mir vorgeschlagenen 279$ und 329$ wären ein sinnvoller Abstand. Und ein kleiner Abstand hat etwas von Upselling Charakter. Siehe 7700XT zu 7800XT.
So ein Abstand ist macht wegen Margen für AMD kein Sinn, s. unten.
Zu 8GByte: Die 10% mehr FPS wären es mir verglichen mit höherer Texturqualität und LoD (=zum Teil deutlich bessere Bildqualität) sowie "VRAM Sorglosigkeit" ehrlich gesagt nicht wert. Ist insgesamt einfach das unrundere Produkt. Und ich kaufe eine GPU, welche bereits heute mit 8GByte limitiert und sich das in Zukunft noch verschlimmert? Da sind +10% Performance ein schlechtes Verkaufsargument. Es gibt zudem immer mehr Benchmark Parcours, wo die 8GByte Karten die 10% Performance bereits verlieren, weil sie eben zu wenig Speicher haben ;)
Dir vielleicht, die meisten Leute die aber im unteren Preisbereich kaufen, wollen hauptsächlich mehr Geschwindigkeit. Eine 4060Ti verkauft sich auch mit 8Gb gut.
Bei der Auswahl 300$ für 12Gb vs 270$ für 8Gb und 10% mehr Geschwindigkeit wird die große Mehrheit zu letzterem greifenund AMD verdient mit gleichbleibenden Margen aufgrund der Stückzahl deutlich mehr.
Ich hätte auch gerne niedrigere Preise. Aber realistischerweise setzt AMD die Preise so an, dass sie etwas mehr verdienen als bei RDNA3 und bei Blackwell Release noch etwas Luft nach unten haben.
Du widersprichst dir selbst, denn genau das ist der Grund wieso es keine 8600 mit 12 Gb Clamshell wird. Nach deinem Preisunterscheid 329/279$ müsste man seine Margen deutlich reduzieren mit der 12 GB Variante. Das wird man nicht tun.
30$ Unterschied mit 12Gb Clamshell vs 60$ Unterschied bei 8Gb ohne Clamshell ist die Entscheidung die AMD bezüglich ihrer Margen treffen muss und ich bin sicher es wird letzteres.
Auch mit 450$ für N48 und 300$ für N44 dürften die Margen höher sein, als bei RDNA3. Die Produktionskosten beider Chips dürften ein Stück tiefer sein als N32/N33.
Nakai
2024-04-06, 12:39:35
2770 gb/s? X-D Da passen MHz eher.
Wenn man die 18% ggü der gre holen will braucht es aber entweder mehr „ipc“ oder tatsächlich bis zu 3200 MHz.
Mit 2770 MHz wäre das eher gre oder knapp mehr als gre niveau (weil Takt besser skaliert als CUs).
This.
Falls die Bandbreiten-Angaben die effektive Bandbreite darstellen sollen, dann ist eine Performance auf N31-Niveau schlicht abwegig. 7900GRE wird man schlagen können, alles darüber ist extrem fragwürdig. Heißt für mich, dass man sich zwischen N31 und N32 bei N48 platzieren möchte und für N44 eben zwischen N32 und N33. Bei RT könnte man hier und da ein paar Punkte drauflegen, aber viel würde ich nicht erwarten und unter höheren Auflösungen sowieso nicht.
basix
2024-04-06, 13:03:30
Dir vielleicht, die meisten Leute die aber im unteren Preisbereich kaufen, wollen hauptsächlich mehr Geschwindigkeit. Eine 4060Ti verkauft sich auch mit 8Gb gut.
Bei der Auswahl 300$ für 12Gb vs 270$ für 8Gb und 10% mehr Geschwindigkeit wird die große Mehrheit zu letzterem greifenund AMD verdient mit gleichbleibenden Margen aufgrund der Stückzahl deutlich mehr.
Wie schon gesagt, die 10% verpuffen mittlerweile in vielen Reviews, weil der Speicher immer mehr limitiert. Und ich glaube, dass wir hier als versierte Nutzer schon etwas Gewicht haben. Weil wir sind typischerweise die, welche andere Leute beraten. Hier im Forum oder im Bekanntenkreis. Und viele Review-Seiten sowie YT-Channels blasen mittlerweile ins selbe Horn: 8GByte sind "tot". Verwaschene Texturen, reduzierte Geometrie und LoD, Ruckler. Wird eigentlich von niemandem mehr empfohlen, wenn es eine sinnvolle Option mit 12GByte gibt. Und das wäre mMn eine 8600 mit 12GByte für <300$. Hey, sogar die RTX 3060 für 329$ hatte 12 GByte verbaut :D
Du widersprichst dir selbst, denn genau das ist der Grund wieso es keine 8600 mit 12 Gb Clamshell wird. Nach deinem Preisunterscheid 329/279$ müsste man seine Margen deutlich reduzieren mit der 12 GB Variante. Das wird man nicht tun.
30$ Unterschied mit 12Gb Clamshell vs 60$ Unterschied bei 8Gb ohne Clamshell ist die Entscheidung die AMD bezüglich ihrer Margen treffen muss und ich bin sicher es wird letzteres.
Logisch sind die Margen bei den kleineren SKU geringer. Aber ein 130mm2 Chip in N4 wird weniger kosten als ein 204mm2 Chip in N6. Sagst du auch selbst ;) Dazu noch günstigeres PCB sowie Kühler, da kleiner und der Verbrauch um ein gutes Stück sinkt. GDDR6 wurde auch günstiger. Die 7600 wurde für 269$ released. Man kann also davon ausgehen, das eine 8600 mit 12GByte und 279$ mehr Marge abwirft, als die 7600 für 269$. Inkl. Inflation usw. evtl. Gleichstand. Bei N33 war das ziemlich lange die schnellste SKU. Bei N44 gibt es überhalb noch die 8600XT, welche mehr Marge macht als die 7600 und wohl auch die 7600XT. Sehe da ehrlich gesagt kein Problem hinsichtlich Kosten und Margen. AMD wird daran mehr verdienen als mit N33. Und weil die Features passen (Speichermenge, RT-Performance, etc.) sollten die Stückzahlen gut anziehen, ergo deutlich mehr Gewinn.
Eine 8GByte Variante ohne Clamshell wäre günstiger herzustellen. Klar. Aber hier evtl. drei Gedankengänge:
1.) Boardpartner können vermutlich mit dem gleichen PCB auch eine 8GByte Variante ohne Clamshell bringen. Als Option.
2.) 8GByte als einzige SKU ohne 16GByte Option würde in den meisten Reviews abgestraft werden. Weil eben bereits heute mit Nachteilen behaftet und geringer Zukunftstauglichkeit. Positives Marketing adieu und somit weniger Verkäufe. Selbst Nvidia hat die 4060 Ti mit 16 GByte Option released, mit dem 100$ Markup aber einfach unattraktiv gemacht.
3.) Nvidia steht bei Lovelace und Blackwell vor dem selben Problem hinsichtlich 8 GByte. Eine preisgünstige 12GByte Karte als Alternative würde sehr wohlwollend begrüsst werden. Ist Nvidia auch bei Blackwell wieder Speicher-Knausrig: Schönes Verkaufsargument für N44.
Das korrekt benannte Lineup wäre sicherlich
8700XT -> N48 full 16GB
8700 -> N48 salvage 16GB
8600XT -> N44 full 16GB
8600 -> N44 salvage 8GB
So werden die das aber nicht machen sondern
8800XT -> N48 full 16GB
8700XT -> N48 salvage 16GB (12GB verkauft sich genau gar nicht; ich kann mir nicht vorstellen, warum man das noch mal machen sollte)
8700 (OEM/GDE) -> N48 salvage 12GB
8600XT -> N44 full 16GB
8600 -> N44 full 8GB
Die 7600(XT) wird sicherlich zuisätzlich am Markt bleiben, die 7900XT(X) sicherlich auch, genau wie die 6500XT/6400.
Unter 128Bit wirds nicht geben, das hats schon sehr sehr lange nicht mehr gegeben und ist schlichtweg unwahrscheinlich.
basix
2024-04-06, 13:17:49
96bit macht man ja auch eher "zur Not" heraus ;) Einen Salvage mit -25% SI zu verkaufen, wäre jetzt kein Novum. Die 7700XT macht es vor. Da bandbreitenlimtiert, werden anstatt -10% halt -20% Performance draus. That's it.
12GByte Salvage von N48 nur für OEM oder Mobile habe ich mir auch überlegt. Ich finde aber, dass die Performance- sowie Preis-Lücke dann etwas gross wird. Kann man machen, aber mit 8700 12GByte hätte AMD noch eine Option mehr. Wieso ich das auch überlege? Man kann die 8700XT etwas höher und näher an der 8800XT ansetzen. Ob das jetzt marktwirtschaftlich die beste Idee ist, schwer abzuschätzen. Gibt da viele psychologische Aspekte im Spiel, wobei AMD mit jeder höherwertigen SKU mehr verdienen wird. Kann man die alle etwas höher ansetzen und wegen der etwas engeren Abstufung aufgrund 3x N48 SKUs in Richtung Upselling positionieren, könnte AMD mehr verdienen. Das ist aber etwas geraten, ich habe keine fundierten Wirtschaft-Kenntnisse. Ich folge mehr der Logik, was aus AMDs Sicht Sinn machen könnte ;)
Bei 130mm² ist das irrelevant. Das bisschen, was man da als salvage rausbekommt dürfte als 8600S in den Mobilmarkt sickern.
Und nein, die Performance ist nicht abhängig von 12 vs. 16GB. Wenn man weniger Performance will kann man einfach langsameren Speicher (16GT/s) und TDP/weniger WGP verbauen, das macht das PCB billiger. Ich sehe nicht, warum man nicht 16GB verbauen sollte. Immer die Preispunkte beim Start bedenken, hier wird die 8700XT sich mit der 12GB 4070 (Super) messen, den Vorteil der 16GB braucht man hier also auch, um die Preise oben zu halten. Upselling ist aus meiner Sicht quatsch, denn der Gegner der 8800XT ist die 4070TI Super. Und das wird sicherlich auch bis Mitte-Ende 25 so bleiben, da ja vorerst eh nur die 5080 und 5090 zu erwarten sind. NV hat einfach zu viele Adas (außer AD102) auf Lager.
robbitop
2024-04-06, 13:36:32
Sofern effektive Bandbreite gemeint ist mit 2770 GB/s vs den 2708 GB/s (7800XT mit 19,5 Gbps) würde das linear extrapoliert (beide haben 64 MiB IF$) 20 gbps GDDR6 bedeuten.
AffenJack
2024-04-06, 13:55:19
Wie schon gesagt, die 10% verpuffen mittlerweile in vielen Reviews, weil der Speicher immer mehr limitiert. Und ich glaube, dass wir hier als versierte Nutzer schon etwas Gewicht haben. Weil wir sind typischerweise die, welche andere Leute beraten. Hier im Forum oder im Bekanntenkreis. Und viele Review-Seiten sowie YT-Channels blasen mittlerweile ins selbe Horn: 8GByte sind "tot". Verwaschene Texturen, reduzierte Geometrie und LoD, Ruckler. Wird eigentlich von niemandem mehr empfohlen, wenn es eine sinnvolle Option mit 12GByte gibt. Und das wäre mMn eine 8600 mit 12GByte für <300$. Hey, sogar die RTX 3060 für 329$ hatte 12 GByte verbaut :D
Die Rammenge wird immer im Vergleich zum Preis gesehen. Bei der 4060Ti gibt es viel negative Publicity. Bei der 4060 dagegen wurde es mehrheitlich als in Ordnung angesehen aufgrund des Preisniveaus. Einzig PCGH ist da ne Bubble, die aber nix mit der Realität der Käufer zu tun hat, wie man an den Verkaufszahlen sieht.
Aber wo du Hardwareseiten ins Spiel bringst, gerade Hardwareseiten werden deine 12GB Version komplett auseinander nehmen. Das Ding wird fürchterliche Reviews produzieren, wenn man ne 8600 mit 12Gb bringt, die in 90% der Fälle so schnell wie ne 7600 ist und genauso viel kostet. Denn schneller wird das Ding mit 96Bit nicht werden. Dann hat man schlechte Reviews, Nutzer die kein Interesse and der Karte haben und noch nicht mal gute Margen wegen 12gb und Clamshell.
Bring die Karte dagegen für 240-250$ und die Leute freuen sich über das mehr an Perf/$, AMD freut sich wegen Verkaufszahlen und die Reviews werden in dem Preisbereich 8gb tolerieren.
Logisch sind die Margen bei den kleineren SKU geringer. Aber ein 130mm2 Chip in N4 wird weniger kosten als ein 204mm2 Chip in N6. Sagst du auch selbst ;) Dazu noch günstigeres PCB sowie Kühler, da kleiner und der Verbrauch um ein gutes Stück sinkt. GDDR6 wurde auch günstiger. Die 7600 wurde für 269$ released. Man kann also davon ausgehen, das eine 8600 mit 12GByte und 279$ mehr Marge abwirft, als die 7600 für 269$. Inkl. Inflation usw. evtl. Gleichstand. Bei N33 war das ziemlich lange die schnellste SKU. Bei N44 gibt es überhalb noch die 8600XT, welche mehr Marge macht als die 7600 und wohl auch die 7600XT. Sehe da ehrlich gesagt kein Problem hinsichtlich Kosten und Margen. AMD wird daran mehr verdienen als mit N33. Und weil die Features passen (Speichermenge, RT-Performance, etc.) sollten die Stückzahlen gut anziehen, ergo deutlich mehr Gewinn.
Du hast kein günstiges PCB, du willst ja ein teures PCB, denn nur dann ist Clamshell machbar. Ne 12Gb 8600 mit Clamshell wird in der Produktion nicht weniger als ne 7600 8Gb kosten. Was du am Chip und Kühler sparst, gibst du für PCB und mehr Ramchips aus. Was du vorschlägst ist max. ein Gleichbleiben von AMDs Margen. Das macht deshalb auch kein Sinn.
fondness
2024-04-06, 13:59:42
Zweckmäßig wäre es. Aber: Alle Konsolen-SoCs sind Monolithen. N48 als Grafiklösung für die PS5Pro würde das in zwei Chips zerteilen. Erscheint per se als unwahrscheinlich, weil es neue Probleme nach sich zieht.
Ich meinte natürlich nicht 1 zu 1 den Chip übernehmen. Das Layout muss sowieso größtenteils neu gemacht werden, alleine schon weil man die Zen2-CPU nicht braucht. Aber man muss zumindest nicht bei null anfangen und kann relativ viel recyclen. Wie viel dann wirklich ident ist wird man sehen, der Schluss liegt jedenfalls nahe.
robbitop
2024-04-06, 14:04:20
Ich hab mal ein wenig mit den flops pro gb/s herumgespielt und n31+32+33 aufgestellt. N33 fällt da mit der relativ niedrigen "effektiven Bandbreite" sehr aus dem Rahmen. Entsprechend hab ich ihn dann wieder ausgeklammert.
Die 7900 GRE hat verglichen mit der XTX und XT extrem viel flops pro bandbreite und die 7800 XT extrem wenig. Ich hab dann mal ein geometrisches Mittel gebildet um zu schauen wo man dann mit dem GPU Takt rauskommen würde. -> 2925 MHz.
Ist aber aufgrund des breiten Spektrums nicht viel mehr wert als Kaffeesatzleserei.
Mit dem Takt wäre man von der Rechenleistung zwar nur ~4% über der GRE - aber aufgrund der besseren Skalierung von Takt vs Breite könnte da (auch bei Raster) mehr bei rumkommen. ~+10-15% ggü der GRE wären es dann. (Annahme dass RDNA4 in Raster keine "IPC Steigerung" mit sich bringt).
Sofern effektive Bandbreite gemeint ist mit 2770 GB/s vs den 2708 GB/s (7800XT mit 19,5 Gbps) würde das linear extrapoliert (beide haben 64 MiB IF$) 20 gbps GDDR6 bedeuten.
Das passt nicht ganz. Und dazu 693GB/s, was wäre dann 21,65 GT/s GDDR6 und dürfte das Limit darstellen, was die Kartenhersteller auf ein PCB klatschen können. 22GT/s GDDR6 dürfte mittlerweile von skhynix kaufbar sein.
Die Salvage Variante (8700XT) dürfte dann (wie N44) mit 18GT/s ausgestattet werden und auf 576GB/s kommen, was PCB und Speicher erheblich verbilligt.
Der kleine ist sicherlich mit 18GT/s ausgestattet als XT-Variante sicherlich wieder in Clamshell. Die effektiven Bandbreiten deuten ja hier eher auf leicht erhöhten MCD-Takt hin.
Leonidas
2024-04-06, 14:37:43
2770 gb/s? X-D Da passen MHz eher.
Eigentlich ja. Aber "All The Watts!!" hat ein Posting von "RawMango" ausdrücklich reposted, welches Richtung effektive Bandbreite geht:
https://twitter.com/mango_raw/status/1776251550987436344
fondness
2024-04-06, 14:41:46
Eigentlich ja. Aber "All The Watts!!" hat ein Posting von "RawMango" ausdrücklich reposted, welches Richtung effektive Bandbreite geht:
https://twitter.com/mango_raw/status/1776251550987436344
Ergibt durchaus Sinn, ohne mehr Takt kommt man wohl kaum auf die von ihm selbst angegebene Performance auf N31-Niveau.
Und er sagt im übrigen auch, dass selbst die Strix Halo iGPU auf RDNA3+ Basis mit 3Ghz laufen soll.
Noch ein "Leak" von ihm:
https://twitter.com/All_The_Watts/status/1776553577928069464
Die N48 Samples sollen 50 TFLOPs bei ~215W für die Platine erreichen.
Das wären 3,05Ghz bei 215W.
robbitop
2024-04-06, 15:06:51
Das wäre richtig geil. Vor allem wenn auch nochmal RT aufgebohrt wurde ^^
basix
2024-04-06, 15:16:34
Aber wo du Hardwareseiten ins Spiel bringst, gerade Hardwareseiten werden deine 12GB Version komplett auseinander nehmen. Das Ding wird fürchterliche Reviews produzieren, wenn man ne 8600 mit 12Gb bringt, die in 90% der Fälle so schnell wie ne 7600 ist und genauso viel kostet. Denn schneller wird das Ding mit 96Bit nicht werden. Dann hat man schlechte Reviews, Nutzer die kein Interesse and der Karte haben und noch nicht mal gute Margen wegen 12gb und Clamshell.
Ich kann dir folgendes versprechen:
- Die 8600 wird schneller als eine 7600 sein. Deine "gelobte" 4060 ist auch nicht viel schneller wie eine 3060 und hat sogar weniger Speicher
- Die 8600 wird deutlich energieffizienter sein
- Bei RT wird man die 7600 abziehen, und genau dort ist mehr Speicher wichtig
- 12GByte werden immer ein Vorteil sein, und das immer mehr. Wir haben 2024. Des berücksichtigen auch die Tester und Reviewer
Es gibt verglichen zur 7600 also genügend Pro-Punkte für eine 8600, auch wenn die Raster-Performance nicht einiges schneller sein sollte. Und hey, man hat Fortschritte in vielen Bereichen und sie kostet faktisch gleich viel. Mehrere Pro-Punkte und einen, der einfach nicht ganz so gut ist wie man es sich wünschen würde. Ist im heutigen GPU-Markt bereits viel Fortschritt ;) Wenn das nicht genügt, gibt es für einen adäquaten Aufpreis noch die 8600XT.
Bring die Karte dagegen für 240-250$ und die Leute freuen sich über das mehr an Perf/$, AMD freut sich wegen Verkaufszahlen und die Reviews werden in dem Preisbereich 8gb tolerieren.
Das ist genau das, was ich bezweifle. Wenn man deinen Ansatz konsequent weitertreiben will, macht eine 8600XT mit 8GB als Option deutlich mehr Sinn als eine 8600 mit 8GB. Wenn das der Kunde will, hätte die 8600XT die höchste Chip-Performance. Da finde ich unten rum eine 8500XT sinnvoller, welche vielleicht 10-20% schwächer als die 8600 wäre und dafür nochmals einiges weniger als 250$ kosten würde. Evtl. so ~200$ rum. Eine "echte" NextGen Budget-Karte halt.
Du hast kein günstiges PCB, du willst ja ein teures PCB, denn nur dann ist Clamshell machbar. Ne 12Gb 8600 mit Clamshell wird in der Produktion nicht weniger als ne 7600 8Gb kosten. Was du am Chip und Kühler sparst, gibst du für PCB und mehr Ramchips aus. Was du vorschlägst ist max. ein Gleichbleiben von AMDs Margen. Das macht deshalb auch kein Sinn.
Da ich es nicht weiss: Wie viel Erfahrung hast du mit PCB-Design? Und wie viel PCBs kosten? Ich bin von Beruf Elektroingenieur und kann es nicht ganz genau abschätzen (zu wenig Know How bei High Frequency Design), habe aber ungefähr eine Ahnung davon. Da es nur 128bit ist, sollten sich Zusatzkosten beim PCB in Grenzen halten. Bei Clamshell müssen nur die Command-Signale zwischen zwei GDDR-Packages geteilt werden und die Datensignale nicht. Es kann sein, dass man 2 Layer mehr braucht, das ist alles (z.B. 10 anstatt 8). Da spart man mit einer geringeren PCB-Fläche und weniger Power-Supply Komponenten deutlich mehr ein. Das kann ich dir garantieren.
Dass der Speicher mehr kostet ist klar. Aber die paar Dollar sparst du gut und gerne über den Rest wieder ein (kleiner Chip, geringer Verbrauch und was das alles mit sich bringt), +10$ MSRP. Das "gleichbleiben der Margen" bei der 8600 vs. 7600 ist möglich. Ich vermute aber, dass AMD mehr verdienen würde. Und der Kunde bekommt noch ein besseres P/L dazu. Und man hat für höhere Margen mit der 8600XT noch +1x höherwertige SKU oben drüber.
Bei der 8500XT mit 8GB sowie 70W dampft man dann eh alles aufs Minimum ein, womit man auch mit ~200...220$ ähnlich viel verdienen sollte, wie mit einer 8600 / 12GB. Ergo auch hier keine Margenreduktion aber dafür ein deutlich vergrösserter Kundenkreis. Eine 8500XT wäre auch ideal für OEM-PCs.
Der_Korken
2024-04-06, 15:35:18
215W Platine wären echt sehr stark für 3Ghz. 215W GPU-Power wäre dagegen schon ziemlich am thermischen Limit, weil da noch 40-50W für VRAM und VRMs draufkommen.
basix
2024-04-06, 15:38:40
50 TFLOPs wären wohl ziemlich genau ~7900XT Performance, wenn die IPC gleichbleibt und nicht was anderes limitiert. Die IPC könnte höher ausfallen, doch die Bandbreite könnte limitieren. Zumindest ist eine 4080 mit ähnlichen Bandbreiten-Verhältnissen nochmals ein gutes Stück schneller. Kann in beide Richtungen ausschlagen aber falls das Gerücht stimmt, wäre ~7900XT als "Vernunftsannahme" in der Mitte der Möglichkeiten wohl nicht so falsch.
Leonidas
2024-04-06, 16:23:56
215W Platine wären echt sehr stark für 3Ghz. 215W GPU-Power wäre dagegen schon ziemlich am thermischen Limit, weil da noch 40-50W für VRAM und VRMs draufkommen.
Für mich bedeutet 215W-Platine, dass da bereits alles drin ist. Auf einer "Platine" sind schließlich der VRAM und die VRMs montiert.
PS: Aber natürlich könnte dies trotzdem nur die GPU-Power sein, einfach etwas mißverständlich formuliert.
AffenJack
2024-04-06, 16:31:36
Ich kann dir folgendes versprechen:
- Die 8600 wird schneller als eine 7600 sein. Deine "gelobte" 4060 ist auch nicht viel schneller wie eine 3060 und hat sogar weniger Speicher
- Die 8600 wird deutlich energieffizienter sein
- Bei RT wird man die 7600 abziehen, und genau dort ist mehr Speicher wichtig
- 12GByte werden immer ein Vorteil sein, und das immer mehr. Wir haben 2024. Des berücksichtigen auch die Tester und Reviewer
Genau das, die 4060 ist nicht viel schneller als ne 3060 mit weniger Ram. Aber der Hauptkritikpunkt war nicht mal der Ram, sondern dass es kaum ne Steigerung gibt und das obwohl wir hier ne Ramreduktion haben. Gelobt hat das Ding kaum wer.
Nein, deine spekulierte Version der 8600 wird nicht groß schneller sein als ne 7600 und deshalb wird es die auch nicht geben, außer man taktet in solche Sphären, dass es nicht mehr Energieeffizienz geben wird. Irgendwo musst du dich mit deinen Erwartungen entscheiden, denn 96Bit sind nur möglich mit einer deutlich schlechteren Performance oder Energieeffizienz. Mit einer 8600 mit 128 Bit kann man das dagegen alles hinkriegen, mit 96Bit hingegen nicht.
Es gibt verglichen zur 7600 also genügend Pro-Punkte für eine 8600, auch wenn die Raster-Performance nicht einiges schneller sein sollte. Und hey, man hat Fortschritte in vielen Bereichen und sie kostet faktisch gleich viel. Mehrere Pro-Punkte und einen, der einfach nicht ganz so gut ist wie man es sich wünschen würde. Ist im heutigen GPU-Markt bereits viel Fortschritt ;) Wenn das nicht genügt, gibt es für einen adäquaten Aufpreis noch die 8600XT.
Und deutlich mehr Propunkte mit 128 Bit.
Das ist genau das, was ich bezweifle. Wenn man deinen Ansatz konsequent weitertreiben will, macht eine 8600XT mit 8GB als Option deutlich mehr Sinn als eine 8600 mit 8GB. Wenn das der Kunde will, hätte die 8600XT die höchste Chip-Performance. Da finde ich unten rum eine 8500XT sinnvoller, welche vielleicht 10-20% schwächer als die 8600 wäre und dafür nochmals einiges weniger als 250$ kosten würde. Evtl. so ~200$ rum. Eine "echte" NextGen Budget-Karte halt.
Obenrum sind die 16 GB nützlich gegen Blackwellkarten. Unternrum gibt es von Nvidia überhaupt nix und es ist nicht anzunehmen, dass Nvidia da noch groß was bringt. Die 3060 mit 12 Gb ist aufgrund der Mehrleistung der 8600 völlig uninteressant als Konkurrenz. Wieso sollte man da auf solch merkwürdige Sonderlösungen zurückgreifen?
Da ich es nicht weiss: Wie viel Erfahrung hast du mit PCB-Design? Und wie viel PCBs kosten? Ich bin von Beruf Elektroingenieur und kann es nicht ganz genau abschätzen (zu wenig Know How bei High Frequency Design), habe aber ungefähr eine Ahnung davon. Da es nur 128bit ist, sollten sich Zusatzkosten beim PCB in Grenzen halten. Bei Clamshell müssen nur die Command-Signale zwischen zwei GDDR-Packages geteilt werden und die Datensignale nicht. Es kann sein, dass man 2 Layer mehr braucht, das ist alles (z.B. 10 anstatt 8). Da spart man mit einer geringeren PCB-Fläche und weniger Power-Supply Komponenten deutlich mehr ein. Das kann ich dir garantieren.
Ich kenne nur die Erfahrungswerte und Personen wie Igor etc. Aber es gab solche Lösungen in den letzten Jahren nie und der einzige Grund dafür können Kosten sein. Wenn Clamshell so toll wäre, wieso wird es nicht immer genutzt?
Dass der Speicher mehr kostet ist klar. Aber die paar Dollar sparst du gut und gerne über den Rest wieder ein (kleiner Chip, geringer Verbrauch und was das alles mit sich bringt), +10$ MSRP. Das "gleichbleiben der Margen" bei der 8600 vs. 7600 ist möglich. Ich vermute aber, dass AMD mehr verdienen würde. Und der Kunde bekommt noch ein besseres P/L dazu. Und man hat für höhere Margen mit der 8600XT noch +1x höherwertige SKU oben drüber.
Wie oben beschrieben, mit 96Bit gibts kein geringeren Verbrauch, da du entweder zu langsam bist oder bis an die Kotzgrenze takten musst. Fällt also auch wieder weg. Bleibt am Ende also kleinerer Chip vs 4GB Ram + Clamshell.
Bei der 8500XT mit 8GB sowie 70W dampft man dann eh alles aufs Minimum ein, womit man auch mit ~200...220$ ähnlich viel verdienen sollte, wie mit einer 8600 / 12GB. Ergo auch hier keine Margenreduktion aber dafür ein deutlich vergrösserter Kundenkreis. Eine 8500XT wäre auch ideal für OEM-PCs.
Da sehe ich mittlerweile überhaupt keinen Markt mehr. Dafür sind IGPs zu stark. Zur Zeit einer 6400 gab es noch Zen ohne IGP. Mittlerweile hat jede CPU ne IGP.
eratte
2024-04-06, 16:33:35
Mittlerweile hat jede CPU ne IGP.
Nein, 7500F z.B. - Threadripper auch nicht. Oder die neuen 2 China CPUs.
AffenJack
2024-04-06, 16:40:39
Nein, 7500F z.B. - Threadripper auch nicht. Oder die neuen 2 China CPUs.
Da hast du Recht, aber dafür ist das am Ende dann ne GPU, die man über OEM in Kleinstückzahlen, so wie manche Chinaversionen unters Volk bringen kann. Das ist dann aber wirklich nur noch pure Resteverwertung und hier passt dann eine 6GB 96Bit Version.
dargo
2024-04-06, 17:13:07
Noch ein "Leak" von ihm:
https://twitter.com/All_The_Watts/status/1776553577928069464
Die N48 Samples sollen 50 TFLOPs bei ~215W für die Platine erreichen.
Das wären 3,05Ghz bei 215W.
Sehr geil wenns stimmt. :up: Endlich wieder eine neue Graka im Rechner. :D Leider weeeit weg von Faktor 2 auf 6800XT bezüglich Performance, aber was willst du bei den lahmen Entwicklungen machen? ;(
aufkrawall
2024-04-06, 17:25:00
Kann man eine 215W-Karte für >600€ verkaufen?
dargo
2024-04-06, 17:26:35
Warum denn nicht wenn sie entsprechende Performance liefert? :confused: Seit wann wird der Preis über die Wattage alleine definiert? :D Nvidia hat aktuell bsw. eine 220W 4070S im Programm für 600+€ die sich gerade mal mit der 6800XT prügelt (ist knapp drüber). Eher liegt die 4070S an der 6900XT dran, zumindest näher.
Nightspider
2024-04-06, 17:48:33
Navi 48 mit reduziertem Takt als Strix Halo GPU?
Würde zum seltsamen Namensschema passen.
Der_Korken
2024-04-06, 18:07:54
Kann man eine 215W-Karte für >600€ verkaufen?
Gegen einen zu niedrigen Verbrauch hilft overvolten oder das Anbringen einer zusätzlichen Heizspirale.
RTX4070S, 229W, 659€ Launch UVP (https://www.computerbase.de/2024-01/nvidia-geforce-rtx-4070-super-review-test/4/#abschnitt_leistungsaufnahme_spiele_youtube_desktop)
RTX2080, 229W, 849€ Launch UVP (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/4/#abschnitt_messung_der_leistungsaufnahme)
GTX1080, 180W, 789€ Launch UVP (https://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/)
aufkrawall
2024-04-06, 19:16:26
Ich fall vom Glauben ab.
mboeller
2024-04-06, 19:30:10
Noch ein "Leak" von ihm:
https://twitter.com/All_The_Watts/status/1776553577928069464
Die N48 Samples sollen 50 TFLOPs bei ~215W für die Platine erreichen.
Das wären 3,05Ghz bei 215W.
Was mich bei den ganzen Leaks wundert ist... so viele so plötzlich.
Sollten die beiden GPU nicht erst in Q4 kommen?
Diese vielen, und konkreten Leaks deuten doch eher auf Q3 hin (also eher Juli als Sept.)
(AMD hält inzw. zu 100% dicht, die GPU's müssten also jetzt schon bei den Herstellern sein)
Oder aber diese Leaks sind alle "just for fun" ...
aufkrawall
2024-04-06, 20:18:24
Doofe Frage: Chiplet oder monolithisch?
robbitop
2024-04-06, 20:37:23
Bisherige Gerüchte waren monolithisch. Aber die 240 mm2 sind doch auffällig wenig wenn man bedenkt N32 hat im GCD 200 mm2 allein. Und es sollen ja noch Transistoren für modernere uArch Eigenschaften investiert werden.
4 nm ist so viel dichter nicht als 5 nm.
Aber ggf hat man das Design auch entschlackt. Im GCD ging sicherlich auch einiges für die Interfaces zum MCD drauf und die CUs waren verglichen mit N33 ziemlich fett, ohne besonders große Vorteile daraus zu ziehen.
Geht man von N33 (6nm) aus und shrinks ihn auf 4 nm 65 Mtr/mm2 -> 121 (von ad104 geklaut). 1,86x Das wären dann 109 mm2.
Verdoppelt passen die Specs grob zu N48. -> 220 mm2. Bleiben noch 10% für Modernisierungen der uArch.
Der CGD auf N31 ist sogar noch dichter gepackt (150 Mtr/mm2) hat aber keine Elemente die nicht so toll packbar sind wie IF$ und IMC.
Aber ggf geht bei AMD ja mehr als die 121 MTr/mm2 aus ad104. Dann wäre ggf. sogar mehr drin für Modernisietung.
Die Frage ist aber ob sie N33 genommen haben als Grundlage.
basix
2024-04-06, 21:30:50
Sehr geil wenns stimmt. :up: Endlich wieder eine neue Graka im Rechner. :D Leider weeeit weg von Faktor 2 auf 6800XT bezüglich Performance, aber was willst du bei den lahmen Entwicklungen machen? ;(
Bei RT könnte das je nach Spiel schon auf Faktor 2 hinauslaufen. Je nach dem, wie stark die RT Implementation bei RDNA4 ist.
aufkrawall
2024-04-06, 21:37:44
Da würd ich ggf. nicht zu viel erwarten. Nvidias Gaga-RT-Code läuft auch auf Intel mitunter stinklangsam.
dargo
2024-04-06, 21:40:33
Bei RT könnte das je nach Spiel schon auf Faktor 2 hinauslaufen. Je nach dem, wie stark die RT Implementation bei RDNA4 ist.
Ich kann langsam dieses RT-Geschwurbel echt nicht mehr lesen. Als ob es nichts anderes gäbe.
aufkrawall
2024-04-06, 21:43:04
Ich kann langsam dieses RT-Geschwurbel echt nicht mehr lesen. Als ob es nichts anderes gäbe.
Na ja, massiv beschleunigtes Lumen bei besserer Qualität wäre schon nice. Dauert aber geschätzt/geraten noch 1-2 Jahre, bis das auf Software-Seite etwa die besseren Fähigkeiten der PS5 auch wirklich gut nutzt...
basix
2024-04-06, 21:48:27
Da würd ich ggf. nicht zu viel erwarten. Nvidias Gaga-RT-Code läuft auch auf Intel mitunter stinklangsam.
Deswegen: Je nach Spiel :D
Ich kann langsam dieses RT-Geschwurbel echt nicht mehr lesen. Als ob es nichts anderes gäbe.
Du hast gesagt: Weit weg von 2x. Und ich gebe dir nur eine Möglichkeit, dass es trotzdem so sein kann, je nach Anwendung. Rein faktisch basiert ;) Was DU damit machst musst du selber wissen...
Genau das, die 4060 ist nicht viel schneller als ne 3060 mit weniger Ram. Aber der Hauptkritikpunkt war nicht mal der Ram, sondern dass es kaum ne Steigerung gibt und das obwohl wir hier ne Ramreduktion haben. Gelobt hat das Ding kaum wer.
Loben ist bei einem derart lahmen Produkt und Generationssprung auch nicht möglich. Aber objektiv betrachtet ist das für Neukäufer einfach die insgesamt beste Option bis 300 Euro. Man kann jedem raten, das eigene Preislimit höher anzusetzen, aber bis 300 gilt das (https://www.youtube.com/watch?v=gqeK_T-NH5g). Die RTX 3060 12GB wurde Anfang 2021 auch von vielen falsch eingeschätzt, hat nun aufgrund ihres großen VRAMs aber den längsten Atem der damaligen „Spar”-Karten. ;) Insofern hoffe ich auf viele Muschel-Designs der RDNA-4-Mittelklasse. Man hat's ja sogar bei der RX 6500 XT 8GB (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/) gemacht, wenngleich das schlechte Marketing einen Erfolg verhinderte.
Ich kann langsam dieses RT-Geschwurbel echt nicht mehr lesen. Als ob es nichts anderes gäbe.
Du wirst das vermutlich selbst dann sagen, wenn RDNA 4 beim Raytracing vier Mal so schnell wäre wie RDNA 2. Trotzdem bleibt RT die Marschrichtung, zusammen mit unterstützenden Technologien. Wer nur auf Rasterizing schaut, wird nie wieder große Sprünge sehen und Freude fühlen. :ugly:
Da würd ich ggf. nicht zu viel erwarten. Nvidias Gaga-RT-Code läuft auch auf Intel mitunter stinklangsam.
Die Vergangenheit hält Beispiele bereit, bei denen AMD mit Folge-Generation aufholen konnte. Etwa Tessellation, das sukzessive durch robustere Hardware beschleunigt wurde, sodass selbst Nvidia-Showcases irgendwann ordentlich liefen. Wir sollten alle hoffen, dass AMD das auch beim Raytracing schafft. Wenn Sony den Fokus in diesem Sinne zurechtrückt, sehen wir das evtl. schon bei RDNA 4. Ich drücke weiter alle Daumen, die ich finden kann. Aber müssten wir dann nicht langsam mal ein paar beeindruckende Zahlen sehen?
MfG
Raff
BlacKi
2024-04-06, 23:09:54
Geht man von N33 (6nm) aus und shrinks ihn auf 4 nm 65 Mtr/mm2
das praktisch nur die logic sich noch shrinken lässt, und der rest fast gleich bleibt, shrinkt man wohl gerade noch etwas mehr als die hälfte des DIE. so etwa 58% wenn ich den n31 dafür hernehme.
also 204 x 0,58 = 118,3mm² kann man also noch shrinken. großzügig um 40% ergeben noch 71mm².
man spart bei n33 von 6nm auf 4nm also grob 47mm² ein. kein wunder das man n33 in 6nm gelassen hat.
damit wäre ein doppelter n33 in 4nm immernoch über 310mm² groß.
IMHO passt das nicht zu den 237mm² aus dem leak?
wo irre ich mich da?
auch als reiner gcd passen die 237mm² nicht. oder man hätte architektur stark aufgeblasen.
aufkrawall
2024-04-06, 23:54:23
Die Vergangenheit hält Beispiele bereit, bei denen AMD mit Folge-Generation aufholen konnte. Etwa Tessellation, das sukzessive durch robustere Hardware beschleunigt wurde, sodass selbst Nvidia-Showcases irgendwann ordentlich liefen. Wir sollten alle hoffen, dass AMD das auch beim Raytracing schafft. Wenn Sony den Fokus in diesem Sinne zurechtrückt, sehen wir das evtl. schon bei RDNA 4. Ich drücke weiter alle Daumen, die ich finden kann. Aber müssten wir dann nicht langsam mal ein paar beeindruckende Zahlen sehen?
Wenn wie bei CP77 eine halbe Entwicklermannschaft von Nvidia nur am RT dransitzt, kann man sich das wohl abschminken. Ist stark davon auszugehen, dass RT so geschrieben wurde, dass es nur auf Nvidia-Hardware und Treibern gut laufen kann. Das kann sogar schon allein durch den fehlenden NVAPI-Support für die anderen Hersteller kommen, falls es mit D3D12-only-APIs gar nicht schnell laufen kann.
Da waren mehr Leute von Nvidia beteiligt als viele Studios für AA-Spiele überhaupt Mitarbeiter haben :freak: :
https://www.mobygames.com/game/128136/cyberpunk-2077/credits/windows/?autoplatform=true
reaperrr
2024-04-07, 01:14:00
das praktisch nur die logic sich noch shrinken lässt, und der rest fast gleich bleibt, shrinkt man wohl gerade noch etwas mehr als die hälfte des DIE. so etwa 58% wenn ich den n31 dafür hernehme.
also 204 x 0,58 = 118,3mm² kann man also noch shrinken. großzügig um 40% ergeben noch 71mm².
man spart bei n33 von 6nm auf 4nm also grob 47mm² ein. kein wunder das man n33 in 6nm gelassen hat.
damit wäre ein doppelter n33 in 4nm immernoch über 310mm² groß.
IMHO passt das nicht zu den 237mm² aus dem leak?
wo irre ich mich da?
5nm shrinkt analoges (SI) noch um bis zu 20%, und SRAM (Register und Caches) um bis zu 30%.
Und für Logik-Transistoren bringt N4 immerhin 4% mehr Packdichte als der bei N31 verwendete N5, welcher ggü. N6 bereits eine bis zu 80% höhere Logik-Packdichte bietet, nicht nur 40% wie du angesetzt hast.
~50% wäre daher eher der Packdichte-Gewinn des kompletten N33.
Was du auch zu wenig berüchsichtigst:
Ein relativ hoher Anteil der Chipfläche bei Mainstream-Chips geht für Dinge drauf, die weder SRAM noch Analog sind, aber auch nicht zur eigentlichen Grafikpipeline gehören oder bei allen GPUs der Generation weitgehend gleich groß sind.
VCN, DisplayController, wahrscheinlich noch zig anderer Kleinkram, Command Processor usw.
Wenn die 40mm² ausmachen, sind das 40mm², ob du nun 32 oder 96 CUs auf der GPU hast.
Bei Navi10 z.B. haben die CUs nur ~80mm² ausgemacht, also 2mm² je CU, theoretisch wäre ein Navi10 mit 48 CUs also in ~270mm² möglich gewesen. Noch extremer im Grunde bei N22, der wäre mit 8 zusätzlichen CUs nur um ca. 7% gewachsen.
Außerdem dürften die IF-Interfaces bei N31/32 für die Verbindung zu den MCDs nicht so viel kleiner als die Speicherinterfaces sein, da ja entprechend Bandbreite da durch muss, die fallen für die monolithischen N4x ebenfalls weg.
N33 wäre in N4 ca. 130-140mm², bei einer Verdoppelung der Specs sparst du aber locker 30-40mm² an gleichbleibenden Dingen ein, die eben nicht mit verdoppelt werden müssen, und landest so ziemlich bei der kolportierten N48-Größe.
Und: Es wurde z.B. noch nichts zu ROPs geleakt. Die sind auch nicht gerade klein, gut möglich, dass AMD bei den N4x eine ROP je CU für genug hält, 64 wären 32 weniger als bei N32, der 96 hatte.
Ist nur Speku, aber halt auch nochmal als Hinweis, dass die Menge der WGP/CUs, Caches und die Größe des SIs nicht alles sind, was so einen Chip ausmacht.
amdfanuwe
2024-04-07, 02:20:08
Außerdem dürften die IF-Interfaces bei N31/32 für die Verbindung zu den MCDs nicht so viel kleiner als die Speicherinterfaces sein, da ja entprechend Bandbreite da durch muss, die fallen für die monolithischen N4x ebenfalls weg.
Wenn dieses Bild halbwegs passt, sind die IF-Interfaces wesentlich kleiner als die SI, ca. 1/3 des SI.
https://substackcdn.com/image/fetch/w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fc8ca5a72-35c3-4aae-9acb-debfedc6c08f_4096x3832.jpeg
Mir geht da einiges durcheinander, ich versuch mal zusammen zu fassen:
N33 2SE 32CU N6 204mm²
N44 2SE 32CU N4 ~130mm²
N32 3SE 60CU N5 200mm² - 4*IF = ~180mm² + ~120mm² (4*N6 IF$ + SI) = ~400mm²
N48 4SE 64CU N4 ~240mm²
2*N44 = ~260mm² hat dann aber auch Media Engine etc. doppelt.
Also wenn der N44 bei ~130mm² rauskommt, passen auch die ~240mm² beim N48.
vinacis_vivids
2024-04-07, 03:39:01
N48 gepresst auf 240mm² @2,7Ghz Shadertakt und 3,3Ghz Front-End wäre im Avatar-RT-Upscale-Engine mit Frame-Generation schneller als die RTX4090, die mit 628mm² daher kommt und fp16~82 Tflop/s leistet.
Ein spekulativer N48@2,777Ghz kommt auf ~90 Tflop/s fp16. AMD bleibt bei der dual-issue uArch den maximalen asynchronen front-end clk von 3,333Ghz an, kommt man bei frame generation auf ~ 109,2 Tflop/s fp16. Eine RX7900 XTX schafft ~122 Tflop/s fp16:
https://youtu.be/jRPtpOqDPbA?t=395
https://i.ibb.co/421zyRC/HGF3-ASYYMVcwxrc-QN5-SG3o.png
Der neue FSR3/4 WMMA-Code wird das per AMD Frame Generation sicherlich ausreizen können.
Bei neueren nicht nativ gespielten Engines, sondern überwiegend per Upscaling und Frame-Generation ist die RTX4090 heute somit theoretisch von RDNA4 N48 überholt worden.
Ich denke da an 4K@180-240hz und doppeltes Monitor Setup in 4K@180-240hz per Upscaling + Frame Generation. Die meisten Kunden werden mit 30hz/60hz und 120hz zufrieden sein.
Sony/AMD PS5-Pro wirbt ja mit "nur" 67 Tflop/s fp16 Rechenleistung mit Upscaling + FG? 4K inkl. RT inkl. upscale @ 60fps. Dann sind die spekulierten ~ 109,2 Tflop/s fp16 doch noch ein ganzes Stück schneller als die PS5-Pro.
Derzeit fehlen auch noch gesammelte 8K-WMMA-Upscaling Benchmark Ergebnisse, die viel interessanter sind als 8K-Nativ Ergebnisse. Mit der Ankündigung von Sony wiederholt 8K-Pixel-Auflösung zu erwähnen.
Sony PS5-Pro landet theoretisch bei der 7700XT bis 7800XT, N32 CU-Struktur mit RDNA4 uArch. Den zunehmenden RT-Code werden die Japaner auch mit beachten beim Upgrade.
Beim 4k high Avatar-RT-Upscale Code +FG ist die 7900GRE mit 103fps schneller als die RTX4070 mit 89fps.
Insbesondere Starfield nutzt die fp16 shader sehr gut aus:
https://i.ibb.co/0tbkPqj/4-K-Starfield-Upscaling-FG-RTX4070-vs-7900-GRE.png
Auch 4K-FSR3-UE5 + FG Immortals of Aveum liegt die 7900XTX bei 135fps, die 4070Ti S bei 95fps. Knappe ~50% vorne.
https://youtu.be/jRPtpOqDPbA?t=395
https://i.ibb.co/zHyG6pF/4-K-Immortals-of-Aveum-FSR3-FG-7900-XTX-vs-4070-Ti-Super.png
Man bedenke: Früher hatte Huang mit Sweeney zusammen gearbeitet. Heute ist da nicht mehr viel Liebe übrig.
Auch Ubisoft nutzt mit Avatar den RT-FSR3-FG Code gut fp16 aus.
Man bedenke N48 RDNA4-GPU und PS5-Pro-APU haben wahrscheinlich >300 TOPs KI-Rechenleistung. Wahrscheinlich wird und will Sony auch auf dem PC Spiele verkaufen und mit 4K-RT werben wollen.
Zwischen reinem Rasterizing werden wohl viele Zwischenstufen im RT (Far Cry 7, Resident Evil usw.) und Upscaling aufgerufen werden. CP2077-PT und AW2-RT bilden sicherlich die Skala auf der RT-Heavy Seite.
Leonidas
2024-04-07, 04:14:12
Sollten die beiden GPU nicht erst in Q4 kommen?
Nein. Klares Herbst-Projekt. Man wollte ja beachtbar vor Blackwell im Markt sein.
Da waren mehr Leute von Nvidia beteiligt als viele Studios für AA-Spiele überhaupt Mitarbeiter haben.
Vielleicht könnte NV in Zukunft in dieser Frage weniger spendabel sein. Die Mitarbeiter wären schließlich bei KI-Projekten besser verbraten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.