Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
dargo
2024-06-14, 11:11:00
Da werden noch einige Auflösungen mehr getestet. ;)
Was interessieren mich höhere Auflösungen wenn schon 720p mit Upscaling-Overhead unspielbar ist?
Das müsste gerade für dich spannend sein, denn man sieht hier mal, dass RDNA 2 nur absolutes Spar-RT hat und bereits RDNA 3 pro Einheit massiv zulegen kann, wenn man's abruft.
Wie oft denn noch? Ich bekomme kein feuchtes Höschen wenn eine neue Gen bei RT/PT deutlich schneller ist. Falls du es noch nicht mitbekommen hast das nehme ich einfach nebenbei mit ohne einen Hypertrain vom Zaun zu brechen oder Schnappatmung zu bekommen.
robbitop
2024-06-14, 12:46:49
Es könnte aber andere interssieren weil es Erkenntnisse über die uArch bringt. Ich finde diesen abfälligen Ton ggü Raff nicht gerade sinnvoll.
Sumpfmolch
2024-06-14, 12:54:25
Die Klasse erscheint mit dafür zu langsam realistch sollte man die 4080 in RT erreichen könne was für 700€ ok wäre.(+30% zu 7900XTX)
Schon dort bist du nur bei 1080p und 70fps ich würde das als Minimale Auflösung einstufen um auf 1440p zu skalieren.
Denke in Zukunft wird Path Tracing interessanter und deshalb meinte ich mind. +100% gegenüber 7900xtx. Denn diese ist da nicht mal halb so schnell gegenüber einer 4080.
The_Invisible
2024-06-14, 12:55:36
Selbst das Brot und Butter Spiel AC bekommt in der nächsten Version viel RT, glaub daher auch das es mehrere interessiert.
dargo
2024-06-14, 13:06:03
Dein Butter und Brot Spiel AC bekommt kein (genickbrechendes) Pathtracing. :rolleyes: Wäre auch kompletter Selbstmord für Ubisoft. Aber sowas versteht der Nerd im 3DC mal wieder nicht.
Ex3cut3r
2024-06-14, 13:11:37
Überall wo heavy RT drin ist, wird eine GeForce vorne sein. Bei PT darf sich die 7900XTX mit einer 3080 10GB anlegen. Und bei RT mit einer 4070.
AMD rocks. :usad:
So sehr, dass die nächste AMD Gen nicht mal ein High End Modell bekommt. Great Job.
Lehdro
2024-06-14, 13:40:46
Dein Butter und Brot Spiel AC bekommt kein (genickbrechendes) Pathtracing. :rolleyes: Wäre auch kompletter Selbstmord für Ubisoft. Aber sowas versteht der Nerd im 3DC mal wieder nicht.
Und? RT wird in Zukunft sicherlich nicht weniger anspruchsvoll werden, von daher ist PT ein guter Fingerzeig dass der Abstand eher nur anwachsen wird - und die Wichtigkeit von RT Leistung generell viel höher werden wird. Völlig unabhängig davon wie du über das Thema denkst.
dargo
2024-06-14, 13:44:03
Breaking News. :lol:
Es geht nicht darum ob RT/PT kommt sondern in welchem Tempo bezüglich Last seitens der DEVs. :rolleyes:
Lehdro
2024-06-14, 13:52:44
Breaking News. :lol:
Es geht nicht darum ob RT/PT kommt sondern in welchem Tempo bezüglich Last seitens der DEVs. :rolleyes:
Und die Devs bauen es umso intensiver ein, wenn die Rohleistung da ist. Wenn AMD da bummelt ist das nicht gut. Ich sag nur Konsolen.
dargo
2024-06-14, 13:58:40
Blöd nur, dass sie eben nicht da ist. Wie du schon sagst Konsolen und eben auch der Mainstream am PC, ergo die tragende Kraft bei Games. Solche vereinzelten Ausnahmen wie bsw. AW2 oder CP77 mit PT wird es immer wieder mal geben. Völlig normale Marketingstunts von Nvidia.
Schnitzl
2024-06-14, 15:33:58
Es könnte aber andere interssieren weil es Erkenntnisse über die uArch bringt. Ich finde diesen abfälligen Ton ggü Raff nicht gerade sinnvoll.
+1
Gebt euch mal die frischen Pathtracing-Benchmarks aus Alan Wake 2: https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Night-Springs-DLC-Pathtracing-Benchmarks-1449456/2/#a4
"Nichtsdestotrotz schlägt hier eine Art Sternstunde für RDNA 3: Die Radeon RX 7800 XT kann sich weit überdurchschnittlich von allen RDNA-2-GPUs absetzen (!) und die RX 7900 XTX ist mehr als doppelt so schnell wie die 6800 XT."
Dass eine 7800 XT um ~40 Prozent von einer 6800 XT wegkommt und damit selbst eine aufgedonnerte 69x0 XT schlagen kann, gibt es sonst nirgends. Das wäre somit einer der Fälle, wo wir bei RDNA 4 besonders hinsehen sollten. Die Skalierung von Rasterizing auf Raytracing auf Pathtracing verdient ebenfalls Blicke, alles sehr spannend und im Text erläutert. :)
MfG
Raff
sehr interessant, danke :up:
noch interessanter würde ich finden RT und sonstige Dinge auf hoch anstatt max (z.B.)
Von mir aus auch [take your own pick] Schatten oder Effekte mittel
Wie sich das dann darstellt in der Reihenfolge, ob dann die 6800XT wieder schneller ist als die 7800XT :D
Lehdro
2024-06-14, 16:31:26
Blöd nur, dass sie eben nicht da ist. Wie du schon sagst Konsolen und eben auch der Mainstream am PC, ergo die tragende Kraft bei Games. Solche vereinzelten Ausnahmen wie bsw. AW2 oder CP77 mit PT wird es immer wieder mal geben. Völlig normale Marketingstunts von Nvidia.
Du sagst Marketingstunt, ich sage Guckloch in die Zukunft. Marketingstunt ist eher so etwas wie die Star Wars Demo.
OgrEGT
2024-06-14, 17:15:23
In dem Leak neulich zu den Shipping Manifests stand "NAVI48 G28201 DT XTX (...) (SAMSUNG) (...)"
Ob das ein Hinweis darauf ist dass die GPU oder der Speicher von Samsung gefertigt werden? Auch steht hier "N48 XTX"... wie passt das zur Einschätzung dass die Karte nur 7900XT oder 7900GRE Leistung haben soll und in der neuen Serie das XTX Suffix?
Dino-Fossil
2024-06-14, 17:28:39
Auch steht hier "N48 XTX"... wie passt das zur Einschätzung dass die Karte nur 7900XT oder 7900GRE Leistung haben soll und in der neuen Serie das XTX Suffix?
AMD ändert für die Radeons so oft das Namensschema, das kann alles und nichts bedeuten.
Vorsicht: Ein "XTX" im Name String der Firmware (wonach es aussieht, da Samsung dabeisteht, was wohl der Speicherhersteller ist) bedeutet nicht, dass auch das Produkt mit XTX endet. AMDs Begründung für das XTX der 7900 war, dass das Teil mit 384 Bit und 24 GiB eine ganz neue Produktklasse sei - typischer Marketing-Quark. ;)
-> XTX-GPU mit Samsung-Speicher kann auch eine "8800 XT" werden
MfG
Raff
Ex3cut3r
2024-06-14, 17:46:13
Na wenigstens wird es keine PE (Platinum Edition) ;)
Du meinst Press Edition (weil in freier Wildbahn so schweineselten). :biggrin:
MfG
Raff
Ex3cut3r
2024-06-14, 17:51:54
Ganz genau. ;) :biggrin:
OgrEGT
2024-06-14, 18:15:31
Eigentlich XT aber vielleicht wandert das X von RX von links nach rechts weil man nun statt RX nun in RT umbenennt also RT8800XTX :ulol:
raffa
2024-06-14, 18:51:54
Es findet sich bestimmt irgendein Grund für ein X mehr im Namen. Mehr X ist immer besser. Also her damit :D
Viel interessanter ist aber die Frage, wenn kommt sie denn, die RX 8800 XTX RTE (RayTracing Edition)?
Hakim
2024-06-14, 18:58:16
sind ja nur drei X, das gibt es schon jetzt. RX 8800 XTX RXT!
Ich wäre ja für ein "y" mehr im Namen: Raydeon – sofern AMD es endlich ernst mit den Strahlen meint. :naughty:
Und bei Nvidia steht eigentlich auch mal wieder etwas Neues an. Sehen wir bald die ersten "PTX" Grafikkarten (P natürlich für Pfadfindung)? ;)
MfG
Raff
Schnitzl
2024-06-14, 19:51:12
ich wäre für RayTron 8800 "Dillinger Edition" :tongue: ;)
scnr
Dann tippe ich auf Raideon und RDNAI von AIMD, und AITX von nvAIdia
Zusätzlich noch auf AIrc von AIntel, Snaipdragon von Quailcom, AIphone von AIpple, und Waindows von Maicrosoft
OgrEGT
2024-06-24, 20:22:04
https://wccftech.com/amd-rdna-4-radeon-rx-8000-gpu-patches-linux-dcc-faster-efficient-performance/
AMD Adds More RDNA 4 “Radeon RX 8000” GPU Patches On Linux, Enabling DCC For Faster & Efficient Performance
Altehardware
2024-06-25, 00:44:04
Es scheint als ob rdna4 zur gamescom da sein wird. Also abwarten wer nenn upgrade braucht.
TheAntitheist
2024-06-25, 01:22:36
vllt. doch
Das Unternehmen teilte Tweakers auf der Messe mit, dass möglicherweise eine Verbraucherversion dieser modifizierten
RX 7900 XTX veröffentlicht wird.
dann ist es dennoch ein PowerColor feature und kein RDNA4 feature
Neurosphere
2024-07-06, 11:41:35
https://x.com/Kepler_L2/status/1809317008930177339?t=71-dDAAc5OnGaBBoDPkMFQ&s=19
RDNA4 dann also erst 2025. Eigentlich schade, sonst hätte man zumindest im mittlerem Segment erstmal freie Bahn gehabt.
Nightspider
2024-07-06, 13:40:09
Früher hatte ich ja mal gehofft das RDNA4 jetzt zwischen Juli und August kommt und RDNA5 6 Quartale später Ende 25/ Anfang26 aber als Gamer schauen wir wohl jetzt wieder etwas in die Röhre, wenn das Geld mit AI gemacht wird.
DrFreaK666
2024-07-06, 13:48:16
Schau dir den Markt an. Wo will man RDNA4 positionieren, wenn es noch reichlich RDNA3 gibt?
Wobei die RDNA3 selterner werden. Aber es ist trotzdem kein Wunder, AMD benötigt jedes Fitzelchen 4nm für die eigenen APUs und das RDNA3-Packaging für Halo.
BlacKi
2024-07-06, 14:19:42
mlids source meinte, man bekommt keine größeren mengen mehr an grafikkarten mit n31 und n32. eigentlich wäre das ein indikator, das die rdna4 karten vor der tür stehen. ich schätze aber, man disponiert die kapazitäten um, weil man an diesen karten zu wenig verdient.
dildo4u
2024-07-06, 14:25:30
Du brauchst tonnen Kapazität für Strix Halo der Chip sollte in der größen Ordnung der teuersten Apple Chips sein also für 2000€+ Geräte.
M3Max ist 3X der aktuellen IGP.
https://i.ibb.co/z7nQWXN/Screenshot-2024-07-06-142745.png (https://ibb.co/yYfdm6V)
https://www.theverge.com/24191671/copilot-plus-pcs-laptops-qualcomm-intel-amd-apple
robbitop
2024-07-06, 14:57:30
Wobei die RDNA3 selterner werden. Aber es ist trotzdem kein Wunder, AMD benötigt jedes Fitzelchen 4nm für die eigenen APUs und das RDNA3-Packaging für Halo.
Das IOD von Halo (wo auch die GPU drauf ist) soll laut MLID N3E sein.
BavarianRealist
2024-07-06, 16:03:42
Das IOD von Halo (wo auch die GPU drauf ist) soll laut MLID N3E sein.
Das bezweifle ich sehr: die iGPU hätte davon vielleicht etwas, aber all die anderen Komponenten (Controler, L3 etc.) shrinken dort ja nicht, was letztlich Verschwendung von teurem Wafer-Material wäre.
reaperrr
2024-07-06, 16:33:10
Das bezweifle ich sehr: die iGPU hätte davon vielleicht etwas, aber all die anderen Komponenten (Controler, L3 etc.) shrinken dort ja nicht, was letztlich Verschwendung von teurem Wafer-Material wäre.
Die iGPU ist aber relativ groß, 40 CUs ist mehr als N44 gerüchteweise hat.
Und Speicherinterfaces shrinken vielleicht mit N3E nicht, Speichercontroller aber schon, und davon dürfte die iGPU wegen 256bit doppelt so viele haben wie N33/N44/vorige APUs.
Immerhin 4 Zen5c-LP Kerne has der SoC-Teil auch noch.
Und was den L3/IF$ angeht, nur weil die SRAM-Zellen nicht kleiner werden heißt das noch nicht, dass 3nm keine Perf/Effizienz-Vorteile in diesem Bereich hat.
Zu guter Letzt darf man nicht unterschätzen, dass gerade für die Konkurrenzfähigkeit der iGPU auch Verbrauch und Takt ne große Rolle spielen werden, und etwas besser wäre 3nm da grundsätzlich schon, zumal es ein 2025er Produkt wird und mindestens bis nach 2026 hinein konkurrenzfähig bleiben muss.
Das IOD von Halo (wo auch die GPU drauf ist) soll laut MLID N3E sein.
Bei halo gings ums Package nicht prozess
robbitop
2024-07-06, 18:11:31
Das bezweifle ich sehr: die iGPU hätte davon vielleicht etwas, aber all die anderen Komponenten (Controler, L3 etc.) shrinken dort ja nicht, was letztlich Verschwendung von teurem Wafer-Material wäre.
Der ganze IO Kram ist vergleichsweise zur riesen GPU vernachlässigbar klein. Und da noch mehr tiles draus zu bauen bringt auch nichts - siehe Meteor lake.
amdfanuwe
2024-07-06, 18:14:04
Halo wird wahrscheinlich wie Ryzen 99x0. Also I/O mit GPU und 2 CPU Chiplets. Da braucht es kein RDNA3 FanOut oder CoWoS Package.
Eher unwahrscheinlich da teurer und aufwändiger wäre ein I/O Die mit CPU und GPU gestacked wie bei MI300, wäre dann SoIC.
Auch da braucht es kein knappes CoWoS.
raffa
2024-07-06, 18:38:37
das hier passt nicht so recht zu einem derzeit spekulierten recht spätem Release erst gemütlich in 2025:
"AMD Appears To Be Aiming For Good Radeon RDNA4 GPU Support In Linux 6.11"
https://www.phoronix.com/news/AMD-RDNA4-Intent-Linux-6.11
Kernel 6.11 ist noch etwa 12 Wochen entfernt, wenn ich mich gerade nicht verrechne.
The_Invisible
2024-07-06, 18:50:37
Muss ja nicht heißen das rdna4 mit Kernel 6.11 released wird, bis der kernel in die großen distros kommt können Monate vergehen.
MiamiNice
2024-07-06, 19:37:16
Mal blöd in die Runde gefragt: Warum nutzt AMD nicht den Wissensvorsprung bei MCM um NV anzugreifen? Zu teuer?
Der_Korken
2024-07-06, 19:55:53
Mal blöd in die Runde gefragt: Warum nutzt AMD nicht den Wissensvorsprung bei MCM um NV anzugreifen? Zu teuer?
Angeblich gab es Pläne dafür. 3 Base-Dies mit je 3 Shader-Engine-Dies on top. Entweder zu teuer oder das Design hat bei Gaming-Last nicht gut skaliert. Einfach nur Shader-Units zu stacken wie bei den HPC/ML-Monstern reicht für Games halt nicht, sonst wären Fiji und Vega nicht so gefloppt. Wir werden es wohl nie erfahren.
Im Moment scheint sich AMD aus dem Gaming-GPU-Markt eher zurückzuziehen.
w0mbat
2024-07-06, 21:09:30
Weil alles "MCM" aktuell extrem knapp und daher teuer ist. Nicht wirklich für den consumer Markt geeignet.
robbitop
2024-07-06, 21:20:38
Und selbst mit bester Packagingtechnik kostet jedes Bit mehr joule sofern es einen Chip verlässt. Moderne packagingverfahren können diese penalty drücken - aber am Ende sind GPUs wenn sie 3D Grafik rendern sehr sehr kommunikationslastig. Da werden chipintern hunderte gb/s wenn nicht zT TB/s hin und hergeschoben. Interdependenzen die nicht erlauben die GPU so einfach zu segmentieren und die Arbeit so aufzuteilen, dass wenig Kommunikation nötig ist (wie zB es bei vielen compute cases es oft möglich ist).
Und diese hohen Datenmengen addieren dann auch wenig Joules pro Bit (durch modernes packaging) auf. Ein MCM Konstrukt wäre also nie so energieeffizient wie ein monolithisches Äquivalent. Dazu kommt zusätzliche Fläche um die interchip Kommunikation möglich machen zu können und die sehr hohen Kosten für das Packaging.
Was bringt einem ein MCM Monster was eine 4090 schlägt, wenn sie dann deutlich energieineffizienter ist (also mehr verbraucht als die Mehrleistung es rechtfertigen würde). Exemplarisch reden wir dann von 600W oder so. Und sie dann auch das doppelte kosten würde.
Irgendwann werden beide durch das recticle limit zukünftiger Nodes gezwungen sein, auf mcm zu gehen. Aber ein offensichtlicher Win ist es anscheinend nicht.
Mein tip ist, dass dabei dann auch keine Monster entstehen sondern einfach nur mit kleineren Chiplets SKUs skaliert werden (die aber hypothetische Monolithen nicht schlagen würde aber ggf irgendwann auch Kosten sparen wenn so ein Packaging viel billiger wird ).
reaperrr
2024-07-06, 21:55:40
Wenn man den Quellen von MLID glauben mag, haben die Chiplet-RDNA4 zum Zeitpunkt der Streichung auch immer noch Probleme gemacht, von denen man bei AMD selbst nicht genau sagen konnte, wie lange es brauchen würde die alle zu lösen.
Also neben den negativen Effizienz-Auswirkungen und teuren Packaging/3D-Verfahren wäre dann womöglich auch noch ein relativ später Release gekommen.
Und mit 144 CUs für den größten N4x zu bis zu 192 SM bei GB202 wäre das Verhältnis von CUs zu SM genau wie bei N31 vs. AD102 gewesen, also ohne einen unverhältnismäßig großen Sprung bei der Effizienz wär's für die Chiplet-N4x ähnlich schwierig geworden.
Wenn da dann noch 6-9 Monate späterer Release obendrauf gekommen wären...
dargo
2024-07-07, 08:15:41
Hier träumen schon wieder welche von 399$ für die RX 8800XT, nur weil Red Gaming was vom aggressivem Preispunkt bei RDNA4 spricht. :freak:
zuu2jk5lXSE
Ich halte selbst 499$ für sehr sportlich. Allerdings spielt imo der Releasezeitpunkt auch eine wichtige Rolle. Würde das Ding in September/Oktober 2024 kommen wären die 499$ imho sogar extrem sportlich. Kommt das Ding erst Februar/März 2025 halte ich so einen Preis für wahrscheinlicher. Vielleicht nicht unbedingt gleich 499$, aber 549-599$.
basix
2024-07-07, 10:44:55
399$ halte ich auch für eine ziemlich optimistische Erwartung. Unmöglich ist es mMn aber nicht, da laut Gerüchten ein sehr kompaktes Die und "günstiger" GDDR6 verwendet wird. Die 7800XT gibt es bereits ab 500 Euro und ist teurer in der Herstellung.
499$ ist mMn eine realistische Erwartung, mit Spielraum nach unten. Höher als das erwarte ich nicht, da die 7800XT bereits für 499$ vorgestellt wurde und wie gesagt teurer in der Herstellung ist.
amdfanuwe
2024-07-07, 10:45:03
nicht unbedingt gleich 499$, aber 549-599$.
Das hängt ganz davon ab, wie sich das RDNA4 high End Modell mit der Geforce 4070 (Ti) Super messen kann.
4ß70 Ti Super 16GB aktuell ab 828,-
4070 Super 12 GB aktuell ab 599,-
Gegen die 4070 Ti Super benötigt es 7900XT Raster mit zusätzlicher ~25% Raytracing Leistung.
Nach den bisherigen Spekulationen wird RDNA4 das nicht ganz erreichen.
Sieht also so aus, als wäre die 4070 Super der Konkurrent.
Käme RDNA4 jetzt raus, wären es wohl 599,-€.
Bis zur CES könnte sich das Preisniveau noch nach unten schieben und mehr als Nvidia bei vergleichbarer Leistung kann AMD nicht verlangen.
499,-€ wären dann im Vergleich auch kaum noch günstig sondern lediglich angemessen.
robbitop
2024-07-07, 10:52:51
Ich frage mich immer noch wie all das in die kolportierten 230-240 sqmm reinpassen soll bei 4nm. Und dann noch eine modernere uArch.
Und leider muss sich N48 dann mit Blackwell messen - nicht mehr mit Ada Lovelace. Also eher mit einer 5060/ti. Ähnlich schnell soll dann auch der größere Battlemage werden. Das könnte dann vom Preis auch günstig werden weil die Performanceerwartung mit den neuen Generationen ja zunimmt pro SKU Gruppe.
amdfanuwe
2024-07-07, 10:58:09
399$ halte ich auch für eine ziemlich optimistische Erwartung. Unmöglich ist es mMn aber nicht, da laut Gerüchten ein sehr kompaktes Die und "günstiger" GDDR6 verwendet wird.
Ich denke nicht, dass AMD auf Wohltäter macht.
Die werden sich ins Preis/Leistungsverhältnis einsortieren und jeden % mehr an Marge feiern.
Es ist noch nicht an der Zeit in dem Markt gegen Nvidia anzustinken.
Das dürfte auch der Grund sein, warum AMD keinen großen Chip bringt. Die Verkaufszahlen wären zu gering und das ganze amortisiert sich nicht.
Nvidia kann Millionen 4090 absetzen, AMD müsste schon einiges besser sein um überhaupt auf Lohnenswerte Stückzahlen zu kommen.
Mit MCM sieht das etwas anders aus, da sich die Chips auf mehrere SKUs verteilen und lohnenswerte Produktionsmengen an Chips erreicht werden.
Vielleicht nächstes mal.
basix
2024-07-07, 11:07:30
Wie gesagt, ich halte 499$ für eine realistische Annahme. Gleich wie der Vorgänger, besseres P/L für den Kunden und mehr Marge für AMD. Win-Win.
399$ evtl. als untere Grenze, je nachdem wie Blackwell ausschaut und wenn man Preise reduzieren muss.
reaperrr
2024-07-07, 11:19:29
Nach den bisherigen Spekulationen wird RDNA4 das nicht ganz erreichen.
Nach welchen Spekulationen?
Mein aktueller Stand ist, dass die Rasterleistung etwas über der 7900XT landen soll und die RT-Leistung gegenüber RDNA3 deutlich steigen soll.
N48 hat knapp 77% der CUs der 7900 XT, soll aber über 3 GHz takten, also mindestens um die 500 MHz höher.
Takt skaliert besser als CUs und ein paar Prozent mehr IPC je CU wird RDNA4 wohl auch haben, also mindestens grob Gleichstand zur 79XT würde ich in Raster schon erwarten, eher etwas mehr.
Und RT soll deutlich verbessert worden sein.
Ich würde daher mindestens ~Gleichstand zur 4070Ti in beiden Disziplinen erwarten, vllt. Tick schneller in Raster und Tick langsamer in RT.
dargo
2024-07-07, 11:41:01
399$ halte ich auch für eine ziemlich optimistische Erwartung. Unmöglich ist es mMn aber nicht, da laut Gerüchten ein sehr kompaktes Die und "günstiger" GDDR6 verwendet wird. Die 7800XT gibt es bereits ab 500 Euro und ist teurer in der Herstellung.
Das ist zwar alles soweit richtig, aber wer verzichtet schon gerne auf höhere Margen wenn er die Chance dafür bekommt? Im Prinzip ist es sinnlos über das Preisgefüge zu spekulieren. Das hängt auch alles davon ab wo die Konkurrenz in diesem Performancesegment preislich zum Releasezeitpunkt von N48 steht.
DrFreaK666
2024-07-07, 11:56:48
...Nvidia kann Millionen 4090 absetzen...
Gewagte These
amdfanuwe
2024-07-07, 11:59:07
Mein aktueller Stand ist, dass die Rasterleistung etwas über der 7900XT landen soll und die RT-Leistung gegenüber RDNA3 deutlich steigen soll.
Mein Stand ist: Raster zwischen 7900 GRE und 7900XT. Und mal abwarten, ob das deutlich mehr an RT ausreicht.
Würde mich freuen, wenn es mehr wird. Ich mag aber lieber erst mal den Ball etwas flach halten.
basix
2024-07-07, 13:11:20
Gewagte These
Die 4090 verkauft sich schon sehr gut. Das liegt aber nicht am Gaming, sondern an ML/AI ;)
Das ist zwar alles soweit richtig, aber wer verzichtet schon gerne auf höhere Margen wenn er die Chance dafür bekommt? Im Prinzip ist es sinnlos über das Preisgefüge zu spekulieren. Das hängt auch alles davon ab wo die Konkurrenz in diesem Performancesegment preislich zum Releasezeitpunkt von N48 steht.
Wie hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13573900#post13573900) nochmals mit Nachdruck erwähnt: Ich denke nicht, dass es 399$ werden sondern wie bei der 7800XT 499$. Je nach erreichter Performance ist das bereits "aggressives Pricing". Und aufgrund kleinem Die usw. gleichzeitig eine Margensteigerung für AMD.
Edit:
Für mich würde ein ordentliches Portfolio in etwa so aussehen:
- N48 ~7900XT Performance bei Raster
- N48 ~4070 Ti Performance bei RT
- N48 XTX 499$ (16GB)
- N48 XT 429$ (16GB)
- N44 XTX 329$ (16GB)
- N44 XTX 279$ (8GB)
- N44 XT 249$ (8GB)
amdfanuwe
2024-07-07, 13:19:51
Die 4090 verkauft sich schon sehr gut. Das liegt aber nicht am Gaming, sondern an ML/AI ;)
Nvidia hat jedenfalls sie Stückzahlen in dem Bereich um profitabel zu sein.
Mit einem dicken monolithischen RDNA4 wäre das bei AMD fraglich.
BavarianRealist
2024-07-07, 15:49:10
Ich frage mich, ob N48 womöglich wie die XCDs von MI300 über eine Bond-Pad-Via-Leiste verfügen könnte, sodass darüber dann zwei N48 zu einem Doppel-N48 verbunden werden könnten und somit dann doch eine doppelt so leistungsfähige GPU darstellen könnten. Dann bräuchte es vermutlich zwar einen gespiegelten N48, aber man hätte höheres Yield, da nicht nur das Die halb so groß wäre, sondern man auch alle anderen Strukturen doppelt hätte, die sonst nur einfach da wären (Video Out etc.).
Der_Korken
2024-07-07, 16:09:15
Ich frage mich, ob N48 womöglich wie die XCDs von MI300 über eine Bond-Pad-Via-Leiste verfügen könnte, sodass darüber dann zwei N48 zu einem Doppel-N48 verbunden werden könnten und somit dann doch eine doppelt so leistungsfähige GPU darstellen könnten. Dann bräuchte es vermutlich zwar einen gespiegelten N48, aber man hätte höheres Yield, da nicht nur das Die halb so groß wäre, sondern man auch alle anderen Strukturen doppelt hätte, die sonst nur einfach da wären (Video Out etc.).
Wie will man das mit dem VRAM lösen? Du musst die Hälfte der Leitungen ja im oberen Die enden lassen beim N48. Abgesehen davon dürfte das Packaging alle Kostenvorteile von Chiplets auffressen. Und Temperaturen wären auch ein großes Problem, wenn sich geschätzt 200W nur von den GPUs auf dann z.B. nur 150mm² verteilen würde.
Zossel
2024-07-07, 17:10:18
AMD scheint sich auch auf Notebooks zu konzentrieren, da ist wahrscheinlich mehr Kohle zu holen als mit diskreten GPUs.
Interessant könnte der Angriff von der Seite auf Laptop-GPUs mit der APU mit dem breiten RAM-Interface werden.
raffa
2024-07-07, 19:25:33
Mag schon sein, aber ich sehe durchaus einen Markt für kaufenswerte Desktop GPUs.
Was kauf ich denn jetz für ne Graka? Nimm die RX 8885 XTX XX - is fett!
Klappt bei den cpus ja auch, brauchst halt ein überzeugendes Produkt.
Aber keine Kapazität dafür, das ist eher das Problem.
-> 4/5nm für APUs
-> RDNA3-Packaging für Halo
Da bringt man die GPUs eben erst, wenn die heiße Phase bei Notebooks durch ist, also zur CES und lässt RDNA3 auf Sparflamme weiterlaufen bis dahin.
raffa
2024-07-07, 19:31:59
Ja, ok, das ist ein Argument, welches ich nachvollziehen kann.
Zossel
2024-07-07, 19:36:18
Mag schon sein, aber ich sehe durchaus einen Markt für kaufenswerte Desktop GPUs.
Was kauf ich denn jetz für ne Graka? Nimm die RX 8885 XTX XX - is fett!
Nur Dumme laufen immer wieder gegen die stabilsten Teile einer Wand wenn nebenan die Wand instabil ist.
Altehardware
2024-07-07, 19:40:02
ich erwarte nach den letzten Gerücht von 3,4ghz Takt beim n48 in Januar zur ces folgendes
Node n4p 3,3-3,5ghz
64cu grob kurz hinter der rx7900xt raster und kurz vor der rtx4070 super in dxr
Verhältnis ist genau -14% statt die bisher -110% in dxr= es sind 64cu nötig für 56sm ada rt core Ergibt folgende preis Struktur
n48 64cu 499$ 16gb ces 2025 559€
n48 48cu 399$ 16gb ces 2025 449€
n44 40cu 349$ 16gb gtc April/Mai 2025 389€
n44 32cu 299$ 12gb Sommer Juni 2025 339€
nvidia Reaktion ist
Januar preis Reduktion rtx4070 super 499$/559€
Januar 2025rtx4070 449$ /499€
Sept 2024 rtx4060ti 16gb 349$ /389€
Sept 2024 rtx4060ti 279$ /309€
Sept 2024 rtx4060 229$ / 249€
Feb 2025 rtx5070 50sm 16gb 599$ (+35%) 669€
März 2025 rtx5060ti (rtx4070 und super eol) 499$ (+50%) 559€
Juni 2025 rtx5060 12gb (eol rtx4060ti 8gb rtx4060) 399$ (+70%) 439€
Nicht wundern blackwell dxr ist deutlich schneller als ada dxr grob +25% per sm
Also sind 64cu für nur 42sm nötig
BavarianRealist
2024-07-07, 22:19:33
N44 und N48 könnten durchaus vor allem für Notebook konstruiert sein. AMD könnte zur CES2025 sich als der neue Platzhirsch im Notebook-Segment präsentieren, einerseits mit Strix-Halo und nach oben hin dann mit den Granit-Ridge für Notebook zusammen mit den diskreten Grakas auf Basis von N44 oder N48.
raffa
2024-07-07, 22:22:01
fänd ich persönlich als rx 6600 user und schätzer gar nicht mal schlecht : )
Schnitzl
2024-07-10, 13:28:15
good news everyone...!
Neue Strategie: AMD will auch ein Software-Unternehmen werden (https://www.computerbase.de/2024-07/neue-strategie-amd-will-auch-ein-software-unternehmen-werden/)
wussst nicht genau wo das am besten passt ... ungefähr 10 Jahre zu spät aber immerhin :freak:
Der_Korken
2024-07-10, 15:01:36
good news everyone...!
Neue Strategie: AMD will auch ein Software-Unternehmen werden (https://www.computerbase.de/2024-07/neue-strategie-amd-will-auch-ein-software-unternehmen-werden/)
wussst nicht genau wo das am besten passt ... ungefähr 10 Jahre zu spät aber immerhin :freak:
Ich habe eher das Gefühl, dass sich "Software" hier nicht auf das bezieht, wovon die Gaming-Sparte profitieren würde, sondern auf ein Ökosystem und Tools für ML-Workloads. Ich wäre als Gamer lieber nicht zu optimistisch.
dildo4u
2024-07-10, 15:04:56
ML kann man z.b für Denoiser nutzen wenn AMD irgendwann RT Performance hat muss man Features wie Ray Reconstruction bringen.
Der_Korken
2024-07-10, 15:11:14
ML kann man z.b für Denoiser nutzen wenn AMD irgendwann RT Performance hat muss man Features wie Ray Reconstruction bringen.
Das sind zwei völlig verschiedene Paar Schuhe. Was ich meine geht eher Richtung CUDA, wo man eine effiziente Schnittstelle anbietet, um die eigene Hardware mit fremden Code möglichst effizient auszulasten. Für einen Denoiser muss sich jemand dediziert mit dieser einen Anwendung auseinandersetzen und in dem Bereich forschen. Das eine hat mit dem anderen nichts zu tun. Wenn AMD einen Denoiser entwickelt, der viel ML-Power braucht, könnten sie sich ja theoretisch ne Nvidia-Kiste dahinstellen und darauf rechnen, wenn die eigene HW das nicht hinbekommt.
aufkrawall
2024-07-10, 15:11:28
Wird kein Ding der Unmöglichkeit sein, ML-Elemente in FSR zu integrieren. Muss nicht "Brute Force" wie bei Nvidia sein.
Ansonsten gibt es bereits eine sich mittlerweile deutlich abzeichnende positive Software-Entwicklung seit RDNA3, da muss man auch nicht schwarzmalen.
dildo4u
2024-07-10, 15:24:14
Imo wird AMD weiter investieren schon für die Konsolenverträge.
Margen sind zwar klein aber bisher ist das eine Konstante Einkommens Quelle.
basix
2024-07-12, 08:14:22
Das sind zwei völlig verschiedene Paar Schuhe. Was ich meine geht eher Richtung CUDA, wo man eine effiziente Schnittstelle anbietet, um die eigene Hardware mit fremden Code möglichst effizient auszulasten.
Das nennt sich ROCm sowie HIP (+HIPIFY) und ist bereits Prio bei AMD.
Nichtsdestotrotz:
Einer der grössten Pluspunkte bei GeForce GPUs ist deren SW-Support. Sei es DLSS, GPU-Support in verschiedenen (z.B. Rendering) Apps oder auch ML/AI Anwendungen. Das ist sich auch AMD bewusst. RDNA3 ist dort bereits am aufholen. Und anhand FSR 3.1 sieht man ja, dass da auch was bei Gaming investiert wird.
Wird kein Ding der Unmöglichkeit sein, ML-Elemente in FSR zu integrieren. Muss nicht "Brute Force" wie bei Nvidia sein.
Von sowas gehe ich eigentlich aus. Also dass AMD FSR ergänzt und verbessert. Evtl. heisst das dann FSR 3.5 oder von mir aus auch FSR 4. Aber ob mit/ohne ML ist mir da eigentlich egal, solange Performance, GPU-Support und Qualität stimmt.
Imo wird AMD weiter investieren schon für die Konsolenverträge.
Margen sind zwar klein aber bisher ist das eine Konstante Einkommens Quelle.
Die Partnerschaft mit Microsoft und Sony ist für AMD ein grosser Gewinn. Technologisch wie auch wirtschaftlich. Dazu noch die positive Marketing Wirkung.
robbitop
2024-07-12, 09:16:28
Wobei die FSR Developer bloß eine Hand voll Leute sind (die werden iirc in den whitepapern und Vorträgen von Upsampling und FG genannt). Für mich ist das nur Sparflamme. Da muss man definitiv aufstocken.
Ich hoffe sie machen das organisch und dezentral (also Abteilubgen selbst aufstocken lassen was sie brauchen) anstatt zentral irgendwo ein großes Team aufzubauen / zu akquirieren. Meine Erfahrung mit globalen resources ist da relativ schlecht.
basix
2024-07-12, 09:31:47
Bei UE5 TSR ist es afaik ein einzelner Typ oder ebenfalls nur ein sehr kleines Team. Wenige Leute heisst nicht, dass es nicht funktionieren kann.
robbitop
2024-07-12, 12:42:48
Aber die müssen sich nicht auch noch um andere Dinge wie Frame Generation kümmern.
][immy
2024-07-12, 13:13:36
AMDs großes Problem bei der Software ist bisher eher, das sie es möglichst breit kompatibel machen wollen. Nvidia macht alles hardwarespezifisch und kann daher relativ einfach entwickeln. Das bringt die eigenen Produkte vorran, wenn es vom Markt akzeptiert wird. Und leider wurde es das.
Zu 3dfx Anfangszeiten war das noch nötig, da schlicht keine Standards existierten womit man das gut abbilden konnte. OpenGL war ja eher stark veraltet und teils auf viele Extensions basierend und direct3d kam erst danach so richtig ins rollen.
Aber für cuda gab es eigentlich selten eine Notwendigkeit. Das könnte seit Jahren komplett ersetzt werden, wird es aber aus Bequemlichkeit der Softwarehersteller nicht (und ein paar Vertragsklauseln seitens Nvidia). Das Problem ist nun, das sich der gesamte Softwaremarkt in den Bereichen dermaßen von Nvidia abhängig gemacht hat das es ohne Nvidia Hardware nicht mehr wirklich klappt.
Kann lustig werden wenn Nvidia von Wettbewerbshütern ggfs gezwungen wird sich dort zu öffnen.
robbitop
2024-07-12, 13:22:24
AMD ist da leider in einer Zwickmühle. Ihr Marktanteil bei GPUs ist mittlerweile so gering (johnpeddieresearch war iirc bei 20% dGPUs) dass sie nicht die Marktmacht haben Dinge in Spielen umsetzen zu lassen, die nur auf ihren GPUs funktionieren. Also muss es auf allen GPUs funktionieren können, damit die Studios da mit machen. Da ist NV einfach in einer anderen Marktposition.
Um sowas machen zu können, muss AMD richtig Marktanteile holen und halten. Da Nvidia technisch sehr sehr stark ist, kann man diese wohl kaum so niederzwingen wie die Ryzen Sparte es mit Intel tat. Entsprechend muss man zumindest gleich gut werden wie Nv und dann deutlich billiger sein. Nur so könnte man sich die Marktanteile „erkaufen“. Ob AMD diese Margenschlacht mitmachen will ist IMO mehr als fraglich.
basix
2024-07-12, 13:45:06
Aber die müssen sich nicht auch noch um andere Dinge wie Frame Generation kümmern.
Es ist mMn so sicher wie das Amen in der Kirche: TSR wird irgendwann ein FG Update bekommen ;)
robbitop
2024-07-12, 16:50:27
Es ist mMn so sicher wie das Amen in der Kirche: TSR wird irgendwann ein FG Update bekommen ;)
Das wäre geil. Und gern mit Latenzreduktion. Und wenn man träumen dürfte: gern außerhalb von UE. :) (letzteres wird ein utopischer Wunschtraum bleiben)
VooDoo7mx
2024-07-12, 18:44:53
N44 und N48 könnten durchaus vor allem für Notebook konstruiert sein. AMD könnte zur CES2025 sich als der neue Platzhirsch im Notebook-Segment präsentieren, einerseits mit Strix-Halo und nach oben hin dann mit den Granit-Ridge für Notebook zusammen mit den diskreten Grakas auf Basis von N44 oder N48.
Das gleiche hab ich auch gedacht.
AMD konnte zu mindestens mit Navi 2 gut im Notebook Markt Fuß fassen und ist mit Navi 3 wieder komplett abgestürzt.
Nachdem Nvidia mit Ada ordentlich an der Preisschraube gedreht hat und wohl sicherlich mit Blackwell weiter drehen wird, könnte hier AMD relativ einfach gut punkten.
Ich plane für nächstes Jahr ein Notebook mit einer Next Gen dGPU zu kaufen und wäre auch AMD nicht abgeneigt. Besonders wenn man auch gut Geld sparen kann.
Granit Ridge für Notebooks ist übrigens „Fire Range“. Ich würde jedoch besonders wegen Energieeffizienz Strix Point bevorzugen.
Also bitte AMD: nächstes Jahr Stix Point + N48 AMD Advantage Edition zum Killerpreis.
Es ist eigentlich so einfach Nvidia gerade im Notebookmarkt unter Druck zu setzen.
basix
2024-07-12, 19:01:45
Im Notebook ist Energieeffizienz König. Wenn RDNA4 hier gut ggü. Blackwell abschneidet, wird es auch was mit dem Markterfolg. Wo RDNA4 als auch Blackwell landen werden? Keine Ahnung. Battlemage ist ebenfalls eine Wundertüte.
RT und FSR3 müssen aber ebenfalls noch besser werden, um hier ein gleichwertiges Paket zu liefern. DLSS ist hier schon ein grosser Bonus, da mit begrenzter GPU-Leistung mehr rausgeholt werden kann.
Von der Performance her dürfte sich N48 mit GB205 duellieren. Das wären dann 16GB vs. 12GB und somit potentiell ein Vorteil für AMD.
robbitop
2024-07-12, 19:07:41
Ihr habt vergessen Strix Halo zu erwähnen. Dank N3E könnte die 40 CU IGP schon effizient sein. Aber merkwürdig dass man nicht zu RDNA4 gegriffen hat sondern 3.5. N3E impliziert ja dass das Tapeout relativ zu N48 jetzt nicht unbedingt eher war - dementsprechend auch die timeline für die IP Wahl.
Ggf hat man sich die wichtigsten Dinge von rdna4 mit übernommen, welche die Effizienz verbessert haben (insbesondere Raster perf/W).
aufkrawall
2024-07-12, 19:22:13
Das wäre geil. Und gern mit Latenzreduktion. Und wenn man träumen dürfte: gern außerhalb von UE. :) (letzteres wird ein utopischer Wunschtraum bleiben)
Es gibt afaik nicht einen einzigen öffentlichen Hinweis, dass Epic an ihrem eigenen FG arbeiten würde.
Ich sehe mit FSR 3.1 auch null Sinn darin. Die haben buchstäblich 1000 andere Baustellen, von deren Bearbeitung Kunden/Spieler stärker profitieren würden.
Altehardware
2024-07-12, 20:03:28
Wozu auch FG löst das problem der geringen fps nicht und ist eher ein Thema um vsync zu erleichtern Womit systemweit auf sync ausgelegt wird Thema gleichmäßige frametimes.
aber davon halte ich nix da damit die Optische Qualität eines spiels deutlich schwanken kann
amd löst das mit afmf nvidia spielspezifisch und später im Treiber mit nis.
Es bringt nix.
mczak
2024-07-12, 20:16:57
Ihr habt vergessen Strix Halo zu erwähnen. Dank N3E könnte die 40 CU IGP schon effizient sein. Aber merkwürdig dass man nicht zu RDNA4 gegriffen hat sondern 3.5. N3E impliziert ja dass das Tapeout relativ zu N48 jetzt nicht unbedingt eher war - dementsprechend auch die timeline für die IP Wahl.
IIRC hinkt die GPU-Kern IP bei den APUs fast immer den dGPUs etwas hinterher - dies im Gegensatz zu Display, Videoencoder/decoder etc.
Aber klar bei Strix Halo dürfte die GPU doch deutlich wichtiger sein als bei bisherigen APUs. Allerdings denke ich auch Strix Point / Kraken Point / Strix Halo wurden quasi gemeinsam designt, da möchte man vielleicht nicht die GPU-IP wechseln auch wenn Halo später erscheint (würde er dann überhaupt noch "Strix" heissen...).
Ggf hat man sich die wichtigsten Dinge von rdna4 mit übernommen, welche die Effizienz verbessert haben (insbesondere Raster perf/W).
Wäre schon möglich - nicht so tolle RT-Perf wäre wohl eher zu verschmerzen.
Nightspider
2024-07-12, 20:28:44
Ihr habt vergessen Strix Halo zu erwähnen. Dank N3E könnte die 40 CU IGP schon effizient sein.
Ich habe nur irgendwie Bedenken das wenige Monate später schon wieder Blackwell kommen wird und selbst Strix Halo dagegen ineffizient und alt aussehen wird.
Zumal NV die bessere Software hat.
Altehardware
2024-07-12, 21:03:50
Ob nvidia die bessre Software hat ist stark anzuzweifeln derzeit hat nvidia die stärkere dxr perf mehr nicht
raffa
2024-07-12, 21:25:01
kommt halt auf den Blickwinkel an
AMD gehts so gut wie nie, ich find die könnten ruhig noch ein wenig mehr investieren in fähige Entwickler, die den GPU Softwarestack vorantreiben.
Man kann zwar eher nicht im mit NVIDIA im Highend und KI Hype konkurrieren, aber muss man ja auch nicht zwingend.
aufkrawall
2024-07-12, 22:03:10
Wozu auch FG löst das problem der geringen fps nicht und ist eher ein Thema um vsync zu erleichtern Womit systemweit auf sync ausgelegt wird Thema gleichmäßige frametimes.
aber davon halte ich nix da damit die Optische Qualität eines spiels deutlich schwanken kann
amd löst das mit afmf nvidia spielspezifisch und später im Treiber mit nis.
Da schmeißt du aber auch wirklich alles wild und falsch durcheinander. :frown:
Es gibt afaik nicht einen einzigen öffentlichen Hinweis, dass Epic an ihrem eigenen FG arbeiten würde.
Ich sehe mit FSR 3.1 auch null Sinn darin. Die haben buchstäblich 1000 andere Baustellen, von deren Bearbeitung Kunden/Spieler stärker profitieren würden.
Na, ich weiß nicht. Eine generelle Umsetzung zu FSR3.1, welches mit jedem Upscaler funktioniert, wäre imo schon toll. Insbesondere für die Leute, welche sich die Vorzeigetitel mit älterer, oder zu langsamer Hardware geben. Für diese Gamer wäre es ein Gamechanger. Hier geht es nicht um Enthusiasmus, sondern um gut spielbar.
aufkrawall
2024-07-12, 22:16:12
Na, ich weiß nicht. Eine generelle Umsetzung zu FSR3.1, welches mit jedem Upscaler funktioniert, wäre imo schon toll.
Da hast du wohl nicht mitbekommen, dass mit FSR 3.1 FG genau das bereits möglich ist.
basix
2024-07-13, 08:15:40
Es gibt afaik nicht einen einzigen öffentlichen Hinweis, dass Epic an ihrem eigenen FG arbeiten würde.
Nur weil nichts öffentlich ist, heisst das noch nicht, dass man nicht daran arbeitet. Der Nutzen von FG ist jedenfalls da, wenn auch nur mit entsprechenden Nebenbedingungen wie einer Minimalperformance. Und falls man auf Extrapolation anstatt Interpolation setzt, wäre es auch was für die 30fps Konsolen-Games. Klar könnte Epic darauf Verweisen, dass man TSR + FSR FG nutzen soll. Ich denke aber nicht, dass Epic das so handhabt. Sonst hätten sie das mit TSR gar nicht erst angefangen.
Ich sehe mit FSR 3.1 auch null Sinn darin. Die haben buchstäblich 1000 andere Baustellen, von deren Bearbeitung Kunden/Spieler stärker profitieren würden.
Ja, das Upsampling ist der wichtigste Part and FSR und dort sollte AMD nochmals investieren.
robbitop
2024-07-13, 09:30:47
Naja wobei sie temporales Upsampling schon lange vor DLSS, FSR und XeSS hatten. TAAU gab es ja schon seit UE4 und TSR ist „nur“ eine Evolution. (eine verdammt gute)
Weiterhin glaube ich aber auch dass es einen Vorteil gibt, eigene Verfahren zu haben. Man hat volle Kontrolle und kann somit das Ergebnis bestmöglich beeinflussen und das Vendor unabhängig.
VooDoo7mx
2024-07-13, 10:43:48
Ihr habt vergessen Strix Halo zu erwähnen. Dank N3E könnte die 40 CU IGP schon effizient sein. Aber merkwürdig dass man nicht zu RDNA4 gegriffen hat sondern 3.5. N3E impliziert ja dass das Tapeout relativ zu N48 jetzt nicht unbedingt eher war - dementsprechend auch die timeline für die IP Wahl.
Ggf hat man sich die wichtigsten Dinge von rdna4 mit übernommen, welche die Effizienz verbessert haben (insbesondere Raster perf/W).
Im Chiphell Forum hat ein Leaker schon Vorab Bernchmarks von einer 40 CU Strix Halo mit 140W gepostet und da war die Performance in Timespy leicht hinter einer Notebook 4070 140W.
Bei Port Royal war der Abstand wieder mal deutlich größer.
Bei den Stromverbrauch und und der Leistung die rauskommt, glaube ich nicht das der IO Die mit der iGPU in N3E gefertigt wird.
dildo4u
2024-07-13, 10:52:52
Das Ding soll erst in einem 1Jhar kommen die Werte sind nutzlos da die Performance massiv davon abhängt was für Notebook Speicher in 2025 verfügbar ist.
robbitop
2024-07-13, 10:54:17
Hm wie wahrscheinlich ist es dass der Benchmark mit echter HW lief? Strix Halo ist eine 2025 SKU. Noch ein halbes Jahr weg. Dass da irgendwer schon sinnvolle HW die schon richtig gut läuft mit funktionierenden Treibern hat (das trennen die IHVs seit Jahren streng auf - deshalb gibt es praktisch keine echten Benchmark leaks deutlich vorab): sehr unwahrscheinlich.
vinacis_vivids
2024-07-13, 13:18:45
Ja, das Upsampling ist der wichtigste Part and FSR und dort sollte AMD nochmals investieren.
Hat AMD schon gemacht mit Sony. Sony's Spectral Super Resolution wird wohl Vorzeige-Showcase für ML-SR + RT. Allerdings mit Konsolenpriorität und Verzögerung aufm PC mit Kompatibilität zu RDNA2/3.
Auf dem PC wird FSR4 mit RDNA4 wohl ML/KI/AI im SR implementiert werden. Dauert aber seine Zeit, weil Rechenleistung im HPC, Wissenschaft und eben auch für AI reserviert wurde.
reaperrr
2024-07-13, 16:13:20
Ihr habt vergessen Strix Halo zu erwähnen. Dank N3E könnte die 40 CU IGP schon effizient sein. Aber merkwürdig dass man nicht zu RDNA4 gegriffen hat sondern 3.5. N3E impliziert ja dass das Tapeout relativ zu N48 jetzt nicht unbedingt eher war - dementsprechend auch die timeline für die IP Wahl.
Das hat nicht unbedingt viel miteinander zu tun.
Ich denke, dass die Entscheidung pro N4P statt N3E bei den beiden Mainstream N4x eher ne Kosten-/Nutzen-Entscheidung war, ähnlich wie bei N6 für N33, zumal der Unterschied zwischen N4P und N3E von der Packdichte und erst recht den elektrischen Verbesserungen noch mal ein ganzes Stück geringer ist als zwischen N6 und N5.
Die Chiplet-N4x wären in einer N3-Variante erschienen und wenn alles glatt gelaufen wäre (offensichtlich nicht der Fall...), auch früher als das jetzt bei N44/48 der Fall sein wird.
Laut MLID's Quellen war ursprünglich auch mal die komplette Strix-Familie als Chiplet-Architektur in N3(E) geplant und nur wegen Problemen und Verzögerungen von N3 hat man alles bis auf Halo stattdessen dann doch als monolithische APUs in N4P umgesetzt.
Strix Point war außerdem mal zur CES 2024 geplant, Halo wird zum Release-Zeitpunkt mindestens 1 Jahr hinter dem ursprünglichen Zeitplan liegen.
Generell werden die IP-Blöcke bei APUs auch weiter vor dem geplanten Release festgezurrt, weil Time-to-Market bei denen noch viel wichtiger als bei GPUs ist.
Und vor allem ist die CPU-IP dort wichtiger als die GPU-IP, AMD geht hier halt kein Risiko und nimmt für letztere den aktuellsten IP-Level, der bereits ausgereift genug ist.
Also wie gesagt: Der Prozess hat hier wenig Aussagekraft. Der Performance-Vorteil von N3E ggü. N4P ist nach TSMC's eigenen Angaben wohl nur einstellig, SRAM shrinkt null und analoge Interfaces so gut wie null (wovon beide verbliebenen N4x gemessen an der Gesamtfläche relativ viel haben), und N3E-Wafer werden sicherlich deutlich mehr kosten und vielleicht auch noch schlechtere Yields und/oder Verfügbarkeit als N4P haben. Das wird mehr ne ökonomische Entscheidung als alles andere gewesen sein.
Und:
Allein von den Code-Namen her würde ich davon ausgehen, dass es ursprünglich nur N44 als Monolith in N4P gab, und alles andere Chiplet-Designs in 3nm gewesen wären. Erst als sich abzeichnete, dass es damit Probleme geben könnte, hat man sich schnell noch an N48 gemacht, und der günstigste, schnellste und einfachste Weg war vermutlich, vom bereits vorhandenen N44 hochzuskalieren, einschließlich des Verbleibs beim N4P-Prozess.
Dass N44 erst nach N48 erscheinen soll hat meiner Einschätzung nach auch nicht unbedingt mit der Design-Fertigstellung zu tun, sondern ist vermutlich mehr ne Markt- und Marketing-Entscheidung (ich meine, seit Maxwell 1.0 / GTX 750 Ti ist keine Architektur mehr mit nem kleinen Mainstream-Chip gelauncht worden, sondern immer mindestens mit dem zweitgrößten Chip der Generation).
aufkrawall
2024-07-13, 16:20:26
Nur weil nichts öffentlich ist, heisst das noch nicht, dass man nicht daran arbeitet.
Sie teasern auf Slides und im mündlichen Teil von Vorträgen schon viel von dem, was sie für die nächste Zeit für wichtig erachten.
Und falls man auf Extrapolation anstatt Interpolation setzt, wäre es auch was für die 30fps Konsolen-Games.
Der Beweis, dass das wirklich bei ähnlicher Skalierung ohne extreme Artefakte funktioniert, steht noch aus.
Klar könnte Epic darauf Verweisen, dass man TSR + FSR FG nutzen soll. Ich denke aber nicht, dass Epic das so handhabt. Sonst hätten sie das mit TSR gar nicht erst angefangen.
TAAU hatte Epic ja schon Jahre vor FSR 2 und FSR 2 funktioniert gar nicht richtig mit Nanite.
Ja, das Upsampling ist der wichtigste Part and FSR und dort sollte AMD nochmals investieren.
Ich meinte Epic. ;)
Da fehlt noch so viel bei Nanite, RT usw...
Nightspider
2024-07-13, 18:01:08
Ist N3E für Strix Halo gesichert? Woher kommt die Info?
robbitop
2024-07-13, 18:17:49
„Gesichert“ ist etwas was man 6+ Monate vor Release nicht erwarten kann. Das sind Gerüchte / leaks von MLID.
amdfanuwe
2024-07-13, 19:32:26
war ursprünglich auch mal die komplette Strix-Familie als Chiplet-Architektur in N3(E) geplant und nur wegen Problemen und Verzögerungen von N3 hat man alles bis auf Halo stattdessen dann doch als monolithische APUs in N4P umgesetzt.
War wohl eine frühe Planung. Kam dann auch noch der AI Hype dazwischen weshalb die 3D Stacking Ressourcen für MI 300 benötigt wurden.
Strix Point zur CES 2024 hatte ich auch erwartet. Wäre dann aber noch mit ZEN 4 gewesen, evtl. in N3 als Pipecleaner.
Also Hawk Point als Lückenfüller und Strix Point mit ZEN 5 noch rechtzeitig für den AI-PC. ZEN 5 APUs wären sonst eher ein CES 2025 Thema gewesen.
Ich denke daher auch nicht, dass Strix Halo früher geplant war.
VooDoo7mx
2024-07-13, 22:13:42
Hm wie wahrscheinlich ist es dass der Benchmark mit echter HW lief? Strix Halo ist eine 2025 SKU. Noch ein halbes Jahr weg. Dass da irgendwer schon sinnvolle HW die schon richtig gut läuft mit funktionierenden Treibern hat (das trennen die IHVs seit Jahren streng auf - deshalb gibt es praktisch keine echten Benchmark leaks deutlich vorab): sehr unwahrscheinlich.
Ich kann natürlich auch nicht das alles bestätigen. Fand aber das es alles sehr plausibel klingt.
Thread: https://www.chiphell.com/thread-2599662-1-1.html
Das Teil wird wohl mehr oder weniger auch schon fertig sein. Es sind auch schon Zoll Dokumente mit Test Boards und 128GiB on Package RAM aufgetaucht. Da jedoch mit 120W:
https://videocardz.com/181601/amd-testing-strix-halo-apu-with-128gb-memory-config
Ich gehe vom CES Launch aus. Ich denke das wohl wegen mangelnder Kapazitäten und Vermeidung von Kanibalisierung das Teil später erscheint. Zen5 Chiplets wird man wohl auch erst mal für den Server und Desktop Launch nehmen. Fire Range kommt ja auch erst nächstes Jahr.
Und ich sehe das überhaupt nicht als Gaming Part sondern als Creator oder Pro Part. Da hier wie bei Apple UMA vorherrscht kann man den vollen RAM nutzen und ist nicht mit dem kleinen RAM einer dGPU limitiert. Eben ein M3/M4 Max Komkurrent.
Beim Gaming wird wohl selbst der kleine Navi 44 wohl schneller als Strix Halo sein.
robbitop
2024-07-13, 22:22:55
Mich macht es immer skeptisch wenn fertige HW monatelang unreleast herumliegen soll. Entwicklung von HW ist teuer und die HW Lebenszyklen nicht unendlich lang - da sind 6 Monate Verzögerung irgendwie … zumindest eigenartig. Wenn mangels Kapazität noch gewartet werden muss, hätte man die ganze Timeline ja später machen können und dafür dann andere Projekte fertig machen können. Kapazitäten bei TSMC sind ja aufgrund langfristiger Verträger lange planbar.
DrFreaK666
2024-07-13, 22:43:16
Vielleicht sind die Treiber noch unfertig. Hat AMD deswegen nicht auch schonmal Hardware hinausgezögert?
Nightspider
2024-07-13, 23:18:59
Wenn N3E wirklich stimmen sollten wären gegenüber N4P ja schon mal vom Prozess 8-13% weniger Verbrauch bei gleich Leistung drin. *laut TMSC
https://fuse.wikichip.org/wp-content/uploads/2022/09/wikichip_tsmc_logic_node_q2_2022-2.png
Damit wäre Strix Halo tatsächlich noch etwas interessanter.
DrFreaK666
2024-07-13, 23:28:25
Strix Halo nutzt kein RDNA4. Wieso ist das hier Thema?
davidzo
2024-07-14, 11:06:37
Mich macht es immer skeptisch wenn fertige HW monatelang unreleast herumliegen soll. Entwicklung von HW ist teuer und die HW Lebenszyklen nicht unendlich lang - da sind 6 Monate Verzögerung irgendwie … zumindest eigenartig. Wenn mangels Kapazität noch gewartet werden muss, hätte man die ganze Timeline ja später machen können und dafür dann andere Projekte fertig machen können. Kapazitäten bei TSMC sind ja aufgrund langfristiger Verträger lange planbar.
Ich finde das auch merkwürdig, aber ich habe auch schon in Entwicklungsprojekten mitgearbeitet wo permanent auf die Tube gedrückt wurde, also Druck mit Deadlines, die Produktmanager aber am Ende den Launch aufgeschoben haben. Das hatte aber nichts mit der Qualität der Entwicklungsarbeit bzw. des Produkts zutun sondern eher äußere Umstände, also andere Produkte die gerade im Fokus standen. Ich in sicher die AMD Ingenieure sind dieses Leid auch gewohnt. In einem größeren Unternehmen sind viele Kräfte am Werk und die sind nicht immer alle gleichzeitig an einem Tisch, bzw. ändern sich auch mal die Umstände.
Ich finde das aus Hardwaresicht und gesamtstrategischer Sicht ebenso absurd wie du, aber Produktmanager denken so nicht. Die haben ihr Portfolio im Blick und das der Konkurrenz. Wenn sie ein Produkt dann später einführen, dann denken die vermutlich dabei dass das dann auch hinten raus länger läuft. Für die ist so ein Produkt auf dem Regal ein Joker den man spielen kann oder eben auch nicht.
Wir haben das in der Vergangenheit sowohl bei AMD, Nvidia als auch Intel gesehen dass Produkte oder SKUs aus nicht erkennbaren Gründen zurückgehalten werden oder gar ganz gecancelt. Das kann Kosten- und performancegründe haben, aber ebenso auch Produktstrategische.
robbitop
2024-07-14, 11:09:54
Nun das würde zumindest RDNA3.5 statt 4 erklären
amdfanuwe
2024-07-14, 12:13:20
da sind 6 Monate Verzögerung irgendwie … zumindest eigenartig.
Wie kommst du auf 6 Monate Verzögerung?
Vom erstem Prototypen bis zur Auslieferung dauert seine Zeit.
Prototyp auf Herz und Nieren testen, dabei Testequipment anpassen, Treiber anpassen.
Erste Kleinserie
Testen, Spezifikation für Selektion der Chips erstellen
Serienproduktion, Verpackung, genügend Chips für erste Auslieferungswelle sammeln.
Ausliefern.
Bei OEM Produkten braucht der OEM auch noch seine Zeit bis es passt.
Und die IP kann man in weiteren Produkten eigentlich auch erst verwenden, wenn die ersten Testchips einwandfrei laufen.
ZEN 5 Chiplet und Strix Point lassen sich relativ einfach testen, da die Plattform schon existiert.
Für Prozessoren wie Strix Halo kommt ein neuer Sockel hinzu. Das muss auch erst mal rund laufen.
Aus Spass werden da keine Produkte "verzögert". Man will ja schließlich verdienen.
mboeller
2024-07-14, 12:15:23
Für Prozessoren wie Strix Halo kommt ein neuer Sockel hinzu. Das muss auch erst mal rund laufen.
... und damit auch komplett neue Mainboards mit 256bit Speicheranbindung.
robbitop
2024-07-14, 12:21:46
Wie kommst du auf 6 Monate Verzögerung?
Vom erstem Prototypen bis zur Auslieferung dauert seine Zeit.
Prototyp auf Herz und Nieren testen, dabei Testequipment anpassen, Treiber anpassen.
Erste Kleinserie
Testen, Spezifikation für Selektion der Chips erstellen
Serienproduktion, Verpackung, genügend Chips für erste Auslieferungswelle sammeln.
Ausliefern.
Bei OEM Produkten braucht der OEM auch noch seine Zeit bis es passt.
Und die IP kann man in weiteren Produkten eigentlich auch erst verwenden, wenn die ersten Testchips einwandfrei laufen.
ZEN 5 Chiplet und Strix Point lassen sich relativ einfach testen, da die Plattform schon existiert.
Für Prozessoren wie Strix Halo kommt ein neuer Sockel hinzu. Das muss auch erst mal rund laufen.
Aus Spass werden da keine Produkte "verzögert". Man will ja schließlich verdienen.
Naja der Zugriff auf die ersten Bringup samples dürfte sehr sehr streng begrenzt sein. Sehr unwahrscheinlich dass so ein Chiphell Typ dazu gehört. Außerdem scheint (zumindest laut den Benchmarks) ja alles schon sehr sehr gut zu laufen. Also sind wir höchstwahrscheinlich schon im Bereich von Engineering Samples. Also weit weg vom Bring up und den ersten Spins.
Sicher dass es einen Sockel geben wird? Ich gehe eher von BGAs aus. Und da kommen ja alle Nase lang Produkte mit neuem bga pattern raus.
amdfanuwe
2024-07-14, 14:26:59
Und da kommen ja alle Nase lang Produkte mit neuem bga pattern raus.
Die müssen aber auch erst mal entwickelt, getestet und evaluiert worden sein.
FP11 ist eben neu. Da gibt es keine Plattform in die man den Chip einfach einstecken und loslegen kann.
Den Benchmark hatte ich nicht mitbekommen.
Der kann ja durchaus auf einer der ersten Testplattformen gelaufen sein.
Kleinserie, Treiber, Plattform optimieren, Bios etc. Da sind wir locker im September/Oktober. Viel Müßiggang haben die nicht, wenns zur CES ausgeliefert werden soll.
Ich hoffe ja eigentlich noch auf eine 8C mit 3D Cache Variante. Das könnte einen schönen Gaming Laptop abgeben.
Und hieß es nicht mal, Strix Halo hätte den RAM on Package, wie Apple bzw. Lunar Lake? Oder gehen sie doch auf CAMM2 Module? Vielleicht war auch ursprünglich 3D Stacking der CPU Chiplets auf dem I/O GPU Die geplant, ähnlich MI300?
Da gab es einiges zu evaluieren bis man sich für die endgültige Variante entschied.
Na, in 6 Monaten wissen wir mehr. Ich bin gespannt darauf.
robbitop
2024-07-14, 14:55:46
Jede neue GPU hat ein neues BGA Pattern. Das ist nichts ungewöhnliches. IMO machst du da zu viel Wind drum. Und da das Ding 6 Monate vor Release schon ordentlich zu laufen scheint scheint das nicht gerade diesen Punkt zu unterstützen.
amdfanuwe
2024-07-14, 16:14:13
zu laufen scheint
Wer weiß, was da noch alles an Feinarbeit und Kleinkram ansteht.
Bei den neuen GPUs ist das Board auch nicht in ein paar Tagen fertig.
Hab auch noch ein Prototypen Board eines damaligen Strongarm Projektes hier rumstehen. Mit etwas Fädeldraht lief es dann und ich konnte mich an die Firmware machen. Tja, vor 25 Jahre gab es noch weniger Probleme mit HF und entsprechender Leitungsführung. Da steckt der Teufel im Detail.
Intels KS Prozessoren hätte etwas mehr Evaluierung auch gut getan.
fondness
2024-07-14, 16:40:51
Im Chiphell Forum hat ein Leaker schon Vorab Bernchmarks von einer 40 CU Strix Halo mit 140W gepostet und da war die Performance in Timespy leicht hinter einer Notebook 4070 140W.
Bei Port Royal war der Abstand wieder mal deutlich größer.
Bei den Stromverbrauch und und der Leistung die rauskommt, glaube ich nicht das der IO Die mit der iGPU in N3E gefertigt wird.
Ganz davon abgesehen, dass ich robbitop hier natürlich zustimme, dass es mehr als seltsam ist, dass der Typ im April, wohl fast 1 Jahr vor Launch Benchmarks postet. Der Treibersupport und damit das ganze Power- und Taktmanagement war da vermutlich noch nicht mal vorhanden und selbst wenn sicher nicht fertig.
Aber ganz davon abgesehen vergleichst du natürlich wie so oft irgendwas, erinnert schwer an deine tollen Benchmarks wo du einen Pheonix mit 60W betreibt und erklärt die iGPU ist ineffizient. :ugly: Erstens reden wir hier von 140W für den gesamten SoC vs. 140W nur für die dGPU. Und zweitens sind 140W natürlich viel zu viel für einen SoC mit 40CU GPU. Wenn sich Strix Halo ähnlich verhält wie die bisherigen AMD SoCs gehe ich jede Wette ein, dass Strix Halo bei ~50-80W absolut ungeschlagen sein wird was die Perf/Watt betrifft.
robbitop
2024-07-14, 19:54:03
Wer weiß, was da noch alles an Feinarbeit und Kleinkram ansteht.
Bei den neuen GPUs ist das Board auch nicht in ein paar Tagen fertig.
Hab auch noch ein Prototypen Board eines damaligen Strongarm Projektes hier rumstehen. Mit etwas Fädeldraht lief es dann und ich konnte mich an die Firmware machen. Tja, vor 25 Jahre gab es noch weniger Probleme mit HF und entsprechender Leitungsführung. Da steckt der Teufel im Detail.
Intels KS Prozessoren hätte etwas mehr Evaluierung auch gut getan.
Das Ding rennt gegen eine 4070 auf Augenhöhe in den Benchmarks.Und das 6 Monate vor release.
amdfanuwe
2024-07-14, 20:11:43
Die ZEN5 und RDNA3.5 Treiber sollten wegen Strix Point da ja schon fast fertig gewesen sein..
basix
2024-07-15, 08:36:56
Ist N3E für Strix Halo gesichert? Woher kommt die Info?
N3E scheint mir unlogisch zu sein, wenn man die IP-Gleichheit von Strix Point und Strix Halo anschaut. Das belastet das R&D.
dildo4u
2024-07-15, 08:40:34
Ist N3E für Strix Halo gesichert? Woher kommt die Info?
Das kommt von morreslaw is Dead und bezieht sich nicht auf die Compute Teile.
Überschrift 3nm IO Die.
https://youtu.be/oUv4US_FAjM?si=rxvd_JFKP7FVj1WP
Medusa nutzt in 2026 vermutlich 3nm.
basix
2024-07-15, 08:50:02
Für Medusa macht es Sinn. Dort soll ja auch RDNA5 drin sein, welcher ebenfalls in N3E/P kommt. Und Zen 6 wird auch in 3nm aufgelegt.
https://www.computerbase.de/2024-07/seasonic-netzteil-hersteller-nennt-tdp-fuer-rtx-5090-und-rx-7990-xtx/
wird wohl doch keine 8000er Serie ;). N48 riecht nach N31-Replacement.
Wir erinnern uns daran, dass die Zen5-Informationen ebenfalls komplett falsch waren im Vorfeld.
- weniger IPC als vorher gedacht
- sparsamer als Zen4, nicht mehr Verbrauch
- kleiner als Zen4 anstatt deutlich größer, wie vorher kolportiert
- weiterhin schmales Design nicht ultrafett wie kolportiert
Ich denke, dass die N48-Specs genauso falsch waren.
dildo4u
2024-07-15, 09:07:02
Wäre Blödsinn wenn die Karten hoffentlich exklusiv FSR 4.0 können da sollte es eine Abtrennung geben.
Wird ja nicht exklusiv, KI-FSR kann RDNA3 sehr sicher auch.
E39Driver
2024-07-15, 10:37:14
N48 gleich N31 Refresh klingt nicht überzeugend. Unabhängig davon das es möglicherweise eine RX 7990 XTX als Refresh mit leicht höheren Takt geben wird.
N48 wird vermutlich sehr nahe am PS5 Pro Chip sein, der doch weitestgehend bekannt ist. 40% mehr Raster und Faktor 3 mehr RT im Vergleich zur bisherigen PS5 im identischen Powerlimit. Also für Ende 2024 eben nur ein Midrange Chip. Im RT wird RDNA3 wohl knapp geschlagen werden, in Raster wohl eher nicht. Ergo kann eine neu aufgelegt RX 7990 XTX Sinn machen
basix
2024-07-15, 11:33:55
Marketingtechnisch wie auch vom Portfolio her macht das keinen Sinn, RDNA4 als 7000er Refresh zu releasen. Und als N31 Ersatz schon gar nicht (langsamer in Raster, nur 16 GB). Ne, das wird die 8000er Serie.
Einen 7990XTX N31 Refresh sehe ich aber auch als skeptisch an. Ausser AMD überrascht uns mit einem grösseren GCD / RDNA3.5 Fix und V-Cache auf den MCDs :D
robbitop
2024-07-15, 12:31:57
Das kommt von morreslaw is Dead und bezieht sich nicht auf die Compute Teile.
Überschrift 3nm IO Die.
https://youtu.be/oUv4US_FAjM?si=rxvd_JFKP7FVj1WP
Medusa nutzt in 2026 vermutlich 3nm.
Bei Halo gibt es nur 2x Tiles. Das CCD Tile von der CPU (wahrscheinlich das normale Zen 5 Tile von der Desktop SKU) und das IO Tile welches sowohl IO als auch GPU drauf hat.
Das CCD soll N4 (oder ein Familienmitglied von N4) sein und das IO Tile N3E.
basix
2024-07-15, 12:42:13
Halo sollte 3x Tiles sein, wenn 16C supported werden ;)
N3E fürs IOD ist für mich allerdings nicht wirklich einleuchtend. Kann man machen, aber aus diversen Engineering Gründen nicht ideal. Aber vielleicht ist da dennoch so viel Logik usw. drauf, dass ein N3E IOD nicht wirklich teurer als eines in N4P wäre und man dafür die Performance- und Energieeffizienz-Vorteile mitnimmt. Auf Kosten von erhöhtem R&D Aufwand.
robbitop
2024-07-15, 13:48:47
Tile Sorten meinte ich. Ein bisschen aus dem Kontext kann man schonmal mitdenken finde ich. ;)
Der Name IO Tile ist für Halo auch irgendwie nicht ideal gewählt denn mit 32 mib LLC und 40CUs ist da so viel Fläche GPU in Relation zu dem was an IO nötig ist , dass der Name irgendwie nicht passt. Damit die GPU besonders effizient (und damit im mobile Markt überzeugend ist) macht ein leading edge Prozess schon Sinn.
Schnitzl
2024-07-15, 17:44:18
Marketingtechnisch wie auch vom Portfolio her macht das keinen Sinn, RDNA4 als 7000er Refresh zu releasen. Und als N31 Ersatz schon gar nicht (langsamer in Raster, nur 16 GB). Ne, das wird die 8000er Serie.
Einen 7990XTX N31 Refresh sehe ich aber auch als skeptisch an. Ausser AMD überrascht uns mit einem grösseren GCD / RDNA3.5 Fix und V-Cache auf den MCDs :D
nein wir starten jetzt bitte keinen Hypetrain
ich vermute da hat einfach jemand experimentiert auf der produktiv-Umgebung. Ist ja nicht so dass das nie passiert :rolleyes:
basix
2024-07-15, 20:08:43
Niemand startet einen Hyptrain. War als Scherz gemeint ;)
Schnitzl
2024-07-15, 20:46:28
dacht ich mir schon :D
hab auch lange überlegt ob ich das Post jetzt mache aber präventiv ist besser als ... ;)
reaperrr
2024-07-15, 20:49:26
- kleiner als Zen4 anstatt deutlich größer, wie vorher kolportiert
Seit wann das?
Die CCDs sind meines Wissens minimal größer als bei Zen4.
Und das trotz deutlich reduzierter L3-Fläche, die Kerne sind rund 25% größer als bei Zen4.
https://www.computerbase.de/2024-07/seasonic-netzteil-hersteller-nennt-tdp-fuer-rtx-5090-und-rx-7990-xtx/
wird wohl doch keine 8000er Serie ;). N48 riecht nach N31-Replacement.
Nö.
Niemand weiß, wie lange diese alternativen 7000er Modelle da schon zur Auswahl stehen.
Die wahrscheinlichste Auflösung ist, dass das einfach N3x-basierte Modelle sind, die von AMD mal angedacht, aber verworfen wurden, oder N48 ist in Raster so viel langsamer als N31 dass AMD tatsächlich noch einen N31-Refresh rausbringt.
Es gab definitiv mal Pläne für einen Refresh, inklusive eines N36 mit 120 oder 128 CUs im Vollausbau (das wäre vmtl. die 7990 XTX geworden).
7700 und 7500 XT könnten noch kommen (7700 auf N32-Basis mit 48 oder 40 CUs und 12 oder 10GB Speicher und weniger TDP, 7500XT auf N33-Basis mit 28 CUs und langsamerem Speicher als die 7600).
mczak
2024-07-15, 20:59:22
Halo sollte 3x Tiles sein, wenn 16C supported werden ;)
Gab doch auch mal ein Diagramm bei dem die Zen 5c Kerne auf dem I/O-Die (besser wäre da wohl in der Tat Base-Die) waren. Dann braucht man bloss 2 Tiles :rolleyes:.
Wäre ziemlich schräg, dafür sprechen könnte allenfalls dass man ja sonst ein halbdeaktivertes Zen 5c CCD braucht weil es ja keines gibt mit bloss 8 Kernen.
Damit könnte man dann auch günstige, kompakte (aber nicht für Mobilbetrieb) Spielekonsolen bauen, einfach das Zen 5 CCD weglassen :tongue:.
mboeller
2024-07-16, 11:46:54
Gab doch auch mal ein Diagramm bei dem die Zen 5c Kerne auf dem I/O-Die (besser wäre da wohl in der Tat Base-Die) waren. Dann braucht man bloss 2 Tiles :rolleyes:.
das sind aber angeblich keine Zen5c Kerne sondern Zen5LP-Kerne. Also spezielle LowPower-Kerne.
Seit wann das?
Die CCDs sind meines Wissens minimal größer als bei Zen4.
Und das trotz deutlich reduzierter L3-Fläche, die Kerne sind rund 25% größer als bei Zen4.
Bisher ist nicht 100% klar, ob er minimal kleiner oder genau gleich groß ist. Aber größer ist das Zen5-CCD auf gar keinen Fall.
Nö.
Niemand weiß, wie lange diese alternativen 7000er Modelle da schon zur Auswahl stehen.
Die wahrscheinlichste Auflösung ist, dass das einfach N3x-basierte Modelle sind, die von AMD mal angedacht, aber verworfen wurden, oder N48 ist in Raster so viel langsamer als N31 dass AMD tatsächlich noch einen N31-Refresh rausbringt.
Es gab definitiv mal Pläne für einen Refresh, inklusive eines N36 mit 120 oder 128 CUs im Vollausbau (das wäre vmtl. die 7990 XTX geworden).
7700 und 7500 XT könnten noch kommen (7700 auf N32-Basis mit 48 oder 40 CUs und 12 oder 10GB Speicher und weniger TDP, 7500XT auf N33-Basis mit 28 CUs und langsamerem Speicher als die 7600).
Für mich ergibt ein N31-Refresh genau 0 Sinn.
Schnitzl
2024-07-18, 15:54:57
Bisher ist nicht 100% klar, ob er minimal kleiner oder genau gleich groß ist. Aber größer ist das Zen5-CCD auf gar keinen Fall.
Für mich ergibt ein N31-Refresh genau 0 Sinn.
ich sags mal so: wir wissen dass wir nichts wissen.
Wir wissen nicht, was für Probleme die Chips haben, ob es eine Ursache ist oder mehrere...
Falls z.B. eine von mehreren Ursachen gefunden+behoben wurde könnte ein Refresh etwas bringen, je nachdem wie sehr sich das "Sauf-Problem" dadurch abmildert.
Oder eben auch nicht. Die Gerüchte zu N48 etc. können falsch sein... k.A.
Ich vermute so langsam dass dieses Jahr keine GPU mehr kommt, 2025 ist dann wieder alles möglich:
1. RDNA4 für Mittelklasse und später RDNA5 Highend
2. RDNA4 für Mittelklasse und RDNA5 gar nicht, 2026/2027 RDNA6
3. RDNA4 für Mittelklasse und RDNA5 nicht 2025 sondern 2026
4. kein RDNA4 und gleich RDNA5 aber eher Ende 2025
5. zig andere Möglichkeiten die ich ohne Einblick bei AMD oder Insiderinfos mir gar nicht zusammenreimen kann
Käsetoast
2024-07-18, 23:43:43
Wäre schon bitter wenn RDNA4 dieses Jahr nicht käme. Wenn nicht grundsätzlich was schief gelaufen ist kann ich mir eigentlich nur vorstellen, dass eine Verspätung aus Softwaregründen passiert.
Ein Hardware Problem wäre nachdem RDNA3 die Erwartungen nicht erfüllen konnte direkt ein zweites Mal sehr schade - gerade wo man dann auch noch das Highend abgesägt hat. Mag ich nicht so richtig dran glauben...
Viel eher vorstellen könnte ich mir, dass eben weil RDNA4 jetzt grundsätzlich nicht so bombastisch ist man es mit einem speziellen FSR koppeln möchte. Also die Benchmark Balken durch ein spezielles FSR pimpen um die neue Generation so besser darstehen zu lassen. Da Software nicht AMDs Paradedisziplin ist könnte ich mir hier vorstellen, dass die Entwicklung vom FSR mal ein Quartal oder zwei hinterher hängt und man sich sagt, dass man einen mäßigen Ersteindruck nie wieder wettgemacht kriegt, weswegen man die Hardware besser ein paar Monate später auf den Markt bringt...
Hoffe wie gesagt aber trotzdem, dass da im Herbst was kommt. Vielleicht Vorstellung rund um die Zeit der Gamescom und Verfügbarkeit dann ein, zwei Monate später. So bliebe man auch dauerhaft im Gespräch. Jetzt erst mal Zen5, kurz darauf vielleicht ein X3D Teaser, dann RDNA4 Teaser und dann eben Launch der 3D-Cache CPUs und RDNA4 Grafikkarten irgendwann dieses Jahr. So würde man für eine Weile dauerhaft im Gespräch bleiben und da ist dann noch nicht mal drin was bei den APUs oder auch CDNA so abgeht...
horn 12
2024-07-18, 23:58:30
Viel mehr kommt wohl ein RDNA3 "Refresh, besser Update" um mit der 5080 mitzuhalten und die Taktraten und den Verbrauch dort zu haben wo einst RDNA3 angesetzt war,- sein sollte.
Würde rechnen dass eine 7950XTX wohl knapp an der 4090 sein sollte,- und die 7950X(T) die 7900XTX beerben wird.
Dies lässt darauf schliessen dass Massig Anbieter (Asus, Acer) ecc. die 7900XTX und 7900 und 7800 im Portfolio erweitern,- um deren Chips loszuwerden.
vinacis_vivids
2024-07-19, 00:41:37
RDNA4 uArch hat Priorität in der PS5 Pro Konsole inkl. "Playstation Spectral Super Resolution"
Dafür ist ein gutes Kontingent an 4nm reserviert. Auch die 56CUs der RDNA4 uArch und der konservative Taktrate von 2,35Ghz bei der PS5-Pro sind sehr sehr stark auf hohe Ausbeute ausgelegt. Also rein auf Preis pro Siliziumfläche pro mm^2 ausgelegt.
Am Desktop sind bisher Gerüchte für zwei RDNA4 Dies aufgetaucht (N44, N48), aber keine Grafikkarten. Die N48XTX-Die könnte sowohl in einer single-GPU-Grafikkarte auftauchen als auch im mGPU-Verbund.
Desktop N48XTX wird mit >3Ghz spekuliert, konservativ 3,3-3,5Ghz. Das ist das Level von N31XT bis N31XTX, nur deutlich billiger weil die 64CUs in RDNA4 4nm nochmals deutlich dichter gepackt ist als RDNA3 5nm.
AMD könnte locker zwei N48XTX auf einer Platine packen lassen und den VRAM als "unified Cache" deklarieren. Den Shader-Takt etwas konservativer auf 2,8-3,0Ghz fallen lassen, um Energie zu sparen.
Wir landen dann bei N48XTX X 2 und fetten 128CUs. Das dürfte einige Gaming Ingenieure bei AMD befriedigen, die auf N30 verzichten mussten, weil David Wang für Gamer bezahlbare GPUs unter 1000 USD klar verteidigt hat.
Auch Lisa Su dürfte nur schwer dazu zu überzeugen sein, am Desktop-PC x86/x64 riesige GPUs bauen zu lassen.
Die letzten großen GPUs waren Fiji 596mm^2 (2015), Vega10 484mm^2 (2017) und N21XTX 520mm^2 (2020).
N31XTX hat nur 304mm^3.
Nun kommt N48XTX mit "nur" 240mm^2. Davon zwei Dies auf einem Package sind wieder 480mm^2, also high end ohne großen Aufwand, und vor allem das wichtigste: Hohe Ausbeute und somit günstiger Preis und trotzdem konkurrenzfähig.
Die 128CU doppel-Die N48XTX Variante dürfte nach jetzigem Stand die beste Variante für AMD sein, um beim Gaming oben zu bleiben. Bonus wäre natürlich eine Variante mit 3D-Cache stacking als Halo-Produkt.
Ist die Frage ob AMD wieder oben angreifen will..., weil müssen, das tun sie schon lange. Für hohe Marktanteile müsste AMD auch die Benchmarks Richtung SR + FG verschieben und es muss auch ein Umdenken der Gamer in der Mittelklasse geben.
OgrEGT
2024-07-19, 08:23:04
https://videocardz.com/newz/amd-rdna4-experimental-linux-gpu-driver-support-is-now-enabled-by-default
AMD RDNA4 experimental Linux GPU driver support is now enabled by default
Altehardware
2024-07-19, 11:38:33
Spricht ja alles fürn release zur gamecom wäre wünschenswert da dann endlich die preise sich nach unten bewegen würden.
Dieser Stillstand seit 2023 nervt
wäre aber komisch und marketingtechnisch problematisch, wenn dann Monate später Strix Halo mit nur RDNA 3,5 kommt
dildo4u
2024-07-19, 12:34:25
AMD hatte doch noch Vega in den APU als RDNA2 schon auf dem Markt war.
Cezanne ist 2021.
https://en.wikichip.org/wiki/amd/cores/cezanne
RDNA4 APU sind wenn überhaupt ein Thema in 2026 wenn es dort nicht übersprungen wird.
BavarianRealist
2024-07-19, 12:39:04
Wie schon von mir hier erwähnt, gehe ich davon aus, dass es RDNA4 bestenfall kurz vor Ende 2024 geben dürfte. AMDs 5nm-Wafer dürften aktuell mehr als knapp sein, sodass es hier eine klare Allocations-Strategie geben dürfte:
1.Mi3xx,
2.Zen5-CCD für Server (Desktop nur in kleinen Mengen: gehe von hohen Preisen aus zudem glaube ich, dass AMD aktuell Ryzen-9000 eher sehr bescheiden gespect hat, um für Desktop den Ausschuss zu verwerten),
3.Strix-APU (wird teuer verkauft, daher erstmal nur die Top-Modelle: auch hier glaube ich eher vorsichtige Specs, sodass möglichst alle Dice die Anforderungen für HX370/360 erfüllen): ist ein relativ großes Die und hier braucht es große Mengen, sodass man vermutlich aktuell alle Wafer, die "noch übrig sind", für Strix verwenden dürfte.
und ert dann der mögliche Rest für RDNA4, für den aber nichts biebe, solange Strix den "Rest verbraucht".
Ich kann mir gut vorstellen, dass RDNA4 schon weitgehend fertig ist, d.h. man sofort in Massenproduktion gehen könnte, man aber diese noch nicht startet, weil die 5nm-Wafer zur Zeit für Anderes gebraucht werden.
Käsetoast
2024-07-19, 17:48:28
wäre aber komisch und marketingtechnisch problematisch, wenn dann Monate später Strix Halo mit nur RDNA 3,5 kommt
Nicht wenn das, was RDNA4 gegenüber RDNA3.5 primär als Vorteil hat, dann auf Raytracing abzielt. Da wird 3.5 wahrscheinlich zwar auch schon zulegen aber ich sehe 3.5 eben als gefixten 3er was Verbauch bzw. Takt angeht plus einen Raytracing Boost durch eine verhältnismäßig simple Erweiterung hinsichtlich Raytracing (z.B. BVH Support in Hardware). RDNA4 könnte da noch mehr in Richtung Hardware bieten wie vielleicht dedizierte Matrix/Tensor Einheiten, die man sowohl für Raytracing als auch AI Geschichten nutzen könnte. Also Features wo man eher viel Strom reinballern muss um nennenswert was zu reißen und das kann ich in einer APU nicht wirklich gebrauchen, weswegen da die Effizienz beim Rasterizing zählt und wenn man die bestehende Struktur zu wenig Kosten mit BVH Support pimpen kann nimmt man das für's Raytracing natürlich noch mit...
][immy
2024-07-19, 18:49:29
Aber raytracing ist bei mobilen Geräten eigentlich noch uninteressanter. Man braucht ja erst mal eine gewisse Grundperformance bevor man überhaupt darüber nachdenken könnte. Gut die Konsolen können auch ein wenig aber dürfen auch mehr Verbrauchen als Laptop CPUs.
Altehardware
2024-07-19, 23:08:13
rdna4 kommt auf samsung sf4x
Da gibt es keine Kapazitätenprobleme
reaperrr
2024-07-19, 23:15:30
wäre aber komisch und marketingtechnisch problematisch, wenn dann Monate später Strix Halo mit nur RDNA 3,5 kommt
Was sollen sie denn machen?
Halo streichen, nur weil die beiden RDNA4-Chips früher Marktreife erlangt haben?
RDNA4 auf H2 2025 verschieben und Blackwell erstmal das Feld komplett überlassen, nur damit Halo auf dem Papier zum Launch noch die aktuellste AMD-Architektur ist?
Und marketingtechnisch seh ich auch nicht das große Problem.
Mit Ausnahme von RT wird RDNA3.5 vermutlich eh nicht so viel schlechter dastehen als RDNA4, da einige der RDNA4-Verbesserungen bereits in RDNA3.5 eingeflossen sind (z.B. die neue skalare Einheit).
robbitop
2024-07-20, 07:22:09
Wieso denn früher? RDNA4 kommt die üblichen 2 Jahre nach RDNA3.
basix
2024-07-20, 10:07:59
Ich glaube nicht, dass RDNA 3.5 massgebliche RT-Verbesserungen mitbringt. Dazu gibt es keine Indizien. Und so simpel ist eine Erweiterung mit dedizierten BVH-Traversal Einheiten vermutlich nicht. Das ist ja eng mit den TMUs verbandelt.
Deswegen sehe ich eher folgende Fokusthemen:
- RDNA 3.5 = Takt und Power Draw fix von RDNA3
- RDNA 4 = BVH-Traversal Units, Bandbreiteneffizienz, sehr geringe Die Size, weitere Energieeffizienz Verbesserungen
Matrix Cores in RDNA 4 würde ich zwar gerne sehen. Und AMD fährt mittlerweile auch die AI Schiene. Aber evtl. war RDNA 4 dazu noch zu früh. Wenn RDNA 5 wie laut Gerüchten bereits Ende 2025 erscheinen sollte, kommt das sicher spätestens dann.
Käsetoast
2024-07-20, 13:03:20
Ich glaube nicht, dass RDNA 3.5 massgebliche RT-Verbesserungen mitbringt. Dazu gibt es keine Indizien.
Ein starkes Indiz wären doch die PS5 Pro Gerüchte, wo ja wohl auch eine 3.5er Basis zum Einsatz kommt plus die üblichen kleineren Custom Abwandlungen einer Konsole. Den bisherigen Darstellungen folgend hat man hier ja insbesondere das Raytracing mit einigen RDNA4 Features beschleunigt. BVH wäre da eben eine naheliegende Möglichkeit...
Generell kann man annehmen, dass RNDA4 neben der BVH Geschichte noch irgendwas Anderes in petto haben muss - sonst wären die Konsolen wahrscheinlich auch direkt zum 4er Level gesprungen (Release Zeiträume sind ja quasi identisch). Da die PS5 Pro aber natürlich kompatibel bleiben muss spricht das dafür, dass RDNA4 irgendwas mitbringt, dass das schwierig machen würde. Ansonsten ist RDNA3 ja vom Grundsatz her "nur" ein gepimptes RDNA2 ohne grundlegende Architekturänderungen. So gesehen würde es Sinn machen, für die PS5Pro RDNA3 zu nehmen, die Takt-/Verbrauchsprobleme zu lösen wenn das mit mäßigem Aufwand machbar ist und wenn die BVH kompatiblen TMUs sich dann auch integrieren lassen im Sinne von, dass das ein Feature ist, das die mehr können ohne deren gesamten Aufbau / Funktionsweise neu aufzurollen (Stichwort Kompatibilität), warum das nicht auch mitnehmen?
Irgendwas muss RDNA4 da noch haben das begründet warum man nicht einfach den gefixten 3er mit BVH Support bringt und den Rest der Energie in RDNA5 steckt. Gerade wo die Idee von wegen RDNA4 aus mehreren kleinen Chips zu bastlen ja gescheitert zu sein scheint und man daher nur den Midrange bedienen wird. Das ist ja Tech, die im RDNA4 Design grundsätzlich drin ist, die aber ja wohl noch nicht genutzt werden wird. Da hätte es ein zügiger Release von RDNA3.5 wie man es für Konsolen und APUs eh entwickelt doch auch getan. Irgendwas muss da also noch sein. Ich vermute es geht da tatsächlich in Richtung eines Hardware Features für FSR das die Architektur inkompatibel zu RDNA 2 & 3 machen wird und das Grund genug ist an RDNA4 festzuhalten. Einfach weil man dann auch wenn es kein High-End geben wird die Benchmark Balken von RDNA4 pimpen kann durch das neue FSR, um sich von RDNA3 dann auch signifikant absetzen zu können.
reaperrr
2024-07-20, 14:30:18
Wieso denn früher? RDNA4 kommt die üblichen 2 Jahre nach RDNA3.
Früher als Halo.
Bitte nochmal genauer lesen, worauf ich mich beziehe.
Ich glaube nicht, dass RDNA 3.5 massgebliche RT-Verbesserungen mitbringt.
Sehe ich auch so. Gibt selbst in der Gerüchteküche bisher keine Anzeichen dafür, dass sich bei RDNA3.5 außer der neuen skalaren Einheit und den Effizienz-/Takt-Optimierungen viel ändert.
Ein starkes Indiz wären doch die PS5 Pro Gerüchte, wo ja wohl auch eine 3.5er Basis zum Einsatz kommt plus die üblichen kleineren Custom Abwandlungen einer Konsole. Den bisherigen Darstellungen folgend hat man hier ja insbesondere das Raytracing mit einigen RDNA4 Features beschleunigt. BVH wäre da eben eine naheliegende Möglichkeit...
Nur weil die PS5Pro das haben wird, heißt das nicht viel für "vanilla" RDNA3.5.
Nicht vergessen, dass die Strix-Familie später dran ist als ursprünglich geplant, da hat sich IP-technisch vermutlich schon seit mindestens 1,5-2 Jahren nichts mehr getan, von Bugfixes für Zen5 abgesehen. Das wird einfach noch ein etwas älterer IP-Level als die GPU der PS5Pro sein.
Die vorgezogenen RT-Verbesserungen für die PS5Pro dürften dabei die größte custom Abwandlung sein.
Abgesehen davon ist Strix ja schon so gut wie da, die Frage wieviel besser (oder eben nicht) das RT von "vanilla" RDNA3.5 ist, sollte sich ziemlich bald beantworten lassen.
dildo4u
2024-07-20, 14:40:34
Die Klasse macht IMO immer noch kein Sinn für RT daher egal.
Du hast maximal 100 Watt für die GPU dort willst du auch bei Lovelace RT komplett abschalten damit man kein DLSS für 1080p nutzen muss.
AffenJack
2024-07-20, 18:27:14
Wie schon von mir hier erwähnt, gehe ich davon aus, dass es RDNA4 bestenfall kurz vor Ende 2024 geben dürfte. AMDs 5nm-Wafer dürften aktuell mehr als knapp sein, sodass es hier eine klare Allocations-Strategie geben dürfte:
Ich kann mir gut vorstellen, dass RDNA4 schon weitgehend fertig ist, d.h. man sofort in Massenproduktion gehen könnte, man aber diese noch nicht startet, weil die 5nm-Wafer zur Zeit für Anderes gebraucht werden.
Die 5nm Wafer sind bestimmt nicht das Problem. Es gibt bei 5nm keine Engpässe, diese sind bei den Packagingverfahren. Außerdem verkauft AMD gerade von jeglichen anderen Chips außer MI300 nicht gerade große Mengen, wie man an den Quartalszahlen sieht. Man dürfte auf mehr Verkäufe gehofft haben, als es am Ende geworden sind. Dementsprechend wäre eher die Frage ob AMD 5nm Wafer bei TSMC stornieren müsste, als dass sie zu wenig haben, aber mit Mi300 sollte das schon passen.
Ein Grund für den RDNA4 Zeitraum ist eher, dass man es von Anfang an so geplant hat, da N32 lange genug auf dem Markt sein muss, um sich zu amortisieren.
Der_Korken
2024-07-20, 22:12:00
Ein Grund für den RDNA4 Zeitraum ist eher, dass man es von Anfang an so geplant hat, da N32 lange genug auf dem Markt sein muss, um sich zu amortisieren.
Letzteres ist eigentlich ein Nicht-Argument, da N48 nach bisherigen Gerüchten günstiger zu fertigen sein dürfte und trotzdem schneller wäre, d.h. höherer Stückpreis. Eigentlich gäbe es außer hohen Lagerbeständen keinen Grund N48 zurückzuhalten, wenn er fertig ist.
AffenJack
2024-07-20, 22:34:18
Letzteres ist eigentlich ein Nicht-Argument, da N48 nach bisherigen Gerüchten günstiger zu fertigen sein dürfte und trotzdem schneller wäre, d.h. höherer Stückpreis. Eigentlich gäbe es außer hohen Lagerbeständen keinen Grund N48 zurückzuhalten, wenn er fertig ist.
Das entscheidet man ja nicht einfach kurzfristig. Man hat seine Entwicklungspipeline und da dürften für Q4 24 die großen RDNA4 Chips geplant gewesen sein, kleine Chips wie immer später. Jetzt werden die großen gecancelt, das heißt aber nicht, dass man die anderen Chips einfach so vorverschieben kann. Denn wenn die RDNA4 Big Chip Ressourcen zu RDNA5 gehen, hilft das den kleinen RDNA4 nicht.
Allerdings glaube ich auch nicht, dass der Abstand RDNA4 zu RDNA5 weniger als ein Jahr sein wird. Dementsprechend, wenn RDNA4 2025 kommt, RDNA5 erst 2026.
basix
2024-07-20, 23:39:50
Allerdings glaube ich auch nicht, dass der Abstand RDNA4 zu RDNA5 weniger als ein Jahr sein wird. Dementsprechend, wenn RDNA4 2025 kommt, RDNA5 erst 2026.
Da es bereits relativ weit fortgeschrittene Linux-Treiber gibt, halte ich einen 2025er Release von RDNA4 für irgendwie nicht stimmig.
Altehardware
2024-07-21, 07:24:19
Ich bin fasst davon überzeugt das amd die rdna4 n48 sku vorstellen wird
Und somit eol des n32 n31 einleiten wird. Zugleich ne Preis Reduktion auf n32 60cu 439€ und 54cu 379€ gehen wird
Die rx7600xt offiziell bei 299€ kommt und die rx7600 auf 249€ fällt
der n48 8700xt 64cu 449€ und den n48 48cu 399€
Das wäre die Preislage die möglich wäre
Einordnung
rx7600xt 13tf dxr per 16sm (rtx3050m) 299€
rx7700xt 18tf dxr auf rtx3050 20sm 379€
rx7800xt 21tf dxr auf rtx3060 28sm 439€
rx8700 21tf dxr auf rtx4060ti 34sm 449€ (spätestens okt 2024)
rx8700xt 26,9tf dxr auf rtx4070 lvl 46sm 499€
Gründe Samsung sf4x node 9000$ per wafer maxed 270mm² chip 256bit 16gb gddr6 18gbps (3,50$) Sku ab 299$ umsetzbar
Deutlich billiger als n31 und n32 (12000$ 300mm² 2000mm² per wafer + 9000$ per wafer 100mm² und 150mm² + packaging etwa 5$)
nvidia Reaktion
Preisnachlass rtx4060ti 16gb 399€ 8gb 299€ rtx4060 249€
rtx4070 d6 449€ unklar aber sehr wahrscheinlich (okt 2024)
Ankündigung gamescom mit der rtx5080 (gb203 80sm) okt 2024
Das würde den stau aktuell aufheben da sony auch zur tgs die ps5 pro releasen wird für 559€ grob 23tf (nov 2024)
horn 12
2024-07-21, 09:30:10
Dann würde wie immer schon gesagt die 7900XTX an der Speerspitze bleiben mit Ihren 24 GB GDRR6 Speicher
und RDNA 4 mit max. 16 GB Speicher und vielleicht 7900XT und bei RT vielleicht knapp über 7900 XTX nur dahinter stehen.
Falls die N31 wirklich EOL gehen sollte, kommt da sicher bis Frühjahr 2026 RDNA 5 Release noch ein Refresh bis zur 5080 daher.
amdfanuwe
2024-07-21, 12:17:34
Deutlich billiger als n31 und n32 (12000$ 300mm² 2000mm² per wafer + 9000$ per wafer 100mm² und 150mm² + packaging etwa 5$)
Wenn du schon die packaging Kosten aufführdt, dann doch bitte auch die Maskenkosten und Kosten für die Chiptests.
Ein 5nm Maskensatz kostet bis zu $20 Mio.
Das macht bei 2 Mio. Chips auch $10 pro Chip.
Bei 4 Mio. Chips noch $5 pro Chip.
Bei 10 Mio. Chips noch $2 Pro Chip.
7 Millionen 300mm² Chips lassen sich in etwa aus einem Maskensatz erzielen.
10 Millionen bei 200mm² Chips.
Wieviel Chips eines Typs verkauft AMD?
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-vierten-quartal-2023
Etwas knifflig die Frage. Bei ~1,5 Millionen Chips / Quartal sind wir bei 6 Millionen pro Jahr. Die verteilen sich auf 2 Generationen von Chips mit jeweils 3 Typen. Macht rund 1 Millionen Chips pro Typ.
Über 2 Jahre verteilt macht das dann $10 pro Chip allein für die Maskenkosten.
AMD scheint mir weit davon entfernt einen Maskensatz optimal zu nutzen.
Bei Nvidia scheint das halbwegs zu passen und die liegen dann mit $2 pro Chip an Maskenkosten in optimalem Bereich.
Bei kleineren Chips passen mehr auf einen Wafer und die Kosten gehen entsprechend pro Chip runter.
Das hab ich mir mittels ChatGPT und Google zusammengschwurgelt. Wenn da einer konkretere Zahlen hat, immer her damit.
dildo4u
2024-07-21, 13:07:47
Angebliche RDNA4 RT Features
https://i.ibb.co/XSk29GN/Screenshot-2024-07-21-13-08-14-823-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/864KJQT)
bb onsite (https://imgbb.com/)
https://videocardz.com/newz/leaker-reveals-new-amd-rdna4-ray-tracing-features-expected-in-upcoming-playstation-5-pro
The_Invisible
2024-07-21, 13:11:35
Da es bereits relativ weit fortgeschrittene Linux-Treiber gibt, halte ich einen 2025er Release von RDNA4 für irgendwie nicht stimmig.
Naja bis die auf die Mainstreamdistros aufschlagen vergeht aber einige Zeit, die meisten haben einen Halbjahresrhythmus und das Featurefreeze ist noch einige Zeit vorher, da ist man manchmal also trotzdem 1-2 Kernel Releases hinterher.
Nicht jeder will oder kann auf BleedingEdge/RollingRelease gehen.
robbitop
2024-07-21, 14:12:59
Angebliche RDNA4 RT Features
https://i.ibb.co/XSk29GN/Screenshot-2024-07-21-13-08-14-823-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/864KJQT)
bb onsite (https://imgbb.com/)
https://videocardz.com/newz/leaker-reveals-new-amd-rdna4-ray-tracing-features-expected-in-upcoming-playstation-5-pro
Hm dann ist hoffentlich ordentlich was in den geschwärzten Punkten. Denn die Sichtbaren sehen eher nach Optimierungen des bisherigen aus aber zeigen nichts zu BVH Compute als Fixed Function Hardware oder sowas wie coherency sorting…
Exxtreme
2024-07-21, 15:27:09
BVH Compute als Fixed Function Hardware
AFAIR ist das bereits jetzt als "fixed function hardware" implementiert. Nur leiht es sich die TMUs dazu. Was dafür sorgt, dass sich BHV Berechnungen und Texturfilterung in die Quere kommen. Da entweder nur das eine oder das andere geht.
Der_Korken
2024-07-21, 15:35:23
AFAIR ist das bereits jetzt als "fixed function hardware" implementiert. Nur leiht es sich die TMUs dazu. Was dafür sorgt, dass sich BHV Berechnungen und Texturfilterung in die Quere kommen. Da entweder nur das eine oder das andere geht.
Das betrifft Intersection Tests. Das was robbitop meint, ist nochmal was anderes.
robbitop
2024-07-21, 15:43:00
So ist es. :)
War ja immer die Rede davon, dass N44 24 oder 32 CUs an 2 SEs haben sollte.
Jetzt ersetzt N44 aber das Einsteigersegment und damit N24. Die ganzen Spekus zu N44 waren also kompletter Unsinn (und so ist das auch bei N48, das wette ich). N44 wird also 1 SE mit 8-12CUs bieten, mehr nicht. Dazu passen dann auch die 130mm², denn man wird anders als bei N24 sicherlich dieses Mal ein 128Bit-Interface verbauen.
N44 ersetzt die nicht erscheindenden 7300 und 7400 auf N33-Basis.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/RDNA-4-Boardpartner-beschaeftigen-sich-mit-Next-Gen-1453519/
bedeutet also im Klartext, dass alte Chips am Markt bleiben werden und das die Marktsegmentierung in der nächsten (halb-)Generation bisher nicht erkennbar ist, denn N48 ist jetzt wieder komplett unbekannt nach den ganzen N44-Fakenews.
DrFreaK666
2024-08-12, 17:50:23
Schön dass du entscheidest was Fake-News sind und was nicht... :ugly:
Schön dass du entscheidest was Fake-News sind und was nicht... :ugly:
Ich würde dem zustimmen, wenn es sich hier um echte Informationen handeln würde. Aber ich bestimme ja nur, dass die bisherige Speku von N44 schlichtweg falsch war und gehe davon aus, dass das bei N48 genau so ist. Bin gespannt, was da in den nächsten Wochen/Monaten so von den Boardpartnern leakt. Ich hab schon nen Verdacht aber mal sehen.
reaperrr
2024-08-12, 18:14:07
War ja immer die Rede davon, dass N44 24 oder 32 CUs an 2 SEs haben sollte.
Jetzt ersetzt N44 aber das Einsteigersegment und damit N24. Die ganzen Spekus zu N44 waren also kompletter Unsinn (und so ist das auch bei N48, das wette ich). N44 wird also 1 SE mit 8-12CUs bieten, mehr nicht. Dazu passen dann auch die 130mm², denn man wird anders als bei N24 sicherlich dieses Mal ein 128Bit-Interface verbauen.
N44 ersetzt die nicht erscheindenden 7300 und 7400 auf N33-Basis.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/RDNA-4-Boardpartner-beschaeftigen-sich-mit-Next-Gen-1453519/
bedeutet also im Klartext, dass alte Chips am Markt bleiben werden und das die Marktsegmentierung in der nächsten (halb-)Generation bisher nicht erkennbar ist, denn N48 ist jetzt wieder komplett unbekannt nach den ganzen N44-Fakenews.
Nix für ungut, aber was du in diese News reininterpretierst ist schon etwas abenteuerlich.
N24 hat schon 16 CUs, warum sollte N44 jetzt plötzlich weniger CUs als N24 und StrixPoint kriegen?
N44 wird mit hoher Wahrscheinlichkeit als Ersatz für N24 und N33 konzipiert sein.
Bei 128bit SI, 8 PCIe Lanes usw. ist der Chip schon durch Interfaces und anderen Kram von vornherein so groß, dass 16 CUs mehr den Chip gar nicht so viel größer machen, dann bringt es auch nicht viel, unnötig an CUs zu sparen.
Altehardware
2024-08-13, 03:58:33
macht kein Sinn da rdna generell 20cu per rasterngine hat
Das wird erst mit rdna5 auf 24 vergrößert und rdna6 auf 28cu
Das wird also 32cu bei n44 sein muss.
Und n48 ein doppelter n44 der ist bestätigt da dieser in der ps5 pro drin ist.
warum das so ist nun das liegt an der Struktur von rdna
Amd könnte das umbauen auf doppelte Größe müsste dafür die doppelte cache menge verbauen und cache skaliert nicht
Es ist unklar ob amd es schafft den cache auf nen externen chip zu setzen wie den inf cache bei rnda3
Die tsv Lösung wie bei den x3d hat aber ne hohe Latenz das wäre kein problem da wie in rdna3 das nur die Bandbreite erweitern soll aber direkt am chip den inf cache zu haben mit deutlich mehr nutzen für die alu könnte amd die gpu schneller machen. Und mehr dual issue anwenden von 17% auf 25% 2,5 Operationen per clock
Dann könnten die tsv lediglich das Si Verbindung sein und da man nicht mehr von Kosten des Si gehindert wird kann man 512bit nutzen um bei nen 410mm²/205mm² base Die tsv alu mit inf cache und dann maximal 2x/ 1x 96cu chips 80cu nutzbar bauen bei 2,5 opertaionen per clock =
n51 160cu 2,5 etwa 3,0ghz 76tf 512bit 410mm² (rtx5090 lvl)
n51 144cu 2,5 etwa 3,0ghz 69tf (rtx4090 lvl)
n52 80cu 2,5 etwa 3,0ghz 38tf 256bit 205mm² +10% vs rx7900xtx
n52 64cu 2,5 etwa 3,0ghz 30tf 256bit +10% vs rx8700xt
Das ist zwar Schneckentempo bei der perf Zuwächsen ist aber notwendig die ps5 pro wird nur 20tf leisten was in etwa die rx7800xt entspricht
das spannende wird der preis der Konsole vermutlich 499€
Das zwingt amd die rx8700xt auf 549€ und rx8700 auf 439€ da gleich schnell wie die Konsole.
Und nvidia wird darauf reagieren mit rtx4060ti super 20gbps die knapp langsamer ist aber in dxr gleichauf mit der rx8700 für 459€
Das wird spannend den eine rtx4060ti super wär mit 16gb 20gbpd 320gb/s bei 175w tbp da muss rdna4 schon min bei 190w für die 21tf haben aber da es samsung sf4 node wird ist davon nicht auszugehen womit die 21tf bei grob 210w sind
Das wäre identisch zu nvidia ad104 chip mit 46sm
pro alternative zur rtx4070 kontra mehr als 175w
immer knapp vorbei an kaufbar für mich
mczak
2024-08-13, 05:55:52
N44 wird mit hoher Wahrscheinlichkeit als Ersatz für N24 und N33 konzipiert sein.
Der ersetzt doch niemals N24, dafür ist der zu teuer. Selbst wenn der tatsächlich bloss ~130 mm² gross wird sind die Fertigungskosten da massiv höher als ein N24 mit seinen 107 mm² in N6. Ist ja auch nicht zusätzlich abgespeckt (Video-Codecs, pcie Interface...).
Ausserdem wenn man wirklich Kostenpunkte wie eine RX 6400 erreichen möchte müsste man dem dann auch bloss 4GB VRAM gönnen - da nimmt man dann besser gleich den viel günstigeren Chip.
amdfanuwe
2024-08-13, 10:20:58
Der ersetzt doch niemals N24, dafür ist der zu teuer.
Wenn die verkauften Stückzahlen nicht hoch genug sind, lohnt es nicht einen neuen Maskensatz für N24 zu erstellen. Da ist es billiger N44 salvage zu verbauen.
Altehardware
2024-08-13, 10:55:02
low end wird komplett aufgegeben daher wird es keine n24 Nachfolger mehr geben darum gab es auch keinen n34
Das es n44 heißt liegt schlicht am canceln von n41 (3 chiplet alu) n42 (2 chiplet alu) und n43 (ein chiplet alu) alle mcm
reaperrr
2024-08-13, 13:23:26
Der ersetzt doch niemals N24, dafür ist der zu teuer. Selbst wenn der tatsächlich bloss ~130 mm² gross wird sind die Fertigungskosten da massiv höher als ein N24 mit seinen 107 mm² in N6.
Natürlich nicht ganz 1-zu-1.
Ich denke, dass N24 unterhalb N44 weiterexistieren wird.
Seien wir ehrlich, AMD GPUs im Mobile-Bereich sind de facto tot, und im Desktop ist Perf/W im LowEnd auch nicht so wichtig, weil sowas wie die RX 6400 sowieso nicht wirklich Spiele-tauglich ist, die ist eher für Office-PCs ohne IGP usw.
Und die 6500XT ist, auch da müssen wir ehrlich sein, für Leute die keine Ahnung haben und sich vorher nicht richtig informieren, oder wirklich nicht mehr Geld haben und sich auch keine Gebrauchtkarte holen wollen. Vielleicht noch für billige Fertig-PCs.
Leute mit halbwegs Ahnung holen sich normalerweise keine Karte mit 64bit-SI. Aber einige DAUs (oder eben Fälle, wo es finanziell schlicht nicht anders geht) gibt's da draußen schon.
Gleichzeitig sollte man aber die Produktionskosten für N44 auch nicht überschätzen.
Der wird billiger herzustellen sein als N23, und die RX6600 gibt es schon für um 200€, nur 50€ mehr als die meisten 6500XT (sogar nur ~20€ mehr als die 6500XT-8GB).
Natürlich werden N44-Karten anfangs teurer sein, einfach der Leistung wegen, aber bis runter auf 200€ werden sie mit dem Chip schon gehen können, wenn sie wollen/müssen.
Und für alles darunter reicht N24, und vllt. irgendwann noch Salvage-N33 statt N23.
N24 war ein heftiger Flop. Ich denke, der wird ersetzt werden. Darüber dürfte sich dann N33 ansiedeln, vielleicht als 8600 (32CUs+16GB) und 8500 (24CUs+8GB) oder sowas. Wenn es eine 7400/7300 nicht geben wird wegen N44 ist der auch da anzusiedeln, alles andere ist vollkommen unlogisch.
N44 wird mMn einen vernünftigen Videoprozessor haben, 8GB Speicher, KI-Leistung mit ROCm-Support; das ist die passende GPU für AM4 und ältere Intel-Systeme. N24 ist für gar nichts brauchbar, außer man will Bild haben. Der muss ersetzt werden. Das ganze Konzept von N24 als Zusatz-GPU für Mobil-APUs ist gescheitert und die GPU ist furchtbar schlecht. N33 hat nach wie vor ein modernes Featureset und ist günstig zu produzieren. Warum soll man den ersetzen? Das ergibt keinen Sinn.
reaperrr
2024-08-13, 15:03:35
"Ersetzen" heißt nicht immer automatisch "der wird dann nicht mehr produziert".
Wenn ich "ersetzen" sage, meine ich damit das Marktsegment bzw. den Preispunkt.
N44 wird erstmal 7600(XT), 6600XT/6650XT im jeweiligen Preisbereich ersetzen.
Heißt nicht, dass die alle vom Markt verschwinden, die werden dann halt teilweise nur entsprechend etwas billiger.
N23 läuft dann vielleicht auch irgendwann mal ganz aus (da N33 eigentlich billiger zu produzieren sein sollte) und dann wird auch die 6600 wahrscheinlich durch eine 7500(XT) mit ähnlichen Specs (28 CUs, TDP max. 130W, langsamerer RAM) ersetzt.
Ich tippe, dass das AMD Desktop-LineUp in 12 Monaten ca. so aussehen wird (Restbestände an 6x00 und 7700XT-7900XTX mal ignoriert):
599$ 8800 XT: N48, 64 CUs, 256bit, 16GB
549$ 8800 oder 8700 XT: N48, 56 CUs, 256bit, 16GB
479$ 8700 (XT): N48, 56 CUs, 192bit, 12GB
399$ 8600 XT: N44, 32 CUs, 128bit, 16GB
329$ 8600: N44, 28 CUs, 128bit, 8GB
299$ 7600 XT
249$ 7600
199$ 7500 (XT): N33, 24-28 CUs, 128bit, 8GB 14Gbps oder 16Gbps
169$ 7400-8GB: umgelabelte 6500 XT-8GB
139$ 7400: umgelabelte 6500 XT-4GB
119$ 7300: umgelabelte 6400
Da würde ich anders ne Liste aufmachen:
RX8900XT -> N48 4x12WGP, 4 MCDs + X3D, 16GB 18GT/s
RX8800XT -> N48 salvage, 4 MCDs + X3D
RX8700XT -> N32
RX8700 -> N32 salvage
RX8600XT -> N32 salvage
RX8600 -> N33
8500 -> N33
8400 -> N44
8300 -> N44
8100 -> N44
oder
RX8700XT -> N48 monolith, 4x 8WGP, 256Bit GDDR6
RX8700 -> N48 salvage
RX8600 -> N33
8500 -> N33 salvage
8400 -> N44
8300 -> N44
8100 -> N44
also den N24 sehe ich in keinem einzigen Lineup mehr. Das Ding ist viel zu schlecht um das weiterzuverwenden und muss dringend ersetzt werden.
Auf jeden Fall denke ich, dass das Gestückel aus früheren Zeiten wieder anfängt. Ein N43 könnte auch noch irgendwann auftauchen.
robbitop
2024-08-13, 16:05:27
War es nicht schon relativ klar, dass N48 32 WGPs hat und eine kleine core size? Wie kommst du da auf 48 WGPs und x3d?
mczak
2024-08-13, 16:07:33
Natürlich nicht ganz 1-zu-1.
Ich denke, dass N24 unterhalb N44 weiterexistieren wird.
Eben, darum würde ich hier nicht von Ersatz sprechen - das Segment läuft einfach aus, N24 reicht noch als "nur-Bild" Chip (bzw. Windows-Compositing-Beschleuniger) für eine Weile, danach kommt da nichts mehr. Braucht man ja auch nicht mehr, weil im Notebook setzt man lieber auf bessere APUs, und im Desktop haben ja mittlerweile auch die AMD-Chips eine IGP (klar diese IGPs sind sowohl bei intel wie AMD nochmal massiv langsamer als N24 reichen aber auch als "nur-Bild" Chips). Auch Nvidia produziert ja schon eine ganze Weile keine echten Low-End Chips mehr (GP108 war der letzte).
Gleichzeitig sollte man aber die Produktionskosten für N44 auch nicht überschätzen.
Der wird billiger herzustellen sein als N23, und die RX6600 gibt es schon für um 200€, nur 50€ mehr als die meisten 6500XT (sogar nur ~20€ mehr als die 6500XT-8GB).
Ich weiss nicht ob der wirklich billiger als N23 zu fertigen ist - könnte eng werden (wenn die 130mm² korrekt sind). Allerdings sollte ja auch N33 etwas günstiger in der Fertigung sein als N23, und trotzdem verkauft AMD immer noch N23 (insbesondere als RX 6600) und es gibt stattdessen noch immer keine teildeaktivierten N33 (als Desktop-Karte).
Aber klar, mit einem 130mm² N44 könnte man auf jeden Fall 200 Euro Karten herstellen - nur sehe ich das eben nicht als N24 Ersatz, die aufgeblasenen 6500XT 8GB sind da imho kein Massstab (weil das eben schon praktisch N23 Niveau ist, es gibt auch 6500XT die sind teurer als 6600).
War es nicht schon relativ klar, dass N48 32 WGPs hat und eine kleine core size? Wie kommst du da auf 48 WGPs und x3d?
Wie gesagt, die kolportierten Daten für N44 waren falsch. Der soll absolutes low-End werden, wenn der statt 7300/7400 kommen soll.
Den Verdacht hatte ich ja schon recht lange, dass die "Leaks" für RDNA4 purer Mist waren. Ich erinnere an RDNA3, da waren auch die meisten Leaks mist, bis die Chips bei den Kartenherstellern waren.
mczak
kompletter Unsinn. Wem willst du N24 verkaufen? Der hat 0 Features, jede interne Grafik ist besser ausgestattet. Nein, der wird definitiv ersetzt, da lehn ich mich ganz weit aus dem Fenster. Was ist denn besser: N24 weiter "verkaufen" und N33 einstampfen oder N44 verkaufen und zusätzlich N33 weiter zu verklaufen?
Schau dir die Planung an: Es gab N41, N42, N43, N44. N41 und 42 wurden gecancelt. N43 wurde offenbar erst mal eingestellt, es ist unbekannt, was aus dem Chip wurde, N44 ist ganz offensichtlich das kleinste und billigste der Generation. Ich gehe auch jede Wette ein, dass das Ding in SF4X gefertigt wird, wie Sonoma Valley. Nur deshalb hat N44 das überlebt mMn. Und N48 wurde ganz offensichtlich als reiner Ersatzchip geplant, um überhaupt noch was anbieten zu können und dürfte auch N4P sein.
BavarianRealist
2024-08-13, 16:23:28
Wie gesagt, die kolportierten Daten für N44 waren falsch. Der soll absolutes low-End werden, wenn der statt 7300/7400 kommen soll...
Wozu sollte AMD noch "absolutes low-End" an GPUs ausliefern? Die braucht niemand mehr, haben doch inzwischen alle APUs ordenltiche iGPUs. 7600 dürfte das Kleinste bleiben, was AMD noch ausliefern wird. N44 dürfte deutlich drüber liegen.
Mangel76
2024-08-13, 16:24:50
Wie gesagt, die kolportierten Daten für N44 waren falsch. Der soll absolutes low-End werden, wenn der statt 7300/7400 kommen soll.
Den Verdacht hatte ich ja schon recht lange, dass die "Leaks" für RDNA4 purer Mist waren. Ich erinnere an RDNA3, da waren auch die meisten Leaks mist, bis die Chips bei den Kartenherstellern waren.
mczak
kompletter Unsinn. Wem willst du N24 verkaufen? Der hat 0 Features, jede interne Grafik ist besser ausgestattet. Nein, der wird definitiv ersetzt, da lehn ich mich ganz weit aus dem Fenster.
Wie kommst du denn nur auf diese Idee? PCGH hat doch lediglich gesagt, dass keiner an 7300/7400 arbeitet, sondern an 8XXX. Daraus folgt doch nicht, dass N44 jetzt als 7400 kommt, weder nach Bezeichnung noch nach Leistungsbereich?
DrFreaK666
2024-08-13, 16:28:13
Wie kommst du denn nur auf diese Idee? PCGH hat doch lediglich gesagt, dass keiner an 7300/7400 arbeitet, sondern an 8XXX. Daraus folgt doch nicht, dass N44 jetzt als 7400 kommt, weder nach Bezeichnung noch nach Leistungsbereich?
Er macht sich halt seine eigenen Gerüchte. Die aktuellen reichen noch nicht aus
Ich brauch das Gerücht dafür nicht, das ist absolut offensichtlich.
N44 ist absolutes Low-End und soll natürlcih N24 ersetzen. Solche Lineups wurden ja vor Jahren definiert.
Wir erinnern uns, dass N24 auch in N6 gefertigt wurde und eigentlich als Partner für Renoir/Cezanne gedacht war, 3D-Grafik von N24 und Ausgabe über die APUs. Das Konzept scheiterte, also fristet N24 sein Dasein als Desktop-Chip. Da zum Glück für AMD sich der Preisbereich aber nach wie vor verkauft (wenn auch nicht gut, da N24 einfach schlecht ist) wird man aber N44 geplant haben.
Ich wette, dass das Lineup etwa so ausgesehen hätte:
N41 (N4P) -> 120CUs
N42 (N4P) -> 80CUs
N43 (N4P) -> 32-40CUs
N44 (SF4X) -> 12-16CUs
Und davon gibts genau noch einen Chip.
Weil man aber als Ersatz noch was weiteres brauchte, hat man N48 nachdesignt um die Lücke zu füllen. Daher hab ich ja auch den Verdacht, dass die Vorabdaten genauso falsch waren wie bei N44.
Ich wette, dass da mal wieder Daten durcheinandergeworfen wurde und N44 mit N43-Daten komportiert wurde.
Das ist sicherlich alles nur Annahme und es kann sicherlich auch anders sein, aber ich hab einfach keinen Bock unter alle Postings einen bescheuerten Disclaimer zu schreiben.
N24 ist aber auch kein tragfähiges Produkt, aus keiner Sicht heraus mMn. Von daher seid einfach mal ein bisschen aufgeschlossener.
Hinzu kommt, dass ein solcher Chip dank des eigenen Speichers und 16MB IF$ immer noch deutlich besser als jede APU im Desktop wäre. Es gibt also nach wie vor einen Markt dafür.
mczak
2024-08-13, 19:43:43
kompletter Unsinn. Wem willst du N24 verkaufen? Der hat 0 Features, jede interne Grafik ist besser ausgestattet. Nein, der wird definitiv ersetzt, da lehn ich mich ganz weit aus dem Fenster.
Ich hoffe bloss du fällst dann nicht raus wenn der erscheint :biggrin:.
Ich denke wir sind uns alle einig dass N24 nicht wirklich was taugt. Das heisst aber nicht dass man den wirklich ersetzen muss. Wenn dieses Marktsegment so wichtig ist wieso hat dann Nvidia seit 7 Jahren keinen Chip mehr lanciert der das abdeckt? Nvidia hat 5 Ada Chips, und der kleinste davon ist leicht oberhalb N33 anzusiedeln. Man beachte auch wie extrem nahe die Spezifikationen von AD107 und AD106 sind, ganz offensichtlich sieht Nvidia keinen Bedarf an einem eigenen Chip für noch günstigere Segmente, obwohl ja Nvidia deutlich mehr Grafikchips als AMD verkauft.
Schau dir die Planung an: Es gab N41, N42, N43, N44. N41 und 42 wurden gecancelt. N43 wurde offenbar erst mal eingestellt, es ist unbekannt, was aus dem Chip wurde, N44 ist ganz offensichtlich das kleinste und billigste der Generation.
Da stimme ich zu (wobei N43 war doch genau wie N41/N42 ein nicht-monolithisches Design die alle zusammen eingestampft wurden)?
Nur, daraus folgt nicht dass N44 wirklich derart low-end sein muss wie du dir das vorstellst. Wie gesagt, Nvidia hat beispielsweise zur Zeit 5 Chips die allesamt oberhalb N33 angesiedelt sind. Und gerüchteweise sollte ja N41 ein ziemliches Monster werden, da ist dann eben auch der viertschnellste Chip in der Reihe nicht zwingend ultralahm.
Ich gehe auch jede Wette ein, dass das Ding in SF4X gefertigt wird, wie Sonoma Valley.
Das ist gut möglich. SF4X sollte ja wohl ungefähr N5-Niveau aufweisen, da sollten keine Welten liegen zu N4P. Und wenn es Kosten spart (und vielleicht besser verfügbar), wieso nicht?
Nur deshalb hat N44 das überlebt mMn. Und N48 wurde ganz offensichtlich als reiner Ersatzchip geplant, um überhaupt noch was anbieten zu können und dürfte auch N4P sein.
Klar, schon vom Namensschema her ist das ja ein seltsamer Chip.
robbitop
2024-08-13, 21:11:19
Samsungs 4nm basieren noch auf deren 7 nm node wohingegen bei TSMC es mit 5 nm einen neuen fullnode Prozess gibt. Man sollte sich nicht von den Zahlen der nm täuschen lassen.
reaperrr
2024-08-13, 21:21:23
Wie gesagt, die kolportierten Daten für N44 waren falsch. Der soll absolutes low-End werden, wenn der statt 7300/7400 kommen soll.
Absolut nichts davon steht in dem Bericht. Das ist alles zu 100% von dir reininterpretiert.
kompletter Unsinn. Wem willst du N24 verkaufen?
Denen, die ihn auch jetzt kaufen. Dass kein normaler Gamer in die Gruppe fällt, ist klar. Aber wenn die keiner mehr kaufen würde, würde AMD sie auch nicht mehr produzieren.
Übrigens ist genau das ein Punkt der gegen deine "N44 hat nur 12 CUs"-These spricht.
Wozu die R&D in einen neuen Chip investieren, der dann so langsam ist, dass er außer N24 (und das auch nur knapp) keine halbwegs aktuellen AMD-Karten schlagen kann (von NV-Karten ganz zu schweigen) und ruckzuck wieder obsolet, weil selbst von IGPs einge- oder überholt ist?
N24 ist aber auch kein tragfähiges Produkt, aus keiner Sicht heraus mMn. Von daher seid einfach mal ein bisschen aufgeschlossener.
Pot calling kettle back ;D
N24 ist so klein, die 6400 und 6500XT-4G könnte man bei niedrigen RAM-Preisen wahrscheinlich zu je 80 und 100€ verkaufen und würde noch etwas dran verdienen. Die Verkaufszahlen sind vielleicht niedrig, die Marge je mm² dürfte aber deutlich besser als bei N23 sein.
Kann es sein, dass AMD die N24er trotzdem eher früher als später einstellt?
Klar, ist möglich.
Ist es wahrscheinlich, dass N44 ähnlich niedrig spezifiziert wird, um N24 direkt ersetzen und einstellen zu können?
Eher nicht...
32 WGP (64CU) für N48 und 16 WGP (32CU) für N44 ist außerdem schon ewig der Stand der Gerüchte, und es sind maximal noch ~6 Monate zum Launch des ersten der beiden Chips.
Und nein, die RDNA3-Gerüchte waren so nah am Release schon lange kein Humbug mehr, 96 CUs + DualIssue für N31 war lange vor Launch de facto bekannt und haben sich als richtig herausgestellt, ähnlich bei N32 mit 60 CUs und N33 mit 32 CUs.
Und selbst viele der früheren Gerüchte zu den RDNA3-Chips waren hinsichtlich TFLOPs unter Berücksichtigung von DualIssue sehr nah an der Wahrheit, die Gerüchteküchen haben daraus nur fälschlicherweise doppelt so hohe CU-Zahlen gemacht, wie es letztlich waren. Vielleicht auch CUs für WGPs gehalten, wer weiß.
Jedenfalls sehe ich bisher keinen Anlass, die kolportierten Specs für komplett falsch zu halten.
N24 ist ineffizient und teuer für das was er leistet. Der wird sehr sicher von N44 ersetzt werden, ich bleibe dabei. Wir werden ja sehen wer recht hat. Ich denke aber, das zeigt schon die Marktsegmentierung.
Ich denke auch nicht, dass der N4-Ressourcen wegnehmen wird, der wird wie Sonoma Valley in SF4X gefertigt werden, wie alle billigst-Produkte in nächster Zeit mMn. Vielleicht ist das Ding nicht mal RDNA4 sondern 3.5.
https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Ryzen-Epyc-und-Co-Termine-5-neue-Produkte-Geruecht-1453774/
Wie ich schon vermutet habe, dürfte es lange Zeit (oder überhaupt) keinen X3D in der 9k-Serie geben. Neu ist, dass auch die Radeon 8k-Serie fehlt. Von daher lehn ich mich mal aus dem Fenster und prophezeie ein Canceln des N48-Projekts...
dargo
2024-08-17, 09:00:10
N24 ist ineffizient und teuer für das was er leistet.
Unsinn... N24 ist nicht ineffizient. Der Fullchip wurde nur von AMD bei der Frequenz extrem geprügelt. Frage mich was bei einer RX 6400 ineffizient ist? Eine hypothetische RX 6500 non XT mit den gleichen Frequenzen der RX 6400 würde grob bei 65-70W rauskommen.
Fläche zu Leistung. Das Ding ist über 100mm² groß und leistet APU-Leistung. Damals war das vielleicht mal ok, aber das Ding ist einfach furchtbar schlecht. das Problem ist aber weniger die Leistung als vielmehr der fehlende Videoprozessor.
robbitop
2024-08-17, 09:26:42
Je kleiner die GPU desto größer (relativ) der nicht CU Anteil. Das geht allerdings allen kleinen GPUs so.
Richtig. Deshalb braucht man ne Minimal-GPU, die auch in der Lage ist, die heutigen APUs zu schlagen - und vor allem Featuretechnisch zumindest gleich zu ziehen. Außerdem kann er die TOPs nicht liefern, die zumindest rudimentäre KI-Funktionen zulässt. Deshalb sollte klar sein, warum N24 keinerlei Zukunft hat.
OgrEGT
2024-08-17, 09:36:00
Von den Boardpartnern war doch unlängst zu hören dass sie gerade mit RDNA4 beschäftigt sind... wenn es nur N44 geben sollte wüsste ich nicht womit sie da groß beschäftigt sein sollten... wenn es so wäre würde man doch eher nix dazu sagen... was soll denn da groß gelauncht werden?
basix
2024-08-17, 09:48:56
N24 wird als Bottom Feeder wohl schon noch am Markt bleiben. Es gibt ja sonst fast nichts anderes im Preisbereich <150.-, was ich "empfehlen" würde.
Bei etwas >150.- findet man vielleicht noch eine 3050 6GB, dann würde ich die nehmen. Bei leicht unterhalb 200.- gibts dann bereits erste RX 6600 und 3050 8GB.
N44 wird mit mit fast absoluter Sicherheit bei >200.- landen, auch beim Salvage. So sieht es halt aus. N24 wird deswegen mMn am Markt bleiben. N21-N23 und N3x werden verschwinden (ja auch N33).
robbitop
2024-08-17, 10:55:06
Richtig. Deshalb braucht man ne Minimal-GPU, die auch in der Lage ist, die heutigen APUs zu schlagen - und vor allem Featuretechnisch zumindest gleich zu ziehen. Außerdem kann er die TOPs nicht liefern, die zumindest rudimentäre KI-Funktionen zulässt. Deshalb sollte klar sein, warum N24 keinerlei Zukunft hat.
IMO werden Einsteiger GPUs durch APUs obsolet.
Insofern verstehe ich N44 nicht so ganz. Ein N43 und ein N42 (von der Gruppierung her) wären da sicherlich am sinnvollsten gewesen. N48 ist IMO sowas wie ein N42 von der Gruppierung her (oder knapp zwischen 42 und 43). Naja mal schauen…
basix
2024-08-17, 11:14:12
IMO werden Einsteiger GPUs durch APUs obsolet.
Insofern verstehe ich N44 nicht so ganz.
N44 wird mindestens gleich schnell wenn nicht sogar schneller und vermutlich auch energieffizienter sein als Strix Halo. Das ist ziemlich sicher. Dazu ist STX Halo Mobile only und hat eine schlechtere RT-Performance. Mit also jedem Intel & AMD Prozessor bei Desktop ist N44 also ein guter Match. Und auch mit jeder non-Halo Mobile CPU. STX-Halo sehe ich also als einzige Ausnahme, wo N44 nicht viel Sinn macht.
Halte ich für absoluten Unsinn, da Halo niemals auf den Desktop kommen wird und N44 nichts für Mobile sein wird, deshalb gibts ja Halo. Im Desktop wird Halo durch N33 und N32 XL abgebildet.
N44 muss schneller sein als Kraken Point im Desktop und dessen Features enthalten. Alles darüber deckt N33 ab. RT-Leistung ist in den Preisbereichen komplett irrelevant.
basix
2024-08-17, 12:36:17
Keine Ahnung wieso du da Kraken Point und N33 ins Spiel bringst. N44 wird schneller als N33 sein (selbe Anzahl CU mit 32, mehr Takt, mehr IPC, besseres RT, bessere Energieffizienz). Kraken Point wird vermutlich eine 8CU RDNA 3.5 iGPU haben, da liegen Welten dazwischen. Ebenso zu Strix Point mit 16CU und limitierter Speicherbandbreite. Natürlich wird dann N44 etwas für Mobile sein. Nämlich für alle Notebooks ohne STX Halo, welche eine stärkere GPU verlangen. Und das sind sehr viele bestehende OEM-Chassi Designs, welche man wiederverwerten kann (N44 = N23/N33 Drop-In Replacement). STX Halo ist initial mal Nische, ein komplett neues Design und es werden ein paar Features wie schnelleres RT fehlen. Und dann gibt es da ja noch Intel Notebooks mit ebenfalls nicht extrem schneller iGPU ;)
Und dass STX Halo nicht für Desktop gedacht ist, sagen ja alle hier gleich. Sehe da keine Diskussion.
Ich bestreite das entschieden.
N44 wird mMn 12-16 CUs haben, die "geleakten" Daten entsprechen mMn entweder N43 oder sind schlichtweg falsch.
amdfanuwe
2024-08-17, 13:07:00
Und auch mit jeder non-Halo Mobile CPU. STX-Halo sehe ich also als einzige Ausnahme, wo N44 nicht viel Sinn macht.
Mit dedizierten Mobile GPUs bekommt AMD keinen Fuß in die Tür. Deshalb wohl auch das Strix Halo Projekt um im Gaming Notebook Markt auch GPU mäßig mitspielen zu können.
N44 mit 32CU sollte schneller als N33 sein. Mit spekulierten 130mm² lohnt es wohl auch kaum einen noch kleiner Chip aufzulegen. Wenn N24 und folgend N33 mal abverkauft sind, wird sicherlich N44 diese Rolle übernehmen.
Gibt genügend professionelle CAD, Bildbearbeitungs Workstations etc. wo eine günstige PRO GPU benötigt wird.
reaperrr
2024-08-17, 13:46:32
Ich bestreite das entschieden.
N44 wird mMn 12-16 CUs haben, die "geleakten" Daten entsprechen mMn entweder N43 oder sind schlichtweg falsch.
Damit wirst du mMn am Ende entschieden falsch liegen.
N44 wird 32 CUs haben. Nochmal 16 machen keinen Sinn, das ist für Gamer entschieden zu langsam und für reine Bildausgabe kann man auch bei N24 bleiben.
Meine Einschätzung:
N44 wird durch Taktraten knapp über 3 GHz und leichte IPC-Verbesserungen rund 20-30% vor der 7600 (XT) landen und gegen die 5060 antreten, die 8600XT-16GB vielleicht auch wieder gegen die 5060Ti-8GB, oder wie auch immer die 8GB-Variante vom GB206 heißen wird.
N48 mit doppelten Specs tritt im Vollausbau gegen 5070 und der Salvage gegen die 5060 Ti-16GB an, ähnlich wie diese Generation.
MSABK
2024-08-17, 13:52:16
N44 wird mindestens gleich schnell wenn nicht sogar schneller und vermutlich auch energieffizienter sein als Strix Halo. Das ist ziemlich sicher. Dazu ist STX Halo Mobile only und hat eine schlechtere RT-Performance. Mit also jedem Intel & AMD Prozessor bei Desktop ist N44 also ein guter Match. Und auch mit jeder non-Halo Mobile CPU. STX-Halo sehe ich also als einzige Ausnahme, wo N44 nicht viel Sinn macht.
Strix Halo wird aber preislich teuer, ich vermute teurer als RTX4060 Geräte.
dargo
2024-08-17, 14:40:58
Fläche zu Leistung.
:confused:
Dann ist für dich N23 ebenfalls ineffizient?
btw.
Wie gut sich die Leistung von N24 bewerten lässt ist auch eher fraglich mit seinem mickrigen 4GB Vram. Der wird sicherlich hier und da auch schon einen Flaschenhals dargestellt haben. Das Ding hätte imho von Anfang an mit 96Bit SI und 6GB kommen müssen.
amdfanuwe
2024-08-17, 15:46:29
Strix Halo wird aber preislich teuer, ich vermute teurer als RTX4060 Geräte.
Wie kommst du da drauf?
reaperrr
2024-08-17, 16:31:36
Wie kommst du da drauf?
Den iGPU-Vollausbau wirst du nur mit 16 Kernen bekommen, die Gerüchte-halber in der Desktop-Variante bis 5.8 GHz gehen sollen, also 9950X-Niveau bzw. minimal drüber im ST-Turbo.
Und an der iGPU will AMD auch was verdienen.
Und anders als bei Granite Ridge ist auch ne Copilot+-taugliche NPU drin.
Und 32GB Speicher wird direkt auf dem Package sein.
Also unter 1000 EUR (nur für die APU inkl. Speicher) wird's den Vollausbau wahrscheinlich nicht geben, bzw. mit Board vielleicht 1200. Notebooks und Fertig-PCs mit Halo-Full werden deshalb schnell Richtung 2000€ gehen.
Die sinnvollste P/L-Kombi für Spieler, 6-8 Kerne + 40 CUs + 32GB für ~600-700 Euro bzw. in Geräten um ~1000-1200€, wird's nicht geben.
In Sachen P/L wird ein Selbstbau-PC mit separaten Komponenten gegen Strix Halo's Top-SKU klar gewinnen.
amdfanuwe
2024-08-17, 18:13:00
Notebooks und Fertig-PCs mit Halo-Full werden deshalb schnell Richtung 2000€ gehen.
AMD wird nehmen, was sie bekommen können. Mal sehen, wie sich die Leistung von Strix Halo gegenüber 4060/70 einsortiert.
Dann wird es ja auch noch salvage Modelle geben.
Von den Kosten her wird AMD kaum über eine Intel/Strix Point + 4060/70 Kombo liegen.
Notebooks mit 4060 gibt es ab 880€ bis >4000€
mit 4070 ab 1150€
Ich denke, da wird sich Strix Halo einsortieren.
Aber erst mal abwarten, ob die OEMs AMD nicht wieder sabotieren und nur alles wieder mit Nvidia verbauen ( von homöopathischen Ausnahmen abgesehen).
Mit der 7600S finde ich bei Geizhals grad mal 3 Modelle, ansonsten keine 7000er.
Fusion_Power
2024-08-17, 19:20:58
Heißt das wenn ich als casual gamer ne sparsame aber dann wirklich brauchbare iGPU haben will im Laptop, muss ich unter Umständen mehr zahlen als wenn ich ne potente aber eben auch potentiell laute und energiefressende dedizierte GPU drin habe? :uponder:
Irgend wie blöd.
reaperrr
2024-08-17, 20:21:28
Heißt das wenn ich als casual gamer ne sparsame aber dann wirklich brauchbare iGPU haben will im Laptop, muss ich unter Umständen mehr zahlen als wenn ich ne potente aber eben auch potentiell laute und energiefressende dedizierte GPU drin habe? :uponder:
Irgend wie blöd.
Die wählbaren TDPs werden 55, 85 und 120W für die APU sein.
Die 55W-Variante wird taktmäßig schon ziemlich stark eingeschränkt sein, und die 85 und erst recht 120W werden nicht so leise sein können, einfach weil das alles ein Package ist und dementsprechend von einem Kühler/Lüfter gekühlt werden muss.
Also so viel leiser wird's im Laptop gegenüber dedizierter GPU vermutlich eh nicht werden.
Fusion_Power
2024-08-17, 23:06:40
Die wählbaren TDPs werden 55, 85 und 120W für die APU sein.
Die 55W-Variante wird taktmäßig schon ziemlich stark eingeschränkt sein, und die 85 und erst recht 120W werden nicht so leise sein können, einfach weil das alles ein Package ist und dementsprechend von einem Kühler/Lüfter gekühlt werden muss.
Also so viel leiser wird's im Laptop gegenüber dedizierter GPU vermutlich eh nicht werden.
Technisch ist es sicher etwas leichter einen einzelnen Chip zu kühlen als zwei. 85W ist ja nun auch nicht mal so wild wenn man den Wert durch zwei teilt und mal frech mit nem theoretischen 2x 45W CPU/GPU Gaming Laptop vergleicht. Da gibts heutzutage noch ganz andere Boliden. 40dB Lüfterlautstärke unter Last wird man ja noch hinbekommen bei ner einzelnen APU. Ich brauch kein papierdünnes Ultrabook, haut da zwei große Lüfter rein die mehr weg kühlen können als sie müssen und gut is.
DrFreaK666
2024-08-22, 06:50:43
Neue Leaks
https://i.postimg.cc/wBD9CcPC/Screenshot-20240822-064847-You-Tube.jpg (https://postimg.cc/1g5x66yB)
XLX0FmeFVh8
Release doch noch 2024?
RZ-Performance ~ RTX4080
RT-Performance ~ RTX4070Ti Super - RTX4080
Wäre ne nette Karte für den Preis
Schnitzl
2024-08-22, 07:26:11
Irgendwie zu schön um wahr zu sein ;)
Gönnen würd ichs AMD aber nach dem "durchwachsenen" Navi3
MSABK
2024-08-22, 07:32:01
Könnte realistisch sein wenn man denkt, dass da was ähnliches mit der PS5 Pro kommt.
Altehardware
2024-08-22, 07:33:05
So ganz daran kommt amd damit nicht es ist was bisher bekannt ist anzunehmen
da der samsung sf4 node genutzt wird sind die 240w tbp durchaus das maximum zu sehen die perf liegt definitiv zwischen rx7900xt/gre udn in dxr maximal rtx4070 für etwa 449$ was anzunehmen ist morgen werden wir schlauer.
zen5 nutzt nebenbei den n4e node der hat nen anderen sweetspot beim Takt 4,2-4,8ghz
n4x etwa 5,0-5,4ghz
Darum hat zen5 quasi Stillstand bei der perf. was schade ist.
horn 12
2024-08-22, 08:07:28
Performance ungefähr RTX 4080
und dafür nur 16GB Speicher
und nicht mal, bzw. maximal 7900XT Performance,- was bringt mir dies als 7900XTX Nutzer
Nix und dafür soll man auf RDNA warten,- mit FSR 3.1 und FG ist man mit der 7900XTX überall gut dabei bei 4K und sollte dem nix nachstehen.
Zudem der Preis wohl 529 bis 629 Euro ausmachen wird
da ist die GRE / XT kaum davon entfernt,- da max. 10% teurer.
dildo4u
2024-08-22, 08:25:10
Das wichtigste fehlt wieder in seinen Leaks ohne vernünftigen Upscaler kannst du die Karte rauchen Games wie Wukong sehen wie absoluter abfall aus da FSR das Bild zerstört.
FSR auf PS5
https://youtu.be/hHAY56cmdu0?si=Z720sY_TQy_rcJij
Wir könnte im November den Fall haben das die PS5 Pro das bessere Bild hat obwohl die Hardware deutlich schwächer ist.
dargo
2024-08-22, 08:28:50
Irgendwie zu schön um wahr zu sein ;)
Inwiefern? Ich sehe da nichts Unrealistisches. Hoffe nur, dass N48 näher an den 210W anstatt an den 280W rauskommt. Ist ja doch eine große Spanne angegeben. Vielleicht wollte sich nur jemand absichern. :D
Das wichtigste fehlt wieder in seinen Leaks ohne vernünftigen Upscaler kannst du die Karte rauchen Games wie Wukong sehen wie absoluter abfall aus da FSR das Bild zerstört.
Erzähl doch keinen Bullshit! Jeder kann sich kostenlos FSR im Benchmark ansehen. Die Blätter ghosten zwar etwas, der Rest sieht besser aus als TSR. Mit 75% RS @1440p finde ich FSR in Wukong absolut in Ordnung.
Performance ungefähr RTX 4080
und dafür nur 16GB Speicher
und nicht mal, bzw. maximal 7900XT Performance,- was bringt mir dies als 7900XTX Nutzer
:facepalm:
Jedem ist seit vielen Monaten klar, dass RDNA4 nicht als Upgrade für N31 gedacht ist da AMD bei RDNA4 High-End bzw. Enthusiast auslässt. Schon alleine das geplante Preissegment deutet darauf hin wenn du schon mit den Daten von N48 nichts anfangen kannst.
E39Driver
2024-08-22, 08:35:53
Neue Leaks
https://i.postimg.cc/wBD9CcPC/Screenshot-20240822-064847-You-Tube.jpg (https://postimg.cc/1g5x66yB)
https://youtu.be/XLX0FmeFVh8
Release doch noch 2024?
RT-Performance ~ RTX4080
RT-Performance ~ RTX4070Ti Super - RTX4080
Wäre ne nette Karte für den Preis
Klingt zu gut um wahr zu sein. Performance auf Augenhöhe zur RTX4080 heißt auch man zieht mit Navi31 gleich, was die letzten Leaks alle nicht hergegeben haben.
Aber lasse mich da gerne positiv überraschen. Zu dem Preis- und Performancepunkt wäre es eine sehr gute Karte. Und da die NV-Leaks für die 5000er Gen nur nach geringfügigen Zuwächsen abseits der 5090 aussehen, könnte man im Mittelfeld ggf. nicht nur mit der 5060 sondern auch einer 5070 konkurrieren. Wichtig wird halt endlich mal vergleichbare RT Leistung. Noch eine Generation mehr zieht die Ausrede nicht mehr, dass es eh keiner nutzt und zu viel Leistung kostet. Wobei der PS5 Pro Leak ja in diese Richtung deutet und Navi 48 wird sicherlich nah am PS5 Pro Chip sein
robbitop
2024-08-22, 08:40:32
AMD hat bislang keine Version von FSR zusammen mit einer GPU vorgestellt.
Was IMO zu erwarten ist:
- inkrementelle Verbesserungen ausgehend von FSR3.1 mittelfristig
- ein neues major release dann etwas längerfristig
Ob das neue Release unbedingt mit NN funktioniert muss man sehen. TSR in UE5.4 zeigt ja beeindruckend dass es auch sehr, sehr gut ohne NN geht.
Ich tippe aber darauf, dass es NN wird, weil das einfach die Richtung ist, in die es aktuell in vielen Bereichen geht. Und auch Sony pusht in diese Richtung.
Aber ggf. sehen wir ja vorher noch FSR3.x auf dem Level von TSR.
dildo4u
2024-08-22, 08:49:53
FSR wird mit der Zeit schlechter da man immer aggressiver upscalen muss kein Plan wie man das verleugnen kann alle neuen AAA Games sind eine reine Katastrophe das es einem vergehen kann.
Und ich rede von Lumen von RT sollte man gar nicht erst anfangen.
Sonys Lösung spricht dafür das AMD nix auf den internen Roadmaps hat ansonsten hätte man sich die Forschung sparen können.
robbitop
2024-08-22, 09:00:07
FSR wird mit der Zeit schlechter da man immer aggressiver upscalen muss
Wie meinst du das?
FSR sollte man schon upsampling faktor normiert betrachten. Und qualitativ ist es Iteration für Iteration auch besser geworden. Blöd für FSR: TSR und DLSS sind oft besser.
Sonys Lösung spricht dafür das AMD nix auf den internen Roadmaps hat ansonsten hätte man sich die Forschung sparen können.
Würde ich auch vermuten. AMDs R&D Team für diese Verfahren scheint sehr sehr klein zu sein. Das sind eine Hand voll Leute, die an FSR upsampling, FSR Framegeneration, AFMF etc gleichzeitig (oder besser gesagt seriell und abwechselnd wie "wack a mole") arbeiten müssen.
Ich hoffe, dass es hier Kolaboration mit Sony gibt, so dass AMD auch etwas von PSSR hat und dass AMD dieses kleine Team etwas weiter aufbaut.
Achill
2024-08-22, 09:09:59
Performance ungefähr RTX 4080
und dafür nur 16GB Speicher
und nicht mal, bzw. maximal 7900XT Performance,- was bringt mir dies als 7900XTX Nutzer
Nix und dafür soll man auf RDNA warten,- mit FSR 3.1 und FG ist man mit der 7900XTX überall gut dabei bei 4K und sollte dem nix nachstehen.
Zudem der Preis wohl 529 bis 629 Euro ausmachen wird
da ist die GRE / XT kaum davon entfernt,- da max. 10% teurer.
Du bist dann einfach nicht Zielgruppe ...
reaperrr
2024-08-22, 09:20:36
Performance ungefähr RTX 4080
und dafür nur 16GB Speicher
und nicht mal, bzw. maximal 7900XT Performance,- was bringt mir dies als 7900XTX Nutzer
Äh... ne 4080 ist klar schneller als ne 7900XT und in RT ist selbst ne 4070TiS schneller als ne XTX, also so ganz Sinn ergibt das nicht, was du da schreibst :freak:
Wenn die 8800XT auf Augenhöhe mit der 4080 ist, ist sie auch klar schneller als ne 7900XT und sehr nah - bzw. in RT eher vor - einer XTX.
was bringt mir dies als 7900XTX Nutzer
In Raster nichts, in RT nahezu Nvidia-Performance, bei immerhin weniger Verbrauch vgl. mit deiner XTX.
Dir ist aber schon klar, dass die Streichung der 7900-Nachfolger schon lange bekannt und dies halt der 7800XT-Nachfolger ist, und du damit eh nicht wirklich die Zielgruppe bist?
Man muss es mMn eher so sehen:
Dass AMD trotz nur minimalem Prozessvorteil (der "4N" für Ada ist im Grunde N5P mit leichten Anpassungen für NV, N48 dürfte in N4P gefertigt werden) bald einen Chip hat, der in Raster ne höhere und RT ne ähnliche Performance je mm² und je Watt hat wie AD103, AMD architekturell also gegenüber dem RDNA3-Fiasko stark aufgeholt hat.
Klar, im Grunde anderthalb Jahre zu spät, und ne große GPU mit mind. 95 CUs ~40-50% oberhalb der 8800XT wäre für Leute, die entsprechend bereit sind Geld auszugeben natürlich schön gewesen, aber es lässt zumindest ne Rest-Hoffnung, dass sie mit RDNA5 wieder endgültig konkurrenzfähig werden.
dargo
2024-08-22, 09:46:12
Klar, im Grunde anderthalb Jahre zu spät, und ne große GPU mit mind. 95 CUs ~40-50% oberhalb der 8800XT wäre für Leute, die entsprechend bereit sind Geld auszugeben natürlich schön gewesen, aber es lässt zumindest ne Rest-Hoffnung, dass sie mit RDNA5 wieder endgültig konkurrenzfähig werden.
Inwiefern zu spät? Wo bekommst du Ende 2024 ähnliche Raster Performance bei Nvidia für 500-600$? Das einzige was bei RDNA4 fehlt ist wie gesagt das High-End/Enthusiast Segment mit entsprechenden Preisen und dann natürlich auch Heizofen Verbräuchen. Plus ~50% CUs würden auch entsprechend saufen, SI müsste dann auch auf 384Bit hoch gehen.
Erzähl doch keinen Bullshit! Jeder kann sich kostenlos FSR im Benchmark ansehen. Die Blätter ghosten zwar etwas, der Rest sieht besser aus als TSR. Mit 75% RS @1440p finde ich FSR in Wukong absolut in Ordnung.
Tatsächlich sind sowohl TSR als auch FSR in Wukong auf ’nem Tiefpunkt. Ein überschärftes Bröselfest des Todes. XeSS ist besser zu ertragen und DLSS mit Abstand am besten.
MfG
Raff
robbitop
2024-08-22, 09:50:05
Inwiefern zu spät? Wo bekommst du Ende 2024 ähnliche Raster Performance bei Nvidia für 500-600$? Das einzige was bei RDNA4 fehlt ist wie gesagt das High-End/Enthusiast Segment mit entsprechenden Preisen und dann natürlich auch Heizofen Verbräuchen. Plus ~50% CUs würden auch entsprechend saufen, SI müsste dann auch auf 384Bit hoch gehen.
Ich denke er meint nicht das P/L dieses Produkts sondern das Produkt als solches (was dann sicherlich auch teurer gewesen wäre). Modernere uArch, höhere Perf/W. Das hätte besser mit Ada mithalten können.
dargo
2024-08-22, 09:56:03
Tatsächlich sind sowohl TSR als auch FSR in Wukong auf ’nem Tiefpunkt. Ein überschärftes Bröselfest des Todes.
Also jetzt enttäuschst du mich aber...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599812&postcount=325
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599931&postcount=345
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599952&postcount=348
Ich denke er meint nicht das P/L dieses Produkts sondern das Produkt als solches (was dann sicherlich auch teurer gewesen wäre). Modernere uArch, höhere Perf/W. Das hätte besser mit Ada mithalten können.
Wenn RDNA3 nicht so schief gelaufen wäre (Schluckschleuder sondersgleichen die extrem eingebremst werden musste damit man das Ding überhaupt verkaufen kann) würde der mit Ada besser konkurrieren können. ;) Stelle dir einfach einen N31 mit Faktor 1,7 vs. RX 6900XT mit 350W (noch besser 300W) vor. Hust @AMD Folien. Das war womöglich auch das Ziel, nur irgendwas ist halt schiefgelaufen.
aufkrawall
2024-08-22, 10:04:41
XeSS ist besser zu ertragen
Das flimmert selbst bei 100% Auflösung noch wie bekloppt in den Bäumen. :freak:
XeSS 1.3 funktioniert im Grunde gar nicht richtig mit Nanite. Nicht ganz so schlimm wie FSR 3.0, aber schlimm genug. FSR 3.1 ist in der Vegetation prinzipiell erstmal wesentlich stabiler, sofern man nicht nur auf die schlimmsten Stellen mit den meisten Layern hintereinander achtet. Braucht halt noch einen Ghosting-Fix.
robbitop
2024-08-22, 10:08:31
Wenn RDNA3 nicht so schief gelaufen wäre (Schluckschleuder sondersgleichen die extrem eingebremst werden musste damit man das Ding überhaupt verkaufen kann) würde der mit Ada besser konkurrieren können. ;) Stelle dir einfach einen N31 mit Faktor 1,7 vs. RX 6900XT mit 350W (noch besser 300W) vor. Hust @AMD Folien. Das war womöglich auch das Ziel, nur irgendwas ist halt schiefgelaufen.
Das wäre besser gewesen. Aber dennoch war die uArch auch wenig beeindruckend. Trotz VOPD kaum mehr taktnormierte Leistung. Keine Matrix HW, immernoch Minimal HW für RT. Ja ja ... ich weiß interessiert dich nicht. Aber vielen anderen geht es schon anders. :)
RDNA4 (sofern es so kommt, wie wir annehmen) wäre 2022 schon etwas halbwegs vergleichbares zu Ada (aus der uArch Perspektive) gewesen.
Das kann natürlich jeder anders sehen.
Am Ende ist es auch egal - jetzt bekommen wir RDNA4 dann eben zu attraktiven Preisen. Ich finde es super. Hoffentlich auch bald (Mitte 25?) für APUs, damit es in Handhelds weiter voran geht. :)
dargo
2024-08-22, 10:15:20
Das flimmert selbst bei 100% Auflösung noch wie bekloppt in den Bäumen. :freak:
Ich kann auch überhaupt nicht nachvollziehen wie man XeSS dort besser finden kann. :freak: Ich habs mir einmal angeschaut und gleich wieder deaktiviert.
Das wäre besser gewesen. Aber dennoch war die uArch auch wenig beeindruckend. Trotz VOPD kaum mehr taktnormierte Leistung. Keine Matrix HW, immernoch Minimal HW für RT. Ja ja ... ich weiß interessiert dich nicht. Aber vielen anderen geht es schon anders. :)
RDNA4 (sofern es so kommt, wie wir annehmen) wäre 2022 schon etwas halbwegs vergleichbares zu Ada (aus der uArch Perspektive) gewesen.
Ich sags mal so... wäre Ende 2022 die RX 7900XTX mit 300W und Faktor 1,7 auf RX 6900XT gekommen würde ich die garantiert kaufen bzw. behalten (hatte sie ja knapp zwei Wochen hier) denn das wäre für mich ein vernünftiges Upgrade. Das wären ca. +80% auf meine RX 6800XT ohne mehr zu saufen. Und die RT-Performance würde auch entsprechend besser skalieren als Status Quo. Letzteres ist mir aber in der Tat nicht so extrem wichtig. Zumindest noch nicht wenn ich die Games so betrachte.
Also jetzt enttäuschst du mich aber...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599812&postcount=325
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599931&postcount=345
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13599952&postcount=348
Du bist enttäuscht davon, dass ich Dinge "ab Werk" bewerte, anstatt sie zuerst stundenlang zurechtzufrickeln? Nein, das kannst du nicht ernst meinen. ;) Wir sind hier ja alle PCler und somit Frickler, das Pippi-Langstrumpf-Prinzip ist dennoch nicht anwendbar.
MfG
Raff
robbitop
2024-08-22, 11:00:36
Naja aber deine Kritik war ja in die Richtung FSR und TSR gerichtet. Die Ursache ist aber offenbar der sharpening Filter. Da könnte man schon differenzieren.
Tatsächlich sind sowohl TSR als auch FSR in Wukong auf ’nem Tiefpunkt. Ein überschärftes Bröselfest des Todes.
Nein, das forcierte Sharpening ist nur die Kotkirsche auf dem Kuchen. FSR im Speziellen schmierbröselt wahnsinnig, das typische Disocclusion-Problem, etwa hier zu sehen:
YXrTcAvNuw0
MfG
Raff
maximus_hertus
2024-08-22, 12:01:51
Uff, NAvi 48 soll jetzt sogar die 4080 erreichen und in RT die 4070 Ti Super?
Geil, das wird wahrscheinlich eine epische Entgleisung des größten Hypetrains 2024 werden. 4080 Performance für den halben Preis. Klar, AMD hat in den letzten Jahren gezeigt, dass sie bei einer konkurrenzfähigen Hardware besonders gute Preis/Leistungsangebote raus gehauen haben.
Versteht mich nciht falsch, wenn das auch nur annähernd so kommen sollte, wäre das eine gute Sache. Aber mir fehlt ein wenig der Glauben.
mboeller
2024-08-22, 12:06:56
4080 Performance für den halben Preis.
und fast nur die halbe Die Fläche (378mm² <-> 230mm² -> 61%) ;)
basix
2024-08-22, 12:08:30
Eigentlich müssen wir darauf hoffen, dass es wirklich so kommt. Es würde dem Markt und den Consumern sehr gut tun.
prinz_valium_2
2024-08-22, 12:10:51
Mal sehen. Die leaks waren immer toll und dann wurde man enttäuscht.
Ich brauche dringend eine neue GPU und bei nVidia wird es wohl nur bei 1000€+ ein wirkliches upgrade geben.
basix
2024-08-22, 12:22:24
Man sollte es nicht erwarten aber darauf hoffen, das ist die beste Taktik ;)
robbitop
2024-08-22, 12:24:27
Naja halber Preis stimmt nicht ganz. 599 USD vs 999 USD (4080) bzw 799 USD (4070 ti super).
Wir reden von 60-75% des Preises (je nach dem wo man landet). Trotzdem ein großer Fortschritt. Aber: N48 tritt für die meiste Zeit ja nicht gegen Ada an sondern gegen Blackwell über den wir noch kein P/L kennen.
amdfanuwe
2024-08-22, 12:37:35
Mal sehen. Die leaks waren immer toll und dann wurde man enttäuscht.
Bei AMD arbeiten auch nur Menschen. Mal sehen, was diesmal schief geht.
RDNA3 und ZEN5 waren zwar verkaufbare Produkte aber es bleibt das Gefühl: Da stimmt was nicht.
Jetzt wird schon wieder der Hypetrain getrieben und nachher sind wieder alle enttäuscht.
dargo
2024-08-22, 12:38:17
Du bist enttäuscht davon, dass ich Dinge "ab Werk" bewerte, anstatt sie zuerst stundenlang zurechtzufrickeln?
Ich bin enttäuscht von dir als Nerd, dass sowas offenbar an dir vorbei gegangen ist oder du es einfach ignorierst bzw. nicht in die Betrachtung hineinziehst. Ich schätze dich nach den vielen Jahren hier eher als einen PC-Nerd ein und nicht den durchschnittlichen 08/15 Hans der einfach irgendwas @Vanilla wählt und spielt. Egal wie "scheiße" es aussieht.
Nein, das forcierte Sharpening ist nur die Kotkirsche auf dem Kuchen. FSR im Speziellen schmierbröselt wahnsinnig, das typische Disocclusion-Problem, etwa hier zu sehen:
https://youtu.be/YXrTcAvNuw0
Also erstmal bitte was Vernünftiges wie zb. 75% RS wählen und nicht so einen Quatsch wie 50% bei 1440p, was hier lächerliche 720p als Input bedeutet. Zum Rest kann ich noch nichts sagen da ich nur Zugriff auf den Benchmark habe.
und fast nur die halbe Die Fläche (378mm² <-> 230mm² -> 61%) ;)
Und zwei Jahre später wird dabei auch gekonnt ignoriert. Wenn mit der Zeit Preis pro X Performance nicht fällt wo soll das hinführen? In 10 Jahren 4080 Performance immer noch für ~1.000€? Geiler Fortschritt. :uup:
Mal sehen. Die leaks waren immer toll und dann wurde man enttäuscht.
Das ist doch kompletter Unsinn. Wo waren die Leaks zu RDNA2 völlig übertrieben?! Einen so guten RDNA2 hat praktisch niemand erwartet. Leider hat nur der Miningboom + Corona alles kaputt gemacht für die Gamer. Ich kann mich noch sehr gut erinnern als unser Dural mit seinem NV-Bias für die RX 6900XT RTX 3070 Performance prophezeite. ;D
Naja halber Preis stimmt nicht ganz. 599 USD vs 999 USD (4080) bzw 799 USD (4070 ti super).
Wir reden von 60-75% des Preises (je nach dem wo man landet). Trotzdem ein großer Fortschritt. Aber: N48 tritt für die meiste Zeit ja nicht gegen Ada an sondern gegen Blackwell über den wir noch kein P/L kennen.
Wir kennen aber das völlig kaputte P/L von Ada, außer eventuell beim AD102. ;) Und kennst du schon den Zeitplan von RDNA5? Ich nicht.
Ich möchte gerne Dargo jetzt als hardware-Benchmark-Channel sehen. Also ein 5 Minuten Video 1x im Monat, weil er den Rest der Zeit herumgefrickelt hat. Und dann funktionieren die Einstellungen nur bei ihm, nicht bei den Zuschauern ... und niemand glaubt ihm :|
Relex
2024-08-22, 13:10:02
@dargo
Raff hat absolut recht. FSR in Wukong ist definitiv die mit Abstand schlechteste Implementierung, die es bisher wahrscheinlich gegeben hat. Da ändern Auflösung und Qualitätsstufe nichts. Die Artefakte incl. ghosting und verschmieren sind immer da, nur steigt halt mit steigender Auflösung und Qualitätsstufe die allgemeine Bildqualität und Schärfe.
FSR ist in meinen Augen völlig unbrauchbar in dem Spiel.
Das Game ist halt ne Postprocessing hölle und man bekommt ja selbst mit DLSS kein richtig gutes Bild. Zwar um welten besser, aber irgendwas ist halt schon engine Seitig ein bisschen kaputt. Das Bild ist selbst mit deaktiviertem Scharfzeichner, neuer DLSS DLL und Preset E + RCAS nicht sauber. Die Baumkronen flimmern immer noch und der Boden wird in Bewegung trotz Scharfzeichner unscharf. Den Boden bekommt man in Bewegung eigentlich nur mit dem übertriebenen standard Scharfzeichner aufs richtige Niveau.
Irgendwas scheint da die Bildqualität zu ruinieren und FSR zerbricht daran völlig, während DLSS damit eben besser zurechtkommt. Aber das ist ja nichts neues. Schon immer hat DLSS Situationen wo Bewegungsdaten fehlen, wie Reflexionen oder Wasser viel besser bewältigt, während das schon immer die Schwäche von FSR war. In dem Spiel ist halt irgendwie das ganze Bild davon betroffen - mehr oder weniger.
Ist das repräsentativ für FSR? Sicher nicht. Ist das ein weiterer Ausreißer bei dem FSR mal wieder mehr oder weniger stark gegen DLSS abstinkt? Ja, leider.
dildo4u
2024-08-22, 13:15:50
Wird spannend ob die Karte wirklich AMDs Probleme lösen kann allgemein rennt RDNA3 ok mit Lumen.
Path Tracing wird aber weiterhin zu viel sein das würde ich nicht ohne NV absolutes High-End anfassen.
Schätze der größte Vorteil wird sein das die Dinger billiger zu fertigen sind theoretisch billiger als 7800?
dargo
2024-08-22, 14:30:40
Ich habe mir nochmal Wukong mit XeSS angesehen und zwar mit 75% RS @1440p. Furchtbar... die ganze Vegetation ist ein einziger Flimmerhaufen. Zum Schluss die Dächer der Häuser ebenfalls, Bildstabilität für den Anus. Immerhin ist aber hier XeSS bei 75% RS praktisch nicht langsamer als FSR. Mit FSR und HUB Quality Settings habe ich im Benchmark 66fps, mit XeSS bei gleichen Settings 65fps.
Edit:
Oder passiert hier der gleiche Mist wie bei DLSS, dass trotz 75% Einstellung 67% genommen werden bei XeSS? Ist schon etwas ungewöhnlich, dass beim gleichen Input kein Unterschied bei der Performance zustande kommt.
BlacKi
2024-08-22, 16:04:30
Irgendwie zu schön um wahr zu sein ;)
hypetrain wie eh und je. und wieviel videos MLID schon hat löschen müssen:biggrin:
ich sehe es einfach nicht, das der full n48 avg die 4080 schlägt.
wenn die speicher specs nicht schon stehen würden, wäre es was anderes. aber über diese bandbreiten so bekannt ist reicht das nicht für die 4080. und die 96mb if cache sind bei ihm auch nur ausgedacht, denn seine vorzeichen wahl sagt lediglich, nicht größer als 96mb. wahrscheinlich 64.
selbst mit den 20gbps speicher anstatt der bisher geleakten 18gbps reicht das nicht.
wenn man hiermit grob 4080 performance erreicht, nenn ich es das wunder von RDNA4.
mark my wörds.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.