Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
The_Invisible
2024-04-07, 07:06:26
Da würd ich ggf. nicht zu viel erwarten. Nvidias Gaga-RT-Code läuft auch auf Intel mitunter stinklangsam.
Nichts hält AMD davon ab das gleiche zu tun. Wo bleibt da der RT-Showcase von AMD? Oder krankt es doch an der Hardware... Schon merkwürdig obwohl AMD Hardware auch bei allen Konsolen läuft
dildo4u
2024-04-07, 07:13:10
Nichts hält AMD davon ab das gleiche zu tun. Wo bleibt da der RT-Showcase von AMD? Oder krankt es doch an der Hardware... Schon merkwürdig obwohl AMD Hardware auch bei allen Konsolen läuft
AMD setzt drauf das fast jedes AAA Game UE5 nutzt recht interessant diese Werte.
https://youtu.be/tFKhlplCNpM?si=9pYksfCfnEBYYHzg&t=266
The_Invisible
2024-04-07, 07:31:27
Naja Games mit HW-Lumen kannst glaub an einer Hand abzählen, echt schade
dargo
2024-04-07, 07:34:18
Du hast gesagt: Weit weg von 2x. Und ich gebe dir nur eine Möglichkeit, dass es trotzdem so sein kann, je nach Anwendung. Rein faktisch basiert ;) Was DU damit machst musst du selber wissen...
Alles gut... diese Fixierung mancher hier auf RT nervt langsam etwas. Aber bei RT bla, bla, bla. War jetzt nicht speziell auf dich bezogen. :) Ich hatte schon mehrmals gesagt, dass ich RT-Speed beim Upgrade einfach nur nebenbei mitnehme. Es ist aber nicht kaufentscheidend.
Du wirst das vermutlich selbst dann sagen, wenn RDNA 4 beim Raytracing vier Mal so schnell wäre wie RDNA 2.
Eher nicht, denn bei Faktor =>4 wäre der fps Einbruch (außer vielleicht bei Lederjacken Implementierungen) kaum noch spürbar. Das wäre dann endlich der Punkt wo RT imo Sinn macht. Und wenn das im Performancesegment der Fall wäre umso besser für die gesamte Spielindustrie und Gamer. Das was wir aktuell sehen ist nichts weiter als eine laaaange Übergangsphase die locker 10 Jahre in Anspruch nimmt wenn ich Turing als Startpunkt annehme. Gähn...
Nichts hält AMD davon ab das gleiche zu tun. Wo bleibt da der RT-Showcase von AMD?
RT-Showcase. :ulol: Frag mal Radeonfreak wo seine Racer X Demo von Nvidia bleibt. ;D
robbitop
2024-04-07, 08:00:53
das praktisch nur die logic sich noch shrinken lässt, und der rest fast gleich bleibt, shrinkt man wohl gerade noch etwas mehr als die hälfte des DIE. so etwa 58% wenn ich den n31 dafür hernehme.
also 204 x 0,58 = 118,3mm² kann man also noch shrinken. großzügig um 40% ergeben noch 71mm².
man spart bei n33 von 6nm auf 4nm also grob 47mm² ein. kein wunder das man n33 in 6nm gelassen hat.
damit wäre ein doppelter n33 in 4nm immernoch über 310mm² groß.
IMHO passt das nicht zu den 237mm² aus dem leak?
wo irre ich mich da?
auch als reiner gcd passen die 237mm² nicht. oder man hätte architektur stark aufgeblasen.
N33 und AD104 sind beides vollständige GPUs mit allem drum und dran. Entsprechend kann ich ihre durchschnittliche Packdichte ansetzen (denn da ist die Dichte inklusive Caches und Interfaces schon drin) und brauche da nicht noch anderweitig einzurechnen.
Also 65->121 MTr/mm2 für die ganze GPU.
Bei N33 sind die 60mm² für GDDR6 und Cache es etwas mehr als 1/4 der Die-Fläche, bei N44 wäre es aber fast die Hälfte. Das passt also nicht.
robbitop
2024-04-07, 09:05:21
ad104 hat vom si und vom Cache genau das doppelte. Sind außerdem total ähnliche Specs mit ad104 die für N48 kolportiert worden sind. 256 bit, 64 mb llc, 60 SMs (vs 64 CUs), 4 nm usw. Warum sollte AMD nicht auch die 121 Mtr/mm2 erreichen, die AD104 auch erreicht?
Ihr denkt da IMO zu sehr um die Ecke anstatt geradeaus.
woodsdog
2024-04-07, 09:05:35
Alles gut... diese Fixierung mancher hier auf RT nervt langsam etwas. Aber bei RT bla, bla, bla. War jetzt nicht speziell auf dich bezogen. :) Ich hatte schon mehrmals gesagt, dass ich RT-Speed beim Upgrade einfach nur nebenbei mitnehme. Es ist aber nicht kaufentscheidend.
Naja, die "Fixieung auf RT von manchen" in einem Enthusiasten-Forum erklärt sich vielleicht mit der aktuell kaufbaren und damit verbauten Hardware die selbiges ermöglicht...
Das man RT in 2024 via AAA Games und ner 4 Jahre alten GPU bei max Settings nicht geil findet, is mir schon klar... Aber dann vielleicht einfach mal nicht ständig drüber rummaulen v0v
The_Invisible
2024-04-07, 09:42:00
RT-Showcase. :ulol: Frag mal Radeonfreak wo seine Racer X Demo von Nvidia bleibt. ;D
Mir dir sind Diskussionen echt mühsam da du nur zitierst was dir in den Kram passt und alles umdrehst... ja echt schlimm das die Showcases in echten Spielen sind
basix
2024-04-07, 10:00:25
Naja Games mit HW-Lumen kannst glaub an einer Hand abzählen, echt schade
Wird sich mMn mit UE 5.4 ändern, welche jetzt im April released wird: Bis zu 2x HW-RT Performance Boost sowie 2x CPU Performance Boost. Das ist das, was noch nötig war ;) UE 5.4 Preview ist bereits veröffentlicht, ich warte aber noch mit Benchmarks bis zum finalen Release. Habe hier eine CitySample in 5.3 vorliegen und werde sie mit 5.4 nochmals packagen. Und dann die Performance vergleichen sowie hier im Forum berichten ;)
Leonidas
2024-04-07, 10:02:16
Sind außerdem total ähnliche Specs mit ad104 die für N48 kolportiert worden sind. 256 bit, 64 mb llc, 60 SMs (vs 64 CUs), 4 nm usw.
Leider Gedankenfehler Deinerseits.
AD104 hat nur 192-Bit und nur 48 MB L2. Ist dafür aber 295mm² groß (unter N5). Wäre also sehr sportlich, wenn AMD etwas mehr nominelle HW in 240mm² unter N4P quetscht. Nicht unmöglich, aber sportlich.
robbitop
2024-04-07, 10:04:46
stimmt. Bei ad103 passt das aber auch (256 bit und 64mb) und Überraschung es sind auch 121 MTr/mm2. Das passt schon.
Die >120 MTr/mm2 schafft jede Ada GPU (106,104,103 und 102). Warum sollte AMD das mit N4x nicht schaffen?
basix
2024-04-07, 10:05:03
Wie bereits gesagt: 130mm2 und 240mm2 sind denkbar, wenn man wirklich nochmals auf Density optimiert. Nur ob das geht, weiss ich nicht. GPUs sind normalerweise bereits deutlich mehr auf Density optimiert als CPUs. Einfach Zen 4c als Blaupause nehmen geht wohl nicht, aber ich vermute sie können einige Sachen von dort übernehmen, speziell bei den Caches. Sehr sportlich bleibt das ganze dennoch. Insbesondere, wenn nun der Takt auf >3GHz steigt. Ich würde es AMD aber gönnen, da man damit verglichen mit Lovelace sehr gut dastehen würde und vermutlich auch gegenüber Blackwell nicht extrem abgeschlagen wäre. AD104 (60 SM), AD106 (36 SM), AD107 (24 SM) bei Release, später GB205 (~64 SM), GB206 (~42 SM), GB207 (~28 SM) wird die Konkurrenz sein. Wird ein spannender Vergleich mit N44 und N48. Vermutlich ist RDNA4 weniger energieffizient als Blackwell, hat dafür aber etwas dichter gepackte Chips.
Edit:
Bei N33 sind die 60mm² für GDDR6 und Cache es etwas mehr als 1/4 der Die-Fläche, bei N44 wäre es aber fast die Hälfte. Das passt also nicht.
- 128bit SI ~25mm2 (bei Navi 10 waren PHY + Speichercontroller ca. 65mm2 bei 256bit)
- 32 MByte IF$ ~20mm2
- "Uncore" Bereich mit PCIe, Display usw. schätze ich auf ~30mm2 (bei N31 ist es ~40mm2)
Das wären also ~75mm2. Der Rest wären die 2x Shader Engines, L2$ und der Command Processor -> ~55mm2
Sanity Check für N48:
2*55 + 2*20 +2*25 + 30 = 230mm2. Passt nicht schlecht. "Uncore" wird noch etwas grösser sein, da z.B. PCIe x16 und vermutlich mehr Display Ports. Dafür wird der Command Processor nicht 2x grösser sein (in den 55mm2 enthalten).
Von Zen 4c wird man meiner Meinung nach das mit den 6T SRAM Cells übernehmen. Das könnte man für Register, L0 & L1 Cache machen. Bei Zen 4c hat das anscheinend 40% Flächenreduktion ermöglicht. Beim N31 Die Shot (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13521104#post13521104) sieht es so aus, als ob Shader Engines aus ~50% Cache bestehen. 40% Flächenreduktion bei den Caches würde also bereits ~20% Reduktion auf die gesamte Shader Engine bedeuten. Bei L2$ bin ich mir nicht ganz sicher, ob das dort auch gehen würde. Vermutlich nicht, da es bei Zen 4c auch nicht ging.
Also, nehmen wir N31:
- SE = 27mm2
- CP = ~5mm2 (wird bei N44 und N48 evtl. etwas kleiner sein)
- 2MB L2$ = ~5mm2 --> riesig im Vergleich zu den ~1mm2 bei Zen 4 L2$ für 1 MByte
- SE mit 20% Flächenreduktion ("Zen 4c Caches") = ~22mm2.
N44:
2*22 + 5 + 5 = 54mm2 -> Wow, passt fast perfekt zu den abgeschätzten 55mm2 von oben --> Die Chipflächen könnten passen :) Was noch irgendwo fehlt, ist der Infinity Fabric Interconnect und ein bisschen Zeugs zwischen CP, L2 und SEs. Aber das kann man evtl. schon irgendwie reinschmuggeln. AMD muss das Design schon noch an anderen Orten auf Density getrimmt haben (gibt auch an anderen Orten als den SE Caches), wenn man noch neue Features reinbringen will (z.B. besseres RT). Evtl. hilft da N4P noch etwas nach. Logik Standard-Cells wurden bei Zen 4c auch um etwa 20% kleiner gemacht, dort hat man sich aber genau "GPU Design Methodologies" zu Hilfe genommen.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/63013-isscc-2024-warum-amds-zen-4c-kerne-sogar-schneller-als-der-gro%C3%9Fe-bruder-sein-kann.html
https://www.hardwareluxx.de/images/cdn02/uploads/2024/Feb/wise_commit_h4/isscc24-amd-zen4c-008_1920px.jpeg
Leonidas
2024-04-07, 11:49:52
Die >120 MTr/mm2 schafft jede Ada GPU (106,104,103 und 102). Warum sollte AMD das mit N4x nicht schaffen?
Richtig. Und deswegen ist es zu 98% monolithisch. Mit extra MCDs wären die Dinger viel zu groß. Wie schon vorgerechnet: N44 wäre mit 2 MCDs glatt 204mm² groß = exakte Chipfläche von N33, trotz Fullnode-Sprung. Und so viel IPC-Transistoren kann man gar nicht verbauen, um auf die gleiche Chipfläche zu kommen.
Wird sich mMn mit UE 5.4 ändern, welche jetzt im April released wird: Bis zu 2x HW-RT Performance Boost sowie 2x CPU Performance Boost. Das ist das, was noch nötig war ;) UE 5.4 Preview ist bereits veröffentlicht, ich warte aber noch mit Benchmarks bis zum finalen Release. Habe hier eine CitySample in 5.3 vorliegen und werde sie mit 5.4 nochmals packagen. Und dann die Performance vergleichen sowie hier im Forum berichten ;)
Bitte unbedingt!
reaperrr
2024-04-07, 12:01:51
Wenn dieses Bild halbwegs passt, sind die IF-Interfaces wesentlich kleiner als die SI, ca. 1/3 des SI.
Nö, nicht wirklich.
Du brauchst ja 2 davon, um einen MCD anzubinden (eines im GCD und eines im MCD), wie man auf dem Bild ja auch sehr schön sieht.
Und die IF-Interfaces sind fast genauso breit, und 2 davon zusammen auch nicht viel schmaler als ein 64bit SI in N6.
2 IF-Interfaces zusammen sehen für mich eher nach ~80% eines 64bit SIs aus, damit wäre das Gesamtkonstrukt bei N31 flächenmäßig größer(!) als ein hypothetisches 640bit SI eines monolithischen Chips ohne IF dazwischen.
Fazit: Das bestätigt eher, was ich gesagt habe. Die Gesamtfläche, die bei N31/32 für IF-Interfaces + SIs draufgeht, ist riesig, und dürfte dementsprechend auch bei N32 ca. die Gesamtfläche eines "normalen" 448bit SIs verschlingen.
Dementsprechend dürfte die Flächenersparnis durch Wegfall der IF-Interfaces sowie Shrink des SIs und IF-Caches von N6 auf N4 locker ~80-100mm² gegenüber N32 (inkl. MCDs) einsparen, was die ~240mm² direkt glaubwürdig macht, wenn die Specs von N48 sonst kaum höher als bei N32 sind und die uArch auch nicht groß Transistoren je CU zupackt.
The_Invisible
2024-04-07, 12:02:30
Wird sich mMn mit UE 5.4 ändern, welche jetzt im April released wird: Bis zu 2x HW-RT Performance Boost sowie 2x CPU Performance Boost. Das ist das, was noch nötig war ;) UE 5.4 Preview ist bereits veröffentlicht, ich warte aber noch mit Benchmarks bis zum finalen Release. Habe hier eine CitySample in 5.3 vorliegen und werde sie mit 5.4 nochmals packagen. Und dann die Performance vergleichen sowie hier im Forum berichten ;)
Wäre cool aber bis da wieder richtige Games damit rauskommen vergeht nach Release von 5.4 mindestens ein Jahr, zumindest gibt's bis dahin schon die nächsten GPU Gens
basix
2024-04-07, 13:11:12
In der Vergangenheit vergingen 3-6 Monate von UE5 Version Release, bis erste Games damit auf den Markt kommen (Fortnite ist evtl. schon heute auf 5.4 unterwegs). Ich denke, wir werden schon dieses Jahr entsprechende Spiele sehen. Zumindest HWRT und CPU-Performance wird dabei sein. Einige neuere UE 5.4 Features rund um Animation und Nanite Tesselation werden allenfalls noch nicht vollumfänglich genutzt werden, da dauert es schon noch 1 Jahr.
Bitte unbedingt!
Versprochen ;)
vinacis_vivids
2024-04-07, 13:52:25
64CU - FijiXT 596mm^2 28nm
64CU - Vega10 484mm^2 14nm
64CU - Vega20 331mm^2 7nm
64CU - Navi48 240mm^2 4nm
Wer war nochmal RTG 2015 für FuryX zuständig ? Raja Koduri mit dem HMB Speicher der Vega uArch.
Heute sehen wir RDNA4 im Vega10 Skelett.
dargo
2024-04-07, 13:58:52
Mir dir sind Diskussionen echt mühsam da du nur zitierst was dir in den Kram passt und alles umdrehst... ja echt schlimm das die Showcases in echten Spielen sind
Die Implementierungen in höchstens zwei Jäckchens "Showcases" sind gähn. Erst recht wenn man die Kosten dafür berücksichtigt.
Nightspider
2024-04-07, 16:10:06
Wenn N48 mit 60 CUs irgendwo fast bei 7900 Leistung herauskommen wird, dann wird Strix Halo mit nur RDNA3.5 und 40 CUs nur bei halber Leistung (ganz grob) rauskommen oder?
Hängt natürlich auch stark vom Takt der Strix Halo GPU ab und wie sehr man diese zügeln wird.
Wenn Strix Halo erst nach RDNA4 erscheint ist es natürlich schade das Strix Halo keine modernere und stärkere RDNA4 GPU bekommen wird.
Mit echter Chiplet GPU Option für Strix Point hätte man vielleicht wirklich einen RDNA4 Chip kombinieren können aber so bekommen wir wohl wirklich nicht das "Maximum".
Wird es am Ende Strix Point Laptops mit dedizierter RDNA4 GPU geben? Gibts dann beides?
AMD könnte damit sicher größere Marktanteile gewinnen aber verglichen mit der stiefmütterlichen Behandlung des Laptop Marktes, auch seitens dedizierter GPUs in den letzten Jahren, wäre das doch eine krasse Kehrtwende.
Altehardware
2024-04-07, 16:35:37
Mir wäre es neu das nach Samsung 14lppdas Si schrumpft was faktisch glofo 14nm ist
Seitdem ist das Si nicht mehr geschrumpft.
Erst mit gaa wird das si um 50% kleiner. also tsmc n2 und Samsung sf3
reaperrr
2024-04-07, 16:46:56
Wenn N48 mit 60 CUs irgendwo fast bei 7900 Leistung herauskommen wird, dann wird Strix Halo mit nur RDNA3.5 und 40 CUs nur bei halber Leistung (ganz grob) rauskommen oder?
Eher 35-40%.
Rechne mal mit knapp 7600 (XT) Leistung als höchstes der Gefühle.
Gibt ja auch (deutlich) weniger als halb so viel Speicherbandbreite (LPDDR5X @ 8,533 Gbps statt GDDR6 @ 21,66 Gbps, kein IF$, Teil der SB dürfte für CPU reserviert bleiben).
Mit echter Chiplet GPU Option für Strix Point hätte man vielleicht wirklich einen RDNA4 Chip kombinieren können aber so bekommen wir wohl wirklich nicht das "Maximum".
Für eine GPU dieser Power-Klasse würde eine Chiplet-Anbindung vermutlich zuviel extra Fläche und Strom kosten.
Wird es am Ende Strix Point Laptops mit dedizierter RDNA4 GPU geben?
Sag niemals nie, aber extrem unwahrscheinlich.
Was Strix Halo für OEMs interessant macht dürfte gerade u.a. sein, neben Platz auch an PCIe sparen zu können, und dass die GPU keinen eigenen extra VRAM braucht und deshalb auch hier Kosten spart.
Nightspider
2024-04-07, 17:14:39
Das Strix Halo weder eigenen VRAM noch IF$ besitzt dürfte unwahrscheinlich sein.
Die GPU würde total an der Bandbreite verhungern.
Sag niemals nie, aber extrem unwahrscheinlich.
Warum?
Wenn AMD schon mal effiziente und kleine GPUs herausbringt im neuen Fertigungsprozess und das >Monate< vor Nvidia, dann bietet es sich doch auch an diese in Laptops zu verbauen.
OgrEGT
2024-04-07, 18:11:45
Strix Halo ist sehr interessant... bin gespannt... allerdings 55-120W Default TDP ist nicht ohne wenn das sinnvoll mobile funktionieren soll...
aufkrawall
2024-04-07, 18:13:11
Nichts hält AMD davon ab das gleiche zu tun. Wo bleibt da der RT-Showcase von AMD? Oder krankt es doch an der Hardware... Schon merkwürdig obwohl AMD Hardware auch bei allen Konsolen läuft
Ja, am besten dann wieder mit Mantle, damit es gar nicht auf Nvidia läuft. Die Vorstellung, dass IHVs zentralen Engine-Code implementieren sollen, und das Closed Source, ist einfach komplett dämlich. Man muss nur mal 3s drüber nachdenken...
Btw. die komplett magere RT-Softwarelandschaft trotz >80% Nvidia-Marktanteil spricht Bände. Funktioniert ja alles so toll...
Sicher, dass du das Henne-Ei-Problem verstanden hast? ;) Wenn nur einer der Marktteilnehmer schnelles Raytracing bietet, was wiederum eine winzige Untermenge der installierten (und untermotorisierten) Basis darstellt, ziehen sich die Dinge eben. Vor allem, wenn ständig Pandemien, Naturkatastrophen oder Idioten das Weltgeschehen torpedieren. Das wird schon. Je schneller die Next-gen mit bezahlbaren und flotten RT-SKUs kommt, desto besser und schneller.
MfG
Raff
aufkrawall
2024-04-07, 18:39:27
Du bestätigst ja nur meinen Punkt. Ohne vernünftige Implementierung durch den Dev selbst ist das alles nichts. Siehe RT Avatar - Diablo 4 im Vergleich.
Kann Avatar auch auf Radeon gut spielen (sogar sehr gut, wenn sie das FG hoffentlich bald wieder gefixt haben...) und das sieht zigmal besser aus als das Diablo-Quatschtracing...
DrFreaK666
2024-04-07, 18:40:31
Nach den 2 Demos wurde es halt wieder ziemlich still, oder gibt es neuere?
eqXeM4712ps
3--dTmKDHhk
The_Invisible
2024-04-07, 18:59:27
Du bestätigst ja nur meinen Punkt. Ohne vernünftige Implementierung durch den Dev selbst ist das alles nichts. Siehe RT Avatar - Diablo 4 im Vergleich.
Kann Avatar auch auf Radeon gut spielen (sogar sehr gut, wenn sie das FG hoffentlich bald wieder gefixt haben...) und das sieht zigmal besser aus als das Diablo-Quatschtracing...
Bei Avatar muss ich mich beim Wasser immer übergeben -> RT fehlt
Denniss
2024-04-07, 19:35:32
nvidia hat bestenfalls brauchbares RT und auch das nur auf der 4090. Wenn man aber bei der 4090 RT voll aufdreht kann man die aber runterknüppeln auf magere Bildraten.
Schnelles RT wäre Feuer frei aus allen Strahlenkanonen ohne massiven FPS-Verlust. Dies wird aber noch ein paar Jahre brauchen.
Raster wird auf längere Zeit noch Maßstab bleiben solange RT eher ein Gimmick denn massentauglich ist.
basix
2024-04-07, 20:40:49
Eher 35-40%.
Rechne mal mit knapp 7600 (XT) Leistung als höchstes der Gefühle.
Gibt ja auch (deutlich) weniger als halb so viel Speicherbandbreite (LPDDR5X @ 8,533 Gbps statt GDDR6 @ 21,66 Gbps, kein IF$, Teil der SB dürfte für CPU reserviert bleiben).
Halt, halt. Strix Halo hat 4-Channel SI (273 GB/s bei 8533MT/s) und 32MB Infinity Cache. Also faktisch identisch wie N33/N44 mit 288 GB/s und ebenfalls 32MB IF$. Dazu 40 CU anstatt nur 32. Ich denke, das man von ~N44 Performance ausgehen kann, wenn nicht Takt und IPC arg unterschiedlich zu RDNA4 sind. Gerüchte sagen ja ~3GHz für Strix Halo voraus. Auch ausgehend von der 7600XT hätte man vermutlich mehr Takt und +25% CU. Ich denke, solange das Power Limit oder Bandbreite nicht limitieren, sollte man eine 4060 Ti schlagen können und sich nahe von N44 bewegen. Halt ohne das schnellere RT oder sonstige RDNA4 exklusive Features (was auch immer das sein würde).
Nur bei Strix Point fällt der Infinity Cache anscheinend leider ins Wasser.
reaperrr
2024-04-08, 02:02:47
Halt, halt. Strix Halo hat 4-Channel SI (273 GB/s bei 8533MT/s) und 32MB Infinity Cache.
4-channel = 256 bit.
Ich bezog mich auf den Vergleich zu N48, und da hat StrixHalo definitiv deutlich weniger als die Hälfte an Speicherbandbreite im Vergleich zum N48-Vollausbau.
Den IF$ hatte ich aber vergessen, stimmt. Sind trotzdem noch deutlich weniger als 50% der N48-Bandbreite.
Und in der Regel sind mindestens 25% des SIs einer APU für den CPU-Teil reserviert, sonst leidet die CPU-Performance zu sehr. Also der GPU-Teil dürfte in der Praxis in Spielen eher mit 192bit (Triple-Channel) und ~205 GB/s VRAM-Bandbreite laufen. Bestenfalls.
Gerüchte sagen ja ~3GHz für Strix Halo voraus.
Und das halte ich für viel zu optimistisch, jedenfalls bezogen auf Laptops.
Der Gesamtverbrauch der APU wird in den meisten Laptops nicht mehr als ~120W betragen dürfen, bei 16 Kernen können wir wohl locker von 35-45 für die CPU-Seite ausgehen, blieben noch ~80W für den GPU-Teil.
Und 20% höhere Taktraten als N33 in halber TDP, obwohl es "nur" RDNA3+ ist?
Das Gerücht kauf ich momentan noch nicht.
Wenn Halo GPU-Taktraten im GRE-Bereich schafft, wäre das schon ein Erfolg mMn, das sind dann aber vllt. noch 5-10% mehr Rohleistung als N33, wobei Takt meist mehr bringt als CUs und die Speicherbandbreite wegen der Teilung mit den Zen5-Kernen ja eher niedriger ist als bei der 7600...
...landen wir mMn bestenfalls bei Desktop-N33-Leistung, wie ich ursprünglich schon gesagt hatte.
Ohne IF$ hätte es eher noch deutlich schlechter ausgesehen.
Nicht falsch verstehen, wäre toll, wenn Halo deutlich mehr Takt schafft (zumindest in All-in-One-PCs oder so), aber außerhalb übertrieben teurer Premium-Notebooks sehe ich das in Mobile nicht kommen, und auch N44-Leistung sehe ich noch nicht.
---------------------
Nebenbei, anderes Thema: Zu den 2770 und 515, wenn das wirklich die effektive Bandbreite sein sollte, hat AMD die Bandbreite des IF$ bei N44 um 20% gesteigert, bei der 7600(XT) sind es nämlich bei gleichem Speichertakt nur 477 GB/s.
Gleichzeitig steigt die genannte effektive Bandbreite bei N48 aber nur um den reinen VRAM-Bandbreiten-Zuwachs, hier wieder keinerlei IF$-Verbesserungen?
Etwas merkwürdig.
basix
2024-04-08, 08:27:25
Nebenbei, anderes Thema: Zu den 2770 und 515, wenn das wirklich die effektive Bandbreite sein sollte, hat AMD die Bandbreite des IF$ bei N44 um 20% gesteigert, bei der 7600(XT) sind es nämlich bei gleichem Speichertakt nur 477 GB/s.
Gleichzeitig steigt die genannte effektive Bandbreite bei N48 aber nur um den reinen VRAM-Bandbreiten-Zuwachs, hier wieder keinerlei IF$-Verbesserungen?
Etwas merkwürdig.
Der IF$ läuft auf einer eigenen Taktdomain. Wenn man das nicht erhöht, steigt auch die "effektive Bandbreite" weniger. Diese Zahlen sind aber eigentlich eher Theorie. Der Cache könnte diese Bandbreite liefern. Wichtig ist eher der Bandbreitenmultiplikator, also SI * X. Und dieser wird sich nicht gross geändert haben, da der IF$ gleich gross bleibt.
Wird es am Ende Strix Point Laptops mit dedizierter RDNA4 GPU geben? Gibts dann beides?
Strix Point wird es sicher mit dGPU geben. Bei Strix Halo wäre es etwas sinnfrei.
[MK2]Mythos
2024-04-08, 08:49:36
Schreibt was zum Thema, oder lasst das Schreiben.
robbitop
2024-04-08, 09:01:23
Nebenbei, anderes Thema: Zu den 2770 und 515, wenn das wirklich die effektive Bandbreite sein sollte, hat AMD die Bandbreite des IF$ bei N44 um 20% gesteigert, bei der 7600(XT) sind es nämlich bei gleichem Speichertakt nur 477 GB/s.
Gleichzeitig steigt die genannte effektive Bandbreite bei N48 aber nur um den reinen VRAM-Bandbreiten-Zuwachs, hier wieder keinerlei IF$-Verbesserungen?
Etwas merkwürdig.
Kann nicht auch der GDDR6 Takt höher sein? Die 7600 XT hat ja auch nur 18 gbps Module.
davidzo
2024-04-08, 10:40:23
Und in der Regel sind mindestens 25% des SIs einer APU für den CPU-Teil reserviert, sonst leidet die CPU-Performance zu sehr. Also der GPU-Teil dürfte in der Praxis in Spielen eher mit 192bit (Triple-Channel) und ~205 GB/s VRAM-Bandbreite laufen. Bestenfalls.
Was für ein quatsch. Da ist nichts reserviert. Natürlich gibt es Speicher scheduling und das kann mal mehr mal weniger smart sein. In der Praxis kann die GPU in der APU aber auf die volle Bandbreite zugreifen. Es ist ganz einfach, entweder wir haben ein CPUlimit, dann ist es sinnvoll beim schedulen die CPUlatez zu bevorzugen, und etwaige einschränkungen der GPU dadurch sind eh egal. Oder wir haben ein GPU Limit und dann ist es auch egal wenn die CPU mit angeziogener Handbremse läuft. Die meisten Spiele nutzen eh working sets die bereits in den L3 passen und sind nicht sonderlich bandbreitenintensiv.
Und das halte ich für viel zu optimistisch, jedenfalls bezogen auf Laptops.
Der Gesamtverbrauch der APU wird in den meisten Laptops nicht mehr als ~120W betragen dürfen, bei 16 Kernen können wir wohl locker von 35-45 für die CPU-Seite ausgehen, blieben noch ~80W für den GPU-Teil.
Die TDP kann man dynamisch zwischen GPU und CPU verschieben, z.B. wenn im GPUlimit.
...landen wir mMn bestenfalls bei Desktop-N33-Leistung, wie ich ursprünglich schon gesagt hatte.
Ohne IF$ hätte es eher noch deutlich schlechter ausgesehen.
Nicht falsch verstehen, wäre toll, wenn Halo deutlich mehr Takt schafft (zumindest in All-in-One-PCs oder so), aber außerhalb übertrieben teurer Premium-Notebooks sehe ich das in Mobile nicht kommen, und auch N44-Leistung sehe ich noch nicht.
Ich sehe da gar nicht das Problem. Hier geht es doch um mobile und nicht um etwas anderes?!
Ne 4070 mobile ist doch auch stark gedrosselt, jedenfalls wenn sie in einem Notebook mit ansprechenden Formfaktor und keinem Plastikbomber Desktop replacement steckt. Es macht imo gar keinen Sinn Strix Halo mit dem Desktop zu vergleichen, denn die Desktopkarten bekommt man eben nicht mobile in dem Format. Um ne 7600XT Desktop zu schlagen braucht es auch ne 4080 mobile, die 4070 reicht da selbst mit 115W nicht ansatzweise für aus.
fondness
2024-04-08, 10:52:09
Und in der Regel sind mindestens 25% des SIs einer APU für den CPU-Teil reserviert, sonst leidet die CPU-Performance zu sehr. Also der GPU-Teil dürfte in der Praxis in Spielen eher mit 192bit (Triple-Channel) und ~205 GB/s VRAM-Bandbreite laufen. Bestenfalls.
Blödsinn, die CPU braucht die Bandbreite nicht, das bestätigt jeder Test.
Und das halte ich für viel zu optimistisch, jedenfalls bezogen auf Laptops.
Der Gesamtverbrauch der APU wird in den meisten Laptops nicht mehr als ~120W betragen dürfen, bei 16 Kernen können wir wohl locker von 35-45 für die CPU-Seite ausgehen, blieben noch ~80W für den GPU-Teil.
TDP kann man einstellen, APUs sind sehr effizient. Die CPU braucht zudem (bei Spielen) keine 40W, die Kerne kann man power-gaten. Die Frage ist eher wie viel Effizienz man durch das Chiplet-Design verliert. Dafür wirds halt auch eine für Spieler wohl sinnvollere Variante mit nur einem Chiplet und 8 Kernen geben.
Wenn ich mir ansehen was meine APU selbst bei 15W für den gesamten SoC(!) leistet, dann wundert mich eh nach wie vor, warum AMD nicht viel früher mit größeren APUs gekommen ist. Das ist im mobilen Bereich ein Gamechanger. Alleine durch das breite und schnelle PCIe-Interface und den doppelte Speicher bei CPU und GPU mit ständigen Kopiervorgängen verliert man enorm am Effizienz.
Und 20% höhere Taktraten als N33 in halber TDP, obwohl es "nur" RDNA3+ ist?
Das Gerücht kauf ich momentan noch nicht.
Das kommt vom selben Typen der die gesamte N48 Spec geleaked hat. Also wenn man diese glaubt dann sollte das auch mit 3Ghz bei Strix Halo stimmen. Was soll auch sonst das "+" sein? Vermutlich hat man eben genau das offensichtliche TDP-Problem bei hohem Takt bei RDNA3 gefixed.
reaperrr
2024-04-08, 11:07:36
Kann nicht auch der GDDR6 Takt höher sein? Die 7600 XT hat ja auch nur 18 gbps Module.
Nein, nicht wenn die GB/s-Angabe für den reinen VRAM stimmt, die war in dem entsprechenden Twitter-Post 288GB/s, also identische 18Gbps zur 7600.
Twitter-Zahlen zu N48 und N44:
N48: 693 (wohl VRAM), 2770 (wohl effektive Bandbreite inkl. IF$)
N44: 288, 515
Die Mainstream N3x zum Vergleich:
N32: 624, 2708
N33: 288, 477
Die wahrscheinlichste Auflösung ist wohl, wenn die Infos alle stimmen, dass der IF$ bei N44 einfach 20% höher taktet als bei N33, während AMD bei N48 hier etwas konservativer rangeht, da man zum Ausgleich mehr VRAM-Takt hat.
Was für ein quatsch. Da ist nichts reserviert. Natürlich gibt es Speicher scheduling und das kann mal mehr mal weniger smart sein. In der Praxis kann die GPU in der APU aber auf die volle Bandbreite zugreifen. Es ist ganz einfach, entweder wir haben ein CPUlimit, dann ist es sinnvoll beim schedulen die CPUlatez zu bevorzugen, und etwaige einschränkungen der GPU dadurch sind eh egal. Oder wir haben ein GPU Limit und dann ist es auch egal wenn die CPU mit angeziogener Handbremse läuft. Die meisten Spiele nutzen eh working sets die bereits in den L3 passen und sind nicht sonderlich bandbreitenintensiv.
Gut, ganz ohne Auswirkungen wird es aber trotzdem nicht sein und die nominelle Speicherbandbreite wird mit 8533er RAM auch so schon etwas unter einer 7600 liegen.
Ich sehe da gar nicht das Problem. Hier geht es doch um mobile und nicht um etwas anderes?!
Ne 4070 mobile ist doch auch stark gedrosselt, jedenfalls wenn sie in einem Notebook mit ansprechenden Formfaktor und keinem Plastikbomber Desktop replacement steckt. Es macht imo gar keinen Sinn Strix Halo mit dem Desktop zu vergleichen, denn die Desktopkarten bekommt man eben nicht mobile in dem Format. Um ne 7600XT Desktop zu schlagen braucht es auch ne 4080 mobile, die 4070 reicht da selbst mit 115W nicht ansatzweise für aus.
Meine Posts dazu bezogen sich nur darauf, dass zuvor gemeint wurde, ob Strix Halo nicht 3 GHz GPU-Takt und mit den Specs nicht 50% der N48-Leistung schaffen müsste.
Das sehe ich halt nicht, insbesondere nicht Mobile, weder von der Speicherbandbreite noch von der TDP her.
davidzo
2024-04-08, 11:41:37
Meine Posts dazu bezogen sich nur darauf, dass zuvor gemeint wurde, ob Strix Halo nicht 3 GHz GPU-Takt und mit den Specs nicht 50% der N48-Leistung schaffen müsste.
Das sehe ich halt nicht, insbesondere nicht Mobile, weder von der Speicherbandbreite noch von der TDP her.
Aber N48 mobile wird doch auch nicht mit 3Ghz GPU-takt laufen? :confused:
Also 50% der N48 leistung halte ich für durchaus möglich.
Entweder N48 mobile vs Sarlak mobile, oder wenn TDP keine Rolle spielt dann eine 3Ghz Version von beidem.
Eine APU auf 4070 Niveau wird eher für 1080P+upscaling oder max WQHD verwendet werden, nicht für 4K. Der Bandbreitenbedarf hält sich also in Grenzen. N48 braucht die volle Bandbreite auch nur in 4K, in FHD und WQHD kannste vermutlich den VRAM untertakten ohne irgendwas zu spüren.
mboeller
2024-04-08, 11:51:23
Und 20% höhere Taktraten als N33 in halber TDP, obwohl es "nur" RDNA3+ ist?
Das Gerücht kauf ich momentan noch nicht.
angeblich ein N3x - Prozess, ich glaube N3P besagen zumindest die Gerüchte.
Damit könnte es funktionieren.
robbitop
2024-04-08, 11:55:18
Wobei ich mir kaum vorstellen kann, dass die Bandbreite vom IF$ großartig limitiert sondern eher die Hitrate.
mksn7
2024-04-08, 12:38:21
Eine effektive Bandbreite zu leaken ist doch totaler Quatsch. Da könnte man jede Zahl leaken die zwischen DRAM und I$ Bandbreite liegt. Und keine davon wäre falsch, ich kann code schreiben der jede beliebige Zahl in dem Bereich erreicht.
robbitop
2024-04-08, 13:15:50
Naja zusätzlich wurde auch die VRAM Bandbreite geleakt
Der_Korken
2024-04-08, 13:21:03
Die 2770 hätte auch noch der Game clock sein können, denn da bspw. die 7800XT auch nur mit 2140Mhz angegeben wird, obwohl real 2400Mhz anliegen, können 2770Mhz game clock auch problemlos >3Ghz in Spielen bedeuten. Nur diese 500irgendwas für N44 passt dann überhaupt nicht rein. Wobei ich es schon komisch finde, dass zwischen N32 und N33 Faktor 5 Unterschied liegen, aber N31 hat laut AMD-Seite nichtmal 50% mehr als N32, obwohl VRAM und IF$ beide 50% mehr Durchsatz haben müssten (und durch den größeren Cache zusätzlich noch eine größere Hitrate ...). Diese effektiven Bandbreiten sehen für mich dadurch eh sehr gewürfelt aus.
robbitop
2024-04-08, 13:30:32
Das ist mir auch aufgefallen.
fondness
2024-04-08, 13:34:16
Die 2770 hätte auch noch der Game clock sein können, denn da bspw. die 7800XT auch nur mit 2140Mhz angegeben wird, obwohl real 2400Mhz anliegen, können 2770Mhz game clock auch problemlos >3Ghz in Spielen bedeuten. Nur diese 500irgendwas für N44 passt dann überhaupt nicht rein. Wobei ich es schon komisch finde, dass zwischen N32 und N33 Faktor 5 Unterschied liegen, aber N31 hat laut AMD-Seite nichtmal 50% mehr als N32, obwohl VRAM und IF$ beide 50% mehr Durchsatz haben müssten (und durch den größeren Cache zusätzlich noch eine größere Hitrate ...). Diese effektiven Bandbreiten sehen für mich dadurch eh sehr gewürfelt aus.
Er hat es mittlerweile indirekt bestätigt, dass damit die effektive Bandbreite gemeint ist und nicht der Takt, bzw. keine 2 fehlt bei N44. Gewürfelt ist das aber natürlich nicht, sondern eben ein Kombination aus IF Bandbreite und GDDR6 Bandbreite.
N31 und N32 verwenden beide die selben Chiplets und haben deshalb natürlich auch pro Chiplet dieselbe Bandbreite (Ausnahme Taktanpassungen). Es sind allerdings bei der 7800XT auch 2708 GB/s und bei der 7600 nur 476.9 GB/s.
Der_Korken
2024-04-08, 13:59:03
Er hat es mittlerweile indirekt bestätigt, dass damit die effektive Bandbreite gemeint ist und nicht der Takt, bzw. keine 2 fehlt bei N44. Gewürfelt ist das aber natürlich nicht, sondern eben ein Kombination aus IF Bandbreite und GDDR6 Bandbreite.
OK, aber AMD gibt die 7900XTX nur mit 3500GB/s an, d.h. +30% gegenüber der 7800XT. Wie soll das funktionieren, wenn sowohl VRAM als auch IF$ +50% Bandbreite haben? Dazu müsste die Hitrate des Caches gesunken sein, obwohl selbiger ebenfalls 50% größer ist.
Neues Futter:
https://twitter.com/negativeonehero/status/1777177139747660208
270mm², 37Mrd. Transistoren, +12% IPC in Raster, +25% IPC in RT, N48XT auf 7900XT-Level
[MK2]Mythos
2024-04-08, 14:02:00
OK, aber AMD gibt die 7900XTX nur mit 3500GB/s an, d.h. +30% gegenüber der 7800XT. Wie soll das funktionieren, wenn sowohl VRAM als auch IF$ +50% Bandbreite haben? Dazu müsste die Hitrate des Caches gesunken sein, obwohl selbiger ebenfalls 50% größer ist.
Neues Futter:
https://twitter.com/negativeonehero/status/1777177139747660208
270mm², 37Mrd. Transistoren, +12% IPC in Raster, +25% IPC in RT, N48XT auf 7900XT-Level
Das wäre allerdings einigermaßen schwach. Aber vermutlich genau das, was man abseits eines Hypetrains erwarten kann.
Leonidas
2024-04-08, 14:19:43
Eine effektive Bandbreite zu leaken ist doch totaler Quatsch.
Zeigt für mich eher darauf hin, dass die eigentliche Quelle tatsächlich AMD ist. Denn AMD wirft gern mit dieser effektiven Bandbreite um sich. Der Leaker hat schlicht das weitergetragen, was AMD zu sagen hatte.
vinacis_vivids
2024-04-08, 14:30:51
Die Hitrate des IF$ ist jetzt Top-Secret bei AMD damit NV nichts nachbauen kann, wie sie es beim HBM-Speicher für HPC und Ada-L2-Cache gemacht haben. Vermutlich ist die Hitrate des IF$ bei AMD beim FSR2/3 upsclaling deutlich besser als die Hitrate des L2$ von NV.
Neues Futter:
https://twitter.com/negativeonehero/status/1777177139747660208
270mm², 37Mrd. Transistoren, +12% IPC in Raster, +25% IPC in RT, N48XT auf 7900XT-Level
Da steht jetzt wieder TSMC. Und der Typ trat vorher nicht in Erscheinung – oder doch? Irgend etwas erfinden kann ich auch.
Die Hitrate des IF$ ist jetzt Top-Secret bei AMD damit NV nichts nachbauen kann, wie sie es beim HBM-Speicher für HPC und Ada-L2-Cache gemacht haben. Vermutlich ist die Hitrate des IF$ bei AMD beim FSR2/3 upsclaling deutlich besser als die Hitrate des L2$ von NV.
Verkauf endlich deine Aktien. Bitte. :)
Zeigt für mich eher darauf hin, dass die eigentliche Quelle tatsächlich AMD ist. Denn AMD wirft gern mit dieser effektiven Bandbreite um sich. Der Leaker hat schlicht das weitergetragen, was AMD zu sagen hatte.
Guter Punkt!
MfG
Raff
Altehardware
2024-04-08, 14:53:02
Hier haben einige vergessen wie der inf cache wirkt
Dieser ist ein last level cache effektiv L3 vor dem SI
Dieser taktet identisch mit der coreclock der gpu das sind Si Anbindung von 128bit + Gpu Takt mal Si /8*0,48=20,7gb/&s +288gb/s =307,7gb/s (bsp rx7600xt)
Die 697gb/s des n48 entstehen durch 20gbps + cache Takt 57gb/s = 697gb/s
Das bestätigt den Takt auf 3,7ghz min 64mb L3 cache und ein 256bit Si das wiederum sagt klar aus das samsung node nicht stimmen kann.
Damit wäre min rx7900xtx perf zu erwarten der samsung sf4x ist m 20% geringer getaktet was maximal 3,1ghz sind
Kann aber sein das der cache Takt höher ist als der coreclock
Das aber müsste durch ne arch Anpassung gemacht werden wie mal nvidia getan hat 2006 wo der shaderclock höher war als der coreclock
Daran glaube ich nicht da zu aufwendig und weit weg von amd rdna design
Womit tsmc n4x node sicher sein dürfte der umstand das dann samsung gddr6 24gbps chips hat glaube ich nicht.
gddr7 wäre möglich dann aber dürfte n48 nicht vor ende 2024 kommen.
Nakai
2024-04-08, 15:08:34
Ohne die internen Cache-Strukturen zu kennen, macht es keinen Sinn die effektive Bandbreite irgendwie zu kommentieren.
Die 7800XT wird mit 2708 GB/s vermarktet. Ausgehend davon sind die 2770 GB/s kein großer Sprung, bei schnellerem Cache und bei einem höheren Speichertakt. Ich finde die 3,05 Ghz deutlich näher an der Realität. Da liegt man mit 25% über der 7800XT. Plus man hat mehr CUs/WGPs und eventuell ein paar andere Tweaks. Eine 7900XT liegt etwa 30~35% vor einer 7800XT, je nach Setup. Kurz: N48 wird ziemlich sicher auf 7900XT-Niveau kommen, wenn die Bandbreite mitspielt.
Jegliche Spekulation bzgl. IPC-Steigerungen ignoriere ich mal. Bei Raytracing gibts noch Luft nach oben, beim Rastern eher weniger.
Sieht für mich eher wie N3x done right aus und ohne Chiplet-Murks.
dargo
2024-04-08, 15:53:21
Mythos;13521691']Das wäre allerdings einigermaßen schwach. Aber vermutlich genau das, was man abseits eines Hypetrains erwarten kann.
Was wäre daran bitte schwach wenn es tatsächlich in ca. 215W passt? Das sind 100W weniger als die 7900XT! Schwach ist höchstens, dass AMD auf dieser Basis leider nichts im Bereich von ca. 350-400mm² bringt.
Altehardware
2024-04-08, 16:05:23
Die 0,48 habe ich aus nenn engineer interview wo erklärt wurde wie der inf cache funktioniert
Es st di hitrate des cache die vbis zu 48% bei idealer Größe auf eine Auflösung hin ausreicht
bei 96mb ist das 2160 p bei 64mb etwa 1440p und 32mb bei 1080p darüber sinkt die hitrate
Der cache läuft mit coreclock = gpu Takt
mehr als 48% geht nicht somit wäre der ideale inf cache bei allen sku 96mb
Wird es aber nicht sein daher nehme ich an das n48 64mb hat und n44 32mb
was mit 20gbps dann n44 348gb/s wird und n48 697gb/s wird
Das reicht als perf Steigerung vs der originalen rx7600xt +54% und rx8800xt +81% vs rx7800xt da aber sicher die 697gb/s gar nicht gebraucht werden dürfte das eher +57-71% werden
fondness
2024-04-08, 16:06:18
Was wäre daran bitte schwach wenn es tatsächlich in ca. 215W passt? Das sind 100W weniger als die 7900XT! Schwach ist höchstens, dass AMD auf dieser Basis leider nichts im Bereich von ca. 350-400mm² bringt.
Jup wollte ich auch gerade schreiben. Wenn der leak stimmt sieht das soweit sehr gut aus. Schade nur, dass N48 schon der top dog sein soll. Erinnert mich ein bisschen an RV770, der hat punkto perf/mm2 alles platt gemacht, hilft halt nicht viel wenn kein topdog kommt.
Nakai
2024-04-08, 16:06:21
Was wäre daran bitte schwach wenn es tatsächlich in ca. 215W passt? Das sind 100W weniger als die 7900XT! Schwach ist höchstens, dass AMD auf dieser Basis leider nichts im Bereich von ca. 350-400mm² bringt.
215W und ~250mm². :tongue:
Ein hypothetischer "N49" mit 384 Bit und 48 WGPs (ich denke da könnte man sogar auf etwa 60 WGPs hochgehen und dabei die 400m² nicht zu sprengen), wäre bei etwa 350 W und man würde ~40% vor einer 7900XTX landen.
mksn7
2024-04-08, 16:09:21
Zeigt für mich eher darauf hin, dass die eigentliche Quelle tatsächlich AMD ist. Denn AMD wirft gern mit dieser effektiven Bandbreite um sich. Der Leaker hat schlicht das weitergetragen, was AMD zu sagen hatte.
Nur wenn die Quelle des Leaks aus dem Marketing kommt. Auf technischer Seite würde man mit hit rates argumentieren, die "effektive Bandbreite" ist ein Konzept dass das Marketing sich ausgedacht hat um den I$ zu verkaufen.
Wie gesagt, diese Zahl könnte man auch auswürfeln. Die effektive Bandbreite ist keine Eigenschaft der hardware.
Leonidas
2024-04-08, 16:12:30
Nur wenn die Quelle des Leaks aus dem Marketing kommt. Auf technischer Seite würde man mit hit rates argumentieren, die "effektive Bandbreite" ist ein Konzept dass das Marketing sich ausgedacht hat um den I$ zu verkaufen.
Stimmt. Aber mit wem spricht AMD derzeit? Mit den Spitzen seiner Partner. Denen haut man 1a Marketing um die Ohren. Echte technische Daten gibt es immer erst später, muß man sich teilweise selber erarbeiten. Passt für mich auffallend.
fondness
2024-04-08, 16:12:42
Wie gesagt, diese Zahl könnte man auch auswürfeln. Die effektive Bandbreite ist keine Eigenschaft der hardware.
Das stimmt nicht, wie kommst du drauf?
Ich bin bei Leo, wenn sich jemand was ausdenkt kommt er nicht mit der effektiven Bandbreite. Viel zu kompliziert und sagt den Leuten auch nichts. Dass er mit der effektiven Bandbreite kommt spricht für eine tatsächliche Quelle innerhalb AMD.
Was wäre daran bitte schwach wenn es tatsächlich in ca. 215W passt? Das sind 100W weniger als die 7900XT! Schwach ist höchstens, dass AMD auf dieser Basis leider nichts im Bereich von ca. 350-400mm² bringt.
Dafür gibts ja die Chiplet-Variante mit Verzögerung. Die Geduld würd ich dafür aufbringen, denn ich denke das wird sich erheblich mehr lohnen als jetzt ein größerer davon. Ist für dich als RDNA3-Verweigerer natürlich blöd, seh ich ein.
raffa
2024-04-08, 16:43:29
mich freuts, wenns aufgeht.
Ich hätt nämlich gern nächstes Jahr ne effiziente RDNA4 gpu im Rechner
DrFreaK666
2024-04-08, 16:44:46
Passt hier womöglich rein
AMD & Arena Join Hands To Optimize & Enhance Next-Generation Radeon GPU Performance & Efficiency Using AI... No specific GPUs have been announced but it looks like we may see the optimizations come in next-gen chips such as the upcoming RDNA 4 lineup.
https://wccftech.com/amd-arena-enhance-next-generation-radeon-gpu-performance-efficiency-using-ai/
Aber vielleicht ist mit Next Gen erst RDNA5 gemeint - who knows
Oder war das schon Thema?
robbitop
2024-04-08, 16:49:27
Jup wollte ich auch gerade schreiben. Wenn der leak stimmt sieht das soweit sehr gut aus. Schade nur, dass N48 schon der top dog sein soll. Erinnert mich ein bisschen an RV770, der hat punkto perf/mm2 alles platt gemacht, hilft halt nicht viel wenn kein topdog kommt.
Gefühlt lief es in den Generationen, wo AMD kein Top Dog hatte aber lange Zeit aber fast am Besten, oder?
RV770, Polaris und auch Navi10 lief gut. Und auch RV870 und Tahiti (Hawaii kam ja erst viel später.
[MK2]Mythos
2024-04-08, 16:56:46
Was wäre daran bitte schwach wenn es tatsächlich in ca. 215W passt? Das sind 100W weniger als die 7900XT! Schwach ist höchstens, dass AMD auf dieser Basis leider nichts im Bereich von ca. 350-400mm² bringt.
215W sind doch überhaupt nicht gesetzt und ich bezweifle dass AMD den "Top Dog" des Lineups mit so wenig Verbrauch in den Markt wirft. Schwach finde ich die "IPC" Verbesserungen, wenn sie denn stimmen.
robbitop
2024-04-08, 17:10:31
So ungewöhnlich ist das nicht. N48 ist ein Produkt was in einer ähnlichen Performancesparte antreten wird wie damals Polaris (RX480: 150W /580: 185 W/RX590: 175W) und Navi 10 (5700 XT: 225 W).
Ein N48 mit ~7900 XT Performance läge grob bei einer Geforce 4070 ti super (285 W).
Da N48 gegen Blackwell antreten muss, wird es dann grob 60...60 ti class sein. Da liegt man traditionell bei ~ 200W.
Wenn man N48 out of the box zu hoch prügelt, sieht man nicht unbedingt gut aus, wenn man gegen 60...60ti class antreten muss. Eigentlich eine ähnliche Situation wie Polaris / Navi 10.
aufkrawall
2024-04-08, 17:16:32
Mythos;13521787']215W sind doch überhaupt nicht gesetzt und ich bezweifle dass AMD den "Top Dog" des Lineups mit so wenig Verbrauch in den Markt wirft.
Noch höherer Verbrauch bei so einem kleinen Chip wird dann problematisch mit den abgespeckten Referenzkühlern, und die Skalierung nimmt natürlich auch immer weiter ab.
Da ja offenbar der Top Dog zu der Generation RDNA5 ist, muss das nicht unbedingt sein, dass man diese Karten bis zum Limit prügelt.
mksn7
2024-04-08, 17:51:30
Das stimmt nicht, wie kommst du drauf?
Ich bin bei Leo, wenn sich jemand was ausdenkt kommt er nicht mit der effektiven Bandbreite. Viel zu kompliziert und sagt den Leuten auch nichts. Dass er mit der effektiven Bandbreite kommt spricht für eine tatsächliche Quelle innerhalb AMD.
Ich hab zwei unterschiedliche Argumente: Zum einen ist effektive Bandbreite für mich ein Marketingbegriff für die technische Presse, um zu erklären warum ein kleines Speicherinterface mit wenig Bandbreite ausreicht. Wem das zu kompliziert ist, fällt auch eine geringe Speicherbandbreite nicht auf.
Zum anderen kann man einfach keine Zahl für sowas festnageln. Die hit rate ist keine Chipeigenschaft, sondern gemessen für eine bestimmte software. Klar kann man mittels Durchschnitten eine Größenordnung abschätzen, aber wegen der rießigen Schwankungsbreite passt das einfach überhaupt nicht zu chip Eigenschaften wie der CU count.
AffenJack
2024-04-08, 18:34:54
Mythos;13521787']215W sind doch überhaupt nicht gesetzt und ich bezweifle dass AMD den "Top Dog" des Lineups mit so wenig Verbrauch in den Markt wirft. Schwach finde ich die "IPC" Verbesserungen, wenn sie denn stimmen.
Es gibt doch bei GPUs seit Jahren schon praktisch kaum mehr "IPC" Verbesserungen. Anscheinend macht es bei GPUs mehr Sinn einfach mehr günstige Einheiten draufzuschmeißen, als die Auslastung zu erhöhen.
reaperrr
2024-04-08, 18:48:36
Mythos;13521787']215W sind doch überhaupt nicht gesetzt und ich bezweifle dass AMD den "Top Dog" des Lineups mit so wenig Verbrauch in den Markt wirft.
Das ist eher der N33-Nachfolger des ursprünglichen RDNA4-LineUps als der N32-Nachfolger, was erwartest du?
215W von ~240mm² wegzukühlen ist wegen der geringen Fläche selbst für fette Kühler ne Herausforderung.
Mythos;13521787']Schwach finde ich die "IPC" Verbesserungen, wenn sie denn stimmen.
Mal abgesehen davon, dass in dem Twitter-Post explizit "specs and performance prediction" stand:
Das wäre die größte Raster-IPC-Verbesserung seit VegaII -> RDNA1.
Ada hat ggü. Ampere weniger SM-IPC-Verbesserung gebracht, jedenfalls in Raster. Bei Ada kam in Raster fast alles von Takt + SM-Zahl + fettem L2, im Grunde war Ada mehr Ampere+ in 5nm.
+12% Raster-IPC würde bedeuten, man käme mit 64 CUs fast an die IPC einer 6900 XT ran. Dann braucht es nur noch vernünftige Taktraten und ein gutes P/L-Verhältnis.
Schwächer wären die +25% RT-IPC. Aber wie gesagt, der Post sprach von "prediction", nicht davon, Insider-Infos zu haben.
In Raster würde ich eher mit weniger IPC-Zuwachs je CU rechnen.
Da ja offenbar der Top Dog zu der Generation RDNA5 ist, muss das nicht unbedingt sein, dass man diese Karten bis zum Limit prügelt.
Die Generation hat schlicht keinen Top-Dog und RDNA5 wird so oder so erst ~15 Monate später kommen, also wird man N48XT auch so hoch prügeln, wie es von der Abwärme und Perf/W halbwegs vertretbar ist.
OgrEGT
2024-04-08, 18:49:46
Mythos;13521787']215W sind doch überhaupt nicht gesetzt und ich bezweifle dass AMD den "Top Dog" des Lineups mit so wenig Verbrauch in den Markt wirft. Schwach finde ich die "IPC" Verbesserungen, wenn sie denn stimmen.
Eben warum nicht? Wir wissen nicht bis zu welcher TBP das Design skaliert... Da sind noch RDNA3 Gene drin... 215W sind Spekulationen zu einem möglichen Betriebspunkt...
[MK2]Mythos
2024-04-08, 19:01:23
Okay, vielleicht war ich da etwas unpräzise. Ich denke dass AMD gerade bei RT ordentlich aufholen muss. Und da erscheinen mir die Verbesserungen in dem Tweet als zu gering. Mir ist durchaus bekannt dass es keine großen IPC Verbesserungen beim klassischen Rasterizing in den letzten Jahren gab und im Grunde alles über mehr CUs/Taktrate, Upscaling/AI lief. Aber RDNA4 wird nun mal nicht breiter.
Und ich spekuliere mal dass AMD N48 lieber bis zum vertretbaren Ende prügelt (~300+w bzw weniger, je nach diesize) um irgendwie auf RX 7900XTX Performance zu kommen, als Performance liegen zu lassen und dafür nur 215w zu schlucken.
Nightspider
2024-04-08, 19:13:15
Das die schnellste RDNA4 Karte nicht über 7900XT Leistung hinausgeht ist völlig egal.
Wenn diese Karten in wenigen Monaten auf den Markt kommen und in jeder Metrik besser sind als RDNA3 Karten und nicht völlig überteuert sind, dann sind sie die perfekte Kaufempfehlung.
Von Nvidia wird so schnell nichts in diesem Preisbereich kommen.
Und es gibt dann wahrscheinlich auch keine besseren Chips dieser Größenklasse für Laptops für viele Monate, wenn die Effizienz passt.
Und wer mehr Leistung will wird eh auf Blackwell oder RDNA5 warten, die dann im >1500 Euro Segment auf Käufer warten.
Das ist vielleicht das beste was AMD machen konnte um sich Marktanteile zu sichern. Asynchron zu Nvidia zu releasen.
Immer 9-15 Monate nach Nvidia aber wenn es geht mit besserem Fertigungsprozess, falls verfügbar.
Da AMD ja eh weniger Kapazitäten benötigt als Nvidia ist der Punkt sogar einfacher umsetzbar.
fondness
2024-04-08, 19:15:54
Gefühlt lief es in den Generationen, wo AMD kein Top Dog hatte aber lange Zeit aber fast am Besten, oder?
RV770, Polaris und auch Navi10 lief gut. Und auch RV870 und Tahiti (Hawaii kam ja erst viel später.
Naja, RDNA2 war zb auch sehr gut und da gab es einen top dog, auch wenn der kleiner war als der nVidia top dog. Zumal ja ein top dog geplant war, man halt nur kurzfristig aufgrund packaging Engpässe MI300 priorisierte. Nicht umsonst heißt das Ding N48 und nicht N41. Im Endeffekt verschenkt man halt Potenzial wenn man das effizienteste Design hat aber keinen top dog baut. Sowohl RV770 als auch zb cypress oder hawaii hätten Nvidia klar geschlagen, wenn man einen top dog gebaut hätte.
GerryB
2024-04-08, 19:36:15
215W von ~240mm² wegzukühlen ist wegen der geringen Fläche selbst für fette Kühler ne Herausforderung.
TBP ist nicht TGP und TGP kann ala RDNA2=Chip+Vram sein, während TBP dann Wandler+Lüfter etc. includiert.
TGP ist i.d.R. ca. 40W niedriger als TBP.
abzgl. Vram, der auch nicht auf dem Chip gekühlt werden muss, isses gar nicht soviel was auf den 240mm² an Wärme abgeführt werden muss. 215-40-20? = 155W
Wenn die Metriken so ähnlich wie bei der GRE sind, dort mal TBP-->TGP zu sehen, siehe Anhang.
btw.
Durch Cache on Die werden außerdem die Latenzen ca. 10% besser und die CachePipeline soll ja auch verbessert worden sein, so das die Bandbreite auch für die Mehrperf. reicht.
eff. Bandbreite wird von AMD immer über den Faktor Trefferquote angegeben, ... ist also nicht für alle Resi´s gleich
vermutlich ist der N48-Wert aus dem Leak für WQHD, wo der Cache gut reicht
Logischerweise ist N44 in WQHD viiiel schwächer, weil der halbe Cache nur für FHD gedacht ist.
(könnte zusätzlich sein, das N44 etwas langsameren/preiswerten Vram bekommt, je nach Erfordernis)
dargo
2024-04-08, 20:23:59
Dafür gibts ja die Chiplet-Variante mit Verzögerung. Die Geduld würd ich dafür aufbringen, denn ich denke das wird sich erheblich mehr lohnen als jetzt ein größerer davon. Ist für dich als RDNA3-Verweigerer natürlich blöd, seh ich ein.
Du meinst mit RDNA5? Ob ich es bis dahin durchhalte weiß ich noch nicht. :D Hängt alles von der Performance, Preis und Wattage bei N48 ab. Und natürlich wie sich zukünftige Games bezüglich GPU-Bedarf entwickeln. N48 würde ich aber eh nur als Übergangslösung betrachten, dafür ist die Mehrleistung von 6800XT kommend einfach zu klein.
basix
2024-04-08, 20:28:46
N48 ist in einigen Bereichen moderner. AV1 Encoding/Decoding, generell schnellere & bessere Video Codecs, evtl. DP 2.0. Dazu noch WMMA (FSR-Next?) und verbessertes RT. Dazu effizienter, was bei dir ja immer ein Optimierungsziel ist ;)
Klar, das ist von der reinen Performance her kein Quantensprung, dürfte aber dennoch gut spürbar sein und dürfte auch kein Vermögen kosten (~550$ MSRP?). Die 6800XT noch gut verscherbeln und mMn würde sich das schon lohnen ;)
GerryB
2024-04-08, 20:40:58
Die 6800xt ist nicht gerade ein grandioser Papiertiger@300W TBP bei den FP32.
Welten schlechter als die geleakten 50TFlops@215W!?
300W/20,74TFlops = 14,5W/TFlop
vs.
215W/50TFlops = 4,3W/TFlop
Natürlich muss auch die Gameengine zu den FP32 passen.
fondness
2024-04-08, 20:41:55
evtl. DP 2.0.
Eventuell? DP2.1 hat schon N31.
dargo
2024-04-08, 20:42:27
Meine 6800XT kennt keine 300W, ergo interessieren mich solche Werte nicht die Bohne. Und TFLOPs von RDNA2 mit TFLOPS von RDNA3 zu vergleichen ist wieder Comedy pur. ;D Sofern RDNA4 TFLOPs mit RDNA3 TFLOPs vergleichbar sind.
aufkrawall
2024-04-08, 20:58:43
Da gibts bei RDNA3 nichts falsch zu bedienen, weil das einzig stabile UV das Abschneiden der Taktkurve ist.
GerryB
2024-04-08, 21:04:55
frag mal Casi im IL-Thread
https://www.igorslab.de/community/threads/amd-radeon-rx-7900-gre-kann-ab-sofort-h%C3%B6her-%C3%BCbertaktet-werden.9561/page-3#post-265041
aufkrawall
2024-04-08, 21:06:27
Was soll ich irgendwen noch fragen, wenn es bei Fortnite selbst bei 2,5Ghz/1,1V im WM bei AV1 ReLive-Capture irgendwann mit einem plötzlichen Reboot aussteigt, mit Standardeinstellung aber nicht?
GerryB
2024-04-08, 21:15:33
Casi würde sagen, Du musst erstmal den idealen Takt finden, der zum UVen geeignet ist.
Ist bei jedem RDNA3 - Modell anders. (k.A. wo der Sweetspot Deiner 7800xt genau liegt)
bei der XTX soll sich wohl maxTakt 2600MHz gut eignen für ein praktisch nutzbares großes Offset
bei 2300MHz kann man den Voltslider ganz nach links ziehen, weil dann eeh nur die Unten abgeschnittene Curve, sprich
minGFX regiert, der Treiber gar nichts mehr macht
Was Du oben gemeint hast.
Ähnliche Messungen ala Casi gibts auch von BigYundol im PCGH-Thread.
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-laberthread.624844/page-196#post-11576372
robbitop
2024-04-08, 23:04:33
Naja, RDNA2 war zb auch sehr gut und da gab es einen top dog, auch wenn der kleiner war als der nVidia top dog. Zumal ja ein top dog geplant war, man halt nur kurzfristig aufgrund packaging Engpässe MI300 priorisierte. Nicht umsonst heißt das Ding N48 und nicht N41. Im Endeffekt verschenkt man halt Potenzial wenn man das effizienteste Design hat aber keinen top dog baut. Sowohl RV770 als auch zb cypress oder hawaii hätten Nvidia klar geschlagen, wenn man einen top dog gebaut hätte.
RDNA2 ist aber auch echt die einzige Generation seit langer langer Zeit wo es auch gut mit Top Dog lief und dieser nicht enttäuschte. Davor das letzte Mal Hawaii vor grob 10 Jahren.
Leonidas
2024-04-09, 04:06:34
Zum anderen kann man einfach keine Zahl für sowas festnageln. Die hit rate ist keine Chipeigenschaft, sondern gemessen für eine bestimmte software. Klar kann man mittels Durchschnitten eine Größenordnung abschätzen, aber wegen der rießigen Schwankungsbreite passt das einfach überhaupt nicht zu chip Eigenschaften wie der CU count.
Korrekt. AMD kann diese Zahl festlegen wie man lustig ist. Gerade deswegen mag AMD diese Angabe.
dargo
2024-04-09, 06:08:05
RDNA2 ist aber auch echt die einzige Generation seit langer langer Zeit wo es auch gut mit Top Dog lief und dieser nicht enttäuschte. Davor das letzte Mal Hawaii vor grob 10 Jahren.
RDNA1 war auch nicht so schlecht. Skaliere den mal auf ca. 350-400mm². Du hast nur keinen Topdog bei RDNA1 gesehen weil schlicht kein Geld dafür da war. Bei der Wattage würde AMD mit einem größeren Die als RX 5700XT aber trotzdem über 2080TI rauskommen. Unter 300W wäre da imho nichts zu machen.
robbitop
2024-04-09, 08:50:16
RDNA1 war auch nicht so schlecht. Skaliere den mal auf ca. 350-400mm². Du hast nur keinen Topdog bei RDNA1 gesehen weil schlicht kein Geld dafür da war. Bei der Wattage würde AMD mit einem größeren Die als RX 5700XT aber trotzdem über 2080TI rauskommen. Unter 300W wäre da imho nichts zu machen.
RDNA1 war auch gut aber da gab es keinen Top Dog.
Was ich meinte ist: es ist nicht schlimm keinen Top Dog zu haben da es in der Vergangenheit auch ohne Top Dog gut liegt und mit Top Dog nicht so oft gut lief und es da eigentlich nur 2x Ausnahmen gab: RDNA2 (6900XT) und GCN3 (290x).
dargo
2024-04-09, 08:54:24
Naja... läuft denn N31 wirklich so schlecht? Nur weil ich den nicht gelungen finde muss der ja nicht schlecht laufen. ;) Zumindest in DE sind die Verkaufszahlen wenn man MF als Anhaltpunkt nimmt jetzt keine Katastrophe. Wie das dann global aussieht steht auf einem anderen Blatt.
Edit:
Nüchtern betrachtet ist N31 jetzt nicht soo schlecht. Mich stört da hauptsächlich nur der zu hohe Durst (rund 60-70W weniger, ohne eigenen Eingriff!, und alles wäre fein) bei der gegebenen Performance und die Unflexibilität weil das Ding so zugenagelt wurde und ich mir keinen besseren Betriebspunkt mit MPT mehr erstellen kann.
robbitop
2024-04-09, 08:57:54
Naja AMD musste N31 offenbar sehr stark im Preis senken. Er verkauft sich gut - die Frage ist, wie rentabel ist N31. Aber du hast schon Recht - N31 scheint im Verkauf auch gut zu laufen, auch wenn er nicht so beeindruckend läuft wie N21 ggü GA102.
BlacKi
2024-04-09, 09:06:52
Nüchtern betrachtet ist N31 jetzt nicht soo schlecht. Mich stört da hauptsächlich nur der zu hohe Durst (rund 60-70W weniger, ohne eigenen Eingriff!, und alles wäre fein) bei der gegebenen Performance und die Unflexibilität weil das Ding so zugenagelt wurde und ich mir keinen besseren Betriebspunkt mit MPT mehr erstellen kann.
kann man schon. kostet halt performance, wo wir wieder zu dem punkt kommen, das n31 schlecht ist, denn eigentlich säuft n31 500-600w, ist nur in einem korsett von 355w.
Was ich meinte ist: es ist nicht schlimm keinen Top Dog zu haben da es in der Vergangenheit auch ohne Top Dog gut liegt und mit Top Dog nicht so oft gut lief und es da eigentlich nur 2x Ausnahmen gab: RDNA2 (6900XT) und GCN3 (290x).
schwierig. stell dir mal vor, nv würde top dogs nicht mehr bringen? wäre dann die 4080 der topd dog? würden dann die preise nicht generell steigen? früher gabs bei nv keine top dogs, bzw nur zeitlich versetzt. das fehlen von den topdogs hat in diesem zeitraum den preisen nicht wirklich gut getan.
dargo
2024-04-09, 09:06:55
@robbitop
Quatsch... da wurde nichts im Preis stark gesenkt. N31 war von Anfang an für 999$ vorgesehen. Bei Newegg fangen die günstigsten RX 7900XTX bei 919$ aktuell an. Wahnsinniger Preisnachlass nach 1,5 Jahren, völlig normale Preisentwicklung. Du hast dich offenbar schon zu sehr von Nvidias Preispolitik anstecken lassen. Den gleichen scheiß hatte damals Intel abgezogen als die den Markt dominierten. Alte Produkte haben praktisch nichts beim Preis nachgelassen als sie langsam EOL gingen.
kann man schon. kostet halt performance...
Ach nee...
Wie oft muss ich mich noch wiederholen, dass ich immer das Ziel verfolge Referenzperformance bei weniger Verbrauch? Stelle dir einfach eine 7900XTX vor die anstatt 355W 280W bei den aktuellen Frequenzen säuft. Darauf will ich hinaus. Das wäre für mich ein gelungenes GPU-Design @RDNA3 und da würden mich die ~950€ auch nicht stören.
BlacKi
2024-04-09, 09:15:28
Ach nee...
Wie oft muss ich mich noch wiederholen, dass ich immer das Ziel verfolge Referenzperformance bei weniger Verbrauch? Stelle dir einfach eine 7900XTX vor die anstatt 355W 280W bei den aktuellen Frequenzen säuft. Darauf will ich hinaus. Das wäre für mich ein gelungenes GPU-Design @RDNA3 und da würden mich die ~950€ auch nicht stören.
auch da würdest du massiv an performance verlieren. denn n31 ist schon im effizienten bereich. deshalb ist n31 nicht besonders gelungen, weil n31 einfach gottlos säuft.
robbitop
2024-04-09, 09:17:09
schwierig. stell dir mal vor, nv würde top dogs nicht mehr bringen? wäre dann die 4080 der topd dog? würden dann die preise nicht generell steigen? früher gabs bei nv keine top dogs, bzw nur zeitlich versetzt. das fehlen von den topdogs hat in diesem zeitraum den preisen nicht wirklich gut getan.
Ich meinte das auf AMD bezogen - nicht auf NV.
dargo
2024-04-09, 09:18:43
auch da würdest du massiv an performance verlieren. denn n31 ist schon im effizienten bereich. deshalb ist n31 nicht besonders gelungen, weil n31 einfach gottlos säuft.
Meine Güte, hast du wieder ein Brett vorm Kopf? Stelle dir einen N31 vor der etwas weiter oben (ca. 80-100mV) in der V/F-Kurve arbeitet und trotzdem bei ~280W rauskommt. Wie das funktioniert siehst du bei N21. :rolleyes:
BlacKi
2024-04-09, 09:21:16
Ich meinte das auf AMD bezogen - nicht auf NV.in einer welt ohne nv:biggrin:
IMHO kann man das nichtgetrennt betrachten.
Meine Güte, hast du wieder ein Brett vorm Kopf? Stelle dir einen N31 vor der etwas weiter oben (ca. 80-100mV) in der V/F-Kurve arbeitet und trotzdem bei ~280W rauskommt. Wie das funktioniert siehst du bei N21.
? versteh ich nicht. oder doch? du sagst, er soll höher takten und dabei weniger verbrauchen. ja, n31, rdna3 ist nicht gut gelungen.
n21 ist von der n31 perspektive kein top dog. er ist der vorgänger von n32. und jetzt kannst du sehen, wie "gut" rdna3 wirklich performt. selbe performance, minimal gerinerer verbrauch. rdna2 vs rdna3 in a nutshell.
robbitop
2024-04-09, 09:23:25
in einer welt ohne nv:biggrin:
IMHO kann man das nichtgetrennt betrachten.
Klaro. Das gab es in der Praxis viele Generationen. RV670, RV770, RV870, Tahitii, Polaris (480, 580 und 590), und Navi10.
BlacKi
2024-04-09, 09:31:50
Klaro. Das gab es in der Praxis viele Generationen. RV670, RV770, RV870, Tahitii, Polaris (480, 580 und 590), und Navi10.nö. amd hatte vl keien top dogs, aber dafür hat nv immer wieder die grenzen verschoben und damit auf das preisniveau druck ausgeübt. stell dir das ohne 980ti, ohne 1080ti und ohne 2080ti vor. die 2080ti war schon ein vorgeschmack dafür, das eine welt ohne top dogs ziemlich pricy wäre.
dargo
2024-04-09, 09:33:29
? versteh ich nicht. oder doch? du sagst, er soll höher takten und dabei weniger verbrauchen.
Was ist daran jetzt so schwer zu verstehen? Oder liegt es daran, dass du die V/F-Kurve von N21 nicht kennst? Schau dir beide an dann weißt du auch wovon ich spreche.
Redneck
2024-04-09, 10:24:10
also ich sehe das nicht, das N31 weitergeführt wird neben N48.. macht für mich 0 Sinn.. auch wenn 5080/5090 in einer preislich und performancetechnisch anderen Liga spielen und 5060/70 erst nächstes Jahr kommen gibt es für N31 einfach keine Daseinsberechtigung, sobald N48 auf dem Markt ist (wo sollte AMD N31 denn preistechnisch einsortieren, damit das paßt ? unter N31 ?.. never)
BlacKi
2024-04-09, 10:36:36
also ich sehe das nicht, das N31 weitergeführt wird neben N48.. macht für mich 0 Sinn.. auch wenn 5080/5090 in einer preislich und performancetechnisch anderen Liga spielen und 5060/70 erst nächstes Jahr kommen gibt es für N31 einfach keine Daseinsberechtigung, sobald N48 auf dem Markt ist (wo sollte AMD N31 denn preistechnisch einsortieren, damit das paßt ? unter N31 ?.. never)nur weil die margen bei n48 hoch sind muss zumindest die xtx nicht zwangsläufig gehen. erstens bietet die xtx doch mehr leistung und nebenbei mehr vram. wenn man es also schafft eine salvage karte für 700€ zu verkaufen und dabei gewinn zu machen, dann auch einen full chip für denselben preis. n48 löst doch nur die n31 salvage karten ab.
robbitop
2024-04-09, 10:37:04
N31 wird sicherlich ein ähnliches Schicksal ereignen wie Fijii nach dem Polaris Launch oder Vega 20 nach dem Navi 10 Launch. Beide waren jeweils etwas schneller beim Launch, wurden aber dann eingestellt und es dauerte nicht so extrem lange dass der neuere Chip dem alten Top Dog die Rücklichter gezeigt hat. (modernere Spiele und sicherlich auch weniger Optimierung für den alten Chip als den neuen in neuen Spielen)
Redneck
2024-04-09, 10:41:31
nur weil die margen bei n48 hoch sind muss zumindest die xtx nicht zwangsläufig gehen. erstens bietet die xtx doch mehr leistung und nebenbei mehr vram. wenn man es also schafft eine salvage karte für 700€ zu verkaufen und dabei gewinn zu machen, dann auch einen full chip für denselben preis. n48 löst doch nur die n31 salvage karten ab.
gehen wir mal von den Gerüchten aus :
N48 soll in Raster zwischen XT und XTX liegen
N48 wird in Raytracing sehr viel schneller sein als XT und XTX
N48 spekulierter Pricepoint liegt zwischen $399 - $599.
Wo bitte willst Du da N31 platzieren mit einer insgesamt schlechteren Performance , wenn N48 im Mittel bei $499 liegt ??
die 5-10% mehr in Raster retten doch eine XTX nicht, selbst wenn diese nur noch 699 kosten würde.
Da nimmt man doch lieber die N48 mit zum günstigen Preis und nutzt die bis nächstes Jahr RDNA5 kommt.
dargo
2024-04-09, 10:57:30
gehen wir mal von den Gerüchten aus :
N48 soll in Raster zwischen XT und XTX liegen
N48 wird in Raytracing sehr viel schneller sein als XT und XTX
N48 spekulierter Pricepoint liegt zwischen $399 - $599.
Wo bitte willst Du da N31 platzieren mit einer insgesamt schlechteren Performance , wenn N48 im Mittel bei $499 liegt ??
die 5-10% mehr in Raster retten doch eine XTX nicht, selbst wenn diese nur noch 699 kosten würde.
Lass den spekulierten Preis erstmal bei Seite. Wenn der erste Punkt eintrifft (RT lasse ich erstmal außen vor, ist mir noch zu viel Spekulatius) wäre AMD ganz schön blöd wenn N31 eingestellt wird und N48 für zu wenig Geld verkauft wird. Schlauer ist es N48 höherpreisiger erstmal zu platzieren um höhere Margen mitzunehmen bis NV mit Blackwell in diesem Segment antanzt. Erst dann macht es Sinn N31 EOL zu schicken. Je nachdem wie Blackwell vs. N48 rauskommt kann AMD dann den Preis immer noch senken. Mit sofort einem zu tiefen Preis bei RDNA4 machst du dir das gesamte Portfolio bei RDNA3 kaputt.
btw.
399$ ist doch völlig an der Realität vorbei imo wenn du aktuell für vergleichbare Performance ca. 850€ bezahlen musst. Ca. die Mitte zwischen 7900XT und XTX.
fondness
2024-04-09, 10:59:29
RDNA2 ist aber auch echt die einzige Generation seit langer langer Zeit wo es auch gut mit Top Dog lief und dieser nicht enttäuschte. Davor das letzte Mal Hawaii vor grob 10 Jahren.
Naja, was ja schlicht daran lag, dass es meist keinen Top-Dog gab. Erst ab RDNA2 hat AMD wieder damit angefangen. Zumal Hawaii im Vergleich kein Top-Dog war, der NV-Top-Dog war ~50% größer. Aber gut, die Definition ist sowieso bestenfalls schwammig.
fondness
2024-04-09, 11:03:42
nö. amd hatte vl keien top dogs, aber dafür hat nv immer wieder die grenzen verschoben und damit auf das preisniveau druck ausgeübt. stell dir das ohne 980ti, ohne 1080ti und ohne 2080ti vor. die 2080ti war schon ein vorgeschmack dafür, das eine welt ohne top dogs ziemlich pricy wäre.
Genau das ist der Punkt. Hat man ja auch bei RV770 den ich vorher als Beispiel gebracht habe gesehen. NV hat dann einfach einen doppelt so großen Chip dagegen gestellt. Wenn man keinen Topdog bringt hat man immer das Problem, das der Konkurrent zu jedem Zeitpunkt kontern kann, egal wie gut der Chip auch sein mag.
robbitop
2024-04-09, 11:12:31
Naja, was ja schlicht daran lag, dass es meist keinen Top-Dog gab. Erst ab RDNA2 hat AMD wieder damit angefangen. Zumal Hawaii im Vergleich kein Top-Dog war, der NV-Top-Dog war ~50% größer. Aber gut, die Definition ist sowieso bestenfalls schwammig.
Hawaii (6,2 Mrd Tr) war der Gegenspieler zu GK110 (7 Mrd Tr). Das sind immerhin 88% der Transistoren. Das ist schon grob vergleichbar. Und IIRC war Hawaii nicht langsamer.
fondness
2024-04-09, 11:19:51
Hawaii (6,2 Mrd Tr) war der Gegenspieler zu GK110 (7 Mrd Tr). Das sind immerhin 88% der Transistoren. Das ist schon grob vergleichbar. Und IIRC war Hawaii nicht langsamer.
Ja, wie gesagt darüber könnte man ewig diskutieren. Ist die Frage wie man einen Topdog definiert. Ich hätte jetzt mal angesetzt >500mm² Die-Size, zumindest hatten NV-Topdogs immer >500mm². Dann war der letzte Topdog von AMD vor N21 AFAIK Fiji von 2015(!). Das Hawaii schnell war ist IMO kein Argument für einen Topdog, ganz im Gegenteil, das ist schlicht verschenktes Potential wenn man dann keinen >500mm² Chip baut.
dargo
2024-04-09, 11:41:35
Das Hawaii schnell war ist IMO kein Argument für einen Topdog, ganz im Gegenteil, das ist schlicht verschenktes Potential wenn man dann keinen >500mm² Chip baut.
Naja... so einseitig würde ich das jetzt auch nicht sehen. Hawaii hatte zwar "nur" 438mm², für diese Größe hat der aber auch schon recht viel gesoffen (~250W) für damalige Verhältnisse. Ein Hawaii mit >500mm² und dann ~320-350W würde jetzt auch nicht unbedingt super ankommen.
maximus_hertus
2024-04-09, 11:44:39
Es wird sicherlich auch davon abhängen, wie viele N31 noch auf Lager liegen.
Das kann man natürlich mit Abverkaufsaktionen vor RDNA4 Launch lösen oder aber ähnlich wie bei RDNA2 einfach beide Generationen parallel laufen lassen (bei entsprechenden Rabatten der alten Gen).
Beispiel:
7900 XTX, 24GB, Rasterkönig (bei AMD): 799 USD
8800 XT, 16GB, Top RDNA4 Karte: 699 USD
7900 XT, 20GB, Raster 8800XT Niveau: 599 USD
7800 XT: 16GB: 479 USD
8700 XT: 12GB, 75% vom Top RDNA4: 449 USD
7700 XT: 12GB: 379 USD
8600: 8GB, Navi 48: 299 USD
7600: 8GB: 229-249 USD
Fertig ist das gemeinsame RDNA 3 + 4 Portfolio.
Sobald N31 + N32 abverkauft sind bzw. Blackwell raus ist, könnte man irgendwann 2025 dann so antreten:
8800 XT, 16 GB, 599 USD
8800, 16GB Salvage, 499 USD
8700 XT, 12GB Salvage, 399 USD (falls es keine Vanilla 8800 gibt, dann eher bei 449 USD)
8600 XT, 16GB, 329 USD (falls es keine Vanilla 8800 gibt, dann eher bei 349 USD)
8600, 8GB, 249 USD (falls es keine Vanilla 8800 gibt, dann eher bei 279 USD)
7600, 8GB, 199 USD (falls es keine Vanilla 8800 gibt, dann eher bei 229 USD)
Je nachdem, wann RDNA5 anstehen würde, könnte man Mitte 2025 auch schon die RX 9000 Gen einläuten und oben Platz für RDNA 5 lassen, z.B.
9900 (XT/XTX): später, RDNA5 (Preisrahmen = 799 - 999+ USD)
9800 (XT, XTX): später, RDNA5 (499 - 799 USD)
9700 (XT, XTX): N48 (349 - 499 USD)
9600 (XT): N44 (249 - 349 USD)
9500 (XT): N33 (199 - 249 USD)
dargo
2024-04-09, 12:05:02
Es wird sicherlich auch davon abhängen, wie viele N31 noch auf Lager liegen.
Das kann man natürlich mit Abverkaufsaktionen vor RDNA4 Launch lösen oder aber ähnlich wie bei RDNA2 einfach beide Generationen parallel laufen lassen (bei entsprechenden Rabatten der alten Gen).
Beispiel:
7900 XTX, 24GB, Rasterkönig (bei AMD): 799 USD
8800 XT, 16GB, Top RDNA4 Karte: 699 USD
7900 XT, 20GB, Raster 8800XT Niveau: 599 USD
7800 XT: 16GB: 479 USD
8700 XT: 12GB, 75% vom Top RDNA4: 449 USD
7700 XT: 12GB: 379 USD
8600: 8GB, Navi 48: 299 USD
7600: 8GB: 229-249 USD
Fertig ist das gemeinsame RDNA 3 + 4 Portfolio.
Fände ich gar nicht mal so abwegig. Und selbst wenn das mit dem Namensschema erstmal etwas komisch aussieht 8800XT vor 7900XT passt es nüchtern betrachtet solange ganz vorne eine höhere Zahl steht.
PS: nur die 8700XT sehe ich nicht da wo du sie siehst. Das wird sicherlich der Salvage von N48 und der wird über einer 7800XT rauskommen für zb. 549$ wenn die 699$ für die volle SKU so kommen sollten.
Der_Korken
2024-04-09, 12:07:32
Hawaii (6,2 Mrd Tr) war der Gegenspieler zu GK110 (7 Mrd Tr). Das sind immerhin 88% der Transistoren. Das ist schon grob vergleichbar. Und IIRC war Hawaii nicht langsamer.
+1
Selbst Tahiti ist für mich ein Topdog gewesen. Er war zwischenzeitlich der größte und schnellste Chip am Markt, wurde zu Highend-Preisen verkauft und kam über ein Jahr vor der ersten Titan aka GK110 raus, welcher zudem eine neue Preiskategorie oberhalb von "Highend" aufgemacht hatte.
Ich würde AMD im Highend-Bereich nicht so schwarz malen. Wäre RDNA3 mit durchgehend 15% mehr Takt bei gleichem Verbrauch rausgekommen, hätten wir diese Diskussion gar nicht und würden RDNA4 als den Ausreißer ansehen, weil AMD kurzfristig ihre Chiplet-Strategie ändern musste und spontan keinen Big Chip mehr aufgesetzt bekommen hat.
Redneck
2024-04-09, 12:49:38
+1
Ich würde AMD im Highend-Bereich nicht so schwarz malen. Wäre RDNA3 mit durchgehend 15% mehr Takt bei gleichem Verbrauch rausgekommen, hätten wir diese Diskussion gar nicht und würden RDNA4 als den Ausreißer ansehen, weil AMD kurzfristig ihre Chiplet-Strategie ändern musste und spontan keinen Big Chip mehr aufgesetzt bekommen hat.
ich fände die Idee eines doppelten N48 immer noch sexy und nicht abwegig, sofern sie das technisch hinbekämen.
Nakai
2024-04-09, 13:07:30
ich fände die Idee eines doppelten N48 immer noch sexy und nicht abwegig, sofern sie das technisch hinbekämen.
Sehe ich auch derzeit als das favourisierte MCM Verfahren an. Die GPU in der Mitte auseinander zuschneiden und dann irgendwie zu skalieren sehr ich nicht als richtig vorteilhaft an. Jedenfalls jetzt noch nicht.
The_Invisible
2024-04-09, 14:29:34
Beispiel:
7900 XTX, 24GB, Rasterkönig (bei AMD): 799 USD
8800 XT, 16GB, Top RDNA4 Karte: 699 USD
7900 XT, 20GB, Raster 8800XT Niveau: 599 USD
Also ich würde keine alte Gen für mehr Geld kaufen wollen, genauso wie ich jetzt kein RDNA2/Ampere mehr kaufen würde weil einfach Features fehlen. Da sich anscheinend gerade in RT/AI viel tut würde das umso mehr gelten, zudem wäre eine x800er Karte für 700 auch ein schöner Preisbump...
Der_Korken
2024-04-09, 14:40:19
ich fände die Idee eines doppelten N48 immer noch sexy und nicht abwegig, sofern sie das technisch hinbekämen.
Meinst du einen Chip mit doppelt so viel Specs oder einen Verbund aus zwei N48-Chips? Letzteres halte ich für quasi ausgeschlossen, da AMD mit RDNA3 gerade erst das GCD-MCD-Setup eingeführt hat und für RDNA4 laut Gerüchten eine gestapelte Version mit GCD-Chiplets auf großen MCD-Base-Dies geplant hatte. Da werden sie wohl kaum mit einer nochmals anderen Variante ankommen, zumal sie ja offenbar bewusst eine monolithische Zwischen-Gen einschieben.
Sehe ich auch derzeit als das favourisierte MCM Verfahren an. Die GPU in der Mitte auseinander zuschneiden und dann irgendwie zu skalieren sehr ich nicht als richtig vorteilhaft an. Jedenfalls jetzt noch nicht.
Eigentlich ist doch gerade die Verwendung von zwei identischen Chips ein Durchschneiden in der Mitte. Der IF$ von jedem N48 kommt auf ca. 3 TB/s an Bandbreite, d.h. um beide IF-Caches zu einem zu verbinden, müsstest du annährend so viel Bandbreite über ein externes Interface schaufeln. Mit Fanout nicht unmöglich, aber auch sehr aufwändig und die PHYs dafür werden ordentlich Platz brauchen. Zudem müssen nicht nur VRAM-Zugriffe zwischen den Chips und ausgetauscht werden, sondern auch die gesamte Kommunikation zwischen SEs und dem CP.
dargo
2024-04-09, 14:56:26
Also ich würde keine alte Gen für mehr Geld kaufen wollen, genauso wie ich jetzt kein RDNA2/Ampere mehr kaufen würde weil einfach Features fehlen.
Es interessiert keinen was du dir kaufen würdest, der Markt da draußen entscheidet das.
Hatstick
2024-04-09, 15:07:58
Die Situation für den Gamer hat sich seid der aktuellen Gen auch geändert.
In Zukunft werden bei Release einer neuen Gen die alte Gen IMMER interessant bleiben, alleine aus Kostengründen und das eine ganze Zeit lang.
Da ist nicht schön aber auf der anderen Seite auch nicht so, das jetzt keiner mehr in guter Qualität zocken kann.
Und das wird auch so von den Herstellern gewollt sein.
Mehr Marge pro Karte, weniger Karten werden verkauft und leere Lager halte ich oftmals für ein Gerücht.
So bekommt man den alten Kram auch noch an die Leute mit Preisanpassungen und die Marge bleibt vom Verhältnis zu "alter" Hardware immer noch sehr solide.
Redneck
2024-04-09, 15:33:45
Es interessiert keinen was du dir kaufen würdest, der Markt da draußen entscheidet das.
Wir sind aber auch Teil des Marktes Dargo und jeder darf eine Meinung haben, es sei denn man lebt in RU :-)
Redneck
2024-04-09, 15:39:00
Meinst du einen Chip mit doppelt so viel Specs oder einen Verbund aus zwei N48-Chips? Letzteres halte ich für quasi ausgeschlossen, da AMD mit RDNA3 gerade erst das GCD-MCD-Setup eingeführt hat und für RDNA4 laut Gerüchten eine gestapelte Version mit GCD-Chiplets auf großen MCD-Base-Dies geplant hatte. Da werden sie wohl kaum mit einer nochmals anderen Variante ankommen, zumal sie ja offenbar bewusst eine monolithische Zwischen-Gen einschieben.
doppelte specs... wenn die Speku über die Größe von N48 stimmen, dürfte
ein doppelter N48 nicht gigantisch groß werden als Mono Chip und in meiner laienhaften Vorstellung wäre der Aufwand sowas zu kreieren auch nicht übermäßig. Geschenkt bekommt das niemand, aber man hätte nen echten Top Dog... die 5090 soll "auch nur" ein doppelter 5080 sein, korrekt ?
Der_Korken
2024-04-09, 15:48:53
doppelte specs... wenn die Speku über die Größe von N48 stimmen, dürfte
ein doppelter N48 nicht gigantisch groß werden als Mono Chip und in meiner laienhaften Vorstellung wäre der Aufwand sowas zu kreieren auch nicht übermäßig. Geschenkt bekommt das niemand, aber man hätte nen echten Top Dog... die 5090 soll "auch nur" ein doppelter 5080 sein, korrekt ?
Theoretisch möglich wäre ein 128-CU-Chip auf dieser Basis, aber da es dazu bis heute keinerlei Gerüchte gibt, wird er wohl auch nicht kommen. Bei RV770, Polaris und N10 hatte man ähnliches gedacht/gehofft, aber letztlich ist es beim kleinen Chip geblieben. N48 wird einfach eine Notlösung sein, in die man nicht zu viel investieren wollte (in Form einer größeren Version), da RDNA5 auch schon längst in der Pipeline ist.
maximus_hertus
2024-04-09, 15:54:10
PS: nur die 8700XT sehe ich nicht da wo du sie siehst. Das wird sicherlich der Salvage von N48 und der wird über einer 7800XT rauskommen für zb. 549$ wenn die 699$ für die volle SKU so kommen sollten.
Mein Gedanke war, dass AMD noch viele N32 hat und diese noch los werden will.
Daher für dieses Xmas Geschäft 2 Karten für den quasi gleichen PReisbereich (450-500 USD) -> entweder man nimmt 16GB und dafür nur RDNA3 (7800 XT) oder 12GB und dafür RDNA4 (8700 XT). So könnte man sicherlich noch einige 7800er los werden.
Deine Variante ist sicherlich auch eine gute Alternative.
Dann könnte es imo grob so ausgehen:
8700 XT (mit aber weiterhin 16 GB) für 499-549 USD
7800 XT 16 GB Abverkauf für 399-449 USD
7700 XT 12 GB Abverkauf für 339-359 USD
dargo
2024-04-09, 18:45:51
Wir sind aber auch Teil des Marktes Dargo und jeder darf eine Meinung haben, es sei denn man lebt in RU :-)
Natürlich darf jeder eine Meinung haben. Aber was genau sollen diese Bemerkungen einzelner Personen bewirken ich kaufe das nicht oder dies nicht? Das ist global gesehen ein Fliegenschiss.
Leonidas
2024-04-10, 03:05:40
Mein Gedanke war, dass AMD noch viele N32 hat und diese noch los werden will.
N32 dürfte vorerst in die Mitte zwischen N44 und N48 gehen. Daran dürfte man die Release-Abfolge anpassen. Sprich: U.u. gibt es eine 8700XT erst später, wenn N32 sich dann abverkauft hat. AMD arbeitet eigentlich immer mit diesem fliessendem Übergang.
dargo
2024-04-10, 06:02:25
Mein Gedanke war, dass AMD noch viele N32 hat und diese noch los werden will.
Also ich sehe das ähnlich wie Leo. Den Salvage N48 könnte AMD durchaus etwas zurück halten und ca. 3-6 Monate nach dem vollen N48 releasen. Ich meine der Yield wird jetzt bei 240-270mm² nicht katastrophal sein, dass sofort viel Ausschuss anfällt.
vinacis_vivids
2024-04-10, 07:44:39
Von N31 gibt es mind. 5 Varianten:
N31 XTX - 96CU - RX 7900XTX / W7900
N31 XT - 84CU - RX 7900XT
N31 XL - 80CU - RX 7900GRE
N31 XL - 72CU - RX 7900m
N31 XL - 70CU - W7800
Bei N48 könnte es je nach Takt auch einige Varianten geben. Vermutlich wird N48-12GB-16GB die 8GB-Ära seit der R9 390X von 2015, also knapp 10 Jahre nach Hawaii beenden können.
N48 könnte je nach Takt alle N31XT / XL Derivate gleichwertig ersetzen. Für die 7900XTX wird's es nicht reichen bei Grenznutzung von >16GB VRAM. Bei manchen Speicherintensiven Anwendungen wie KI (fp32, fp16) wird die 7900XTX mit dem 384bit SI, 96MB IF$ generell vorne bleiben.
Bei reinem int8-Code für inferencing läge N48 "full" sicher vor N31XTX Aufgrund der uArch Änderung mit 2048 Flop / Clock / CU bei int8.
Da der Game-Code zurzeit auf fp32 (CP2077 NV fp32 RT-Shading, AW2 NV fp32 RT-Shading), fp32/fp16/int8 (Avatar FSR3-RT-FG Code), oder Immortals of Aveum FSR3-FG-UE5 Code (fp32/fp16).
Ich erwarte mind. 3 Varianten des N48
N48 XTX - 64CU
N48 XT - 60CU
N48 XL - 56CU
amdfanuwe
2024-04-10, 07:50:24
Ich meine der Yield wird jetzt bei 240-270mm² nicht katastrophal sein, dass sofort viel Ausschuss anfällt.
Hat doch damit nichts zu tun. Kommt darauf an, welchen Takt und Verbrauch AMD für das Top SKU festlegt. Wenn das nur 40% der Chips erfüllen, sind 60% "Ausschuss" die in Salvage SKUs verbaut werden.
dargo
2024-04-10, 08:08:31
Hat doch damit nichts zu tun. Kommt darauf an, welchen Takt und Verbrauch AMD für das Top SKU festlegt.
Ist nur zum Teil richtig... Salvages werden nicht nur nach Frequenzen sortiert sondern auch nach kaputten WGPs.
amdfanuwe
2024-04-10, 08:13:57
Ich erwarte mind. 3 Varianten des N48
N48 XTX - 64CU
N48 XT - 60CU
N48 XL - 56CU
Müssen nicht immer 1 WGP = 2 CU pro SE abgeschaltet werden?
Ergäbe dann:
N48 XTX - 64CU (4SE * 8WGP *2CU)
N48 XT - 56CU (4SE * 7WGP *2CU)
N48 XL - 48CU (4SE * 6WGP *2CU)
Möglich erscheinen mir noch durch abschalten einer SE:
n48 XL - 48CU (3SE * 8WGP *2CU) 256/192Bit SI
n48 XL - 42CU (3SE * 7WGP *2CU) 256/192Bit SI
Mal sehen, was davon im Desktop landet. Durch entsprechende Preisgestaltung wird dann die Nachfrage gesteuert.
amdfanuwe
2024-04-10, 08:15:53
Ist nur zum Teil richtig... Salvages werden nicht nur nach Frequenzen sortiert sondern auch nach kaputten WGPs.
Hab ich ja nicht ausgeschlossen. Dagegen las sich deine Aussage als würden Salvages nur aus Chips mit defekten WGPs gebildet.
reaperrr
2024-04-10, 08:53:35
Hat doch damit nichts zu tun. Kommt darauf an, welchen Takt und Verbrauch AMD für das Top SKU festlegt. Wenn das nur 40% der Chips erfüllen, sind 60% "Ausschuss" die in Salvage SKUs verbaut werden.
Dann halten sie halt die 60% erstmal zurück.
Aber, so wie sich AMD hinsichtlich Specs die letzten Jahre verhalten hat:
Der Ausschuss hinsichtlich WGPs wird bei der Chipgröße definitiv keine 60% betragen und was Takt/Spannung angeht, geben sie dem Top-Chip eher "kleinster gemeinsamer Nenner"-Specs, damit möglichst viele Chips diese Spec problemlos schaffen, notfalls mit Gewalt (Spannung/TDP).
Dass AMD N48XT so aggressiv binnt, dass weniger als 60-70% aller N48 das packen, glaub ich den ganzen Tag nicht. Die verkaufen lieber so viele N48 wie möglich als das teurere Modell, selbst wenn sie dafür ein paar % Leistung und Perf/W opfern müssen.
Ich erwarte mind. 3 Varianten des N48
N48 XTX - 64CU
N48 XT - 60CU
N48 XL - 56CU
Ich erwarte, dass N48 sich wie N21 nur in 8-CU-Schritten deaktivieren lässt und es auf CU-Seite entweder nur 64 und 56, oder eventuell noch eine 48CU-Variante geben wird.
So stell ich mir das RDNA4-LineUp ohne Rest-RDNA3 vor:
Mit 48CU-Variante:
549$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
499$ -> 8800 - 56 CUs, 64 MB IF$, 256 bit, 16 GB 18 Gbps VRAM
429$ -> 8700 (XT) - 48 CUs, 48 MB IF$, 192 bit, 12 GB 18 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
Ohne 48CU-Variante:
519$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
449$ -> 8700 XT - 56 CUs, 48 MB IF$, 192 bit, 12 GB 21 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
Darunter eventuell noch N33-28CU-8GB als 8500 XT, wobei ich mir angesichts der geringen N44-Chipgröße vorstellen könnte, dass N33 nur noch weiterläuft, wenn es für N44 nicht genug Wafer gibt (wenn die N4x bei Samsung produziert werden, sollte das aber kein Problem sein).
Das Ding ist kleiner als N22, da wirds nur eine Salvagestufe geben. Ich würd da nicht so große Lineups erwarten. Gelauncht wird mMn erst mal nur die 8800XT, das wars. Irgendwann folgt dann die 8600 nach.
mboeller
2024-04-11, 20:33:29
Bondrewd behauptet im Beyond3D Forum jetzt schon zum 5. Mal, dass RDNA4 in 8 Wochen kommt... also zumindest vorgestellt wird (meine Interpretation).
RDNA4 kommt also schon zur Computex bzw. kurz danach auf den Markt. SEHR viel früher also von mir erwartet. Mal sehen ob er nicht nur rum-spinnt.
reaperrr
2024-04-11, 20:52:05
Bondrewd behauptet im Beyond3D Forum jetzt schon zum 5. Mal, dass RDNA4 in 8 Wochen kommt... also zumindest vorgestellt wird (meine Interpretation).
RDNA4 kommt also schon zur Computex bzw. kurz danach auf den Markt. SEHR viel früher also von mir erwartet. Mal sehen ob er nicht nur rum-spinnt.
Seit seinen RDNA3-"Insider-Infos", insbesondere zu N33, betrachte ich grundsätzlich alles, was von dem kommt, erstmal als Entertainment und bin positiv überrascht, wenn sich dann irgendwas davon als halbwegs richtig herausstellt.
Mal zur Erinnerung:
Laut Bondrewd sollte RDNA3 so um die 3,5 GHz schaffen, N33 sollte ~400mm² groß sein, 64 CUs und fast N21-Leistung haben (trotz 128bit SI, wohlgemerkt), RDNA3 sollte AMD's Maxwell-Moment sein, nach dem N31-Reinfall sollte N32 die Taktprobleme fixen und so hoch takten, dass N32 die 7900 XT fast erreicht, usw.
Und alles davon wird mit einer Vehemenz vertreten, als würde es bereits feststehen, nur um hinterher erstmal ein paar Monate abzutauchen, nachdem es sich als völlig realitätsfremd herausgestellt hat.
Der_Korken
2024-04-11, 20:55:46
Nicht zu vergessen seine Claims, dass Zen 5 im März oder April gelaunched wird, um ein jüngeres Beispiel aufzugreifen.
vinacis_vivids
2024-04-11, 22:27:05
Ich erwarte, dass N48 sich wie N21 nur in 8-CU-Schritten deaktivieren lässt und es auf CU-Seite entweder nur 64 und 56, oder eventuell noch eine 48CU-Variante geben wird.
So stell ich mir das RDNA4-LineUp ohne Rest-RDNA3 vor:
Mit 48CU-Variante:
549$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
499$ -> 8800 - 56 CUs, 64 MB IF$, 256 bit, 16 GB 18 Gbps VRAM
429$ -> 8700 (XT) - 48 CUs, 48 MB IF$, 192 bit, 12 GB 18 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
Ohne 48CU-Variante:
519$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
449$ -> 8700 XT - 56 CUs, 48 MB IF$, 192 bit, 12 GB 21 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
Darunter eventuell noch N33-28CU-8GB als 8500 XT, wobei ich mir angesichts der geringen N44-Chipgröße vorstellen könnte, dass N33 nur noch weiterläuft, wenn es für N44 nicht genug Wafer gibt (wenn die N4x bei Samsung produziert werden, sollte das aber kein Problem sein).
Huang-NV verkauft 379mm² "4N" für >1000 USD und Su-AMD soll bei ähnlicher Leistung von N48 ~ AD103 für 549 USD verkaufen? Also quasi für weniger als die Hälfte ?
Auf welchem Planeten lebst du? Die RDNA4 uArch ist Ada deutlich überlegen bei der Flächeneffizienz.
Ein hypothetischer 2XN48 RDNA4 käme auf 128CU / 512bit SI / 128mb IF$ / 32GB VRAM und würde bei 3,0-3,3Ghz ca. fp16 ~ bis 216 Tflop/s Rechenleistung haben. Das dürfte genügen Rechenleistung und Geschwindigkeit für Dual-UHD@240hz in annehmbarer Qualität auf dem Bildschirm zaubern (ohne fp32 RT-Shading Code von NV-CP2077, NV-AW2). Und das bei "nur" 480-540mm² Siliziumfläche. Also immer noch deutlich kleiner als AD102 ~ 609mm².
So ein Ding würde AMD die GPU-Krone aufsetzen. Leider fehlen die Gerüchte und wahrscheinlich sind durch die Firmenpolitik intern die AMD-PS5-Pro-APUs derzeit in der Fertigungslinie vorne, weil Sony schon bestellt und bezahlt hat.
Was für die 549USD PC-Gaming Politik spricht, ist, dass die Grafikkarten bezahlbar bleiben und in größeren Stückzahlen bei kleiner Größe P10~232mm² 8GB N10~251mm² 8GB. Da müsste Mr. Huang aber mit den Preisen runtergehen. Ist die Frage ob er das machen will oder doch lieber weiter die Mittelklasse ausquetscht.
Zurück zu 16GB:
Von der 7600XT aufwärts hat AMD dann eine ganze Reihe von 16GB+ Karten. Wird Zeit, dass die Developer den VRAM mal richtig ausnutzen mit höherauflösenden Texturen. Der Umstieg von 8GB auf 16GB Mittelklasse (RTX 4080 Super ist Mittelklasse) wird mit RDNA4 beschleunigt, ebenso wie auf der PS5-Pro.
Insofern ist der Einstieg und Verbreitung von RDNA4 doch relativ sicher. (, dass es Käufer gibt unter den 8 Mrd. Köpfen dieser Welt.)
Altehardware
2024-04-11, 23:09:41
Das ist quatsch n33 ist schon rdna3 gefixt da der Takt stabil bei 2,7 ghz ist wo n31 und n32 rumtanzen bei 2,0-2,5ghz da deren powerlimit greift und n33 ist in n6 also zwei nodes schlechter als das was man plant daher ist die aussage von zwischen der 7900gre und 7900xt ziemlich treffsicher
Die chipgröße spielt keine rolle nach meiner recherche dürfte der chip etwa 269mm² groß in samsung sf4x node sein.
zum vergleich ein n32 kostet min 90$ bei 200mm²+100mm² an mcd
Das hat amd bestimmt nicht so geplant daher stimmten die 3,5ghz dass kann die Architektur in tsmc node.
Auf n4x wäre man bei 3,9ghz In n3p auf 5,0ghz aber rdna5 wird komplett anders werden
Da der sf4x node etwa dasselbe kostet wie tsmc n6 etwa 9k$ wird der chip billig 43-63$
gddr6 ist Saubillig zwischen 4-5$ per 16gbit sku ab 300$ umsetzbar und dass ist der n48 Vollausbau
klar wird amd solange das maximum rausholen und die sku's ab 400$ und 500$ anbieten
Während nvidia so gerade mit blackwell gb207 chip (195mm²) mit halten kann.
Und dabei hat nvidia nur 12gb und für diese perf (gb207 +- 25,1tf/31,2tf 12gb 96bit si 28gbps) eine zu geringe Bandbreite von nur 336gb/s vs amd mt 687gb/s
leider wird n44 (176mm²) ein schwieriges Thema ich gehe sogar davon aus das dieser Später kommt als rx7600xt ersatz für 250$
RDNA 3 Abverkauf wird noch aggressiver werden im Sommer.
Ich erwarte, dass N48 sich wie N21 nur in 8-CU-Schritten deaktivieren lässt und es auf CU-Seite entweder nur 64 und 56, oder eventuell noch eine 48CU-Variante geben wird.
So stell ich mir das RDNA4-LineUp ohne Rest-RDNA3 vor:
Mit 48CU-Variante:
549$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
499$ -> 8800 - 56 CUs, 64 MB IF$, 256 bit, 16 GB 18 Gbps VRAM
429$ -> 8700 (XT) - 48 CUs, 48 MB IF$, 192 bit, 12 GB 18 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
Ohne 48CU-Variante:
519$ -> 8800 XT - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
449$ -> 8700 XT - 56 CUs, 48 MB IF$, 192 bit, 12 GB 21 Gbps VRAM
349$ -> 8600 XT - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 18 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
....
24 ganze CUs und 100$ Unterschied zwischen deiner 8600XT und 8700XT Version. Wer soll das denn für die kleine Version zahlen?. Darüber 8 CUS Unterschied und 70$. Nie im Leben.
AMD hat mMn verkackt den N44 nur mit 32 CU zu liefern.
Mit 40 CUs bei N44 und schnelleren Speicher kann man sich Abspeckung auf 48CUs sparen.
reaperrr
2024-04-14, 11:25:41
24 ganze CUs und 100$ Unterschied zwischen deiner 8600XT und 8700XT Version. Wer soll das denn für die kleine Version zahlen?
Vergleiche das mal mit dem Unterschied zwischen 7700 XT und 7600 XT... ;)
Außerdem,
- anders als N33 wird N44 vermutlich keinen Prozessnachteil haben und entweder beim Takt oder Verbrauch verhältnismäßig besser abschneiden als die 7600 XT
- anders als bei N33 wird die uArch vmtl. identisch sein (bezogen auf Register-Größe je CU)
- mehr CUs hätten bei der Speicherbandbreite vermutlich wenig gebracht, weil schon der Mehrtakt und die IPC-Verbesserungen alles an Bandbreitenreserven auffressen und 40 CUs @ weniger Takt zu weniger Frontend- und ROP-Leistung bei größerer Chipfläche geführt hätten, also zusätzliche Transistoren für in Summe kaum Vorteile.
GerryB
2024-04-14, 11:27:47
Ja, ich habe mich bei meiner Liste auf die konzentriert, die nahezu sicher sind. Aber AMD könnte unterhalb der 8800XT eben auch zwei N48-Salvages bringen - 8800 und 8700XT. Nur allein eine 8800 wird es sicherlich kaum geben (deswegen steht die 8700XT in meiner Liste, die Namenswahl ist recht sicher).
Mit 48CU-Variante:
499$ -> 8800 XTX - 64 CUs, 64 MB IF$, 256 bit, 16 GB 21,66 Gbps VRAM
459$ -> 8800 XT - 56 CUs, 64 MB IF$, 256 bit, 16 GB 18 Gbps VRAM
419$ -> 8700 XT - 48 CUs, 48 MB IF$, 256 bit, 16 GB 16 Gbps VRAM (x)
349$ -> 8700 - N44, 32 CUs, 32 MB IF$, 128 bit, 16 GB 21,66 Gbps VRAM
279$ -> 8600 - N44, 28 CUs, 32 MB IF$, 128 bit, 8 GB 18 Gbps VRAM
(x) so eine Salvage Salvage 8700xt könnte ganz zuletzt kommen, ... und ist auch nicht ganz auszuschließen, ... man denke an die Speku´s zur 7600xt, wo auch Sowas im Raum stand
oder an die GRE und 6800(xx)
die kleine 8700nonXT braucht ja nur die 6700nonXT matchen, wäre vom Namen her nicht soo abwegig (würde Der schnellen Vram geben, damit die Bandbreite zu den 16GB passt)
Dieser Chip wird dann sicher seeehr ausgequetscht bzgl. Takt ohne auf die Watt zu schauen, ala 7600xt.
(xx) bzgl. Namensgebung gäbs dann vermutlich wieder Diskussionen zu der 8700XT, weil kleiner Namen@großem Chip, aber es wäre genauso wie bei RDNA2, = nichts Neues
allemal besser als die versuchte Verarsche mit der 4080-12
Warum 8800XTX, why not, man wird deutlich schneller sein als die 7800xt.
Die 8800XT sollte dann aber mindestens so performen wie die 7800xt.
Und die 8700XT muss die 7700XT matchen! ... bei deutlich weniger Watt
(die alte 7700xt ist nach m.E. die derzeit ungünstigste Graka bezgl. Effizienz, da sollte doch Was gehen)
Bezgl. Vramgröße hätte man wieder durchgängig Viiiel zu bieten, wo Intel und NV erstmal ein Marketingproblem haben.
reaperrr
2024-04-14, 12:04:48
48 CUs, 48 MB IF$, 256 bit, 16 GB 18 Gbps VRAM (x)
Da stand erst 192bit, aber ist dir wohl selbst aufgefallen, dass das mit 16GB nicht geht ;)
Generell sind die CUs aber so klein, dass es mehr Chips mit 32-64bit kaputtem SI (oder kaputtem L2/IF$) geben wird als Chips mit mehr als 8 kaputten CUs.
Die Kombi aus 48 CUs und 256 bit wird's meiner Meinung nach nicht geben, entweder generell nur die beiden oberen Varianten, oder noch Variante 3, wo ALLES um 1/4 gestutzt ist, inkl. SI und Speicher, um mit dieser dritten SKU sämtliche Defekt-Kombis abdecken zu können und durch 192bit und 12 GB auch die Board-Kosten zu senken.
Generell versuchen die Hersteller aber, mit so wenig SKUs je GPU wie möglich auszukommen, schon 3 Modelle ist objektiv etwas unwahrscheinlich für einen so kleinen Chip, jedenfalls zum Launch (vielleicht 15 Monate später im Abverkauf vor den Mainstream-RDNA5 als 8700 GRE...).
128 bit, 16 GB 21,66 Gbps VRAM
Offiziell gibt es noch keinen GDDR6 über 20 Gbps, der in Massenproduktion wäre, die 21,66 Gbps von der 8800 XT sind entweder selektierter und übertakteter 20Gbps-Speicher, oder eine Sonderfertigung für AMD.
In jedem Fall wird dieser Speicher a) vermutlich stärker in den verfügbaren Stückzahlen begrenzt, und b) wesentlich teurer für AMD sein als 18 Gbps.
Für die 2-5% mehr Leistung, die das ungefähr bringen würde, wird AMD das extra Geld nicht für ne N44-SKU ausgeben wollen, der kommt außerhalb der 8800 XT maximal vielleicht noch auf einem 12 GB Salvage-N48 zum Einsatz, aber auch da würde ich erstmal nicht drauf wetten.
GerryB
2024-04-14, 12:09:06
Die Kombi aus 48 CUs und 256 bit wird's meiner Meinung nach nicht geben
Als Besitzer einer 6800 nonXT kann ich mir sehr wohl Sowas vorstellen.
6900xt+6800xt+6800, ... alle = 256bit mit 16GB
Natürlich sollte dann der Speicherkontroller ähnlich sparsam arbeiten wie bei RDNA2.(x)
(derzeit bei RDNA3 isses einfach zu umständlich und kostet Watt)
Obs dann wg. der Resteverwertung mal noch ein/zwei 192bit Häschen mit 12GB gibt, who knows.
8800 GRE 56CU
8700 GRE 48CU
(x) mal angenommen ne 8700xt 256bit 16GB 16Gbps würde man ähnlich optimieren können wie meine 6800@MPT
siehe Anhang, ... wäre SOC+Vram sparsam@30Wtgp möglich, ... = kein Zwang auf 192bit zu gehen
(30W tgp sind ungefähr 35W tbp)
die Volts beim Vram hängen an den Timings, da könnte man mit moderaten Timings echt sparen
und der SOC braucht auch nicht sinnlos mit 1200MHz takten, ... die meisten User sind 24/7 bei 1000MHz
(jetzt auf RDNA2 bezogen)
Die Volts für den SOC hängen u.U. außerdem vom fclk (IF-Cache) ab, wo die 6800@1550MHz weniger braucht als die 6900@1940MHz, ... dahingehend kann ne 8700xt auch ne ruhige Kugel schieben, muss nicht so hoch takten wie ne 8800xtx
Bei RDNA4 wird man erstmal 10% weniger Latenz haben als bei der 7800xt und der Cache ist gaaanz anders organisiert.
Das könnte dazu führen, das man weniger Frontend-Takt braucht und dadurch leichter den Shadertakt anheben kann.
... ich bin gespannt
reaperrr
2024-04-14, 13:22:36
Als Besitzer einer 6800 nonXT kann ich mir sehr wohl Sowas vorstellen.
6900xt+6800xt+6800, ... alle = 256bit mit 16GB
N21 ist aber auch 520 mm² groß, und 16GB für ne 419$-Karte heute ist in Hinblick auf Marge schon noch was anderes als bei einer damals 579$-Karte.
Außerdem wäre AMD bei 192bit/12GB für die 6800 gezwungen gewesen, die 6800 preislich und performance-mäßig näher an der 6700 XT zu platzieren. Bei RDNA4 dagegen ist die 192bit-Lücke frei und geradezu prädestiniert für einen N48-Salvage, der sich mittig zwischen N48XT(X) und N44XT platziert.
Für N48 machen 3 16GB-SKUs jedenfalls wenig Sinn, gerade bei kleinen Chips mit relativ guter Yield-Rate willst du als Hersteller, dass möglichst viele die teuerste SKU kaufen, oder eben mindestens die Zweitteuerste.
Da wird unter einem 56CU/16GB nicht noch eine dritte 16GB-Karte kommen, damit kannibalisieren sie in meinem Beispiel bloß die 8600XT (die ne bessere Marge hat) und die 8700XT (die auch ne bessere Marge hat).
Da sind selbst 56CU @ 192bit mit 12GB @ 21,x Gbps für die 8700XT wahrscheinlicher als dieser 48CU-16GB-Teil.
Die 6800 war auch nicht grundlos vom Preis so nah an der 6800XT, obwohl letztere deutlich schneller war. AMD hat der 6800XT bewusst ein besseres P/L gegeben, damit möglichst viele die XT und möglichst wenige die 6800 kaufen, weil sie sowohl an der 6800 XT als auch der 6700 XT mehr verdient haben als an der 6800.
Die 6800 gab's hauptsächlich, um auch Chips mit einer defekten ShaderEngine verkaufen zu können.
N48 ist aber so viel kleiner, dass es entweder schlicht keine SKU mit komplett deaktivierter SE geben wird, oder sie die Karte dann auch so spezifizieren, dass die schnelleren Modelle attraktiver bleiben, und die Leute darunter dann eben die Qual der Wahl haben, entweder auf 4GB RAM (N48-48CU/12GB) oder Rohleistung (N44-32CU/16GB) zu verzichten.
Also nochmal: Entweder, es wird schlicht keine dritte N48-Karte mit 48 CUs geben, oder sie bekommt auch nur 192bit/12GB. Würde ich Geld drauf wetten :smile:
GerryB
2024-04-14, 14:03:01
Rein optisch würde 48CU 12GB auf der Verpackung komisch aussehen vs. N44 16GB.
(auch wenns Sowas mit der 7700xt vs 7600xt gibt)
Würde vom Gefühl her dem Vram-Marketing widersprechen.
Spätere Häschen mit 12GB sind natürlich vorstellbar.
Iscaran
2024-04-14, 15:29:33
Ich will ne GPU mit 150 W und der Leistung einer 7800 XT :-)
GerryB
2024-04-14, 16:44:54
Das ist auf jeden Fall ne sportliche Erwartungshaltung!
ne 8700xt müsste Dafür ggü. der 7700xt 20% zulegen und Das bei 100W weniger als die 7800xt
(z.Vgl., ... ne 5070 müsste dafür 10% ggü. der 4070 zulegen und Das bei 50W weniger, ... Beide@N4?)
20% durch IPC und 100W weniger durch Monolith und 4nm, ... mal schauen
Hatstick
2024-04-14, 17:22:06
Wenn man wirklich Day 1 Besitzer einer RX 6800XT ist, bekommt man vier Jahre später im besten Fall 35% mehr Leistung mit dem RDNA4 Spitzenmodell. (Zu Release 2024)
Da ist quasi nur noch die nächsten nVidia Gen eine Option. Schon irgendwie strange. :freak:
Naja, hoffen wir mal, das AMD 2025 nachlegt.
Ist das eigentlich offiziell bestätigt, das mit RDNA4 "irgendwann später" noch schnellere Karten kommen?
Kann ich mir gar nicht vorstellen, das es dann erst mit RDNA5 oder wie es auch immer heißen mag, erst wirkliche Fortschritte geben wird, wenn wir mal die RDNA2 Spitzenmodelle nehmen als Ausgangspunkt.
aufkrawall
2024-04-14, 18:11:24
Wenn man wirklich Day 1 Besitzer einer RX 6800XT ist, bekommt man vier Jahre später im besten Fall 35% mehr Leistung mit dem RDNA4 Spitzenmodell. (Zu Release 2024)
Ich bezeifle, dass diese Rechnung sonderlich fundiert ist.
Hatstick
2024-04-14, 18:19:32
Gut, lass es 45% Raster sein + natürlich die effizientere Karte bzgl. Stromverbrauch und mehr RT Leistung.
Oder liege ich da komplett falsch?
Linmoum
2024-04-14, 18:22:25
Wenn die Gerüchte mit ~7900XT-Performance stimmen, würde das mit +35% sogar grob zutreffen. Das traue ich aber nicht einmal AMD mehr zu, dass man eine neue Generation bringt, die spürbar langsamer ist als das, was man beim Vorgänger bekommen hat.
Ok, war mit Polaris damals auch der Fall. Den Chip hat man seinerzeit aber für (deutlich) unter 300€ verscherbelt, alleine das wird mit RDNA4 aber ganz sicher nicht passieren.
Exxtreme
2024-04-14, 18:25:07
Wenn die Gerüchte mit ~7900XT-Performance stimmen, würde das mit +35% sogar grob zutreffen. Das traue ich aber nicht einmal AMD mehr zu, dass man eine neue Generation bringt, die spürbar langsamer ist als das, was man beim Vorgänger bekommen hat.
Ok, war mit Polaris damals auch der Fall. Den Chip hat man seinerzeit aber für (deutlich) unter 300€ verscherbelt, alleine das wird mit RDNA4 aber ganz sicher nicht passieren.
Ich könnte mir gut vorstellen, dass das so kommt. Wenn man sich die MF Verkaufsstatistiken so anschaut, haben die Kunden entsprechend mit dem Geldbeutel abgestimmt. Und es wäre dumm von AMD Produkte zu bringen, die fast niemand haben will.
aufkrawall
2024-04-14, 18:26:10
Wenn die Gerüchte mit ~7900XT-Performance stimmen, würde das mit +35% sogar grob zutreffen.
Und wenn die TFLOPS wie für die XTX hinkommen nicht.
The_Invisible
2024-04-14, 18:33:31
Ich will ne GPU mit 150 W und der Leistung einer 7800 XT :-)
Gibt's quasi eh schon mit 4070 super UV
robbitop
2024-04-14, 19:43:54
Naja N48 ist halt kein Topdog. N21 ist ein 540 mm2 big chip. N48 ist mit den angepeilten 240 mm2 eher sowas wie ein Äquivalent zu N23 - also von einer rx6600 aus wäre es ein gutes Upgrade.
Ist ein bisschen als würde man von einer 2080ti auf eine 4060 upgrade und sich wundern, dass das nicht viel bringt. :)
basix
2024-04-14, 20:31:47
Ich will ne GPU mit 150 W und der Leistung einer 7800 XT :-)
Sollte N48 schon schaffen, wenn die Gerüchte stimmen. Wenn man >7900XT landet und das nur 215W benötigt, sollte das sogar relativ leicht gehen.
GerryB
2024-04-14, 21:25:46
215W = TGP ? , oder ca. 253W TBP ist schon ein Unterschied
150W TGP wäre ca. 178W TBP
basix
2024-04-14, 21:57:49
Gerüchte sagen TBP, also 3.05 GHz (50 TFLOPS) bei 215W TBP
Iscaran
2024-04-14, 22:19:00
Sollte N48 schon schaffen, wenn die Gerüchte stimmen.
Das wär nice und dann noch für <<400 € am besten :freak:
Dann gönn ich mir gleich davon. Eine für den Haupt-PC und eine für den Neben-PC :-).
Linmoum
2024-04-14, 22:35:11
Das erinnert rückblickend schon wieder an das N33=N21-Gerücht. Zumal das mit ~ähnlicher Performance bei 90-100W weniger gerade mal Nvidia mit der 4070 geschafft hat vs. 3080 und da ging es von Samsungs... durchschnittlichem 8nm auf TSMC 4N. Alleine von so einem riesigen Fertigungssprung kann AMD bei RDNA4 nur träumen.
bbott
2024-04-14, 22:38:36
Das erinnert rückblickend schon wieder an das N33=N21-Gerücht. Zumal das mit ~ähnlicher Performance bei 90-100W weniger gerade mal Nvidia mit der 4070 geschafft hat vs. 3080 und da ging es von Samsungs... durchschnittlichem 8nm auf TSMC 4N. Alleine von so einem riesigen Fertigungssprung kann AMD bei RDNA4 nur träumen.
Langsam muss aber mal mehr kommen, um NV nicht immer mehr hinterher zu laufen. Und sonst (über-)holt Intel wirklich noch. :freak:
Der_Korken
2024-04-14, 22:50:04
Das erinnert rückblickend schon wieder an das N33=N21-Gerücht. Zumal das mit ~ähnlicher Performance bei 90-100W weniger gerade mal Nvidia mit der 4070 geschafft hat vs. 3080 und da ging es von Samsungs... durchschnittlichem 8nm auf TSMC 4N. Alleine von so einem riesigen Fertigungssprung kann AMD bei RDNA4 nur träumen.
RDNA3 hat Perf/W-technisch unterperformed. Dadurch ist es für mich wahrscheinlicher, dass RDNA4 in Bezug auf RDNA3 eher überperformed und sich damit wieder dem Trend annähert. Einmalige Fehler müssen nicht ewig mitgeschleift werden. Andersrum kann man natürlich auch RDNA2 als einen Ausreißer nach oben betrachten und RDNA3 als dem Trend folgend betrachten.
AMD hat für RDNA3 +50% Perf/W gegenüber RDNA2 prognostiziert. Für RDNA4 gibt es keine Prognosen, aber wir können mal sehr stark davon ausgehen, dass ein planmäßiger RDNA4 diese 50% gegenüber RDNA2 als Minimum bringen wird. Das wäre bspw. 6900XT-Performance (~7900GRE) bei 200W, gegenenfalls sogar bei noch weniger Verbrauch.
[MK2]Mythos
2024-04-14, 22:54:55
Sind die eigentlich immer noch so organisiert dass es zwei Teams gibt, die "parallel" unterschiedliche GPUs entwickeln? Also Team A RDNA1, RDNA3, RDNA5... Und Team B RDNA2, RDNA4, RDNA6...?
GerryB
2024-04-14, 23:16:02
Für RDNA4 gibt es keine Prognosen, aber wir können mal sehr stark davon ausgehen, dass ein planmäßiger RDNA4 diese 50% gegenüber RDNA2 als Minimum bringen wird. Das wäre bspw. 6900XT-Performance (~7900GRE) bei 200W, gegenenfalls sogar bei noch weniger Verbrauch.
idealer wäre N44 vs N33
4nm vs 6nm
Da die 50% zu schaffen wäre nice.
z.Bsp
für N44 statt 150W nur noch 100W, ... N33 hat sozusagen 50% mehr verbraucht
und N44 braucht 1/3 weniger als N33
Die Marketingexperten werdens schon ins richtige Licht rücken.
reaperrr
2024-04-14, 23:41:13
Ist das eigentlich offiziell bestätigt, das mit RDNA4 "irgendwann später" noch schnellere Karten kommen?
Offiziell ist zu RDNA4 gar nichts bestätigt.
Mir wäre - auch was Gerüchte angeht - neu, dass außer N48 noch irgendwas schnelleres kommen soll.
Kann ich mir gar nicht vorstellen, das es dann erst mit RDNA5 oder wie es auch immer heißen mag, erst wirkliche Fortschritte geben wird, wenn wir mal die RDNA2 Spitzenmodelle nehmen als Ausgangspunkt.
Die schnelleren RDNA4-Modelle wären halt Chiplet gewesen, lagen wegen Problemen nicht im Zeitplan (hätten bei normaler Release-Reihenfolge HighEnd -> Performance -> Mainstream also auch die Launches von N48 und N44 künstlich verzögert) und hätten zudem den KI-Chips Kapazitäten weggenommen.
Naja N48 ist halt kein Topdog. N21 ist ein 540 mm2 big chip. N48 ist mit den angepeilten 240 mm2 eher sowas wie ein Äquivalent zu N23 - also von einer rx6600 aus wäre es ein gutes Upgrade.
Ist ein bisschen als würde man von einer 2080ti auf eine 4060 upgrade und sich wundern, dass das nicht viel bringt. :)
Naja, ein wenig mehr als das ist er schon, N48 wird auch zu 6700XT/3060Ti/3070 ein gutes Upgrade sein ;)
Also der 2080Ti zu 4060 Vergleich hinkt schon gewaltig, ne 4060 ist ~20% langsamer als ne 2080Ti und hat nur schlappe 8GB, N48XT wird schneller als ne 6950 XT bei gleicher Speichermenge und mehr Bandbreite.
Scheinbar wird N48 ja in Raster immerhin alles von AMD außer 79XTX - und in RT wohl auch die - schlagen, für einen ~240mm² Monolithen vs 300mm² GCD +6 MCDs in ~2/3 der TBP schon ein harter Fortschritt.
Damit würde man auch Ada in Sachen Perf/W und Perf/mm² regelrecht zersägen, trotz nahezu gleichem Prozess. 256bit und Raster-Leistung nah an 4080 in nur ~2/3 der Fläche und TBP, trotz nur minimalem Prozessvorteil? Im Grunde ziemlich heftig.
Für sich betrachtet wäre das architekturell durchaus beeindruckend, wenn auch leider etwas spät.
Ansonsten ja, nach den bisher bekannten Specs beider nächster Generationen ist N48 bestenfalls GB205-Konkurrent, vermutlich mit ähnlichen Abständen wie N32 zu AD104.
Mythos;13524960']Sind die eigentlich immer noch so organisiert dass es zwei Teams gibt, die "parallel" unterschiedliche GPUs entwickeln? Also Team A RDNA1, RDNA3, RDNA5... Und Team B RDNA2, RDNA4, RDNA6...?
Grundsätzlich ja, wobei die schon Ingenieure zwischen Projekten hin- und her-verschieben. Also hoffen wir mal nicht, dass RDNA5 architekturell der nächste RDNA3 wird ... :freak:
Der_Korken
2024-04-15, 00:05:51
Zwei Teams muss ja nicht bedeuten, dass jede zweite Gen ab jetzt schlecht ist wegen RDNA3. Wenn im Design von RDNA3 Fehler gemacht wurden, hat man die längst analysiert und für die Zukunft korrigiert. Die Teams fangen ja nicht jedes Mal bei Null an.
basix
2024-04-15, 08:16:12
Das wär nice und dann noch für <<400 € am besten :freak:
<< = "Viel" weniger als 400$? :D
Die kleinste N48 Karte könnte dort landen, auch wenn ich eher etwas mehr erwarte. Und auch nur, wenn es 3x SKUs gibt und die kleinste auf 12 GB gestutzt. So als 7700XT Nachfolger. Die 3 SKUs würden dann gegen 4070 Ti Super, 4070 Super und 4070 positioniert werden (also jeweils leicht drüber).
Damit würde man auch Ada in Sachen Perf/W und Perf/mm² regelrecht zersägen, trotz nahezu gleichem Prozess. 256bit und Raster-Leistung nah an 4080 in nur ~2/3 der Fläche und TBP, trotz nur minimalem Prozessvorteil? Im Grunde ziemlich heftig.
Für sich betrachtet wäre das architekturell durchaus beeindruckend, wenn auch leider etwas spät.
Ja, wenn das so kommt empfinde ich das auch als ziemlich beeindruckend.
Ansonsten ja, nach den bisher bekannten Specs beider nächster Generationen ist N48 bestenfalls GB205-Konkurrent, vermutlich mit ähnlichen Abständen wie N32 zu AD104.
Man sollte sich schon gut mit GB205 duellieren können:
- 4NP vs. N4P (:freak:)
- 64 SM vs. 64 CU
- GPU Takt >3.0 GHz bei beiden
- 192bit vs. 256bit --> GDDR6 <-> GDDR7 wird durch breiteres Interface und 64MB anstatt 48MB LLC ausgeglichen
Ich nehme an, Nvidia prügelt zumindest den GB205 "Top Dog" über N48 Niveau. Aber sonst wird es ein spannender Zweikampf, mMn ist man vermutlich näher dran als N32 zu AD104. Bei Performance, Effizienz und Raytracing.
Dieser Bereich bis ca. 600$ ist zudem der wichtigste. Dort macht man mit Abstand am meisten Volumen. Dazu noch die Eignung als Mobile GPU, wo viel grössere GPUs mittlerweile keinen Sinn mehr machen, da die TDP zu hoch würde.
robbitop
2024-04-15, 08:57:25
Also der 2080Ti zu 4060 Vergleich hinkt schon gewaltig, ne 4060 ist ~20% langsamer als ne 2080Ti und hat nur schlappe 8GB, N48XT wird schneller als ne 6950 XT bei gleicher Speichermenge und mehr Bandbreite.
Scheinbar wird N48 ja in Raster immerhin alles von AMD außer 79XTX - und in RT wohl auch die - schlagen, für einen ~240mm² Monolithen vs 300mm² GCD +6 MCDs in ~2/3 der TBP schon ein harter Fortschritt.
Damit würde man auch Ada in Sachen Perf/W und Perf/mm² regelrecht zersägen, trotz nahezu gleichem Prozess. 256bit und Raster-Leistung nah an 4080 in nur ~2/3 der Fläche und TBP, trotz nur minimalem Prozessvorteil? Im Grunde ziemlich heftig.
Für sich betrachtet wäre das architekturell durchaus beeindruckend, wenn auch leider etwas spät.
Ansonsten ja, nach den bisher bekannten Specs beider nächster Generationen ist N48 bestenfalls GB205-Konkurrent, vermutlich mit ähnlichen Abständen wie N32 zu AD104.
Ich habs nicht ausrecherchiert :) - aber die Kernaussage steht. Es ist ein 240 mm² Chip, der die 8000er Serie anführt statt eines > doppelt so großen. Ist ja auch logisch, dass das nicht für alle älteren Topdogbesitzer ein großes Upgrade wird.
GerryB
2024-04-15, 14:32:54
Mit 48CU-Variante:
419$ -> 8700 XT - 48 CUs, 48 MB IF$, 256 bit, 16 GB 16 Gbps VRAM
Die Idee gefällt mir immer besser!
weil
Das heutige Leak für die PS5pro von 13,7GB für die Dev´s spricht.
Sowas sollte doch AMD schon länger wissen und keine 12GB-Krüppel mehr bauen.
mboeller
2024-04-15, 15:26:09
Mythos;13524960']Sind die eigentlich immer noch so organisiert dass es zwei Teams gibt, die "parallel" unterschiedliche GPUs entwickeln? Also Team A RDNA1, RDNA3, RDNA5... Und Team B RDNA2, RDNA4, RDNA6...?
Ja, Nein, Jain ...
im anandtech-Forum wurde, seltsamerweise vor allem im Zen5 Thread über das RDOA3-Debakel über mehrere Seiten diskutiert.
AMD scheint, basierend auf diesen Diskussionen die RGT(spelling?)-Gruppe komplett entkernt und umgekrempelt zu haben incl. vieler Entlassungen. AMD hat RDOA3 nicht auf die leichte Schulter genommen und macht einfach weiter, ganz im Gegenteil.
woodsdog
2024-04-15, 16:18:56
Die Idee gefällt mir immer besser!
weil
Das heutige Leak für die PS5pro von 13,7GB für die Dev´s spricht.
Sowas sollte doch AMD schon länger wissen und keine 12GB-Krüppel mehr bauen.
die 13,7 sind nicht nur VRAM, da kommt auch der RAM-Part mit rein wo ein PC min 8-16GB noch mal oben drauf auf den 12GB-"Krüppel" hat... ;)
GerryB
2024-04-15, 19:50:52
Hat Sony nicht 16GB und braucht seeehr wenig fürs Betriebsystem
und
gibt dann erst den Rest für die Dev´s frei?
Evtl. hat Sony sogar mal wieder am Betriebssystem optimiert, who knows.
Wie genau Unified Memory aussieht incl. SAM ist eeh Betriebsgeheimnis, ... Wer da wo überall gleichzeitig zugreifen darf
auf die Speicherbereiche.
(höchstens der ds-Bereich=Texturen ist für die CPU gesperrt, ... ob die CPU überhaupt irgendwo Geometriedaten parkt,
wenns praktisch gleich mit SAM zur GPU geht, who knows)
Leonidas
2024-04-16, 09:02:52
Konsolen kommen mit klar weniger RAM aus. Die bisher 12,5 GB PS5-unified kann man auf dem PC grob mit 16 GB RAM + 12 GB VRAM übersetzen.
Inwiefern die 1,5 GB mehr das Kraut fettmachen, kann man vorher schlecht sagen. Ein Teil davon geht für RT und Upscaler wieder drauf. Ich würde eher sagen, dass die fortschreitene Spiele-Entwicklung das ganze viel eher hochtreibt als jene 1,5 GB mehr. In naher Zukunft dürfte es schnell in Richtung 32 GB RAM + 16 GB VRAM gehen.
TheAntitheist
2024-04-16, 09:27:06
die 13,7 sind nicht nur VRAM, da kommt auch der RAM-Part mit rein wo ein PC min 8-16GB noch mal oben drauf auf den 12GB-"Krüppel" hat... ;)
jetzt musst du aber noch die Teile der Spiele aus dem RAM rechnen, die dort nur liegen um in den VRAM kopiert zu werden. Die Konsolen greifen einfach direkt auf die SSDs zu.
das sind vllt 2-3GB und das wars.
OpenVMSwartoll
2024-04-16, 09:27:45
Zumal die Datentransfers zwischen RAM und VRAM wegfallen. Insofern sind es, trotz in Teilen ähnlicher Hardware, andere Welten.
P.S.: Da war ich zu langsam.
Ich kann mich auch erinnern, dass Cerny aufgrund des schnellen Datentransfers und der Dekompression davon sprach, nicht mehr mehrere Dutzend Sekunden im Voraus die Daten parat zu halten, sondern wenige Sekunden.
basix
2024-04-19, 12:52:34
Damit wir nicht den Blackwell-Thread zweckentfremden:
Mono oder nicht mono ist vollkommen egal, darum gehts einfach nicht. N21, 22 und 23 werden mittelfristig verschwinden weil die Produktion ausläuft (nur van Gogh und das Zen3 CCD werden bleiben), N33 und 24 aber mit Sicherheit nicht, weil die genau so billig sind für AMD die die bisherigen N7-Varianten. aiuch N31 wird bleiben - das ist ja trotzdem nur ein recht kleiner 5nm-Chip, die 6nm-Chiplets sind egal, die kosten quasi nix in N6. Solange das aber AMDs schnellestes Produkt bleibt, läuft der nicht aus. Und man wird auch keine salvage-Varianten dazu mehr benötigen, hat man bei dem etwa gleich großen N22 ja auch kaum gemacht.
NV gibt 8N ja auch nicht auf, der neue Switch-SoC soll die Produktion bei Samsung beerben.
N4 wird bei TSMC ein richtiger Hit-Node, das hab ich mir damals schon gedacht, als klar wurde, dass kaum was in N6 gefertigt wird von den Großen und klar wurde, dass N3 sehr teuer und bei Cache quasi nicht besser ist. Und jetzt sehen wir bei BW, dass N4 auf jeden Fall bis 2027 NVs Hauptprozess bleiben wird, nur Rubin dürfte einen N3-Zwischenstopp einlegen, aber BW und Rubin werden sicherlich parallel laufen, Rubin für Premium und BW für Standard.
N21 könnte man mit N32 ablösen. Hat man aber irgendwie nicht gemacht. Weshalb wohl? Die Kostenvorteile scheinen zu gering zu sein. Oder man hat noch genug Chips an Lager.
Nach RDNA4 Release:
- N31 bleibt sicher nicht (für Consumer). N48 wird nicht viel langsamer sein, 2/3 verbrauchen und schneller bei RT sein. N31 Karten würden wie Blei in den Regalen liegen bleiben. Dazu der Fakt, dass N48 viel günstiger in der Produktion sien wird
- N33 könnte bleiben wengen N4 vs. N6 Allokation. Aber ein 130...140mm2 N4 Chip wird etwa ähnlich teuer sein bei vielen Performance Vorteilen. Also ausserhalb von Waferkontingenten (was anscheinend nicht das Problem ist) sehe ich keinen Vorteil für N33
- N24 ist ein Spezialfall, der könnte bleiben. Der bietet aber auch nicht viel ;) Ich denke N44 war mal als Ablöse gedacht. Also ob N24 bleibt ist für mich nicht so sicher.
BlacKi
2024-04-19, 13:35:42
sacht mal, wann wird man das erste mal was offizielles hören? erst direkt beim launch? oder schon vorher, zb. auf messen?
[MK2]Mythos
2024-04-19, 13:48:08
sacht mal, wann wird man das erste mal was offizielles hören? erst direkt beim launch? oder schon vorher, zb. auf messen?
Vermutlich vielleicht eventuell auf der Computex Anfang Juni.
basix
2024-04-19, 13:54:35
"vermutlich vielleicht eventuell" :D
reaperrr
2024-04-19, 14:02:28
"vermutlich vielleicht eventuell" :D
...hoffentlich, frühestens, wenn wir Glück haben, aber wahrscheinlich eher nicht :D
Aber mal etwas ernsthafter: Unmöglich vorherzusagen, bei AMD kommt sowas häufig eher später als früher.
Wenn es einen relativ nichtssagenden "and one more thing..."-Teaser am Ende von deren Computex-Präsentation gibt, obwohl die Karten frühestens im August/September/nochspäter kommen, wäre das schon viel.
Leonidas
2024-04-19, 14:12:25
sacht mal, wann wird man das erste mal was offizielles hören? erst direkt beim launch? oder schon vorher, zb. auf messen?
Mythos;13527594']Vermutlich vielleicht eventuell auf der Computex Anfang Juni.
Möglich, aber nicht sicher. Wenn dann ist ein Teaser denkbar. Mehr nicht, weil der Launchtermin wohl erst im Spätsommer/Herbst liegt. Besonders lange vorher kündigt keiner gern seine NextGen-Produkte an, das ist negativ für den Absatz der CurrentGen-Produkte.
PS: Wenn es terminlich passt, könnte AMD die Gamescom als größere Ankündigung nutzen.
amdfanuwe
2024-04-19, 14:21:49
Also vor Computex Anfang Juni wird es wohl keine Neuigkeiten seitens AMD geben.
Sind ja nur noch 7 Wochen.
Damit wir nicht den Blackwell-Thread zweckentfremden:
N21 könnte man mit N32 ablösen. Hat man aber irgendwie nicht gemacht. Weshalb wohl? Die Kostenvorteile scheinen zu gering zu sein. Oder man hat noch genug Chips an Lager.
Nach RDNA4 Release:
- N31 bleibt sicher nicht (für Consumer). N48 wird nicht viel langsamer sein, 2/3 verbrauchen und schneller bei RT sein. N31 Karten würden wie Blei in den Regalen liegen bleiben. Dazu der Fakt, dass N48 viel günstiger in der Produktion sien wird
- N33 könnte bleiben wengen N4 vs. N6 Allokation. Aber ein 130...140mm2 N4 Chip wird etwa ähnlich teuer sein bei vielen Performance Vorteilen. Also ausserhalb von Waferkontingenten (was anscheinend nicht das Problem ist) sehe ich keinen Vorteil für N33
- N24 ist ein Spezialfall, der könnte bleiben. Der bietet aber auch nicht viel ;) Ich denke N44 war mal als Ablöse gedacht. Also ob N24 bleibt ist für mich nicht so sicher.
Was redest du da? N32 hat sich verkauft wie geschnitten Brot und N21 wurde parallel weiterverkauft...
Mythos;13527594']Vermutlich vielleicht eventuell auf der Computex Anfang Juni.
Das ist Toms Wunschdenken. Ich bin da voll bei Leo, einen Teaser könnte es geben, aber ganz so optimistisch bin ich immer noch nicht. Auf der Roadmap steht 25 und ich wüsste nicht, warum man davon abweichen sollte, wenn das so geplant war - erst recht, wenn die Lager noch voll sind mit Adas und es keine Konkurrenz gibt.
horn 12
2024-04-19, 14:40:25
N31 wird kontinuierlich billiger werden aber auch durchaus schneller als N48
vor Allem bei 4K.
Bei RT wir man knapp an N31 rankommen,- oder auch vielleicht 10-15% schneller sein,-
aber dies macht es dann kaum aus,- da ca. auf Augenhöhe.
Wenn N31 auf 650 bis 800 Euro fällt,- hat man immer noch das Zweitschnellste nach der RTX 4090 bzw. der 4070 TI (Super)
reaperrr
2024-04-19, 14:49:13
N31 wird (...) auch durchaus schneller als N48
vor Allem bei 4K.
Nur die XTX, und allein die XTX weiterzuproduzieren hätte den Nachteil, dass du teildefekte GCDs entweder wegschmeißen oder auch die XT und/oder GRE weiterproduzieren musst, die gegen N48 im wahrsten Sinne des Wortes alt bzw. veraltet aussehen würden und dabei auch noch viel teurer herzustellen sind.
Die 4080 beweist, dass du auch mit 256bit / 64MB LLC in 4K auf oder zumindest sehr nah an XTX-Niveau kommen kannst, wenn die Architektur die Speicherbandbreite effektiv genug nutzt.
Ob das bei RDNA4 der Fall ist wissen wir nicht, aber es ist eben auch nicht komplett ausgeschlossen.
horn 12
2024-04-19, 14:54:16
Der Ram Vorteil und vor Allem nun 1,5 Jahre Erfahrung wird N31 7900 XT auch immer über N48 Platziert sehen,- und man muss erst mal zeigen wie wirklich viel Besser N48 schlussendlich wird
und kommt jener erst zu Herbstbeginn ist N31 XT und XTX eh schon haufenweise ausverkauft und man fährt mit Sparflamme dieser RDNA3 Generation bis RDNA5 Spruchreif ist einfach weiter!
basix
2024-04-19, 15:07:01
Was redest du da? N32 hat sich verkauft wie geschnitten Brot und N21 wurde parallel weiterverkauft...
Dann erklär doch bitte mal, wieso man N21 weiterverkauft? Haben die noch all Lager voll oder wieso sollte man das tun, wenn N32 unter dem Strich das bessere Produkt ist?
BlacKi
2024-04-19, 15:48:34
Der Ram Vorteil und vor Allem nun 1,5 Jahre Erfahrung wird N31 7900 XT auch immer über N48 Platziert sehen,- und man muss erst mal zeigen wie wirklich viel Besser N48 schlussendlich wird
und kommt jener erst zu Herbstbeginn ist N31 XT und XTX eh schon haufenweise ausverkauft und man fährt mit Sparflamme dieser RDNA3 Generation bis RDNA5 Spruchreif ist einfach weiter!
da man den chiplet ansatz erstmal auf eis legt, und auch die generation eher meh ist, sehe ich in 2 jahren rdna3, dort wo vega schon kurz danach stand. auf dem abstellgleis. rdna3 wird wohl kürzer treibersupport erhalten als rdna2.
also das sehe ich nicht als vorteil.
GerryB
2024-04-19, 16:36:03
Was soll immer das unqualifizierte Bashing gegen Vega?
Die RX56-Pulse für 229€ war bei P/L net schlechter als die RX5700.
Insofern ist Koexistenz von 2 Gens nicht schlecht für Käufer.
da gibts in der Übergangsphase oft interessante Konstellationen bezgl. P/L
The_Invisible
2024-04-19, 16:38:19
Wer weiß ob nicht wieder rdna4 exklusive Features kommen, eventuell ai-upscaling, wer will dann schon den alten Kram
aufkrawall
2024-04-19, 16:48:25
Der AMD-Typ sprach aber von RDNA3 als Grundlage für ML-Features.
Exxtreme
2024-04-19, 16:50:59
"ML-Features" brauchen jetzt nicht wirklich spezialisierte Hardware. Kann man auch so laufen lassen. Wird eventuell bissl langsamer.
BlacKi
2024-04-19, 17:10:30
naja, offiziell wirbt amd mit 2,7x AI performance gegenüber rdna3. da wird mit AI einiges gemacht werden. fsr4 1-2 jahre nach release.
dargo
2024-04-19, 17:20:17
naja, offiziell wirbt amd mit 2,7x AI performance gegenüber rdna3.
Nichts weiter als Marketing. Solche Zahlenspiele verkaufen sich halt gut. Wichtig ist was am Ende dabei rauskommt. Ob Upscaling letztendlich dann 2ms oder 0,7ms kostet wird die wenigsten stören. Wird am Ende wahrscheinlich grob ähnlich aussehen wie jetzt mit FSR 2.x_Q vs. XeSS 1.2_Q. Letzteres ist etwas langsamer, aber kein Beinbruch.
dildo4u
2024-04-23, 08:59:40
Kein Plan ob das neu ist angeblich nutzen alle Modelle 18 Gbps.
https://wccftech.com/amd-radeon-rx-8000-rdna-4-gpus-utilize-18-gbps-gddr6-memory-entire-lineup
Alle billiger als 500€? 7800XT nutzt 19.5 Gbps.
Leonidas
2024-04-23, 09:52:49
Ja, bisher ging man beim Spitzenmodell von 21,7 Gbps aus.
Eher interessant: Wenn schon klar ist, dass es alle Modelle betrifft, dann befindet sich AMD somit mitten in der konkreten Produktgestaltung. Sprich, Chip läuft und ist validiert, jetzt geht es darum, was man im Verkauf draus macht. Es könnte demzufolge demnächst mehr Leaks geben, auch vielleicht schon mit Benchmarks.
Passt doch zur kolportierten GRE-Leistung. Es sollte jetzt sonnenklar sein, dass XT und XTX bleiben werden, vielleicht sogar refresht werden. Es ging nur darum N32 loszuwerden und eine sehr günstige Mainstreamgeneration für weitere >3 Jahre zu etablieren. Ein Polaris-Nachfolger sozusagen.
dargo
2024-04-23, 10:06:01
Passt doch zur kolportierten GRE-Leistung.
Du leitest davon jetzt nicht ernsthaft ab, dass N48 bei 7900GRE rauskommt nur weil die selbe Bandbreite beim Vram verwendet wird oder? :uconf3:
Edit:
Nur mal so als Anhaltspunkt.
RTX 3080 = 8704 Shader bei 760GB/s
RTX 4070 = 5888 Shader bei 504GB/s
Beide liegen bei der Performance ca. gleichauf.
davidzo
2024-04-23, 10:34:59
Du leitest davon jetzt nicht ernsthaft ab, dass N48 bei 7900GRE rauskommt nur weil die selbe Bandbreite beim Vram verwendet wird oder? :uconf3:
Edit:
Nur mal so als Anhaltspunkt.
RTX 3080 = 8704 Shader bei 760GB/s
RTX 4070 = 5888 Shader bei 504GB/s
Beide liegen bei der Performance ca. gleichauf.
Lol, die 3080 hat auch nur 5mb L2 Cache während die 4070 über 48MB verfügt.
Der große Sprung von "ohne onchip Cache" zu "mit gigantischem cache" wird sich nicht nochmal wiederholen.
Dass man beim Speichersystem etwas vor der GRE heraus kommt (die in erster Linie Bandbreitenlimitiert ist) halte ich aber für gesichert, da der Cache und speichercontroller ohne den off-Die hop sicherlich einiges Latenzärmer, schneller und mit weniger power laufen können.
Sicherlich wird die IFcache Bandbreite in der mittlerweile dritten Generation nochmal steigen. Aber im besten Fall kommt man auch nur knapp an die Cache-Effizienz von Nvidia heran. Bei NV ist das eben L2, mit entsprechend besserer Latenz und Bandbreite. Das ist für einem L3 wie der IFcache ist schon ein hohes Ziel das man erstmal erreichen muss.
64mb IFcache wie man für N48 vermutet + solide 576gb/s klingt nach einer guten WQHD Karte (bzw. 4K unter FSR2/3). AMD zielt also wirklich nur auf Nvidias midrange.
Altehardware
2024-04-23, 10:38:59
Wieviel bandbriete notwendig sind hängt stark vom Spiel ab und wie viel vram belegt wird.
bei 3gb vram Belegung (9-10gb allokiert) dann mit 504gb/s dann maximal 168fps und bei 760gb/s 253fps
Doch oh weh, die shader erreichen diese aber nicht und wenn mehr als 5gb/s genutzt wird (15gb vram Belegung) wird erst die Bandbreite wichtig. Doch da hat man nicht genug vram also die 12gb und 10gb reichen da nicht, darum ist die rtx4070 schneller mit weniger Bandbreite.
Das dürfte sich ab der rtx5070 die mit 16gb kommt (gb206 60sm 1,8ghz 30tf grob rtx4070ti oder +45% 448gb/s) ändern
Da wären spiele die mal den vollen vram nutzen bei 89fps limitiert.
Große Bandbreite bringt in den meisten fällen nix alles über 700gb/s braucht man wirklich nur mit gpu ab 24gb bei Anwendungen die min 6-7gb per frame brauchen
Das sehe ich in spielen frühestens 2032 kommen mit ner ps6 pro.
Am desktop insbesondere bei den kleinen sku sind mehr als 400gb/s völlig ausreichend
Unter 300gb/s wird es aber eng
Du leitest davon jetzt nicht ernsthaft ab, dass N48 bei 7900GRE rauskommt nur weil die selbe Bandbreite beim Vram verwendet wird oder? :uconf3:
Edit:
Nur mal so als Anhaltspunkt.
RTX 3080 = 8704 Shader bei 760GB/s
RTX 4070 = 5888 Shader bei 504GB/s
Beide liegen bei der Performance ca. gleichauf.
Also ich würd der Enttäuschung eher vorbeugen wollen. Das Ding hat ja nicht mehr Cache als N32, dein Vergleich ist ja total schlecht. Bei dem Ding gehts nur um die Kosten, nicht darum, irgendwelche anderen Produkte zu schlagen. Das Teil soll auch noch funzen, wenn es gegen die 5060 antreten würde, darum gehts.
robbitop
2024-04-23, 11:53:52
N48 müsste ggü seinen Vorgängern die Bandbreiteneffizienz (wieviel man Cache und Bandbreitennormiert an Leistung gewinnen kann) steigern können, um deutlich mehr herauszuholen. Da ist defintiv noch Potenzial - da war Nvidia schon länger etwas besser. Die Frage ist, ob und wie viel sie da herausholen können.
BlacKi
2024-04-23, 12:04:58
der punkt ist, die gre hat schon deutlich weniger speicherbandbreite pro rechenleistung verglichen mit allen anderen rdna3 karten. im prinzip ist die gre schon ein guter anhaltspunkt, wenn die speicherbandbreite wirklich mit der gre übereinstimmt.
dargo
2024-04-23, 12:47:42
Also ich würd der Enttäuschung eher vorbeugen wollen.
Welche Enttäuschung? Wenn das Ding schwächer abschneidet wird der Preis auch entsprechend geringer ausfallen.
Wenn das Ding mit GRE-Leistung kommt, wird das auch das gleiche kosten. Ich würde nur davon ausgehen, dass der Verbrauch etwas sinkt.
dargo
2024-04-23, 13:14:19
Unsinn... Preis definiert sich hauptsächlich über die erreichte Performance. Nur 7900GRE könnte ich mir 499$ vorstellen. Bei 7900XT wäre AMD ganz schön blöd wenn sie dann nicht 599$ ansetzen würden.
Die nehmen soviel sie können dafür, das wird kein Preisbreicher. Hör auf solche bekloppten Luftschlösser zu bauen. Wenn das Ding knapp die GRE schlägt, kommt der für 550-600€ auf den Markt. AMD ist super gefahren mit dieser Preispolitik. Sie haben es geschafft, die weniger Gewinne, die druch den Rückgang des Konsolenabsatzes einbrachen, durch Radeon-Verkäufe mehr als auszugleichen. Warum? Weil sie richtig Marge machen und eben keinen Preiskampf vom Zaun gebrochen haben. Jetzt werden die Kosten drasdisch gesenkt - billiges 8-Lagen-PCB, biller 18GT/s RAM, billige Powerstages von Alphaomega oder Onsemi und weniger TDP - verkaufen werden sie das trozdem für den Preis einer GRE, nur das das Produkt nur 2/3 davon kostet. So läuft das, die machen nicht jetzt das dargo-rundum-sorglos-Paket :freak:.
Wenn die zukünftige Generation kommt, können sie die Preise um 1/3 senken, ohne dass das katastrophal wird und auch das wird dann passieren, wenns soweit ist, nicht vorher.
Redneck
2024-04-23, 13:47:04
Wenn N48 draussen ist und von der Performance in Raster zwischen 7900XT und XTX liegt kann AMD die N48 Dinger für den jetzigen 7900XT Preis verticken. Die Alten 7900XT+XTX müssen dann aber runter vom Preis, weil sie im RT wesentlich schlecht sind. So gesehen hat Dargo schon Recht (und Du auch.. ihr redet nur etwas aneinander vorbei).. hat dann was von Abverkauf (deswegen glaub ich auch nicht, das N31 weiter produziert wird.. macht einfach ökonomisch keinen Sinn). N48 (ohne N31 als klotz am Bein) kann AMD dann bepreisen wie sie wollen, bis NV mit Blackwell Midrange irgendwann auftaucht.
Das packt der nicht, die 7900XT erreicht der mit 18GT/s-RAM und 64MB IF$ nicht. Die GRE ist ja quasi ne 7900XT und hungert sich quasi auf 7800XT-Niveau herunter.
AMD wird das eh so nicht machen, die werden die TDP dort ansetzen, wie es zu der Konfiguration passt. MMn wird die 8800XT auf dem Niveau der Custom-GREs herauskommen bei ca. 200-220W. Im Grunde ist das ziemlich genau wie bei der 5700XT.
dargo
2024-04-23, 14:24:16
Die GRE ist ja quasi ne 7900XT und hungert sich quasi auf 7800XT-Niveau herunter.
Und wieder kompletter Unsinn. :rolleyes:
Die 7900XT hat 5% mehr CUs und arbeitet im Schnitt mit 19% mehr GPU-Takt laut CB (2566Mhz vs. 2151Mhz). Du versuchst das hier gerade so zu verkaufen als wenn die GRE alleine durch ihre Bandbreite eingebremst wird, was überhaupt nicht stimmt. Zumindest kommt das so rüber.
Edit:
Kleine Korrektur... bei der 7900XT sind es im aktuellen Spiele-Parcour +13% beim Takt. Im alten Parcour Ende 2022 waren es +19%.
Die 7900 GRE arbeitet mit angezogener Handbremse
Gegenüber der Radeon RX 7900 XT sieht es noch schlechter aus, doch genau so will AMD neben der reduzierten Speicherbandbreite für einen ausreichend großen Abstand der beiden Grafikkarten sorgen. So arbeitet die Radeon RX 7900 XT im Durchschnitt mit 2.429 MHz, was schon 13 Prozent höher als bei der Golden Rabbit Edition ist.
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_die_durchschnittlichen_taktraten_unter_last
Deswegen sag ich ja, dass die N48 auf der Custom-GRE herauskommt und deutlich weniger Saft brauchen wird.
vinacis_vivids
2024-04-23, 14:34:36
Bei Raster oder RT oder FSR3 + FG ?
robbitop
2024-04-23, 14:36:29
Wenn der Preis stimmt wäre auch grobes GRE Level (raster) gut. Und auch wenn es nicht für alle relevant ist tut die angeblich erhöhte RT Leistung auch nicht weh. :)
Wer weiß - ggf ist die ja so hoch, dass in heavy RT Titeln es die schnellste AMD GPU wird.
Redneck
2024-04-23, 14:38:11
Und WENN das so kommt, dann kostet das Teil eben entsprechend (so wie Dargo schrieb) der Performance entsprechend, die das Teil liefert. Nicht mehr und nicht weniger und natürlich hast du auch Recht, das AMD sicherlich nicht gleich in die vollen gehen wird vom Preis her, nur weil sie es aufgrund der Chip Größe könnten. Was bleibt, ist was mit N31 passiert (preislich) und da tendiere ich auch eher in Dargos Richtung, das die ordentlich nach unten gehen müßten vom Preis (denn das wenig mehr an Raster+ holt die Differenz im RT nicht auf).
robbitop
2024-04-23, 14:41:00
Ich tippe darauf, dass mit N31 das gleiche passiert was mit Fijii passierte als Polaris kam und was mit Vega passierte als N10 kam. Die neuen GPUs waren langsamer aber moderner und sparsamer. Die alten Dickschiffe wurden dann eingestellt.
Redneck
2024-04-23, 14:41:10
Wer weiß - ggf ist die ja so hoch, dass in heavy RT Titeln es die schnellste AMD GPU wird.
Gehen wir nicht eh davon aus, das das so sein wird ? oder ist das noch zu weit weg im Nebel, das man davon ausgehen kann, das das so kommen wird ?
Wie gesichert sind denn die Infos zur RT Performance der PS5 pro ?
robbitop
2024-04-23, 14:48:32
Bisher sind alles sehr nebulöse Gerüchte. Ob und was mehr in HW verbaut wird ist unklar. Und auch was von der PS5pro in N48 gewandert ist. Es wäre aber super, wenn die GPU IP dahingehend aufgemotzt würde. :)
Bei Raster oder RT oder FSR3 + FG ?
RT und FG ist mir ehrlichgesagt völlig egal. Ich sehe da momentan jedenfalls keine Relevanz gegeben.
Ich tippe darauf, dass mit N31 das gleiche passiert was mit Fijii passierte als Polaris kam und was mit Vega passierte als N10 kam. Die neuen GPUs waren langsamer aber moderner und sparsamer. Die alten Dickschiffe wurden dann eingestellt.
Ist nicht vergleichbar. Solange die N31 verkaufen können werden sie das tun. Wir reden hier nicht von 500mm²+ und selbst damit hat AMD das bei RDNA2 gemacht.
reaperrr
2024-04-23, 15:02:39
Das packt der nicht, die 7900XT erreicht der mit 18GT/s-RAM und 64MB IF$ nicht.
Wenn Nvidia das mit 192bit und 48MB L2 packen kann (der 4070Ti fehlt es nur an Rohleistung dazu, Bandbreite würde dafür reichen), kann AMD das grundsätzlich mit 256bit, 4MB L2 + 64MB IF$ auch.
Warum sollte es bei RDNA4 ausgerechnet im wichtigen Bereich Bandbreiten-Effizienz null Fortschritte geben?
Wenn der Speichertakt bei N48 so riesige Auswirkungen auf die Performance hätte, würden sie zumindest fürs Top-Modell auch mindestens 20Gbps verwenden, so viel teurer wird der nun auch wieder nicht sein.
Dass sie das nicht tun, ist ein Indiz, dass N48 eben nicht so hart im Bandbreitenlimit hängt und die Kostenersparnis größer ist, als das was sie mit schnellerem Speicher mehr an Preis nehmen könnten.
vinacis_vivids
2024-04-23, 15:13:17
RT und FG ist mir ehrlichgesagt völlig egal. Ich sehe da momentan jedenfalls keine Relevanz gegeben.
Die AMD-RDNA4-APU für Sony PS5-PRo mit Millionenstückzahlen sehen das anders. Sony & AMD werden interessiert sein, RT und FPS möglichst billig, also für wenig 5nm/4nm Silizium herzustellen.
Die ~240mm² TSMC-N4?-Siliziumfläche wollen gut investiert sein gegen das NV-Monopol und auch im mobilen Segment Fuß fassen.
AMD ist nicht Intel, die extrem viel Silizium verschwendet haben für DG2-512 406mm² vs N33 204mm².
Die Gaming-Welt wird sich weg bewegen von den teuren / präzisen / "langsamen" native-fp32-Einheiten hin zu billigen / ungenauen / "schnellen" fp16/bf16/int8/int4-Einheiten.
fondness
2024-04-23, 16:07:30
Bisher sind alles sehr nebulöse Gerüchte. Ob und was mehr in HW verbaut wird ist unklar. Und auch was von der PS5pro in N48 gewandert ist. Es wäre aber super, wenn die GPU IP dahingehend aufgemotzt würde. :)
Naja gut, Sony wirbt mit stark gestiegener RT-Leistung. Schwer vorstellbar, dass das nicht in RDNA4 vorhanden ist.
Exxtreme
2024-04-23, 16:07:48
Die Gaming-Welt wird sich weg bewegen von den teuren / präzisen / "langsamen" native-fp32-Einheiten hin zu billigen / ungenauen / "schnellen" fp16/bf16/int8/int4-Einheiten.
Sehr unwahrscheinlich. Denn man kommt von diesen "ungenauen" Werten auch im Gaming. Es gibt schon Gründe warum man jetzt bei 32- und 64-Bit gelandet ist obwohl das früher viel weniger war. Oder willst du ernsthaft mit 4-Bit Farbtiefe spielen? Diese schmalen Register haben ausser bei AI keinen anderen sinnvollen Einsatzzweck. Denn gäbe es einen sinnvollen Einsatzzweck dann hätten die CPUs diese Register immer noch.
Redneck
2024-04-23, 16:11:44
Die AMD-RDNA4-APU für Sony PS5-PRo mit Millionenstückzahlen sehen das anders. Sony & AMD werden interessiert sein, RT und FPS möglichst billig, also für wenig 5nm/4nm Silizium herzustellen.
Die ~240mm² TSMC-N4?-Siliziumfläche wollen gut investiert sein gegen das NV-Monopol und auch im mobilen Segment Fuß fassen.
AMD ist nicht Intel, die extrem viel Silizium verschwendet haben für DG2-512 406mm² vs N33 204mm².
Die Gaming-Welt wird sich weg bewegen von den teuren / präzisen / "langsamen" native-fp32-Einheiten hin zu billigen / ungenauen / "schnellen" fp16/bf16/int8/int4-Einheiten.
So Trivial ist das aber nicht.
Es gibt einen Markt für grosse, fette Tanker wie die 4090/5090 und solange
man die Entwicklung derer querfinanziert bekommt durch noch grössere AI Derivate , muß man sich keine "Sorgen" machen, das man demnächst nur noch Funzel GPUs bekommt. AMD wäre doch froh, wenn Sie an NV Position wären.. dann würden sie auch Grösseres liefern.
robbitop
2024-04-23, 17:27:19
Naja gut, Sony wirbt mit stark gestiegener RT-Leistung. Schwer vorstellbar, dass das nicht in RDNA4 vorhanden ist.
Sehe ich auch so. Aber noch ist unklar was da genau passiert ist in HW. Kommen wir jetzt auf Turing/Ampere Level (BVH processing in HW) oder kommen noch coherency sorting oder execution sorting dazu? Es bleibt spannend!!
mczak
2024-04-23, 18:07:56
Diese schmalen Register haben ausser bei AI keinen anderen sinnvollen Einsatzzweck.
Naja also zumindest 16 bit floats kann man schon sinnvoll für "normale" Berechnungen nutzen. Aber schon richtig, nicht für alles, da kriegt man öfter mal Probleme mit der Genauigkeit. Ansonsten stimme ich dir zu, die GPUs werden weiterhin nativ für 32bit optimiert sein (die Register werden 32bit breit bleiben).
GerryB
2024-04-24, 02:43:45
Würde denn DP4a von FP8 x4 statt INT8 x4 profitieren?
Leonidas
2024-04-24, 03:16:26
Und WENN das so kommt, dann kostet das Teil eben entsprechend (so wie Dargo schrieb) der Performance entsprechend, die das Teil liefert.
Dies ist eine faktisch zwingende Folge. AMD muß derzeit nur das Preislevel der Current-Gen liefern, da nVidias Konter im Midrange-Segment eher erst im Frühjahr 2025 kommt. Und wenn dies dann so weit ist, kann AMD immer noch im Preis runtergehen.
BlacKi
2024-04-24, 11:02:57
Naja gut, Sony wirbt mit stark gestiegener RT-Leistung. Schwer vorstellbar, dass das nicht in RDNA4 vorhanden ist.gegenüber rdna2. rdna3 hat schon eine verbesserung gebracht.
Raytracing schmeckt RDNA 3 besser als RDNA 2
Besser sieht es aus, wenn Raytracing genutzt wird, denn dann kann sich RDNA 3 etwas mehr vom älteren Design absetzen. Dabei gilt meistens, aber nicht immer: Je intensiver Raytracing verwendet wird, desto größer wird das Plus der neuen Architektur. Da lässt sich definitiv ein System erkennen. Mit Raytracing ist RDNA 3 immer performanter als RDNA 2, zweistellig ist das Plus allerdings auch dann längst nicht immer.
https://www.computerbase.de/2023-08/amd-rdna-2-rdna-3-gaming-vergleich/
Warum sollte es bei RDNA4 ausgerechnet im wichtigen Bereich Bandbreiten-Effizienz null Fortschritte geben?
Wenn der Speichertakt bei N48 so riesige Auswirkungen auf die Performance hätte, würden sie zumindest fürs Top-Modell auch mindestens 20Gbps verwenden, so viel teurer wird der nun auch wieder nicht sein.
Dass sie das nicht tun, ist ein Indiz, dass N48 eben nicht so hart im Bandbreitenlimit hängt und die Kostenersparnis größer ist, als das was sie mit schnellerem Speicher mehr an Preis nehmen könnten.
nicht dass ich das von dir genannte für falsch halte, aber die margen im gaming sektor sind zu klein. 18gbps könnte eine margen nochmals erhöhen.
dildo4u
2024-04-24, 11:14:23
Ist hier auffällig Cyberpunk RT ist der unterschied massiv größer als bei Avatar.
Da scheint was anderes zu limitieren.
OjxXJGYRU3Y
davidzo
2024-04-24, 15:01:39
Wenn der Speichertakt bei N48 so riesige Auswirkungen auf die Performance hätte, würden sie zumindest fürs Top-Modell auch mindestens 20Gbps verwenden, so viel teurer wird der nun auch wieder nicht sein.
Dass sie das nicht tun, ist ein Indiz, dass N48 eben nicht so hart im Bandbreitenlimit hängt und die Kostenersparnis größer ist, als das was sie mit schnellerem Speicher mehr an Preis nehmen könnten.
Das muss überhaupt kein Indiz sein. Nicht jede Unternehmensentscheidung wird auf der technischen Produktebene getroffen, die Mehrzahl sogar nicht.
AMD ist der Underdog bei GPUs und muss seine VRAM Käufe bundlen in langfristigen Verträgen um auf änhliche Preise wie nvidia zu kommen. Da nvidia ein Vielfaches mehr GDDR verbraucht und beinahe Monopolist ist, können sie sich das auch feingranular in unterschiedliche Module aufteilen.
Schon bei N31 und N32, aber auch beim Vaporchamber IHS für die AMD X3D CPUs haben wir gesehen dass AMD auch häufig Entscheidungen aus rein wirtschaftlichen Gründen trifft. N31 mit 2-hi 192MB IFcache war fertig entwickelt, kam aber aus Kostengründen nicht auf den Markt. Der wäre sicher noch etwas schneller gewesen, aber eben nicht soviel schneller dass es gegen AD102 gereicht hätte.
Bloß weil N48 20Gbps RAM gut gebrauchen könnte, heißt das nicht dass es nicht auch wirtschaftliche Gründe dafür geben könnte N48 nur mit 18Gbps auszustatten.
Es könnte auch ein worstcase-Zeichen sein, also dass AMD wie schon bei N31 die RDNA4 Architektur als einigermaßen gescheitert ansieht und jetzt eher Schadensbegrenzung betreibt. Das bedeutet Kosten und Risiken minimieren und möglichst viel Engineering-Personal für andere Projekte freigeben, selbst wenn dadurch das Produkt nicht im idealen Performancezustand auf den Markt kommt.
robbitop
2024-04-24, 15:07:09
Es könnte auch sein (ich weiß - das ist eine unbeliebte Spekulation), dass N48 nicht wesentlich höher taktet als die bisherigen RDNA3 SKUs. Wenn das Ding mit ~2700 MHz taktet, würde mit 64 CUs die Bandbreite analog zur GRE auch ausreichen.
Alternativ kann natürlich auch (1) das Gerücht falsch sein und es sind doch >> als 18 GT/s Speicher oder (2) RDNA4 hat deutliche Bandbreiteneffizienzsteigerungen (Potenzial dafür ist sicherlich vorhanden)
dargo
2024-04-24, 15:16:37
Es könnte auch sein (ich weiß - das ist eine unbeliebte Spekulation), dass N48 nicht wesentlich höher taktet als die bisherigen RDNA3 SKUs. Wenn das Ding mit ~2700 MHz taktet, würde mit 64 CUs die Bandbreite analog zur GRE auch ausreichen.
Wird es euch langsam nicht zu blöd? Ihr tut hier so als wenn es eine feste Mauer gibt wo Bandbreite XYZ plötzlich extrem limitiert. Der Übergang ist absolut flüssig! Auch mit 3(+) Ghz GPU sehe ich kein Problem bei der Bandbreite. Dann lässt man eben beim nativen 4k die letzten 3-5% liegen, als ob das jetzt der Weltuntergang wäre. Zudem peilt AMD mit N48 sicherlich kein natives 4k und in Games wird immer mehr Upscaling verwendet.
robbitop
2024-04-24, 15:19:58
Das Spektrum bei RDNA3 ist tatsächlich ziemlich groß an Bandbreite pro FLOP. Aber die GRE ist tatsächlich am untersten Ende. Die Skalierungstests, die ich bei der GRE gesehen habe, zeigen (IIRC), dass die GRE da schon ziemlich limitiert mit 18 GT/s.
dargo
2024-04-24, 15:24:28
Die Skalierungstests, die ich bei der GRE gesehen habe, zeigen (IIRC), dass die GRE da schon ziemlich limitiert mit 18 GT/s.
Zeig mal die Quelle bitte.
fondness
2024-04-24, 15:35:03
N31 hat deutlich zu viel Bandbreite, da natürlich deutlich mehr Takt geplant war. Ich sehe das angebliche Bandbreitenproblem bei N48 auch nicht, die Bandbreite pro Flop wäre nicht wesentlich schlechter als bei der GRE, als ob 10-15% jetzt den Weltuntergang bedeuten. Und vielleicht gibts sogar schnelleren RAM bis dahin.
Der_Korken
2024-04-24, 15:47:50
Die Frage ist ja auch, ob immer der Durchsatz des Speichers limitiert oder nicht auch manchmal die Latenz. Es wird immer so getan, als ob der IF$ ein reiner Bandbreitenbooster wäre, aber da wird sicherlich auch die kürzere Latenz der Cache-Hits eine große Rolle spielen. 3D-Rendering ist natürlich hochgradig parallel, aber ein paar Tausend Shadercores müssen auch erstmal durchgängig mit unabhängigen Instruktionen versorgt werden.
Altehardware
2024-04-24, 16:02:13
Die Bandbreite interessiert die gpu Leistung nicht diese limitiert nur man wenn der Speicher voll genutzt wird und welches games rendert pro frame min 5gb (3 frames liegen im vram vor). Solche spiel kann ich an der hand zählen.
Also reichen die knapp 310gb/s für den n44 und die 620gb/s für den n48 völlig aus. Die meisten spiele nutzen zwischen 2-3,7gb pro frame maximal also 9gb seltene ausnahmen mal 11gb.
Darum reichen auch 12gb vram aktuell aus. Das wird sich ändern und alles geht Richtung 4,5-5,0gb per frame. Also am ende 13,5gb vram Belegung bis 15gb vram Belegung.
Wie erkenne ich wie viel vram pro ram benötigt wird nun an dem ram Belegung den dieser wird gespiegelt.
robbitop
2024-04-24, 16:26:12
Zeig mal die Quelle bitte.
Also Techpowerup hat mit dem Treiberupdate 24.3.1 was mehr Memory Clock erlaubte von 2316 MHz auf 2600 MHz erhöht und hat fast 15% mehr Performance bekommen. Das ist lineare Skalierung - eigentlich schon ein Zeichen des Bandbreitenbottleneck. Leider nicht besonders intensiv untersucht
https://www.techpowerup.com/320715/amd-24-3-1-drivers-unlock-rx-7900-gre-memory-oc-limits-additional-performance-boost-tested
Andere outlets schreiben auch alle davon, dass das erhöhte Memory OC seit 24.3.1 besonders viel Leistung bringt.
Das gepaart mit dem Fakt, dass die 7900 GRE deutlich am unteren Ende von RDNA3 an Bandbreite pro TFLOP liegt passt eigentlich schon zusammen.
Die Bandbreite interessiert die gpu Leistung nicht diese limitiert nur man wenn der Speicher voll genutzt wird und welches games rendert pro frame min 5gb (3 frames liegen im vram vor). Solche spiel kann ich an der hand zählen.
Die Größe der Assets haben nur nebensächlich mit dem Bandbreitenbedarf zu tun und sind kein Indikator für diesen. Der stark fragmentierte Framebuffer und G-Bufferzugriff sind da schon deutlich dominanter IIRC.
dargo
2024-04-24, 16:42:42
Also Techpowerup hat mit dem Treiberupdate 24.3.1 was mehr Memory Clock erlaubte von 2316 MHz auf 2600 MHz erhöht und hat fast 15% mehr Performance bekommen. Das ist lineare Skalierung - eigentlich schon ein Zeichen des Bandbreitenbottleneck. Leider nicht besonders intensiv untersucht
https://www.techpowerup.com/320715/amd-24-3-1-drivers-unlock-rx-7900-gre-memory-oc-limits-additional-performance-boost-tested
Na klar... man erhöht den Speichertakt um 12% und erhält 15% mehr Performance. Voodoo? ;D Ich schau mir den Test gleich im Detail an.
Edit:
War mir völlig klar, dass das kompletter Bullshit mit den +15% ist. Es sind +6% Performance bei knapp +13% Bandbreite. Ich empfehle mal genauer Tests zu studieren. ;)
Zudem...
Durch die erhöhte Speichergeschwindigkeit steigt die übertaktete Bildrate unseres 3DMark Time Spy GT1 von 72,6 FPS auf 77,1 FPS (die GPU-Frequenz lag zwischen den beiden Läufen konstant bei 2803 MHz).
2,8Ghz GPU ist schon extrem hoch für eine GRE. Das sind 57 TFLOPs FP32 wenn man mit dieser Zahl rumspielen möchte. Das ist sogar etwas mehr Rohleistung als eine 7900XT Referenz.
DrFreaK666
2024-04-28, 01:55:14
Ein paar neue Gerüchte
AMD’s High-End Navi 4X “RDNA 4” GPUs Reportedly Featured 9 Shader Engines, 50% More Than Top Navi 31 “RDNA 3” GPU
https://wccftech.com/amd-high-end-navi-4x-rdna-4-gpus-9-shader-engines-double-navi-31-rdna-3-gpu/
Bevor hier herumgehyped wird: es ist der gecancelte Chip
Der_Korken
2024-04-28, 02:15:39
Quelle: adroc_thurston ;D
Auf den angeblichen Skizzen von RDNA4 hatte man damals bereits 9 Shader Engine Dies gesehen, verteilt auf 3 Base-Dies. Ich habe mich da bereits gefragt, wieviele CUs in einer SE drin sein müssen, damit ein entsprechender Die groß genug ist. Selbst bei 20CUs wäre man nicht mal auf 40mm² kommen, wo man sich schon fragt, ab wann zu kleine Chiplets durch Verschnitt und Packaging wieder teurer werden. Und AMD hätte die Cache-Hierachie ändern müssen, da es ja wohl keinen Sinn ergibt, sowohl L2 als auch L3 über alle Dies verteilt zu betreiben. Sprich: Der L2 müsste auf SE-Ebene oder zumindest auf Base-Die-Ebene runtergezogen werden und nur der IF$ ist komplett shared. Aber es ist ja nicht ausgeschlossen, dass N44/48 sowas nicht haben.
Leonidas
2024-04-28, 08:34:13
Ein paar neue Gerüchte
https://wccftech.com/amd-high-end-navi-4x-rdna-4-gpus-9-shader-engines-double-navi-31-rdna-3-gpu/
Bevor hier herumgehyped wird: es ist der gecancelte Chip
Wenn das stimmt, wäre die ursprüngliche Portfolio-Planung wohl so gewesen:
N41 - 3 Chiplets
N42 - 2 Chiplets
N43 - 1 Chiplet
N44 - monolithisch
Damit N43 klar oberhalb von N44 (32CU) herauskommt, sind 40 CU pro Chiplet eigentlich zu knapp, wenngleich nicht undenkbar. Auch 44 oder 48 CU wären möglich, selbst größere Zahlen nicht unmöglich. Nur auf oberhalb 60 CU würde ich nichts geben, weil dies dann auch mit der Speicherbandbreite knapp werden würde. Aufgrund der internen Anbindungen dürfte auch das SI an der Anzahl an Chiplets hängen, ergo:
N41 - 3 Chiplets, 384-bit
N42 - 2 Chiplets, 256-bit
N43 - 1 Chiplet, 128-bit
N44 - monolithisch, 128-bit
... was bedeutet, für N43 mit seinem Speicherinterface kann man nicht beliebig viel CUs einplanen, irgendwann limitiert das Interface. 48 oder 56 CU wären eine gute Mittellösung.
PS: Mag sein, dass dies alles gestrichen ist. Aber es kommt ja wieder mit RDNA5.
mboeller
2024-04-28, 12:15:23
Wenn das stimmt, wäre die ursprüngliche Portfolio-Planung wohl so gewesen:
wenn ich es richtig verstanden habe sprach er von >200CU für Highend.
216CU würden IMHO am besten passen
216CU = 108WGP bei 3 CU-Chiplet x 3 Base-Die für N41, ergibt 12WGP pro CU-Chiplet
3x 12/24 = wären max. 36WGP/72CU für N43
wurde hier diskutiert:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-92#posts (mehrere Posts auf der Seite von unterschiedlichen Leuten)
Leonidas
2024-04-28, 12:45:38
Erscheint harsch viel. Aber natürlich kann ich mich beim SI auch irren.
mboeller
2024-04-28, 13:27:02
Erscheint harsch viel. Aber natürlich kann ich mich beim SI auch irren.
yein. 128bit sollte passen, aber GDDR7. Die Chiplet RDNA4 sollten nach den monolithischen Versionen (also ursprünglich nur N44) erscheinen. Dann hätte es mit GDDR7 funktioniert. Laut Kepler hat RDNA4 einen GDDR6/7 Speicherkontroller (also auch N44 und N48). Ich bin schon gespannt ob das nicht nur eine Ente ist.
GerryB
2024-04-28, 14:23:22
Das wäre net schlecht für nen Refresh, vor allem weil GDDR7 sparsamer und kühler ist.
bbott
2024-04-28, 14:54:21
...
N43 - 1 Chiplet, 128-bit
N44 - monolithisch, 128-bit
...
Wo wäre dann der Unterschied zwischen N43 und N44? N43 wegen 1 Chiplet die Chiplet kosten, dann doch lieber N44. Zwei Chips mit gleichem SI und damit gleicher CU Anzahl, oder eine Lösung mit unter‐ oder überdimensioniertem SI?
Macht irgendwie keinen Sinn.
DrFreaK666
2024-04-28, 15:15:04
Wird Zeit, dass es mal ein paar offizielle Infos gibt. Die Unsicherheiten nerven
basix
2024-04-28, 15:53:58
Wo wäre dann der Unterschied zwischen N43 und N44? N43 wegen 1 Chiplet die Chiplet kosten, dann doch lieber N44. Zwei Chips mit gleichem SI und damit gleicher CU Anzahl, oder eine Lösung mit unter‐ oder überdimensioniertem SI?
Macht irgendwie keinen Sinn.
Macht schon Sinn ;)
Bei N43 wären aber mehr CU drauf gewesen. Halt das, was jetzt N48 ist -> 64 CU:
- N44 Mono = 32 CU, 32MByte IF$, 128bit, standard GDDR6 (18Gbps)
- N43 Single-Chiplet (1x Base, 1x Stacked) = 64 CU, 64MByte IF$, 128bit, GDDR7 oder sehr schneller GDDR6 (z.B. 22Gbps)
Bei den AMD Patenten zum Stacking waren 3x Die auf einem Base Die gestacked. Wenn ich aber anschaue, dass 2x SE gerade mal 50...60mm2 gross sind (bei RDNA3 und abgeschätzt auch RDNA4), könnte man das gleich in ein einzelnes 100...120mm2 Chiplet verfrachten. Das wäre gleich gross oder etwas kleiner als die Chiplets bei MI300.
Macht bei 3x Partitionen und 384bit ganze 192CU. Das hätte gereicht für Lovelace und wäre wohl auch Blackwell gefährlich geworden.
Aber für RDNA4 ist das mittlerweile eh irrelevant. Für RDNA5 wird es wieder interessant :)
150mm2 Base Die + 2*50mm2 N3P Chiplet -> 3*(128bit + 64MByte IF$ + 2*40CU) ergäbe 384bit, 192MByte IF$ und 240CU. Das wäre unter dem Strich bei den Rohleistungswerten ~4x N48 (TFLOPS und effektive Bandbreite bei 28Gbps GDDR7 vs. 18Gbps GDDR6). Passt fast schon zu gut wie die Faust aufs Auge. Und je nachdem wie schnell N48 wird, wäre RDNA5 eine sehr, sehr schnelle GPU ;)
Was da nocht nicht ganz aufgeht sind Energiebedarf und wie kühle ich das. Da es gestacked wird, nimmt die kühlbare Chipfläche ziemlich stark ab. 450W wird da eher nicht drin liegen, man müsste bei ~350W bleiben, damit es kühlbar bleibt. 450W sind schon machbar, aber grenzwertig, da abgeschätzt ~1W/mm2.
mboeller
2024-04-28, 17:39:24
WTF ... was für ein Teaser:
https://twitter.com/All_The_Watts/status/1784561456694046744
N36 ... bisher kannte ich das nur als Gerücht
N41 ... "nur" 96WGP, nix über 100; aber nur 256bit, dafür GDDR7
Dafür N40 ... WTF (und bisher auch nur als Gerüchte bekannt)
und N50, anscheinend so groß wie N40
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.