Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
robbitop
2024-05-16, 16:17:35
Wie lange zieht eigentlich der "Pionierjahre-Joker" noch, mittlerweile 6 Jahre nach Turing? 10 Jahre, 20 Jahre? Und nein, es geht eigentlich nach wie vor nicht in Echtzeit, zumindest nicht wenn man es nicht nur für kleine Teilaspekte verwendet. Der Performance-Einbruch ist nach wie vor absurd hoch.
Je mehr FF HW desto kleiner der hit. Stell dir mal vor man würde die gleiche Argumentation bei Pixelshadern bringen (die Mitte der 2000er einen ähnlichen Stand hatten). Dann hättest du um Größenordnungen mehr fps.
Es ist nunmal bei Computergrafik (wie auch sonst in der Natur und Technik) so, dass das Gesetz des abnehmenden Grenzertrags gilt. Jeder Fortschritt in BQ kostet überproportional mehr Leistung. RT ist einer dieser Schritte - dafür gibt es dann aber endlich auch Dinge die schon immer semi gut waren in korrekt und hübsch: Refraktion, Reflexion und dynamisches GI.
Und ich finde das sieht heute schon verdammt gut aus.
NV scheint ja nicht der einzige IHV zu sein der das so sieht. IMG war schon lange vorher dort ein Vorreiter. Intel hat 2022 auch immerhin level 3.5 RT HW mit Alchemist vorgestellt. Und auch Sony scheint das unbedingt zu wollen und lies sich den PS5pro SoC (laut Gerüchten) extra mit einer deutlich aufgemotzten RT Pipeline ausstatten. Auch RDNA4 scheint es dieses Jahr nun wahrzumachen.
Diese Firmen mit entsprechenden Spezialisten die 1000x mehr Ahnung davon haben als wir würden nicht alle in die gleiche Richtung wollen, wenn sie dort nicht die Zukunft sehen würden. Cerny hat iirc sogar einige Patente auf RT Umsetzung in HW.
Außerdem: Pathtracing läuft durchaus in Echtzeit. Und da wird so ziemlich alles an Beleuchtung mit gerendert. Weiterhin macht es schon Sinn, Rasterizing und RT zu kombinieren. Nicht nur aus Performancegründen (in der Zeit wo die HW noch nicht so stark ist) sondern auch weil beide Verfahren ihre eigenen Stärken haben. Wenn man die nicht nutzt wäre das unklug. Insofern wird langfristig ein guter Teil Rasterizing bleiben.
Ich kann mich Waage daran erinnern das mein Freund damals auch seine 3dfx Karte (Voodoo Banshee) welches nur 16bit Farben konnte gegenüber der Konkurrenz mit 32bit, auch meinte das man es im Spiel nicht direkt sieht und es daher nicht so schlimm wäre. Es wird Zeit brauchen und braucht halt die kleinen steps mit jeder Gen.
Voodoo-Grafikkarten boten einen Postfilter an, der 16 Bit so gut interpolierte, dass es mit "22 Bit" gleichzusetzen war - nur eben mit 16-Bit-Speed. Andere GPUs abseits der Kyro hatten hingegen nur mieses 16 Bit, das entweder Dithering des Todes oder eine Farbverschiebung Richtung Grün oder Lila aufwies - oder alles zusammen. Insofern konnte man auf 3dfx-GPUs prima mit 16 Bit leben, bis nach 2000 die Fälle, wo die Präzision nicht ausreichte, immer zahlreicher wurden. Wenn man das mit etwas Modernem vergleichen kann, dann möglicherweise mit Standard-Denoiser vs. Ray Reconstruction. ;)
MfG
Raff
Achill
2024-05-16, 16:33:23
Wie immer werden leider Aussagen vermischt um das eigentlich kritische Argument zu verschleiern.
Dies war: Spiele welche RT/PT nutzen und wo NV bei der Entwicklung beteiligt war, laufen auf der HW der Konkurrenz deutlich schlechter als im Vergleich zu RT/PT Spielen ohne Beteiligung von NV.
Dazu kann man natürlich stehen wie man will ...
robbitop
2024-05-16, 16:42:36
Wie immer werden leider Aussagen vermischt um das eigentlich kritische Argument zu verschleiern.
Dies war: Spiele welche RT/PT nutzen und wo NV bei der Entwicklung beteiligt war, laufen auf der HW der Konkurrenz deutlich schlechter als im Vergleich zu RT/PT Spielen ohne Beteiligung von NV.
Dazu kann man natürlich stehen wie man will ...
Naja aber darauf habe ich mich bezogen dass man das differenziert sehen muss.
Grundsätzlich erstmal ja: das hat ein Geschmäckle. Ich glaube das sieht hier jeder so.
Schauen wir aber auf das Resultat muss man differenzieren woran es liegt wie gut RT läuft. IHV spezifische Optimierungen oder hohe RT Last in Relation zur Implementierung der RT HW.
Intels Alchemist hat eine relativ vergleichbare RT HW wie Ampere. Und obwohl für Arc von Nvidia nicht optimiert wurde, ist Arc sehr sehr gut in RT in CP77. Der Hit war vergleichbar mit Ampere.
RDNA2/3 mit Minimal RT HW brechen ein. Der dominierende Faktor scheint auf den ersten Blick die RT Last in Relation zur RT HW zu sein und weniger eine herstellerspezifische Optimierung.
DrFreaK666
2024-05-16, 17:03:40
...RDNA2/3 mit Minimal RT HW brechen ein. Der dominierende Faktor scheint auf den ersten Blick die RT Last in Relation zur RT HW zu sein und weniger eine herstellerspezifische Optimierung.
auf welche Benchmarks stützt du dich da?
Wollte bei PCGH schauen, aber da was aktuelles zu finden ist echt eine Sache der Unmöglichkeit. Und solange es die 6750XT zu kaufen gibt, ist sie die Konkurrenz.
Im 7600XT Test gibt sie (oder die etwas langsamere 6700XT) nicht
https://i.postimg.cc/SNSY5h21/grafik.png (https://postimages.org/)upload photos (https://postimages.org/de/)
robbitop
2024-05-16, 17:40:44
Ich erinnere mich da an Raffs unzählige Arc Tests - link hab ich aber nicht zur Hand. Vielleicht kann Raff aushelfen.
Altehardware
2024-05-16, 21:13:41
da amd sowie nvidia sich für den Software Weg entschieden haben statt mehr alu auf die dxr Berechnung zu werden pro cu sm
Dürfte ab rdna5 und nvidia rtx50 Serie alles auf Echtzeit denoising hinauslaufen
Wie ist die entscheidende frage den dass wird erstmalig die shader entlasten, hat aber den Beigeschmack das es nur mit den upscalern funktioniert.
Bisher sind dlss xess reine auf Farbdifferenzen zur Auflösung Verbesserungen die mit den shadern in halber Genauigkeit berechnet werden.
In nvidia gpu arbeiten die tensor cores quasi gar nicht intels xe unklar amd hat gar keine tensor kerne.
Das nvidia dlss besser aussieht liegt primär an dem besserem algo, darum funktioniert auch jedes Spiel mit ner dlss Datei sofern upscaler unterstützt werden.
Da wird nix trainiert und denoised das geht aktuell nur mit Latenz
Die Ursache dafür ist die cpu da die gpu derzeit keine Out of order kann daher meine Vermutung das die neuen gen zumindest ein Arm cpu kern hat um das denoising zu beschleunigen nennt es npu.
das man was tun muss um mehr alu auszulasten weil dass cpu limit immer deutlicher wird ist klar Selbst in raster limitiert jede cpu den high end chip ad102 gb202 dürfte da kaum schneller werden da die cpu hier heftigste ausbremst.
zen5 wird das etwas entschärfen aber dennoch ist es immer noch schwer die gpu an die grenzen zu bringen.
Das es so kommt war abzusehen den mehr als 80sm beim ada design um die 3,0ghz schafft aktuell keine cpu auf die 340w und 99% load zu kommen.
zen5 dürfte um die 15% bringen und der x3d um die +40% aber die Auslastung ist identisch
womit ein ad102 statt wie bisher 75-80% eventuell ausgelastet wird in 4k bei 400w bis 420w in maximal 90-95% load.
ne gb202 soll min 160sm haben bei 3,0ghz die laufen ins leere
Da macht eine Aktualisierung mit Echtzeit denoising echt Sinn
Damit wäre pathtracing in viertel Genauigkeit drin statt wie bisher 10fps dann mit 40fps exkludiert upscaler der das auf 68fps springt bsp pathtraycing in nativen 2160p ad102
denoiser dann 32fach
Das wird jede rt core gpu können aber benötigt zwingend eine npu wo ist egal.
ich vermute sogar das nvidia diese software Lösung auch extern mit ner npu Beschleuniger in der cpu unterstützt aber es muss vom Spiel intrigiert sein
Wo nvidia eigene npu also die rtx50 Serie an dürfte das bei allen dxr spielen funktionieren.
amd hängt dann wieder ne gen dahinter und kann erst mit rdna5 eine ähnliche Lösung bieten.
DrFreaK666
2024-05-16, 21:26:10
Ich erinnere mich da an Raffs unzählige Arc Tests - link hab ich aber nicht zur Hand. Vielleicht kann Raff aushelfen.
Auch da gibts keine 67(50)XT
https://i.postimg.cc/52Q6Zq1j/grafik.png (https://postimages.org/)
vinacis_vivids
2024-05-16, 21:30:01
Bei Ray Tracing ist Nvidia technologisch von Imagination schon überholt worden. AMD lacht nur müde über den optischen Krüppelfilter von Nvidia wie einst Tesselation x256 und Hairworks-Schrott.
dargo
2024-05-16, 21:41:25
Von nichts kommt halt nichts. RT ist teuer. Dass das überhaupt in Echtzeit geht ist bis vor 10 Jahren noch unklar gewesen. Damit es voran geht müssen da Transistoren investiert werden.
Alles soweit richtig. Die Frage ist dabei nur in welchem Tempo es geschieht und zu welchen Preisen akzeptiert es der Kunde.
Achill
2024-05-16, 21:45:06
da amd sowie nvidia sich für den Software Weg entschieden haben statt mehr alu auf die dxr Berechnung zu werden pro cu sm
Dürfte ab rdna5 und nvidia rtx50 Serie alles auf Echtzeit denoising hinauslaufen
Wie ist die entscheidende frage den dass wird erstmalig die shader entlasten, hat aber den Beigeschmack das es nur mit den upscalern funktioniert.
Bisher sind dlss xess reine auf Farbdifferenzen zur Auflösung Verbesserungen die mit den shadern in halber Genauigkeit berechnet werden.
In nvidia gpu arbeiten die tensor cores quasi gar nicht intels xe unklar amd hat gar keine tensor kerne.
Das nvidia dlss besser aussieht liegt primär an dem besserem algo, darum funktioniert auch jedes Spiel mit ner dlss Datei sofern upscaler unterstützt werden.
Da wird nix trainiert und denoised das geht aktuell nur mit Latenz
Die Ursache dafür ist die cpu da die gpu derzeit keine Out of order kann daher meine Vermutung das die neuen gen zumindest ein Arm cpu kern hat um das denoising zu beschleunigen nennt es npu.
das man was tun muss um mehr alu auszulasten weil dass cpu limit immer deutlicher wird ist klar Selbst in raster limitiert jede cpu den high end chip ad102 gb202 dürfte da kaum schneller werden da die cpu hier heftigste ausbremst.
zen5 wird das etwas entschärfen aber dennoch ist es immer noch schwer die gpu an die grenzen zu bringen.
Das es so kommt war abzusehen den mehr als 80sm beim ada design um die 3,0ghz schafft aktuell keine cpu auf die 340w und 99% load zu kommen.
zen5 dürfte um die 15% bringen und der x3d um die +40% aber die Auslastung ist identisch
womit ein ad102 statt wie bisher 75-80% eventuell ausgelastet wird in 4k bei 400w bis 420w in maximal 90-95% load.
ne gb202 soll min 160sm haben bei 3,0ghz die laufen ins leere
Da macht eine Aktualisierung mit Echtzeit denoising echt Sinn
Damit wäre pathtracing in viertel Genauigkeit drin statt wie bisher 10fps dann mit 40fps exkludiert upscaler der das auf 68fps springt bsp pathtraycing in nativen 2160p ad102
denoiser dann 32fach
Das wird jede rt core gpu können aber benötigt zwingend eine npu wo ist egal.
ich vermute sogar das nvidia diese software Lösung auch extern mit ner npu Beschleuniger in der cpu unterstützt aber es muss vom Spiel intrigiert sein
Wo nvidia eigene npu also die rtx50 Serie an dürfte das bei allen dxr spielen funktionieren.
amd hängt dann wieder ne gen dahinter und kann erst mit rdna5 eine ähnliche Lösung bieten.
WTH :confused: ... ist der Text von drei verschiedenen ChatGPT Anfragen, die dann gemixed wurden?
robbitop
2024-05-16, 21:54:46
Alles soweit richtig. Die Frage ist dabei nur in welchem Tempo es geschieht und zu welchen Preisen akzeptiert es der Kunde.
Sehe ich auch so. Die Abzocke seit Covid hilft leider auch nicht dabei.
Achill
2024-05-16, 22:00:51
[..]
Schauen wir aber auf das Resultat muss man differenzieren woran es liegt wie gut RT läuft. IHV spezifische Optimierungen oder hohe RT Last in Relation zur Implementierung der RT HW.
Intels Alchemist hat eine relativ vergleichbare RT HW wie Ampere. Und obwohl für Arc von Nvidia nicht optimiert wurde, ist Arc sehr sehr gut in RT in CP77. Der Hit war vergleichbar mit Ampere.
RDNA2/3 mit Minimal RT HW brechen ein. Der dominierende Faktor scheint auf den ersten Blick die RT Last in Relation zur RT HW zu sein und weniger eine herstellerspezifische Optimierung.
Aber Ray-Reconstruction inkl. dem 1-Pass Denoiser sowie Shader Execution Reordering sind bei CP und AW an Board und sehr wohl spezifische SW Optimierungen von NV für deren HW - es bedarf in allen Fällen eine Integration durch Entwickler und funktioniert nicht Transparent rein durch HW.
Was die alternative Lösung für AMD und Intel in solchen Spielen ist, und wie gut diese im Vergleich zum SW-Stack von NV optimiert wurde (und von wem), das ist die offene Frage.
Geht man davon aus, dass es keine (gute) Optimierung gibt, sprich in den Spielen dann AMD / Intel mehr Rays als NV braucht, weil man eben nicht auf temp. die Reconstruction der Rays zurück greifen kann, oder weil für AMD/Intel eben Shader+Rays nicht für deren Ausführung sortiert werden (z.B. das Daten optimaler in der Cache vorliegen), dann gibt es sehr wohl einen überproportionalen Impact von RT-Leistung und eine GPU, die dann eben besser in RT-Operationen performt (Intel) im Vergleich zu AMD, bricht dann weniger stark ein - aber immer noch stärker als bei NV ...
robbitop
2024-05-16, 22:11:06
Naja RR und SER hat zu dem Zeitpunkt halt nur NV in HW verbaut. Trifft (was SER angeht) dann auch nur für Ada zu.
Aber ja das würde out of the box nicht funktionieren wenn andere IHVs nachziehen. Da hast du Recht.
auf welche Benchmarks stützt du dich da?
Wollte bei PCGH schauen, aber da was aktuelles zu finden ist echt eine Sache der Unmöglichkeit. Und solange es die 6750XT zu kaufen gibt, ist sie die Konkurrenz.
Im 7600XT Test gibt sie (oder die etwas langsamere 6700XT) nicht
https://i.postimg.cc/SNSY5h21/grafik.png (https://postimages.org/)upload photos (https://postimages.org/de/)
Ich erinnere mich da an Raffs unzählige Arc Tests - link hab ich aber nicht zur Hand. Vielleicht kann Raff aushelfen.
Die 6700 XT ist mittlerweile in der aktuellen Iteration der Benchmarks enthalten (für die 50er einfach die Fps mal 1,05 nehmen ;)): https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
MfG
Raff
Prinzenrolle
2024-05-16, 23:10:15
Ja, die Sinnhaftigkeit...
Es ist nicht besonders hochwertig mit immer den gleichen abgehalfterten Kindergarten-Argumenten gegen RT anzuschreiben, besonders deshalb, weil die paar hartgesottenen Fans im 3DC die größten Wendehälse sind.
Dargo spielt kein Spiel mehr ohne DirectX12, weil AMD durch diese API besser dasteht, will dann aber plötzlich kein DXR, weil seine Mannschaft damit abloost. Lasst es doch einfach bleiben.
Nach RDNA4 kräht kein Hahn mehr danach.
Was man aus Entwicklerkreisen um die PS 5 Pro hört, hat die AMD Karte die RT Leistung einer 4080.
Dann hören auch die hanebüchenen Kommentare aus der AMD Bubble auf.
RT geht nicht mehr weg. Und wenn ihr euchs nicht leisten könnt oder wollt ist mir das auch vollkommen Latte.
DrFreaK666
2024-05-16, 23:38:28
Die 6700 XT ist mittlerweile in der aktuellen Iteration der Benchmarks enthalten (für die 50er einfach die Fps mal 1,05 nehmen ;)): https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
MfG
Raff
Thanks. Die 6700XT hebt sich nicht besonders von der 7600XT ab in CP RT.
Slipknot79
2024-05-17, 00:38:15
Ich frage mich wirklich in welcher Traumwelt du lebst. Als ob DEVs sich für Enthusiasten interessieren würden...lol.
Offensichtlich träumst du von DEVs. Die Rede war aber von Lederjacke. Also hör auf zu träumen und lenke nicht up. (y)
Sehe ich auch so. Die Abzocke seit Covid hilft leider auch nicht dabei.
Weder AMD noch Lederjacke sind pleite. Also wars richtig. (y)
DrFreaK666
2024-05-17, 01:22:30
Offensichtlich träumst du von DEVs. Die Rede war aber von Lederjacke. Also hör auf zu träumen und lenke nicht up...
Naja, wenn Lederjacke mit Geld winkt, dann greift man natürlich gerne zu.
dargo
2024-05-17, 07:37:23
Dargo spielt kein Spiel mehr ohne DirectX12, weil AMD durch diese API besser dasteht, will dann aber plötzlich kein DXR, weil seine Mannschaft damit abloost. Lasst es doch einfach bleiben.
Was laberst du da schon wieder für einen bullshit? Seit ihr im grünen Lager durch RT(X) schon völlig vernebelt oder was ist mit euch los? Bestimmt 50% oder sogar mehr der Games die ich in den letzten Jahren gespielt habe hatten DXR optional im Menü und ich hatte sie gespielt. Halt ohne DXR oder mit dezentem Einsatz wo es nicht zu teuer war, und mir ist dabei kein Bein abgefallen. ;D Und, dass ich aktuell kein Spiel ohne D3D12 spiele liegt einfach daran, dass nichts mehr mit D3D11 kommt was mich anspricht (Gott sei Dank, der Übergang zu low level hat auch ewig gedauert, typischer Nachteil einer PC-Plattform). Das letzte D3D11 Game war glaube ich God of War wenn ich das noch richtig in Erinnerung habe, könnte auch Days Gone gewesen sein.
PS: und hört endlich auf das ganze Thema auf mich runter zu brechen. Als ob einzelne Spieler relevant wären. :rolleyes: Selbst wenn ich irgendwann vermehrt RT verwende wenn die Kosten überschaubar sind heißt es noch lange nicht, dass es die Masse der Gamer tut! Die Masse steht aktuell irgendwo grob bei einer RTX 3060 sofern Steam den globalen PC-Markt einigermaßen gut widerspiegelt.
Offensichtlich träumst du von DEVs. Die Rede war aber von Lederjacke. Also hör auf zu träumen und lenke nicht up. (y)
Einfachste Logik ist offenbar nicht deine Stärke. Ohne DEVs keine Spiele, ohne Spiele kannst du deine Gaming Grafikkarte in den Müll werfen.
Slipknot79
2024-05-17, 11:37:13
Einfachste Logik ist offenbar nicht deine Stärke. Ohne DEVs keine Spiele, ohne Spiele kannst du deine Gaming Grafikkarte in den Müll werfen.
Du lenkst wieder nur up weil du nicht weiter weißt, genauso kann man sagen "ohne Lederjacke"... Bringt dich aber auch nicht weiter.
dargo
2024-05-17, 14:42:19
Ich gebs auf... mit dir eine Diskussion darüber zu führen wie ein Gamingmarkt, der auf Masse angewiesen ist, funktioniert ist eh komplett sinnlos. Aber lebe ruhig weiter in deinem Paralleluniversum wo Enthusiasten eine große Rolle beim Gaming spielen. :lol:
boxleitnerb
2024-05-17, 18:37:36
Wenn nur die breite anspruchslose Masse eine Rolle spielt, warum macht sich dann überhaupt jemand die Mühe, neue Technologien zu entwickeln bzw. zu verfeinern? Einer ist immer zuerst dran mit etwas und versucht das marketingtechnisch zu verkaufen. Der breite Markt zieht langsamer nach - hauptsächlich weil es irgendwann auch für den Normalo als Verkaufsargument zieht oder weil es Ressourcen spart (z.B. bei der Entwicklung und von Devs gewünscht wird). Am Ende geht es immer um Geld.
DrFreaK666
2024-05-17, 18:59:00
Natürlich geht's immer ums Geld, aber auch beim Kunden. Und nur wenige sind bereit Unsummen für das Beste auszugeben, egal ob GPU, TV, Musikanlage, Sofa, Küche usw
boxleitnerb
2024-05-17, 19:29:01
Natürlich geht's immer ums Geld, aber auch beim Kunden. Und nur wenige sind bereit Unsummen für das Beste auszugeben, egal ob GPU, TV, Musikanlage, Sofa, Küche usw
Ja, und diese Kunden müssen sich dann halt gedulden, bis OLED usw im Mainstream angekommen sind. Man kann gegen das Enthusiastensegment stänkern, ist aber irgendwie sinnlos. Niemand wird gezwungen.
Ach, der RT-Krempel ist teuer und für den Moment den Aufwand nicht wert. Ein gescheites HDR 10 sieht imo deutlich besser aus.
BTW. sieht Kimi eine Steigerung von N48 zu N31 bei x2.5!
robbitop
2024-05-17, 20:36:46
Diese hohen Faktoren für RT Performance sind sicherlich bezogen auf den RT Anteil der Gesamtframetime bezogen und nicht die Gesamt FPS.
dargo
2024-05-17, 21:10:57
Diese hohen Faktoren für RT Performance sind sicherlich bezogen auf den RT Anteil der Gesamtframetime bezogen und nicht die Gesamt FPS.
Könnte genauso irgendein worst case wie zb. PT in CP77 ohne Upscaling in höherer Auflösung sein wo du eh jeder GPU den Hals umdrehst. Also ob man dann 10fps hat oder 25fps ist dann auch wayne wenn du verstehst worauf ich hinaus will.
robbitop
2024-05-17, 21:23:26
Ja - das geht ja auch fast in die gleiche Richtung. In CP77 mit PT wo es richtig eng wird, wird RT bei RDNA3 (insbesondere in hohen Auflösungen) die dominante Komponente der dann insgesamt hohen Frametime bilden.
Der_Korken
2024-05-17, 23:01:44
Immerhin gab es zuletzt mehrere Hinweise, dass AMD hier beim HW-Level aufholt. Zwischendurch wurde aufgrund der kleinen (angeblichen) Die-Sizes gemutmaßt, dass RDNA4 hier auf dem gleichen Level wie RDNA2/3 bleibt. Dass die 2.5x keine Leistungsangabe für die Gesamtleistung sind, da sind wir uns hoffentlich alle einig. Der 2.5-fache Speedup für Ray-Intersection und BVH-Traversal klingt für mich erstmal auch plausibel.
TheAntitheist
2024-05-18, 06:21:19
Immerhin gab es zuletzt mehrere Hinweise, dass AMD hier beim HW-Level aufholt. Zwischendurch wurde aufgrund der kleinen (angeblichen) Die-Sizes gemutmaßt, dass RDNA4 hier auf dem gleichen Level wie RDNA2/3 bleibt. Dass die 2.5x keine Leistungsangabe für die Gesamtleistung sind, da sind wir uns hoffentlich alle einig. Der 2.5-fache Speedup für Ray-Intersection und BVH-Traversal klingt für mich erstmal auch plausibel.
das waren auch nur bis zu 2x und das bei einem Sprung von 18 auf 30 CUs, ergo mehr als 50% mehr shader. also ist der Spung deutlich geringer
The_Invisible
2024-05-18, 07:18:01
Ach, der RT-Krempel ist teuer und für den Moment den Aufwand nicht wert. Ein gescheites HDR 10 sieht imo deutlich besser aus.
BTW. sieht Kimi eine Steigerung von N48 zu N31 bei x2.5!
Diese Faktoren sind doch Unsinn oder wo ist RDNA3 fast doppelt so schnell wie RDNA2?
vinacis_vivids
2024-05-18, 07:25:53
https://www.computerbase.de/2024-05/no-rest-for-the-wicked-early-access-benchmark-test/#abschnitt_benchmarks_in_ultra_hd
RDNA3 (7900 XTX) ist knapp doppelt so schnell wie RDNA2 (6800 XT).
dildo4u
2024-05-18, 07:58:53
Diese Faktoren sind doch Unsinn oder wo ist RDNA3 fast doppelt so schnell wie RDNA2?
RT in neuen Games?
https://i.ibb.co/9s6SC5M/Screenshot-2024-05-18-075641.png (https://ibb.co/ZW57kDZ)
https://www.computerbase.de/2024-03/dragons-dogma-2-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_uhd_mit_raytracing
https://i.ibb.co/S0kVtCZ/Screenshot-2024-05-18-075835.png (https://ibb.co/xGnz1Tr)
https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/
Hauwech
2024-05-18, 08:11:36
Nicht gerade sehr sinnig eine 6800XT mit einer 7900XTX zu vergleichen. Oder wäre jemand beeindruckt eine 3080 mit einer 4090 zu vergleichen?
OgrEGT
2024-05-18, 08:15:17
7900XT vs 6800XT in AW2 im PCGH Diagramm geht aber schon auch in die Richtung... nicht ganz doppelt so schnell... eher 75% schneller...
Modelle anhand ihrer Modelnummer zu vergleichen ist ohnehin nicht sehr sinnvoll... durch rechnerische Normierung auf relevante Parameter wie Ausführungseinheiten Takt oder Bandbreiten kann man dann besser vergleichen...
6800XT: 4608 CUs / 72 Ray Acc
6900XT: 5120 CUs / 80 RAs
7900XT: 5376 CUs / 84 RAs
7900GRE: 5120 CUs / 80 RAs
Somit könnte man eher sinnvoll die 6900XT mit der 7900GRE vergleichen bezogen auf die Anzahl der Einheiten. Taktnormierung außen vor...
robbitop
2024-05-18, 08:32:14
Naja man müsste in Raster normieren und dann in RT die Differenz vergleichen. Da nimmt man gegen die 6800XT am ehesten die 7800XT.
Und schmeißt einen Extremfall wie CP77 oder AW2 mit PT an.
Im ChipsandCheeseartikel wird bei rdna3 vs 2 vs Ada übrigens eine Frametime (RT Anteil) von cp77 für PT verglichen und da ist rdna3 wirklich deutlich schneller als 2.
Profiling the same Jig Jig street scene reveals that the very long duration path tracing call takes 26.37 ms (rtx 4070), which is an excellent performance. For comparison, the RX 7900 XTX took 34.2 ms, though on a different scene. The 6900 XTs is off the charts (in the wrong direction), taking over 160 ms.
https://chipsandcheese.com/2023/05/07/cyberpunk-2077s-path-tracing-update/
dargo
2024-05-18, 08:37:17
Nicht gerade sehr sinnig eine 6800XT mit einer 7900XTX zu vergleichen. Oder wäre jemand beeindruckt eine 3080 mit einer 4090 zu vergleichen?
Erstens das... wobei du bei der 6800XT einfach nur 9% drauf rechnen musst dann hast du dein Ergebnis der 6900XT. So groß war der Abstand jetzt auch nicht. Viel bescheuerter finde ich Settings zu vergleichen mit 23fps vs. 45fps. Beides wäre zumindest für mich deutlich zu wenig.
OgrEGT
2024-05-18, 08:40:51
Ich würde Modelle mit ähnlicher Anzahl an Ausführungseinheiten nehmen. Diese dann wie du sagst im Takt so auf Rasterleistung normieren und dann vergleichen... wenn ich wissen will was RDNA3 zu RDNA2 an RT Leistung draufgepackt hat...
Hübie
2024-05-18, 14:31:53
Da braucht man nur mal in die ISA schauen und stellt fest, dass RDNA 3 nun non-sequential-adress für die BVH Struktur hat (ist im Grunde nichts weiter als zusammen gepackte Adressen die im VGPR abgelegt werden). Da gab es also so gut wie keine Veränderung. 6900 XT -> 7900 XT sind 0,5% mehr "RT-Kerne". Letzten Endes haben die Ingenieure da also hier und da eine Datenleitung mehr verlegt und das war es dann. RDNA3 ist eigentlich eher RDNA 2.5.
Die GPU-Hersteller müssen langsam dahin gehen, dass Frontend zu optimieren. 100% GPU-Last im Afterburner haben nix mit der Belegung der ALUs mit Rechenaufgaben zu tun. ;)
mboeller
2024-05-20, 12:49:51
https://www.pcgamer.com/hardware/graphics-cards/amd-linux-devs-jamming-nearly-24000-lines-of-rdna-4-supporting-code-into-its-mainstream-driver-suggests-next-gen-launch-may-be-close-at-hand/
https://www.phoronix.com/news/AMD-RDNA4-Merged-Mesa-RadeonSI
The big code merge was spotted by Phoronix and there's only one reason why engineers would be so busy updating their code base for an architecture that isn't currently on the market—it will be very soon.
hat jemand Erfahrung wie lange vor dem Launch so was normalerweise passiert?
Hübie
2024-05-20, 16:09:30
Es bedeutet zumindest, dass die Hardware fertig ist. Die Logistik (Verteilung an AIBs, Design der Kartonagen, Handbücher usw. usf.) dürfte so ca 6 Monate brauchen, bis die in den Regalen des Endverbrauchermarktes liegen. Ich tippe auf Ende Oktober, Anfang November. Vorstellung vielleicht schon Ende September. Just guessing.
The_Invisible
2024-05-20, 16:31:19
Das wäre mitten im Blackwell Launch Fenster, wer da wohl mehr Aufmerksamkeit bekommt? Obwohl, würde zu den AMD Marketingstunts passen...
DrFreaK666
2024-05-20, 17:06:53
Das wäre mitten im Blackwell Launch Fenster, wer da wohl mehr Aufmerksamkeit bekommt? Obwohl, würde zu den AMD Marketingstunts passen...
Nvidia zeigt 1000+ Karten, AMD deutlich günstigere. Ende 24 noch keine Konkurrenz
OgrEGT
2024-05-20, 19:28:13
So ist es. Wenn AMD GPUs unterhalb 5080 und 5090 launcht dann macht das sehr viel Sinn dies zur gleichen Zeit zu machen. Die Leute können rechnen was P/L anbelangt... und die NV Karten werden wohl eher um die 2000Eur herum liegen (die 5080 darunter die 5090 vlt sogar drüber)... ob sie den Preis dann auch Wert sind insb im Vergleich zu RDNA4 RT? Dazu FSR 3.1 und FG...
Altehardware
2024-05-21, 00:08:47
Hoch gegriffen nvidia hat aktuell Absatzprobleme amd verkaufts ich ordentlich gut nur bei den Konsolen schwächelt es.
Die letzten zahlen aus südkorea sagen das nvidai rtx4060 Serie sich da mit abstand am meisten verkaufen dabei muss gesagt werden das der markt primär F2P und mmo dominiert sind.
Das erklärt auch die hohen preise bei b2b verkauf bei rtx4060 sku.
nur in europa und usa verkaufen sich die rtx4060 sku sehr schlecht
amd indes hat quasi fasst keine alt gpu mehr im lager n21 quasi ausverkauft n22 beinahe n23 so gut wie weg n24 ausreichend vorhanden aber das verwundert nicht bei der rx6500xt
nvidia rtx30 Serie abseits der rtx3060 die dort in korea am besten geht von allen sku
Zahlen aus dem Kopf nur nvidia
20% rtx4060 rtx4060ti
25% rtx3060
15% rtx4070 super ti ti super
5% rtx4090
1% rtx4080
rest amd
von den anderen rtx30 keine spur mehr
Und nvidia hat nenn Lagerproblem mit alten ga104 ga107 chips
ad104 und ad103 häufen sich an was die rebrands mit rtx4070 ad103 und rtx4060ti ad104 erklärt
Somit ist auch klar warum nvidia dieses Jahr nur den gb203 bringt amd n44 ist fraglich n48 wird sicher kommen
Die preise dürften aber so sein
n48 64cu 16gb 499$ im maximum +- rx7900gre
n48 48cu 16gb 399$ +- 7800xt =ps5 pro
n44 32cu 16gb 299$ +- rx7600xt +8%
n44 28cu 16gb 249$ +-rx6600 +25%
Das heist aber auch das n32 bald eol wird und die Preissenkungen deuten darauf hin
Da es in asien gut läuft mit den 60 sku wird nvidia das aussitzen bis amd mit n44 Klarheit schafft
bedeutet aber auch das sony ziemlich sicher zum summer gamefest oder zur gamescom die ps5 pro vorstellen wird. inklusive preis von 449$ 20tf 16gb vram 576gb/s ohne Laufwerk. ps5 10tf refresh 349$
Neuerungen ps5 pro extend raytracing und 60+fps Modus garantiert
TheAntitheist
2024-05-21, 01:45:48
Hoch gegriffen nvidia hat aktuell Absatzprobleme amd verkaufts ich ordentlich gut nur bei den Konsolen schwächelt es.
garantiert
bei AMD hat man doch gesehen das die GPUs+Konsolen nicht mal mehr eine Milliarde schaffen im Quartal, Nvidia macht das 5x ohne Konsolen. Also wenn jemand Absatzprobleme hat, dann AMD, denn da ist der Absatz stark gefallen, bei Nvidia gestiegen.
Also die AMD Fanboys hier sind wirklich schrecklich
Altehardware
2024-05-21, 03:32:25
Es geht hier nicht um geld sondern um Stückzahlen
Hübie
2024-05-21, 10:24:15
Hast du da mal Zahlen an der Hand? Ich kenne nur die Verkaufszahlen von Mindfactory :D
OgrEGT
2024-05-21, 10:43:46
bei AMD hat man doch gesehen das die GPUs+Konsolen nicht mal mehr eine Milliarde schaffen im Quartal, Nvidia macht das 5x ohne Konsolen. Also wenn jemand Absatzprobleme hat, dann AMD, denn da ist der Absatz stark gefallen, bei Nvidia gestiegen.
Also die AMD Fanboys hier sind wirklich schrecklich
Wenn alle und auch Du damit aufhören würden andere abfällig und herablassend als FBs zu betiteln wäre wirklich viel gewonnen. Und ich meine das in alle Richtungen.
vinacis_vivids
2024-05-21, 10:46:49
Die ganzen Gaming-Handhelds mit AMD APUs hat der Kollege vergessen. Da steckt die Vega & RDNA2/3 uArch drin.
fondness
2024-05-21, 12:39:06
Das wäre mitten im Blackwell Launch Fenster, wer da wohl mehr Aufmerksamkeit bekommt? Obwohl, würde zu den AMD Marketingstunts passen...
Sorry aber manchmal fragt man sich schon. Es wird traditionell immer ~gleichzeitig gelauncht. Das hängt alleine schon an der Verfügbarkeit von neuen Fertigungsprozessen, Speicher, etc. Deshalb AMD einen Marketingstunt vorzuwerfen ist schon leicht ... naja. :ugly:
Wenn alle und auch Du damit aufhören würden andere abfällig und herablassend als FBs zu betiteln wäre wirklich viel gewonnen. Und ich meine das in alle Richtungen.
Volle Zustimmung.
The_Invisible
2024-05-21, 12:48:53
Nvidia zeigt 1000+ Karten, AMD deutlich günstigere. Ende 24 noch keine Konkurrenz
Klar gibt dann ja keine 4000er Karten mehr :rolleyes:
@fondness
Ja war so wenn es auch gleichzeitig Highend von AMD gab. Die 5700XT kam auch deutlich nach der 2000er raus. So verspielt man eher wieder einen Trumpf...
DrFreaK666
2024-05-21, 12:52:48
Klar gibt dann ja keine 4000er Karten mehr :rolleyes:
Schon wieder vergessen?
Das wäre mitten im Blackwell Launch Fenster, wer da wohl mehr Aufmerksamkeit bekommt?...
Altehardware
2024-05-21, 14:42:45
Diese Strategie hat amd auch 2016 gemacht beim launch von gcn4 vs nvidia pascal gen gtx1080
Diese war halb so schnell aber mit Kampfpreisen von 199$ und 249$ (1€-1,20$)
Vergliche zu heute nach 30% inflation und einen Höherem Niveau wird das rtx5080 vs rx8800xt auch halb so teuer
rtx5080 999$ rx8800xt 499$ was wird wohl eher gekauft
DrFreaK666
2024-05-21, 16:23:12
500$ ;D
robbitop
2024-05-21, 16:34:09
Ich glaube das könnte mittelfristig kein so unrealistischer Preis sein. Die 7800 XT kostet heute 500 EUR. Die 7900 XT in Deals öfter schon 650 EUR. Und grob in dem Bereich soll sich N48 aufhalten. Und wenn die neue Gen kommt, ist das mittelfristig auch weniger Wert, weil die Performance wächst.
Der_Korken
2024-05-21, 17:00:19
Ein 240mm²-N4-Chip wäre günstiger zu fertigen als ein 200mm²-N5-Chip mit zusätzlich 4x37mm² N6 und dem zugehörigen Packaging. Selbst wenn 7800XT und 8800XT das gleiche kosten, hätte AMD eine höhere Gewinnmarge. Sie haben natürlich keinen Grund das auch an die Kunden weiterzugeben, wenn Nvidia die nächste Mondpreis-Generation ausruft.
DrFreaK666
2024-05-21, 17:19:58
Ich glaube das könnte mittelfristig kein so unrealistischer Preis sein...
Hab mich verlesen. Dachte es geht um eine neue Nvidia-GPU 2024 für 500$ bei Erscheinen.
500€ würde ich natürlich feiern :)
Ein 240mm²-N4-Chip wäre günstiger zu fertigen als ein 200mm²-N5-Chip mit zusätzlich 4x37mm² N6 und dem zugehörigen Packaging. Selbst wenn 7800XT und 8800XT das gleiche kosten, hätte AMD eine höhere Gewinnmarge. Sie haben natürlich keinen Grund das auch an die Kunden weiterzugeben, wenn Nvidia die nächste Mondpreis-Generation ausruft.
RTX 4070/4080 sind ja weiterhin verfügbar und verschwinden nicht plötzlich nur weil 5090 und 5080 erscheinen. AMD muss sich natürlich auch an deren Preise anpassen
dargo
2024-05-21, 17:33:21
RTX 4070/4080 sind ja weiterhin verfügbar und verschwinden nicht plötzlich nur weil 5090 und 5080 erscheinen. AMD muss sich natürlich auch an deren Preise anpassen
An einer RTX 4070 muss sich AMD mit N48 nicht orientieren denn diese wird locker übertroffen. Und eine RTX 4080 kostet >1000€ aktuell.
OgrEGT
2024-05-21, 17:44:14
Ob N48 an die 4080 rankommen wird we will see... aktuell geht man von 7900XT Raster Performance aus... RT+x%... FSR 3.1...
Da wär man schon im Bereich von knapp 800-900EUr...
Der neue Highend Sweetspot?
davidzo
2024-05-21, 18:06:24
Ein 240mm²-N4-Chip wäre günstiger zu fertigen als ein 200mm²-N5-Chip mit zusätzlich 4x37mm² N6 und dem zugehörigen Packaging. Selbst wenn 7800XT und 8800XT das gleiche kosten, hätte AMD eine höhere Gewinnmarge. Sie haben natürlich keinen Grund das auch an die Kunden weiterzugeben, wenn Nvidia die nächste Mondpreis-Generation ausruft.
Ich sehe noch nicht richtig wie sie einen 64CU Chip mit 64MB Cache in 240mm2 bringen wollen. N4 hat gerade mal eine 6% höhere Dichte, wie soll das gehen?
Wie konnte man RDNA3 WGPs so stark verkleinern ohne signifikante Einbußen?Und wo hat man die Transistoren für BVH Traversal versteckt?
Irgendwas stimmt hier nicht. Die 275mm2 für N48 wie sie aus Asien vermeldet wurden klingen imo auch noch nach zu wenig. Wenn ich Navi22 um 6% shrinke und die 8% Fabric Overhead abziehe komme ich immer noch auf 298mm2. Wo bleibt da Platz für die RT Verbesserungen?
dargo
2024-05-21, 18:08:22
@OgrEGT
Du hast mich wohl falsch verstanden. Zwischen einer 4080 und 4070 liegen 57% Performance, da passt noch Einiges dazwischen.
DrFreaK666
2024-05-21, 18:26:58
@OgrEGT
Du hast mich wohl falsch verstanden. Zwischen einer 4080 und 4070 liegen 57% Performance, da passt noch Einiges dazwischen.
4070 Ti, 4070 Super, 4070 Ti Super
vinacis_vivids
2024-05-21, 18:42:13
4096SP bei 3,0Ghz shader und 3,3Ghz CP ~ 54 Tflops fp32
Mit internen uArch Verbesserungen ist die 7900XTX ~ 61,44 Tflops fp32 in Reichweite. Die 7900XT kann preiswert durch kleinere DIEs ersetzt werden, auch an VRAM auf 16GB ggü. 20GB eingespart. Auch IF$ nur noch 64MB statt 80MB$, von vormals 128MB (6900XT/6800(XT)) bei N21.
Der_Korken
2024-05-21, 19:33:49
Ich sehe noch nicht richtig wie sie einen 64CU Chip mit 64MB Cache in 240mm2 bringen wollen. N4 hat gerade mal eine 6% höhere Dichte, wie soll das gehen?
Wie konnte man RDNA3 WGPs so stark verkleinern ohne signifikante Einbußen?Und wo hat man die Transistoren für BVH Traversal versteckt?
Irgendwas stimmt hier nicht. Die 275mm2 für N48 wie sie aus Asien vermeldet wurden klingen imo auch noch nach zu wenig. Wenn ich Navi22 um 6% shrinke und die 8% Fabric Overhead abziehe komme ich immer noch auf 298mm2. Wo bleibt da Platz für die RT Verbesserungen?
Ich habe mich zur 240mm²-Theorie bereits selbst kritisch geäußert. Zu deiner Rechnung: Ich würde nicht RDNA2 als Ausgangspunkt nehmen, sondern N33. N48 ist ziemlich genau ein doppelter N33, der in N6 ca. 400mm² groß wäre. Wenn N4 jetzt z.B. 60% mehr density hat, wäre man bei 250mm². Dazu jetzt noch RT-Verbesserungen, andere Änderungen/Optimierungen, etc. Keine Ahnung wie sich das ausgeht, aber 275mm² scheinen mir nicht unmöglich. 240mm² dagegen super optimistisch.
Man könnte natürlich auch N32 als Basis verwenden, aber irgendwie ist bei den N5-GCDs alles komisch. Die Extra-Register, die scheinbar keine Mehrleistung einbringen, die 40%(?) mehr Transistoren pro CU, das Taktverhalten, etc. Und man muss die IF-PHYs abziehen. Ich denke, dass AMD schon stark auf Perf/mm² gehen wird und da bietet sich N33 als Basis mehr an als N31/N32.
The_Invisible
2024-05-21, 19:37:34
Schon wieder vergessen?
Ja NV macht Werbung mit der Speerspitze für sich selbst, auch für die kleineren Karten, ganz ungewöhnlich...
OgrEGT
2024-05-21, 19:42:53
@OgrEGT
Du hast mich wohl falsch verstanden. Zwischen einer 4080 und 4070 liegen 57% Performance, da passt noch Einiges dazwischen.
Ah OK Klaro :)
DrFreaK666
2024-05-21, 20:46:37
Ja NV macht Werbung mit der Speerspitze für sich selbst, auch für die kleineren Karten, ganz ungewöhnlich...
Als Nvidia die 4090 vorgestellt hat, dachten bestimmt ganz viele: "Jetzt ne 3080 kaufen; das wärs!"
Altehardware
2024-05-22, 04:17:26
Formel falschd a amd dual issue nur 17% von der zweite operation lä#uft 25% waren angedacht hat aber nicht geklappt
folglich 4096 *3*2,34 =28,7tf das entspricht in etwa der rtx4070ti (64+24*2*60*2,7=28,5tf)
Der Grund warum ich diese Formel anwende ist mein test von der gtx1060 1280 alu 10smn zu rtx3060 angegeben 3584 alu 28sm
Das passte vorne und hinten nicht da nur +74%-+88% herauskamen =8,5-9,2tf
Es sollte aber min +170% sein also 3584*2*1,88=13,4tf
Das cpu limit hält etwas auf folglich konnte das nicht Stimmen. was auch Test bewiesen vs der turing arch
Blackwell wird indes wieder dasselbe design sein aber mit dual issue hier ist noch offen wieviel zeit ausgenutzt werden kann für die zweite operation ich gehe von 25% aus also 2,5
Der rest bleibt identisch lediglich die sku ändern sich chipausbaustufen.
amd indes hoffe ich auf 2,5 mit dann 3,1ghz was durchaus realistisch ist
folglich maximal beim n48 64cu 31,7tf was in etwa der rx7900xt entspricht,
Wichtig ist nur wo die tbp sein wird samsung sf4x ist etwas ineffizienter als tsmc n4 node
daher dürfte man sich auf level von 64cu grob bei 200w-220w bewegen
Das verglichen mit der rx7900gre grob + 18-30% effizienter in n4 node würde das design locker auf 3,7ghz laufen
Die perf nahe der rx7900xtx bzw rtx4080 sein. bei gleichem verbrauch von 220w Effizienz Vorteil bei +50-65%
Da merkt man das amd sich voll verhauen hat bei der sram dichte und zu viel spannung darauf geben muss was die Effizienz vs n6 zunichte macht (+60%/30% Takt)
rdna 3 war geplant für 3,3 bis 3,5ghz daher die 3,7ghz von mir in n4 node
amd muss abr in dxr deutlich scheller werden was klar sagtd as mehr tmu in den chip muss
aktuell ist das Verhältnis rop tmu 1-2 wenn amd das auf 1-4 ändert beschleunigt das dxr auf etwa +47% pro cu
Demnach dürfte dann amd 64cu rdna4 bei etwa 66sm ada entsprechen oder eben gleichstand
das ist verglichen zu jetzt -106% deutlich besser aktuell braucht amd 96cu für 46sm
Dies bedeutet aber auch das amd den preis anvisiert damit sofern Amd das getan hat wenn nicht steigt die dxr perf nur um +14% und amd kämpft mit der rtx4070 also 64cu vs 46sm -40%
Das würde den preis erklären aber auch das amd nix geändert hat als rdna3 zu fixen.
also am ende keine option da beinahe gleicher preis rdna4 499$ vs ad104 499$ wie es aktuell ist. bei beinahe gleichem verbrauch
Folglich salvage chip mit 48sm dürfte dann die 180w grenze haben und etwa perf von der rtx4060ti in dxr sein
zu wenig für mich + 45%
Das amd immer so knapp daran vorbeischnappt von mir gekauft zu werden irgendwas ist immer
2006 fehlende feature kein dx9.0c
2010 fehlende Verfügbarkeit
2013 fehlende Effizienz
2016 Skandal mit dem pcie slot specs
2021 zu teuer
2024 vermutlich kaum Steigerung in dxr vergl zu nvidia rtx40
2025 wird es wieder ne nvidia sofern die preise nicht deutlich fallen (rtx4070 unter 500€ dann vielleicht)
2026 werden beide die letzte 60 class bringen Da ab dann mcm standard wird.
2027 nur noch apu vs high end gpu
gestützt wird ie apu these durch den ddr6 Standard der bis 17gbps gehen wird Zu beginn soll aber 12-14 sein.
Da amd ab am6 quadchannel einführt sind entry gpu Geschichte.
12*256/8=384gb/s in kleinsten konfig von ddr6 maximal dann 544gb/s
real sehe ich 14gbps als norm an 448gb/s abzüglich latenz grob 400gb/s
Wenn dann die apu noch inf cache haben dann ist klar wohin amd will.
Entry only apu mit 8 cpu kernen low power 5ghz und 2 high power 7,5ghz mit dann 60cu bei 3,9ghz in n3 node als IGP rx7900xt perf mit dann 300w tdp ab als apu
konfig dann
apu ab 400€
board ab 200€ ram 4 sticks ab 200€
SSD 100€
case 50€
aio 150€
Netzteil 650w 80€
entry pc ab 1180€
die apu gibt es in drei Abstufungen einmal 60cu 48cu und 32cu kleinste bei 200€
cpu kerne dementsprechend kleiner einmal 6 kern+2kern 48cu (29tf etwa rtx4070ti=xbox next perf) und 4kern und 2 kern 32cu (19,5tf etwa rtx4070 =ps5 pro perf)
billigste kombi dann
apu 200€
board 200€
ram 200€
ssd 100€
case 50€
aio 150€
Netzteil 80€
=980€
was wird nvidia tun sich aus dem entry markt zurückziehen womit dgpu ab 600€ anfangen werden ab 2027 Diese werden ab 80tf sein die xbox next Vollausbau hat 108cu bei 3,9ghz grob 56tf
amd mid class min 96cu bei 4,3ghz grob 60tf ab 550€ Die TBP wird aber zum problem da diese nicht unter 250w sein wird.
nvidia Konter wird der gx206 mit mcm 88sm 3,5ghz +62tf 600€ vermutlich 250w in n3 node
dxr gleichstand
Das ist erst 2027 so weit bis dahin ist das ne Versechsfachung der perf zur entry class oder Verdreifachung der mid class dank mcm
Daher der Plan
rtx4070 bzw rtx5060 dürfte etwa gleich sein 2024/2025
amd rdna5 salvage chip vermutlich 72cu 200w grob 40tf 2026
nvidia nix 2026
2027 unklar ob amd oder nvidia da beide die taktkeule schwingen 250w und 300w sind sehr wahrscheinlich
Erst 2028 mit n2x node wird das deutlich besser -36% Energie oder +18% Takt was am ende genutzt wird ist unklar kann auf +9% Takt mit -18% Energie sein was dann 88sm 74tf 205w bedeuten wird.
Lieber wäre mir aber 67tf bei nur 160w
Die xbox next wird einmal 48cu 3,9ghz 29tf haben und einmal 108cu 3,9ghz 56tf haben.
ps6 unklar vermutlich identisches design in rdna6 mt mehr alu per gcd tippe auf 60 auch da zwei Modelle einmal 90cu 45tf und einmal 158cu 74tf bei nur 3,5ghz
Womit am pc der einstieg bei genau 30tf sein wird ab 2027
Da amd dann die neue apu Serie (n2x gaa 50% dense) mit doppelte cu per apu kommt egalisiert sich das und das auf so am6
Deswegen ist ein salvage gx206 mit 88sm fragwürdig hier wird man einfach mehr alu per gpc setze auf 64sm 4gpc =256sm salvage dann 224sm bei 3,9ghz tbp grob 250w 172tf =rtx8080 und Tschüss mid class
amd steigt dann mit 120cu per gcd ein zwei sind min 240 womit keine gpu mehr gibt unter 200w ab 2028 alles ab 250-300w oder apu. mit maxed 300w
Was tun bis 2027/28 definitiv folgende sku
rtx4070 (22tf 200w) oder rtx5060(23tf 180w) /rtx6060 (32tf 200w) alternativ rx8700xt(30tf 220w) und folgend rx9700xt (mcm 2gcd a48cu salvage 72cu 3,9ghz grob 40tf 200w)
Danach auf nen apu system wechseln am6 zweite gen mit ddr6 16gbps chip mit 8+4 kernen 5,0ghz -7,5ghz 96cu 3,9ghz
Da aber da ne aio Pflicht wird ist das spannend.
Nvidia ist dann keine option mehr da keine sku mehr unter 200w
Aktuell
200€ gpu 9tf-10tf entspricht low end rx6600 rtx3060 ps5 170-190w (30fps 1080p)
300€ gpu 13tf entspricht entry rx7600xt rtx4060ti 190w (45fps 1080p)
500€ gpu entspricht ps5 pro 150w =mid class aktuell etwa rtx4070 level 200w (60fps 1080p)
Ihr seht das problem. Die Anforderungen haben 2023 und 2024 stark angezogen Stärker als gedacht so eine situation gab es zuletzt 2014 beim Wechsel von xbox360 auf ps4
nur das 2013 die preise relativ human waren auch dank eines guten Dollar euro Kurs
BlacKi
2024-05-22, 09:43:18
die 8800xt wird den preis kosten, den man mit dem alten portfolio mitgehen kann. die rdna3 karten werden noch etwas fallen, aber dann weiß man schon wo die 8800xt perf/€ rauskommen wird. 599€ mit 16gb. 32gb wird wohl nicht kommen, imho. die karte wird dann innerhalb des ersten jahres 100-150€ nachgeben, wenn das alte portfolio beider hersteller weg ist und das neue voll da.
ich glaub aber auch nicht an die 5080 für 999€, das werden eher 1099-1299€
fondness
2024-05-22, 12:46:29
Ich sehe noch nicht richtig wie sie einen 64CU Chip mit 64MB Cache in 240mm2 bringen wollen. N4 hat gerade mal eine 6% höhere Dichte, wie soll das gehen?
Wie konnte man RDNA3 WGPs so stark verkleinern ohne signifikante Einbußen?Und wo hat man die Transistoren für BVH Traversal versteckt?
Irgendwas stimmt hier nicht. Die 275mm2 für N48 wie sie aus Asien vermeldet wurden klingen imo auch noch nach zu wenig. Wenn ich Navi22 um 6% shrinke und die 8% Fabric Overhead abziehe komme ich immer noch auf 298mm2. Wo bleibt da Platz für die RT Verbesserungen?
Ja ich bin mit den jetzt schon fast als Fakten verkauften angeblichen Specs auch noch sehr vorsichtig. Man muss schon sehen, sollte das so kommen wie angenommen, würde RDNA4 alle aktuellen Chips nach allen relevanten Effizienzkriterien klar schlagen inkl. Ada Lovelance. Klar wird Blackwell auch Fortschritte bringen, trotzdem wäre das eine mehr als beachtliche Spec.
fondness
2024-05-23, 13:22:07
Zumindest sind Navi44 & Navi48 mit dem letzten Merge auch offiziell bestätigt:
https://i.postimg.cc/Ls3721RM/Screenshot-2024-05-23-132048.png (https://postimages.org/)
https://github.com/ROCm/clr/blob/943fddc1a678508bd3e629b8e7b67c3e4a04e46d/opencl/tests/ocltst/module/runtime/OCLDeviceQueries.cpp#L122
Und damit wohl auch, dass es zumindest mittelfristig keine anderen GPUs gibt.
raffa
2024-05-23, 22:57:51
AMD wird schon so bald möglich neues nachschieben, siehe die Spekulation über den ZEN Moment der GPUs. Man kann eigentlich davon ausgehen, dass RDNA4 nur ein "Lückenfüller" und an der nächsten Generation fieberhaft gearbeitet wird.
Persönlich wär ich über grundsolide NAvi44 und 48 aber erstmal durchaus erfreut.
Wir sind auch an einem Punkt, wo die absolut stärkste, am meisten Strom saufende und teuereste Graka für viele keinen Sinn mehr ergibt, weswegen ich es persönlich begrüße, wenn dass auch in der Produktentwicklung ankommt.
robbitop
2024-05-24, 08:26:56
Es ist komischerweise immer erst die nächste oder übernächste RDNA Generation, die der Zen Moment sein soll. Und dann kommt die raus und dann ist nichts mit Zen Moment und es soll eigentlich ja doch die nächste oder übernächste sein.
Man könnte meinen alle müssten langsam "Zen fatique" haben. X-D
Außer AMDs CPU Sparte. :) (die bauen tatsächlich seit Jahren IMO schon die besten CPUs - die haben sozusagen mit jeder Zen Iteration einen "Zen Moment" X-D)
dargo
2024-05-24, 08:36:40
Was ein Blödsinn wieder. Man muss sich nur anschauen wie klein die Performancesprünge pro CPU-Gen sind. :rolleyes: Nur wird es dort lustigerweise anders gewichtet. Und auch dort geht es ständig mit dem Powerbudget nach oben wenn man was "reißen" will. Ein 3950X hatte eine TDP von 105W, ein 7950X hat bereits eine TDP von 170W!
OgrEGT
2024-05-24, 08:54:16
Es ist komischerweise immer erst die nächste oder übernächste RDNA Generation, die der Zen Moment sein soll. Und dann kommt die raus und dann ist nichts mit Zen Moment und es soll eigentlich ja doch die nächste oder übernächste sein.
Man könnte meinen alle müssten langsam "Zen fatique" haben. X-D
Außer AMDs CPU Sparte. :) (die bauen tatsächlich seit Jahren IMO schon die besten CPUs - die haben sozusagen mit jeder Zen Iteration einen "Zen Moment" X-D)
Häme und Spott aus Deinem Post sie scheinen zu sprechen?
robbitop
2024-05-24, 08:57:55
Der Punkt ist: IMO sollte den Begriff "Zen Moment" einfach weg lassen bzw dieses Überhypen der nächsten und übernächsten Generation. Einfach weil es oft genug getan wurde und dann die Enttäuschung groß war. Ich vermute, dass die "Leaker" diesen Begriff einfach immer wieder ausnutzen, um Klicks zu generieren. Die sind die einzigen, die vom Überhype profitieren.
Was ein Blödsinn wieder. Man muss sich nur anschauen wie klein die Performancesprünge pro CPU-Gen sind. :rolleyes: Nur wird es dort lustigerweise anders gewichtet. Und auch dort geht es ständig mit dem Powerbudget nach oben wenn man was "reißen" will. Ein 3950X hatte eine TDP von 105W, ein 7950X hat bereits eine TDP von 170W!
CPU Leistungssprünge sind viel schwieriger als GPU Leistungssprünge. 3D Grafik ist viel parallelisierbarer. CPUs hingegen müssen immer mehr ILP extrahieren und ggf. mit noch mehr Takt arbeiten. Entsprechend muss man das logischerweise ganz anders bewerten. Und weiterhin ist halt die Referenz immer das bisherige Top Produkt im Markt. Und da ist Zen ganz weit vorn. :)
Dino-Fossil
2024-05-24, 10:25:01
Meiner Meinung war der "Zen-Moment" mit der Einführung von RDNA gegeben, da sie damit wieder eine moderne, konkurrenzfähige Architektur hatten und doch einigermaßen überraschen konnten.
RDNA2 war ebenfalls gut (traf aber halt auf einen völlig kaputten GPU-Markt), erst RDNA3 konnte nicht ausreichend nachlegen.
Man sollte ja zwei Dinge nicht vergessen: 1. hat nVidia nicht wie Intel relativ lange geschlafen und 2. haben auch die Zen CPUs nicht den Marktanteil erreicht, den sie rein aufgrund der Eigenschaften vielleicht "verdient" hätten.
Intel hat einen gewaltigen Mindshare, für nVidia trifft das noch viel stärker zu.
Und pre-release Gerüchte zu AMD GPUs sind seit mindestens Polaris (und vermutlich schon vorher) zu 90% völlig überzogener Unsinn, warum auch immer.
robbitop
2024-05-24, 10:35:49
Ja würde ich auch so sehen.
RDNA1 war leider schnell veraltet. Kein VRS, kein dp4a/double pumped FP16, kein RT. Und leider auch kein High End Produkt.
IMO war RDNA2 RDNA1 done right.
Also man könnte sagen das war der Zen Moment in 2x Häppchen. Aber man hätte 2022 ganz anders nachlegen müssen als das war RDNA3 abgeliefert hat.
Für mich ist "Zen Moment" aber irgendwie doch mehr als das RDNA1/2 gebracht hat. Ja Nvidia ist stark - aber das ist nunmal die Referenz. Für mich wäre ein Zen Moment sowas, dass man in allen Metriken wenigstens gleich gut ist oder sogar besser.
Denn der Zen Moment ist nicht nur, dass man mit Zen 1 wieder da war (aber nicht in allen Metriken gleich gut war) - sondern eine Route über mehrere Iterationen gefunden hat, gleich zu ziehen oder sogar besser. Man hat Intel dann ge-"leapfroggt". Und das hätte RDNA sein können. Aber wie du schon geschrieben hast mit RDNA3 ging es (relativ zu NV) nicht weiter nach vorn sondern wieder zurück.
Ja ist gegen Nvidia schwieriger als gegen Intel (vielleicht sogar fast unmöglich). Aber das wäre IMO nötig damit der Begriff "Zen Moment" wirklich ohne hinterfragt werden zu müssen zutrifft. Insofern sollte man den Begriff vielleicht lieber doch meiden und außerdem ist overhype nie gut.
Viel besser ist IMO "underpromise and overdeliver".
vinacis_vivids
2024-05-24, 10:36:55
Nvidia ist überteuerter Schrott in der Mittelklasse.
dargo
2024-05-24, 10:48:33
Ja würde ich auch so sehen.
RDNA1 war leider schnell veraltet. Kein VRS, kein dp4a/double pumped FP16, kein RT. Und leider auch kein High End Produkt.
IMO war RDNA2 RDNA1 done right.
Also man könnte sagen das war der Zen Moment in 2x Häppchen. Aber man hätte 2022 ganz anders nachlegen müssen als das war RDNA3 abgeliefert hat.
Du scheinst irgendwie nicht zu verkraften/begreifen, dass RDNA3 nicht gelungen ist. Und so wird fast täglich ein Drama um AMDs GPU-Sparte deinerseits draus geschnürt. Meine Güte... müssen wir das jetzt noch bis 2025 ertragen? :freak: Hacke doch endlich RDNA3 ab! Das Ding ist misslungen und jetzt schaut man was RDNA4 @Performancesegment und RDNA5 (hoffentlich auch) @High End bringen. Wenn man eine GPU-Generation "verkackt" dann muss man da halt mindestens 2 Jahre durch. Eher mehr, der Übergang in eine neue Gen ist fließend.
Für mich ist "Zen Moment" aber irgendwie doch mehr als das RDNA1/2 gebracht hat. Ja Nvidia ist stark - aber das ist nunmal die Referenz.
Sorry, aber das ist auch kompletter Unsinn. Eine fast 2.000€ Gaming-Grafikkarte mit gigantische 609mm² (aktiv ist etwas weniger) ist keine Referenz! Und bei den Segmenten drunter ist es auch bei Nvidia komplett langweilig. Da hat sich bei Perf/$ auch extrem wenig getan. Nur die RTX 4090 kaschiert das ganz gut, dafür eben mit neuer Preisdimension. Das einzige wo Nvidia mit Ada unterhalb AD102 recht gut steht ist bei Perf/W. Logisch... wenn RDNA3 nicht gelingt. Alle wissen längst, dass RDNA3 zu durstig geworden ist.
Edit:
Schon eine RTX 4080 Super @AD103 mit bloß 379mm² knabbert an den 320W.
https://www.computerbase.de/2024-01/nvidia-geforce-rtx-4080-super-review-test/4/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Sooo sparsam ist Ada dann auch wieder nicht. Ada sieht bei Perf/W nur gut aus wegen dem misslungenen RDNA3.
robbitop
2024-05-24, 10:59:16
Dies ist ein Forum, wo freie Meinungsäußerung erlaubt ist. Du kannst meine (bzw grundsätzlich von jedem) Beiträge auch einfach überlesen, wenn dir der Inhalt nicht passt. Das ist eine legitime Option. ;)
Sorry, aber das ist auch kompletter Unsinn. Eine fast 2.000€ Gaming-Grafikkarte mit gigantische 609mm² (aktiv ist etwas weniger) ist keine Referenz! Und bei den Segmenten drunter ist es auch bei Nvidia komplett langweilig.
Natürlich steht dir deine eigene Meinung zu. Was dir nicht zusteht, ist die Ansicht von anderen als "Unsinn" zu bezeichnen. Zumindest, wenn du mit gebildeten Erwachsenen diskutieren willst. ;)
dargo
2024-05-24, 11:06:51
Natürlich steht dir deine eigene Meinung zu. Was dir nicht zusteht, ist die Ansicht von anderen als "Unsinn" zu bezeichnen. Zumindest, wenn du mit gebildeten Erwachsenen diskutieren willst. ;)
Lege deine rosarote Brille ab, dann kann ich dich wieder ernst nehmen. :)
die 8800xt wird den preis kosten, den man mit dem alten portfolio mitgehen kann. die rdna3 karten werden noch etwas fallen, aber dann weiß man schon wo die 8800xt perf/€ rauskommen wird. 599€ mit 16gb. 32gb wird wohl nicht kommen, imho. die karte wird dann innerhalb des ersten jahres 100-150€ nachgeben, wenn das alte portfolio beider hersteller weg ist und das neue voll da.
ich glaub aber auch nicht an die 5080 für 999€, das werden eher 1099-1299€
Du meinst wohl die Radeon AI 170 XT :freak:;D
Hakim
2024-05-24, 11:09:34
Das ist leider teils schlimm geworden hier im Forum. Zu den ganzen NV und AMD Trollen gibs viele die stark an Respekt beim diskutieren vermissen. Wenn einem was nicht passt wird der gegenüber einfach schlecht geredet samt unnötigen Smileys. Man traut sich gar nicht mehr bei bestimmten Threads selber was zu Posten
robbitop
2024-05-24, 11:15:37
Lege deine rosarote Brille ab, dann kann ich dich wieder ernst nehmen. :)
"Rosarote Brille" = Konventionen für eine respektvolle, sachliche Diskussion miteinander. Um mehr habe ich nicht gebeten.
Schade, dass du das so siehst und abzulehnen scheinst.
Exxtreme
2024-05-24, 11:18:58
Und zurück zum Thema bitte.
robbitop
2024-05-24, 11:28:56
Es ist nicht nur die 4090. Es ist auch Perf/W pro SKU. Es ist keine Featureparity. RT Performance (mag für dich irrelevant sein - aber es nimmt für andere mehr Bedeutung zu). FSR Upsampling wurde lange vernachlässigt (und erst jetzt kommt wieder was). FSR FG hatte einen sehr sehr rauen Start und kam relativ spät zur Generation.
Was bleibt ist reiner Rasterperformance wo man bis zur 1000 USD Kategorie sehr konkurrenzfähig war - die ist hervorragend. Das ist eine Metrik - aber nicht die einzige.
Wenn N48/44 zeigt, dass diese Themen relativ zu Blackwell und relativ zu RDNA3, deutlich nach vorne kommen, wäre das wunderbar aber auch nötig.
RDNA3 war nicht nur zu durstig sondern (IMO) es fehlte dort auch ein Stück weit der Schritt nach vorn aus high level Sicht in Bezug auf Innovation. High level sah sogar Alchemist deutlich moderner aus.
dargo
2024-05-24, 11:30:08
War wieder klar, dass mein Post gelöscht wird. Und dann soll ich meine Freizeit für dieses Forum investieren um mal weiter auszuholen? Lächerlich!
Spring
2024-05-24, 11:37:25
Sagt er mit 85k Beiträgen. ^^ Das jetzt Robbis beitrag stehengeblieben ist und Dargos nicht: Ihr macht das schon.
Ich kann beide verstehen. nv ist die Referenz und AMD ist die Butter und Brot Karte.
Da defacto nur hier ein Larry von RT/PT gemacht wird und in der einschlägigen Presse, sehe ich das entspannt.
Online in der GamingWelt sind solche Diskussionen unter Ferner liefen oder "was ist das"
Die RX8xxxx Karten werden ausreichend Käufer finden (so wie z.B. die 7800XT bei RDNA3 trotz rumgeunke), auch wenn Jensen die nächste Sau durchs Dorf jagt.
Über 1000€ auszugeben für GPUs ist und bleibt auf die Masse gesehen ein Bruchteil der User. und es ist auch völlig wurst, das es teurere Hobbies gibt.
Dino-Fossil
2024-05-24, 11:41:38
RDNA3 war nicht nur zu durstig sondern (IMO) es fehlte dort auch ein Stück weit der Schritt nach vorn aus high level Sicht in Bezug auf Innovation. High level sah sogar Alchemist deutlich moderner aus.
Blos, wo hat es Alchimist geholfen? Vielleicht dann bei Battlemage...
Ich denke man sieht halt, dass die GPU Sparte bei AMD nicht die gleiche Priorität hat, wie die CPU Sparte. AMD reagiert eher, als selbst zu innovieren. Allerdings wird es ihnen auch nciht leicht gemacht, wenn für die meisten Gamer Gaming-GPU = nVidia ist und das nVidia Sponsoring samt Unterstützung für die Devs deutlich umfangreicher ist.
Aber das ist wohl eine andere Diskussion.
RDNA3 hatte davon abgesehen z.B. mit den verbesserten AI-Instruktionen und dual-issue durchaus ein paar interessante Ansätze, es wurde nur nicht viel daraus gemacht (oder das Marketing hat ein bisschen zu sehr übertrieben)
Ich bin jedenfalls mal gespannt, ob RDNA4 ein neuer Polaris-Moment wird. ;) Das war zumindest ein sehr solider Mittelklasse-Chip mit gutem P/L.
robbitop
2024-05-24, 11:46:58
Blos, wo hat es Alchimist geholfen? Vielleicht dann bei Battlemage...
Naja deswegen sagte ich High Level. Low Level ist das alles wahrscheinlich noch ein gutes Stück von AMD/NV entfernt.
Man muss sagen Intel hat fast bei 0 angefangen mit Arc weil die IGP uArchs die sie bis dato hatten nicht wirklich zum Spielen designt worden sind.
High Level sah man aber den Ehrgeiz und den Anspruch den Intel hatte.
Man muss natürlich bei den ersten GPU Gens die Erwartungen managen.
Ich hoffe, dass mit RDNA4 ein Stück Innovation zurück kommt.
Ich denke man sieht halt, dass die GPU Sparte bei AMD nicht die gleiche Priorität hat, wie die CPU Sparte. AMD reagiert eher, als selbst zu innovieren. Allerdings wird es ihnen auch nciht leicht gemacht, wenn für die meisten Gamer Gaming-GPU = nVidia ist und das nVidia Sponsoring samt Unterstützung für die Devs deutlich umfangreicher ist.
Aber das ist wohl eine andere Diskussion.
RDNA3 hatte davon abgesehen z.B. mit den verbesserten AI-Instruktionen und dual-issue durchaus ein paar interessante Ansätze, es wurde nur nicht viel daraus gemacht (oder das Marketing hat ein bisschen zu sehr übertrieben)
Ja das ist alles so. Und deshalb denke ich, dass diese Overhypes von RDNA4 und zukünftigen Gens niemandem helfen. Man sollte seine Erwartungen managen.
Die 3D Sparte scheint in Zeiten von AI und Server CPUs bei AMD nur noch eine kleine Rolle einzunehmen. Das macht es umso schwerer, hier einen "Zen Moment" zu erzeugen. :)
Spring
2024-05-24, 11:47:02
Und selbst wenn AMD die eierlegende Wollmilchsau bringen würde, Häme ist trotzdem vorprogrammiert. Deswegen bei der RX 8xxx Serie sich Enthusiast sparen, wenns eh nicht reicht, macht Sinn. Sind einfach mehr NV user da und die finden immer was. So wie die AMD boys immer was bei Nv finden. Aber das sind Nebenkriegschauplätze und Nerdpimmelfechten.
So nen RX480 Nachfolger erhoffe ich bei der RX 8xxx series auch.
Das war die Knallerkarte für 250€ damals (und schon da mit 8GB) :)
robbitop
2024-05-24, 11:48:57
Relevanter als "Häme" in Foren sind reviews. Käme RDNA4 mit richtig guter Perf/W + Performance in Raster und RT relativ zum Wettbewerber und Featureparität würde es natürlich bessere Reviews geben. Und die haben sicherlich auch einen Einfluss auf den kommerziellen Erfolg. (natürlich zusammen mit anderen Kriterien/Einflüssen)
dargo
2024-05-24, 11:51:05
Sagt er mit 85k Beiträgen.
Ich habe tatsächlich eine kleine aber feine Info dabei vergessen... Frei(zeit). Habs jetzt extra für dich editiert. :)
Hakim
2024-05-24, 11:51:33
Die 5700er wurde doch eigentlich damals von vielen als gut gesehen. Ich bin ja eher leicht bei NV, habe aber damals zwei Freunden die Karten empfohlen und auch eingebaut. Denke könnte bei der 8800xt genau so werden wenn die Karten überzeugen. Käme auch für mich selbst in Frage
Käme auch für mich selbst in Frage
Meinen alten Desktop auf 5800X3D upgraden inklusive 8800xt kann ich mir aktuell auch als ne sehr solide Vernunftentscheidung vorstellen für WQHD.
Bin sehr gespannt auf das Produkt !
OgrEGT
2024-05-24, 21:13:19
Blos, wo hat es Alchimist geholfen? Vielleicht dann bei Battlemage...
Ich denke man sieht halt, dass die GPU Sparte bei AMD nicht die gleiche Priorität hat, wie die CPU Sparte. AMD reagiert eher, als selbst zu innovieren. Allerdings wird es ihnen auch nciht leicht gemacht, wenn für die meisten Gamer Gaming-GPU = nVidia ist und das nVidia Sponsoring samt Unterstützung für die Devs deutlich umfangreicher ist.
Aber das ist wohl eine andere Diskussion.
RDNA3 hatte davon abgesehen z.B. mit den verbesserten AI-Instruktionen und dual-issue durchaus ein paar interessante Ansätze, es wurde nur nicht viel daraus gemacht (oder das Marketing hat ein bisschen zu sehr übertrieben)
Ich bin jedenfalls mal gespannt, ob RDNA4 ein neuer Polaris-Moment wird. ;) Das war zumindest ein sehr solider Mittelklasse-Chip mit gutem P/L.
RDNA3 ist nicht so schlecht wie manche hier tun... Effizienz in etwa auf RDNA2 Niveau... nur skaliert die Leistung entsprechend mit mehr Leistungsaufnahme... dazu besseres RT als RDNA2... nur weil sich die Perf/W nicht verbessert hat wie erwartet wurde macht das aus RDNA3 keine schlechten Karten per se...
davidzo
2024-05-24, 21:34:48
RDNA3 ist nicht so schlecht wie manche hier tun... Effizienz in etwa auf RDNA2 Niveau... nur skaliert die Leistung entsprechend mit mehr Leistungsaufnahme... dazu besseres RT als RDNA2... nur weil sich die Perf/W nicht verbessert hat wie erwartet wurde macht das aus RDNA3 keine schlechten Karten per se...
Die Effizienz wäre sogar deutlich besser als RDNA2. Praktisch ist RDNA3 aber für Effizienzfans aus Gründen unattraktiv:
1. Navi 33 ist durch 6nm und hohem Takt quasi kaum effizienter als Navi 23 im 7nm Prozess.
2. Die Chiplet-GPUs sind dank 5nm bei ähnlicher performance zwar sparsamer aber leider vom Idleverbrauch völlig inakzeptabel. Bei einer typischen Nutzung die auch Internet surfen und Desktopanwendungen mit einbezieht ist RDNA2 daher womöglich sogar die stromsparendere Alternative, selbst wenn in Spielen eigentlich messbar weniger effizient.
The_Invisible
2024-05-24, 21:49:04
Da defacto nur hier ein Larry von RT/PT gemacht wird und in der einschlägigen Presse, sehe ich das entspannt.
Online in der GamingWelt sind solche Diskussionen unter Ferner liefen oder "was ist das".
Die ganze Industrie geht auf RT/PT und AI-Upscaling, das ist keine Sache für Nerds mehr, das konnte man vielleicht noch zum RTX2000 Launch sagen. Das ist auch das Problem der GPU Sparte von AMD, man hat das einfach unterschätzt.
Jensen hat hier mal wieder frühzeitig den Nerv der Zeit getroffen, das er sich das vergolden lässt ist aber auch keine Überraschung mehr.
][immy
2024-05-24, 22:08:41
Die ganze Industrie geht auf RT/PT und AI-Upscaling, das ist keine Sache für Nerds mehr, das konnte man vielleicht noch zum RTX2000 Launch sagen. Das ist auch das Problem der GPU Sparte von AMD, man hat das einfach unterschätzt.
Jensen hat hier mal wieder frühzeitig den Nerv der Zeit getroffen, das er sich das vergolden lässt ist aber auch keine Überraschung mehr.
Würde ich nach wie vor nicht sagen. Sicher hatten die RTX2000er RT Unterstützung. Heutzutage, wo es langsam kommt ist das aber quasi unnütz auf den Karten. Rdna2 & 3 sieht zwar nicht viel besser aus, aber man zahlt halt schon einen hohen Preis für eine Leistung die bald vermutlich nicht mehr ausreicht. Klar es gibt DLSS aber das muss man auch erst mal mögen (ist nach wie vor alles andere als perfekt). Und wenn man die Leistung nutzen könnte, geht der Speicher aus... außer man zahlt den extrem hohen Preis
Abgesehen davon das der Zeitpunkt noch extrem ungünstig ist, da gerade hohe fps und hohe Auflösungen dabei waren sich durchzusetzen. Etwas was mit RT/pt eher nicht vereinbar ist, trotz aller tricks die man bereits einsetzt. Mir persönlich reichen 30-60 fps (je nach Spiel) aber der Markt ist aktuell so was von segmentiert was Spieleerfahrungen angeht ... Eine Lösung für das alles ist selbst die rtx 4090 nicht.
Die ganze Industrie geht auf RT/PT und AI-Upscaling, das ist keine Sache für Nerds mehr, das konnte man vielleicht noch ...
Bei den wenigen Spieleneuerscheinungen pro Jahr, ist das aber eine gewagte Aussage.
Der Stand ist doch eher man kann's benutzen, muss aber massive Leistungseinbußen hinnehmen.
TheAntitheist
2024-05-25, 04:58:17
Bei den wenigen Spieleneuerscheinungen pro Jahr, ist das aber eine gewagte Aussage.
Der Stand ist doch eher man kann's benutzen, muss aber massive Leistungseinbußen hinnehmen.
jedes größere feature hatte massive performance kosten, das war immer so und wird immer so bleiben. aber nach RT kommt halt nix bis auf physx
TheGood
2024-05-25, 06:35:14
Ich bringe hier nur gerne wieder an, dass was hier schon erwäahnt wurde. Es wird immer ein STrick gefunden warum man keine AMD kauft, selbst wenn sie überall besser wären würde man diesen finden.
Beispiele bei RDNA2 gibts genügend:
zwischenlast verbrauch und genereller stromverbrauch war bei RDNA2 durchgehend besser. DAvon war in den Testzeitschriften fast nichts zu lesen und wenn, wurde es so hingenommen. Bei den Usern FAnboys ebenso. RDNA 3 hat sich das gedreht und auf einmal ist es das grösste Drama der Welt (bei den testern und usern)
Das ist die Realtät, aus diesem Grund braucht AMD gar keinen ZEN Moment, warum weil sich nichts ändern würde... Man sollte das einfach mal anerkennen und sich hier auch selbst reflektieren....
DLSS brauchte zwei Jahre bis es gut war (selbst da wurde es von vielen hier schöngeredet). So wird es bei FSR auch sein. ABer auch das ist das grösste Drama auf erden und selbst wenn FSR in Dingen besser als DLSS ist (Thema FG) dann ist das immer noch schlecht.
Es scheint echt schwer zu sein, dann wenn es auch gerechtfertigt ist, bei AMD Leistung anzuerkennen. vor allem hier im Forum.
TheGood
2024-05-25, 06:37:29
jedes größere feature hatte massive performance kosten, das war immer so und wird immer so bleiben. aber nach RT kommt halt nix bis auf physx
JA und überall da wo es bisher Pflicht ist, hat keine KArte ein grössres Problem damit, das ist doch auch die Realtiät. Nur in den gekauften Showcases klappts meistens nicht so richtig. Auch das sollte man doch mal akzeptieren.
Dass AMD da eine Generation (mehr isses ja nicht) hintendran ist. Müssen sie jetzt mal aufholen. Von RDNA3 hat man sich da mehr erwartet und wenn der Chip funktioniert hätte, wäre das ja auch so gewesen.... ABer das hat es eben nicht. Genau das ist AMD vorzuwerfen.... Der Rest ist einfach nur kindisch...
Taigatrommel
2024-05-25, 08:35:16
Die 5700er wurde doch eigentlich damals von vielen als gut gesehen. Ich bin ja eher leicht bei NV, habe aber damals zwei Freunden die Karten empfohlen und auch eingebaut. Denke könnte bei der 8800xt genau so werden wenn die Karten überzeugen. Käme auch für mich selbst in Frage
Das sehe ich ebenfalls so, ich habe mir die 5700 XT zwar nur gekauft, weil meine Radeon VII das zeitliche gesegnet hat, doch generell fand ich die Karte interessant. Ein anderes Beispiel wären hier halt noch die Radeon RX 480 und 580, welche sich ja subjektiv recht großer Beliebtheit erfreuten. Wenn es AMD schafft, die RT Performance deutlich anzuheben und die Karte zu einem guten Preis anzubieten, spricht ja nichts dagegen. Das Enthusiasten, die bereitwillig einen vierstelligen Betrag für eine Grafikkarte auf den Tisch legen, sich dann wohl eher bei nV umsehen werden, ist klar - doch das scheint ja jetzt bereits größtenteils so zu sein, auch wenn die Verkaufszahlen bei Mindfactory anderes andeuten.
Ich rechne schon damit, dass für 7900 XT(X) Nutzer wohl eher eine Nullrunde bzw. vielleicht ein Sidegrade wird. Wobei sich ja langsam mal was tun sollte, nachdem die Sprünge von 6800 XT auf 7800 XT, 6900 XT auf 7900 GRE oder auch 6600 XT auf 7600 XT jetzt nicht so der Bringer waren. Hier eine ähnliche Leistung nur mit deutlich besserem RT als Bonus zu liefern wäre IMHO dann eher enttäuschend.
TheGood
2024-05-25, 09:38:26
Das sehe ich ebenfalls so, ich habe mir die 5700 XT zwar nur gekauft, weil meine Radeon VII das zeitliche gesegnet hat, doch generell fand ich die Karte interessant. Ein anderes Beispiel wären hier halt noch die Radeon RX 480 und 580, welche sich ja subjektiv recht großer Beliebtheit erfreuten. Wenn es AMD schafft, die RT Performance deutlich anzuheben und die Karte zu einem guten Preis anzubieten, spricht ja nichts dagegen. Das Enthusiasten, die bereitwillig einen vierstelligen Betrag für eine Grafikkarte auf den Tisch legen, sich dann wohl eher bei nV umsehen werden, ist klar - doch das scheint ja jetzt bereits größtenteils so zu sein, auch wenn die Verkaufszahlen bei Mindfactory anderes andeuten.
Ich rechne schon damit, dass für 7900 XT(X) Nutzer wohl eher eine Nullrunde bzw. vielleicht ein Sidegrade wird. Wobei sich ja langsam mal was tun sollte, nachdem die Sprünge von 6800 XT auf 7800 XT, 6900 XT auf 7900 GRE oder auch 6600 XT auf 7600 XT jetzt nicht so der Bringer waren. Hier eine ähnliche Leistung nur mit deutlich besserem RT als Bonus zu liefern wäre IMHO dann eher enttäuschend.
glaube nicht dass das in der neuen generation besser wird. Egal bei welchem hersteller. Die Preise werden weiter deutlich nach oben angepackt werden. Im Highend geh eich davon aus, dass wir weit über 2000 Euro landen werden...
horn 12
2024-05-25, 09:42:48
@Taiga
Dann bist seit jeher mein Leidensgenosse.
Auch ich bin durch Defekt meiner damals tadellosen Radeon VII auf die 5700XT umgesattelt, h
Hatte von einer Minute auf die Andere bei Witcher 3 einfach kein Bild mehr.
HMB Speicher/ sprich Interposer defekt dachte ich mir damals,- wirklich! schade drumm gewesen.
Bekam den fast Vollkommenen Preis aber durch Amazon Retourniert.
DrFreaK666
2024-05-25, 09:47:08
Sehs schon kommen: meine 2000€ 5090 ist schneller als deine 700€ 8800XT
vinacis_vivids
2024-05-25, 10:19:26
Ich halte die nächsten Jahre voll gegen Huang und gehe davon aus, dass Nvidia die größte Blase aller Zeiten sein wird.
Seien wir mal ehrlich, AMD ist mit AFMF bzw. FSR2/3 schon deutlich schneller als Nvidia.
Auch bei high-refresh shooter und gaming ist AMD heute schon besser.
512bit SI, was von den Grünen gefeiert wird, gab's schon 2013 in der R9 290X.
fondness
2024-05-25, 10:28:17
Meiner Meinung war der "Zen-Moment" mit der Einführung von RDNA gegeben, da sie damit wieder eine moderne, konkurrenzfähige Architektur hatten und doch einigermaßen überraschen konnten.
RDNA2 war ebenfalls gut (traf aber halt auf einen völlig kaputten GPU-Markt), erst RDNA3 konnte nicht ausreichend nachlegen.
Man sollte ja zwei Dinge nicht vergessen: 1. hat nVidia nicht wie Intel relativ lange geschlafen und 2. haben auch die Zen CPUs nicht den Marktanteil erreicht, den sie rein aufgrund der Eigenschaften vielleicht "verdient" hätten.
Intel hat einen gewaltigen Mindshare, für nVidia trifft das noch viel stärker zu.
Und pre-release Gerüchte zu AMD GPUs sind seit mindestens Polaris (und vermutlich schon vorher) zu 90% völlig überzogener Unsinn, warum auch immer.
Ja, das sehe ich auch so, RDNA war ein Zen-Moment. Ich habe ja schonmal darauf hingewiesen, dass so eine Aussage ohne Beurteilung der Konkurrenz nonsense ist. Nvidia hat vor RDNA mit jeder neuen Gen so 50-60% mehr Performance geliefert, als RDNA kam haben sie das Tempo deutlich angezogen (siehe zB benchs des neuen 3dmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/)):
1080 Ti > 2080 Ti +51%
2080 Ti > 3090 Ti +71%
3090 Ti > 4090 +78-91%
Mit der 4090 ist NV absolut all-in gegangen. Zum ersten mal gab es einen >600mm² Chip im neuesten TSMC Prozess mit 450W TDP. Davor hatte Gaming nur billigere Samsung-Prozesse bekommen und/oder kleinere Dies. Dazu kommt natürlich, dass bei RDNA3 einiges schief gegangen ist.
Man kann also konstatieren:
(1) AMD war vor RDNA im Nirgendwo, meilenweit abgeschlagen und hat deutliche Fortschritte gemacht.
(2) Zumindest die Gamer haben von AMDs "Angriff" profitiert, da NV mehr liefern musste als davor.
(2) NV konnte im Gegensatz zu Intel nachlegen.
(3) RDNA3 wäre natürlich wesentlich konkurrenzfähiger, wenn man die anvisierten Taktraten erreicht hätte.
Ich halte die nächsten Jahre voll gegen Huang und gehe davon aus, dass Nvidia die größte Blase aller Zeiten sein wird.
Seien wir mal ehrlich, AMD ist mit AFMF bzw. FSR2/3 schon deutlich schneller als Nvidia.
Auch bei high-refresh shooter und gaming ist AMD heute schon besser.
512bit SI, was von den Grünen gefeiert wird, gab's schon 2013 in der R9 290X.Das Geschäft mit den Gamekarten und die weitere Entwicklung wird zukünftig immer mehr in den Hintergrund treten. Big Money wird anderswo generiert. Zeichnet sich ja jetzt schon deutlich ab. Ich glaube nicht mehr an große Leistungssprünge.
Hakim
2024-05-25, 12:32:38
Wow Grafikkarten hatten früher schon 512bit SI, AMD schon 2013, davor hatte es NV auf gar keinen Fall, :).
TheAntitheist
2024-05-25, 12:38:18
Wow Grafikkarten hatten früher schon 512bit SI, AMD schon 2013, davor hatte es NV auf gar keinen Fall, :).
wow klasse Vergleich, es wird jetzt gefeiert weil es viel teurer ist als früher, denk mal drüber nach... und dann noch mit dem schnellsten VRAM kombiniert. AMD geht auf DDR6 und 256 bit, hängt bei allen features hinterher
Hm, kann das sein, dass NV lieber GDDR6X als 7 verwendet? In dem Fall benötigt man die zusätzliche Bandbreite auch...
Hakim
2024-05-25, 12:40:48
Es ging darum das hier einer damit prallte das es AMD schon 2013 hatte
Das war ein ähnlicher Grund. Hawaii benötigte zusätzliche Bandbreite und setzte zunächst auf 5GT/s RAM und später in der 300-Serie auf 6GT/s RAM. Man setzte nicht auf state-of-the-art RAM-Geschwindigkeiten von 7GT/s, weil das zuwenig und zu teuer war mMn.
dargo
2024-05-25, 13:47:49
Sehs schon kommen: meine 2000€ 5090 ist schneller als deine 700€ 8800XT
2.000€ sind sogar recht optimistisch wenn das Ding tatsächlich mit 512Bit SI und 32GB kommt.
Ja, das sehe ich auch so, RDNA war ein Zen-Moment. Ich habe ja schonmal darauf hingewiesen, dass so eine Aussage ohne Beurteilung der Konkurrenz nonsense ist. Nvidia hat vor RDNA mit jeder neuen Gen so 50-60% mehr Performance geliefert, als RDNA kam haben sie das Tempo deutlich angezogen (siehe zB benchs des neuen 3dmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/)):
1080 Ti > 2080 Ti +51%
2080 Ti > 3090 Ti +71%
3090 Ti > 4090 +78-91%
Jetzt mal ehrlich... wird hier tatsächlich jetzt 3DFurz als Referenz genommen? :freak: Wen interessiert wie irgendeine Grafikkarte im 3DMark performt? Davon hat niemand was in Games, also dort wo es drauf ankommt.
Mit der 4090 ist NV absolut all-in gegangen. Zum ersten mal gab es einen >600mm² Chip im neuesten TSMC Prozess mit 450W TDP.
Das unterschreibe ich so. Alleine die Größe ist gigantisch. Die TDP ist dann nur noch die logische Folge davon.
The_Invisible
2024-05-25, 14:17:10
Die 4090 ist nur ein stark abgespecktes "Abfallprodukt" der prof. RTX 6000 Linie die für 10k verkauft wird, die 450W TDP war eigentlich auch unnütz. Man hat wohl mehr von AMD erwartet. Wäre AMD dem nahe gekommen hätte man noch immer eine 4090Ti/Titan bringen können.
Da die 5090 ja offenbar den 600W-Kühler der 4090Ti bekommt, wird das Ding auch 550-600W haben. Das ist mal unabhängig der Leistung einfach zuviel für mich (und für die meisten anderen auch). Die 4090 würde man sich ja noch gefallen lassen mit Ach und Krach mit 450W bei voller PT/RT-Last, aber 600W, meine Güte.
Und 32GB ist auf absehbare Zeit auch völlig nutzlos. Mit 16GB kommt man sehr gut über die Runden diese Konsolengen (wenn man nicht moddet, bis der Arzt kommt).
Wenn ich das recht sehe, wird die 5080 noch die interessanteste Karte für 1000€+ zwar, aber ist dann halt auch viel zuviel, wie diese Gen auch, mit 4090-Leistung @300W+. Die 16GB sind erträglich... Wer jetzt ne 4090 hat, wird ganz schwer zur neuen Generation aufschließen können. Klar, wer die 600W in Kauf nimmt ist dabei, aber ich hab so den Eindruck, dass das nicht viele machen werden. Ich denke, NV wird mit BW endgültig den Markt überreizen. Die 5090 wird sicherlich noch mal 50% vor der 4090 landen bei RT, aber die "Unannehmlichkeiten" werden einfach zu krass. Außerdem wird man sicherlich $1800++ dafür abrufen, also noch mal den Preis anziehen. MMn wird das scheitern. Die brauchen eigentlich ne 5080Ti mit 20-24GB und 400W mit dem großen Chip für 1200-1300$, das würd laufen mMn, das wird man aber versuchen zu vermeiden bis zum Letzten, weil das die Margen für den großen Chip schmälert.
Ich seh jetzt schon, wie HUB und GN die Karten ziemlich schlecht bewerten werden, aufgrund der Preise (5080 viel zu teuer) und der anderen Probleme (5090 schluckt zuviel und ist zu laut), trotz des massiven Leistungszuwachses.
Ich denke, AMD hat recht schlau gehandelt, diese Generation auszulassen und voll auf Mainstreamchips zu setzen.
Das Ziel der RDNA4-(Ersatz)-Generation ist mMn nichts anderes als die niedrigst möglichen Kosten zu erreichen. Das erreicht man mit einem günstigen 4nm-Prizess (mMn SF4X+), billigem 16 und 18GT/s RAM, günstige 8-Lagen-Platinen, die maximal 18GT/s packen, maximal 16GB, billiges VRM (Effizienz zweitrangig), maximal 220W, lvl5 RT als zukunftsweisendes Feature, erhebliche Nutzungsdauer von mindestens 4 Jahren, N48XT muss in 3-4 Jahren für 250-300$ noch verkaufbar sein ohne Schmerzen zu bekommen, darum gings. In 4 Jahren kann man dann eine neue Mainstreamgeneration für einen günstigen GAAFET-Prozess designen.
robbitop
2024-05-25, 21:40:13
SF4X ist ein Samsung Prozess. Das ist iirc kein echter 4 nm Prozess. Bei denen ist 7 bis 4 nm alles ein 7 nm Abkömmling. Bei TSMC ist 4 nm ein 5 nm Abkömmling. IIRC gab es bei Anandtech perf/W Tests von Samsung und Qualcomm Chips die gleich gefaltete A55 Cores hatten und dann haben sie die mjoules für einen Benchmark vermessen. Gleiche Taktrate. Und da reichte iirc Samsung’s 5 nm Prozess nicht ganz an TSMCs N7 heran. Also deren 4 nm ist dann ggf grob auf N6 Niveau. Wenn überhaupt. Ich würde für N48 eher auf eine N4 Variation tippen.
Und wieder diese aufgewärmte Geschichte... sicherlich ist der Prozess nicht 100% so leistungsfähig, aber der Vergleich von diesen SoCs ist halt massiv Äpfel/Birnen, zumal bei Samsung nicht SF4X zum Einsatz kam.
Wie schon geschrieben, wird man das bisschen Effizienz einfach opfern, wenn man den Prozess soviel billiger bekommt mMn.
robbitop
2024-05-25, 21:45:22
Und wieder diese aufgewärmte Geschichte... sicherlich ist der Prozess nicht 100% so leistungsfähig, aber der Vergleich von diesen SoCs ist halt massiv Äpfel/Birnen.
Wie schon geschrieben, wird man das bisschen Effizienz einfach opfern, wenn man den Prozess soviel billiger bekommt mMn.
Warum Äpfel/Birnen? Gleicher IP Block, gleicher Takt, gleicher Test und sehr genaue Überwachung was genau dieser IP Block zieht. Ganz im Gegenteil - das ist schon ein ziemlich guter Vergleich.
„Bisschen“ war das „nm normiert“ IMO nicht. Es sei denn dass N4 vs N6 als „bisschen“ gilt. :)
Mal sehen wer am Ende Recht behält. Ich sage bzw tippe es wird eine N4 Variation für N48. ^^
Nein, das ist Äpfel mit Birnen, der Vergleich hinkt. Und es kam wie gesagt nicht SF4X zum Einsatz.
https://www.techpowerup.com/308619/samsung-to-detail-sf4x-process-for-high-performance-chips
robbitop
2024-05-25, 21:58:17
SF4X jetzt nicht aber Samsungs 7 und 5 nm. Und wie vorherige Samsungprozesse waren, wissen wir auch. Also kann man daraus schon ein Muster ableiten. Zumal in dem Artikel auch gezeigt und gesagt wurde dass Samsungs 6, 5 und 4 nm nur verbesserte 7 nm Prozesse sind wohingegen TSMC mit 5 nm einen echten fullnode brachte. Das ist schon auch genug Indiz. Das und dass Samsungs 5 nm nicht mal auf N7 Niveau war. Kein Wunder - ist ja auch nur ein optimierter 7 nm Prozess - genau wie deren 4 nm.
Samsungs Prozesse sind sicherlich nicht ohne Grund günstiger und weniger ausgebucht. ^^
Naja wir werden ja sehen wer am Ende Recht behalten wird. :)
Altehardware
2024-05-26, 07:10:19
bei samsung hatte man 2022 die Namen geändert was vieles durcheinandergebracht hat
10nm war 10lpp 8lpp war nvidia exklusiv und ein Abkömmling von 10lpp ursprünglich war 4lpp als name gedacht nur dann hat man bei 7lpp den node in 7sf geändert
7sf zu 4sf sind eine Familie aber nicht versagen dazwischen liegen +36% Takt und -50% dense
von 10lpp auf 7sf sind nur -10% dense und +8% Takt.
Demzufolge wurde beim Wechsel von duv auf euv einiges herausgeholt.
verglichen mit tsmc 7nm und tsmc 5nm ist man mit sf4x ziemlich auf Augenhöhe mit n5
das ist gegen tsmc n4x node aber ein Rückstand von 20% Takt dense dürfte ähnlich sein wie n4
Also der Vorteil von sf4x ist definitiv der preis.
Bei nvidia blackwell wird damit sowieso nur die gb206 und gb207 chips das haben also laptop und entry und somit die letzten ihrer art
Vielleicht ein port auf sf3x +18% Takt. -21% dense
Samsung verkauft quasi per preis die wafer ich tippe auf 8000-9000$ per wafer tsmc n4x kostet 11000$
Und nvidia fertigt in n5 node nicht n4 das mag ein leicht angepasster node sein vermutlich preis angepasst
daher wird man nix an Effizienz gewinnen und die 3ghz die erwartet werden sind faktisch oc bzw bessere chipgüte.
Den ada kann schon jetzt bis zu 3ghz Takten ohne ins PL zu rennen das aber ist stark von der chipgüte abhängig je größer der chip desto unwahrscheinlicher.
Aber die kleinen chips sind voltage limitiert aber das alles bringt nix wenn die Bandbreite hart limitiert was bei dem ad107 ad106 der fall ist
Beim ad107 ist der umstand das kein hartes voltage limit gibt dies sogar belegbar, nicht selten das die kleinen 3,1ghz schaffen aber es bringt nix
am ende iste s eben so das blackwell ada refresh ist da nur die ipc und die gpc Struktur geändert wird.
Am sm selbst wird nix gemacht sprich man gewinnt nur durch mehr tf je sm quasi Taktsteigerung auf anderen Wege
aus ad107 24sm 11,8tf/17,2tf wird gb207 32sm mit dann 2,25ghz und 15,8tf/23tf oder +33%
aus ad106 34sm 16,7tf/24,3tf wird gb206 48sm 23,7tf/34,5tf oder +41%
aus ad104 46sm 22,6tf/32,9tf wird gb206 60sm 29,7tf/43,2 oder +30%
aus ad103 76sm 37,4tf/54,4tf wird gb205 80sm 3,0ghz 52tf/76tf oder +41%
aus ad102 128sm 63tf/91tf wird gb203 112sm 73tf/107tf oder +17%
Das sieht nach nenn typischen gen upgrader aus wie es immer welche gab bis 2016
Die letzten Jahre waren geprägt von mining Wahn chipknappheit und pandemi
ada wurde nur so stark weil eben amd mcm lauerte das es damit nicht geklappt hat konnte nvidia nicht wissen so nenn sprung wie ampere zu ada wird es bald nicht mehr geben erst wenn amd mit mcm ein design hat das wirklich skaliert dann sehen wir wieder solche gen upgrade von 70-90% wieder, jetzt keine chance.
Zu ada release sagte ich bereits das man damit sehr gute sku designen könnte aber man nicht muss da amd nicht liefert.
Dazu dass
ga107 rtx3050 24sm zur rtx4060 ad107 upgegraded wäre ansonsten ne rtx4050 geworden.
ga106 rtx3060 28sm zur rtx4060ti ad106 Vollausbau upgegraded wäre sonst zur rtx4060 geworden.
ga104 rtx3070 46sm zur rtx4070ti voll Ausbau wurde jetzt halbherzig mit der rtx4070 super korrigiert 56sm preis Anpassung
ga102 rtx3090 hatte als einziges den vollen Nachfolger mit ad102 128sm +70%-90% meist cpu limitiert
Der Sinn einer Nebelkerze als erstes zu bringen zu sehen was die Konkurrenz schaffen kann verhältnismäßig zur rasterengine 24sm amd ist das die shaderengine a20cu
hat also amd mit rdna4 und nur 64cu =2 shader engines a40cu die perf. wie nvidia 60sm 2 raster engines a32sm orientiert sich das am preis.
ich erwarte grob amd rdna4 dxr perf auf level der rtx4070 preis bei 500€ P/L +24%
verglichen mit amd eigene rx7800xt aber in dxr +50% in raster +24% man bedenke das die rx7800xt teilweise für 499€ und weniger gibt.
Wie schnell die rtx5070 wird ja der gb206 60sm wird zur 70 class nun in dxr sind das min 20%-31% linear zu rt cores.
Durch den geringen Takt vernichtet man quasi die ipc Vorteil komplett dafür wird diese sku aber nicht mehr als 600€ kosten und die perf der rtx4070ti haben äka rx8800xt in raster in dxr liegt amd gut -23% hinten liegen.
Womit eins klar wird blackwell wird ada sku ersetzen
Der ad107 wird als rtx4050 rebrand werden bzw rtx5050
Der ad106 als rtx4060 super und der ad104 wird noch solange in den rtx4060ti beschnitten bis die lager leer sind.
Dann folgt der gb207 12gb 30sm aktiv als rtx5060 ab 350$ hier 400€ perf nahe der rtx4060ti bzw rx8600xt 32cu vermutlich 300$ 330€
Die interessante sku wird die rtx5060ti 48sm nahe der rtx4070 perf für 450$ hier 500€ 16gb
amd Gegenpart wird mit rx8800xt 16gb mit 64cu sein für 450$ hier 500€
Dieser Kampf steht ziemlich sicher da die ps5 pro für die gleiche perf geben wird zu dem preis.+-50€
Das ne Konsole endlich die preise korrigiert ist Schräg.
SF4X jetzt nicht aber Samsungs 7 und 5 nm. Und wie vorherige Samsungprozesse waren, wissen wir auch. Also kann man daraus schon ein Muster ableiten. Zumal in dem Artikel auch gezeigt und gesagt wurde dass Samsungs 6, 5 und 4 nm nur verbesserte 7 nm Prozesse sind wohingegen TSMC mit 5 nm einen echten fullnode brachte. Das ist schon auch genug Indiz. Das und dass Samsungs 5 nm nicht mal auf N7 Niveau war. Kein Wunder - ist ja auch nur ein optimierter 7 nm Prozess - genau wie deren 4 nm.
Samsungs Prozesse sind sicherlich nicht ohne Grund günstiger und weniger ausgebucht. ^^
Naja wir werden ja sehen wer am Ende Recht behalten wird. :)
Es ist total wurscht wer recht behalten wird ;).
Aber ich denke, dass hier auch strategische und wirtschaftliche Dinge eine Rolle spielen. Und du machst dir das viel zu einfach mit dem "das ist ja nur ein 7nm-Priozess", sry.
Prinzenrolle
2024-05-26, 12:46:19
Du scheinst irgendwie nicht zu verkraften/begreifen, dass RDNA3 nicht gelungen ist.
Du scheinst nicht zu verkraften, wenn jemand anders als du schreibt, RDNA3 sei nicht so gut gewesen, gespickt mit Nvidia Kritik. Das könnte man psychologisch analysieren.
Ich finde RDNA3 abgesehen von der Software und RT Schwäche ähnlich dem was RDNA2 abgeliefert hat, im Rahmen von AMDs Möglichkeiten. Was immer gerne vergessen wird, war Nvidias deutlich schwächerer Prozess bei Samsung, der AMD bei Rasterizing und Effizienz (fast) ganz nach vorne brachte, wäre da nicht noch RT, DLSS, Reflex und Co gewesen.
Prinzenrolle
2024-05-26, 12:59:20
Das unterschreibe ich so. Alleine die Größe ist gigantisch. Die TDP ist dann nur noch die logische Folge davon.
Die Chipgröße ist nicht viel anders als AMDs 7900XTX und die 4090 kam nicht einmal mit dem Vollausbau. Da sind noch 10 bis 15% mehr Performance in dem Chip drin. Deine Argumente haben den typischen IHV-Bias. 😵*💫 RDNA 3 finde ich persönlich besser als RDNA2.
Altehardware
2024-05-26, 13:36:45
Was die vergleiche gtx1080ti vs rtx2080ti +53% angeht
das war 2018 zu der zeit als dies herauskam gab es gerürcht über navi und ein auf 7nm portierten vega chip beides erschienen aber deutlich langsamer als viele dachten
zudem sei gesagt das die 53% mehr beim tu102 auch nur deshalb sind weil 3dmark sehr gut auf bandbreite reagiert. real sid die beiden sku sehr dicht beisammen.
rtx2080ti hat 4352 alu gtx1080ti 3584 beide etwa gleiche taktraten von 1,9ghz +21%
Der wechsel von rtx2080ti vs rtx3090 war deswegen besonders da amd rdna2 konkurrenzzhfähig war leider kam hinzu die mining krise und ne pandemi
rtx2080ti vs rtx3090 +65%
Der Wechsel rtx3090 vs rtx4090 war nur deswegen so groß da mcm Gerüchte deutliche Steigerungen der alu andeuteten die aber sich als ente erwiesen.
rtx3090 vs rtx4090 real +130%
Aktuell wird die rtx4090 massiv cpu limitiert selbst in 3dmark.
Daher ist meine Annahme von nur +17% für die rtx5090 durchaus realistisch.
Es kommen bald zen5 cpu auf dem markt dann wird man erkennen das alles cpu limitiert war selbst in 4k
zen5 grob 15% ipc
zen5 3dvcache folgt dann ende des Jahres was nochmal ne deutlichen Schub bringen wird. +50% vs jetzt
Dann kann man deutlich sehen wie groß der abstand rtx4090 zur rtx3090 und zur rtx4080 ist
Prognose dann
rtx4090 100% rtx3090 43%/130%
rtx4090 100% rtx4080 58%/70%
Die Effizienz wäre sogar deutlich besser als RDNA2. Praktisch ist RDNA3 aber für Effizienzfans aus Gründen unattraktiv:
1. Navi 33 ist durch 6nm und hohem Takt quasi kaum effizienter als Navi 23 im 7nm Prozess.
2. Die Chiplet-GPUs sind dank 5nm bei ähnlicher performance zwar sparsamer aber leider vom Idleverbrauch völlig inakzeptabel. Bei einer typischen Nutzung die auch Internet surfen und Desktopanwendungen mit einbezieht ist RDNA2 daher womöglich sogar die stromsparendere Alternative, selbst wenn in Spielen eigentlich messbar weniger effizient.
Sorry, aber eine 7900XTX braucht im Idle zwischen 7-15w. Bei YT geht es genau wie bei NV hoch bis auf 60w. Da schenken sich beide Firmen nichts!
BlacKi
2024-05-26, 20:31:48
Sorry, aber eine 7900XTX braucht im Idle zwischen 7-15w. Bei YT geht es genau wie bei NV hoch bis auf 60w. Da schenken sich beide Firmen nichts!nö, meine n31 karte braucht 85-90w youtube. das macht eine 4070 super bei unter +-25w.
Langlay
2024-05-26, 20:41:26
das macht eine 4070 super bei unter +-25w.
Eine 4090 liegt ebenfalls in dieser Liga.
https://i.imgur.com/NbGNUqg.jpeg
Altehardware
2024-05-27, 06:11:27
n44 und n48 sind Abkömmlinge von n33 vom n6 node
da amd aber auf samsung sf4x wechselt wird die Prognose schwieriger da man von glofo node (samsung lizensiert 10nm node) auf tsmc
amd liefert aber dafür passende dense und Effizienz Differenzen dank vega 7 und rdna von 2019 7nm
Daraus kommt das man mit n48 einen 270mm² chip erwarten kann der etwa 3,0ghz Takten wird und grob 220-250w tbp haben wird je nachdem wie gut das design Takten kann.
Demzufolge dürfte vergl mit n33 204mm² und dem n44 grob 135-150mm² 110-140w
dabei ist n48 +140% schneller als der n33 und n44 vs n33 +22%
Mit tsmc n4x node wären es 3,9ghz. Das ist bedauerlich
Das zeigt aber die mögliche perf von rdna5 voraus. den der wird n3 node nutzen +15%.
Demzufolge wird amd über den Preis gehen das aber erst wenn rdbna3 komplett am markt weg ist.
Das dauert noch daher ist eher anzunehmen das n48 zuerst kommt q4 2024 und n44 q1 2025 da sein wird.
Sieht man in geizhals wird schnell klar das amd sku deutlich wenig verfügbar sind
nvidia quilt über daher erwarte ich bald stark fallende preise.
basix
2024-05-27, 11:08:43
Das Geschäft mit den Gamekarten und die weitere Entwicklung wird zukünftig immer mehr in den Hintergrund treten. Big Money wird anderswo generiert. Zeichnet sich ja jetzt schon deutlich ab. Ich glaube nicht mehr an große Leistungssprünge.
Jetzt kam ja gerade dei News, dass GB202 doch monolithisch sein soll. Überrascht mich ein wenig, aber auch nicht extrem.
Für Gaming ist der Chip zwar "Overkill", aber mit Workstations / ML-Beschleuniger werden sie den GB202 sowieso für viel Geld los. GB203 ist da handzahmer und dafür "für die Masse" geeigneter.
Altehardware
2024-05-27, 12:12:00
Und nochmal
gb207 1 tpc =2 gpc 32sm a128alu (64+16+8 fp32 per hardware +8 fp32 per software) Rest int32
gb206 2 tpc =4 gpc = 64sm
gb205 3 tpc= 6 gpc = 96sm
gb203 4 tpc = 8 gpc = 128sm
gb202 6 tpc = 12gpc = 192sm
Neuerung dual issue 25% von 2te operation eine operation sind 2 Ausführungen also 2,5
Das ist aktueller stand somit geht nvidia den software Weg hin zu mcm design ab rtx70 mit n2 node +15% Takt -36% Energie vermutliche Takt ab rtx70 3,55ghz ab 104sm als 70 class
rtx50 blackwell wie beschrieben rtx60 refresh 2026
Neurosphere
2024-05-27, 13:10:31
https://x.com/9550pro/status/1795047238076350468?t=d-4udjoRiHWlDonfhSH_Ag&s=19
N48 = 2*N44
Da bin ich ja mal gespannt ob das stimmt.
Denniss
2024-05-27, 14:49:36
Könnte auch wieder so ne Fehldeutung/-übersetzung sein da N48 wohl doppelt so groß wie N44 ist bzw N44 die Hälfte von N48 ist (bezogen auf die Hardwareeinheiten)
davidzo
2024-05-27, 14:52:23
Sorry, aber eine 7900XTX braucht im Idle zwischen 7-15w. Bei YT geht es genau wie bei NV hoch bis auf 60w. Da schenken sich beide Firmen nichts!
Bullshit.
Erstens stimmen deine Zahlen nicht und falls es dir nicht aufgefallen ist habe ich nirgendwo nvidia erwähnt sondern vergleiche RDNA2 und RDNA3.
Und RDNA3 verbraucht auch mit den vielen Patches noch immer fast das doppelte von RDNA2 im Idle.
- 6800XT 9Watt
- 7900XT 15Watt
Und das aber auch alles nur mit aktiviertem Variable refresh rate und ruhendem Desktop. Imo sollte der Verbrauch bei 0% Last auch 0,0Watt sein. Man muss nur die Maus bewegen und schon schnellt der Verbrauch in die Höhe.
Sobald man Fenster bewegt oder ein Video abspielt fängt RDNA3 wieder an zu saufen. Vor den etlichen Patches waren das dann über 100Watt unter aufheulen der Lüfter, aber selbst jetzt ist der Verbrauch bei RDNA3 mit 70+Watt bei window movement oder Video playback weiterhin rund 50% über dem von RDNA3.
Gegenüber dem direkten Vorgänger einfach inakzeptabel, aber auch gegenüber nvidia sieht das schlecht aus.
Nvidia könnte zwar den Verbrauch bei ruhendem Desktop noch verringern, denn der erreicht bei den größeren Chips immer noch nicht RDNA2-Niveau, aber der Verbrauch bei Mausbewegungen, Dual monitor und Videos ist mit ca. 30Watt viel geringer als bei AMD. Ada-GPUs laufen im Desktopbetrieb durchgehend lautlos bzw. mit ruhendem Lüfter, RDNA3 nicht. Und wenn ich die Jouldes von typischer Nutzung zusammenzähle kommt da sicher eine ordentliche Differenz zustande.
Also meine 7900XTX braucht 7W wenn alles aus ist und alles ruht. Und stark schwankend um die 35W bei YT. Ich hab ein 240Hz VRR Display dran.
Altehardware
2024-05-27, 16:00:08
amd hat erst mit rx7000 tbp angaben zuvor war das immer die tdp des chips auf die rx6800 kommen nochmal +10% und +10% vram und vrm verbrauch dazu
Daher stimmt das schon das rdna3 effizienter ist.
dargo
2024-05-27, 16:08:24
https://x.com/9550pro/status/1795047238076350468?t=d-4udjoRiHWlDonfhSH_Ag&s=19
N48 = 2*N44
Da bin ich ja mal gespannt ob das stimmt.
Lol... alle Gerüchte zum N48 wieder falsch? :ulol: Abwarten... lange ist es nicht mehr hin. :cool:
Der_Korken
2024-05-27, 16:10:53
Könnte auch wieder so ne Fehldeutung/-übersetzung sein da N48 wohl doppelt so groß wie N44 ist bzw N44 die Hälfte von N48 ist (bezogen auf die Hardwareeinheiten)
Da hoffe ich sogar drauf. Es sei denn, AMD macht hier deutliche Fortschritte beim 2D-Verbrauch. Im Grunde könnte man bei einer MCM-Dual-GPU bei geringer Last eine GPU komplett abschalten. Das blöde ist halt, dass man dann auch die Hälfte des VRAMs und die Hälfte der PCIe-Lanes zur Laufzeit ein- und ausschalten müsste.
Was imho gegen MCM spricht ist, dass AMD nur zwei GPUs zusammenschaltet. Wenn das von Anfang an geplant war, hätten sie das ganze auch so auslegen können, dass drei Chips zusammenarbeiten, um den Highend-Markt mit zu erschließen.
Edit:
Lol... alle Gerüchte zum N48 wieder falsch? :ulol: Abwarten... lange ist es nicht mehr hin. :cool:
Denkst du ;)
Ich seh es schon kommen, dass AMD auf der Computex nur über AI redet und am Rande über Strix (wegen NPU), während man sich zu Zen 5 ausschweigt und RDNA4 gar nicht erst erwähnt.
dargo
2024-05-27, 16:12:57
Bullshit.
Erstens stimmen deine Zahlen nicht und falls es dir nicht aufgefallen ist habe ich nirgendwo nvidia erwähnt sondern vergleiche RDNA2 und RDNA3.
Und RDNA3 verbraucht auch mit den vielen Patches noch immer fast das doppelte von RDNA2 im Idle.
- 6800XT 9Watt
- 7900XT 15Watt
Kein bullshit sondern Tatsache. Meine 7900XTX verbrauchte in Idle 7W, also bissel weniger als die 6800XT mit 7W ASIC. Wenn die Karte mehr verbraucht liegts am "ungünstigen" Bildschirm.
Edit:
Hab da was verwechselt. Bei mir waren es in der damaligen Testphase 10W mit der 7900XTX.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13273972&postcount=2009
Und hier dann richtig hinter dem Netzteil gemessen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13278172&postcount=2102
Könnte auch wieder so ne Fehldeutung/-übersetzung sein da N48 wohl doppelt so groß wie N44 ist bzw N44 die Hälfte von N48 ist (bezogen auf die Hardwareeinheiten)
Klingt eher wahrscheinlicher und Kepler meint auch die Meldung mit MCM wäre falsch.
https://tieba.baidu.com/p/9031927633?pn=2
davidzo
2024-05-27, 18:08:17
Kein bullshit sondern Tatsache. Meine 7900XTX verbrauchte in Idle 7W, also bissel weniger als die 6800XT mit 7W ASIC. Wenn die Karte mehr verbraucht liegts am "ungünstigen" Bildschirm.
Ich habe zwar keine 7900xtx aber das deckt sich nicht mit den Nachtests die ich bisher gelesen habe.
Keine zurechnungsfähige Person holt sich eine 1000€ GPU um damit 10 jahre alte entrylevel Monitore zu betreiben. 4K gibts ab 200€ und 4K144 um die 500€.
Ich würde eher sagen im Schnitt muss man 4K 120Hz+ und häufig auch mit zwei Monitoren rechnen wenn einer ne Highend GPU betreibt. Und Mausbewegungen, scrolling oder Fensterbewegungen sind auch normale PC Nutzung. Und da ist RDNA3 laut den test immer noch mies und zwar weil das Silicon bzw. die EMIB bridges mies sind und auch jeder Softwarefix das nicht mehr ändern kann.
70-80Watt bei Youtube sind einfach inakzeptabel heutzutage.
iamthebear
2024-05-27, 20:10:37
Navi44 und Navi48 sind mit Sicherheit monolithisch. Das MCM Design hat AMD mit Navi31/32 probiert und ist auf die Schnauze gefallen. Die Shader Engines konnte man durch N5 wunderbar shrinken und hat den Vorteil dann wieder bei der Anbindung der MCDs verblasen.
Dass wir 2 GCDs sehen glaube ich erst Recht nicht. Wozu soll das gut sein? N5 hat perfekte Yields und alle Shader Engines von Navi31 zusammen sind jetzt schon nur um die 160mm² groß. Navi48 will man da noch groß splitten?
Niemand ist da "auf die Schnauze" gefallen. Das Problem bei RDNA3 ist der Durst der Shadereinheiten, nicht das Chiplet-Deisgn.
N4x ist aber eine reine Mainsteamgeneration, die möglichst billig zu produzieren sein muss. Also braucht man möglichst kleine, monolithische Chips, der kleinste sinnvolle Nenner. Die Dinger müssten in 3-4 Jahren noch für <300$ noch verkaufbar sein. Es ist also schlichtweg ein anderer Zweck des Produktes als RDNA3.
ein doppelter N44 würde die Chips noch günstiger machen, hätte aber Redundanzen und andere Nachteile. Von daher halte ich das auch für unwahrscheinlich.
dargo
2024-05-27, 20:23:57
Navi44 und Navi48 sind mit Sicherheit monolithisch. Das MCM Design hat AMD mit Navi31/32 probiert und ist auf die Schnauze gefallen. Die Shader Engines konnte man durch N5 wunderbar shrinken und hat den Vorteil dann wieder bei der Anbindung der MCDs verblasen.
Naja... halte ich für eine gewagte These. N33 ist monolitisch und trotzdem kein Überflieger geworden. Ist halt jetzt etwas blöd zu vergleichen wegen 6nm bei N33. Dennoch glaube ich kaum, dass ein N33 in 5nm deutlich sparsamer wäre. Imho liegt hauptsächlich im RDNA3 Design was im Argen und nicht im Konzept GCD + MCD.
Der_Korken
2024-05-27, 20:36:28
Einen Chip, der sowieso schon <300mm² landen würde, nochmal aufzusplitten für mickrige Yield-Verbesserungen ist einfach Quatsch. Die zusätzlichen Interfaces für die Datenverbindungen und die doppelten Video-De/Encoder dürften den Vorteil von Multichip direkt wieder auffressen. Dafür bekommt man einen Haufen neuer Probleme wie die Lastverteilung über zwei CPs und den höheren Stromverbrauch von Speicherzugriffen über den anderen Chip.
Multichip lohnt sich imho nur, wenn ich (1) dadurch mit einem Design direkt mehrere Märkte abdecke, (2) ein monolithischer Chip technisch nicht (sinnvoll) möglich wäre oder (3) ich große Teile meines Chips in günstigere Fertigungsprozesse auslagern kann. Bei nur N44 und N48 ist für mich keins davon gegeben. Hätte man auch noch ein 3x- oder 4x-Design geplant, wäre zumindest Punkt 1 wieder erfüllt.
BlacKi
2024-05-27, 20:54:55
Einen Chip, der sowieso schon <300mm² landen würde, nochmal aufzusplitten für mickrige Yield-Verbesserungen ist einfach Quatsch. Die zusätzlichen Interfaces für die Datenverbindungen und die doppelten Video-De/Encoder dürften den Vorteil von Multichip direkt wieder auffressen. Dafür bekommt man einen Haufen neuer Probleme wie die Lastverteilung über zwei CPs und den höheren Stromverbrauch von Speicherzugriffen über den anderen Chip.
Multichip lohnt sich imho nur, wenn ich (1) dadurch mit einem Design direkt mehrere Märkte abdecke, (2) ein monolithischer Chip technisch nicht (sinnvoll) möglich wäre oder (3) ich große Teile meines Chips in günstigere Fertigungsprozesse auslagern kann. Bei nur N44 und N48 ist für mich keins davon gegeben. Hätte man auch noch ein 3x- oder 4x-Design geplant, wäre zumindest Punkt 1 wieder erfüllt.das 3d stacking wie bei intel scheint nicht diese probleme zu haben. auch das 3d stacking beim extra cache scheint auch sehr problemlos zu performen.
alles durchaus winzige chips. scheinbar lösbar.
Irgendwann kommt der Punkt, an dem das Packaging billiger sein wird auch bei einem schieren Massenprodukt. Aber Intel hat eigene Packagingkapazitäten aufgebaut hierfür, während AMD da die noch im Aufbau befindlichen Kapazitäten von TSMC nutzt (AFAIK). Das sind also schlichtweg andere Voraussetzungen.
Es sieht ja auch so aus, als würde AMD Intels exzessives Packagingintermezzo so nicht mittragen, sondern bei Zen6 erst mal nur 2,5D-Stacking (abseits des Caches) einführen, das bedeutet, 2 Generationen 2,5D-Stacking, jedenfalls im Desktop (und wahrscheinlich mobile). Da fragt man sich dann aber doch eher, wenn das auch so geht, warum man diesen Packagingexzess wie Intel überhaupt betreibt dann...
AMD macht das dann ja da wo es wirklich nötig ist, bei RDNA5 und CDNA ab 3. MI300 ist ja schon gestackt (inclusive des Zen4-CCDs lustigerweise).
amdfanuwe
2024-05-27, 22:15:08
alles durchaus winzige chips. scheinbar lösbar.
Ja, scheinbar.
Intels Interposer Lösung dürfte nicht das günstigste sein und es wäre ihnen wohl zu peinlich gewesen, eine komplette monolithische CPU bei TSMC zu ordern. Zudem will Intel zeigen, dass sie auch Tiles (Chiplets) können.
AMDs Lösung ist technisch fortgeschrittener und das Base Chiplet wird auch alleine verkauft. Kein großes Risiko.
Nachdem sich fürs Gaming der 3D Cache so vorteilhaft erweist, bringt das Stacking auch im Desktop sicherlich gute Gewinnmargen. Zudem zählt die Menge. Allein für Server wären die 3D Chips sicherlich einiges teurer geworden.
Ich denke jedoch, ZEN + 3D war ein Testlauf für MI300 und zukünftige Produkte. Mittlerweile dürfte AMD genügend Erfahrung in der Massenproduktion mit Hybrid Bonding gesammelt haben.
Bei Intel steht Foveros Direct noch aus, steht mit Intel 3-T für dieses Jahr in der Roadmap. Erste Chips damit in Massenproduktion??
https://www.anandtech.com/show/21271/intel-foundry-future-14a-foveros-direct-beyond
Edit:
Die Fan-out Technik bei RDNA3 sollte auch bei MI300 zur Anbindung der HBM verwendung finden. Gab aber wohl technische Probleme wegen der Größe, weshalb MI300 einen Interposer verwendet. Bei RDNA 41/42... sollen ja die Packaging Kapazitäten gefehlt haben.
Wer weiss, was da los war. Werden wir kaum erfahren. Der AI Hype dürfte einiges in der Planung bei AMD umgeworfen haben.
davidzo
2024-05-27, 22:22:35
das 3d stacking wie bei intel scheint nicht diese probleme zu haben. auch das 3d stacking beim extra cache scheint auch sehr problemlos zu performen.
alles durchaus winzige chips. scheinbar lösbar.
Du bezeichnest +40ns an Latenz bzw. fast 50% schlechter als monolitisch noch als "problemlose performance"? :freak:
Meteorlake ist eine Performance-Regression gegenüber Raptorlake und das hat seine Gründe. Vermutlich wäre das in Spielen besonders stark sichtbar weshalb Intel für gaming Notebooks weiterhin Raptorlake verkauft.
Btw, die Bandbreite der MTL Chipletanbindung müsste für midrange GPUs gut 5x so hoch sein.
Und was den gestackten cache bei AMDs x3D CPUs angeht, der erhöht sehr wohl den Energievebrauch. Das interessiert nur wenige weil der Last-Verbrauch so gering ist dank den gemäßigten Taktraten und der Gesamtverbrauch von CPU+Speichercontroller durch weniger DRAM Zugriffe sogar sinkt.
OgrEGT
2024-05-29, 12:56:32
https://www.computerbase.de/2024-05/rtx-5000-und-rx-8000-ein-die-fuer-blackwell-chiplet-gpu-fuer-rdna-4-im-gespraech/#update-2024-05-29T11:35
Was wohl die 10% Wahrheitsanteil waren?
DrFreaK666
2024-05-29, 14:44:13
Das sind doch Trolle
Dino-Fossil
2024-05-30, 10:17:44
https://www.computerbase.de/2024-05/rtx-5000-und-rx-8000-ein-die-fuer-blackwell-chiplet-gpu-fuer-rdna-4-im-gespraech/#update-2024-05-29T11:35
Was wohl die 10% Wahrheitsanteil waren?
Die Namen der Chips...
mboeller
2024-05-31, 17:57:10
seltsam, dass hier noch nicht der letzte Fake(?)/Gerücht(?) durch den Kakao gezogen wird:
https://pbs.twimg.com/media/GO2TH_raQAk9unD?format=jpg&name=4096x4096
DrFreaK666
2024-05-31, 18:05:08
Zu schön um wahr zu sein!?
Der_Korken
2024-05-31, 18:17:46
seltsam, dass hier noch nicht der letzte Fake(?)/Gerücht(?) durch den Kakao gezogen wird:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-124#post-41220701
;D
Die 1.9x in CP2077-PT wären sogar realistisch, weil die Nvidia hier Faktor 3 schneller ist als der jeweilige AMD-Counterpart. Ansonsten wird N48 in Raster nicht schneller werden als N31. Und vor allem war mein Stand, dass der Launch noch so weit weg ist, dass auf der Computex nicht mehr als ein Teaser zu RDNA4 zu sehen sein wird.
mczak
2024-05-31, 18:20:58
Zu schön um wahr zu sein!?
Sieht doch nach Fake aus? Normalerweise vergleicht man ja mit Konkurrenzprodukten, denn man muss ja potenzielle Käufer davon überzeugen das eigene Produkt zu kaufen statt das der Konkurrenz. Da bringt ein Vergleich mit der eigenen alten Karte nicht viel.
Im Uebrigen wäre die Performance da gar nicht so wahnsinnig toll (und daher prinzipiell sicher machbar wenn AMD da wirklich Transistoren investiert), selbst mit einem Faktor 2 gegenüber der RX 7900 XTX in CP 2077 mit Path Tracing würde man gerade mal RTX 4070 Niveau erreichen.
The_Invisible
2024-05-31, 18:22:22
seltsam, dass hier noch nicht der letzte Fake(?)/Gerücht(?) durch den Kakao gezogen wird:
https://pbs.twimg.com/media/GO2TH_raQAk9unD?format=jpg&name=4096x4096
In aw2 wäre man da ca auf 4070 super/ti (ohne super) Niveau, das wär ja schon mal was
AffenJack
2024-05-31, 18:25:04
seltsam, dass hier noch nicht der letzte Fake(?)/Gerücht(?) durch den Kakao gezogen wird:
https://pbs.twimg.com/media/GO2TH_raQAk9unD?format=jpg&name=4096x4096
Nur trolling, außer du glaubst der Zen5 Folie des gleichen Nutzers, die Zen5 in allen Programmen 5% Mehrleistung bescheinigt:wink:. Also nichtmal nen ernst gemeinter Fake.
w0mbat
2024-05-31, 19:30:09
Nicht ernst gemeint? Was denkst du denn, was Zen 5% abliefert??
raffa
2024-05-31, 21:34:57
hier stimmt ja noch nichtmal mehr der name der karte :D
Exxtreme
2024-05-31, 21:45:17
hier stimmt ja noch nichtmal mehr der name der karte :D
Naja, wenn man bedenkt, dass AMD noch nie eine Folie ohne Fehler veröffentlicht hat, macht das die Sache durchaus authentisch. X-D
robbitop
2024-05-31, 21:54:44
Sieht doch nach Fake aus? Normalerweise vergleicht man ja mit Konkurrenzprodukten, denn man muss ja potenzielle Käufer davon überzeugen das eigene Produkt zu kaufen statt das der Konkurrenz.
Iirc wurde RDNA3 2022 in den launch slides auch nur gegen RDNA2 verglichen.
OgrEGT
2024-05-31, 22:35:29
hier stimmt ja noch nichtmal mehr der name der karte :D
Welcher ist der richtige Name?
raffa
2024-05-31, 22:46:53
Naja, wenn man bedenkt, dass AMD noch nie eine Folie ohne Fehler veröffentlicht hat, macht das die Sache durchaus authentisch. X-D
da ist was dran
Der richtige Name? Ich spekuliere: RX 8800 RTE (Raytracing Edition)
bbott
2024-06-01, 00:39:33
Welcher ist der richtige Name?
Jedenfalls nicht XTX, sondern maximal XT :rolleyes:
reaperrr
2024-06-01, 00:45:27
da ist was dran
Der richtige Name? Ich spekuliere: RX 8800 RTE (Raytracing Edition)
Jedenfalls nicht XTX, sondern maximal XT :rolleyes:
Da es die schnellste RDNA4-Karte wird, würde ich 8800 XTX oder 8700 XTX nicht kategorisch ausschließen (die Folie ist aber zu 99,9% trotzdem Fake, selbst wenn die Realität am Ende ähnlich aussehen sollte).
horn 12
2024-06-01, 01:49:24
Hätte AMD so eine Karte in Petto,
müsste der Preis der 7900 XT - XTX bis zum Release Oktober drastisch fallen
und NV hätte ein Riesenproblem wenn man somit 80 bis 90% einer RTX 5080 erreichen könnte beim Raster für Vielleicht 699 bis 749 Euro.
Da wäre man bei ca. 90 bis um etwa 120% einer 7900 XTX
und bei RT um die 70, bei Pathracing gar 90% SCHNELLER, Trotzdem Letzteres nicht bis kaum spielbar.
Wenn man bedenkt dass bei einigen, bei Weitem nicht Allen Games jetzt schon die 7900 XTX knapp 10% vor der 4080 liegt,- sollte dies einen teilweise Gleichstand mit RTX 5080 bedeuten.
schreiber
2024-06-01, 01:50:19
AMD hat nix zu verschenken. Wir werden keine Preisschlacht sehen.
The_Invisible
2024-06-01, 08:15:22
Hätte AMD so eine Karte in Petto,
müsste der Preis der 7900 XT - XTX bis zum Release Oktober drastisch fallen
und NV hätte ein Riesenproblem wenn man somit 80 bis 90% einer RTX 5080 erreichen könnte beim Raster für Vielleicht 699 bis 749 Euro.
Da wäre man bei ca. 90 bis um etwa 120% einer 7900 XTX
und bei RT um die 70, bei Pathracing gar 90% SCHNELLER, Trotzdem Letzteres nicht bis kaum spielbar.
Wenn man bedenkt dass bei einigen, bei Weitem nicht Allen Games jetzt schon die 7900 XTX knapp 10% vor der 4080 liegt,- sollte dies einen teilweise Gleichstand mit RTX 5080 bedeuten.
Ja klar und wenn man bei Vollmond einen Handstand macht erreicht sie gar die rtx5090 bzw wird die 7900xtx dann um 500eur verschleudert :freak:
horn 12
2024-06-01, 09:14:20
Nun, bis Oktober werden viele XT und XTX Karten wohl etwas abverkauft werden,-
zudem wird man wohl ein weiteres Spielebundle im Sommerloch anbieten mit FSR 3.1 Support um den Verkauf etwas anzukurbeln,- denn jener steckt derzeit.
Dann lass die Karte max. 849 Euro kosten falls die Folie zutreffen sollte,- und man die Performance wirklich aufweist.
OgrEGT
2024-06-01, 13:30:15
Mal ne blöde Frage... wenn es angeblich nur N44 und N48 Chips und auf der Basis Karten mit jeweils nur einem Chip geben soll hätte man für hypothetische X2 oder X3 Karten Hinweise bspw in Linux Treiber Leaks finden müssen oder würden da nur die Monochips hinterlegt sein müssen?
dargo
2024-06-02, 07:28:41
AMD hat nix zu verschenken. Wir werden keine Preisschlacht sehen.
Zwischen verschenken und Wucher bzw. maximale Margengenerierung gibt es noch jede Menge Platz. Dieses Wort "verschenken" ist doch eh Käse. Kein Unternehmen schenkt dir für lau was. Selbst irgendwas zu Produktionskosten zu verkaufen kann sich kein Unternehmen auf Dauer leisten. Hier gilt wie immer eine gute Balance zwischen Marge und Kundenakzeptanz zu finden.
GerryB
2024-06-02, 10:08:52
Wenn man den Preis für N48 etwas höher setzt ist auch für ne 7900GRE noch Platz.
16GB-8800xt 539€
7900 GRE 489€ (x)
12GB 8700xt 439€
6800 =389€
8600xt = 339€
8600 = 289€
(x) das wäre ca. 50€ unter dem bisherigen Bestpreis, ... why not
Bei den immer noch erhältlichen 6800 könnte es schon sein, das inzwischen 6800xt als nonXT ausgeliefert
werden!? (evtl. wird sogar länger produziert als gedacht, wenn der Preis bei TSMC passt)
reaperrr
2024-06-02, 19:38:25
Wenn man den Preis für N48 etwas höher setzt ist auch für ne 7900GRE noch Platz.
Maximal vorübergehend, wenn sie N31 anders nicht loswerden.
Allein der N31-GCD dürfte teurer zu produzieren sein als der gesamte N48-Chip.
Solange sie genug N4P-Wafer für N48 übrig haben, macht es mehr Sinn, einen N48 mit 56 CUs und 16 GB VRAM statt der 7900 GRE dort zu platzieren.
Außerdem denke ich, dass du hinsichtlich Euro-Preisen zu optimistisch bist.
Die 8800 XT(X) wird bei der kolportierten Performance eher für 549-599$, also 590-650 € launchen.
Bei den immer noch erhältlichen 6800 könnte es schon sein, das inzwischen 6800xt als nonXT ausgeliefert
werden!? (evtl. wird sogar länger produziert als gedacht, wenn der Preis bei TSMC passt)
Macht nur Sinn, wenn sie nicht genug N4(P)-Wafer bekommen und/oder entweder noch zu viele Reste, oder laufende N7P-Wafer-Verträge mit TSMC haben, die sie anders nicht vollkriegen.
N21 ist so viel größer als es N48 zu werden scheint, dass es trotz 7nm und zusammen mit den 256bit, 16GB und 250W eigentlich auszuschließen ist, dass die 6800 für diesen Preis wirklich günstig genug zu produzieren ist, wenn was nennenswertes an Marge überbleiben soll.
Es ist eher wahrscheinlich, dass AMD entweder noch immer auf N21-Resten aus Mining-Boom-Zeiten sitzt, oder irgendwelche langfristigen 7nm-Verträge mit TSMC weiter bedienen muss, und die GPUs deshalb zu Spottpreisen an die Boardpartner verscherbelt, das bedeutet aber nicht, dass AMD da selbst wahnsinnig viel von hat.
GerryB
2024-06-03, 17:31:25
Es wird schon seine Gründe haben warum auch bei den CPU´s jetzt ein 5800xt + 5900xt kommen soll.
(falls es tatsächlich an den Kapazitäten liegt und den jeweiligen Preisen)
k.A. ob die PS5pro viel gebucht hat und die neuen CPU´s haben sicherlich bei AMD erstmal Vorrang ggü. RDNA4
amdfanuwe
2024-06-03, 17:59:48
Es wird schon seine Gründe haben warum auch bei den CPU´s jetzt ein 5800xt + 5900xt kommen soll.
Das sind Restposten und die Nachfrage nach Milan und ZEN3 Threadripper dürfte auch mittlerweile minimal sein.
Produziert wird da schon lange nichts mehr.
Restposten nicht. Die werden nach wie vor günstig N7-Kapazitäten belegen, das nimmt man dann natürlich noch mit.
mczak
2024-06-03, 21:28:05
Auch N23 (RX 6600) wird ja immer noch in Massen verkauft - obwohl doch eigentlich N33 in N6 eher günstiger zu produzieren sein sollte, schon erstaunlich. Auch ein Produkt mit einem teildeaktivierten N33 gibt es immer noch nicht (jedenfalls keines das in ordentlichen Stückzahlen verkauft würde) - naja vielleicht dann als RX 8400 oder so...
Iscaran
2024-06-04, 00:05:06
Auch N23 (RX 6600) wird ja immer noch in Massen verkauft...
Wundert mich nicht - wer gibt schon >> 200 € für ne dämliche GPU aus :-).
Bevor ich das tue, spare ich mir lieber ein paar Triple-AAA titel die mich eh null interessieren :eek:
amdfanuwe
2024-06-04, 00:08:06
letzte MF Zahlen
https://x.com/Mareeswj/status/1797511133584310490
https://pbs.twimg.com/media/GPAaZgcWUAElZxX?format=jpg&name=medium
madzapp
2024-06-04, 01:42:24
Wie es scheint gehen AMD-Käufer im Sommer öfters mal raus. Die Zahlen an sich sind recht gering.
Hoffentlich bekommen die 8800xt und die 8700xt beide 16GB. Ich will im Herbst mal wieder nen neuen Rechner.
raffa
2024-06-04, 08:05:49
Wundert mich nicht - wer gibt schon >> 200 € für ne dämliche GPU aus :-).
Bevor ich das tue, spare ich mir lieber ein paar Triple-AAA titel die mich eh null interessieren :eek:
Is ne feine Karte fürs normale daddeln, aber sowohl 8GB, Rohleistung und Bandbreite werden langsam knapp - Wirklich zu wenig ist sie mir derzeit für den MSFS2020, da reicht aber auch der 5600er Ryzen nicht wirklich.
Wenn Preise und Performance und vorallem auch die Effizienz stimmen, kann es gut sein, dass ich im zum Herbst/Winter auf eine 16GB rdna4 Karte und einen AM5 X3D aufrüste.
GerryB
2024-06-06, 08:23:09
may be, RDNA4 wird die letzte preiswerte GPU-Gen, wenn man TSMC und Jensen so zuhört
https://www.techpowerup.com/323297/tsmc-thinking-to-raise-prices-nvidias-jensen-fully-supports-the-idea
DAS klingt nicht gut für 2025!
TSMC möchte natürlich auch ein größeres Stück vom Kuchen und Jensen würde gerne die Konkurrenz zwingen, die Preise
zu erhöhen.
Wer das dann nicht kann/will bekommt dann nicht mehr soviel Kontingent@TSMC oder halt erst später.
(die Preise sind ja von den Jahren abhängig, ... early Kundenzuschlag)
rentex
2024-06-06, 10:22:48
Ja, der KI Hype ist jetzt für AMD und NV wichtiger und profitabler.
mboeller
2024-06-06, 11:18:57
macht euch mal wegen RDNA4 keinen Kopf. All is fine
https://x.com/hms1193/status/1798062738322919911
hoffen wir mal dass es nicht stimmt, kommt schließlich von Wccftech
GerryB
2024-06-06, 11:43:40
Das kann genausogut ein "absichtlicher Leak" sein, damit die Schafe jetzt noch XYZ kaufen.
Dino-Fossil
2024-06-06, 11:44:56
Würde immerhin ins übliche Muster passen:
Gerüchte lange vor release: AMD kommt deutlich vor nVidia
Release: nVidia hat fast das komplette Line-up raus als AMD endlich den ersten Chip bringt
:freak:
Schnitzl
2024-06-06, 11:47:38
macht euch mal wegen RDNA4 keinen Kopf. All is fine
https://x.com/hms1193/status/1798062738322919911
hoffen wir mal dass es nicht stimmt, kommt schließlich von Wccftech
macht keinen Sinn.
Oder er meint RDNA5, das wäre dann jedoch etwas früh :rolleyes:
fondness
2024-06-06, 11:55:01
macht euch mal wegen RDNA4 keinen Kopf. All is fine
https://x.com/hms1193/status/1798062738322919911
hoffen wir mal dass es nicht stimmt, kommt schließlich von Wccftech
Überrascht mich ehrlich gesagt nicht. Habe ich ja weiter hinten schon erwähnt, dass ein früher launch Zeitpunkt eigentlich keinen Sinn macht. AMD hat N41/42/43 wegen Knappheit bei der packaging Kapazität gestrichen und musste N44/48 neu auflegen. Das kostet natürlich Zeit.
BlacKi
2024-06-06, 11:59:51
nvidia haut nochmal die 5080/90 raus und das wars was gaming angeht. amd schiebt n44/48 solange raus, bis sie merken, das sie garkeine kapazitäten übrig haben und sind dann auch raus.
gaming ist tot, jim keller meinte schon:
"In 10 Jahren sieht sich niemand mehr einen Film an"
Keller ist sich sicher, dass in zehn Jahren – diesen Zeitraum gab er früher auch schon für den Durchbruch von Risc-V an – von KIs generierte Inhalte jeglichen Markt dominieren werden. "In zehn Jahren schaut sich niemand mehr einen Film an, du wirst in einem Film leben", sagte er im Gespräch mit LTT. Man könne dann einfach seine Lieblingsfigur aus einem Film fragen, ob sie einem etwas zeigen könne, und diese würde antworten: "Halt die Klappe, ich muss gerade jemanden erschießen." Auf die Frage, wie bisherige Software auf künftigen Computern, die wesentlich auf KI-Beschleunigern basieren, denn arbeiten solle, gab Keller ein etwas plastischeres Beispiel.
In zehn Jahren sei es gar nicht mehr nötig, dass alle Software auf allen Plattformen zur Verfügung stehe. Wenn man zum Beispiel ein altes Spiel spielen wolle, könne man dem Computer einfach sagen: "Hey, ich will Super Mario spielen", das Spiel beschreiben, und der Maschine ein Video zeigen. Dann würde die KI das ganze Spiel emulieren, und "Du wirst damit zufrieden sein", sagte Keller. Linus Sebastian bezeichnet das als "gruselig" und meinte auch, er könne Nintendos Anwälte schon jetzt aus der Ferne hören. Kreative Berufe wie die von Autoren, Filmemachern und Maler werde es dennoch geben, schränkte Keller später ein, denn "Menschen mögen Dinge, die Menschen gemacht haben."
Später im Gespräch meinte Keller dann zur Frage des vollständigen Ersetzens von Software: "Alle Software, die je geschrieben wurde, wird verschwinden." Und weiter: "Das wird schneller passieren, als du denkst. Und zwar hundertprozentig." Schon heute arbeite sein Unternehmen daran, dass die KIs auf den eigenen Tensor-Prozessoren für die RISC-V-Chips, welche sie steuern, eigene Software schreibe. Das sei immer dann nötig, wenn der Mensch von der Maschine eine neue Funktion haben will. Die – siehe Super Mario – beschreibe er dann, und der Rechner erledige den Rest.
https://www.heise.de/news/Jim-Keller-ueber-KI-In-10-Jahren-ist-alle-Software-weg-9692706.html
Exxtreme
2024-06-06, 12:04:25
gaming ist tot, jim keller meinte schon:
https://www.heise.de/news/Jim-Keller-ueber-KI-In-10-Jahren-ist-alle-Software-weg-9692706.html
"Das Internet wird nicht mehr Einfluss haben auf die Wirtschaft, als das Faxgerät." - Paul Krugman
Die Menschen sind nicht sehr gut darin die Zukunft vorauszusagen.
mboeller
2024-06-06, 12:11:48
"Das Internet wird nicht mehr Einfluss haben auf die Wirtschaft, als das Faxgerät." - Paul Krugman
was hast du gegen die Vorhersagen von Krugman? Die stimmen sogar fast immer! Du musst sie nur anders herum lesen. Wenn es sagt "weiß" dann kommt "schwarz" ... das trifft zu 90% zu. ;)
...
gaming ist tot, jim keller meinte schon:
https://www.heise.de/news/Jim-Keller-ueber-KI-In-10-Jahren-ist-alle-Software-weg-9692706.html
Marketing kann er auch...
aber er wird sicher grundsätzlich recht haben
BavarianRealist
2024-06-06, 13:04:23
Dass RDNA4 eher ein 2025er Produkt werden könnte, hatte ich schon aus dem letzten CC mehr oder minder interpretiert, siehe meinen Beitrag hier. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13536861&postcount=2123)
Achill
2024-06-06, 13:47:32
macht euch mal wegen RDNA4 keinen Kopf. All is fine
https://x.com/hms1193/status/1798062738322919911
hoffen wir mal dass es nicht stimmt, kommt schließlich von Wccftech
Einfach seine X Posts ansehen ... Und dann erinnern, dass dieser "Autor" u.a. die Behauptung inkl. den Vergleich aufgestellt hatte, das AMD mit FSR die Implementierung von DLSS blockiert.
Spricht für ihn ...
robbitop
2024-06-06, 15:15:20
Die Menschen sind nicht sehr gut darin die Zukunft vorauszusagen.
So ist es. Ein sehr sehr gutes und wahres Statement (IMO). :up:
Das gilt selbst für die besten Experten. Die Zukunft ist für viele Sachen ungewiss, weil es unbekannte Variablen gibt. Das gilt auch für Dinge die noch erforscht werden. Kann man unmöglich vorhersagen, weil man es ja noch nicht gemacht.
Wir können prognostizieren wie lange etwas dauern wird, was wir schon mal gemacht haben.
Insofern sollte man von Vorhersagen - egal von wem - immer Abstand nehmen.
Und klar gibt es Leute die auch mal Recht haben - aber haben die auch immer Recht? Eine kaputte Uhr zeigt auch 2x am Tag die richtige Uhrzeit an.
Hakim
2024-06-06, 15:17:31
Ob es in dann doch in 30 Jahren fliegende Autos und Hoverboards für den Alltag geben wird? :)
DrFreaK666
2024-06-07, 04:31:00
Dann upgrade ich wohl erst meine CPU :/
Obwohl ich das aktuell eher unnötig finde
robbitop
2024-06-07, 08:54:20
Ich könnte mir vorstellen, dass Gebrauchtpreise von RDNA3 und Ada sobald nextgen vorgestellt ist runter gehen. Ich hab mir als Ada rauskam auch sehr günstig eine 3080 holen können. Auch die N21 war sehr sehr günstig damals schon (Ende 2022).
Es scheint so zu sein, dass man leider aus P/L Sicht so oder so bluten wird. Das wird wahrscheinlich (ich hoffe das Gegenteil) auch bei RDNA4 so sein.
Also wenn es sich lohnt - warum nicht gute gebrauchte kaufen.
Ich jedenfalls sehe es nicht ein, für gute GPUs abzockt zu werden.
Ich könnte mir vorstellen, dass in Q1/2 (wenn das Blackwell und RDNA4 linup draußen ist) gebrauchte 4080 und 7900XTX bei ~600 € liegen könnten.
DrFreaK666
2024-06-07, 09:14:26
Ne 7900XTX kommt mir nicht in den Rechner. Und ich hoffe halt auf bessere RT-Performance von RDNA4
Schnitzl
2024-06-07, 09:59:11
Ne 7900XTX kommt mir nicht in den Rechner. Und ich hoffe halt auf bessere RT-Performance von RDNA4
+1
ich hoffe auf deutlich bessere Performance/Watt - für 7900TX Leistung mit ~200W würde ich sogar nochmal sidegraden :freak:
Altehardware
2024-06-07, 10:07:23
Da n48 mit 64cu bei knapp 220-240w für rx7900xt (330w) erreicht ist das ein Effizienzsprung von +37-50%
Und das mit dem samsung sf4x node bei 3,1ghz
Die perf ist sicher die frage ist nur bei welche Preis das wird den es kann sein das man nur die rx7900gre erreicht 260w dann wäre es deutlich ineffizienter. mit +18% mehr Effizienz
beides ist möglich die dxr per ist aber sicher bei rtx4070 level/rx7900xtx
BlacKi
2024-06-07, 10:28:51
Da n48 mit 64cu bei knapp 220-240w für rx7900xt (330w) erreicht ist das ein Effizienzsprung von +37-50%
Und das mit dem samsung sf4x node bei 3,1ghz
Die perf ist sicher die frage ist nur bei welche Preis das wird den es kann sein das man nur die rx7900gre erreicht 260w dann wäre es deutlich ineffizienter. mit +18% mehr Effizienz
beides ist möglich die dxr per ist aber sicher bei rtx4070 level/rx7900xtxna du musst dazu aber schon gleiches mit gleichem vergleichen. fullchip vs fullchip. 7900xtx vs 8800xt oder jenachdem auch die 7800xt, da es dieselbe klasse ist. die GRE ist da kein vergleichbarer partner.
und das wäre schonmal der fix für rdna3. ich mein, fertigungsseitig ändert sich ja nicht viel und vram ist auch nicht schneller. die effizienzsteigerung kommt fast komplett durch die architekturädernung.
DrFreaK666
2024-06-07, 21:58:18
PowerColor’s “Next-Gen” AMD Radeon GPUs To Work With NPUs To Reduce Power Consumption While Gaming
Bin mir nicht sicher ob es hier reinpasst, da Powercolor die Technologie mit einer 7900XTX gezeigt hat...
https://wccftech.com/powercolor-next-gen-amd-radeon-gpus-work-with-npus-reduce-gaming-power-consumption/
PowerColor NPU ECO Mode Tech Demo In Cyberpunk 2077 / Final Fantasy XV on 7900 XTX:
Without Power Saving: 263.2W / 338.6W
With Power Saving (AMD): 214.5W / 271.4W
With Power Saving (NPU): 205.3W / 262.9W
Aber könnte vielleicht ein Feature sein, dass auch in RDNA4 Verwendung findet; wer weiß. Im Vergleich zu AMDs Power Saving ist der Gewinn allerdings eher minimal. Ob sich dafür Extra-Hardware lohnt?
BlacKi
2024-06-07, 22:10:53
interessantes statement. sozusagen ein offizielles durch die AIB.
PowerColor also states that since AMD won't have RDNA 4 ready for launch within this year
Aber könnte vielleicht ein Feature sein, dass auch in RDNA4 Verwendung findet; wer weiß. Im Vergleich zu AMDs Power Saving ist der Gewinn allerdings eher minimal. Ob sich dafür Extra-Hardware lohnt?
wie hoch ist der qualitätsverlust durch das AI upsampling? ich mein die zahlen alleine sagen nichts über die nutzbarkeit aus.
Der_Korken
2024-06-07, 22:42:29
Aber könnte vielleicht ein Feature sein, dass auch in RDNA4 Verwendung findet; wer weiß. Im Vergleich zu AMDs Power Saving ist der Gewinn allerdings eher minimal. Ob sich dafür Extra-Hardware lohnt?
Vor allem frisst die NPU die Einsparung womöglich selbst wieder auf :freak:
BlacKi
2024-06-07, 22:45:19
mhh, nöö. könnte sehr gut 720p content auf fake 4k upscalen ohne 20% der 7900xtx zu fressen. aber was kostet es an grafikqualität, oder noch schlimmer, an latenz.
GerryB
2024-06-07, 23:24:09
GPU-Messungen einzeln gezeigt sind immer schön, aber wieviel W braucht dann die NPU?
Was kommt also in Summe raus bei GPU+CPU+NPU bei gleichen Fps?
Wurde FRTC verwendet oder Chill?
(Chill müsste nach m.E. ähnlich wie RTSS als Limiter funzen, sprich die CPU bremsen)
DrFreaK666
2024-06-07, 23:31:32
mhh, nöö. könnte sehr gut 720p content auf fake 4k upscalen ohne 20% der 7900xtx zu fressen. aber was kostet es an grafikqualität, oder noch schlimmer, an latenz.
Wieso muss NPU gleich Grafikqualitätsverlust bedeuten?
Steht doch da, was die NPU macht:"PowerColor says that the technology works by adding its own GUI interface as a middleman that connects the AMD Radeon RX GPU with an NPU featured on the PC. The NPU then offloads the burden from the VRMs and also the MOSFETs, thus resulting in these power savings and also lower temperatures."
BlacKi
2024-06-07, 23:40:09
nvr read so much BS
könnte glatt von chat gpt stammen...
Prinzenrolle
2024-06-08, 00:20:31
RDNA4 completely cancelled.
BlacKi
2024-06-08, 00:28:46
wellp
es gibt eine welt vor AI und nach AI.
OgrEGT
2024-06-08, 08:14:39
RDNA4 completely cancelled.
Wie kommst du darauf?
horn 12
2024-06-08, 08:42:07
Weil NV auch nicht viel hat, knapp 4090 und 4090 + 20% Maximal
Da ist man mit 7900XTX und XT gut dabei.
dildo4u
2024-06-08, 08:54:33
Weil NV auch nicht viel hat, knapp 4090 und 4090 + 20% Maximal
Da ist man mit 7900XTX und XT gut dabei.
Weil man oft in CPU Limits läuft.
Hogwarts ist z.b nicht in der Lage eine 4090 vollständig zu nutzen selbst mit Framegen
5090 ohne Zen5 x3D erscheint mir sinnlos mit der aktuellen Software.
6WNeGeed2S0
fondness
2024-06-08, 10:49:01
PowerColor also states that since AMD won't have RDNA 4 ready for launch within this year
Überraschung...nicht. Wie schon ein paar mal von mir gesagt, die Ressourcen sind bei den AMD bei der Instinct-Serie und vielleicht noch bei den APUs. Da hat man sogar mit RDNA35 einen Refresh aufgesetzt, der wohl zumindest die Bugs von RDNA3 fixed. Aber auch den wird es nicht für Desktop geben.
BlacKi
2024-06-08, 11:00:18
ja, aber wenn powercolour sowas stated dann hat das ein anderes format als ein user im forum.
ich finde es schon überraschend, das powercolour so klartext raushaut. das ist schon ungewöhnlich.
DrFreaK666
2024-06-08, 11:03:55
Wie kommst du darauf?
Prinzenrolle ist ein NV-Fanboy. Einfach nicht ernst nehmen
Achill
2024-06-08, 11:38:35
Überraschung...nicht. Wie schon ein paar mal von mir gesagt, die Ressourcen sind bei den AMD bei der Instinct-Serie und vielleicht noch bei den APUs. Da hat man sogar mit RDNA35 einen Refresh aufgesetzt, der wohl zumindest die Bugs von RDNA3 fixed. Aber auch den wird es nicht für Desktop geben.
ja, aber wenn powercolour sowas stated dann hat das ein anderes format als ein user im forum.
ich finde es schon überraschend, das powercolour so klartext raushaut. das ist schon ungewöhnlich.
Wenn man die org. Quelle, also nicht PowerColor’s “Next-Gen” AMD Radeon GPUs To Work With NPUs To Reduce Power Consumption While Gaming von Hassan Mujtaba (https://wccftech.com/powercolor-next-gen-amd-radeon-gpus-work-with-npus-reduce-gaming-power-consumption/) sondern "Powercolor solders npu to RX 7900 XTX for up to 22 percent extra efficiency" von Yannick Spinner (https://tweakers.net/nieuws/222870/powercolor-soldeert-npu-op-rx-7900-xtx-voor-tot-22-procent-extra-efficientie.html) (google translation (https://tweakers-net.translate.goog/nieuws/222870/powercolor-soldeert-npu-op-rx-7900-xtx-voor-tot-22-procent-extra-efficientie.html?_x_tr_sl=auto&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=wapp)), liest, dann geht es nicht nur um RNDA4 allein sondern auch um die Lösung von PowerColor mit einer NPU den Verbrauch zu optimieren.
Im Artikel wird gesagt, dass die NPU zusätzlich auf der Grafikkarte integriert wird, es also ein eigene Lösung von PowerColor ist was u.a. die MOSFETs ansteuert.
Die NPU operiert also auf einen kleinen Netz (oder ähnlichen Ansatz), dafür bedarf es immer Training und passende Daten. Damit diese Daten erhoben werden können, muss das spezifische Board von PowerColor fertig sein, vollwertige Treiber bereit stehen (m.W. gibt es diese in der letzten Zeit nur ein paar Wochen vorm Start) und dann über verschiedene Boards / Chips eine ausreichene Streuung bei den Daten erreicht werden, was also das vermessen/erfassen von mehreren hundert? Grafikkarten bedeutet.
Ich spekuliere also, dass solche eine Custom-Lösung immer erst nach den Start auf den Markt gebracht werden kann, wenn es eben nicht von AMD selbst kommt.
Sieht man dies aus diesen Context, dann kann RDNA4 z.B. am Ende von 2024 kommen, man wird sich sicherlich nicht die Weihnachts-/Feiertage entgehen lassen wollen, und das Custom-Model von PowerColor kommt dann Anfang 2025.
GerryB
2024-06-08, 11:46:16
PC benutzt eigene Middleware, ... da sollte der Treiber keine große Rolle bezgl. der VRM´s spielen.
Vllt. ist sogar der Arbitrator bereits im Bios ausreichend instruiert und der Hardwarescheduler soundso,
und
man überträgt jetzt nur Teile der Steuerung der NPU, die vllt. noch filigraner oder schneller auf Lastwechsel reagiert.
Letztenendes müssen aber auch die Spawas soo schnell sein bzw. Spulen und Kondensatoren groß genug sein,
damits an den Shadern spannungs+strommäßig noch passt.
(manche Modder verlöten nicht zum Spass zusätzliche Kondensatoren)
Die NPU regelt die Stromversorgung der GPU anhand eines Algorithmus und entlastet so das Spannungsreglermodul und die MOSFETs der Karte. Dank dieser Konstruktion muss die GPU bei stärkerer Belastung Dutzende Watt weniger verbrauchen. Powercolor gibt eine Reduzierung des Stromverbrauchs um bis zu 22 Prozent an. Die NPU selbst benötigt etwa 2,5 Watt.
Das wäre eigentlich zu schön, um wahr zu sein, oder die alten Spawas waren einfach nur Schrott, sprich falsch dimensioniert.
may be
Das man jetzt dank NPU nichtmehr die hohen Spikes bei den Spannungen hat, die Igor so misst.
Oder man hat einfach die Messmethode geändert!?
(dadurch wird ein niedriger avg. Verbrauch angezeigt)
Leider gibts zur 7900XTX weniger belastbare Einblicke als bei der 6950XT, wo es tatsächlich ein TP0+TP1 gibt, was man vllt.
intelligenter verwalten kann.
DrFreaK666
2024-06-08, 11:47:48
Ich glaube du bist da zu optimistisch.
Hier heißt es laut Google Übersetzer, dass es erst 2025 erscheint
https://tweakers.net/nieuws/222772/volgende-generaties-amd-radeon-en-intel-arc-gpus-verschijnen-pas-begin-2025.html
BlacKi
2024-06-08, 12:02:36
wow, danke fürs hervorheben der npu auf der xtx. das ist an mir komplett vorbeigegangen. ich dachte, der npu teil der cpu, der bei den neuen amd apus dabei ist, würde das von dort aus steuern.
aber das ist ja kein rdna4 feature. das npu feature könnte man auch nachträglich auf die xtx bauen. was das wohl extra kostet? deshalb werden wir das nicht sehen, solange das nicht auf der gpu selbst verbaut wird.
aber die news behauptet trotzdem, das powercolor behauptet, das amds rdna4 karten dieses jahr nichtmehr kommen.
dildo4u
2024-06-08, 12:15:08
Interessant wie Sony hat Powercolor die AMD Roadmap nicht gereicht.
Damit sollte dann auch das Microsoft AI Upsampling gehen?
https://videocardz.com/newz/microsoft-introduces-automatic-super-resolution-system-level-upscaling-for-npus
GerryB
2024-06-08, 12:25:27
aber das ist ja kein rdna4 feature. das npu feature könnte man auch nachträglich auf die xtx bauen. was das wohl extra kostet? deshalb werden wir das nicht sehen, solange das nicht auf der gpu selbst verbaut wird.
vllt. doch
Das Unternehmen teilte Tweakers auf der Messe mit, dass möglicherweise eine Verbraucherversion dieser modifizierten
RX 7900 XTX veröffentlicht wird.
BlacKi
2024-06-08, 12:31:30
selbst wenn, würdest du einen 100€ aufpreis dafür zahlen? denn es wäre eine sehr kleine kleinserie und die entwicklungskosten müssten sie darüber abwickeln. und die verkaufszahlen sind schon jetzt bei der xtx nicht gerade hoch.
DrFreaK666
2024-06-08, 12:33:41
Interessant wie Sony hat Powercolor die AMD Roadmap nicht gereicht.
Damit sollte dann auch das Microsoft AI Upsampling gehen?
https://videocardz.com/newz/microsoft-introduces-automatic-super-resolution-system-level-upscaling-for-npus
Nur wenn die NPU min. 40 TOPS schnell ist, was bei der Aufgabe "Verbrauch senken" eher nicht der Fall sein wird
GerryB
2024-06-08, 12:35:16
selbst wenn, würdest du einen 100€ aufpreis dafür zahlen? ...
als aufgemotzte 7950 vllt. für Manche interessant
(die Einsparung für mehr Takt nutzen, wäre die sinnvolle Verwendung, bei gleich großem Kühler+dB)
Dazu noch schnelleren Vram ala 6900-->6950 und schon wird das Warten auf RDNA5 erträglicher.
btw.
22% effizienter könnten bei gleichviel Watt dann 10% mehr Fps sein, oder?
355x1,22= 433W-Äquivalent, ungefähr wie ne aufgedrehte Nitro vs. ne Ref.?
(da jetzt nicht von Nitro-Reviews ausgehen, sondern schauen, was bei Usern so geht, weil Takt zu Watt passen muss
bzw. ohne Vram-OCen die Shader zu oft nur Däumchen drehen)
Wenn man vom üblichen TS ausgeht, kommt man mit ner Nitro@OC/UV schon in die Nähe von 35k-Grafiksscore.
dildo4u
2024-06-08, 12:47:39
Nur wenn die NPU min. 40 TOPS schnell ist, was bei der Aufgabe "Verbrauch senken" eher nicht der Fall sein wird
40 Sollte machbar sein hat Sony nicht 300 Tops in der PS5 Pro?
Für High-End Karten sollte die Marge da sein.
DrFreaK666
2024-06-08, 12:53:56
40 Sollte machbar sein hat Sony nicht 300 Tops in der PS5 Pro?
Für High-End Karten sollte die Marge da sein.
Natürlich sollte das machbar sein. Aber wenn Powercolors Ziel nur niedriger Stromverbrauch ist, dann sind 40+ wahrscheinlich nicht nötig.
Und wieso sowas in GPUs einbauen, das aktuell offiziell nur mit Qualcomm-SoCs funktioniert?
Das ist Nische und lohnt sich nicht
GerryB
2024-06-08, 12:56:34
Nuuur zum Strom regeln wirds keine groooße+teure NPU brauchen.
Da reicht irgendwas Kleines von Kneron.
btw.
Der Wirkungsgrad der Spawas differiert im Anwendungsbereich höchstens um 5%, ... wo da 22% herkommen sollen,
... ist denn schon wieder der 1.April?
edit:
Bei PCGH hab ich gerade das Bild gesehen:
107fps vs 118fps !?
10% mehr Fps gibts ja auch nicht umsonst, ... und olles DX11 vllt. noch mit DrawCall-Limit?
Der ganze Vgl. ist dann vollkommen sinnlos.
aufkrawall
2024-06-09, 17:34:42
Sieht man dies aus diesen Context, dann kann RDNA4 z.B. am Ende von 2024 kommen, man wird sich sicherlich nicht die Weihnachts-/Feiertage entgehen lassen wollen, und das Custom-Model von PowerColor kommt dann Anfang 2025.
Nein, AMD haut gerade nur den ganzen Linux-Treiberkram für RDNA4 raus, um es sehr bald schon wieder zu löschen.
Hat Prinzenrolle schon ganz richtig gecheckt.
:freak:
robbitop
2024-06-11, 10:54:09
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Radeon-RX-8800-und-8700-mit-Navi-48-und-Navi-44-1449358/
AMD scheint N48 XT Boards zwischen den Standorten zu schicken.
Wenn das Ding erst nächstes Jahr kommen soll, dann ist das vermutlich Absicht.
Ich glaub das nicht, dass die N4x-Karten erst nächstes Jahr kommen, die kommen so schnell wie möglich. Die sparen ggü. N3x einfach sehr viel Geld bei AMD.
dildo4u
2024-06-11, 11:07:30
Das kommt darauf an wie viel über produziert wurde man kann bis Heute 6800 für sinnvolle Preise kaufen.
Die 6800 lässt alles Andere von AMD schlecht aussehen.
basix
2024-06-11, 11:10:04
Ich würde auch nicht allzu viel drauf geben. Das Shipment-Datum war im April, selbst bei 6 Monaten zum Release (was bereits eine Verzögerung ist) wäre das locker noch dieses Jahr. Abwarten und Tee trinken ;)
Das kommt darauf an wie viel über produziert wurde man kann bis Heute 6800 für sinnvolle Preise kaufen.
Die 6800 lässt alles Andere von AMD schlecht aussehen.
Da wurde sehr sicher nix überproduziert bei 5nm. Und die paar Karten im Markt wird man schon loswerden.
OgrEGT
2024-06-11, 15:05:08
Wenn N48 ein eher mittlerer/kleiner Chip sein soll wozu 4 Board Designs?
GerryB
2024-06-11, 18:46:43
2x 8800 + 2x 8700
wobei Das eigentlich alles 1 PCB sein könnte
vllt. wird nur Irgendwas ausprobiert bei den ES
mczak
2024-06-11, 19:02:03
2x 8800 + 2x 8700
wobei Das eigentlich alles 1 PCB sein könnte
vllt. wird nur Irgendwas ausprobiert bei den ES
Ich sehe da auch nirgends dass das alles PCBs für N48 sein sollen - bloss bei einem (aufgrund des zweiten Diagramms). Da könnten also auch andere (z.B. für N44) dabei sein, ausserdem sind manche der Nummern sehr ähnlich so dass das effektiv dasselbe PCB sein könnte bei dem irgendwas minimales anders ist.
Eine Nummer hingegen folgt einem komplett anderem Schema, da wäre ich nicht überzeugt dass das überhaupt ein PCB für eine Grafikkarte ist.
robbitop
2024-06-12, 09:08:59
Bei N48 steht doch sogar Graphics card. Also eine komplette Grafikkarte.
Gebt euch mal die frischen Pathtracing-Benchmarks aus Alan Wake 2: https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Night-Springs-DLC-Pathtracing-Benchmarks-1449456/2/#a4
"Nichtsdestotrotz schlägt hier eine Art Sternstunde für RDNA 3: Die Radeon RX 7800 XT kann sich weit überdurchschnittlich von allen RDNA-2-GPUs absetzen (!) und die RX 7900 XTX ist mehr als doppelt so schnell wie die 6800 XT."
Dass eine 7800 XT um ~40 Prozent von einer 6800 XT wegkommt und damit selbst eine aufgedonnerte 69x0 XT schlagen kann, gibt es sonst nirgends. Das wäre somit einer der Fälle, wo wir bei RDNA 4 besonders hinsehen sollten. Die Skalierung von Rasterizing auf Raytracing auf Pathtracing verdient ebenfalls Blicke, alles sehr spannend und im Text erläutert. :)
MfG
Raff
Sumpfmolch
2024-06-14, 10:39:05
Spannend wird ja eigentlich nur, ob die RDNA4 es mal schaffen spielbare Path Tracing Performance zu bringen. Dazu muss AMD die Performance der 7900xtx mindestens verdoppeln im Path Tracing.
dildo4u
2024-06-14, 10:48:38
Die Klasse erscheint mit dafür zu langsam realistch sollte man die 4080 in RT erreichen könne was für 700€ ok wäre.(+30% zu 7900XTX)
Schon dort bist du nur bei 1080p und 70fps ich würde das als Minimale Auflösung einstufen um auf 1440p zu skalieren.
dargo
2024-06-14, 10:53:31
@Raff
Nichts für ungut, aber mach dich doch bitte nicht lächerlich. Im unspielbaren Bereich interessiert es keine Sau wie sich X von Y absetzt. Und dann noch 1080p mit Upscaling. *andenkopffass*
Da werden noch einige Auflösungen mehr getestet. ;) Daran ist rein gar nichts lächerlich, sondern erhellend. Kann man doof finden (warum auch immer), aber hier ist der Benchmark für RT-Verbesserungen, welche wir in RDNA 4 hoffentlich zuhauf sehen werden. Das müsste gerade für dich spannend sein, denn man sieht hier mal, dass RDNA 2 nur absolutes Spar-RT hat und bereits RDNA 3 pro Einheit massiv zulegen kann, wenn man's abruft.
MfG
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.