PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

The_Invisible
2023-11-27, 17:25:42
[immy;13443121']Das wird nicht lange halten. Schon jetzt wird alles mögliche in die Cloud ausgelagert was geht. Und schon aufgrund der nötigen Rechenkapazität und der Algorithmen wird sich das Feld immer mehr in die Richtung verschieben.
Was auf heimischen PCs ausgeführt wird hä an ende wenig mit AI zu tun. Die verarbeiten höchstens Ergebnisse.

Gerade für Consumer Inferencing macht das sehr wohl Sinn, learning wird man eh nicht haben. Wenn ich denke wie lange meine 4090 in StableDiffusion schon für ein 1024x1024 Bild rattert wird man da für 100e Mio Consumer nie genügend Hardware bereitstellen können, deswegen will man da auch auslagern, auch wenns nur der erste Schritt sein sollte.

basix
2023-11-27, 17:43:39
Um es back to topic zu führen: Was kann man von AMD erwarten, wie die KI-Beschleunigung auf ihren Grafik-Lösungen unterstützen werden? Niedrige Rechengenauigkeiten (INT8 & INT4) sind da ein guter Weg, um selbst aus Consumer-Modellen viel KI-Leistung herauszuholen. Wie ist AMD diesbezüglich jetzt aufgestellt und was macht RDNA4 da besser?

Schließlich ist anzunehmen, das Windows 12 eine Empfehlung pro soundsoviel KI-Leistung ausspricht - und das werden die kleineren RDNA4-Chips sicherlich bieten wollen.

Eine RDNA3 CU kann 512 FP16 / Clk ausführen. Ebenso viele Ops/Clk bei Int8. Bei Int4/Int8 könnte AMD also ansetzen, die Inferencing Leistung pro CU zu verdoppeln, ohne viel HW draufschmeissen zu müssen. Dazu allenfalls noch TF32, FP8 und Sparsity Support sowie Erweiterungen bei den Matrizen-Dimensionen/Formaten (Nvidia ist da flexibler, RDNA3 unterstützt nur 12 WMMA Intrinsics, CDNA2 kann ~28, CDNA3 wohl noch mehr). Schon wäre WMMA auf Radeons einiges mächtiger geworden, bei vermutlich minimalem Die Area Einsatz. Dazu noch gute Cache-Anbindungen / Local Caches, um das auch auf den Boden zu bringen.

In Games bringt sowas wie Nvidias Tensor Cores mit expliziter paralleler Ausführung nicht so viel. Via Async Compute kann man das meiste in der Pipeline verstecken. Bei professionellen Use Cases frage ich mich, wie stark der Mix von Tensor vs. Vektor Operationen ist. Vieles wird 90% Vektor oder Tensor sein, mit wohl geringem Überlapp. Und für Consumer Inferencing wird überall bei den neuen Chips ein dedizierter Accelerator eingebaut, welcher wohl für vieles ausreichen wird. Deswegen frage ich mich, ob AMD überhaupt in nächster Zeit dedizierte Matrix-Accelerators in die Consumer-GPUs einbauen wird: Alternativen sind vorhanden, die meisten Use Cases erfordern parallele Matrix-Accelerators nicht. Im professionellen dGPU Umfeld wären Matrix-Accelerators evtl. von Vorteil, hier ist aber auch die Frage, ob man die max. TFLOPS auf den Boden bringt / bringen muss.

AlterSack
2023-11-27, 18:27:13
[immy;13443121']Das wird nicht lange halten. Schon jetzt wird alles mögliche in die Cloud ausgelagert was geht. Und schon aufgrund der nötigen Rechenkapazität und der Algorithmen wird sich das Feld immer mehr in die Richtung verschieben.
Was auf heimischen PCs ausgeführt wird hä an ende wenig mit AI zu tun. Die verarbeiten höchstens Ergebnisse.

DieFrage ist, ob es um Rechenleistung geht, oder doch eher
um Kontrolle der Nutzer? Die wollen doch alles und jeden kontrollieren,
siehe auch den Kontozwang für Neuinstallationen bei MS.
Die sehen doch alle Nutzerdaten als ihr Eigentum.
Das Dumme ist, das die Nutzer alles mitmachen.

amdfanuwe
2023-11-27, 18:50:15
Oder man hat noch was in petto was wir noch nicht gesehen haben?
Wie sähe denn die optimale Hardware aus?
Ich meine, macht es Sinn ein paar XDNA Chiplets anstelle von ZEN Chiplets bei EPYC zu verbauen?
86152
Oder im I/O Die oder gestacked auf dem I/O?
Gab doch mal Patente dazu: https://www.freepatentsonline.com/20220101179.pdf
Oder XDNA+Cache Chiplets anstatt V-Cache only gestackt? https://www.freepatentsonline.com/20210374607.pdf

basix
2023-11-27, 20:24:26
Für CPUs #1: V-Cache alike stacked Chiplet wäre ideal als CPU-Erweiterung, wenn man ML im grossen Stil rechnen will (Scaling, EPYC). Cache und Bandbreite sowie CPU-Cores sind nah dran. Oder bei ML-only gleich ein CCD Ersatz ohne CPU Cores
Für CPUs #2: ML-Accelerator im IOD für background Tasks & Energieffizienz (Desktop & Mobile)
Für dGPUs: Zusätzliche ML-Accelerators machen mMn wenig Sinn, zumindest nicht konzentriert in form von einer einzelnen XDNA Engine. Verteilung auf mehrere Shadere Engines usw. müsste schon sein (wie halt die Tensor Cores bei Nvidia). In den CUs ist viel Cache, welcher sonst brach liegen würde.
Für Konsolen: ML-Accelerator kann Sinn machen, solange er wenig Silizium-Fläche beansprucht und/oder die GPU nicht für ML/AI belagert werden soll.

amdfanuwe
2023-11-28, 15:44:28
Ryzen 7 5700 NPU
Was hat es damit auf sich?

davidzo
2023-11-28, 17:07:55
Wie sähe denn die optimale Hardware aus?
Ich meine, macht es Sinn ein paar XDNA Chiplets anstelle von ZEN Chiplets bei EPYC zu verbauen?
XDNA sieht etwas effizienter aus, allerdings ist das ne echt grobe Schätzung. Hat jemand schon mal richtige apples to apples Benchmarks gesehen?

Alveo V70 nutzt einen 7nm Versal Acap Chip. Das heißt die XDNA AI Cores laufen vermutlich als Softcores im FPGA und wären sicher nochmal ne Spur effizienter und schneller wenn sie diskret und in einem moderneren Node die TSMC N4 laufen würden.

Trotzdem wird die V70 als low profile PCIe Karte mit 75Watt angegeben und bringt 400Tops und 16GB DDR4 mit sich (76gb/s) plus eine unbekannte Menge an SRAM(vermutlich 48MB) mit 47TB/s. - Richtig gelesen, Terabyte/s! Das ist also fast das zehnfache von H100s 50MB L2 Cache. Ich denke hier kommt die hohe Effizienz her da ein Großteil der Speicherzugriffe on Chip bleiben. Vermutlich ist die 75Watt Angabe auch eher theoretischer Natur (PCIe Limit), denn die Karte hat keinen Stromstecker und nur einen kleinen passivkühler (für server luftstrom).

Das ist schon von den theoretischen Werten fast auf einem Niveau mit der Nvidia Tesla L4 mit AD104 Chip und 485Tops + 24GB bei 72Watt. Ada ist nur in der Praxis meistens kaum halb so schnell wie die theoretischen Angaben. Von der V70 erwarte ich da wegen der dedizierten AI-Architektur und dem schnellen SRAM schon mehr Praxisleistung, aber da kann ich auch falsch liegen.

amdfanuwe
2023-11-28, 17:42:17
Das heißt die XDNA AI Cores laufen vermutlich als Softcores im FPGA
Sieht mir mehr danach aus, dass die eigene AI Einheiten haben
86164
https://www.xilinx.com/products/silicon-devices/acap/versal-ai-core.html

Leonidas
2023-11-28, 18:25:00
Und genau hier wird es interessant. Spezialisierte KI-Kerne, welche den vergleichsweise GPGPU-Kernen von NV schnell den Rang ablaufen. Kann NV natürlich auch bauen, aber damit explodiert dann die Rechenleistung, womit wir schneller in die Sättigung kommen - und die wirkt dann kostenbremsend.

AffenJack
2023-11-28, 19:19:36
Und genau hier wird es interessant. Spezialisierte KI-Kerne, welche den vergleichsweise GPGPU-Kernen von NV schnell den Rang ablaufen. Kann NV natürlich auch bauen, aber damit explodiert dann die Rechenleistung, womit wir schneller in die Sättigung kommen - und die wirkt dann kostenbremsend.

Was sind denn bitte Tensor Cores/Matrix Unit noch groß anderes? Viel Unterschied gibts da nicht mehr, da die mit jeder Gen stärker werden. Blackwell sieht nach den Folien ja nach der nächsten immensen Steigerung aus. In Nvidias SoCs hast du dann noch zusätzlich zwar die richtig dedizierten KI-Einheiten, aber es scheint nicht mehr viel Unterschied zu machen.

An AMDs Lösungen für KI hat man auch erst mit MI300 Matrix Cores Interesse und nicht an den FPGA Lösungen.

BlacKi
2023-11-29, 08:54:31
aber in einem punkt hast du recht, AI hat bis jetzt noch nichtmal groß potential gezeigt geld verdienen zu können.

ab dem moment, wo das passiert, und das wird passieren, dann haben wir eine richtige chip shortage auf dauer. und in einem ausmaß, das die letzte cryptoblase mit ihren auswirkungen ein kindergeburtstag war. es könnte nicht nur pc gaming töten, sondern auch konsolen. wir werden praktisch in die steinzeit zurückgeworfen, weil du deine 5 jahre alte rx 7800xt lieber für 3000€ verkaufst, als zu riskieren, das sie bei dir im system verreckt.


hat ja nicht lange gedauert.


everything is going to deep learning, and that we were no longer a graphics company. By Monday morning, we were an A.I. company.
https://www.newyorker.com/magazine/2023/12/04/how-jensen-huangs-nvidia-is-powering-the-ai-revolution

und das wird amd genauso tun. vl ist intel tatsächlich unsere letzte hoffnung, aber auch da geht wohl alles richtung AI.


gaming ist tot. es wird nie wieder günstige grafikkarten geben, von hier aus wirds nur noch schlimmer. auch wenn die email alt ist.

DrFreaK666
2023-11-29, 09:14:05
Ganz günstige Grafikkarten werden durch APUs ersetzt. Und natürlich wird es weiterhin günstigere Grafikkarten kaufen. Man darf halt dann keine Grafikhure sein

Leonidas
2023-11-29, 09:43:53
hat ja nicht lange gedauert.
https://www.newyorker.com/magazine/2023/12/04/how-jensen-huangs-nvidia-is-powering-the-ai-revolution
und das wird amd genauso tun. vl ist intel tatsächlich unsere letzte hoffnung, aber auch da geht wohl alles richtung AI.

Mit allerdings dem Punkt: Die Aussage ist mindestens 5 Jahre alt.
https://www.3dcenter.org/news/news-des-28-november-2023

HOT
2023-11-29, 10:42:58
Was ist denn ein Problem bei Grafik? Die Größe der Grafikchips. Das wird sich aber ändern mit Chiplets, auch Packaging wird erheblich billiger werden, das wird kaum teurer sein als jetzt das planare Packaging. Also wird es auch weiterhin günstige Grafikkarten geben.
Was hinzu kommt ist AI als Revolution der Software und des Contents an sich. Das ist bisher nicht absehbar. Aber Prozessoren werden in Zukunft auch an ihrer AI-Power gemessen werden. Vielleicht gibts auch PCIe-AI-Karten. Denn AI braucht man nicht nur für Grafik u.U.

Der_Korken
2023-11-29, 12:07:24
gaming ist tot. es wird nie wieder günstige grafikkarten geben, von hier aus wirds nur noch schlimmer. auch wenn die email alt ist.

Das kann man so nicht unterschreiben. Was passieren könnte ist, dass wir weitere Jahre der Stagnation sehen im GPU-Bereich, weil die ganzen neuen Fertigungsverfahren komplett in AI-Chips gebuttert werden. Selbst wenn wir annehmen, dass die Umsätze für ML-Cluster weiter auf höchstem Niveau bleiben und sich keine Sättigung einstellt, weil immer mehr Bereiche Anwendungen für große ML-Modelle finden bzw. immer neue Bereiche erfunden werden, wo man ML nutzen kann, würden irgendwann alte Fertigungsverfahren frei werden. Wenn in ein oder zwei Jahren 3nm großflächig ausgerollt werden, wird keiner mehr die entsprechenden Chips in 7nm herstellen wollen. Das heißt, man könnte auf dem Techlevel von RDNA2 wieder massenweise GPUs herstellen ohne dass sich das mit AI-Chips beißt. Und zwei Jahre später wäre Ada-Level in 5nm möglich, weil die AI-Chips dann komplett in 3nm sind und gerade auf 2nm umsatteln.

Das ist für uns Hardware-Enthusiasten natürlich keine schöne Nachricht, aber Gaming an sich wird dadurch nicht nachhaltig sterben. Der Markt wird sicherlich schrumpfen. Und es wird eine Notwendigkeit entstehen, Engines und Spieler wieder besser zu optimieren, weil man eben nicht einfach alles auf schnellere HW schieben kann.

BavarianRealist
2023-11-29, 12:43:46
@Navi 4x:

Anscheinend ist über dessen technologische Auslegung noch sehr wenig bekannt. Meines Erachtens opfert AMD bei Navi4x erstmal die Auslegung für Highend, um Navi4x vor allem auf Effizienz und geringe Diesize zu trimmen - ähnlich Zen4c/5c, sodass es später auch in die APUs wandern kann.

Mit Navi4x könnte AMD im Notebook-Segment seine Position gegenüber Intel stark verbessern, wenn man hier endlich Nvidia kräftig Konkurrenz bieten könnte.

Zuletzt frage ich mich, ob Navi4x womöglich auch AI-Cores mit erhalten könnte?

robbitop
2023-11-29, 12:58:55
@Navi 4x:

Anscheinend ist über dessen technologische Auslegung noch sehr wenig bekannt. Meines Erachtens opfert AMD bei Navi4x erstmal die Auslegung für Highend, um Navi4x vor allem auf Effizienz und geringe Diesize zu trimmen - ähnlich Zen4c/5c, sodass es später auch in die APUs wandern kann.

Mit Navi4x könnte AMD im Notebook-Segment seine Position gegenüber Intel stark verbessern, wenn man hier endlich Nvidia kräftig Konkurrenz bieten könnte.

Zuletzt frage ich mich, ob Navi4x womöglich auch AI-Cores mit erhalten könnte?
Gerüchte besagen zur uArch:
1. HW für BVH processing -> hieft die RT HW mindest auf Turing / Ampere Level (laut IMGTec Level 3 auf der Skala). Es ist unbekannt, ob man hier sogar einen oben drauf legt und eine Art Coherency Sorting einbaut. So wie AMD bis dato agiert: wahrscheinlich nicht. Aber Überraschungen gibt es ja oft
2. sALUs für die CUs - ob das für scalar ALU steht? Wenn ja sieht es eher nur nach einem leichten rebalancing der CUs aus
3. Verbesserung der Geometry Engine
4. "Advanced node" -> 4nm oder 3nm
5. Verbesserte Geomety Engine
6. Bis zu 32 WGPs

Alles andere (wie auch Matrix Cores) ist noch komplett unbekannt. Ob man Matrix Cores einbaut hängt davon ab, ob man bereits an ML Anwendungen für Radeon arbeitet, die eine signifikante Menge an Matrix OPs brauchen. Wenn nicht, ist es verschwendete Chipfläche.
Ob AMD daran arbeitet ist völlig unbekannt. Ich hoffe, sie tun es um den Anschluss nicht zu verlieren. Die HW selbst ist trivial und kann sicherlich auf Wunsch verbaut werden. Das war nie der Flaschenhals.
Wenn man sich AMDs Softwareteam und dessen output (insbesondere was ML angeht) anschaut ist die Wahrscheinlichkeit dafür nicht gerade riesig.

reaperrr
2023-11-29, 13:21:52
2. sALUs für die CUs - ob das für scalar ALU steht? Wenn ja sieht es eher nur nach einem leichten rebalancing der CUs aus
Eine skalare ALU haben die CUs schon seit GCN1, seit RDNA1 gibt es eine je SIMD.

Die von RDNA4 soll gegenüber RDNA3 halt "neu" (verbessert/überarbeitet) sein, wobei RDNA3.5 die auch schon hat.

Dino-Fossil
2023-11-29, 13:30:06
Das ist für uns Hardware-Enthusiasten natürlich keine schöne Nachricht, aber Gaming an sich wird dadurch nicht nachhaltig sterben. Der Markt wird sicherlich schrumpfen. Und es wird eine Notwendigkeit entstehen, Engines und Spieler wieder besser zu optimieren, weil man eben nicht einfach alles auf schnellere HW schieben kann.

Meine Vermutung ist, dass AAA-Gaming in den kommenden Jahren seitens der Hardwarehersteller verstärkt in Richtung Cloud (nVidia) und/oder Konsolen (AMD) gedrückt wird.
Client-seitig werden mobile Chips (Smartphone o. ä.) und APU (iGPUs) sicher genug Power für "einfachere" Sachen haben. Da kann man seine alten Schinken zocken, oder diverse Indie-Sachen.

robbitop
2023-11-29, 13:58:10
Eine skalare ALU haben die CUs schon seit GCN1, seit RDNA1 gibt es eine je SIMD.

Die von RDNA4 soll gegenüber RDNA3 halt "neu" (verbessert/überarbeitet) sein, wobei RDNA3.5 die auch schon hat.
Ja das ist mir bekannt. Was ich damit meinte, dass man ggf. mehr davon hat.

HOT
2023-11-29, 14:03:10
Meine Vermutung ist, dass AAA-Gaming in den kommenden Jahren seitens der Hardwarehersteller verstärkt in Richtung Cloud (nVidia) und/oder Konsolen (AMD) gedrückt wird.
Client-seitig werden mobile Chips (Smartphone o. ä.) und APU (iGPUs) sicher genug Power für "einfachere" Sachen haben. Da kann man seine alten Schinken zocken, oder diverse Indie-Sachen.

Das ist schon so oft prophezeit worden und nie eingetreten, nein, da wird sich nichts ändern. Vielleicht wird es die Entwicklungszyklen der Grafikchips auseinanderziehen, vielleicht sehen wie nicht mehr volle Lineups, aber das PC-Gaming wird unbeeinflußt bleiben, wie immer bisher.

Exxtreme
2023-11-29, 14:07:17
Meine Vermutung ist, dass AAA-Gaming in den kommenden Jahren seitens der Hardwarehersteller verstärkt in Richtung Cloud (nVidia) und/oder Konsolen (AMD) gedrückt wird.
Client-seitig werden mobile Chips (Smartphone o. ä.) und APU (iGPUs) sicher genug Power für "einfachere" Sachen haben. Da kann man seine alten Schinken zocken, oder diverse Indie-Sachen.

Das heutige AAA-Gaming ist eine Megablase, die allgemein platzen wird. Solche Spiele mit hunderten Millionen USD an Budgets sind gar nicht seriös finanzierbar. Das ist eine extrem wackelige Wette auf die Zukunft, dass man Kohle durch DLCs und irgendwelchen Pay2win-/Kosmetikschrott reinholt. AAA-Gaming wird sich gesundschrumpen auf vielleicht 1/5 der heutigen Budgets.

aufkrawall
2023-11-29, 14:50:04
Ist es doch schon, zig ehemals erfolgreiche AAA-Marken sind fallen gelassen worden. Wobei das kein "Gesundschrumpfen" war, sondern eher Kaputt-Crunchen. Und bei Ubisoft mutet die Content-Qualität auch nur noch an mittelprächtiges AA an.
Es fließt mittlerweile halt auch Unmengen an Geld in F2P-Transkationen ab. Da kann man nicht mehr teuer produzierten, aber trotzdem mittelmäßigen Schrott bringen und erwarten, dass einem der aus den Händen gerissen wird. Das Geld der Zielgruppe ist schon ausgegeben.

Dino-Fossil
2023-11-29, 15:39:58
Die Frage ist doch in der Hinsicht auch, ob man durch bessere Engines und Tools die Kosten für "content creation" bei gleichbleibender oder weiter steigender Qualität (damit beziehe ich mich weniger auf Inhalte, sondern eher auf Grafik, Animationen, Assets, etc.) ausreichend reduzieren kann, oder nicht.

][immy
2023-11-29, 16:47:25
Die Frage ist doch in der Hinsicht auch, ob man durch bessere Engines und Tools die Kosten für "content creation" bei gleichbleibender oder weiter steigender Qualität (damit beziehe ich mich weniger auf Inhalte, sondern eher auf Grafik, Animationen, Assets, etc.) ausreichend reduzieren kann, oder nicht.
Vor allem ist ja die Frage wie viel Geld überhaupt in der Entwicklung ankommt, denn nach wie vor geht ein riesiger Anteil der "Entwicklungskosten" ins Marketing. Das ist besonders ein Bereich in dem quasi nie gespart wird, ab einer gewissen Größe.

Neue GPUs werden vermutlich nur über effektivere Technik und mehr Performance auf Entwicklungskosten Einfluss nehmen können. Je stärker die Hardware, desto weniger muss optimiert werden.
Ich hoffe das rdna4 hier in den unteren Segmenten endlich mehr Performance bringt. Die aktuellen Generationen haben dort doch nur recht wenig geändert.

Aber wir leben halt auch in einer Zeit wo man mit 10 Jahre alter Hardware noch was anfangen kann und nicht komplett ausgeschlossen wird. Macht es nun nicht wirklich einfacher für Entwickler, aber die Zielgruppe ist dadurch doch massiv gewachsen.

AffenJack
2023-11-29, 19:39:40
Gerüchte besagen zur uArch:
1. HW für BVH processing -> hieft die RT HW mindest auf Turing / Ampere Level (laut IMGTec Level 3 auf der Skala). Es ist unbekannt, ob man hier sogar einen oben drauf legt und eine Art Coherency Sorting einbaut. So wie AMD bis dato agiert: wahrscheinlich nicht. Aber Überraschungen gibt es ja oft


Die Frage ist, ob das wirklich mit RDNA4 schon kommt. Bei RDNA3 hat man auch auf mehr gehofft in Sachen RT. Was, wenn einer der Gründe für das Canceln von High-End die zu schwache RT Hardware war? Ganz auszuschließen ist es nicht.

Mit RDNA1 hat man auch kein High-End gebracht, weil man die DX12U und RT Features nicht hatte und erst mit RDNA2 gebracht hat. Mit einer schnellen RDNA5 Nachfolgegen könnte es da auch parallelen geben.

robbitop
2023-11-29, 20:34:13
Die Frage ist, ob das wirklich mit RDNA4 schon kommt. Bei RDNA3 hat man auch auf mehr gehofft in Sachen RT. Was, wenn einer der Gründe für das Canceln von High-End die zu schwache RT Hardware war? Ganz auszuschließen ist es nicht.

Mit RDNA1 hat man auch kein High-End gebracht, weil man die DX12U und RT Features nicht hatte und erst mit RDNA2 gebracht hat. Mit einer schnellen RDNA5 Nachfolgegen könnte es da auch parallelen geben.

RDNA4 hatte achon sehr konkrete Gerüchte zu BVH HW. Was für 2024 wahrscheinlich kein Gildstandard mehr ist. Das hatte schon Turing 2018.
RDNA3 hatte eigentlich nur Hoffnungen aber BVH HE Gerüchte gabs da iirc nie.

Die Absage für die High End SKU kam wohl weil es Probleme mit dem chiplet (multi GCD) gab. Entweder design issues oder packaging war teurer / weniger verfügbar als gedacht. Zumindest so die Gerüchte

basix
2023-11-29, 20:35:27
Ideal wäre ja, wenn N48 auf ~RTX 4080 Niveau landen würde. Auch bei RT. Schlussendlich bedeutet RT Performance auch Produktattraktivität. Das Ding wird bis sicher Ende 2025 das neueste von AMD bleiben. 7 Jahre nach Turing...

4080 Niveau würde auch bedeuten, dass man N31 & N32 mit N48 / N44 ersetzen kann. Ähnliche Performance, bessere Perf/W, mehr RT-Performance. Dafür etwas weniger Speicher (12...16/18 GByte, je nach SI Gestaltung und ob GDDR7 24 Gbit Chips). N48 wäre preislich wohl auf ~7800 XT Niveau. Dafür ~7900 XTX / 4080 Performance. Wäre ein brauchbarer Sprung.

robbitop
2023-11-29, 20:39:07
Ideal wäre ja, wenn N48 auf ~RTX 4080 Niveau landen würde. Auch bei RT. Schlussendlich bedeutet RT Performance auch Produktattraktivität. Das Ding wird bis sicher Ende 2025 das neueste von AMD bleiben. 7 Jahre nach Turing...

Das ist sehr optimistisch. Gerüchte besagten N31 soll weiterhin die Spitze bleiben. Ggf als kleiner rename/refresh. Das würde keinen Sinn machen wenn N48 auf 4080 Niveau wäre.
N48 wird wahrscheinlich eher eine 7er SKU (8700). Etwas schneller als N32. IMO.

basix
2023-11-29, 20:57:09
Gerüchte sind Gerüchte ;)

Klar ist es optimistisch, ist ja auch der "Idealfall". Nur knapp schneller als N32 wäre aber fast schon wieder enttäuschend (somit kein Mehrtakt, keine gesteigerte IPC, 4 vs. 3 Shader Engines, 64 vs. 60 CU).

Der_Korken
2023-11-29, 23:11:58
Ob sich N31 in dem Lineup wird halten können, halte ich für fraglich. Der Knackpunkt wäre hier die RT-Performance, die bei N48 durchaus in einzelnen Titeln höher ausfallen könnte als für N31, wenn AMD hier endlich mal nachzieht. Raster-Leistung einer 4070Ti sollte imho locker zu schaffen sein für N48 (*), aber die 4070Ti schiebt sich in einigen RT-Games (insbesondere mit Pathtracing) an der 7900XTX vorbei. Da würde ich mir als Käufer des Highend-Models schon etwas verarscht vorkommen von AMD, wenn die dann plötzlich gegen die deutlich günstigere Midrange-Karte abstinkt. Da müsste AMD schon wirklich tiefer Hand am N31 angelegt haben und 10-15% mehr Takt bei ähnlichem Verbrauch rausgekratzt haben, damit der Chip immer vorne ist. Da glaube ich aber eher, dass AMD RDNA3 abgeschrieben hat und die Zeit in RDNA5 gesteckt hat bzw. einen monolithischen RDNA4-Chip mit mehr als 32WGPs gebracht hätte.

(*) Unter der Annahme, dass N48 auf >=250W Verbrauch kommt und RDNA4 das Effizienz-Ziel von RDNA3 erreicht, nämlich RDNA2 + 50%, dann sollte 6800nonXT-Leistung +50% in 250W drin sein und damit hätte man die 4070Ti.

iamthebear
2023-11-29, 23:52:36
Ich denke, dass N31/32 sobald wie möglich eingestellt werden, da die Chipletkonstruktion einfach viel zu ineffizient ist.

Navi33 ist ein gutes Design und kann kostentechnisch gut mit Nvidia mithalten. Auf 200mm² N6 holt man in etwa die Performance von Nvidias AD107 mit 150mm² heraus, ist aber auf einem günstigeren Node weshalb sich das in etwa ausgleichen sollte.

N31 vs. AD103 ist jedoch eine ökonomische Katastrophe. Man braucht gesamt 522mm² Die size, komplexe Packagingverfahren, verbaut beim Spitzenmodell schon nur mehr Full Dies mit 50% mehr RAM und kommt selbst in Raster kaum an einer 376mm² 4080 vorbei.

AMD füllt mit RDNA4 lediglich oben die Lücken. Ich vermute, dass N48 ein 5nm Monolith um die 300mm² wird, der ziemlich genau in der Mitte zwischen N31 und N32 landet also knapp 7900 XT Performance zu N32 Kosten bzw. leicht darunter. Das ist auch genau das, was der Markt aktuell braucht.

Exxtreme
2023-11-30, 00:20:14
Gibt bisher keine Belege, dass die Chiplets nennenswert ineffizient sind. Navi33 ist auch als Monolith kein Effizienzwunder. Für mich sieht das eher so aus als ob AMD davon ausgegangen ist, dass Effizienz nicht so wichtig ist weil sich Ampere wie blöde verkauft hat. Und Ampere ist auch ineffizient hoch drei. War für die Kunden aber kein Hindernis.

horn 12
2023-11-30, 00:24:34
Wir reden hier von Mindestens 7 bis 8 Monaten wenn N4x kommen soll
und dann 250 Watt in etwa um eine 7900XT zu erreichen was jetzt schon bei etwa 315 Watt liegt.
Preislich dann wohl um die 550 bis 600 Euro,-
Aber da kann man gleich schon JETZT die 7900 GRE Edition bringen (Weltweit)
welche auch um die 250 /260 Watt braucht, 16 GB Speicher aufweist und um die 10 bis max. 15% hinter einer 7900 XT zu liegen kommt.

Der_Korken
2023-11-30, 09:41:42
Wir reden hier von Mindestens 7 bis 8 Monaten wenn N4x kommen soll
und dann 250 Watt in etwa um eine 7900XT zu erreichen was jetzt schon bei etwa 315 Watt liegt.
Preislich dann wohl um die 550 bis 600 Euro,-
Aber da kann man gleich schon JETZT die 7900 GRE Edition bringen (Weltweit)
welche auch um die 250 /260 Watt braucht, 16 GB Speicher aufweist und um die 10 bis max. 15% hinter einer 7900 XT zu liegen kommt.

Die 7900GRE hat einen "riesigen" Base-Die und ist stark untertaktet. Klar, dass die Effizienz da ganz gut aussieht. Wenn AMD mit einem deutlich kleineren Chip und entsprechend höheren Taktraten die Effizienz sogar noch vergrößern könnte um sagen wir mal 15-20%, wäre das schon richtig stark. N48 wird keinen wesentlich besseren Node haben, das wird "5nm-Level" auf beiden Seiten.

reaperrr
2023-11-30, 10:33:51
Aber da kann man gleich schon JETZT die 7900 GRE Edition bringen (Weltweit)
welche auch um die 250 /260 Watt braucht, 16 GB Speicher aufweist und um die 10 bis max. 15% hinter einer 7900 XT zu liegen kommt.
N48 wird mit hoher Wahrscheinlichkeit ein <=270mm² Chip, also günstiger zu produzieren als allein schon der GCD von N31, bei besserer Leistung insb. bei RT.

Ich tippe auf
- 64 CUs (4 SE, statt 3 wie bei N32)
- 64 ROPs
- 192bit SI (GDDR7)
- 48 oder 36MB IF$
- etwas kleiner als AD104 (250-270mm²)

Top-Modell dann mit 24Gbit-GDDR7 (18 GB) @ 30-32 Gbps, Salvage mit 16Gbit-Chips (12GB) @ 28Gbps.
Selbst wenn sie den G7 auch beim Top-Modell nur mit 28Gbps laufen lassen, wäre das in Summe immer noch mehr Bandbreite als bei der 4070 (Ti).
Taktraten auf oder leicht über 7700XT-Niveau, und schon schlägt man die 79GRE in Raster bei vermutlich niedrigerem Verbrauch (beim Top-Modell weiß man nie, aber ich denke sie werden die kommende 4070 Super nicht nur in Raster-Perf, sondern auch in Raster-Perf/W schlagen wollen) und vor allem VIEL niedrigeren Produktionskosten.

N44 ist mein Tipp:
- 40 CUs (2 SE)
- 32 ROPs
- 128bit GDDR7 SI
- 16 MB IF$ (wegen G7 nicht mehr nötig)
- ca. 140-160 mm²

8600 XT dann mit 40 CUs und 12GB, 8600 mit 36 CUs und 8GB (oder 96bit/12MB IF und 9 GB).

Der_Korken
2023-11-30, 11:13:28
Ist GDDR7 überhaupt nächstes Jahr schon verfügbar und bezahlbar? Hätte eher auf 256bit und 22Gbps für N48 getippt und auf 192bit mit 18-20Gbps für N44. VRAM entsprechend 16GB und 12GB im Vollausbau.

robbitop
2023-11-30, 11:21:54
Gerüchte sind Gerüchte ;)

Klar ist es optimistisch, ist ja auch der "Idealfall". Nur knapp schneller als N32 wäre aber fast schon wieder enttäuschend (somit kein Mehrtakt, keine gesteigerte IPC, 4 vs. 3 Shader Engines, 64 vs. 60 CU).
Also die Historie an an AMD uArchs sollte eigentlich lehren, nicht zu optimistisch zu sein.
Auf RDNA4 Appliziert würde ich sagen, dass keine großen Sprünge was IPC und Takt angeht zu erwarten sind. Zumindest wenn man nicht zu optimistisch sein will. Wer optimistisch war hat, eigentlich immer wieder sehen müssen, dass er daneben lag. Warum sollte das dieses Mal anders sein? ;)


AMD füllt mit RDNA4 lediglich oben die Lücken. Ich vermute, dass N48 ein 5nm Monolith um die 300mm² wird, der ziemlich genau in der Mitte zwischen N31 und N32 landet also knapp 7900 XT Performance zu N32 Kosten bzw. leicht darunter. Das ist auch genau das, was der Markt aktuell braucht.
Die Gerüchte sagen grob 7900 GRE level für N48.

DrFreaK666
2023-11-30, 11:39:12
Also die Historie an an AMD uArchs sollte eigentlich lehren, nicht zu optimistisch zu sein.

Vega10 war trotz höherer theoretischer Leistung langsamer als Navi10

robbitop
2023-11-30, 11:42:38
Ja RDNA hat die "IPC" (meint rohleistungsnormierte Performance) deutlich gesteigert. Das war nach 8 Jahren GCN auch mal nötig. Insofern ja: hin und wieder wird man positiv überrascht. Aber das ist leider die Ausnahme.

Auf jeden Fall wäre es genial, endlich mal wieder Karten zu haben, die ein ordentliches Preis/Leistungsverhältnis haben. Aktuell gibt es zwar bezahlbare Karten, die sind aber relativ zu ihren Vorgängern nicht besonders toll in Bezug auf Perf/W. Aber wahrscheinlich werden beide IHVs ohne Druck nicht mehr in diese Richtung gehen.

7800 XT Leistung für 300 EUR - das wäre mal was.

vinacis_vivids
2023-11-30, 12:04:59
Wer soll die 7800XT für 300€ fertigen ? Huang oder was?

robbitop
2023-11-30, 12:12:20
Wer soll die 7800XT für 300€ fertigen ? Huang oder was?
N48 nicht die 7800XT aka N32. Kleinerer Chip ohne fancy packaging, kleineres SI, kleinerer Cache, modernere effizientere uArch und 4 nm (was ein cost down node von N5 ist).
Die Bruttomargen sind bei >50%. Da ist also genug Fett am Fleisch - bei beiden IHVs. Die nehmen sich mittlerweile kaum noch was. Wenn man bereit wäre für einzelne SKU Segmente etwas Marge abzulassen wäre das sicherlich nicht ganz unrealistisch für 2024. Aber ohne Wettbewerbsdruck (Angebot >> Nachfrage) wird es nicht passieren. Beide Unternehmen fahren mit der high margin Strategie sehr gut.

Der_Korken
2023-11-30, 12:20:04
Die Gerüchte sagen grob 7900 GRE level für N48.

Das wäre absolut enttäuschend und würde null Taktgewinn und null IPC-Gewinn gegenüber RDNA3 bedeuten, da N48 schon 7% mehr CUs als N22 hat (und wahrscheinlich 33% mehr ROPs und ein 33% breiteres Frontend). Um das irgendwie schönzureden müsste AMD ultrakompakte CUs designed haben, ähnlich wie Zen 4C-Kerne, sodass der Chip dann irgendwo bei 200-220mm² und 200W Verbrauch rauskommt.

robbitop
2023-11-30, 12:29:10
Man muss bedenken, dass

1.) CUs nur mit ~0.7 skalieren.
2.) die 7900 GRE hat 80 CUs und 256 bit - N48 hat nur 64 CUs und 192 bit
3.) Die Takterhöhungsgeschichte mit RDNA3 war offenbar ein Märchen. Jede SKU mit RDNA3 (Phoenix, N33, N32, N31) läuft unter 3 GHz. Das gilt auch für Nvidias Ada. Ob da eine starke Takterhöhung wirklich realtisch ist? Ich habe mittlerweile den Eindruck, dass diese Gerüchte mit RDNA3 ist kaputt und schafft deshalb viel weniger Takt, eine Ente waren. Dafür sind die jetzigen SKUs viel zu konsistent.
4.) Deutlich sub 300 mm² für alles zusammen und trotzdem noch BVH Hardware. Wo sollen die Transistoren für krasse Verbesserung pro TFLOP hekommen?

Woher soll wesentlich mehr als 7900 GRE Level aus 64 CUs und 192 bit denn kommen? Realistisch gesehen.
Dass das unwahrscheinlich ist zeigen ja auch die Gerüchte, dass N31 weiterhin die Spitze darstellen soll. Wenn N48 deutlich schneller wäre, wäre das unnötig. Im Gegenteil, wenn man grob auf 7900 GRE Level kommt mit << 300 mm² für einen monolitischen Chip ist das schon keine schlechte Leistung.

Alles kann, nichts muss. Aber meist gilt: es tritt nicht so ein, wie die optimistischen Schätzungen es besagen.

reaperrr
2023-11-30, 12:55:07
Das wäre absolut enttäuschend und würde null Taktgewinn und null IPC-Gewinn gegenüber RDNA3 bedeuten, da N48 schon 7% mehr CUs als N22 hat (und wahrscheinlich 33% mehr ROPs und ein 33% breiteres Frontend). Um das irgendwie schönzureden müsste AMD ultrakompakte CUs designed haben, ähnlich wie Zen 4C-Kerne, sodass der Chip dann irgendwo bei 200-220mm² und 200W Verbrauch rauskommt.
N32 hat 96 ROPs, absolut möglich, dass sie die ROP-Zahl je SE für N48 halbieren und auf 64 runtergehen.
Deutlich kleinerer IF$ würde ebenfalls etwas IPC kosten, da Cache halt viel schneller als GDDR7 ist.
Last but not least, für N44/48 ist es absolut denkbar, dass sie aus Kosten-/Nutzengründen wieder auf die Registergröße von N2x/N33 zurückgehen, denn so viel mehr IPC je CU hat N32 ggü. N33 ja nicht gezeigt.

Langer Rede kurzer Sinn, mehr CUs und breiteres Frontend heißt noch nicht zwangsläufig viel, was die Balance des restlichen Chips angeht.
Wir reden hier von AMD, gut möglich, dass sie die beiden N4x ähnlich wie N33 bis zum Anschlag auf niedrige Kosten bzw. Perf/mm² trimmen, um notfalls über den Preis konkurrieren zu können, ohne damit Verluste schlucken zu müssen.

robbitop
2023-11-30, 12:59:36
Absolute Zustimmung. Die N31/32 CUs sind ggü N33 viel größer und es hat fast gar nichts gebracht. N48 könnte man, wenn man mehr Effizienz in der Metrik Performance pro Transistor haben will, von N33 CUs ausgesehen aufbauen.
Mein Tipp ist: keine Matrix Cores in den CUs. Aber BVH Hardware.
Ggf. verbaut man ja XDNA IP in die GPU (aber nicht in die CUs). Die scheint sehr enegie- und flächeneffizient zu sein.
Apple hat ihre ML HW auch nicht direkt in der GPU sondern als weiteren Block im SoC und kann diese auch für die ML Variante von MetalFX Upsampling nutzen. Offenbar scheint das aus Latenzsicht zu funktionieren.

Der_Korken
2023-11-30, 13:37:06
3.) Die Takterhöhungsgeschichte mit RDNA3 war offenbar ein Märchen. Jede SKU mit RDNA3 (Phoenix, N33, N32, N31) läuft unter 3 GHz. Das gilt auch für Nvidias Ada. Ob da eine starke Takterhöhung wirklich realtisch ist? Ich habe mittlerweile den Eindruck, dass diese Gerüchte mit RDNA3 ist kaputt und schafft deshalb viel weniger Takt, eine Ente waren. Dafür sind die jetzigen SKUs viel zu konsistent.

Naja, wenn man ehrlich ist, sind die Chips alle zeitgleich Ende letzten Jahres rausgekommen. Wenn da ein Designfehler drin war, wäre es logisch, dass ihn alle Chips haben. N32 tanzt aus der Reihe, aber imho war der Chip viel früher fertig als AMD ihn released hat und AMD hat ihn nicht gelauncht, weil sie noch zu viele N21 übrig hatten. Davon abgesehen taktet die 7800XT sogar nochmal 150Mhz niedriger als die 7900er und ist trotzdem weniger effizient. Bei RDNA2 kamen N22 und N23 auch später, haben aber deutlich höher getaktet als die N21-SKUs.

Außerdem haben wir die Sache mit dem Taktproblem schon oft durchgekaut. In 1080p ist die 7600 genauso effizient wie die 7800XT trotz schlechterer Fertigung und trotz 250Mhz höherem Takt (2,65Ghz vs 2,4Ghz), in 1440p hat CB die 7600 leider nicht getestet. Dazu kommt, dass die 5nm-SKUs irgendwas zwischen 50 bis 100% mehr Transistoren pro CU haben - wofür? Der Takt der SKUs ist geringer als der der 7600 und effizienter sind sie quasi auch nicht. Dazu noch die riesige Takt-Lücke zwischen Gaming-Workloads und Compute-Workloads ... wenn das working as intended ist, muss irgendein Lead Designer bei AMD ordentlich Lack gesoffen haben.


Woher soll wesentlich mehr als 7900 GRE Level aus 64 CUs und 192 bit denn kommen? Realistisch gesehen.

Wenn wir über GDDR6 reden, wird N48 sicher 256bit haben. 192bit würden maximal 12GB VRAM bedeuten und die Bandbreite wäre im Verhältnis zur Rechenleistung auch zu klein. Mit GDDR7 wären 192bit machbar, aber dann hätte man in jedem Fall mehr Bandbreite als die 7900GRE. Ansonsten ist die 7900GRE ein Taktkrüppel, der mit 2,1x Ghz läuft. Mit den 2,65Ghz einer 7600 hätte man das Defizit an Rechenleistung quasi drin. Vor allem wenn man, deine 0,7er Skalierung durch mehr CUs einberechnet (ob die stimmt, ist eine andere Sache, denn RDNA3 skaliert bisher fast 1:1 mit CUs und Takt).

N32 hat 96 ROPs, absolut möglich, dass sie die ROP-Zahl je SE für N48 halbieren und auf 64 runtergehen.

Das ergibt für mich keinen Sinn. Das wären gerade mal 1/3 von N31 bzw. so viel wie N33. Wozu dann 64CUs, wenn man das Design an anderen Stellen so verkrüppelt?


Last but not least, für N44/48 ist es absolut denkbar, dass sie aus Kosten-/Nutzengründen wieder auf die Registergröße von N2x/N33 zurückgehen, denn so viel mehr IPC je CU hat N32 ggü. N33 ja nicht gezeigt.

Das könnte ich mir auch gut vorstellen. Wie oben geschrieben, so wie die 5nm-Chips aktuell aufgestellt sind, haben sie keine Taktvorteile und kaum Effizienzvorteile gegenüber 6nm. Da werden gefühlt haufenweise Transistoren für nichts verbraten. Entweder kann man das Design also deutlich entschlacken oder den Takt massiv steigern. Bei ersterem wäre dann auch entsprechend Platz für mehr RT-HW @robbitop.

robbitop
2023-11-30, 13:50:03
Wir werden ja sehen wer Recht behalten wird. Bisher sind fast immer alle im Unrecht geblieben, wenn sie zu optimitisch waren. -_-

Die 7800 XT hat 60 CUs und 346 mm² GCD und 200 mm² MCDs. Und die ist ~10% schlechter als die 7900 GRE. N48 soll für alles zusammen angeblich unter 300 mm² liegen - nicht unwahrscheinlich mit 4 nm (wobei das noch unklar ist).

Also man müsste schon wirklich deutliche Taktsteigerungen hinlegen (>3 GHz) damit man deutlich vor die GRE kommt. Mal schauen wie realistisch das wird. Aber wie gesagt macht dann das Gerücht, N31 bleibt die Spitze kaum noch Sinn. Das macht nur Sinn, wenn N31 deutlich schneller bleibt als N48.
Und da N48 ja eher als 3. SKU (von oben) geplant war (N40/1 und N42 wurden ja gestrichen), wäre es schon sehr überraschend, wenn sie die 1. SKU des Vorgängers erreicht. Das gabs schon lange nicht mehr.

Also ich bleibe hier sehr skeptisch.

fondness
2023-11-30, 14:17:54
Da gabs ja sogar eine offizielle AMD-Folie: "Architected to exceed 3Ghz":
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/images/arch1.jpg

Und dann kommt keine einzige GPU auch nur in die Nähe von 3Ghz. Also dass da was schief gelaufen ist, ist relativ offensichtlich. Zumal jeder N31 mit ausreichend TDP problemlos die 3Ghz (und mehr) erreicht. Das Problem ist die TDP die dafür nötig ist.

Raff
2023-11-30, 14:23:45
Da gabs ja sogar eine offizielle AMD-Folie: "Architected to exceed 3Ghz":
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/images/arch1.jpg

Und dann kommt keine einzige GPU auch nur in die Nähe von 3Ghz. Also dass da was schief gelaufen ist, ist relativ offensichtlich. Zumal jeder N31 mit ausreichend TDP problemlos die 3Ghz (und mehr) erreicht. Das Problem ist die TDP die dafür nötig ist.

Die Chips laufen durchaus mit 3 GHz - beim Front-End. Unter Teillast. Unter echter Last ist es die Power, die limitiert, der Kern kann es.

MfG
Raff

HOT
2023-11-30, 14:37:02
Wenn maximal GRE-Leistung erreicht wird, ist ein N31-Refresh sehr wahrscheinlich. Mal sehen, was dabei rauskommt.

robbitop
2023-11-30, 14:42:06
Da gabs ja sogar eine offizielle AMD-Folie: "Architected to exceed 3Ghz":
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/images/arch1.jpg

Und dann kommt keine einzige GPU auch nur in die Nähe von 3Ghz. Also dass da was schief gelaufen ist, ist relativ offensichtlich. Zumal jeder N31 mit ausreichend TDP problemlos die 3Ghz (und mehr) erreicht. Das Problem ist die TDP die dafür nötig ist.
Das war tatsächlich etwas was damals ein Indiz dafür war. Die Frage ist, wie viel das aus uArch Sicht war und nicht aus SKU Sicht. Die uArch packt ja auch 3 GHz - aber die TDP der SKU geht durch die Decke, so dass die SKU unter 3 GHz bleiben muss.

Dino-Fossil
2023-11-30, 14:45:05
Die Chips laufen durchaus mit 3 GHz - beim Front-End. Unter Teillast. Unter echter Last ist es die Power, die limitiert, der Kern kann es.

MfG
Raff

Es darf wohl trotzdem vermutet werden, dass irgendwas schief gegangen ist, wodurch die Leistungsaufnahme unter Last stärker steigt als geplant.
Da sich auch N33 nicht von N23 oder N31 absetzen kann, würde ich das Chipletdesign als Ursache weitestgehend ausschließen.

Außer vielleicht die zusätzlichen Transistoren in N31 dienen vornehmlich der Taktbarkeit und kompensieren in der Hinsicht den hypothetischen Chiplet-Nachteil ggü. N33, welcher dann aber nie für >3GHz angedacht war und somit auf RDNA2-Niveau bleibt. :freak:

fondness
2023-11-30, 14:48:45
Das war tatsächlich etwas was damals ein Indiz dafür war. Die Frage ist, wie viel das aus uArch Sicht war und nicht aus SKU Sicht. Die uArch packt ja auch 3 GHz - aber die TDP der SKU geht durch die Decke, so dass die SKU unter 3 GHz bleiben muss.

Ich designe keine Architektur auf >3Ghz, wenn ich dann keine SKU damit launchen kann aufgrund explodierender TDP. Das wäre völlig wiedersinnig. Es braucht unmengen an Transsitoren um solche hohen Taktraten zu erreichen die dann mangels TDP defacto brach liegen.

Exxtreme
2023-11-30, 14:51:06
Ich designe keine Architektur auf >3Ghz, wenn ich dann keine SKU damit launchen kann aufgrund explodierender TDP. Das wäre völlig wiedersinnig. Es braucht unmengen an Transsitoren um solche hohen Taktraten zu erreichen die dann mangels TDP defacto brach liegen.

Nein, Transistoren braucht man nicht für hohe Taktraten sondern sehr lange Pipelines. Und Architekturen, die für sehr hohe Taktraten ausgelegt waren, die man aber aufgrund des hohen Stromverbrauchs nicht nutzen konnte, gab es nicht wenige. Bulldozer war so eine Architektur, der Pentium 4 ebenfalls etc.

fondness
2023-11-30, 14:53:36
Nein, Transistoren braucht man nicht für hohe Taktraten sondern sehr lange Pipelines.

Es braucht auch haufenweise Massetransistoren zB. Hoher Takt bedeutet immer weniger Packdichte, mehr Massetransitoren und sehr viele optimierungen auf Transistorebene. Man braucht sich ja nur Zen4 vs. Zen4c ansehen. Exakt dasselbe RTL-Design, trotzdem völlig unterschiedliche Taktraten und Perf/Watt.


Und Architekturen, die für sehr hohe Taktraten ausgelegt waren, die man aber aufgrund des hohen Stromverbrauchs nicht nutzen konnte, gab es nicht wenige. Bulldozer war so eine Architektur, der Pentium 4 ebenfalls etc.

Richtig, auch hier hat man seine Designziele ganz offensichtlich nicht erreicht.

robbitop
2023-11-30, 14:56:06
Kann schon sein, dass da was schief gelaufen ist. Die Frage ist, ob man zu optimistisch war und was das für zukünftige uArchs bedeutet. Ggf. auch gar nichts, wenn man "einsieht", dass die großen CUs aus N32/31 weder hohe Taktraten noch hohe IPC brachten und man ab jetzt eher die kleinen CUs aus N33 als Basis nimmt und konservativ bleibt was die Taktrate angeht.
Oder aber man hat wirklich deutlich höhere Taktraten in Petto. RDNA3.5 und 4 wird es zeigen.

HOT
2023-11-30, 15:05:38
Offenbar fixt RDNA3.5 ja den Durst von RDNA3. Daher gibts das ja überhaupt, denn für die APUs ist der Durst sehr kontraproduktiv.
Allerdings wird RDNA3 trotzdem lange überleben als APU, genau wie Vega, denn Phoenix Point -> Hawk Point -> Escher Point sind ja alle RDNA3.

robbitop
2023-11-30, 15:38:24
Bis auf die sALUs weiß man eigentlich noch nicht viel über RDNA 3.5. Nicht mal in den Gerüchten.

vinacis_vivids
2023-11-30, 15:50:38
Die >=3Ghz waren wohl auch auf die 600W bezogen. Und das entspricht auch der Realität, allerdings nur im marginalisierten Bereich des Extrem-OC. Die uArch an sich ist also auf 3 Ghz ausgelegt. Vielleicht bringt AMD noch einen Power-optimierten Refresh für 3,0Ghz bei 450W.

Vega uArch wurde auch ausgelacht und erreichte dann ~2,2Ghz Shader-Takt.

Langlay
2023-11-30, 16:07:52
Vega uArch wurde auch ausgelacht und erreichte dann ~2,2Ghz Shader-Takt.

Ja, auf einer golden Sample Radeon VII aka Vega20 in 7nm, bei Vega10 in 14nm war so bei ~1800MHz Schluss mit OC.

Raff
2023-11-30, 16:12:17
Und ich dachte gerade, er meint irgendeine APU mit zwei Compute Units. :D

MfG
Raff

robbitop
2023-11-30, 16:15:36
Stimmt bei Vega hat AMD auch viele Transistoren in Takt gesteckt und es hat sich prozessnormiert ggü Polaris nur sehr wenig ausgezahlt.

Dino-Fossil
2023-11-30, 16:24:26
Naja, die Renoir und Cezanne APUs hatten dann bei der Taktbarkeit der iGPU zumindest mal einen Achtungserfolg, wenn man TDP und µArch berücksichtigt.

robbitop
2023-11-30, 16:26:37
Absolut aber das war dann in 7 nm und zwei Iterationen (V20 und dann die Integration in Renoir und dann in Cezanne nochmal deutlich später) weiter. Dazwischen lagen Jahre. Entsprechend ist hier der Vergleich nicht mehr haltbar.
Wie weit hätte man Polaris mit der gleichen Behandlung bekommen? Deutlich weniger Takt? Wir werden es nie wissen. V10 vs P10 ist der einzige sinnvolle Vergleich den wir haben.

fondness
2023-11-30, 16:27:36
Ja, auf einer golden Sample Radeon VII aka Vega20 in 7nm, bei Vega10 in 14nm war so bei ~1800MHz Schluss mit OC.

Vega10 lag regulär kaum über 1Ghz. Spätestere Varianten erreichten deutlich über 2Ghz.

fondness
2023-11-30, 16:35:02
Wie weit hätte man Polaris mit der gleichen Behandlung bekommen? Deutlich weniger Takt? Wir werden es nie wissen. V10 vs P10 ist der einzige sinnvolle Vergleich den wir haben.

Sehe ich nicht so. Vega hatte sehr viele Taktoptimierungen (ua sogar eine längere Pipeline), die aufgrund der TDP Beschränkungen nicht ausgefahren werden konnte. Also gar nicht so wenige parallelen zu RDNA3. Ein weitere Iteration mit erheblichen Optimierungen auf Transistorebene hat dann eben das Taktpotential ohne TDP-Explosion freigelegt (das bei Polaris schlicht nicht vorhanden war).

Langlay
2023-11-30, 16:35:46
Vega10 lag regulär kaum über 1Ghz. Spätestere Varianten erreichten deutlich über 2Ghz.

Ich sprach ja auch von OC, Stock lief so ne Vega56 mit 1200-1300Mhz und die Vega64 so ~100MHz mehr und die LC dann nochmal knapp 100MHz mehr.

HOT
2023-11-30, 16:46:34
Ich glaube man darf Vega10 hier nicht als Maßstab sehen, auch Vega 20 nicht. Vega10 war nicht fertig und kaum optimiert auf den Prozess, der verwendet wurde, aufgrund des Personalmangels in der Radeon Group, den Su verursacht hatte. Für Vega20 gilt das analog. V10 wäre sicherlich bei 1,5GHz+ herausgekommen, wären da Zen-Ingeneure am Werk gewesen, die Architektur war ja explizit auf hohe Takte optimiert worden. Für RDNA3 gilt mMn das Gleiche und der "Bug" der sich eingeschlichen hat, war einfach die Tatsache, dass die Rechnung schlichtweg nicht aufging - die Pipeline war nicht effizient auf 3GHz zu bekommen. Bei Vega war es mangelnde Prozessoptimierung, bei RDNA3 ein Fehler in der Entwicklung, der nicht mehr repariert werden konnte, als das Ding in Silizium vorlag, sonst wäre N32 sicherlich anders geworden.
RDNA3.5 nimmt den Teil, der kaputt ist aus RDNA4 und löst das Problem. Leider ist das offenbar nicht einfach auf RDNA3 zu übertragen, weswegen RDNA3.5 im Grunde ne neue Architektur sein dürfte, die nur bei Strix Point und Strix Halo/Sarlak zum Einsatz kommt, denn Kraken Point ist offenbar schon komplett RDNA4. Man sieht die Zeiträume, in denen die Produkte in Hardware designt wurden:
Phoenix/2 in 2021, also man RDNA3 entwickelte; Strix in 2022, als man gemerkt hat, was mit RDNA3 nicht stimmt, reparierte man das; Kraken Point 2023, als RDNA4 in Silizium designt wurde.

aufkrawall
2023-11-30, 16:49:55
Selbst die Radeon VII kam schon bei 1,8GHz langsam in den Bereich der Spannungs-Kotzgrenze. Das ist überhaupt nicht mir RDNA3 vergleichbar, der viel weniger Spannung auch noch bei hohen Taktraten braucht, aber trotzdem zu viel säuft.

vinacis_vivids
2023-11-30, 17:51:44
Luft OC > 2 Ghz für Radeon VII
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/48634-radeon-vii-im-oc-test-mit-neuem-treiber-bei-ueber-2-ghz.html

Die ~1,8Ghz waren ein Treiber-BUG.

Mit Wasser schaffen gute Exemplare ~ 2,2Ghz.
https://www.reddit.com/r/Amd/comments/avafw3/watercool_radeon_vii_2199hz_oc/


Was RDNA3 angeht, gibs die Asrock Aqua Extreme 7900XTX mit einem neuen BIOS:
https://www.techpowerup.com/vgabios/259974/259974

Das erlaubt anscheinend 550W!, pefekte Grundlage für >=3,0Ghz. Leider bisher in DE keinen gesehen, der sie nutzt. Aber das ist weit weit weg von den Original 355W.

aufkrawall
2023-11-30, 17:57:24
Luft OC > 2 Ghz für Radeon VII
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/48634-radeon-vii-im-oc-test-mit-neuem-treiber-bei-ueber-2-ghz.html

Die ~1,8Ghz waren ein Treiber-BUG.

Typisch scheinstabile Netz-Blabla-Werte.

robbitop
2023-11-30, 18:13:18
Sehe ich nicht so. Vega hatte sehr viele Taktoptimierungen (ua sogar eine längere Pipeline), die aufgrund der TDP Beschränkungen nicht ausgefahren werden konnte. Also gar nicht so wenige parallelen zu RDNA3. Ein weitere Iteration mit erheblichen Optimierungen auf Transistorebene hat dann eben das Taktpotential ohne TDP-Explosion freigelegt (das bei Polaris schlicht nicht vorhanden war).

Hat sich das denn mit 3rd Party Modellen oder OC gezeigt. IIRC war das auch bei höheren TDP, besseren Kühlern und OC enttäuschend.

Und zusätzlich gesagt: eine höhere Taktrate muss für SKUs auch praktisch fahrbar sein. Es hilft dann nichts zu sagen, dass es ginge wenn die TDP nur nicht durch die Decke ginge. Hätte hätte. Design goal verfehlt und entsprechend Transistoren verballert.

robbitop
2023-11-30, 18:16:56
Ich sprach ja auch von OC, Stock lief so ne Vega56 mit 1200-1300Mhz und die Vega64 so ~100MHz mehr und die LC dann nochmal knapp 100MHz mehr.

Polaris ging in der 590 sogar bis 1545 MHz. Luftgekühlt. 14 nm so wie V10.

vinacis_vivids
2023-11-30, 18:46:32
Ich habe hatte ne Vega56 hier... die macht mehr als 1300Mhz ...

Langlay
2023-11-30, 18:51:38
Ich habe hatte ne Vega56 hier... die macht mehr als 1300Mhz ...

Das dürfte dann keine Referenzkarte gewesen sein. Mit Wakü hat meine alte Vega56 auch 13xx MHz gemacht, mit dem (Referenz)Luftkühler waren teilweise nicht mal 1200MHz drin.

Der_Korken
2023-11-30, 19:28:09
Vega hatte bei weitem nicht solche Taktreserven wie RDNA3, wenn man Referenzkarten als Bezugspunkt nimmt. Auf CB gab es mal eine News, wo jemand das Powerlimit einer 7900XTX ausgetrickst und auf 700W verdoppelt hat. Mit WaKü lief die Karte dann stabil bei 3,5Ghz, was ca. 40% overclock sind. Und auch hier limitierte das Powertarget, nicht zwangsläufig eine clock wall :freak:. Keine Ahnung, wann es sowas schon mal gab ohne Stickstoffkühlung und ähnliche Späße.

Edit: OK Erinnerung trübt doch etwas, waren "nur" 3,33Ghz im Mittel: https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

iamthebear
2023-11-30, 19:31:43
Gibt bisher keine Belege, dass die Chiplets nennenswert ineffizient sind. Navi33 ist auch als Monolith kein Effizienzwunder. Für mich sieht das eher so aus als ob AMD davon ausgegangen ist, dass Effizienz nicht so wichtig ist weil sich Ampere wie blöde verkauft hat. Und Ampere ist auch ineffizient hoch drei. War für die Kunden aber kein Hindernis.

Ich meinte damit nicht die Energieeffizienz. Diese scheint den Kunden im aktuellen Markt vollkommen egal zu sein und macht sich nur in Form von gestiegenen Kosten für Kühler etc. bemerkbar.

Worum es AMD gejt ist die Flächeneffizienz. Diese ist wenn man die Shader Engines isoliert betrachtet top aber wenn man doie gesamten Dies betrachtet nicht besser als bei N33 trotz 5nm GCD.

Ist GDDR7 überhaupt nächstes Jahr schon verfügbar und bezahlbar? Hätte eher auf 256bit und 22Gbps für N48 getippt und auf 192bit mit 18-20Gbps für N44. VRAM entsprechend 16GB und 12GB im Vollausbau.

Laut Micron Roadmap ab Ende 2024 verfügbar.
Was den Preis angeht: Am freien Markt vermutlich nicht aber wenn man entsprechende Rahmenverträge abschließt wird der Aufschlag sicher deutlich geringer ausfallen.

Die Bruttomargen sind bei >50%. Da ist also genug Fett am Fleisch - bei beiden IHVs. Die nehmen sich mittlerweile kaum noch was. Wenn man bereit wäre für einzelne SKU Segmente etwas Marge abzulassen wäre das sicherlich nicht ganz unrealistisch für 2024. Aber ohne Wettbewerbsdruck (Angebot >> Nachfrage) wird es nicht passieren. Beide Unternehmen fahren mit der high margin Strategie sehr gut.

Die 50% Marge gelten bei AMD lediglich für den CPU/FPGA Bereich. Bei dGPUs sieht es relativ düster aus. Die Margen der Gamingsparte kommen primär aus dem Konsolenbereich.

Ich finde jetzt die Link nicht mehr aber selbst zu Miningzeiten hat AMD fast Verlust gebaut. AMD weist doie dGPU Sparte nicht direkt aus aber 2021 konnte man es durch eine Umschichtung der Sparten indirekt ermitteln.

Das wäre absolut enttäuschend und würde null Taktgewinn und null IPC-Gewinn gegenüber RDNA3 bedeuten, da N48 schon 7% mehr CUs als N22 hat (und wahrscheinlich 33% mehr ROPs und ein 33% breiteres Frontend). Um das irgendwie schönzureden müsste AMD ultrakompakte CUs designed haben, ähnlich wie Zen 4C-Kerne, sodass der Chip dann irgendwo bei 200-220mm² und 200W Verbrauch rauskommt.

Wen interessieren Takt und IPC bei eoner GPU. Entscheidend ist, was am Schluss dabei raus kommt und welche Fläche dafür notwendig ist. Da wir von der Fläche noch nichts wissen sind die Diskussionen darüber relativ sinnlos.

robbitop
2023-11-30, 20:21:41
Gerade bei Konsolen hätte ich jetzt keine hohen Margen erwartet. Da hat man historisch eigentlich niedrige Margen und hohe Mengen.

reaperrr
2023-11-30, 21:53:19
Gerade bei Konsolen hätte ich jetzt keine hohen Margen erwartet. Da hat man historisch eigentlich niedrige Margen und hohe Mengen.
Das Problem bei den dGPUs dürften für AMD die stetig steigenden Vorab-Kosten für R&D, Chipdesign, Masken etc., sowie zusätzlich dann noch die steigenden Wafer-Kosten sein.

Die Quasi-Fixkosten für einen 200mm²-Chip in N5 sind bei AMD genauso hoch wie bei NV, aber Nvidia verkauft von diesen Chips dann 5-10x so viel und das auch noch zu höheren Preisen je mm², da hauen die Fixkosten halt nicht ansatzweise so hart in die Marge rein wie bei AMD.

Man darf auch nicht vergessen, dass - unabhängig vom Ergebnis - die R&D für RDNA3 deutlich teurer gewesen sein dürfte als die von z.B. RDNA2, und zu Mining-Boom-Zeiten hat AMD gerade an RDNA3 gewerkelt.

Außerdem hat AMD zu Mining-Boom-Zeiten schlicht nicht die Wafer-Kapazitäten für große Stückzahlen an dGPUs gehabt, da musste AMD bei den gebuchten 7nm-Kapazitäten zwischen GPUs, Epyc, Ryzen, APUs und v.a. Konsolen-SoCs jonglieren.
Und war bei den Konsolen-SoCs stückzahlenmäßig wahrscheinlich an Verträge gebunden, während selbst die billigsten Epycs schon zu normalen Preisen viel bessere Margen haben, als das selbst zu Miner/Scalper-Zeiten für jegliche RDNA2-Chips galt.

NV hatte bei Ampere zwar nen schlechteren Prozess, hat den von Samsung aber regelrecht hinterhergeschmissen bekommen und hatte zudem die Kapazitäten relativ exklusiv, in der Hinsicht war Samsungs Prozess für NV wahrscheinlich sogar ein Glücksfall, weil die Kapazität zu der Zeit mehr Wert war als die Qualität des Prozesses.

Felixxz2
2023-12-08, 15:55:22
Ist eig. stark verbesserte Raytracing-Leistung für RDNA4 zu erwarten? Das Thema wird ja wohl eher nicht so im Sande verlaufen wie Tesselation damals, ergo müsste AMD doch eig. an irgendeinem Punkt aufholen.

vinacis_vivids
2023-12-08, 16:21:16
Soweit ich weiß fährt AMD eine andere Strategie die Spiele besser zu machen. Bessere KI für NPCs, dynamische Umgebung, mehr Möglichkeiten bei der Programmierung usw. statt nur den optischen Filter.

robbitop
2023-12-08, 17:18:23
Ist eig. stark verbesserte Raytracing-Leistung für RDNA4 zu erwarten? Das Thema wird ja wohl eher nicht so im Sande verlaufen wie Tesselation damals, ergo müsste AMD doch eig. an irgendeinem Punkt aufholen.
Ja. Die bisherigen Gerüchte sprechen von mindestens Level 3 Hardware. BCH Processing. So wie AMD bisher RT HW angegangen hat, lässt vermuten, dass es nicht notwendigerweise darüber hinaus geht. Aber manchmal wird man überrascht ^^

HW Level nach IMGTEC Scale:
Level 0 – Legacy Solutions.
Level 1 – Software on Traditional GPUs.
Level 2 – Ray/Box and Ray/Tri Testers in Hardware. (RDNA2+3)
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware. (Turing/Ampere)
Level 3,5 - Ada Lovelace, Intel Alchemist
Level 4 – BVH Processing with Coherency Sorting in Hardware. (Blackwell?)
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware

fondness
2023-12-08, 17:24:14
Ist eig. stark verbesserte Raytracing-Leistung für RDNA4 zu erwarten? Das Thema wird ja wohl eher nicht so im Sande verlaufen wie Tesselation damals, ergo müsste AMD doch eig. an irgendeinem Punkt aufholen.

AMD ist bei tesslation absolut konkurrenzfähig. Ironischerweise ist tesslation seit dem im Sand verlaufen, weil Nvidia kein Interesse mehr hatte es zu pushen.

The_Invisible
2023-12-08, 17:44:59
Tesselation kommt gerade mit UE5 5.3 wieder: https://forums.unrealengine.com/t/nanite-tessellation-in-ue-5-3/1198899

DrFreaK666
2023-12-08, 18:29:45
Wird Tessellation nicht seitdem einfach genutzt? Wieso sollte man es plötzlich nicht mehr nutzen?

basix
2023-12-08, 18:39:14
Tesselation kommt gerade mit UE5 5.3 wieder: https://forums.unrealengine.com/t/nanite-tessellation-in-ue-5-3/1198899

Nanite Dynamic Displacement kommt. Wie viel davon wirklich Tesselation ist? Ich vermute eher, dass das primär ein Compute Shader ist:
https://portal.productboard.com/epicgames/1-unreal-engine-public-roadmap/c/1251-nanite-dynamic-displacement

TheAntitheist
2023-12-08, 20:26:43
Soweit ich weiß fährt AMD eine andere Strategie die Spiele besser zu machen. Bessere KI für NPCs, dynamische Umgebung, mehr Möglichkeiten bei der Programmierung usw. statt nur den optischen Filter.
alles davon ist kompletter Quatsch, einfach ALLES... AMD selbst macht nichts bei Spielen... KI für NPCs -> CPU oder sogar aufm Server. "Dynamische Umgebung" ist einfach nur ein random Wort... Die programmieren keine Spiele... GI einen optischen Filter zu nennen ist schon gestört.

Gipsel
2023-12-09, 08:31:44
Können wir bitte beim Thema bleiben?
"Bewertungen" anderer User fallen nicht darunter.

robbitop
2023-12-11, 20:13:18
Gerüchte (siehe heutiges RGT Video - link ganz unten) besagen die PS5PRO GPU soll BVH Acceleration + Thread Reorder in HW bringen. Damit wäre man dann auf Ada/Alchemist HW Level für RT.

Ob das realistisch ist? Das gleiche Gerücht sagt N4P und RDNA3 und dass das RT Zeug ais RDNA4 kommt. Aber wer nennt das dann noch RDNA3? Insbesondere wenn man bis dato was GFXIP Bezeichnung schon sehr oltimistisch war. (PS5 war RDNA2 liegt aber in wesentlichen Belangen eher zwischen 1 und 2 oder bei der PS4pro wo die IP angeblich Vega war aber tatsächlich eher näher an Polaris lag)

Auch soll die APU XDNA2 IP enthalten mit dem Sonys eigenes NN basiertes Temporal Upsampling gemacht werden soll.
Und auch gab es wohl slides zu Ray Reconstruction von Sony mit dieser APU.

Das wären für RDNA4 spitzen Aussichten (vom Tech level her). Klingt aber fast ein wenig zu schön um wahr zu sein. Oder?

https://youtu.be/D_0xGt2Q-MQ?si=zsGHB8dDkydnTJnr

Zossel
2023-12-11, 20:26:19
Edit: OK Erinnerung trübt doch etwas, waren "nur" 3,33Ghz im Mittel: https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Da klingt wahrlich so als wäre bei der Entwicklung was schief gelaufen, Simulationen können schon anders sein als die Realität.

Der Klassiker zu dem Thema Simulation vs. Realität:
https://de.wikipedia.org/wiki/Schmetterlingseffekt#Wissenschaftlicher_Hintergrund

basix
2023-12-11, 21:13:04
Das wären für RDNA4 spitzen Aussichten (vom Tech level her). Klingt aber fast ein wenig zu schön um wahr zu sein. Oder?


Hört sich schon etwas zu gut an. Aber mal schauen. Freuen würde es uns wohl schon ;)

September Release mit RDNA4 Tech. und Hybrid mit RDNA3 hört sich auch nicht abwegig an, wenn RDNA4 dGPUs bereits um den Sommer rum erscheinen sollen. War bei RDNA2 und PS5 genau so.

Wer weiss, evtl. ist das RDNA 3.5 ;)

DrFreaK666
2023-12-11, 21:48:36
... Klingt aber fast ein wenig zu schön um wahr zu sein. Oder?...

Nach den Leaks zu RDNA3 bin ich eher vorsichtig

reaperrr
2023-12-12, 01:12:48
Gerüchte (siehe heutiges RGT Video - link ganz unten) besagen die PS5PRO GPU soll BVH Acceleration + Thread Reorder in HW bringen. Damit wäre man dann auf Ada/Alchemist HW Level für RT.
(...)
Das wären für RDNA4 spitzen Aussichten (vom Tech level her). Klingt aber fast ein wenig zu schön um wahr zu sein. Oder?

https://youtu.be/D_0xGt2Q-MQ?si=zsGHB8dDkydnTJnr
Dass die GPU in der PS5Pro auch Thread-Reordering hat, ist nur ein von ihm erwähntes Gerücht anderer Leaker, er selbst ist sich nicht sicher, bzw. könnte auch was Sony-spezifisches sein.
Er sagt selbst später im Video, dass nach seinen Infos RDNA4 "nur" BVH Accel, aber noch kein Thread Reordering haben soll.


Ob das realistisch ist? Das gleiche Gerücht sagt N4P und RDNA3 und dass das RT Zeug ais RDNA4 kommt. Aber wer nennt das dann noch RDNA3? Insbesondere wenn man bis dato was GFXIP Bezeichnung schon sehr oltimistisch war. (PS5 war RDNA2 liegt aber in wesentlichen Belangen eher zwischen 1 und 2 oder bei der PS4pro wo die IP angeblich Vega war aber tatsächlich eher näher an Polaris lag)
Naja, die Architektur besteht ja effektiv aus mehreren IP-Blöcken. Die machen halt nicht alle im Gleichschritt Fortschritte, ein Block muss ja erst zu einem bestimmten Zielpunkt fertig entwickelt sein, bevor man ihn in der nächsten uArch einsetzen kann, und ein Kunde wie Sony zahlt vllt. auch mal extra, um einem bestimmten IP-Block in der Entwicklung höhere Priorität einzuräumen.
Vollwertiger RDNA4 entspricht halt einer bestimmten Liste an IP-Verbesserungen, die bis zur uArch-Deadline implementiert werden konnten, da werden (hoffentlich) auch Verbesserungen an den SIMDs oder Registern, Änderungen an der Pipeline für mehr Effizienz/Takt usw. bei sein.

Die IP-Deadline für PS5Pro und Strix war offensichtlich zu einem Zeitpunkt, als sich Teile der RDNA4-IP-Blöcke noch in Entwicklung befanden, also hat man lieber RDNA3 als Basis genommen und nur die RDNA4-Elemente, die schon fertig und ausgereift waren und sich relativ leicht rückportieren ließen, eingepflegt (neue skalare ALU, und zumindest bei PS5P offensichtlich auch neue RT-Hardware).

Von den IP-Änderungen her ist der Unterschied zwischen Ur-RDNA3 und dem Sony-RDNA3/Strix-RDNA3.5 wahrscheinlich ähnlich groß oder vielleicht sogar größer als der zwischen RDNA1 und RDNA2, das stimmt.
Allerdings war RDNA2 in Sachen Effizienz schon ein gigantischer Sprung für den gleichen Herstellungsprozess, allein das hat den Generationssprung (neben der RT-Einführung und IF$) schon gerechtfertigt.

Wenn bei RDNA3.5 aber "nur" die skalare ALU und RT-Leistung verbessert wurde und sonst wenig bis nichts (auch an der Effizienz), reicht das halt nicht, um das gleich RDNA4 zu nennen. Sonst müssten sie ja jedesmal, wenn sie eine solche Hybrid-uArch zwischenschieben, alle Folgearchitekturen auch umbenennen, stell ich mir recht nervig vor ^^'

Felixxz2
2023-12-12, 14:12:46
Gerüchte (siehe heutiges RGT Video - link ganz unten) besagen die PS5PRO GPU soll BVH Acceleration + Thread Reorder in HW bringen. Damit wäre man dann auf Ada/Alchemist HW Level für RT.

Ob das realistisch ist? Das gleiche Gerücht sagt N4P und RDNA3 und dass das RT Zeug ais RDNA4 kommt. Aber wer nennt das dann noch RDNA3? Insbesondere wenn man bis dato was GFXIP Bezeichnung schon sehr oltimistisch war. (PS5 war RDNA2 liegt aber in wesentlichen Belangen eher zwischen 1 und 2 oder bei der PS4pro wo die IP angeblich Vega war aber tatsächlich eher näher an Polaris lag)

Auch soll die APU XDNA2 IP enthalten mit dem Sonys eigenes NN basiertes Temporal Upsampling gemacht werden soll.
Und auch gab es wohl slides zu Ray Reconstruction von Sony mit dieser APU.

Das wären für RDNA4 spitzen Aussichten (vom Tech level her). Klingt aber fast ein wenig zu schön um wahr zu sein. Oder?

https://youtu.be/D_0xGt2Q-MQ?si=zsGHB8dDkydnTJnr

Das wäre natürlich Spitze und für die PS5Pro auch logisch. Das Teil kann man nur mit nem Aushängefeature bewerben und besseres Upscaling oder 60fps zieht im Mediamarkt nicht. Mit starker RT Beschleunigung könnte man die Pro aber als Raytracing Version verkaufen, mit entsprechenden Bling effekten und griffigem Marketing. Dann würden auch die „nur“ 60 CUs Sinn machen, eben mit deutlich mehr RT pro CU.

Leonidas
2023-12-22, 07:31:43
RDNA4-Performance lt. MLID: Angepeilt ist angeblich die Radeon RX 7900 XT
https://www.3dcenter.org/news/news-des-21-dezember-2023

DrFreaK666
2023-12-22, 08:20:02
War der Wortlaut nicht: "7900XT erreichen, ob man 4080S schlagen kann, weiß man nicht."

Wenn man nur die 7900XT erreicht, dann schlägt man die 4080S ja auf keinen Fall

amdfanuwe
2023-12-22, 09:44:54
8800XT mit ~7900XT Leistung wäre der Gegenpart zur 4070 TI(S).
Letztendlich bestimmt der Preis die Attraktivität.

HOT
2023-12-22, 10:05:12
Da isser glaube ich, wie bei ARL ja auch schon, mal wieder viel zu optimistisch. Die GRE ist ein gutes Ziel und das wird man mMn auch erreichen. Ich glaub auch, das ist so ein bisschen seine Masche - erst Hypen dann sich selbst einbremsen und sich über die lustig machen, die dann noch dem Hype hinterherrennen.

robbitop
2023-12-22, 12:00:20
Naja hängt davon ab ob AMD RDNA4 dieses Nal doch deutlich höher takten kann. Ansonsten sollte diesmal dank bvh compute hw zumindest RT deutlich fixer sein.
Mit 3,4 GHz würde man grob gleichziehen. Weniger Takt wäre nötig wenn die CUs mehr aus dem dual issue rausholen würden - also so aufgebohrt, dass man ähnlich viel wie Ampere/Ada aus den 128 fps pro CU rausholen kann. (auch bei wave32)

DrFreaK666
2023-12-22, 12:07:34
Mal schauen. Laut PCGH ist die 4070Ti ca. 50% schneller als die GRE mit RT in 1440p. Die 7900XTX ist 38% schneller. Vielleicht landet man irgendwo da, bei RZ aber auf GRE Niveau.
Ich bin gespannt. Geht aber noch ewig bis die Karten kommen :\
Die nächsten 10 Monate werden ziemlich langweilig was Grafik-Consumer-Hardware angeht

robbitop
2023-12-22, 12:15:36
Naja RT hat man ja eine niedrige Baseline weil RNDA3 da echt Kartoffelhardware verbaut hat. Gerade mal das Minimum. Da sollte RDNA4 große Sprünge (die sich nur bei hohen RT Lasten richtig zeigen) machen können. Da wird man mit bvh hw sicherlich auf Ampere Level liegen. Es gab ja sogar Gerüchte zu einem SER Äquivalent.

Der_Korken
2023-12-22, 12:23:55
Mit 3,4 GHz würde man grob gleichziehen.

Gleichziehen mit was? Es wird gerne vergessen, dass die 7900GRE ein 2,15-Ghz-Krüppel ist, d.h. den Rohleistungsgleichstand hätte man bei 80 vs 64CUs bereits bei 2,7-2,75Ghz erreicht. Die 7900XT hätte man bei 3,3Ghz eingeholt auf CU-Seite. Skalierungseffekte mit mehr CUs sind da noch nicht eingerechnet.

robbitop
2023-12-22, 12:24:46
Gleichziehen mit was? Es wird gerne vergessen, dass die 7900GRE ein 2,15-Ghz-Krüppel ist, d.h. den Rohleistungsgleichstand hätte man bei 80 vs 64CUs bereits bei 2,7-2,75Ghz erreicht. Die 7900XT hätte man bei 3,3Ghz eingeholt auf CU-Seite. Skalierungseffekte mit mehr CUs sind da noch nicht eingerechnet.

Mit der 7900XT. Den Kontext der Vorposts lesen, dann wäre dir das klar gewesen. ;)
Bei 60 vs 84 CUs braucht es knapp 3,4 GHz wenn bei der XT 2,4 GHz anliegen. Wahrscheinlich eher weniger weil CUs etwas unterproportional skalieren und Takt relativ proportional (solange genug Bandbreite da).

][immy
2023-12-22, 13:56:15
Das wäre schon arg unschön, wenn sich die Performance seit der rx6800xt kaum mehr verbessert. Selbst die 7900xt ist nicht so viel besser wie man es erwarten würde von einer neuen Generation. Wenn rdna4 wieder nicht ordentlich zu legt, sind wir wieder 2-3 Jahre auf dem gleichen Niveau.
Kann natürlich sein, das man zumindest diese Performance in die unteren Segmente (mittels Preis) bringt. Dann wäre das zumindest eine positive Entwicklung.

Der_Korken
2023-12-22, 13:58:06
Mit der 7900XT. Den Kontext der Vorposts lesen, dann wäre dir das klar gewesen. ;)
Bei 60 vs 84 CUs braucht es knapp 3,4 GHz wenn bei der XT 2,4 GHz anliegen. Wahrscheinlich eher weniger weil CUs etwas unterproportional skalieren und Takt relativ proportional (solange genug Bandbreite da).

Ich war mir nicht sicher, weil genau vor dir jemand von der 7900GRE sprach.

N48 soll angeblich 64 CUs haben, nicht nur 60. Der Unterschied sieht klein aus, aber man braucht "nur" noch +31% Takt statt +40% auf die 7900XT. Bei der Rechenleistung sehe ich N48 gut aufgestellt ohne Taktbremse. Was den Chip vielleicht runterziehen könnte wäre zu wenig Bandbreite gepaart mit zu wenig Cache, wenn AMD da wirklich den vollen Chipflächen-Sparkurs fährt. Wobei selbst sowas wie 22Gbps@256bit schon +22% schneller wären als der Speicherausbau der GRE (dito jede GDDR7-Kombi mit 192b).

robbitop
2023-12-22, 14:05:52
[immy;13458507']Das wäre schon arg unschön, wenn sich die Performance seit der rx6800xt kaum mehr verbessert. Selbst die 7900xt ist nicht so viel besser wie man es erwarten würde von einer neuen Generation. Wenn rdna4 wieder nicht ordentlich zu legt, sind wir wieder 2-3 Jahre auf dem gleichen Niveau.
Kann natürlich sein, das man zumindest diese Performance in die unteren Segmente (mittels Preis) bringt. Dann wäre das zumindest eine positive Entwicklung.
So besagen es die Gerüchte. Die beiden Top RDNA4 SKUs sind gecanclet und es gibt nur noch die beiden kleinsten. N48 und N44. Und wenn die kleinsten SKUs fast an die größte RDNA3 SKU rankommt, wäre das schon ein ordentlicher Sprung für die uArch.
Entsprechend sind die Karten dann "nur" midrange und entsprechend bepreist.

High End soll es wohl bei AMD erst mit RDNA5 wieder geben.

Ich war mir nicht sicher, weil genau vor dir jemand von der 7900GRE sprach.

N48 soll angeblich 64 CUs haben, nicht nur 60. Der Unterschied sieht klein aus, aber man braucht "nur" noch +31% Takt statt +40% auf die 7900XT. Bei der Rechenleistung sehe ich N48 gut aufgestellt ohne Taktbremse. Was den Chip vielleicht runterziehen könnte wäre zu wenig Bandbreite gepaart mit zu wenig Cache, wenn AMD da wirklich den vollen Chipflächen-Sparkurs fährt. Wobei selbst sowas wie 22Gbps@256bit schon +22% schneller wären als der Speicherausbau der GRE (dito jede GDDR7-Kombi mit 192b).
Ja mit 64 CUs und wenn man davon ausgeht, dass Takt besser skaliert als CUs und ggf die CUs auch etwas aufgebohrt werden, reichen ggf. auch 3 GHz für die 7900 XT.

horn 12
2023-12-22, 14:35:02
7900 XTX wird bis Mitte/ Herbst 2025 wohl immer das Schnellste bei AMD bleiben und wohle dem der bei Release gekauft hat und mit FSR 3.0 wird man gut mit NV mithalten können.
Somit wird die XTX wohl 3 Jahre im Geschäft bleiben bei AMD

DrFreaK666
2023-12-22, 14:56:18
Der gleiche Argument wie als DLSS3 neu war. Und auch hier gilt: es muss in Games Verwendung finden

Neurosphere
2023-12-22, 15:28:21
Hmm, wäre es eigentlich möglich das AMD den gleichen Weg wie bei RDNA 1&2 geht?

RDNA 1 kam Juli 2019, 7nm mit Navi 10 als Midrange mit max Config als 5700XT.
RDNA 2 kam November 2020, ebenfalls 7nm mit Navi 21 als max Config und AMD sagt selber das es quasi ein Refresh von RDNA 1 war in größerund Breiter.

Damit ist man ziemlich gut gefahren. Man kannte die Arch für RDNA 2, hat sie an bestimmten stellen verbessert und hat die Erwartungen eigentlich deutlich übertroffen. Mit RDNA 3 sollte nun alles gleichzeitig kommen und es hat nicht wirklich gut funktioniert. Kann immer passieren das sowas passiert, aber NV ist hier halt mit den Budgets etc. deutlich besser aufgestellt als AMD im R&D.

Bei RDNA 4 und 5 scheint es zumindest wieder aufs Gleiche hinauszulaufen. Daher vermutlich auch das Interesse an RDNA 4 seitens NV und die Entscheidungen was mit Blackwell passieren soll hinsichtlich Configs. RDNA 4 dürfte deutlich machen was von RDNA5 zu erwarten ist und sollte etwas ähnliches passieren wie mit RDNA 3 hat AMD gute Optionen für RDNA5 die möglichen Fehler zu beseitigen.

robbitop
2023-12-22, 15:33:26
Das hängt davon ab wie viele Änderungen es bei RDNA5 ggü 4 geben sollte. Wie du selbst schreibst, ist RDNA2 ja ein nur recht mildes Update von RDNA1 (aus uArch Sicht).

Neurosphere
2023-12-22, 16:07:56
Das hängt davon ab wie viele Änderungen es bei RDNA5 ggü 4 geben sollte. Wie du selbst schreibst, ist RDNA2 ja ein nur recht mildes Update von RDNA1 (aus uArch Sicht).

Würde aber auch erklären, warum AMD scheinbar RT deutlich pusht bei RDNA4. Eigentlich macht das für einen Midrange Chip nur begrenzt Sinn, es sei denn, man möchte die gleiche Basis auch für RDNA5 nutzen.

robbitop
2023-12-22, 17:08:44
Tja die Frage ist ob das reicht um mit Nvidia mitzuhalten. Die legen schon immer ordentlich nach alle zwei Jahre. Und mein Eindruck ist man ist immer ~1 Gen hintendran.

The_Invisible
2023-12-22, 17:52:39
Würde aber auch erklären, warum AMD scheinbar RT deutlich pusht bei RDNA4. Eigentlich macht das für einen Midrange Chip nur begrenzt Sinn, es sei denn, man möchte die gleiche Basis auch für RDNA5 nutzen.

RT ist schon in jedem Preisbereich angekommen, auch Mobile. Ich hoffe Mal sie legen ordentlich nach, müssen aber eine ganze Gen aufholen. Und hoffentlich auch gleich mit gutem AI Upscaling.

robbitop
2023-12-22, 18:57:07
Ja sehe ich auch so. Ist allerhöchste Eisenbahn. Es ist nicht mehr 2018. Und selbst da gab es mit der 2060 RT im Midrange. RT ist selbst bei den Konsolen angekommen (zwar nur in leichter Form aber immerhin). Und man darf nicht vergessen, dass wir über ein 2024/25 Produkt sprechen was so schnell ist wie AMDs salvage high end chip von heute. Und da der Chip sicherlich 2-4 Jahre im PC sein darf muss er bis 2028…29 durchhalten. Da ist gute RT HW amgesagt.

Zumal BVH HW ja gerade mal Turing Level (2018!!!) ist. Das ist jetzt kein echtes Hyping (nur weil es bei rdna2/3) gerade mal das unterste Minimum gibt.

Ehrlich gesagt hoffe ich, dass AMD wenigstens SER wenn nicht sogar volles coherency sorting eingebaut hat. Die Entwicklung ist lange abzusehen gewesen und so langsam muss man es mal leid sein immer eine Generation hintendran zu sein.

Gut wäre Level 4 HW (nach IMG Scale) und XDNA2 IP für ML Upsampling (und andere eventuelle Einsatzzwecke).

Pirx
2023-12-22, 20:15:49
Wozu eigentlich, wenn die Optik kaum besser wird?

robbitop
2023-12-22, 21:15:07
Ich würde sagen das kommt darauf an wie man es nutzt.
Beleuchtung, Reflektionen und Schatten bekommt man ohne RT nicht auf ein vergleichbares Level. Ich würde sagen die gleiche Frage hat man auch schon vor >20 Jahren über Pixelshader gestellt. Es ist der nächste Schritt auf der Evolution der 3D Grafik.
Da führt IMO kein Weg dran vorbei und mittelfristig wird es immer mehr Verbreitung führen. Bis zu dem Punkt an dem Spiele dies als minimum requirement haben. Nicht heute und nicht morgen aber sicherlich noch in diesem Jahrzehnt. Und auf dem Weg dahin wird es immer intensiver eingesetzt.
IMO ist allein deshalb die Diskussion um den Sinn zwecklos.

DrFreaK666
2023-12-22, 22:53:29
Die PS6 kommt wahrscheinlich erst 2028. Nächstes Jahr kommt die Switch 2, die bei RT auch keine Bäume ausreißen wird.
Mit CB- und nicht PCGH-Einstellungen hat man länger Spaß

Pirx
2023-12-23, 08:51:53
Ich würde sagen das kommt darauf an wie man es nutzt.
Beleuchtung, Reflektionen und Schatten bekommt man ohne RT nicht auf ein vergleichbares Level. Ich würde sagen die gleiche Frage hat man auch schon vor >20 Jahren über Pixelshader gestellt. Es ist der nächste Schritt auf der Evolution der 3D Grafik.
Da führt IMO kein Weg dran vorbei und mittelfristig wird es immer mehr Verbreitung führen. Bis zu dem Punkt an dem Spiele dies als minimum requirement haben. Nicht heute und nicht morgen aber sicherlich noch in diesem Jahrzehnt. Und auf dem Weg dahin wird es immer intensiver eingesetzt.
IMO ist allein deshalb die Diskussion um den Sinn zwecklos.
Sehe ich nicht unbedingt so. Mir erscheint es ein Vehikel zu sein, um überhaupt weiterhin hochpreisige Karten verkaufen zu können, da die Entwicklung auf der Rasterizer-Seite langsam ausgereizt ist. Und dabei wird wieder die Salamitaktik genutzt. Für geringfügigen Mehrwert wird ein riesiger Aufwand auf verschiedenen Ebenen betrieben betrieben (von der Entwicklung bis zum Energieverbrauch bis hin zur Entsorgung des Elektronikschrotts) und der Kunde soll es bezahlen/wird "animiert" durch xxx Testseiten/wird demnächst gezwungen durch "Mindestanforderungen. sehr fragwürdig, die ganze Sache

aceCrasher
2023-12-23, 09:14:50
Sehe ich nicht unbedingt so. Mir erscheint es ein Vehikel zu sein, um überhaupt weiterhin hochpreisige Karten verkaufen zu können, da die Entwicklung auf der Rasterizer-Seite langsam ausgereizt ist. Und dabei wird wieder die Salamitaktik genutzt. Für geringfügigen Mehrwert wird ein riesiger Aufwand auf verschiedenen Ebenen betrieben betrieben (von der Entwicklung bis zum Energieverbrauch bis hin zur Entsorgung des Elektronikschrotts) und der Kunde soll es bezahlen/wird "animiert" durch xxx Testseiten/wird demnächst gezwungen durch "Mindestanforderungen. sehr fragwürdig, die ganze Sache
Mal Portal RTX gespielt?

robbitop
2023-12-23, 09:15:23
Sehe ich nicht unbedingt so. Mir erscheint es ein Vehikel zu sein, um überhaupt weiterhin hochpreisige Karten verkaufen zu können, da die Entwicklung auf der Rasterizer-Seite langsam ausgereizt ist. Und dabei wird wieder die Salamitaktik genutzt. Für geringfügigen Mehrwert wird ein riesiger Aufwand auf verschiedenen Ebenen betrieben betrieben (von der Entwicklung bis zum Energieverbrauch bis hin zur Entsorgung des Elektronikschrotts) und der Kunde soll es bezahlen/wird "animiert" durch xxx Testseiten/wird demnächst gezwungen durch "Mindestanforderungen. sehr fragwürdig, die ganze Sache


Das mag dir subjektiv so vorkommen (und es macht aktuell den Eindruck weil RT sehr sehr teuer ist und dummerweise GPUs aktuell auch sehr sehr teuer sind) ist faktisch aber so. Es ist aber nur eine Momentaufnahme. Auch Pixelshader waren anfangs extrem teuer und wurden hinterfragt. Heute will sie niemand mehr missen. Damals gab es allerdings noch eine Leistungsverdopplung alle 18 Monate. Heute dauert sie mitunter 4 Jahre. Man muss das ganze etwas langfristiger und evolutionärer sehen und weniger rein aus dem „heute“.

Wenn du dich mit Rasterizing und RT befasst (die Limitierungen und was wie möglich ist) und ein bisschen Weitblick hast, sollte das für dich zu erkennen sein.

Echte Reflexion, echte Refraktion, echte Beleuchtung all das geht nicht ohne RT und das ist einfach der nächste Schritt. Mit mehr RT HW werden die „Kosten“ auch abnehmen. Pro W und pro Transistor.

IMO ist die Diskussion a) sinnfrei weil es ohnehin in die Richtigung läuft und wir darauf keinen Einfluss haben und b) es OT ist.

Mal Portal RTX gespielt?

Gilt IMO für alles mit Pathtracing und wir haben wahrscheinlich nur die Spitze des Eisbergs gesehen. Wenn man das erste Mal Refraktionen sehen wird und genug Leistung für Reflexionen mit mehr rays und bounces und die Entwickler es nicht nur optional anwenden können sondern die ganze Renderpipeline darauf auslegen und den Content entsprechend auswählen können.
Aber das wird noch etwas dauern. Bis dahin ists eine Evolution die mangels HW eben etwas langatmig ist.

Und ja viele heutige Spiele sehen mit RT kaum besser aus. Liegt aber halt daran, dass sie nicht dafür gemacht worden sind und es nur sehr selektiv eingesetzt wird. Das hat dann zT gimmickstatus.

Altehardware
2023-12-23, 18:14:55
ich würde nicht sagen das pathtracing in spiele nivht genug fps haben das geht schon sehr bald in ner entry class gpu sofern nvidia noch mitmischt.
Derzeit sind die Aussichten sehr gut mit n2 node kommt ein Takt plus von 25% darauf noch mehr durch backside Stromversorgung da ist es noch unklar wieviel das bringt.
nehme ich nur die Fertigungsvorteile mit gaa sind wir ab 2027 bei 7,5ghz cpu und bei 4,5ghz gpu Taktraten amd und nvidia vermutlich 4,0ghz
Die alu menge wird steigen da die chipfläche halbiert wird. von derzeit low end 2 gpc ab 2025 32sm auf dann min 6 gpc 96sm
Während die alu per sm auf 192 steigt =231tf
amd indes wird mcm bis zu 12 gcx haben ein gcx sind 40cu =360 cu zu je 64alu.
das bei etwa 4,5ghz mal 2,03 multi =280tf
Das bekommt man kaum auf die Straße die cpu wird bis dahin sich quasi bis dann verdoppeln
zen5 +20% zen6 +25% zen7 +15%

Zu dem jetzt
Konsole 10tf
Entry gpu 9,2tf (rx6600 rtx3060 rtx4060 und co)
cpu ryzen 7 7800x3d cb15 single 330

2027 entry min 72sm bei 4,0ghz 152fp32 per sm =87tf nvidia rtx6070
2027 entry amd 4gcx 160 cu 4,5ghz 64fp32 per cu =94tf amd rx10800xt
cpu ryzen 7 9800x3d 6,0ghz cb15 single 570
cpu ohne vcache ryzen 7 9800x 7,5ghz cb15 single 712

cpu limit bei 1440p ab 80tf 4k ab 120tf in raster. In PT sind das min 150tf und 250tf brauchen

Konsole
ps5 pro +- 20tf 2024
ps6 35tf (apu mit hbm4 mem) 80cu 3,0ghz Modus für ps5 2,2ghz und ps5 pro 2,8ghz

Achja preise r7 9800x3d ab 450€ 100w tdp
rtx6070 ab 550€ 200w tbp
rx9800xt ab 500€ 250w tbp

Entry gpu's wird es ab 2027 nicht mehr geben
Das liegt an den apu die bis 64cu gehen werden und dann bei 3,0-4,0ghz laufen =28-38tf
ddr6 14000 mit quadchannel grob 448gb/s (sockel am6)
Intel wird mit celestial ebenso auf dieselbe perf kommen.
Und das bei nur 200w tdp mit cpu und igpu
amd auf n2x produziert intel auf 12a
nvidia n2x amd mcm in n2x mit n2 512bit Si

also nein pathtraycing wird realistisch bis 2028 auf jeden pc laufen da lacht ne gpu bei alan wake 2 und rennt mit PT min 60fps auf 1440p ohne upscaler
Derzeit 10fps 1080p bei 9,2tf nativ

horn 12
2023-12-23, 18:36:15
in 5 Jahren, dies juckt derzeit niemanden!
Denke AMD ist gut genug aufgestellt bis Anfang, Mitte 2025

Nightspider
2023-12-23, 19:27:25
Die PS6 kommt wahrscheinlich erst 2028.

2027 dürfte deutlich realistischer sein.

Gibt riesige Fortschritte bei Fertigung und Packaging die nächsten Jahre und der Konkurrenzkampf zwischen AMD/Intel/Nvidia ist so groß wie gefühlt lange nicht mehr.
Ende 2027 dürfte man eine extrem potente PS6 auf den Markt bringen können.

boxleitnerb
2023-12-23, 19:29:03
in 5 Jahren, dies juckt derzeit niemanden!
Denke AMD ist gut genug aufgestellt bis Anfang, Mitte 2025

Also ich finde einen Innovator besser als jemanden, der nur mit-bzw. hinterherläuft.
Würde das NV auch so machen, wären es nicht 5 Jahre, sondern 10? AMD profitiert hier von NVs Pionierarbeit.
Wer hätte denn sonst einfach so mit Raytracing angefangen als Turing kam?

robbitop
2023-12-23, 19:38:45
AMD war einfach zu blutleer um Innovator zu sein. Man hatte die RTG ziemlich schrumpfen müssen um zu überleben.
Die Zeiten der Geldnot sind allerdings schon eine Weile vorbei - aber aktuell scheint ganz klar AI Priorität zu haben da es am Meisten Geld zu bringen scheint (zumindest potenziell).

dargo
2023-12-23, 21:36:11
Wer hätte denn sonst einfach so mit Raytracing angefangen als Turing kam?
AMD... nur eben zwei Jahre später mit RDNA2.

robbitop
2023-12-23, 22:00:15
Die Implementierung in RDNA2 wirkt so als hätte man gerade so das Minimum aufgrund der Vorstellung von Turing gemacht. Gerade einmal Level 2 HW.
Das hat für RDNA2 auch völlig gereicht - aber das in RDNA3 zu wiederholen war etwas blutleer IMO.

boxleitnerb
2023-12-23, 22:06:59
AMD... nur eben zwei Jahre später mit RDNA2.

Tut mir leid, das glaube ich nicht. Wie robbitop schreibt ist es typisch AMD eher eine Reaktion als eine Aktion gewesen, um nicht ganz mit runtergelassenen Hosen dazustehen. Das ist keine Innovation, das ist zu wenig.
Und so hat die ganze Entwicklung 2 Jahre früher begonnen - gut für uns Kunden, weil die Industrie so mehr Zeit hat, ihre Engines und Prozesse langsam anzupassen.
Dass da nicht jemand einen Schalter umlegt und morgen alles anders ist, sollte jedem denkenden Menschen klar sein.

HarryHirsch
2023-12-23, 22:37:20
Tut mir leid, das glaube ich nicht. Wie robbitop schreibt ist es typisch AMD eher eine Reaktion als eine Aktion gewesen, um nicht ganz mit runtergelassenen Hosen dazustehen. Das ist keine Innovation, das ist zu wenig.
Und so hat die ganze Entwicklung 2 Jahre früher begonnen - gut für uns Kunden, weil die Industrie so mehr Zeit hat, ihre Engines und Prozesse langsam anzupassen.
Dass da nicht jemand einen Schalter umlegt und morgen alles anders ist, sollte jedem denkenden Menschen klar sein.

die innovationen bei amd sind aktuell eher im cpu markt zu finden.
bei den gpus wird sich das dank der enormen einnahmen seitens nvidia nicht so schnell einstellen

Slipknot79
2023-12-23, 22:38:09
Eher hätte noch Intel etwas rausgeballert in Sachen RT als copy-pasta-AMD (und nicht mal copy-pasta kann der Laden richtig).

The_Invisible
2023-12-23, 22:48:12
Tut mir leid, das glaube ich nicht. Wie robbitop schreibt ist es typisch AMD eher eine Reaktion als eine Aktion gewesen, um nicht ganz mit runtergelassenen Hosen dazustehen. Das ist keine Innovation, das ist zu wenig.
Und so hat die ganze Entwicklung 2 Jahre früher begonnen - gut für uns Kunden, weil die Industrie so mehr Zeit hat, ihre Engines und Prozesse langsam anzupassen.
Dass da nicht jemand einen Schalter umlegt und morgen alles anders ist, sollte jedem denkenden Menschen klar sein.

War auch bei FSR2/FG so.

Die GPU-Abteilung sollte mal bei der CPU-Abteilung in Lehre gehen, unglaublich das man in Sachen Innovation so weit auseinanderstehen kann...

HarryHirsch
2023-12-23, 22:48:30
Eher hätte noch Intel etwas rausgeballert in Sachen RT als copy-pasta-AMD (und nicht mal copy-pasta kann der Laden richtig).

naja, der laden kann immerhin stromspar kerne die avx und andere wichtige befehle können.
diese intel energiesparkerne wird man vermutlich nie bei großen virtualisierern finden

Savay
2023-12-23, 22:55:57
Tut mir leid, das glaube ich nicht. Wie robbitop schreibt ist es typisch AMD eher eine Reaktion als eine Aktion gewesen,


Eine Reaktion auf welche "Aktion" bitte?
Ihr meint doch nicht ernsthaft das man innerhalb von nichtmal 2 Jahren RT in eine bereits projektierte µArch reinklöppelt.. :ulol:

copy-pasta-AMD (und nicht mal copy-pasta kann der Laden richtig).

Verstehe ich nicht!
Wo ist der Zusammenhang zu überhaupt nur irgendwas!? :uwoot:

DrFreaK666
2023-12-23, 23:51:47
... AMD profitiert hier von NVs Pionierarbeit.
Wer hätte denn sonst einfach so mit Raytracing angefangen als Turing kam?

Pionierarbeit von Nvidia?

2PRVfblC6_k

Wahrscheinlich hätte Intel RT gebracht

Lehdro
2023-12-24, 00:22:49
Wahrscheinlich hätte Intel RT gebracht
Wahrscheinlich nicht so wie das NV getan hat und du dir das vorstellst. Ich erinnere daran das Intel in Sachen RT schon immer Grundlagenforschung betrieben hat, dies aber damals immer auf der CPU Schiene aka Software hat laufen lassen. Warum wohl?

Und wie Intels RT dann in der Praxis vor 4 Jahren(!), also knapp 1 Jahr nach Turing ausgesehen hat, wurde wohl auch schon verdrängt: WoT enCore RT (https://www.computerbase.de/2019-10/world-of-tanks-encore-rt/)
Das war RT auf Softwarebasis für DX11, nicht DX12. Und es ist meines Wissens nach bis heute nicht im Game enthalten, nur im Benchmark.
But to understand how World of Tanks’ ray tracing puts your CPU to better use, you have to first understand the basic stages of real-time ray tracing, Sviglo tells us.

“Basically, there are three main stages,” he says. “The first stage is to prepare older geometry for real time ray tracing. So it’s basically built like a BVH structure. That’s the first stage. The second stage is the tracing itself, where you can trace rays and intersect them with that BVH and the triangles that are stored inside. So in this stage, you could use shadows, reflections, or anything you want. And the third stage is denoising.

“The first stage, the building of BVH structure, can be done either on compute shaders or on the CPU like we do. So we’re using the Intel Embree library that is a heavily optimised library that’s used to calculate that BVH structure every frame using all the available cores on the CPU. So the main difference with our implementation and the implementation with the hardware acceleration is that basically the first stage is done not on compute shaders, but on the CPU.”
Quelle (https://www.pcgamesn.com/world-of-tanks/cpu-ray-tracing-encore-rt)

robbitop
2023-12-24, 00:44:18
Allerdings hat Alchemist sehr fortschrittliche RT HW. So fortschrittlich, dass die uArch für kurze Zeit da vor allen anderen lag. Erst Ada zog ganz knapp dran vorbei. Alchemist liegt irgendwo zwischen Level 3 und 4. Ada auch aber ganz knapp davor. Als Alchemist rauskam war Ampere noch aktuell (Level 3). Und Alchemist war schon länger fertig und wurde durch die unfertigen Treiber verzögert.

Slipknot79
2023-12-24, 03:26:09
Verstehe ich nicht!
Wo ist der Zusammenhang zu überhaupt nur irgendwas!? :uwoot:


Ging darum, wer als Erster RT rausgeballert hätte, wenn nicht Nvidia den Move gem8 hätte.
Es käme eher Intel in Frage als AMD, der nur einen auf copy-pasta m8 in Sachen GPUs.

TheAntitheist
2023-12-24, 03:27:39
naja, der laden kann immerhin stromspar kerne die avx und andere wichtige befehle können.
diese intel energiesparkerne wird man vermutlich nie bei großen virtualisierern finden
Naja das liegt nicht an AMD sondern eher an TSMC...

Nightspider
2023-12-24, 03:32:08
Zur CES wird es wohl noch keine großartigen Infos zu Strix Point geben.

Wird spannend was AMD mit RDNA3.5 aus dem RDNA3 Fail herauskitzeln können wird.

Zen5 in Q2 und die APU in Q4 ?

robbitop
2023-12-24, 07:40:21
Naja das liegt nicht an AMD sondern eher an TSMC...

Naja AMDs Zen ist auch schon eine sehr sehr ausbalancierte uArch die ziemlich kleine sparsame Kerne für ihre Leistung hat. Das liegt auch primär an AMD.

dargo
2023-12-24, 08:19:59
Tut mir leid, das glaube ich nicht. Wie robbitop schreibt ist es typisch AMD eher eine Reaktion als eine Aktion gewesen, um nicht ganz mit runtergelassenen Hosen dazustehen.
Natürlich... weil ein GPU-Design von der Planung bis zur Fertigstellung und Auslieferung nur zwei Jahre benötigt. Oh man... typisch 3DC. Als Microsoft DXR ins Leben gerufen hat (interne Gespräche mit allen Beteiligten) war es völlig klar, dass alle IHVs es bringen. Der eine früher, der andere später.

fondness
2023-12-24, 08:52:51
Natürlich... weil ein GPU-Design von der Planung bis zur Fertigstellung und Auslieferung nur zwei Jahre benötigt. Oh man... typisch 3DC. Als Microsoft DXR ins Leben gerufen hat (interne Gespräche mit allen Beteiligten) war es völlig klar, dass alle IHVs es bringen. Der eine früher, der andere später.

Es ist noch viel absurder. Als Turing kam hatte RDNA2 vielleicht noch ein Jahr bis zum Tapeout.

dargo
2023-12-24, 09:00:35
Es ist noch viel absurder. Als Turing kam hatte RDNA2 vielleicht noch ein Jahr bis zum Tapeout.
Ja das meine ich u.a., nur Experten hier im 3DC. :freak: Schon alleine Tapeout und Auslieferung verschlingt ca. 9-12 Monate. Auch vergessen die "Experten" hier mal wieder wie es zu DX12/Vulkan kam damit DXR bzw. HW-RT überhaupt realisiert werden kann am PC.

boxleitnerb
2023-12-24, 09:01:07
Natürlich... weil ein GPU-Design von der Planung bis zur Fertigstellung und Auslieferung nur zwei Jahre benötigt. Oh man... typisch 3DC. Als Microsoft DXR ins Leben gerufen hat (interne Gespräche mit allen Beteiligten) war es völlig klar, dass alle IHVs es bringen. Der eine früher, der andere später.

Das habe ich auch nicht behauptet, hör auf mir Zeug zu unterstellen. Und wie du ja sagst, erlangt ein IHV nicht erst mit Erscheinen der Konkurrenz Kenntnis von Entwicklungen, sondern vorher! D.h. man stellt die Weichen früher, die 2 Jahre sind kein Argument.

Mir ist der IHV lieber, der möglichst früh neue Technik pusht. Das ist teuer, risikoreich, aber kann am Ende eben alle schneller voranbringen.

robbitop
2023-12-24, 09:17:50
Natürlich... weil ein GPU-Design von der Planung bis zur Fertigstellung und Auslieferung nur zwei Jahre benötigt. Oh man... typisch 3DC. Als Microsoft DXR ins Leben gerufen hat (interne Gespräche mit allen Beteiligten) war es völlig klar, dass alle IHVs es bringen. Der eine früher, der andere später.
Naja RDNA2 kam >2 Jahre nach Turing und es wurden nur die TMUs modifiziert um Ray Intersections zu berechnen. Das war eine Minimalimplementierung für die potenziell noch Zeit war.

IMO war das okay für RDNA2 Lebenszeit und man konnte alles an Silizium an Performance investieren. Aber RDNA3 war in der Hinsicht enttäuschend.

Turing hingegen hat 2018 sehr viel Silizium verballert für Level 3 HW und Matrixcores von denen sie nicht sofort was hatten. Und sie nutzten beides um Innovation zu pushen. Mit der Minimalimplementierung wäre das nicht gelungen.
Man muss schon objektiv konstatieren, dass Nvidia da stark auf Innovation gesetzt hat.
Andererseits waren sie als unumstrittener Marktführer mit einem auch noch geschwächten AMD auch locker dazu in der Lage. AMD hatte nichts was TU102 nahe kam trotz dessen dass man da sicherlich 20-30% des Siliziums nicht in direkt nutzbare Perfmance investiert hat.

fondness
2023-12-24, 09:18:31
Also ich finde einen Innovator besser als jemanden, der nur mit-bzw. hinterherläuft.
Würde das NV auch so machen, wären es nicht 5 Jahre, sondern 10? AMD profitiert hier von NVs Pionierarbeit.
Wer hätte denn sonst einfach so mit Raytracing angefangen als Turing kam?

Was AMD gemacht hat war sogar ziemlich schlau. Nicht viele Firmen hätte nahe am Bankrott einen solchen Turnaround geschafft. Lisa hat die stark begrenzten Ressourcen gezielt dort eingesetzt, wo das größte Potential vorhanden war. Sie sahen Potential im CPU-Bereich, sind dort heute praktisch in jeder relevanten Metrik führend. Sie haben vor kurzem eine bahnbrechenden AI-Architektur (3D-Stacking, HPC-APU, etc.) vorgestellt, die mal mindestens konkurrenzfähig ist zum Monopolisten Nvidia.

Für den Gaming-Bereich stehen die Zeichen allerdings ganz klar schlecht. Lisa hat vor kurzem das AMD Gaming-Studio in China mit 300 Devs geschlossen. Dort wurden RDNA-Chips entwickelt. Dafür hat sie mehrere AI-Startups gekauft und haufenweise AI-Entwickler eingestellt. Würde mich nicht wundern, wenn es mittelfristig auf eine reine iGPU-Entwicklung mit Konsolen hinauslaufen würde.

AMD war in der Vergangenheit allerdings ein wichtiger Ausgleich im Gaming-Bereich, und hat auch viele proprietäre Lösungen von Nvidia verhindert und die Preise im Rahmen gehalten. Wenn ich da denke an G-Sync vs. FreeSync, Vulkan/DX12, selbst Dinge wie FSR werden immerhin open-source veröffentlicht und können vom jedem verwendet werden. Selbst Apple verwendet heute FSR. Als Dank dafür haben die Leute halt Nvidia gekauft, die Konsequenzen werden voraussichtlich unschön. Ja Nvidia ist innovativ, aber sie versuchen alles um sich vom Markt abzuschotten und ihr Monopol zu festigen. Das ist langfristig immer Innovationshemmend, weil es sämtliche Mitbewerber aus dem Markt drängt und damit neue Innovationen abseits des Monopolisten verhindert. Und der Monopolist hat wenn er sein Monopol erstmal erreicht hat keinen Grund mehr neue Innovationen zu bringen.

boxleitnerb
2023-12-24, 09:26:55
NVIDIA liegt seit ca. 10 Jahren bei 70+% Marktanteil mit stetig steigenden Preisen und bringen trotzdem Innovationen.
Sorry, dein Schreckgespenst zieht nicht.

The_Invisible
2023-12-24, 09:31:31
Natürlich... weil ein GPU-Design von der Planung bis zur Fertigstellung und Auslieferung nur zwei Jahre benötigt. Oh man... typisch 3DC. Als Microsoft DXR ins Leben gerufen hat (interne Gespräche mit allen Beteiligten) war es völlig klar, dass alle IHVs es bringen. Der eine früher, der andere später.

Die Hardware Einheiten waren spartanisch und den Rest hat man mit Software gemacht, sieht eher nach Last Chance move aus um das checklistenfeature zu haben...
Selbst heute liegt AMD in Sachen RT Leistung min 1 Gen zurück, wenn man da nicht von verschlafen spricht weiß ich auch nicht mehr...

fondness
2023-12-24, 09:35:29
NVIDIA liegt seit ca. 10 Jahren bei 70+% Marktanteil mit stetig steigenden Preisen und bringen trotzdem Innovationen.
Sorry, dein Schreckgespenst zieht nicht.

Das erste mal als sie die 70% überschritten haben war im Q4/2014. Mittlerweile liegen sie deutlich über 80%. Es ist nur noch eine Frage der Zeit bis sie ihr Ziel erreicht haben und AMD hinschmeißt. Aber klar man kann auch die Augen ganz fest zudrücken und sämtliche Fakten ignorieren, ist ja immer gut gegangen in der Vergangenheit mit Monopolen.

boxleitnerb
2023-12-24, 09:39:38
Das erste mal als sie die 70% überschritten haben war im Q4/2014. Mittlerweile liegen sie deutlich über 80%. Es ist nur noch eine Frage der Zeit bis sie ihr Ziel erreicht haben und AMD hinschmeißt. Aber klar man kann auch die Augen ganz fest zudrücken und sämtliche Fakten ignorieren, ist ja immer gut gegangen in der Vergangenheit mit Monopolen.

Die Bedeutung von „ca.“ kennst du?
Warum soll AMD jetzt hinschmeißen wenn sie es kurz vor der Pleite nicht getan haben?
Du malst eine negative mMn unwahrscheinliche Zukunft, bist selbst aber derjenige, der die Fakten ignoriert. Woher kennst du Nvidia‘s Ziel?

Ich widerspreche nicht den Fakten, sondern nur vehement deiner persönlichen Interpretation selbiger.

P.S.
Wenn AMD weiterhin gute P/L im Midrange bringt, gehts wahrscheinlich auch wieder in Richtung 65-70%. AMD kann noch 20 Jahre ohne Probleme zweite Geige spielen und mit ihren anderen Bereichen gut Geld machen.

DrFreaK666
2023-12-24, 09:44:38
Was soll der AMD-Hate eigentlich schon wieder? Und immer wieder die gleiche Leier... :rolleyes:

boxleitnerb
2023-12-24, 09:47:14
Was soll der AMD-Hate eigentlich schon wieder? Und immer wieder die gleiche Leier... :rolleyes:

Hate? Wir diskutieren, lass mal bitte die Übertreibung stecken.
Mein Lob für die gute P/L hast du durch deinen Beißreflex wohl überlesen…

fondness
2023-12-24, 09:51:40
P.S.
Wenn AMD weiterhin gute P/L im Midrange bringt, gehts wahrscheinlich auch wieder in Richtung 65-70%. AMD kann noch 20 Jahre ohne Probleme zweite Geige spielen und mit ihren anderen Bereichen gut Geld machen.

Genau das ist ja der Punkt. Das können sie eben nicht, wenn Nvidia weiter mit ihrer Marktmacht ihre proprietären Lösungen durchdrückt. Was interessiert eine gute Midrage-GPU, wenn Nvidia zB mit G-Sync durchgekommen wäre und das nur mit Nvidia-GPU funkt? Wenn man DLSS nur mit Nvidia-GPU bekommt? etc. Wenn wichtige Features nicht mehr offen für alle sind hat man die Konkurrenz effektiv vom Markt ausgeschlossen.

amdfanuwe
2023-12-24, 09:53:06
Wenn AMD weiterhin gute P/L im Midrange bringt, gehts wahrscheinlich auch wieder in Richtung 65-70%. AMD kann noch 20 Jahre ohne Probleme zweite Geige spielen und mit ihren anderen Bereichen gut Geld machen.
Um AMD Gaming mach ich mir keine Sorgen. Die brauchen GPU für Mobile und Konsolen. Und man muss auch nicht immer die erste Geige spielen.

Für Nvidia dürfte es in Zukunft aber schwieriger werden. Denen bricht der Markt für die kleinen Lösungen weg. Für HD Gaming Mobile und Desktop reicht bald die iGPU von AMD und Intel. Da bleibt Nvidia nur noch das Premium Geschäft mit geringeren Verkaufzahlen.

DrFreaK666
2023-12-24, 09:55:04
...Mein Lob für die gute P/L hast du durch deinen Beißreflex wohl überlesen…

Den Kommentar habe ich tatsächlich nicht gelesen.
Trotzdem: Nvidia gings finanziell besser und deswegen ist AMD hintendran. Soweit so bekannt...
Hier geht's aber um RDNA4!

OgrEGT
2023-12-24, 10:21:05
Weiß nicht wie oft ich hier gelesen habe wie enttäuscht manche immer wieder sind... erinnert sehr an die sinnlose Diskussion um Tesselation damals... ein wichtiges Feature ohne Zweifel wenn es sinnvoll eingesetzt wird... so auch bei RT... zocke mit meiner 7900XT gerade Control mit RT high in UWQHD nativ bei super fluffigen 60fps... sieht Hammer aus...

dargo
2023-12-24, 10:37:45
Weiß nicht wie oft ich hier gelesen habe wie enttäuscht manche immer wieder sind... erinnert sehr an die sinnlose Diskussion um Tesselation damals... ein wichtiges Feature ohne Zweifel wenn es sinnvoll eingesetzt wird... so auch bei RT... zocke mit meiner 7900XT gerade Control mit RT high in UWQHD nativ bei super fluffigen 60fps... sieht Hammer aus...
Du weißt doch... hier wird gerne ein Drama von den Grünen konstruiert. Dabei muss man sich nur anschauen was in den 5 Jahren an RT-Implementierungen in Games so alles kam, nichts weiter als Spielerei momentan überwiegend. Hatte auch nichts anderes erwartet solange der wichtigste Gamingmarkt @Konsolen dafür zu langsam ist, neben Mainstream am PC. Und so wird es auch die weiteren Jahre schleichend weiter gehen. Ich schaue mir das ganze in Ruhe an, gibt eh keine neuere Hardware nach RDNA2 die mich vollkommen überzeugt (ist irgendwas spürbar schneller säuft es auch mehr (no)). Wo einzelne RT-Optionen für meine Hardware effizient genug sind werden sie eingeschaltet sofern ein nennenswerter Mehrwert vorhanden ist, wo nicht dann eben nicht (ist wie früher auch schon bei einzelnen Raster-Optionen). Teures RT ist für mich jedenfalls kein must have, für die hohen Kosten bietet es mir viel zu wenig.

The_Invisible
2023-12-24, 10:47:29
Es geht hier darum ob AMD in Sachen Technologie hintenliegt bzw verschlafen hat und nicht wie ich es mir am besten zurechtbiege :rolleyes:

Die Aussagen von den üblichen Verdächtigen hier kennt man eh schon auswändig...

fondness
2023-12-24, 10:49:35
Es geht hier darum ob AMD in Sachen Technologie hintenliegt bzw verschlafen hat und nicht wie ich es mir am besten zurechtbiege :rolleyes:

Die Aussagen von den üblichen Verdächtigen hier kennt man eh schon auswändig...

Es geht hier im RDNA4 und um nichts anderes. Das andere kam nur mal wieder von ein paar Nvidia Fanboys die sich aufs Monopol freuen.

boxleitnerb
2023-12-24, 10:57:10
Es geht hier im RDNA4 und um nichts anderes. Das andere kam nur mal wieder von ein paar Nvidia Fanboys die sich aufs Monopol freuen.

Bitte hör doch mal auf Unwahrheiten zu verbreiten. Das wurde nirgendwo behauptet! Bitte lass das und die Dramen „AMD schmeißt hin, dunkle Böse Zukunft“ in der Schublade.

Es ist übrigens interessant:
Der eine sagt RT sieht man kaum bzw es lohnt nicht, der nächste mit 7900 sagt er nutzt es und es sieht geil aus. Das sagen wir ja: der Wandel hat längst begonnen, wo jeder einsteigt, ist persönlicher Geschmack. Hängt wie alle frühen Technologien auch von der Güte der jeweiligen Implementierung ab.

The_Invisible
2023-12-24, 11:20:09
Es geht hier im RDNA4 und um nichts anderes. Das andere kam nur mal wieder von ein paar Nvidia Fanboys die sich aufs Monopol freuen.

Es fing damit an ob RDNA4 endlich in Sachen RT aufholt, dazu muss man auch die History kennen.

Und glaub kaum das einer ein Monopol will, nicht mal Nvidia, die sind jetzt ja wegen dem KI-Erfolg schon im Visier der Behörden...

Nightspider
2023-12-24, 11:25:15
Imo gibt es aktuell keine Grund für AMD den GPU Markt aufzugeben.

Die Marge ist aktuell Traumhaft für AMD, nur die Stückzahlen könnten deutlich höher sein.
Aber man macht keinesfalls Verlust o.ä.

basix
2023-12-24, 11:30:53
Fakt ist, dass - Stand heute - Gaming für AMD wichtiger ist als für Nvidia. Prozentuale Anteile am Gesamtumsatz:
- Nvidia - Gaming = 16%
- AMD - Gaming = 26%

Dazu kommt bei AMD, dass auch ein Grossteil des Client Markts von einer guten iGPU profitiert. Zusammengenommen mit der Gaming Sparte wären das ~50% des Umsatzes.

Ausserdem hat AMD seit 2-3 Jahren deutlich mehr Geld für R&D übrig und auch ausgegeben: Von 1.5 Mrd/y (2019) auf ~6.0 Mrd/y in 2023
https://www.statista.com/statistics/267873/amds-expenditure-on-research-and-development-since-2001/

Deswegen:
AMD wird dem Gaming Sektor erhalten bleiben ;) Ist eher die Frage, in welcher Form. Gibt es noch High-End Chips oder fokussiert man sich auf iGPUs, Notebooks, Konsolen und dGPUs bis max 700$ (=95% des Marktes). Die Arbeit rund um Architektur und Software bleibt einem damit nicht erspart, aber wenn der grösste und teuerste Chip wegfällt wird es dennoch kosteneffektiver. Mit Chiplets könnte der letzte Punkt allerdings deutlich abgeschwächt werden.

Nightspider
2023-12-24, 11:33:39
Fakt ist, dass - Stand heute - Gaming für AMD wichtiger ist als für Nvidia. Prozentuale Anteile am Gesamtumsatz:
- Nvidia - Gaming = 16%

Wenn der Tellerrand nur 6 Monate reicht dann ja. ^^

Linmoum
2023-12-24, 11:33:49
Imo gibt es aktuell keine Grund für AMD den GPU Markt aufzugeben.

Die Marge ist aktuell Traumhaft für AMD, nur die Stückzahlen könnten deutlich höher sein.
Aber man macht keinesfalls Verlust o.ä.
RDNA3 und traumhafte Margen? Wovon träumst du Nachts? Traumhaft ist das einzig bei Nvidia, die einen AD104 auf einer 4070Ti (der gesamte Chip ist kleiner als der GCD von N31...) für $800 verkaufen können.

Dass die Margen mit RDNA3 katastrophal sind, sieht man eigentlich schon an der Preisgestaltung vor allem bei N32. Das hat Herkelman in dem einen Interview vor ein paar Monaten ja durch die Blume fast schon zugegeben, als er auf den geringen Preisunterschied angesprochen wurde und sinngemäß meinte, man müsse ja auch Geld verdienen.

boxleitnerb
2023-12-24, 11:37:15
Danke für eine faktenbasierte Einschätzung, das bringt uns eher weiter als Untergangsszenarien ohne Sinn und Verstand.
Ich freue mich, wenn AMD auf- oder sogar mal wieder überholen würde. 33/33/33 würde dem Markt sehr gut tun. Ich könnte mir vorstellen, dass sie es mit Chiplets und ihrem Vorsprung dort mir RDNA 5 schaffen könnten. Sie müssen es nur wollen und gute/ bessere Effizienz als Nvidia haben, dann kann Grün nicht unbegrenzt nachziehen ohne dass der Rechner schmilzt.

Nightspider
2023-12-24, 11:38:04
Traumhaft für AMD Verhältnisse.

Wenn Nvidia die Gamer nicht ausnehmen würde die eine fette Weihnachtsgans dann könnte AMD auch nicht so hohe Preise verlangen.

Die Bruttomarge liegt irgendwo bei 50% und es wird noch mehr angestrebt.

Schau dir mal an wo die Marge von AMD lag zu Zeiten der RX480 lag.

dargo
2023-12-24, 11:39:28
Es geht hier darum ob AMD in Sachen Technologie hintenliegt bzw verschlafen hat und nicht wie ich es mir am besten zurechtbiege :rolleyes:

Eigentlich geht es hier um RDNA4. Such dir einfach einen Nvidia-Thread für deinen Grabenkrieg. Ich bin daran nicht interessiert.

stinki
2023-12-24, 11:40:27
RDNA4 sieht für mich eher danach aus, dass die zwei AMD Chips Konkurrenten für die zwei Battlemage Chips von Intel sind, sowohl im Desktop als auch im Mobile Bereich (angeblich sehr ähnlich Shader-Count bei jeweils zwei Chips). Und sie gar nicht so sehr auf Nvidias nächste Generation schauen. Klar werden die beiden Navi4x Chips auch mit GA106/GA104 im Markt stehen und von der angepeilten Leistung vielleicht bis hinauf zu 4070Ti Super gehen (AMDs Ziel ist ja wohl 7900XT Leistung, was ich aber erst einmal sehen will).
Aber ich glaube AMD versucht RDNA4 so früh zu bringen um Intel mit Battlemage keinen Erfolg zu gönnen.

AMDs Konkurrenz für Blackwell wird dann RDNA5, und das kommt wahrscheinlich ca. 1 Jahr nach Blackwell.

Nightspider
2023-12-24, 11:40:28
Dass die Margen mit RDNA3 katastrophal sind, sieht man eigentlich schon an der Preisgestaltung vor allem bei N32. Das hat Herkelman in dem einen Interview vor ein paar Monaten ja durch die Blume fast schon zugegeben, als er auf den geringen Preisunterschied angesprochen wurde und sinngemäß meinte, man müsse ja auch Geld verdienen.

AMDs Marge bei den 800-1000 Euro Grafikkarten sind katastrophal? :freak:

Das wäre mir neu.

Denniss
2023-12-24, 11:48:12
AMD hat zu lange an GCN festgehalten bzw festhalten müssen und ist dann mitten im Umbau der Grafikeinheiten vom RT-Zug überfahren worden. So kurz könnte man das zusammenfassen.

stinki
2023-12-24, 11:50:35
Ziel von AMD wird es sein, mit den beiden Navi4x Chips bei RT mit den beiden Battlemage Chips von Intel gleich zu ziehen, wenn die das schaffen sieht es auch gegen Nvidia gar nicht mehr so schlecht aus.

robbitop
2023-12-24, 12:59:56
Könnte grob hinkommen. Gerüchte verorten Battlemage auf ~4070 ti...4080 Level. N48 ebenfalls.

OgrEGT
2023-12-24, 15:34:42
Bitte hör doch mal auf Unwahrheiten zu verbreiten. Das wurde nirgendwo behauptet! Bitte lass das und die Dramen „AMD schmeißt hin, dunkle Böse Zukunft“ in der Schublade.

Es ist übrigens interessant:
Der eine sagt RT sieht man kaum bzw es lohnt nicht, der nächste mit 7900 sagt er nutzt es und es sieht geil aus. Das sagen wir ja: der Wandel hat längst begonnen, wo jeder einsteigt, ist persönlicher Geschmack. Hängt wie alle frühen Technologien auch von der Güte der jeweiligen Implementierung ab.

Was ich sagen wollte ist dass RDNA3 gar nicht so schlecht bei RT läuft sofern es gut eingesetzt wird und damit optischen Mehrwert bietet... für alle die full pathtracing in 4k wollen müssen halt zur 4090 greifen wenn es gar nicht mehr anders geht... mMn lohnt da der Aufwand bislang nicht...

robbitop
2023-12-24, 15:41:22
Naja je stärker die RT Last desto mehr profitiert ein hohes Maß an RT HW. Bei schwacher RT Last dann weniger.
N44/48 wird da nachlegen. Die Frage ist nur: wie viel? Gerade mal Level 3? Oder ist man mutig und macht gleich Level 4 mit HW Coherency Sorting. Nvidia wird sicherlich nachlegen relativ zu Ada. Also mind Level 4 ist sicherlich zu erwarten.

HOT
2023-12-24, 15:53:15
Was ich sagen wollte ist dass RDNA3 gar nicht so schlecht bei RT läuft sofern es gut eingesetzt wird und damit optischen Mehrwert bietet... für alle die full pathtracing in 4k wollen müssen halt zur 4090 greifen wenn es gar nicht mehr anders geht... mMn lohnt da der Aufwand bislang nicht...
Da wäre mit ne 4090 trotzdem viel zu lahm für. Für Pathtracing gibts noch keine Generation, die was taugt.
AMD hat zu lange an GCN festgehalten bzw festhalten müssen und ist dann mitten im Umbau der Grafikeinheiten vom RT-Zug überfahren worden. So kurz könnte man das zusammenfassen.
Nope, das hat mit GCN nix zu tun. Dass man die RT-Hardware so begrenzt hat war ne reine Entscheidung. Genauso das weglassen der KI-Einheiten. Und mit RDNA3 hat man die Designziele, die man sich gesetzt hat, nicht erreicht, simple as that. Hohe Packdichte und hoher Takt hat halt nicht geklappt, wie man sich das vorgestellt hatte und als man die Rev.A draußen hatte, hat AMD sich einfach dazu entschieden, das trotzdem so umzusetzen.

Ich würde bei RDNA4 auch nicht von einem großen RT-Sprung ausgehen. AMD hat erst ab diesem Jahr (23) Hardware RT und KI-Einheiten ernst genommen durch den großen Erfolg von DLSS und den mäßigen Erfolg von FSR2. Das wird vor allem an der XBox liegen, die ja jetzt doch früher kommen soll als geplant und daher RDNA"5" bekommen wird. AMD hat sicherlich RDNA5 ansonsten erst für 26 geplant und das sollte sicherlich auch die Grundlage für die neuen Konsolen werden. Da hat sich einiges verschoben durch die KI-Hype und die extrem schlecht laufende XBox. Microsoft braucht halt früher was neues und AMD wird einfach das als Grundlage für einen upgegradeten N41 nehmen für 25.

Langlay
2023-12-24, 16:53:02
Da wäre mit ne 4090 trotzdem viel zu lahm für. Für Pathtracing gibts noch keine Generation, die was taugt.


Aha, weil du das so festlegst oder was?

https://i.imgur.com/k7yOfbs.jpg

Die Fakten sagen nämlich was anderes.

Lehdro
2023-12-24, 17:24:25
Die Fakten sagen nämlich was anderes.
Locker machbar / spielbar ja. Aber man hat gerne mehr. Heutzutage peilt man eher dreistellige FPS ohne FG an. Ich halte es auch für grenzwertig, wohlwissend das ich eigentlich verwöhnt bin. Aber das darf man wohl auch sein bei den Preislagen...

Next Gen wandert PT eine Preisklasse tiefer, wenn AMD dann immer noch nix hat, sieht es düster aus. Denke nicht das Intel den einzigen Trumpf gegen AMD einfach so versacken lässt (RT Perf). NV ist davon eh unberührt, weil sie derzeit an jeder Front vorgeben können, was Standard ist. RDNA4 sollte zumindest zu ADA aufschließen und zwar pro Chipklasse, nicht unbedingt durch die Portfoliogestaltung. Das langt dann auch für die angestrebte Performanceklasse im Rahmen der 7900GRE/XT -> >4070 Ti RT Perf, besser noch 4080 RT Perf muss her.

robbitop
2023-12-24, 17:48:19
Naja hohe zweistellige FPS ohne FG sind schon IMO okay. 80+ fps und dann durch FG schön mehr Bewegtschärfe holen. Bei einer so hohen Framerate sollten sich auch die Artefakte bei den meisten Spielen in Grenzen halten.
In Alan Wake 2 sieht DLSS 3 FG wohl in einigen Situationen (dunkel + Taschenlampe + Pflanzen die Schatten werfe + Kamera bewegen = unschöne Artefakte) nicht so gut aus: https://youtu.be/ELNj4W97nE0?si=y7CXYhkZcobZWOfy

reaperrr
2023-12-24, 18:56:38
N44/48 wird da nachlegen. Die Frage ist nur: wie viel? Gerade mal Level 3? Oder ist man mutig und macht gleich Level 4 mit HW Coherency Sorting. Nvidia wird sicherlich nachlegen relativ zu Ada. Also mind Level 4 ist sicherlich zu erwarten.
Nichts für ungut, aber was hat das mit Mut zu tun?
Wenn man nem Rückstand hinterherläuft, macht man ja nicht absichtlich langsamer als man könnte.

Da wird in Sachen R&D einfach so viel dranhängen, dass das nix mit Mut, sondern einfach Ressourcen und Entwicklungszeit zu tun hat.

Wenn schon RGT nur von 10-30% mehr RT-Performance spricht (hoffentlich wenigstens rohleistungsnormiert und nicht N48 vs. N32), wird RDNA4 da keinen Quantensprung hinlegen.
Wenn AMD den RT-Leistungseinbruch auf Ampere-Niveau reduzieren könnte, wäre das schon ein ordentlicher Fortschritt.
Solange sie RT über die TMUs machen, habe ich da aber leise Zweifel.

HOT
2023-12-24, 20:55:26
Aha, weil du das so festlegst oder was?

https://i.imgur.com/k7yOfbs.jpg

Die Fakten sagen nämlich was anderes.

Einen Shooter - oder noch schlimmer Mantisklingen - der mit Latenzen von unter 40FPS läuft nennst du toll? Ich lach mich schlapp :freak: ;D
Also da hab ich lieber echte 150FPS ohne RT (Moni schafft 240). So wichtig ist die Optik bei dem Titel nicht. Wenn es Hardware gibt, die echte 60FPS+ mit PT schafft, bin ich dabei. Vorher ist das völlig unakzeptabel, da pack ich auch mit ner 4090 PT in der Praxis mit der Kneifzange nicht an. Einmal reingucken und genießen ok, aber zum Spielen? Auf keinen Fall.

Naja hohe zweistellige FPS ohne FG sind schon IMO okay. 80+ fps und dann durch FG schön mehr Bewegtschärfe holen. Bei einer so hohen Framerate sollten sich auch die Artefakte bei den meisten Spielen in Grenzen halten.
In Alan Wake 2 sieht DLSS 3 FG wohl in einigen Situationen (dunkel + Taschenlampe + Pflanzen die Schatten werfe + Kamera bewegen = unschöne Artefakte) nicht so gut aus: https://youtu.be/ELNj4W97nE0?si=y7CXYhkZcobZWOfy

Das mag jeder sehen wie er will, aber ich finde das immer noch völlig unakzeptabel, selbst bei AW2. Unter 60FPS ohne FG ist das für mich gar nichts. So wichtig kann die Optik gar nicht sein. Sobald PT in spielbare Bereiche kommt bin ich auch bereit, dafür extra Geld auszugeben, aber nicht 1900€ für unzureichende Leistung.

reaperrr
Wer von RDNA4 einen großen RT-Sprung erwartet wird mMn enttäuscht werden. Man wird etwas besser mit Titeln wie Avatar und etliche UE5-Titel umgehen können als RDNA3, das wars dann aber schon.

robbitop
2023-12-24, 21:05:25
Nichts für ungut, aber was hat das mit Mut zu tun?
Wenn man nem Rückstand hinterherläuft, macht man ja nicht absichtlich langsamer als man könnte.
Ja „Mut“ war nicht ideal formuliert aber ich meine es ist eine eher eine bewusste Designentscheidung: FFHW vs Mm2 für general purpose HW. Ich denke AMDs HW Team hätte überhaupt keine Probleme jegliche RT HW Konstellation einzubauen, die das Spektrum hergibt.
Entsprechend ist es eher die Entscheidung: gibt man die mm2 nun für RT?
RNDA3 sieht für mich sehr bewusst so aus als hätte man sich dagegen entschieden. Sie haben sich ja viele Gedanken gemacht wie man aus der GP HW für RT und ML so viel rausholen kann wie möglich.



Wenn schon RGT nur von 10-30% mehr RT-Performance spricht (hoffentlich wenigstens rohleistungsnormiert und nicht N48 vs. N32), wird RDNA4 da keinen Quantensprung hinlegen.
Wenn AMD den RT-Leistungseinbruch auf Ampere-Niveau reduzieren könnte, wäre das schon ein ordentlicher Fortschritt.
Solange sie RT über die TMUs machen, habe ich da aber leise Zweifel.
Tja die Frage ist, wie gut solche Quellen in einem noch so frühen Stadium über solche Details informiert. Die Performancecharakteristik über einen Chip der kaum sein Tapeout hatte ohne Treiber wird nur das Kern RnD Team aus den Simulationen wissen. Und selbst das ist nicht immer super genau. Oft wird da gern auch tiefgestapelt da sich bugs zeigen können, deren Umgehung Performace kosten kann.

Aber ich vermute aufgeund ser Gerüchte und der Historie der letzten Jahre auch nur Ampere - max Ada/Alchemist HW Level.

Aber immer nur damit zufrieden zu sein, dass man es geschafft hat zur old Gen des Wettbewerbers aufzuschließen ist IMO ein bisschen wenig. Ich würde die mm2 extra ausgeben (also Rasterperformancetarget so lassen wie es war) und zusätzlich mindestens Level 4 spendieren. Mal wieder ganz vorn mit dabei sein. Wenigstens auf uArch Ebene. Aber ob das hilfreich ist: keine Ahnung.
Aber wie gesagt würde es mich wundern, wenn das AMD HW Team damit überfordert wäre.
AMDs HW Team ist eigentlich ziemlich gut. Die „SW Sparte hängt“ hinterher (wozu Matrixcores wenn sie nicht genutzt werden?) und sie bauen den Chip eben so wie es im Management beschlossen wird.

Langlay
2023-12-24, 21:30:40
Einen Shooter - oder noch schlimmer Mantisklingen - der mit Latenzen von unter 40FPS läuft nennst du toll? Ich lach mich schlapp :freak: ;D
Also da hab ich lieber echte 150FPS ohne RT (Moni schafft 240). So wichtig ist die Optik bei dem Titel nicht. Wenn es Hardware gibt, die echte 60FPS+ mit PT schafft, bin ich dabei. Vorher ist das völlig unakzeptabel, da pack ich auch mit ner 4090 PT in der Praxis mit der Kneifzange nicht an. Einmal reingucken und genießen ok, aber zum Spielen? Auf keinen Fall.


Wat laberst du? Ich hab dir doch oben gezeigt das es mit echten 60FPS + mit PT läuft, davon ab wie du CP77 spielst könnte mir nicht egaler sein. Aber die Aussage das die 4090 zu viel lahm für PT ist und bleibt halt einfach Schwachsinn. Klaro wäre mehr Power für PT speziell in 4K nicht verkehrt aber es ist schon brauchbar spielbar sogar in 4K.

P.S.
Falls es dir nicht aufgefallen ist der 70 FPS Benchmarklauf war ohne Framegeneration.

Lurtz
2023-12-24, 22:02:10
Ahja, sonst wird immer gegen RT argumentiert, weil die den Takt vorgebenden Konsolen eh nicht mehr können, aber bei den fps ist jetzt alles unter dreistellig ohne FG plötzlich Abfall, obwohl die meisten Konsolenspieler noch in der 30 fps-Hölle stecken? :crazy:

Lehdro
2023-12-24, 22:38:07
Ahja, sonst wird immer gegen RT argumentiert, weil die den Takt vorgebenden Konsolen eh nicht mehr können, aber bei den fps ist jetzt alles unter dreistellig ohne FG plötzlich Abfall, obwohl die meisten Konsolenspieler noch in der 30 fps-Hölle stecken? :crazy:
Ja, geil. Konsolenspieler sind jetzt plötzlich das Maß aller Dinge, schöner Strohmann :freak: Sorry, aber knapp dreistellige FPS gehört für mich zum PC Gaming dazu. Sonst bräuchte ich auch keine 4090.

Und dafür muss AMD bei RDNA4 gerade beim RT Hand anlegen, Raster können sie schon genug, nun sollte primär der Performancemalus bei starkem RT Einsatz schrumpfen. Sekundär der Stromverbrauch. Wenn dann RDNA4 wieder etwas im Bereich wie damals die 5700XT (P/L) nur halt mit ordentlichem RT wird, ist es eine gute Gen.

Nightspider
2023-12-25, 01:06:32
Naja man merkt hier im Forum gerade in mehreren Threads das die Bedürfnisse doch sehr auseinandergehen.

Die einen brauchen >100fps und die anderen sind froh ein Spiel, mit einer Optik die andere erst in 4-5 Jahren mit der Playstation 6 erleben werden, jetzt schon mit soliden 60fps spielen zu können.

IMO; Wenn ein Spiel mit Upsamling oder FrameGeneration ein paar optische Makel hat aber dafür in allen anderen Bereichen grafisch weit vorraus ist, dann erübrigt sich die Dikussion für mich.
Bei Crysis hat sich damals auch niemand beschwert das es nicht mit 60fps läuft.
Crysis hab ich damals mit der 8800GTX in 1600*1200 und 12-22fps gespielt und es gefeiert.

Sind heute schon ganz schön verwöhnt eigentlich.

Jetzt siehste eigentlich nicht mal mehr Kantenflimmern, weil die Auflösungen sich bei Enthusiasten schon so astronomisch hoch bewegen.

Hatstick
2023-12-26, 10:38:33
Warum steigt AMD eigentlich mit RDNA 4 aus dem High End Markt aus?
Die Begründung habe ich nie gelesen.

* Karten würden zu teuer werden?
Bei der 7000er wollten sie für den Consumer nicht mehr wie 1000$ kalkulieren.
Ob es stimmt oder sie nicht mehr konnten ist eine andere Frage.

* RDNA 4 ist einfach nicht konkurrenzfähig in der aktuellen Form, um nVidia Paroli im High End Bereich bieten zu können?

* Was heißt am Ende des Tages eigentlich für AMD "keine High End Karten"?
Keine 1000€ Karten, keine 2000€ Karten?
Wie muss man sich das vorstellen oder steht nur diese Aussage, ohne irgendwelche Randbedingungen?

HOT
2023-12-26, 10:42:05
Einfach weil ein N41 einem MI400 (KI-Gedöns eben) Fertigungs- und Packagingkapazitäten weggenommen hätte, die man wirklich dringend brauchen wird. Probleme mit dem komplexen Chiplet-Desing und Angst vor Verschiebungen waren wohl auch ein Grund.

basix
2023-12-26, 10:49:42
AMD ist aus geschäftlicher Sicht besser dran, wenn sie sich momentan auf AI/ML und Datacenter konzentrieren. Da kann AMD kurz-, mittel- wie auch langfristig deutlich mehr wachsen. Das kann später auch positive Auswirkungen auf Gaming GPUs haben (Technologien wie 3D-Stacking / Packaging / Matrix Cores, mehr Geld für R&D, usw.).

Ausserdem:
Wenn RDNA4 sagen wir mal bis ca. 700$ konkurrenzfähig mit Blackwell ist (Performance, Effizienz, Raytracing), ist es kein Beinbruch wenn man keine 2k$ Highend SKU im Angebot hat. Mir wäre es hier deutlich wichtiger, dass FSR2/3 besser wird, Ray Reconstruction kommt und man den Idle Verbrauch im Griff hat (auch bei 4K/240Hz).

Linmoum
2023-12-26, 10:58:04
AMD sollte erstmal schauen, dass man zu Ada konkurrenzfähig wird, bevor man auf Blackwell schielt. Auch das ist IMO mit RDNA4 (mittlerweile?) nicht zwingend selbstverständlich.

Ich vermute aber unabhängig von Nvidia, dass sie den Fokus nach der vermeintlichen Streichung der großen Chips auf kostengünstig und PPA legen werden, wie schon bei N33. Da wird es sie dann auch wenig interessieren, ob man bei der Effizienz oder dem absoluten Verbrauch Federn lässt.

RT nimmt man IMO weiterhin nur als Zugabe mit. Wenn man da die 7900XTX schlagen kann, wäre das in meinen Augen schon unerwartet und ein Erfolg, wenn man mal davon ausgeht, dass das Performancetarget ~7900XT tatsächlich stimmt. Also für AMD selbst wäre das dann ein Erfolg, für den Markt und den Konkurrenzkampf hingegen eher ein Desaster.

Aber ja, wichtig ist vor allem, dass endlich mal Ökosystem und die Qualität des (Software-)Featuresets massiv angehoben wird. Da hängt man zwei Generationen zurück und hat selbst gegen XeSS von Newcomer Intel Probleme. Das kann und darf am Ende einfach nicht passieren.

HOT
2023-12-26, 11:22:40
Nein, AMD sollte seinen eigenen Weg völlig unbeirrt fortsetzen und die Technologien in den PC bringen, die auch Microsoft und Sony von AMD für die nächten Konsolengenerationen wollen. Damit fährt man viel besser als stumpf NV hinterherzurennen. Man besitzt ja bereits den größen Teil des Gaming Marktes und sollte diese Strategie weiter verfolgen.
Allerdings würde ich mir wünschen, dass AMD zusätzlich anfängt, Vorteile, die NV mit ihreren Gens bringt, einzufangen, wie DLSS vor allem und nicht bis zur nächsten XBox zu warten um ein KI-Upsampling dann überall einzuführen.
Und N31 ist ein Unfall. Da auf irgendwas zu schließen ist schlichtweg Blödsinn. Der sollte sicherlich 20% mehr Energieeffizienz haben, das hat schlichtweg nicht geklappt. Hätte er die gehabt, säh der Markt anders aus. RT ist irrelevant für die Betrachtung. Wer das unbedingt will, soll NV kaufen, AMD hatte schon rein Marktstrategisch eh keine Ambitionen, die PC-Markt zu dominieren, dazu hätten die Fertigungskapazitäten bei RDNA1-3 eh nicht gereicht. Klar hätte ich persönlich mit für RDNA3 mehr RT-Leistung gewünscht, aber DLSS schlägt hier mMn mehr ins Kontor. Und aus Marktsicht hat AMD alles richtig gemacht, es tut mir leid, aber das ist leider so. Konsequent Kosten (auch und vor allem Entwicklung) niedrig halten, an den Preissteigerungen von NV profitieren, das war die richtige Strategie wenn man eh nicht den Markt dominieren kann. Der Gamingsektor verdient suksessive mehr pro Jahr, finanziell läuft das gut.

Lurtz
2023-12-26, 13:54:05
Nein, AMD sollte seinen eigenen Weg völlig unbeirrt fortsetzen und die Technologien in den PC bringen, die auch Microsoft und Sony von AMD für die nächten Konsolengenerationen wollen. Damit fährt man viel besser als stumpf NV hinterherzurennen. Man besitzt ja bereits den größen Teil des Gaming Marktes und sollte diese Strategie weiter verfolgen.

Welche sollen das sein? Die Kerntechnologien der Konsolen kann man gar nicht zum PC bringen, weil die von der gesamten Systemarchitektur abhängen, die man allein wegen shared memory nicht am PC abbilden kann.

Beim Rest kriegen eher die Konsolen AMDs PC-Entwicklungen wie FSR ab, als dass umgekehrt was für den PC abfiele. Und was man so von Linux liest, ist ja selbst der OpenSource-AMD-Treiber immer noch besser, als was man den regulären Kunden im Windows-Treiber bietet was zB Shader Compilation angeht.

Sony wird sicher nicht ihr potenzielles NN-Upsampling AMD für den generellen Einsatz am PC überlassen, falls sie das selbst entwickeln und nicht von AMD übernehmen.

Da braucht man sich nicht wundern, dass die meisten Kunden lieber zu nVidia greifen, für die der PC die primäre Plattform ist.

fondness
2023-12-26, 14:07:19
Welche sollen das sein? Die Kerntechnologien der Konsolen kann man gar nicht zum PC bringen, weil die von der gesamten Systemarchitektur abhängen, die man allein wegen shared memory nicht am PC abbilden kann.


Natürlich kann man eine große APU für den PC bringen - und das macht man offensichtlich auch, siehe Roadmap. War auch ein Fehler das nicht schon lange zu bringen, hat erhebliche Vorteile was Energieeffizienz, Performance, Speichereffizienz und Transistoreffizienz betrifft. Ich bin immer wieder begeistert, was mein Rembrandt so leistet, da kann jedes Desktop-System einpacken. Das hochskaliert mit mehr Performance würde ich sofort kaufen.

OgrEGT
2023-12-26, 15:32:29
Ich bin da noch nicht überzeugt dass AMD mit RDNA4 das Highend aufgibt... sind doch alles nur Gerüchte... vlt wird es nicht das maximal fragmentierte Chipletmonster... wenn es aber gelingt 2 GPUs mit je 7900XT Perf zu verbinden mit RT auf Ada Niveau dann wirds auch gegen BW interessant...

Denniss
2023-12-26, 15:43:51
Entweder AMD verzichtet wirklich auf High-End oder zaubert sowas hin wie bei den CPU, mit 1-4 Chiplets von unten bis oben alles bedienen.

Der_Korken
2023-12-26, 16:01:40
Es ist kein Widerspruch, wenn AMD Highend weiterhin bedienen will, es mit RDNA4 aber trotzdem nicht tut. Die ursprünglich angedachte Highend-Lösung könnte technisch einfach solche Probleme gemacht haben, dass man sie eingestampft hat und AMD stattdessen spontan aus den Puzzlestücken, die sie zur Verfügung hatten, irgendeine Midrange-Lösung gezimmert hat, damit man was verkaufen kann. Für N31 gab es auch mal Gerüchte, dass dort optional noch 3D-Cache vorgesehen war. Wenn das stimmte, wurde das aber auch verworfen, weil die GPU nicht genug Dampf hatte, um davon nennenswert zu profitieren und/oder weil es keine Fertigungskapazitäten dafür gab.

][immy
2023-12-26, 17:15:27
Es ist kein Widerspruch, wenn AMD Highend weiterhin bedienen will, es mit RDNA4 aber trotzdem nicht tut. Die ursprünglich angedachte Highend-Lösung könnte technisch einfach solche Probleme gemacht haben, dass man sie eingestampft hat und AMD stattdessen spontan aus den Puzzlestücken, die sie zur Verfügung hatten, irgendeine Midrange-Lösung gezimmert hat, damit man was verkaufen kann. Für N31 gab es auch mal Gerüchte, dass dort optional noch 3D-Cache vorgesehen war. Wenn das stimmte, wurde das aber auch verworfen, weil die GPU nicht genug Dampf hatte, um davon nennenswert zu profitieren und/oder weil es keine Fertigungskapazitäten dafür gab.

3d cache macht aber relativ wenig sinn bei einer GPU. Zum einen ist man nicht so sehr auf niedrige Latenzen angewiesen und dann ist da das Hitzeproblem. GPUs müssen die Wärme extrem schnell abgeben da dort doch Recht viel anfällt. Bei CPUs ist das gerade noch so vertretbar, bzw wird ja jetzt umgedreht. aber bei einer GPU würde vermutlich der cache dann mal direkt gegrillt werden.
Kann natürlich sein, das der cache dann einfach so viel schneller ist, das man damit takt ausgleichen kann, aber da eine GPU eher nicht so auf Latenzen reagiert ist dieser sicherlich neben der GPU deutlich besser aufgehoben.

Der_Korken
2023-12-26, 17:50:44
[immy;13460361']3d cache macht aber relativ wenig sinn bei einer GPU. Zum einen ist man nicht so sehr auf niedrige Latenzen angewiesen und dann ist da das Hitzeproblem. GPUs müssen die Wärme extrem schnell abgeben da dort doch Recht viel anfällt. Bei CPUs ist das gerade noch so vertretbar, bzw wird ja jetzt umgedreht. aber bei einer GPU würde vermutlich der cache dann mal direkt gegrillt werden.

Nein. Die Wärmedichte ist bei den CPU-Chiplets deutlich höher als bei den GPUs. Abgesehen davon wäre der Cache auf die MCDs gestackt worden, um den IF$ zu erweitern, nicht auf dem GCD. Der Grund für mehr Cache ist außerdem nicht primär die Latenzreduzierung, sondern eine Verringerung der VRAM-Zugriffe, um weniger am Speicherdurchsatz zu hängen. Da die 7900XTX gemessen an ihrer Leistung mehr als genug Speicherbandbreite hatte, hätte sich ein größerer IF$ wohl nicht gelohnt.

Wobei ich mir gar nicht mal so sicher wäre, dass die Latenz da keine Rolle spielt. Je höher die Latenz, desto mehr unabhängige Threads müssen in allen CUs vorgehalten werden, um die Recheneinheiten ausgelastet zu halten. Aber irgendwann sind die Register dort auch voll und mehr Registerspace ist ziemlich teuer.

basix
2023-12-26, 20:12:08
Latenz wird auch bei GPUs immer wichtiger, damit man die Leistung auf den Boden bringen kann. Latency Hiding können GPUs gut. Doch wieso nur müssen sie die Latenz verstecken? Aha, weil eine niedrige Latenz schon relevant ist ;)

Aber ja, der IF$ soll primär die effektive Bandbreite erhöhen. Eine niedrigere effektive Latenz ist ein schöner Nebeneffekt.

AMD sollte erstmal schauen, dass man zu Ada konkurrenzfähig wird, bevor man auf Blackwell schielt. Auch das ist IMO mit RDNA4 (mittlerweile?) nicht zwingend selbstverständlich.
Was bringt es, "nur" Lovelace als Ziel zu haben? Dann ist man 1/2 Jahr später nach Blackwell Release wieder deutlich im Hintertreffen. Noch mehr als heute.

N0Thing
2023-12-27, 00:58:10
So besagen es die Gerüchte. Die beiden Top RDNA4 SKUs sind gecanclet und es gibt nur noch die beiden kleinsten. N48 und N44. Und wenn die kleinsten SKUs fast an die größte RDNA3 SKU rankommt, wäre das schon ein ordentlicher Sprung für die uArch.
Entsprechend sind die Karten dann "nur" midrange und entsprechend bepreist.

High End soll es wohl bei AMD erst mit RDNA5 wieder geben.

Ich frage mich dabei seit den ersten Gerüchten nur: Warum? Wäre die RDNA4-Architektur konkurrenzfähig, gäbe es keinen Grund, auf größere Chips zu verzichten.
Wären die Kosten für die kleinere Fertigung ein Grund, gäbe es umso weniger Gründe, mit RDNA5 wieder auf größere Chips zu setzen.
Von daher sieht es für mich danach aus, sofern die Gerüchte stimmen, dass AMD auch mit RDNA4 die Probleme von RDNA3 nicht lösen konnte, bzw. übernehmen musste und im besten Fall die RT-Einheiten auf das Niveau von Ada Lovelace oder den Nachfolger anheben kann.



Weiß nicht wie oft ich hier gelesen habe wie enttäuscht manche immer wieder sind... erinnert sehr an die sinnlose Diskussion um Tesselation damals... ein wichtiges Feature ohne Zweifel wenn es sinnvoll eingesetzt wird... so auch bei RT... zocke mit meiner 7900XT gerade Control mit RT high in UWQHD nativ bei super fluffigen 60fps... sieht Hammer aus...

Das würde ich bei einem viereinhalbjahren alten Spiel mit der zweitschnellsten Grafikkarte, die AMD aktuell zu bieten hat, auch erwarten. Mit der Generation davor muss man schon Abstriche machen.

Einfach weil ein N41 einem MI400 (KI-Gedöns eben) Fertigungs- und Packagingkapazitäten weggenommen hätte, die man wirklich dringend brauchen wird. Probleme mit dem komplexen Chiplet-Desing und Angst vor Verschiebungen waren wohl auch ein Grund.

AMD hätte dann auch einfach mehr Kapazitäten bei TSMC buchen können. Ich sehe aber weder bei den GPUs noch bei dem KI-Gedöns von AMD eine Nachfrage, die in die Nähe derer von Nvidia kommt. Von daher halte ich den Grund, dass Fertigungs- und Packagingkapazitäten ein Grund für das limitierte RDNA4-Portfolio sein soll für arg unwahrscheinlich.

Der_Korken
2023-12-27, 01:48:25
Ich frage mich dabei seit den ersten Gerüchten nur: Warum? Wäre die RDNA4-Architektur konkurrenzfähig, gäbe es keinen Grund, auf größere Chips zu verzichten.

Mutmaßung: N41, N42 und N43 sollten stacked designs werden wie MI300. Dazu gab es mal einen Leak, der ein Design mit 3 Base Dies zeige, auf die jeweils 3 CU-Chiplets gestackt werden sollten. N44 war klein genug um daraus einen kleinen Monolithen zu machen. Irgendwann stellt AMD fest, dass die 3nm-Wafer zu teuer/knapp für Consumer-GPUs sind und/oder dass Stacking-Kapazitäten zu teuer/knapp sind und/oder dass es Skalierungsprobleme im Design gibt, wenn man den Command Processor auf mehrere Dies aufteilt. Da die Zeit schon fortgeschritten ist, beschließt AMD N44 zu nehmen und einfach zu verdoppeln. Alles darüber wird ersatzlos gestrichen, weil zu wenig Zeit und/oder zu wenig Manpower und/oder zu wenig erwartete Stückzahlen um die Extrakosten eines eigenen Dies reinzuholen.

Sofern nicht irgendwann jemand aus dem Nähkästchen plaudert wie damals beim RV770 werden wir die Hintergrundstory wohl leider nie erfahren.

fondness
2023-12-27, 09:58:19
Ich frage mich dabei seit den ersten Gerüchten nur: Warum? Wäre die RDNA4-Architektur konkurrenzfähig, gäbe es keinen Grund, auf größere Chips zu verzichten.
Wären die Kosten für die kleinere Fertigung ein Grund, gäbe es umso weniger Gründe, mit RDNA5 wieder auf größere Chips zu setzen.
Von daher sieht es für mich danach aus, sofern die Gerüchte stimmen, dass AMD auch mit RDNA4 die Probleme von RDNA3 nicht lösen konnte, bzw. übernehmen musste und im besten Fall die RT-Einheiten auf das Niveau von Ada Lovelace oder den Nachfolger anheben kann.


Ich finde es spannend, dass es hier noch immer so wilde Theorien gibt, wo die Sache wirklich relativ klar ist. Die Stacking Kapazitäten sind der limitierende Faktor, dass hat TSMC mehrmals bestätigt. Nachdem die AI-Nachfrage plötzlich extrem angezogen war konnte sich AMD entscheiden: Diese knappen Kapazitäten zwischen RDNA4 und MI300 aufteilen, oder alles auf das wesentlich lukrativere Pferd setzen: MI300. Die Entscheidung durfte wohl nicht schwer gefallen sein. Da gab es auch einen glaubwürdigen Leak dazu.

Mutmaßung: N41, N42 und N43 sollten stacked designs werden wie MI300. Dazu gab es mal einen Leak, der ein Design mit 3 Base Dies zeige, auf die jeweils 3 CU-Chiplets gestackt werden sollten. N44 war klein genug um daraus einen kleinen Monolithen zu machen. Irgendwann stellt AMD fest, dass die 3nm-Wafer zu teuer/knapp für Consumer-GPUs sind und/oder dass Stacking-Kapazitäten zu teuer/knapp sind und/oder dass es Skalierungsprobleme im Design gibt, wenn man den Command Processor auf mehrere Dies aufteilt. Da die Zeit schon fortgeschritten ist, beschließt AMD N44 zu nehmen und einfach zu verdoppeln. Alles darüber wird ersatzlos gestrichen, weil zu wenig Zeit und/oder zu wenig Manpower und/oder zu wenig erwartete Stückzahlen um die Extrakosten eines eigenen Dies reinzuholen.

Sofern nicht irgendwann jemand aus dem Nähkästchen plaudert wie damals beim RV770 werden wir die Hintergrundstory wohl leider nie erfahren.

Skalierungsprobleme im Design? Aber das wesentlich komplexere MI300-Design ist möglich? Absurde Theorie. 3nm zu teuer für Consumer? Das stellt man plötzlich fest? :ugly: Da gibt es langfristige Verträge, die Preise sind natürlich vorher bekannt.

amdfanuwe
2023-12-27, 10:04:27
...
1+

robbitop
2023-12-27, 10:30:57
Naja AI lässt sich viel einfacher parallelisieren als 3D Grafik bzw hat viel unabhängigere Threads. Das ist eher eine Herausforderung der Applikation an sich.

Sumpfmolch
2023-12-27, 15:17:49
3nm zu teuer für Consumer? Das stellt man plötzlich fest? :ugly: Da gibt es langfristige Verträge, die Preise sind natürlich vorher bekannt.

Der mögliche Preis ist aber das, was ich maximal heraus holen kann. Kann ich die Kapazität für KI Chips zum x-fachen Preis gegenüber einer Consumerkarte verkaufen, ist der entgangene Gewinn auch Verlust.

Der_Korken
2023-12-27, 15:25:56
Skalierungsprobleme im Design? Aber das wesentlich komplexere MI300-Design ist möglich? Absurde Theorie.

Bisher habe ich noch keinen modernen 3D-Beschleuniger gesehen, der aus mehreren Command Processors besteht, die über mehrere Chips verteilt sind. Zugegeben, die zu knappen Packaging-Ressourcen sind der wahrscheinlichere Grund, aber dass bei einem so komplexen Design wie auf den Leaks was schief gegangen ist, finde ich überhaupt nicht abwegig. Es muss ja nicht dysfunktional sein, aber wenn die Leistung mit mehr Chiplets in Spielen nicht skaliert (so wie die zusätzlichen CUs von Fiji damals), wird so ein Produkt schnell unwirtschaftlich.

robbitop
2023-12-27, 18:27:46
Na die M Ultra SoCs sind die einzigen consumer Chips die mGPU transparent zur Anwendung skalieren.

AlterSack
2023-12-29, 21:22:08
Also für AMD selbst wäre das dann ein Erfolg, für den Markt und den Konkurrenzkampf hingegen eher ein Desaster.


ich frag mal den markt meiner heimatstadt.
glaub nicht, dass den das interessiert.

..."der markt", der neue gott.

Linmoum
2023-12-30, 08:29:11
Der Markt deiner Heimatstadt ist auch tatsächlich völlig irrelevant. Dem globalen Markt für Grafikkarten und den Kunden allerdings ist die Konkurrenzfähigkeit von Produkten innerhalb eines Marktes, bei dem es nur 2 bzw. jetzt 3 Hersteller gibt, allerdings überhaupt nicht egal.

BavarianRealist
2023-12-30, 13:29:39
...Wäre die RDNA4-Architektur konkurrenzfähig, gäbe es keinen Grund, auf größere Chips zu verzichten...

Es kann Strategie von AMD sein, mit RDNA4 auf das Highend zu verzichten: überlässt AMD Nvidia das Highend ohne Konkurrenz, wird Nvidia seine Preise sehr hoch ansetzten, da es ja keine Konkurrenz gibt. Infolge muss Nvidia dann aber auch seine kleineren GPUs preislich höher ansetzen, um nicht den Eindruck zu verbreiten, man würde nur das Highend aufgrund fehlender Konkurrenz so hoch preisen und um zu verhindern, dass dann zu viele Kunden lieber vorübergehend auf das Highend verzichten.

Auf diese Weise bilden sich dann auch im Lowend/Midrange der GPUs höhere Preise, weil AMD seine GPUs nicht zur stark unter denen von Nvidia preisen und so gut Geld verdienen könnte...
...man teilt sich quasi den Markt und jeder verdient ganz gut. Zuletzt spart sich AMD alle Kosten für das Highend-Produkt, mit dem sie sowieso nicht den Level von Nvidia erreichen würden, da RDNA4 meines Erachtens klar auf lowpower (für Notebook bzw. APUs) ausgrichtet sein dürfte.

Pirx
2023-12-31, 10:47:26
Intel nicht vergessen

robbitop
2023-12-31, 11:26:59
Tatsächlich ging zu Polaris die Strategie auch halbwegs auf. Auch RDNA1 verkaufte sich ganz gut.

basix
2023-12-31, 11:33:53
Polaris war ein Glücksfall, da Mining durch die Decke ging und auf Polaris relativ gut lief (günstige Karte, gute Perf/W).

Wie gesagt:
AMD muss im Midrange bis lower Highend (~300...700$) konkurrenzfähig mit Blackwell sein (Performance, Raytracing, Energieeffizienz). Dazu Verbesserungen an den SW-Features (Temporal Upsampling, Frame Generation, Ray Reconstruction) und verbesserte Video-Encoders (Streaming). Dann ist ein fehlendes Highend Produkt nicht so schlimm.

robbitop
2023-12-31, 11:58:16
Polaris war ein Glücksfall, da Mining durch die Decke ging und auf Polaris relativ gut lief (günstige Karte, gute Perf/W).

Wie gesagt:
AMD muss im Midrange bis lower Highend (~300...700$) konkurrenzfähig mit Blackwell sein (Performance, Raytracing, Energieeffizienz). Dazu Verbesserungen an den SW-Features (Temporal Upsampling, Frame Generation, Ray Reconstruction) und verbesserte Video-Encoders (Streaming). Dann ist ein fehlendes Highend Produkt nicht so schlimm.

Würde ich auch so sehen.

Polaris war aber auch rein für Gaming für den Preis gar nicht verkehrt.

Platos
2023-12-31, 12:43:15
Naja, Polaris hat sich doch bei Gamer nur wegen dem Preis und dem Speicher verkauft. Damals war halt noch nvidia effizient, teuer und wenig Speicher und AMD ineffizient, dafür billig und viel Speicher.

Heute ist das so (bezogen auf die kleineren Grafikkarten) : Nvidia, teuer, wenig Speicher, effizient, enorme RT Perfomance (im Vergleich zum Konkurrenten), sehr gutes Upsampling und Framegen (im Vergleich zum Konkurrenten) und AMD dann so: Auch teuer (minimal weniger), wenig Speicher!, schlechteres FSR, Framegen immer noch eine Baustelle und RT Perfomance ein Witz und dazu noch ineffizelient.

Man finde den Unterschied zu damals... Die beiden wichtigsten Punkte (viel Speicher und guter Preis) sind völlig verschwunden. Das einzige Argument, AMD zu kaufen, gibts nicht mehr. Der Preis ist bezogen auf die fehlenden Features (oder schlechtere Umsetzung) miserabel und der Speicher ist auch nicht mehr höher. Effizienz immer noch miserabel und ... ja, was bleibt übrig an positivem? Nichts bahnbrechendes...

robbitop
2023-12-31, 12:49:57
Also RDNA2 zumindest ist noch günstig und verkauft sich laut verschiedenen Quellen wie Bolle.
Aber ja Preisbrecher sind es nicht mehr bei AMD seit RDNA3. Ich stimme zu dass RDNA4 da deutlich besser werden muss in der P/L Metrik.

Achill
2023-12-31, 12:50:13
Naja, Polaris hat sich doch bei Gamer nur wegen dem Preis und dem Speicher verkauft. Damals war halt noch nvidia effizient, teuer und wenig Speicher und AMD ineffizient, dafür billig und viel Speicher.

Heute ist das so: Nvidia, teuer, wenig Speicher, effizient, enorme RT Perfomance (im Vergleich zum Konkurrenten), sehr gutes Upsampling und Framegen (im Vergleich zum Konkurrenten) und AMD dann so: Teuer (manchmal etwas billiger), wenig Speicher (gerade bei den günstigeren Karten), schlechteres FSR, Framegen immer noch eine Baustelle und RT Perfomance ein witz und dazu noch ineffizelient.

Man finde den Fehler...

Dein Post, da fehlerhaft und nicht spekulieren in diesem Thread, was aber hier Inhalt ist.

Platos
2023-12-31, 12:51:04
Also RDNA2 zumindest ist noch günstig und verkauft sich laut verschiedenen Quellen wie Bolle.
Aber ja Preisbrecher sind es nicht mehr bei AMD seit RDNA3. Ich stimme zu dass RDNA4 da deutlich besser werden muss in der P/L Metrik.

Ja, war bezogen auf RDNA 3 ("heute") und Polaris.

Und bezüglich Preis/Leistung bei RDNA4:

Mit RDNA4 kann man langsam einfach nicht mehr nur auf Shaderperfomance schauen für das P/L. Wenn FSR und Framegen abstinkt und die RT-Perfomance eben auch, dann kann man nicht von einem guten P/L sprechen, egal was die Shaderperfomance sagt.

dargo
2023-12-31, 13:17:05
Der Markt deiner Heimatstadt ist auch tatsächlich völlig irrelevant. Dem globalen Markt für Grafikkarten und den Kunden allerdings ist die Konkurrenzfähigkeit von Produkten innerhalb eines Marktes, bei dem es nur 2 bzw. jetzt 3 Hersteller gibt, allerdings überhaupt nicht egal.
Haha... guter Witz. ;D

Wenn es den Endkunden nicht egal wäre wären die Markverhältnisse bei dGPUs am PC nicht da wo sie heute sind.

DrFreaK666
2023-12-31, 13:17:24
... enorme RT Perfomance (im Vergleich zum Konkurrenten)...

Immer diese Übertreibungen...
Du kommst wahrscheinlich gleich mit Cherrypicking um die Ecke...
Bei CB sind es übrigens enorme 8%.
Ups, habe Perzentil angeklickt. Mein Fehler.
Bei average FPS sind es 7% :biggrin:
Beim neuen PCGH Index sind es 33%. Wie kann man hier Bilder editieren?

https://i.postimg.cc/KRgMkBqc/33.jpg (https://postimg.cc/KRgMkBqc)

https://i.postimg.cc/yWGR8vTr/7.jpg (https://postimg.cc/yWGR8vTr)

The_Invisible
2023-12-31, 13:39:46
CB testet nicht mit max Details, wie oft muss man das hier noch wiederholen...

DrFreaK666
2023-12-31, 13:43:07
CB testet nicht mit max Details, wie oft muss man das hier noch wiederholen...

Und jetzt? Spielbare FPS sind wichtig und nicht 20FPS vs 25FPS

Linmoum
2023-12-31, 13:59:18
Und jetzt? Spielbare FPS sind wichtig und nicht 20FPS vs 25FPSWichtig sind faire Vergleiche und nicht einen Hersteller künstlich einzubremsen, weil der andere mit RT-Effekten komplett abkackt.

In TW3 hat CB mal eben die Hälfte der RT-Effekte komplett weggelassen (keine Schatten, vor allem überhaupt kein AO und GI auch nur auf Performance ). Kein Wunder, dass bei sowas der Parcours am Ende keine großen Unterschiede zeigt. Sowas ist einfach albern, weil Radeons mit allem komplett ins Bodenlose stürzen würden und man bei NV selbst noch ohne FG spielbare fps hinbekommt.

Das ist schon immer das Problem an dem Thema gewesen. Solche Benchmark suggerieren auch uninformierten Käufern, dass "RT" auf Radeons ja gar nicht so viel schlechter läuft. Auf den Boden der Tatsachen werden solche Leute dann geholt, wenn sie sich eine GPU kaufen und es plötzlich deutlich schlechter läuft als das, was in solchen Benchmarks gezeigt wird.

Deswegen finde ich Raffs Einstellung bei sowas auch immer vorbildlich: Keine Schönwetterbenchmarks, die falsches suggerieren, nur damit man irgendwann doch böse überrascht wird.

Deswegen kann man einfach nur hoffen, dass AMD hier mit RDNA4 endlich mal aufwacht. Das sind dann 6 (!) Jahre nach Turing, irgendwann gibt es einfach keine Argumente mehr dafür, warum die Konkurrenz 2 Generationen vorauseilt.

Monsta
2023-12-31, 14:14:50
Wichtig sind faire Vergleiche und nicht einen Hersteller künstlich einzubremsen, weil der andere mit RT-Effekten komplett abkackt.

In TW3 hat CB mal eben die Hälfte der RT-Effekte komplett weggelassen (keine Schatten, vor allem überhaupt kein AO und GI auch nur auf Performance ). Kein Wunder, dass bei sowas der Parcours am Ende keine großen Unterschiede zeigt. Sowas ist einfach albern, weil Radeons mit allem komplett ins Bodenlose stürzen würden und man bei NV selbst noch ohne FG spielbare fps hinbekommt.

Das ist schon immer das Problem an dem Thema gewesen. Solche Benchmark suggerieren auch uninformierten Käufern, dass "RT" auf Radeons ja gar nicht so viel schlechter läuft. Auf den Boden der Tatsachen werden solche Leute dann geholt, wenn sie sich eine GPU kaufen und es plötzlich deutlich schlechter läuft als das, was in solchen Benchmarks gezeigt wird.

Deswegen finde ich Raffs Einstellung bei sowas auch immer vorbildlich: Keine Schönwetterbenchmarks, die falsches suggerieren, nur damit man irgendwann doch böse überrascht wird.

Deswegen kann man einfach nur hoffen, dass AMD hier mit RDNA4 endlich mal aufwacht. Das sind dann 6 (!) Jahre nach Turing, irgendwann gibt es einfach keine Argumente mehr dafür, warum die Konkurrenz 2 Generationen vorauseilt.

Ich finde Raffs Einstellungen nicht korrekt. Er dreht alles auf max und sucht ne Stelle wo es besonders reinknallt. Das macht evtl nur 2% der Spielerfahrung aus.
Wenn man danach eine Gpu kauft, wird man warscheinlich immer eine Kategorie höher kaufen als man eigendlich braucht.
Wirkt auf mich erher Hersteller orientiert und nicht Kunden.

dargo
2023-12-31, 14:17:33
CB testet nicht mit max Details, wie oft muss man das hier noch wiederholen...
Wie oft muss man wiederholen, dass sture max. Settings (insbesondere mit dann zu niedrigen fps) nur für Idioten oder Pimmelvergleiche was taugen? Wenn mir eine Nvidia-Karte mit max. Settings nur 40fps liefert dann sind diese Settings für mich unbrauchbar und ich schaue mir an wo ich ansetzen muss um deutlich höhere fps zu bekommen. Sprich... ich schaue mir an was am teuersten ist und passe dort entsprechend an. Und aktuell ist das bei RT am meisten anzutreffen... extrem teuer. Diese blinden max. Settings Vergleiche sind genau so sinnvoll wie damals die künstlich erstellten Szenen u.a. auch von Raff wo man XYZ-Vram völlig überfahren hat um zu zeigen wie toll der doppelte Vram ist. Nichts weiter als Klickbaits. Jeder Spieler mit gesundem Menschenverstand passt die Settings an seine Hardware an und nicht umgekehrt. Irgendwann kommt natürlich der Zeitpunkt wo jede Hardware am Ende ist und ein Upgrade fällig wird.

Ich finde Raffs Einstellungen nicht korrekt. Er dreht alles auf max und sucht ne Stelle wo es besonders reinknallt. Das macht evtl nur 2% der Spielerfahrung aus.

Genau das! Es ist komplett bescheuert ein worst case von wenigen Sekunden im gesamten Spiel zu suchen und das dann auf das gesamte Spiel zu übertragen. Letzteres macht die PCGH nicht mal bewusst, aber deren offenbar inkompetenten Leser. Genau mit solchen Benchmarks wird ein völlig falscher Eindruck über die Performance von einem Spiel vermittelt.

btw.
Die 2% von dir sind sogar noch viel zu hoch gegriffen. Die Benchmarkszenen haben in der Regel nur wenige Sekunden von vielen Spielstunden.

fondness
2023-12-31, 14:26:28
Wie oft muss man wiederholen, dass sture max. Settings (insbesondere mit dann zu niedrigen fps) nur für Idioten oder Pimmelvergleiche was taugen? Wenn mir eine Nvidia-Karte mit max. Settings nur 40fps liefert dann sind diese Settings für mich unbrauchbar und ich schaue mir an wo ich ansetzen muss um deutlich höhere fps zu bekommen. Sprich... ich schaue mir an was am teuersten ist und passe dort entsprechend an. Und aktuell ist das bei RT am meisten anzutreffen... extrem teuer. Diese blinden max. Settings Vergleiche sind genau so sinnvoll wie damals die künstlich erstellten Szenen u.a. auch von Raff wo man XYZ-Vram völlig überfahren hat um zu zeigen wie toll der doppelte Vram ist. Nichts weiter als Klickbaits. Jeder Spieler mit gesundem Menschenverstand passt die Settings an seine Hardware an und nicht umgekehrt.

Es ist halt wie damals bei tesslation. Nvidia versucht in jedem Spiel maximal viel raytracing unterzubringen, weil man weiß, dass das die Achillesferse von AMD ist. Dass das dann häufig maximal auf einer 4090 spielbar ist, oder womöglich gar nicht sinnvoll spielt dabei keine Rolle.

Mal sehen ob sich Geschichte wiederholt und wie sich raytracing in Spielen entwickelt, wenn auch AMD konkurrenzfähige Performance liefert und Nvidia dadurch kein Interesse mehr hat es zu pushen.

DrFreaK666
2023-12-31, 14:27:03
...In TW3 hat CB mal eben die Hälfte der RT-Effekte komplett weggelassen (keine Schatten, vor allem überhaupt kein AO und GI auch nur auf Performance ). Kein Wunder, dass bei sowas der Parcours am Ende keine großen Unterschiede zeigt. Sowas ist einfach albern, weil Radeons mit allem komplett ins Bodenlose stürzen würden und man bei NV selbst noch ohne FG spielbare fps hinbekommt...

Du weißt schon, dass wir es von Mittelklasse-Hardware haben?
Trotz "mal eben die Hälfte der RT-Effekte komplett weggelassen" kommt die RTX4070 auf 51,6FPS in 1440p und ist damit 4% schneller als eine 7800XT.
Was willst du mit noch mehr Details, runter auf 40FPS?

edit: bei der PCGH liefert die 7800XT bodenlose 42,6FPS, während die 4070 spielbare 47,3FPS liefert
https://i.postimg.cc/G9B8jnQK/bodenlos.jpg (https://postimg.cc/G9B8jnQK)

dargo
2023-12-31, 14:31:49
Es ist halt wie damals bei tesslation. Nvidia versucht in jedem Spiel maximal viel raytracing unterzubringen, weil man weiß, dass das die Achillesferse von AMD ist. Dass das dann häufig maximal auf einer 4090 spielbar ist, oder womöglich gar nicht sinnvoll spielt dabei keine Rolle.

Mir brauchst du das nicht erzählen, ich weiß ganz genau wie Nvidia tickt. ;)


Mal sehen ob sich Geschichte wiederholt und wie sich raytracing in Spielen entwickelt, wenn auch AMD konkurrenzfähige Performance liefert und Nvidia dadurch kein Interesse mehr hat es zu pushen.
Da wette ich sogar drauf. ;D Sobald AMD und/oder Intel sich bei RT angleichen wird Nvidia wieder mit irgendwas vordreschen um die Meute zu melken. Das ist so sicher wie das Amen in der Kirche. Vor RT war es G-Sync (vor G-Sync eben Tessellation), hat nur nicht lange funktioniert und so musste was Neues her. Nennt sich aktuell Raytracing.

Du weißt schon, dass wir es von Mittelklasse-Hardware haben?
Trotz "mal eben die Hälfte der RT-Effekte komplett weggelassen" kommt die RTX4070 auf 51,6FPS in 1440p und ist damit 4% schneller als eine 7800XT.
Was willst du mit noch mehr Details, runter auf 40FPS?
Nicht zu vergessen... das ist kein natives 1440p sondern 960p + Upscaling Overhead. Da merkste sofort wie stark diese Mittelklasse für max. RT ist. :freak: Und max. RT ist auch so eine Sache. Es ist nur max. das was die DEVs offiziell zulassen. Schick mal paar Bounces mehr durch die Szene und schon landet eine 2.000€ Nvidia Karte bei 20fps oder so. Lässt sich dann nur schwer vermitteln. :D

Iscaran
2023-12-31, 15:04:05
bodenlose 42,6FPS,...
spielbare 47,3FPS liefert


Really? mit 42.6 FPS ist etwas nicht mehr spielbar, das bei 47.3 FPS aber wunderbar "fluffig wuppt"...

Mach dich bitte noch mehr lächerlich.

Hättest du jetzt <30 FPS vs ~50 / 60 gebracht...

Aber nicht mal 10% differenz...regel ich im "Worst-case" über "Shadows = OFF".

OgrEGT
2023-12-31, 15:07:10
Really? mit 42.6 FPS ist etwas nicht mehr spielbar, das bei 47.3 FPS aber wunderbar "fluffig wuppt"...

Mach dich bitte noch mehr lächerlich.

Hättest du jetzt <30 FPS vs ~50 / 60 gebracht...

Aber nicht mal 10% differenz...regel ich im "Worst-case" über "Shadows = OFF".

Ich glaube dein Ironiedetektor hat nicht funktioniert :)

Iscaran
2023-12-31, 15:08:42
Wichtig sind faire Vergleiche und nicht einen Hersteller künstlich einzubremsen, weil der andere mit RT-Effekten komplett abkackt.



Dann aber bitte mit Analyse wie sich die "Max" Settings von den "nur High" Settings qualitativ sichtbar abheben...
Oft beginnen die drastischen Unterschiede erst bei Medium oder niedriger und zwischen High/Max/Ultra ist der Unterschied dann ob das Wasser, kleine Kräuselungen hat, oder das AA "besser" Treppchen minimiert.

Ist in der Regel für den Gameflow eher irrelevant.

Iscaran
2023-12-31, 15:09:41
Ich glaube dein Ironiedetektor hat nicht funktioniert :)

Oh :-). Na dann @Freak: Passt! Sorry für die Fehlinterpretation.

dargo
2023-12-31, 15:10:20
@Iscaran

Du hast den Sarkasmus von DrFreaK666 nicht erkannt. :D

OgrEGT
2023-12-31, 15:34:52
Dann aber bitte mit Analyse wie sich die "Max" Settings von den "nur High" Settings qualitativ sichtbar abheben...
Oft beginnen die drastischen Unterschiede erst bei Medium oder niedriger und zwischen High/Max/Ultra ist der Unterschied dann ob das Wasser, kleine Kräuselungen hat, oder das AA "besser" Treppchen minimiert.

Ist in der Regel für den Gameflow eher irrelevant.
So ist es. Kosten/Nutzen im Sinne von Rechenleistung/opt. Mehrwert... exakt die Diskussion wie bei Tesselation... ab einem bestimmten Punkt macht es einfach keinen Sinn mehr vom opt. Mehrwert aus gesehen wenn man mit Bruteforce HW FF Dreiecke die nur noch aus einem Pixel bestehen weiter halbieren und vierteilen zu wollen...

The_Invisible
2023-12-31, 15:55:25
Eh klar das wieder die gleichen Aussagen von den immer selben Leuten kommen.

Es geht hier um Vergleichbarkeit und nicht "wie stelle ich die Details ein das RT auf eine Radeon noch gut läuft" und auch nicht die Diskussion welche Details sinnvoll sind.

Hat bei Raster auch nie jemanden interessiert aber jetzt bei RT ist max plötzlich schei*e...

dargo
2023-12-31, 16:00:24
Eh klar das wieder die gleichen Aussagen von den immer selben Leuten kommen.

Es geht hier um Vergleichbarkeit und nicht "wie stelle ich die Details ein das RT auf eine Radeon noch gut läuft" und auch nicht die Diskussion welche Details sinnvoll sind.

Auch mit reduzierten Details hast du exakte Vergleichbarkeit, auf beiden Seiten ist die Rechenlast identisch. :rolleyes:


Hat bei Raster auch nie jemanden interessiert aber jetzt bei RT ist max plötzlich schei*e...
Ist eine glatte Lüge! Auch bei Raster gab es schon hirnverbrannte Settings, je nach Game.

DrFreaK666
2023-12-31, 16:24:54
Oh :-). Na dann @Freak: Passt! Sorry für die Fehlinterpretation.

Dachte das wäre wegen dem Fettgedrucktem im Zitat klar ;)

Zossel
2023-12-31, 16:25:30
Dann aber bitte mit Analyse wie sich die "Max" Settings von den "nur High" Settings qualitativ sichtbar abheben...
Oft beginnen die drastischen Unterschiede erst bei Medium oder niedriger und zwischen High/Max/Ultra ist der Unterschied dann ob das Wasser, kleine Kräuselungen hat, oder das AA "besser" Treppchen minimiert.

Am besten das Publikum per Blindtest abstimmen lassen.

dargo
2023-12-31, 16:50:06
Am besten das Publikum per Blindtest abstimmen lassen.
Da verlangst du jetzt aber zu viel. :D DF und Konsorten müssen schon an vielen Stellen einen 400% Zoom anwenden um dem Zuschauer zu sagen... sieh mal her, hier gibt es einen kleinen Unterschied. ;D

Atma
2023-12-31, 16:59:26
DF und Konsorten müssen schon an vielen Stellen einen 400% Zoom anwenden um dem Zuschauer zu sagen... sieh mal her, hier gibt es einen kleinen Unterschied. ;D
DF macht das gerne weil durch die YT Kompression viel verloren geht und um es deshalb zu verdeutlichen, aber das blendest du natürlich aus und machst dich nur drüber lustig (no)

DrFreaK666
2023-12-31, 17:36:58
am besten sind zusätzlich noch Slowdowns auf 6%.

bbott
2023-12-31, 17:42:53
Really? mit 42.6 FPS ist etwas nicht mehr spielbar, das bei 47.3 FPS aber wunderbar "fluffig wuppt"...

Mach dich bitte noch mehr lächerlich.

Hättest du jetzt <30 FPS vs ~50 / 60 gebracht...

Aber nicht mal 10% differenz...regel ich im "Worst-case" über "Shadows = OFF".
Denke das war sarkastisch gemeint ;-) Ich habe es jedenfalls so aufgefasst.
Solange eine Karte im Schnitt nicht 20% drauflegen ist der unterschied in der Praxis häufig irrelevant und höchstens nur Cherry Picking.

@Leo (wäre das nicht etwas, was du beim Benchmark zusammen fassen (weitestgehend) mit erfassen konntest?)
Es wäre mal eine Liste mit Games interessan, welche GPU welche/ wieviele Spiele bei max RT schafft (in 1080, 1440, 3840p evtl. 45/60/ 120 fps):freak:.
Von der RTX 2060 bis RTX 4090. Eigentlich sind doch nur die 80er und 90er Karten für aktuelle Games, geeignet und nach 2 Jahren werden die meisten RT opfern, um mehr fps oder Auflösung zu erhalten, oder sie upgraden.

Alle meine Bekannten grinsen bzw. lächeln nur, wenn ich das Thema RT anspreche und es wird still. Der Themens Wechsel erfolgt sofort :D :freak:
Egal ob NV oder AMD user ;D

Wie lange hat 4K gebraucht, um anzu kommen? ist es überhaupt schon angekommen, WQHD lässt grüßen ;) RT wird ähnlich lange, eher länger brauchen...

The_Invisible
2023-12-31, 18:10:05
Auch mit reduzierten Details hast du exakte Vergleichbarkeit, auf beiden Seiten ist die Rechenlast identisch. :rolleyes:


AMD bricht mit höherer RT Last stärker ein, ist das wirklich so schwer zu verstehen? Selbst zwischen RT und PT liegt noch ein höherer Faktor wo Geforces noch weiter davonziehen...

Finde ich gut das es PCGH so durchzieht und sich nicht beirren lässt.

@bbott
Ist ebenfalls Blödsinn, Native ist tot, genauso wie RT immer mehr im kommen ist, was sich manche hier in Forenblasen immer wünschen ist der Industrie total egal.

Ex3cut3r
2023-12-31, 18:17:09
Alle meine Bekannten grinsen bzw. lächeln nur, wenn ich das Thema RT anspreche und es wird still. Der Themens Wechsel erfolgt sofort :D :freak:
Egal ob NV oder AMD user ;D

Wie lange hat 4K gebraucht, um anzu kommen? ist es überhaupt schon angekommen, WQHD lässt grüßen ;) RT wird ähnlich lange, eher länger brauchen...
Immer wieder lustig jeder AMD Thread. RT -> Blödsinn. 4K Display mit hoher PPi -> Blödsinn, 1440p @ 32" und 27" rul0rt selbst heute noch alles weg. Immer wieder interessant wie Leute versuchen, anderen etwas madig zu machen, nur weil man selber vlt. nicht das Geld hat oder es nicht aufwenden will. Am besten zocken wir alle noch am HD Ready TV mit 720p von 2006 mit 60HZ und spielen ohne AF und AA. Ist doch geil!!!!

Peinlich was AMDler täglich abziehen.

dargo
2023-12-31, 18:21:56
AMD bricht mit höherer RT Last stärker ein, ist das wirklich so schwer zu verstehen?
Erzähle uns was Neues. :rolleyes:

Immer wieder interessant wie Leute versuchen, anderen etwas madig zu machen, nur weil man selber vlt. nicht das Geld hat oder es nicht aufwenden will.
Immer wieder interessant wie gewisse Personen kleine Puzzleteile von Grafik bis zum Himmel hypen müssen als gäbe es kein Morgen mehr. :rolleyes: Keine Sau interessiert es wie du deine Spiele spielst. Spiele sie wie du es brauchst. Aber hört endlich auf diesen Schwachsinn zu verbreiten jeder Spieler braucht maximale RT-Settings um seine Games zu genießen. Das entscheidet immer noch jeder individuell für sich.

DrFreaK666
2023-12-31, 19:10:21
Immer wieder lustig jeder AMD Thread. RT -> Blödsinn....Peinlich...

Das "Egal ob NV oder AMD user" hast natürlich gekonnt überlesen :rolleyes:
Und auch für dich: Es geht hier um Mittelklasse, weil es sich abzeichnet, dass RDNA4 Mittelklasse wird

Slipknot79
2023-12-31, 23:37:22
Wichtig sind faire Vergleiche und nicht einen Hersteller künstlich einzubremsen, weil der andere mit RT-Effekten komplett abkackt.

Die größte Frechheit von AMD ist es auch noch dafür +1000EUR zu verlangen. (y)
In Benchmarks abkacken und dafür auch noch abzocken. Aber es finden sich halt immer wieder AMD-Kunden, die gemelkt werden wollen. Gehören immer 2 dazu. (y) :wink:
Im Gegensatz zu Lederjacke. Der zockt auch up, er liefert aber auch up. (y) Irgendwie ist das dann auch wieder kein abzocken, wenn geliefert wird. MOAR! (y)

DrFreaK666
2024-01-01, 01:24:35
Die größte Frechheit von AMD ist es auch noch dafür +1000EUR zu verlangen. (y)
In Benchmarks abkacken und dafür auch noch abzocken. Aber es finden sich halt immer wieder AMD-Kunden, die gemelkt werden wollen. Gehören immer 2 dazu. (y) :wink:
Im Gegensatz zu Lederjacke. Der zockt auch up, er liefert aber auch up. (y) Irgendwie ist das dann auch wieder kein abzocken, wenn geliefert wird. MOAR! (y)

Gekonnt das Thema verfehlt (Mittelklasse) .
Glückwunsch und Guts Neues :)

][immy
2024-01-01, 01:55:04
Immer wieder lustig jeder AMD Thread. RT -> Blödsinn. 4K Display mit hoher PPi -> Blödsinn, 1440p @ 32" und 27" rul0rt selbst heute noch alles weg. Immer wieder interessant wie Leute versuchen, anderen etwas madig zu machen, nur weil man selber vlt. nicht das Geld hat oder es nicht aufwenden will. Am besten zocken wir alle noch am HD Ready TV mit 720p von 2006 mit 60HZ und spielen ohne AF und AA. Ist doch geil!!!!

Peinlich was AMDler täglich abziehen.

Was soll denn wieder dieser misst. Aktuell ist RT/PT noch in einer Findungsphase. Weder wird es durchgehend Angeboten, noch für alles mögliche. Sobald es voll ausgefahren wird, ist aktuell jede GPU an Markt vollkommen überfordert und nach wie vor ist es kaum ohne temporale Artefakte (also ansatzweise echtzeit) möglich. Ja es sie gut aus, wenn es gut implemtiert ist, aber sehen andere Wege auch. Alan wake 2 hat hier deutlich gezeigt das es egal wie top aussehen kann. Die meisten Spiele konzentrieren sich aber nur auf einen Weg und der andere wird vollkommen vernachlässigt. Dazu zählen auch absurd teure RT Implementierungen ohne wirklich großen Unterschied visuellen Vorteil. Das ganze steckt halt noch in den Kinderschuhen und ist auch nichts was man wie in der Vergangenheit mit wenig Silizium beschleunigen kann, sondern es braucht schon erheblich mehr.

Ja, AMD macht bestimmt nicht alles Super, haben trotzdem Recht gute GPUs im Angebot die auch was bieten können.

Zu deinem 4k Argument, das hat er eigentlich wieder vollkommen zunichte gemacht, denn besonders das ist mit 4k ohne nicht mehr Tricks kaum mehr von Hardware am Markt zu leisten. Könnte man "früher" noch mit einer GTX 1080 4k bedienen ist in diesem Preisbereich mittlerweile nur noch Hardware für 1080p vorgesehen (ggfs. noch 1440p). Selbst die rtx 3090 ist dafür immer weniger fit und das ist eigentlich schon ein ziemlich fetter chip.


So, nun aber mal wieder zurück zum Thema. Rdna4 soll ja nach der alten AMD roadmap volle RT Unterstützung haben. Ist also die Frage ob AMD nun tatsächlich liefern können wird. Auch die ai chips die mit rdna3 kamen sind ja nicht mal wirklich für was gut. Eventuell kann AMD ja noch ein wenig was dorthin auslagern, aber man muss leider sagen, AMD ist schon relativ langsam im GPU Markt geworden. Trotz sll der Innovationen die auch von ihnen kamen, Schein besonders das Konsolen Geschäft sich negativ auf den Rest aus zu wirken, da das Konsolen Geschäft halt Ressourcen bindet.

Zudem hat man mit rdna3 ja scheinbar ein Problem im Design gehabt, das es dem chip nicht erlaubte von den Änderungen wirklich zu profitieren. Da scheint viel Leistung wie einst bei gcn zu verpuffen. Wenn sie das beseitigen können und die Architektur mit rdna4 weiter verbessern, sollten sie schon mal ein riesiges Stück weiter kommen können.