Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
dildo4u
2024-09-03, 20:40:36
Die Chip Produktion ist doch angeblich nicht das Problem sondern das Packaging.
Sehe kein Grund nicht alles bei TSMC zu fertigen für eine 08/15 GPU.
reaperrr
2024-09-03, 20:43:39
Was mir aufgefallen ist: im letzten RDNA4 leak video von MLID wird tsmc 4nm genannt. Mal schauen ob es stimmen wird. Ich hatte ja schon länger vermutet (und auch hier geschrieben) dass ich nichts von dem Samsung 4nm Gerücht halte (da gab es aber einige die da sehr überzeugt davon waren). Einfach weil der Prozess immernoch zu deren 7nm Familie gehört und dem TSMC 4 nm hinterher läuft und man sicherlich diese Nachteile bei N48 nicht unbedingt haben will. Auch wenn der angeblich besonders günstig sein soll.
Da bin ich schon lange von ausgegangen.
Für eine GPU, wo Takt und Perf/w für den Markterfolg entscheidend sind, wäre Samsung's "4nm" zu schlecht und deren "3nm" ist noch nicht weit genug, als war für mich bei N48 TSMC mit N4P immer klarer Favorit.
SF4X käme mMn höchstens für N44 in Frage, wenn Samsung AMD ausreichend billige Wafer-Preise macht, aber portiert man extra eine IP zu Samsung für einen einzigen Mainstream-Chip, wenn man für die Karten dann wegen schlechterer Perf und/oder Perf/W weniger Geld verlangen kann?
Sehe ich nicht so richtig.
robbitop
2024-09-04, 09:04:55
Es war HOT der davon sehr überzeugt war. ^^
Ich bin auch nach wie vor davon überzeugt, dass AMD so ein Produkt unbedingt benötigt. SF4X würde nur bei einem solchen 12-16CU-Chip Sinn ergeben.
robbitop
2024-09-04, 10:20:31
Bei der Diskussion ging es aber um N48 ;)
N48 ist N4P. Das war klar, der ersetzt ja N31 und N32, deren Produktion seit Monaten stillsteht lt. Tom von MLID. SF4X wäre nur sinnvoll gewesen, wenn man einen echten Mainstreamchip gehabt hätte so auf 4060-Niveau, um den teureren Fertigungsprozess für potentere Produkte frei zu haben, also N48 ca. 40CUs sund N44 dann 16CUs oder sowas.
N44 wäre in SF4X z.B. keine ganz schlechte Sache für AMD, aber ich bezweifle, dass man das macht. Das hätte man nur dann so gemacht, wenn es zeitlichen Abstand zwischen den beiden Produkte gegeben hätte, den gab es aber nicht.
robbitop
2024-09-04, 11:00:31
Hier zwei Postings von dir dazu
Irgendwie scheint AMD diesmal besonders gut dicht zu halten, keine Leaks, keine genauein Angaben, nur Schätzungen bisher. Das einzige, was jetzt halbwegs sicher scheint ist der SF4X-Prozess von Samsung und dass das Tape Out beider Chips (N44 und N48; ist nicht mal bekannt welcher der Große ist)
Vielleicht ist das aber auch gar nicht so gut vergleichbar, es ist ja auffällig, dass RDNA4 offenbar nur von Samsung zu kommen scheint.
Das hier finde ich interessant: https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Benchmark-Grafikkarten-Test-Release-1455019/#a1
Mit RTXDI, also explizit Nvidia-optimiertem Code, kann sich RDNA 3 schlechter von RDNA 2 absetzen als mit Software-Lumen (+42 Prozent von 6900 LC auf 7900 XTX). Ich meine, dass u. a. Alan Wake 2 mit ähnlich brutalem Workload größere Differenzen im 60-Prozent-Bereich zeigte. RDNA 3 ist also nicht automatisch robuster, es gibt Abhängigkeiten. Pervers ist hingegen, wie AD102 mit GA102 den Boden wischt. Hoffen wir, dass Blackwell ähnlich zulegt; das wäre gerade in der Mittelklasse Gold wert.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89408&d=1725446213
MfG
Raff
DrFreaK666
2024-09-04, 12:39:17
Blackwell interessiert mich im RDNA4-Thread nicht so sehr ^^
Sehr scheuklappige Sichtweise. ;) RDNA 4 darf auch gerne, dem Namen entsprechend, um Faktor 4 zulegen. Wenn da echt RT-Kerne drinstecken, wäre das sogar machbar ...
MfG
Raff
DrFreaK666
2024-09-04, 12:42:54
Sehr scheuklappige Sichtweise. ;)
Ja ne... dafür gibts ja den Blackwell-Thread. Steh nicht so auf OT-Flut.
Denk jedes Mal "Oh, Neuigkeiten", nur um dann zu lesen, dass es um NV geht.
Wie oft gehts in NV-Threads um AMD?
Du hast aber schon gesehen, um was sich circa 2/3 meines Postings und das Bild drehen? :) Ich warte seit Monaten auf den ersten Leak von RDNA-4-Micro-Benchmarks, wie sie gerade Intel für Xe 2 veröffentlicht hat.
MfG
Raff
dargo
2024-09-04, 13:18:28
Ja ne... dafür gibts ja den Blackwell-Thread. Steh nicht so auf OT-Flut.
Denk jedes Mal "Oh, Neuigkeiten", nur um dann zu lesen, dass es um NV geht.
Wie oft gehts in NV-Threads um AMD?
+1
Hatte auch gedacht... ah, vielleicht gibts wieder was Neues an Gerüchten zu RDNA4 und dann muss ich wieder was von Nvidia hier lesen. *gähn*
Ich bin ja schon wieder weg. Wollte euch in der warmen roten Blase nicht mit "weltpolitischen" Gedanken stören. :ugly:
MfG
Raff
Badesalz
2024-09-04, 13:36:37
Du hast aber schon gesehen, um was sich circa 2/3 meines Postings und das Bild drehen? :)War schwer herauszulesen, aber ich meine es ging um irgendwas wo RDNA nicht so robust sein soll wie man denken würde? 1/3 NV angebetet, "2/3" AMD Stückchen schlechter gemacht als ohnehin. So in etwa?
Jetzt nicht, daß du komplett daneben liegen würdest, aber der reale Nutzen der Mühen scheint irgendwie gut versteckt.
Hier zwei Postings von dir dazu
Und? Hast du noch nie Mist geschrieben?
Badesalz
2024-09-04, 13:46:27
Boah ej... Ich kann mich da an eine Disku über 5775C erinnern... Tagelang hab ich mich da abgerieben :tongue: :wink:
DrFreaK666
2024-09-04, 14:05:16
Ich bin ja schon wieder weg. Wollte euch in der warmen roten Blase nicht mit "weltpolitischen" Gedanken stören. :ugly:
MfG
Raff
Ich Blackwell-Thread hast es dann nicht geteilt. Versteh ich nicht
Weil mein Aufhänger RDNA 2 -> 3 war. Ich wusste bis eben nicht, dass Worte mit Nvidia-Kontext (ups, schon wieder) in diesem Thread verboten sind. :ugly:
Damals(tm) hieß es, dass die ersten RT-Cores einer gewissen Firma circa zehn Mal so schnell arbeiten. Also im Vergleich mit dem gleichen Workload auf den FP32-ALUs. Weiß man eigentlich, wie schnell die Spezial-TMUs in RDNA 2/3 im Vergleich sind? Davon hängt ab, wie geil RT-Kerne davon ausgehend sind, von denen RDNA 4 hoffentlich reichlich hat.
MfG
Raff
Hakim
2024-09-04, 14:26:14
Leute bleibt doch mal cool, ich fand den Beitrag von Raff gut, er Spekuliert wo sich RDNA4 einordnen könnte. Wenn's nicht interessiert.....
robbitop
2024-09-04, 14:30:28
Und? Hast du noch nie Mist geschrieben?
Du hast heute so getan als wäre dir das schon lange klar und du nie dieser Ansicht warst. Hättest obiges ja gleich schreiben können heute anstatt rumzudrucksen. ;)
robbitop
2024-09-04, 14:38:24
Leute bleibt doch mal cool, ich fand den Beitrag von Raff gut, er Spekuliert wo sich RDNA4 einordnen könnte. Wenn's nicht interessiert.....
Ich sehe das auch so. Es zeigt auf wie RDNA3 relativ zu RDNA2 aufgestellt war in Bezug auf RT und wo sich RDNA4 einordnen könnte und als Referenzpunkt eben Ada und Ampere. IMO schon interessant im Gesamtzusammenhang. Finde das war ein Mehrwert und durchaus interessant :up:
w0mbat
2024-09-04, 14:55:41
Ich will RDNA4 in SF3
The_Invisible
2024-09-04, 15:00:34
Da die PS5 pro ja massiv mehr RT Leistung haben soll wohl auch rdna4, sie haben es auch nötig. Freu mich dann schon wenn auch die AMDler hier rumprotzen wie geil ja RT/PT ist :D
Hakim
2024-09-04, 15:06:41
Ich habe ja keine Konsole, aber mir persönlich wäre eine gute upscale Technik besser als etwas RT hier und da. Oder gibt es das Problem mit das einige Spiele aufgrund der Leistung mit 30 fps laufen kaum noch?
madzapp
2024-09-04, 15:30:41
Da die PS5 pro ja massiv mehr RT Leistung haben soll wohl auch rdna4, sie haben es auch nötig. Freu mich dann schon wenn auch die AMDler hier rumprotzen wie geil ja RT/PT ist :D
Ich habe schwer den Verdacht, dass die Angaben ihren Upscaler mit einbeziehen. Wetten würde ich darauf aber nicht.
AffenJack
2024-09-04, 15:32:34
Ich habe schwer den Verdacht, dass die Angaben ihren Upscaler mit einbeziehen. Wetten würde ich darauf aber nicht.
Glaube nicht unbedingt Upscaler, aber es könnte einfach theorethische Leistung sein. 2x Flops plus 2x RT Kernleistung (so wie RDNA2 zu RDNA3) und schon hast du deinen theorethischen Riesensprung in der PS5 Pro. Mit Optimierung darauf könnte da sogar eher etwas ankommen, als am PC.
Tesseract
2024-09-04, 15:35:37
Ich habe ja keine Konsole, aber mir persönlich wäre eine gute upscale Technik besser als etwas RT hier und da. Oder gibt es das Problem mit das einige Spiele aufgrund der Leistung mit 30 fps laufen kaum noch?
spiele haben die performance auf die sie designt werden. wenn alle architekturen ähnlich gut skalieren ist das besser für developer und besser für gamer.
dargo
2024-09-04, 15:44:01
Da die PS5 pro ja massiv mehr RT Leistung haben soll wohl auch rdna4, sie haben es auch nötig. Freu mich dann schon wenn auch die AMDler hier rumprotzen wie geil ja RT/PT ist :D
Dann träum weiter. :tongue: Wenn du mal deine RT/PT Scheuklappen runter lässt wird dir auch auffallen, dass selbst hier im 3DC Nvidianer unterwegs sind denen RT/PT mehr oder weniger am Anus vorbei geht. Die nehmen das einfach je Generation mit nebenher.
Dino-Fossil
2024-09-04, 15:47:18
Da die PS5 pro ja massiv mehr RT Leistung haben soll wohl auch rdna4, sie haben es auch nötig. Freu mich dann schon wenn auch die AMDler hier rumprotzen wie geil ja RT/PT ist :D
Wunder würde ich da trotzdem nicht erwarten. Die PS5 Pro hat schon durch die größere GPU deutlich mehr RT Einheiten, dazu kommen mindestens die (schwer genauer zu klassifizierenden) Verbesserungen von Konsolen-RDNA zu RDNA3 (RDNA2 zu RDNA 3 waren ja in der Praxis knapp 10% vielleicht?). Also Milchmädchen: 60/36*1,1=1,83.
Was ich damit sagen möchte: schon ohne potentielle RDNA4 RT-Verbesserungen, wäre RT auf der PS5 Pro auf dem Papier deutlich performanter.
DrFreaK666
2024-09-04, 15:56:07
Laut Gerüchten soll die Pro auf 7700XT-Niveau sein was RZ-Performance angeht
basix
2024-09-04, 16:12:13
RDNA4 sollte 2x relative RT Performance schon erreichen können, zumindest mit den neuen RT-Cores (auch wenn kein HW BVH-Traversal dabei sein sollte). BVH8 bringt doppelten Throughput pro RT-Core und gleichzeitig könnte es für die selbe Anzahl Nodes die Anzahl Traversal Steps halbieren. Gerade der BVH-Traversal sollte durch die Reduktion von Anzahl Steps gut profitieren können. Gleichzeitig reduziert es die benötigte Bandbreite und Memory Footprint:
https://github.com/jan-van-bergen/GPU-Raytracer
Breitere BVH benötigen mehr Ray/Box und Ray/Triangle Tests, was bei RDNA4 ebenfalls zum BVH4 -> BVH8 Update passt. Ich sehe da in folgendem Paper sehr viel, was für RDNA4 passen könnte https://research.nvidia.com/sites/default/files/publications/ylitie2017hpg-paper.pdf
In der Resultats-Tabelle sehe ich 2-3x Performance verglichen mit einem 4-wide BVH Ansatz (Table 4 & 5, Titan X Maxwell und Titan X Pascal).
Wide BVHs
Bounding volume hierarchies with higher branching factor have many appealing properties compared to binary BVHs (BVH2). They trivially allow ray-box and ray-triangle tests to be executed in parallel over multiple SIMD lanes, although this has the drawback that the reserved lanes may suffer from underutilization due to highly serial control code. Even though our method uses a wide BVH, it does not attempt such distributed computation but operates on a single SIMD lane per ray instead. Shallower hierarchies reduce the number of visited nodes and memory accesses during traversal, but they typically increase the number of ray-box and ray-triangle intersection tests. Wider BVHs also contain fewer nodes in total, reducing memory consumption of the hierarchy.
DrFreaK666
2024-09-04, 16:20:29
Geb nur das wider, was Kepler von sich gibt
https://x.com/Kepler_L2/status/1829466208145494016
Dino-Fossil
2024-09-04, 16:23:59
RDNA4 sollte 2x relative RT Performance schon erreichen können
Alle einsteigen bitte, der Hype Train ist bereit zur Abfahrt! :ugly:
Ernsthaft, damit wäre RDNA4 Einheitennormiert besser als nVidia. Wird sicherlich nicht passieren. Alles über +25% RT (normiert auf die CU) in realen Spielebenchmarks wäre schon exzellent, alles über +50% absolut phänomenal und extrem unwahrscheinlich.
Realistisch gehe ich von weniger als +20% RT-Leistung pro CU aus.
2X RT bekommst du höchstens wenn man Rechentricks anwendet und sehr ungleiche Chip-Größen unter unterschiedlichen Betriebspunkten vergleicht.
basix
2024-09-04, 16:27:24
Ich habe die RT Performance in sich gemeint. Sorry wenn das missverständlich war. Die Framerate wird dadurch nicht 2x steigen auser in evtl. Pathtracing Geschichten, wo RT irgendwie 90% der Frametime ausmacht. Im Schnitt über viele Spiele wird es natürlich deutlich weniger sein, da der RT-Anteil geringer ist.
Mit der gezeigten Performance von letzter Seite wäre man immer noch deutlich langsamer als Lovelace: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13608969#post13608969
Wenn es gut läuft erreicht N48 eine 3090 Ti / 4070 bei Pathtracing. Ohne Pathtracing und bei hybriden Ansätzen wird man natürlich näher an Lovelace rankommen können. Aber übertrumpfen eigentlich nicht. Wenn es eine 4070 wird, stünden 64 CU vs. 48 SM im Raum, bei gleichzeitig mehr Takt. Nvidia bliebe damit Einheiten- und Taktnormert immer noch deutlich vorne.
Nichtsdestotrotz wäre eine solche Performance für RDNA4 bereits ziemlich ordentlich. (Achtung optimistisch) 4070 bei Pathtracing und 4080 bei RZ. Bei RT irgendwo dazwischen. Mit 16 GByte und ~500$ ein schönes Angebot. Nvidia bleibt immer noch RT-Champion.
robbitop
2024-09-04, 16:32:22
Ich will RDNA4 in SF3
Die Technologie klingt interessant und es ist auch endlich mal ein neuer Full Node. Aber in den letzten Jahren hat Samsung leider immer Performance und Power Nachteile gehabt beim gleichen Prozessschritt. Insofern muss man erstmal sehen was in der Praxis dabei herauskommt. Ich tippe darauf, dass N3E wahrscheinlich (trotz fehlendem GAA) wieder vorn liegen wird.
Wäre aber super (für den Wettbewerb) wenn es dieses Mal anders werden würde.
RDNA4 sollte 2x relative RT Performance schon erreichen können, zumindest mit den neuen RT-Cores (auch wenn kein HW BVH-Traversal dabei sein sollte). BVH8 bringt doppelten Throughput pro RT-Core und gleichzeitig könnte es für die selbe Anzahl Nodes die Anzahl Traversal Steps halbieren. Gerade der BVH-Traversal sollte durch die Reduktion von Anzahl Steps gut profitieren können. Gleichzeitig reduziert es die benötigte Bandbreite und Memory Footprint:
https://github.com/jan-van-bergen/GPU-Raytracer
Breitere BVH benötigen mehr Ray/Box und Ray/Triangle Tests, was bei RDNA4 ebenfalls zum BVH4 -> BVH8 Update passt. Ich sehe da in folgendem Paper sehr viel, was für RDNA4 passen könnte https://research.nvidia.com/sites/default/files/publications/ylitie2017hpg-paper.pdf
In der Resultats-Tabelle sehe ich 2-3x Performance verglichen mit einem 4-wide BVH Ansatz (Table 4 & 5, Titan X Maxwell und Titan X Pascal).
Das wäre dann aber auch nur aufgebohrtes Level 2. Ja die IMG Skala ist nicht universell. Aber intuitiv habe ich Zweifel, dass eine Verdopplung der Performance in heavy RT Spielen nur damit möglich ist. Rein intuitiv würde ich annehmen, dass da mehr als nur mehr Durchsatz für Intersections + schnelleres SW BVH notwendig sein könnte.
Bei RDNA3 wurde iirc beides auch schon etwas aufgebohrt ggü RDNA2 und es hat je nach Fall auch was gebracht aber es war immer noch ziemlich unbeeindruckend.
basix
2024-09-04, 16:46:36
Die Änderung von RDNA3 hat primär die Ausnutzung der bestehenden Einheiten verbessert. RDNA4 soll die HW verdoppeln und gleichzeitig die Anzahl Traversal-Steps faktisch halbieren (wird effektiv leicht mehr als 50% übrig bleiben, also nicht ganz eine Halbierung). Also genau die zwei grössten Bottlenecks. Dazu noch weitere Optimierungen und verbesserte Ausnutzung. Wenn das sich noch gut mit den entsprechenden Caches trifft (LDS, L0, L1, Texture, etc.) dann ist das nicht so abwegig.
Edit:
Hier noch ein cooles Paper, welches ebenfalls mit BVH8 arbeitet und ohne Branching im inneren Node auskommt: https://dl.acm.org/doi/pdf/10.1145/3105762.3105785
https://www.highperformancegraphics.org/wp-content/uploads/2017/Papers-Session2/HPG2017_AcceleratedSingleRayTracing.pdf
AMD mit SIMD32 wäre nach WiVe ein "BVH8-quarter" Ansatz.
Und hier ein Paper über den State-of-the-Art von 2021, wo verschiedene Verbesserungen aufgezeigt werden, welche hinsichtlich RDNA4 vom Zeitrahmen her passen würden: https://diglib.eg.org/bitstream/handle/10.1111/cgf142662/v40i2pp683-712.pdf
The efficiency gain obtained by WiVe is made possible by transforming node ordering and stack-push operations from conditional scalar execution paths to constant-time vector operations, making them ideal for current and future massively parallel micro architectures. Furthermore, we have introduced WiVeC to accelerate traversal of coherent rays, using the WiVe methodology.
horn 12
2024-09-04, 19:24:27
Was nützt mir selbst als 7900XTX Besitzer RDNA 4 wenn jener bei Raster nicht auf 7900XTX Leistung ist/ kommt
und der Nachfolger von RDNA 3 in Groß kommt wohl frühestens in 12 - 14 Monaten daher!"
Zudem falls RDNA 4 bei Raytracing vielleicht 30 bis 35% über einer 7900XTX rauskommt bei Weniger Ram und dafür auch geringe 230/240 Watt Verbrauch!
Spielbar werden die Games dadurch auch nicht.
Leiser und Besser/ Idealer Kühlbar werden die Karten sicherlich!
DrFreaK666
2024-09-04, 20:15:11
Dir nützt es natürlich nichts.
Ehemalige 6900XT Besitzer haben sich auch keine 7700XT oder 7800XT gekauft
AlterSack
2024-09-04, 20:41:35
Was nützt mir selbst als 7900XTX Besitzer RDNA 4 wenn jener bei Raster nicht auf 7900XTX Leistung ist/ kommt
und der Nachfolger von RDNA 3 in Groß kommt wohl frühestens in 12 - 14 Monaten daher!"
Zudem falls RDNA 4 bei Raytracing vielleicht 30 bis 35% über einer 7900XTX rauskommt bei Weniger Ram und dafür auch geringe 230/240 Watt Verbrauch!
Spielbar werden die Games dadurch auch nicht.
Leiser und Besser/ Idealer Kühlbar werden die Karten sicherlich!
Man muss auch nicht jede Generation konsumieren.
Ich spiele seit 5 Jahren mit einer Vega56.
Mir würde so ein teil schon gefallen, wenn der Verbrauch nicht über einer 7800xt liegen sollte. ...besser darunter!
dildo4u
2024-09-05, 06:58:42
Massiv mehr RT als RDNA2 ist immer noch wenig daher ist das nicht unwahrscheinlich das PS5 Pro Faktor 3-4 erreicht und man ist immer noch unter einer 4070.
PS5 wie hier bei 10? FPS.
https://i.ibb.co/KNPd8hN/Screenshot-2024-09-05-065716.png (https://ibb.co/289xph8)
www bild e (https://de.imgbb.com/)
Lurtz
2024-09-05, 08:44:04
"Full RT" wirst du auf einer Konsole eh nicht sehen.
Massiv mehr RT als RDNA2 ist immer noch wenig daher ist das nicht unwahrscheinlich das PS5 Pro Faktor 3-4 erreicht und man ist immer noch unter einer 4070.
PS5 wie hier bei 10? FPS.
https://i.ibb.co/KNPd8hN/Screenshot-2024-09-05-065716.png (https://ibb.co/289xph8)
www bild e (https://de.imgbb.com/)
Diese absoluten Worst-Case-Scenarien sind nicht repräsentativ. Ich würd mich sich darüber freuen, wenn du hier mal die Kirche im Dorf lassen würdest. Wenn RDNA4 mehr Hardware für RT bieten kann, würde die RT-Leistung selbstverständlich bei solchen Scenarien automatisch größer werden als bei Real World RT. Die Konsolen haben im gleichen Atemzug mit dieser Auspräguing des Wukong-Spiels nun überhaupt gar nichts verloren, das ist nicht mal ein Äpfel mit Birnen-Vergleich, eher Äpfel mit Kartoffeln, das nicht mal ne andere Liga, das ist ein anderer Sport.
robbitop
2024-09-05, 09:13:40
Ich denke wenn die Gerüchte von 3-4x RT Performance sprechen, dann meinen diese ggf. keine Gameperformance sondern eine Beschleunigung des Anteils der Frametime, die für RT genutzt wird.
Wenn die RT Last gering ist (da wo RDNA2-3 wenig Rückstand hat), ist auch der Vorteil gering. Wenn die RT last sehr hoch ist (da wo es viel Rückstand gibt) wächst der Vorteil auch. Entsprechend macht es schon Sinn auf Fälle zu zeigen, wo die RT Last hoch ist. Aber auch dort ist ein nicht unwesentlicher Teil der Frametime kein RT - bedeutet also man kann die FPS nicht mit dem Multiplikator 3-4x (PS5Pro) multiplizieren.
Es schwirrt ja 2x für RDNA4 herum - ggf war das die Zahl für ein RT Spiel mit unbekannter Last. Ich vermute aber mal, damit doppelte Framerate auch wirklich rauskommt, muss schon richtig ordentlich die RT Pipeline beschleunigt werden (also mehr als nur Faktor 2 - Faktor 3-4 der PS5PRO könnten da dann nötig sein).
dargo
2024-09-05, 09:18:25
"Full RT" wirst du auf einer Konsole eh nicht sehen.
Korrekt... ich nenne es nur nicht Full-RT sondern Lederjacken Stunts damit der eigene Topdog der neuesten Generation für ~2.000€ seine Daseinsberechtigung findet. :D
Ich denke wenn die Gerüchte von 3-4x RT Performance sprechen, dann meinen diese ggf. keine Gameperformance sondern eine Beschleunigung des Anteils der Frametime, die für RT genutzt wird.
Ja natürlich, was denn auch sonst? :freak: Wir haben doch überall einen hybriden Ansatz in Spielen. Da ist es doch logisch, dass Applikationen mit sehr hoher RT-Frametime bei deiner Prognose stärker zulegen als Applikationen mit niedrigen bis mittleren RT-Frametime. Muss man das echt noch erklären? :freak:
Korrekt... ich nenne es nur nicht Full-RT sondern Lederjacken Stunts damit der eigene Topdog der neuesten Generation für ~2.000€ seine Daseinsberechtigung findet. :D
Irgendwann, hoffentlich nicht erst im nächsten Jahrzehnt, wird AMD ebenfalls die Worte "Path" und "Tracing" in einem Satz verwenden und bewerben. Dann sind wir angekommen und es ist klar: Eigentlich wollten wir alle schon immer da hin. Seit 2018 ist bereits unheimlich viel passiert. =)
MfG
Raff
dildo4u
2024-09-05, 09:23:56
Star Wars ist auch RT Limitert ohne die Nvidia Effekte eine PS5 Pro Version sollte besser aussehen als 7900XTX.(Besseres Upsampling, höhere RT Performance?)
8800XT fehlt halt das KI Upsampling.
dargo
2024-09-05, 09:26:07
Irgendwann, hoffentlich nicht erst im nächsten Jahrzehnt, wird AMD ebenfalls die Worte "Path" und "Tracing" in einem Satz verwenden und bewerben. Dann sind wir angekommen und es ist klar: Eigentlich wollten wir alle schon immer da hin. Seit 2018 ist bereits unheimlich viel passiert. =)
Ja... von ~280W sind wir aktuell bei 450W und bald womöglich bei 500+W. :uup:
Whataboutism (https://extreme.pcgameshardware.de/threads/warhammer-40k-space-marine-2-im-test-geiles-spiel-geile-tech.652940/#post-11684634). ;)
MfG
Raff
dargo
2024-09-05, 09:31:36
Ich spreche nicht von irgendwelchen Undervoltings sondern Stock Betriebspunkten vom IHV. Sonst kann ich dir auch mit meiner RX 6800XT @~200-210W um die Ecke kommen. :rolleyes: Und wenn ich auf ~3-5% Performance verzichte vs. Referenz sind auch 150W für die gesamte Karte drin.
robbitop
2024-09-05, 09:36:14
Ja natürlich, was denn auch sonst? :freak: Wir haben doch überall einen hybriden Ansatz in Spielen. Da ist es doch logisch, dass Applikationen mit sehr hoher RT-Frametime bei deiner Prognose stärker zulegen als Applikationen mit niedrigen bis mittleren RT-Frametime. Muss man das echt noch erklären? :freak:
Es gibt so manche, die einfach FPS multiplizieren. Auch hier im Thread. Also offenbar ja.
dargo
2024-09-05, 09:46:49
Verrückt. :freak:
Badesalz
2024-09-05, 11:07:22
Ich spreche nicht von irgendwelchen Undervoltings sondern Stock Betriebspunkten vom IHV.Wenn das alles einfach so geht, dann sollen sie die Teile auch direkt so rausbringen.
Oder die Vorproduktion von Raff abstimmen lassen.
robbitop
2024-09-05, 11:11:11
Es gab ja mal einfach 2x Varianten. IIRC war das Fijii. Da gab es eine mit hohem Betriebspunkt und eine mit optimiertem. Fijii Nano hieß letztere. Der Ansatz hat sich nie durchgesetzt.
Was es auch öfter mal gibt ist dual bios mit einem low power und einem high power mode. Da kann man dann ja auch einfach den flip switch auf low power / quiet setzen.
Badesalz
2024-09-05, 11:17:33
Was es auch öfter mal gibt ist dual bios mit einem low power und einem high power mode. Da kann man dann ja auch einfach den flip switch auf low power / quiet setzen.Hab ich selbst sowas. Ob NV das mit der 5090 einführt? "1xPSU" und "2xPSU" Schalter?
RT war bisher meist auch nur ein Bullshitbingo aus Spiegelungen. Erst RT-PT macht draus etwas allgemein gutes.
DrFreaK666
2024-09-05, 12:12:35
...8800XT fehlt halt das KI Upsampling.
Woher willst das wissen?
robbitop
2024-09-05, 12:26:43
Ist noch kein Fakt - aber bis dato wurden Upsampling Verfahren unabhängig von HW Launches vorgestellt. Es ist zumindest nicht sehr wahrscheinlich dass zum Launch ein KI Upsampling verfügbar sein wird. (1) bis dato keine Gerüchte oder Leaks (2) hätte AMD das in der Pipeline wäre PSSR nicht nötig gewesen.
Es ist zwar noch unklar wie die Matrix HW in RDNA4 aussieht (also echte Matrix FPUs oder wieder nur über die Vektor FPUs) - aber nicht auszuschließen, dass es nicht irgendwann ein KI Upsampling Verfahren von AMD gibt, was darauf läuft.
Streng genommen haben heute aber alle modernen GPUs bereits Zugriff auf ein KI Upsampling mit XeSS. Denn das nutzt auch im dp4a Pfad ein Neuronales Netzwerk - allerdings ein weniger komplexes als in der XMX Version. ^^
Sumpfmolch
2024-09-05, 12:34:07
Dir nützt es natürlich nichts.
Ehemalige 6900XT Besitzer haben sich auch keine 7700XT oder 7800XT gekauft
Und wenn die RDNA4 bei RT wieder nur bei 30% über 7900xtx rauskommen, kann man auch nochmal weitere zwei Jahre auf der 6900XT bleiben.
Spart auch viel Geld und vielleicht kommt ja ein gutes Performanceupgrade zu brauchbarem Preis auf eine 5060.
Dino-Fossil
2024-09-05, 12:36:10
Gab es nicht mal vor einigen Monaten Andeutungen durch Mark Papermaster von AMD, dass man daran arbeitet, FSR mit KI aufzuwerten? In dem Interview wurde sogar 2024 im Zusammenhang genannt, allerdings muss das nicht zwangsläufig für ein potentielles KI-FSR gelten.
Aber es stimmt schon, generell macht AMD seltener Launches von neuer Software zusammen mit der neuen Hardware, wohl auch zum Teil weil sie eher Hardware-agnostische Ansätze verfolgen (und evtl. die Software-Abteilung mal einfach nicht die Schlagkraft hat).
robbitop
2024-09-05, 12:39:12
Zumindest weiß man von nichts was kurzfristig fertig ist. Und zumeist kommen die Gerüchte ja schon Monate vorher. Was 2025/26 kommt ist noch unklar.
Ob man unbedingt KI braucht für's Upsampling? TSR aus UE5.4 zeigt, dass es auch ohne KI sehr sehr gut funktionieren kann.
Dino-Fossil
2024-09-05, 12:46:59
Wenn du einen überzeugten nVidianer fragst, ist die Antwort klar ja ;)
Hakim
2024-09-05, 12:48:08
Ich hätte gerne die 8800/8800XT und 5070/5060ti beides auf den Markt das ich in Ruhe vergleichen und entscheiden kann. Aber glaube die AMDs kommen halt deutlich früher raus. Mal sehen ob ich solange warten kann.
Badesalz
2024-09-05, 13:13:44
Aber es stimmt schon, generell macht AMD seltener Launches von neuer Software zusammen mit der neuen HardwareNeuerdings sogar beim Microcode :weg:
Ravenhearth
2024-09-05, 13:30:16
Nichtsdestotrotz wäre eine solche Performance für RDNA4 bereits ziemlich ordentlich. (Achtung optimistisch) 4070 bei Pathtracing und 4080 bei RZ. Bei RT irgendwo dazwischen. Mit 16 GByte und ~500$ ein schönes Angebot. Nvidia bleibt immer noch RT-Champion.
Hoffe etwas ähnliches für RDNA4, realistisch vielleicht auch etwas weniger. 7900 XT / 4070 Ti Super bei Raster würde mir auch reichen, dazu 250W TDP. Wäre ein schöner Ersatz für meine 6800.
DrFreaK666
2024-09-05, 16:57:52
Ist noch kein Fakt - aber bis dato wurden Upsampling Verfahren unabhängig von HW Launches vorgestellt.
FSR3 wurde beim Upsampling zwar nicht verbessert, aber es wurde mit RDNA3 angekündigt
AMD hat gestern die heiß ersehnte Radeon RX 7900 XTX sowie ihre kleine Schwester, die Radeon RX 7900 XT, vorgestellt. Im Rahmen der Präsentation kündigten die Amerikaner auch die neueste Inkarnation ihrer Upscaling-Technologie FSR 3.0 für 2023 an.
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/FSR-3-und-Hypr-RX-2023-Konkurrent-zu-DLSS-3-und-Nvidia-Reflex-1406667/
aufkrawall
2024-09-05, 17:32:26
Ob man unbedingt KI braucht für's Upsampling? TSR aus UE5.4 zeigt, dass es auch ohne KI sehr sehr gut funktionieren kann.
Na ja, mit RR ist auch dieses Thema abgehakt. Da kommt auch TSR lange nicht gegen an, ist einfach so. Das sieht einfach nur verrückt gut aus in The First Descendant.
robbitop
2024-09-05, 19:11:25
Na ja, mit RR ist auch dieses Thema abgehakt. Da kommt auch TSR lange nicht gegen an, ist einfach so. Das sieht einfach nur verrückt gut aus in The First Descendant.
Wobei RR ja kein Upsampler ist sondern ein denoiser. Und ja da scheint AI bis dato sehr sehr stark.
Tesseract
2024-09-05, 19:55:08
der unterschied zwischen gutem RT-denoise und upsampling ist fließend. es hat schon einen grund warum das ding "reconstruction" heißt.
aufkrawall
2024-09-05, 20:04:55
Wobei RR ja kein Upsampler ist sondern ein denoiser. Und ja da scheint AI bis dato sehr sehr stark.
RR ist auch ein Upsampler. Das größere Modell macht auch beim Upsampling ohne RT-Artefakte einen mitunter großen Unterschied zu den anderen DLSS Presets.
basix
2024-09-05, 22:31:23
Ja RR scheint ein deutlich getuntes DLSS zu beinhalten. Kostet dafür deutlich mehr Frametime. Netto ist Bildstabilität, Detailrekonstruktion und RT-Enhancement aber so gut, dass sich die Mehrkosten locker amortisieren.
robbitop
2024-09-06, 06:44:50
War RR in CP77 nicht sogar schneller als der reguläre denoiser?
basix
2024-09-06, 08:14:22
Bei CP2077, ja. Bei allen anderen Spielen die ich bis jetzt gesehen habe, kostet es mehr Performance.
Wäre schon cool, wenn AMD mit RDNA4 ein RR Äquivalent bringen würde. Evtl. ebenfalls mit ML/AI-Ansatz (via potentieller Matrix Cores).
The_Invisible
2024-09-06, 09:25:11
Ja RR scheint ein deutlich getuntes DLSS zu beinhalten. Kostet dafür deutlich mehr Frametime. Netto ist Bildstabilität, Detailrekonstruktion und RT-Enhancement aber so gut, dass sich die Mehrkosten locker amortisieren.
Bei Outlaws werden mit RR auch zwei RT settings automatisch auf max gesetzt: https://www.nvidia.com/en-us/geforce/forums/games/35/549353/star-wars-outlaws-ray-reconstruction/
Muss man auch aufpassen beim testen
basix
2024-09-06, 14:03:42
Bei CP2077 oder generell bei aktivierten "Full-PT" kann man RR on/off vergleichen und der Qualitätsunterschied ist schon enorm. Edges werden noch etwas überakzentuiert (deswegen der Hang zum Comic-Look) aber sonst eine deutliche Verbesserung.
DrFreaK666
2024-09-08, 23:43:41
AMD bestätigt, dass es keine High End RDNA4 geben wird
AMD deprioritizing flagship gaming GPUs: Jack Hyunh talks new strategy against Nvidia in gaming market
https://www.tomshardware.com/pc-components/gpus/amd-deprioritizing-flagship-gaming-gpus-jack-hyunh-talks-new-strategy-for-gaming-market?utm_medium=social&utm_source=twitter.com&utm_campaign=socialflow
Slipknot79
2024-09-09, 01:37:47
Weiß ned was Jack Huch da nun aussagen will.
Keine High End GPU hat AMD schon seit 20 Jahren am Start.
Man will Millionen Gamer erreichen sagt er. Hat man mit den Konsolen wohl verpasst. Oo
Na gut, eines can man trotzdem upleiten: Man will es mit Intel aufnehmen. oO
Man will sich also auf low budget und mainstream fokusieren. Offensichtlich hatte AMD also bisher keine <500EUR GPU im Programm. oO Nun wird man sie haben und schwupps, schon sind 40-50% Marktanteil incoming. (y) easy money.
Ich würde es mal so probieren, wie es der Meister geschafft hat. Lederjacke. Mit Leistung, mit features für die Gamer.
Alternative wäre noch: Preise deutlich senken, oder GPUs gleich verschenken.
Linmoum
2024-09-09, 01:41:57
"new strategy" ist aber auch schon ziemlich... beschönigt. Das bringt AMD jede Gen, nicht konkurrenzfähig an der Spitze zu sein. Bei RDNA2 hat man das auch nur nicht wegen der eigenen Produkte geschafft, sondern weil Nvidia einen massiv schlechteren Node für Ampere genutzt hatte. Dieses Glück wird AMD in Zukunft nicht mehr haben.
Wobei es diesmal dann ja so sein könnte, dass man nicht mal für eine xx80 einen Konkurrenten haben wird. Wo man dann auch wieder bei dem üblichen Problem ist: Das gesamte Portfolio verkauft sich schlecht(er), weil Halo-Produkte sich nach unten hin auswirken. Fehlender Mindshare. Schade, für den Kunden und den gesamten Markt insgesamt eine ziemlich schlechte Nachricht. Muss man jetzt auf Intel hoffen.
Slipknot79
2024-09-09, 01:52:42
>Nvidia has a stranglehold on discrete gaming GPUs with performance leadership and 88% of the market share, while AMD holds just 12% of the market.
88+12 = 100%
K, Intel ist weg vom Markt, das wars. (y) ("Intel negligible")
aufkrawall
2024-09-09, 02:13:15
Intel ist weg vom Markt
Die waren offenbar nie da. Eine weitere popelige 12GB-Karte mit unwesentlich besserem P/L-Verhältnis wäre auch wieder überflüssig wie ein Kropf.
reaperrr
2024-09-09, 03:36:36
Muss man jetzt auf Intel hoffen.
*prust*:lol: ;D :comfort:
Gut, dass ich gerade keinen Kaffee im Mund hatte...
Spoiler-Warnung:
Intel wird den Markt für diskrete Spiele-Desktop-Grakas eher früher als später auch ganz offiziell aufgeben, weil sie bei Perf/mm² nicht konkurrenzfähig genug sind, um zu AMD-artigen Preisen vertretbare Margen erzielen zu können und es sich auch nicht mehr leisten können, weiter reinzubuttern um irgendwann mal vielleicht AMD ein paar Prozentpunkte Marktanteil wegnehmen zu können, ohne dabei fett beizugeben.
Deren IP hängt zu weit zurück und durch die verkorkste Unternehmensstruktur und -kultur sowie Kündigungswelle werden die jetzt auch nicht plötzlich in 1-2 Jahren den AMD- geschweige denn Nvidia-Killer aus dem Hut zaubern.
ALC brauchte im gleichen Prozess fast doppelt so viele mm², um auf ähnliche Performance wie N33 zu kommen.
Also ist selbst RDNA3 trotz seiner Schwächen fast um Faktor 2 voraus.
Das ist schon ne Menge Holz, die BMG und Celestial prozessnormiert aufholen müssten, und RDNA4 scheint nochmal Fortschritt in einigen wichtigen Punkten zu bringen.
Intel wird wegen den iGPs weiter uArch-Fortschritte machen, aber an Mainstream-Desktop-Grakas lässt sich schlicht nicht genug Geld verdienen, wenn man bei Perf/Fläche nicht mit AMD und NV mithalten kann, und da zielt Intel auf ein sich bewegendes Ziel.
Und ohne konkurrenzfähige Perf/mm2 und Perf/W kannst HighEnd halt gleich ganz vergessen, weil dir sonst schon die Performance-Mainstream-Chips der Konkurrenz die Luft zum Atmen nehmen.
Zum Interview und RDNA4:
Das Interview bestätigt erstmal nur, dass kein RDNA4-HighEnd kommt, was schon länger ein offenes Geheimnis ist, und dass die beiden bekannten RDNA4-GPUs vielleicht wieder mehr auf starkes P/L und Marktanteil abzielen, statt Margen-Optimierung wie bei N31 zum Launch.
Er lässt außerdem durchklingen, dass sie halt erst wieder in Erwägung ziehen, oben anzugreifen, wenn sie ein funktionierendes Chiplet-System für GPUs haben und für HighEnd keine ganze eigene GPU mehr designen müssen. Das ist nach aktueller Gerüchtelage für RDNA5 genau der Plan.
Kann es sein, dass es wieder nix wird? Klar.
Steht das fest? Nein.
DrFreaK666
2024-09-09, 08:02:15
Witzig, dass 4090-User wieder den Untergang AMDs herbeibeschwören.
Ist im Blackwell-Thread nichts los?
Linmoum
2024-09-09, 08:19:53
Sehe hier keinen inhaltlichen Post zu irgendeiner 4090 oder was soll dieser Quatsch schon wieder? Dass fehlende Konkurrenzfähigkeit - auch im High-End - für den Markt und damit die Kunden eine schlechte Nachricht ist, steht ja wohl außer Frage.
AMD hat es auch schon in der Vergangenheit mit der Strategie nach mehr Marktanteilen versucht. Auch das war nur semi-erfolgreich, Und mittlerweile reicht nicht nur die Hardware, sondern auch Software/Ökosystem müssen dazu passen. Das wird für AMD am Ende IMO das viel größere Problem, als (auf dem Papier) konkurrenzfähige Hardware zu designen.
RitterRost
2024-09-09, 08:27:29
Das sind ja gute Nachrichten von AMD.
Dann wird es endlich mal mit den Preisen nach unten gehen - anders können sie ja kaum den Marktanteil vergrößern.
dildo4u
2024-09-09, 08:34:10
Ist es nicht so das die Fetten Karten die Forschung finanzieren?
Das Dauernde warten bis andere die Technologie Entwickeln scheint mir keine Lösung für den Erfolg wer weiß ob Sony z.b sein Upsampling freigibt.
Kann sein das PS5 Pro bessere Bildqualität hat als 8800XT.
DrFreaK666
2024-09-09, 09:01:39
Sehe hier keinen inhaltlichen Post zu irgendeiner 4090 oder was soll dieser Quatsch schon wieder? Dass fehlende Konkurrenzfähigkeit - auch im High-End - für den Markt und damit die Kunden eine schlechte Nachricht ist, steht ja wohl außer Frage...
Polaris und RDNA1 vergessen?
Die haben sich auch ohne "Halo-Produkt" verkauft
robbitop
2024-09-09, 09:16:12
Weiß ned was Jack Huch da nun aussagen will.
Keine High End GPU hat AMD schon seit 20 Jahren am Start.
Naja die Radeon 6900XT und 6950XT waren abseits RT absolut auf einer Höhe mit ihren Pendants aus der Nvidia Ampere Generation.
Davor war die R290X mit GK110 (780/780ti/Titan) auch auf einer Augenhöhe.
AMD hat allerdings sehr wenig davon gehabt High End GPUs zu haben. Insofern macht die Strategie nur im Midrange unterwegs zu sein ggf mehr Sinn.
Ist es nicht so das die Fetten Karten die Forschung finanzieren?
Das Dauernde warten bis andere die Technologie Entwickeln scheint mir keine Lösung für den Erfolg wer weiß ob Sony z.b sein Upsampling freigibt.
Kann sein das PS5 Pro bessere Bildqualität hat als 8800XT.
Halte ich für Unsinn. PSSR wird in etwa auf AMDs als AI-FSR umgesetzt werden, dürften alle ab RDNA3 dann können. Wirst sehen, dass da was kommt. Ich glaub auch nicht, dass es da irgendwelche Hemmnisse gibt, dass AMD PSSR verwenden kann, das wird einfach nicht 100% auf den PC passen.
BlacKi
2024-09-09, 09:18:57
amd muss auf der softwareseite liefern, sonst wir die nischenposition weiter ausgebaut. aber selbst dort läuft amd nur hinterher. und siehe da, das liegt nicht am geld wie vor 6-10 jahren. die haben jetzt massig geld, und trotzdem baut man ab, statt aufzubauen. selbst in einer zeit, wo drittanbieter einsteigen verkackt amd.
Das sind ja gute Nachrichten von AMD.
Dann wird es endlich mal mit den Preisen nach unten gehen - anders können sie ja kaum den Marktanteil vergrößern.
die könnten auch jetzt schon die preise senken um marktanteile zu gewinnen. marktanteile sind wohl kein großes ziel für amd das es zu erreichen gilt.
dildo4u
2024-09-09, 09:19:00
Ich dachte PS5 Pro hat extra KI Hardware vergleichbar mit einer NPU und dort läuft das Upsampling.
robbitop
2024-09-09, 09:24:39
*prust*:lol: ;D :comfort:
Gut, dass ich gerade keinen Kaffee im Mund hatte...
Spoiler-Warnung:
Intel wird den Markt für diskrete Spiele-Desktop-Grakas eher früher als später auch ganz offiziell aufgeben, weil sie bei Perf/mm² nicht konkurrenzfähig genug sind, um zu AMD-artigen Preisen vertretbare Margen erzielen zu können und es sich auch nicht mehr leisten können, weiter reinzubuttern um irgendwann mal vielleicht AMD ein paar Prozentpunkte Marktanteil wegnehmen zu können, ohne dabei fett beizugeben.
Deren IP hängt zu weit zurück und durch die verkorkste Unternehmensstruktur und -kultur sowie Kündigungswelle werden die jetzt auch nicht plötzlich in 1-2 Jahren den AMD- geschweige denn Nvidia-Killer aus dem Hut zaubern.
ALC brauchte im gleichen Prozess fast doppelt so viele mm², um auf ähnliche Performance wie N33 zu kommen.
Also ist selbst RDNA3 trotz seiner Schwächen fast um Faktor 2 voraus.
Das ist schon ne Menge Holz, die BMG und Celestial prozessnormiert aufholen müssten, und RDNA4 scheint nochmal Fortschritt in einigen wichtigen Punkten zu bringen.
Intel wird wegen den iGPs weiter uArch-Fortschritte machen, aber an Mainstream-Desktop-Grakas lässt sich schlicht nicht genug Geld verdienen, wenn man bei Perf/Fläche nicht mit AMD und NV mithalten kann, und da zielt Intel auf ein sich bewegendes Ziel.
Und ohne konkurrenzfähige Perf/mm2 und Perf/W kannst HighEnd halt gleich ganz vergessen, weil dir sonst schon die Performance-Mainstream-Chips der Konkurrenz die Luft zum Atmen nehmen.
Zum Interview und RDNA4:
Das Interview bestätigt erstmal nur, dass kein RDNA4-HighEnd kommt, was schon länger ein offenes Geheimnis ist, und dass die beiden bekannten RDNA4-GPUs vielleicht wieder mehr auf starkes P/L und Marktanteil abzielen, statt Margen-Optimierung wie bei N31 zum Launch.
Er lässt außerdem durchklingen, dass sie halt erst wieder in Erwägung ziehen, oben anzugreifen, wenn sie ein funktionierendes Chiplet-System für GPUs haben und für HighEnd keine ganze eigene GPU mehr designen müssen. Das ist nach aktueller Gerüchtelage für RDNA5 genau der Plan.
Kann es sein, dass es wieder nix wird? Klar.
Steht das fest? Nein.
Naja Xe2 sieht auf LNL erstmal ziemlich gut aus. Es braucht natürlich weitere Analysen um zu schauen wie viel Transistoren sie dafür brauchen und wie viel Leistung das Ding schluckt.
Aber immerhin hatten sie mit Alchemist eine modernere uArch (high level zumindest) als RDNA3 und immerhin ein eigenes KI Upsampling. Und BMG hat wohl einiges aufgeholt an Overhead und Effizienz. Ich würde die IP noch nicht abschreiben. Stimme dir aber zu dass es bei dGPU wahrscheinlich nicht reichen wird. Intel hat leider genau jetzt wo es mit dGPUs langsam Fahrt aufnimmt kein Geld mehr und zieht überall Sparprogramme durch.
Und dass man viele Jahre braucht um an AMD und NV heranzukommen war ja eigentlich klar. Der Weg dahin sind halt einige zweitklassige Generationen. Sie haben ja praktisch bei 0 (nicht ganz) angefangen als beschlossen wurde man meint es ernst mit dGPU und Gaming. Deren bisherige (bis gen11) GPU IP war eher dafür gemacht günstig im Office Bereich eine IGP bereitzustellen. Mit damals relativ vielen checklist features. Aber was beim Gaming abgeliefert wurde hat halt nicht gepasst. Also alles neu. :)
Eigentlich schade, dass Intel erst so spät angefangen hat mit dGPUs für Gaming (das Uralt Ding von 1998 mal ignoriert). Als sie noch das Geld dazu hatten, hätten sie sicherlich die Transition die viele Jahre dauert durchgehalten. Wahrscheinlich braucht es mit viel Willenskraft und Geld 3-4+ Generationen…
fondness
2024-09-09, 09:35:19
amd muss auf der softwareseite liefern, sonst wir die nischenposition weiter ausgebaut. aber selbst dort läuft amd nur hinterher. und siehe da, das liegt nicht am geld wie vor 6-10 jahren. die haben jetzt massig geld, und trotzdem baut man ab, statt aufzubauen. selbst in einer zeit, wo drittanbieter einsteigen verkackt amd.
Naja Software, AMD hat schon lange die besseren Treiber, speziell wenn man Linux auch noch berücksichtigt. AMD hat auch mittlerweile das bessere FG. Klar sie hinken bei FSR (noch) hinterher, aber die SW ist IMO schon lange nicht mehr das Problem. Und klar AMD hat jetzt mehr Geld, aber das wird offenkundig wo anders investiert. AMD hat viele Sparten und die Gaming-GPU-Sparte ist eine der wenigen die nur Geld verbrennt. Wurden sicher auch sehr viele Ressourcen der GPU-Sparte Richtung Instinct-Serie abgezogen.
die könnten auch jetzt schon die preise senken um marktanteile zu gewinnen. marktanteile sind wohl kein großes ziel für amd das es zu erreichen gilt.
Doch genau darum gehts, genau das sagt er auch im Interview. AMD braucht laut ihm ein Mindestmaß an Marktanteile, ansonsten optimieren alle Entwickler nur noch auf Nvidia. Und High-End ist laut ihm eben nur 10% des Marktes. Man will 80% des Marktes mit N44/48 abdecken. Preissenkungen sind keine Option weil die Leute den Preis mit der Qualität assoziieren, das hat man lange genug probiert.
DrFreaK666
2024-09-09, 09:47:14
amd muss auf der softwareseite liefern, sonst wir die nischenposition weiter ausgebaut. aber selbst dort läuft amd nur hinterher...
AMD hat AFMF und bald ist AFMF 2 final, was es noch nutzbarer macht.
Das ist schon ein Alleinstellungsmerkmal
Ich dachte PS5 Pro hat extra KI Hardware vergleichbar mit einer NPU und dort läuft das Upsampling.
Erstmal sind das alles nur Gerüchte.
Aber wenn man AutoSR als Beispiel nimmt, dann gibt es immer eine (geringe Zusatz-)Latenz, wenn Upscaling auf der NPU berechnet wird.
Altehardware
2024-09-09, 09:49:37
Wegern dem preis
Amd liegt aktuell nur in dxr hinten in raster ist man quasi bis auf dem high end sku gleichauf
Rdna4 wird in dxr fasst gleichziehen (-15% aktuell -107%)
Es komt halt auf die preise an udn da nvidia diesmla wieder auf samsung sf4 node in entry und mid range was bringt ist die frfage nur bei welchem Preislevel.
mein verdacht n44 350€ und n48 500€
nvidia gb206 400€ gb205 600€ Und amd maximal bis zum gb205 erreichen wird. wird alles darüber sehr teuer aber sehr effizient.
Da man in n4x produziert und den Takt komplett weglässt -20% Strom
Amd produziert angeblich in n4x das würde bedeuten das man die 3,4ghz anpeilt aber ich gehe auch von einen Verzicht beim n4 node Takt auch -20% Strom
Was den n44 auf maximal 160w tbp bringt bei +- rx6750xt perf
und den n48 auf rx7900xt perf bei grob 290w bringt
Damit wäre amd auf ada level an P/W
nvidia plan ist mittlerweile klar
mit samsung sf4x node billige entry chips bei grob 35$ und 45$
perf kleiner chip grob rtx3070ti bei 150w großer chip bei rtx4070ti bei 260w
Und das bei sku ab 379$ und 439$
richtig glücklich mit den sku daraus bin ich nicht
DrFreaK666
2024-09-09, 09:51:45
500€ wäre ein Traum.
Glaube aber nicht dran, da die 7900XT an 699€ klebt
dildo4u
2024-09-09, 09:57:32
Der Punkt der Chips ist Kosten zu senken gegenüber einer 7800XT und sie nutzt nur GDDR6.
Sie könnten diesmal mehr Karten bringen 12GB 400€,16GB 500€ und 16GB 600€ mit höherem TDP.
Damit könnten die OEM billiger Kühler bei 500€ verbauen um die Kosten weiter zu reduzieren.
BlacKi
2024-09-09, 10:03:38
AMD hat AFMF und bald ist AFMF 2 final, was es noch nutzbarer macht.
Das ist schon ein Alleinstellungsmerkmal
bis auf ein paar einzelne verpeilte nutzt keiner afmf. das ist für mich nur marketing. du kannst es auch garnicht so optimieren, das es problemlos nutzbar ist.
E39Driver
2024-09-09, 10:20:21
Die Kurve zum Marktanteilsverlauf bei dedizierten GPUs zeigt bei AMD seit 15 Jahren kontinuierlich nach unten. Der Trend ist bisher ungebrochen und selbst die kurzen Phasen, in dem man technisch vorne war, wurden vom Käufer nicht honoriert.
Denke AMD kann schon mit einer Stabilisierung des Marktanteils auf 20% zufrieden sein. Hier müsste man nicht viel investieren außer Midrange-Ableger der eh zu entwickelnden Konsolenchips zu releasen. Darauf deutet RDNA4 bisher auch hin. Aktuell zeigt der Trend eher Richtung 10% Marktanteil und ab da an wird's gefährlich werden, da auch die 3rd. Party-Softwareunterstützung damit in Frage gestellt werden wird.
Und die 20% Marktanteil sehe ich schon als mittelfristiges Best-Case Szenario... leider. Um wirklich auf einen für Käuferseite optimalen 50% - 50% Marktanteil zu kommen, müsste man über mehrere Generationen die überlegene IP liefern, genug Fertigungskapazität haben und gleichzeitig noch einen Preiskrieg beginnen. Gegen Nvidia und ihre gefüllte Kriegskasse ist dies unrealistisch. Intel als schlafender Gegner war hier mit Zen deutlich leichter zu überrumpeln.
EDIT: Und Intel ist meine Wette wird alsbald wieder aussteigen aus dem GPU Markt. Mag sein das die zweite Generation technisch konkurrenzfähiger ist und wäre schade drum. Aber die Sanierung wird Vorrang haben und der Geldhahn wird zugedreht werden
DrFreaK666
2024-09-09, 10:28:35
AMD's plan for the RDNA 4 GPU architecture is actually very clear, namely Navi 48 and Navi 44. If it is further subdivided, Navi 48 will include R24D-E8, R24D-E6 and Navi 44's R25D. - Four products including P8 and R25D-P4 are in AMD's current planning.
In any case, at this stage, AMD's AIB partners have begun boot testing of Navi 48 and Navi 44 based on the RDNA 4 GPU architecture. Related products will also be introduced to you at CES 2025.
https://wccftech.com/amd-launch-four-navi-48-navi-44-gpu-skus-rdna-4-radeon-rx-8000-lineup/
CES ist halt noch ewig hin... :frown:
Zossel
2024-09-09, 10:39:01
Wie groß mag die Chance sein das AMD aus dem GPU-Chiplet von Strix Halo eine Low-Power und Low-Cost eine dedizierte GPU auflegt?
Der_Korken
2024-09-09, 10:55:16
AMD hat es auch schon in der Vergangenheit mit der Strategie nach mehr Marktanteilen versucht. Auch das war nur semi-erfolgreich, Und mittlerweile reicht nicht nur die Hardware, sondern auch Software/Ökosystem müssen dazu passen. Das wird für AMD am Ende IMO das viel größere Problem, als (auf dem Papier) konkurrenzfähige Hardware zu designen.
Besser semi-erfolgreich als ein Flop. Für mich haben die Versuche, irgendein Halo-Produkt gegen Nvidia zu platzieren AMD imho nur in die Scheiße geritten. Angefangen beim R600, der anscheinend in der Entwicklung immer fetter und fetter wurde und dann einfach ein overengineerter Transistorhaufen ohne Leistung war. Mit RV670 und RV770 hat man sich - ohne Halo-Produkt - davon wieder halbwegs erholt. Der nächste Versuch war dann Fiji, der am Ende viel zu teuer für AMD war und trotzdem nichts gegen Nvidias 980Ti ausrichten konnte. Mit Polaris direkt danach lief es wieder etwas besser. Dann kam der Vega-Fehlschuss, wieder viel zu teuer und overengineered, RDNA1 als Mainstream-Nachfolger erneut deutlich besser. Jetzt hat sich AMD mit dem Chiplet-N40 offenbar so verkalkuliert, dass er komplett gecancelt wurde und AMD nun seit über 2 Jahren ohne neue Gen dasteht, obwohl bereits die letzte mit vielen Problemen zu kämpfen hatte. Und erneut scheint eine reine Mainstream-Gen die Lösung zu sein.
Ich sag mal so: Einen Highend-Chip zu entwickeln muss man sich erstmal leisten können. Die Architektur muss absolut top sein und es durfte an ihr nichts gespart werden. Im Zweifelsfall ist es wirtschaftlich erfolgreicher pro Gen einen guten Chip zu bringen als drei schlechte. Und diesen einen Chip platziert man da, wo man den meisten Umsatz abgreifen kann, d.h. <500€ und nicht >1000€. Bei Zen 1 hat AMD hier z.B. vieles richtig gemacht: Sie haben einen guten Chip entwickelt und diesen dann in den Marktbereichen verkauft wo es ging. Halo-Gaming war damit nicht drin, weil sie dafür ihren CCX-Aufbau gegen einen gesharten Ringbus wie Intel hätten tauschen müssen. Egal, dann verkauft man im Midrange eben billiger 6-Kerner. Threadripper und Epyc waren Bastelbuden, aber im Gegensatz zu Intel mussten sie hier nichts separat entwickeln. Hätten sie für alles angepasste Chips bzw. Cores designed, wären diese am Ende mangels Optimierung und Schliff womöglich langsamer als die one-size-fits-all-Lösung geworden.
So sehr sich einige über AMD lustig machen, ist es imho genau die richtige Strategie, die im Interview beschrieben wird. Dort wird zusätzlich noch der Software-Aspekt reingebracht: Marktanteil hat nicht nur einen finanziellen Aspekt sondern den Aspekt der Sichtbarkeit. Dadurch bekommen sie Optimierungen durch Entwickler ab, die an sich auch viel Wert sind.
RitterRost
2024-09-09, 10:58:14
amd muss auf der softwareseite liefern, sonst wir die nischenposition weiter ausgebaut. aber selbst dort läuft amd nur hinterher. und siehe da, das liegt nicht am geld wie vor 6-10 jahren. die haben jetzt massig geld, und trotzdem baut man ab, statt aufzubauen. selbst in einer zeit, wo drittanbieter einsteigen verkackt amd.
die könnten auch jetzt schon die preise senken um marktanteile zu gewinnen. marktanteile sind wohl kein großes ziel für amd das es zu erreichen gilt.
Ich bezog mich auf das TomsHardware Interview.
Das klingt für mich so, als will AMD Marktanteile gewinnen, um für PC-Softwareentwickler attraktiver zu sein.
Mit den komplexen (und vermutlich teuren 7900er GPUs) lässt sich wohl kein Preiskampf um Marktanteile führen.
Mit N48 dann hoffentlich schon.
Denniss
2024-09-09, 10:59:00
AMD braucht Marktanteile um im Grafiksektor überlebensfähig zu bleiben. Daher ist der Focus auf Masse und Kasse richtig denn im Mittelpreisbereich werden die meisten Karten abgesetzt und dadurch im Vergleich am meisten verdient.
BlacKi
2024-09-09, 13:25:21
AMD braucht Marktanteile um im Grafiksektor überlebensfähig zu bleiben. Daher ist der Focus auf Masse und Kasse richtig denn im Mittelpreisbereich werden die meisten Karten abgesetzt und dadurch im Vergleich am meisten verdient.sry, aber ist heute verkehrte welt tag?
mich würde interessieren, wie der wegfall von marktsegmenten die marktanteile steigern soll.
das klingt alles so, als hätte n31 kein geld eingefahren sondern wäre ein minus geschäft gewesen.
wenn sie marktanteile steigern wollen, dann geht das über die senkung des preises, bessere software und eroberung aller marktsegmente.
für mich ließt sich das alles nur so, das amd sparen will, denn wenn es um marktanteile gehen soll, so wie bei polaris und rdna1, dann ging es damals um die performance per euro. auch hier im fred freuen sich die leute um bessere performance per euro, aber eine bessere performance per euro wäre für amd auch heute schon möglich zu bieten, was sie aber scheinbar nicht vorhaben.
Redneck
2024-09-09, 13:33:47
bis auf ein paar einzelne verpeilte nutzt keiner afmf. das ist für mich nur marketing. du kannst es auch garnicht so optimieren, das es problemlos nutzbar ist.
Ich nutze es quasi immer... Egal ob aufm Monitor mit Witcher 3 oder Days gone oder mit nem VR Headset im Flightsimulator, Half life Alyx und Co. Finde AFMF superb.
Der_Korken
2024-09-09, 13:34:52
sry, aber ist heute verkehrte welt tag?
mich würde interessieren, wie der wegfall von marktsegmenten die marktanteile steigern soll.
das klingt alles so, als hätte n31 kein geld eingefahren sondern wäre ein minus geschäft gewesen.
Stell dir vor, AMD hätte N31 gar nicht entwickelt, sondern stattdessen zeitgleich einen bugfreien N32 vorgestellt, der bei gleichem Verbrauch und gleichen Produktionskosten 20% schneller als die jetzige 7800XT gewesen wäre, d.h. auf 4070Ti-Level. Diese Karten hätte AMD für eine deutlich bessere Marge als die 7800XT verkaufen können und dabei trotzdem ein besseres P/L als jetzt anbieten können, sodass auch mehr Leute gekauft hätten.
Wie ich bereits sagte: Lieber ein guter Chip als drei schlechte. Lieber in einem Marktsegment viel zu erträglicher Marge verkaufen als auf allen Hochzeiten zu tanzen aber dabei nichts zu verdienen.
raffa
2024-09-09, 13:36:44
Nunja, das Interview mit Jack Hyunh liest sich aber tatsächlich so, als hätten sie das vor, also Marktanteile gewinnen durch überzeugende Produkte unterhalb des high ends.
BavarianRealist
2024-09-09, 13:39:47
AMD braucht Marktanteile um im Grafiksektor überlebensfähig zu bleiben. Daher ist der Focus auf Masse und Kasse richtig denn im Mittelpreisbereich werden die meisten Karten abgesetzt und dadurch im Vergleich am meisten verdient.
AMD spricht von "80% TAM", was 80% vom Marktwert heißt. Ergo machen die Highend-GPUs (den AMD dann nicht bedienen könnte) nur sehr geringe Zahlen im niedrigen einstelligen %-Bereich, allerdings mit hohem ASP. Gleichzeitig hieße 80% TAM aber auch, dass Navi4x nur das echte Highend nicht erreicht, also auch eher auf 5070-Niveau kommen müsste...
Wenn AMD mit nur zwei Navi4x-GPUs das wirklich bedienen könnten, wäre das eine günstige Strategie, weil geringe Kosten bei hohem Umsatz.
Dazu müsste AMD wohl von Anfang an sehr aggressiv in den Markt gehen wollen, um in Richtung 40% des TAM zu kommen, d.h. dass sie klar >50% nach Stückzahlen anvisieren wollten.
Die Strategie kann aufgehen, weil Nvidia einen Preiskampf nicht grenzenlos mitmachen dürfte, weil dann auch deren Highend-GPUs entsprechend im Preis fallen würden: denn wie soll eine 5090 1500$ kosten, wenn es eine 8800XTX für 499$ auf etwa 5070-Nivea gäbe?
Diese Strategie kann aber nur funktionieren, wenn AMDs Navi44/48 günstig in der Fertigung sind (=kleine Dice bei hohen Zahlen) und möglichst wenig Anforderungen an die Graka stellen: also niedrige Leistungsaufnahme, um mit günstigem Kühler auszukommen bzw. für Gesamtsysteme ein kleineres Netzteil reicht. Zuletzt braucht es eine Effizienz, um die Dinger auch massig in die Notebooks zu bringen.
Ergo würde es bedeuten, dass AMD auch bei seinen Navi4x nun auf maximale Effizienz gesetzt haben dürfte, wovon auch Strix-Halo profitieren sollte, sofern Navi4x wirklich effizient sein sollte (worauf hin aber die relativ niedrigen maximalen Takte deuten würden).
The_Invisible
2024-09-09, 13:40:57
Wird ja interessant auf was dann aktuelle 7900xt/xtx besitzer aufrüsten wollen... Ob man so nicht selbst hartgesottene Highend-AMDler an NV verliert?
Ich glaub eher dass beide Käufer permanent verlieren in dem Leistungsbereich, da ja auch viele keine 400W für ne 80er akzeptieren werden.
raffa
2024-09-09, 13:48:26
Hyunh:
[..] Don’t worry. We will have a great strategy for the enthusiasts on the PC side, but we just haven’t disclosed it. We'll be using chiplets, which doesn't impact what I want to do on scale, but it still takes care of enthusiasts. [...] Don't worry, we won’t forget the Threadrippers and the Ryzen 9’s.
Ich lese das so: Sie werden MCM/Chiplet wie auch immer das dann genau heisst, Karten bringen, sobald sie die Prozesse dazu im Griff haben um so den Enthusiastenmarkt zu bedienen ohne dafür extra Chips entwickeln zu müssen.
Hakim
2024-09-09, 13:48:43
Wird ja interessant auf was dann aktuelle 7900xt/xtx besitzer aufrüsten wollen... Ob man so nicht selbst hartgesottene Highend-AMDler an NV verliert?
Naja man muss ja nicht jede Gen upgraden, die 7900xt und xtx sind noch schnell genug um eine Gen zu überbrücken, wenn man den sich keine NV Karte kaufen will
Das stimmt auch, ich hatte ja schon leichte Zweifel beim Kauf damals, aber das Ding hat sich echt bewährt. Aber ich weiss selbst nicht, ob ich in Zukunft noch irgendwelche GPUs in dem Bereich kaufen werde, 350W ist das Hardlimit, darüber kommt mir nichts mehr in den Rechner. Spart ja auch ne Menge Geld und wenn dann nicht alle RT-Freatures aktiv sind, egal.
reaperrr
2024-09-09, 14:58:25
Wird ja interessant auf was dann aktuelle 7900xt/xtx besitzer aufrüsten wollen... Ob man so nicht selbst hartgesottene Highend-AMDler an NV verliert?
Wenn es knapp 4080-Raster und 4070TiS-RT in <= 280W für ~500-550€ gibt, können die XT-Besitzer sich mit dem Top-N48 wohl schon verbessern, ohne auf NV umsteigen zu müssen.
XTX-Besitzer müssen die Gen halt aussitzen und bis 2026 warten, wenn sie nicht 1300-1500 für ne Greedvidia 5080 (mit übrigens auch nur 16GB) oder 2000 für ne 5090 ausgeben wollen.
Ich lese das so: Sie werden MCM/Chiplet wie auch immer das dann genau heisst, Karten bringen, sobald sie die Prozesse dazu im Griff haben um so den Enthusiastenmarkt zu bedienen ohne dafür extra Chips entwickeln zu müssen.
Jep, so habe ich das auch verstanden.
Laut Gerüchteküche ist exakt das auch der Plan für RDNA5, also vorausgesetzt sie rennen nicht in technische Hindernisse dabei, reden wir wohl "schon" von 2026, und nicht erst 2030.
Dino-Fossil
2024-09-09, 15:02:09
Nunja, das Interview mit Jack Hyunh liest sich aber tatsächlich so, als hätten sie das vor, also Marktanteile gewinnen durch überzeugende Produkte unterhalb des high ends.
Es liest sich auch ein wenig wie damals bei Polaris. Wenn man nichts anderes hat, muss man das eben möglichst gut verkaufen. Polaris war ja auch nicht schlecht, wenngleich sie in alter AMD Manier den Launch ein Stück weit verbockt haben.
Aber wenn sie einen RDNA4 High-End Chip zur Verfügung hätten, klänge das bestimmt ganz anders - ich glaube jedenfalls dass es eher der Notwendigkeit geschuldet ist, als das es von Anfang an so geplant gewesen wäre.
Die Strategie kann aufgehen, weil Nvidia einen Preiskampf nicht grenzenlos mitmachen dürfte, weil dann auch deren Highend-GPUs entsprechend im Preis fallen würden: denn wie soll eine 5090 1500$ kosten, wenn es eine 8800XTX für 499$ auf etwa 5070-Nivea gäbe?
Wäre mMn für AMD UND Kunden gut, da P/L bei GPUs sich verbessern würde. Ob sie aber wirklich preislich aggressiv auf den Markt drängen bleibt abzuwarten. Die letzten Jahre haben sie sich ja nicht unbedingt durch Preisschlachten hervorgetan. Am Ende ist man im 400-600€ Bereich bestenfalls vielleicht 50-100€ günstiger als nVidia, aber bei dem Mindshare den nVidia aktuell hat wird das nicht viel bewirken.
350W ist das Hardlimit, darüber kommt mir nichts mehr in den Rechner. Spart ja auch ne Menge Geld und wenn dann nicht alle RT-Freatures aktiv sind, egal.
Meines liegt ja eher bei 200W. :ugly: Aber mittlerweile wird das immer schwieriger, bzw muss man auf das Upgrade länger warten und evtl. in niedrigere GPU-Klassen gehen.
Die klassische GPU dürfte (nicht absehbare technologische Durchbrüche mal außen vor gelassen) da ein Stück weit in einer Sackgasse stecken.
Dino-Fossil
350W sind ja schon der Kompromiss, aber irgendwo ist auch mal schluss. Klar, das Softlimit läge auch bei mir bei 250W, dafür muss die GPU dann aber halbwegs akzeptabel sein, wie die 6800 damals. 200W und Leistung kam zwischendurch noch mal vor, ist schon seit Fermi nur noch best-case, heute ist das denke ich unrealistisch.
Felixxz2
2024-09-09, 16:53:51
Die Strategie is mMn komplett richtig. AMD braucht vor allem sehr gute Alternativen im Bereich der 4060 und 4070, da sind die Marktanteile und die installierte Basis. Hier kann man nVidia auch leichter schlagen und tightere Margen fahren.
Und AMD muss unbedingt bei den Features angreifen. Also ML-Upscaling und vor allem konkurrenzfähiges RT. Und vielleicht auch mal ein neues Fetaure vor nV bringen, auch das geht nur über die Masse der Karten und nicht über die Leistungskrone.
Lurtz
2024-09-09, 17:40:54
Wie will AMD denn bitte Marktanteile bekommen? Als würden die sich einen Preiskampf mit teuren TSMC-Chips leisten können/wollen.
Günstige Karten mit ausreichend Leistung 200-300W anbieten, die Leute würden denen das aus den Händen reißen. Von den Kosten her wird das kein Problem, wenn das Produkt stimmt, auch in N4. NV ist halt irrwitzig teuer.
rentex
2024-09-09, 17:56:26
AMD fährt die einzig richtige Strategie. Wäre früher besser gewesen.
Linmoum
2024-09-09, 17:59:18
Die Zielgruppe "günstig" kauft sich keine 200-300W Schluckspechte. Einen Preiskampf wird es eh nicht geben, dafür zahlt AMD für die Wafer genug. Zumal das schon damals bei Polaris nicht funktioniert hat, als sie die Chips verramscht haben.
reaperrr
2024-09-09, 20:25:09
Die Zielgruppe "günstig" kauft sich keine 200-300W Schluckspechte. Einen Preiskampf wird es eh nicht geben, dafür zahlt AMD für die Wafer genug. Zumal das schon damals bei Polaris nicht funktioniert hat, als sie die Chips verramscht haben.
Wie will AMD denn bitte Marktanteile bekommen? Als würden die sich einen Preiskampf mit teuren TSMC-Chips leisten können/wollen.
Was versteht ihr unter Preiskampf und woher kennt ihr die genauen Herstellungskosten der RDNA4-Karten?
N48 wird mMn günstiger herzustellen sein als N32 und N21, die man beide auf Karten unter 500€ bekommt, und im Top-Modell schneller als ne 7900XT.
Wenn AMD die N48-XT für 499$/549€ bringt, ist das vom P/L ein ziemlich aggressiver Angriff, ohne dass es AMD in Sachen Marge wehtut.
Außerdem kommt N48 offenbar vor der 5070, muss also erstmal nur gegen Ada konkurrieren. Die wiederum wird NV nicht großartig im Preis senken wollen (vor allem nicht die 4070TiS und 4080), dann würde nämlich die Nachfrage plötzlich hochgehen und NV müsste mehr Chips für weniger Marge verkaufen, was sie nicht wollen.
Sardaukar.nsn
2024-09-09, 20:50:16
AMD fährt die einzig richtige Strategie. Wäre früher besser gewesen.
Der vernünftige Weg für AMD wird über solide Preis/Leistung gehen. In der wichtigen 1440p Zielgruppe steht man aktuell auch ganz gut da.
https://i.imgur.com/WWIhHpD.jpeg
https://i.imgur.com/x9AGCsL.jpeg
Quelle: https://www.computerbase.de/2024-09/radeon-chef-high-end-grafikkarten-sind-fuer-amd-weiterhin-kein-thema/
Die Frage ist natürlich ob die Kunden auch so rational sind? Bei den CPUs werden ja oft sehr hohe Aufpreise (X3D) für kleine Performance Sprünge gezahlt.
raffa
2024-09-09, 21:11:34
Der X3D ist aus verschiedenen Gründen ein "will haben" Produkt - Sowas bräuchte AMD bei den Grafikkarten auch.
Angenommen, die 8800xt kommt mit <200W daher und wischt mit der 4070ti den Boden auf, dann verkauft sie sich quasi von allein zu einem für AMD ordentlichen Preis.
Altehardware
2024-09-09, 21:36:38
Der preistreibr bei gpu ist nichtd er chip der ist günstig und kann zwischen 40-100$ sein sondern schlicht vram
Den lassen sich amd sowie nvidia vergolden da man als aib nur in Paketen das kaufen kann. Mit bom dazu oder ganz als aib schraubst deinen lukü drauf fertig.
Die komplett ref pcb sind sogar so teuer das die aib lieber selber welche designen mit nenn günstigen lukü weil man damit mehr verdient.
amd verkauft prinzipiell nur ref pcb mit gpu vram zusammen. Eigene pcb kann man machen wäre aber teurer.
also ist entscheidend wie teuer die sku werden vom vram preis und der ist mehr oder minder bekannt.
robbitop
2024-09-10, 07:15:38
Zumindest im Einkauf ist VRAM eine sehr billige commodity.
Kriegsgeier
2024-09-10, 07:27:08
Warum wollen die Radeon Leute nicht verstehen:
es ist nicht die geringe Leistung der AMD Grakas, die einen NVIDIA User zum Wechsel abschreckt sondern die TREIBER-Politik bzw. Treiberkonstrukt seitens AMD.
Oder besser gesagt: Quasi KEINE vernünftige Treiberpolitik!
AN DEN TREIBERN LIEGT ES! Nur daran! Denn, Preisleistung stimmt bei AMD Grakas schon länger!
dargo
2024-09-10, 07:32:17
Was genau stimmt an den Treibern nicht?
Kriegsgeier
2024-09-10, 07:38:02
Spieleleistungen variieren wesentlich stärker als bei NVIDIA - ich führe es auf Inkonsequenz der Treiber. NVIDIAs Treiber/Software bringt die "PS" des Chips wesentlich konsequenter auf die Straße.
robbitop
2024-09-10, 07:38:33
Die Treiber sind schon länger richtig gut geworden
grobi
2024-09-10, 07:51:59
Würden gern von meiner RTX 3090 auf eine schnellere AMD-Graka umsteigen. Sie sollte das auch unter Raytracing sein. Gibt es schon Infos wo die Raytracingleistung bei RDNA4 ist?
Spiele und arbeite unter Linux.
mfg grobi
davidzo
2024-09-10, 07:53:41
Derzeit AMD user hier und ich sehe keine Treiberprobleme. Hatte vor dieser Karte 3 Generationen Nvidia.
Das was mich von den neuen AMDs abhält ist die nicht konkurrenzfähige Energieeffizienz, vor allem in Teillast und Idle, sowie wenig zukunftsfähige RT-Leistung. Dass FSR meist DLSS hinterher hinkt hilft auch nicht viel. Die 4070ti super ist imo derzeit einfach das bessere Angebot. P/L auf einem Niveau mit der 7900XT aber viel sparsamer und das gefühlt bessere Featureset (RT, pathtracing und DLSS).
Über die Treiber mache ich mir schon seit Jahren keine Gedanken mehr bei AMD, die laufen einfach.
RDNA4 könnte 2 von 3 Problemen ausräumen, also die schlechte Effizienz Idle und Teillast sowie die mangelnde RT Leistung. Der Rückstand FSR vs DLSS wird so schnell wohl nicht verschwinden, aber immerhin bekommt man immer updates auf dem Niveau von Nvidia vor 10Monaten. Fragt sich nur was nvidia in der Zeit noch neues auspackt um mir den Deal zu versalzen.
dargo
2024-09-10, 07:59:40
Spieleleistungen variieren wesentlich stärker als bei NVIDIA - ich führe es auf Inkonsequenz der Treiber.
Was ein Quatsch wieder. Über 3 Jahre N21 im Rechner und absolut zufrieden. Sowohl mit der Leistung, der Effizienz (UV) als auch den Treibern.
DrFreaK666
2024-09-10, 08:15:48
...Der Rückstand FSR vs DLSS wird so schnell wohl nicht verschwinden...
Wieso denn nicht?
dildo4u
2024-09-10, 08:17:02
Kommt vermutlich drauf an was man zockt kleinere Games performen manchmal nicht auf AMD auch in RDNA Zeitalter.
Zwei Beispiele von 2024.
Banishers: Ghosts of New Eden Null raytracing 7800XT= 4060 TI
https://www.computerbase.de/2024-02/banishers-ghosts-of-new-eden-benchmark-test/3/
Manor Lords 7900XTX=4070 S
https://www.computerbase.de/2024-05/manor-lords-early-access-benchmark-test/#abschnitt_benchmarks_in_full_hd
AAA wird natürlich deutlich weniger Probleme machen.
Zossel
2024-09-10, 08:17:59
sowie wenig zukunftsfähige RT-Leistung.
Dieses Problem hat doch sämtliche real existierende Hardware.
dargo
2024-09-10, 08:22:25
Dieses Problem hat doch sämtliche real existierende Hardware.
Besser hätte ich es auch nicht formulieren können. :tongue:
E39Driver
2024-09-10, 08:23:34
Das mit den Treibern ist eine seit 10 Jahren veraltete Forenweisheit. Keine Ahnung warum das immer noch widergekaut wird.
Ich spiele aktuell auf einer Radeon 6800XT wie auf einer Geforce 3050. Beide Treiber sind absolut stabil, da gibt's keine Probleme. Was die GUI und Usability angeht finde ich den Radeon Treiber sogar besser, da alles in einer modernen Oberfläche verfügbar ist. Bei Nvidia macht die Aufteilung zwischen Nvidia-Systemsteuerung mit alter Windows 2000 Optik und dem Experience-Center mit Zwangsanmeldung so keinen wirklichen Sinn
DrFreaK666
2024-09-10, 08:30:38
Kommt vermutlich drauf an was man zockt kleinere Games performen manchmal nicht auf AMD auch in RDNA Zeitalter.
Zwei Beispiele von 2024.
Banishers: Ghosts of New Eden Null raytracing 7800XT= 4060 TI
https://www.computerbase.de/2024-02/banishers-ghosts-of-new-eden-benchmark-test/3/
Manor Lords 7900XTX=4070 S
https://www.computerbase.de/2024-05/manor-lords-early-access-benchmark-test/#abschnitt_benchmarks_in_full_hd
AAA wird natürlich deutlich weniger Probleme machen.
Da gibt genauso Cherrypicking-Beispiele in die andere Richtung
Linmoum
2024-09-10, 08:30:52
Dieses Problem hat doch sämtliche real existierende Hardware.Ja, nativ. Was aber Quatsch ist. Mit DLSS/FSR (und sogar noch ohne FG!) zumindest unterhalb von UHD aber nicht mehr. Da gibt's genug Grafikkarten, die auch trotz RT performant genug sind.
Dieses Treibermärchen ist aber wirklich uralt. Es gibt Dinge, für die AMD zwar immer noch ewig braucht, bis sie mal funktionieren (wie das viel zu lange bestandene Thema Idle-Verbrauch), aber die Treiber an sich sind genauso wenig problembehaftet, wie die von Nvidia. Zumindest insgesamt, wenn man primär AAA spielt. Bei kleineren Games siehe dildo, das ist tatsächlich noch immer ein Optimierungsproblem bei AMD.
dildo4u
2024-09-10, 08:31:55
Da gibt genauso Cherrypicking-Beispiele in die andere Richtung
Wo?
dargo
2024-09-10, 08:35:52
Wo?
https://www.pcgameshardware.de/X4-Foundations-Spiel-61270/Specials/Timelines-DLC-Update-Vulkan-Tech-Test-Release-1449923/4/
Es wird immer einzelne Ausreißer in die eine Richtung sowie die andere Richtung geben. Als ob das was Neues wäre.
PS: bei Banishers killt ein einziges Setting @max. die Performance auf Radeons. Und da in der Regel immer stur mit max. Settings gebencht wird fällt das denjenigen die die Games nicht spielen nicht auf.
DrFreaK666
2024-09-10, 08:47:18
Wo?
AMDs COD-Stärke solltest auch du kennen. Die 7700XT auf 3090Ti-Niveau ist jedenfalls nicht normal (1440p)
https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-3-2023-Spiel-74345/Specials/Warzone-Update-COD-MW3-Benchmarks-1446480/
raffa
2024-09-10, 09:01:43
Würden gern von meiner RTX 3090 auf eine schnellere AMD-Graka umsteigen. Sie sollte das auch unter Raytracing sein. Gibt es schon Infos wo die Raytracingleistung bei RDNA4 ist?
Spiele und arbeite unter Linux.
mfg grobi
Gibt bisher nur Spekulationen zu. RT soll aber deutlich aufgebohrt werden im Vergleich zu RDNA3.
Unter Linux bleibt einem derzeit ja eigentlich nur AMD, jedenfalls wenn man ein rundrum gutes Erlebnis haben will.
Kommt denn noch was dieses Jahr oder erst zur CES?
BlacKi
2024-09-10, 09:37:43
Was ein Quatsch wieder. Über 3 Jahre N21 im Rechner und absolut zufrieden. Sowohl mit der Leistung, der Effizienz (UV) als auch den Treibern.
ich hab das gefühl, das kommt meistens von rdna2 nutzern.
von rdna3 nutzern lese ich da eher viel zurückhaltung zu diesem thema oder negativ.
vl liegt das ja bei rdna2 an dem MPT, und das einige ihre rdna3 karte stock betreiben.
aber das amd tool für UV ist richtig scheiße. aufkrawall meinte ja schon, das stabiles UV kaum machbar ist mit rdna3, und meine erfahrung nach verstellt sich das oc/uv selbstständig.
ich stelle 90% takt und 95% voltage ein mit +10% power, beim nächsten booten steht 101% takt 100% voltage und 100% power.
ich muss vor jedem starten eines spiels schauen was eingestellt ist, denn das ist die reinste wundertüte. ist vl auch ein reines GRE problem, kann sein.
ausserdem hab ich in dem tool versucht die animationen auszumachen, weil der bildlauf beim scrollen ruckelt. zuerst einmal, warum ruckelt der scheiß? aber selbst wenn ich es deaktiviere, warum ruckelt der scheiß beim nächsten booten wieder und ich muss die animationen wieder aktivieren, damit das ruckeln aufhört?
und wie kann amd es über 6 monate nicht bemerken, das ihr tool nur +2% vram oc zulässt? und vram runtertakten geht gleich garnicht, auch wenn das nicht so wehtut.
Stell dir vor, AMD hätte N31 gar nicht entwickelt, sondern stattdessen zeitgleich einen bugfreien N32 vorgestellt, der bei gleichem Verbrauch und gleichen Produktionskosten 20% schneller als die jetzige 7800XT gewesen wäre, d.h. auf 4070Ti-Level. Diese Karten hätte AMD für eine deutlich bessere Marge als die 7800XT verkaufen können und dabei trotzdem ein besseres P/L als jetzt anbieten können, sodass auch mehr Leute gekauft hätten.
Wie ich bereits sagte: Lieber ein guter Chip als drei schlechte. Lieber in einem Marktsegment viel zu erträglicher Marge verkaufen als auf allen Hochzeiten zu tanzen aber dabei nichts zu verdienen.
ja, aber kann man diese annahme denn wirklich so einfach behaupten? ich meine, das sind ja unterschiedliche leute und geld hat amd, also auch die mittel genug personal zu engagieren. wenn das bei amd eine kleine gruppe wäre, die sich nun nur um 2 statt 3 chips kümmern müsste, dann könnte das was bringen. es scheint auch nicht so, als hätte amd anfangs probleme bei der entwicklung von n41 mit dem personal gehabt. man hat anfangs fette brötchen backen wollen und hat das geskippt und noch dazu recht spät, denn die arbeiten am chip waren offensichtlich schon sehr weit fortgeschritten.
d.h. selbst wenn du mit den behauptung richtig liegen würdest, dann würde das auf rdna4 wohl eher nicht zutreffen, eher auch rdna5, weil die architektur doch eher am anfang der entwicklung steht, und recht spät rdna4 im chiplet design gecancelt wurde.
raffa
2024-09-10, 10:03:07
Ja, guter Punkt. Unter Linux kann man seit einer Weile das Powerlimit nicht mehr als stärker als ein paar Prozent senken, warum erschliesst sich mir nicht. Bei meiner rx 6600 ist 94W bzw % das minimum.
Bleibt also nur noch den maximalen Chiptakt zu limitieren, um der Karte das "saufen" abzugewöhnen, in Verbindung mit UV versteht sich.
Auch würde ich mich über einen Weg freuen, die ermittelten Werte im VBios hinterlegen zu können.
Bei den CPUs hat sich es sich ja auch durchgesetzt, diese ziemlich frei nach seinen Wünschen konfigurieren kann und das dann auch so im UEFI eingestellt bleibt.
Mit solchen Sachen kann man sich den Namen in der Hardwareszene verbessern bzw. schlechter machen. Und die Poweruser prägen durchaus den Ruf einer Marke, wie man hier grad sieht.
Bei den GPUs schränkt AMD seit einer Weile die Möglichkeiten immer mehr ein. Nicht schön!
fondness
2024-09-10, 10:18:59
Warum wollen die Radeon Leute nicht verstehen:
es ist nicht die geringe Leistung der AMD Grakas, die einen NVIDIA User zum Wechsel abschreckt sondern die TREIBER-Politik bzw. Treiberkonstrukt seitens AMD.
Oder besser gesagt: Quasi KEINE vernünftige Treiberpolitik!
AN DEN TREIBERN LIEGT ES! Nur daran! Denn, Preisleistung stimmt bei AMD Grakas schon länger!
Von wann ist deine letzte AMD-Karte? :ugly: Ich kenne 2 Leute die wegen den Linuxtreibern zu AMD gewechselt sind. Diese waren dann interessanterweise äußerst angetan auch von den AMD-Windows-Treibern. Und zwar aus dem selben Grund der auch hinten erwähnt wird, die NV-Benutzeroberfläche ist irgendwas:
Das mit den Treibern ist eine seit 10 Jahren veraltete Forenweisheit. Keine Ahnung warum das immer noch widergekaut wird.
Ich spiele aktuell auf einer Radeon 6800XT wie auf einer Geforce 3050. Beide Treiber sind absolut stabil, da gibt's keine Probleme. Was die GUI und Usability angeht finde ich den Radeon Treiber sogar besser, da alles in einer modernen Oberfläche verfügbar ist. Bei Nvidia macht die Aufteilung zwischen Nvidia-Systemsteuerung mit alter Windows 2000 Optik und dem Experience-Center mit Zwangsanmeldung so keinen wirklichen Sinn
Dazu braucht es x externe Tools, weil NV kaum Funktionalität über die GUI zur Verfügung stellt. Mit dem AMD-Treiber alleine hat man alles was braucht, abgesehen vielleicht von Spezialzeug wo man dann noch immer den Arschbrenner nehmen kann.
Der_Korken
2024-09-10, 10:34:52
ja, aber kann man diese annahme denn wirklich so einfach behaupten? ich meine, das sind ja unterschiedliche leute und geld hat amd, also auch die mittel genug personal zu engagieren. wenn das bei amd eine kleine gruppe wäre, die sich nun nur um 2 statt 3 chips kümmern müsste, dann könnte das was bringen. es scheint auch nicht so, als hätte amd anfangs probleme bei der entwicklung von n41 mit dem personal gehabt. man hat anfangs fette brötchen backen wollen und hat das geskippt und noch dazu recht spät, denn die arbeiten am chip waren offensichtlich schon sehr weit fortgeschritten.
d.h. selbst wenn du mit den behauptung richtig liegen würdest, dann würde das auf rdna4 wohl eher nicht zutreffen, eher auch rdna5, weil die architektur doch eher am anfang der entwicklung steht, und recht spät rdna4 im chiplet design gecancelt wurde.
Der jetzige N32 wirkt auf mich sehr "hingerotzt". Kam 9 Monate nach dem bereits verspäteten N31 und lief bezüglich Takt und Effizienz sogar noch einen Hauch schlechter als der bereits enttäuschende N31. Wenn AMD so viel parallele Man-Power hätte, dann hätten sie in der Zeit hier eigentlich mehr rausholen müssen. Mein Eindruck ist hier eher, dass RDNA3 sehr früh abgeschrieben wurde und dann nur noch das Minimum gemacht wurde, um die Generation irgendwie zu vervollständigen. Wäre der Zeitplan von N32 und N31 vertauscht gewesen, hätte ich mir sogar vorstellen können, dass man N31 komplett streicht in dem Moment, wo man die Verbrauchsprobleme im Design erkannt hat (also mindestens 6 Monate vor dem dann N32-Launch), da die Stückzahlen von N31 nicht hoch genug sind, um den zusätzlichen Design-Aufwand wieder einzufahren.
Dass RDNA4 spät dran ist, liegt offensichtlich daran, dass man eigentlich was anderes in der Pipeline hatte und die Monolithen erst nachträglich designed hat. Auch hier scheint mir AMD manpower-limitiert, sonst hätten sie einfach zusätzliche Leute abstellen können, um z.B. einen 1,5-fachen N48 mit 384bit zu bauen. Diese Leute setzt AMD vielleicht lieber in anderen, margenträchtigeren Produkten ein als in Gaming-GPUs.
Klar ist das alles Spekulation meinerseits, da ich keine Interna kenne oder in der Branche arbeite. Imho sprechen die historischen Beispiele aber schon dafür, dass die Generationen mit Highend tendenziell schlechter liefen als die ohne.
BlacKi
2024-09-10, 11:55:03
Der jetzige N32 wirkt auf mich sehr "hingerotzt". Kam 9 Monate nach dem bereits verspäteten N31 und lief bezüglich Takt und Effizienz sogar noch einen Hauch schlechter als der bereits enttäuschende N31. Wenn AMD so viel parallele Man-Power hätte, dann hätten sie in der Zeit hier eigentlich mehr rausholen müssen. Mein Eindruck ist hier eher, dass RDNA3 sehr früh abgeschrieben wurde und dann nur noch das Minimum gemacht wurde, um die Generation irgendwie zu vervollständigen. Wäre der Zeitplan von N32 und N31 vertauscht gewesen, hätte ich mir sogar vorstellen können, dass man N31 komplett streicht in dem Moment, wo man die Verbrauchsprobleme im Design erkannt hat (also mindestens 6 Monate vor dem dann N32-Launch), da die Stückzahlen von N31 nicht hoch genug sind, um den zusätzlichen Design-Aufwand wieder einzufahren.
Dass RDNA4 spät dran ist, liegt offensichtlich daran, dass man eigentlich was anderes in der Pipeline hatte und die Monolithen erst nachträglich designed hat. Auch hier scheint mir AMD manpower-limitiert, sonst hätten sie einfach zusätzliche Leute abstellen können, um z.B. einen 1,5-fachen N48 mit 384bit zu bauen. Diese Leute setzt AMD vielleicht lieber in anderen, margenträchtigeren Produkten ein als in Gaming-GPUs.
Klar ist das alles Spekulation meinerseits, da ich keine Interna kenne oder in der Branche arbeite. Imho sprechen die historischen Beispiele aber schon dafür, dass die Generationen mit Highend tendenziell schlechter liefen als die ohne. n33 ist auch monolitisch und hatte zeit.
die architektur ist und bleibt rdna3. deshalb wurde n33 auch nie gefixt.
versuche das nun auf rdna4 zu übertragen. rdna4, die architektur selbst, wird weit im vorfeld entwickelt und imho nicht von den selben leuten die die chips planen.
deshalb kann das eigentlich garnicht aufgehen, es sei denn, man stellt für die leute die den big rnda4 chip entwickeln einfach leute ein, die die architektur verbessern, am besten AI^^
aber davon hat rdna4 selbst erstmal garnichts. vl rdna5.
reaperrr
2024-09-10, 12:00:23
Der jetzige N32 wirkt auf mich sehr "hingerotzt". Kam 9 Monate nach dem bereits verspäteten N31 und lief bezüglich Takt und Effizienz sogar noch einen Hauch schlechter als der bereits enttäuschende N31.
Nicht unterschätzen, wie viele N22 und N21 AMD zu dem Zeitpunkt noch abverkaufen musste, weil der Mining-Boom in 2022 abrupter endete als sie gedacht hatten.
Die Massenproduktion von N32 ging meines Wissens im Februar 23 los, dass die Karten erst 7 Monate später kamen lag wohl eher daran, dass man einfach noch zu viele N22/21 erst loswerden musste.
Was Takt/Effizienz der 7800XT angeht: Ich denke, die haben sie schlicht nicht so aggressiv gebinnt wie N31 bei der XTX.
Sprich, sie haben den Betriebspunkt so gewählt, dass auch wirklich nahezu jeder N32, bei dem nix defekt ist, die Spec schafft, selbst wenn der GCD i.S. Takt/Spannung eigentlich Sch.... ist.
Sie haben halt nicht mehr getan als nötig, um 4070-Raster-Leistung mit 16GB zu kombinieren zu etwas besserem P/L.
Bei N31 sind Chips mit zu großen Takt-/Effizienzproblemen dagegen dann wohl eher in die XT gewandert.
Dass RDNA4 spät dran ist
Naja, wenn's Oktober wird sind es nur 14 Monate nach N32.
Grundsätzlich ist ja das HighEnd die Lead-Entwicklungsplattform, dass die kleineren Chips erst später kommen ist normal, und die größeren Chiplet-basierten Karten wurden halt gestrichen.
Der Abstand von Mainstream zu Mainstream lässt jedenfalls nicht darauf schließen, dass N48 und N44 großartig verspätet wären.
RDNA2 ging auch nur so schnell, weil es im Grunde eher RDNA 1.3 war, außer RT, IF$ und den Takt-/Effizienzoptimierungen (die z.T. auch nur vom IF$ kamen) gab es da keine nennenswerten uArch-Änderungen an sich, RDNA1 hatte eher was von ner unoptimierten EarlyAccess-Beta auf das vollwertige Produkt.
n33 ist auch monolitisch und hatte zeit.
Aber nur in N6, und das Design war vor N32 abgeschlossen.
Im Vergleich zu N23 ist der Chip kein großer Fortschritt, aber in N5P wäre er sowohl nochmal ne Ecke kleiner (kleiner als AD106) als auch effizienter geworden (verglichen mit dem heutigen N33).
DrFreaK666
2024-09-10, 12:25:56
n33 ist auch monolitisch und hatte zeit.
die architektur ist und bleibt rdna3. deshalb wurde n33 auch nie gefixt.
versuche das nun auf rdna4 zu übertragen. rdna4, die architektur selbst, wird weit im vorfeld entwickelt und imho nicht von den selben leuten die die chips planen.
deshalb kann das eigentlich garnicht aufgehen, es sei denn, man stellt für die leute die den big rnda4 chip entwickeln einfach leute ein, die die architektur verbessern, am besten AI^^
aber davon hat rdna4 selbst erstmal garnichts. vl rdna5.
Schön dass hier ein AMD-Ingenieur zugegen ist
dargo
2024-09-10, 12:26:38
ich hab das gefühl, das kommt meistens von rdna2 nutzern.
von rdna3 nutzern lese ich da eher viel zurückhaltung zu diesem thema oder negativ.
vl liegt das ja bei rdna2 an dem MPT, und das einige ihre rdna3 karte stock betreiben.
Das würde ich direkt unterschreiben. RDNA3 überzeugt mich ja selbst nicht wie du weißt. Zu unflexibel dank fehlendem MPT-Support und zu durstig in 5nm (GCD) geworden dafür was er leistet.
n33 ist auch monolitisch und hatte zeit.
die architektur ist und bleibt rdna3. deshalb wurde n33 auch nie gefixt.
Hier bitte aufpassen! N33 hat AMD stärker gekeult. Würde AMD den Betriebspunkt bei 2,4Ghz im Schnitt belassen wie bei N32 würde das Teil einiges weniger saufen. Mit 2,4Ghz würde ich die RX7600 auf grob 125-130W schätzen.
BlacKi
2024-09-10, 12:51:24
Hier bitte aufpassen! N33 hat AMD stärker gekeult. Würde AMD den Betriebspunkt bei 2,4Ghz im Schnitt belassen wie bei N32 würde das Teil einiges weniger saufen. Mit 2,4Ghz würde ich die RX7600 auf grob 125-130W schätzen.
das meinte ich nicht. ich meinte, n33 hat sich nicht besonders positiv von den ersten rdna 3 chips abgehoben.
n33 ist nicht rdna3 fixed. es ist nur rdna3, trotz deutlich späterem erscheinen. mehr zeit hat n33 nicht geholfen. und hätte n33 noch ein jahr mehr zeit gehabt, dann wäre n33 auch nicht besser geworden.
und ich sehe hier das selbe mit rdna4. rdna4 ist schon vor dem canceln von n41 in "form gegossen" worden, das canceln von n41 kann also keinen nennenswerte posiven effekt haben so wie korken das andeutet. vl bezieht er sich auf rdna5, aber auch da sehe ich den effekt als eher begrenzt an.
Dino-Fossil
2024-09-10, 12:57:45
Wobei man auch sagen muss, dass mWn N31 z.B. deutlich mehr Transistoren pro CU hat, als N33, dennoch kommt N33 nicht schlechter weg. Vielleicht wurde da schon etwas verbessert, wodurch die zusätzlichen Transistoren nicht mehr nötig waren, aber es bleibt natürlich trotzdem RDNA3.
Lehdro
2024-09-10, 14:38:43
Wobei man auch sagen muss, dass mWn N31 z.B. deutlich mehr Transistoren pro CU hat, als N33, dennoch kommt N33 nicht schlechter weg. Vielleicht wurde da schon etwas verbessert, wodurch die zusätzlichen Transistoren nicht mehr nötig waren, aber es bleibt natürlich trotzdem RDNA3.
N33 hat weniger Vector Register File als N31/32.
128 KB vs. 192 KB. N33 ist hier auf RDNA1/2 Level.
horn 12
2024-09-10, 17:27:18
@Altehardware
Da hast wohl komplett vorbeigegriffen :-(
https://videocardz.com/newz/sony-playstation-5-pro-has-45-faster-gpu-costs-799-launches-november-7
aufkrawall
2024-09-10, 17:34:21
ich hab das gefühl, das kommt meistens von rdna2 nutzern.
von rdna3 nutzern lese ich da eher viel zurückhaltung zu diesem thema oder negativ.
Kann ich so nicht bestätigen, RDNA3 lief hier wesentlich besser als damals RDNA2.
Allerdings wäre es nicht AMD, wenn sie nicht trotzdem irgendeinen Dealbreaker-Bug verzapfen würden. In dem Fall wars hier leider mal wieder der Treiber-Shader-Cache, der mit Fortnite schlicht nicht richtig funktioniert. Bei denen failt leider immer irgendwas die Realität, da kann der Treiber anderweitig noch so sehr Raketentechnik vs. den Nvidia-Gammel sein.
Altehardware
2024-09-10, 22:30:39
ja den preis habe ich nicht erwartet dennoch ist die perf. genau da wo ich sagte. auch wenn Sony nix genaues zu der Technik sagte.
Aber das passt zu Sony Strategie den Konzern zu retten.
DrFreaK666
2024-09-11, 12:12:21
According to another leak, it may also include thread reordering to reduce data and execution divergence, similar to NVIDIA's Shader Execution Reordering (introduced with the Ada Lovelace architecture) and Intel Arc's Thread Sorting Unit.
https://wccftech.com/ps5-pro-motivated-amds-development-of-advanced-ray-tracing-says-mark-cerny/
The_Invisible
2024-09-11, 13:20:24
Hab ich ja schon länger gesagt das da Sony sicher Druck gemacht hat wegen raytracing. Können nur alle davon profitieren.
Felixxz2
2024-09-11, 15:04:50
Gestern diesen Artikel gelesen: https://chipsandcheese.com/2023/03/22/raytracing-on-amds-rdna-2-3-and-nvidias-turing-and-pascal/
Er schreibt, dass AMDs BVH Ansatz deutlich weniger in die Breite geht und cache-lastiger ist, stimmt das und werden wir hier grundsätzliche Änderungen sehen?
reaperrr
2024-09-11, 16:05:33
Gestern diesen Artikel gelesen: https://chipsandcheese.com/2023/03/22/raytracing-on-amds-rdna-2-3-and-nvidias-turing-and-pascal/
Er schreibt, dass AMDs BVH Ansatz deutlich weniger in die Breite geht und cache-lastiger ist, stimmt das
Das wird in diesem Forum niemand seriös mit "Nein" beantworten können, weil keiner hier mehr Ahnung (geschweige denn so viel Ahnung) wie clamchowder haben wird, also geh mal stark von "Ja" aus ;)
und werden wir hier grundsätzliche Änderungen sehen?
BVH8 statt BVH4 ist durch Leaker so gut wie bestätigt, einige andere Verbesserungen auch, eine Verdoppelung der RT-Cores je CU auch.
Also grundsätzlich kann man das nach aktueller Info-Lage wohl schon mit "Ja" beantworten.
robbitop
2024-09-11, 16:33:13
Wobei auch mehr RT HW nicht ausgeschlossen ist. RDNA2/3 haben nur das allermindeste umgesetzt und lagen dahingehend sogar hinter Turing. IMO könnte AMD da auch mal ein paar HW Blöcke spendieren so langsam. Es ist nicht mehr 2018…^^
Gipsel
2024-09-11, 16:33:39
Im Prinzip benötigt AMD erstmal gar nicht wirklich mehr Einheiten für Intersection-Tests in den CUs. Denn AMD wird höchst selten von diesen ausgebremst (in realem Code erreicht man oft nicht mal 10% der maximalen Rate). Das Langsame ist das Fetchen der Nodes der jeweils nächsten Ebene des BVH-Baumes (also das Traversal). Der Schritt von BVH4 zu BVH8 reduziert die Zahl der Baumebenen auf 2/3 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13510669#post13510669) (solange man keine völlig degenerierten Bäume baut). Der somit maximal mögliche Performancezuwachs von +50% dürfte in der Praxis zwar durch die etwas höheren Bandbreitenanforderungen (weil man nur ~2/3 der Ebenen hat, aber jeder zu fetchende Knoten doppelt so groß ist) gemindert werden, es sollte aber auch ohne Verdopplung der Intersection-Einheiten noch bestimmt +30% übrig bleiben (wenn nicht mehr), weil man eben zumeist an den Latenzen hängt, nicht an Durchsatz und Bandbreite.
basix
2024-09-11, 21:57:45
Die geleakten Infos von der PS5 Pro haben eigentlich alle gestimmt. Also die Leaks zu Trinity von MLID. Dort wird auch "Fully Custom Machine Learning Capabilities" mit 300 TOPS erwähnt (INT8).
Ich kann mir fast nicht vorstellen, dass da eine 300 TOPS NPU drin ist. Wäre es nicht sinnvoller, bei der GPU Matrix Cores zu verbauen aber halt FP16/BF16/FP8 usw. wegzustreichen? Also man hat nur INT8 Support? Auf einer Folie steht auch "8-bit Integer focused". Daneben gibt es noch 67 TFLOPS FP16 via WMMA über die normalen Shader ALUs, was Standard-RDNA3 mitbringt.
robbitop
2024-09-11, 22:49:26
Wie groß wäre denn ein 300TOPS IP block mit XDNA IP?
reaperrr
2024-09-11, 23:00:19
Wie groß wäre denn ein 300TOPS IP block mit XDNA IP?
ca. 5-6x so groß wie der von Strix, der dort ca. 10% der Fläche zu belegen scheint...
Also locker 100-130mm² in N4 nur dafür.
Für ein Konsolen-SoC nicht gerade wenig...
robbitop
2024-09-11, 23:06:56
Ich würde (anhand des dieshots) schätzen dass die NPU eher grob 5 % von Strix einnimmt. Käme dann auf grob 70 mm2. Immernoch relativ viel Fläche. Aber die Frage ist ob Matrix Cores in den CUs der GPU so viel flächeneffizienter wären und wenn ja warum.
Dazu kommt dass Mark Cerny ausdrücklich von custom silicon in Zusammenhang mit der AI HW gesprochen hat. Das muss nicht viel heißen aber klang für mich nach einem separaten IP Block und da ja schon die Gerüchte XDNA2 genannt hatten damals passte zumindest dieser Zusammenhang.
Mit 800€ ist die PS5Pro auch nicht gerade billig.Und mit N4P nutzt man ja auch nicht (mehr) leading edge. Kann also gut sein, dass man etwas Silizium spendiert hat. ^^
davidzo
2024-09-12, 08:28:30
Btw, wer wie ich befürchtet hat dass RDNA4 wieder nicht konkurrenzfähig bei der Energieeffizienz wird, unter anderem wegen GDDR6, den kann ich etwas beruhigen.
Bei eher niedrigen Taktraten scheint GDDR6 mittlerweile sogar effizienter zu sein als GDDR6X.
The other thing is that we saw the GDDR6 temperatures to be moderately lower than GDDR6X and the power consumption of the card was also a bit lower.
https://wccftech.com/review/galax-geforce-rtx-4070-oc-2x-graphics-card-review-out-goes-gddr6x-in-goes-gddr6/11/
Das widerspricht zwar Microns claim von 15% weniger Power per transferred bit. Aber die haben damals auch 21Gbps G6X mit 14Gbps GDDR6 verglichen, das war also wohl etwas geschönt. Anscheinend ist der GDDR6 in der Zwischenzeit wesentlich weiter gekommen. Bei 20Gbps GDDR6 vs 21Gbps GDDR6X geht es bei der Effizienz nun anders herum aus, hängt aber sicher auch vom jeweiligen DRAM Hersteller ab.
Möglicherweise verbraucht bei PAM4 der komplexere DRAM controller auch einfach mehr und das lohnt sich erst wenn auch die Speichermodule wesentlich schneller angebunden sind als bei GDDR6.
GDDR7 bei Blackwell soll ja PAM3 bringen und bis zu 25% effizienter sein. Mal sehen ob das sich diesmal in die Praxis überträgt oder ob ein etwas breiteres, niedriger taktendes GDDR6 Interface für midrange performance die bessere Wahl bleibt.
dildo4u
2024-09-12, 08:37:25
Hängt das nicht am Chiptakt Sony lässt extrem wenig Takt laufen vermutlich damit man innerhalb 220?Watt bliebt.
Bei 3GHz reden wird also von 30% mehr Takt?
BlacKi
2024-09-12, 09:30:12
Bei eher niedrigen Taktraten scheint GDDR6 mittlerweile sogar effizienter zu sein als GDDR6X.
hä? das ist doch allgemeiner konsens, das gddr6x mehr säuft und heißer wird als gddr6. bei ampere halt noch massiv, aber dort hauptsächlich in der gpu und nicht auf dem vram selbst.
gerade gddr7 soll hier abhilfe schaffen.
fondness
2024-09-12, 10:08:58
ca. 5-6x so groß wie der von Strix, der dort ca. 10% der Fläche zu belegen scheint...
Also locker 100-130mm² in N4 nur dafür.
Für ein Konsolen-SoC nicht gerade wenig...
Hier glaubt hoffentlich niemand ernsthaft, dass Sony auch nur annähernd so viel investiert hat für eine weitgehend nutzlose NPU. Ich gehe von kreativem rechnen aus mit den gpu ALUs.
robbitop
2024-09-12, 10:14:35
Ohne Matrix HW kommst du auch mit kreativem Rechnen nicht annähernd auf 300 TOPS INT8 bei nur 60CUs und ~2,2 GHz.
Und : das Ding kostet 800€. Da sind ein paar mm2 Silizium jetzt nicht die Welt.
Sony schien das NN für das Upsampling ziemlich wichtig gewesen zu sein und sie brauchten/wollten dafür offenbar ordentlich TOPs. :)
fondness
2024-09-12, 10:16:18
Ohne Matrix HW kommst du auch mit kreativem Rechnen nicht annähernd auf 300 TOPS INT8 bei nur 60CUs und ~2,2 GHz.
Und : das Ding kostet 800€. Da sind ein paar mm2 Silizium jetzt nicht die Welt.
Sony schien das NN für das Upsampling ziemlich wichtig gewesen zu sein und sie brauchten/wollten dafür offenbar ordentlich TOPs. :)
Wenn du die 100-130mm² in die GPU investierst statt in die NPU kann du dir das Upsampling sparen und das ganze nativ rechnen....und da geht dann noch immer sowas wie FSR + du hast wesentlich mehr Leistung für andere Sachen.
Ich gehe nicht davon aus, dass die 60CU GPU viel größer ist als 150mm² in 4nm. Das wäre also annähernd eine Verdoppelung der GPU.
robbitop
2024-09-12, 10:24:08
Das sind eher 70 mm2 mit XDNA2 für 300 TOPs.
Kurz durchgerechnet bei den kolportierten 60 CUs und 2200 käme ich mit RDNA3 INT8 auf 67 TOPs.
Also entweder sind da in den CUs Matrix Cores oder es gibt eine NPU.
Die Frage ist wie teuer Matrixcores für 300 TOPs wären. Wahrscheinlich nicht so teuer wenn man bedenkt dass AD106 etwas mehr TOPs hat und komplett auf 188mm2 kommt bei 122 MTr/mm2. (laut w0mbats insider Quellen soll das „4N“ N5 sein und bei Blackwell steigt man auf N4P um).
Wenn es Matrixcores in den CUs sein sollten ist nur die Frage was Sony mit custom silicon meint. Andererseits kann es ja sein, dass AMD die CUs für Sony extra mit Matrixcores ausgestattet hat und die in RDNA4 PC GPU IP blocks nicht vorgesehen sind.
fondness
2024-09-12, 10:27:27
300 TOPs ist weit über allem was bisher üblich ist bei NPUs. Also zuerst mal würde ich diese Zahl in Frage stellen. Zumal sie Sony auch bei der Präsi nirgends erwähnt hat (sowas würde man IMO erwähnen). Wenn dann wie gesagt mit der GPU.
(laut w0mbats insider Quellen soll das „4N“ N5 sein und bei Blackwell steigt man auf N4P um).
Das war doch von Anfang an klar und wurde auch von AnandTech so beim Launch gesagt. Nur manche NV-Fanboys wollten es nicht glauben.
Wenn es Matrixcores in den CUs sein sollten ist nur die Frage was Sony mit custom silicon meint. Andererseits kann es ja sein, dass AMD die CUs für Sony extra mit Matrixcores ausgestattet hat und die in RDNA4 PC GPU IP blocks nicht vorgesehen sind.
Das ist Markting, es ist immer alles custom Silicon. Vermutlich meinen sie schlicht den SoC als ganzes.
robbitop
2024-09-12, 10:32:08
300 TOPs ist weit über allem was bisher üblich ist. Also zuerst mal würde ich diese Zahl in Frage stellen. Zumal sie Sony auch bei der Präsi nirgends erwähnt hat (sowas würde man IMO erwähnen).
Wir wissen leider nicht was in der technischen Doku steht die in den Händen von DF und Co liegt. Wurde mMn nie veröffentlicht. Kann also durchaus sein dass das da auch drin steht. Wir werden sehen…
Auch stimmten die anderen Specs die geleakt worden sind bisher. Warum sollte gerade dieses Detail falsch sein?
Als Einordnung wo man mit 300 TOPs mit dedizierter Matrix HW steht:
300 TOPs sind absolut nicht viel sind wenn man Matrix HW hat. Das hat selbst Nvidias Ada Einstiegs GPU (sogar mehr als 300 TOPs - und das sogar fp16 und nicht nur int8).
fondness
2024-09-12, 10:32:58
Ja hab ich eh am Anfang gesagt, wenn dann über die GPU-ALUs. Aber eine 300 TOPs NPU ist absurd.
dildo4u
2024-09-12, 10:35:15
Kann es nicht sein das PS5 Pro RDNA4 nutzt und daher 8 int schneller kann eine 4070 S ist angeblich über 500top.
https://i.ibb.co/Bgytpz5/Bildschirmfoto-vom-2024-09-12-10-31-43.png (https://ibb.co/hKBy67J)
robbitop
2024-09-12, 10:38:58
Ja hab ich eh am Anfang gesagt, wenn dann über die GPU-ALUs. Aber eine 300 TOPs NPU ist absurd.
Vieles klingt absurd wenn es noch nicht gemacht wurde. Sich immer nur auf das Vergangene zu beziehen kann auch manchmal irre führen. Wie oft gab es in der Branche schon Überraschungen wo alle vorher gesagt haben das wäre absurd? ZB die 128 MiB IF Cache wollte vor dem N21 release hier praktisch niemand glauben. Und da fallen mir sicherlich ein weiteres Duzend Beispiele ein. Man sollte sowas nie ausschließen.
Zurück zu den GPU ALUs: dann meinst du aber zusätzliche Matrix Cores in den CUs? Falls ja: das erscheint mir auch wahrscheinlicher. Aber nichtsdestotrotz sollte man nicht immer gleich alles verwerfen. Wir kennen ja nicht alle Details und Randbedingungen. Kann ja auch sein, dass AMD sowas nicht so kurzfristig zusammenstellen konnte und dann als teurere Alternative eine NPU anbieten musste. Aus Kostensicht nicht ideal aber wenn time to market / timeline eine größere Rolle spielen? Was sind dann delta ~30…50 mm2 (wenn eine 300 TOPS NPU 70 mm2 groß ist und Matrix Cores ja nicht 4free sind)? Insbesondere wenn es für die Gesamt HW 800€ UVP Spielraum gibt - und das Ding hat nicht einmal ein optisches Laufwerk und auch nur 16 GB RAM. Da kann man für die APU schon etwas ausgeben wenn man will. Zumal es ja nicht einmal im leading edge Prozess gefertigt wird.
robbitop
2024-09-12, 10:41:03
Kann es nicht sein das PS5 Pro RDNA4 nutzt und daher 8 int schneller kann eine 4070 S ist angeblich über 500top.
https://i.ibb.co/Bgytpz5/Bildschirmfoto-vom-2024-09-12-10-31-43.png (https://ibb.co/hKBy67J)
Schon AD106! hat mehr als 300TOPS FP16 wohlgemerkt(!!) - INT8 wäre potenziell billiger oder doppelt so schnell transistornormiert. Und das ist EinstiegsHW. Von 2022. Ich denke auch nicht dass das total überdimensioniert ist für ein AI Upsampling und eine 60 CU GPU. Das erscheint sehr angemessen.
fondness
2024-09-12, 10:46:50
Vieles klingt absurd wenn es noch nicht gemacht wurde. Sich immer nur auf das Vergangene zu beziehen kann auch manchmal irre führen. Wie oft gab es in der Branche schon Überraschungen wo alle vorher gesagt haben das wäre absurd? ZB die 128 MiB IF Cache wollte vor dem N21 release hier praktisch niemand glauben. Und da fallen mir sicherlich ein weiteres Duzend Beispiele ein. Man sollte sowas nie ausschließen.
Die Behauptung war eine XDNA2-NPU mit 300 TOPs, und das ist schlicht absurd, denn da sind wir bei ~100mm² von Strix ausgehend.
Zurück zu den GPU ALUs: dann meinst du aber zusätzliche Matrix Cores in den CUs? Falls ja: das erscheint mir auch wahrscheinlicher. Aber nichtsdestotrotz sollte man nicht immer gleich alles verwerfen. Wir kennen ja nicht alle Details und Randbedingungen. Kann ja auch sein, dass AMD sowas nicht so kurzfristig zusammenstellen konnte und dann als teurere Alternative eine NPU anbieten musste. Aus Kostensicht nicht ideal aber wenn time to market / timeline eine größere Rolle spielen? Was sind dann delta ~30…50 mm2 (wenn eine 300 TOPS NPU 70 mm2 groß ist und Matrix Cores ja nicht 4free sind)?
Hast du eine Ahnung was für ein unfassbarer Kostendruck auf solchen Chips drauf ist? Hast du eine Ahnung was 30-50mm² in 4nm bei den zu erwartenden Millionenstückzahlen an Dollar bedeuten? Da wird bei ganz anderen sinnvollen Sachen gespart wo es um wenige Zehntel mm² geht. Nein, ich bin lange genug in der Branche um zu wissen, dass sowas unrealistisch ist wenn Sony nicht den ultimativen Use-Case für sowas hat.
robbitop
2024-09-12, 10:56:41
N21 investierte etliche mm2 in den IF Cache und da gab es auch Kostendruck etc. Ich könnte mir die Mühe machen im Thread mal nachzuschauen wie du damals zu dem Thema standest (bevor es bestätigt wurde). Ich kann mich jedenfalls entsinnen dass das hier praktisch aus den vergleichbaren Gründen hier niemand wahrhaben wollen.
Ich will damit nicht sagen, dass ich es für wahrscheinlich halte dass es eine NPU wird. Aus den gleichen Gründen wie du. Aber ich bin auch der Ansicht, dass hier niemand die Kompetenz und die Einsicht in alle möglichen Gründe haben kann um 100%ig so etwas auszuschließen (und mit Verlaub auch du nicht) so dass es das Attribut „absurd“ verdient hat. Das ist nicht seriös.
fondness
2024-09-12, 11:08:07
N21 investierte etliche mm2 in den IF Cache und da gab es auch Kostendruck etc. Ich könnte mir die Mühe machen im Thread mal nachzuschauen wie du damals zu dem Thema standest (bevor es bestätigt wurde). Ich kann mich jedenfalls entsinnen dass das hier praktisch aus den vergleichbaren Gründen hier niemand wahrhaben wollen.
Der Cache bei N21 spart halt auch beim SI (mm² Die Fläche), beim Speichertakt, bei der Verdrahtung, beim Stromverbrauch (was wieder Kosten beim PCB und beim Kühler senkt), bringt vielleicht sogar etwas Performance. Und AMD konnte Cache schon immer sehr dicht packen. Das kann sich unterm Strich schon rechnen.
Ich will damit nicht sagen, dass ich es für wahrscheinlich halte dass es eine NPU wird. Aus den gleichen Gründen wie du. Aber ich bin auch der Ansicht, dass hier niemand die Kompetenz und die Einsicht in alle möglichen Gründe haben kann um 100%ig so etwas auszuschließen (und mit Verlaub auch du nicht) so dass es das Attribut „absurd“ verdient hat. Das ist nicht seriös.
Klar ist immer alles möglich. Deshalb sage ich ja auch wenn Sony nicht den ultimativen Use-Case dafür hat. Aber anhand dessen was man heute weiß ist das eben absurd. Zumal wir hier im Speku-Forum sind. Nur wegen Upsampling, wie gesagt da hätte man wesentlich mehr davon, wenn man das in die GPU steckt.
robbitop
2024-09-12, 11:19:44
Ja das passt ja auch grundsätzlich. Ich empfinde das Attribut „absurd“ aber unabhängig davon und auch im Kontext des Spekulationsforums für zu absolut. „Unwahrscheinlich (nach dem jetzigen (eingeschränkten) Wissensstand)“ würde es IMO wesentlich treffender formulieren.
Die 128 MiB Cache waren damals sicherlich auch im Bereich von 60-80 mm2 (das war ja noch N7 iirc). Klar helfen die - aber wie sinnvoll das war, weiß man ja auch erst in „hindsight“. ;)
DrFreaK666
2024-09-12, 11:34:00
Am Ende hat es 100Tops und PSSR ist ein besseres AutoSR mit der Möglichkeit sich in Engines einbinden zu lassen.
Wenn ich mich recht erinnere fand Leadbetter schon AutoSR "impressive" für das, was es ist
mboeller
2024-09-12, 11:45:08
Das sind eher 70 mm2 mit XDNA2 für 300 TOPs.
Kurz durchgerechnet bei den kolportierten 60 CUs und 2200 käme ich mit RDNA3 INT8 auf 67 TOPs.
incl. WMMA?
Laut Wikipedia schafft eine 7800XT bei 2,4GHz ca. 74Gflops (16bit) ... das wären dann fast 300TOPS in 4bit. Wenn Sony/AMD die WMMA nochmals aufgebohrt haben könnte es passen.
robbitop
2024-09-12, 11:54:51
WMMA ist nur ein instructionset inkl. passenden Datenformaten (wie BF16) das für AI Workloads gut geeignet ist zur Verfügung stellt. Das läuft aber weiterhin auf den Vektor FPUs auf RDNA3. IMO hat AMD da ein bisschen mit ambiguity den Aspekt vermarktet, so dass man es so verstehen könnte, dass es da extra units gibt. Ist leider nicht so.
Und wir sprechen von INT8, nicht INT4 (int4 ist deutlich eingeschränkter nutzbar in NN Anwendungen iirc). INT8 hat iirc den gleichen Durchsatz wie FP16 auf RDNA3.
60 CU x 128 FPU lanes (also eigentlich 64 lanes aber mit vopd Verdoppelung) x 2 (mad zählt 2 ops) x 2 (doppelter Durchsatz für fp16/bf16 und int8) x 2200 MHz = 67,5 tflops int8
robbitop
2024-09-12, 12:02:16
Am Ende hat es 100Tops und PSSR ist ein besseres AutoSR mit der Möglichkeit sich in Engines einbinden zu lassen.
Wenn ich mich recht erinnere fand Leadbetter schon AutoSR "impressive" für das, was es ist
Das ist natürlich eine Möglichkeit. Aber: da man mit FSR3.1 bereits eine bessere Baseline hat, würde PSSR dann keinen Mehrwert bringen. Und iirc hatte DF Teile der technischen Doku für die PS5PRO vor einigen Monaten in die Finger bekommen und IIRC ist es nach dieser ein temporales Upsampling mit AI. Also eher sowas wie XeSS und DLSS. Und wenn man schaut mit wie viel TOPs selbst Einstiegs GPUs von Nvidia ausgestattet sind (320 TOPs FP16!), sind 300 TOPs für Int8 jetzt grob gesehen nicht so daneben. Von der reinen Einordnung her um die Größenordnung abzuschätzen ob die konkludent ist.
Dino-Fossil
2024-09-12, 12:35:48
Bezüglich der (Silizium-)Kosten einer verbauten NPU darf man auch nicht vergessen, dass die PS5Pro auch absurd teuer ist für eine Konsole. Evtl. holen sie es sich darüber rein.
Zudem gibt es auch öffentliche Aussagen durch AMD-Personal von Anfang 24, dass AMD an KI-gestütztem Upsampling dran ist. Da können sich durchaus Synergien ergeben haben, die eine entsprechende Implementation wahrscheinlicher machen.
davidzo
2024-09-12, 13:09:24
hä? das ist doch allgemeiner konsens, das gddr6x mehr säuft und heißer wird als gddr6. bei ampere halt noch massiv, aber dort hauptsächlich in der gpu und nicht auf dem vram selbst.
gerade gddr7 soll hier abhilfe schaffen.
Heiß und durstig ja. Aber das sagt ja nichts über die Effizienz aus. Wenn entsprechend Leistung dabei herum kommt, was Microns Aussage von 15% effizienter ja suggeriert, dann wäre das ja okay. 256bit GDDR6 wären äquivalent zu einem höher taktenden 192bit GDDR6X Interface und letzteres würde weniger Verbrauchen.
Was GDDR7 angeht kann ich mir vorstellen dass PAM3 auch nicht völlig umsonst sein wird gegenüber NRZ, denn die Controller müssen hier ebenfalls wieder den dritten Zustand per PWM generieren. Samsung sagt zwar dass PAM3 25% Energie spart, aber berücksichtigt das den Speichercontroller und im Vergleich zu was?
GDDR7 kommt mit 1,1Volt - das alleine sollte zu üblichem GDDR6 mit 1,35V eine ordentliche Einsparung geben. Mittlerweile hat Samsung aber auch neuen GDDR6 mit 1,1V vorgestellt. Möglicherweise wird das alles ein Nullsummenspiel, gerade wenn es für die Performance eines midrange Beschleunigers vor allem auch um die Menge an VRAM geht und nicht nur mehr die Bandbreite.
mboeller
2024-09-12, 13:09:43
Und wir sprechen von INT8, nicht INT4 (int4 ist deutlich eingeschränkter nutzbar in NN Anwendungen iirc). INT8 hat iirc den gleichen Durchsatz wie FP16 auf RDNA3.
60 CU x 128 FPU lanes (also eigentlich 64 lanes aber mit vopd Verdoppelung) x 2 (mad zählt 2 ops) x 2 (doppelter Durchsatz für fp16/bf16 und int8) x 2200 MHz = 67,5 tflops int8
das muss ja nicht so bleiben. Selbst IMG hat in den GPU bei 8bit den doppelten Durchsatz wie bei FP16.
Darauf wollte ich eigentlich hinaus, hab aber nix darüber geschrieben.
Gipsel
2024-09-12, 13:43:04
INT8 hat iirc den gleichen Durchsatz wie FP16 auf RDNA3.
60 CU x 128 FPU lanes (also eigentlich 64 lanes aber mit vopd Verdoppelung) x 2 (mad zählt 2 ops) x 2 (doppelter Durchsatz für fp16/bf16 und int8) x 2200 MHz = 67,5 tflops int8
Nicht wirklich. Die INT8/UINT8/INT4/UINT4 laufen bei RDNA3 nicht über VOPD (könnte bei einem Custom Chip aber sicher geändert werden) sondern können nur 64 Lanes nutzen (das ist identisch zu RDNA2). Dafür haben sie aber den doppelten Durchsatz (8bit Integer) oder 4fachen Durchsatz (4bit Integer) wie FP16. Vier 8bit Integer oder acht 4bit Integer-Werte werden in ein Register gepackt und in einem Rutsch abgearbeitet (8 Ops pro Instruktion und Lane mit 8bit-Werten und 16 Ops pro Instruktion und Lane mit 4bit Werten, technisch gesehen sind das DOT4- [8bit] bzw. DOT8-Instruktionen [4bit] sind, jeweils mit 32bit Akkumulator).
60 RDNA2/3 CUs mit 2,2 GHz kommen also auf tatsächlich auf ~67 8bit TOPS (allerdings ohne VOPD, 60 CUs x 64 Lanes x 4 MADs x 2 Ops pro MAD) und ~135 4bit TOPs. Sollte das auch mit VOPD nutzbar werden (also angepaßtes RDNA3), verdoppelt sich das Ganze nochmal (135 8bit TOPs und 270 4bit TOPs). Und Alles über die normalen ALUs.
robbitop
2024-09-12, 13:52:50
Danke für die Ausführung warum INT8 nicht schneller ist als FP16.
:up:
robbitop
2024-09-12, 13:55:08
das muss ja nicht so bleiben. Selbst IMG hat in den GPU bei 8bit den doppelten Durchsatz wie bei FP16.
Darauf wollte ich eigentlich hinaus, hab aber nix darüber geschrieben.
Auch das würde nicht reichen für die 300 TOPs. Aber ja die Verdopplung des FPU Durchsatzes ist in rdna3 ziemlich restriktiv im Vergleich zur Verdopplung bei Ampere. Das kann sich ändern.
Unabhängig davon scheint (zumindest in der PS5PRO) aber noch HW für Matrixberechnung verbaut zu sein
Felixxz2
2024-09-12, 15:08:32
Im Prinzip benötigt AMD erstmal gar nicht wirklich mehr Einheiten für Intersection-Tests in den CUs. Denn AMD wird höchst selten von diesen ausgebremst (in realem Code erreicht man oft nicht mal 10% der maximalen Rate). Das Langsame ist das Fetchen der Nodes der jeweils nächsten Ebene des BVH-Baumes (also das Traversal). Der Schritt von BVH4 zu BVH8 reduziert die Zahl der Baumebenen auf 2/3 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13510669#post13510669) (solange man keine völlig degenerierten Bäume baut). Der somit maximal mögliche Performancezuwachs von +50% dürfte in der Praxis zwar durch die etwas höheren Bandbreitenanforderungen (weil man nur ~2/3 der Ebenen hat, aber jeder zu fetchende Knoten doppelt so groß ist) gemindert werden, es sollte aber auch ohne Verdopplung der Intersection-Einheiten noch bestimmt +30% übrig bleiben (wenn nicht mehr), weil man eben zumeist an den Latenzen hängt, nicht an Durchsatz und Bandbreite.
Danke! Was genau ist der Unterschied zwischen BVH4 und 8?
Gipsel
2024-09-12, 15:18:01
Danke! Was genau ist der Unterschied zwischen BVH4 und 8?Das Verzweigungsverhältnis des Baumes (entweder 4 oder 8).
Bei BVH4 gibt es unterhalb jedes Knotens 4 weitere, bei BVH8 dann eben 8 (oder am Ende dann [bis zu] 4 oder 8 Blätter).
BVH ist ja eine Baumstruktur mit bounding boxes (BVH = bounding volume hierarchy; eine bounding Box ist ein Kasten, aus dem keine enthaltene Geometrie sozusagen herausragt). Da gibt es also auf jeder Ebene eine bestimmte Anzahl an Boxen und die GPU testet, ob ein Strahl jeweils durch diese durchgeht. Ist das der Fall, hangelt man sich eine Ebene weiter (jeder Knoten enthält Pointer auf die entsprechenden Knoten der nächsttieferen Ebene), wo die nächstkleineren Boxen drinstehen (und die in der übergeordneten Box vollständig enthalten sind). Irgendwann kommt man dann auf der untersten Ebene (das sind dann die "Blätter" des Baumes) bei den eigentlichen Dreiecken an und testet, ob diese vom aktuellen Strahl getroffen werden.
Im Prinzip ist also ein BVH-Baum eine Möglichkeit die Geometrie für das Raytracing so anzuordnen, daß man zu einem Strahl das getroffene Dreieck in möglichst kurzer Zeit findet. Man betreibt eine Baum-Suche (tree search), die pro Strahl in O(log N) Aufwand ein Ergebnis liefert, zumindest wenn die Einsortierung der Geometrie in den Baum gut ist (und der Baum nicht quasi in eine verkettete Liste degeneriert ist). Das Generieren und Aufbauen dieser Bäume ist ein wichtiges Thema beim Raytracing. BVH8 ermöglicht es eventuell auch, schnellere und effizientere Methoden zum Einsortieren der Geometrie in diese Bäume zu benutzen (z.B. in dem man die Achsen der Boxen am Koordinatensystem ausrichtet und es zu jedem Punkt im 3D-Raum es genau 8 natürliche "Ecken"/Richtungen gibt, in die man eine Bounding Box aufspannen kann [für jede Raumrichtung gibt es zu einer bestimmten Koordinate die Möglichkeit < oder > und man hat 3 Raumkoordinaten => 2³=8]).
Und wo wie schon mal dabei sind, daß man das zu einem Strahl passende Dreieck in logarithmischer Zeit (relativ zur Menge an Dreiecken) finden kann, begründet auch warum für extrem viel Geometrie Raytracing effizienter wird als stures Rasterizing (was linear mit der Menge an Dreiecken skaliert). Allerdings ist der Vorteil eher theoretischer Natur (mit cleverem Culling und LODs ist man mit Rasterizing performanter), solange es nicht um Dinge geht, die man mit Rasterizing nur schwer hinbekommt.
dargo
2024-09-12, 15:39:58
N21 investierte etliche mm2 in den IF Cache und da gab es auch Kostendruck etc.
Welchen Kostendruck bei 999$? N48 wird ca. für die Hälfte kommen.
Der_Korken
2024-09-12, 17:13:02
@BVH4 vs BVH8:
Aus algorithmischer Sicht müssen bei BVH8 mehr Boxen überprüft werden, weil der Baum im Idealfall zwar nur 2/3 der Tiefe hat, aber dafür pro Knoten doppelt so viele Boxen gecheckt werden müssen. Es muss also 33% mehr gerechnet und 33% mehr Bytes aus dem Speicher geladen werden. Das ist aber nicht unbedingt ein Nachteil, da man Boxen eines Baumknotens hintereinander in den Speicher schreiben kann. Die größere Menge an Daten verteilt sich also auf weniger Speicherzugriffe, was gut für die Latenz ist.
Ob BVH8 auch angenehmer zu cachen ist, weiß ich nicht. Ich hätte (ohne mich genauer mit Raytracing und 3D-Berechnung näher beschäftigt zu haben) eine bounding box durch sechs Floats dargestellt (Anfang und Ende für jede der drei Dimensionen), was 48 Floats pro Box sind. Das sind bei FP32 schon 192Byte und somit drei (?) Cache-Lines. Bei vier Boxen wären es 96Byte, also "verschwendet" man von der zweiten Cache Line etwas.
Gipsel
2024-09-12, 20:41:57
Ja, dazu hatte ich hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13510669#post13510669) und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13613301#post13613301) auch schon mal was geschrieben.
Minimale Anzahl an Intersection Tests erreicht man übrigens theoretisch mit BVH3 (idealerweise hat man logB(N)*B Intersection Tests in einem Baum mit Branching-Faktor B und N Blättern). Nutzt nur keiner, weil typischerweise nicht die effizienteste Variante (auch weil die Intersection Tests oft nicht der limitierende Faktor ist [sondern Speicherzugriffe] und man entweder sowieso Hardware für 4 bis 8 parallele Tests verbaut hat [GPU] oder man per SIMD auch mehrere Intersection Tests parallel berechnen kann).
Felixxz2
2024-09-12, 21:27:01
Das Verzweigungsverhältnis des Baumes (entweder 4 oder 8).
Bei BVH4 gibt es unterhalb jedes Knotens 4 weitere, bei BVH8 dann eben 8 (oder am Ende dann [bis zu] 4 oder 8 Blätter).
BVH ist ja eine Baumstruktur mit bounding boxes (BVH = bounding volume hierarchy; eine bounding Box ist ein Kasten, aus dem keine enthaltene Geometrie sozusagen herausragt). Da gibt es also auf jeder Ebene eine bestimmte Anzahl an Boxen und die GPU testet, ob ein Strahl jeweils durch diese durchgeht. Ist das der Fall, hangelt man sich eine Ebene weiter (jeder Knoten enthält Pointer auf die entsprechenden Knoten der nächsttieferen Ebene), wo die nächstkleineren Boxen drinstehen (und die in der übergeordneten Box vollständig enthalten sind). Irgendwann kommt man dann auf der untersten Ebene (das sind dann die "Blätter" des Baumes) bei den eigentlichen Dreiecken an und testet, ob diese vom aktuellen Strahl getroffen werden.
Im Prinzip ist also ein BVH-Baum eine Möglichkeit die Geometrie für das Raytracing so anzuordnen, daß man zu einem Strahl das getroffene Dreieck in möglichst kurzer Zeit findet. Man betreibt eine Baum-Suche (tree search), die pro Strahl in O(log N) Aufwand ein Ergebnis liefert, zumindest wenn die Einsortierung der Geometrie in den Baum gut ist (und der Baum nicht quasi in eine verkettete Liste degeneriert ist). Das Generieren und Aufbauen dieser Bäume ist ein wichtiges Thema beim Raytracing. BVH8 ermöglicht es eventuell auch, schnellere und effizientere Methoden zum Einsortieren der Geometrie in diese Bäume zu benutzen (z.B. in dem man die Achsen der Boxen am Koordinatensystem ausrichtet und es zu jedem Punkt im 3D-Raum es genau 8 natürliche "Ecken"/Richtungen gibt, in die man eine Bounding Box aufspannen kann [für jede Raumrichtung gibt es zu einer bestimmten Koordinate die Möglichkeit < oder > und man hat 3 Raumkoordinaten => 2³=8]).
Und wo wie schon mal dabei sind, daß man das zu einem Strahl passende Dreieck in logarithmischer Zeit (relativ zur Menge an Dreiecken) finden kann, begründet auch warum für extrem viel Geometrie Raytracing effizienter wird als stures Rasterizing (was linear mit der Menge an Dreiecken skaliert). Allerdings ist der Vorteil eher theoretischer Natur (mit cleverem Culling und LODs ist man mit Rasterizing performanter), solange es nicht um Dinge geht, die man mit Rasterizing nur schwer hinbekommt.
Ah verstehe, danke dir!
Ergo sollte BVH8 auch besser zu parallelisieren sein, weil der Baum breiter aber weniger tief ist? Man also mehr Intersection Tests gleichzeitig aber weniger hintereinander hat?
Ist man dann auch Cache-Größen sensitiver? Die Latenz sollte ja dann weniger eine Rolle spielen als bei BVH4
Altehardware
2024-09-12, 22:45:02
nun so ins detail zu gehen bringt nix da keine zusätzlichen Rt core Fähigkeiten gibt zumal das nix bringt
bei amd arbeiten pro cu 2 tmu die für die dxr Berechnung in viertel Genauigkeit abarbeiten diese tmu werden verdoppelt sprich die tmu wird entlastet da die eigentliche Aufgabe Texturen zu zeichnen quasi verdoppelt wird.
Zugleich steigt der Takt von 2,2ghz bis 2,4 auf 3,0ghz +25% oder +38%
macht am ende 75-88% mehr dxr perf per cu
Da braucht man nicht über dedizierte int8 reden die wird es nicht geben. Und wenn ist das Software.
aus 100fps einer rx7900xtx 96cu 1-2 rop tmu wird dann bei 64cu 1 zu 4 tmu 159fps oder 170fps
Faktisch 60-70% mehr dxr perf oder anders man braucht 49sm oder 52sm für 64cu
Wogegen aktuell man 96cu für 46sm braucht
ja man wird in dxr die rx7900xtx nicht überholen
Daher wird es schwierig gegen blackwell das etwas die dxr perf anheben wird +18% je sm
50sm sind für rtx5070 vorgesehen machen also aus 46sm /1,18=38sm vs 96cu
Faktisch tritt amd mit der rx8800xt 64cu dann bei ada 52sm/1,18 = Blackwell 44sm an ob nvidia ne rtx5060ti bei 42sm bringt ist unklar
Was dann bedeutet rtx5070 649$ vs rx8800xt 599$
Die 56cu rx8700xt 499$ wird man gegen die rtx5060 antreten 36sm 399$
Am ende ist nix wirklich rund bei amd preislich nicht da man keine direkten Gegner hat weder rtx4070 noch rtx5060
Erste weil die sku eol geht und zweite weil diese viel zu schwach ist abseits dxr
Und zweitens da es für nvidia keinen Sinn ergib nenn gb205 auf 42sm zu kürzen
Die folge gpu start bei amd mit einen n44 mit 32cu das aber nur 22sm erreicht und genau da hat nvidia keine sku entspricht aber dann 28 ada sm die es als rtx5050 ab 300€ gibt (ad106 28sm)
Dann muss amd ne rx8700 bringen mit 48cu die dann der rtx5060 entgegentritt bei 399$
Das wird dann so laufen in dxr Kampf
rx8600 8gb dxr unbrauchbar entspricht etwa rtx4060 level 199$
rx8600xt 16gb dxr 28sm ada rtx5050 16gb 299$
rx8700 12gb dxr auf level der rtx5060 36sm/ ada 42sm 12gb 399$
rx8700xt 16gb dxr auf level der rtx4070 499$
rx8800xt 16gb dxr auf level der rtx4070 super 599$
8 von 10 Spiele werden ab 2025 dxr haben daher wird sich es sich danach ausrichten die raster perf ist fasst egal.
robbitop
2024-09-12, 22:45:26
Welchen Kostendruck bei 999$? N48 wird ca. für die Hälfte kommen.
Um N48 ging es ja gar nicht in der Debatte sondern um die PS5PRO die immerhin 800€ kostet und üblicherweise wird KonsolenHW subventioniert oder zumindest zum Selbstkostenpreis verkauft. Und dann auch noch ohne optisches Laufwerk. Grundsätzlich ist das schon nicht ganz abwegig das so zu vergleichen. Aber das war gar nicht der Punkt des Dialogs von heute vormittag…
Wir wissen bis dato nur dass Sony für die PS5PRO APU custom silicon für 300 TOPS Matrixleistung verbauen lassen hat. Auf N48 mag das ggf nicht zutreffen. Entsprechend passt der Einwand nicht zu der Debatte von heute Vormittag. ;)
basix
2024-09-12, 22:45:32
@BVH4 vs BVH8:
Aus algorithmischer Sicht müssen bei BVH8 mehr Boxen überprüft werden, weil der Baum im Idealfall zwar nur 2/3 der Tiefe hat, aber dafür pro Knoten doppelt so viele Boxen gecheckt werden müssen. Es muss also 33% mehr gerechnet und 33% mehr Bytes aus dem Speicher geladen werden. Das ist aber nicht unbedingt ein Nachteil, da man Boxen eines Baumknotens hintereinander in den Speicher schreiben kann. Die größere Menge an Daten verteilt sich also auf weniger Speicherzugriffe, was gut für die Latenz ist.
Ob BVH8 auch angenehmer zu cachen ist, weiß ich nicht. Ich hätte (ohne mich genauer mit Raytracing und 3D-Berechnung näher beschäftigt zu haben) eine bounding box durch sechs Floats dargestellt (Anfang und Ende für jede der drei Dimensionen), was 48 Floats pro Box sind. Das sind bei FP32 schon 192Byte und somit drei (?) Cache-Lines. Bei vier Boxen wären es 96Byte, also "verschwendet" man von der zweiten Cache Line etwas.
Hier steht was von 64B Nodes. Ist glaube ich aber "Bit". 64 Byte würde ja gut zu Cachelines passen. Die Nodes kann man komprimieren, deswegen sind es deutlich weniger als du angenommen hast.
https://inews.gtimg.com/news_bt/Ovgq0oUr5XAib00scSTXce6Yo5wwFEQW6hJJxVsU6-dx4AA/641
Und das passt mit einem 2017er Paper von Nvidia zusammen, wo sie genau das aufzeigen: BVH8, BVH compression, etc. Zudem ein ordentlicher BVH-Traversal Speedup vs. BHV4. Hier werden glaube ich 80 Bytes für einen 8-child Node genannt.
https://research.nvidia.com/publication/2017-07_efficient-incoherent-ray-traversal-gpus-through-compressed-wide-bvhs
Und hier noch ein Paper, das BVH Research der letzten Jahre zusammenfasst: YKL17/8-wide ist im Bild unten das obige Nvidia Paper. Vor allem bei Diffuse und Incohorent Rays erreicht man einen zum Teil massiven Performance-Vorteil.
https://meistdan.github.io/publications/bvh_star/paper.pdf
Ergo sollte BVH8 auch besser zu parallelisieren sein, weil der Baum breiter aber weniger tief ist? Man also mehr Intersection Tests gleichzeitig aber weniger hintereinander hat?
Ist man dann auch Cache-Größen sensitiver? Die Latenz sollte ja dann weniger eine Rolle spielen als bei BVH4
Soweit ich verstehe ist das grundsätzlich so, ja. Das Nvidia Paper ist hier sehr interessant zu lesen. Man kann mit weniger Schritten traversieren, was die Latenz reduziert. Dass man mehr Intersection Tests machen muss, kompensiert man anscheinend bei RDNA4 mit doppelt so breiten Intersection Engines.
Felixxz2
2024-09-12, 23:36:42
Aber was waren dann die Gründe für AMDs bisherigen Ansatz? Wenn dieser so klare Bottlenecks produziert?
mczak
2024-09-12, 23:46:10
Aber was waren dann die Gründe für AMDs bisherigen Ansatz? Wenn dieser so klare Bottlenecks produziert?
Wohl eben dass man die doppelte Menge an Intersection Tests gleichzeitig in HW machen muss, sonst macht das keinen Sinn. Und AMD wollte wohl bloss minimale HW-Kosten haben.
Keine Ahnung auch wie die Komplexität z.B. der Erstellung der BVH Strukturen aussieht, allenfalls muss man da smarter vorgehen.
dargo
2024-09-13, 08:27:00
Um N48 ging es ja gar nicht in der Debatte sondern um die PS5PRO die immerhin 800€ kostet und üblicherweise wird KonsolenHW subventioniert oder zumindest zum Selbstkostenpreis verkauft. Und dann auch noch ohne optisches Laufwerk.
Wer weiß ob dieses System in der heutigen und zukünftigen Zeit noch so gut funktioniert wie früher.
basix
2024-09-13, 08:29:15
Wohl eben dass man die doppelte Menge an Intersection Tests gleichzeitig in HW machen muss, sonst macht das keinen Sinn. Und AMD wollte wohl bloss minimale HW-Kosten haben.
Keine Ahnung auch wie die Komplexität z.B. der Erstellung der BVH Strukturen aussieht, allenfalls muss man da smarter vorgehen.
BVH8 hat die Tendenz, mehr Bubbles zu generieren (also die 8 Child Nodes sind nicht immer komplett ausfüllt). Und bei der untersten BVH-Stufe hat man generell mehr unbesetzte Plätze. Das kann man algorithmisch schon versuchen, so gut wie möglich anzuordnen. Denke aber wie du, dass das halt generell komplexer und aufwändiger als bei BVH4 ist. Evtl. würde hier auch eine Ray-Sorting Engine helfen? Aber wie oben im Bild gezeigt, profitieren incoherent Ray am meisten von Nvidias Ansatz. Ausserdem ist im Paper nicht nur ein "banaler" BVH8 genannt sondern noch das drumherum mit den Algorithmen, Kompression, alignment der Daten usw. enthalten.
In addition, we present an algorithmically efficient method for converting a binary BVH into a wide BVH in a SAH-optimal fashion, and an improved method for ordering the child nodes at build time for the purposes of octant-aware fixed-order traversal.
An "LSS18" sieht man zudem, dass man auch mit BVH4 smarter vorgehen kann. Und evtl. noch als Disclaimer: Das Paper ist von 2017. Die Performance-Tests wurden also auf Pascal ausgeführt, welcher keine Ray-Accelerators verbaut hat.
robbitop
2024-09-16, 21:27:37
Sony hat PS5PRO Footage in hoher Qualität veröffentlicht. DF hat sich das angeschaut (im Zusammenhang mit PSSR) und mit FSR und DLSS verglichen. Im aktuellen DF direct kann man sich das anschauen.
PSSR schneidet deutlich besser ab. Gerade dann wenn FSR nicht gut funktioniert (Bewegung, Disocclusion) kommt aber nicht ganz an DLSS heran.
Nicht verwunderlich denn ohne Grund wird Sony kein temporales AI Upsampling entwickelt haben. Und logischerweise ist die erste Iteration von etwas selten so gut wie die drölfzigste von etwas anderem.
aufkrawall
2024-09-16, 21:49:51
In solchen Zoom + Zeitlupe-Vergleichen kann selbst spatial Scaling + TAA vorteilhaft erscheinen. Würde da noch nicht zu viel reininterpretieren.
reaperrr
2024-09-17, 00:05:10
Um N48 ging es ja gar nicht in der Debatte sondern um die PS5PRO die immerhin 800€ kostet und üblicherweise wird KonsolenHW subventioniert oder zumindest zum Selbstkostenpreis verkauft.
Dass die zu diesem Preis zum Selbstkostenpreis, geschweige denn subventioniert verkauft wird, glaub ich den ganzen Tag nicht.
Die wird definitiv mit Marge verkauft. Das SoC wird zwar teurer sein, aber vielleicht um 50-60$ je Chip.
GDDR6-18Gbps wird auch nicht so viel teurer als 14Gbps sein (prozentual vielleicht, aber nicht absolut), die größere SSD vielleicht nochmal 30-40€ Aufpreis, wenn's hoch kommt (die zahlen ja auch keine Endkundenpreise für die Hardware).
Mein Tipp wäre, der BOM für die reine Konsole ist maximal 150€ höher als bei der Digital Edition. Wenn die DigiEd zu +/- Null verkauft wird, wären es bei der Pro dann ~150$/€ Marge.
Der Preis dürfte eher ein Test sein, wieviel die Leute für ne Konsole bereit sind zu zahlen, wenn es die beste auf dem Markt ist.
Gibt ja nicht so viel zu verlieren, wenn sie die mit Marge verkaufen. Schlimmstenfalls werden sie die nicht gut zu dem Preis los und senken ihn nächstes Jahr um 100€, haben dann aber vorher schon einige Konsolen mit mehr Gewinn verkauft.
Edit: Prinzipiell war der Ansatz von MS mit der S und X nicht so falsch, der Schönheitsfehler war mMn, dass die S für den Preis einfach viel zu lasch geworden ist.
Für PS6 könnte ich mir vorstellen, dass es entweder nen ähnlichen Split wie zwischen XSS und XSX direkt zum Launch gibt, nur mit deutlich potenterer "Billig"-Variante, oder ne Pro-Variante schneller zu entsprechendem Aufpreis nachgeschoben wird, wenn das PS5Pro-Preisexperiment glückt.
robbitop
2024-09-17, 06:40:07
In solchen Zoom + Zeitlupe-Vergleichen kann selbst spatial Scaling + TAA vorteilhaft erscheinen. Würde da noch nicht zu viel reininterpretieren.
Vielleicht nicht - aber sie haben ja die gleichen Szenen mit FSR und DLSS verglichen. Und es gab keine Bewegungs und Disocclusionartefakte bei PSSR und bei DLSS wo es welche bei FSR gab. Es waren ja hires Videos und keine Still Images die sie vergleichen konnten. Es ist zumindest mal ein erstes positives Indiz und die grobe Einordnung macht im Gesamtzusammenhang ja auch Sinn IMO.
raffa
2024-09-17, 13:20:05
edit: Ich würd ja schon annehmen, dass Sony das nicht alleine und an AMD vorbei entwickelt hat, und der Ersteindruck wirkt erstmal gut was dann wiederum Hoffnung macht auf ein baldiges, ordentliches FSR4.
https://www.phoronix.com/news/Linux-6.11-Feature-Recap
" AMD RDNA4 graphics seem to have a baseline of the Linux 6.11 kernel. From all public indications thus far, Linux 6.11 looks like it will be the initial baseline for graphics driver support. This is good news with AMD next-gen graphics not yet being launched... But it's stabilized enough that it looks to be in good shape for Linux 6.11. Granted, more performance optimizations and new features may still arrive in Linux 6.12+. "
fehlt eigentlich nur noch die Hardware :rolleyes:
robbitop
2024-09-18, 17:46:56
Sony hat weiteres hires footage releast was sich DF angeschaut hat. Final Fantasy 7 Rebirth.
Ein weiterer postiver Vorab Datenpunkt für PSSR auf einer (wahrscheinlich) RDNA4 GPU:
https://www.youtube.com/watch?v=fJZ6ndDACG8
reaperrr
2024-09-26, 21:20:29
War mir nicht sicher, ob ich es hier oder im RDNA3-Thread posten soll, aber:
7900 GRE nur noch zu Preisen ab ~580€ aufwärts verfügbar, manche Modelle teurer geworden -> schlechte Verfügbarkeit wegen bereits vor längerer Zeit ausgelaufener Produktion?
7800 XT jetzt schon ab 466 und 7700XT ab 400 € zu kriegen - Abverkauf?
Würde schon zeitlich dazu passen, dass lt. MLID mindestens ein N48-Modell schon im Oktober vorgestellt werden soll.
vinacis_vivids
2024-09-26, 22:02:55
Deine Aussage ist schon lustig. Es gibt derzeit keine Grafikkarten mit RDNA4 zu kaufen, sondern in der Realität eben nur RDNA2 und RDNA3.
Die Leute wollen nach dem Sommer langsam auch zu Hause wieder ordentlich zocken und kaufen halt bevorzugt die Mittelklasse um die ~500€, der Preisrange von 400€ bis 600€ deckt AMD derzeit mit der RX7800 XT 16GB ab, also Navi32 = 60CU. Die gute RX6800 XT 16GB für 519€ scheint langsam zu verschwinden. Es gibt aber noch die ebenfalls gute und preiswerte RX6800 16GB um die ~400€.
Bei der geilen RX 7900 GRE 16GB hat sich viel rumgesprochen, dass diese zur Kategorie "sehr gut" im Preis/Leistung Verhältnis gehört und die Leute kaufen es AMD einfach weg. Package und binning ist bei der 7900GRE 80CU teuer und daher knapp, deswegen Preis nach oben auf ~580€ bis 650€. Da wird der Preis auch erstmal bleiben bis RDNA4 auf dem Markt erscheint.
Gibt vielleicht gar nicht mehr genügend Ausschuss / Abfall von N31, sondern hauptsächlich N31XL=84CU und N31XTX=96CU Ausbeute bei der verbesserten 5nm Fertigung. Beide fallen Aufgrund der höheren Kosten aus dem Midrange raus und AMD pflegt hiermit noch halbwegs High-End / Enthusiast, oder auch das Ende dessen.
RDNA4 aka 8800XT wird vermutlich erst später kommen und hauptsächlich an die OEMs bzw. Systembuilder gehen. Ein großer Teil vom 4nm-Kontingent hat sich zudem Sony mit der PS5 Pro schon gesichert, weil "bezahlt ist bezahlt"!
Nur ein kleiner Teil der RDNA4-uArch wird für den diskreten GPU-Markt am Selbstbau-PC zu haben sein für eine schmale Zielgruppe.
Mal schauen ob RDNA4 wesentlich im mobilen Markt auftauchen wird. Da sieht es sehr mager aus bei RDNA2 und RDNA3 im mobilen Bereich. Sehr wenig Auswahl und relativ teuer.
reaperrr
2024-09-27, 03:57:52
Es gibt derzeit keine Grafikkarten mit RDNA4 zu kaufen, sondern in der Realität eben nur RDNA2 und RDNA3.
Zusammenhang?
Habe doch auch überhaupt nichts anderes geschrieben...
Nur dass es eben Indizien gibt, die auf baldigen RDNA4-Launch hinweisen könnten.
Bei der geilen RX 7900 GRE 16GB hat sich viel rumgesprochen, dass diese zur Kategorie "sehr gut" im Preis/Leistung Verhältnis gehört und die Leute kaufen es AMD einfach weg.
@stock ist die nur unwesentlich besser als die 7800XT, kostet inzwischen aber über 100 €, also über 20%, mehr.
Zu aktuellen Preisen ist das P/L der GRE klar schlechter.
RDNA4 aka 8800XT wird vermutlich erst später kommen
MLID sagt, AMDler hätten gegenüber Board-Partnern zugegeben, dass sie absichtlich immer erst von Launch Anfang 2025 geredet haben, um Gerüchteküchen (und Nvidia) etwas in die Irre zu führen, und in Wahrheit einen Launch in relativ großem Volumen noch für dieses Jahr geplant haben.
und hauptsächlich an die OEMs bzw. Systembuilder gehen.
Auch die OEMs kriegen ihre Karten erst, wenn das Produkt auch gelauncht ist.
Ein großer Teil vom 4nm-Kontingent hat sich zudem Sony mit der PS5 Pro schon gesichert, weil "bezahlt ist bezahlt"!
Die Kontingente für die Pro werden schon lange im Voraus geplant gewesen sein, das wirkt sich nicht zwangsläufig negativ auf N48-Volumen aus.
BlacKi
2024-09-28, 03:31:37
nein, doch, ohhh.
rdna4 q1 25 nach neuesten informationen. weil...
amd noch n31 verkaufen muss, sonst drohen marktanteilgewinne durch günstigere preise auf amds kosten.
rdna4 ist fertig, aber zuviele n31 chips die man nicht günstig verkaufen will.
LVXGDPKWsss
DrFreaK666
2024-09-28, 04:06:04
meh
Die haben einfach versäumt die Preise zu senken. Das wird in den ganzen Querelen einfach untergegangern sein schätz ich mal. Vor allem 7900XT muss offiziell runter auf 600$ und die XTX auf 800.
horn 12
2024-09-28, 11:09:56
Nun, XT gibt es ab 660 Euro
und XTX ab 880 bis 930 Euro
Denke dass RDNA doch als Paperlaunch Oktober kommt und im Anfang-Mitte November im Regal steht!
AffenJack
2024-09-28, 11:22:58
nein, doch, ohhh.
rdna4 q1 25 nach neuesten informationen. weil...
amd noch n31 verkaufen muss, sonst drohen marktanteilgewinne durch günstigere preise auf amds kosten.
rdna4 ist fertig, aber zuviele n31 chips die man nicht günstig verkaufen will.
https://youtu.be/LVXGDPKWsss
MLID ist so unfassbar unglaubwürdig, erst kommt RDNA4 dieses Jahr, dann sucht er mal wieder Gründe um zurückzurudern. Poste soviele Sachen und hoffe mit irgendwas richtig zu liegen. :freak:
AMd redet selbst in Interviews davon Marktanteile zu gewinnen, aber senkt RDNA3 im Preis nicht, sondern verschiebt lieber RDNA4, um erst später Marktanteile zu gewinnen. Weil gegen Blackwell wird das bestimmt leichter. Ja, das klingt sehr sinnig.
Ich bin gespannt, ob wir dieses Jahr noch einen Paperlaunch sehen. Sowohl AMD als auch Nvidia hatten zuletzt fast nen Monat zwischen Ankündigung und Hardlaunch. Ich glaube langsam aber nicht mehr, dass wir noch irgendeinen Hardlaunch dieses Jahr sehen.
dildo4u
2024-09-28, 11:24:49
5090 ist glaubwürdig, da 4090 verschwinden vom Rest gibt es noch viel zu viel auf Lager.
basix
2024-09-28, 11:31:29
RDNA4 wäre prinzipiell AMDs Chance auf Marktanteile und Mindshare. Dass momentan wenig GPUs verkauft werden liegt mMn vor allem daran, dass die aktuellen Angebote einfach zu unattraktiv sind (neben generellen finanziellen Themen in der Bevölkerung).
RDNA4 könnte hier sehr gut einschlagen, vorausgesetzt natürlich dass die Produkteigenschaften das hergeben. Ein Release zur Holiday Season wäre doch was: Nvidia bringt obenrum die 5090 und AMD grast unten rum den Rest mit RDNA4 ab ;)
BlacKi
2024-09-28, 11:48:24
@affenjack +1
wenn zuviele karten noch verkauft werden müssen, dann kann man rdna4 nicht bringen, denn dann würde man auf rdna3 sitzen bleiben. denn preise senken ist offenbar nicht möglich für amd, sonst hätte amd nicht zu viele karten. also sitzt man die sache aus.
@basix will amd warten bis nvidia die rtx 5070 raus bringt und das momentum liegen lässt? ich kann nicht verstehen, das amd nicht einfach jetzt die preise senkt und dann ende oktober, anfang november rdna4 vorstellt, um das weihnachtsgeschäft noch mitnehmen zu können.
basix
2024-09-28, 12:09:55
Jo, wäre auch mein Gedanke. Aber die Talermeister bei AMD rechnen sich die N31 Abschreiber aus und was man erwartet mit RDNA4 zu verdienen. Ich kann mir allerdings nicht vorstellen, dass man extrem viele N31 an Lager hat. N31 hat sich noch nie sehr gut verkauft. Und von N44/N48 würde man schlagartig viel höhere Volumen verkaufen, was gleichbedeutend mit stark gesteigertem (absolutem) Gewinn wäre.
Der_Korken
2024-09-28, 12:51:35
Ohne Abverkaufspreise wird AMD ihre angeblichen N31-Bestände nicht los. Warum soll ausgerechnet jetzt noch jemand diese Karten kaufen, nachdem sie fast zwei Jahre auf dem Markt sind? Der mit Abstand größte Treiber beim Hardwarekauf ist, dass man nach x Jahren für das gleiche Geld y% mehr Leistung bekommt und sich das Aufrüsten lohnt. Wenn aber seit Jahren y gegen 0 geht bzw. x gegen unendlich geht, dann kaufen die Leute nur noch dann neue Hardware, wenn die alte kaputt geht. Deswegen sitzen AMD und Nvidia gefühlt seit 3 Jahren nur noch auf Restbeständen und halten ihre neuen Entwicklungen zurück, um die Abschreibungen klein zu halten. Bin mal gespannt, wie lange sowas noch funktioniert.
dargo
2024-09-28, 13:28:59
nein, doch, ohhh.
rdna4 q1 25 nach neuesten informationen. weil...
amd noch n31 verkaufen muss, sonst drohen marktanteilgewinne durch günstigere preise auf amds kosten.
rdna4 ist fertig, aber zuviele n31 chips die man nicht günstig verkaufen will.
https://youtu.be/LVXGDPKWsss
Diese Logik finde ich immer lustig. Und was passiert wenn AMD Q1 2025 immer noch zuviele N31 auf Lager hat weil sie jetzt kaum einer will? Wird dann RDNA4 auf Q3 2025 verschoben? :ulol: Und wenn Q3 2025 immer noch zu viele N31 da sind wird RDNA4 gecancelt? ;D
DrFreaK666
2024-09-28, 13:39:46
Ohne Preise zu senken wird das halt nix.
BlacKi
2024-09-28, 13:57:26
Diese Logik finde ich immer lustig. Und was passiert wenn AMD Q1 2025 immer noch zuviele N31 auf Lager hat weil sie jetzt kaum einer will? Wird dann RDNA4 auf Q3 2025 verschoben? :ulol: Und wenn Q3 2025 immer noch zu viele N31 da sind wird RDNA4 gecancelt? ;Ddas ist ja der punkt, drfreak spricht es ja an. früher oder später müssen die preise runter. amd macht hier ein spiel auf zeit und scheint es zu verlieren.
Hakim
2024-09-28, 14:09:15
2 Freunde wollten sich ~ Frühling dieses Jahres neuen PC samt GPU kaufen, hab beiden erzählt Q4 auf zen5 und Arrow Lake warten, und bei GPU halt RDNA4 oder neuen geforce Gen. Wenn die jetzt diese Jahr noch ein System kaufen und es gibt immer noch keine neuen GPUs, wird man man sich bei der aktuellen Gen bedienen. Aber ja die Mehrheit, solange nix kütt ist oder neuer PC gekauft wird wartet halt auf die neuen
dargo
2024-09-28, 14:32:25
amd macht hier ein spiel auf zeit und scheint es zu verlieren.
Und das weißt du woher? Von einem Youtuber? ;D
raffa
2024-09-28, 14:48:53
Jo mei, es wird halt fröhlich hin- und herspekuliert. Wenn RDNA4 was taugt, dann wärs unklug den release zu verzögern bei der derzeitigen GPU Lage, find ich.
Schnitzl
2024-09-28, 14:52:45
Es wurde hier schon oft dargelegt, warum weder AMD noch nVidia irgendwelche neuen Karten "zurückhalten".
RDNA4 ist noch nicht fertig, end of story.
dargo
2024-09-28, 15:20:03
Es wurde hier schon oft dargelegt, warum weder AMD noch nVidia irgendwelche neuen Karten "zurückhalten".
RDNA4 ist noch nicht fertig, end of story.
RDNA4 ist schon lange fertig. Jetzt geht es um Softwareoptimierung. ;) Wenn RDNA4 noch kein Tapeout hätte würden wir noch ca. 9-12 Monate warten müssen.
Schnitzl
2024-09-28, 16:20:04
du weisst schon wie das gemeint war ^^
The_Invisible
2024-09-28, 17:30:56
Mit einem zu schnellen Release würde man sich eh nur selbst kannibalisieren. Wer kauft dann noch eine 7900XTX wenn RDNA4 da fast an Raster rankommt und aber bei RT viel schneller ist bzw FSR4/AI bietet, die müsste man dann verscherbeln...
Schnitzl
2024-09-28, 17:44:32
falsche Fragestellung ;)
Wer kauft _überhaupt_ JETZT NOCH eine 7900XTX? Es warten doch inzw. alle auf RDNA4...
Linmoum
2024-09-28, 17:53:02
Nicht jeder, der PC-Hardware will oder braucht, weiß davon, dass soon™ eine neue Generation auf den Markt kommt. ;)
Schnitzl
2024-09-28, 18:12:35
ok, dann anders:
- die, die wissen dass ne neue Gen kommt, warten auf RDNA4*
- die die das nicht wissen, kaufen sowieso nVidia, weil Bekannter/Arbeitskollege/etc. das gesagt hat und weil die 4090 ja die schnellste Karte ist
* wobei das auch wieder nur ein Bruchteil betrifft, die Meisten warten ja auf Blackwell
reaperrr
2024-09-28, 18:21:20
Nicht jeder, der PC-Hardware will oder braucht, weiß davon, dass soon™ eine neue Generation auf den Markt kommt. ;)
Und zumindest bei absoluter Raster-Leistung soll die XTX ja knapp vor N48 bleiben, mehr RAM hat sie auch.
Das Problem dürfte aber sowieso eher sein, dass die 8000er bei P/L, RT und Effizienz so viel besser sein werden, dass AMD den Boardpartnern massive rückwirkende Rabatte auf die 7900XT(X) geben müsste, damit die AIBs diese überhaupt ohne herbe Verluste im Preis senken und abverkaufen können, und das will AMD offenbar nicht.
Stattdessen setzen sie wohl darauf, über kostenlose Bonus-Games, Bundles mit anderer AMD-Hardware (9000er), Black Friday und Weihnachtsgeschäft noch genug N31 zu akzeptabler Marge loszuwerden, und N48 lieber im normalerweise schwachen 1. Quartal zu launchen.
Trotzdem schade, hatte gedacht AMD hätte das mit dem Produktionsende von N31 diesmal besser getimet, war wohl nichts.
vinacis_vivids
2024-09-28, 18:33:17
Die Preise für RDNA3 Mid-Range haben angezogen. Die sehr gute 7900GRE ist bei MF schon ausverkauft.
RDNA4 wird die RX6800 / RX6800XT / RX6900XT / RX 6950XT und die 7900GRE ersetzen.
Die RX 6700XT / RX 6750XT und RX 7900XT / RX 7900XTX werden weiter erhalten bleiben für den Markt, auch bei Erscheinung von RDNA4. Damit hätte AMD dann gleichzeitig RDNA2 / RDNA3 und RDNA4 auf dem Markt.
Die *meisten warten auf die salvage RDNA4 (60CU) der PS5 Pro.
Vor allem wenn Scalper solche Preise ausrufen für "Zen2 + RDNA4 + Plastik" im Decknamen von Sony.
Geld aufm Markt ist anscheinend genügend vorhanden bis November 2024.
Vor allem nutzt RDNA4 nach wie vor die 64CU / 4096SP Originalstruktur von Fiji10 64CU / 4096SP aus dem Jahr 2015.
Diesmal werden die RDNA4 Salvages besser ausgenutzt mit 64CU Full (RX 8800XT) + 96MB IF$ ? und Salvages 60CU (PS5 Pro) und Salvages 56CU (RX 8700XT) + 64MB IF$ ?. Wahrscheinlich auch stark um IF$ beschnitten wenn RDNA4 full 64CU mit 96MB IF$ erscheinen sollte.
Als Neuerung wird AMD wohl auch die AI-NPU uArch mit XDNA2 mit verkaufen wollen.
robbitop
2024-09-28, 18:47:52
Wobei sie ja auch noch RDNA2 verkauft haben parallel zu RDNA3. Aber ich denke das ging auch nur so gut weil RDNA3 jetzt nicht der allerbeste Wurf war. Sollte RDNA4 wirklich so viel effizienter und moderner sein müssten sie RDMA3 verkloppen. Aber so ist es nunmal wenn die nächste Generation kommt. Wundert mich dass man angeblich „plötzlich“ merkt dass man zu viel Inventar hat und bis vor kurzem noch RDNA4 im Oktober launchen wollte. Sowas ist doch sicherlich halbwegs planbar und absehbar?
reaperrr
2024-09-28, 23:22:38
Wundert mich dass man angeblich „plötzlich“ merkt dass man zu viel Inventar hat und bis vor kurzem noch RDNA4 im Oktober launchen wollte. Sowas ist doch sicherlich halbwegs planbar und absehbar?
Laut MLID (ja, ich weiß...) in einem früheren Video wurde die N31-Produktion ja schon vor Monaten deutlich zurückgefahren oder gar eingestellt.
Es ist in dem Fall also vermutlich weniger so, dass AMD selbst noch zu viele Chips hätte, sondern mehr, dass die AIBs und der Channel den Rest aktuell wohl einfach zu diesen Preisen nicht mehr loswerden und AMD Angst hat, dass die AIBs dann quasi finanziellen Schadensausgleich haben wollen, wenn AMD die 8000er "zu früh" bringt und damit die restlichen 7900XT/X entweder für die AIBs oder AMD zu nem fetten Verlustgeschäft werden.
Mögliche Gründe:
- unterschätzt, wie negativ sich sowohl Blackwell- als auch RDNA4-Gerüchte auf XT/XTX-Verkäufe auswirken würden
- AMD wollte nicht zu früh Marge opfern, deshalb versäumt, vor Monaten rechtzeitig die Voraussetzungen für niedrigere Preise zu schaffen (aka Chips zu günstigeren Preisen an AIBs zu verkaufen), insbesondere bei der XTX
amdfanuwe
2024-09-28, 23:54:14
und bis vor kurzem noch RDNA4 im Oktober launchen wollte. Sowas ist doch sicherlich halbwegs planbar und absehbar?
Wo hat denn AMD den Oktober angekündigt?
Hat halt den "Leakern" als Termin schön in den Kram gepasst, nachdem schon zur Computex nix zu RDNA4 kam. Oktober zusammen mit X3D und neuen Boards wäre halt schön gewesen.
Nächster passender Termin ist nun CES 25.
Halbwegs planbar und absehbar? Nein. Ist wie Kinder kriegen. Im Schnitt 9 Monate, manche kommen früher, manche später. Ob sie dann auch noch gesund sind ...
Und dann war da noch Nvidia mit einer starken Super Serie, die einige Planungen zunichte gemacht haben dürfte.
Der_Korken
2024-09-29, 00:53:11
- unterschätzt, wie negativ sich sowohl Blackwell- als auch RDNA4-Gerüchte auf XT/XTX-Verkäufe auswirken würden
Ich kann mir nicht vorstellen, dass ein Großteil der Käufer sich mit sowas beschäftigt. Wir sind da eher eine kleine Bubble.
reaperrr
2024-09-29, 02:14:08
Ich kann mir nicht vorstellen, dass ein Großteil der Käufer sich mit sowas beschäftigt. Wir sind da eher eine kleine Bubble.
HighEnd ist ne kleine Bubble (vom Volumen her).
Diejenigen, denen der Preis egal ist, holen sich oder haben schon eher ne 4090 als ne Radeon.
Diejenigen, denen sowohl P/L als auch Features und Effizienz wichtig sind, haben entweder schon was vergleichbares, oder haben mitbekommen, dass bald neue Karten anstehen und warten deshalb ab.
Gerade Enthusiasten sind doch in der Regel eher überdurchschnittlich gut informiert.
Die DAUs kaufen sich eher was Billiges, oder generell nur Nvidia.
amdfanuwe
2024-09-29, 02:38:53
HighEnd ist ne kleine Bubble (vom Volumen her).
Und die Bubble hat 2 Löcher. Durch das eine strömen diejenigen heraus, die keinen Bock mehr auf das tollste haben. Durch das andere strömen neue Kunden hinein, die bisher nichts hatten oder sich nicht leisten konnten.
Das ist keine statische Gruppe.
Ebenso steht jeden morgen jemand auf mit der Überlegung sich eine neue GPU zu leisten. Manche haben keine Ahnung, manche kaufen was grad sinnvoll erscheint, manche planen und informieren sich.
GerryB
2024-09-29, 11:58:14
bezgl. Abverkauf
natürlich war ne GRE@529€ net schlecht, vor Allem für Vram-OCer
aber
derzeit ist die 7800xt@449€ einfach bei P/L besser
da wird evtl. ne 8800nonXT net groß günstiger sein
erfahrungsgemäß kann AMD sehr gut mit dem gleichzeitigen Angebot von 2 Gens hantieren
Da braucht sich Keiner Sorgen machen.
BlacKi
2024-09-29, 12:19:17
bezgl. Abverkauf
natürlich war ne GRE@529€ net schlecht, vor Allem für Vram-OCer
aber
derzeit ist die 7800xt@449€ einfach bei P/L besser
da wird evtl. ne 8800nonXT net groß günstiger sein
erfahrungsgemäß kann AMD sehr gut mit dem gleichzeitigen Angebot von 2 Gens hantieren
Da braucht sich Keiner Sorgen machen.glaubst du bzgl. der günstigen preise in diesem segment, das rdna4 hier seinen platz finden wird? also 7800xt bzw. GRE performance? anders würde die preissenkung in diesem segment keinen sinn ergeben.
reaperrr
2024-09-29, 13:33:12
glaubst du bzgl. der günstigen preise in diesem segment, das rdna4 hier seinen platz finden wird? also 7800xt bzw. GRE performance? anders würde die preissenkung in diesem segment keinen sinn ergeben.
Ich würde die 8800XT bei 600-650 Euro erwarten.
Billiger zu produzieren als ne 78XT und viel billiger zu produzieren als alle N31-Karten, da ist die Marge auch bei 600-650 Euro hoch und man gewinnt trotzdem Marktanteile, weil die 79XTX und 4080(S) deutlich teurer sind, die 79XT und 4070TiS etwas teurer und langsamer, und die 5070 wohl erst später kommt (um wieviel, muss man natürlich abwarten).
Wenn die 88XT ~40% schneller als die 7800XT in Raster, 60-70% schneller in RT wird und klar bessere Perf/W hat, ergibt der aktuelle Preis der 7800XT auch Sinn.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.