Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
iamthebear
2024-04-28, 18:13:47
Wenn das stimmt, wäre die ursprüngliche Portfolio-Planung wohl so gewesen:
N41 - 3 Chiplets
N42 - 2 Chiplets
N43 - 1 Chiplet
N44 - monolithisch
Damit N43 klar oberhalb von N44 (32CU) herauskommt, sind 40 CU pro Chiplet eigentlich zu knapp, wenngleich nicht undenkbar. Auch 44 oder 48 CU wären möglich, selbst größere Zahlen nicht unmöglich. Nur auf oberhalb 60 CU würde ich nichts geben, weil dies dann auch mit der Speicherbandbreite knapp werden würde. Aufgrund der internen Anbindungen dürfte auch das SI an der Anzahl an Chiplets hängen, ergo:
N41 - 3 Chiplets, 384-bit
N42 - 2 Chiplets, 256-bit
N43 - 1 Chiplet, 128-bit
N44 - monolithisch, 128-bit
... was bedeutet, für N43 mit seinem Speicherinterface kann man nicht beliebig viel CUs einplanen, irgendwann limitiert das Interface. 48 oder 56 CU wären eine gute Mittellösung.
PS: Mag sein, dass dies alles gestrichen ist. Aber es kommt ja wieder mit RDNA5.
Ich sehe auch 2 mögliche Interpretationen:
a) N43 war ursprünglich statt N44 in einier ähnlichen Performanceklasse geplant aber nachdem das Chipletexperiment mit Navi31/32 gröber schief gegangen ist hat man sich dafür entschieden monolithisch zu bleiben.
b) Navi41/42/43 waren doch deutlich schneller geplant und man hätte den Bandbreitenbedarf mit GDDR7 und höheren Cachemengen in den MCDs kompensiert.
reaperrr
2024-04-28, 18:43:08
Wenn das stimmt, wäre die ursprüngliche Portfolio-Planung wohl so gewesen:
N41 - 3 Chiplets
N42 - 2 Chiplets
N43 - 1 Chiplet
N44 - monolithisch
Damit N43 klar oberhalb von N44 (32CU) herauskommt, sind 40 CU pro Chiplet eigentlich zu knapp, wenngleich nicht undenkbar. Auch 44 oder 48 CU wären möglich, selbst größere Zahlen nicht unmöglich. Nur auf oberhalb 60 CU würde ich nichts geben, weil dies dann auch mit der Speicherbandbreite knapp werden würde. Aufgrund der internen Anbindungen dürfte auch das SI an der Anzahl an Chiplets hängen, ergo:
N41 - 3 Chiplets, 384-bit
N42 - 2 Chiplets, 256-bit
N43 - 1 Chiplet, 128-bit
N44 - monolithisch, 128-bit
... was bedeutet, für N43 mit seinem Speicherinterface kann man nicht beliebig viel CUs einplanen, irgendwann limitiert das Interface. 48 oder 56 CU wären eine gute Mittellösung.
PS: Mag sein, dass dies alles gestrichen ist. Aber es kommt ja wieder mit RDNA5.
Das ist doch Asbach-Uralt.
RGT hat schon so ca. gefühlt vor anderthalb Jahren berichtet (auch wenn er die Info vielleicht nur von einem Twitter-Leaker oder chinesischem Foreneintrag geklaut hatte, wer weiß wer seine "Quellen" sind), dass ein RDNA4-GCX 48 CUs hat (3 SE mit je 8 WGP/16 CU) und N41 im Vollausbau 144 CUs verteilt auf 3 GCX.
Ein GCX wäre also quasi der N32-GCD minus 1 WGP je SE sowie mit nur 2 IF-Interfaces für MCDs gewesen, und halt mit RDNA4 und kleinerem Herstellungsprozess (würde wetten, dass der GCX in N3E gewesen wäre).
Und ja, auch ich bin der Meinung, dass das der Grund war, warum AMD schon relativ frühzeitig noch den monolithischen N48 designt hat:
Mit 48 CUs und 128 bit (Bandbreite wäre mit GDDR7 weniger das Problem, aber Speichermenge) wäre N43 viel zu lahm geworden, um die Assembly-Fixkosten je Chip rechtfertigen zu können, zumal die begrenzten Kapazitäten dann womöglich auch noch die effektiven N41/42-Stückzahlen negativ beeinflusst hätten.
AMD hat meiner Einschätzung nach einfach rechtzeitig gemerkt, dass N43 in dieser Form keinen Sinn macht und ein monolithischer Chip mit höheren Specs komplett in N4P vom Kosten-Nutzen-Verhältnis im Mainstream besser wäre.
Übrigens war nach Streichung der Chiplet-RDNA4 auch kurzzeitig von einem 120CU-Ersatz die Rede, ich wette, das wäre ein von N48 hochskalierter monolithischer Chip mit quasi 1,5x N48 + 1 zusätzlicher WGP je SE gewesen, was aber aus Time-to-Market-Gründen leider verworfen wurde, wenn sie so spät noch einen neuen Monolith angefangen hätten, wäre RDNA4 wohl erst Frühjahr/Mitte '25 erschienen.
OgrEGT
2024-04-28, 19:12:13
WTF ... was für ein Teaser:
https://twitter.com/All_The_Watts/status/1784561456694046744
N36 ... bisher kannte ich das nur als Gerücht
N41 ... "nur" 96WGP, nix über 100; aber nur 256bit, dafür GDDR7
Dafür N40 ... WTF (und bisher auch nur als Gerüchte bekannt)
und N50, anscheinend so groß wie N40
Geil wenns stimmt :up:
Was dafür sprechen könnte ist dass NV bei BW so Gas gibt um dem etwas entgegen zu setzen...
boxleitnerb
2024-04-28, 19:46:13
Das „Größer“-Zeichen bei N50 übersehen? Der könnte noch größer als N40 werden.
horn 12
2024-04-28, 20:01:53
Hat nicht jener gepostet dass Navi 31 "so sparsam" und auch doch noch schnell sein soll.
Als die 450+ Watt von NV bekannt waren,- oder irre ich mich da gewaltig ?
Neurosphere
2024-04-28, 20:22:42
Vermutlich sind das allesammt nur interne Projekte, was nicht heißt das sie verwirklicht werden. Das es etwas über N31 gegeben haben soll ging damals glaube ich schon rum und das es gestrichen worden ist.
N41 ist stand derzeit ebenfall gecancelt. N40 vermutlich auch nur eine Machbarkeitsstudie.
reaperrr
2024-04-28, 21:00:53
Geil wenns stimmt :up:
Was dafür sprechen könnte ist dass NV bei BW so Gas gibt um dem etwas entgegen zu setzen...
N36 wurde offensichtlich gecancelt, dass es Tests eines RDNA3 mit 16384 ALUs (DualIssue) gab, flog schon vor ca. nem Jahr durch die Gerüchteküche, weder der Codename noch die CU-Zahl sind neu, nur nochmal Bestätigung früherer Gerüchte.
Was in dem Post als N40 und N41 bezeichnet wird waren offenbar die richtigen Codenamen für die Chiplet-Konstrukte, die wir hier als N41 und N42 bezeichnet haben, sprich, N40 = 3 GCX a 48 CUs, N41 = 2 GCX a 48 CUs.
Also auch nur Bestätigung dessen, was in der Gerüchteküche schon ewig rumflog, und widerspricht auch nicht deren Streichung.
Und dass der RDNA5-TopDog mehr CUs bekommen wird, als das beim RDNA4-TopDog der Fall gewesen wäre, ist jetzt auch nicht so überraschend...
Also nichts wirklich neues, nur Bestätigung, dass frühere Gerüchte wohl stimmten. Tot sind N36, N40 und N41 aber mit an Sicherheit grenzender Wahrscheinlichkeit trotzdem.
basix
2024-04-28, 21:28:22
>144 WGP / 288 CU bei N50 wäre schon brutal. Und imho etwas unwahrscheinlich. Ebenso >384bit GDDR7
Beispiel:
- 288CU * 128x FP32/cycle * 3.5 GHz = 258 TFLOPS -> 4x mehr als N31 und vermutlich 5x mehr als N48. Das wäre schon ziemlich brachial
288CU wären bei gleichbleibenden 16 CU/SE stolze 18x SE. N31 hat 6 SE. AD102 und auch B202 sollen 12x GPC haben.
Ich sehe also Probleme hinsichtlich Energieverbrauch und Skalierbarkeit. Von Bezahlbarkeit reden wir mal lieber nicht.
Zwei Möglichkeiten, die ich sehe:
- 20CU pro SE anstatt 16. Das wären zwar mehr, aber der Zusatzaufwand wäre gering. Und man könnte die GPU niedriger takten (Energieeffizienz) -> 120*3 = 360
- Man nimmt 4x Chiplet Slices -> 96*4 = 384 für eine "Notfall SKU". Normalerweise würde man bei 288 halt machen (wenn es für die Performancekrone reicht) aber mit 384 könnte man auf Nvidia reagieren.
Sehr sportlich das ganze...
Iscaran
2024-04-28, 22:37:16
WTF ... was für ein Teaser:
https://twitter.com/All_The_Watts/status/1784561456694046744
N36 ... bisher kannte ich das nur als Gerücht
N41 ... "nur" 96WGP, nix über 100; aber nur 256bit, dafür GDDR7
Dafür N40 ... WTF (und bisher auch nur als Gerüchte bekannt)
und N50, anscheinend so groß wie N40
Hmmmm - ob das nicht einfach nur ein paar wilde Zahlenkolonnen sind.
Aber gut lassen wir uns die "Implikationen" mal so darstellen.
N32, 30 WGP, 256 Bit, GDDR6 => Stimmt, existiert.
N31, 48 WGP, 384 Bit, GDDR6 => Stimmt, existiert.
N36, 60 WGP, 384 Bit, GDDR6 => Was soll das sein? Ein gecancelter Chip?
N44, 16 WGP, 128 Bit, GDDR6 => Könnte das "Basis-Chiplet" sein oder die "Mono-Chiplet, Pseudo-monolith Lösung?
N48, 32 WGP, 256 Bit, GDDR6 => 2x N44 oder ALTERNATIVES Basis Chiplet?
N41, 96 WGP, 256 Bit, GDDR76 => Lösung 1: 6x N44, Lösung 2: 3xN48
N40, 144 WGP, 384 Bit, GDDR7 => Lösung1: 9x N44
Warum nur bei N40 GDDR7...und irgendwie komisch wenn N41 6 Chiplet ist, Warum dann keine 3x Chiplets N42 (48 WGP) in der Liste?
Wenn N41 aber 3x N48 wäre....passt N40 wieder nicht (4.5 N48 = 144, geht nur via 9x N44.
AMD legt sicherlich NICHT 2 unterschiedliche Basis Chiplets auf....
EDIT: Wenn man annimmt N48 wäre die "kleinste" Chiplet Lösung mit 2xN44, warum soll dann N41 6x N44 sein (nicht 4xN44 z.B.) N40 analog.
Ich glaube das sind nur Zahlenkolonnen für den Hypetrain.
reaperrr
2024-04-29, 03:03:46
AMD legt sicherlich NICHT 2 unterschiedliche Basis Chiplets auf....
Natürlich nicht. N44 und N48 sind Monolithen, und N41+N40 basierten auf 2 (N41) bzw. 3 (N40) GCX mit scheinbar je 48 WGPs pro GCX.
Außerdem steht auch bei N41 G7, nicht nur bei N40. Die hätten sich nur bei der Interface-Breite unterschieden, weil diese wohl an die Anzahl der GCX gekoppelt war (2 MCDs bzw. 128bit pro GCX).
OgrEGT
2024-04-29, 08:30:50
Für mich scheinen das Eckdaten zu den GPUs zu sein an denen AMD zu bestimmten nicht bekannten Zeitpunkten arbeitet oder gearbeitet hat... was davon erscheinen wird ist nach wie vor nicht bekannt... bei N36 scheint die Wahrscheinlichkeit am höchsten dass dieser Chip nicht erscheinen wird da naheliegt dass dieser auf der gleichen Architektur wie N31 basieren würde und dieser bereits grenzwertigen Stromverbrauch hat...
Den Plan mit den 3 Base-Dies wird man mMn nicht weiter verfolgen. Ich tippe auf 2 (verschiedene) Base Dies mit größeren GCDs als bei Navi4, das macht die Komplexität geringer und die Effizienz höher. Ich tippe mal nicht wie bei Navi4 mit 3x8 WGPs (wären halt 48CUs pro Die gewesen), sondern auf eine 3x16-Organisation, das macht 2x 48 WGPs, wären 192 CUs, mit 4 CUs pro WGP (gestapelt, also 3-dimensional) doppelt so viele, wobei ich diesen Ausbau erst ab RDNA6 erwarte.
OgrEGT
2024-04-29, 08:49:06
Dass N44 und 48 monolithisch sind scheint klar... bei den anderen beiden N40 und 41 glaube ich auch dass diese aus 48WGP Chiplets aufgebaut sind. 3D also gestapelt glaub ich nicht dass man schon soweit ist... die Liste könnte unvollständig sein da noch ein hypothetisch N42 mit 1x48WGP fehlt... wie gesagt könnten alles auch nur Pläne zu einem bestimmten Zeitpunkt sein... ob und was davon erscheinen wird kann man auf der Basis nicht sicher sagen...
Iscaran
2024-04-29, 08:51:32
Natürlich nicht. N44 und N48 sind Monolithen, und N41+N40 basierten auf 2 (N41) bzw. 3 (N40) GCX mit scheinbar je 48 WGPs pro GCX.
Wenn N44 und N48 einfach nur Monolithen sind:
Wenn man schon den Chiplet weg geht und das Base-Chiplet 48 WGP hat, würde man dann nicht viel logischer AUCH den 1xBase-Chiplet Chip auflegen?
Für mich macht eigentlich NUR Sinn dass N48 das Base-Chiplet ist. N44 ist davon abgeleitet ein Monolith wo ein Teil der Chiplet-CUs durch die sonstigen Core-Logic Bestandteile ersetzt wird, weswegen weniger CUs bleiben.
Warum sollte AMD also ausgerechnet bei den kleinen GPUs nochmal ZWEI extra monolithen auflegen, wenn man ein Chiplet machen kann?
Wenn N48 nun der Base-Compute Die ist, dann passen aber 3x32 zu 96 WGP. Was noch Sinn macht. Aber 4.5x32 = 144 passt dann nicht.
Die andere Lösung die mir ins Auge spring ist 16 WGP Chiplets (N44). Dann hat man 2x16, 6x16 und 9x16. Möglicherweise weil man beim "zusammenkleben" der Chiplets hier noch irgendwelche Geometrischen SI-Anbindungsgeschichten berücksichtigen muss. (z.B. je 2 Chiplets müssen an einen Memory Cache Die (gab es ja schon bei RDNA3) anbinden.
Oder je 3 Chiplets pro MCD.
Deswegen finde ich es etwas merkwürdig dass sich hier die Steigerungszahl 2 (2xN44), 6 (6xN44), 9 (9xN44) ergibt. (logischer wäre da für mich 2, 4, 6, 8....) oder eben 3, 6, 9,...
Außerdem steht auch bei N41 G7, nicht nur bei N40. Die hätten sich nur bei der Interface-Breite unterschieden, weil diese wohl an die Anzahl der GCX gekoppelt war (2 MCDs bzw. 128bit pro GCX).
Ah mein Fehler, hatte das G7 beim N41 übersehen - korrigiert.
Das die SI-Anbindung mit Chiplets steigt halte ich auch für Plausibel, wahrscheinlich wird AMD ja wieder so etwas wie MCDs bauen wie bei RDNA3. Kombiniert mit nun zusätzlich anzubringendne GCDs, welche möglicherweise aufgrund von Geometrischen oder Logik/Schnittstellen Restriktionen halt in inkrementen von x2, x3, ....oder ähnlich auftreten können/müssen.
So oder so.
Für mich scheinen das Eckdaten zu den GPUs zu sein an denen AMD zu bestimmten nicht bekannten Zeitpunkten arbeitet oder gearbeitet hat... was davon erscheinen wird ist nach wie vor nicht bekannt...
+1. Sehe ich auch so. Das mögen vielleicht "Design"-Vorgaben gewesen sein - aber in Realexistierenden Chips....hmmm glaub ich nicht ganz.
basix
2024-04-29, 08:54:18
Den Plan mit den 3 Base-Dies wird man mMn nicht weiter verfolgen. Ich tippe auf 2 (verschiedene) Base Dies mit größeren GCDs als bei Navi4, das macht die Komplexität geringer und die Effizienz höher. Ich tippe mal nicht wie bei Navi4 mit 3x8 WGPs (wären halt 48CUs pro Die gewesen), sondern auf eine 3x16-Organisation, das macht 2x 48 WGPs, wären 192 CUs, mit 4 CUs pro WGP (gestapelt, also 3-dimensional) doppelt so viele, wobei ich diesen Ausbau erst ab RDNA6 erwarte.
Wieso verschiedene Base Dies? Damit verliert man genau den grossen Vorteil, dass man 1x Chip designen kann und den übers Portfolio skaliert. Macht mMn zu wenig Sinn. Klar ginge das technisch mit verschiedenen Base Die und hinsichtlich GPU-Komplexität ist es einiges einfacher (1x Command Processor & 1x Unified L2$ pro GPU), da man damit prinzipiell eine "monolithische" GPU baut. Aber langfristig muss man die GPU splitten, wenn man skalieren will. Selbst Nvidia scheint das bei Blackwell zu machen (2x GB203 = 1x GB202).
Mit verschiedenen Base Die verliert man die Skalierbarkeit:
- 128bit Base Die kann man zwischen 128...512bit skalieren und damit ein sehr breites Gebiet abdecken
- Optional: 1x "Bottom Feeder" Chip am unteren Ende des Spektrums dann noch monolithisch (oder man nimmt N44/N48 für das)
Mit verschiedenen Base Die:
- 3x verschiedene Base Die für 3x GPUs oder 2x Base Die und 1x monolithisch
- Das verschiebt den Aufwand von Chiparchitektur hin zu Chip-Implementation & Debugging -> nicht unbedingt einfacher
Iscaran
2024-04-29, 09:09:13
Nachtrag:
Bei RDNA3 war das gesamte Line-Up ja zwar Chipletisiert, jedoch anders als man annahm.
Man skaliert das SI über Chiplets und brachte für JEDEN Chip im Grund eine individualisiertes GCD raus.
N31 => 4, 5 oder 6 MCDs + 1 GCD mit 48 WGP (wovon Teile deaktiviert waren)
7900XTX (48 WGP, 6 SEs x8 WGPs), 7900XT (42 WGP 6x7), 7900 GRE (5 x 8)
N32 => 3 MCD + GCD mit 30 WGP (6x5 ?)
N33 => Monolith mit 16 WGP
(oder war das GCD von N32 mit N31 identisch? Kann dazu gerade nix finden, dachte aber die wären unterschiedlich)
So oder so sehe ich bei den obigen Twitterzahlen irgendwie nicht wirklich warum AMD hier wieder "so viele" unterschiedliche Variationen machen sollte (2 Monolithen + 2GCD-Chip + 3GCD-Chip) Macht am Ende ja DREI unterschiedliche Chips und das wo man ja gerade den "chiplet-way-of-design" geht seit RDNA3 (mit den MCDs).
Ich glaube, RDNA4 wird genauso wieder MCDs enthalten - nur diesmal eben zusätzlich GCDs als Skalierung. Die Kombination von MCDs mit GCDs wird dabei bestimmten Regeln folgen müssen. Nicht alle "inkremente" sind machbar. Am logischen erschiene mir 2MCDs pro GCD. Aber vielleicht bin ich da nicht kreativ genug :-).
vinacis_vivids
2024-04-29, 09:11:57
"N36 XTX" mit 128CU/120CU wurden hier bereits diskutiert und von Nvidianern und den meisten anderen ignoriert.
Es ist im Prinzip ein hypothetischer 2 X N48 oder 2 X N32 = 120CU oder 128CU physisch vorhanden und 8CU/0 CU deaktiviert für die bessere Ausbeute bei 120CU.
120CU als single Die gibt es mit Acturius 128CU bei CDNA 1.0. Mit RT, KI und WMMA und Abbau der fp64-Hardware und Umstrukturierung auf GDDR6/7 und Treiberentwicklung war wohl von der Manpower nicht mehr zu schaffen gewesen. Der Gaming Acturius ala "N36 XTX" 128CU physisch / 120CU aktiviert müsste auch 2,5Ghz schaffen bei 500W Verbrauch.
Wahrscheinlich lag der Plan eines physischen 128CU-GCD vor, wovon 120CU aktiviert werden sollen und das war Su augenscheinlich zu teuer von TSMC nur fürs Gaming bis 499 USD fertigen zu lassen (aka PS5-Pro XboX X 2024?). Was wir bei Konsolen sehen, ist ja die Hälfte des theoretisch möglichen (60CU PS5-Pro).
Bei 999 USD sehen wir AMD 96CU. Die 120CU Grafikkarte ala "RX 8900 XTX" hätte deutlich mehr gekostet als 1499 USD und wäre der Gegner der RTX 4090 gewesen mit Siegen im fps-Raster und fps-Niederlagen im fp32-RT-Shading (CP2077 / AW2) und Siegen bei FG-FSR3-fp16 (Avatar, Immortals of Aveum, RoboCop, Frostpunk 2).
Die 96CU auf 120CU ließen sich skalieren ebenso die 96MB IF$ auf 144MB IF$ Hitrate.
In Bezug auf UE5-EPIC Settings Star Atlas Alpha 4K/UHD wären es im nativen Rendering statt:
N31XTX@2,8Ghz@464W@68Tflop/s ~ 46fps (Train Station UHD)
N36XTX@2,5Ghz@500W@75Tflop/s ~ 51fps (Train Station UHD) wären es gewesen für die "RX 8900 XTX"
+10% im heavy Compute UE5-Scenarien gegenüber einer auf 464W hochgetakteten N31XTX@OC für 1500€ wäre die "Zukunft" mit der RX 8900 XTX MBA gewesen.
N31XTX@3,0Ghz@600W@73 Tflop/s ~ 50fps ?? Entwicklungssimulation hat dann den RX 8900 XTX 120CU@500W dann rausgekickt. Vielleicht ist der Verbrauch bei der Fertigung des N36 XTX im Alpha-Status noch zu hoch gewesen mit 600W oder gar 800W? und der große Chip hatte nicht mehr genug Zeit in der Entwicklung gehabt oder TSMC sagt einen viel günstigeren Verbrauch für 4N oder 3N vor.
Offensichtlich warb AMD ja mit RDNA3 >= 3,0Ghz. Praktisch nur mit 600W-Mod bei N31XTX zu erreichen. In der Praxis wurden 2,72Ghz (CoD:Vanguard) bis 3,0Ghz (Tiny Tina's Wonderlands) erreicht beim Durchschnitt von ~2,83Ghz bei 464W GPU Verbrauch und realen ~500W Limit.
Das hätte viele Low-End AM4 Systeme mit bestückte Netzteile von <1000W gesprengt und die Aufrüstung noch teurer gemacht.
Ein hypothetischer RX 8900 XTX @ 600W GPU Verbrauch wäre bei ~700W Leistungsgrenze allein für die Grafikkarte gewesen. Zu viel des guten für die heutige Zeit im Personal Computer ?
basix
2024-04-29, 09:18:13
Nachtrag:
Bei RDNA3 war das gesamte Line-Up ja zwar Chipletisiert, jedoch anders als man annahm.
Man skaliert das SI über Chiplets und brachte für JEDEN Chip im Grund eine individualisiertes GCD raus.
N31 => 4, 5 oder 6 MCDs + 1 GCD mit 48 WGP (wovon Teile deaktiviert waren)
7900XTX (48 WGP, 6 SEs x8 WGPs), 7900XT (42 WGP 6x7), 7900 GRE (5 x 8)
N32 => 3 MCD + GCD mit 30 WGP (6x5 ?)
N33 => Monolith mit 16 WGP
(oder war das GCD von N32 mit N31 identisch? Kann dazu gerade nix finden, dachte aber die wären unterschiedlich)
So oder so sehe ich bei den obigen Twitterzahlen irgendwie nicht wirklich warum AMD hier wieder "so viele" unterschiedliche Variationen machen sollte (2 Monolithen + 2GCD-Chip + 3GCD-Chip) Macht am Ende ja DREI unterschiedliche Chips und das wo man ja gerade den "chiplet-way-of-design" geht seit RDNA3 (mit den MCDs).
Ich glaube, RDNA4 wird genauso wieder MCDs enthalten - nur diesmal eben zusätzlich GCDs als Skalierung. Die Kombination von MCDs mit GCDs wird dabei bestimmten Regeln folgen müssen. Nicht alle "inkremente" sind machbar. Am logischen erschiene mir 2MCDs pro GCD. Aber vielleicht bin ich da nicht kreativ genug :-).
Ergänzungen:
- N33 ist monolithisch ;)
- N32 hat ein anderes GCD als N31 (~200mm2 anstatt 308mm2)
RDNA4 wird aber mit sehr, sehr hoher wahrscheinlichkeit monolithisch sein.
Hinsichtlich RDNA5 finde ich deine Idee, nicht zu stacken und MCDs beizubehalten, schon noch reizvoll: 3D-Stacking ist teuer und ohne Stacking erhält man mehr Fläche zur Kühlung. Und es reduziert etwas von der Komplexität des Designs. Nachteil ist halt die Energieeffizienz und dass man den IF$ nicht auf den GCDs hat (MCD -> GCD <-> GCD <- MCD Datentransfer doppelt belastet).
Leonidas
2024-04-29, 09:57:13
Bezüglich der GCD-Größe von N4x
Die Zahl 48 stimmt ja offensichtlich. Ich vermute schlicht, dass es früher als "CU" ausgelegt wurde und nun laut ATW sollen es WGP sein. Das ist der ganze Unterschied. Aber es macht das gestrichene N4x-Projekt nochmals interessanter.
GerryB
2024-04-29, 11:10:52
Die Nachteile von MCD überwiegen derzeit, ... 10% schlechtere Latenz und 10..15W Mehrverbrauch.(x)
Interessant wäre N48@192bit GDDR7 mit 3GB-Modulen gewesen.
Man hätte sowohl bei der Anbindung als auch beim Vram zusätzlich Watt sparen können.
und
Durch die geringere Abwärme des Vram die gesamte Graka leichter kühlen können.
(remember, bei RDNA3 ist der GDDR6 die hotteste Baustelle)
(x) es gibt ggü. RDNA2-Monolith einen zusätzlichen Verbraucher, may be durch MCD-Traffic.
USR siehe Anhang
Ob es sich dann gelohnt hätte, die freigeschaufelten 15W in mehr Takt zu stecken, weiss nur AMD,
sollte man inzwischen bei den ES gemessen haben.
Wieso verschiedene Base Dies? Damit verliert man genau den grossen Vorteil, dass man 1x Chip designen kann und den übers Portfolio skaliert. Macht mMn zu wenig Sinn. Klar ginge das technisch mit verschiedenen Base Die und hinsichtlich GPU-Komplexität ist es einiges einfacher (1x Command Processor & 1x Unified L2$ pro GPU), da man damit prinzipiell eine "monolithische" GPU baut. Aber langfristig muss man die GPU splitten, wenn man skalieren will. Selbst Nvidia scheint das bei Blackwell zu machen (2x GB203 = 1x GB202).
Mit verschiedenen Base Die verliert man die Skalierbarkeit:
- 128bit Base Die kann man zwischen 128...512bit skalieren und damit ein sehr breites Gebiet abdecken
- Optional: 1x "Bottom Feeder" Chip am unteren Ende des Spektrums dann noch monolithisch (oder man nimmt N44/N48 für das)
Mit verschiedenen Base Die:
- 3x verschiedene Base Die für 3x GPUs oder 2x Base Die und 1x monolithisch
- Das verschiebt den Aufwand von Chiparchitektur hin zu Chip-Implementation & Debugging -> nicht unbedingt einfacher
Es gibt Dinge, die man nur 1x braucht, wenn die Base-Dies sehr stark verbunden sind. Ich finde diesen Ansatz viel schlauer als alles redundant zu haben - und ausbaufähiger.
Ob man ein Base-Die mehr designt ist glaube ich nicht das große Hindernis. Das Ganze wäre dann ein voll monolithischer Ansatz aus Chiplets aufgebaut.
Da MI300 ja schon 3D-gestackt ist, wird das für RDNA5 sicherlich auch gelten, für N41 hätte das aber nicht gegolten. Es gibt eben einen ganzen Haufen Gründe, warum man das Projekt eingestampft hat:
- Ineffizienz mit zuviel Redundanz und zu komplexen Verbindungsstrukturen
- MIx00 benötigt Packaging-Kapazitäten
- Software bei dem Konstrukt
- kein echtes 3D-Stacking, obwohl man das bei MI300 schon implementiert hat
- MI400 braucht die N3-Kapazitäten
RDNA5 wird sicherlich mehr mit MI300 gemeinsam haben als mit N41. Ich gehe dabei von GCDs gestackt auf Base-Dies aus, welche direkt mit einem sehr breiten Interconnect miteinander verbunden sind. Dadurch würde man erheblich weniger Komplexität erzeugen, da man ja nur ein Master-Base-Die und ein Slave-Base-Die braucht, gestackt werden darauf 2 oder 4 N3P-48WGP-GCDs. Den Slave braucht man nur für das größe Produkt, man könnte 4 Produkte damit erstellen, also den kompletten gehobenen Markt >N48 abdecken.
Master+ 1 oder 2 GCDs
Master+Slave + 3 oder 4 GCDs
Schnitzl
2024-04-29, 11:36:26
So und jetzt bremsen wir den Hypetrain mal wieder MASSIV RUNTER auf normale Geschwindigkeit.
Wenns geht ^^
Kannst du mal diesen Hypetrain-Schwachsinn lassen? Bei NV fährt der jedes Mal unbegrenzt gegen die Wand und da stört das auch niemanden :freak:
amdfanuwe
2024-04-29, 11:42:54
gestackt werden darauf 2 oder 4 N3P-48WGP-GCDs.
Wie hoch soll denn der Verbrauch mit 4 * 48 WGPs N3 werden, wenn N31 mit
1* 48 WGP N5 schon 300W zieht?
Das ist doch voll steuerbar? Was hat das mit N31 zu tun?
amdfanuwe
2024-04-29, 11:51:44
Klar, die werden dann nur mit 1 GHz getaktet?
The_Invisible
2024-04-29, 11:55:13
Kannst du mal diesen Hypetrain-Schwachsinn lassen? Bei NV fährt der jedes Mal unbegrenzt gegen die Wand und da stört das auch niemanden :freak:
Ja klar, sieht man eh im Blackwell Thread wo derzeit über den Stromstecker diskutiert wird. Immer das gleiche bei AMD und dann gibts die langen Gesichter, vor allem wenn über einen Chip diskutiert wird der "hätte, hätte Fahrradkette" kommen hätte sollen und wie die 7900XTX der 4090 Killer sein sollte :freak:
Leonidas
2024-04-29, 11:56:43
Master+ 1 oder 2 GCDs
Master+Slave + 3 oder 4 GCDs
Auch ich halte diese Lösung für eleganter und zielführender. Das, was beim ganzen MC-Ansatz als Overhead hinzukommt, wird hiermit limitiert. Aber: Ich dachte, man versucht es erst einmal ganz konventionell - und hebt sich diese Lösung für spätere Iterationen auf, wenn man MC erstmal grundsätzlich beherrscht.
mboeller
2024-04-29, 12:05:39
So und jetzt bremsen wir den Hypetrain mal wieder MASSIV RUNTER auf normale Geschwindigkeit.
Wenns geht ^^
Welcher Hypetrain?
Die Diskussion geht doch nur über GPUs die gecancelt worden sind, N36, N40, N41 ... N44 und N48 sind im Vergleich doch wirklich SEHR langweilig. Was man auch daran sieht wie plötzlich alle auf den Teaser angesprungen sind. :)
Schnitzl
2024-04-29, 12:10:24
Kannst du mal diesen Hypetrain-Schwachsinn lassen? Bei NV fährt der jedes Mal unbegrenzt gegen die Wand und da stört das auch niemanden :freak:
du warst gar nicht gemeint ...
Wir sind uns doch inzw. einig dass RDNA4 nur Mittelklasse wird. RDNA5 ist Thema für anderen Thread. Und irgendwelche Machbarkeitsstudien gibts immer, könnte wetten dass bei nVidia schon lange Chiplet Prototypen rumliegen, dass heisst aber noch gar nichts.
@mboeller: kein Ding, diskutiert :) Könnt ja evtl. nen Thread "gecancelte Chips" aufmachen und euch da komplett austoben - würd ich vielleicht sogar mitmachen dann
Auch ich halte diese Lösung für eleganter und zielführender. Das, was beim ganzen MC-Ansatz als Overhead hinzukommt, wird hiermit limitiert. Aber: Ich dachte, man versucht es erst einmal ganz konventionell - und hebt sich diese Lösung für spätere Iterationen auf, wenn man MC erstmal grundsätzlich beherrscht.
Es ist doch die einfache Lösung. Eine effiziente Die-zu-Die-Connection gibts seit MI300, effizientes 3D-Stacking über 2 Chips gibts seit MI300, es sind alle Technologien da. Wenn man jetzt noch die Packagingkapazitäten auch für RDNA5 aquirieren kann (na, irgednwann flaut ja auch der AI-Hype mal ab), dürfte dem Produkt nichts im Wege stehen.
Richtig fancy und schwierig wird das dann erst, wenn man mehrere GCD übereinanderstapeln will, das wird ja auch thermisch und elektrisch spannend (bei RDNA5 und MI300 liegen die Hotspots ja eh direkt unterm Kühler).
OgrEGT
2024-04-29, 12:55:05
Kann mal jemand ein offizielles Statement von AMD hier verlinken aus dem hervorgeht dass die Entwicklung von irgendwelchen hypothetisch somit nicht erscheinenden GPUs eingestellt wurde? Das basiert doch auch nur auf unbestätigten Gerüchten von Leakern. Es ist erst dann ein Fakt wenn offiziell bestätigt...
basix
2024-04-29, 13:15:37
Und wieso brauchst du das? :)
Wir sind hier im Speku Thread, da kann man auch über hypothetische Sachen disktutieren. Ob jetzt eingestellt oder nicht, geht es ja um mögliche technische Lösungsansätze.
Vielleicht war ja alles eine Ente und Big Fat N40 kommt wie geplant raus. Weiss niemand. Ist aber imho nicht die wahrscheinlichste Zukunft
Neurosphere
2024-04-29, 13:41:12
Wir werden ja sehen was kommt. Generell wundert es mich aber das die Details zu den gecancelten Chips in irgendwelche release notes auftauchen sollten?!
Kann mal jemand ein offizielles Statement von AMD hier verlinken aus dem hervorgeht dass die Entwicklung von irgendwelchen hypothetisch somit nicht erscheinenden GPUs eingestellt wurde? Das basiert doch auch nur auf unbestätigten Gerüchten von Leakern. Es ist erst dann ein Fakt wenn offiziell bestätigt...
Was machst du im Spekulationsforum? Das ist ja dann nichts für dich...
Altehardware
2024-04-29, 14:17:27
Dies ganzen ideen sind zu weit hergehollt
Es wird kein base gcd entworfen weil es schlicht keinen Sinn ergibt bis man 3d stacked nutzen kann.
Das was wir wissen nicht vor 2026 kapazitäten frei hat
Folgende idee bei en 192cu oder 96wgp chip zu entwerfen ein gcd hat 3 SE je 32cu es sind aber nur 2 gcd drin darum die 192cu
Das sitzt auf nen I/O die mit SI pcie displays engine n6 node Dr inf cache komt neben den gcd was den Takt auf nur 4,0ghz limitiert.
Die Latenz ist durch die kurze Anbindung deutlich geringer als bei rdna3 und der strombedarf sinkt auch rapide. man hat also die Fläche was mit n4 und dem Si auf n6 was etwa 512bit gehen kann grob 500mm² die gcd grob je 90mm² in n3 node an den rändern also die restlichen 220mm² ist der inf cache in n4 node
So ein design wäre preislich unschlagbar chip dürfte maximal bei 150-170$ landen Und man konkurriert mit nvidia high end chip der min 220$ in n4 node kosten wird. (650mm²)
Das ist n51 n61 wird das verdoppeln dank n2x node und gaa und den Takt sogar erhöhen aber ich nehme an das man eher die Energie Effizienz mitnimmt und die 4,0ghz beibehält.
Man bedenke das dann 384cu mit 4,0ghz laufen auf nur 90mm² chip davon 2 192cu per gcd
64cu per renderengine das wird nvidia schlagen
Das ist aber erst bei rdna6 der fall rdna 5 wird vermutlich gleichziehen in dxr und raster perf.
Wichtiger ist wie stark das cpu upgrade mit zen5 wird wenn wirklich die 30% ipc Steigerung stimmen sollten was ich bezweifle ich gehe eher von maximal 15% aus selbst das wird ne rtx4090 stark beschleunigen in raster sowie dxr
Dann wird der abstand zur rtx4080 auf +70% ansteigen
Aktuell liegen da meist +30%
Hast du dir den MI300 mal angeguckt? Das ist problemlos möglich. Und wenn man sich jetzt Ende 25 vorstellt, dass der KI-Krempel so langsam auch mal abflaut, werden Packaging-Kapazitäten dafür auch frei, weiter aufgebaut werden die ja eh ständig. Es gibt da kein Hindernis aus meiner Sicht. AMD hat ja jetzt auch so einen riesigen HBM-Deal abgeschlossen, vielleicht kann man auch wieder HBM bringen statt GDDR.
OgrEGT
2024-04-29, 15:16:05
Was machst du im Spekulationsforum? Das ist ja dann nichts für dich...
Ich glaube ich bin nicht derjenige hier der Spekulationen wie Fakten darstellt... wir sollten Spekulationen in alle Richtungen hier zulassen und nicht als "Hypetrain" diskreditieren... darauf hat sich mein Kommentar bezogen...
Ich glaube ich bin nicht derjenige hier der Spekulationen wie Fakten darstellt... wir sollten Spekulationen in alle Richtungen hier zulassen und nicht als "Hypetrain" diskreditieren... darauf hat sich mein Kommentar bezogen...
Ich bin aber nicht derjenige, der rummeckert und schlechte Stimmung verbreitet :freak:
Was soll der Quatsch? Haste auch was zum Thema?
OgrEGT
2024-04-29, 15:59:53
Ich bin aber nicht derjenige, der rummeckert und schlechte Stimmung verbreitet :freak:
Was soll der Quatsch? Haste auch was zum Thema?
Du hast mich falsch verstanden und bist persönlich geworden und ich bin jetzt derjenige der rummeckert? Ja ne is klar...
Zossel
2024-04-29, 16:28:23
Hast du dir den MI300 mal angeguckt? Das ist problemlos möglich. Und wenn man sich jetzt Ende 25 vorstellt, dass der KI-Krempel so langsam auch mal abflaut, werden Packaging-Kapazitäten dafür auch frei, weiter aufgebaut werden die ja eh ständig. Es gibt da kein Hindernis aus meiner Sicht. AMD hat ja jetzt auch so einen riesigen HBM-Deal abgeschlossen, vielleicht kann man auch wieder HBM bringen statt GDDR.
Ich könnte mir einen Aufbau wie bei dem Monster-KI/HPC Teil durchaus für Zen6 vorstellen.
Leonidas
2024-04-29, 16:58:07
Es ist erst dann ein Fakt wenn offiziell bestätigt...
Da werden wir Moos ansetzen beim Warten auf die offizielle Bestätigung zur Streichung eines Produkts, welches nie offiziell angekündigt wurde. In diesem Fall werden wir leider mit dem Inhalt von Leak & Spekulationen leben müssen.
OgrEGT
2024-04-29, 17:27:40
Da werden wir Moos ansetzen beim Warten auf die offizielle Bestätigung zur Streichung eines Produkts, welches nie offiziell angekündigt wurde. In diesem Fall werden wir leider mit dem Inhalt von Leak & Spekulationen leben müssen.
Schon klar. Das meinte ich nicht. Mir ging es darum dass man nicht nur einseitig den Leakern Glauben schenken sollte die davon ausgehen dass alles außer N44 und 48 gecancelled wurde und deshalb einen ggf doch größeren Chip bzw. größeres Chiplet Konstrukt ausschließen sollte... Sorry an alle falls das nicht so rübergekommen ist... ich nehme auch den ATW Leak nicht für bare Münze... aber solange nicht AMD offiziell sagt was nun kommt oder nicht solange kann nicht ausgeschlossen werden dass es noch andere N4x GPUs geben wird...
AffenJack
2024-05-01, 09:50:41
Aus AMDs Enarnings Call:
So maybe -- yeah, maybe let me give you some color about the gaming business, right. It's -- if you look at the gaming, the demand has been quite weak. That's quite very well known, and also their inventory level. So based on the visibility we have, the first half, both Q1 and Q2, we guided down sequentially more than 30%.
We actually think the second half will be lower than first half. That's basically how we're looking at this year for the gaming business.
Dabei sollte die PS5 Pro ja eigentlich kommen, die schon helfen sollte, aber trotzdem geht AMD davon aus, dass es in H2 noch weiter runter geht. Entweder RDNA4 kommt erst Ende Q4 und damit kein Einfluss mehr auf das Jahr oder AMD hat RDNA4 auch schon praktisch abgeschrieben. Hätte man ab Q3 nen echter Kracher (auch wenn nur Preis/Leistung), dann sollte man steigende Umsätze erwarten.
GerryB
2024-05-01, 10:08:55
Logisch,
mit RDNA4 ist der Umsatz kleiner als mit großen 7900XTX.
(und Reste der RDNA3 werden u.U./hoffentlich im Preis gesenkt)
Die PS5pro-Zulieferung wird evtl. ganz woanders in den Büchern geführt.
Die PS5 Pro wird zudem erst nächstes Jahr umsatztechnisch eine Rolle spielen, bis dahin gehen die Konsolen noch mals stark runter und das wird sich nicht von Radeon-Verkäufen auffangen lassen. Zudem wird man vor der neuen Geforce-Generation nicht mehr wirklich viele Neukäufer für Radeons generieren ohne signifikanten Preisverfall, den man um jeden Preis vermeiden wird. RDNA4 spiel eh keine Rolle, da die Gen nur dafür da ist Kosten zu senken. Es ist halt ein lahmes halbes Jahr bis Anfang 25 für AMDs Gamingsparte.
GerryB
2024-05-01, 10:35:33
???
Sollte sich Sony wirklich das Weihnachtsgeschäft entgehen lassen!?
reaperrr
2024-05-01, 10:49:46
Wie hoch soll denn der Verbrauch mit 4 * 48 WGPs N3 werden, wenn N31 mit
1* 48 WGP N5 schon 300W zieht?
Du kennst das WGP-Design von RDNA5?
DU weißt, wieviel am N31/32-Verbrauch eher die Schuld der GCD<->MCD Kommunikation ist und durch Base-Dies in N5/N4 mit integrierten SIs besser werden würde oder nicht besser werden würde?
Unabhängig davon, wie RDNA5 am Ende aussieht:
Das ist 2 Generationen und mindestens 3, eher 3,5 bis 4 Jahre weiter als RDNA3.
Was in Sachen Effizienz-Sprung von RDNA1 zu RDNA2 in 15 Monaten möglich war, ist auch von RDNA3 zu RDNA5 nicht komplett auszuschließen, zumal der Shrink der einzelnen Bauteile noch on top kommt.
Auch dass die WGPs bei RDNA4 und noch mehr bei RDNA5 gegenüber RDNA3 stärker auf Effizienz und wenig Fläche statt hoher IPC und hohem Takt getrimmt wurden ist nicht auszuschließen.
Wenn bei Nvidia kolportierte 192 SM für GB202 möglich sind (wo es auch schon Gerüchte über DualIssue oder doppelte FP32-ALU-Zahl gibt), sehe ich nicht, warum nicht auch 180 WGPs bei N50 möglich sein sollten.
Wenn die Gerüchte zu N48 hinsichtlich Fläche stimmen, sind 32 RDNA4-WGPs scheinbar nicht viel größer als die 36 Ada-SMs von AD106, das wird bei RDNA5-WGPs zu BW-SMs vermutlich nicht wesentlich anders sein.
fondness
2024-05-01, 10:55:58
Aus AMDs Enarnings Call:
Dabei sollte die PS5 Pro ja eigentlich kommen, die schon helfen sollte, aber trotzdem geht AMD davon aus, dass es in H2 noch weiter runter geht. Entweder RDNA4 kommt erst Ende Q4 und damit kein Einfluss mehr auf das Jahr oder AMD hat RDNA4 auch schon praktisch abgeschrieben. Hätte man ab Q3 nen echter Kracher (auch wenn nur Preis/Leistung), dann sollte man steigende Umsätze erwarten.
Naja Gaming ist bei AMD fast nur noch Konsolen. Die paar GPUs sind dagegen Peanuts. Selbst wenn im Q3 noch N44/48 kommt und den Desktop-GPU-Verkauf in Q4 verdoppeln würde, würde sich das kaum auswirken. Und die PS5 PRO kommt womöglich zu spät oder kann die sinkenden Verkaufszahlen der PS5 nicht zur Gänze auffangen.
The_Invisible
2024-05-01, 11:11:08
Aus AMDs Enarnings Call:
Dabei sollte die PS5 Pro ja eigentlich kommen, die schon helfen sollte, aber trotzdem geht AMD davon aus, dass es in H2 noch weiter runter geht. Entweder RDNA4 kommt erst Ende Q4 und damit kein Einfluss mehr auf das Jahr oder AMD hat RDNA4 auch schon praktisch abgeschrieben. Hätte man ab Q3 nen echter Kracher (auch wenn nur Preis/Leistung), dann sollte man steigende Umsätze erwarten.
Q4 wäre schon ziemlich spät, da kommt man schon voll mit der Marketingmaschine Blackwell in die Quere. Hab eigentlich immer gedacht der große Vorteil von RDNA4 wäre vor allem das sie deutlich früher kommen als Blackwell.
fondness
2024-05-01, 11:17:48
Q4 wäre schon ziemlich spät, da kommt man schon voll mit der Marketingmaschine Blackwell in die Quere. Hab eigentlich immer gedacht der große Vorteil von RDNA4 wäre vor allem das sie deutlich früher kommen als Blackwell.
Habe das Gerücht nie verstanden, dass N44/48 angeblich so früh kommen sollen. Wenn ich eine GPU-Serie wie N41/42/43 canceln muss und etwas anders einschieben muss, bin ich üblicherweise nicht früh dran sondern spät.
AffenJack
2024-05-01, 11:42:47
Logisch,
mit RDNA4 ist der Umsatz kleiner als mit großen 7900XTX.
(und Reste der RDNA3 werden u.U./hoffentlich im Preis gesenkt)
Die PS5pro-Zulieferung wird evtl. ganz woanders in den Büchern geführt.
Nee, die Konsolen sind in Gaming zugeordnet. Wurde vor einigen Jahren umgestellt.
Der Umsatz mit RDNA4 ist nur geringer, wenn man es nicht schafft Marktanteile zu gewinnen und Verkäufe zu generieren. Ein Preis/Leistungskracher würde aber genau das schaffen. Hier wird von einem 240mm² Chip mit 7900XT Geschwindigkeit spekuliert. Für 499€ würde AMD da Top Margen haben und massiv seine Verkäufe erhöhen,womit auch der Umsatz steigt, da Nvidia dieses Jahr keinen Gegner bringen wird. Außer man kommt einfach zu spät oder die Gerüchte übertreiben mal wieder.
Naja Gaming ist bei AMD fast nur noch Konsolen. Die paar GPUs sind dagegen Peanuts. Selbst wenn im Q3 noch N44/48 kommt und den Desktop-GPU-Verkauf in Q4 verdoppeln würde, würde sich das kaum auswirken. Und die PS5 PRO kommt womöglich zu spät oder kann die sinkenden Verkaufszahlen der PS5 nicht zur Gänze auffangen.
AMD hat immernoch 19% Marktanteil bei GPUs. 80% bringt Nvidia 2,8 Mrd$. Wenn wir mal 2x ASP bei Nvidia annehmen, dann hat AMD immerhin noch 350 Mio$ GPU Sales. Gaming ist jetzt bei 922 Mio$ und soll weiter runter gehen und wir sind in Q1. In Q4 mit dem Weihnachtsgeschäft seine Sales nicht zu erhöhen, wie soll es dann weitergehen in Q1 nächstes Jahr? 500-600 Mio$ für GPU und Konsolen?
Aktuell sagen die Gerüchte für PS5 Pro ja September- November, ist aber auch egal, denn es zählt nur, dass man das Weihnachtsgeschäft mitnimmt. Dafür muss aber in Q3 vorproduziert werden, was normalerweise für Umsatzsprünge sorgt. Man müsste wirklich absolut gar nix von der PS5 Pro erwarten (Was den Erfahrungen mit der PS4 Pro widerspricht) oder die PS5 Pro ist auf nächsten Jahr verschoeben.
Habe das Gerücht nie verstanden, dass N44/48 angeblich so früh kommen sollen. Wenn ich eine GPU-Serie wie N41/42/43 canceln muss und etwas anders einschieben muss, bin ich üblicherweise nicht früh dran sondern spät.
Ich ebenso nicht. Das hat von vornherein keinerlei Sinn ergeben. Ein Abstand zu N32 von weniger als einem Jahr macht auch keinen Sinn, da hätte man N32 gleich canceln können.
BlacKi
2024-05-01, 11:56:20
ich denke eher, das amd zuviele rdna3 chips auf halde hat. scheinbar wollen sie keinen preisverfall und leben mit dem geringeren marketshare. denn amd hätte es durchaus in der hand den verkauf mit den altbekannten mitteln anzukurbeln. wenn dann zu den zuvielen rdna 3 chips dann noch die rdna4 chips kommen, steigen die lagerkosten zu stark.
amdfanuwe
2024-05-01, 12:58:26
Du kennst das WGP-Design von RDNA5?
...
Wenn bei Nvidia kolportierte 192 SM für GB202 möglich sind (wo es auch schon Gerüchte über DualIssue oder doppelte FP32-ALU-Zahl gibt), sehe ich nicht, warum nicht auch 180 WGPs bei N50 möglich sein sollten.
Dann hätte ich wohl nicht gefragt.
Und könntest du die Frage beantworten? Wie hoch wird denn der Verbrauch mit 180 WGP -> 360 CU bzw. 192 SM in N3?
fondness
2024-05-01, 14:04:42
AMD hat immernoch 19% Marktanteil bei GPUs. 80% bringt Nvidia 2,8 Mrd$. Wenn wir mal 2x ASP bei Nvidia annehmen, dann hat AMD immerhin noch 350 Mio$ GPU Sales. Gaming ist jetzt bei 922 Mio$ und soll weiter runter gehen und wir sind in Q1. In Q4 mit dem Weihnachtsgeschäft seine Sales nicht zu erhöhen, wie soll es dann weitergehen in Q1 nächstes Jahr? 500-600 Mio$ für GPU und Konsolen?
Aktuell sagen die Gerüchte für PS5 Pro ja September- November, ist aber auch egal, denn es zählt nur, dass man das Weihnachtsgeschäft mitnimmt. Dafür muss aber in Q3 vorproduziert werden, was normalerweise für Umsatzsprünge sorgt. Man müsste wirklich absolut gar nix von der PS5 Pro erwarten (Was den Erfahrungen mit der PS4 Pro widerspricht) oder die PS5 Pro ist auf nächsten Jahr verschoeben.
Die Aussage könnte auch auf den Vergleich zum Vorjahr bezogen sein und nicht absolut. Gaming hatte letztes Jahr Q3/Q4 jeweils über 1,5Mrd Umsatz. Da kann ich mir mit einem mittlerweile schrumpfenden Konsolengeschäft schon vorstellen, dass man im H2 >30% im Minus ist. Oder ja ev. kommt die PS5 PRO wirklich später wie vermutet.
Altehardware
2024-05-01, 16:06:38
Die ps5 pro wird dieses Jahr vorgestellt entweder zum summer game fest oder gamescom Erwerblich vermutlich erst q1 2025 in Eu
Da wie immer japan zuerst dran ist, je Nachdem wann der us start ist kommt erst das geld rein. Darum die Prognose von fallenden Umsatz amd setzt voll auf die apu (Strix halo) im Winter bei laptops
Gut möglich das dies auf jan 2025 verschiebt zur ces
rdna4 kommt sicher q4 2024 die frage ist nur welcher chip n44 oder n48
basix
2024-05-01, 17:16:36
Habe das Gerücht nie verstanden, dass N44/48 angeblich so früh kommen sollen. Wenn ich eine GPU-Serie wie N41/42/43 canceln muss und etwas anders einschieben muss, bin ich üblicherweise nicht früh dran sondern spät.
Kommt drauf an. RDNA4 als GPU-Architektur (Shader Engines usw.) kann schon fertig sein und der Chiplet Teil noch nicht. Oder Chiplets war mehr ein Problem von Packaging & GDDR7 Verfügbarkeit und nicht von der Architektur. Wissen wir alles nicht.
Exxtreme
2024-05-01, 17:18:21
Habe das Gerücht nie verstanden, dass N44/48 angeblich so früh kommen sollen. Wenn ich eine GPU-Serie wie N41/42/43 canceln muss und etwas anders einschieben muss, bin ich üblicherweise nicht früh dran sondern spät.
Eventuell gibt es schlicht keine Kapazitäten mehr über. Und wenn man mit KI-Zeugs viel mehr Kohle macht dann priorisiert man das.
DrFreaK666
2024-05-01, 18:12:18
...Erwerblich vermutlich erst q1 2025 in Eu
Da wie immer japan zuerst dran ist...
Ist die Nachfrage in Japan nicht eher verhalten? Wäre dämlich es dort zuerst zu releasen. Ich gehe auch eher davon aus, dass die Nachfrage nicht sooooo groß sein wird
Altehardware
2024-05-01, 20:41:20
Dann kennst die Japaner nicht mal dort in nenn gaming shop gewesen da bekommt man die ältesten Konsolen noch inklusiv den Spielen dort ist der Pc eher Nische
Zumal das der Heimmarkt ist von Sony klar hat man gegen nintendo schweren stand aber dennoch wird dort immer zuerst gelauncht dann us und zuletzt Europa. Die xbox ist dort sehr klein zum vergleich.
reaperrr
2024-05-01, 21:02:53
Dann hätte ich wohl nicht gefragt.
Und könntest du die Frage beantworten? Wie hoch wird denn der Verbrauch mit 180 WGP -> 360 CU bzw. 192 SM in N3?
Keine Ahnung bzw. natürlich nicht. Das war aber ja gerade der springende Punkt, du hattest es so formuliert, als ob 180 WGP in N3 völlig unrealistisch wäre.
Wenn es architekturseitig kaum Fortschritte ggü. RDNA3 gäbe, sicherlich.
Aber genau das ist halt in meinen Augen Milchmädchenrechnung auf Grundlage der schwachen RDNA3-Architektur, obwohl AMD gerade davor mit RDNA2 bewiesen hatten, dass sie durchaus zu großen architekturseitigen Effizienz-Verbesserungen fähig sind.
Iscaran
2024-05-01, 22:12:21
Vielleicht schiebt AMD RDNA 4 auch nur "dazwischen" als PS5 Pro Chip und weil man die eh gerade vom Band liefert halt als Desktop-Version dazu?
Würde die recht kleinen "Monolithen" erklären.
Das eigentliche "RDNA4" kommt dann wohl als RDNA 5
amdfanuwe
2024-05-01, 22:36:17
obwohl AMD gerade davor mit RDNA2 bewiesen hatten, dass sie durchaus zu großen architekturseitigen Effizienz-Verbesserungen fähig sind.
Und mit RDNA3 zeigen, dass das keine Regel ist.
N3 ist auch nicht grad ein Wunder Prozess. 15% mehr Leistung bei gleichem Verbrauch ODER 30% geringeren Verbrauch bei gleichem Takt.
N31 in 3nm käme dann mit 200W hin?
Ich denke nicht, dass AMD auf 700+W im Desktop geht.
Ich setz da eher auf Evolution:
N21 40WGP 7nm
N31 48WGP 5nm
N41
N51 ~80WGP 3nm
CDNA2 MI250 2*112CU
CDNA3 MI300X 4*2*40CU = 320CU 750W 5nm
AMD muss auch entsprechende Stückzahlen verkaufen, damit sich die Entwicklung amortisiert. Und da ist die Luft im oberen Segment doch ziemlich dünn.
reaperrr
2024-05-01, 22:44:08
Vielleicht schiebt AMD RDNA 4 auch nur "dazwischen" als PS5 Pro Chip und weil man die eh gerade vom Band liefert halt als Desktop-Version dazu?
Würde die recht kleinen "Monolithen" erklären.
Der PS5Pro-SoC wird ein SoC klar über 300mm² und mit nur 2 ShaderEngines, N48 wird 4 ShaderEngines haben und soll höchstens 240mm² groß sein.
Das ist kein PS5Pro-Salvage, selbst wenn es die gleiche Architektur wäre (was aber nicht der Fall ist, außer die PS5Pro hat doch schon echtes RDNA4).
Nach bisheriger Info-Lage soll P5P aber nur RDNA3+ ergänzt um die Hardware-BVT von RDNA4 sein.
Das eigentliche "RDNA4" kommt dann wohl als RDNA 5
Die N4x sind allein schon anhand der Treibereinträge klar GFX12, während RDNA3 GFX11 und RDNA3+/3.5 GFX11.5 ist. Die PS5Pro-iGPU wäre nach der Rechnung ca. GFX11.7 oder so.
Aber egal, einige Leute in diesem Forum wollen unbedingt, dass N44/48 kein echtes RDNA4 sind und dass RDNA5 in Wahrheit nur RDNA4.5 ist. Und da die Chiplet-RDNA4 nicht erscheinen, wird das auch ewig weitergesponnen werden, da es ja keine Gegenbeweise in Form von HighEnd RDNA4 gibt und man lieber Erklärungen erfindet, als sich - geschweige denn anderen gegenüber - einzugestehen, wenn man sich irgendeinen Mist zusammengereimt hat.
Nicht speziell gegen dich gerichtet, mich nervt nur generell die Sturheit und Penetranz, mit der dieses "Die Mainstream-RDNA4 sind bestimmt kein echtes RDNA4 und RDNA5 wird jetzt nur noch RDNA4.5, weils eigentlich nur ein verschobener RDNA4 ist" immer wieder hochgekocht wird, nur weil einige des Englischen nicht so mächtig sind und in bestimmte Gerüchte dann angefangen haben, etwas reinzuinterpretieren, was a) unlogisch ist und b) aus diesen Gerüchten auch überhaupt nicht hervorgeht. Aber man kann's halt auch 20x versuchen zu erklären, weil die Leute einfach nur mit ihren Fantasien recht behalten wollen, im Zweifelsfall indem man Szenarien erfindet und gegenteilige Fakten ignoriert, wenn sie einem nicht in dem Kram passen.
Im Grunde gehen die Leute hier mit Gerüchten um wie mit "News" und Gerüchten auf Social Media: Was einem ins zurechtgesponnene Weltbild passt wird für bare Münze genommen, was einem nicht so passt wird notfalls mit Gewalt zurechtgebogen, und wenn Fakten zu offensichtlich dazu nicht passen, werden diese halt stumpf ignoriert, bevor man sich die Blöße gibt zuzugeben, mit irgendwas falsch gelegen zu haben.
amdfanuwe
2024-05-01, 22:48:55
Im Grunde gehen die Leute hier mit Gerüchten um wie mit "News" und Gerüchten auf Social Media:
da bin ich bei dir.
Der PS5Pro-SoC wird ein SoC klar über 300mm² und mit nur 2 ShaderEngines, N48 wird 4 ShaderEngines haben und soll höchstens 240mm² groß sein.
Das ist kein PS5Pro-Salvage, selbst wenn es die gleiche Architektur wäre (was aber nicht der Fall ist, außer die PS5Pro hat doch schon echtes RDNA4).
Nach bisheriger Info-Lage soll P5P aber nur RDNA3+ ergänzt um die Hardware-BVT von RDNA4 sein.
Die N4x sind allein schon anhand der Treibereinträge klar GFX12, während RDNA3 GFX11 und RDNA3+/3.5 GFX11.5 ist. Die PS5Pro-iGPU wäre nach der Rechnung ca. GFX11.7 oder so.
Aber egal, einige Leute in diesem Forum wollen unbedingt, dass N44/48 kein echtes RDNA4 sind und dass RDNA5 in Wahrheit nur RDNA4.5 ist. Und da die Chiplet-RDNA4 nicht erscheinen, wird das auch ewig weitergesponnen werden, da es ja keine Gegenbeweise in Form von HighEnd RDNA4 gibt und man lieber Erklärungen erfindet, als sich - geschweige denn anderen gegenüber - einzugestehen, wenn man sich irgendeinen Mist zusammengereimt hat.
Nicht speziell gegen dich gerichtet, mich nervt nur generell die Sturheit und Penetranz, mit der dieses "Die Mainstream-RDNA4 sind bestimmt kein echtes RDNA4 und RDNA5 wird jetzt nur noch RDNA4.5, weils eigentlich nur ein verschobener RDNA4 ist" immer wieder hochgekocht wird, nur weil einige des Englischen nicht so mächtig sind und in bestimmte Gerüchte dann angefangen haben, etwas reinzuinterpretieren, was a) unlogisch ist und b) aus diesen Gerüchten auch überhaupt nicht hervorgeht. Aber man kann's halt auch 20x versuchen zu erklären, weil die Leute einfach nur mit ihren Fantasien recht behalten wollen, im Zweifelsfall indem man Szenarien erfindet und gegenteilige Fakten ignoriert, wenn sie einem nicht in dem Kram passen.
Im Grunde gehen die Leute hier mit Gerüchten um wie mit "News" und Gerüchten auf Social Media: Was einem ins zurechtgesponnene Weltbild passt wird für bare Münze genommen, was einem nicht so passt wird notfalls mit Gewalt zurechtgebogen, und wenn Fakten zu offensichtlich dazu nicht passen, werden diese halt stumpf ignoriert, bevor man sich die Blöße gibt zuzugeben, mit irgendwas falsch gelegen zu haben.
Generell gebe ich dir recht. Aber angenommen RDNA5 und größer werden nur noch in CPUs verbaut, da sich Mainstream nicht mehr lohnt? Wenn Halo ähnlich schnell wie eine 4070-Desktop ist-naja, ich weiß nicht...
Altehardware
2024-05-02, 09:45:23
ja das ist amd ernst strix halo hat quadchannel lpddr5 das sind allein schon 256gb/s in peaks real dürften da 200gb/s sein inklusive dem quasi inf cache (durch L3) kommt da 260gb/s raus + zusätzlichen +60gb/s wenn der ram nicht durch die cpu Ausgebremst wird.
also maxed 320gb/s in ner apu da limitiert nix mehr so wie in älteren apu mit ddr4 wo man teils die 50gb/s grenze kaum was ans laufen bekommen hat.
Daher bin ich überzeugt das ab rdna5 keine entry chips mehr geben wird. Sprich amd gpu fangen ab 400$ an und das ist noch optimistisch
Was wird dann nvidia tun ins loch greifen sicherlich nicht man wird schön darüber platzieren
ich rechen ab der rtx60 gen mit keiner 60 class gpu mehr und wenn ist diese nur ein refresh der rtx50 Serie was Sinn ergibt.
Das bedeutet ab 2026 gpu start ab 499€ amd und 559€ nvidia und das leider ab 200w tbp
Willste weniger muss ne apu system kaufen ab 2026 oder eol Produkte was dann die rtx5060 rx8700 wäre
Das sagt aber auch das ab 2026 am6 kommt mit quadchannel support
mboeller
2024-05-02, 09:50:32
Daher bin ich überzeugt das ab rdna5 keine entry chips mehr geben wird. Sprich amd gpu fangen ab 400$ an und das ist noch optimistisch
das macht keinen Sinn, da AMD damit den Laptop-Markt an Intel+Nvidia abtreten würde.
Achill
2024-05-02, 10:02:31
das macht keinen Sinn, da AMD damit den Laptop-Markt an Intel+Nvidia abtreten würde.
Keine Ahnung wie diese Schlussfolgerung zu Stande kommt ... wie gibt da AMD etwas ab? Es wird mit Sicherheit weiterhin Gamer-Laptops geben mit dGPU von AMD/NV (+Intel?) ... und daneben Laptops mit iGPU, bei AMD gibt es dann nur eine größere Bandbreite wo einige Modelle die Einstiegs-dGPUs ersetzen könnten.
Neurosphere
2024-05-02, 12:18:08
https://twitter.com/Kepler_L2/status/1785457881833173416?t=NletsobVUHsIWxlIGU1t2w&s=19
Komplett neue RT Pipeline für RDNA4, war aber auch zu erwarten.
robbitop
2024-05-02, 12:21:47
Sehr gut. Mal schauen, wie weit AMD geht. BVH compute in FF (wie Turing und Ampere) oder noch coherancy sorting in HW?
fondness
2024-05-02, 12:23:16
Sehr gut. Mal schauen, wie weit AMD geht. BVH compute in FF (wie Turing und Ampere) oder noch coherancy sorting in HW?
Ist Ada Lovelace dadurch auch nur ein Promille schneller geworden? Laut Benchmarks die ich gesehen habe nämlich nicht. Die angeblichen Software-Anpassungen die man zum Launch noch als Begründung geliefert hat scheinen sich auch in Luft aufgelöst zu haben.
robbitop
2024-05-02, 12:26:11
Ada hat noch kein Coherency Sorting - das ist execution reordering.
In den neueren Spielen legt Ada bei Path Tracing aber schon ggü Ampere zu. Zumindest erinnere ich mich, das Raff das mehrfach gesagt hat und er testet ja den ganzen Tag alles hoch und runter. :)
edit hier sieht man es zB:
https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/
4080 vs 3090ti in 4K
Rasterizing +19%
RT +24%
PT: +74%
The_Invisible
2024-05-02, 12:37:53
Ist Ada Lovelace dadurch auch nur ein Promille schneller geworden? Laut Benchmarks die ich gesehen habe nämlich nicht. Die angeblichen Software-Anpassungen die man zum Launch noch als Begründung geliefert hat scheinen sich auch in Luft aufgelöst zu haben.
Du meinst wohl SER (Shader Execution Reordering), das bringt schon einiges (https://www.youtube.com/watch?v=v7GHivwL9dw) aber ist nur bei CP2077 und AW2 drinnen bzw RTX-Remix Titel.
Altehardware
2024-05-02, 12:45:29
Und funktioniert nur mit dlss
fondness
2024-05-02, 12:47:11
Okay danke wusste ich nicht. Hier noch was aus dem AnandTech-Forum, RT mit RDNA4 ist wohl auch komplett anders zu implementieren:
Der gesamte BVH4 Code ist weg.
https://i.postimg.cc/d3HJMRVy/AMD-RDNA-4-Ray-Tracing-Engine-GPU.png (https://postimg.cc/kRb0Kb8J)
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-97#post-41202151
davidzo
2024-05-02, 15:51:31
Aber egal, einige Leute in diesem Forum wollen unbedingt, dass N44/48 kein echtes RDNA4 sind und dass RDNA5 in Wahrheit nur RDNA4.5 ist. Und da die Chiplet-RDNA4 nicht erscheinen, wird das auch ewig weitergesponnen werden, da es ja keine Gegenbeweise in Form von HighEnd RDNA4 gibt und man lieber Erklärungen erfindet, als sich - geschweige denn anderen gegenüber - einzugestehen, wenn man sich irgendeinen Mist zusammengereimt hat.
Ja, das ist schon alleine deswegen völlig unrealistisch weil AMDs Architektur-Teams prozessagnostisch entwickeln. Die Architektur entscheidet über Hardwarefeatures, nötige Treiberarbeit, featurelevel und IPC. In welchem Prozess die läuft und wieviele WGPs eine SKU bekommt wird wesentlich später festgelegt. Die Implementierung wird von völlig unterschiedlichen Leuten gemacht.
Und wenn Chips gestrichen werden, dann nicht weil man einen Fallback auf frühere Architekturen durchführt, sondern weil man den Implementierungsschritt beschleunigen will durch freigewordenen Kapazitäten in diesen Teams. Das beschleunigt also in der Regel die verbleibenden Chips und den Nachfolger, kann aber auch heißen dass man die Kapazitäten halt woanders brauchte (mi300x).
Und der Umstand dass es wirkliche RDNA3.5 Chips gibt für die PS5P und für Sarlak ist eigentlich ein glasklares Indiz dafür dass N48 und N44 eine neue Architektur sind. Sonst würden die PS5P und Sarlak auch als RDNA4 laufen. Aber hier gehts nicht um Marketing-Namen wie RX8000, RX9000 sondern um Codenamen und Architekturgenerationen. So weit in die Architekturentwicklung reicht der lange Arm des Marketings nun doch nicht - Dass man das was unter GFX1200 entwickelt hat einfach in GFX1300 und GFX1180 in GFX1200 oder so umbenennen würde. Wozu auch? - Der Kunde versteht da eh nichts von und wir 3DC-ler sind wirklich nicht zahlreich und wichtig genug dass man so einen Aufwand treiben würde nur um uns zu verwirren.
mboeller
2024-05-02, 16:33:34
Keine Ahnung wie diese Schlussfolgerung zu Stande kommt ... wie gibt da AMD etwas ab? Es wird mit Sicherheit weiterhin Gamer-Laptops geben mit dGPU von AMD/NV (+Intel?) ... und daneben Laptops mit iGPU, bei AMD gibt es dann nur eine größere Bandbreite wo einige Modelle die Einstiegs-dGPUs ersetzen könnten.
es gibt viel mehr Notebooks mit Intel CPU. Diesen potentiellen Markt würde AMD an Intel+Nvidia abtreten. Die meisten Notebooks enthalten IMHO nur Mainstream, oder Lowend-GPU's.
mczak
2024-05-02, 18:05:04
es gibt viel mehr Notebooks mit Intel CPU. Diesen potentiellen Markt würde AMD an Intel+Nvidia abtreten. Die meisten Notebooks enthalten IMHO nur Mainstream, oder Lowend-GPU's.
Wobei der Marktanteil den AMD zur Zeit bei Notebooks mit dGPU hat sich gefühlt eher in Promillen statt Prozenten misst (gut ist etwas übertrieben aber viel mehr ist es nicht). Ganz egal was AMD da versucht bisher klappt das nicht da Marktanteile zu erobern. Ich würde meinen eine Voraussetzung wäre dass man zumindest keine Nachteile bezüglich Effizienz hat gegenüber Nvidia, aber das allein reicht nicht (RDNA2 war da konkurrenzfähig und hatte trotzdem nicht mehr Marktanteil).
Trotzdem denke ich aber du hast recht, der Markt ist zu wichtig um ihn aufzugeben, man wird es weiter versuchen.
MSABK
2024-05-02, 22:48:09
Der Notebook dGPU-Markt für Amd ist tot und nicht existent. Mit einer starken APU im oberen Highende könnten sie wahrscheinlich noch gute Designs gewinnen, aber ansonsten ist Nvidia einfach viel zu stark in dem Bereich.
TheAntitheist
2024-05-03, 01:34:25
Und funktioniert nur mit dlss
SER hat überhaupt gar nichts mit DLSS zu tun, könnten die AMD Fanboys aufhören sich immer irgendwas auszudenken? Es wirkt verzweifelt
Der Notebook dGPU-Markt für Amd ist tot und nicht existent. Mit einer starken APU im oberen Highende könnten sie wahrscheinlich noch gute Designs gewinnen, aber ansonsten ist Nvidia einfach viel zu stark in dem Bereich.
naja, spätestens seit Rembrandt ist eine dGPU im Notebook für die meisten unnötig
dildo4u
2024-05-03, 08:19:58
naja, spätestens seit Rembrandt ist eine dGPU im Notebook für die meisten unnötig
Nicht wirklich man bekommt Heute 1000€ Books mit eine 4060 man zahlt das fast für jedes Modell mit den neusten AMD APU.
Bis X86 nicht massiv Energie Effizierter wird muss man immer noch Performance vs Batterie entscheiden.
Zum Vergleich
APU sind um 3k Timespy eine 4060 mit 100 Watt 10k.
https://benchmarks.ul.com/hardware/gpu/AMD%20Radeon%20780M+review
https://benchmarks.ul.com/hardware/gpu/NVIDIA+RTX+4060+(notebook)/review
vinacis_vivids
2024-05-03, 08:54:47
Die 780M von AMD ist auch speziell für Thin-clients gedacht und stehen eher in Konkurrenz zu Apple APU und Intel iGPU sowie dünne Arm Notebooks.
Da hat Nvidia gar keine Chance.
RDNA4 uArch wird, wie einst Vega uArch auch im Bereich Embedded, Smartfones und Industrial verwendet. Alles APU Märkte, wo Nvidia kein Land sieht.
dildo4u
2024-05-03, 09:00:53
Man hört bisher nur das die High-End APU RDNA 3.5 nutzten soll bis AMD im Gameing Notebook zurück kommt vergehen noch Jahre.
AMD hat aktuell massiv Probleme dGPU in Notebooks unterzubringen dort bewegt sich gar nix was Sinn macht 7600S ist schlechter als 4060 aber nich billiger.
Wie groß ist der Markt für "gaming"-Notebooks? Mit den APUs kann man schon gut spielen, wenn es unbedingt sein muss, zumal die Auflösung bei den kleinen Bildschirmen nicht hoch sein muss.
Nothingburger: https://www.guru3d.com/story/amd-rdna-4-architecture-gets-redesigned-the-ray-tracing-block/
vinacis_vivids
2024-05-03, 09:34:40
Man hört bisher nur das die High-End APU RDNA 3.5 nutzten soll bis AMD im Gameing Notebook zurück kommt vergehen noch Jahre.
AMD hat aktuell massiv Probleme dGPU in Notebooks unterzubringen dort bewegt sich gar nix was Sinn macht 7600S ist schlechter als 4060 aber nich billiger.
Die 7600S im 1000€ Notebook-Bereich ist doch ne gute Karte in Preis-Leistung und 20 Stunden Laufzeit!.
Ach da sieht NV kein Land:
https://www.notebookcheck.com/Asus-TUF-Gaming-A16-Advantage-Edition-FA617XS-im-Test-AMD-Notebook-mit-bis-zu-20-Stunden-Laufzeit.716222.0.html
Allerdings sind das eben Fakten, die die Welt nicht interessieren, sondern nur grünes Marketing blabla.
Im HighEnd wurde die "RTX4080m" kassiert von der RX7900M 16GB.
https://www.notebookcheck.com/AMD-Radeon-RX-7900M-gibt-ihr-Leistungsdebut-Alienware-m18-R1-im-Laptop-Test.774182.0.html
RDNA4 240mm² könnte die Expansion im Mobilen Markt deutlich beschleunigen mit KI + FSR3 + RT und 16GB VRAM. Für einen bezahlbaren Preis.
Intel / NV verlangen für HighEnd zusammen 4000€ bis 5000€ pro Notebook. AMD ist da noch Human und verkauft bei 2000 - 2500€.
dildo4u
2024-05-03, 09:48:23
Das abschalten der dGpu für lange Laufzeit geht natürlich auch mit Nvidia.
Dieses Modell renn länger unter Vollast mit deutlich mehr GPU Performance
Im Energiesparmodus und deaktivierter GPU kann der Verbrauch auf 6 W absinken. Mit maximaler Helligkeit und aktivierter dGPU steigt der Idle-Verbrauch auf 22 W, was etwas doppelt so hoch ist wie im TUF Gaming F17 oder dem Pulse 17 unter ähnlichen Bedingungen. Daher ist es unabdingbar den iGPU-Modus in Situationen zu aktivieren, in denen die Akkulaufzeit eine Rolle spielt.
https://i.ibb.co/VqXHf2g/Screenshot-2024-05-03-094636.png (https://ibb.co/G5gszcW)
https://www.notebookcheck.com/Asus-TUF-Gaming-A17-FA707XI-im-Laptop-Test-GeForce-RTX-4070-mit-140-W-fuer-1-400-Euro.790410.0.html
ashantus
2024-05-03, 09:59:51
Techpowerup berichtet über RDNA4.
In Kurzform: bei RDNA4 soll eine noch größere Aufspaltung zwischen der Raytracing engine und den Shaderclustern erfolgen. Die beiden Bereiche werden also autarker voneinader.
https://www.techpowerup.com/322081/amd-to-redesign-ray-tracing-hardware-on-rdna-4
edit an exxtreme: das mit Kepler L2 war schlecht formuliert in dem Artikel, oder ich war noch zu müde.
Exxtreme
2024-05-03, 10:01:10
Kepler L2 ist ein Twitter-Account. ;)
fondness
2024-05-03, 10:13:42
Ich ebenso nicht. Das hat von vornherein keinerlei Sinn ergeben. Ein Abstand zu N32 von weniger als einem Jahr macht auch keinen Sinn, da hätte man N32 gleich canceln können.
Was auch noch gegen einen frühen N44/N48 spricht: Strix Point und Strix Halo bekommen noch RDNA3+ und die sollen auch nicht so bald verfügbar sein.
Altehardware
2024-05-03, 10:23:04
wenn ser das nur auf ada gpu funktioniert laut presentation 2022 wieso ist dann ampere bei Takt und rt core Anzahl dann nicht deutlich langsamer.
bsp alan wake 2 pathtraced da weis ich das ser zum Einsatz kommt.
rtx3060 12gb vs rtx4060ti 16gb
16 vs 29 fps Takt und rt core ausgleichen 1-1 identische perf mit dlss sieht das anders aus
da sind es 27fps vs 56fps
Die Skalierung ist ampere 70% durch dlss q und bei ada 90% perf Steigerung dlss q
das kann nur durch ser entstehen den der algo ist bei beiden gleich
Wieso pathtraced nun CPU limit ist damit quasi ausgeschlossen insbesondere in 2160p
das war für den vergleich in dlss den die rtx4090 wird massiv cpu limitiert mit dlss
natürlich nehme ich an das dxr mit Takt und rt core Anzahl steigt und das linear
Könnte ser auch in ampere und turing genutzt sein machbar wäre es aber dafür fehlt den beiden arch der größere L2 cache den der wird benötigt
robbitop
2024-05-03, 10:31:16
SER muss explizit durch den Entwickler implementiert werden. Ansonsten ist es wirkungslos. Soweit mir bekannt ist das nur bei Alan Wake 2 und CP2077 (an AAA Spielen) der Fall bis dato. Und natürlich je stärker die RT Last, desto größer der Vorteil. Entsprechend sieht man es bei Path Tracing am Meisten.
mboeller
2024-05-03, 10:34:43
Was auch noch gegen einen frühen N44/N48 spricht: Strix Point und Strix Halo bekommen noch RDNA3+ und die sollen auch nicht so bald verfügbar sein.
<rant>
aha. Und deshalb gab es auch nie RDNA1 weil die APUs alle noch Vega-GPUs drin hatten, oder wie?
</rant>
die iGPU-Zeitschiene ist halt aufgrund der längeren Validierungsphase für einen komplexen SoC eine andere als für eine dGPU.
dildo4u
2024-05-03, 10:41:53
Das kommt drauf an wo die Ressourcen liegen AMD will Intel im Notebook ersetzen das geht nur wenn man Geld investiert und Gamer GPU vernachlässigt.
AMD hat das richtig gelesen wenn man den Quartals Bericht liest.
vinacis_vivids
2024-05-03, 11:35:20
Gaming GPUs werden nicht vernachlässigt, sondern nach Firmenpolitik für die Masse bezahlbar bleiben wie bspw. PS5-Pro oder RX 7800 XT 16GB usw.
Huang ist der Typ, der die Gamer im Stich lässt mit seinem KI-Wahn.
dildo4u
2024-05-03, 12:15:23
Gaming GPUs werden nicht vernachlässigt, sondern nach Firmenpolitik für die Masse bezahlbar bleiben wie bspw. PS5-Pro oder RX 7800 XT 16GB usw.
Huang ist der Typ, der die Gamer im Stich lässt mit seinem KI-Wahn.
Gameing Hardware zeigt kein Wachstum weil die Masse Games as a Service zockt kein Zwang neue GPUs/Konsolen zu kaufen.
https://kotaku.com/old-games-2023-playtime-data-fortnite-roblox-minecraft-1851382474
AMD: Gaming Demand Is Weak, Going to Get Worse
https://au.pcmag.com/gaming-1/105033/amd-gaming-demand-is-weak-going-to-get-worse
][immy
2024-05-03, 12:34:16
Gameing Hardware zeigt kein Wachstum weil die Masse Games as a Service zockt kein Zwang neue GPUs/Konsolen zu kaufen.
https://kotaku.com/old-games-2023-playtime-data-fortnite-roblox-minecraft-1851382474
AMD: Gaming Demand Is Weak, Going to Get Worse
https://au.pcmag.com/gaming-1/105033/amd-gaming-demand-is-weak-going-to-get-worse
Problem ist inzwischen aber eher der Preis. CPUs waren vermutlich noch nie so günstig, aber GPUs auch noch nie so teuer. Zudem wird heute auch viel am Smartphone gezockt. Der Spielemarkt ist halt groß.
dargo
2024-05-03, 12:35:45
Gameing Hardware zeigt kein Wachstum weil die Masse Games as a Service zockt kein Zwang neue GPUs/Konsolen zu kaufen.
https://kotaku.com/old-games-2023-playtime-data-fortnite-roblox-minecraft-1851382474
AMD: Gaming Demand Is Weak, Going to Get Worse
https://au.pcmag.com/gaming-1/105033/amd-gaming-demand-is-weak-going-to-get-worse
Dann müssen sich die IHVs halt etwas mehr anstrengen. Diese Salamitaktik von Gen zu Gen macht halt nicht jeder mit.
dildo4u
2024-05-03, 12:37:18
[immy;13535157']Problem ist inzwischen aber eher der Preis. CPUs waren vermutlich noch nie so günstig, aber GPUs auch noch nie so teuer. Zudem wird heute auch viel am Smartphone gezockt. Der Spielemarkt ist halt groß.
3060 sind aktuell nicht so viel teurer als 1060 zum Launch es gibt aber wie gesagt kein Zwang wenn alte Hardware Fortnite/GTA5 und Call of Duty für 60fps reicht.
Für Esports senkt man eh am besten Details für besser Sicht.
https://i.ibb.co/mSLVcjB/Screenshot-2024-05-03-124034.png (https://ibb.co/FnSLDrW)
https://www.computerbase.de/2024-04/fortnite-benchmark-test-2024
Altehardware
2024-05-03, 12:44:02
Dafür ist die rtx3060 3 Jahre alt und hat jetzt den preis der gtx1060 zum launch 2016
mal anmerke das die rtx3060 am limit läuft quasi kein spiel das neu ist und Anspruch hat läuft über 60fps bei 1080p
Lösung der publisher upscaling und da ist teilweise kein dxr aktiv.
Jetzt wäre der perfekte moment um eine rtx4060 super 30sm 16gb mit 20gbps vram maximal 350€ zu bringen
vinacis_vivids
2024-05-03, 12:56:13
Huang hat die Mittelklasse bei den Gamern langfristig zerstört mit dem Marketing blabla und denen das Geld aus der Tasche gezogen für ne schwache Leistung.
dildo4u
2024-05-03, 12:59:14
Huang hat die Mittelklasse bei den Gamern langfristig zerstört mit dem Marketing blabla und denen das Geld aus der Tasche gezogen für ne schwache Leistung.
Genau wie AMD 7600 sind billiger zu produzieren als 3060 kosten aber fast das selbe und haben nur 8GB.(Beide nutzen nicht die neuste Fertigung!)
vinacis_vivids
2024-05-03, 13:17:47
Die RX 7600 XT mein Freund, hat 16GB. Das ist die Karte!
maximus_hertus
2024-05-03, 14:44:24
Die RX 7600 XT mein Freund, hat 16GB. Das ist die Karte!
Da kann man auch direkt was drauf zahlen und Karten kaufen, die ein deutliches(!) besseres Preis/Leistungsverhältnis haben.
Die 7700XT ist rund 35% schneller, kotet aber nur 20% mehr.
Wenn es die 7600 XT für 299 Euro geben würde, würde ich es positiver sehen. Dort gehört sie hin. Aber für 350 und mehr Euro ist die Karte doch komplett uninteressant.
Wer soll eine 7600 XT kaufen? WEnn man möglichst günstig was kaufen möchte, landet man bei der Vanilla 6600 (ab 210 Euro). Alternativ die 4060 für 290 Euro.
Die Vanilla 7600 ist mit 280+ Euro zu teuer, die müsste auf maximal 240, besser 220-230 Euro runter.
Der Bereich zwischen 300 - 400 Euro ist irgendwie sehr unattraktiv. Entweder nur 8GB oder zu lahm.
Bei etwas oberhalb von 400 Euro gibt es dann 7700 XT und 4060 Ti 16GB. Zwei vernünftige Lösungen, die aber beide bei rund 375-390 Euro am besten aufgehoben wären.
Mich wundert es dann doch, dass AMD die 7600 bzw. 7600 XT nicht aggressiver bepreisen kann und/oder will.
189 Euro für die restlichen Vanilla 6600, 199-209 Euro für die restlichen 66XT bzw. 665XT, 229-239 Euro für die 7600 und 299 Euro für die 7600 XT.
Die 7700 XT dann 399 Euro und die 7800 XT für 479-499 Euro.
dildo4u
2024-05-03, 14:52:21
Man muss da doch gar nicht mit ihm argumentieren AMD hat die Quittung bekommen bis auf die 7800XT ist kein aktuelles Modell positiv aufgenommen worden was zum massiven Umsatz Verlust passt.
Alles was vor diese Karten kam wurde durch Mining Nachfrage aufgeblasen.
vinacis_vivids
2024-05-03, 14:55:43
Da kann man auch direkt was drauf zahlen und Karten kaufen, die ein deutliches(!) besseres Preis/Leistungsverhältnis haben.
Die 7700XT ist rund 35% schneller, kotet aber nur 20% mehr.
Ich bezog mich auf dem Screen vom NV-Verkäufer dildo4u, der AMD schlecht machen wollte und versuchte die alte Technik RTX3060 von Huang zu verkaufen.
Da ist ja zufällig eine RX7600 XT in der Liste.
Zumal muss man bedenken, dass die RTX3060 bei FSR keine gute Figur macht wegen schlechter Bildqualität.
dildo4u
2024-05-03, 15:01:04
7600XT nutzt auch alte 6nm Tech mit um kosten zu sparen trotzdem ist Preis/Leistung schlechter als alles in der Klasse.
Leider hast du es schwer mit Fakten.
In 1440p wo der Vram eine Rolle spielen sollte ist sie viel zu teuer.
https://i.ibb.co/q9qCghG/Screenshot-2024-05-03-150418.png (https://ibb.co/6b98tGh)
https://youtu.be/Lcb1dpe2IhE?si=8qgHuvkyLqB4rrrQ&t=1061
Altehardware
2024-05-03, 15:01:47
Das ist sie nicht immer maximal dürften zwischen +18-40% Differenz sein da rdna3 in mcm starke Taktschwankungen hat das geht von 1,9ghz bis 2,3ghz je nach last
54*64*2,34*1,9=15,3 +18% min und maxed +40%
dafür zahlt man min 80€ mehr kein gutes P/L Verhältnis
Die beste P/L hat die rx7900gre da taktstabiler bei 2,0ghz und mehr alu 80cu =23,9tf /13,0 = +84% für +200€ mehr
vinacis_vivids
2024-05-03, 15:10:55
Leider kein FSR im Benchmark drin und somit nutzlos. FSR aktivieren ist mittlerweile Standard geworden beim Gaming. Weiß nicht was die Amis da wieder messen und versuchen was zu verkaufen.
dildo4u
2024-05-03, 15:14:34
FSR würde den Vram Anspruch senken was sie noch schlechter dastehen lassen würde da sie kaum mehr Rechenleistung als das 8GB Modell hat.
maximus_hertus
2024-05-03, 15:30:46
FSR aktivieren ist mittlerweile Standard geworden beim Gaming.
Helldivers 2 sagt nein ;)
Ob es dir gefällt oder nicht, aber Helldivers ist aktuell ein sehr oft gespieltes Spiel und damit nicht ganz unwichtig.
Dort liegt eine 7600 gerade mal 11% und die 7600 XT 16GB gerade mal 14% vor der uralten 3060. Bei den Perzentilen sind es nur 9% (gilt für beide, 7600 und XT).
Eine 8GB 4060 liegt sowohl bei den AVG, als auch bei den PErzentilen VOR beiden 7600er (auch vor der XT). Dabei braucht die 4060 viel weniger Strom. Ergo deutlich bessere Effizienz und weniger Anforderungen ans Netzteil.
Das nV hier so gut aussieht ist weniger die Leistung nVs, sondern eher die Nicht-Leistung von AMD. Mit der deutlich günstigeren Fertigung muss es doch möglich sein, bessere Preise zu bieten.
299 Euro für die 16GB 7600 XT und die Welt sieht wieder anders aus. Dann wäre sie sicher eher eine Empfehlung (im Vergleich zur 8 GB 4060, trotz RT Schwäche bei AMD).
Bei 350+ Euro bietet sie 16GB und minimal mehr Rasterperformance. Dafür selbst bei 1080p und FSR kaum genug Speed für RT, dazu für diese Klasse einen enormen Stromhunger. Und halt der hohe Preis (350+ Euro). Wenig attraktiv.
vinacis_vivids
2024-05-03, 16:22:13
Preis-Leistung bei einem Käufer der RTX3080 ;D
DrFreaK666
2024-05-03, 20:03:23
Back2Topic!
OgrEGT
2024-05-06, 08:51:27
Ob es auf der Computex noch ein "last thing" gibt und wir noch etwas über RDNA4 erfahren werden?
Neurosphere
2024-05-06, 09:18:49
Ich vermute mal ja. Wenn man im Q3/Q4 wirklich was bringen will sollte man es Ende Q2 zumindest anteasern.
AffenJack
2024-05-06, 10:32:39
Ich vermute mal ja. Wenn man im Q3/Q4 wirklich was bringen will sollte man es Ende Q2 zumindest anteasern.
Kann mich nicht erinnern, dass es die letzten Jahre Teaser gegeben hätte in Q2. Man hält solange still wie möglich. Erst zur Gamescom könnte man sich Ankündigungen/Teaser vorstellen.
Die Compute hat mit CPUs und APUs einfach schon einen klaren Fokus. Da muss man nix mehr zu GPUs bringen.
DrFreaK666
2024-05-06, 10:44:40
Auf der Computex 2019 wurde auch RDNA1 vorgestellt.
AffenJack
2024-05-06, 10:55:17
Was daran lag, dass RDNA1 im Juli gestartet ist. Dann präsentiert man auch nen Monat vorher. Aber im Juli ist RDNA4 nicht zu erwarten und dann kann man auch auf der Gamescom vorstellen.
BlacKi
2024-05-06, 11:07:17
aber hey, vl gibts ein paar rdna4 folien...
Neurosphere
2024-05-06, 12:04:06
Kann mich nicht erinnern, dass es die letzten Jahre Teaser gegeben hätte in Q2. Man hält solange still wie möglich. Erst zur Gamescom könnte man sich Ankündigungen/Teaser vorstellen.
Die Compute hat mit CPUs und APUs einfach schon einen klaren Fokus. Da muss man nix mehr zu GPUs bringen.
Auch wieder wahr. Vermutlich hängst halt davon ab wann RDNA4 kommt dieses Jahr.
BavarianRealist
2024-05-06, 14:39:28
Von RDNA3 produziert AMD vermutlich schon länger nix mehr. Siehe den Q1-2024 CC, (https://www.fool.com/earnings/call-transcripts/2024/04/30/advanced-micro-devices-amd-q1-2024-earnings-call-t/) daraus:
Gaming segment revenue was $922 million, down 48% year over year and down 33% sequentially due to a decrease in [semi] customer and Radeon GPU sales.
Im Q&A dann von Jean Hu:
...if you look at the gaming, the demand has been quite weak. That's quite very well known, and also their inventory level. So based on the visibility we have, the first half, both Q1 and Q2, we guided down sequentially more than 30%.
We actually think the second half will be lower than first half...
922Mio$ - 30% = 650Mio$...inklusive Konsolen SoCs, und da sind dann die neuen SoCs für die PS5pro schon mit dabei, vor allem im noch niedrigeren H2/2024....
=> da bleiben für Gaming-GPUs für Q3/Q4 von 2024 kaum noch 100-200Mio$, wenn nicht nahe Null
Das würde für RDNA4 bedeuten, dass AMD aktuelle nicht damit rechnet, dass von RDNA4 in 2024 viel ausgeliefert werden wird, um nicht zu sagen: vermutlich gar nichts
=> RDNA4 wäre damit ein 2025-Produkt.
RDNA4 wird auch sehr wenig produziert werden in dem Marktumfeld. Wie gesagt ist RDNA4 nichts anderes als ein Kostensparer der bisherigen RDNA3 zu sehen, jedenfalls wird AMD das so sehen.
AMDs ganz großer Pferdefuß ist Intels massive mobil-Schwäche. Die müssen mit Hawk Point erheblich mehr Marktanteil abdecken als geplant, zudem kommt noch die offenbar riesige Strix Point-Nachfrage hinzu. Klar, dass die GPUs da auf der Strecke bleiben.
Die Konsolen sind hier ja außer Konkurrenz, da 6nm und die PS5 Pro soll ja von Samsung kommen.
basix
2024-05-06, 18:30:02
RDNA4 mit gutem P/L wäre mMn eine Belebung für den Markt. Und AMD würde gut profitieren. Viele kaufen momentan keine GPUs, weil das Marktumfeld als Käufer generell unattraktiv ist und in 6 Monaten das neue Zeugs kommt. Wenn man aber noch viel RDNA3 GPUs auf Halde hat und der Markt generell schwächelt, dauert es leider lange, bis die Lager leer sind. Und somit länger als gewünscht, bis RDNA4 kommt.
Für AMD sollte RDNA4 aber eigentlich möglichst bald kommen, da bei gleichbleibenden Performance-Targets günstiger in der Herstellung und vermutlich deutlich besseres RT. Das lässt höhere Preise, höhere Margen und/oder höhere Stückzahlen (Umsatz) zu. Und das im besten Fall möglichst lange ohne Konkurrenz von Blackwell.
robbitop
2024-05-06, 18:49:26
Ja man stelle sich sowas wie Polaris vor. Endlich wieder gute P/L GPUs im Midrange? Das wäre definitiv attraktiv. Vor allem wenn man die kritisierten Schwächen (egal wie relevant die für manch einen hier sind) ausbügelt. Schnelles RT und bessere reconstruction. Und idealerweise nie wieder kaputtes framepacing bei fsr3 was dann durch patch orgien gefixt (und kaputt gefixt um dann wieder gefixt zu werden) werden muss. Da muss man die Devs entweder mehr an die Hand nehmen oder andere Wege finden es robust zu machen. :)
horn 12
2024-05-06, 19:01:21
Daher kommen ja nun all die ganzen Asus XT und XTX Dual Karten
und von XFX ebenso die heute veröffentlichte China Karte XT und XTX
Zudem schwächelt nun das Sommerloch!
Man will RDNA 3 langsam aber sicherlich ausverkaufen und gut möglich dass RDNA5 früher kommt als erwartet wird.
Spätsommer bis Herbst 2025
basix
2024-05-06, 19:31:50
Das ist "etwas" optimistisch für RDNA5 ;) Ein Release im November/Dezember 2025 wäre bereits nice und relativ früh.
vinacis_vivids
2024-05-06, 19:39:28
N48 220mm² N4 ~ N31 530mm² N5/N6
Die dichte Packung des N48 spart extrem viel Packaging, Die-Size, VRMs, PCB usw. ggü. dem N31, was sich dann auch preislich auswirkt. 500€ für ~ RX7900XT+ in Raster und RX7900XTX+ RT wäre ein krasser uArch Sprung bei Betrachtung des shrinks.
Der letzte große Shrink im Consumer war ja Vega10 ~ 484mm² auf N10XT ~ 251mm² mit 48% Reduktion in Größe. N31 ~ 530mm² auf N48 ~ 220mm² ist eine Größenreduktion von ~58%. Das ist Exzellent, sofern die Leistung und der Takt wesentlich erhöht werden können.
Bei Vega10 14nm ging die Taktrange von 1,2Ghz bis 1,67Ghz. Bei Navi10 wurden 1,7Ghz bis 2,1Ghz erreicht. Von der reinen Rohleistung war Navi10 schwächer als Vega10. 10 Tflop/s vs 13,3 Tflop/s.
Spekulatius:
N31XTX ~ Taktrange: 2,3Ghz - 2,9Ghz (2,5 - 3,2Ghz CP)
Flop/s fp32 dual-issue: 56 Tflop/s bis 71 Tflop/s
N31XT ~ Taktrange: 2,3Ghz - 2,9Ghz (2,5 - 3,2Ghz CP)
Flop/s fp32 dual-issue: 49 Tflop/s bis 62 Tflop/s
N48XT ~ Taktrange: 3,0Ghz - 3,0 / 3,3 / 3,5 Ghz realistisch
Flop/s fp32 dual-issue: 49 Tflop/s / 54 Tflop/s / 57 Tflop/s
N48XT ~ Taktrange: 3,3Ghz - 3,3 / 3,6 / 3,9 Ghz optimistisch
Flop/s fp32 dual-issue: 54 Tflop/s / 58 Tflop/s / 63 Tflop/s
Mit internen uArch-Verbesserungen sollten die dual-issue fp32 noch besser durchschlagen können. Je länger ich mir den N48 anschaue, desto geiler wird der Chip.
Auch der spekulierte Preis von ~500€ und die Chipgröße von lediglich ~220mm² N4 gegen den überteuerten ~379mm² "4N" AD103 RTX4080 stimmen weiter optimistisch.
amdfanuwe
2024-05-06, 20:17:40
Auch der spekulierte Preis von ~500€
Wenn N48 auf 7900XT Leistungsniveau kommt und RT noch zulegt, wird der auch teurer als die 7900XT ( ab 739€ aktuell) sein. Allein schon um die 7900XT noch gut abverkaufen zu können.
horn 12
2024-05-06, 20:42:39
Rechne wohl kompletter Fakeshop
obwohl vollkommen viele Bewertungen:
https://www.jollyshop.it/ultime-novita/10910-sapphire-pulse-radeon-rx-7900-xt-gaming-oc-20gb-gddr6-dual-hdmi-dual-dp-pci-express-x16-40-4895106293304.html?tpid=T1lDRlhvdVkrT01tZTN2Wm9WYnZyREVpNVc5K0NkYVgvelZLTlNoLzdy VzRicFJxRWE3M0IwSnNPMmZLNHZUbQ2
GRE um 400 Euro
7900 XT um 540 Euro
7900 XTX um 745 Euro
amdfanuwe
2024-05-07, 00:29:21
88061
https://x.com/Kepler_L2/status/1787548523942023568
Trinity mit 2 SE a 15(16) WGP. Kann das sein?
Bisher sind mir nur 8WGP oder 10WGP + Salvage Versionen geläufig.
Gibt es noch andere GPUs von AMD mit mehr als 10 WGP pro SE?
Wo liegen die Vor/Nachteile wenn mehr WGP pro SE verbaut werden?
OgrEGT
2024-05-07, 05:50:45
88061
https://x.com/Kepler_L2/status/1787548523942023568
Trinity mit 2 SE a 15(16) WGP. Kann das sein?
Bisher sind mir nur 8WGP oder 10WGP + Salvage Versionen geläufig.
Gibt es noch andere GPUs von AMD mit mehr als 10 WGP pro SE?
Wo liegen die Vor/Nachteile wenn mehr WGP pro SE verbaut werden?
Na dass man so 96 (6x16) WGPs organisieren kann wenn man wie bei N31 bei 6SEs bleibt...
robbitop
2024-05-07, 07:54:55
Weniger SEs spart Fläche macht aber die Auslastung schwieriger. Das übberlässt man dann den Entwicklern. Dank fixed Plattform sind Optimierungen dort auch etwas vertiefter als bei GPUs im PC.
OgrEGT
2024-05-07, 08:33:50
Bei Ada AD102 sind es 12x12x128 (18432) GPC/SM/CC
Bei N31 sind es
6x8x2x64 (6144) SE/WGP/CU/SP
Bei BW wurden auch bereits 256CC/SM spekuliert... Der Trend mehr Ausführungseinheiten pro Rasterizer einzusetzen zeichnet sich ab... klar wird die Auslastung schwieriger... die Frage ist welche architektonischen Änderungen gibt es dies zu kompensieren... bspw mehr Cache größere Register?
robbitop
2024-05-07, 10:12:18
Für mich sieht es so aus, als wäre mehr Durchsatz pro SM/WGP billiger (Transistoreinsatz) aber skaliert auch schlechter. Wahrscheinlich aufgrund der Granularität und des Verhältnis von Kontrolllogik zu Ausführungslogik.
Gerade die großen GPUs haben es ja immer schwerer ausgelastet zu werden (was aber auch ein moving target wird, weil der shadercode immer mehr cycles benötigt bei neueren Titeln).
Theoretisch skaliert Takt am Besten und danach halt mehr SMs/WGPs bei möglichst vielen SEs bzw GPCs. Aber das kostet auch am meisten Transistoren.
Die Vergrößerung der WGPs in RDNA3 (wenn man sich N33 anschaut) war anscheinend ja relativ günstig. War bei Ampere vs Turing auch so. Das "Preis/Leistungsverhältnis" war also gut.
Das scheint aber von Gen zu Gen auch ein "moving target zu sein". Ab einem gewissen Punkt bringt es vielleicht erstmal nicht mehr genug und man muss dann doch was anderes aufbohren.
Und irgendwie scheint es sich dann ja doch alles zyklisch zu wiederholen.
Mit Kepler hatten wir ja bereits mal 192 FP pro SM. Was dann bei Maxwell auf 128 FP reduziert wurde um dann bei Turing auf 64 FP nochmals reduziert zu werden um dann bei Ampere wieder auf 128 FP aufgeblasen zu werden (allerdings ohne dual issue vom scheduler von Maxwell/Pascal).
Nach meinem Verständnis ist das Äquivalent zu Nvidias SM seit RDNA1 eigentlich der WGP und nicht mehr der CU. Entsprechend hat RDNA3 bereits 256 FP auf dieser Ebene der Topologie. Und es hat auch immerhin ein bisschen was gebracht. Kann also bei Blackwell dementsprechend auch wieder was bringen und nicht so sehr teuer sein.
Ausgehend von Ada und Ampere müssten aber die Scheduler dann mal wieder aufgebohrt werden.
Ich bin bei RDNA4 auf jeden Fall auf die WGPs gespannt. Behält man ggf. aus Effizienzgründen doch die kleineren Register aus N33 (anstatt N31/32)? Bohrt man die Kontrollogik der FPUs nochmal auf dass die weniger Restriktionen haben? (analog Pascal - volle 128 FPUs pro CU)
Wie sieht die neue RT Pipeline aus? Gibt es Matrix cores (ich würde auf nein tippen)?
Altehardware
2024-05-07, 10:43:07
Da hilft mehr cpu ipc und Takt was bald kommen wird. zen5 sol zwischen 15-30% sein ohne x3d cache
Womit erst der r7 9800x3d ende 2024 Anfang 2025 die krone sicher hat mit +30%
Intels arrow lake ist völlig offen luna lake erst 2025 dürfte da maxed +30% sein.
Die rtx4090 aktuell ist schwer auszulasten derzeit limitiert hier eher die bandbreite oder die rop
Letztere nur bei nativer rendern was selten der fall ist (UE5 nanite bspw)
Sehr oft steht da 100% gpu load bei der bandbreite Wenn spiele mal pro frame 6gb veranschlagen und die fps maximal bei nur 144fps sind obwohl die alu nur zu 60% ausgelastet sind das merkt man an der tbp die dann nur bei 280w ist
Die gpu wird dennoch 98-100% load angeben obwohl das nicht stimmt. Dieser fall ist selten oft ist es so das man 200fps hat und die alu sich langweilen bei 50% load und ner tbp von 220w
In den szenario wird ne neue cpu helfen und das auf 80% load bringen mit dann 260fps bei 286w
Eine gpu ist immer ein Kompromiss aus drei limits
shader perf, bandbreite und rop gpixel
letztere greift nur wenn nativ gerendert wird. Was spiele selten tun aber zukünftig öfter dank ue5 nanite.
Die tmu machen fast nix mehr da diese 1-1 mit den rop verbunden sind amd sind es 2 tmu per rop und nvidia 4tmu per rop
Das kann sich ändern macht aber keinen Sinn.
robbitop
2024-05-07, 10:53:27
Nein das sind andere und unabhängige Limits. Auch 3D Grafik und deren Drawcalls sind nicht beliebig parallelisierbar. Deshalb nimmt die Skalierung mit SMs/WGPs auch außerhalb vom CPU Limit deutlich ab.
reaperrr
2024-05-07, 11:03:20
88061
https://x.com/Kepler_L2/status/1787548523942023568
Trinity mit 2 SE a 15(16) WGP. Kann das sein?
Natürlich kann das sein.
Playstation hat viel weniger OS- und Treiber-Overhead und die Hardware ist fix, da können die Entwickler hinsichtlich Auslastung ganz anders optimieren.
Außerdem hatte N14 immerhin auch schon 12 WGP in einer SE, und seit RDNA ist die ShaderEngine ja auch noch in 2 ShaderArrays aufgeteilt.
Hinsichtlich Auslastung im Vergleich zu GCN ist wegen den 2 SA je SE und dem WGP-Modus 15 WGP je SE eher ähnlich wie früher 15 CU je SE, und das ging damals ja auch bis 16, auch wenn die Skalierung nach oben raus immer schlechter wurde, aber "schlechter" heißt ja nicht, dass es nix mehr bringt.
amdfanuwe
2024-05-07, 13:37:53
Playstation hat viel weniger OS- und Treiber-Overhead und die Hardware ist fix, da können die Entwickler hinsichtlich Auslastung ganz anders optimieren.
Außerdem hatte N14 immerhin auch schon 12 WGP in einer SE
Danke, N14 ist an mir vorbei gegangen.
Ansonsten haben sich wohl bisher für den PC 8/10 WGP als optimum hinsichtlich Auslastung und (schlechter) Optimierung erwiesen.
Leonidas
2024-05-07, 14:36:23
Bei der PS5Pro sind es eben auch dieselben Spiele, die alle auch vernünftig auf der normalen PS5 laufen müssen. Da muß man vielleicht gewisse HW-Teile gar nicht groß hochziehen, weil man weiss, das wird alles schon über die Optimierung für die normale PS5 weggebogen. Ist halt die Sondervariante eines Sonderprodukts.
Neurosphere
2024-05-11, 16:49:11
Könnte auch in den RDNA5 Thread, aber ich packs wegen dem Bezug zu RDNA4 mal hier rein:
AMD RDNA 5 To Be A Completely New GPU Architecture From The Ground Up, RDNA 4 Mostly Fixes RDNA 3 Issues & Improves Ray Tracing (https://wccftech.com/amd-rdna-5-completely-new-gpu-architecture-from-ground-up-rdna-4-fixes-rdna-3-improves-ray-tracing/)
Iscaran
2024-05-11, 19:36:16
88061
https://x.com/Kepler_L2/status/1787548523942023568
Trinity mit 2 SE a 15(16) WGP. Kann das sein?
Laut dem was da steht sind es aber 4x8 WGP (mit je 2 deaktivierten WGP) - da steht klar 4 SAs (Shader Arrays), demnach 2 Shader Engines zu je 2 Arryays mit 2x8 bzw. 8-1 WGPs.
Also 2x8 + 2x(8-1)=7
ODER die Shader Arrays haben wirklich Asymmetrische WGPs vebraut also 8-7-8-7 wie dargestellt...glaub ich aber nicht. 2 Deaktiviert ist vermutlich realistischer.
bbott
2024-05-11, 20:13:57
Die RDNA4 "News" sind nicht wirklich neu, oder? Wenn RDNA5 wirklich von Grund auf neu Design wäre, warum dann noch RDNA(5) und kein neuer Name? Von Grund auf neu Design höchstens in Bezug auf Chiplets, aber in Bezug auf Architektur?!
AffenJack
2024-05-11, 20:28:29
Die RDNA4 "News" sind nicht wirklich neu, oder? Wenn RDNA5 wirklich von Grund auf neu Design wäre, warum dann noch RDNA(5) und kein neuer Name? Von Grund auf neu Design höchstens in Bezug auf Chiplets, aber in Bezug auf Architektur?!
Nur weil man es im Moment RDNA5 bezeichnet, heißt es nicht, dass es wirklich RDNA5 heißen muss. Es sagen auch alle Switch 2, obwohl klar ist, dass es ein anderer Name wird.
Davon abgesehen ist es schon passend, dass AMD wirklich große grundlegende Architekturunterschiede, die auch die Optimierung grundlegend verändern passend zu neuen Konsolengenerationen bringt. Auch wenn RT sich verändert, so soll RDNA4 im Shaderkern abseits von Dual-Issue ja immernoch sehr nah an RDNA1 sein.
Ne PS5 Pro darf sich nicht zu stark anders verhalten, weil sonst der Entwickleraufwand zu groß wird. RDNA5 ist aber als Grundgerüst für die nächste Konsolengen vorgesehen nach allen Gerüchten. Also der perfekte Zeitpunkt, wenn man einen radikalerenen Schritt möchte. Ich könnte mir z.B. vorstellen, dass man mit RDNA4 in Sachen RT zwar BHV-Beschleunigung einfügt, aber es immernoch mehr so eine Frickellösung ist, die nicht optimal funktioniert. "RDNA5" könnte z.B. dann eine Voll auf Raytracinganfoderungen optimierte Architektur sein.
Ebenso sollen bei RDNA5 ja wieder Matrix-Cores drin sein für AI. Da kann sich auch der komplette Shaderaufbau verändern. Ne Möglichkeit wäre da, dass CDNA und RDNA5 wieder zusammenwachsen und eine Basisarchitektur bilden, wie bei Nvidia.
Ich hab kein Plan, aber es gibt genug Möglichkeiten.
robbitop
2024-05-11, 20:41:53
Könnte auch in den RDNA5 Thread, aber ich packs wegen dem Bezug zu RDNA4 mal hier rein:
AMD RDNA 5 To Be A Completely New GPU Architecture From The Ground Up, RDNA 4 Mostly Fixes RDNA 3 Issues & Improves Ray Tracing (https://wccftech.com/amd-rdna-5-completely-new-gpu-architecture-from-ground-up-rdna-4-fixes-rdna-3-improves-ray-tracing/)
(steht im Artikel:) Der „Zen Moment“ für Radeon. Wie oft haben wir das schon gehört?
Neurosphere
2024-05-11, 23:12:54
(steht im Artikel:) Der „Zen Moment“ für Radeon. Wie oft haben wir das schon gehört?
Ja, leider ist wie immer sehr viel Copium dabei.
Es wäre wünschenswert wenn AMD zu Nvidia aufschließen kann, schneller wäre natürlich schön, aber für einen gesunden Markt reicht was konkurenzfähiges.
Die bekannten RDNA4 Chips werden vermutlich Masse erreichen, aber ein Halo Produkt hätte wohl eine bessere Wirkung im Massenmarkt um auch dem DAU klar zu machen das es nicht nur NV gibt. Ich selbst würde gerne mal AMD kaufen, aber bislang hat immer das i-Tüpfelchen gefehlt um im High-End oder Enthusiastenberreich zu AMD zu greifen.
Dino-Fossil
2024-05-11, 23:59:46
Naja, GCN war bei Erscheinen eigentlich ziemlich gut (und davor war auch schon die HD5000er Serie in vielen Bereichen besser als nVidias Thermi). RDNA1 hat, denke ich, ebenfalls viele positiv überrascht überrascht, es fehlte halt eine Abrundung des Portfolios nach oben.
RDNA2 war insgesamt auch ziemlich gut, traf aber auf einen total kaputten Markt und die (zugegeben im direkten Vergleich schlechtere) RT-Performance wurde natürlich als willkommene Ausrede genommen, warum die Karten ja doch nichts taugen.
Tatsache ist: in der aktuellen Marktsituation müsste AMD wohl über mehrere Generationen deutlich besser und günstiger sein als nVidia um in der Breite ernsthaft wahrgenommen zu werden.
Aber davon abgesehen, gebe ich seit einer ganzen Weile nicht mehr viel auf Gerüchte zu kommenden GPU Generationen von AMD, weil die meistens einfach mal Grütze sind. Je besser die Karten vorher sein sollen, umso falscher ist dann am Ende das Gerücht gewesen.
GerryB
2024-05-12, 02:29:12
Ich fand und finde RDNA2 zeitgemäß, wenn man mal die damals topaktuellen Games zugrunde legt:
(RT hat außer damals noch keine große Rolle bei der Kaufentscheidung gespielt bzw. hybridRT ging@Lightspeed)
RT spielt bis heute keine große Rolle. Es ist bei Leuchtturmprojekten geblieben, richtige AAA-Blockbuster erscheinen nach wie vor auch ohne RT.
robbitop
2024-05-12, 08:07:47
Naja das geht auch nicht ohne Raster weil der Marktanteil an potenter RT HW noch zu klein ist. Aber man kann es einschalten und es sieht in einigen Spiele schon echt beeindruckend aus. Ist wie im Pixelshadern - konnte man ne Weile auch ausschalten. Aber haben wollte man die schon und bedeutungslos war das auch nicht und ist RT längst auch nicht mehr.
dargo
2024-05-12, 08:10:21
Ich durfte letztens ein paar Tage HDR in diversen Games mit dem Cooler Master Tempest GP27U bestaunen. Das hat mich wesentlich mehr beeindruckt als das ganze RT/PT Gedöns. Monitor musste aber leider wegen Flackern Retoure gehen.
Also die Monitorsituation ist total frustrierend, da war ich auch auf der Suche. Das kannste im Moment so hart vergessen, was uns alle Hersteller da anbieten.... entweder Milchbild á la IPS oder hartes VRR-Geflicker...
robbitop
2024-05-12, 08:31:43
Naja es gibt verschiedene Dinge die nett sind. Es muss da kein „oder“ geben. Ich finde Pathtracing sieht in CP77 schon beeindruckend aus - mit HDR um so mehr.
Das VRR geflicker ist IMO massiv overhypt/übertrieben. Am lautesten jaulen die, die gar keinen OLED zum Zocken haben - so scheint mir das. Außerhalb von Menus/Ladescreens kommt das praktisch kaum vor.
dargo
2024-05-12, 08:42:06
Das VRR geflicker ist IMO massiv overhypt/übertrieben. Am lautesten jaulen die, die gar keinen OLED zum Zocken haben - so scheint mir das. Außerhalb von Menus/Ladescreens kommt das praktisch kaum vor.
Oder es lässt sich halt nicht jeder von den Herstellern verarschen. Wenn ich schon 1000+€ in die Hand nehme dann erwarte ich keine anderen Kompromisse. :P
Korrekt, deshalb sind 100% der jetzigen OLED-Geräte schlichtweg Mangelhaft. Ich werdie niemals im Leben 1000$+ ausgeben für ein Geräte mit VRR-Geflicker (was man hart sieht, stets dann, wenn man es mit anspruchsvollen, dunklen Scenen zu tun hat) und Einbrennproblematik. Man kann das auch schönreden, aber sry, das ist einfach Schrott. Den Stromverbrauch und die schlechte Helligkeit in hellen Scenen erwähne ich hier gar nicht erst :freak:.
robbitop
2024-05-12, 09:14:59
Oder es lässt sich halt nicht jeder von den Herstellern verarschen. Wenn ich schon 1000+€ in die Hand nehme dann erwarte ich keine anderen Kompromisse. :P
Kannst du ja so sehen. Ich sehe das nüchtern: Das perfekte Panel gibt es nicht und wird es wahrscheinlich nie geben. Jedes Panel hat seine Stärken und Schwächen. Und je nach dem wie der user diese gewichtet, kommen unterschiedliche Kaufentscheidungen dabei heraus. Ist ja auch ok.
Mir zB ist die limitierte Fullscreen Helligkeit egal (man cave) und kenne das vrr flicker vom OLED TV und es ist für mich in der Gamingpraxis irrelevant. Einbrennen habe ich seit 5 Jahren Nutzung gar nicht. Entsprechend stören mich die Schwächen nicht und dafür bekomme ich pixelgenaue extrem hohe Kontraste, sehr gute Helligkeitsverteilung, extrem schnelle Schaltzeiten und Blickwinkel.
Jemand mit einem hellen Gamingplatz der tagsüber nur Zeit zum Zocken hat braucht dann eher ein LCD.
IMO: kann man sich ja einfach mal alle besonders interessanten Optionen bestellen und zurückschicken was einem nicht zusagt. Dank Amazon und Co ja kein Problem.
Korrekt, deshalb sind 100% der jetzigen OLED-Geräte schlichtweg Mangelhaft. Ich werdie niemals im Leben 1000$+ ausgeben für ein Geräte mit VRR-Geflicker (was man hart sieht, stets dann, wenn man es mit anspruchsvollen, dunklen Scenen zu tun hat) und Einbrennproblematik. Man kann das auch schönreden, aber sry, das ist einfach Schrott. Den Stromverbrauch und die schlechte Helligkeit in hellen Scenen erwähne ich hier gar nicht erst :freak:.
Siehe oben. Die von dir genannten OLED Schwächen stimmen. Wobei ich VRR flicker und einbrennen für Überhypt halte. In der Praxis passiert das praktisch nicht wenn man nicht genau diese Szenarien sucht und die Geräte mutwillig vergewaltigt.
Und die Schwächen von LCD Geräten hast du nicht genannt. Die sind auch nicht ohne. Blickwinkel mittelmäßig bis schlecht, Schaltzeiten mittelmäßig bis schlecht, Helligkeitsverteilung schlecht, manchmal „Pissecken“ (bei den schnellen IPS Panels war das so), Kontrast schwach - mit FALD besser aber neigt dann zu Halos und anscheinend (siehe Dargo‘s Bericht) führt die Modulation von FALD zu flickern (zusätzlich zum vrr flicker) und im Falle von VA: auch vrr flicker. ;)
Und wie gesagt: je nach persönlicher Gewichtung der Stärken und Schwächen kauft jeder was anderes. Ist ja auch okay. :)
dargo
2024-05-12, 09:30:53
IMO: kann man sich ja einfach mal alle besonders interessanten Optionen bestellen und zurückschicken was einem nicht zusagt. Dank Amazon und Co ja kein Problem.
Ja, kann man. Wenn man sonst nichts mit seiner Freizeit anzufangen weiß. :freak: Also mal ganz ehrlich... Monitorkauf ist das schlimmste was es im Bereich Hardware gibt. Ich jedenfalls empfinde das so. Jetzt bei der schönen Jahreszeit habe ich eh keinen Nerv für sowas. Vielleicht mal wieder im Winter 2024/2025 beim dauerhaften scheiß Wetter.
robbitop
2024-05-12, 09:45:51
Ja ist nervig. Aber wenn man einen guten hat, hält der auch 10 Jahre. Dank reviews kann man es sicher auf 2-3 Geräte runterbrechen.
fondness
2024-05-12, 11:23:49
(steht im Artikel:) Der „Zen Moment“ für Radeon. Wie oft haben wir das schon gehört?
Naja, man muss sich ja nicht an einen Begriff festbeißen. Wie AffenJack schon sagt macht eine neue Architektur nach RDNA4 auf jeden Fall Sinn. Die PS5 PRO braucht noch maximale Abwärtskompatiblität, zeitlich ist man auch ungefähr in der Kadenz die auch GCN und RDNA hatten. Ob das dann der "Zen"-Moment wird hängt wie immer maßgeblich von der Konkurrenz ab. Der "Zen"-Moment war auch nur möglich, weil Intel über Jahre Skylake aufgewärmt hat und defacto nichts neues gebracht hat.
robbitop
2024-05-12, 11:30:32
Ja das würde ich auch so sehen. RDNA2 war ja seinerzeit schon echt gut. Gegen Nvidia ist es aber schwieriger. Die liefern kontinuierlich nach und machen viele Initiative um mehr als nur mehr Performance. Für mich wäre der Zen Moment da wenn man 1-2 Generationen deutlich vor Nv liegt und mindestens feature Parität hat - besser sogar mehr davon hat. Genau das braucht es um Mindhsare zu bekommen. Aber es scheint so als ob die Gaming GPU Sparte von AMD nicht den „Saft“ dafür bekommt (und auch nicht das richtige leadership dafür hat - für RTG meine ich).
fondness
2024-05-12, 11:36:08
Aber es scheint so als ob die Gaming GPU Sparte von AMD nicht den „Saft“ dafür bekommt (und auch nicht das richtige leadership dafür hat - für RTG meine ich).
Es ist nicht zu bestreiten, dass die AMD Gaming GPU-Sparte nur einen Bruchteil der Ressourcen der NV Gaming-GPU-Sparte hat. Dafür liefern sie IMO mehr als ordentlich ab. Mehr zu erwarten ist IMO fast vermessen, oder es der Führung anzuhängen die mit stumpfen Waffen kämpft. Alles was man einnimmt wandert in den professionellen Bereich, vielleicht schafft man es dort irgendwann mal ein so ernsthafter Player zu werden, dass man deutlich mehr Ressourcen einsetzen kann. Bis dahin sollte man eine realistische Erwartungshaltung haben. Wenn NV nicht patzt ist der NV-Killer unrealistisch. Wie gesagt Intel hat über 5 Jahre defacto nichts geliefert, das muss an sich erstmal vorstellen. Nur deshalb war der Zen-Moment möglich.
robbitop
2024-05-12, 11:49:20
Sehe ich auch so. Aber es gibt eben auch Aspekte, wo man sich an den Kopf fassen muss. Dinge die kein/kaum Geld kosten aber durch besseres Leadership besser gingen. Die Kommunikation ist manchmal wirklich schwach. Und wenn es neue Features gibt (die ja zT auch super funktionieren können) wird zu früh releast, wird das Ergebnis nicht „gevettet“, gepolisht bis es konsistent hervorragend ist. Schlamperei die unnötig Ruf/Mindhaare kosten.
FSR3 FG kann bspw richtig, richtig gut sein. Und was wird releast im August 2023? Ein kaputtes Verfahren in Forspoken und Immortals of Aveum. Einen richtigen Launch gab es auch nicht. Der erste Eindruck ist der wichtigste und der wurde unnötig verspielt. Und das ist kein einzelnes Vorkommen. Nur ein Einzelbeispiel von vielen. Fettnäpfchen in die man bei der Kommunikation tritt und manchmal merkwürdige Einsortierung der SKUs weil man dann Nvidia nachmachen will.
Ja mit dem Budget ist das Ergebnis gut - es könnte aber besser sein.
Auch arbeiten anscheinend an den neueren SW Inititiven die gleichen 5 (arbiträre Zahl - gemeint sind wenige) Leute. So dass Upsampling ewig kein Upgrade bekommen hat weil die Leute mit FG beschäftigt waren.
Man hätte ohne mehr Geld ausgeben zu können richtig open source machen können (developing in public) anstatt nur den source code zu dumpen und nicht mit der github community zusammen zu arbeiten. Da gäbe es sicherlich viel hilfreiches feedback und potenzielle code verbesserung und man hätte den besten auch einen Job anbieten können. Man addiere 5-10 solcher Leute und man kann an doppelt so vielen Initiativen arbeiten. Und was sind schon 5-10 Ingenieure bei einer Bottomline von 5 stelligen Anzahl an MA?
Unter einem vernünftigen Leader wäre sowas nie passiert.
AffenJack
2024-05-12, 13:27:49
Es ist nicht zu bestreiten, dass die AMD Gaming GPU-Sparte nur einen Bruchteil der Ressourcen der NV Gaming-GPU-Sparte hat. Dafür liefern sie IMO mehr als ordentlich ab. Mehr zu erwarten ist IMO fast vermessen, oder es der Führung anzuhängen die mit stumpfen Waffen kämpft. Alles was man einnimmt wandert in den professionellen Bereich, vielleicht schafft man es dort irgendwann mal ein so ernsthafter Player zu werden, dass man deutlich mehr Ressourcen einsetzen kann. Bis dahin sollte man eine realistische Erwartungshaltung haben. Wenn NV nicht patzt ist der NV-Killer unrealistisch. Wie gesagt Intel hat über 5 Jahre defacto nichts geliefert, das muss an sich erstmal vorstellen. Nur deshalb war der Zen-Moment möglich.
Ich denke auch, dass in Sachen Server AMD deutlich mehr Ressourcen reinstecken wird. Deshalb hoffe ich ja, dass man CDNA und RDNA wieder zusammenführt zu einer Architektur. Nvidias Ansatz einer gemeinsamen Architektur, in der man im Baukastenprinzip Teile für Server oder Consumer austauschen kann ist deutlich Ressourcenschonender als 2 komplett unterschiedliche Architekturen zu entwickeln. So könnte die Grafiksparte auch mehr von Verbesserungen im Datacenter profitieren. Das hat man ja schon im Bereich der Chipletentwicklung. In Sachen Architektur wäre das ebenso wichtig.
Leonidas
2024-05-12, 13:36:21
Ich denke, sobald man die Architektur-Trennung hat, wird man darüber froh sein und dies nie wieder zusammenführen. Und NV nennt es nur noch gleich, da ist aber so vieles anders. Die SM von Hopper sind grundsätzlich anders ausgelegt als jene von ADA, einfach weil die Aufgaben ganz andere sind. Und bei Blackwell gibt es wieder denselben Namen, aber vermutlich noch mehr Differenzen zwischen HPC und Consumer. Auch NV wird das irgendwann mal aufgeben, dies unter einem gemeinsamen Codenamen laufen zu lassen.
fondness
2024-05-12, 13:55:48
Ich denke auch, dass in Sachen Server AMD deutlich mehr Ressourcen reinstecken wird. Deshalb hoffe ich ja, dass man CDNA und RDNA wieder zusammenführt zu einer Architektur. Nvidias Ansatz einer gemeinsamen Architektur, in der man im Baukastenprinzip Teile für Server oder Consumer austauschen kann ist deutlich Ressourcenschonender als 2 komplett unterschiedliche Architekturen zu entwickeln. So könnte die Grafiksparte auch mehr von Verbesserungen im Datacenter profitieren. Das hat man ja schon im Bereich der Chipletentwicklung. In Sachen Architektur wäre das ebenso wichtig.
Ich kann Leonidas hier nur zustimmen. Die Anforderungen sind viel zu unterschiedlich, IMO wird das immer weiter auseinanderlaufen. Alles was bei NV noch gleich ist, ist der Name überspitzt formuliert. Alles an Zeug das da noch vorhanden ist, das man für den professionellen Bereich nicht benötigt ist im Endeffekt unnötiger Ballast. Selbst das mit der angeblichen Ressourcenersparnis würde ich in Frage stellen. Wenn man mit einem Produkt zu viele Anforderungen erschlagen will, ist man irgendwann einmal an den Punkt, wo das so kompliziert wird, dass es effizienter ist zwei Produkte zu machen. Dieser Punkt ist im professionellen "Beschleunigermarkt" (mit einer GPU haben die Dinger in Wahrheit nichts mehr zu tun) IMO längst erreicht.
fondness
2024-05-12, 14:09:45
Sehe ich auch so. Aber es gibt eben auch Aspekte, wo man sich an den Kopf fassen muss. Dinge die kein/kaum Geld kosten aber durch besseres Leadership besser gingen. Die Kommunikation ist manchmal wirklich schwach. Und wenn es neue Features gibt (die ja zT auch super funktionieren können) wird zu früh releast, wird das Ergebnis nicht „gevettet“, gepolisht bis es konsistent hervorragend ist. Schlamperei die unnötig Ruf/Mindhaare kosten.
FSR3 FG kann bspw richtig, richtig gut sein. Und was wird releast im August 2023? Ein kaputtes Verfahren in Forspoken und Immortals of Aveum. Einen richtigen Launch gab es auch nicht. Der erste Eindruck ist der wichtigste und der wurde unnötig verspielt. Und das ist kein einzelnes Vorkommen. Nur ein Einzelbeispiel von vielen. Fettnäpfchen in die man bei der Kommunikation tritt und manchmal merkwürdige Einsortierung der SKUs weil man dann Nvidia nachmachen will.
Es ist halt vieles letztlich trotzdem eine Frage von Ressourcen bzw. time-to-market, es bringt auch nichts wenn ich lange polishe und dann viel zu spät bin. Und klar könnte man mit mehr Ressourcen auch wieder früher dran sein. Aber ja, sie haben sicher nicht die Armada an Leuten direkt bei den Spieleentwickler sitzen, die sowas dann für jedes Spiel polishen, sondern verlassen sich darauf, dass es ordentlich implementiert wird, was offensichtlich nicht immer der Fall ist.
Ja mit dem Budget ist das Ergebnis gut - es könnte aber besser sein.
Besser geht immer. :)
Auch arbeiten anscheinend an den neueren SW Inititiven die gleichen 5 (arbiträre Zahl - gemeint sind wenige) Leute. So dass Upsampling ewig kein Upgrade bekommen hat weil die Leute mit FG beschäftigt waren.
Für FSR braucht es vor allem hochqualifizierte Signalverarbeiter, da kannst du mit einem SW-Engineer nicht viel ausrichten. Diese wachsen erstens nicht auf Bäume und zweitens sind wir da wieder bei der Ressourcenfrage.
Man hätte ohne mehr Geld ausgeben zu können richtig open source machen können (developing in public) anstatt nur den source code zu dumpen und nicht mit der github community zusammen zu arbeiten. Da gäbe es sicherlich viel hilfreiches feedback und potenzielle code verbesserung und man hätte den besten auch einen Job anbieten können. Man addiere 5-10 solcher Leute und man kann an doppelt so vielen Initiativen arbeiten. Und was sind schon 5-10 Ingenieure bei einer Bottomline von 5 stelligen Anzahl an MA?
Unter einem vernünftigen Leader wäre sowas nie passiert.
Schon mal ein Open-Source-Projekt geleitet? :) Das hört sich immer furchtbar romantisch an, >90% der Merge Request kannst du da aber kubeln, weil entweder haufenweise Bugs rein gekommen sind, nur ein Spezialproblem für einen Use-Case gelöst wurde, der aber überall anders Probleme macht, die SW-Qualität unter aller Sau ist, etc. Zudem sollte man die Aufwände nicht unterschätzen, das Zeug muss dann auch alles jemand ausgiebig testen, qualifizieren, quantifizieren, etc. Zeitlich kann man sich da auch auf nichts verlassen, wenn gerade niemand "Lust" hat ein wichtiges Problem zu lösen, passiert halt lange nichts. Zudem wage ich zu bezweifeln, dass es ausreichend fähige Open-Source-Entwickler gibt, die Interesse hätten daran mitzuarbeiten und die FSR ernsthaft voranbringen würden.
AMD hat immerhin den Source-Code vollständig zur Verfügung gestellt und damit jedem Entwickler ermöglicht ihn zu verwenden, anzupassen und wichtig(!) daraus zu lernen. Das ist mehr als jeder andere getan hat. Von NVs libs lernt man gar nichts außer wie man sich möglichst gut abschottet.
robbitop
2024-05-12, 15:27:07
Naja aber man bedenke die Open Source Community bekommt Dinge wie die Mesa Treiber hin die in manchen Belangen sogar den Treibern von AMD überlegen ist.
Comma ai stellt fast alle jungen Talente die sie auf github finden ein. Da gibt es eine Menge Talent draußen - auch Leute die sowas wie FSR hinbekommen. Das ist ein legitimer und erprobter Weg an Talente zu kommen.
Und viele Open Source Projekte die nur wenige (zT einen) Autor haben, haben schon Erstaunliches (was weit über die Leistung des einen Autors hinaus geht) geleistet.
Einfach nur source code zu dumpfen und zu hoffen dass die Entwickler das Beste draus machen ist ein „hands off approach“. Sowas geht fast immer schief. (hands off)
Ein guter Leader erkennt (IMO) und vermeidet hands-off approaches.
Was FSR3 angeht. Der Launch hat gar nichts gebracht. So wie er war wurde ein kaputtes Verfahren geliefert was nur rufschädigend war im August. Da zählt das Argument nicht dass man ewig polieren könnte nicht. Es gab wenige Monate danach erstmalig iirc in Avatar das Verfahren was hervorragend funktioniert hat (bis es dann später kaputt gepatcht wurde und zuletzt wieder gefixt wurde).
Es wäre 100% besser gewesen das Verfahren auf einen vernünftigen Stand zu hiefen und ein paar Monate zu warten.
fondness
2024-05-12, 17:06:52
Das Verfahren hat sich doch nicht mal geändert zwischen launch und Avatar AFAIK. Nur die Implementierung wurde bei den launchtiteln vermurkst. Und ja, hier braucht es vielleicht etwas mehr Support, aber hier fehlen AMD wohl die Ressourcen um jeden Spielehersteller Leute hinzusetzen. Und wie die Spielehersteller das ständig vermurksen können erschließt sich mir auch nicht, wenn man sieht dass die mods einwandfrei funktionieren und AMD wirklich eine erstklassige Dokumentation zur Verfügung stellt.
aufkrawall
2024-05-12, 18:16:30
Das VRR geflicker ist IMO massiv overhypt/übertrieben. Am lautesten jaulen die, die gar keinen OLED zum Zocken haben - so scheint mir das. Außerhalb von Menus/Ladescreens kommt das praktisch kaum vor.
Hat man auch über manche VA-Gurken lesen können, was nachweislich natürlich völliger Unsinn ist. Wenn man nur gefühlt drei Titel mit Frame Time Graph wie mit dem dem Lineal gezogen spielt, erscheint natürlich alles in Ordnung.
Wenn es in Fortnite bei einem Shader Compile Stocker einmal hart blitzt, ist so ein Gerät direkt 100% nutzlos für mich. Monitore müssen Konzentration und Ergonomie unterstützen, nicht das Gegenteil davon. Genau so muss beim Lesen längerer Texte das Bild die ganze Zeit über komplett statisch ruhig erscheinen etc., sonst auch zum Arbeiten nutzlos.
Aber ja, ich hab keine Hands-On-Erfahrungen mit aktuellen OLED-Monitoren. Wird sich aber vermutlich dieses Jahr noch ändern, und dann wird knallhart geurteilt. :cool:
Hübie
2024-05-12, 18:41:13
Ich kann Leonidas hier nur zustimmen. Die Anforderungen sind viel zu unterschiedlich, IMO wird das immer weiter auseinanderlaufen. Alles was bei NV noch gleich ist, ist der Name überspitzt formuliert. Alles an Zeug das da noch vorhanden ist, das man für den professionellen Bereich nicht benötigt ist im Endeffekt unnötiger Ballast. Selbst das mit der angeblichen Ressourcenersparnis würde ich in Frage stellen. Wenn man mit einem Produkt zu viele Anforderungen erschlagen will, ist man irgendwann einmal an den Punkt, wo das so kompliziert wird, dass es effizienter ist zwei Produkte zu machen. Dieser Punkt ist im professionellen "Beschleunigermarkt" (mit einer GPU haben die Dinger in Wahrheit nichts mehr zu tun) IMO längst erreicht.
Also bei einem WSE-3 (https://www.cerebras.net/product-chip/) sage ich: Es ist keine GPU. Jedoch kannst du mit jedem HPC Chip von AMD oder Nvidia Grafiken rendern und darstellen lassen. Es ist halt nur nicht mit der klassischen Renderpipeline so konform, wie wir es aus unseren Lieblingstiteln ala *insertName* kennen. Es gibt halt unterschiedliche Möglichkeiten und Ansätze dafür. Von daher sage ich, dass es sich ganz klar um Graphics Processing Units handelt.
Ich vermute übrigens, dass AMD mit RDNA5, sofern die Architektur denn so heißt, weiter ist als gedacht. Würde mich kaum wundern, wenn der Sommer einen Tapeout bringt.
robbitop
2024-05-12, 18:57:55
Das Verfahren hat sich doch nicht mal geändert zwischen launch und Avatar AFAIK. Nur die Implementierung wurde bei den launchtiteln vermurkst. Und ja, hier braucht es vielleicht etwas mehr Support, aber hier fehlen AMD wohl die Ressourcen um jeden Spielehersteller Leute hinzusetzen. Und wie die Spielehersteller das ständig vermurksen können erschließt sich mir auch nicht, wenn man sieht dass die mods einwandfrei funktionieren und AMD wirklich eine erstklassige Dokumentation zur Verfügung stellt.
Ich vermute weil es bei den Studios keine Priorität hat. Checkbox -> checkmark.
Wahrscheinlich ist DLSS so konsistent wie es ist, weil es anscheinend durch eine Mehrzahl von Mechanismen ausgestattet ist, die die Robustheit steigern.
Wenn man sich auf die Studios verlässt, ist keine Konsistenz zu erwarten. ZB specular flimmern was in den 2000ern und frühen 2010ern „üblich“ war - und wir alle es mit SGSSAA und downsampling es bekämpfen wollten. Hätte man sich beim Content und dessen frequenz an das shannon nyquist Kriterium gehalten, hätte es nicht geflimmert. Oder zur Not es über mehr Sampling im Shader fixen. Nope - hat fast keinen interessiert. Da gibt es viele Beispiele (das war nur eines) wo das Studio es in der Hand hat und es versemmelt. Scheint leider so zu sein, wenn man will, dass etwas gut funktioniert, braucht man mehr Kontrolle.
robbitop
2024-05-12, 18:59:02
Hat man auch über manche VA-Gurken lesen können, was nachweislich natürlich völliger Unsinn ist. Wenn man nur gefühlt drei Titel mit Frame Time Graph wie mit dem dem Lineal gezogen spielt, erscheint natürlich alles in Ordnung.
Wenn es in Fortnite bei einem Shader Compile Stocker einmal hart blitzt, ist so ein Gerät direkt 100% nutzlos für mich. Monitore müssen Konzentration und Ergonomie unterstützen, nicht das Gegenteil davon. Genau so muss beim Lesen längerer Texte das Bild die ganze Zeit über komplett statisch ruhig erscheinen etc., sonst auch zum Arbeiten nutzlos.
Aber ja, ich hab keine Hands-On-Erfahrungen mit aktuellen OLED-Monitoren. Wird sich aber vermutlich dieses Jahr noch ändern, und dann wird knallhart geurteilt. :cool:
Auch wenn Fortnite ein sehr populäres Spiel ist - so ist es nur eins von vielen. Und spielen tut es längst auch nicht jeder. :)
fondness
2024-05-12, 19:05:54
Ich vermute weil es bei den Studios keine Priorität hat. Checkbox -> checkmark.
Wahrscheinlich ist DLSS so konsistent wie es ist, weil es anscheinend durch eine Mehrzahl von Mechanismen ausgestattet ist, die die Robustheit steigern.
Wenn man sich auf die Studios verlässt, ist keine Konsistenz zu erwarten. ZB specular flimmern was in den 2000ern und frühen 2010ern „üblich“ war - und wir alle es mit SGSSAA und downsampling es bekämpfen wollten. Hätte man sich beim Content und dessen frequenz an das shannon nyquist Kriterium gehalten, hätte es nicht geflimmert. Oder zur Not es über mehr Sampling im Shader fixen. Nope - hat fast keinen interessiert. Da gibt es viele Beispiele (das war nur eines) wo das Studio es in der Hand hat und es versemmelt. Scheint leider so zu sein, wenn man will, dass etwas gut funktioniert, braucht man mehr Kontrolle.
IMO ist da bei DLSS gar nichts "robuster", sondern man braucht sich nur die credits bei bekannten Spielen anzusehen, da stehen überall NV Mitarbeiter drinnen und arbeiten fleißig bei den Spielen mit. Wenn man sich ansieht welche Armada an Leuten von Nvidia beispielsweise bei cyberpunk mitgearbeitet haben, braucht man sich dann auch nicht mehr zu wundern, dass das auf AMD nicht sonderlich gut läuft.
robbitop
2024-05-12, 19:10:11
Ob das immer so hilft? AMD hat laut Bethesda auch am Sourcecode mitgearbeitet und die Implementierung von FSR wurde trotzdem kritisiert.
Aber ja dass NV mehr dev rel Leute hat ist sicher ein Faktor. Ich denke/vermute dennoch, dass dlss unabhängig davon auch robuster ist.
Lurtz
2024-05-12, 19:21:36
IMO ist da bei DLSS gar nichts "robuster", sondern man braucht sich nur die credits bei bekannten Spielen anzusehen, da stehen überall NV Mitarbeiter drinnen und arbeiten fleißig bei den Spielen mit. Wenn man sich ansieht welche Armada an Leuten von Nvidia beispielsweise bei cyberpunk mitgearbeitet haben, braucht man sich dann auch nicht mehr zu wundern, dass das auf AMD nicht sonderlich gut läuft.
Bei der überwiegenden Mehrheit an Spielen ist das nicht der Fall und auch da ist DLSS "robuster". Teilweise bis hin zu Mod-Implementierungen.
fondness
2024-05-12, 19:26:14
Bei der überwiegenden Mehrheit an Spielen ist das nicht der Fall und auch da ist DLSS "robuster". Teilweise bis hin zu Mod-Implementierungen.
Die ganzen Mod Implementierungen von FSR 3 funktionieren einwandfrei nach allem was man zb von Leuten wie aufkrawall hört.
aufkrawall
2024-05-12, 19:52:07
Dass DLSS Upsampling wesentlich robuster ist als FSR (und teilweise auch XeSS), würde ich sofort unterschreiben. Erkauft zwar teilweise mit mehr Smearing und partieller Unschärfe. Dafür geht es halt, anders als FSR, quasi nie komplett kaputt und kann etwa auch mit fehlerhaften Bewegungsvektoren massiv viel besser umgehen. Also in der Breite viel besser nutzbar.
@robbitop: Ein Beispiel reicht, um jederzeit mit dem Flacker-Problem in anderen Spielen rechnen zu müssen.
Lurtz
2024-05-12, 21:42:42
Die ganzen Mod Implementierungen von FSR 3 funktionieren einwandfrei nach allem was man zb von Leuten wie aufkrawall hört.
Ja, aber genau wie die DLSS Mod-Implementierungen teilen sie sich im Wesentlichen die gleichen Stärken/Schwächen wie die offiziellen Implementierungen.
vinacis_vivids
2024-05-12, 22:54:46
DLSS verfälscht das Bild und die Farben teilweise und ist so nicht zu empfehlen. Bei AMD FSR ist alles ziemlich makellos, 10bit 4:4:4 ohne Untertastung, das sind die Signale einfach sauber und von höherer Qualität bzw. Bandbreite was RDNA3 > Ada angeht.
Hübie
2024-05-12, 23:01:28
Beide Technologien haben ihre Stärken und Schwächen. Woher hast du die Info mit 4:4:4 10Bit im Buffer? Iirc ist es der jeweiligen Implementierung überlassen und ist eine der Stellschrauben. Müsste jetzt noch mal im Code schauen...
vinacis_vivids
2024-05-13, 00:15:36
Display-Port 2.1 für Gamer
https://techjunkies.blog/hardware/displayport-2-1-monitor/#DisplayPort_21-Monitore_fuer_Gamer
Aber DP 2.1 ist ja auch abwärtskompatibel zu Nvidia DP 1.4, klarer Rückstand, wie einst bei HDR. Bei Huang geht's halt über Bandbreitenkompression (wieder einmal). War wohl zu geizig den Gamern was zu gönnen, muss AMD wieder den ersten Schritt gehen.
TheAntitheist
2024-05-13, 04:29:56
Display-Port 2.1 für Gamer
https://techjunkies.blog/hardware/displayport-2-1-monitor/#DisplayPort_21-Monitore_fuer_Gamer
Aber DP 2.1 ist ja auch abwärtskompatibel zu Nvidia DP 1.4, klarer Rückstand, wie einst bei HDR. Bei Huang geht's halt über Bandbreitenkompression (wieder einmal). War wohl zu geizig den Gamern was zu gönnen, muss AMD wieder den ersten Schritt gehen.
ja und AMD ist zu geizig matrix/Tensor Kerne zu implementieren.:rolleyes:
DP 1.4 reicht vollkommen, vor allem mit DSC aber auch ohne wird niemand über 144fps in 4k haben... AMD ist auch zu geizig mal GDDR6X zu verbauen oder GDDR7 bei ihren zukünftigen GPUs.
deine Argumentation ist mal wieder ein Witz
robbitop
2024-05-13, 08:21:57
Zumal es nichts mit FSR/DLSS zu tun hat.
DrFreaK666
2024-05-13, 10:11:33
Zumal es nichts mit FSR/DLSS zu tun hat.
Wir sind auch nicht im FSR/DLSS-Thread (, den es nicht gibt) ;)
robbitop
2024-05-13, 10:29:46
Wir sind auch nicht im FSR/DLSS-Thread (, den es nicht gibt) ;)
Ja aber um das ging es ja gerade und den Kontext hat er auch aufgegriffen und dann völlig merkwürdig mit den Limitierungen von DP1.4 verwurstet.
DLSS verfälscht das Bild und die Farben teilweise und ist so nicht zu empfehlen. Bei AMD FSR ist alles ziemlich makellos, 10bit 4:4:4 ohne Untertastung, das sind die Signale einfach sauber und von höherer Qualität bzw. Bandbreite was RDNA3 > Ada angeht.
TheAntitheist
2024-05-13, 16:39:38
Zumal es nichts mit FSR/DLSS zu tun hat.
wir sind ja auch nicht im Displayport thread, dennoch nutzt ES immer wieder jede Gelegenheit zu sticheln
DrFreaK666
2024-05-13, 18:46:13
Es gibt auch Personen, die noch nicht erkannt haben, dass die Platte "DLSS sieht besser aus" einen tiefen Kratzer hat
Neurosphere
2024-05-15, 08:12:00
https://twitter.com/Kepler_L2/status/1790552041577644461?t=C_6NtLH0sAw2zcZPTiSJDg&s=19
RT IP 1.0 = PS5
RT IP 1.1 = Xbox and RDNA2
RT IP 2.0 = RDNA3
RT IP 5.0 = RDNA4
Bin grad nicht auf dem laufenden, aber ist das nicht besser als vermutet?
Leonidas
2024-05-15, 08:28:37
Sieht toll aus. Ist es das auch in der Realität? Namen kann man viele geben ...
][immy
2024-05-15, 08:29:50
https://twitter.com/Kepler_L2/status/1790552041577644461?t=C_6NtLH0sAw2zcZPTiSJDg&s=19
RT IP 1.0 = PS5
RT IP 1.1 = Xbox and RDNA2
RT IP 2.0 = RDNA3
RT IP 5.0 = RDNA4
Bin grad nicht auf dem laufenden, aber ist das nicht besser als vermutet?
Und was sagen diese Versionszahlen aus?
Bedeutung geht gegen 0 wenn man nicht weiß was drin steckt.
OgrEGT
2024-05-15, 12:29:52
[immy;13541900']Und was sagen diese Versionszahlen aus?
Bedeutung geht gegen 0 wenn man nicht weiß was drin steckt.
Wenn 1.1 nach 2.0 also RDNA2 nach RDNA3 die Weiterentwicklung der RT Accelerators in den TMUs beschreibt dann legt 2.0 nach 5.0 zumindest einige weitergehende Änderungen nahe. Welche genau und was diese bringen muss man abwarten... wenn statt 5.0 da 2.5 gestanden hätte dann würde das nicht zur Meldung passen dass RDNA4 RT umfassend aktualisiert worden ist...
dargo
2024-05-15, 12:45:59
https://twitter.com/Kepler_L2/status/1790552041577644461?t=C_6NtLH0sAw2zcZPTiSJDg&s=19
RT IP 1.0 = PS5
RT IP 1.1 = Xbox and RDNA2
RT IP 2.0 = RDNA3
RT IP 5.0 = RDNA4
Bin grad nicht auf dem laufenden, aber ist das nicht besser als vermutet?
Jo... RDNA4 250% schneller in RT als RDNA3 und 455% schneller als RDNA2. ;D
robbitop
2024-05-15, 13:11:08
und wo sind RT IP 3 und 4 geblieben? Hat man einfach zwei revisions Nummern übersprungen?
The_Invisible
2024-05-15, 13:23:35
Wenn es performance-faktoren sind würde man sogar eine 4090 überholen. da RDNA3 aber nicht doppelt so schnell ist wie RDNA2 kann man nur Ratespiel machen :D
Exxtreme
2024-05-15, 13:28:28
Also ich würde da nicht viel drauf geben. Ich glaube, dieser Kepler_L2 lag noch nicht ein einziges Mal richtig mit seinen Leaks. Da dürfte sogar MLID eine bessere Erfolgsquote haben.
dildo4u
2024-05-15, 13:37:41
Digital Foundry hat das erklärt es gibt nicht nur ein Faktor wo die Performance dran hängt PS5 Pro könnte z.b 4X RT BVH sein was aber nur ein Bestandteil des Bildes ist.
4WGEbiIjdZk
und wo sind RT IP 3 und 4 geblieben? Hat man einfach zwei revisions Nummern übersprungen?
Ich nehme an, dass sollen die PowerVR-Definitionen sein. Damit hätte man von RDNA2/3 (lvl2) über Turing u. Ampere (lvl3), Ada und ARC (lvl4) direkt auf Level5 übersprungen...
Wär echt ein Knaller wenn das stimmt, vllt. machten Sonys Anforderungen das möglich ;).
DrFreaK666
2024-05-15, 14:18:01
Naja, das wäre doch eher unwahrscheinlich. Dazu müsste es dann auch Leaks zu einem AI-basierten FSR geben, denke ich. Davon hört man aber so gut wie nichts
davidzo
2024-05-15, 14:39:06
Ich nehme an, dass sollen die PowerVR-Definitionen sein. Damit hätte man von RDNA2/3 (lvl2) über Turing u. Ampere (lvl3), Ada und ARC (lvl4) direkt auf Level5 übersprungen...
Wär echt ein Knaller wenn das stimmt, vllt. machten Sonys Anforderungen das möglich ;).
War nicht vor ein paar Seiten mal das Gerücht da dass die IPC bei RT Anwendungen nur um bis zu 30% steigt? Das wäre dann lediglich Ampere oder Lovelace Niveau. Klingt eher wie RDNA2 auf 3 und nicht nach einem Sprung auf LVL5 wenn du mich fragst.
OgrEGT
2024-05-15, 14:44:32
Es ist wahrscheinlicher dass damit interne Revisionen gemeint sind... aber selbst dann deutet dies auf 3 intere major Releases hin was somit auf größere Änderungen oder Neuerungen hindeuten könnte als von RDNA2 zu RDNA3...
davidzo
2024-05-15, 15:04:26
und wo sind RT IP 3 und 4 geblieben? Hat man einfach zwei revisions Nummern übersprungen?
Naja es gibt noch RDNA 3.5 in den APUs, Strix, Strix Halo und außerdem die PS5. Die sollen auch alle ne neue RT IP bekommen aber nicht dieselbe RDNA IP wie Navi44/48.
Und den gecancelten Navi41 und Navi42 müsste ja auch eine IP zugeordnet werden können. Da Navi44 und 48 erst später aufgetaucht sind als 41 und 42 könnten die schon ne neuere RT Revision bekommen haben.
vinacis_vivids
2024-05-15, 17:06:00
Wenn man sich das mal anschaut :-)
https://i.ibb.co/C2xXrff/Screenshot-2024-02-01-182854.png
N48 könnte wahrscheinlich noch schneller sein und ist somit doppelt so schnell wie die RTX4080.
Derzeit ist der Abstand von AMD 7900XTX = 233fps zu NV RTX4080 = 159fps ca. ~60%
Im nativen Zustand sind es nur 3fps unterschied (66fps vs 63fps). Aber wenn RDNA3/4 die Flügel richtig ausstreckt, sieht Huang nur noch Rücklichter.
Die 233fps sind ohne AMD Frame Generation bzw. AFMF. Aktivieren man dies, kommen ~460fps raus und Huang ist bei 159fps. Also quasi dreifache Leistung für die 7900XTX gegen RTX4080.
aufkrawall
2024-05-15, 17:08:47
Naja es gibt noch RDNA 3.5 in den APUs, Strix, Strix Halo und außerdem die PS5. Die sollen auch alle ne neue RT IP bekommen aber nicht dieselbe RDNA IP wie Navi44/48.
Wo steht denn das mit den RT-Verbesserungen für APUs?
basix
2024-05-15, 17:45:01
Es ist wahrscheinlicher dass damit interne Revisionen gemeint sind... aber selbst dann deutet dies auf 3 intere major Releases hin was somit auf größere Änderungen oder Neuerungen hindeuten könnte als von RDNA2 zu RDNA3...
Das werden definitiv interne IP-Nummern sein. RDNA2/3 sind nach Imagination Schema Level 2 (Box/Ray Test in HW). Level 1 wären Software-Techniken.
robbitop
2024-05-15, 18:58:01
Ich nehme an, dass sollen die PowerVR-Definitionen sein. Damit hätte man von RDNA2/3 (lvl2) über Turing u. Ampere (lvl3), Ada und ARC (lvl4) direkt auf Level5 übersprungen...
Wär echt ein Knaller wenn das stimmt, vllt. machten Sonys Anforderungen das möglich ;).
Hab ich auch schon überlegt. Und Blackwell wird sicherlich noch mehr in RT investieren. Level 5 wäre ein sinnvoller Schritt. Aber die kleine Chipgröße für die specs spricht nicht gerade dafür. Und auch nicht AMDs Designentscheidungen der letzten Jahre.
Weiterhin stimmt das HW Level nicht mit RDNA2 überein. Sind wohl eher revisionen.
davidzo
2024-05-15, 19:53:56
Wo steht denn das mit den RT-Verbesserungen für APUs?
Es sind natürlich nur Gerüchte, aber Strix Halo ist ja selbst auch nur ein Gerücht und dürfte trotzdem demnächst schon launchen. Jedenfalls schreibt die Gerüchteküche dass RDNA 3.5 bzw. RDNA3+ weitgehend RDNA3 mit neuem bzw. verbessertem RT sein soll. Möglicherweise analog zur PS5pro.
Verbessertes RT geistert für RDNA3.5 schon ewig herum, schreibt unter anderem Igor: https://www.igorslab.de/amd-strix-point-ryzen-9040-mit-zen-5-rdna-3-und-xdna-2-fuer-2024-bestaetigt/
aufkrawall
2024-05-15, 20:02:38
Nur warum soll das dann 3.5 sein, wenn das verbesserte RT das Hauptfeature von RDNA4-Grafikkarten sein soll? Und wofür die Transistoren in einer APU verballern, die eh zu lahm für RT ist? Die Wahrscheinlichkeit, dass da irgendwas nicht passt, erscheint mir nicht sonderlich gering.
DrFreaK666
2024-05-15, 20:20:22
...Weiterhin stimmt das HW Level nicht mit RDNA2 überein. Sind wohl eher revisionen.
Gabs da überhaupt offizielle Angaben?
davidzo
2024-05-15, 22:35:28
Nur warum soll das dann 3.5 sein, wenn das verbesserte RT das Hauptfeature von RDNA4-Grafikkarten sein soll? Und wofür die Transistoren in einer APU verballern, die eh zu lahm für RT ist? Die Wahrscheinlichkeit, dass da irgendwas nicht passt, erscheint mir nicht sonderlich gering.
MTL hat auch Lvl3.5/4 RT. - Das ist also schon ein vermarktbares Checklistenfeature für den DAU.
Und 40CU für Strix Halo sind zwischen Navi33 und Navi32, man munkelt was von 4070(mobile?) Leistung. Da lohnt sich RT schon wenn es nicht mehr so einbricht wie bisher :wink:
TheAntitheist
2024-05-16, 00:28:02
Wenn man sich das mal anschaut :-)
https://i.ibb.co/C2xXrff/Screenshot-2024-02-01-182854.png
N48 könnte wahrscheinlich noch schneller sein und ist somit doppelt so schnell wie die RTX4080.
Derzeit ist der Abstand von AMD 7900XTX = 233fps zu NV RTX4080 = 159fps ca. ~60%
Im nativen Zustand sind es nur 3fps unterschied (66fps vs 63fps). Aber wenn RDNA3/4 die Flügel richtig ausstreckt, sieht Huang nur noch Rücklichter.
Die 233fps sind ohne AMD Frame Generation bzw. AFMF. Aktivieren man dies, kommen ~460fps raus und Huang ist bei 159fps. Also quasi dreifache Leistung für die 7900XTX gegen RTX4080.
witzig das sonst überall die 4080 die Radeons locker schlägt wie zB bei
PCGH: https://www.pcgameshardware.de/Avatar-Frontiers-of-Pandora-Spiel-73347/Specials/Avatar-Frontiers-of-Pandora-Snowdrop-Tech-Benchmarks-Test-1435474/3/
oder CB https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/
also du erzählst mal wieder nur Bullshit und willst provozieren
In Cyberpunk ist ja sogar eine 3080 mit RT schneller als eine 7900XTX laut PCGH
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
robbitop
2024-05-16, 02:45:24
Gabs da überhaupt offizielle Angaben?
Ja AMD gab bis dato an dass sie Ray Intersection in HW machen und alles andere über die shader läuft. Das ist seit RDNA2 der Fall. Das wäre auf der IMG Scale level 2.
dargo
2024-05-16, 09:04:52
In Cyberpunk ist ja sogar eine 3080 mit RT schneller als eine 7900XTX laut PCGH
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
Das ist natürlich sehr überraschend bei den bekannten Hintergründen von CP77 und Nvidia. :ulol:
robbitop
2024-05-16, 09:17:45
IIRC hatte PCGH mal getestet dass der drop vs raster auf RT bei Alechemist GPUs ähnlich zu Ampere war. Ich würde sagen, dass RT HW auch schon deutlich hilft, es zu beschleunigen. Und RDNA3 ist ja noch beim absoluten Minimum.
dargo
2024-05-16, 09:27:04
Darum gehts mir doch gar nicht. Es geht darum, dass CP77 RT-Showcase von NV ist, nichts weiter. Da wird so eine hohe RT-Last eingebaut, dass es dann am Ende eben heißt RTX 3080 = RX 7900XTX. Am genannten Beispiel von Pandora sieht man, dass es auch anders aussehen kann wenn NV dort nicht zu sehr reinpfuscht. Bei Pandora heißt es dann eben RTX 4070TI Super = RX 7900XTX.
vinacis_vivids
2024-05-16, 09:30:03
Niemand spielt Avatar oder Cyberpunk zurzeit in Native-Rendering. Die Realität heißt Explosion der Leistung bei AMD`s FSR3 + FG (speziell für RDNA3) und daneben das minderwertigere bzw. beschränkte DLSS3 + FG bei Nvidia.
Exxtreme
2024-05-16, 09:54:44
Ja, an Cyberpunk 2077 haben Nvidia-Mitarbeiter rumgemacht. Und damit ist das Spiel defakto eine Nvidia-Grafikdemo wenn man RT einschaltet. Und dass die dann auf die eigene Hardware optimieren, das sollte nicht verwundern. In Alan Wake 2 ist das exakt genauso. In neutralen Spielen ist der Leistungsunterschied bei Weitem nicht so hoch.
Redneck
2024-05-16, 09:57:00
Die sollen mal zusehen, daß sie einen gescheiten FPS limiter in den Treiber bekommen, der mit FG und Afmf funktioniert.
dargo
2024-05-16, 09:59:11
AFMF ist reinste Ressourcenverschwendung. Das können die gleich begraben, erst recht wenn jetzt öfter FG in Games implementiert wird.
Redneck
2024-05-16, 09:59:20
Und dennoch bekommt man den Eindruck, daß die 4080 aktuell generell schneller ist, weil (wahrscheinlich) das Treiber Team schneller am Ball ist.. Siehe die ganzen Benchmark Tests die letzten Tage bei CB
Redneck
2024-05-16, 09:59:55
AFMF ist reinste Ressourcenverschwendung. Das können die gleich begraben, erst recht wenn jetzt öfter FG in Games implementiert wird.
Für mich nicht.. Ich finde es toll
dargo
2024-05-16, 10:00:34
Und dennoch bekommt man den Eindruck, daß die 4080 aktuell generell schneller ist, weil (wahrscheinlich) das Treiber Team schneller am Ball ist.. Siehe die ganzen Benchmark Tests die letzten Tage bei CB
Meine Güte... hack doch endlich den missglückten RDNA3 ab. Das Ding ist einfach nicht gelungen... fertig.
Redneck
2024-05-16, 10:01:53
Deleted
robbitop
2024-05-16, 10:01:57
Darum gehts mir doch gar nicht. Es geht darum, dass CP77 RT-Showcase von NV ist, nichts weiter. Da wird so eine hohe RT-Last eingebaut, dass es dann am Ende eben heißt RTX 3080 = RX 7900XTX. Am genannten Beispiel von Pandora sieht man, dass es auch anders aussehen kann wenn NV dort nicht zu sehr reinpfuscht. Bei Pandora heißt es dann eben RTX 4070TI Super = RX 7900XTX.
Mein Punkt ist jedoch: Anscheinend läuft nicht NV HW mit ordentlicher RT HW aber auch relativ zur Rastergrundleistung ähnlich gut.
Wie du sagst kommt es bei CP77 vs Avatar auch eher von der RT Last. Avatar ist da ja eher sehr leicht. CP77 ist - gerade bei PT - schon auch ziemlich beeindruckend. Gleichzeitig hilft es, da gebe ich dir Recht, dem IHV der viel RT HW verbaut hat. Hätte AMD ja auch machen können. Haben sie aber nicht. Und Intel hat davon nicht profitiert weil Marktanteil und Mindshare nicht wirklich bedeutend war im dGPU Markt.
Redneck
2024-05-16, 10:05:13
Meine Güte... hack doch endlich den missglückten RDNA3 ab. Das Ding ist einfach nicht gelungen... fertig.
Meinst Du das das Treiber Team für RDNA4 schneller agiert?... Ressourcen und so..
Darum gehts mir doch gar nicht. Es geht darum, dass CP77 RT-Showcase von NV ist, nichts weiter. Da wird so eine hohe RT-Last eingebaut, dass es dann am Ende eben heißt RTX 3080 = RX 7900XTX. Am genannten Beispiel von Pandora sieht man, dass es auch anders aussehen kann wenn NV dort nicht zu sehr reinpfuscht. Bei Pandora heißt es dann eben RTX 4070TI Super = RX 7900XTX.
Was bei "Nvidia hat Cyberpunk gekauft" gerne vergessen wird: Ohne Raytracing läuft das Spiel auf Radeons überdurchschnittlich gut. Beschwert man sich darüber? Nein. Weil das schön ist. Fällt es da nicht umso leichter, es einfach zu akzeptieren, dass die schwache Raytracing-Leistung schlicht an AMDs aktueller Spar-Implementierung liegt? Es kann nur besser werden. :)
MfG
Raff
dargo
2024-05-16, 10:11:03
Mein Punkt ist jedoch: Anscheinend läuft nicht NV HW mit ordentlicher RT HW aber auch relativ zur Rastergrundleistung ähnlich gut.
Und wie kommst du zu dieser Annahme?
Und wie kommst du zu dieser Annahme?
Intel holt auf: Arc A770 schlägt RTX 4060 und RX 7600 - Nachtest und Ausblick auf Battlemage (https://www.pcgameshardware.de/Arc-A770-16GB-Grafikkarte-279179/Tests/16-GB-vs-RTX-4060-vs-RX-7600-Battlemage-Release-Benchmark-1436321/)
Und: https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
"Nvidias RT-Kerne sind in der Lage, die BVH-Datenstruktur nebst Intersection-Tests hochparallel und schnell abzuarbeiten, sodass sie selbst komplexen oder unoptimierten Raytracing-Code gut verdauen. AMD hingegen geht einen transistorsparenden Weg: Egal, ob RDNA 2 (erste RT-Generation) oder RDNA 3 (zweite Generation), anstelle von dedizierten RT-Cores werden die Textureinheiten dazu befähigt, Ray-Intersection-Tests durchzuführen. RDNA 3 weist zusätzliche Instruktionen gegenüber RDNA 2 auf, um diese Arbeit zu beschleunigen. Die Umsetzung erweist sich leistungsfähig genug für moderates Raytracing, bricht jedoch zusammen, wenn die GPU mit anspruchsvollem Rasterizing plus komplexem Raytracing voll ausgelastet ist - dann bremsen die überarbeiteten TMUs das Geschehen aus. Intel beschreitet bei Arc Alchemist seit 2022 übrigens den Weg Nvidias und derzeit geht man davon aus, dass RDNA 4 ebenfalls über dedizierte Raytracing-Beschleuniger verfügen wird."
MfG
Raff
robbitop
2024-05-16, 10:14:13
Und wie kommst du zu dieser Annahme?
Hab ich doch schon geschrieben. Arc A770 (~level 3.5 RT HW) verliert vergleichbar wenig fps wie eine Ampere. Entsprechend ist der Einfluss starker RT HW anscheinend relativ dominant. Man muss anscheinend „einfach“ nur starke RT HW verbauen.
Je höher die RT Last, desto stärker die Schere bei GPUs mit starker HW vs schwacher HW. Auch ein Grund für den finewine Artikel von Raff über Turing. Turing brachte schon Level 3 HW mit.
dargo
2024-05-16, 10:18:32
Was bei "Nvidia hat Cyberpunk gekauft" gerne vergessen wird: Ohne Raytracing läuft das Spiel auf Radeons überdurchschnittlich gut. Beschwert man sich darüber? Nein. Weil das schön ist. Fällt es da nicht umso leichter, es einfach zu akzeptieren, dass die schwache Raytracing-Leistung schlicht an AMDs aktueller Spar-Implementierung liegt? Es kann nur besser werden. :)
Keine Ahnung was du mir damit sagen willst? Ich könnte genau so fragen fällt es euch RT-Junkies so schwer zu akzeptieren, dass vielen Spielern RT am Arsc... vorbei geht, erst recht solche Stunts wie bei CP77 und Nvidia? Zumal mich das Thema CP77 nur noch langweilt da längst durchgespielt. Und so extrem gut fand ich das Game jetzt auch nicht für einen zweiten Durchgang. Könnt ihr vielleicht mal ne andere Schallplatte als CP77 auflegen? Das Ding ist von Ende 2020. :freak:
Hab ich doch schon geschrieben. Arc A770 (~level 3.5 RT HW) verliert vergleichbar wenig fps wie eine Ampere. Entsprechend ist der Einfluss starker RT HW anscheinend relativ dominant. Man muss anscheinend „einfach“ nur starke RT HW verbauen.
Mag sein. Aber was macht dich so sicher, dass der Treiber ohne der RT-Last nicht limitiert? Ich erinnere da nur an die extremen Performancesteigerungen bei Intel in den letzten Monaten. Aber klar... tendenziell sollte natürlich das Delta zwischen Raster und Raster + RT bei stärkeren RT-HW kleiner ausfallen.
Intel holt auf: Arc A770 schlägt RTX 4060 und RX 7600 - Nachtest und Ausblick auf Battlemage (https://www.pcgameshardware.de/Arc-A770-16GB-Grafikkarte-279179/Tests/16-GB-vs-RTX-4060-vs-RX-7600-Battlemage-Release-Benchmark-1436321/)
Und: https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/3/
"Nvidias RT-Kerne sind in der Lage, die BVH-Datenstruktur nebst Intersection-Tests hochparallel und schnell abzuarbeiten, sodass sie selbst komplexen oder unoptimierten Raytracing-Code gut verdauen. AMD hingegen geht einen transistorsparenden Weg: Egal, ob RDNA 2 (erste RT-Generation) oder RDNA 3 (zweite Generation), anstelle von dedizierten RT-Cores werden die Textureinheiten dazu befähigt, Ray-Intersection-Tests durchzuführen. RDNA 3 weist zusätzliche Instruktionen gegenüber RDNA 2 auf, um diese Arbeit zu beschleunigen. Die Umsetzung erweist sich leistungsfähig genug für moderates Raytracing, bricht jedoch zusammen, wenn die GPU mit anspruchsvollem Rasterizing plus komplexem Raytracing voll ausgelastet ist - dann bremsen die überarbeiteten TMUs das Geschehen aus. Intel beschreitet bei Arc Alchemist seit 2022 übrigens den Weg Nvidias und derzeit geht man davon aus, dass RDNA 4 ebenfalls über dedizierte Raytracing-Beschleuniger verfügen wird."
Dein Link zeigt doch genau das was ich sage. Wo Nvidia stärker rein pfuscht (Alan Wake 2, CP77 und Desordre) performed die Konkurrenz inkl. Intel mit RT spürbar schlechter als Nvidia.
The_Invisible
2024-05-16, 10:59:44
Ja, an Cyberpunk 2077 haben Nvidia-Mitarbeiter rumgemacht. Und damit ist das Spiel defakto eine Nvidia-Grafikdemo wenn man RT einschaltet. Und dass die dann auf die eigene Hardware optimieren, das sollte nicht verwundern. In Alan Wake 2 ist das exakt genauso. In neutralen Spielen ist der Leistungsunterschied bei Weitem nicht so hoch.
Sieh dir mal die PCGH RT-Benchmarks an, ist da jetzt alles NV optimiert? Und warum schneidet Intel relativ zur Performance auch immer gut ab? Ist jetzt alles NV/Intel optimiert.
Außerdem warte ich noch immer auf die AMD RT-Techdemo wenn ja alles nur an Optimierung liegt.
Exxtreme
2024-05-16, 11:07:56
Sieh dir mal die PCGH RT-Benchmarks an, ist da jetzt alles NV optimiert? Und warum schneidet Intel relativ zur Performance auch immer gut ab? Ist jetzt alles NV/Intel optimiert.
Außerdem warte ich noch immer auf die AMD RT-Techdemo wenn ja alles nur an Optimierung liegt.
Bei Cyberpunk 2077 sieht man es doch ganz deutlich. Arc A770 liegt ohne RT 5% hinter der RTX 3070, mit RT sind es plötzlich 22% Rückstand.
The_Invisible
2024-05-16, 11:18:37
Keine Ahnung was du mir damit sagen willst? Ich könnte genau so fragen fällt es euch RT-Junkies so schwer zu akzeptieren, dass vielen Spielern RT am Arsc... vorbei geht, erst recht solche Stunts wie bei CP77 und Nvidia?
Bei der letzten 3dcenter Umfrage wollen aber fast 40% mehr RT-Performance für AMD und ist an erster Stelle der meistgewünschten Features. Und ja, es nervt auch jedesmal die gleiche Diskussion zu führen ob AMD jetzt doch nicht so weit in Sachen RT-perf hinten ist...
@Exxtreme
Wundert mich nicht, ist die erste RT-Gen von Intel, interessant ist nur die relative Performance im Vergleich zu AMD.
Bei der letzten 3dcenter Umfrage wollen aber fast 40% mehr RT-Performance für AMD und ist an erster Stelle der meistgewünschten Features...
Ja, die Sinnhaftigkeit von immer mehr RT derzeit wird halt von unserer Presse nicht infrage gestellt, sondern es wird einfach gepusht und wenn die Grafikkarten noch so teuer werden, der Energiebedarf noch so hoch uswusf.
erinnert frappierend an Tesselation
Exxtreme
2024-05-16, 12:20:27
@Exxtreme
Wundert mich nicht, ist die erste RT-Gen von Intel, interessant ist nur die relative Performance im Vergleich zu AMD.
Nvidia macht leider sowas öfter. Sobald ein Spielentwickler die an den Code ranlässt, machen die eine Grafikdemo draus, die nur noch auf Nvidia-Grafikkarten gut läuft. Crytek hat diesen Fehler auch gemacht:
https://techreport.com/review/crysis-2-tessellation-too-much-of-a-good-thing/
Nvidia hat denen geholfen einen DirectX 11-Patch zu kreieren. Und das Ergebnis war, dass der Patch Hardcore-Tessellation aktivierte und davon auch Dinge betroffen waren, die gar nicht sichbar waren weil sie durch andere Dinge verdeckt wurden. Normalerweise werden verdeckte Dinge verworfen um Rechenaufwand zu sparen. Der Patch sorgte aber dafür, dass dem nicht so war. Und zufälligerweise hatten die damaligen Geforce-Grafikkarten eine Tessellation-Stärke. Und das liess die Radeons massiv einbrechen im Vergleich zu Geforce-Grafikkarten.
Und deshalb wundert mich nicht, dass die Geforce-Grafikkarten bei Spielen wie Cyberpunk 2077 oder Alan Wake 2 so gut dastehen. In Spielen mit RT, an denen sie nicht beteiligt waren, ist der Vorsprung bei weitem nicht mehr so groß.
dargo
2024-05-16, 12:21:30
Bei der letzten 3dcenter Umfrage wollen aber fast 40% mehr RT-Performance für AMD und ist an erster Stelle der meistgewünschten Features.
Wow... eine 3DC-Umfrage. Sorry, aber eine Umfrage innerhalb paar "Nerds" ist einen Furz wert. Zumal dort auch genug Leute aus dem grünen Lager abgestimmt haben dürften. Man sieht schon was in diesem Forum los ist. Unser "Drama Queen" robbitop schreddert nahezu jeden Radeon-Thread mit diesem RT-Gedöns. Der Witz an der ganzen Sache ist dann auch noch, dass das User sind die eh keine Radeon kaufen.
Ja, die Sinnhaftigkeit von immer mehr RT derzeit wird halt von unserer Presse nicht infrage gestellt, sondern es wird einfach gepusht und wenn die Grafikkarten noch so teuer werden, der Energiebedarf noch so hoch uswusf.
erinnert frappierend an Tesselation
Willkommen im Zeitalter der Influencer. Das Problem hast du aber überall, nicht nur bei PC-Hardware. Schau dir nur mal die ganzen Influencer bei YT bei diversen Themen an. Die Hersteller sind ja nicht blöd... die wissen ganz genau, dass diese Masche funktioniert.
Slipknot79
2024-05-16, 13:00:08
Bei der letzten 3dcenter Umfrage wollen aber fast 40% mehr RT-Performance für AMD und ist an erster Stelle der meistgewünschten Features.
So ist es, genau das ist es was zählt, nämlich die Meinung von Enthusiasten. (y) Die breite Masse interessiert sich nicht für RT, man hat also so und so keine andere Wahl als genau diese Nerds zu befragen und dort hinzuhören (y).
Die breite Masse ist im 3dc und ähnlichen Foren auch völlig uninteressant. Als ob man im Lambo-Forum über den VW Golf diskutieren würde.
Willst du Kohle machen, dann höre auf das 3dc und Enthusiasten. Was daraus folgt: Lederjacke (und AMD) bringen zu Beginn einer Generation genau für dieses Klientel Hardware raus. Weil sie wissen, hier werden Trends vorgegeben und das kurbelt Monate und Jahre später die Verkäufe von mainstream-Hardware an. (y)
fondness
2024-05-16, 13:29:18
Mein Punkt ist jedoch: Anscheinend läuft nicht NV HW mit ordentlicher RT HW aber auch relativ zur Rastergrundleistung ähnlich gut.
Wie du sagst kommt es bei CP77 vs Avatar auch eher von der RT Last. Avatar ist da ja eher sehr leicht. CP77 ist - gerade bei PT - schon auch ziemlich beeindruckend. Gleichzeitig hilft es, da gebe ich dir Recht, dem IHV der viel RT HW verbaut hat. Hätte AMD ja auch machen können. Haben sie aber nicht. Und Intel hat davon nicht profitiert weil Marktanteil und Mindshare nicht wirklich bedeutend war im dGPU Markt.
Erstens stimmt die Aussage nicht, auch Intel bricht stärker ein als bei anderen Titeln und zweitens: Wenn man jetzt echt anfängt nachweislichen Nvidia-Code zu verteidigen und als Vergleich heranzieht wird es echt lächerlich.
Exxtreme
2024-05-16, 13:32:46
Ja, die Sinnhaftigkeit von immer mehr RT derzeit wird halt von unserer Presse nicht infrage gestellt, sondern es wird einfach gepusht und wenn die Grafikkarten noch so teuer werden, der Energiebedarf noch so hoch uswusf.
erinnert frappierend an Tesselation
Das wurde sehr wohl infrage gestellt. Und es gibt sauschlechte Implementierungen von Raytracing, Diablo 4 ist da ein Beispiel dafür. Aber es ist halt so, ab einer bestimmten Komplexität einer Szene und Menge an exakten Schatten, ist Raytracing die beste praxisnahe Option. Raytracing ist aber nicht so toll wenn man bereit ist viele Abstriche zu machen.
Dino-Fossil
2024-05-16, 13:41:23
Wobei ich auch sagen muss: RT-Schatten sind meiner Meinung nach nicht wesentlich besser als gut implementierte "Fake" Rasterschatten. RT-Illumination schaut auch oft (aber nicht immer) nur "anders" aber nicht automatisch "besser" aus als Fake-Raster-Illumination. Polemisch gesagt: Abgesehen von Details, die man im Spiel eh nicht bemerkt, könnte man auch meist einfach den Kontrast unter Raster etwas erhöhen und hat ein ganz ähnliches Bild.
Den größten Nutzen sehe ich tatsächlich (aktuell jedenfalls) meist in Spiegelungen, da diese offensichtlich mit RT in aktuellen Engines deutlich leichter zu implementieren sind (bzw. überhaupt erst mehr als SS-basiert möglich machen).
Dem kann ich nur voll zustimmen.
dargo
2024-05-16, 14:25:45
So ist es, genau das ist es was zählt, nämlich die Meinung von Enthusiasten. (y)
Ich frage mich wirklich in welcher Traumwelt du lebst. Als ob DEVs sich für Enthusiasten interessieren würden...lol.
DrFreaK666
2024-05-16, 14:31:18
Ich sehe es anders: mir bringt GI und daraus resultierender AO den größten optischen Mehrwert
Dino-Fossil
2024-05-16, 14:53:10
GI und AO sind aber nichts, was man erst seit RT hat. Und die Qualität der Implementierung hängt nicht nur an RT on/off.
Ich bin ja nicht grundsätzlich gegen RT - sehe das aber bisher eher als eine Technik die noch in den Kinderschuhen steckt (gilt für Hard- und Software) und einen doch eher begrenzten Einfluss auf meinen Spielegenuss hat. Von daher verfolge ich das schon mit einem gewissen Interesse, würde es aber (für mich persönlich jedenfalls) nicht überbewerten.
Allerdings denke ich auch, dass zwingend auch Verbesserungen auf der Hardwareseite nötig sind. Bevor RT auch in den kleineren Modellen performant darstellbar ist, bleibt es eine Spielerei oder bessere Tech-Demo.
Hakim
2024-05-16, 15:09:30
Wobei ich auch sagen muss: RT-Schatten sind meiner Meinung nach nicht wesentlich besser als gut implementierte "Fake" Rasterschatten. RT-Illumination schaut auch oft (aber nicht immer) nur "anders" aber nicht automatisch "besser" aus als Fake-Raster-Illumination. Polemisch gesagt: Abgesehen von Details, die man im Spiel eh nicht bemerkt, könnte man auch meist einfach den Kontrast unter Raster etwas erhöhen und hat ein ganz ähnliches Bild.
Den größten Nutzen sehe ich tatsächlich (aktuell jedenfalls) meist in Spiegelungen, da diese offensichtlich mit RT in aktuellen Engines deutlich leichter zu implementieren sind (bzw. überhaupt erst mehr als SS-basiert möglich machen).
Wäre es nicht das selbe wie bei Texturen? Von Extrem auf Hoch muss man bei den meisten spielen mit Standbildern vergleichen um überhaupt einen Unterschied zu sehen, aber es hilft ungemein bei geringen Vram, dennoch bestehen die meisten hier auf max Textur und entsprechend viel Vram.
robbitop
2024-05-16, 15:41:06
Von nichts kommt halt nichts. RT ist teuer. Dass das überhaupt in Echtzeit geht ist bis vor 10 Jahren noch unklar gewesen. Damit es voran geht müssen da Transistoren investiert werden. Für Reflexion, Refraktion und echte dynamische global illumination (abhängig vom dynamischen Wetter und Tageszeit) gibt es keine echte Alternative.
Aber ja die Pionierjahre sind selten wirklich gut. Vor allem nicht jetzt wo Performancewachstum auch noch extrem abgezockt wird und es kaum Performancewachstum im zB 300€ Markt gibt.
fondness
2024-05-16, 15:48:21
Wie lange zieht eigentlich der "Pionierjahre-Joker" noch, mittlerweile 6 Jahre nach Turing? 10 Jahre, 20 Jahre? Und nein, es geht eigentlich nach wie vor nicht in Echtzeit, zumindest nicht wenn man es nicht nur für kleine Teilaspekte verwendet. Der Performance-Einbruch ist nach wie vor absurd hoch.
boxleitnerb
2024-05-16, 15:58:41
Wie lange zieht eigentlich der "Pionierjahre-Joker" noch, mittlerweile 6 Jahre nach Turing? 10 Jahre, 20 Jahre? Und nein, es geht eigentlich nach wie vor nicht in Echtzeit, zumindest nicht wenn man es nicht nur für kleine Teilaspekte verwendet. Der Performance-Einbruch ist nach wie vor absurd hoch.
Und weil es nicht von „Fake“ zu „perfekt in Echtzeit“ im Zeitalter immer teurerer Fertigung von jetzt auf gleich geht, ist jetzt alles doof? Was willst du eigentlich? Was sollen die IHVs tun - aufgeben?
Ich hab auch noch keine 512 CPU-Kerne im Rechner und die vorhandenen werden nicht immer 100% genutzt. Der Einsatz für den Output wäre absurd hoch. Ist jetzt Multithreading schlecht?
Exxtreme
2024-05-16, 16:01:18
Wie lange zieht eigentlich der "Pionierjahre-Joker" noch, mittlerweile 6 Jahre nach Turing? 10 Jahre, 20 Jahre? Und nein, es geht eigentlich nach wie vor nicht in Echtzeit, zumindest nicht wenn man es nicht nur für kleine Teilaspekte verwendet. Der Performance-Einbruch ist nach wie vor absurd hoch.
Lässt sich pauschal nicht sagen. Bei Shadern dauerte das auch eine ganze Weile bis man echte Vorteile gesehen hat bzw. das schnell genug lief. Lag wahrscheinlich an 3dfx-Karten, die sowas nicht konnten und deshalb eine Bremse waren. Konsolen können sowas auch bremsen. Und Shader konnten schon die Geforce 3 bzw. ATi Radeon 8500. Und das prominente Spiel, welches Shaders nutzte war ES:Morrowind. Und das lief damals überall wie Grütze. Und trotzdem hat damals niemand Shader hinterfragt ob man diese wirklich braucht.
Hakim
2024-05-16, 16:09:58
Ich kann mich Waage daran erinnern das mein Freund damals auch seine 3dfx Karte (Voodoo Banshee) welches nur 16bit Farben konnte gegenüber der Konkurrenz mit 32bit, auch meinte das man es im Spiel nicht direkt sieht und es daher nicht so schlimm wäre. Es wird Zeit brauchen und braucht halt die kleinen steps mit jeder Gen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.