PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25

dargo
2025-01-12, 09:05:47
Das wäre eine tolle Leistung. :) Hoffentlich mit 26xW und nicht 330W. Man darf wohl noch träumen dürfen.

Relex
2025-01-12, 09:07:59
I call BS.
Mit Cyberpunk RT Overdrive schafft eine 4080 in 4K nativ keine 32 FPS, sondern die Hälfte.
Außerdem ist in Cyberpunk RT Overdrive Ada aktuell fast 4x so schnell wie RDNA3.

https://www.computerbase.de/2023-10/nvidia-dlss-3-5-test/2/

Natürlich schließt AMD den Rückstand in Pathtracing mal eben komplett. Und das dann auch noch bei deutlich weniger Leistungsaufnahme. ;D

dargo
2025-01-12, 09:10:32
Was willst du mit RDNA3 jetzt? Im Leak steht überhaupt nichts von RDNA3.


Mit Cyberpunk RT Overdrive schafft eine 4080 in 4K nativ keine 32 FPS, sondern die Hälfte.

Ok... da hatte ich jetzt keinen Bezugspunkt.

Relex
2025-01-12, 09:14:09
Ja richtig, aber zu RDNA3 haben wir daten. AMD müsste die RT performance mit RDNA4 folglich um Faktor 4 erhöht haben und features wie Opacity Micromaps und SER unterstützen, welche die Performance auf Ada auch nochmal um bis zu 50% steigern.

Man muss das eben auch mal im Kontext betrachten und da erscheint das komplett unrealistisch. Zumal die Werte für Nvidia wie gesagt falsch sind.

GerryB
2025-01-12, 09:17:48
Der Normalverbraucher wird keine PT Extrawürste anschauen, sondern eher Avatar, Indiana Jones und Stalker2.
hinzu kommen Games mit HardwareLumen, was die eigentliche Nagelprobe ist

separate grüne RTXGI-Schnittstellen/Showcases würde ich nicht unbedingt als AMD optimiert zu Vergleichen heranziehen
meist hat AMD keine Chance bei den Studios mitzureden
(deswegen brauchts halt erstmal mehr Marktanteil)

dargo
2025-01-12, 09:22:46
separate grüne RTXGI-Schnittstellen/Showcases würde ich nicht unbedingt als AMD optimiert zu Vergleichen heranziehen
meist hat AMD keine Chance bei den Studios mitzureden
(deswegen brauchts halt erstmal mehr Marktanteil)
Auf Lederjackenmodis @PT schaue ich eh nicht. ;)

Relex
2025-01-12, 09:28:17
Richtig das ist nicht nur unfair, sondern technisch gesehen auch quatsch, weil die PT Modi auf NV Hardware zugeschnitten sind und alles ausnutzen was an Hardwarefeatures da ist. Sonst wäre das auch nicht in Echtzeit lauffähig. Das ist halt Nvidias Experimentierbaukasten. Weder kann noch soll das auf AMD hardware gut laufen.
Gerade das macht die geleakten Werte ja so unglaubwürdig.

HOT
2025-01-12, 09:43:33
Wie schnell RT auf RDNA4 ist kommt schlichtweg darauf an, wie viel AMD darin investiert hat.

GerryB
2025-01-12, 09:47:11
und die Software/Games muss passen

Im Idealfall sind dann die sinnvollen Instruktionen in einem Cycle zu schaffen und erfordern nicht noch nen Zweiten.
Wenn NV gefeiert wird, das sind das meist Ausnahmen, wo AMD so ein Bottleneck hat und mehr Cycles braucht.

Wenn RDNA4 in 95% der Games gut mit normalem RT klar kommt, reichts völlig aus.
Für die 5% NV-Showcase/Sonderfälle würden die betreffenden User eeh gleich die grüne Hardware kaufen.
Das lässt sich meist in den Parcours und Gamereviews sehr leicht herausfinden, welche Hardware zu den eigenen
Games/Engines passt.

Ex3cut3r
2025-01-12, 09:59:48
Richtig das ist nicht nur unfair, sondern technisch gesehen auch quatsch, weil die PT Modi auf NV Hardware zugeschnitten sind und alles ausnutzen was an Hardwarefeatures da ist. Sonst wäre das auch nicht in Echtzeit lauffähig. Das ist halt Nvidias Experimentierbaukasten. Weder kann noch soll das auf AMD hardware gut laufen.
Gerade das macht die geleakten Werte ja so unglaubwürdig.

Stimmt absolut. Es ist immer wieder erstaunlich, wie viel Leistung im Vorfeld von AMD-Grafikkarten versprochen wird, nur um dann am Veröffentlichungstag, wenn die Benchmarks von CB, PCGH und anderen kommen, maßlos enttäuscht zu werden.

DrFreaK666
2025-01-12, 10:01:07
I call BS.
Mit Cyberpunk RT Overdrive schafft eine 4080 in 4K nativ keine 32 FPS, sondern die Hälfte.
Außerdem ist in Cyberpunk RT Overdrive Ada aktuell fast 4x so schnell wie RDNA3.

https://www.computerbase.de/2023-10/nvidia-dlss-3-5-test/2/

Natürlich schließt AMD den Rückstand in Pathtracing mal eben komplett. Und das dann auch noch bei deutlich weniger Leistungsaufnahme. ;D

Wo siehst du in deinem Link Benchmark-Werte ohne Upscaling? Mal davon abgesehen, dass die Szene total unbekannt ist und gegebenenfalls nicht vergleichbar

The_Invisible
2025-01-12, 10:06:21
Zwei Benchmark Leaks

Black Myth: Wukong

4080S
4K 33
2K 77
1080 99

XXXX XT(9070XT)
4K 30
2K 73
1080 97

2077 RT Overdrive, Native Res

4080S
4k 32
2k 65
1080p 101

4070 Ti S
4k 26
2k 53
1080p 87

XXXX xt
4k 26
2k 52
1080p 85


Quelle:https://x.com/9550pro/status/1878321019586589027 bzw Chiphell

Wär ein gigantischer Fortschritt gegenüber der 79XTX, vor allem mit PT. Aber wie gesagt, wie will man dann die Karte im vorhandenen Portfolio platzieren, da kannst 79XT/XTX ganz rausnehmen, ergibt alles keinen Sinn. Außer man platziert die 9070XT im 800+ Bereich

GerryB
2025-01-12, 10:19:24
Wow, der Chiphellthread wurde gesperrt/gelöscht.

interessanter als CP2077 ist der Vgl.
der 9070xt vs 4070TiS in Wukong

und
auch ganz interessant, das RDNA4 bis runter auf 1080p anscheinend gut ausgelastet wird
(kann man dann mit FSR4+FG gut auf 4k umsetzen)

robbitop
2025-01-12, 10:30:08
@leaked benchmarks:
4080S -10% ist im Bereich des (seit den 3DMark Leaks auf der CES) Erwarteten.

-----------------------------------------------
edit:
-10% in Wukong vs 4080S in 4K ist 7900XTX Level (siehe PCGH Link unten). Ggf 5% drüber.
-20% in CP77 PT passt ziemlich gut dazu, dass zB von Cerny gesagt wurde Faktor 2-3 in RT. Wenn man sich die Frametime von CP77 PT im chips and cheese Artikel anschaut liegt Ada rohleistungsnomiert 2,7x vor RDNA3. In sofern ist das konkludent.
Das sollte in aktuellen sehr gemischten RT Indizes (wo auch viel light RT drin ist) +20% ggü der 7900XTX bringen.

In heavy RT mal anhand der 4070ti/S etwaige potenzielle Einordnung von N48 dann vs 7900XT wenn es sich so bewahrheitet:

(1) CP77 PT ~260-270% laut PCGH (hab da die 4070ti abgelesen in 4K - da gabs die TiS noch nicht)
(2) AW 2 PT ~214% laut PCGH (dort gibts eine 4070 TiS)


https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Benchmark-Grafikkarten-Test-Release-1455019/
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/
https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Night-Springs-DLC-Pathtracing-Benchmarks-1449456/2/

---------------------------



Ja richtig, aber zu RDNA3 haben wir daten. AMD müsste die RT performance mit RDNA4 folglich um Faktor 4 erhöht haben und features wie Opacity Micromaps und SER unterstützen, welche die Performance auf Ada auch nochmal um bis zu 50% steigern.

Man muss das eben auch mal im Kontext betrachten und da erscheint das komplett unrealistisch. Zumal die Werte für Nvidia wie gesagt falsch sind.
RDNA3 hat so wie RDNA2 gerade mal das absolute Minimum an RT HW. Level 2 auf der IMG RT Scale.
Ada und Alchemist/Arc liegen bei Level ~3.5. Also BVH Compute und einer Sortierungsfunktion für diese Instruktionen.

Sollte RDNA4 auch entsprechende HW verbaut haben (was kein Hexenwerk ist) ist es nicht undenkbar auch auf dieses Performancelevel zu kommen.
Selbst Battlemage kommt (rohleistungsnormiert!!) in CP77 Path Tracing auf ~80-90% Ada Leistung.

Gerade bei RT ist der erste große Sprung relativ einfach mit Rayintersection und BVH in HW. Da war bereits Turing und Ampere richtig gut. Das macht den größten Teil aus. Alles was darauf aufbaut - oder zumindest macht zumindest den Anschein - hat wieder mit dem sinkenden Grenzertrag zu tun. Also sind 10-20% (auch wenn es wenig klingt) immer noch schwer zu erreichen und teuer mit Transistoren bezahlt.

Richtig das ist nicht nur unfair, sondern technisch gesehen auch quatsch, weil die PT Modi auf NV Hardware zugeschnitten sind und alles ausnutzen was an Hardwarefeatures da ist. Sonst wäre das auch nicht in Echtzeit lauffähig. Das ist halt Nvidias Experimentierbaukasten. Weder kann noch soll das auf AMD hardware gut laufen.
Gerade das macht die geleakten Werte ja so unglaubwürdig.
Ganz so schlimm ist es nicht. Mit starker RT HW (rohleistungsnormiert!) sind auch gute Ergebnisse bei Nicht Nvidia HW Möglich. Siehe Battlemage. Auch Ampere sieht in CP77 PT ohne die neu unterstützten HW Blöcke wie SER, OMM und DMM sehr gut aus relativ zu Ada. Man schaue sich die 3090ti in 4K:
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/
Gerade mal 21% hinter der 4080.
Warum sollte die 9070XT wenn sie Level 3.5 HW hat nicht auch dort landen können?

In Raster ist die 3090ti ~10% in 4K in CP77 hinter der 4080:
https://www.pcgameshardware.de/Geforce-RTX-4080-Super-Grafikkarte-280114/Tests/Release-Benchmark-Kaufen-Preis-RTX-4080-Super-vs-4080-vs-7900-XTX-1438917/2/

Also bringen diese neuen HW Blöcke die explizit unterstützt werden müssen gerade mal 10%. Insofern ist -20% in PT für die 9070X wenn eine moderne RT Pipeline verbaut ist nicht unrealistisch.

GerryB
2025-01-12, 11:10:15
3090Ti = 450W ist ggü. ner 3080 schon ziemlich hochgepuscht

wenn überhaupt, dann 3080 vs 4070S vs 5070
vs 9070(xt)

robbitop
2025-01-12, 11:10:22
Wow, der Chiphellthread wurde gesperrt/gelöscht.

interessanter als CP2077 ist der Vgl.
der 9070xt vs 4070TiS in Wukong

und
auch ganz interessant, das RDNA4 bis runter auf 1080p anscheinend gut ausgelastet wird
(kann man dann mit FSR4+FG gut auf 4k umsetzen)

Auslastung auch bei 1080p ist iirc seit RDNA1 kein geoßes Problem mehr iirc. Bitte korrigieren wenn falsch.

GerryB
2025-01-12, 11:13:21
Auslastung auch bei 1080p ist iirc seit RDNA1 kein großes Problem mehr iirc. Bitte korrigieren wenn falsch.
In manchen Games hat RDNA3 nicht so eine gute Auslastung@FHD wie RDNA2.
= DualIssue

robbitop
2025-01-12, 11:23:52
3090Ti = 450W ist ggü. ner 3080 schon ziemlich hochgepuscht

wenn überhaupt, dann 3080 vs 4070S vs 5070
vs 9070(xt)
Kannst du ausführen was du meinst?
Ansonsten ist Ampere 8 nm (was ein optimierter 10 nm Prozess ist ... von Samsung.... die node normiert in den letzten Jahren immer schlechter waren als TSMC). N48 ist TSMC 4 nm. Das sind ~2,5 node Sprünge. Da werden TDPs der alten Referenz ein Stück weit bedeutungslos.

Sofern du dich auf mein Posting bezogen hast wo ich die 3090ti herangezogen habe. Da war der Sinn zu schauen was eine GPU ohne die neuen HW Blöcke (OMM, DMM und SER) aber mit starker BVH und Ray intersection HW schaffen kann. Und um es sinnvoll vergleichen zu können (architekturnormiert) vergleiche ich das delta zwischen einer Ampere und einer Ada SKU die nahe aneinander liegen. 10% in Raster 4K. Also die Differenz zu PT 4K ist dann der Einfluss der neuen Blöcke. Die 4080 und die 3090ti liegen dort 20% auseinander. Bleiben also noch 10% als delta. Und das scheint dort der Einfluss der HW Blockoptimierungen zu sein.

Ergo ist es nicht undenkbar dass wenn RDNA4 eine ähnlich gute RT Pipeline wie Ampere verbaut (oder moderner), dass man 10-20% in PT hinter der 4080 liegt.

robbitop
2025-01-12, 11:24:55
In manchen Games hat RDNA3 nicht so eine gute Auslastung@FHD wie RDNA2.
= DualIssue
Also in den Games liegt dann RDNA3 deutlicher vor RDNA2 in 4K vs FHD? Ist der Vorsprung denn in FHD sicher ohne CPU Limit? (das muss sicher gestellt sein)
Hast du zufällig einen Link wo man sich das anschauen kann?

Am besten würde man dafür um Nicht-Architektureffekte (sondern eher welche die aus der Skalierung der CUs oder anderer Konfiguration oder vram differenz etc und auch CPU Limits) zu minimieren 2x ähnlich starke SKUs. Zum Beispiel die 6800 vanilla oder XT vs die 7800XT oder die 7600 vs die 6650xt.

Zumindest im Index bei der PCGH zeigt sich das in der 6600 vs der 7600 nicht wirklich:
https://www.pcgameshardware.de/Radeon-RX-7600-XT-Grafikkarte-280117/Tests/Benchmark-Preis-RX-7600-XT-16GB-Release-Date-1438299/2/

relativ konsistente ~30 % (mit nur ganz wenigen Prozent unterschied von fhd über wqhd über 3440x1440 bis 4k).

edit:
Gleicher Test 7800XT vs 6800XT. 11% in FHD und 4K zwischen beiden GPUs.

Der_Korken
2025-01-12, 11:40:59
I call BS.
Mit Cyberpunk RT Overdrive schafft eine 4080 in 4K nativ keine 32 FPS, sondern die Hälfte.
Außerdem ist in Cyberpunk RT Overdrive Ada aktuell fast 4x so schnell wie RDNA3.

https://www.computerbase.de/2023-10/nvidia-dlss-3-5-test/2/

Natürlich schließt AMD den Rückstand in Pathtracing mal eben komplett. Und das dann auch noch bei deutlich weniger Leistungsaufnahme. ;D

Nach der Logik hätte Turing nie existieren können, denn dort ist die RT-Leistung gegenüber Pascal mehr als Faktor 10 gestiegen und die deutlich kleinere und sparsamere 2060 hat die 1080Ti komplett verprügelt. Und ob die PT-Lücke komplett geschlossen ist, kann man anhand der Daten gar nicht sagen, da wir keine Vergleichsdaten ohne RT/PT haben. Wenn die 9070XT in Raster 10% schneller, aber in RT 10% langsamer als die 4080S wäre, dann wäre nach wie vor eine beachtliche 20%-Lücke da.

Stimmt absolut. Es ist immer wieder erstaunlich, wie viel Leistung im Vorfeld von AMD-Grafikkarten versprochen wird, nur um dann am Veröffentlichungstag, wenn die Benchmarks von CB, PCGH und anderen kommen, maßlos enttäuscht zu werden.

Ja, AMD soll mit einem gleich großen Chip und gleichgroßen Powerbudget fast die Leistung von Nvidias Vorgängergeneration einholen. Unerhört dieser Hype!

fondness
2025-01-12, 11:49:00
I call BS.
Mit Cyberpunk RT Overdrive schafft eine 4080 in 4K nativ keine 32 FPS, sondern die Hälfte.
Außerdem ist in Cyberpunk RT Overdrive Ada aktuell fast 4x so schnell wie RDNA3.

https://www.computerbase.de/2023-10/nvidia-dlss-3-5-test/2/

Natürlich schließt AMD den Rückstand in Pathtracing mal eben komplett. Und das dann auch noch bei deutlich weniger Leistungsaufnahme. ;D

Vielleicht ein schlichter Übersetzungesfehler. Die Originalquelle aus dem Chinesischen ins Englische übersetzt spricht von "Super light tracing preset + native resolution". Was auch immer das heißt.

Sumpfmolch
2025-01-12, 11:49:14
Zwei Benchmark Leaks
Quelle:https://x.com/9550pro/status/1878321019586589027 bzw Chiphell

Also praktisch 4070 TI Super Performance auch in RT.

Preisliche Einstufung der NVIDIA Konkurrenz (12GB Rotz strafe ich hier mit Missachtung):

5070 Ti ~879€
4070Ti Super ~800€
9070XT ~619€ (*)


(*) Der neuste AMD Leak für die 9070XT stammt aus einer Preisliste aus Indonesien für eine Gigabyte's Gaming OC mit (2,400 Base 2,970 OC) 2x8PIN, Dual-Slot Design. Dort sind es 521$ vor Steuern also ca. 619€ bei uns.
( https://www.techpowerup.com/330995/amd-radeon-rx-9070-xt-leaked-listing-reveals-pricing-details?cp=2 )

Aktuell eine ziemliche Lücke im NVIDIA Lineup. Verfügbar wäre dann noch die 4060 Ti 16G für 500€, die aber in der Performance nicht vergleichbar ist.

Wenn die niedrigen Preise für die AMD Karten stimmen, dann hat sich NVIDIA bei seinen Karten um eine Stufe vertan: 5080 -> 5070TI | 5070TI -> 5070 | 5070 -> 5060

robbitop
2025-01-12, 11:54:46
Die FPS kommen bei jedem Spiel doch sehr auf die Szene an. Zu sagen xyz fps passen nicht kann man nur tätigen wenn man die gleichen Szenen vergleicht. Und da da jeder andere Szenen und Bereiche aussucht ist ein Quervergleich oft nicht möglich. Es sei denn alle nehmen eine Standardbench Funktion eines Spieles.

GerryB
2025-01-12, 11:55:59
7800XT vs 6800XT. 11% in FHD und 4K zwischen beiden GPUs.

Ich dachte da eher an solche ollen Engines wie bei Baldurs Gate, wo ne 6800xt in FHD >>7800xt liegt.
(muss Sowas im 25er Parcour bleiben ?, ... oder gibt auch Games die überhaupt nicht auf AMD optimiert sind wie JA + GR2,
da lohnt sich manchmal eine Kontrolle der Ausreisser, ob die mit der eigenen Bibliothek übereinstimmen)

Wäre natürlich interessant zu wissen, was genau NV bei der 4070 ggü. der 3080 anders macht, um die FP32 auszulasten
und ob N48 jetzt auch sowas Ähnliches kann.

The_Invisible
2025-01-12, 11:57:19
Warum sollte AMD diese dann um knapp über 600 verschleudern. Und nochmal, was macht man dann mit 79xt/xtx? Einstellen? Um <600eur verschleudern? Macht keinen Sinn

robbitop
2025-01-12, 11:58:29
Ja gut die Frage ist wie repräsentativ Einzelfälle (ggf mit „merkwürdigen Engines“) für das Verhalten eine uArch sind. ^^

Sumpfmolch
2025-01-12, 12:04:23
Warum sollte AMD diese dann um knapp über 600 verschleudern. Und nochmal, was macht man dann mit 79xt/xtx? Einstellen? Um <600eur verschleudern? Macht keinen Sinn

Ich gehe davon aus, dass die 7900XT eingestellt wird. Im Performancebereich gibt es Ersatz und die 4GB Speicher haben gegenüber den NVIDIA Karten auch nicht so recht als Kaufanreiz gewirkt. Da wird AMD lieber eine 16GB Karte mit niedrigerem Preispunkt setzen.

7900XTX hätte ich bis vor Kurzem noch gesagt, dass die bleibt. Wenn die OC Modelle der 9070XT aber schnell genug werden, dann denke ich wird auch diese Karte eingestellt. Die 9070XT hat (fast?) identische Performance und einen (mehr?) als 200€ niedrigeren Preispunkt.

fondness
2025-01-12, 12:10:39
Warum sollte AMD diese dann um knapp über 600 verschleudern. Und nochmal, was macht man dann mit 79xt/xtx? Einstellen? Um <600eur verschleudern? Macht keinen Sinn

Was hast du immer mit deiner 79xt/xtx? Klar wird die eingestellt, alles andere wäre absurd.

Ist auch üblich so bei einer neuen Generation. Warum sollten man den alte ineffiziente und wesentlich teurer herzustellenden N31 weiterlaufen lassen? Die 9070XT ist selbst bei den jetzt womöglich noch mit Beta-Treibern erstellten Benchs bis auf 5% in Raster dran und bei RT sicher vorne.

/Edit: Noch ein paar Karten:
https://videocardz.com/newz/xfx-sapphire-and-acer-radeon-rx-9070-cards-displayed-at-ces-2025

fondness
2025-01-12, 12:24:22
Richtig das ist nicht nur unfair, sondern technisch gesehen auch quatsch, weil die PT Modi auf NV Hardware zugeschnitten sind und alles ausnutzen was an Hardwarefeatures da ist. Sonst wäre das auch nicht in Echtzeit lauffähig. Das ist halt Nvidias Experimentierbaukasten. Weder kann noch soll das auf AMD hardware gut laufen.
Gerade das macht die geleakten Werte ja so unglaubwürdig.

Ach bitte, man muss jetzt nicht so tun als wäre bei RT von Nvidia gigantische Performance-Sprünge gekommen in letzter Zeit. Das war bereits mit der Einführung vor vielen Jahren sehr schnell und danach kamen noch kleinere Optimierungen.

Zwei Benchmark Leaks

Black Myth: Wukong

4080S
4K 33
2K 77
1080 99

XXXX XT(9070XT)
4K 30
2K 73
1080 97

2077 RT Overdrive, Native Res

4080S
4k 32
2k 65
1080p 101

4070 Ti S
4k 26
2k 53
1080p 87

XXXX xt
4k 26
2k 52
1080p 85


Quelle:https://x.com/9550pro/status/1878321019586589027 bzw Chiphell

Wukong soll auch mit RT on sein. Also RT-Leistung scheint zumindest deutlich gestiegen zu sein.

https://wccftech.com/amd-radeon-rx-9070-xt-benchmarks-leak-native-rt-on-par-rtx-4070-ti-4080-super-rumor/

raffa
2025-01-12, 12:47:37
Wird das Zeit, dass ein gewisses 3dc Forenmitglied so eine Karte in die Finger bekommt und gscheit benchen darf^^

Troyan
2025-01-12, 12:48:34
Ach bitte, man muss jetzt nicht so tun als wäre bei RT von Nvidia gigantische Performance-Sprünge gekommen in letzter Zeit. Das war bereits mit der Einführung vor vielen Jahren sehr schnell und danach kamen noch kleinere Optimierungen.



Wukong soll auch mit RT on sein. Also RT-Leistung scheint zumindest deutlich gestiegen zu sein.

https://wccftech.com/amd-radeon-rx-9070-xt-benchmarks-leak-native-rt-on-par-rtx-4070-ti-4080-super-rumor/

Wukong hat kein Hardware-RT für Lumen. Und Full Raytracing ist das bestimmt nicht.

Wiseman
2025-01-12, 12:57:04
du hast belegung mit benötigt verwechselt. mach dir nichts draus, kann jedem mal passieren.

Ich mach mir auch nichts draus. Ob benötigt oder gebraucht ist mir piep-egal. Hauptsache die Games laufen bei mir butterweich in 4k + max Preset.

Abgesehen davon war meine Post nicht für dich gedacht, sondern für andere XTX-User, die eventuell so wie ich am Grübeln sind, ob sie ihre 24GB-Karte durch eine 16GB-Karte ersetzen.

horn 12
2025-01-12, 13:01:08
Bin selbst am Grübeln meine MBA 7900 XTX durch eine Austauschkarte von AMD zu ersetzen!
Jene ist ausser Garantie und vielleicht bekomme ich eine Gutschrift seitens AMD

Sumpfmolch
2025-01-12, 13:02:13
Ich mach mir auch nichts draus. Ob benötigt oder gebraucht ist mir piep-egal. Hauptsache die Games laufen bei mir butterweich in 4k + max Preset.

Abgesehen davon war meine Post nicht für dich gedacht, sondern für andere XTX-User, die eventuell so wie ich am Grübeln sind, ob sie ihre 24GB-Karte durch eine 16GB-Karte ersetzen.

Mir fallen da aktuell überhaupt keine rationalen Gründe ein, warum man von der RTX4000er oder RX7900 Generation ausgehend einen Neukauf tätigen sollte über "Hobby" und "Langeweile" hinaus.(*)

(*)In die gleiche Preisklasse. Aber merklich darüber liegt ausschließlich die RTX5090.

@horn12
Wenn es jetzt noch Jahre so weiter geht, dass die neuen Karten nur wenig Mehrleistung bieten würde es mich nicht wundern, wenn es vermehrt wie bei Smartphones Trade-In Angebote gibt, um die Verkäufe anzukurbeln.

BlacKi
2025-01-12, 13:22:57
würde es mich nicht wundern, wenn es vermehrt wie bei Smartphones Trade-In Angebote gibt, um die Verkäufe anzukurbeln.
gabs früher schon mal bei evga. das step up program.

dargo
2025-01-12, 13:24:00
Warum sollte AMD diese dann um knapp über 600 verschleudern.
Was ist an 600€ verschleudern? :freak: Nur weil NV sich ihre Hardware vergolden lässt? Fortschritt bedeutet auch spürbar mehr Leistung zum gleichen Preis oder gleiche Leistung für spürbar weniger Geld. Jede Gen mehr Leistung für mehr Geld ist für Gamer eine Sackgasse.

MSABK
2025-01-12, 13:30:41
Wenn die niedrigen Preise für die AMD Karten stimmen, dann hat sich NVIDIA bei seinen Karten um eine Stufe vertan: 5080 -> 5070TI | 5070TI -> 5070 | 5070 -> 5060

Aus Nvidia-Sicht passt ihr Angebob und die Margen werden ihnen recht geben. Die Karten werden so oder so verkauft.

Spannend wird der Bereich 400-700€. Hoer kann jetzt Amd punkten indem sie solide Karten anbieten mit guter Speicherausstattung. Nvidia wird so oder so ihr Ding machen und unangefochten bleiben und wie verrückt verkaufen.

dargo
2025-01-12, 13:32:43
/Edit: Noch ein paar Karten:
https://videocardz.com/newz/xfx-sapphire-and-acer-radeon-rx-9070-cards-displayed-at-ces-2025
Boah... der "Auslass" ist ja riesig bei der Sapphire Pure. :eek:
https://cdn.videocardz.com/1/2025/01/SAPPHIRE-9070-PURE-1.jpg

Bin schon richtig gespannt wer Gold beim Kühler abbekommt. =) Bisher schwanke ich zwischen Sapphire Pure und Powercolor Hellhound. Aber erstmal Tests abwarten.

why_me
2025-01-12, 13:34:57
die GPU sitzt auch sehr nah am PCIe slot, oder täuscht das?

Hakim
2025-01-12, 13:36:08
Sieht irgendwie nach Ada/Ampere FE Kühlkonzept mit kurzen PCB aus. Gabs sowas schon bei RDNA3 Karten?

dargo
2025-01-12, 13:41:18
die GPU sitzt auch sehr nah am PCIe slot, oder täuscht das?
Vermutlich nur optische Täuschung weil der Chip vs. N31 um 90° gedreht ist.

https://www.igorslab.de/wp-content/uploads/2023/04/Back-5.jpg

horn 12
2025-01-12, 13:52:30
3 Slot Design zwecks der enormen Größe
und 3x 8 Pin zwecks Verbrauch reizen mich gar nicht

Wird wohl wieder AMD Referenz werden und dann UV und optimiert,
wenn ich mich durchringen sollte zu wechseln!
Dies ist noch ganz unsicher.

why_me
2025-01-12, 13:52:52
Wenn man beide übereinander legt, ist das schon sehr viel näher am Slot.

Sumpfmolch
2025-01-12, 14:02:46
Boah... der "Auslass" ist ja riesig bei der Sapphire Pure. :eek:
https://cdn.videocardz.com/1/2025/01/SAPPHIRE-9070-PURE-1.jpg

Bin schon richtig gespannt wer Gold beim Kühler abbekommt. =) Bisher schwanke ich zwischen Sapphire Pure und Powercolor Hellhound. Aber erstmal Tests abwarten.

Ich frage mich, warum der Durchlass wirklich 0 zum Lüfter passen muss.

Oder ist nur eckig schön anstatt hinten einen runden Durchlass in Lüftergröße zu designen?

Der_Korken
2025-01-12, 14:04:33
Ich finde kleine PCBs und große Öffnungen auf der Rückseite aus Kühlperspektive sehr gut. Das erleichtert den Airflow im Gehäuse ungemein, vor allem wenn man den Intake unten hat. Deswegen bin ich besonders auf die 5080FE gespannt und wie sich gegen die Custom-Backsteine schlägt.

dargo
2025-01-12, 14:16:16
Ich frage mich, warum der Durchlass wirklich 0 zum Lüfter passen muss.

Oder ist nur eckig schön anstatt hinten einen runden Durchlass in Lüftergröße zu designen?
Optimal wäre natürlich ein Durchlass auf der gleichen Achse vom Lüfter und rund. Aber ob das so ein Problem bei den flachen Lüftern ist glaube ich eher weniger. Erst recht bei so max. ca. 1.200RPM.

Hatstick
2025-01-12, 14:16:17
Bei den Benches kommt ja die 9070XT Karte eventl. sogar als Up/Sidegrade zu meiner 6800XT in Frage, wenn man sich den Rest noch etwas schön säuft.
Durchaus interessant. UVP 650€, dann wird sie auch zügig unter 600€ gehen und dann könnte sie durchaus interessant werden.
Bin ich auf jeden Fall gespannt drauf!

Einzig die 330w im Futuremark irritieren dann doch etwas aber schauen wir mal, wie sie sich letzlich in der Praxis schlägt.

dildo4u
2025-01-12, 14:24:00
Die 330 werden ein OC Modell sein die Standard Karten haben nur 2x8 Pin.
Also auf Level mit ein 7800xt.

Ravenhearth
2025-01-12, 14:36:26
Die 330 werden ein OC Modell sein die Standard Karten haben nur 2x8 Pin.
Also auf Level mit ein 7800xt.
Die Referenz 7900 XTX hatte auch 2x8 Pin...

dargo
2025-01-12, 14:46:16
Die Referenz 7900 XTX hatte auch 2x8 Pin...
Nicht nur die... Powercolor Hellhound, Sapphire Pulse und Gigabyte Gaming OC auch.

Hakim
2025-01-12, 14:47:58
Geht ja auch solange man nicht das Limit des PCIe Slots ausreizt. 2x 8 Pin wären normal kein Problem für 330W. Solange es nicht wie bei der Referenz rx480 kalkuliert wird ist alles in Ordnung :)

Exxtreme
2025-01-12, 14:50:26
Mit 2x 8-Pin-Anschlüssen gehen bis zu 375 W, ohne dass man die Spezifikation reisst. Auch wenn die 8-Pin-Anschlüsse in der Praxis viel mehr vertragen und Netzteile das auch liefern können.

why_me
2025-01-12, 14:53:35
366 auf den 12V der rest sind afaik 3,3 und 5V

horn 12
2025-01-12, 15:41:07
Erstaunlich dass das AMD Referenz Modell nirgends noch geleakt wurde
und wird wohl spätestens Mittwoch passieren.
Oder ist mir das Bild, die Bilder entwischt?

w0mbat
2025-01-12, 15:42:02
Ich will noch nicht so wirklich auf den hype train aufspringen, aber langsam wird es echt spannend. Witzig, dass es bei mir wohl entweder eine 9070 XT oder eine 5090 wird :D

Wenn RDNA4 gut wird und es ordentliche Karten für ≈600€ gibt, werde ich AMD wohl treu bleiben. Wenn nicht, dann kommt ein 2500€ 575W Monster in den Rechner.

Hakim
2025-01-12, 15:49:59
Glaub wenn ich die 9070 kaufe dann vermutlich eine schlichte Version wie z.B die TUF von Asus glaube ich die mir gefiel. Die Referenz Modelle hatten mir nicht so zugesagt, bei NV hingegen gefallen mir gerade die FE Optisch sehr. Letzten Endes sehe ich die Dinger nach dem Einbau nicht mehr, dennoch spielt es bei der Kaufentscheidung eine Rolle :)

Ravenhearth
2025-01-12, 15:51:08
Ich hätte gerne eine Karte, die diese Kriterien erfüllt:

1. min. 50% schneller als die 6800, mehr in RT
2. 16GB VRAM
3. ~250W
4. ~600€

Da es von Nvidia weder in der alten noch in der neuen Generation eine passende Karte gibt (die 12GB der 5070 sind eine Frechheit), wird es bei mir wohl eine 9070 werden.

Hübie
2025-01-12, 15:51:22
Wenn man beide übereinander legt, ist das schon sehr viel näher am Slot.

PCIE 5.0 confirmed? :freak:
Die 9070XT müsste schon über 4080S Niveau sein, um für mich persönlich in Frage zu kommen und dass bezweifle ich aber ganz gewaltig. Eigentlich Schade, weil ich mit der 6800XT wirklich sehr, sehr glücklich war bzw. noch bin. Die Treiber sind m. M. n. auf dem Niveau von nVidia. Nur die Bedienung ist nicht ganz so super, nachdem nVidia mit der App deutlich vorbeigezogen ist.

aufkrawall
2025-01-12, 15:51:49
Wenn die Hellhound wieder so gut und günstig ist wie bei RDNA3, wäre TUF vermutlich Geldverschwendung.
Dünne Karten können bei ausreichender Länge auch sehr gut kühlen.

Prinzenrolle
2025-01-12, 15:53:35
Wenn man beide übereinander legt, ist das schon sehr viel näher am Slot.

Das PCB ist eben viel weniger hoch als der eigentliche Kühler. Ein Spar-Design.

w0mbat
2025-01-12, 15:57:13
Bei Nvidia ist es ein cooles Kompakt-Design, bei AMD ein Spar-Design ;)

why_me
2025-01-12, 16:05:43
Das PCB ist eben viel weniger hoch als der eigentliche Kühler. Ein Spar-Design.

Das PCB der N48 Sapphire ist etwas kürzer aber beide sind ca. gleich breit. Der Kühler der N48 Sapphire ist einfach deutlich breiter

horn 12
2025-01-12, 16:44:08
Habe nun meine 7900XTX MBA 24 GB für 569 Euro bei Ital. Kleinanzeigen, separates Forum reingestellt.
Schauen ob jene weggeht oder doch keinen Käufer findet.

Schnitzl
2025-01-12, 17:34:42
Ach bitte, man muss jetzt nicht so tun als wäre bei RT von Nvidia gigantische Performance-Sprünge gekommen in letzter Zeit. Das war bereits mit der Einführung vor vielen Jahren sehr schnell und danach kamen noch kleinere Optimierungen.



Wukong soll auch mit RT on sein. Also RT-Leistung scheint zumindest deutlich gestiegen zu sein.

https://wccftech.com/amd-radeon-rx-9070-xt-benchmarks-leak-native-rt-on-par-rtx-4070-ti-4080-super-rumor/
leider doch nicht:
Update: the Black Myth benchmark results are without RT. So, we made the necessary edits.

The_Invisible
2025-01-12, 17:39:14
Hört sich wieder nach AMD hypetrain an, aber die Hoffnung stirbt zuletzt :freak:
Bin ich froh wenn das vorbei ist (auch NV seitig), lass endlich 1. Feber sein...

GerryB
2025-01-12, 17:40:49
Wukong without RT means Software Lumen is used?
Man muss nicht immer eine Extrawurst mit NV-RTXGI-Plugin betreiben.

Ob Wukong mal noch nen Patch für HardwareLumen bekommt wäre die richtige Frage.
Würde sich anbieten wenns die PS5pro auch gut umsetzen kann.

horn 12
2025-01-12, 18:04:12
Life Stream ?
in 10 Minuten

https://www.youtube.com/watch?v=fKbN25ey3uo

Gestartet!

Der_Korken
2025-01-12, 18:07:33
Life Stream ?
in 10 Minuten

https://www.youtube.com/watch?v=fKbN25ey3uo

Sieht so aus.

Von irgendeinem Internet-Random, der ein paar Klicks baiten will.

dargo
2025-01-12, 18:08:07
Life Stream am Sonntag, ja ne ist klar. ;D

Ravenhearth
2025-01-12, 19:14:49
1️⃣5️⃣🎮 🖼️&🔮

9️⃣0️⃣7️⃣0️⃣ XT 🙆🏾🕑 ≥ 4️⃣0️⃣7️⃣0️⃣ 👔 🏪 < 4️⃣0️⃣8️⃣0️⃣

9️⃣0️⃣7️⃣0️⃣ 🙆🏾🕑 ≥ 4️⃣0️⃣7️⃣0️⃣ 🏪 < 4️⃣0️⃣7️⃣0️⃣ 👔 🏪

9️⃣0️⃣7️⃣0️⃣ XT 🙆🏾🕑 3️⃣✖️✖️✖️ 3️⃣✖️✖️

9️⃣0️⃣7️⃣0️⃣ 🙆🏾🕑 2️⃣✖️✖️✖️ 2️⃣✖️✖️

💯⏩💨
https://x.com/All_The_Watts/status/1878490567014777077

horn 12
2025-01-12, 19:23:33
15-ten Vorstellung

9070 XT 300 Watt min
9070 - unter 300 Watt da eine 2 steht

madzapp
2025-01-12, 19:29:10
Sind das nicht shader clock 3300 und 2200?

dargo
2025-01-12, 19:30:49
https://x.com/All_The_Watts/status/1878490567014777077
Diese Ratespielchen. :rolleyes:

RX 9070XT = 3xxxMhz Boosttakt, max. 3xxW (hoffe AMD hat hier "nur" auf 300W die Referenz rauf geschoben)
RX 9070 = 2xxxMhz Boosttakt, max. 265W (sofern die 300W der XT stimmen)

why_me
2025-01-12, 19:31:19
standen nicht 260 und 330 im Raum?
Dann die eine 3.xGHz die andere nur 2.X GHz?

Und die letzte Zeile? 100% aus der Luft gegriffen?

Hakim
2025-01-12, 19:47:47
Was soll das sein? Da Vinci Code für Arme :), selbst wenn die werte stimmen, die paar Tage werden wir noch warten können.

Wenn das mit dem Werten stimmen sollte,

Ich persönlich gehe von dem Bereich ~7900xt/4070Ti S bei Raster und ~4070Ti S bei RT aus, also in etwa die Leistung einer 4070Ti Super, wenn die das dann so für um die 600€ verkaufen würden wäre es ein heißer Kandidat für meine nächste Grafikkarte. Hängt halt immer davon ab was NV an neuem Feature Präsentieren wird.

Schon Anfang Dezember sehr nah mit der Schätzung dran gewesen :)

fizzo
2025-01-12, 19:54:46
9070XT >= 4070TI Super < 4080
9070 >= 4070 Super < 4070 TI Super

Rest wie dargo geschieben hat. Noch eine Grafik aus dem Link bzw. den Antworten von dort:

The_Invisible
2025-01-12, 20:03:26
Bei was, Raster/RT/Mixed? :freak:

Der_Korken
2025-01-12, 20:04:05
https://x.com/All_The_Watts/status/1878490567014777077

Ah, Mister "240mm²" und "7900GRE <= N48XT < 7900XT" schlägt wieder zu. Diesmal sind seine Leaks aber richtig, ganz bestimmt.

fondness
2025-01-12, 20:16:12
Taktraten
https://videocardz.com/newz/powercolor-radeon-rx-9070-xt-red-devil-to-ship-with-3-0-ghz-boost-clock

According to our information, the Reaper series will not include dual-BI0S functionality. It will ship with boost clocks of 2970 MHz and 252O MHz for the Radeon RX 9070 XT and RX 9070 non-XT models, respectively. As far as we can tell, these are AMD reference clocks.

Der_Korken
2025-01-12, 20:21:14
Warum diese großen Unterschiede zwischen XT und nonXT? Durch Binning nicht zu erklären.

Ravenhearth
2025-01-12, 20:22:32
Warum diese großen Unterschiede zwischen XT und nonXT? Durch Binning nicht zu erklären.
Produktdifferenzierung?

Auf diesen Taktraten hätte die 9070 XT 48.660 GFLOPs und die 9070 hätte (angenommen 56 CUs) 36.127 GFLOPs, ca. ein Viertel weniger. Real anliegende Taktraten dürften aber erfahrungsgemäß abweichen.

dargo
2025-01-12, 20:28:25
Ah, Mister "240mm²" und "7900GRE <= N48XT < 7900XT" schlägt wieder zu. Diesmal sind seine Leaks aber richtig, ganz bestimmt.
Lol... ist das der selbe Clown? ;D Ich kann diese ganzen Komiker @Leaker nicht mehr unterscheiden. :ulol:

Warum diese großen Unterschiede zwischen XT und nonXT? Durch Binning nicht zu erklären.
Für mich ergeben die mickrigen Taktratenunterschiede zwischen den einzelnen Biosen mit 1-2% auch keinen Sinn. Was soll dieser Quatsch denn bringen? :freak: Man kann OC auf die Verpackung schreiben? :crazy:

horn 12
2025-01-12, 20:31:46
60 bis 110 Mhz OC bei den großen Custom Karten
Nicht weltbewegend und da reicht mir sicher die AMD Referenz!

fizzo
2025-01-12, 20:32:21
Produktdifferenzierung?

Auf diesen Taktraten hätte die 9070 XT 48.660 GFLOPs und die 9070 hätte (angenommen 56 CUs) 36.127 GFLOPs, ca. ein Viertel weniger. Real anliegende Taktraten dürften aber erfahrungsgemäß abweichen.

Bei der selben Speicherbandbreite - 640GB/s.

TheGood
2025-01-12, 20:37:31
Es gibt doch keine finalen Treiber...

Finde das Rätselraten aber wirklich gut. Die letzte Woche hat endlich mal weider Spass gemacht.

Jetzt muss man nur noch hoffen, dass AMD diesesmal abliefert, wie mit RDNA2

Hakim
2025-01-12, 20:53:28
Was mir gerade auffällt, wenn das mit den 330W stimmen, und die Karte knapp unter der 4080S sein soll, Chipgröße soll ja auch in etwa gleich sein, bedeutet es doch das es Ticken schlechter bezüglich P/W sein müßte oder? Nicht weltbewegend aber die 4080S hat ja 320W. Aber ja Max W ist was anders wie Realer verbrauch in Spielen.

Der_Korken
2025-01-12, 20:56:29
Was mir gerade auffällt, wenn das mit den 330W stimmen, und die Karte knapp unter der 4080S sein soll, Chipgröße soll ja auch in etwa gleich sein, bedeutet es doch das es Ticken schlechter bezüglich P/W sein müßte oder? Nicht weltbewegend aber die 4080S hat ja 320W. Aber ja Max W ist was anders wie Realer verbrauch in Spielen.

Nicht nur dass: Man muss fast noch aufpassen, bei Raster Perf/W den eigenen Vorgänger (7900XTX) nicht zu unterbieten :rolleyes:

robbitop
2025-01-12, 20:56:47
Betriebspunkt. Ggf ist 330W für die 3 GHz schon etwas geprügelt.

raffa
2025-01-12, 21:00:47
Wenn die Taktraten so stimmen, könnte die non XT richtig effizient werden.

Der 15. ist doch bisher auch nur Speku, oder wurde was angekündigt von AMD?

fondness
2025-01-12, 21:07:05
Betriebspunkt. Ggf ist 330W für die 3 GHz schon etwas geprügelt.

Denke auch, das Ding läuft sicher nicht mehr im sweet spot. Noch dazu versucht man wohl mit Takt mangelnde Bandbreite auszugleichen. Man darf nicht vergessen der vermeidliche NV Konkurrent 5070Ti hat satte 40% mehr Bandbreite. Ein refresh mit GDDR7 macht da auf jeden Fall viel Sinn.

horn 12
2025-01-12, 22:09:03
Ist halt ein Mittwoch, der 15-te
Zudem rechne schon damit!

Der_Korken
2025-01-12, 22:23:21
Für mich ergeben die mickrigen Taktratenunterschiede zwischen den einzelnen Biosen mit 1-2% auch keinen Sinn. Was soll dieser Quatsch denn bringen? :freak: Man kann OC auf die Verpackung schreiben? :crazy:

Die geringen Unterschiede bei den BIOSen deutet für mich erstmal darauf hin, dass die Karten komplett getreten werden und deswegen fast nichts bei höheren PPTs und stärkeren Kühlern rumkommt. Umso komischer ist aber dann, dass die nonXT so abfällt. Wenn die XT bei 300-330W liegt, müsste die nonXT gefühlt bei 200W liegen, da neben den 15% Takt auch locker 15% Spannung weggenommen werden könnten. Nicht dass ich das schlecht finden würde, aber es wäre komisch die Modelle so gegensätzlich zu konfigurieren.

Betriebspunkt. Ggf ist 330W für die 3 GHz schon etwas geprügelt.

Darauf hoffe ich insgeheim, denn dann wäre da effizienztechnisch viel rauszuholen. Wobei ich es schon kommen sehe, dass AMD dann das PPT nach unten wieder komplett zunagelt, weil fick dich Kunde.

Hammer des Thor
2025-01-12, 22:29:29
PCIE 5.0 confirmed? :freak:
Die 9070XT müsste schon über 4080S Niveau sein, um für mich persönlich in Frage zu kommen und dass bezweifle ich aber ganz gewaltig. Eigentlich Schade, weil ich mit der 6800XT wirklich sehr, sehr glücklich war bzw. noch bin. Die Treiber sind m. M. n. auf dem Niveau von nVidia. Nur die Bedienung ist nicht ganz so super, nachdem nVidia mit der App deutlich vorbeigezogen ist.

Mir ist klar, dass in der Leistungsklasse PCIe 5.0 X16 OP ist, nur stehen oft keine 16 Lanes zur Verfügung, insbesondere Gigabyte nutzt gerne Graka-Lanes für m.2 Steckplätze. Dumm finde ist die Aurus Elite X870E Elite und Pro die nur 4 der 8 von AMD für m.2 resivierten CPU-Lanes nutzen, für m.2 b und m.2 c (Pcie 5.0) sind dann Graka-Lanes verschaltet.
Bei einer 5.0 Karte wäre mir das dann egal aber nicht bei einer 4.0 Karte!

CompuJoe
2025-01-12, 23:03:43
Das mit den lanesharing ist echt nervig, habe mir deswegen MSI X670E Board besorgt wo man alle 4 M.2 ohne sharing nutzen kann und trotzdem X16 5.0 an der GPU hat.

Altehardware
2025-01-13, 00:56:39
Nun die letzten leaks zurx9070xt dxr perf. einer rtx4070ti super können nicht stimmen
gerade das benchmarktool von wukong und cp2077 haben viele Regler die die dxr perf. heftig schwanken lässt insbesondere im cpu limit.
In wukong reicht es wenn nur lumen genutzt wird, ist dxr aber in software
In cp2077 reicht es aus auf dxr ultra zu stellen statt auf pt dann aber ist man zwangsweise im cpu limit

Da sind die 3dmark leaks deutlich realistischer insbesondere bei port royal
Womit die knapp 31tf bis 32tf eine rx7900xt in raster und etwa 30tf also rtx4070ti bei dxr ist
Somit ist die rx9070xt bei 285w tgp ordentlich ich gehe davon aus das die sku bis 3,3ghz oc lassen sofern die tbp von 360w stimmen
rein technisch wäre das das maxed vom n4 node von n6 aus 2,6ghz bei gleicher Effizienz
Da aber amd immer Takt bis angibt rechne ich mit den geleakten 3dmark score von knapp einer rtx4070ti das dürfte bei etwa 3,0ghz erreicht worden sein

GerryB
2025-01-13, 01:33:15
285+360 Watt sind ja mal ganz neue Vorschläge, ... die bisherigen 330W-Customs waren doch schon üppig?
may be Ersteres für ne MBA oder Reaper

Kommen überhaupt MBA oder decken das Reaper&Co. schon ab?
Wäre dann der konsequente Sparkurs von AMD, das man sich in dieser Gen die MBA`s spart.
(und evtl. der Reaper das Referenz-PCB gibt, was dann auch andere Entry-Modelle nutzen)

Hammer des Thor
2025-01-13, 02:03:35
Das mit den lanesharing ist echt nervig, habe mir deswegen MSI X670E Board besorgt wo man alle 4 M.2 ohne sharing nutzen kann und trotzdem X16 5.0 an der GPU hat.

Na ja, dafür haben die neuen USB 4 an an 4 Lanes wodurch noch 3 ohne linesharing möglich sind bei einen weiterem Pcie 4 X4 slot. Auch sind CPU-lanes besser da Chipsataz lanes alle über den Flaschenhals von 4 Pcie 4.0 lanes gehen was Konflikte mit anderen Modulen wie Lan USB etc. bringt. Wie gesagt, wenn sogar ne 4090 nur 3% langsamer wird wenn man nur 8 PCIe 4.0 lanes nutzt statt 16 sollte das bei 5.0 quasi egal sein ausser man nutzt Video-Programme die mehr von der hohen BB profitieren.

dargo
2025-01-13, 04:31:59
Die geringen Unterschiede bei den BIOSen deutet für mich erstmal darauf hin, dass die Karten komplett getreten werden und deswegen fast nichts bei höheren PPTs und stärkeren Kühlern rumkommt. Umso komischer ist aber dann, dass die nonXT so abfällt. Wenn die XT bei 300-330W liegt, müsste die nonXT gefühlt bei 200W liegen, da neben den 15% Takt auch locker 15% Spannung weggenommen werden könnten. Nicht dass ich das schlecht finden würde, aber es wäre komisch die Modelle so gegensätzlich zu konfigurieren.

Hmm... je mehr ich darüber nachdenke desto wahrscheinlicher wird folgendes Szenario kommen da offenbar nur die XT von AMD getreten wurde.

RX 9070XT = 330W (Taktkeule) mit 2970Mhz Boost
RX 9070 = 265W (eventuell bissel weniger sofern die XT relativ weit oben in der V/F Kurve operiert) mit 2520Mhz Boost

Ich fand die niedrigen Taktraten im Verhältnis zur XT anfangs etwas komisch da der User selbst diese dann einfach anheben kann wie schon bei der RX 6800 non XT. Das funktioniert aber nur mit MPT-Support oder Biosupdates. Beides ist noch völlig offen ob sowas für RDNA4 kommt. Mit den beiden Slidern im Treiber kann der User dann nur den Spielraum in der Silikonlotterie bei den Frequenzen rausholen denn der max. Boosttakt im Treiber wird dann sicherlich deutlich kleiner von AMD für die non XT gewählt. Bei der XT würde ich von max. 3200-3300Mhz ausgehen, bei der non XT von max. 2700-2800Mhz. Alles natürlich auf Referenz bezogen.

Hübie
2025-01-13, 06:29:45
🙆🏾🕑 Bedeutet übrigens OC. Also handelt es sich hier ausschließlich um Custom AIB Vendor Modelle.

dargo
2025-01-13, 06:42:56
Ich verstehe diese "Sprache" einfach nicht. :tongue: Ok... dann besteht noch etwas Hoffnung, dass die Referenz XT bei 300W liegt. :)

Hübie
2025-01-13, 07:03:06
Da gehe ich ganz stark von aus. Bisher waren die Ref-Designs seit RDNA2 ja immer recht gut und optimal eingestellt. Bei mir kommt eh eine Wakü drauf, aber ich weiß noch nicht ob mir 40-60% mehr Leistung reichen werden. Ich habe ja seit ein paar Monaten 5120 x 1440 Pixel auf 49" zu schubsen und meine 6800 XT packt nur die 3440 x 1440 Pixel.

GerryB
2025-01-13, 07:43:05
Mit den beiden Slidern im Treiber kann der User dann nur den Spielraum in der Silikonlotterie bei den Frequenzen rausholen denn der max. Boosttakt im Treiber wird dann sicherlich deutlich kleiner von AMD für die non XT gewählt. Bei der XT würde ich von max. 3200-3300Mhz ausgehen, bei der non XT von max. 2700-2800Mhz. Alles natürlich auf Referenz bezogen.
userfriendly wäre Andersrum begrenzt
nonXT evtl. mit 25...50mV weniger als Voltobergrenze gecappt in der V/F-Kurve ala 6800xt zu 6900 zu 6950
aber maxTakt bis 2970MHz im Treiber offen, wäre nicer, falls man Glück in der Chiplotterie hat
(dann spielts auch keine Rolle, ob man MPT zum Laufen bekommt, weil etwas UVen+OCen reicht)

remember RX 7700xt - OCing

dargo
2025-01-13, 07:50:19
non XT evtl. mit 25...50mV weniger als Voltobergrenze in der V/F-Kurve ala 6800xt zu 6900 zu 6950
aber maxTakt bis 2970MHz im Treiber offen, wäre nicer, falls man Glück in der Chiplotterie hat

Das wäre dumm von AMD. ;) Ich würde bei den angeblichen Taktraten für die non XT 75-100mV max. runter gehen. Dann spielt der max. Boost im Treiber auch keine Rolle mehr weil die GPU eh früher aussteigt.


(dann spielts auch keine Rolle, ob man MPT zum Laufen bekommt, weil etwas UVen+OCen reicht)
MPT spielt immer eine Rolle. Im Treiber hast du keinen Zugriff aus SoC Voltages und mit MPT lässt sich auch die min. Idle Drehzahl anpassen was im Treiber nicht geht. Zudem hast du mit MPT auch einen garantierten Voltagecut. Der Treiber macht da auch öfters Murks, eine Fehlerquelle weniger.

GerryB
2025-01-13, 07:52:33
Es bleibt derselbe SOC = problem wie bei RDNA3.
Ist da überhaupt Spielraum für weniger Volt.(frag mal die EVC2-Spezies im Luxx)
Da habe ich bezgl. RDNA3 von keinen großen Tweaks gehört, weil es sich kaum lohnt.
(wurde meines Wissens nur mal kurz probiert wo der Wert im EVC2 versteckt ist)

btw.
Das bei 2520MHz mindestens 100...150mV weniger effektiv anliegen als bei 3060MHz ist soundso klar.
Das kann schon die einfachste V/F-Kurve.

dargo
2025-01-13, 07:54:54
Es bleibt derselbe SOC = problem wie bei RDNA3.

Wo steht das?

btw.
Das bei 2520MHz mindestens 100mV weniger anliegen als 3060MHz ist soundso klar.
Das kann schon die einfachste V/F-Kurve.
Darum gehts doch überhaupt nicht. Es geht darum dem User einen Riegel vorzuschieben damit der nicht zu viel Mehrleistung aus seiner non XT rauskitzeln kann, sonst wird die XT zu unattraktiv. ;) Wobei... es gibt Möglichkeiten dem entgegen zu wirken... die non XT einfach nur 50$ günstiger als XT anzubieten. Upselling halt. :D

GerryB
2025-01-13, 08:07:57
Wo steht das?

wäre logisch, wenn derselbe Vram wie bei der 7800xt verbaut wird, das der SOC nicht verändert werden muss
ob der IF-Cache höher getaktet wird und deshalb am SOC etwas mehr Volt gebraucht werden, who knows

Irgendwo muss AMD ja Bandbreite gewinnen, ... fclk bietet sich an.
ala 6900-LC --> 6950, man erhöhte von 1940MHz auf 2050MHz

dargo
2025-01-13, 08:10:34
Der SoC muss verändert werden da monolitische GPU, back to RDNA2 Wurzeln. ;)

OgrEGT
2025-01-13, 08:14:04
Das PPT nach oben zu begrenzen finde ich eigentlich voll OK damit die unerfahrenen User ihre Karten nicht grillen und dann die RMA Abteilungen belasten... nach unten sollte das PPT offen sein... da kann man nix kaputt machen :ugly:

GerryB
2025-01-13, 08:18:00
Der SoC muss verändert werden da monolitische GPU, back to RDNA2 Wurzeln.

aber nicht die Verbindung SOC zu Vram, da ändert sich NIX
(natürlich wäre PAM3 ala GDDR6X nicer, glaub ich aber nicht)

w0mbat
2025-01-13, 08:20:41
Ich fände 24Gbps G6 gut. Ist als top end G6 Produkt aber wohl zu teuer.

GerryB
2025-01-13, 08:26:19
... nach unten sollte das PPT offen sein
braucht man nicht, weil denselben Effekt ein Absenken des Taktes und UVen im Treiberpaneel hat

ab 2200MHz(?) liegt eeh nur minV an, ... als Profil für heavy Games speichern

in light Games würde ich dagegen mit Fps-Limit arbeiten, um den Verbrauch zu cappen

dargo
2025-01-13, 08:28:59
braucht man nicht, weil denselben Effekt ein Absenken des Taktes und UVen im Treiberpaneel hat

Ich will aber nicht weniger Performance sondern weniger Verbrauch. :P

Das PPT nach oben zu begrenzen finde ich eigentlich voll OK damit die unerfahrenen User ihre Karten nicht grillen und dann die RMA Abteilungen belasten... nach unten sollte das PPT offen sein... da kann man nix kaputt machen :ugly:
Davon sprach ich schon bei N31, aber AMD macht halt AMD Sachen. Und lustigerweise hat AMD bei N31 prozentual mehr zusätzliche Power erlaubt als weniger. :crazy:

OgrEGT
2025-01-13, 08:33:05
braucht man nicht, weil denselben Effekt ein Absenken des Taktes und UVen im Treiberpaneel hat

Klat gibt es mehreren Möglichkeiten... man kann auch die fps begrenzen... je nach Gusto wärs ja nicht verkehrt wenn man auch das PPT nach unten frei begrenzen kann... bspw wenn ich durch das Gehäuse oder Netzteil begrenzt maximale Leistung haben möchte ohne ein bestimmtes Power Budget zu überschreiten...
Auch mehrere Limits in Kombination können sinnvoll sein...

GerryB
2025-01-13, 08:34:55
das Manche nicht mit N31 warm geworden sind, ist vllt. eher ein subjektives Problem(x)
Andere im Treiberthread kennen solche Bewerbchen nicht.

(x) may be, es hängt etwas von der Resi ab, das ein großer Chip nicht unendlich nach Unten für kleine Resis
verstellt werden kann weil minV zu schnell erreicht wird
In 4k hat sich der Chip von Wiseman so verhalten, wie man es erwartet.
(läuft@312W optimized besser als ne Ref@355W)

dargo
2025-01-13, 08:36:49
Es gibt halt unterschiedliche Ansprüche. :rolleyes: Ich hatte dir schon mehrfach gesagt was an RDNA3 kaputt ist. Und sowas stört mich.

OgrEGT
2025-01-13, 08:37:11
Ich bin mit meiner 7900xt sehr zufrieden... die Karte passt Perf/W sehr gut zu meiner 3440x1440@100Hz Auflösung :up:
Karte ist ne Sapphire Nitro und läuft mit -50mV auf 300W sowie 97fps begrenzt super leise und geschmeidig :)

RDNA4 werde ich sehr wahrscheinlich auslassen... Aufrüsten macht für mich erst mit höherer Auflösung/Bildwiederholfrequenz (5K2K/>100Hz) in ähnlichem Powerbudget Sinn...

robbitop
2025-01-13, 11:36:06
Ich fände 24Gbps G6 gut. Ist als top end G6 Produkt aber wohl zu teuer.
Und wahrscheinlich vaporware. ^^

Ich bin mit meiner 7900xt sehr zufrieden... die Karte passt Perf/W sehr gut zu meiner 3440x1440@100Hz Auflösung :up:
Karte ist ne Sapphire Nitro und läuft mit -50mV auf 300W sowie 97fps begrenzt super leise und geschmeidig :)

RDNA4 werde ich sehr wahrscheinlich auslassen... Aufrüsten macht für mich erst mit höherer Auflösung/Bildwiederholfrequenz (5K2K/>100Hz) in ähnlichem Powerbudget Sinn...
Nicht verwunderlich, wenn man das last gen top Modell bereits hat und es nur ein midrange next gen Modell gibt. Die 7900XTX ist keine schlechte Karte solange es nicht um heavy RT und besonders gutes Upsampling (sofern FSR4 nicht nachgeliefert wird und auch gut performt) geht. Mit custom Wakü und custom bios kann man die auch auf ~3,2-3,4 Ghz kloppen. ^^

mczak
2025-01-13, 11:46:54
Ich fände 24Gbps G6 gut. Ist als top end G6 Produkt aber wohl zu teuer.
Irgendwie glaube ich mittlerweile gar nicht mehr daran dass diese Chips je breit erhältlich sein werden. Die 24 gbps gddr6 Chips von Samsung sind laut Ankündigung schon seit über 3 Jahren "Sampling" und auf der Website mit den Modellnummern auch schon seit einer Ewigkeit. Die anderen gddr6-Chips dieser Reihe (also Modellnummer K4ZAF325BC-SCxx, im Samsung 1z Prozess gefertigt) haben schon seit 2 Jahren Mass Production Status (und werden auch seit über 1.5 Jahren in Consumer-Karten verbaut), aber bei den 24 gbps Chips tut sich einfach nichts.
Würde mich nicht wundern wenn diese Chips irgendwann von Sample gleich auf EOL gehen...
Kann theoretisch zwar sein dass da noch eine weitere Generation gddr6 Chips kommt (1z ist ziemlich alt, der letzte Node für Speicher bei Samsung ohne EUV, der neueste Node ist 1b, der wird z.B. für die gddr7 Chips genutzt, 1c wird für HBM4 genutzt werden), aber darauf wetten würde ich nicht.

w0mbat
2025-01-13, 12:14:23
Vielleicht sind sie einfach zu spät gekommen. Das top end Produkt kostet immer einen relativ großen Aufpreis. Sowohl bei HBM als auch bei GDDR.

Wenn die 22/23 wirklich verfügbar gewesen wären, hätten sie vielleicht einen Einsatz gesehen. Jetzt gibt es aber GDDR7 und wenn man sparen will, dann nimmt man halt den breit verfügbaren und relativ günstigen 20Gbps GDDR6.

Wäre halt nett gewesen für eine 9070 XT (falls die Bandbreite überhaupt benötigt wird).

Raff
2025-01-13, 12:17:26
8 gegen 16 GiByte VRAM im Test: Bei Radeon RX 9000 und 7000 unverzichtbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/8-GB-VRAM-2025-ausreichend-16-GB-VRAM-Radeon-1462969/)

Sind die 192 Bit von Navi 48 eigentlich mittlerweile von Insidern bestätigt worden?

MfG
Raff

dildo4u
2025-01-13, 12:21:04
Gigabyte hat doch schon 256bit gelistet.

https://videocardz.com/newz/retailer-in-philippines-lists-radeon-rx-9070-xt-with-4096-cores-2-97-ghz-boost-at-600

Ravenhearth
2025-01-13, 12:23:53
8 gegen 16 GiByte VRAM im Test: Bei Radeon RX 9000 und 7000 unverzichtbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/8-GB-VRAM-2025-ausreichend-16-GB-VRAM-Radeon-1462969/)

Sind die 192 Bit von Navi 48 eigentlich mittlerweile von Insidern bestätigt worden?

MfG
Raff
Du meinst Navi44? Nein, der letzte Gerüchtestand sind 128 Bit.

Raff
2025-01-13, 12:24:57
Argl, Hirnfurz bzw. zu viele Baustellen parallel - ich meinte natürlich Navi 44, welcher die 9060 (XT) antreiben soll. :)

MfG
Raff

fondness
2025-01-13, 12:25:28
RDNA4 delay

Waiting for NVIDIA to play their cards first

https://www.chiphell.com/thread-2665369-1-1.html


Aus dem Chinesischen übersetzt:

This drama is getting more and more exciting... Cards are obviously ready and have been distributed to all parts of the world. Just like what you have seen in the past few days, some Guojia and even e-commerce platforms have already launched prices. Waiting for the sales to start, but at this juncture, the agricultural enterprise suddenly issued an order:

'Everyone stop for me! Let Lao Huang play his cards first~'

This is very connotative. Guess it is the agricultural enterprise that discovered that Lao Huang had pooped that thing, or discovered that Lao Huang really pooped that thing. Anyway, no matter what was discovered or what was pooped, the product has no confidence. Nothing is certain just like this...
In short, this is very interesting. Please calm down, everyone. Manufacturers can keep calm like this and are not in a hurry to sell their goods. At this time, as consumers, we are still anxious to stick our heads out... ah, no... we are in a hurry. Money spent?

What a hurry! Hold on tight!

reaperrr
2025-01-13, 12:27:45
Irgendwie glaube ich mittlerweile gar nicht mehr daran dass diese Chips je breit erhältlich sein werden.
Werden sie auch nicht.

Selbst wenn Volumen und Takt/Yield-Rate nicht das Problem wären (wobei ich irgendwo mal gelesen habe, dass das mit den 24Gbps in der Industrie auch keiner so wirklich ernst genommen hat), Samsung würde hier logischerweise pro GB mehr verlangen als bei den 2GB-20Gbps Chips, sonst macht es betriebswirtschaftlich keinen Sinn, diesen 4GB-24Gbps-Speicher überhaupt zu produzieren.

Das disqualifiziert sie für sowas wie die 9070er, weil es die Speicherkosten mehr als verdoppeln würde, für fraglichen Performance-Gewinn.
Und NV ist direkt auf G7 gegangen, also wer würde den Speicher jetzt überhaupt noch kaufen? Richtig, keiner.

Das Verhältnis von Kapazität zu Schnelligkeit passte bei diesem Chip einfach nie zum Markt, selbst wenn er rechtzeitig und zu den beworbenen Specs produktionstauglich gewesen wäre.

E39Driver
2025-01-13, 12:33:42
Ich will eine weiße fette 3-Slot Karte haben mit viel RGB-Blinkzeug drauf und maximal 2x8-PIn Anschluss oder besser den neuen NV-Stromstecker

mczak
2025-01-13, 12:41:05
Werden sie auch nicht.

Selbst wenn Volumen und Takt/Yield-Rate nicht das Problem wären (wobei ich irgendwo mal gelesen habe, dass das mit den 24Gbps in der Industrie auch keiner so wirklich ernst genommen hat), Samsung würde hier logischerweise pro GB mehr verlangen als bei den 2GB-20Gbps Chips, sonst macht es betriebswirtschaftlich keinen Sinn, diesen 4GB-24Gbps-Speicher überhaupt zu produzieren.

Es ging da nicht um grössere Chips, nur schnellere. Die könnten ja schon noch erscheinen weil die eben nicht separat produziert werden müssen sondern einfach durch Binning realisiert werden können. Weil wie gesagt angekündigt wurden die gleichzeitig mit den anderen dieser Reihe.
Sieht für mich aber eher so aus dass man vielleicht damit gerechnet hat dass die 1z-Fertigung im Laufe der Zeit noch etwas besser wird so dass man genügend 24 gpbs Chips hat was aber nie geschehen ist. Wobei ich keine Ahnung habe ob da auch von Seiten des Speichercontrollers (und PCB-Routing etc.) 24 gbps (zu) anspruchsvoll sind - dass nvidia auf gddr6x gesetzt hat (erreicht ja auch "nur" 24 gbps) hatte ja wohl schon seine Gründe.

davidzo
2025-01-13, 12:57:18
Weil wie gesagt angekündigt wurden die gleichzeitig mit den anderen dieser Reihe.
Sieht für mich aber eher so aus dass man vielleicht damit gerechnet hat dass die 1z-Fertigung im Laufe der Zeit noch etwas besser wird so dass man genügend 24 gpbs Chips hat was aber nie geschehen ist. Wobei ich keine Ahnung habe ob da auch von Seiten des Speichercontrollers (und PCB-Routing etc.) 24 gbps (zu) anspruchsvoll sind - dass nvidia auf gddr6x gesetzt hat (erreicht ja auch "nur" 24 gbps) hatte ja wohl schon seine Gründe.
Ich habe die Ankündigung dieser Chips eher als eine Herausforderung an Micron gesehen, also um die enge Partnerschaft von Micron und Nvidia zu challengen. Die Samples sind eine Bewerbung um eine Großbestellung von nvidia gewesen. AMD spielt hier kaum eine Rolle da sie Stückzahlentechnisch kaum Gewicht haben im Markt für Grafikspeicher als dass man für eine einzelne AMD Highendkarte die Massenproduktion von DIEs dieser Geschwindigkeitsklasse auflegen würde.

Das hat nicht geklappt, Micron ist weiterhin der primäre Zulieferer für nvidia. Dementsprechend sind diese Chips auch nie in Serie gegangen.

Die Enge Partnerschaft Nvidias mit Micron geht schon sehr lang zurück. Spätestens seit dem GDDR5X bei Pascal, wo Micron treibende Kraft war, existiert diese Partnerschaft zwischen den beiden US-Firmen. Auch beim 14Gbit GDDR6 bei Turing war Micron Launchpartner und Samsung kam erst später dazu (siehe sterbender Micron Vram bei Turing der die erste Produktionscharge betraf). GDDR6X war wieder eine Micron Entwicklung speziell für nvidia.

Nvidia kann durch die Enge Zusammenarbeit früher auf neue Speichertechnologien zugreifen und erhält ein Alleinstellunngsmerkmal während Micron Investitionsabsicherung und Planbarkeit erhält. Samsungs Halbleiterbranche wird seit Jahren wesentlich konservativer gemanaged und man versucht eher Risiken zu vermeiden indem man als Follower bzw. weitgehend im Rahmen der Jedec agiert und keine kostspieligen Eigenentwicklungen startet.

Dass Samsung gleichzeitig zur Ankündigung von 24Gbit GDDR6X auch GDDR6 mit gleicher Geschwindigkeit ankündigte kann man als Störfeuer der Koreaner sehen, bzw. als Initiativbewerbung an nvidia. Es geht Samsung wohl auch darum für die Blackwell einen Teil der Lieferverträge zu sichern. Samsung
hängt bei GDDR7 diesmal kaum zurück und wer weiß, vielleicht war/ist bei GB205/206 eh noch nicht ganz sicher ob die Karten mit G7 kommen oder nicht doch mit G6.

ashantus
2025-01-13, 14:38:45
Leak zum Preis, 9070xt wohl bei 549,- Dollar. Bei uns also 650 bis 699,-€.

Zum Vergleich: die 7900xt liegt bei 700€.

https://www.techpowerup.com/330995/amd-radeon-rx-9070-xt-leaked-listing-reveals-pricing-details

Ravenhearth
2025-01-13, 14:39:59
Und die Quelle dafür?

w0mbat
2025-01-13, 14:49:13
VideoCardz via einem Händler in den Philippinen, der die Karten gelistet hatte. Scheint 19,5Gbps GDDR6 zu sein.

HOT
2025-01-13, 14:55:09
Immer wenn das so krumme Zahlen sind könnt ich mir vorstellen, dass das die PCB-Kosten unten hält. Scheint ja auch bei GDDR7 ebenfalls so ne sparsamere Variante zu geben.

Dorn
2025-01-13, 15:13:06
Leak zum Preis, 9070xt wohl bei 549,- Dollar. Bei uns also 650 bis 699,-€.

Zum Vergleich: die 7900xt liegt bei 700€.

https://www.techpowerup.com/330995/amd-radeon-rx-9070-xt-leaked-listing-reveals-pricing-details
Aber dann bitte schön max 260 Watt ansonsten können die den Rotz schön behalten. :biggrin:

mczak
2025-01-13, 15:20:30
Ich habe die Ankündigung dieser Chips eher als eine Herausforderung an Micron gesehen, also um die enge Partnerschaft von Micron und Nvidia zu challengen. Die Samples sind eine Bewerbung um eine Großbestellung von nvidia gewesen. AMD spielt hier kaum eine Rolle da sie Stückzahlentechnisch kaum Gewicht haben im Markt für Grafikspeicher als dass man für eine einzelne AMD Highendkarte die Massenproduktion von DIEs dieser Geschwindigkeitsklasse auflegen würde.

Das hat nicht geklappt, Micron ist weiterhin der primäre Zulieferer für nvidia. Dementsprechend sind diese Chips auch nie in Serie gegangen.

Fände ich schon etwas seltsam dass man da die Chips auch offiziell listet samt Partnummer bloss um nvidia zu ködern (Ankündigung ist was anderes als die auch zu listen). Dafür sprechen würde aber wohl dass man seltsamerweise keine 22 gbps Chips im Programm hat - gibt von Samsung ja 14/16/18/20 gbps Chips, wenn man schon Probleme hat mit höheren Geschwindigkeiten ist eigentlich unverständlich wieso man 22 gbps auslässt und gleich auf 24 gbps geht.

Dino-Fossil
2025-01-13, 15:23:06
Dann müsste man sich aber sehr deutlich von der 5070 absetzen, denn im gleichen Preisbereich dürfte die auch liegen und hat den nVidia-Bonus.

Insgesamt irgendwie meh - meine Hoffnung auf eine Karte unter 350€ und 200W, die einen echten Fortschritt ggü. meiner 6700 darstellt dürfte sich auch diese Gen wieder zerschlagen, es sei denn N44 wird deutlich stärker als von mir vermutet.

dildo4u
2025-01-13, 15:26:07
AMD hat sie doch bei der 7700XT eingeordnet da kannst du es schon einschätzen.
Vorteil 9600XT 16GB und FSR4.

Ravenhearth
2025-01-13, 15:29:03
Dann müsste man sich aber sehr deutlich von der 5070 absetzen, denn im gleichen Preisbereich dürfte die auch liegen und hat den nVidia-Bonus.

Insgesamt irgendwie meh - meine Hoffnung auf eine Karte unter 350€ und 200W, die einen echten Fortschritt ggü. meiner 6700 darstellt dürfte sich auch diese Gen wieder zerschlagen, es sei denn N44 wird deutlich stärker als von mir vermutet.
Unter 350€ wirds die 9070 nicht geben. Aber vielleicht die 9060 XT (?), also die zweite Abspeckung von N48 mit wahrscheinlich 48 CUs und 12GB

AMD hat sie doch bei der 7700XT eingeordnet da kannst du es schon einschätzen.
Vorteil 9600XT 16GB und FSR4.
Soll die 9060 XT N44-basiert sein?

Dino-Fossil
2025-01-13, 15:30:25
Bin bisher auch davon ausgegangen, dass die eher N48-basiert sein wird, ja (Was mir egal wäre, so lange Preis und Leistung passen).
Ich glaube nur nicht daran, dass die unter 400€ UVP kommt.
Naja, vielleicht in 1-2 Jahren mal im Angebot - oder ich werde doch mal positiv überrascht, was die Preisgestaltung angeht.

HOT
2025-01-13, 15:40:08
Würde ich auch sagen, die 9060XT dürfte 400€+ sein und 12GB haben. Wahrscheinlich hat Raff recht mit den 192Bit, denn das Ding wird ja langsameren Speicher und ein billigeres PCB bekommen als die größere Variante aus meiner Sicht, da würde bei 128Bit GDDR6 mit 18GT/s und nur 32MB IF$ die Bandbreite ausgehen, also tippe ich eher auf 192Bit und 32MB IF$.
Ich sehe AMD schon N33 als 8060, 8050 und 8040 relabeln.

Dino-Fossil
2025-01-13, 15:48:28
Hm, um zu viel Konfusion zu vermeiden wäre eine Möglichkeit vielleicht:

9060 XT - N48 salvage
9060 - N44
9050 XT - N44 salvage
8050 - N33
8040 - N33 salvage oder weniger Speicher

Oder man behält die 7600er einfach im Markt, aber sowas mögen das Marketing und die OEMs nicht, daher ist ein umlabeln wohl warscheinlicher.

HOT
2025-01-13, 15:50:21
Ich denke eher:

9070XT -> N48 Full 16GB
9070 -> N48 salvage 16GB
9060XT -> N44 Full 12GB
9060 -> N44 salvage 12GB
8060 -> N33 Full 8/16GB (option)
8050 -> N33 salvage 8GB
8040 -> N33 OEM-Variante

N48 ist zu groß für noch stärkeren salvage und erst recht für ne 9060, vielleicht macht man das mal als 9070GRE mit 12GB, aber das bliebe echt Nische mMn.

Dino-Fossil
2025-01-13, 15:53:12
Ich denke eher:

9060XT -> N44 Full 12GB
9060 -> N44 salvage 12GB


Wenn sie das so bringen, dann die XT sicherlich mit 16 GB, oder gibt es da konkrete Hinweise auf das Speicherinterface von N44? Ich wäre wieder von 128bit ausgegangen.

davidzo
2025-01-13, 16:03:51
Jo, wir können davon ausgehen dass es 16GB für full fat N44 werden, weil 128bit.

Schon die 7600XT hat 16GB GDDR6, also wird der Nachfolger sicher nicht weniger haben (es ist ja AMD und nicht nvidia).

Bei dem Preis von 18$ pro 8GB an GDDR6 wird man sicherlich keine exotische Produktionslinie für 24Gbit Chips auflegen die niemand anders in der Industrie braucht.


Wie man mit N44@32CUs @ 3Ghz und 128bit die 7700XT oder gar 7800XT ersetzen will ist mir schleierhaft. Die 7800Xt hat schon den schnellsten 19.5gbps Ram und volle 256bit. Und dort ist die 9060 series von AMD eingezeichnet. Und das sind Preis-Kategorien, nicht Performance. Das Performance-level je Preis-Kategorie wird 2025 eher steigen, was man daran sieht dass die 9070 die GRE und 7800XT zwar preislich beerben soll, performancetechnisch aber näher an der 7900Xt liegen dürfte.

Die sinnvolle Auflösung wäre eigentlich eine 9060xt auf N48 salvage Basis mit 192bit Speicherinterface. Also ein weiterer Salvage von N48 unterhalb der 9070. Darunter dann die normale 9060 die es in zwei Ausführungen gibt, 16GB und 8GB und ohne Referenzmodelle von AMD.

robbitop
2025-01-13, 16:10:31
Vielleicht sind sie einfach zu spät gekommen. Das top end Produkt kostet immer einen relativ großen Aufpreis. Sowohl bei HBM als auch bei GDDR.

Wenn die 22/23 wirklich verfügbar gewesen wären, hätten sie vielleicht einen Einsatz gesehen. Jetzt gibt es aber GDDR7 und wenn man sparen will, dann nimmt man halt den breit verfügbaren und relativ günstigen 20Gbps GDDR6.

Wäre halt nett gewesen für eine 9070 XT (falls die Bandbreite überhaupt benötigt wird).
Es könnte sein, dass sie benötigt wird. Relativ zur 4080 in den 2 Benchmarks fällt auf, dass sie in 1080p am stärksten ist und in 4K am schwächsten.
Einer der Gründe dafür kann die Hitrate im IF$ sein.
In den letzten Preislistings standen IIRC nicht nur die Specs mit Taktraten usw sondern auch wieder 64 MiB IF$.

reaperrr
2025-01-13, 16:18:32
Dann müsste man sich aber sehr deutlich von der 5070 absetzen, denn im gleichen Preisbereich dürfte die auch liegen und hat den nVidia-Bonus.
Ja muss sie, aber ja wird sie in Raster wohl auch.
5070 wird bei 4070Ti in Raster und leicht über 4070TiS in RT rauskommen, und nur 12GB haben.

9070XT kommt wohl bei ~79XT in Raster raus und irgendwo zw. 4070S und 4070TiS in RT, je nach Spiel.

Also ~10-15% schneller in Raster und 4GB mehr Speicher als Hauptverkaufsargumente.


Insgesamt irgendwie meh - meine Hoffnung auf eine Karte unter 350€ und 200W, die einen echten Fortschritt ggü. meiner 6700 darstellt dürfte sich auch diese Gen wieder zerschlagen, es sei denn N44 wird deutlich stärker als von mir vermutet.
Ja, das wird nix.
Wird alles entweder nur 8GB haben oder über 400€ kosten, selbst bei N44-/GB206-Karten.

Wobei aber halt auch gesagt werden muss:
Bis es 4070-artige Specs (~4070-Leistung und 12+ GB) unter 400€ gibt, musst du vermutlich mindestens 2, wahrscheinlich eher 4 Jahre warten. Wenn es je kommt.

N44 wird vermutlich zu langsam, GB206 wird NV mit 12-16GB nicht unter 399$/480€ anbieten, also gibt's frühestens nächste Gen was nennenswert besseres.

Entweder die Preiskröte schlucken und jetzt noch zu einer 4070 oder bald 9070 für ~550-580 greifen, oder sehr lange oder vielleicht für immer warten müssen. Ist leider so.

dargo
2025-01-13, 16:18:37
Leak zum Preis, 9070xt wohl bei 549,- Dollar. Bei uns also 650 bis 699,-€.

Zum Vergleich: die 7900xt liegt bei 700€.

https://www.techpowerup.com/330995/amd-radeon-rx-9070-xt-leaked-listing-reveals-pricing-details
Wie lange soll dieser Platzhalter noch durchgekaut werden? :freak:

Hakim
2025-01-13, 16:50:17
700€ empfinde ich ehrlich gesagt etwas zuviel, maximal 600-650€ würde es deutlich attraktiver machen.

w0mbat
2025-01-13, 16:54:18
Ganz ehrlich - AMD muss die 9070 XT zu einem ähnlichen Preis wie die 5070 verkaufen. Auch wenn man schneller ist und mehr VRAM hat. 649€ max. - sonst kauft die fast niemand.

gedi
2025-01-13, 18:03:28
BBA=649€, Customs=649-799€

robbitop
2025-01-13, 18:03:51
Kommt auf die Straßenpreise an. Manchmal gibt es ja gewisse Produkte die von der UVP interessant betreust sind praktisch zu den Preisen nicht. ^^

mczak
2025-01-13, 19:02:20
8 gegen 16 GiByte VRAM im Test: Bei Radeon RX 9000 und 7000 unverzichtbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/8-GB-VRAM-2025-ausreichend-16-GB-VRAM-Radeon-1462969/)

Also ich finde ja es gibt nach wie vor durchaus sinnvolle 8GB Karten. Eine Karte mit abgespecktem N44 (auf effizient und günstig getrimmt), von der Rohleistung her vielleicht etwas schneller als eine RX 7600 (XT), wäre imho jetzt nicht so eine Katastrophe - laufen ja immer noch 2/3 der Spiele mit Rasterizing problemlos mit höchsten Details, bei den anderen (und bei den meisten Spielen mit RT) muss man halt Abstriche bei den Grafikoptionen machen, bei einer Karte im unteren Preissegment verkraftbar. ABER das Preisschild muss natürlich dazu passen, also insbesondere günstiger als beispielsweise eine RX 7600XT, und ähnlicher Preis wie eine RX 7600. Keine Ahnung aber wo die Karten mit N44 am Ende (preislich wie performancemässig) am Ende landen.

reaperrr
2025-01-13, 19:40:22
Also ich finde ja es gibt nach wie vor durchaus sinnvolle 8GB Karten. Eine Karte mit abgespecktem N44 (auf effizient und günstig getrimmt), von der Rohleistung her vielleicht etwas schneller als eine RX 7600 (XT), wäre imho jetzt nicht so eine Katastrophe - laufen ja immer noch 2/3 der Spiele mit Rasterizing problemlos mit höchsten Details, bei den anderen (und bei den meisten Spielen mit RT) muss man halt Abstriche bei den Grafikoptionen machen, bei einer Karte im unteren Preissegment verkraftbar. ABER das Preisschild muss natürlich dazu passen, also insbesondere günstiger als beispielsweise eine RX 7600XT, und ähnlicher Preis wie eine RX 7600. Keine Ahnung aber wo die Karten mit N44 am Ende (preislich wie performancemässig) am Ende landen.
Seh ich auch so.

Was Reviewer gern ein wenig unterschlagen ist (wohl weil sonst die Vergleichbarkeit fehlt), dass die 1080p-Probleme meist nur mit den gleichen hohen Texturdetails wie in den höheren Auflösungen auftreten, die meisten Spiele aber noch eine mittlere Stufe anbieten, die in FullHD dann auch noch in 8 GB passt.

Und ja, im Direktvergleich sehen die mittleren Details dann vielleicht auch nicht so gut aus, aber verglichen mit älteren Spielen ist das meist noch völlig OK, und die guten davon hört man ja auch nicht einfach auf zu spielen, bloß weil die Texturen nicht so hoch aufgelöst sind wie in neueren Titeln.

Spiele, die man in 1080p mit 8GB gar nicht mehr brauchbar zum laufen kriegt, unabhängig von den Einstellungen, sind noch immer die Ausnahme.

why_me
2025-01-13, 19:52:55
Aber man kauft sich doch keine Grafikkarte um sofort in 1080p die Regler nach links schieben zu müssen.

TheGood
2025-01-13, 20:03:01
für viele ist das aber immer noch besser als das was sie aktuell im Rechner haben....

Hakim
2025-01-13, 20:38:14
Aber man kauft sich doch keine Grafikkarte um sofort in 1080p die Regler nach links schieben zu müssen.

naja wenn das Geldbeutel es nicht hergibt, lieber schiebe ich dann die Texturen und paar andere Sachen etwas nach links statt das es Lag Spikes hat. Dieses es muss bei max laufen ist sowieso so eine Komische Sache hier. die meisten normalen Leute starten das Spiel und schauen sich nicht mal die Grafikeinstellungen und wollen einfach mal spielen. In der Regel wird auch standardmäßig so eingestellt das es auch vernünftig bei der vorhanden Grafikkarte läuft. Aber ja gibt ausnahmen, Diablo 4 oder halt NV meinte nach der Addon Installation bei mir das auf WQHD RT on sein sollte mit einer 3060Ti xD.

lowkres
2025-01-13, 20:42:59
https://x.com/All_The_Watts/status/1878490567014777077

wtf?

gedi
2025-01-13, 21:09:06
Kann es sein, dass N31 gerade seinen Abgesang feiert? Auf MF sind kaum noch Karten "lagernd" zu finden.

raffa
2025-01-13, 21:21:15
https://x.com/All_The_Watts/status/1878490567014777077

wtf?

All The Watts ist langweilig, weil immer noch nicht released wurde.

gedi
2025-01-13, 21:26:53
Nope! Dies heißt lediglich, dass das Vbios noch nicht steht! Darum auch die Verzögerung um ein paar Tage.man will einfach abwarten, wie Blackwell performt, um dann sein Vbios anpassen zu können. Da reichen auch Werte von einer 5090 und 5080, um einschätzen zu können, wo man landen wird.

OgrEGT
2025-01-13, 22:11:47
https://x.com/All_The_Watts/status/1878490567014777077

wtf?
Leistungsprognose bei 15 Spielen Raster und RT... nix neues?

Palpatin
2025-01-13, 22:35:55
Ganz ehrlich - AMD muss die 9070 XT zu einem ähnlichen Preis wie die 5070 verkaufen. Auch wenn man schneller ist und mehr VRAM hat. 649€ max. - sonst kauft die fast niemand.
Ich würde die Karte lieber näher an der 5070ti als an der 5070 sehen, wäre mir das auch 700-750€ Wert.

gedi
2025-01-13, 22:56:01
Exakt, denn man will ja im non-biased Bereich Punkten. Wenn das P/L passt und das Ecosystem ins Auge führt, dann passt dies auch! Aufgrund dessen wie Blackwell scheint zu performen, kann ich mir sehr gut vorstellen, dass sich Lisa gerade in den Hintern beißt, denn es wäre doch so einfach gewesen...

Ravenhearth
2025-01-13, 23:20:40
Exakt, denn man will ja im non-biased Bereich Punkten. Wenn das P/L passt und das Ecosystem ins Auge führt, dann passt dies auch! Aufgrund dessen wie Blackwell scheint zu performen, kann ich mir sehr gut vorstellen, dass sich Lisa gerade in den Hintern beißt, denn es wäre doch so einfach gewesen...
Will man das? Ich fürchte dieser "non-biased Bereich" ist nicht sehr groß. Nvidia hat nunmal Mindshare und möchte man wieder Marktanteile gewinnen anstatt weiterhin bei 10% rumzukrebsen, muss man auch die nicht-AMD-Anhänger überzeugen. Das geht nur mit einer aggressiven Preisgestaltung. Die übliche Vorgehensweise, Nvidia um 50-100$ zu unterbieten, ist dazu nicht geeignet.

horn 12
2025-01-14, 06:52:49
AMD hätte diesesmal ein Leichtes gehabt mit 5080 und 5090
so wie vor 2 Jahren Nvidia gehabt hat mit der 4090

Navi 31 XT und XTX wird schon seit Spätsommer 2024 nicht mehr produziert und alles was man jetzt noch sieht sind Restposten,- und denke bis Frühjahr ist man mit dem komplett durch!

dargo
2025-01-14, 07:54:40
https://x.com/All_The_Watts/status/1878490567014777077

wtf?
Bitte nicht wieder diesen Kasper verlinken, und alt!!!

GerryB
2025-01-14, 07:55:38
Kann es sein, dass N31 gerade seinen Abgesang feiert? Auf MF sind kaum noch Karten "lagernd" zu finden.

Heute siehts nicht so aus. Ausnahme = Hellhound Lieferung 16.Jan, die man aber trotzdem schon kaufen kann.

Vermutlich ist es gar nicht so schlimm wenn der Launch sich verzögert.
Andernfalls müsste man im Preis für die last Gen zu sehr runter.

btw.
RDNA4 > 5080/4090 in RT wäre dann wohl mit irrsinnig viel Watt gewesen.
Gut, das so ne Brechstange nicht kommt.
(nur um ein paar Enthusiasten@h2o zu bedienen, ist das die Mühe nicht wert)

Matrix316
2025-01-14, 13:41:21
Heute siehts nicht so aus. Ausnahme = Hellhound Lieferung 16.Jan, die man aber trotzdem schon kaufen kann.

Vermutlich ist es gar nicht so schlimm wenn der Launch sich verzögert.
Andernfalls müsste man im Preis für die last Gen zu sehr runter.

btw.
RDNA4 > 5080/4090 in RT wäre dann wohl mit irrsinnig viel Watt gewesen.
Gut, das so ne Brechstange nicht kommt.
(nur um ein paar Enthusiasten@h2o zu bedienen, ist das die Mühe nicht wert)
Es wird wieder Zeit für Crossfire. Dann nimmt man halt zwei RDNA4 Chips auf einer Grafikkarte. ;) https://www.heise.de/news/Radeon-HD-4870-X2-AMD-stellt-schnellste-Grafikkarte-vor-194954.html

Mit Frame Generation könnte man vielleicht sogar das Stuttern unterbinden. :uponder:

robbitop
2025-01-14, 14:01:53
Frame Generation verstärkt eher unsaubere Frametimes.

][immy
2025-01-14, 14:02:19
Es wird wieder Zeit für Crossfire. Dann nimmt man halt zwei RDNA4 Chips auf einer Grafikkarte. ;) https://www.heise.de/news/Radeon-HD-4870-X2-AMD-stellt-schnellste-Grafikkarte-vor-194954.html

Mit Frame Generation könnte man vielleicht sogar das Stuttern unterbinden. :uponder:

Ne, das stuttern würdest du auch damit nicht raus bekommen. Vielleicht etwas abmildern, aber es wäre wohl immer noch auffällig.
Fragt sich natürlich immer noch, ob man nicht Aufgaben auf mehrere gpus verteilen kann, gibt ja immer mehr zu tun, aber nach wie vor ist die Synchronisation der große Knackpunkt die früher oder später stattfinden muss. Da sind die interconnects aber auch einfach zu lahm.

Dino-Fossil
2025-01-14, 14:10:48
Das ist doch genau, worauf die potentiellen Chiplet-Designs hinauslaufen. Ist also nicht so, als würde daran nicht gearbeitet.

robbitop
2025-01-14, 14:16:23
Das würde dann aber ganz anders laufen. Crossfire und Nvidia SLI hat AFR genutzt wo jede GPU sein eigenes Bild gerendert hat und die CPU dann eben abwechselnd Drawcalls zu GPU0 und GPU1 gesendet hat. Daraus ergibt sich prinzipbedingt das Problem des Framepacings aber auch von Anwendungskompatibilitätsproblemen.
Mit Chiplets und modernem packaging würde man eher eine einzelne große GPU aus Chiplets bauen. Entweder in dem man die verschiedenen Funktionsblöcke disaggregiert oder aber in dem man mehrere zusammenschaltet. Für die Anwendung würde das aussehen wie eine GPU und auch funktionieren wie eine.
Und das geht dann nur durch sehr hohe Bandbreite und sehr niedrige Latenz zwischen den Chiplets. Entsprechend gibt es dann gar keinen Einfluss auf Framepacing oder Kompatibilität oder Framegeneration. Es ist einfach nur eine disaggregierte GPU aber kein klassisches mGPU.

Dino-Fossil
2025-01-14, 14:20:10
Natürlich, es würde die prinzipbedingten Probleme von alten multi-GPU-Ansätzen umgehen (wenn es denn mal ordentlich läuft, da es ja wieder eigene Probleme mitbringt).
Ich denke aber traditionelles Crossfire und SLI sind tot und kommen auch nicht wieder.

Gerüchteweise sollte der gecancelte große RDNA4 Chip ja sowas werden, wäre interessant gewesen wie es in der Praxis funktioniert hätte. Vielleicht mit UDNA...

robbitop
2025-01-14, 14:55:14
Es kostet halt zusätzlich Geld für die modernen packaging Verfahren, zusätzlich Fläche pro Chiplet für die Kommunikation und zusätzliche Energie. Und noch wesentlicher: KI Chips fressen die Kapazitäten der Packagingkapzitäten auf. Entsprechend machte das wahrscheinlich so kaum Sinn.
Das wird aber sicherlich irgendwann in den Massenmarkt kommen.

reaperrr
2025-01-14, 15:05:31
Gerüchteweise sollte der gecancelte große RDNA4 Chip ja sowas werden, wäre interessant gewesen wie es in der Praxis funktioniert hätte. Vielleicht mit UDNA...
Wär interessant gewesen, ja, soll aber jetzt auch für RDNA5 gestrichen sein.

Stattdessen soll bei RDNA5 "nur" noch ein dritter Monolith oberhalb des N48-Nachfolgers kommen.

Also grob (mein Spekulatius anhand des Monolithen-Gerüchtes):

- Alle in N3P

N51:
- ~450mm2
- 80 WGPs (160 CUs, wenn es CUs in RDNA5 noch gibt)
- 8 SEs
- 96 MB IF$
- 384bit GDDR7 SI
- Leistung: Raster = 5090 + 25-40%*, RT = 5090 +10-25%
- 800-1200$/€-Kategorie

* höhere Taktraten, höhere IPC je CU/WGP vs. SM, weniger CPU-limitiert dank Hardware-Scheduling

N52:
- ~300mm2
- 48 WGPs (96 CUs, wenn es CUs in RDNA5 noch gibt)
- 6 SEs
- 64 MB IF$
- 256bit GDDR7 SI
- Leistung: Raster = zw. 4090 und 5090, RT ~= 4090
- 500-700$/€-Kategorie

N53:
- 150-200mm2
- 24 WGPs (48 CUs, wenn es CUs in RDNA5 noch gibt)
- 3 SEs
- 32 MB IF$
- 128bit GDDR7 SI
- Leistung: Raster = ~9070, RT = ~9070XT
- 300-430$/€-Kategorie

N44 bleibt wahrscheinlich der Billigpart darunter bis mindestens RNDA6.

E39Driver
2025-01-14, 15:12:32
War nicht das Gerücht die Sparten Gaming und Compute mit UDNA wieder zusammen zu legen? Damit dürfte ein rein auf Gaming entwickelter RDNA5 doch eh hinfällig sein. Also im Prinzip das, was man bis einschließlich Vega schon gemacht hat

w0mbat
2025-01-14, 15:13:39
Jupp, das sagen die aktuellen Gerüchte. Nach RDNA4 kommt UDNA.

HOT
2025-01-14, 15:21:13
Das kann ja dann schon zwangsläufig nicht mehr monolithisch werden, wenn man die Instincts und RDNA architektonisch zusammenlegt.
MMn zementiert UDNA den Chiplet-Ansatz, nutzt aber keine eigene Technologien dafür mehr sondern diejenigen, die für CDNA entwickelt werden. Man wird eben eigene GCDs für Grafik machen, die allerdings dann vor allem mit neuronalen Shadern und RT schnell sein werden würde ich sagen. Der Switch auf UDNA zeigt mMn klar die Abkehr von Rastergrafik hin zu RT+KI, was ja denke ich auch sowieso zur nächsten Playstation passen dürfte.

E39Driver
2025-01-14, 15:22:21
Ok. Ja finde ich gar nicht so verkehrt. Spricht eher wieder für große Chips. Und mit dem ganzen AI Geraffel sollte man heutzutage die theoretische Rechenleistung in Gaming ja auch auf die Straße bekommen. Da wo es früher immer dran gehakt hat

robbitop
2025-01-14, 15:26:37
Wär interessant gewesen, ja, soll aber jetzt auch für RDNA5 gestrichen sein.

Stattdessen soll bei RDNA5 "nur" noch ein dritter Monolith oberhalb des N48-Nachfolgers kommen.

Das ist neu - wo hast du das her? :)
Nach RDNA4 kommt wohl angeblich auch direkt UDNA. Kann aber auch einfach umbenannt sein. ^^

HOT
2025-01-14, 15:37:50
Ok. Ja finde ich gar nicht so verkehrt. Spricht eher wieder für große Chips. Und mit dem ganzen AI Geraffel sollte man heutzutage die theoretische Rechenleistung in Gaming ja auch auf die Straße bekommen. Da wo es früher immer dran gehakt hat

Wenn man das ernst meint wird man bei dem Top-Produkt sicherlich bei 800-1000mm² in unterschiedlichen Prozessen+Interposer landen oder sowas.

Der_Korken
2025-01-14, 15:39:32
Ok. Ja finde ich gar nicht so verkehrt. Spricht eher wieder für große Chips. Und mit dem ganzen AI Geraffel sollte man heutzutage die theoretische Rechenleistung in Gaming ja auch auf die Straße bekommen. Da wo es früher immer dran gehakt hat

Darauf würde ich mich nicht verlassen, wie man an der 5090 sieht und eigentlich auch an der 4090. Die kriegen auch in 4K+RT ihre Leistung nicht richtig auf die Straße, verglichen mit den auf dem Papier wesentlich schlechteren 5080- und 4080-Modellen.

robbitop
2025-01-14, 15:58:36
Das kann ja dann schon zwangsläufig nicht mehr monolithisch werden, wenn man die Instincts und RDNA architektonisch zusammenlegt.
MMn zementiert UDNA den Chiplet-Ansatz, nutzt aber keine eigene Technologien dafür mehr sondern diejenigen, die für CDNA entwickelt werden. Man wird eben eigene CCDs für Grafik machen, die allerdings dann vor allem mit neuronalen Shadern und RT schnell sein werden würde ich sagen. Der Switch auf UDNA zeigt mMn klar die Abkehr von Rastergrafik hin zu RT+KI, was ja denke ich auch sowieso zur nächsten Playstation passen dürfte.
RDNA, CDNA und UDNA beschreiben IMO mehr das Instruction Set, die Pipelinestages usw als die physische Implementierung. Man wird sicher selbst die CUs noch anders konfigurieren können. Und ob Chiplets oder nicht ist auf dem Level egal.

HOT
2025-01-14, 16:27:53
RDNA, CDNA und UDNA beschreiben IMO mehr das Instruction Set, die Pipelinestages usw als die physische Implementierung. Man wird sicher selbst die CUs noch anders konfigurieren können. Und ob Chiplets oder nicht ist auf dem Level egal.
Äh ne, es ging auch um die Verbindungsprotokolle an sich, also wie man die Chiplets miteinander verbindet, welche Basis-Chiplets man hat usw. Da wollte man nicht 2x die gleiche Arbeit machen, daher UDNA. Software betrifft das natürlich genauso. Aber ich vermute eben auch, dass man auch auf Architekturebene ähnlicher bleibt als das bei CDNA und RDNA der Fall war, eben weil Rasterization an Bedeutung verliert und Neural Rendering und RT Bedeutung gewinnt. RDNA war so gesehen schlicht und ergreifend ein überflüssig teurer Irrweg, den man nicht weiter beschreiten wollte.

robbitop
2025-01-14, 16:38:15
Ich denke nicht, dass das Teil dessen ist, was mit ...DNA gemeint ist. Und auch bereits bei Zen sehen wir dass Verbindungstypen IP Block unabhängig mischt. Beim Zen 5 CCD mit normalem MCM, bei Halo mit den gleichen CCDs dann mit INFO-R (noch nicht gesichert) bei MI...A mit INFO-L (IIRC). Ich würde sagen, da hat man weiterhin einen Werkzeugkasten, aus dem man je nach Produkt wählen können wird.
Und für kleine Chips lohnen sich ggf. zunächst Chiplets noch nicht und es wird (ggf erstmal Monoliten geben).

dargo
2025-01-14, 17:15:46
Also, dass morgen schon die offizielle Vorstellung von AMD stattfinden soll kann ich nicht wirklich glauben, dafür ist es noch zu still. Hat dieser Leaker also wieder nur getrollt oder was wollte der uns mit der "15" sagen?

Edit:
Sicherlich Fake, den Verbrauch bei den Frequenzen würde ich aber feiern. :D

zXRxtt2thI0

Hakim
2025-01-14, 17:22:41
Kein Termin auf der Homepage für eine Ankündigung? Die werden doch nicht am selben Tag die Vorstellung ankündigen und es dann durch ziehen

madzapp
2025-01-14, 17:29:35
Nach 3DC News wird 15 Games vermutet.

gedi
2025-01-14, 17:47:26
15 Games am 15.1?

dargo
2025-01-14, 18:07:32
Neueste Gerüchte wenn ich es richtig verstanden habe. Es sollen eigene Tests von AMD sein die bereits einen Monat alt sind. Und seit Oktober 2024 gab es angeblich jeden Monat bessere Performancemeldungen vom Treiberteam mit RDNA4. Ca. 5 RT Games und ca. 10 Raster Games wurden von AMD getestet.

RX 9070XT = 304W
RX 9700 = 220W

Der riesen Unterschied klingt für mich etwas unglaubwürdig, es sei denn AMD hat die XT bei den Frequenzen stark geprügelt.

RX 9070XT 7% unter der RX 7900XTX in Raster und deutlich über der RX 7900XTX bei RT. In Wukong angeblich 60% schneller. Ansonsten RT Performance angeblich zwischen RTX 4070TI und RTX 4070TI Super. Die RX 9070 soll bei Raster in etwa mit der RX 7900XT gleich ziehen, bei RT mit der RTX 4070.

Sollte das hier alles stimmen könnte ich mir durchaus vorstellen, dass AMD aus den ~300W jetzt doch noch in letzter Sekunde 330W gemacht hat bei der 9070XT damit diese in Raster an die 7900XTX näher ran kommt. Und wenn neuere Treiber vom Januar noch ein bissel was bringen könnte AMD N31 entgültig "begraben".
https://youtu.be/WP3wfZ6LRlQ?si=I72CooNehLPFGU5_&t=3290

why_me
2025-01-14, 18:18:31
So ganz passt das doch auch nicht.
220W für 7900XT Leistung und 300W für 7% unter der 7900XTX. So weit sind die auch nicht auseinander. Das wären fast 50% mehr Verbrauch für poplige 7-8% Leistung

HOT
2025-01-14, 18:20:51
9070 wird wahrscheinlich irgendwo zwischen der GRE und der XT rauskommen.

dargo
2025-01-14, 18:22:13
So ganz passt das doch auch nicht.
220W für 7900XT Leistung und 300W für 7% unter der 7900XTX. So weit sind die auch nicht auseinander. Das wären fast 50% mehr Verbrauch für poplige 7-8% Leistung
Ja... das ergibt wirklich keinen Sinn. Womöglich sind die 220W falsch oder einfach alles. :D

why_me
2025-01-14, 18:36:08
Habs nochmal angehört.
"The 9070 was 5% weaker than the XT in raster..." aber dann später bei RT "which absolutely crushes the 7800 XT" :confused: "and a tab below the 7900 XT"

Was irgendwie noch mehr fragen aufwirft.
Wie kann die 9070 XT so schnell wie eine 4070 Ti Super in RT sein, die 9070 dann aber nur halb so schnell? :confused:

Und falls er wirklich 7900 GRE/7800XT Leistung in Raster gemeint hat. Würde zwar vom Verbrauch her hinkommen, aber dafür ist der Chip dann auch viel zu stark beschnitten/ausgebremst.

dargo
2025-01-14, 18:59:31
Habs nochmal angehört.
"The 9070 was 5% weaker than the XT in raster..." aber dann später bei RT "which absolutely crushes the 7800 XT" :confused: "and a tab below the 7900 XT"

Was irgendwie noch mehr fragen aufwirft.
Wie kann die 9070 XT so schnell wie eine 4070 Ti Super in RT sein, die 9070 dann aber nur halb so schnell? :confused:

Da komme ich jetzt nicht mit. ;D
"which absolutely crushes the 7800 XT" bedeutet die 7800XT wird absolut geschlagen.

The_Invisible
2025-01-14, 19:02:36
Kein Termin auf der Homepage für eine Ankündigung? Die werden doch nicht am selben Tag die Vorstellung ankündigen und es dann durch ziehen

Nach dem CES disaster? Naja ist der Ruf Mal ruiniert... :D

why_me
2025-01-14, 19:06:26
@dargo: Ja, aber warum vergleicht er plötzlich mit der 7800? Bedeutet doch im Umkehrschluss, dass das XT davor sich auch auf die 7800 XT bezieht und nicht die 7900 XT.

Aber auch für Raster:
9070 XT = 7900 XT
9070 = 7800 XT/7900 GRE
Und damit wäre der Chip für die 9070 dann sehr stark beschnitten im vergleich zur 9070 XT. Da müsste fast 1/3 deaktiviert sein oder deutlich der Takt reduziert sein für die 9070.

Der_Korken
2025-01-14, 19:06:26
Da waren meine 200W für die 9070 doch nicht so falsch, die anhand der geleakten Taktraten geraten habe. Die geringen Unterschiede sprachen schon deutlich für eine komplett getretene XT.

Allerdings ergeben 10% Leistungsunterschied zwischen XT und nonXT für mich dann keinen Sinn, denn sowohl der CU-Count als auch die Taktraten fallen um mehr als 10% ab. Es sei denn, die XT ist komplett bandbreitenlimitiert und ihre Rechenleistung verpufft. Umso unverständlicher, dass man sie dann noch prügelt (und vorher nicht dran gedacht hat, GDDR7 oder mehr Cache zu verbauen :rolleyes:).

dargo
2025-01-14, 19:13:28
Aber auch für Raster:
9070 XT = 7900 XT
9070 = 7800 XT/7900 GRE

:confused:

Vielleicht habe ich was mit den Ohren aber ich habe das dort rausgehört.

Raster:
9070 XT = 7900 XTX -7%
9070 = 7900 XT -5%

Stand Dezember 2024

Es wird sicherlich noch kleine Schwankungen geben. Die gibt es immer je nachdem welche Spiele getestet werden. Eine 7900XT ist übrigens laut CB in Raster 32% schneller als die 7800XT und 21% schneller als die 7900GRE. Insofern würde die 9070 non XT schon gutes Stück vor beiden liegen.

why_me
2025-01-14, 19:21:43
Ok, etwas später fasst er es nochmal zusammen 9070=5% langsamer als 7900 XT und gleich schnell in RT.
Aber auch das passt für mich nicht zusammen. Wie kann die 9070 XT in RT RDNA3 davon ziehen, die 9070 bleibt aber gleich schnell in RT?

dargo
2025-01-14, 19:23:54
Cool bleiben und Tee rauchen bis die nächsten Leaks kommen. :D

gedi
2025-01-14, 19:29:44
Da waren meine 200W für die 9070 doch nicht so falsch, die anhand der geleakten Taktraten geraten habe. Die geringen Unterschiede sprachen schon deutlich für eine komplett getretene XT.

Allerdings ergeben 10% Leistungsunterschied zwischen XT und nonXT für mich dann keinen Sinn, denn sowohl der CU-Count als auch die Taktraten fallen um mehr als 10% ab. Es sei denn, die XT ist komplett bandbreitenlimitiert und ihre Rechenleistung verpufft. Umso unverständlicher, dass man sie dann noch prügelt (und vorher nicht dran gedacht hat, GDDR7 oder mehr Cache zu verbauen :rolleyes:).

Vielleicht kommt ja noch eine XTX mit 24GB Vram, da das Interface ja mit GDDR7 umgehen kann. So ein Golden Sample Ding mit 3.2g und einer Bandbreite von 756mt/s bei 330w.

why_me
2025-01-14, 19:40:41
Cool bleiben und Tee rauchen bis die nächsten Leaks kommen. :D

Ich bin ganz gelassen, versuche das nur einzuordnen und so wie er es sagt passt es halt nicht.

Die einzige logische Kombination für die 9070 wäre:
Raster 7800XT, RT 7900XT.
Dann klingen auch die 220W im vergleich zur 9070 XT nicht mehr so falsch.
Nur dass der Chip dann sehr stark beschnitten wäre mMn.

DrFreaK666
2025-01-14, 20:06:56
Nach dem CES disaster? Naja ist der Ruf Mal ruiniert... :D

..., schrieb ein RTX4090-Nutzer :rolleyes:
Was willst eigentlich in diesem Thread? Hast jemals was Vernünftiges gepostet?

Palpatin
2025-01-14, 20:11:39
Nur dass der Chip dann sehr stark beschnitten wäre mMn.
Muss ja nicht, kann ja sein das die geringe Leistung in erster Line dann von den nur 220 Watt kommen die die normale Version zur Verfügung hat. Was jede Menge Potential für OC Versionen bieten würde.

why_me
2025-01-14, 20:15:27
Auch möglich, bekommen wir dann endlich under OC Wunder? ;D

raffa
2025-01-14, 20:38:12
Schwierig bei einem PPT limit von -3/+7% ;)

Ich hoffe sie besinnen sich, selbst unter Linux mit RDNA2 wurden inzwischen Takt und PPT arg eingeschänkt, bis 6.10? war das alles offen einstellbar, zumindest nach unten.

Gamer kaufen Karten auch, weil sie an denen rumspielen wollen, also AMD gebt uns wieder mehr Freiheit diesbezüglich, bitte.

Wiseman
2025-01-14, 20:38:54
Neueste Gerüchte wenn ich es richtig verstanden habe. Es sollen eigene Tests von AMD sein die bereits einen Monat alt sind. Und seit Oktober 2024 gab es angeblich jeden Monat bessere Performancemeldungen vom Treiberteam mit RDNA4. Ca. 5 RT Games und ca. 10 Raster Games wurden von AMD getestet.

RX 9070XT 7% unter der RX 7900XTX in Raster und deutlich über der RX 7900XTX bei RT. ...

Sollte das hier alles stimmen könnte ich mir durchaus vorstellen, dass AMD aus den ~300W jetzt doch noch in letzter Sekunde 330W gemacht hat bei der 9070XT damit diese in Raster an die 7900XTX näher ran kommt. Und wenn neuere Treiber vom Januar noch ein bissel was bringen könnte AMD N31 entgültig "begraben".

Könnte so hinkommen.

Ich überprüfte mit meiner XTX die Leaks von dem Chinesen, der angeblich Black Myth (in Raster) und Cyberpunk 77 (in RT) mit 'ner 9070XT vs 4080S vs 4070Ti gebenchmarkt hat. Leider machte der Chinese äußerst dürftige Angaben: für Cyberpunk schrieb er RT + Native und für Black Myth schrieb er Native ohne RT. Keine Angaben zum Watt-Verbrauch und für Black Myth keine Angaben zum Preset.

Ich stellte vorsichtshalber meine XTX auf 330 W und wählte für Cyberpunk den RT Ultra Preset + 4k Native und für Black Myth den Cinematic Preset + 4k Native.

In Cyberpunk 77 mit RT Ultra ist die 9070XT 24% schneller als meine XTX. Das hatte ich erwartet.

In Black Myth ohne RT ist meine olle XTX 3% schneller als die 9070XT. Das hatte ich nicht erwartet. Und jetzt noch FSR 4 dazu und finale Treiber. Oh-oh.

TheGood
2025-01-14, 20:51:40
die 25% sind aber schon etwas dürftig oder? Ich hatte an 30%+gedacht bzw. gehofft.

Wiseman
2025-01-14, 21:12:33
die 25% sind aber schon etwas dürftig oder? Ich hatte an 30%+gedacht bzw. gehofft.

Warum wegen eines einzigen Spiels gleich die Flinte ins Korn werfen? :biggrin:

Für eine aussagekräftige Analyse müssen schon viel mehr Raytracing-Games getestet werden. Und wer weiß, was der Chinese sonst noch anders als ich eingestellt hat.

reaperrr
2025-01-14, 21:29:14
die 25% sind aber schon etwas dürftig oder? Ich hatte an 30%+gedacht bzw. gehofft.
Wir reden hier vom N32-Nachfolger, in einem nur unwesentlich besseren Prozess als dem für den N32-GCD verwendeten.

N48 schafft quasi die RT-Leistung eines hypothetischen 120CU-RDNA3.
Das ist effektiv fast eine Verdoppelung der RT-Leistung je CU.

Ravenhearth
2025-01-14, 22:34:04
Außerdem reden wir von nativem 4K bei einer 1/3 geringeren Speicherbandbreite (640 vs 960 GB/s). Bei niedrigeren (internen) Auflösungen dürfte der Vorsprung noch ein wenig größer ausfallen.

raffa
2025-01-14, 22:39:50
Ist eigentlich schon was zur (infinity)Cachegröße bekannt?

Ravenhearth
2025-01-14, 22:56:51
Nichts genaues. Es gibt Spekulationen, dass AMD den IF auf 96/128MB vergrößert hat, um die gleich bleibende Speicherbandbreite abzufangen, was auch die 390mm² zum Teil erklären könnte. Ich persönlich gehe jedoch mittlerweile davon aus, dass die 390mm² ein bisschen zu groß geschätzt wurden und dass der IF bei 64MB bleibt, es aber andere Verbesserungen am Cache-System gibt, um alles aus der Speicherbandbreite rauszuquetschen.

reaperrr
2025-01-15, 00:30:55
Ist eigentlich schon was zur (infinity)Cachegröße bekannt?

MLID hat vor vielen Monaten mal "<=96 MB" verlauten lassen. Aber 96 MB an einem 256bit SI wäre ungewöhnlich, am wahrscheinlichsten ist, dass es einfach 64 MB bleiben.
Ich meine, AD103 hat ja auch nur 64MB L2, während es bei N48 wohl 4MB L2 + 64MB IF$ wären, und Speichertakt auch nicht viel niedriger.

Im Grunde bräuchte AMD also "nur" bei Bandbreiteneffizienz zu Ada aufschließen, dann würden Cache + VRAM-Bandbreite für ~4080-Leistung ausreichend sein.

Nichts genaues. Es gibt Spekulationen, dass AMD den IF auf 96/128MB vergrößert hat, um die gleich bleibende Speicherbandbreite abzufangen, was auch die 390mm² zum Teil erklären könnte. Ich persönlich gehe jedoch mittlerweile davon aus, dass die 390mm² ein bisschen zu groß geschätzt wurden und dass der IF bei 64MB bleibt, es aber andere Verbesserungen am Cache-System gibt, um alles aus der Speicherbandbreite rauszuquetschen.

Im anandtech Forum haben mehrere Leute sich inzwischen bei Nachmessungen auf 330-350mm2 geeinigt.

Ansonsten:
- Bei den RDNA3.5-Verbesserungen war u.a. "verbesserte Kompression" aufgeführt, vermutlich war sowas wie Delta Color Compression gemeint. Die Verbesserung wird sicher auch RDNA4 haben und dort vielleicht noch einen Schritt weiter gehen.
- Die Größe und geleakten Testergebnisse des Chips deuten schon darauf hin, dass auch die CUs ordentlich an Leistung zugelegt haben, auch in Raster.
Das macht es recht wahrscheinlich, dass auch etwas im Bereich Register und/oder Caches im Bereich L0, WGP/CU-L1 und Global L1 (je SE) aufgebohrt wurde.
- Bei den RDNA4-ISA-Änderungen war was bei, wodurch teils häufiger zuerst im SE-L1 statt gleich im L2 nach bestimmten Daten gesucht werden könnte.
- Der IF$ taktet meines Wissens unabhängig vom Shader-Bereich, und könnte bei N48 schlicht etwas höher takten als bei N31/32.
- durch das monolithische Design sollte die Latenz von IFCache/VRAM-Zugriffen im Prinzip generell etwas niedriger sein, auch bei identischen Taktraten.

The_Invisible
2025-01-15, 09:02:06
..., schrieb ein RTX4090-Nutzer :rolleyes:
Was willst eigentlich in diesem Thread? Hast jemals was Vernünftiges gepostet?

Muss man eine Radeon haben um hier zu posten bzw nur Schönwetterposts bringen? Dann müssten sich einige vom Blackwell Thread auch raushalten...

robbitop
2025-01-15, 09:17:03
MLID hat vor vielen Monaten mal "<=96 MB" verlauten lassen. Aber 96 MB an einem 256bit SI wäre ungewöhnlich, am wahrscheinlichsten ist, dass es einfach 64 MB bleiben.
Ich meine, AD103 hat ja auch nur 64MB L2, während es bei N48 wohl 4MB L2 + 64MB IF$ wären, und Speichertakt auch nicht viel niedriger.

Im Grunde bräuchte AMD also "nur" bei Bandbreiteneffizienz zu Ada aufschließen, dann würden Cache + VRAM-Bandbreite für ~4080-Leistung ausreichend sein.



Im anandtech Forum haben mehrere Leute sich inzwischen bei Nachmessungen auf 330-350mm2 geeinigt.

Ansonsten:
- Bei den RDNA3.5-Verbesserungen war u.a. "verbesserte Kompression" aufgeführt, vermutlich war sowas wie Delta Color Compression gemeint. Die Verbesserung wird sicher auch RDNA4 haben und dort vielleicht noch einen Schritt weiter gehen.
- Die Größe und geleakten Testergebnisse des Chips deuten schon darauf hin, dass auch die CUs ordentlich an Leistung zugelegt haben, auch in Raster.
Das macht es recht wahrscheinlich, dass auch etwas im Bereich Register und/oder Caches im Bereich L0, WGP/CU-L1 und Global L1 (je SE) aufgebohrt wurde.
- Bei den RDNA4-ISA-Änderungen war was bei, wodurch teils häufiger zuerst im SE-L1 statt gleich im L2 nach bestimmten Daten gesucht werden könnte.
- Der IF$ taktet meines Wissens unabhängig vom Shader-Bereich, und könnte bei N48 schlicht etwas höher takten als bei N31/32.
- durch das monolithische Design sollte die Latenz von IFCache/VRAM-Zugriffen im Prinzip generell etwas niedriger sein, auch bei identischen Taktraten.

Die 1080/1440/2160 benchmarks von CP77 und Wukon relativ zur 4080 implizieren auch einen Bandbreiten Bottleneck. Zumindest einen beginnenden. Die 9070XT wird mit zunehmender Auflösung relativ zur 4080 immer schwächer was im Zusammenhang mit der zur Auflösung sinkenden Hitrate des IF$ passen könnte.
Ggf hat man da etwas aufgeholt in der BB Effizienz aber offenbar potentiell nicht ganz.

L1/L2 könnte ggf auch etwas angewachsen sein. Ob IF$ Takt wirklich deutlich hilft, wenn einfach dessen Hitrate limitiert ...?

dargo
2025-01-15, 09:24:59
Die 1080/1440/2160 benchmarks von CP77 und Wukon relativ zur 4080 implezieren auch einen Bandbreiten Bottleneck. Zumindest einen beginnenden. Die 9070XT wird mit zunehmender Auflösung relativ zur 4080 immer schwächer was im Zusammenhang mit der zur Auflösung sinkenden Hitrate des IF$ passen könnte.

Wir wissen noch nicht mal ob die Benchmarks real sind und du willst davon schon Bandbreitenlimits ableiten? :freak:

AtTheDriveIn
2025-01-15, 10:45:24
Wir wissen noch nicht mal ob die Benchmarks real sind und du willst davon schon Bandbreitenlimits ableiten? :freak:
Er verhält sich für ein Spekulationsforum absolut richtig ;)

DrFreaK666
2025-01-15, 10:59:26
Die 1080/1440/2160 benchmarks von CP77 und Wukon relativ zur 4080 implezieren auch einen Bandbreiten Bottleneck. Zumindest einen beginnenden. Die 9070XT wird mit zunehmender Auflösung relativ zur 4080 immer schwächer was im Zusammenhang mit der zur Auflösung sinkenden Hitrate des IF$ passen könnte...

Jein. CP2077 zeigt sich da relativ unbeeindruckt. Verliert 20% wenn man die Auflösung auf 1440p erhöht und dann 19% bei UHD im Vergleich zur 4080S

fondness
2025-01-15, 11:18:23
Im anandtech Forum haben mehrere Leute sich inzwischen bei Nachmessungen auf 330-350mm2 geeinigt.

Ja, hab mir auch schon gedacht, dass die 390mm² sehr großzügig waren. Mit ~340mm² wäre das ganze natürlich noch beeindruckender.


Ansonsten:
- Bei den RDNA3.5-Verbesserungen war u.a. "verbesserte Kompression" aufgeführt, vermutlich war sowas wie Delta Color Compression gemeint. Die Verbesserung wird sicher auch RDNA4 haben und dort vielleicht noch einen Schritt weiter gehen.
- Die Größe und geleakten Testergebnisse des Chips deuten schon darauf hin, dass auch die CUs ordentlich an Leistung zugelegt haben, auch in Raster.
Das macht es recht wahrscheinlich, dass auch etwas im Bereich Register und/oder Caches im Bereich L0, WGP/CU-L1 und Global L1 (je SE) aufgebohrt wurde.
- Bei den RDNA4-ISA-Änderungen war was bei, wodurch teils häufiger zuerst im SE-L1 statt gleich im L2 nach bestimmten Daten gesucht werden könnte.
- Der IF$ taktet meines Wissens unabhängig vom Shader-Bereich, und könnte bei N48 schlicht etwas höher takten als bei N31/32.
- durch das monolithische Design sollte die Latenz von IFCache/VRAM-Zugriffen im Prinzip generell etwas niedriger sein, auch bei identischen Taktraten.

Man wird sehen, die deutlich höhere Bandbreite von Nvidia dank GDDR7 wird sicher hin und wieder durchschlagen, aber wie du schon sagst es sollte kein völliger Beinbruch sein und heutzutage spielt man eh immer seltener nativ.

why_me
2025-01-15, 11:32:55
Für was braucht Nvidia eigentlich die Bandbreite? Die Bilder werden doch nur noch ausgedacht und nicht mehr gerendert. ;D
Ein paar alte Bilder (2D) und das Transformer Modell sollten doch größtenteils in die Caches passen, oder?

dargo
2025-01-15, 11:50:28
Keine Ahnung. Braucht MFG mehr Bandbreite?

robbitop
2025-01-15, 15:23:27
Wir wissen noch nicht mal ob die Benchmarks real sind und du willst davon schon Bandbreitenlimits ableiten? :freak:
Wie dein Nachredner sagt: Spekulationsforum und da arbeiten wir mit dem was wir bekommen. ;)

fondness
2025-01-15, 16:35:38
9070 und 9070XT sind in Dänemark bereits lieferbar:
https://videocardz.com/newz/amd-radeon-rx-9070-gpus-already-in-stock-at-danish-retailer
https://www.fcomputer.dk/it-elektronik/hardware/grafikkort/amd-grafikkort/rx9070xt/gigabyte-radeon-9070-xt-gaming-oc-16g-grafikkort-gv-r9070xtgamingoc-16gd

Der Launch wurde wohl wirklich sehr kurzfristig verschoben :ugly:

fizzo
2025-01-15, 16:41:40
https://www.fcomputer.dk/it-elektronik/hardware/grafikkort/amd-grafikkort/rx9070

Der Preis :ugly:

edit: https://www.fcomputer.dk/it-elektronik/hardware/grafikkort/amd-grafikkort/rx7900xt/gigabyte-radeon-rx-7900-xt-gaming-oc-20g-grafikkort-gv-r79xtgamingoc-20gd-1

Eine 7900xt ist dort fast 25% billiger wie eine 9070. Da liegt wohl noch was im argen...

fondness
2025-01-15, 16:42:40
Ja, das wäre über 1000 EUR. Allerdings hat das AMD schon ausgeschlossen. Die versuchen wohl ein paar Leute abzuzocken.

reaperrr
2025-01-15, 16:46:11
https://www.fcomputer.dk/it-elektronik/hardware/grafikkort/amd-grafikkort/rx9070

Der Preis :ugly:
N48 schneller als GB203 confirmed :freak: ;D

dargo
2025-01-15, 16:54:26
https://www.fcomputer.dk/it-elektronik/hardware/grafikkort/amd-grafikkort/rx9070

Der Preis :ugly:

Ganze 4 Stück auf Lager? :freak: Die werden dann schön vom Händler vergoldet. ;D Aber schon sehr strange, dass der Händler die überhaupt verkaufen darf.

MSABK
2025-01-15, 17:01:42
Dann sollten erste Berichte auf reddit aufschlagen wenn sie wirklich geliefert wird.

dildo4u
2025-01-15, 17:02:25
Dann sollten erste Berichte auf reddit aufschlagen wenn sie wirklich geliefert wird.
Was willst Du ohne Treiber berichten?

dargo
2025-01-15, 17:07:48
Was willst Du ohne Treiber berichten?
Habe ich mir auch gerade gedacht. ;D

fondness
2025-01-15, 17:22:52
Naja, da wird schon eine Treiber CD dabei sein :ugly:

dargo
2025-01-15, 17:27:44
Da müssen aber viele ihr optisches Laufwerk wieder suchen. ;D Spaß bei Seite... selbst wenn dem so wäre wird der Treiber völlig veraltet sein.

MSABK
2025-01-15, 17:37:14
Was willst Du ohne Treiber berichten?

Meinte eher dass da jemand bestellt und diese auch geliefert bekommt, davon berichtet.;)

Hakim
2025-01-15, 17:37:40
Treiber CD? Nicht mal bei NVs FE gibs das glaube ich bei. Wenn ich mich richtig erinnere

dargo
2025-01-15, 17:41:24
Meinte eher dass da jemand bestellt und diese auch geliefert bekommt, davon berichtet.;)
Wow, wie aufregend... not. :cool:

Hakim
2025-01-15, 17:45:45
https://x.com/All_The_Watts/status/1878490567014777077

Wenn der 15 schon nicht stimmt können wir auch an den restlichen Angaben nicht trauen. War wohl nur seine Einschätzung?

Prinzenrolle
2025-01-15, 17:46:38
Ja, das wäre über 1000 EUR. Allerdings hat das AMD schon ausgeschlossen. Die versuchen wohl ein paar Leute abzuzocken.

Weder das wird eintreten noch der shice AMD verkaufe seine 9070XT für schlanke 550 Euro.:eek:

Kannst froh sein, wenn es unter 800 Euro werden.

AMD hat den Launch mal wieder total versemmelt wie es aussieht. Irgendwas ist nicht fertig.
Auf die letzten paar Tage kann eh niemand noch etwas relevantes ändern, also liegt die Verzögerung sicherlich an einer Fehlplanung.

OgrEGT
2025-01-15, 17:47:28
Wie gesagt ich denke dass sich die Performance Prognose auf einen Durchschnitt von 15 Spielen mit RZ und RT Mix bezieht...

horn 12
2025-01-15, 17:53:10
Wenn AMD die Karten heute nicht vorstellt ,- tud Ihnen den Gefallen womöglich gar ein Privat User!
Dann haben Sie Ihren Shitstorm komplett

Der Finnische Shop verkauft ab 23.01.2025
Also morgen in einer Woche!
Oder heist dies was Anderes ?

Raff
2025-01-15, 17:55:27
Naja, da wird schon eine Treiber CD dabei sein :ugly:

Hahaha - nein, die Zeiten sind lange vorbei. Insofern, wie bei der Arc B570 zuletzt, sind das nur hübsche Briefbeschwerer ohne Funktion.

MfG
Raff

dargo
2025-01-15, 18:02:17
Wenn der 15 schon nicht stimmt können wir auch an den restlichen Angaben nicht trauen. War wohl nur seine Einschätzung?
Hinter der 15 ist ein Controller was eher für Games spricht, also wird das womöglich tatsächlich 15 Games getestet bedeuten. Würde sich auch mit den letzten Gerüchten decken.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13684558&postcount=5189

Und diese komischen Symbole dahinter könnten tatsächlich Raster und RT bedeuten.

GerryB
2025-01-15, 18:21:36
Viel interessanter = 9070 nonXT >4070S <4070TiS (x)
würde in HFW ähnlich der 5070 performen, wo CB ca. +20% ggü. der 4070 nonS schätzt

(x) dann wäre allerdings 9070 > GRE erforderlich, evtl. easy machbar wg. des Vramtakts ab Werk,
wo die GRE etwas zu sehr untergebuttert wurde

dildo4u
2025-01-15, 18:26:21
Nvidia spart halt wieder die 5070 schrumpft einfaches Opfer.

294mm auf 263mm

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65326-nvidia-editors-day-die-details-zur-blackwell-architektur-und-den-geforce-rtx-50-karten.html

Hübie
2025-01-15, 18:54:05
Ja, das wäre über 1000 EUR. Allerdings hat das AMD schon ausgeschlossen. Die versuchen wohl ein paar Leute abzuzocken.

Dänemark hat 25% MwSt. Das darf man nicht vergessen.

GerryB
2025-01-15, 19:04:57
Nvidia spart halt wieder die 5070 schrumpft einfaches Opfer.
294mm auf 263mm

aber andererseits gibts dort auch fett Watt obendrauf 200-->250

btw.
z.Vgl. würde ich mir ne 9070-Custom mit 250W wünschen,
oder vllt. hat doch die MBA soviiiel Watt ?
(ggü. der GRE müßte dann doch mehr rauskommen)

Könnte sein, das gerade bei 250W das Duell am spannendsten wird.
incl. GRE und 4070S-custom

fondness
2025-01-15, 19:10:33
Weder das wird eintreten noch der shice AMD verkaufe seine 9070XT für schlanke 550 Euro.:eek:

Kannst froh sein, wenn es unter 800 Euro werden.

AMD hat den Launch mal wieder total versemmelt wie es aussieht. Irgendwas ist nicht fertig.
Auf die letzten paar Tage kann eh niemand noch etwas relevantes ändern, also liegt die Verzögerung sicherlich an einer Fehlplanung.

Ach Papperlapapp. Es wurde von Chiphell schon vor zwei Tagen berichtet, dass AMD fertig ist aber den Launch verschiebt weil man auf Nvidia warten will:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13683614#post13683614

shice AMD

Wie alt bist du? 10?

The_Invisible
2025-01-15, 19:29:43
Auf was Wollens warten? Preis, Leistung und Features schon bekannt, seit heute noch mehr. Können jederzeit loslegen

dildo4u
2025-01-15, 19:39:14
AMD will vermutlich zum Launch Games mit FSR4 haben diese Patches könnten erst nächste Woche kommen.
Die Karten in der Klasse brauchen Aggressiven Upsampling in neueren Games.

Ravenhearth
2025-01-15, 20:08:24
So wie's aussieht ist die 5080 ja nur 15% schneller als die 4080 in Raster bzw. mit wenig RT. Falls die 9070 XT tatsächlich die 7900 XTX erreicht oder leicht drunter liegt, wäre die 5080 nur 10-15% schneller als die 9070 XT. Mit RT ist der Abstand natürlich größer. Trotzdem brutal, sollte die 9070 XT wirklich so viel günstiger sein. Ich hoffe nur, AMD zieht jetzt nicht die Preise an...