PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36

DrFreaK666
2025-03-05, 11:42:19
Wollte max 700€ ausgeben.
Kanns mir natürlich mit dem Verkauf der 6700XT schönrechnen. Das wollte ich allerdings nicht

fizzo
2025-03-05, 11:42:26
Edit: überlesen

dargo
2025-03-05, 11:43:03
Ich frage nicht, was "eine" RX 6700 XT meldet (das weiß ich neben 50 anderen GPUs auswendig), sondern was seine RX 6700 XT meldet.

Es ist eine XFX Speedster SWFT 309, 3x darfst du raten.

Der Verbrauch scheint aber bissi hoch zu sein.
Jetzt glaubt doch nicht diesen bullshit was HWU da gemessen hat. :crazy:

Eine Woche durchalten (Enthaltsamkeit). Dann wird das schon ;)

Mach eher ca. 8 Wochen draus, früher wird das imo nichts mit UVP oder nahe dran. Die gierigen (Groß)händler haben bereits auch den Melkbraten gerochen weil es zu viele Junkies gibt die nahezu jeden Preis bezahlen.

nairune
2025-03-05, 11:44:57
Dass Asus und Gigabyte versuchen irgendwelche Premiumpreise aufzurufen ist ja nichts neues. XFX und Powercolor werden was auf Pulse Niveau haben.

YeahBuoy!
2025-03-05, 11:52:32
Absolut. Mein Reden. Es sei denn die ist dabei nahezu lautlos :tongue:

Andersrum. Da ist eher was bei Asus verrutscht. Asus selbst. Ich nehme die überhaupt nicht mehr ernst.

Ich kann mich (ich) an keinen schlechten Kühler auf einer Pulse erinnern.

Auch wieder wahr. Bei ASUS scheint die Kundschaft solvent und markenaffin genug zu sein. Stelle mir deren typischen Käufer so vor wie jemanden der sich mit Pattex übergießt und Kopf voran durch einen Camp David Shop kriecht.

Wenn es wirklich Shops gibt die XT Variante der Pulse zum gemunkelten Kurs anbieten dann wird meine 7900 GRE bald obdachlos.

whetstone
2025-03-05, 11:54:30
Bei reddit gibt es einen weiteren angeblichen leak von deutschen Händlern, sieht schon etwas besser aus, mal gucken:

Asus PRIME Radeon RX 9070 16GB - 739,00
Asus TUF Radeon RX 9070 16GB - 789,00
Asus PRIME Radeon RX 9070 XT 16GB - 799,00
Asus TUF Radeon RX 9070 XT 16GB - 879,00
Sapphire Nitro+ Radeon RX 9070 XT - 879,00
Sapphire Pure Radeon RX 9070 XT - 789,00
Sapphire Pulse Radeon RX 9070 XT - 689,00

The_Invisible
2025-03-05, 11:57:23
Naja besser, die UVP Dinger sehen ja aus als wären die sofort weg bzw gar nicht richtig verfügbar dann... aber lets see. Wenn man sich mit 5070Ti anlegen kann ja doch nicht schlecht

Ex3cut3r
2025-03-05, 11:57:27
Die Sapphire Nitro+ ist aber auch Preiswert.

Ist erstmal alles weg geschnappt, werden die Preise auch schnell Richtung 1000€ gehen.

Naja immer noch besser als 1000€ für eine 5070 non Ti zu zahlen.

dargo
2025-03-05, 12:02:03
Sapphire Pulse Radeon RX 9070 XT - 689,00
Das sieht schon mal halbwegs brauchbar aus. Pure gleich 100€ mehr, wofür? :ulol: Achja... für die weiße Lackierung. X-D

Hakim
2025-03-05, 12:03:20
Den heikeln letzten Satz noch schnell Weg gemacht? Nur zu :).

Spring
2025-03-05, 12:04:05
Dumm nur, dass DLSS IMHO unverzichtbar ist und bleibt.

So ein Quatsch. Bitte nicht von den Pixelschubsern auf die Allgemeinheit schliessen.

EDIT ach da wurde noch wegeditiert, na immerhin

Ex3cut3r
2025-03-05, 12:05:15
So ein Quatsch. Bitte nicht von den Pixelschubsern auf die Allgemeinheit schliessen.



Ja, genau, hast recht.

Dural
2025-03-05, 12:06:08
70W mehr als eine 5080, ernsthaft?

https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo

Hakim
2025-03-05, 12:07:31
Das neue Transformer Model ist schon verdammt gut, muss man sagen, ich hoffe AMD kommt mit FSR4 nah dran. Da bin ich heute auch gespannt auf den Vergleich

Raff
2025-03-05, 12:08:03
70W mehr als eine 5080, ernsthaft?

Bitte hört auf, den Quatsch zu posten und mit Klicks zu belohnen, arrrgh.

MfG
Raff

nairune
2025-03-05, 12:08:46
Echt mal, sind doch nur noch 3 Stunden

Dural
2025-03-05, 12:09:16
Bitte was?

Wenn das so kommt, was will man damit?

Und das noch auf 350mm Die Fläche, kein Wunder sind die Kühler so gross. Kein Wunder gibt es Karten mit 3x 8-Pin.

Badesalz
2025-03-05, 12:09:27
Mach eher ca. 8 Wochen draus, früher wird das imo nichts mit UVP oder nahe dran. Die gierigen (Groß)händler haben bereits auch den Melkbraten gerochen weil es zu viele Junkies gibt die nahezu jeden Preis bezahlen.Oder so. Bis dahin sind auch die Treiber gut :tongue:

The_Invisible
2025-03-05, 12:09:43
Bitte hört auf, den Quatsch zu posten und mit Klicks zu belohnen, arrrgh.

MfG
Raff

Gibts eigentlich ein XXL Video von dir heute zum Review Start? Schätze schon mal oder :D

Raff
2025-03-05, 12:10:09
Gibts eigentlich ein XXL Video von dir heute zum Review Start? Schätze schon mal oder :D

Ich habe keine Ahnung, was du meinen könntest. :wink:

MfG
Raff

DrFreaK666
2025-03-05, 12:10:19
Bitte was?

Wenn das so kommt, was will man damit?

Und das noch auf 350mm Die Fläche, kein Wunder sind die Kühler so gross. Kein Wunder gibt es Karten mit 3x 8-Pin.

Das wurde hier aber schon besprochen.
Daher: nicht nochmal posten

Hakim
2025-03-05, 12:10:22
Warte doch die paar Stunden mit der Empörung. Wenn es so kommt, kannst du loslegen

Badesalz
2025-03-05, 12:10:55
70W mehr als eine 5080, ernsthaft?Kann ihn ein Mod für 1 Woche sperren? Bitte :freak: Oder jemand ein Mal klatschen? Zwei Mal? Wenigstens zig Sekunden lang schütteln?

edit:
Und whetstone gleich mit dabei.

Ich hasse Typen die irgendwas im Thread schreiben und davor nicht wenigstens die letzten 2-3 Seiten überfliegen. Was für eine plötzliche Anhäufung von unbedarften Laien. Ab wann nochmal sind die schon angemeldet? :uclap:

fizzo
2025-03-05, 12:13:46
Laut Sapphire kosten die 9070 Pulse 629 und die 9070XT Pulse 689 Euro incl. MwSt. Also UVP

Freut mich zu hören. Hoffen wir, dass genügend Standardmodelle vorrätig sind.

Hakim
2025-03-05, 12:16:48
689€ scheint wohl die offizielle UVP zu sein für die XT

Wenn ich mit den aktuellen Kurs 599$ umwandele und es mit 1,19 multipliziere komme ich gerade auf 668€. Hat wohl der Dollar leicht federn gelassen

Badesalz
2025-03-05, 12:17:41
Freut mich zu hören. Sapphire UVP ≠ Shoppreise.

Lasst euch also nicht verschaukeln :up: und kauft nichts über der UVP. Sie glauben jetzt - im kleineren Maßstab - auch mit euch die Blackwell-Nummer abziehen zu können.

fizzo
2025-03-05, 12:22:37
689€ scheint wohl die offizielle UVP zu sein für die XT

Genau und 629€ für die notXT. Die ist damit um 20€ günstiger als die 5070 FE in Deutschland. Auf die Straßenpreise der "normalen" 5070 bin ich gespannt.

Disco_STFU
2025-03-05, 12:25:32
Ich habe keine Ahnung, was du meinen könntest. :wink:

MfG
Raff

Wir warten auf ein episches Raffzit! ;D

Sam Pau
2025-03-05, 12:27:47
Kann man die Karten ab 15:00 Uhr heute schon bestellen oder erst morgen?

davidzo
2025-03-05, 12:28:57
Warum nicht?
Hat von RDNA1 zu RDNA2 oder Kepler zu Maxwell ja auch geklappt.
Dass RDNA3 nicht ganz so effizient und taktfreudig (in normalen TDPs) ausgefallen ist wie geplant, lässt auch mehr Raum für Verbesserungen.

Weil die CUs mal eben um +80% fetter geworden sind, im selben Node. Das ist schon ein enormes Kunststück die 56CUs der 9070 bei ähnlichem Verbrauch zu halten wie die 60CUs der 7800XT. Die Vanilla 9070 ist ja trotzdem deutlich schneller, also sind die CUs besser ausgelastet. Eine bessere Auslastung heißt in der Regel auch ein höherer Energieverbrauch, da die CUs in Teillast natürlich weniger ziehen.
Bei 20% höherem Takt als N32 verbraucht man natürlich auch mehr. Ist doch egal wenn das was am Ende bei herum kommt stimmt. Undervolting ist ja anscheinend eine Option. Bei N21 Taktraten vielleicht 3060 Verbrauch und 3090 Leistung wäre doch nett oder so.

RDNA1 zu RDNA2 war CLN7FF zu N7P, also ein anderer Node der rund 30% Taktfreudiger war.
Und Maxwell ist in der Geschichte von Grafikkarten einmalig. Das ist die sprichwörtliche Ausnahme welche die Regel bestätigt.

madzapp
2025-03-05, 12:29:15
Morgen

whetstone
2025-03-05, 12:33:45
edit:
Und whetstone gleich mit dabei.

Ich hasse Typen die irgendwas im Thread schreiben und davor nicht wenigstens die letzten 2-3 Seiten überfliegen. Was für eine plötzliche Anhäufung von unbedarften Laien. Ab wann nochmal sind die schon angemeldet? :uclap:

Was ist denn mit dir los? .... es wurde vor meinem post horror preise aus dem PCGH forum gepostet und ich hab weiteren spekulatius hinzugefügt der besser aussieht -> https://www.reddit.com/r/radeon/comments/1j3yw2m/german_pricing_for_90709070_xt_leak/

Emil_i_Lönneberga
2025-03-05, 12:40:24
Wann dürfen die Hersteller ihr Wasserkühler präsentieren?

Ich glaube Wasserkühler dürfte in dem Preis Bereich auch eine Nische sein. Meistens wird es ja für eher die teueren Top Dogs gemacht. Aber kann es nicht genau beurteilen
In 1-2 Tagen. Verfügbar ist aber auch bei Blackwell noch keiner. Kann also auch bei der 9070XT noch dauern.

Nope.

https://ezmodding.com/search/?qs=4060

Wakü FTW.

Erster.

https://download.alphacool.com/datasheet/DE_14752_Alphacool_Core_RX_9070_XT_Taichi_mit_Backplate_Datenblatt.pdf

Hakim
2025-03-05, 12:44:19
Tut mir leid aber ich muss bei der Wakü Lösung für die 4060 schmunzeln :)

Badesalz
2025-03-05, 12:45:33
Was ist denn mit dir los? .... es wurde vor meinem post horror preise aus dem PCGH forum gepostet und ich hab weiteren spekulatius hinzugefügt der besser aussieht Hab ich mir ein dermassen fettes Fauxpas geleistet in dem ich zum Vergleich nur die 3 Preise von Sapphire beäugelt habe?

Goser
2025-03-05, 12:46:21
Ich habe keine Ahnung, was du meinen könntest. :wink:

MfG
Raff
top freue mich drauf (y)

KooLP
2025-03-05, 12:58:05
Bitte hört auf, den Quatsch zu posten und mit Klicks zu belohnen, arrrgh.

MfG
Raff

Deine Kollegen sind aber auch gut dabei, den Quatsch zu verbreiten. Es wird sogar auf die Werte genau eingegangen. Vielleicht erstmal vor der eigenen Haustür kehren...:D

https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/Leistungsaufnahme-1467502/

Tigershark
2025-03-05, 13:15:28
Erster.

https://download.alphacool.com/datasheet/DE_14752_Alphacool_Core_RX_9070_XT_Taichi_mit_Backplate_Datenblatt.pdf

ahhh, sehr cool.

wobei das ja von ASROCK das "dickste" Ding sein wird... mein Plan war eher, ein "Budgetmodell" à la Pulse/Steel Legend/Reaper zu holen, weil für einen dicken Kühler mit RGB Bling Bling zu zahlen und ihn dann durch WaKü zu ersetzen ist ja irgendwie auch arg sinnfrei... aber gut, dann darf man wohl hoffen! :-)

Disco_STFU
2025-03-05, 13:21:58
Warte doch die paar Stunden mit der Empörung. Wenn es so kommt, kannst du loslegen

;D

Noch 1h 35m :uconf3:

G3cko
2025-03-05, 13:27:04
Erster.

https://download.alphacool.com/datasheet/DE_14752_Alphacool_Core_RX_9070_XT_Taichi_mit_Backplate_Datenblatt.pdf

Die Taichi ist doch ein ehr teures Custom Design oder? Keine Ahnung was in den Köpfen vorgeht. Ich will am liebsten irgend eine schrottige aber preiswerte Custom umbauen. Und nicht einen 7 Slot Kühler aus Platin kaufen, nur um ihn dann zu demontieren.

HTB|Bladerunner
2025-03-05, 13:27:27
Wie hoch ist eigentlich die Wahrscheinlichkeit, dass die Hersteller bei Ihren "Premium-Ausführungen" selektierte Chips verbauen?

Hakim
2025-03-05, 13:34:56
Angeblich machen die es, OC ist sowieso relativ eingeschränkt gegenüber früher, da ab Werk sehr nah am max betrieben wird mMn, evtl bringt es was fürs extreme OC.

Badesalz
2025-03-05, 13:52:58
Ich bin jetzt auf jeden bis 17uhr offline. So ein Massaker hab ich nur 1x mitgemacht :D

Bis dann mal.

RoNsOn Xs
2025-03-05, 13:54:05
599$ entsprechen doch hierzulande 559,24€ + MwSt, oder?
Die Kartentests kommen nachher, aber Verkauf ist Morgen, oder so?

edit:
1 Seite vorher schon beantwortet. Okay.

DrFreaK666
2025-03-05, 13:54:58
jo

grobi
2025-03-05, 14:18:28
Ich verkaufe meine Asus TUF RTX3090 OC für 600€ und für einen kleinen Aufpreis nehme ich die 9070XT mit. Auch wenn nur wenig Mehrleistung.

madzapp
2025-03-05, 14:26:48
Mal ne Frage zu Sapphire Nitro+. Nitro+ ist fetter Kühler ohne Vaporchamber, wie 7800xt, und Nitro+ mit VaporX ist dann eben mit, wie 7900xt?

mczak
2025-03-05, 14:41:47
RDNA1 zu RDNA2 war CLN7FF zu N7P, also ein anderer Node der rund 30% Taktfreudiger war.
Der Taktvorteil von RDNA2 gegenüber RDNA kam zum weitaus grössten Teil durch ein Redesign der Implementierung zustande, nicht durch die Fertigung (TSMC sagt N7P hat 7% Performance Vorteil bei Iso-Verbrauch gegenüber N7). Da wurden ordentlich Transistoren investiert. Kann man nachlesen bei den Reviews, ist auch klar wenn man sich die Zahlen anschaut (Anzahl CUs, SEs, Transistoren) bei vergleichbar schnellen Chips (N10 vs. N33).

Disco_STFU
2025-03-05, 14:54:08
T minus five minutes to go!

nairune
2025-03-05, 15:02:05
Nice Energieeffizienz passt, bullshit leak

Goser
2025-03-05, 15:03:01
https://www.youtube.com/watch?v=6q3m0ohjI2w
Der8auer Nvidia in Schwierigkeiten? Die RX 9070 XT hat enormes Potential

Raff
2025-03-05, 15:05:25
Die RX 9070 XT hat enormes Potential

Yep. Falls ihr sehen wollt, was Navi 48 @ knapp 3,3 GHz und mit 720 GByte/s leistet, sie ist in allen Benchmarks als "XTX" enthalten: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/

MfG
Raff

Tigershark
2025-03-05, 15:13:26
Yep. Falls ihr sehen wollt, was Navi 48 @ knapp 3,3 GHz und mit 720 GByte/s leistet, sie ist in allen Benchmarks als "XTX" enthalten: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/

MfG
Raff

Starker Test. :up:
Lt. eurer Tabelle auf S.1 unterstützt die 9070 non-XT aber kein FSR4...:biggrin:

mczak
2025-03-05, 15:22:38
Ich spreche nicht von jetzt sondern erst Ende 2025/ Anfang 2026. Eine GPU-Gen lebt nicht nur ein Jahr. Aber klar... selbst das könnte u.U. zu früh für so einen GDDR7 sein.

Ach so ja das hätte theoretisch klappen können. Aber der Chip wäre einfach zu kurz marktrelevant, das lohnt sich nicht und macht man nicht (mehr). Wenn schon hätte man den jetzt rausbringen müssen (dann eben mit 384bit gddr6) - allenfalls mit gddr7 Unterstützung so dass man eine Refresh-Karte bringen kann (mehr Bandbreite kann ja trotzdem noch etwas helfen).

G3cko
2025-03-05, 15:29:36
Die Energieeffizienz im Idle gefällt. Keine nennenswerten Schwächen. Nun muss ich nur einen Wasserkühler und einen Hersteller finden, und einen Händler welcher einen nicht über den Tisch zieht. :freak:

Dural
2025-03-05, 15:45:41
Also ich habe AMD ja noch nie verstanden...

Haben sie eine Schrott Architektur gibt es gefühlt 10 verschieden Karten wo man keine wirklich brauchen kann, und wenn sie mal wieder was vernünftiges habe kommt gerade mal ein einziger Chip davon... Eine ca. 450mm2 GPU davon hätte NV ziemlich in Bedrängnis bringen können, 5080 Leistung und mehr wäre drin.

Vor allem ist das ja auch nicht wirklich Arbeit, man Skaliert es einfach rauf. Kosten gibt es mehr, ja.

DK2000
2025-03-05, 15:45:43
Die ATI 9700 Pro Ära "reborn" als AMD 9070 XT - ein episches Comeback! Freut mich sehr für AMD! Insbesondere die XTX OC Schlagkraft ist beeindruckend. Vielleicht haben die ja noch ein Ass im Ärmel... ;)

Jetzt fehlt da nur noch in Anlehnung dran, dass sich eine imaginäre AMD 9050 zur 9070 flashen lässt. Das Retro Feeling wäre dann komplett ;)

Tigershark
2025-03-05, 15:49:09
Die ATI 9700 Pro Ära "reborn" als AMD 9070 XT - ein episches Comeback! Freut mich sehr für AMD! Insbesondere die XTX OC Schlagkraft ist beeindruckend. Vielleicht haben die ja noch ein Ass im Ärmel... ;)

Jetzt fehlt da nur noch in Anlehnung dran, dass sich eine imaginäre AMD 9050 zur 9070 flashen lässt. Das Retro Feeling wäre dann komplett ;)

Bleistiftmod, anyone? ;D

@Raff: Ihr habt hinten bei der Preis-/Leistungsanalyse einen Fehler im Text. Da steht: "Hinzu kommt die hohe Effizienz der RX 9070, welche AMD offenbar eingepreist hat. Das Preis-Leistungs-Verhältnis der Geforce RTX 5070. "

Ich denke da sollte im zweiten Satz stehen "Das beste Preis-Leistungs-Verhältnis bei nVIDIA hat die Geforce RTX 5070." oder sowas?

DrFreaK666
2025-03-05, 15:49:29
Das wird kein Ass im Ärmel. Das wird ein Refresh wenn NV mit ihren Tis und Supers kommt

maximus_hertus
2025-03-05, 16:13:40
Das wird kein Ass im Ärmel. Das wird ein Refresh wenn NV mit ihren Tis und Supers kommt

Dauert aber noch ein gutes Jahr, mindestens. Vorher wird es kein Super Refresh oder ähnliches geben. Nicht beim aktuellen nV / AI Trend.

GerryB
2025-03-05, 16:15:31
für COD reichts gerade so, ... um mit der nonXT nen 240Hz-Moni auszulasten
(FSR+FG scheint hier besser zu skalieren als mit RDNA3)

mczak
2025-03-05, 16:37:28
Das wird kein Ass im Ärmel. Das wird ein Refresh wenn NV mit ihren Tis und Supers kommt
Man darf aber nicht vergessen dass die Chips im Gegensatz zur Ada Generation ja schon (zumindest fast) komplett aktiviert daherkommen. Daher würde ich jetzt nicht allzu viel von einer Refresh-Generation erwarten. Mit Ausnahmen, z.B. eine RTX 5070 Super mit 18 GB oder so (die aber abseits von speicherlimitierten Szenarien auch nicht gross schneller werden dürfte, ich vermute nvidia wird nicht bereit sein auf breiter Front die nächstgrösseren Chips zu verwenden).

Κριός
2025-03-05, 16:45:20
Laut PCGH sind die Karten im Idle niedriger als bei Nvidia? oO


Sind Sie überrascht? Wir staunten beim Erfassen der Leerlaufwerte jedenfalls nicht schlecht und haben die Ergebnisse daher dreimal überprüft. AMD hat mit RDNA 4 nicht nur die Raytracing-Schwäche überwunden, sondern auch die langjährige Marotte der hohen Leistungsaufnahme im Leerlauf. Vorbei sind die Zeiten von bis zu 100 Watt auf dem Windows-Desktop, die Radeon RX 9070 und RX 9070 XT bleiben einstellig. (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/)

Shaft
2025-03-05, 17:08:51
Ich warte noch FSR 4 Tests ab, hier wirds richtig interessant, sieht bis jetzt gut aus.

RT und insbesondere PT Performance, nicht ganz da wie erhofft. Vielleicht mit kommenden Treibern, bekommt man evtl. noch etwas bessere Performance hin.

Edit:
Korrektur, die Performance RT ist gut, es gibt ein Paar Ausreißer.

Κριός
2025-03-05, 17:13:14
Ich warte noch FSR 4 Tests ab, hier wirds richtig interessant, sieht bis jetzt gut aus.

RT und insbesondere PT Performance, nicht ganz da wie erhofft. Vielleicht mit kommenden Treibern, bekommt man evtl. noch etwas bessere Performance hin.

Was gibt es da abzuwarten? Wer hohe Ansprüche hat kommt so oder so an der 5090 nicht vorbei. Selbst wenn FSR4 gut werden sollte. Es wird bei weitem nicht so zahlreich implementiert werden wie DLSS

DrFreaK666
2025-03-05, 17:15:54
... Selbst wenn FSR4 gut werden sollte...
Sollte?

Raff
2025-03-05, 17:18:45
Helft ihm halt und verlinkt hilfreiche FSR-4-Tests (https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR-4-AMD-Release-vs-DLSS-4-1467123/). =)

MfG
Raff

Shaft
2025-03-05, 17:31:33
Was gibt es da abzuwarten? Wer hohe Ansprüche hat kommt so oder so an der 5090 nicht vorbei. Selbst wenn FSR4 gut werden sollte. Es wird bei weitem nicht so zahlreich implementiert werden wie DLSS


Ich glaube das würde auch keiner erwarten.

GerryB
2025-03-05, 17:33:37
btw.
Schön, das PCGH schon ein bisschen mit UVing rumgespielt hat.
die MHz/Volt sind nice

bei der XT fehlt vermutlich das -

Raff
2025-03-05, 17:39:14
Ist jetzt da. :up:

MfG
Raff

raffa
2025-03-05, 17:40:18
Schöner Test von PCGH und ein sehr angenehmes Video. :up:

Auch der Tuningvergleich ist nett. Mich würde interessieren, ob die 9070 XT der 9070 die Effizienzkrone abringen kann, wenn man beide auf maximale Effizienz trimmt.

Raff
2025-03-05, 17:43:32
Kann sie, schau mal: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3

Das sind keine pixelgenauen Szenen, aber man sieht, dass das Full-Fat-Modell @ ~210 Watt dank zusätzlicher Rechenwerke schon etwas mehr Fps raushaut als das Salvage-Gerät @ 220 Watt. Insofern ist die 9070 zwar sehr geil für alle, die Karten nicht selbst optimieren, aber die XT vielseitiger für alle, die das tun. :)

MfG
Raff

raffa
2025-03-05, 17:50:04
Nice!

Gefällt mir bisher sehr gut, was AMD da entwickelt hat.

GerryB
2025-03-05, 17:55:03
Insofern ist die 9070 zwar sehr geil für alle, die Karten nicht selbst optimieren, aber die XT vielseitiger für alle, die das tun.
1+

Generell scheint die Kurve bei 0,72V unten als minVolt abgesichert zu sein.
Da lohnt es sich nicht, die nonXT weiter abzuwürgen.(-30% PL brauchts nicht)

Je nach Chipgüte muss man halt schauen wieviel eff.MHz zu eff. 720...750mV passen. 2100...2250?
wenns denn maximal sparsam sein soll

Zossel
2025-03-05, 18:04:06
Hat jemand die Die-Sizes von dieser AMD-GPU plus die entsprechenden GPUs von NV für mich?
Wäre super, damit ich nicht selber suchen muss.

fizzo
2025-03-05, 18:25:55
Hat jemand die Die-Sizes von dieser AMD-GPU plus die entsprechenden GPUs von NV für mich?
Wäre super, damit ich nicht selber suchen muss.

Navi 48 - 357mm2
NV:

Badesalz
2025-03-05, 18:46:01
Yep. Falls ihr sehen wollt, was Navi 48 @ knapp 3,3 GHz und mit 720 GByte/s leistet, sie ist in allen Benchmarks als "XTX" enthalten: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/"Testhandwerklich" ok.

Mediatechnisch gefiel mir das aber NICHT. Warum ist die Stimme so leise? Und warum hab ich das Gefühl, das Video läuft mit 1,1x? (vor allem eben was Sprache angeht...) Muss man auf YT Sendezeit zahlen?
Ich fing schon an mich leicht zu ärgern, denn SONST war das schon ok. Bitte mehr auf sowas achten.

@all
Alle Tester durchweg einfach zufrieden. Weil teilweise auch positiv überrascht :D Die Tests sind in der Prosa positiver als die vom 9800X3D :freak: Wobei grad RT mich selbst auch überraschte. Stellenweise sogar der 5080 auf den Fersen hab ich jetzt tatsächlich nicht erwartet.

Zahlen kann man nicht hinschwätzen ;) aber von der Prosa her... Irgendwie gibts eine Art HandInHand O-Ton :usweet: Ich hab das Gefühl die sind alle wegen Perf/Watt und vor allem Verfügbarkeit und Preise ziemlich stinkig auf die Grünen und wollen die Roten jetzt richtig gut darstellen :tongue:

Dem Markt wirds nicht schaden.

GerryB
2025-03-05, 19:03:43
mit der Cryengine scheint AMD derzeit auf Kriegsfuss zu stehen
HS sieht genauso komisch wie KCD2 aus

Gibts da auch Async-Mods und/oder Linux-Tests?

Sumpfmolch
2025-03-05, 19:09:08
Die meisten Custom Modelle wieder mit irren Aufpreisen für 50MHz mehr und teilweise nicht mal besserer Kühlleistung. Die Custom Hersteller größtenteils nur noch Blutsauger im Graka Markt, die besser früher als später pleite gehen dürfen.

mczak
2025-03-05, 19:11:54
mit der Cryengine scheint AMD derzeit auf Kriegsfuss zu stehen
HS sieht genauso komisch wie KCD2 aus

Gibts da auch Async-Mods und/oder Linux-Tests?
Linux-Tests gibts wie üblich bei phoronix:
https://www.phoronix.com/review/amd-radeon-rx9070-linux
https://www.phoronix.com/review/amd-radeon-rx9070-linux-compute

Läuft ok, in machen Spielen auch schon ganz gut aber insgesamt fehlt wohl noch etwas Optimierung.

GerryB
2025-03-05, 19:16:59
Ist RADV oder Mesa 25.0 momentan sinnvoller?
(für KCD2 etc.)

Wiseman
2025-03-05, 19:29:16
für COD reichts gerade so, ... um mit der nonXT nen 240Hz-Moni auszulasten
(FSR+FG scheint hier besser zu skalieren als mit RDNA3)

In dem COD MWIII Benchmark (4k, Extreme Preset) übertrumpft die 9070XT nicht nur die 4090, sondern auch die 5090.

Das muss ein Fake sein. dildo4u, such im Internet so lange, bis du eine Website findest, auf der die 5090 auch in diesem Benchmark den längsten Balken hat und poste umgehend das Diagramm hier.

Tss, soweit kommts noch, dass eine 800€ Karte eine 5000€ Karte im Balkenwettbewerb übertrifft.

raffa
2025-03-05, 19:43:51
Ist RADV oder Mesa 25.0 momentan sinnvoller?
(für KCD2 etc.)

Du meinst RADV oder AMDVLK -
Auf RDNA2 ganz klar mesa 25 mit RADV - insbesondere bei KCD2.
Bei KCD sprechen wir da locker über 20% mehrleistung von mesa 25 gegenüber 2025.Q1.2
Das wird bestimmt etwas dauern, bis RDNA4 so rund läuft.

Dino-Fossil
2025-03-05, 19:52:12
Finde N48 sehr gelungen, nur preislich außerhalb meiner Interessenlage.
Schade das es wohl laut aktuellem Gerüchtestand keine 9060XT auf n48 Basis geben wird. Wobei man auch sagen muss, dass dann wohl ~500€ für vermutlich 12gb auch einfach mal zu viel für eine 60er Karte wäre.

][immy
2025-03-05, 19:52:18
Mhh, der Treiber ist wohl noch nicht rdna4 optimiert vanders lassen sich die Counter strike 2 Werte wohl nicht erklären. Hatte mit ein wenig mehr Optimierung (die vermutlich noch kommt) wohl für insgesamt etwas höheren Abstand gesorgt. Vor allem aber auch die Indiana Jones Werte sind unterirdisch, was so kaum erklärbar ist außer Treiber schwächen.

Insgesamt aber eine ziemlich gute Karte. Ein größerer rdna4 Chip hätte wohl auch dazu gepasst, aber da muss man wohl so ehrlich sein zuzugehen, das man rtx 4090/5090 user damit nicht abgeholt hätte.

Freestaler
2025-03-05, 20:07:18
Ne 9080xt hätte mich gefreut. 9090xt muss ja nicht sein. 9080xt für 899 usdollar.. lecker.

crux2005
2025-03-05, 20:23:44
820€ für die Sapphire Pure 9070XT. Die Gigabyte Gaming auch über 800€. Nein, danke. Bin echt enttäuscht.

Bei so preisen werde ich die 5070 Ti für 900€ "vorbestellen" und hoffen das sie noch dieses Jahrhundert eintrifft. ;D

dildo4u
2025-03-05, 20:26:50
War immer klar Nvidia minus 200€ ist 800 wenn 5070TI über 1k kosten.

fizzo
2025-03-05, 20:32:24
820€ für die Sapphire Pure 9070XT. Die Gigabyte Gaming auch über 800€. Nein, danke. Bin echt enttäuscht.

Bei so preisen werde ich die 5070 Ti für 900€ "vorbestellen" und hoffen das sie noch dieses Jahrhundert eintrifft. ;D

Die Pure hat einen UVP von 799€. Warum nicht eine Pulse um 689€. Muss man halt morgen um 15 Uhr schnell sein. ;)

Schnitzl
2025-03-05, 20:36:50
In dem COD MWIII Benchmark (4k, Extreme Preset) übertrumpft die 9070XT nicht nur die 4090, sondern auch die 5090.

Das muss ein Fake sein. dildo4u, such im Internet so lange, bis du eine Website findest, auf der die 5090 auch in diesem Benchmark den längsten Balken hat und poste umgehend das Diagramm hier.

Tss, soweit kommts noch, dass eine 800€ Karte eine 5000€ Karte im Balkenwettbewerb übertrifft.
Find ich gut, dass du dich hier so für nVidia einsetzt :up:

@all: es gibt übrigens nun den AMD/ATI Radeon RX 9070 & 9070 XT Review-Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620968&page=6) ;)

robbitop
2025-03-05, 20:39:08
Yep. Falls ihr sehen wollt, was Navi 48 @ knapp 3,3 GHz und mit 720 GByte/s leistet, sie ist in allen Benchmarks als "XTX" enthalten: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/

MfG
Raff

Sehr geiles Video :up: Und sehr geile HW! Auch das mit der XTX!
Könnt ihr noch AFMF2.1 vs LSFG3.0 (da gibts neu neue beta btw mit adaptive mode) vs dem neuen Nvidia Pendant testen?

btw: Haartransplantation oder hab ich mich da verguckt? X-D

GerryB
2025-03-05, 20:46:55
War immer klar Nvidia minus 200€ ist 800 wenn 5070TI über 1k kosten.
schau Dir die 5070nonTi-Preise an
kaum zum UVP verfügbar

Da ist sogar ne 800€ Custom 9070xt sinnvoller.

Fragman
2025-03-05, 21:23:56
Da möchte man Händler sein.
200 Euro mehr mitnehmen klingt gut.

basix
2025-03-05, 21:42:45
RDNA4 Architektur Deepdive:
https://chipsandcheese.com/p/amds-rdna4-architecture-video?triedRedirect=true

Edit:
Massiv reduzierte Infinity Cache Latenz verglichen mit RDNA2 und RDNA3. Verglichen zu RDNA2 ist der grösste Teil sicher der höhere Takt. L1$ ist wirklich "verschwunden".

Der_Korken
2025-03-05, 21:44:34
Gibt es eigentlich gute Reviews von der 9070XT Hellhound? Der Kühler scheint dünner als der von Pulse und Pure zu sein, aber die beiden haben absolut keine Temperaturprobleme und sind bereits super leise. Da letztere aber auch noch no-coilwhine-approved von Raff sind, würde ich die Hellhound ungerne blind kaufen, auch wenn sie vielleicht günstiger sein wird.

Armaq
2025-03-05, 22:24:22
Kann sie, schau mal: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3

Das sind keine pixelgenauen Szenen, aber man sieht, dass das Full-Fat-Modell @ ~210 Watt dank zusätzlicher Rechenwerke schon etwas mehr Fps raushaut als das Salvage-Gerät @ 220 Watt. Insofern ist die 9070 zwar sehr geil für alle, die Karten nicht selbst optimieren, aber die XT vielseitiger für alle, die das tun. :)

MfG
Raff
Richtig guter Test! Ihr habt viele Aspekte beleuchtet und ein sehr rundes Bild gezeichnet.

Zossel
2025-03-05, 23:14:55
Navi 48 - 357mm2
NV:

THX

crux2005
2025-03-06, 01:30:29
2HjnByG7AXY

Nix spezielles, also kein 12VHPWR "done right", nur weniger Saft insgesamt und wie man im Bild sieht 2x 12V mit Fuses.

GerryB
2025-03-06, 05:44:28
btw.
Interessant wirds mit Fps-Limit, ... finde ich eeh besser als PL-30%.
(mit zu niedrigem PL leiden u.U. die minFps zu sehr)

Man hat da ggü. der GRE nochmal gut nachjustiert.
(bei fast gleichem Process)

Wer dann noch FSR+FG nutzt, sollte im Hochsommer keine Sorgen haben.

@Raff
Finde Dein XTX-Setting wirklich nice!
eff.3GHz@0,84V in ME:E mit PL+10%@-150mV
der Hotspot ging ja auch bei Deiner Taichi

Kein Wunder, das Du soviel Smileys gepostet hast.

prinz_valium_2
2025-03-06, 05:51:32
Die mutmaßlichen $50 rebate für Hersteller / Händler ergeben Sinn.
Damit wären dann $100 zwischen 9070 und XT, was deutlich besser passt.

Perfekt wäre wohl $80 Unterschied gewesen.
Also die 9070 für $529

robbitop
2025-03-06, 06:52:50
RDNA4 Architektur Deepdive:
https://chipsandcheese.com/p/amds-rdna4-architecture-video?triedRedirect=true

Edit:
Massiv reduzierte Infinity Cache Latenz verglichen mit RDNA2 und RDNA3. Verglichen zu RDNA2 ist der grösste Teil sicher der höhere Takt. L1$ ist wirklich "verschwunden".

IMO leider kein echter deep dive verglichen damit wie sie sonst GPUs und CPUs auseinander nehmen. Hoffentlich bringen sie noch einen Artikel wo sie die GPU mehr vermessen wie zB ihr Artikel über die bottlenecks von rdna2/3 in PT.
Auch wäre schön Dinge zu erfahren wie: ist für Matrxberechnungen nun eine separate HW Einheit im CU und läuft die parallel zu FPU? Dass FSR4 so teuer ist ist ein kleiner Indikator dass in dem Bereich ggf weniger capability ist als in einem SM von einer modernen geforce.

basix
2025-03-06, 07:47:08
IMO leider kein echter deep dive verglichen damit wie sie sonst GPUs und CPUs auseinander nehmen. Hoffentlich bringen sie noch einen Artikel wo sie die GPU mehr vermessen wie zB ihr Artikel über die bottlenecks von rdna2/3 in PT.
Auch wäre schön Dinge zu erfahren wie: ist für Matrxberechnungen nun eine separate HW Einheit im CU und läuft die parallel zu FPU? Dass FSR4 so teuer ist ist ein kleiner Indikator dass in dem Bereich ggf weniger capability ist als in einem SM von einer modernen geforce.

Da kommt sicher noch was von denen ;)

Zossel
2025-03-06, 08:06:07
Auch wäre schön Dinge zu erfahren wie: ist für Matrxberechnungen nun eine separate HW Einheit im CU und läuft die parallel zu FPU? Dass FSR4 so teuer ist ist ein kleiner Indikator dass in dem Bereich ggf weniger capability ist als in einem SM von einer modernen geforce.

Eins ist auch ohne weitere Betrachtung klar: Man hat weniger dark silicon wenn gerade keine Matrixberechnungen durchgeführt werden.

Ravenhearth
2025-03-06, 10:51:12
Auch wäre schön Dinge zu erfahren wie: ist für Matrxberechnungen nun eine separate HW Einheit im CU und läuft die parallel zu FPU? Dass FSR4 so teuer ist ist ein kleiner Indikator dass in dem Bereich ggf weniger capability ist als in einem SM von einer modernen geforce.
Ich dachte es war schon klar, dass es keine separaten Einheiten dafür gibt?
Deutlich mehr AI auch ohne separate Einheiten

Ebenso keine separaten Einheiten nutzt RDNA 4 für Machine Learning, die Matrizen-Berechnungen werden nach wie vor auf den gewöhnlichen FP32-Einheiten durchgeführt. Jedoch hat AMD die WMMA-Fähigkeiten von RDNA 4 massiv gegenüber RDNA 3 ausgebaut, deutlich mehr als RDNA 3 dies gegenüber RDNA 2 getan hat.

So werden sowohl die Leistung bei gleichem Datenformat erhöht als auch weitere Datenformate unterstützt. Mit FP16 und BF16 kann RDNA 4 pro Takt doppelt so viele Werte berechnen wie RDNA 3. Mit I8 und I4 sind es sogar vier Mal so viele Werte. Darüber hinaus kommen mit FP8 sowie BF8 zwei neue Datenformate hinzu, die RDNA 3 überhaupt nicht beschleunigen kann – und FP8 wird dabei gleich für FSR 4 Super Resolution genutzt. Und damit noch nicht genug: Mit RDNA 4 führt AMD auch „Sparsity“ ein, was unter gewissen Umständen die Geschwindigkeit sämtlicher Datenformate weiter verdoppeln kann.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-launch.91565/

w0mbat
2025-03-06, 11:37:25
RDNA3 sowie auch RDNA4 haben ziemlich sicher dezidierte "AI Accelerators" in den Compute Units. Ich hatte das auf jeden Fall so in Erinnenrung.

-> Scheint zu stimmen. Im Blockdiagramm führt AMD zwar diese "AI Accelerators" auf, aber das schein eine kleine Lüge zu sein. Sie meinen damit anscheinend echt einfach nur die WMMA Funktionalität der CUs.

mboeller
2025-03-06, 12:04:59
IMO leider kein echter deep dive verglichen damit wie sie sonst GPUs und CPUs auseinander nehmen. Hoffentlich bringen sie noch einen Artikel wo sie die GPU mehr vermessen wie zB ihr Artikel über die bottlenecks von rdna2/3 in PT.
Auch wäre schön Dinge zu erfahren wie: ist für Matrxberechnungen nun eine separate HW Einheit im CU und läuft die parallel zu FPU? Dass FSR4 so teuer ist ist ein kleiner Indikator dass in dem Bereich ggf weniger capability ist als in einem SM von einer modernen geforce.

https://chipsandcheese.com/p/amds-rdna4-architecture-video

ich fand die Time-Spy Werte bei 154w wesentlich interessanter.
Die RTX 4090 erreicht knapp 20000 Punkte bei 150w. Die 9070 erreicht bei 154w (also gleichstand zur RTX 4090 beim Verbrauch) so 21 - 22 Tausend Punkte laut Graph. Also 5-10% mehr als die RTX4090-Laptop!

Die 9070 wäre also eine gute bis sehr gute Highend-Notebook GPU

https://www.notebookcheck.com/NVIDIA-GeForce-RTX-4090-Laptop-GPU-Benchmarks-und-Spezifikationen.671836.0.html

7900m:
+ 154w/180w + 21500 Punkte zu 18100 Punkten... fast 20% schneller bei 85% vom Verbrauch.

whetstone
2025-03-06, 12:12:22
Die 9070 wäre also eine gute bis sehr gute Highend-Notebook GPU



Das denke ich auch, im "vollausbau" dann. Finde es hier besonders Schade dass AMD da so zurückgesteckt hat, quasi nur noch auf SoC s setzt, wo bei NV in dem Bereich schon seit Ampere stillstand ist.

GerryB
2025-03-06, 23:05:28
AMD hat evtl. jetzt erstmal genug damit zu tun, Aufrüster und Fertig-PC zu beliefern.
Mobil kommt traditionell später.

btw.
Man kann in Dtl. schon Fertig-PC´s ordern, ... siehe Anhang
(+individuell anpassen)

Wiseman
2025-03-07, 00:12:18
AMD hat evtl. jetzt erstmal genug damit zu tun, Aufrüster und Fertig-PC zu beliefern.
Mobil kommt traditionell später.

btw.
Man kann in Dtl. schon Fertig-PC´s ordern, ... siehe Anhang
(+individuell anpassen)

Ui. Da kriegt man ja einen Fertig-PC mit 'ner 9070XT für 1749 Euro. :up:

Also für Leute, die sich weniger der Wohlstandsblase als der Vernunftbürgerblase zugehörig fühlen, dürfte so ein Preis im Bedarfsfall schon eine Überlegung wert sein.

GerryB
2025-03-07, 01:06:05
aber Vorsicht!, ... die Graka alleine ist nicht Alles
beim RAM würde ich auf jeden Fall ändern
Das man da so knausert mit Größe+Takt ist nicht ideal.

Bei der NVMe-Größe je nach Board dann schauen, ob man vorh. ältere NVMe zusätzlich reinstecken
will oder auch nicht. (muss das Board mehrere Plätze haben oder nimmt man ne größere NVMe)
Da kann man also notfalls zw. Boardkosten und NVMe-Kosten umschichten.

Ansonsten
ist der Anbieter wieder derselbe, den man schon vom GRE-PC kennt.

btw.
Wenn man dachte die nonXT wäre zu nah an der XT bepreist, dann hatte man wohl nicht mit den realen Preisen
gerechnet, ... siehe Anhang. (629 vs 789)
Das wird sich wohl solange nicht ändern, bis NV ordentlich liefern kann.(damit Alle was bekommen können)

Glückwunsch übrigens an Horn.
ne Hellhound für 789€ klingt gut

gerade mal probiert, ne PURE gäbs für 805€
317W@2x 8pin find ich sexy

G3cko
2025-03-07, 08:13:46
Bei der NVMe-Größe je nach Board dann schauen, ob man vorh. ältere NVMe zusätzlich reinstecken
will oder auch nicht. (muss das Board mehrere Plätze haben oder nimmt man ne größere NVMe)
Da kann man also notfalls zw. Boardkosten und NVMe-Kosten umschichten.


Es gibt auch sehr preiswerte Mainboards mit 3-4 nvme Slots.

GerryB
2025-03-07, 08:17:35
theoretisch ja, aber bei so nem Fertig-PC ist meist die Auswahl etwas eingeschränkt
(kommt hinzu, das ich bei der individuellen Konfig bei 1500 und 2000€ Budget bleiben wollte)

ansich ist das UD AX wifi aber schon preiswert
https://geizhals.de/gigabyte-b650-ud-ax-a3254304.html?hloc=at&hloc=de

Dural
2025-03-07, 08:19:23
Eine Nacht drüber geschlafen, und bin zum Schluss gekommen der Hype ist eigentlich überhaupt nicht gerechtfertigt:

GB203
370mm2 5nm
256Bit

NV48
350mm2 4nm (P)
256Bit

Die 5080 ist im Mittel 25% schneller als die 9070 XT und sogar leicht Energie effizienter.

Auch bei den Herstellungskosten pro FPS wird NV vermutlich wieder einen Vorteil haben, unbekannte ist halt GDDR7.

Der Hype gibt es nur weil NV nicht liefern kann / die Karten bei uns nicht ankommen und so extrem teuer sind. Sonst ist die AMD Architektur nach wie vor der von Nvidia extrem unterlegen.

Hätte NV den Markt mit Blackwell geflutet und die Karten wären billiger im Handel würde wieder kein Hahn nach AMD schreien ;)

GerryB
2025-03-07, 08:25:16
Die 5080 ist im Mittel 25% schneller als die 9070 XT und sogar leicht Energie effizienter.
nur in Deinen Träumen, ... siehe XTX von Raff und/oder 144fps-Limit
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13720409&postcount=8600

Wer da 1650 Tacken für ne 5080 hinblättert, Der setzt nach m.E. falsche Prioritäten.
doppelter Preis nur für PT ist in der oberen Midrange verfehlt
normales RT läuft ausreichend@N48

Ravenhearth
2025-03-07, 08:45:27
Der Hype gibt es nur weil NV nicht liefern kann / die Karten bei uns nicht ankommen und so extrem teuer sind. Sonst ist die AMD Architektur nach wie vor der von Nvidia extrem unterlegen.
Extrem würde ich nicht sagen... Blackwell ist etwas flächeneffizienter, aber von Vega-Verhältnissen sind wir weit entfernt. Vega brauchte für die gleiche Leistung fast 60% mehr Fläche und außerdem zwei Drittel mehr Energie. Zudem hat RDNA4 auch seine Vorteile: Aus den mageren 640 GB/s Speicherbandbreite holt man erstaunlich viel Performance raus und man kommt ganz ohne GDDR6X/GDDR7 aus.

GerryB
2025-03-07, 08:49:16
Die Herstellungskosten einer 9070xt sind trotzdem <<< 5080.
und
die komische 12GB-5070 ist vermutlich auch DOA

Das ist schon impressiv, wie die 9070xt mit der Bandbreite umgeht!
(so das preiswerter GDDR6 reicht)

aufkrawall
2025-03-07, 09:19:44
Preise jetzt bei 750-950€ "eingependelt". Komisch, macht ja doch der Markt die Preise. Wer hätte das gedacht. :freak:

GerryB
2025-03-07, 09:25:12
eigentlich macht das Versagen der 5070 die Preise
(Perf.+Verfügbarkeit)

Das die Händler den Gesamtmarkt 5070+9070(xt) nicht unterschiedlich bepreisen, sondern
die Gelegenheit nutzen, wen wunderts.

btw.
Um den Unterschied herauszufinden, finde ich den ASUS-Shop interessant, weil es dort immer mal tatsächlich
ein paar PRIME zum UVP gibt!
(sacken nun die anderen Händler unverschämte Aufpreise ein, oder geht wenigstens ein Teil an die Hersteller)

Nakai
2025-03-07, 11:59:36
Eine Nacht drüber geschlafen, und bin zum Schluss gekommen der Hype ist eigentlich überhaupt nicht gerechtfertigt:

GB203
370mm2 5nm
256Bit

NV48
350mm2 4nm (P)
256Bit

Die 5080 ist im Mittel 25% schneller als die 9070 XT und sogar leicht Energie effizienter.

Auch bei den Herstellungskosten pro FPS wird NV vermutlich wieder einen Vorteil haben, unbekannte ist halt GDDR7.

Der Hype gibt es nur weil NV nicht liefern kann / die Karten bei uns nicht ankommen und so extrem teuer sind. Sonst ist die AMD Architektur nach wie vor der von Nvidia extrem unterlegen.

Hätte NV den Markt mit Blackwell geflutet und die Karten wären billiger im Handel würde wieder kein Hahn nach AMD schreien ;)

Uiuiui, ganz viel Coping aus der Grünen Ecke. Wo soll man anfangen? Erstmal bei der offensichtlichen Lüge des Fertigungsprozesses. Das ist bei beiden 5nm.
Und dann der Kommentar mit dem GDDR7, Diesize und Fertigungskosten, was dann auch wieder nicht stimmen kann. Dann die Superlative mit "Extrem" unterlegen, was in keinster Art und Weise überhaupt ersichtlich ist.
Vielleicht freut man sich endlich wieder, dass der GPU Markt nicht so einseitig ist und Konkurrenz belebt das Geschäft und man hat praktisch Parität erreicht.

Badesalz
2025-03-07, 12:20:04
Der Hype gibt es nur
weil NV nicht liefern kann
die Karten bei uns nicht ankommen
so extrem teuer sind
So ist es richtig. "nur"

Sonst ist die AMD Architektur nach wie vor der von Nvidia extrem unterlegen."Unterlegen" ist ein Fakt. "Extrem" gehört zu einer Theorie deren Löwenanteil deine Gefühle ausmachen und Gefühle haben nur selten eine sachliche Seite. Bleib bitte sachlich.

Hätte NV den Markt mit Blackwell geflutet und die Karten wären billiger im Handel würde wieder kein Hahn nach AMD schreien ;)Das möchten sie aber nicht. Anscheinend mögen sich dich viel weniger als du sie.

Irgendwas macht dir langsam Sorgen oder? Sonst hast du dich schon ewig nur auf Belächeln beschränkt :|

The_Invisible
2025-03-07, 12:41:47
Preise jetzt bei 750-950€ "eingependelt". Komisch, macht ja doch der Markt die Preise. Wer hätte das gedacht. :freak:

Jensen hat sicher Lisa besucht und gemeint "Komm, wir ärgern jetzt mal diese blöden Gamer, halt du die Preise auch hoch" lol :)

BavarianRealist
2025-03-07, 12:54:36
@Preise:
Der Kostenaufwand für die Grakas hat sich einfach deutlich erhöht: heute kostet ein N4P-Die in 370mm² schlichtweg weit mehr als noch vor Jahren ein gleich großes Die in N6. Zudem sind die Kapazitäten in N4 ausgereizt, sodass es kaum ein Interesse geben dürfte, die Dinger günstiger zu verkaufen.

Nimmt man die Info hier, dann soll eine N4-Wafer inzwischen um 18.000-20.000$ kosten. Bei 357mm² wären theoretisch etwa 155 Dice möglich, nutzbar wohl eher nur so um die 120 => was zu reinen Die-Kosten von um die 115$-170$ bedeuten würde...d.h. AMD muss wohl >250$ pro N48-Chip nehmen, wenn sie auch die Entwicklung rein bekommen wollen...wie sollen damit 9070-Preis von <700$ realistisch sein?

ChaosTM
2025-03-07, 13:03:01
Jensen hat sicher Lisa besucht und gemeint "Komm, wir ärgern jetzt mal diese blöden Gamer, halt du die Preise auch hoch" lol :)


Preisabsprachen, auch wenn sie im Schlafzimmer stattfinden, wären illegal..
Die 2 wären ein perfektes Paar.


https://www.tomshardware.com/news/jensen-huang-and-lisa-su-family-tree-shows-how-closely-they-are-related

Dino-Fossil
2025-03-07, 13:17:57
Zudem sind die Kapazitäten in N4 ausgereizt kaufen genug Dumme trotzdem zu den überhöhten Preisen, sodass es kaum ein Interesse geben dürfte, die Dinger günstiger zu verkaufen.

Hab das für dich repariert.


Nimmt man die Info hier, dann soll eine N4-Wafer inzwischen um 18.000-20. Die-Kosten von um die 115$-170$ bedeuten würde...d.h. AMD muss wohl >250$ pro N48-Chip nehmen, wenn sie auch die Entwicklung rein bekommen wollen...wie sollen damit 9070-Preis von <700$ realistisch sein?

Je mehr sie verkaufen, umso weniger Entwicklungskosten müssen auf den einzelnen Chip umgelegt werden. Und je günstiger die Karte, umso mehr verkaufen sie.
Davon abgesehen - solange Rekordumsätze und Traummargen eingefahren werden, besteht theoretisch durchaus Potential, Preise zu senken. Es gibt nur für AMD und nVidia (sowie AIBs und Händler) keinen Grund das zu tun, solange sie das Zeug auch überteuert loswerden.

Badesalz
2025-03-07, 13:27:23
@Preise:
[...]
wie sollen damit 9070-Preis von <700$ realistisch sein?Wo hat sich denn hier wer über die UVPs von AMD beschwert? Man rantet nicht über die AMD UVPs :wink:

edit:
Als invisible sich hier angemeldet hat, war er da noch Säugling? :| Hölle...

mczak
2025-03-07, 14:42:00
Eine Nacht drüber geschlafen, und bin zum Schluss gekommen der Hype ist eigentlich überhaupt nicht gerechtfertigt:

GB203
370mm2 5nm
256Bit

NV48
350mm2 4nm (P)
256Bit

Was ähnliches habe ich auch schon (etwas nüchterner) erwähnt (allerdings im anderen Thread): https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13720172#post13720172
Es ist nicht abzustreiten dass Blackwell die bessere Architektur ist als RDNA4. Aber der Vorteil ist jetzt auch nicht so gross (meine Schätzung war so 20%, aber das ist ziemlich spekulativ wegen der leicht unterschiedlichen Fertigung und des Bandbreitennachteils von N48) dass AMD keine kompetitiven Produkte anbieten könnte ohne die Margen total zu opfern (wie das bei intel der Fall ist).
Man muss auch sehen, bei aller (gerechtfertigter) Kritik an den Blackwell-Karten, Ada war natürlich auch schon deutlich besser als die Konkurrenz. Und obwohl Blackwell nun nicht gerade eine Revolution darstellt hat Nvidia es geschafft (Vergleich AD103->GB203) in quasi dasselbe Transistorbudget / selbe Fläche nicht nur ein paar Features mehr reinzupacken (Dinge wie neue AI Features, gddr7-Unterstützung, pcie 5.x, neueren DP-Standard) sondern auch noch ein paar mehr SMs (4 mehr, das sind zwar nur 5% aber immerhin) reinzuquetschen (in derselben Fertigung). Dass AMD da nur Zweiter wird beim Architekturvergleich ist keine Schande, der Nachteil war auch schon deutlich grösser.

Savay
2025-03-07, 14:48:58
Hier steht schon ein bisschen mehr zum Cache drin...

https://www.amd.com/content/dam/amd/en/documents/radeon-tech-docs/instruction-set-architectures/rdna4-instruction-set-architecture.pdf

Seite 17/18

The AMD RDNA4 devices offer several methods for access to off-chip memory from the processing elements (PE) within each WGP. On the primary read path, the device consists of multiple channels of L2 cache that provides data to read-only L1 caches, and finally to L0 caches per WGP. The memory cache is formed by two levels of cache: the first-level (GL1) for write-combining cache (collect scatter and store operations and combine them to provide good access patterns to memory);

Wie C&C schon geschrieben hat ist der L1 physikalisch noch da (wahrscheinlich 128kB) funktioniert aber wohl etwas anders als bisher.

EDIT:
RDNA3.5
https://www.amd.com/content/dam/amd/en/documents/radeon-tech-docs/instruction-set-architectures/rdna35_instruction_set_architecture.pdf
RNDA3
https://www.amd.com/content/dam/amd/en/documents/radeon-tech-docs/instruction-set-architectures/rdna3-shader-instruction-set-architecture-feb-2023_0.pdf

Dino-Fossil
2025-03-07, 15:39:58
Wie würdet ihr denn N44 einschätzen? Wieviel Performance würde N44 wohl ca auf N33 drauflegen?
Ich würde grob +25% Raster und +35-40% RT vermuten, wenn sich N44 ähnlich verhält wie N48. Leider sind die 9070er preislich doch deutlich außerhalb meiner Interessenlage und aktuell seiht es auch nicht danach aus, dass eine potentielle 9060XT als N48 Salveage realisiert wird.
Eilig habe ich es nicht unbedingt mit einer neuen Karte, aber es juckt mir ein wenig in den Fingern...

robbitop
2025-03-07, 15:43:46
Müsste doch relativ ähnlich sein wie N48 vs N32 oder?
Bisschen weniger weil N48 ja 4 CUs mehr hat als N32. Wohingegen N44 genau so viele CUs hat wie N33.

dildo4u
2025-03-07, 15:50:30
Wie würdet ihr denn N44 einschätzen? Wieviel Performance würde N44 wohl ca auf N33 drauflegen?
Ich würde grob +25% Raster und +35-40% RT vermuten, wenn sich N44 ähnlich verhält wie N48. Leider sind die 9070er preislich doch deutlich außerhalb meiner Interessenlage und aktuell seiht es auch nicht danach aus, dass eine potentielle 9060XT als N48 Salveage realisiert wird.
Eilig habe ich es nicht unbedingt mit einer neuen Karte, aber es juckt mir ein wenig in den Fingern...
+25% wäre unter 7700XT bissel zu wenig es sei denn sie kommt für 350€ was unrealistisch ist bei der aktuellen Marktsituation.

mczak
2025-03-07, 15:56:39
Müsste doch relativ ähnlich sein wie N48 vs N32 oder?
Bisschen weniger weil N48 ja 4 CUs mehr hat als N32. Wohingegen N44 genau so viele CUs hat wie N33.
Dafür kriegt N44 wohl auch die 192kB Register Files? Ausserdem vermute ich beim Takt packt man noch etwas mehr drauf (ich schätze die TDP wird vermutlich eher hoch sein im Vergleich zu N48, zumindest beim Spitzenmodell wohl sicher mindestens die Hälfte der 9070 XT).

GerryB
2025-03-07, 15:56:49
+25% wäre unter 7700XT bissel zu wenig es sei denn sie kommt für 350€ was unrealistisch ist bei der aktuellen Marktsituation.
aktuell kostet ne 7700xt 430€
also
würde ne 9060xt@399€ etwas langsamer sein dürfen
(und AMD macht mehr Marge bei diesem "Replacement")

ggü. ner 7600xt sollte man allerdings ordentlich zulegen
6nm-->N4P sollte das easy ermöglichen, weil 6nm eigentlich nur 7nm ist

robbitop
2025-03-07, 16:10:22
Dafür kriegt N44 wohl auch die 192kB Register Files? Ausserdem vermute ich beim Takt packt man noch etwas mehr drauf (ich schätze die TDP wird vermutlich eher hoch sein im Vergleich zu N48, zumindest beim Spitzenmodell wohl sicher mindestens die Hälfte der 9070 XT).
Die schienen so viel nicht gebracht zu haben IIRC. Und die 7600XT hat ja auch schon keinen kleinen Takt.

7600XT: 2716 MHz im Durchschnitt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-2#abschnitt_gputaktraten_unter_last
7800XT: 2386 MHz im Durchschnitt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7700-xt-rx-7800-xt-test.85286/seite-2#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last

IMO wird der Abstand da eher ein bisschen kleiner.

GerryB
2025-03-07, 16:12:16
Warum sollte es keine custom 9060xt mit 3,1Ghz geben?
mit 180W (?) sollte man kaum im PL stecken

effektiv sinds dann wohl eher >3,2GHz

9060XTnonOC-MSRP evtl. dann nur mit 160W, falls man ala 9070nonXT weiter macht

mczak
2025-03-07, 16:24:06
Die schienen so viel nicht gebracht zu haben IIRC.
Das ist korrekt, aber etwas wohl schon sonst hätte man das sicher bei RDNA4 wieder bleiben lassen...

Und die 7600XT hat ja auch schon keinen kleinen Takt.
IMO wird der Abstand da eher ein bisschen kleiner.
Ah ja stimmt die wurde ja extrem hoch geprügelt. Da werden's dann wohl tatsächlich bloss so 25% die man schneller ist - und damit (bei Raster) nicht genug um eine RX 7700 XT zu erreichen.
Allfällige 8GB Karten werden natürlich zusätzlich leiden.

davidzo
2025-03-07, 16:25:01
Es ist nicht abzustreiten dass Blackwell die bessere Architektur ist als RDNA4. Aber der Vorteil ist jetzt auch nicht so gross (meine Schätzung war so 20%, aber das ist ziemlich spekulativ wegen der leicht unterschiedlichen Fertigung und des Bandbreitennachteils von N48) dass AMD keine kompetitiven Produkte anbieten könnte ohne die Margen total zu opfern (wie das bei intel der Fall ist).


Ich finde nicht dass man das so einfach sagen kann. Eine GPU-Architektur besteht nicht nur aus dem Chip, sondern auch aus der Wahl des Speichers, Platinenkomplexität, thermisches design etc. Mit weniger Einsatz mehr zu erreichen kann man nicht nur am DIE ablesen sondern muss auch auf das Gesamte Produkt angewendet werden.

Navi21 ist ja unbestritten ein großer Wurf gewesen und hatte trotzdem gemessen an der Menge an Transistoren eine schlechte Leistung gegenüber GA102. Man darf bei der Sache halt nicht ausblenden dass die 3090 dazu aber auch GDDR6X, 384bit und mehr TDP brauchte um N21 knapp zu schlagen.

Für mich sieht die Strategie mit RDNA4 ähnlich aus wie damals bei RDNA2. AMD hat sich für ein wesentlich komplexeres Memory-system mit mehr low level Caches, mehr Registerspace, out of order memory access, etc. entschieden um damit die Abhängigkeit von Off-Chip Bandbreite zu senken.
Zum Beispiel bietet RDNA4 zwischen 128kb und 8MB mit 10TB/s fasst die doppelte Bandbreite die einer 4090 zur Verfügung und das bei gut 30ns geringerer Latenz. Und selbst der L3 hat nur minimal mehr Latenz als der L2 bei nvidia. Und das ganze ist offensichtlich auch Hochtakt-geeignet. Soviel SRAM und cache peripherie frisst natürlich Transistoren.

Der Deal der besseren on Chip caches ist höhere Leistung per CU, höhere Energieffizienz und das ermöglicht dadurch ein wesentlich billigeres Speicherinterface. Man tauscht also den Aufwand von mehr Transistoren im Chip gegen billigeren Speicher und PCB.

Ein angenehmer Nebeneffekt des langsameren Speicherinterfaces ist dass größere Speichermengen günstiger möglich sind. Die 16GB 20Gbps GDDR6 sind wahrscheinlich immer noch erschwinglicher als die 12Gb 28Gbps GDDR7 der 5070.

Blackwell hat weniger IPC pro SM als RDNA4 pro CU und während die Blackwell-Chips flächenmäßig gegenüber AMD im Vorteil sind, brauchen sie GDDR7 um die volle Leistung auszuspielen.

GDDR7 soll 50% sparsamer sein als GDDR6 bei gleicher Bandbreite und trotz ihres schmaleren 192bit Interfaces ist die RTX5070 ineffizienter als die RX9070 mit 256bit GDDR6.

Btw, die 9070XT ist in rasterizing mindestens 23% schneller als die 6950XT trotz nur 10% höherer Speicherbandbreite und nur halb so großem Infinitycache. Zufälligerweise wäre die FP32-Leistung fast identisch zur 6950XT wenn man den Dual issue Spezialcase mal ausblendet.

Die 9070XT ist zwar offensichtlich weit über den Effizienzsweetspot geprügelt, aber erreicht dennoch mit 40% weniger Speicherbandbreite nahezu die Leistung einer 5070ti. Oder umgekehrt ausgedrückt hat die 5070TI hat ganze 70% mehr Speicherbandbreite! Die Bandbreite der 9070XT ist sogar niedriger als die der 5070 die eine ganze Leistungsklasse drunter liegt.

Selbst wenn also die Herstellungskosten des N48 Chips höher sind als der Mix aus GB203-salvages und GB205 gegen den AMD antreten muss, dürfte man in der gesamten BOM sehr gut aussehen und ggf. sogar preislich gewinnen.

Btw und das Argument dass nvidia ja auch noch mehr Transistoren für den GDDR7 IMC aufwenden mussten ist natürlich Bogus wenn N48 anscheinend auch GDDR7 unterstützt. Scheinbar braucht man den aber nicht, bzw. wartet AMD wohl eher auf den Moment wo es sich preislich lohnt um eine XTX aufzulegen welche dann zwischen 5070ti und 5080 wildern könnte.

HOT
2025-03-07, 17:30:00
https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/AMD-FSR-4-Keine-Eigenentwicklung-Amethyst-1467695/

Hab doch gesagt, das das PSSR für PC ist. AMD wird keine eigene Technik für Grafik mehr entwickeln, das wird alles unter dem Dach von Amethyst laufen.
Mal sehen, ob die nächste Grafikkartengeneration überhaupt noch als Radeon läuft und ob der Name Readeon überhaupt noch für was anderes als interne Grafik genutzt wird.

dargo
2025-03-07, 17:46:21
https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/AMD-FSR-4-Keine-Eigenentwicklung-Amethyst-1467695/

Hab doch gesagt, das das PSSR für PC ist.
Das steht da nicht. :rolleyes:

basix
2025-03-07, 17:50:29
PSSR verhält sich ganz anders als FSR4 und hat ganz andere Problemstellen. PSSR ist mMn ein anderer Algorithmus.

Aber AMD und Sony werden sicher zusammen an FSR4 gearbeitet haben. Evtl. sehen wir das dann auch auf der PS5 Pro und spätestens auf der PS6.

Badesalz
2025-03-07, 18:02:08
https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/AMD-FSR-4-Keine-Eigenentwicklung-Amethyst-1467695/

Hab doch gesagt, das das PSSR für PC ist. AMD wird keine eigene Technik für Grafik mehr entwickeln, das wird alles unter dem Dach von Amethyst laufen.
Mal sehen, ob die nächste Grafikkartengeneration überhaupt noch als Radeon läuft und ob der Name Readeon überhaupt noch für was anderes als interne Grafik genutzt wird.Was du denn da alles aus diesem teils korrekten Artikel herbeifantasiert hast ist der Knaller :smile: Auf jeden Fall Post der Woche :up:

dargo
2025-03-07, 18:11:41
Aber AMD und Sony werden sicher zusammen an FSR4 gearbeitet haben. Evtl. sehen wir das dann auch auf der PS5 Pro und spätestens auf der PS6.
Bis zur PS6 gibt es mindestens schon FSR5. ;)

basix
2025-03-07, 18:12:12
....welches auf FSR4 aufbauen wird ;)

dargo
2025-03-07, 18:12:56
Breaking News... es gibt immer einen Startpunkt von X. ;)

drdope
2025-03-07, 18:31:51
Hat jemand eine Idee, was ich da heute Mittag (sehr spontan) bestellt habe?

Lt. Asus gibt es nur eine
- ASUS TUF Gaming Radeon RX 9070 XT (899€ UVP)
und eine
- ASUS Prime Radeon RX 9070 XT OC (849€ UVP)
--> https://www.asus.com/de/motherboards-components/graphics-cards/all-series/filter?Category=AMD&SubSpec=376748
--> https://www.computerbase.de/news/grafikkarten/verfuegbarkeit-und-preise-hier-gibt-es-amd-radeon-rx-9070-xt-und-rx-9070-zu-kaufen.91631/#abschnitt_uvp_radeon_rx_9070_xt_vs_geforce_rtx_5070_ti

Wenn was geliefert werden sollte, war es dann wohl ein relativer Schnapper...
:confused:

GerryB
2025-03-07, 18:32:55
passt

Selbst im ASUS-Shop wechselt der Preis immer mal.

dildo4u
2025-03-07, 18:34:36
Prime ist das Basis Modell dort will AMD das man die Preisempfehlung einhält.
Bei der OC Version können sie ansetzen was sie wollen.

Badesalz
2025-03-07, 19:19:21
Prime ist das Basis Modell dort will AMD das man die Preisempfehlung einhält.Gilt das auch für die Pulse?

drdope
2025-03-07, 20:24:13
Ich hatte heute über den Tag (hab heute nahezu komplett am PC rumgegammelt und nur Preise der 9070XT verfolgt) den subjektiven Eindruck, das die Shops (quasi random) kleinste Kartenmengen zum UVP einstellen und kurz danach (ebenso random) größere Kartenmengen > UVP einstellen.

So nach dem Motto -> kurzes Lockangebot (Köder) für potenzielle Kunden (landen dadurch im Shop) und höherpreisiges Karten nachwerfen... k.A...

w0mbat
2025-03-07, 20:44:59
Gilt das auch für die Pulse?
Ja, Pulse UVP ist 689€.

mczak
2025-03-07, 21:56:21
Blackwell hat weniger IPC pro SM als RDNA4 pro CU und während die Blackwell-Chips flächenmäßig gegenüber AMD im Vorteil sind, brauchen sie GDDR7 um die volle Leistung auszuspielen.

Naja ich habe eben so meine Zweifel dass Blackwell wirklich gross mehr Bandbreite benötigt - so wie die Benchmarks aussehen im Vergleich zu Ada bringt gddr7 nicht allzu viel (ich gehe mal davon aus dass Blackwell da punkto Bandbreitenbedarf nicht schlechter dasteht als Ada). Ein Vorteil ist das sicher, aber scheinbar kein allzu grosser.


Btw und das Argument dass nvidia ja auch noch mehr Transistoren für den GDDR7 IMC aufwenden mussten ist natürlich Bogus wenn N48 anscheinend auch GDDR7 unterstützt.
Also das ist alles andere als bestätigt, auch wenn ich ein Anhänger dieser Theorie bin. Wäre interessant zu wissen was gddr7 Support an Fläche kostet, ich vermute ja immer noch fast nichts. Es gibt ja gddr6 oder gddr7 MCs fixfertig als IP-Blöcke zu kaufen (cadence, rambus, etc.), leider geben die Webseiten da ausser "low power and area" nichts her :redface: Da müsste man wohl Die-Shots vergleichen (wobei eben leicht andere Fertigung von Nvidia und AMD).

Scheinbar braucht man den aber nicht, bzw. wartet AMD wohl eher auf den Moment wo es sich preislich lohnt um eine XTX aufzulegen welche dann zwischen 5070ti und 5080 wildern könnte.
Nicht brauchen ist vermutlich übertrieben, aber selbst wenn der Chip das tatsächlich kann ist gddr7 einfach nicht erhältlich, Nvidia soll ja vorerst Exklusivvertrag mit Samsung haben.

bbott
2025-03-07, 22:48:16
Ein N48 als Radeon 9070 XTX oder 9080
+ 5-10% mehr Takt
+ 32 GB GDDR6 22-24 Gbps (evtl. sogar GDDR7)
+ TDP 360-380W
UVP 999-1099

Sieht für mich machbar aus, und wäre doch ein guter Konter zur 5080. dürfte nicht ganz für die 5080 reichen, aber zwischen 5070ti und 5080 mit üppigen Speicher der 5080 doch einiges an Wasser abgraben.

GerryB
2025-03-07, 23:05:19
Ein N48 als Radeon 9070 XTX oder 9080
+ 5-10% mehr Takt
+ 32 GB GDDR6 22-24 Gbps (evtl. sogar GDDR7)
+ TDP 360-380W
kannste Dir bei PCGH anschauen

Raff hat seine "XTX" gut hochgejubelt
in H2 skaliert das OCen am Besten, siehe Anhang

ob es sich für AMD lohnen würde eine XTXH ala RDNA2 zu binnen und mit 25mV mehr auszustatten,
who knows, ... könnte NV mit Super easy kontern
Dann sollen doch lieber Beide im Herbst 26 schon die 3nm bringen.

robbitop
2025-03-08, 07:21:01
Sie wäre trotzdem langsamer als die 5080 und würde zu durstig sein. Das macht keine guten Reviews. Ich sehe das so wie MLID. Man sollte wenn man sowas vorhat lieber die AIB Partner machen lassen.

GerryB
2025-03-08, 08:23:07
gameabhängig

wird schon etliche Rastergames geben, wo Raff´s XTX die 5080@stock ungefähr erreicht
auf ein paar Watt kommts da auch nicht an, bei dem niedrigen Preis

Stromverbrauch mit Fps-Limit ist auch nicht besonders hoch
Powerlimit würde ich trotzdem +10% lassen wg. der min Fps

praktisch mit FSR4+FG lohnt sich schon so ein Setting mit hohem Boost
man ist weniger im PL als nativ
hatte ich zwar schonmal gepostet, aber Manche lesen halt nicht so richtig mit
(siehe Anhang)

basix
2025-03-08, 08:29:16
Ich sehe keinen Vorteil in einer noch mehr geprügelten N48 Karte. Raffs "XTX" ist auch nicht eine Karte, die man so verkaufen kann (da OC/UV zu nah am Stabilitätslimit).

Ich hätte es sogar lieber gesehen, wenn AMD der Karte -10% TBP spendiert hätte und dafür die Partner etwas mehr Spielraum gehabt hätten. Die 9070XT ist auch bei 304W etwas überzüchtet. An den Performance-Werten hätte sich mit reduzierter TBP nicht wirklich viel geändert.

GerryB
2025-03-08, 08:30:13
Schmarrn!
Die Fps im Parcour sind nur mit -60mV.(im XXL über 43 Games stabil)

In der Praxis, wo sich Profile/Settings on the fly wechseln lassen, würde ich mir sogar 2 Profile
abspeichern für heavy+light UVen.

Im Hochsommer zählt für mich jeder Punkt auf der Lü.kurve.
(in meinem kleinen 10m² Homeoffice)

basix
2025-03-08, 08:32:21
Ach ja? Du weisst schon, dass bei höheren Taktraten typischerweise weniger UV geht als bei Default-Taktraten?

Aber du kannst mir gerne zeigen, dass man mit Raffs Setting noch >50mV Reserve hat.

GerryB
2025-03-08, 08:39:07
deswegen ja nur -60mV mit high OC statt "-150mV bei normal OCen"
Crashs gibts oft in light Games mit vielen Taktdips, muss nicht immer heavy Load sein.
Deswegen sind die 3dMarks i.d.R. kein ausreichendes Testobjekt.

mehr UVen gabs ja im Special mit ME:E, siehe Anhang
da hat mir 2999MHz@eff.0,84V schon sehr gut gefallen
(bzw. 2500MHZ@eff.0,78mV für die nonXT)

() könnte eigentlich gut als minTakt taugen, weils eeh fast die minVolt der Kurve
untenrum sind

PL= -30% halte ich für sinnlos, weil man eeh nicht groß <0,75V kommt
Würde eher schauen,was für MHz/Volt bei Fps-Limit tatsächlich anliegen.

btw.
Generell ist es absolut Äpfel vs. Birnen, solange ne 5080 >1600 Tacken kostet.
Da brauchts keine Klugscheisserei hier im Thread von den Geldsäcken.

robbitop
2025-03-08, 09:07:40
gameabhängig

wird schon etliche Rastergames geben, wo Raff´s XTX die 5080@stock ungefähr erreicht
auf ein paar Watt kommts da auch nicht an, bei dem niedrigen Preis

Ja aber wenn man einen Schluckspecht releast sollte er besser souverän gewinnen und im breiten Index. Ich bleibe da dabei - wenn man sowas releast dann besser die AIB Partner. Dann gibts keinen Nachteil für AMD. Man könnte ihnen auch erlauben es XTX zu nennen.

GerryB
2025-03-08, 09:22:12
Häh?
Ist doch defacto schon so.

MRSP-Modelle mit 304W vs. größere Customs
selbst mit ner PURE= 317W(320W bei CB gemessen) käme man mit PL+10% schon auf 350W,
was für OC ganz gut reicht und trotzdem noch <7900xtx-MBA ist.

bezgl. Schluckspecht, da sehe ich mit Fps-Limit eigentlich total grün.
Ich kanns aber auch gerne nochmal zum tausendsten Mal posten.
(siehe Anhang)

Das können sich die grünen Hardwareversteher schön reden, wie Sie wollen.
Es ist Murks, kein Fortschritt!, ... die teure 5070Ti@1050€+ dümpelt im Mittelfeld rum.
ne 5080 ist keine wirkliche Alternative zur 4090, aber das ist eeh ne andere Preisklasse@ca.1650€

basix
2025-03-08, 09:31:30
deswegen ja nur -60mV mit high OC statt "-150mV bei normal OCen"
Woher hast du eigentlich die -60mV? Ich finde nur das im PCGH Artikel zur "XTX":

Eine Asrock Taichi mit maximalem Powerlimit, starkem Undervolting (!) und auf 22,5 GT/s übertaktetem Speicher

--------
PL= -30% halte ich für sinnlos, weil man eeh nicht groß <0,75V kommt
Würde eher schauen,was für MHz/Volt bei Fps-Limit tatsächlich anliegen
Wenn man maximales UV betreiben und somit maximierte Energieffizienz erreichen will, sind -30% ausgehend von der Standard TDP typischerweise ideal. Bei der 9070XT dürfte es noch etwas mehr sein, da die Karte leicht überzüchtet ist. Aber ich könnte mit -30% leben, wenn man eine 304W Standard-Karte nimmt.

bezgl. Schluckspecht, da sehe ich mit Fps-Limit eigentlich total grün.
Ich kanns aber auch gerne nochmal zum tausendsten Mal posten.
(siehe Anhang)
Und wie oft ist man im FPS-Limit? Besonders in fordernden Spielen mit einem 144Hz Display? Die hohe Teillast Effizienz ist super geil, da gibt es nichts zu diskutieren. Aber wenn die Karte nicht so betrieben wird (was sehr oft der Fall sein wird), nützt das leider nichts.

Edit:
Ich habe schnell durch die CB-Tests geklickt. Von den 21 getesteten Spielen war nur F1 2024 >144fps unterwegs in 1440p. Bei PCGH das selbe, 1x Spiel drüber, 1x knapp bei 144Hz und eines knapp drunter. Die restlichen 17x Spiele deutlich drunter. Und das sind nur die Raster-Spiele, bei RT liegt die Framerate generell noch etwas tiefer.


Generell ist es absolut Äpfel vs. Birnen, solange ne 5080 >1600 Tacken kostet.
Da brauchts keine Klugscheisserei hier im Thread von den Geldsäcken.

Das können sich die grünen Hardwareversteher schön reden, wie Sie wollen.
Es ist Murks, kein Fortschritt!, ... die teure 5070Ti@1050€+ dümpelt im Mittelfeld rum.
ne 5080 ist keine wirkliche Alternative zur 4090, aber das ist eeh ne andere Preisklasse@ca.1650€
Solche Kommentare sind wie immer: Sinnfrei, nutzlos, dumm. Die einen Jünger werden überheblich und andere beleidigen von der anderen Seite. Ausserdem hat der Preis der 5080 absolut keine Relevanz, falls du eine sachliche Diskussion zu OC, UV usw. betreiben willst.

robbitop
2025-03-08, 09:42:21
Wenn man im FPS Limit sich freut dass die Leistungsaufnahme niedrig ist, heißt das, dass man die GPU Leistung nicht ausschöpft. Und in dem Moment braucht man dann gar keine XTX.

GerryB
2025-03-08, 09:48:19
Woher hast du eigentlich die -60mV?

Wenn man maximales UV betreiben und somit maximierte Energieffizienz erreichen will, sind -30% ...

Solche Kommentare sind wie immer: Sinnfrei, nutzlos, dumm. Die einen Jünger werden überheblich und andere beleidigen von der anderen Seite. Ausserdem hat der Preis der 5080 absolut keine Relevanz, falls du eine sachliche Diskussion zu OC, UV usw. betreiben willst.

Hat Raff im PCGH-Sammelthread erzählt.

Du hast keine Ahnung von der V/F-Kurve. Untenrum gibts NIX zu holen <0,75V.
Raff hatte minimal 0,72V bei der nonXT, mit sinnlos niedrigem Takt.

Preisklassen spielen sehr wohl ne Rolle.
Da finde ich das wiederholte Reingequatsche von der Seite nur noch nervig, ... gefühlte 30% aller Posts sind nur Bla Bla von
anderer Hardware, die mich gar nicht interessiert, = zu teuer.

basix
2025-03-08, 09:51:52
Hat Raff im PCGH-Sammelthread erzählt.
Bitte mit Link, falls das geht :)

Du hast keine Ahnung von der V/F-Kurve.

Der nächste, der überheblich wird....

Aber hey, du bist der Master :massa: GerryB :comfort:

gefühlte 30% aller Posts sind nur Bla Bla von
anderer Hardware, die mich gar nicht interessiert, = zu teuer.
Haha, jetzt habe ich gelacht ;) DU kommst ebenfalls sehr oft mit der 5080 oder 5070 Ti oder whatever. Wen interessiert hier den Nvidia Preis? Dich offensichtlich mehr als die meisten anderen hier, wenn du das die ganze Zeit postest.

GerryB
2025-03-08, 09:57:44
Bitte mit Link, falls das geht :)

Der nächste, der überheblich wird....
Aber hey, du bist der Master :massa: GerryB :comfort:


...DU kommst ebenfalls sehr mit der 5080 oder 5070 Ti oder whatever.

https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-47#post-11828244

https://extreme.pcgameshardware.de/threads/3dmark-rangliste-geforce-und-radeon-grafikkarten-im-benchmark-und-wie-schnell-ist-ihre.590212/page-34#post-11828271
Ich kann mit meiner aktuellen GPU ganz gut umgehen.
Wenn Du ne AMD-Graka hättest, wüsstest Du das längst, ... aus den Treiberthreads.
Außerdem bin ich gerne beim UVen von RDNA2 behilflich.
https://www.hardwareluxx.de/community/threads/amd-radeon-rx-6000-undervolting-thread-auf-der-suche-nach-dem-sweetspot.1297349/page-34#post-30675971

Die 5070Ti könnte ja irgendwann mal noch auf 900€ runtergehen und passt dann
vs. XT-Customs
Vor dem XT-Launch habe ich eigentlich oft gesagt, das die XT mit P/L bei ner 4070TiS landen sollte.
Die TiS gabs ja wenigstens ne lange Zeit zu humanen Preisen.

basix
2025-03-08, 10:03:14
Danke für den Link :up:

Aber Raffs Post bestätigt ja meine Aussage: -75mV waren nicht stabil in einigen Tests. -60mV dann schon. Also nichts mit 50mV Reserve, was es für eine nicht-händisch optimierte Karte (=AIB BIOS Einstellung) einfach braucht.

Dass du mit UV umgehen kannst bezweifle ich nicht. Aber du solltest es anderen Leuten nicht absprechen (ich undervolte seit 15 Jahren, AMD wie Nvidia...).

Und die 5080 musst du nicht durchstreichen, du hast sie hier genannt ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13722414&postcount=8669

davidzo
2025-03-08, 10:09:17
Sie wäre trotzdem langsamer als die 5080 und würde zu durstig sein. Das macht keine guten Reviews. Ich sehe das so wie MLID. Man sollte wenn man sowas vorhat lieber die AIB Partner machen lassen.

Der Nachteil an einer Partner XTX oder XTXH wäre dass man dann keinen neuen Reviewzyklus triggert und die 9070XT in den Köpfen weiter unter der 5070ti liegt.

Klar skalieren die aktuellen OC-Modelle total mies mit der zusätzlichen Power. Aber immerhin skaliert da noch wa sund es gibt keine Taktwall wie bei Blackwell (wobei das dort auch Firmware sein kann, wissen wir nicht).

Ein sinnvoller Ansatz wäre einfach schonmal feiner zu binnen und die besonders sparsamen Chips beiseite zu legen für eine später zu launchende GPU analog zur 6950XTX. In der Zwischenzeit kann man dann auch das VRM Design und die Kühlung optimieren. Btw und Micron GDDR7 gibt es sowieso nicht vor Ende 2025 für AMD, man hat also genug Zeit um schonmal voraus zu binnen. Wobei ich mir vorstellen kann das AMD auch direkt Samsung Speicher nimmt und nicht Micron. Die Produktionsmengen mögen für NV zu niedrig sein, aber für AMD reicht es mölglicherweise.

3,3Ghz und 28Gbps GDDR7 sollten gut +10% Performance bringen, bei Bandbreitenlimitierung biszu +40%. Das reicht wohl nicht für die 5080, aber locker um immer vor der 5070ti zu liegen.

Zossel
2025-03-08, 10:10:54
Dass du mit UV umgehen kannst bezweifle ich nicht. Aber du solltest es anderen Leuten nicht absprechen (ich undervolte seit 15 Jahren, AMD wie Nvidia...).

Ich streite jedem der keine Chips designt die Fähigkeit für UV ab.

basix
2025-03-08, 10:19:08
Ich streite jedem der keine Chips designt die Fähigkeit für UV ab.
Weil? Begründung? ;)

PS:
Ich habe schon Chips designed...aber dort war UV irrelevant ;) Ich sehe da also ehrlich gesagt keine Korrelation von Chip-Design Erfahrung und UV. Aber vielleicht lieferst du ja noch eine Begründung.

robbitop
2025-03-08, 10:26:23
Der Nachteil an einer Partner XTX oder XTXH wäre dass man dann keinen neuen Reviewzyklus triggert und die 9070XT in den Köpfen weiter unter der 5070ti liegt.

Klar skalieren die aktuellen OC-Modelle total mies mit der zusätzlichen Power. Aber immerhin skaliert da noch wa sund es gibt keine Taktwall wie bei Blackwell (wobei das dort auch Firmware sein kann, wissen wir nicht).

Ein sinnvoller Ansatz wäre einfach schonmal feiner zu binnen und die besonders sparsamen Chips beiseite zu legen für eine später zu launchende GPU analog zur 6950XTX. In der Zwischenzeit kann man dann auch das VRM Design und die Kühlung optimieren. Btw und Micron GDDR7 gibt es sowieso nicht vor Ende 2025 für AMD, man hat also genug Zeit um schonmal voraus zu binnen. Wobei ich mir vorstellen kann das AMD auch direkt Samsung Speicher nimmt und nicht Micron. Die Produktionsmengen mögen für NV zu niedrig sein, aber für AMD reicht es mölglicherweise.

3,3Ghz und 28Gbps GDDR7 sollten gut +10% Performance bringen, bei Bandbreitenlimitierung biszu +40%. Das reicht wohl nicht für die 5080, aber locker um immer vor der 5070ti zu liegen.
Das stimmt. Die Frage ist wie gut das Binning wäre. Andererseits gibt es ggf sowieso eine SUPER und dann braucht man was zum Kontern. Jetzt schon das Pulver verschießen? ^^

GerryB
2025-03-08, 10:33:38
Aber Raffs Post bestätigt ja meine Aussage: -75mV waren nicht stabil in einigen Tests. -60mV dann schon. Also nichts mit 50mV Reserve, was es für eine nicht-händisch optimierte Karte (=AIB BIOS Einstellung) einfach braucht.

Schau nochmal genauer hin, bei XYZ.
Also Raff hatte in ME:E bei 2999MHz nur eff. 0,84V anliegn, d.h. es gibt nach Oben noch Reserven bei den Volt.
Es muss nicht unbedingt 50mV mehr sein, bei 6900xtx vs 6900xtxH hatten schon 25mV mehr gereicht.

btw.
-60mV ist vermutlich auch nicht ein direktes Runtersetzen der Volt sondern eher ein seitliches Verschieben der Kurve, wie man es auch von der 6800xt kennt.
-60mV werden sehr viele User schaffen. Mehr braucht dann Glück in der Chiplotterie, wie immer.
(oder man speichert 2 Profile, wie bereits vorgeschlagen)

im Anhang mal die V/F-Kurve der 6800xt, um zu zeigen was so ein Offset eigentlich eff. bei den Volt bewirkt
incl. endloser flacher Teil, wo PL-30% für den Popo ist, weil die minV nicht weiter runter gehen
Das ist der Sicherheitswert den AMD vorgibt, ... der kann nur im MPT ausgehebelt werden.
Bei neueren Grakas gar nicht mehr.

basix
2025-03-08, 11:00:02
Da wir gerade beim UV sind: Hier ein Ergebnis von Reddit, die 9070 XT läuft bei ~210W anstatt 304W.
https://www.reddit.com/r/radeon/comments/1j5roap/rx_9070_xt_underclock_outstanding_efficiency/

Mit dem "Max Frequency Offset: -500 MHz" Setting limitiert man die maximale Taktrate, richtig? Wie hoch ist hier das Limit bei einer PowerColor Reaper RX 9070 XT? Wenn ich den CB Bench nehme, geht die 9070 XT Pure auf max. 3.25 GHz. Bin ich also richtig in der Annahme, dass mit -500MHz der Takt auf max. ca. 2.7...2.8 GHz begrenzt wird? https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_gputaktraten_unter_last

Edit:
Aus meiner Sicht sieht das sehr gut aus. RDNA4 lässt sich also sehr schön nach unten tunen mit UV und Taktlimit. Ein Taktlimit ist aus meiner Sicht der bessere Ansatz verglichen mit einem FPS-Limit. Das Taktlimit greift immer. Ein FPS Limit nutze ich natürlich zusätzlich auch, höher als Monitor-FPS ist ausserhalb von Competitive Gaming nutzlos.

Das macht mich nochmals etwas neugieriger auf RDNA4. Ich wollte sowieso eine 9070 (XT) fürs Testing und rumspielen holen und da UV sehr gut aussieht, interessiert mich das nochmals mehr :)

GerryB
2025-03-08, 11:16:00
Jo, das macht aber nur bei der XT soviel aus. (in dem reddit bei -90mV stabil?, dann >210W)

Kann mir nicht vorstellen, das ne nonXT <2500MHz nochmal viel sparsamer wird.
Ne nonXT müsste evtl. eher ne Kombination aus OC+UV sein, damit man ungefähr bei den 2500MHz@0,75mV landet.
Der Mod bei PCGH meint auch das sich die nonXT nur mit offenem PL sinnvoll testen lässt.
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-48

Savay
2025-03-08, 11:39:27
Vielleicht wird das ja nicht nur nen Binning...man denke nur mal an die RX590/Polaris30 zurück...:wink:

robbitop
2025-03-08, 11:48:34
Da gab es aber auch noch einen upgrade node (14->12nm bei GF) bei dem die gleiche Maske nehmen konnte. Mit N4P ist das Ende der Fahnenstange in der Node Familie erreicht.

Zossel
2025-03-08, 12:01:48
Weil? Begründung? ;)

Kennst du die kritischen Pfade?

davidzo
2025-03-08, 12:10:30
Da gab es aber auch noch einen upgrade node (14->12nm bei GF) bei dem die gleiche Maske nehmen konnte. Mit N4P ist das Ende der Fahnenstange in der Node Familie erreicht.
Naja, streng genommen gibt es noch N4X. Damit sind höhere Spannungen von biszu 1.2Volt be geringerer Leakage möglich. Außerdem kann man MIM kondensatoren integrieren wenn man die letzten metal layer masken neu macht.

For example, N4X uLVT with overdrive offers 21% lower power at the same speed when compared to N4P eLVT, whereas N4X eLVT in OD offers 6% higher speed for critical paths when compared to N4P eLVT.

Da die Taktbarkeit gegeben ist und 3,3Ghz bei 1.0Volt anscheinend kein Problem sind, würde man auf ersteres gehen, also niedrigere Leakage bei gleicher Geschwindigkeit. 21% weniger Power bei 3,3Ghz wären 300Watt. Bei Leistung knapp 5-10% Oberhalb der 5070ti würde das Blackwell bei perf/Watt schlagen. Einen solchen N48 refresh wird es aber nicht vor 2026 geben wenn überhaupt.

robbitop
2025-03-08, 13:24:07
Ist N4X nicht ein HPC Prozess? IIRC wurden die bis dato noch nie für GPUs eingesetzt. Und wenn man wieder Masken ändern muss wird es ggf. wieder etwas unwahrscheinlicher. Klingt mir nicht nach einer hohen Wahrscheinlichkeit, dass das so kommt. :)


To achieve higher performance and efficiency, TSMC's N4X improves transistor design in three three key areas. Firstly, they refined their transistors to boost both processing speed and drive currents

https://www.anandtech.com/show/18875/tsmc-details-n4x-extreme-performance-at-minimum-leakage

Das klingt für mich so dass man wenn man die höhere Performance nutzen will man auch für die Logiklayer neues takeout machen muss - ansonsten sehen die Transistoren ja nicht anders aus.

Badesalz
2025-03-08, 13:38:30
Ich sehe keinen Vorteil in einer noch mehr geprügelten N48 Karte. Raffs "XTX" ist auch nicht eine Karte, die man so verkaufen kann War das jetzt die Punchline davor? :| ODer hab ich das falsch verstanden?

Ich hab das Gefühl das eine Lager erzählt resistent, eine XTX mit blah-blah-Specs könnte nah an eine 5080 rankommen, das andere Lager (die mit den geputzten Brillen) erinnern dann immer mal, Raffs "XTX" tat das ja schon teilweise. Und täglich grüßt...

Wobei das imho tatsähclich nicht viel Sinn machen würde. NV könnte das gut kontern. Theoretisch. Praktisch kann auch das Bestehende nicht entsprechend geliefert werden. Teils sogar nur großflächig defekt.

Ich würde an der Stelle von AMD trotzdem keine XTX bringen. Macht keinen Sinn für die.

basix
2025-03-08, 13:58:48
Ich sehe einfach keinen Sinn in zu stark geprügelten Karten. Und ohne manuelles Tuning braucht man noch etwas Reserve und die hatte die getunte Karte von Raff eben nicht. Das ist das Limit von N48. Es würde mich sehr überraschen, wenn man mit einer 9080XT oder 9070XTX ohne manuelles Tuning wirklich relevant von den bestehenden AIB Karten wegkommen könnte, welche das Power Target bereits auf fast 350W aufgerissen haben.

Und selbst wenn das ginge: Wem nützen die +10% was? Vermutlich fast niemandem. Und sicher nicht AMD.

GerryB
2025-03-08, 14:44:54
In dieser Gen können alle 3 Marken gut OCen.
Also wenns nicht gänge, wärs ein Manko.

So kann mans mal anwerfen für die Galerie.
(um sich mit seinem Nachbarn zu batteln)

oder
im Winter zum Heizen

davidzo
2025-03-08, 21:20:34
Das klingt für mich so dass man wenn man die höhere Performance nutzen will man auch für die Logiklayer neues takeout machen muss - ansonsten sehen die Transistoren ja nicht anders aus.
Ja, das ist ja was ein refresh ist, man macht neue Masken.
Deswegen ist das auch nicht in näherer Zeit zu erwarten. Polaris 30 kam ja auch erst anderthalb Jahre nach P20.
Ist ja trotzdem voll designkompatibel zu N4P.
Man kann aber wahrscheinlich auch nur die metal layer-Vorteile mitnehmen, mims, high current power delivery metwork etc. Dann müssen nur die billigen single exposure DUV Masken richtung back end neu. Bei Polaris30 hat man auch den Floorplan und die Density nicht geändert, also waren mindestens ein paar der Masken gleich.

robbitop
2025-03-08, 22:04:28
Soweit ich weiß waren damals nicht einmal andere Masken nötig. Und ich wüsste nicht, dass es in den letzten 10-15 Jahre Refreshes mit neuen Masken gab. Das letzte Mal ist schon sehr lange her. Ggf R390 und R280/380? GK110 (weil 100 nicht lief?), Fermi hatte iirc zur 500er Serie ggf auch neue Masken gebraucht. Aber zu Neuzeiten?
Ich vermute das bleibt wohl eine reine theoretische Möglichkeit :)

HTB|Bladerunner
2025-03-09, 11:05:28
Hallo Zusammen,

ich bin seit gestern Besitzer einer Sapphire Nitro+ RX9070 XT und habe heute Morgen ein wenig mit der Treibersoftware experimentiert.

Daher eine kurze Frage in die Runde: Hat irgend Jemand mal den "Takt-Regler" hier bedient?

Ich kann nämlich absolut keine Auswirkung auf den Takt feststellen. Meine Karte boostet in Spielen oder Benchmarks bis auf 3160MHz, was laut Hersteller-Specs gar nicht passieren dürfte. Zumindest habe ich nur was von 3060MHz Boost gelesen.

https://i.postimg.cc/J0LXXdyX/9070-XT-25-3-1.jpg

*edit*
Frage 2: Ist es möglich an den Pressetreiber zu kommen? Mir kommt der 25.3.1 etwas verbuggt vor was Freesync angeht.

GerryB
2025-03-09, 11:11:04
Hallo Zusammen,
ich bin seit gestern Besitzer einer Sapphire Nitro+ RX9070 XT ...

Meine Karte boostet in Spielen oder Benchmarks bis auf 3160MHz, was laut Hersteller-Specs gar nicht passieren dürfte.
Die Nitro hat bereits mit PL=0% soviel Watt, das der Boost > 3100MHz gehen kann, = normal seit RDNA3.

Da kannste nur mal das Powerlimit/Leistungsbereich rechts unten etwas senken.

HTB|Bladerunner
2025-03-09, 11:27:15
Ich habe den Takt-Offset allerdings auf -500MHz eingestellt. An der Stelle hätte ich jetzt sowas hier erwartet:
Boost-Takt - Takt-Offset = neuer max. Takt

Demzufolge:
3060MHz - 500MHz = 2560MHz Boost-Takt

Das PL von 330W sollte doch in diesem Szenario keine Rolle spielen, da es nicht ausgereizt wird.

GerryB
2025-03-09, 11:30:32
Es wird solange geboostet, wie genug Watt da sind.

Probieren geht über studieren!
setz halt die Watt runter

dargo
2025-03-09, 11:33:56
Meine Karte boostet in Spielen oder Benchmarks bis auf 3160MHz, was laut Hersteller-Specs gar nicht passieren dürfte. Zumindest habe ich nur was von 3060MHz Boost gelesen.

Die -500Mhz beziehen sich wahrscheinlich nicht auf die 3060Mhz max. Boostttakt die bei deinem Bios hinterlegt sind. Ich hatte schon Boostfrequenzen von knapp 3,4Ghz gesehen. Das Treiber-UV ist etwas blöde gestaltet weil niemand genau weiß auf welchen Wert sich der Takt-Offset bezieht. Ich weiß jetzt nicht womit du testet und vor allem auch mit welchen Settings. Nimm ein Game mit hoher Heizlast und dann am besten natives 4k. Für hohe Heizlast kann ich A Plague Tale: Requiem empfehlen. Eine gute Übersicht mit hoher Heizlast über verschiedene Games liefert dir CB. Dort wo der Boostclock hoch ist, das nicht nehmen. :wink:
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_gputaktraten_unter_last

HTB|Bladerunner
2025-03-09, 11:38:36
Es wird solange geboostet, wie genug Watt da sind.

Probieren geht über studieren!
setz halt die Watt runter

Die -500Mhz beziehen sich wahrscheinlich nicht auf die 3060Mhz max. Boostttakt die bei deinem Bios hinterlegt sind. Ich hatte schon Boostfrequenzen von knapp 3,4Ghz gesehen. Das Treiber-UV ist etwas blöde gestaltet weil niemand genau weiß auch welchen Wert sich der Takt-Offset bezieht.

Gut, dann stelle ich erstmal die Behauptung in den Raum, dass dieser Regler eine Attrappe ist. Es seit denn jemand beweist mir das Gegenteil. :D

Danke Euch!

dargo
2025-03-09, 11:40:23
Gut, dann stelle ich erstmal die Behauptung in den Raum, dass dieser Regler eine Attrappe ist. Es seit denn jemand beweist mir das Gegenteil. :D

Ich habe leider noch keinen N48 im Rechner um dir das Gegenteil zu beweisen. ;) Im Prinzip ist es doch ganz einfach... stelle selbst heraus ob der Takt-Offset funktioniert oder nicht. CapframeX ist dein Freund. ;)

btw.
Bitte auch Voltage-Offset gleichzetig mit Takt-Offset bedienen. Eventuell zeigt es erst Wirkung wenn du auch den Voltage-Slider verschiebst.

Es wird solange geboostet, wie genug Watt da sind.

Probieren geht über studieren!
setz halt die Watt runter
Das kommt natürlich noch hinzu. Die Nitro+ XT darf per Default schon bis zu 330W nuckeln.

GerryB
2025-03-09, 11:44:41
wenn Er probieren will, dann mal bitte mit Powerlimit/Leistungsbereich = -20%
330-20% = 264W

im TSE müsste man dann schon Was merken
ME:E@RT soll auch viiiel Watt brauchen/den Takt drücken

x-force
2025-03-09, 11:55:28
warum freiwillig performance liegen lassen?
machen die teile bei >280w einem fön konkurrenz?

GerryB
2025-03-09, 11:58:13
Er will ja erstmal uuuuunbedingt deutlich <3060MHz kommen.
Ob nun PL-Regler und Taktregler -500 irgendwann korrespondieren, sollte man nach m.E. so testen, das beide Regler
in der Wirkung nah beinander sind, ... im Idealfall der Taktregler noch ein bisschen Feintuning bringt.

Feintuning= Stabilität

Denniss
2025-03-09, 14:55:58
Der Regler wirkt sicherlich nur auf den im VBios hinterlegten Maximaltakt. wenn der unbegrenzt oder sehr hoch angesetzt ist hat der dann kein/kaum Wirkung

GerryB
2025-03-09, 18:30:10
In HWinfo wird der hinterlegte Vbios-Maximaltakt angezeigt.
--> da könnte man dort kontrollieren, ob der Regler was ändert
(oder obs nur Intern verrechnet wird, who knows)

dargo
2025-03-09, 19:14:30
Lol... AMD konnte am ersten Launchtag mehr Karten anbieten als Nvidia bei Blackwell alle zusammen. ;D

r-MYIjtSm_8

HTB|Bladerunner
2025-03-09, 19:27:10
In HWinfo wird der hinterlegte Vbios-Maximaltakt angezeigt.
--> da könnte man dort kontrollieren, ob der Regler was ändert
(oder obs nur Intern verrechnet wird, who knows)

Ich habe mal alle 3 Grenzwerte erfasst.
Das erklärt natürlich ebenfalls, warum der Regler seine Wirkung nur im max. Power Limit entfaltet.

GerryB
2025-03-09, 19:57:43
Joke:
AMD hatte wohl vor bis 4GHz zu takten.

Da können sich die h2o+EVC2 Leute ausprobieren, ... vllt. klappts ja mit light workloads.

dargo
2025-03-09, 20:37:07
Wer weiß... vielleicht sehen wir ca. 3,5Ghz mit N44 XT, je nachdem ob AMD sich genötigt fühlt den so zu prügeln.

Raff
2025-03-09, 20:50:48
Wer weiß... vielleicht sehen wir ca. 3,5Ghz mit N44 XT, je nachdem ob AMD sich genötigt fühlt den so zu prügeln.

Nope, dafür bräuchte das Ding 400 Watt Boardpower und eine sehr strenge Selektion – wenn es in allen Lagen laufen soll. Und selbst das reicht nicht für GB203 auf breiter Ebene.

MfG
Raff

OgrEGT
2025-03-09, 20:54:21
In HWinfo wird der hinterlegte Vbios-Maximaltakt angezeigt.
--> da könnte man dort kontrollieren, ob der Regler was ändert
(oder obs nur Intern verrechnet wird, who knows)
Sind die 3850MHz bei GPUoffset0 oder +1000?

Raff
2025-03-09, 20:59:20
Sind die 3850MHz bei GPUoffset0 oder +1000?

Vermutlich eine ordentliche Custom-Variante wie die Taichi oder Nitro+. Der Table geht bei allen Karten recht hoch, aber es handelt sich um eine "Taktwunsch, wenn es keine Limits gäbe"-Angabe. Hier die Referenzwerte:

Radeon RX 9070 XT: 3.450 MHz (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3984745/?fullsize)
Radeon RX 9070: 3.400 MHz (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3984747/?fullsize)

Praktisch kriegt man die 3.450 nicht mal mit 370 Watt.

MfG
Raff

dargo
2025-03-09, 21:14:03
Nope, dafür bräuchte das Ding 400 Watt Boardpower und eine sehr strenge Selektion – wenn es in allen Lagen laufen soll. Und selbst das reicht nicht für GB203 auf breiter Ebene.

Ich empfehle nochmal genauer zu lesen was ich geschrieben habe. ;) Das Ding was ich meine wird maximal 32 CUs haben. :whistle:

Raff
2025-03-09, 21:15:48
Ach, der kleine Scheißer. Okay, auf den bin ich auch gespannt. :) Der wird in den Varianten mit 8 GiByte bestimmt auch 4 GHz schaffen - immer, wenn auf Daten gewartet werden muss, kann der schön hochballern. :ugly:

MfG
Raff

raffa
2025-03-09, 21:16:18
N44 hat doch ein 128bit SI? Da bringt derartige Prügelei vermutlich wenig (ausser zuviel Durst)

dargo
2025-03-09, 21:17:56
Deutlich weniger CUs = deutlich weniger Abwärme. Deshalb schrieb ich auch abhängig davon mit was bei Nvidia das Ding konkurrieren soll wird entsprechend geprügelt wenn die Frequenzen es hergeben.

N44 hat doch ein 128bit SI? Da bringt derartige Prügelei vermutlich wenig (ausser zuviel Durst)
N31 hat ein 384Bit SI, dennoch erreicht den N48 mit 256Bit @350-360W geprügelt in Raster.

GerryB
2025-03-09, 21:21:26
N44@3,5GHz+
= 400W/2

mit Kryosheet please

btw.
N48 max Boost unter realen Bedingungen = FSR4+FG = ?
könnte workloads kreieren, wo 370W reichen

Badesalz
2025-03-09, 21:51:20
N44@3,5GHz+
= 400W/2

mit Kryosheet please:| Du meisnt PTM7950?

GerryB
2025-03-09, 21:55:09
Nein
PTM7950 ist zwar nicht schlecht, aber wenns richtig tricky wird mit dem Hotspot hilft nur Liquidmetall
bzw. Kryosheet

ala Notebooks und PS5

x-force
2025-03-09, 22:55:47
bzw. Kryosheet

niemals, wenn ich sehe, wie das teil bei igor leckt, das kann ich besser selbst.

OgrEGT
2025-03-10, 00:03:56
Vermutlich eine ordentliche Custom-Variante wie die Taichi oder Nitro+. Der Table geht bei allen Karten recht hoch, aber es handelt sich um eine "Taktwunsch, wenn es keine Limits gäbe"-Angabe. Hier die Referenzwerte:

Radeon RX 9070 XT: 3.450 MHz (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3984745/?fullsize)
Radeon RX 9070: 3.400 MHz (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3984747/?fullsize)

Praktisch kriegt man die 3.450 nicht mal mit 370 Watt.

MfG
Raff
Das sind somit die GPUoffset=0 Werte? Was macht dann der Slider -500 - +1000 für einen Sinn?

mboeller
2025-03-10, 07:36:56
nt

Der_Korken
2025-03-10, 08:01:59
Das sind somit die GPUoffset=0 Werte? Was macht dann der Slider -500 - +1000 für einen Sinn?

Die -500 machen insofern Sinn, als das man damit gezielt hohe Taktraten wegblocken kann, die beim UV schwer stabil zu bekommen sein könnten. Der positive Offset ist aber in der Tat ziemlich sinnlos ;D.

OgrEGT
2025-03-10, 08:13:54
Die -500 machen insofern Sinn, als das man damit gezielt hohe Taktraten wegblocken kann, die beim UV schwer stabil zu bekommen sein könnten. Der positive Offset ist aber in der Tat ziemlich sinnlos ;D.
Mit -500 kommt man aber auch nur gerade eben so unter 3000Mhz... wenn es Modelle mit MaxGPU 3850Mhz hinterlegt gibt dann ist selbst das sinnlos...
Sofern es MPT Support gibt dann wärs interessant ob diese Offset Werte verändert werden können...

Badesalz
2025-03-10, 08:23:36
Nein
PTM7950 ist zwar nicht schlecht, aber wenns richtig tricky wird mit dem Hotspot hilft nur Liquidmetall
bzw. KryosheetWillst du mich verschaukeln? Der Kryeosheet ist PTM und PTM7950 ist die Mutter und der Vater aller PTMs. Bist du ein Werbeträger? :|

GerryB
2025-03-10, 08:25:02
niemals, wenn ich sehe, wie das teil bei igor leckt, das kann ich besser selbst.

Natürlich kann ein geübter Bastler mit Nagellack und LM bessere Werte schaffen als mit Kryosheet.

aber
Kryosheet + Putty verbaut sich leichter.
Putty auf den Vram weil zu harte Pads zu Verkanten beim Anziehen führen können.

robbitop
2025-03-10, 08:28:54
Willst du mich verschaukeln? Der Kryeosheet ist PTM und PTM7950 ist die Mutter und der Vater aller PTMs. Bist du ein Werbeträger? :|
Kryosheet ist aus Graphen. Das ist ein 2D Kohlenstoff Molekül was anisotrope Temperaturleitfähigkeit hat.
PTM ist ein polymer was temperaturabhängig den Aggregatzustand wechselt, welches sehr wärmeleitfähiges Füllmaterial enthält.

Das sind zwei schon sehr unterschiedliche Dinge.

basix
2025-03-10, 08:30:07
Mit -500 kommt man aber auch nur gerade eben so unter 3000Mhz... wenn es Modelle mit MaxGPU 3850Mhz hinterlegt gibt dann ist selbst das sinnlos...
Sofern es MPT Support gibt dann wärs interessant ob diese Offset Werte verändert werden können...

-1000...+500 wäre in den meisten Fällen wohl sinnvoller, ja. Aber Raffs Tuning zeigte ja 3 GHz bei 0.84V. Eine Begrenzung auf 2.95GHz ist also einigermassen OK. Bei 3850MHz Limit bringen -500MHz natürlich nicht so viel.

GerryB
2025-03-10, 08:37:31
Bei Raff muss man im noch dazu sagen, das die -150mV vom ME:E-Special nicht overall gamestable sind.(x)
Im Parcour hat er nur -60mV genutzt.
Letzteres hat den Vorteil, das diesen Wert 99% aller Chips schaffen können und somit Jeder nen Anhaltspunkt
für ne XTX-Performance@OCen hat.
Beim Vram OCen evtl. mal nur auf 2718...2730 ST gehen.(sollte kaum langsamer sein lt. Gawronski)
(ne Custom Lü.Kurve ist hilfreich, um den Vram<90°C zu halten)

(x) ob jetzt Cappen des MaxTakts um -350 mehr UVen zulässt, muss man mal bei Usertests abwarten
verhindert zu hohe Taktspikes
SN und SpaceMarine 2 scheinen gute Tests für stabiles UVen zu sein.

basix
2025-03-10, 08:51:13
Die -60mV gelten aber auch für ~3.3GHz. Bei max. 2.95GHz sollte mehr drin liegen. Ist meiner Erfahrung nach bei allen GPUs so.

GerryB
2025-03-10, 08:53:36
Deswegen ja auch mal mit dem Taktregler experimentieren.
3450-500=2950 ... auf dem Papier.

Ob dann solche Games wie SoTR untenrum instabil werden bei stärkerem UVen?
mehrere Runs laufen lassen

w0mbat
2025-03-10, 09:06:04
Bei Raff muss man im noch dazu sagen, das die -150mV vom ME:E-Special nicht overall gamestable sind.(x)
Im Parcour hat er nur -60mV genutzt.
Letzteres hat den Vorteil, das diesen Wert 99% aller Chips schaffen können und somit Jeder nen Anhaltspunkt
für ne XTX-Performance@OCen hat.
Beim Vram OCen evtl. mal nur auf 2718...2730 ST gehen.(sollte kaum langsamer sein lt. Gawronski)
(ne Custom Lü.Kurve ist hilfreich, um den Vram<90°C zu halten)

(x) ob jetzt Cappen des MaxTakts um -350 mehr UVen zulässt, muss man mal bei Usertests abwarten
verhindert zu hohe Taktspikes
SN und SpaceMarine 2 scheinen gute Tests für stabiles UVen zu sein.

Ich bezweifle, dass 99% aller Chips -60mV schaffen. Werden deutlich weniger sein.

GerryB
2025-03-10, 09:10:21
99% der Käufer werden auch nicht UVen.
nur die technisch interessierten

Diese können auch Lesen+Schreiben und sich in Foren austauschen.

w0mbat
2025-03-10, 09:14:59
Ändert nichts daran, dass viele Karten mit -60mV nicht stabil laufen werden.

GerryB
2025-03-10, 09:16:02
Liest Du überhaupt in anderen Foren die Userberichte ?

wenn nicht, shut up

Badesalz
2025-03-10, 09:16:06
Die interessierten tauschen sich aus. Die 99% der Käufer lesen das nur. Wer kein Theater mit den Lüftern (dB) oder den Temps hat, lässt es meist sein.

RL halt. "99%" ist blühende Fantasie. Der Spieler heute sucht oft nach irgendwas bezüglich des Spiels was bei ihm grad läuft. Der stolpert lesend also nach kürzester Zeit in die Foren. Er kennt, Foren.
Die Fantasie mit den 99% an Blödmännern da draußen die ständig überhaupt nichts mitbekommen sollte man 2025 so langsam aufgeben.

drdope
2025-03-10, 09:23:57
Wenn was geliefert werden sollte, war es dann wohl ein relativer Schnapper...
:confused:

Die Asus Radeon RX 9070 XT Prime OC für 689€ (UVP 849€ lt. CB) ist heute morgen tatsächlich versandt worden.
Hab ich nicht mit gerechnet.
:D

davidzo
2025-03-10, 09:32:10
Uff, was ist nur mit Asus los?

Prime stand doch früher immer für Einstiegs gaming Hardware. Zumindest bei mainboards waren das immer die mit jede menge Silkscreen Aufdruck statt fancy Kühlung. Und die 9070xt sieht auch nur nach viel Plastik und ohne RGB aus. 849€ ist deren Einstiegskarte?

Nicht dass ich nach der Offenlegung der Servicepolitik durch Gamers nexus jemals wieder zu Asus greifen würde...

dargo
2025-03-10, 09:40:59
Die Prime XT hat eine UVP von 689€, da ist offenbar CB falsch informiert.

drdope
2025-03-10, 10:02:04
Für die Modelle von ASUS nannte uns der Hersteller folgende Preise:

ASUS TUF Radeon RX 9070 XT OC: 899 Euro
ASUS Prime Radeon RX 9070 XT OC: 849 Euro
ASUS TUF Radeon RX 9070 OC: 809 Euro
ASUS Prime Radeon RX 9070 OC: 749 Euro
--> https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65637-mit-rdna-4-zum-comeback-modelle-der-radeon-rx-9070-und-radeon-rx-9070-xt-im-test.html

Dann hat Asus das falsch kommuniziert, oder kennt seine eigenen Preise nicht.
Denke CB wird die Preise auch von Asus haben.
k.A.

GerryB
2025-03-10, 10:50:20
Reaper XT @829€ bei NBB, Tendenz fallend, weil bereits nicht sofort ausverkauft

BlacKi
2025-03-10, 13:00:16
? die haben garnichts. weder 9070 noch xt.

GerryB
2025-03-10, 13:04:39
10.07 bis 11.09 Uhr

Da hätte man ganz gemütlich kaufen können.

BlacKi
2025-03-10, 13:07:58
haha, der war gut

GerryB
2025-03-10, 13:15:41
Machs halt besser wenn Du viel Zeit und andere Bots hast.

Ich schaue nur ganz simpel in Geizhals oder beim CB-Thread.

robbitop
2025-03-10, 13:17:35
Ganz gemütlich aber überteuert? Ich hatte heute hier hauptsächlich von 8xx EUR gelesen.

DrFreaK666
2025-03-10, 13:30:31
Zur UVP wird man wahrscheinlich erstmal nichts mehr finden

dargo
2025-03-10, 15:17:51
Zur UVP wird man wahrscheinlich erstmal nichts mehr finden
Doch... Pulse und Prime XTs droppen immer wieder mal für 689€. Sind natürlich dann direkt weg.

Hakim
2025-03-10, 16:09:33
Laut den Bots seit glaube ich Freitag zuletzt einmal für 689€ gesehen. Seit dem nichts mehr

Complicated
2025-03-10, 16:16:04
Jedesmal wenn einer über den Preis hier jammert anstatt im Verfügbarkeitsthread, schau ich bei Amazon und finde was zum UVP innerhalb von 2 min und auf Lager. Wer sich auf die Bot-Liste verlässt ist selber Schuld ;)

DrFreaK666
2025-03-10, 16:40:49
klar XD

Complicated
2025-03-10, 16:46:18
Die sind jetzt seit 14:30 verfügbar unter UVP
UVP Sapphire 9070 Nitro+: 779,- (https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-3)

Amazon: auf Lager für 738,- €
Der Preis ist 620+Importgebühren(118,-) aus Amazon UK

Für 744,- von Amazon Deutschland (Prime)

robbitop
2025-03-10, 16:56:27
Mit uvp meinen die meisten wohl die 680€

Complicated
2025-03-10, 17:18:53
Ist halt für die Customs keine UVP (Ausser Pulse und noch einer, soweit ich weis) - und eine Referenzkarte gibt es nicht mit dieser UVP. Deswegen hatte ich auch die UVP der Modelle dazu geschrieben. Mir kommt es vor, da nehmen manche die falsche UVP zum Vergleichen.

robbitop
2025-03-10, 17:24:14
Ist halt die interessanteste UVP weil die von AMD und weil daran die Erwartungen geknüpft sind.

dargo
2025-03-10, 17:33:43
Ist halt für die Customs keine UVP (Ausser Pulse und noch einer, soweit ich weis) - und eine Referenzkarte gibt es nicht mit dieser UVP.
Ähm... not, da gibt es mehr UVP-Karten.

https://i.postimg.cc/Nft937vD/N48-UVPs.jpg

Complicated
2025-03-10, 17:55:56
Danke für die Liste - wäre halt besser wenn die auch weniger Fehler hätte - Sapphire Prime und Asus Pulse? Kannte beide Modelle noch nicht. Auch nicht die Red Devil von XFX und die TUF von Powercolor.

Wenn ich das richtig sehe sind die prozentualen Aufschläge nicht an den Custom AiB-UVPs orientiert, sondern an den Referenzpreisen der günstigen Modelle $550/600 - macht wenig Sinn so eine Liste IMHO. Siehe Beispiel der TUF.

dargo
2025-03-10, 18:13:05
Danke für die Liste - wäre halt besser wenn die auch weniger Fehler hätte - Sapphire Prime und Asus Pulse? Kannte beide Modelle noch nicht.
Stell dich nicht dümmer als du bist. Ist doch offensichtlich, dass Steve den Hersteller dort nur vertauscht hat. Am Kartenmodell orientieren und nicht am Hersteller, dort gibt es mehrere Verwechslungen.

Complicated
2025-03-10, 18:35:37
Da stimmt mehr als die Namen nicht. So dumm ist doch keiner, das nicht zu sehen.

Badesalz
2025-03-10, 20:19:28
Das sind zwei schon sehr unterschiedliche Dinge.Das kommt, wenn man 5h pent und dann auch noch große Schnautze hat :usad: Dann kommt man ruckzuck in Situationen wo man robbi Recht geben muss :uswet: