Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
robbitop
2025-03-01, 09:32:06
ob man mehr wie 10% Powertarget reduzieren kann darfst du noch nicht sagen oder? :D
Raff hat letztes Wochenende eine Andeutung gemacht aus der man schließen könnte (mehr darf er ja auch nicht sagen) dass man TDPs relativ gut nach unten anpassen kann.
TheGood
2025-03-01, 09:37:36
Wollte nur für "alle" klar stellen, dass mehr Watt nicht mehr viel bringt. Interessant wäre wieviel verliert die XT mit 260 Watt gegen 304 Watt Stock. In den nächsten Wochen wissen wir mehr.
Wenn sich der "Deppenaufschlag" zum Release im Rahmen hält schlag ich zu, hoffe das Mindfactory viel auf Lager hat, die übertreiben ja nicht so krass wie z.B. Scalpernate. 740-760 € Hellhound wäre ok für mich.
nochmals im durchschnitt fast 4% ist ein schlechtes ergebnis? für 36 Watt mehr? (in raster)
und 5% in raytracing
TheGood
2025-03-01, 09:38:52
Naja die Auswahl liegt aber im Ermessen von AMD. :)
Die werden vor allem im vorfeld das spiel auf herz und nieren testen und gucken wie die frametimes sind.
DA wird wieder so ein ARgument aufgemacht wo man nur den kopf schütteln kann...
Prinzenrolle
2025-03-01, 09:44:54
So lange NV 12GB Karten bringt kann's du die Theoretische RT Performance nicht ausnutzen, das ist die Wiederholung von 3070 vs 6800.
Komische Argumentation. Kann man auf einer 4070 problemlos nutzen, selbst PT.
dildo4u
2025-03-01, 09:50:03
Komische Argumentation. Kann man auf einer 4070 problemlos nutzen, selbst PT.
Mit Upsampling von 720p auf 1440p könnte sein.
Ich habe nur Erfahrung mit meiner 4070S an meinem 4K TV.
Dort reicht es nicht für PT da man von 1080p upsampelt.
Cyberpunk ist bei 35 FPS Indiana Jones bei 45fps.
Ich denke die Klasse um 500€ ist OK für das Konsolen Raytracing dann kann man 1080p nutzen im Gegensatz zu 720p.
https://i.ibb.co/ycf2df3S/performance-pt-1920-1080.png (https://ibb.co/sdm7bmBH)
https://i.ibb.co/nN0GV29j/performance-rt-1920-1080.png (https://ibb.co/q3nS4GKp)
https://www.techpowerup.com/review/cyberpunk-2077-phantom-liberty-benchmark-test-performance-analysis/6.html
horn 12
2025-03-01, 10:11:43
Wirklich zu Große Klopper:
https://www.youtube.com/watch?v=J7h7hO8IrBI
Lurtz
2025-03-01, 10:15:50
Von einer 4070 kommend könnte man die XT wohl machen. Bisschen mehr VRAM-Headroom, wobei die Frage ist wie oft man den braucht, heavy RT/PT wird da sicher auch nicht viel besser als auf der 4070 laufen, da das meist nVidia-Implementierungen sind.
Grundvoraussetzung wäre aber eh, dass FSR4 so wenig Blur wie DLSS4 hat, sonst kickt der DLSS-Lockin halt hart.
Und AMD kann echt froh sein, dass man DLSS so leicht zu FSR umbiegen kann per Optiscaler, ich habe das mal andersherum versucht und es ist praktisch unmöglich FSR2 zu DLSS (oder FSR 3 oder höher) umzubiegen. Da hat man sich echt ein schönes Ei gelegt mit der fehlenden Upgrade-API.
AlterSack
2025-03-01, 10:16:27
MLID meint im neusten Video:
Viele 9070 XT werden über $650+ MSRP kosten, Stückzahlen sollen gut sein, grob wie beim Launch der 7800 XT.
Viele 9070 sollen über $600 MSRP kosten und insgesamt soll es wenige Karten zum Launch geben.
Wer an einer RDNA4 interessiert ist sollte so früh wie möglich zuschlagen weil ab ~April 2025 sollen die Endkundenpreise steigen.
9060 XT soll im April vorgestellt werden, Leistung wie grob 7700 XT.
die spinnen! das sind die nachfolger für 7700und 7800,
was man nicht vergessen sollte. nur weil nv nix vernünftiges einfällt, sind die karten oberhalb der mittlklasse rausgekommen.
ich geb sicher keine 700€ für ein 9070 aus.
dann bleib ich lieber bei der rx vega.
...und n44 dann für 500€ und mehr....:down::ucrazy:
AlterSack
2025-03-01, 10:22:53
Möglich bei einem ausgereiften Prozess. Oder die 599$ sind die Schmerzgrenze von AMD um noch gutes Geld zu verdienen ohne gleich zu verhungern. Entsprechend ist der Abstand beim Preis bei der non XT mickrig. Man sollte nicht vergessen, dass es hier um 357mm² und 16GB geht, in beiden Fällen. Bei diesen Rahmenbedingungen sollte jedem klar sein, dass sowas auch nicht für 300$ verschleudert werden kann. Die AIBs wollen auch noch überleben. Wenn man den AIBs bei der UVP Gestaltung keine Luft zum atmen lässt passiert über kurz oder lang genau das was EVGA passiert ist. Die AIBs sind dann weg vom Fenster.
es ist trotzdem mittelklasse und die preisentwicklung der letzten
jahre ist abartig. die schaufeln ihr eigenes grab.
für die basiskarten hätte ich 550€ und 650€ angemessen befunden.
die 9070 könnte man amd-seitig auf 220w festnageln
um übertakten zu unterbinden und gut.
robbitop
2025-03-01, 10:26:28
Die werden vor allem im vorfeld das spiel auf herz und nieren testen und gucken wie die frametimes sind.
DA wird wieder so ein ARgument aufgemacht wo man nur den kopf schütteln kann...
Naja da muss man keine Frametimes testen. Wer beim normalen Zocken nicht merkt dass ein Spiel stottert und stockt und juddert (und es nicht weich wie Butter läuft trotz angemessener HW) sollte sich überlegen ob er dann nicht ggf. das falsche macht. ;)
Und wenn ich das Spiel mit meinen GPUs bündeln will sollte sich das ggf vorher mal jemand anschauen. Das nennt sich vetting. Und vetting / trust and verify gehört (bei jeder branche) dazu wenn man sicher stellen will, dass etwas einen guten Eindruck macht.
M4xw0lf
2025-03-01, 10:32:52
Hab ein paar Modelldaten überflogen und es ist wie befürchtet: ohne Referenzdesign gibt es wieder nur lächerlich überdimensionierte Klopper. Kompakt, schlicht, und trotzdem wertig erachtet offenbar kein Hersteller für verkaufsträchtig :down:
Schnitzl
2025-03-01, 10:34:02
Raff hat letztes Wochenende eine Andeutung gemacht aus der man schließen könnte (mehr darf er ja auch nicht sagen) dass man TDPs relativ gut nach unten anpassen kann.
cool dann wäre die XT für mich gesetzt :)
MLID meint im neusten Video:
Viele 9070 XT werden über $650+ MSRP kosten, Stückzahlen sollen gut sein, grob wie beim Launch der 7800 XT.
Viele 9070 sollen über $600 MSRP kosten und insgesamt soll es wenige Karten zum Launch geben.
Wer an einer RDNA4 interessiert ist sollte so früh wie möglich zuschlagen weil ab ~April 2025 sollen die Endkundenpreise steigen.
9060 XT soll im April vorgestellt werden, Leistung wie grob 7700 XT.
da würde mich schon der Grund interessieren weil ergibt erstmal keinen Sinn :confused:
robbitop
2025-03-01, 10:34:13
Zur UVP: AMD hat echt zugehört und liefert (sofern das auch auf der Straße ankommt vom Preis) damit Hardware wo P/L stimmt und auch endlich eine moderne uArch und modernes Upsampling vorhanden ist. Das ist großartig :up: Darauf kann man dann zukünftig aufbauen wenn man es so macht wie mit Ryzen damals. :)
Zu hoffen wäre es.
Klar hat man mit einer Geforce noch Vorteile (MFG, RR, mehr Spiele mit DLSS und Reflex, das neue broadcasting 2.0 etc) aber davon kann man einiges selbst lösen (Optiscaler) und es gibt (wenn die UVPs auch auf der Straße ankommen) einen massiven Preisvorteil der das überkompensiert.
IMO ist der hype train dieses mal nicht de-railt sondern es wird offenbar abgeliefert.
Und wenn man sich anschaut wie positiv Raff zur Karte hier (und im Video) eingestellt ist, zeigt das, dass es wahrscheinlich auch so kommen wird. Sehr geil für uns Endkunden! Weiter so AMD :up:
dildo4u
2025-03-01, 10:36:44
Hab ein paar Modelldaten überflogen und es ist wie befürchtet: ohne Referenzdesign gibt es wieder nur lächerlich überdimensionierte Klopper. Kompakt, schlicht, und trotzdem wertig erachtet offenbar kein Hersteller für verkaufsträchtig :down:
2.5 Slot 280mm Länge scheint OK?
https://geizhals.de/sapphire-pulse-radeon-rx-9070-11349-03-20g-a3430020.html
p0vLil19mBs
M4xw0lf
2025-03-01, 10:38:41
2.5 Slot 280mm Länge scheint OK?
https://geizhals.de/sapphire-pulse-radeon-rx-9070-11349-03-20g-a3430020.html
Ja aber das ist eine 9070 ohne XT und halt auch das absolute Sparmodell.
fizzo
2025-03-01, 10:49:17
Hab ein paar Modelldaten überflogen und es ist wie befürchtet: ohne Referenzdesign gibt es wieder nur lächerlich überdimensionierte Klopper. Kompakt, schlicht, und trotzdem wertig erachtet offenbar kein Hersteller für verkaufsträchtig :down:
Da bin ich ganz bei dir. Bei Sapphire z.B. haben die Kühler bei der Nitro/Pure die selben Abmessungen. Egal Ober 9070 oder 9070XT. Die 9070 Pulse ist aber zumindest kompakt.
TheGood
2025-03-01, 11:15:18
Naja da muss man keine Frametimes testen. Wer beim normalen Zocken nicht merkt dass ein Spiel stottert und stockt und juddert (und es nicht weich wie Butter läuft trotz angemessener HW) sollte sich überlegen ob er dann nicht ggf. das falsche macht. ;)
Und wenn ich das Spiel mit meinen GPUs bündeln will sollte sich das ggf vorher mal jemand anschauen. Das nennt sich vetting. Und vetting / trust and verify gehört (bei jeder branche) dazu wenn man sicher stellen will, dass etwas einen guten Eindruck macht.
Ändert nicht dran dass es "Wayne" ist. Ich spiele doch ein spiel nicht nur weil die Frametimes nicht die besten sind. Wer das spiel will kauft es sich und freut sich. Dem Rest ist das sowieso egal bzw. mault....
Völlig sinnlose Diskussion.. da in der regel das zeugs in ein paar monaten dann läuft.
prinz_valium_2
2025-03-01, 11:23:44
Hab ein paar Modelldaten überflogen und es ist wie befürchtet: ohne Referenzdesign gibt es wieder nur lächerlich überdimensionierte Klopper. Kompakt, schlicht, und trotzdem wertig erachtet offenbar kein Hersteller für verkaufsträchtig :down:
Gibt es überhaupt Karten mit nur 2* 8 Pin für die XT?
fizzo
2025-03-01, 11:33:52
Gibt es überhaupt Karten mit nur 2* 8 Pin für die XT?
Ja, zu Genüge. Sapphir Pure/Pulse oder PowerColor Hellhound/Reaper z.B.
robbitop
2025-03-01, 11:35:25
Ändert nicht dran dass es "Wayne" ist. Ich spiele doch ein spiel nicht nur weil die Frametimes nicht die besten sind. Wer das spiel will kauft es sich und freut sich. Dem Rest ist das sowieso egal bzw. mault....
Völlig sinnlose Diskussion.. da in der regel das zeugs in ein paar monaten dann läuft.
Das ist kein „das eine oder das andere“ Kritierium IMO. Das Spiel selbst sollte einem gefallen aber es sollte auch sauber laufen. Ersteres setze ich mal voraus. Aber wenn ein Spiel stottert und juddert macht es auch automatisch weniger Spaß und macht die Immersion kaputt. Zumindest mir geht es da so. Und IMO braucht man das auch nicht abzutun nur weil man geringere Ansprüche hat.
Eine Assoziation ist jedenfalls aus meiner Sicht nicht ganz abzustreiten wenn man Dinge bundlet. Dass das nicht jeder so wahrnimmt: ok das kann ich nachvollziehen.
davidzo
2025-03-01, 11:47:23
da würde mich schon der Grund interessieren weil ergibt erstmal keinen Sinn :confused:
Trump Tax, ganz einfach. Irgendwo müssen die 25% Zoll auf taiwanische Chips ja wieder auftauchen: Die werden natürlich auch auf den Endkundenpreis aufgeschlagen.
Alleine die Androhung von Zöllen führt schon zu solchen Preiserhöhungen, das hat man ja in der Covidblase gesehen dass die Preise auch überhöht blieben als die Lieferketten wieder hergestellt waren. Selbst wenn diese Zölle also durch Sondergenehmigungen nochmal aufgehoben werden, erhöhen die betroffenen Unternehmen trotzdem frühzeitig die Preise und nehmen solche Gewinne gerne mit. Das ist eine art "Risikovergütung" in solch unsicheren Zeiten für den Welthandel.
Und dass es in Europa billiger bleibt und nur die USA die Deppensteuer zahlen halte ich für unrealistisch. Als quasi Kolonie ist Europa stark an die US märkte gebunden und deshalb werden die preise hier auch ein wenig steigen. Immerhin sollte das dann die Verfügbarkeit fixen, wenn die US Verkäufe einbrechen. :popcorn:
Achill
2025-03-01, 11:50:11
Ja mir fallen ehrlich gesagt auch nur 2 Beispiele dazu. Linux und Freesync.
WTH?
- Das Internet im allgemeinen ?!?!?
-> Viele Programmiersprachen und deren Laufzeitumgebung / Libs
-> Wahrscheinlich fast alle Webseiten nutzen einen Open-Source-Stack als Grundlage
-> Eure Cloud-Dienste / -Systeme die eure Arbeitgeber nutzen / ihr vielleicht entwickelt
Vieles um ML (AI)
- Viele Sachen die mit ML zu tun haben (z.B. wurde TensorFlow nicht von NV entwickelt, NV hat nur frühzeitig erkannt ein CUDA Backend dafür bereit zu stellen)
- Und und und und ...
OgrEGT
2025-03-01, 11:52:50
Da bin ich ganz bei dir. Bei Sapphire z.B. haben die Kühler bei der Nitro/Pure die selben Abmessungen. Egal Ober 9070 oder 9070XT. Die 9070 Pulse ist aber zumindest kompakt.
Bei den RDNA3 Pulse Modellen gab es soweit ich mich erinnere kein Dual-BIOS... Mal sehen wie das jetzt ist... wenn immer noch so, dann hat vlt die Pure mit Sicherheit die Nitro Dual-BIOS... Bei der Nitro würde ich aber Tests abwarten idelarweise von Igor bzgl. dem Aufbau der Stromversorgung... hoffentlich mit Überwachung und Regelung... Wobei ich mir bei Sapphire nicht vorstellen kann dass sie dabei schlampen würden...
Ich weiß wohl dass die Leistungsaufnahme hier wesentlich geringer ist, der Stecker hat allerdings im Vergleich zu den 8PIN viel dünnere Pins/Buchsen und Leitungen sowie einen geringeren Sicherheitsfaktor...
prinz_valium_2
2025-03-01, 11:57:20
Ja, zu Genüge. Sapphir Pure/Pulse oder PowerColor Hellhound/Reaper z.B.
Gut. Die Reaper ist sogar noch relativ klein mit 2 Slot und nur 30cm länge.
Schnitzl
2025-03-01, 12:02:20
Trump Tax, ganz einfach. (...)
ups das hatte ich schon wieder verdrängt danke für die Erinnerung :freak:
AtTheDriveIn
2025-03-01, 12:21:01
Trump Tax, ganz einfach.
Ich bin da nicht so sicher ob das uns in Europa betrifft. Die Zölle bezahlt der US-Importeur und gibt sie dann an seine Kunden weiter. Wenn Mindfactory hier in Deutschland eine Palette Karten in Taiwan/China kauft, haben die USA da wenig mit zu tun. Das Firmen die unklare Lage ausnutzen, kann natürlich immer sein.
amdfanuwe
2025-03-01, 12:23:50
Kann man schon abschätzen, wie eine 9070GRE bzw. 9060XT 12GB 48CU und die N44 Derivate performen werden?
Dürfte ja erst vorgestellt werden, wenn die 7800XT und 7700XT abverkauft sind.
Könnte das Portfolio ja folgendermaßen aussehen:
9070XT| 64CU| 16GB|$599
9070| 56CU| 16GB|$549|
9070GRE| 48CU| 12GB|$449|
9060XT| 32CU| 16GB|$299|
9060| 32CU| 8GB|$249|
9050XT| 28CU| 8GB|$199
AffenJack
2025-03-01, 12:25:45
Trump Tax, ganz einfach. Irgendwo müssen die 25% Zoll auf taiwanische Chips ja wieder auftauchen: Die werden natürlich auch auf den Endkundenpreis aufgeschlagen.
Das beeinflusst dann aber nur die USA. Die Chips die nach Europa gehen sehen US Boden nicht und sind da nicht betroffen.
dildo4u
2025-03-01, 12:26:42
Die 9600XT 16GB wird 350 sein wenn die 5060 TI 16GB für 450 kommt.
AMD war da schon bei der 7600XT zu verhalten und die nutzt 6nm.
bbott
2025-03-01, 12:55:04
Es wird da sowieso mehr reininterpretiert, als wirklich da ist. Ich habe mir vor acht Tagen ne 5070ti gekauft, mit 1000 Piepen zwar 120€ über uvp (wobei ich nicht mal weiß, ob die Asus Prime das Billig-Modell ist, welches es regulär ab 879€ überhaupt geben sollte), aber dank Paypal-0%-Finanzierung mir relativ egal. Sollen sie monatlich ihre 80€ abbuchen, mir ging es primär darum, mal wieder einen Blick in die RT-Welt zu werfen.
Was soll ich sagen, ich wurde enttäuscht. Am Beispiel von AW2, SH2remake, CP2077 etc. kann ich auch fast 8 Jahre nach Touring nichts entdecken, was die Spiele wirklich deutlich besser aussehen läßt. Traurig genug, daß diese auch fast immer nur zitiert werden und da auch nur noch fünf weitere Spiele auf ähnlichem Level sind, die man überhaupt mit erwähnen könnte. Am besten hat mir noch Indi gefallen, wo das Grund-RT das Spiel doch aufwertet, man die Karte aber nicht gleich komplett abwürgt, der Engine sei Dank.
Jetzt mit der 5070ti geht man aber mal eine Stufe höher auf geringes PT und sofort läuft die Karte wieder auf 85% in meinem 60(!)fps-Szenario. Stromverbrauch auch fast 3stellig höher, muß ich nachher aber noch mal nachschauen. Das ist einfach immer noch zuviel für ne Mittelklasse-Karte, wie die 70 es halt ist. Wenn man sich anschaut, wie Millionen Spieler weltweit spielen (wieder am Beispiel des großen Steam-Pools), mit was für Karten auf was für Auflösungen.. ich glaube, RT ist hier in allen großen Foren immer die große Show, damit steht und fällt die Bewertung einer Karte. Was auf der anderen Seite allerdings dann beim Spieler ankommt, die in der Masse Umsonst-Spiele wie Dota, CS, PUBG usw. spielen oder älteres wie GTA5, Stardew Valley und sowas, naja. Ich glaube, der RT-Markt ist hier bei uns in den entwickelten Ländern ein Thema, wo man weiß, daß da richtig Kohle auf den Tisch gelegt werden kann. Trotzdem werden 4/5 aller weltweiten Spieler nichts von einem geraytracten AW2 haben, die spielen das einfach so durch. Und sie verpassen auch nichts, weil die neueren Spielen auch so schon verdammt gut aussehen.
Ich habe mir vorhin überlegt, ob ich die 5070ti nicht einfach wieder zurückschicke. Ich wäre mit einer 9070xt ebensogut abgefrühstückt und das nicht mal, weil sie 250€ günstiger wäre. Die reicht einfach für ein gutes visuelles Ergebnis. Muß nochmal in mich gehen. Kleinanzeigen wäre nicht möglich, da mir die Karte ja nichtmal gehört. Bliebe vielleicht tatsächlich nur zurücksenden, obwohl mir dlss usw. weiterhin gut gefällt (MFG brauche ich nicht).
PS: Ich weiß, daß du dem RT-Wahn ebensowenig verfallen bist, ich wollte nur mal aufzeigen, in was für einer Wohlstandsblase wir eigentlich leben. Und nein, das fällt mir nicht erst auf, seit ich über meine 5070 nachdenke, das wäre auch ein bisschen traurig ;).
Danke. Für eine nüchterne und sachliche Einordnung, ohne emotionale Übertreibungen oder Beleidigungen.
Hakim
2025-03-01, 13:12:11
Das beeinflusst dann aber nur die USA. Die Chips die nach Europa gehen sehen US Boden nicht und sind da nicht betroffen.
Angeblich soll aber auch der Euro zum Dollar etwas an Wert verlieren und es in nächster Zeit auf 1:1 kommen, derzeit glaub 1,04-1,05. Ich weiß nicht viel aber dennoch könnte es dadurch etwas teurer werden
dargo
2025-03-01, 13:16:33
Ja aber das ist eine 9070 ohne XT und halt auch das absolute Sparmodell.
Was heißt denn hier Sparmodell? Es ist eine normale 9070 non XT mit 220W. Und endlich bekommen die Grafikkarten wieder vernünftige Größen! Diese Ziegelsteine sind nur noch abartig.
horn 12
2025-03-01, 13:30:44
Hab ein paar Modelldaten überflogen und es ist wie befürchtet: ohne Referenzdesign gibt es wieder nur lächerlich überdimensionierte Klopper. Kompakt, schlicht, und trotzdem wertig erachtet offenbar kein Hersteller für verkaufsträchtig :down:
Sapphire fällt raus mit Pure und Pulse/ Nitro komplett
ebenso Taichi mit Neuem Stecker
XFX übertreibt komplett mit 60 - 70mm Höhe
Asus scheidet aus
einzig Alleine die Asrock Taichi Stealth Legend und Gigabyte Gaming OC könnten es bei mir werden
oder die PowerColor Hellhound, aber hatte mal 2 Defekt Powercolor Karten hintereinander,- die 3-te ging gleich in den Verkauf!
OgrEGT
2025-03-01, 13:37:07
Sapphire fällt raus mit Pure und Pulse/ Nitro komplett
ebenso Taichi mit Neuem Stecker
XFX übertreibt komplett mit 60 - 70mm Höhe
Asus scheidet aus
einzig Alleine die Asrock Taichi Stealth Legend und Gigabyte Gaming OC könnten es bei mir werden!
Warum scheiden die alle aus? Weil sie in Dein Gehäuse nicht reinpassen? Wolltest Du Dir nicht schon lange ein neues zulegen?
AffenJack
2025-03-01, 13:40:26
Angeblich soll aber auch der Euro zum Dollar etwas an Wert verlieren und es in nächster Zeit auf 1:1 kommen, derzeit glaub 1,04-1,05. Ich weiß nicht viel aber dennoch könnte es dadurch etwas teurer werden
Währungsschwankungen gibt es immer. Da sind wir gerade am Arsch. Aber das hat mit der sonstigen Preissituation nicht viel zu tun. Am Ende kriegen wir hier den Umrechenkurs dadurch.
Hauptsache die 599$ sind nicht ne Pseudo-UVP wie bei Nvidia und es gibt solche Karten sogut wie gar nicht, sondern erst ab 650$ oder so. Solange es eine gute Auswahl sowohl günstiger UVP Karten und teureren Designs gibt ist alles gut.
horn 12
2025-03-01, 13:45:47
Nein, kommt anderer Rechner in Zukunft, komplett NEU inkl. Gehäuse!
Sind Überdimensioniert, da max. 304 bis 340/ 360 Watt ausgelegt.
Zudem bringt das OC von +40 bis 60 Watt nur 3 max. 6 Prozent!
Schnitzl
2025-03-01, 13:46:44
Zur UVP: AMD hat echt zugehört und liefert (sofern das auch auf der Straße ankommt vom Preis) damit Hardware wo P/L stimmt und auch endlich eine moderne uArch und modernes Upsampling vorhanden ist. Das ist großartig :up: Darauf kann man dann zukünftig aufbauen wenn man es so macht wie mit Ryzen damals. :)
Zu hoffen wäre es.
Klar hat man mit einer Geforce noch Vorteile (MFG, RR, mehr Spiele mit DLSS und Reflex, das neue broadcasting 2.0 etc) aber davon kann man einiges selbst lösen (Optiscaler) und es gibt (wenn die UVPs auch auf der Straße ankommen) einen massiven Preisvorteil der das überkompensiert.
IMO ist der hype train dieses mal nicht de-railt sondern es wird offenbar abgeliefert.
Und wenn man sich anschaut wie positiv Raff zur Karte hier (und im Video) eingestellt ist, zeigt das, dass es wahrscheinlich auch so kommen wird. Sehr geil für uns Endkunden! Weiter so AMD :up:
100% ACK
bleibt nur zu hoffen dass AMD nun auch so weitermacht.
OgrEGT
2025-03-01, 14:20:40
Nein, kommt anderer Rechner in Zukunft, komplett NEU inkl. Gehäuse!
Sind Überdimesioniert, da max. 304 bis 340/ 360 Watt ausgelegt.
Zudem bringt das OC von +40 - 60 Watt nur 3 max. 6 Prozent!
Wenn die Karte ins Gehäuse passt ist doch gut... wenn der Kühler größer ist dann kannst du die Lüfter sehr leise einstellen... passt doch...
M4xw0lf
2025-03-01, 14:26:32
Was heißt denn hier Sparmodell? Es ist eine normale 9070 non XT mit 220W. Und endlich bekommen die Grafikkarten wieder vernünftige Größen! Diese Ziegelsteine sind nur noch abartig.
Davon rede ich ja, es gibt bis auf die Sparmodelle wie Pulse einfach nur übertriebene Dickschiffe.
robbitop
2025-03-01, 14:32:47
Gibt es beim Cache eigentlich schon mehr Details? Was ich gesehen habe ist tatsächlich eine Verdopplung des L2 Caches. Aber auf L0/L1 wurde glaube ich nicht eingegangen aber AMD sagt "enhanced memory subsystem".
Auf jeden Fall sind 20% IPC Steigerung, die AMD pro CU benennt schon beträchtlich. Damit müsste man jetzt mit den SMs bei Ada / Blackwell pro Takt eigentlich auf Augenhöhe sein - und damit auch pro GFLOP.
Ich bin noch auf die Performance bei hoher RT Last (zB PT) gespannt. Aber wenn bisherige Performance Indikationen stimmen, ist das dafür, dass es keine Fixed Function Hardware für BVH Berechnungen gibt, wirklich bemerkenswert.
Aber:
Wenn man sich mal anschaut was pro Tansistor herauskommt, ist da noch Verbesserungspotential.
AD103: 45.9 Mrd
N48: 53.9 Mrd
GB203: 45.6 Mrd
Man verbraucht ~17% mehr Transistoren bei ähnlicher Rasterleistung (bzw man liegt ja hinter der 5080) aber niedrigerer RT Leistung.
Man ist nicht total fern abgeschlagen. Aber dafür dass Nvidia so viel fixed function Hardware zusätzlich verbaut hat um in AI workloads und RT so stark zu sein und man sich diese "sparen" konnte und die Transistoren in General Purpose Units stecken konnte (die dann auch bei Nicht-RT Spielen Performance bringen) ist da noch Luft nach oben.
Ja jetzt kann man sagen, dafür ist der Chip klein dank hoher Packdichte. Aber das hat ja eher mit der Implementierung (und dem Node) zu tun. Er wäre noch kleiner mit weniger Transistoren oder wäre noch schneller bei gleicher Fläche mit einem besseren Design.
Also ein sehr geiles Produkt und man hat wieder Anschluss gefunden - will das nicht schlechtreden. Aber aus uArch Sicht gibt es defintiv noch Steigerungspotenzial für UDNA. :)
Der_Korken
2025-03-01, 14:44:32
Anzahl Transistoren ist doch völlig egal. Was zählt sind, wie du schon sagst, Performance pro Fläche und eben Performance pro Watt. Und bei beiden sieht AMD wieder konkurrenzfähig aus. Wenn die zusätzlichen Transistoren am Ende weder zu mehr Flächen- noch zu mehr Energieverbrauch führen, ist doch alles gut.
Savay
2025-03-01, 14:46:01
Gibt es beim Cache eigentlich schon mehr Details? Was ich gesehen habe ist tatsächlich eine Verdopplung des L2 Caches. Aber auf L0/L1 wurde glaube ich nicht eingegangen aber AMD sagt "enhanced memory subsystem".
L0 bleibt bei 32kB
Instruction Cache auch bei 32kb
Scalar bei 16kB
Vector GPR bei 192kB
Der LDS (Shared Memory) bleibt auch bei 128kB...
Da ändert sich also anscheinend erstmal nichts.
Vom L1 ist in den Materialien bisher nichts zu sehen.
RDNA4
https://pics.computerbase.de/1/1/6/2/7/0-4948e0ba221a5fff/13-2160.998bfd9a.png
RDNA3
https://hothardware.com/Image/Resize/?width=1170&height=1170&imageFile=/contentimages/Article/3259/content/big_compute-unit-pair.jpg
basix
2025-03-01, 15:02:33
Also ein sehr geiles Produkt und man hat wieder Anschluss gefunden - will das nicht schlechtreden. Aber aus uArch Sicht gibt es defintiv noch Steigerungspotenzial für UDNA. :)
Ich finde das Out-of-Order Zeugs noch spannend. Das hat das Potential, dass Code weniger anfällig auf Latenzen und vermutlich auch fehlende Code Optimierungen reagieren sollte. Die GPU kann noch etwas Arbeit dazwischen schieben und stalled weniger oft. Und wieder mal fällt auf, dass auch bei GPUs die Latenz immer mehr das Problem ist und weniger die Bandbreite.
Kepler_L2 meinte zudem, dass gfx13 (RDNA5) sogar mit Register Renaming daherkommen soll. Man geht also anscheinend damit stärker in Richtung OoO Execution, oder zumindest Teilen davon. Das sollte ILP verbessern und damit sollte die Auslastung der GPU steigen (was bei immer breiteren GPUs ein immer grösseres Problem wird).
GerryB
2025-03-01, 15:04:32
Was hier auch schön zusehen ist, der Vergleich zwischen 304 Watt und 340 Watt, bringt so gut wie garnichts.
ohne Vram-OCen besagt Das momentan gar nix
und
das GPU-OCen ab Werk ist mit 4% auch moderat gehalten, ... bringt dann 1:1 von -2% auf +2% die Skalierung
Hauptsache, die Temps aus dem Furmark werden annähernd erreicht, dann sollte Einiges gehen.
Das Chipdesign bei den Shaderclustern sieht eigentlich sehr entspannt aus.
(mehr Fläche als die Konkurrenz)
die secret Sauce ist sicherlich in der Mitte beim L2 + Registern zu suchen
Da hat AMD ganz schön viel neu gemacht.
basix
2025-03-01, 15:24:19
Ach ja, ist das jemandem aufgefallen?
FSR4 auf einer 7800XT aktiviert :D
GerryB
2025-03-01, 15:30:37
das ist AFMF2.1, ... hat nix mit FSR4 zu tun
(habe ich auch@6800 auf nem Insidertreiber)
Relex
2025-03-01, 15:31:58
Nö, er hat schon recht. Unten steht ja dass FSR4 aktiv ist.
Ich frag mich nur, was man bezwecken will, wenn man treiberseitiges Upscaling mit Ingame FSR kombiniert.
Das sieht doch grausig aus. Das macht man nicht.
basix
2025-03-01, 15:34:14
Nah, ist wohl nur ein "Screenshot" Fehler ;)
GerryB
2025-03-01, 15:44:22
Nö, er hat schon recht. Unten steht ja dass FSR4 aktiv ist.
1+
may be, in Wirklichkeit ist dann ein interner Fallback auf FSR3.1 aktiv,
der auf FP16+INT läuft
basix
2025-03-01, 15:56:32
Auflistung mehrerer RT-Patente, die so wohl in RDNA4 zu finden sind:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-363#post-41406517
robbitop
2025-03-01, 16:01:55
Anzahl Transistoren ist doch völlig egal. Was zählt sind, wie du schon sagst, Performance pro Fläche und eben Performance pro Watt. Und bei beiden sieht AMD wieder konkurrenzfähig aus. Wenn die zusätzlichen Transistoren am Ende weder zu mehr Flächen- noch zu mehr Energieverbrauch führen, ist doch alles gut.
Man muss aber auch die Opportunität betrachten. Sie gleichen die Chipgröße durch besseren Node und durch bessere Implementierung (Zen Leute) aus. Aber jetzt kommt die Opportunität: sie hätten einen kleineren Chip (leistungsnormiert) bauen können oder einen schnelleren bei gleicher Größe.
Das mag für die Bewertung des Produktes im hier und jetzt zweitrangig sein aber wenn man sich die uArch anschaut und Opportunität (und Potential für zukünftige uArchs) betrachtet ist es relevant.
Es geht mir dabei nicht um das Produkt als solches. Das ist gut. Es geht mir um RDNA4 als uArch. :)
robbitop
2025-03-01, 16:03:10
Ich finde das Out-of-Order Zeugs noch spannend. Das hat das Potential, dass Code weniger anfällig auf Latenzen und vermutlich auch fehlende Code Optimierungen reagieren sollte. Die GPU kann noch etwas Arbeit dazwischen schieben und stalled weniger oft. Und wieder mal fällt auf, dass auch bei GPUs die Latenz immer mehr das Problem ist und weniger die Bandbreite.
Kepler_L2 meinte zudem, dass gfx13 (RDNA5) sogar mit Register Renaming daherkommen soll. Man geht also anscheinend damit stärker in Richtung OoO Execution, oder zumindest Teilen davon. Das sollte ILP verbessern und damit sollte die Auslastung der GPU steigen (was bei immer breiteren GPUs ein immer grösseres Problem wird).
Das klingt sehr sehr interessant. :up: Wo hast du das mit dem OoO her? :)
Der_Korken
2025-03-01, 16:19:53
Man muss aber auch die Opportunität betrachten. Sie gleichen die Chipgröße durch besseren Node und durch bessere Implementierung (Zen Leute) aus. Aber jetzt kommt die Opportunität: sie hätten einen kleineren Chip (leistungsnormiert) bauen können oder einen schnelleren bei gleicher Größe.
Das klingt so, als bestünde AMDs CPU-Team gegenüber Nvidia aus "Über-Ingenieuren", die viel besser implementieren können als Nvidia und nur deswegen ist N48 trotz hoher Transistorzahl klein und sparsam geblieben. Könnte es nicht auch einfach sein, dass beide Teams einfach unterschiedlich implementieren, um das gleiche Problem zu lösen? Außerdem: Warum besserer Node? GB103 ist doch auch 4nm TSMC.
Complicated
2025-03-01, 16:20:31
Das klingt sehr sehr interessant. :up: Wo hast du das mit dem OoO her? :)
https://pics.computerbase.de/1/1/6/2/7/0-4948e0ba221a5fff/16-1080.fbe53e84.png
basix
2025-03-01, 16:29:59
Danke @complicated.
Und hier die Aussage von Kepler zu Register Renaming. Bezugnehmend auf eine Aussage zu OoO Execution:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-360#post-41406272
adroc:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-357#post-41405615
Und hier weiter von Disentchantment:
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-363#post-41406517
AMD is cooking some more stuffs for upcoming archs
New radical shader reordering and sorting mechanism to minimize divergence described here
robbitop
2025-03-01, 16:36:20
Das klingt so, als bestünde AMDs CPU-Team gegenüber Nvidia aus "Über-Ingenieuren", die viel besser implementieren können als Nvidia und nur deswegen ist N48 trotz hoher Transistorzahl klein und sparsam geblieben. Könnte es nicht auch einfach sein, dass beide Teams einfach unterschiedlich implementieren, um das gleiche Problem zu lösen? Außerdem: Warum besserer Node? GB103 ist doch auch 4nm TSMC.
Ich glaube nicht dass man ~10 Mrd Transistoren „verballert“ für eine andere Implementierung. Dass es gewisse Abweichungen dahin gehend gibt denke ich auch. Aber das wäre intuitiv gesehen irgendwie zu viel.
Blackwell und Ada sind beides „4N“ und laut w0mbat (high yield auf youtube) ist 4N eine Umlabelung von TSMCs N5. Er kennt eine Menge Leute und hat einen Insider gefragt. Entsprechend N5 vs N4P.
Die Ryzen Leute sind zumindest durch die Spezialisierung auf Schaltungen mit hohen Taktraten bei gleichzeitig guter Packdichte eine Bereicherung in der Implementierung. Das hatte AMD iirc auch zu rdna2 mal gesagt. Und 3 GHz ist für eine GPU schon relativ viel - ggf können die CPU Leute diesen Teil einfach besser. Ist aber spekulativ.
robbitop
2025-03-01, 16:41:52
https://pics.computerbase.de/1/1/6/2/7/0-4948e0ba221a5fff/16-1080.fbe53e84.png
Das sieht ein wenig so aus wie Nvidias SER bzw. das Intel Äquivalent was keine explizite Unterstützung durch die SW braucht.
Laut Nvidia brachte das iirc ja auch für reguläre Shader und ohne explizite Implementierung was. Aber so richtig viel messbar war da iirc rohleistunganormiert relativ zu Ampere das nicht. Ggf ist die Version von AMD einfach viel besser ohne Implementierung (größerer HW Aufwand) und ist dann auch feserführend für die 20% IPC pro CU.
Complicated
2025-03-01, 16:45:21
Ich habe das Gefühl diese Folie beantwortet sowohl die Frage warum wir noch keine Multi-Chiplet GPUs bei Gaming haben, als auch warum AMD bei Raytracing bisher nicht so schnell hinterher zieht. Beide Technologien stehen sich beim Thema Latenz diametral gegenüber. RT braucht kürzere und Chiplets verursachen längere Latenzen beim Speicherzugriff.
Möglicherweise ist das bei RDNA4 die Lösung für dieses Dilema bei zukünftigen Architekturen mit Multi-Chiplets. Erscheint mir jedenfalls als die richtige Stellschraube.
ecodriver
2025-03-01, 16:56:51
Blackwell und Ada sind beides „4N“ und laut w0mbat (high yield auf youtube) ist 4N eine Umlabelung von TSMCs N5. Er kennt eine Menge Leute und hat einen Insider gefragt. Entsprechend N5 vs N4P.
Laut TSMC gehört auch der N4P zur Familie der 5nm Fertigungsprozesse (https://pr.tsmc.com/english/news/2874)
robbitop
2025-03-01, 16:58:02
Ich habe das Gefühl diese Folie beantwortet sowohl die Frage warum wir noch keine Multi-Chiplet GPUs bei Gaming haben, als auch warum AMD bei Raytracing bisher nicht so schnell hinterher zieht. Beide Technologien stehen sich beim Thema Latenz diametral gegenüber. RT braucht kürzere und Chiplets verursachen längere Latenzen beim Speicherzugriff.
Möglicherweise ist das bei RDNA4 die Lösung für dieses Dilema bei zukünftigen Architekturen mit Multi-Chiplets. Erscheint mir jedenfalls als die richtige Stellschraube.
Guter Punkt. :up:
Zossel
2025-03-01, 16:59:31
WTH?
- Das Internet im allgemeinen ?!?!?
-> Viele Programmiersprachen und deren Laufzeitumgebung / Libs
-> Wahrscheinlich fast alle Webseiten nutzen einen Open-Source-Stack als Grundlage
-> Eure Cloud-Dienste / -Systeme die eure Arbeitgeber nutzen / ihr vielleicht entwickelt
Vieles um ML (AI)
- Viele Sachen die mit ML zu tun haben (z.B. wurde TensorFlow nicht von NV entwickelt, NV hat nur frühzeitig erkannt ein CUDA Backend dafür bereit zu stellen)
- Und und und und ...
Mittlerweile dürften auch die Haushalte in denen Linux-Schüsseln gegenüber Windows-Kisten nicht die Mehrheit stellen ziemlich in der Minderheit sein.
robbitop
2025-03-01, 17:00:18
Laut TSMC gehört auch der N4P zur Familie der 5nm Fertigungsprozesse (https://pr.tsmc.com/english/news/2874)
Das wissen wir alle. ;) Dennoch ist N4 nicht „4N“. Das hat Nvidia clever gebrandet so dass man sie verwechselt. 4N = N5. N4 =/ 4N ;)
Die gehören zwar alle zur 5 nm Familie aber innerhalb dieser hat sich schon in Bezug auf density, power und performance was getan. ;)
Andererseits gibt TSMC iirc eine deutlich kleinere Packdichtensteigerung an als das was die ~150 Mtr / mm2 für die komplette GPU zeigt (Ada lag bei grob 125). Jetzt könnte man sagen N31/32 haben auch 150 MTr aber das ist ja ein GCD wo der ganze Kram der nicht dicht packt und mit modernen nodes skaliert ins MCD ausgelagert wurde. Zählt also nicht ^^
Ravenhearth
2025-03-01, 17:11:45
Blackwell und Ada sind beides „4N“ und laut w0mbat (high yield auf youtube) ist 4N eine Umlabelung von TSMCs N5. Er kennt eine Menge Leute und hat einen Insider gefragt. Entsprechend N5 vs N4P.
Laut TPU (https://www.techpowerup.com/review/amd-radeon-rx-9070-series-technical-deep-dive/3.html) ist Navi48 sogar N4C (https://www.anandtech.com/show/21371/tsmc-preps-lower-cost-4nm-n4c-process-for-2025)
robbitop
2025-03-01, 17:14:33
Laut TPU (https://www.techpowerup.com/review/amd-radeon-rx-9070-series-technical-deep-dive/3.html) ist Navi48 sogar N4C (https://www.anandtech.com/show/21371/tsmc-preps-lower-cost-4nm-n4c-process-for-2025)
Komisch dass sich die Redaktionen widersprechen. PCGH oder CB haben (weiß nicht genau bei wem von beiden ich das gelesen hab gestern) N4P angegeben. N4C ist ggf nicht wirklich besser. Ich meine das ist nur ein cost down node von N4P.
Gibt es beim Cache eigentlich schon mehr Details? Was ich gesehen habe ist tatsächlich eine Verdopplung des L2 Caches. Aber auf L0/L1 wurde glaube ich nicht eingegangen aber AMD sagt "enhanced memory subsystem".
Auf jeden Fall sind 20% IPC Steigerung, die AMD pro CU benennt schon beträchtlich. Damit müsste man jetzt mit den SMs bei Ada / Blackwell pro Takt eigentlich auf Augenhöhe sein - und damit auch pro GFLOP.
Ich bin noch auf die Performance bei hoher RT Last (zB PT) gespannt. Aber wenn bisherige Performance Indikationen stimmen, ist das dafür, dass es keine Fixed Function Hardware für BVH Berechnungen gibt, wirklich bemerkenswert.
Aber:
Wenn man sich mal anschaut was pro Tansistor herauskommt, ist da noch Verbesserungspotential.
AD103: 45.9 Mrd
N48: 53.9 Mrd
GB203: 45.6 Mrd
Man verbraucht ~17% mehr Transistoren bei ähnlicher Rasterleistung (bzw man liegt ja hinter der 5080) aber niedrigerer RT Leistung.
Man ist nicht total fern abgeschlagen. Aber dafür dass Nvidia so viel fixed function Hardware zusätzlich verbaut hat um in AI workloads und RT so stark zu sein und man sich diese "sparen" konnte und die Transistoren in General Purpose Units stecken konnte (die dann auch bei Nicht-RT Spielen Performance bringen) ist da noch Luft nach oben.
Ja jetzt kann man sagen, dafür ist der Chip klein dank hoher Packdichte. Aber das hat ja eher mit der Implementierung (und dem Node) zu tun. Er wäre noch kleiner mit weniger Transistoren oder wäre noch schneller bei gleicher Fläche mit einem besseren Design.
Also ein sehr geiles Produkt und man hat wieder Anschluss gefunden - will das nicht schlechtreden. Aber aus uArch Sicht gibt es defintiv noch Steigerungspotenzial für UDNA. :)
Viele Transen werden auch u.a. dafür verwendet, um einen hohen Takt zu generieren, für mich das Hauptproblem von N31, wo Transen wegrationalisiert wurden und die 3.5g nicht mehr gegeben waren, sondern 700mhz weniger.
mksn7
2025-03-01, 17:23:11
Ich finde das Out-of-Order Zeugs noch spannend. Das hat das Potential, dass Code weniger anfällig auf Latenzen und vermutlich auch fehlende Code Optimierungen reagieren sollte. Die GPU kann noch etwas Arbeit dazwischen schieben und stalled weniger oft. Und wieder mal fällt auf, dass auch bei GPUs die Latenz immer mehr das Problem ist und weniger die Bandbreite.
Kepler_L2 meinte zudem, dass gfx13 (RDNA5) sogar mit Register Renaming daherkommen soll. Man geht also anscheinend damit stärker in Richtung OoO Execution, oder zumindest Teilen davon. Das sollte ILP verbessern und damit sollte die Auslastung der GPU steigen (was bei immer breiteren GPUs ein immer grösseres Problem wird).
Oho, mal langsam mit den jungen Pferden. Das hat wenig zu tun mit dem OoO, was man von CPUs kennt. Das war das gleiche wie bei NVIDIA's SER, Jensen macht vage Aussagen über out-of-order, und alle jubeln gleich dass die SMs jetzt OoO CPUs sind (Manchmal vermute ich diese tech "shallow-dives" sind absichtlich vage formuliert, damit die Technikpresse da fantastische Dinge reinprojizieren kann).
Hier gehts nur um die Reihenfolge in der load instructions abgearbeitet werden. Bislang war der return von memory instructions wohl in-order: eine memory instruction die ein cache miss ist, blockiert auch den return der folgenden memory instructions und blockiert auch instructions die nicht davon direkt davon abhängen.
Ich hätte aber ehrlich vorher auch genau dieses Verhalten angenommen. Innerhalb eines threads ist die fixe Reihenfolge von Loads (L) und dependent instructions (D) klar:
L1 L2 L3 --- D1 D2 D3
Wenn D1 stalled weil L1 noch nicht returned ist, dann ist egal ob L2 und L3 schon returnen, weil mit D2 erst weiter gemacht wird nachdem D1 gestartet hat. Aber anscheinend war diese Reihenfolge auch über threads das auch über threads hinweg:
thread1: L1 L2 ---- D1 D2
thread2: L3 L4 ---- D3 D4
Wenn L1 ein cache miss ist, aber L3 ein cache hit, dann konnte wohl D3 nicht weiter machen obwohl die Daten da sind. Wenn das tatsächlich bislang so war, find ichs ein bisschen schwach. Ich wäre fest davon ausgegangen dass das geht.
Deswegen vermute ich eigentlich wieder eine deutlich schwächere Auflösung, z.B. dass es unterschiedliche queues für loads aus den ray accelerators und allgemeine loads, und dass normale loads nicht blockieren nur weil die queue voll ist mit RT requests.
Ravenhearth
2025-03-01, 17:23:36
Komisch dass sich die Redaktionen widersprechen. PCGH oder CB haben (weiß nicht genau bei wem von beiden ich das gelesen hab gestern) N4P angegeben. N4C ist ggf nicht wirklich besser. Ich meine das ist nur ein cost down node von N4P.
Laut anandtech ermöglicht N4C etwas kleinere Chipflächen, also mehr Packdichte (darum ging es ja). Aber ja, fraglich ob das mit N4C stimmt :redface:
robbitop
2025-03-01, 17:26:00
Viele Transen werden auch u.a. dafür verwendet, um einen hohen Takt zu generieren, für mich das Hauptproblem von N31, wo Transen wegrationalisiert wurden und die 3.5g nicht mehr gegeben waren, sondern 700mhz weniger.
Ist ein guter Punkt aber ob N48 wirklich so viel höher takten kann als GB203? Laut reviews ist OC auf 3,3 GHz relativ normal. Muss man mal schauen wie viel bei N48 geht
TheGood
2025-03-01, 17:26:05
Das ist kein „das eine oder das andere“ Kritierium IMO. Das Spiel selbst sollte einem gefallen aber es sollte auch sauber laufen. Ersteres setze ich mal voraus. Aber wenn ein Spiel stottert und juddert macht es auch automatisch weniger Spaß und macht die Immersion kaputt. Zumindest mir geht es da so. Und IMO braucht man das auch nicht abzutun nur weil man geringere Ansprüche hat.
Eine Assoziation ist jedenfalls aus meiner Sicht nicht ganz abzustreiten wenn man Dinge bundlet. Dass das nicht jeder so wahrnimmt: ok das kann ich nachvollziehen.
Eigentlich wollte ich darauf nicht mehr antworten, aber um die Kritik nochmals in Relation zu setzen.
Aktuell 1,2 Mio spieler,
24h peak: 1,3 Mio spieler.
Warum sollte AMD auf ggf. so ein Zugpferd verzichten?
Die Probleme die das Spiel hat stehen offensichtlich in keinem Verhältnis zum Erfolg des Spieles.
Natürlich sind schlechte Frametimes nicht schön, aber offensichtlich stört sich die Mehrheit nicht dran... Die Realität sollte man dann einfach anerkennen.
robbitop
2025-03-01, 17:27:14
Laut anandtech ermöglicht N4C etwas kleinere Chipflächen, also mehr Packdichte (darum ging es ja). Aber ja, fraglich ob das mit N4C stimmt :redface:
Als N4P? Wäre ich erstmal skeptisch - hab dazu noch keine Angaben von TSMC gesehen und mit sowas werben sie ja schon.
robbitop
2025-03-01, 17:29:28
Eigentlich wollte ich darauf nicht mehr antworten, aber um die Kritik nochmals in Relation zu setzen.
Aktuell 1,2 Mio spieler,
24h peak: 1,3 Mio spieler.
Warum sollte AMD auf ggf. so ein Zugpferd verzichten?
Die Probleme die das Spiel hat stehen offensichtlich in keinem Verhältnis zum Erfolg des Spieles.
Natürlich sind schlechte Frametimes nicht schön, aber offensichtlich stört sich die Mehrheit nicht dran... Die Realität sollte man dann einfach anerkennen.
Man kann aber auch ein anderes Zugpferd nehmen was sich auch gut verkauft (oder besser) aber technisch gut gemacht ist. MH ist ja schon ziemlich unschön für die Grafik (performancekosten für das was abgeliefert wird plus läuft wie ein Sack Nüsse). Ich hätte Elden Ring Nightreign beigelegt (als pre order key oder so)
Ravenhearth
2025-03-01, 17:29:46
Als N4P? Wäre ich erstmal skeptisch - hab dazu noch keine Angaben von TSMC gesehen und mit sowas werben sie ja schon.
Aus dem verlinkten Artikel:
In a bid to further bring down 5nm manufacturing costs, for TSMC is implementing several changes for N4C, including rearchitecting their standard cell and SRAM cell, changing some design rules, and reducing the number of masking layers. As a result of these improvements, the company expects N4C to achieve both smaller die sizes as well as a reduction in production complexity, which in turn will bring die costs down by up to 8.5%. Furthermore, with the same wafer-level defect density rate as N4P, N4C stands to offer even higher functional yields thanks to its die area reduction.
Dürfte aber gering sein.
basix
2025-03-01, 17:30:54
Oho, mal langsam mit den jungen Pferden. Das hat wenig zu tun mit dem OoO, was man von CPUs kennt. Das war das gleiche wie bei NVIDIA's SER, Jensen macht vage Aussagen über out-of-order, und alle jubeln gleich dass die SMs jetzt OoO CPUs sind.
Keine Angst, mir ist schon klar dass das weit weg von CPU OoO ist. Aber anscheinend nimmt man immer mehr von den OoO Werkzeugen und wendet sie in gewissen Teilen für GPUs an. Die Tendenz ist zumindest da, damit man die GPUs besser ausgelastet bekommt (weniger Stalls). Und OoO Execution ist da ja ein Mittel, um die Ausführungsparallelität erhöhen zu können und eben Stalls zu verringern.
OoO bei CPUs geht natürlich viel weiter, vor allem dann auch in Verbindung mit dem spekulativen Ausführen von Berechnungen.
robbitop
2025-03-01, 17:31:04
Oho, mal langsam mit den jungen Pferden. Das hat wenig zu tun mit dem OoO, was man von CPUs kennt. Das war das gleiche wie bei NVIDIA's SER, Jensen macht vage Aussagen über out-of-order, und alle jubeln gleich dass die SMs jetzt OoO CPUs sind (Manchmal vermute ich diese tech "shallow-dives" sind absichtlich vage formuliert, damit die Technikpresse da fantastische Dinge reinprojizieren kann).
Hier gehts nur um die Reihenfolge in der load instructions abgearbeitet werden. Bislang war der return von memory instructions wohl in-order: eine memory instruction die ein cache miss ist, blockiert auch den return der folgenden memory instructions und blockiert auch instructions die nicht davon direkt davon abhängen.
Ich hätte aber ehrlich vorher auch genau dieses Verhalten angenommen. Innerhalb eines threads ist die fixe Reihenfolge von Loads (L) und dependent instructions (D) klar:
L1 L2 L3 --- D1 D2 D3
Wenn D1 stalled weil L1 noch nicht returned ist, dann ist egal ob L2 und L3 schon returnen, weil mit D2 erst weiter gemacht wird nachdem D1 gestartet hat. Aber anscheinend war diese Reihenfolge auch über threads das auch über threads hinweg:
thread1: L1 L2 ---- D1 D2
thread2: L3 L4 ---- D3 D4
Wenn L1 ein cache miss ist, aber L3 ein cache hit, dann konnte wohl D3 nicht weiter machen obwohl die Daten da sind. Wenn das tatsächlich bislang so war, find ichs ein bisschen schwach. Ich wäre fest davon ausgegangen dass das geht.
Deswegen vermute ich eigentlich wieder eine deutlich schwächere Auflösung, z.B. dass es unterschiedliche queues für loads aus den ray accelerators und allgemeine loads, und dass normale loads nicht blockieren nur weil die queue voll ist mit RT requests.
Ah dann war meine Annahme mit SER Pendant also richtig. Aber: im Gegensatz zu SER funktioniert es anscheinend auch wirkungsvoll(!) transparent zur Anwendung. Das ist IMO schon wichtig bzw. ein guter Vorteil :)
robbitop
2025-03-01, 17:32:46
Aus dem verlinkten Artikel:
Dürfte aber gering sein.
Ja aber da fehlt die referenz. Dichter gepackt als was? Da steht nicht dichter als N4P. TSMC gibt bei sowas dann auch gerne den Vergleich zur Vorgängernodeserie (hier dann zB potentiell N5) an.
mksn7
2025-03-01, 17:34:05
Ah dann war meine Annahme mit SER Pendant also richtig. Aber: im Gegensatz zu SER funktioniert es anscheinend auch wirkungsvoll(!) transparent zur Anwendung. Das ist IMO schon wichtig bzw. ein guter Vorteil :)
Das was AMD bei RDNA4 als Out-of-Order beschreibt ist nicht das SER Pendant, aber das was da als "pack and sort" bei den raytracing features steht, würde ich so einschätzen.
TheGood
2025-03-01, 17:35:25
Man kann aber auch ein anderes Zugpferd nehmen was sich auch gut verkauft (oder besser) aber technisch gut gemacht ist. MH ist ja schon ziemlich unschön für die Grafik (performancekosten für das was abgeliefert wird plus läuft wie ein Sack Nüsse). Ich hätte Elden Ring Nightreign beigelegt (als pre order key oder so)
Man kann immer etwas besser machen. Vor allem AMD hat hier viel Luft nach oben. Daher haben sie aktuell sicher noch viel wichtigeres zum aufräumen.
robbitop
2025-03-01, 17:39:29
Man kann immer etwas besser machen. Vor allem AMD hat hier viel Luft nach oben. Daher haben sie aktuell sicher noch viel wichtigeres zum aufräumen.
Das ändert nichts daran, dass die Kritik legitim ist und man sie nicht abzutun braucht.
mczak
2025-03-01, 17:44:24
N4 / N4P ist laut TSMC ja bloss 5% dichter gepackt als N5 (allerdings zumindest N4P auch noch mit besserer Performance bzw. höherem Takt).
Ob 4N wirklich komplett identisch ist zu N5 ist nicht so ganz klar - vom Zeitraum her als Nvidia das verwendet hat (zu der Zeit gab's schon N4) könnte man schon annehmen dass da irgendeine Design-Rule getweakt wurde oder so. Aber schwer zu sagen (auch wieso Nvidia bei Blackwell dabei geblieben ist).
Auch bei der Anzahl Transistoren muss man wohl etwas vorsichtig sein beim Vergleich verschiedener Hersteller - nicht jeder zählt genau gleich. Klar ist aber AMD hat tatsächlich die Transistordichte gesteigert, war auch schon bei N33 so der gegenüber N23 deutlich kleiner wurde bzw. deutlich mehr Transistoren hatte als man das vom Wechsel von N7 zu N6 erwarten konnte.
Ich stimme aber zu dass rein von der Architektur her Nvidia immer noch einen kleinen Vorteil hat. Wenn man annimmt dass die 5% mehr Packdichte von N4P gegenüber 4N hinkommen wären GB203 und N48 fertigungsnormiert quasi gleich gross - und GB203 ist schneller (und hat dann wohl auch noch einen kleinen Nachteil bei Perf/W durch die Fertigung). Wobei man nicht vergessen darf dass GB203 auch von der höheren Bandbreite von gddr7 profitiert (ich vermute mal das kostet praktisch keine Fläche weil die Logik dazu zwar komplizierter ist dank PAM3, die Taktfrequenz des SI aber quasi identisch).
DrFreaK666
2025-03-01, 17:52:02
Naja die Auswahl liegt aber im Ermessen von AMD. :)
Laut CB verkauft sich das Spiel trotzdem gut.
https://www.computerbase.de/news/gaming/monster-hunter-wilds-extrem-hohe-spielerzahlen-trotz-scharfer-kritik.91600/
Und Capcom-Games sind trotz wegen schlechter Technik (bzw. Performance) Hits. Was war denn deren letzter Flop?
...@Dorn: der Unterschied sind im durschschnitt +4%. DAS ist doch ein guter Gain...
Also wegen 4% würde ich nicht übertakten. Das merkt doch keine Sau.
"Huuu, hab 4% mehr Punkte im 3DMark". Dafür ist es vielleicht gut
...Seit wann haben die Folien von irgendwelchen Vorstellungen in der Vergangenheit nicht doch etwas ZUUUUU optimistisch die Latte hoch gehangen...
Waren die AMD-eigenen Benchmarkergebnisse vom 9800X3D nicht schlechter als die, die dann die Tester gemessen haben?
robbitop
2025-03-01, 18:14:18
N4 / N4P ist laut TSMC ja bloss 5% dichter gepackt als N5 (allerdings zumindest N4P auch noch mit besserer Performance bzw. höherem Takt).
Ob 4N wirklich komplett identisch ist zu N5 ist nicht so ganz klar - vom Zeitraum her als Nvidia das verwendet hat (zu der Zeit gab's schon N4) könnte man schon annehmen dass da irgendeine Design-Rule getweakt wurde oder so. Aber schwer zu sagen (auch wieso Nvidia bei Blackwell dabei geblieben ist).
Auch bei der Anzahl Transistoren muss man wohl etwas vorsichtig sein beim Vergleich verschiedener Hersteller - nicht jeder zählt genau gleich.
Das stimmt aber die Abweichung ist mMn mindestens um 1 Größenordnung zu groß um vom unterschiedlichen Zählen zu kommen
Gibt es überhaupt Karten mit nur 2* 8 Pin für die XT?
Also alle XFX 9070 XT Karten haben einen 3x PCI-E 8 pin connections.
Die kannste definitiv streichen.
https://www.xfxforce.com/gpu/amd-radeon-rx-9000-series
DrFreaK666
2025-03-01, 18:43:36
Also alle XFX 9070 XT Karten haben einen 3x PCI-E 8 pin connections.
Die kannste definitiv streichen.
https://www.xfxforce.com/gpu/amd-radeon-rx-9000-series
Das ist falsch. Zumindest die Swift-Karten haben nur zwei
https://www.xfxforce.com/shop/xfx-swift-amd-radeon-rx-9070xt-triple-fan-gaming-edition
https://cdn.prod.website-files.com/5d1911406ad3cbdb9924a753/67aa48733ed5a7db18ca6666_Swift-B-2-p-1080.jpg
edit: Allerdings steht da auch External Power: 3x PCI-E 8 pin connections
Ich zähle aber nur zwei. Was mache ich falsch? Ist irgendwo noch einer versteckt? Oder Copy&Paste-Fehler von XFX?
dargo
2025-03-01, 18:45:37
Quick Silver auch. ;)
https://www.xfxforce.com/shop/xfx-quicksilver-amd-radeon-rx-9070xt-gaming-edition
edit: Allerdings steht da auch
Ich zähle aber nur zwei. Was mache ich falsch?
Nichts, der Fehler liegt bei XFX und der Beschreibung.
DrFreaK666
2025-03-01, 18:47:48
Aber auch da steht
https://i.postimg.cc/0QNc5svX/grafik.png
bloodflash
2025-03-01, 18:49:05
Wenn AMD alles von Raster, Shader zu RT und ML in einer Pipeline macht, statt Fixed Function Units zu nutzen, lässt sich das evtl auch dichter packen, weil man die ganzen Leitungswege zu Units am anderen Ende des Chips spart. Das wird durch evtl. unnötige Datentransfers sogar energieeffizienter. Und Out of Order ist dann evtl. auch dringend nötig, damit die einzelnen Pipelines überhaupt ordentlich versorgt werden können, denn die machen ja ständig mal das Eine mal das Andere im Wechsel. Die Auslastungslogik ist dann wahrscheinlich auch deutlich komplexer, aber halt eben Logik und nicht Leitungen mit Datentransfers über den halben Chip.
Mr.Ice
2025-03-01, 18:50:15
Sapphire setzt auf 12V-2x6 - und Schutzschaltungen
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/Sapphire-Nitro-Plus-12V-2x6-Schutzschaltungen-1467147/
Welchen Vorteil soll das bringen ?
Außer das man nur 1 Kabel hat anstatt 3 PCI ist meist doch etwas fummel Arbeit und es vielleicht Optisch besser aussieht. Allerdings auch da macht man sich zwecks der Biegung des Kabel sorgen auch wenn die Watt zahl nur die Hälfte ist im vergleich zur 5090.
2x 8-pin Power Connectors
ASRock:
AMD Radeon™ RX 9070 XT Steel Legend Dark 16GB
AMD Radeon™ RX 9070 XT Steel Legend 16GB
Powercolor:
Hellhound AMD Radeon™ RX 9070 XT 16GB GDDR6
Hellhound Spectral White AMD Radeon™ RX 9070 XT 16GB GDDR6
Reaper AMD Radeon™ RX 9070 XT 16GB GDDR6
Sapphire:
PULSE AMD Radeon™ RX 9070 XT GPU
PURE AMD Radeon™ RX 9070 XT GPU 317 W
XFX: (Hersteller anscheinend falsche Beschreibung VS Bilder)
Quicksilver AMD Radeon RX 9070XT White Magnetic Air Edition
Quicksilver AMD Radeon RX 9070XT Magnetic Air Edition
Quicksilver AMD Radeon RX 9070XT White Gaming Edition
Quicksilver AMD Radeon RX 9070XT Gaming Edition
Swift AMD Radeon RX 9070XT White Triple Fan Gaming Edition
Swift AMD Radeon RX 9070XT Triple Fan Gaming Edition
dargo
2025-03-01, 19:05:10
Aber auch da steht
https://i.postimg.cc/0QNc5svX/grafik.png
Mir fällt gerade ein, die Bilder könnten falsch sein, von der non XT. :ulol:
DrFreaK666
2025-03-01, 19:18:19
Mir fällt gerade ein, die Bilder könnten falsch sein, von der non XT. :ulol:
Unwahrscheinlich. Auf der Verpackung steht ja auch XT. Wäre dann ein ziemlich komischer Zufall.
Von Sapphire gibt es ja auch XT-version, die nur 2 benötigen
https://i.postimg.cc/PJCHw9W2/grafik.png
https://www.computerbase.de/news/grafikkarten/nitro-plus-pure-und-pulse-sapphires-radeon-rx-9070-xt-im-ueberblick.91605/
edit: Hier gibt es auch eine XFX 9070XT mit 2 connectors
https://videocardz.com/newz/xfx-launches-rx-9070-xt-quick-silver-esport-card-with-custom-shroud-design
Hakim
2025-03-01, 19:42:21
Gehts darum das einige NTs haben die nicht 3 x 8Pin haben oder warum ist das so wichtig ob zwei oder drei Stecker?
DrFreaK666
2025-03-01, 19:52:06
Wahrscheinlich darum, ja.
Mein Netzteil hat z.B. nur zwei, wenn ich mich recht erinnere
edit: Chinesen dürfen schon vorbestellen
https://videocardz.com/newz/amd-radeon-rx-9070-xt-leads-over-non-xt-model-in-china-preorders
Hakim
2025-03-01, 19:56:21
Ok ja in dem Fall ist es Blöd. Darf ich fragen was für ein NT du genau hast?
Edit: ja sehe es jetzt die BeQuiet Straight Power10 500W, hab auch gerade geschaut, tatsächlich nur 2 x 6/8Pin, dachte vielleicht besteht die Möglichkeit wie bei mir es mit zwei Strängen mit je 2 x 8Pin wenn es CM Modell ist, aber sieht nicht so aus.
DrFreaK666
2025-03-01, 20:04:16
be quiet! Straight Power 10 500W CM
Shit, dachte ich hätte 525W
Werde wohl ein neues Netzteil benötigen
Hakim
2025-03-01, 20:14:37
Deine CPU ist sehr begnügsam wenn du die XT etwas drosselst sollte es gehen denke ich
M4xw0lf
2025-03-01, 20:21:27
be quiet! Straight Power 10 500W CM
Shit, dachte ich hätte 525W
Werde wohl ein neues Netzteil benötigen
Ich hab eine 7900xt da dran hängen (mit 5800X3D), dat geht
DrFreaK666
2025-03-01, 20:29:33
Ich hab eine 7900xt da dran hängen (mit 5800X3D), dat geht
Wirklich? Das ist ja nicht mehr der neueste und effizienter wird er mit der Zeit auch nicht ^^
Aber spare auch gerne ca.110€, so ists nicht ;)
lowkres
2025-03-01, 20:54:22
Wer an einer RDNA4 interessiert ist sollte so früh wie möglich zuschlagen weil ab ~April 2025 sollen die Endkundenpreise steigen.
Woher weiss man das die Preise ab April steigen sollen?
Ich habe mir gedacht das im Sommer die Preise unter UVP gehen könnten
Wer an einer RDNA4 interessiert ist sollte so früh wie möglich zuschlagen weil ab ~April 2025 sollen die Endkundenpreise steigen.
Woher weiss man das die Preise ab April steigen sollen?
Ich habe mir gedacht das im Sommer die Preise unter UVP gehen könnten
Warum das denn? Die Karten kommen doch eh aus Fernost und die Steuern, welche der größte Arsch ever erhebt, sind für uns doch eh uninteressant!
DrFreaK666
2025-03-01, 21:03:15
...Woher weiss man das die Preise ab April steigen sollen?...
Könnte mir vorstellen, da der Nachschub eher langsam kommt, wenn die Karten ausverkauft sind. Wenn die Nachfrage hoch ist, dann steigen die Preise.
crux2005
2025-03-01, 21:03:57
Trump Tax, ganz einfach. Irgendwo müssen die 25% Zoll auf taiwanische Chips ja wieder auftauchen: Die werden natürlich auch auf den Endkundenpreis aufgeschlagen.
Alleine die Androhung von Zöllen führt schon zu solchen Preiserhöhungen, das hat man ja in der Covidblase gesehen dass die Preise auch überhöht blieben als die Lieferketten wieder hergestellt waren. Selbst wenn diese Zölle also durch Sondergenehmigungen nochmal aufgehoben werden, erhöhen die betroffenen Unternehmen trotzdem frühzeitig die Preise und nehmen solche Gewinne gerne mit. Das ist eine art "Risikovergütung" in solch unsicheren Zeiten für den Welthandel.
Und dass es in Europa billiger bleibt und nur die USA die Deppensteuer zahlen halte ich für unrealistisch. Als quasi Kolonie ist Europa stark an die US märkte gebunden und deshalb werden die preise hier auch ein wenig steigen. Immerhin sollte das dann die Verfügbarkeit fixen, wenn die US Verkäufe einbrechen. :popcorn:
This 100%.
dildo4u
2025-03-01, 21:21:30
Es gibt doch schon 100% Steuern auf Elektrische Autos aus China in den USA.
Das führt dazu da sie die Dinger bei uns abladen.
https://www.adac.de/rund-ums-fahrzeug/autokatalog/marken-modelle/byd/byd-dolphin/
AffenJack
2025-03-01, 21:27:09
Könnte mir vorstellen, da der Nachschub eher langsam kommt, wenn die Karten ausverkauft sind. Wenn die Nachfrage hoch ist, dann steigen die Preise.
Man sollte TSMC Waferpreise auch nicht vergessen. Es hieß, dass TSMC 2025 Waferpreise um 5-10% erhöht. Kann also durchaus sein, dass alles was 2024 von TSMC produziert wurde günstiger kommt und wir dann ab April die neuen teuren TSMC Waferlieferungen sehen. Das wird zwar nix massiv am Preis ändern, aber einige Euro Aufschlag dürfte das dann alleine schon erzeugen. Das zieht sich ja in der Marge durch die Gesamte Kette und niemand wird gerne Marge reduzieren.
madzapp
2025-03-01, 21:35:42
Warum das denn? Die Karten kommen doch eh aus Fernost und die Steuern, welche der größte Arsch ever erhebt, sind für uns doch eh uninteressant!
MLID meinte was von Rabatten die AMD an die OEMs gibt, laufen im April aus.
Laut TPU (https://www.techpowerup.com/review/amd-radeon-rx-9070-series-technical-deep-dive/3.html) ist Navi48 sogar N4C (https://www.anandtech.com/show/21371/tsmc-preps-lower-cost-4nm-n4c-process-for-2025)
N4P steht auf einer AMD-Slide. Ich bin allerdings nicht sicher, ob das im öffentlichen Teil zu finden war oder im "Leak-Material". Von N4C ist seitens AMD nirgends die Rede.
MfG
Raff
dargo
2025-03-01, 21:41:46
MLID meinte was von Rabatten die AMD an die OEMs gibt, laufen im April aus.
OEMs haben nichts mit dem Retailmarkt zu tun um den es hier im Thread geht.
crux2005
2025-03-01, 21:43:12
OEMs haben nichts mit dem Retailmarkt zu tun um den es hier im Thread geht.
Er meint Rabatte an AIBs.
madzapp
2025-03-01, 21:59:53
Er meint Rabatte an AIBs.
Ähm...ja, sorry.
reaperrr
2025-03-01, 22:30:07
Laut TPU (https://www.techpowerup.com/review/amd-radeon-rx-9070-series-technical-deep-dive/3.html) ist Navi48 sogar N4C (https://www.anandtech.com/show/21371/tsmc-preps-lower-cost-4nm-n4c-process-for-2025)
Gemessen daran, dass die GPU-Z u.a. machen, steht auf TPU erstaunlich oft BS, bzw. wird viel geraten, durcheinandergebracht oder Copy-Paste-Fehler eingebaut, gerade vor Release.
Wenn man in die Database guckt, steht da z.B. gleich 96 ROPs bei 9070XT, obwohl es bei 4SE und 256bit quasi zwangsläfig nur 64 oder 128 sein können.
Linmoum
2025-03-01, 22:59:25
Scheint an der Wasserkühlungsfront bislang aber ziemlich ruhig zu sein, oder?
N4P steht auf einer AMD-Slide. Ich bin allerdings nicht sicher, ob das im öffentlichen Teil zu finden war oder im "Leak-Material". Von N4C ist seitens AMD nirgends die Rede.
MfG
Raff
IIRC ist es für N4C auch zu früh.
N4P wäre tatsächlich ein anderer Prozess als die CPUs und APUs haben und auch sehr früh, weil N4P erst seit recht kurzer Zeit in Massenproduktion ist. Erinnert an RDNA1, der ja auch sehr sehr früh N7P nutzte, also Tape Outs in der Risc-Produktions-Phase.
Wiseman
2025-03-02, 01:06:01
@Raff
Du testest doch schon fleißig, nehm ich an. Bitte schau mal in der Adrenalin Software unter Tuning nach, ob die Power-Limitierung immer noch so wie bei RDNA3 hinsichtlich Reduzierung bei -10% endet.
Es würde mir reichen, wenn du sagen würdest: "Geht über -10% hinaus."
Und bitte erwähne in deinem Launch-Review, wie weit man in der Adrenalin Software reduzieren kann. Die Erhöhung brauchst du nicht erwähnen. Die interessiert mich nicht. ;)
Der_Korken
2025-03-02, 01:08:37
@Raff
Du testest doch schon fleißig, nehm ich an. Bitte schau mal in der Adrenalin Software unter Tuning nach, ob die Power-Limitierung immer noch so wie bei RDNA3 hinsichtlich Reduzierung bei -10% endet.
Es würde mir reichen, wenn du sagen würdest: "Geht über -10% hinaus."
Ich wollte tatsächlich genau das gleiche schreiben @Raff. Es reicht, wenn du die Antwort nach dem NDA-Fall hier irgendwo droppst :D.
Ihr werdet glücklich. :wink:
MfG
Raff
Wiseman
2025-03-02, 02:39:15
Ihr werdet glücklich. :wink:
MfG
Raff
Danke. Das war für mich die entscheidende Aussage für eine Hellhound 9070XT (2x8-Pin).
Ich glaube, ich muss mich beeilen, denn der Madman aus den USA plant eine Zollerhöhung für Chips ab April.
horn 12
2025-03-02, 02:50:51
Oh Nein:
https://www.reddit.com/r/radeon/comments/1j19goh/from_twitter_what_yall_think_supposed_aib_pricing/?rdt=63574#lightbox
crux2005
2025-03-02, 03:00:43
Oh Nein:
https://www.reddit.com/r/radeon/comments/1j19goh/from_twitter_what_yall_think_supposed_aib_pricing/?rdt=63574#lightbox
Wieso? Was hast du erwartet?
madzapp
2025-03-02, 03:19:54
Ein paar Modelle sind saftig. Hätte mehr bei 700€ erwartet. Mal sehen wie die Preise bei uns sind. Wenn es in China auch Preorderaufschlag gibt, ist das recht vielversprechend.
aufkrawall
2025-03-02, 03:28:31
Ihr werdet glücklich. :wink:
Uff, das ist gut. Insbesondere, wenn das Offset-UV noch immer so ein Müll wäre. Ggf. klappt dann OC + PT-Drosselung besser.
basix
2025-03-02, 09:06:17
Uff, das ist gut. Insbesondere, wenn das Offset-UV noch immer so ein Müll wäre. Ggf. klappt dann OC + PT-Drosselung besser.
Mich würde auch interessieren, ob RDNA4 sich ähnlich wie Lovelace/Blackwell verhält. Die drosseln automatisch ihre Leistungsaufnahme, wenn was limitiert (auch ausserhalb von Taktsenkungen).
G3cko
2025-03-02, 09:36:54
Das doofe jetzt wenn es keine Referenz Karten gibt ist, welche sollte man sich jetzt holen wenn man ein Wasserkühler montieren will und sicher sein will das es auch einen Wasserkühler für dieses Model geben wird was man sich gekauft hat.
Da hilft nur vorher prüfen. Auch die WaKü Hersteller werdenKühler mit Kompatibilitätsangaben präsentieren.
Aber ja ich stimme dir zu. Alphacool hat alleine für die 5090 7 Kühler. Kleinserie der Kleinserie der Kleinserie. Kein Wunder das die Kühler so teuer sind. So bekommt man auch Custom-WaKü tot.
F5.Nuh
2025-03-02, 09:40:01
Eine eventuell blöde Frage.... Sind die neuen AMD Karten noch PCI-E 4.0?
Und habe ich es richtig verstanden, dass AMD keine Referenzkarten mehr verkauft?
hoffentlich
btw.
auf den Folien soll wohl zum Teil noch ein relativ alter Treiber verwendet worden sein, vom Dezember
k.A. ob das auch auf die Benchmarks zutrifft
"On shots the driver is very old version from December even older than 24.30.18."
Die ist hier im Thread sogar verlinkt.
Eine eventuell blöde Frage.... Sind die neuen AMD Karten noch PCI-E 4.0?
Und habe ich es richtig verstanden, dass AMD keine Referenzkarten mehr verkauft?
PCIe 5 und jo.
madzapp
2025-03-02, 09:44:23
Eine eventuell blöde Frage.... Sind die neuen AMD Karten noch PCI-E 4.0?
Und habe ich es richtig verstanden, dass AMD keine Referenzkarten mehr verkauft?
Laut Folien 5.0.
Dieses mal wohl nicht. Ob es ein Standardmodel für die AIBs giebt, wo nur Kühler drauf kommt, keine Ahnung.
GerryB
2025-03-02, 09:48:44
btw.
Wakü scheint man für N48 nicht wirklich zu brauchen, ... bei Igor ist eine Graka sogar zu kalt.(x)
mal schauen, was er im Review schreibt, wie sich der ColdBug bemerkbar macht
(als User kann man natürlich die Lü.drehzahl senken, um warm genug zu bleiben)
(x) eine nette Nebenwirkung der doch erstaunlich großen Chipfläche
why_me
2025-03-02, 10:12:20
Welche karte wird es werden. Die Qual der Wahl. Favoriten aktuell Pulse oder Hellhound.
Quicksilver von XFX könnte noch interessant sein, aber da sind die Daten auf der XFX HP noch falsch.
Nitro gefällt mir zwar die Idee, aber nicht der Stecker.
Asrock, Asus und Gigabyte sind mir alle zu unruhig im design und zu viel RGB quatsch etc.
btw.
Wakü scheint man für N48 nicht wirklich zu brauchen, ... bei Igor ist eine Graka sogar zu kalt.(x)
Da ich das nun schon mehrfach las: Ist Quatsch - zumindest bei >300-Watt-SKUs, Wärmedichte und so.
MfG
Raff
GerryB
2025-03-02, 10:28:38
die Wärmedichte bei dem großen Chip + PTM 7950
ist vollkommen easy zu händeln, nicht anders als bei ner 400W+ 5080 OCed
Sapphire legt nen 3x 8pin Adapter bei, heisst 450W+PCiE = 475W gesamt möglich ?
Speku:
sollte das Chipdesign so optimal sein, das kein extremer Hotspot auftritt, dann ...
(OCen soweit die Volt reichen)
Siehe oben. Nicht schon wieder hypen, auch wenn es schwerfällt. :) Es sollte klar sein, dass 9070-Karten keine Herausforderung für Kühler sind, da werden rechnerisch nicht mal 200 Watt für die GPU fällig. Aber mit Overclocking einer XT werden daraus auch mal 300 für die GPU - bei identischer Angriffsfläche.
MfG
Raff
GerryB
2025-03-02, 10:43:21
bei I waren es große Mercury und Nitro XT
k.A. welche genau den ColdBug hat
Ob die default Lüfterkurve@Performance-Bios nicht passt, who knows.
müsste dann im Silent-Bios ohne den ColdBug funzen, meist weniger rpm
Was soll an ner 9070xt-Nitro schlechter kühlbar sein als an ner 5080 Aorus?
bei annähernd gleichen Chip-Flächen
horn 12
2025-03-02, 10:45:55
Liebäugle mit der Gigabyte Gaming OC oder der großen Schwester Aorus
oder sonst mit der Asrock Stealth.
Wie schlagen sich jene Karten @Raff bitte
Nitro - XFX fallen raus.
Maximal noch die Hellhound
dildo4u
2025-03-02, 12:06:23
Schätze die 220TDP waren zu früh gewählt macht imo kein Sinn die Karte so sehr zu bremsen wenn die 5070 250 nimmt.
XFX hat alle bei 245 auch das Spar Modell.
https://videocardz.com/newz/first-549-geforce-rtx-5070-confirmed-for-march-5-launch-radeon-rx-9070-arriving-at-the-same-price-the-next-day
Vermutlich kann man nur mit 220 Watt sagen, dass es die effizienteste Karte ist, die man je gebaut hat (evtl. gar die effizienteste überhaupt, aber das wäre wieder als pures Marketing verstanden worden -> Ergebnisse abwarten).
MfG
Raff
nairune
2025-03-02, 12:28:56
Wenn die Preise stimmen, tendiere ich zur Pulse XT. Oder mal was von ASRock ausprobieren. Wird eh auf ~250W eingebremst, also Hauptsache die Lüfter haben Laufruhe.
Tigershark
2025-03-02, 12:30:44
btw.
Wakü scheint man für N48 nicht wirklich zu brauchen, ... bei Igor ist eine Graka sogar zu kalt.(x)
Das Problem ist, wenn man darauf _angewiesen_ ist, dass es eine WaKü Lösung gibt, dann schaut man ggf. in die Röhre falls das neben einigen Reviewern auch die WaKü Hersteller so sehen... bislang gibt es nach wie vor nichts dazu zu lesen, von keinem der üblichen Verdächtigen (außer ich habe es übersehen, was ich nicht ausschließen will).
Das würde mich echt ärgern, denn dann müsste ich die 9000er auslassen, obwohl ich es nicht will... blöd.
@Raff: Kannst (darfst) Du eigentlich etwas zu den PCBs sagen, die sich unter den Kühlern verbergen? Ich meine dazu bislang in keinem der Artikel auf div, Seiten etwas gelesen zu haben. Wie groß ist das? Ist es bei allen AIBs ähnlich ("full size" vs. "RTX 4000-Lösung" z.B.)?
Hatstick
2025-03-02, 12:47:47
Sofern sie dann (irgendwann) für 700€ lieferbar ist, könnte ich mir ein Upgrade von meiner 6800XT durchaus vorstellen. Mit etwas Treiber reifen sollten doch 40-50% drin sein, oder?
Was mich etwas irritiert sind die (sehr) hohen Empfehlungen in Sachen Netzteil, bis 850w hoch. Saugt die 9070XT wirklich spürbar mehr wie eine olle 6800XT OC? (läuft mit einem 650w Be Quiet Straight Power E11)
Bin mal auf das Feedback hier gespannt, wenn die ersten User hoffentlich zeitig ihre 9070XT im Betrieb haben.
Hakim
2025-03-02, 12:54:45
Netzteil wird immer zu Sicherheit wie schon mehrfach hier geschrieben großzügig empfohlen da man die ganzen noname billig NTs berücksichtigen will. Wenn du ein gutes 650W Marken NT hast solltest du dir keine Sorgen machen.
Bezüglich etwas kaufen in der Hoffnung das es später noch schneller wird, würde ich nicht Berücksichtigen. Es kann so kommen und wahrscheinlich sein, aber rational immer vom Ausgangspunkt bewerten
Hatstick
2025-03-02, 13:03:35
Danke!
Mal warten, bis Raff ordentlich durchgetestet hat.^^
dargo
2025-03-02, 13:16:36
Sofern sie dann (irgendwann) für 700€ lieferbar ist, könnte ich mir ein Upgrade von meiner 6800XT durchaus vorstellen. Mit etwas Treiber reifen sollten doch 40-50% drin sein, oder?
Da stapelst du zu tief. Die 9070XT wird im Schnitt 60-65% schneller sein als die 6800XT.
Mal warten, bis Raff ordentlich durchgetestet hat.^^
Ich habe soeben die letzte Messung nach einem 9-Tage-Akkord eingetütet und werte jetzt die Bonusgeschichten aus.
Da stapelst du zu tief. Die 9070XT wird im Schnitt 60-65% schneller sein als die 6800XT.
Choo-choo – nein (es sei denn, du meinst irgendeinen ungenauen Mittelwert inkl. Strahlen).
MfG
Raff
dargo
2025-03-02, 13:40:29
Choo-choo – nein (es sei denn, du meinst irgendeinen ungenauen Mittelwert inkl. Strahlen).
Ich beziehe mich auf die +42% vs. 7900GRE. Wenn das eintrifft sind es +60-65% mehr vs. 6800XT.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Ich beziehe mich auf die +42% vs. 7900GRE. Wenn das eintrifft sind es +60-65% mehr vs. 6800XT.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Du erwartest scheinbar einen Überflieger, hoffentlich wirst du nicht enttäuscht. :freak:
fizzo
2025-03-02, 13:52:44
Finde das schon fast zu optimistisch:
The_Invisible
2025-03-02, 13:53:12
Ich habe soeben die letzte Messung nach einem 9-Tage-Akkord eingetütet und werte jetzt die Bonusgeschichten aus.
Choo-choo – nein (es sei denn, du meinst irgendeinen ungenauen Mittelwert inkl. Strahlen).
MfG
Raff
In PT sicher oder :freak:
dargo
2025-03-02, 13:53:44
Du erwartest scheinbar einen Überflieger, hoffentlich wirst du nicht enttäuscht. :freak:
Nein... ich rechne einfach um anhand von vorhandenen Daten. Stimmen die +42% vs. 7900GRE von AMD nicht wirds eben etwas anders aussehen.
Finde das schon fast zu optimistisch:
Ist die PCGH jetzt der Nabel der Welt? :) Die 7900XTX liegt dort nur knapp 47% vor der 7800XT. Bei CB sind es +57% in Raster und +59% in RT, ergo +58% im Schnitt. Schnitt bedeutet bei CB 21 Rasterspiele und 7 RT-Spiele.
dildo4u
2025-03-02, 13:55:20
Finde das schon fast zu optimistisch:
Das Ziel war immer die 4080 laut den Leaks vom Dezember.
Linmoum
2025-03-02, 13:55:38
Finde das schon fast zu optimistisch:Ist immer clever von Raff. Er weiß schon ziemlich genau, wo die Karten landen. Als Schätzung deklarieren und zack, der Hersteller kann ihm nix. :tongue:
Hakim
2025-03-02, 13:56:24
Finde das schon fast zu optimistisch:
AMD sagt selber das es im Schnitt Ticken langsamer als die 5070Ti ist. Klar gibt es Spiele wo es so aussehen kann, z.B CoD BO6 wo RDNA4 sehr gut sein wird.
AffenJack
2025-03-02, 13:57:32
Ich beziehe mich auf die +42% vs. 7900GRE. Wenn das eintrifft sind es +60-65% mehr vs. 6800XT.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Wieso nimmst du jetzt ein Szenario, wo du lang und breit betont hast, dass es keinerlei Relevanz hat? Du solltest dann schon mit dem +30-35% ohne RT rechnen. Alles andere ist doch unwichtig für dich.
dargo
2025-03-02, 14:00:49
Wieso nimmst du jetzt ein Szenario, wo du lang und breit betont hast, dass es keinerlei Relevanz hat? Du solltest dann schon mit dem +30-35% ohne RT rechnen. Alles andere ist doch unwichtig für dich.
Es ging hier nicht um mich, falls das nichts weiter als nur ein billiger Trollversuch war.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13717615&postcount=8139
Zudem sind wir in 2025 und nicht 2018. :P
Linmoum
2025-03-02, 14:05:15
Es macht deine +60-65% (aka die +42% zur GRE) aber auch nicht richtiger, weil diese eben auf einem Mix von Raster+RT basieren und nicht getrennt wird, du aber zu einem Raster-Performancechart verlinkst. ;) Es hat schon seinen Sinn, warum sämtliche Reviewer ihre Performancecharts trennen, weil das alles sonst viel zu sehr verwässert wird.
Raster bleiben laut AMD +37% zur GRE, in der Realität dann vermutlich eher die genannten +30-35%. RT sieht's dann dafür ein gutes Stück besser aus.
AffenJack
2025-03-02, 14:06:27
Es ging hier nicht um mich, falls das nichts weiter als nur ein billiger Trollversuch war.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13717615&postcount=8139
Der Wert macht trotzdem keinen Sinn, wenn du einen Performancewert mit RT in einen Non-RT Parcours packst.
Wenn der Parcours geteilt ist müsstest du da den Schnitt jeweils nehmen.
dargo
2025-03-02, 14:06:37
Es macht deine +60-65% (aka die +42% zur GRE) aber auch nicht richtiger, weil diese eben auf einem Mix von Raster+RT basieren und nicht getrennt wird, du aber zu einem Raster-Performancechart verlinkst. ;)
Und du bist nicht in der Lage im gleichen Link auf RT-Performance zu klicken? Respekt! :uup:
Hatstick
2025-03-02, 14:09:00
Ich hatte noch die 35% in Raster Vorsprung von der 7900XT vs. 6800XT im Kopf + 10% Treiberoptimierung im Laufe der Zeit aber nehme auch gerne 50% + mit.^^
Nakai
2025-03-02, 14:55:58
Mich würds interessieren, ob man doppelt soviele Textursampler verbaut hat wie bei Rdna3.5. Eigentlich interessiert mich generell, wie viel Rdna3.5 in RDNA4 drin ist.
Ex3cut3r
2025-03-02, 16:08:15
Choo-choo – nein (es sei denn, du meinst irgendeinen ungenauen Mittelwert inkl. Strahlen).
MfG
Raff
Top. Danke. :up:
Mit 30% im Schnitt im Raster sollte man zufrieden sein. Denke ich. KA, ob es sich dann Sinn macht für 6800 XT+ Nutzer, muss jeder selbst wissen. Ich wurde es nicht machen. Aber jeder tickt anders.
GerryB
2025-03-02, 16:48:21
Es wird schon Spiele geben, wo ne 6800xt deutlich schlechter dasteht als die 9070xt.
Tendenz steigend, weil die 6800xt im worst case 7% hinter ner 7800xt liegt, oder
gar 22% hinter ner GRE
Interessant wird sein, wie nah die 9070xt jeweils an die 7900xtx rankommt.
weil die 7900xtx nicht immer die FP32 auslasten kann, auch da Tendenz steigend
Top. Danke. :up:
Mit 30% im Schnitt im Raster sollte man zufrieden sein. Denke ich. KA, ob es sich dann Sinn macht für 6800 XT+ Nutzer, muss jeder selbst wissen. Ich wurde es nicht machen. Aber jeder tickt anders.
Sorry, aber im Raster sollten es 7900XTX-~3% werden, mit RT geht eine XTX unter und die 6800XT ist da längst abgestorben!
GerryB
2025-03-02, 17:15:52
btw.
private Meinungen
oder teilweise irreführende Tipps/Jokes
bin mal gespannt, ob Igor wirklich meinte, die Graka wäre zu kalt
und ob Raff mit seinem Pessimismus besser lag
vllt. schaut der Eine auf die GPU-Temp und der Andere auf den Hotspot
dargo
2025-03-02, 17:27:54
Was heißt denn zu kalt? Hast du einen Link dazu?
OgrEGT
2025-03-02, 17:28:30
https://videocardz.com/newz/yeston-unveils-radeon-rx-9070-xt-sakura-sakura-atlantis-graphics-cards
YESTON unveils Radeon RX 9070 XT SAKURA & SAKURA Atlantis graphics cards
GerryB
2025-03-02, 17:31:43
Was heißt denn zu kalt? Hast du einen Link dazu?
https://www.igorslab.de/community/threads/amd-radeon-rx-9070-xt-und-rx-9070-im-detail-vorgestellt-das-benchmark-schaulaufen-kommt-sp%C3%A4ter.10899/page-5#post-298801
Tigershark
2025-03-02, 17:32:27
Was heißt denn zu kalt? Hast du einen Link dazu?
siehe hier, eine Seite zurück:
btw.
Wakü scheint man für N48 nicht wirklich zu brauchen, ... bei Igor ist eine Graka sogar zu kalt.(x)
mal schauen, was er im Review schreibt, wie sich der ColdBug bemerkbar macht
(als User kann man natürlich die Lü.drehzahl senken, um warm genug zu bleiben)
(x) eine nette Nebenwirkung der doch erstaunlich großen Chipfläche
dargo
2025-03-02, 17:36:44
https://www.igorslab.de/community/threads/amd-radeon-rx-9070-xt-und-rx-9070-im-detail-vorgestellt-das-benchmark-schaulaufen-kommt-sp%C3%A4ter.10899/page-5#post-298801
Rätselraten wieder angesagt? Was soll das sein? Eine zu aggressiv eingestellte Lüfterkurve vom AIB?
GerryB
2025-03-02, 17:39:01
Deswegen sind Das ja nur vorab Privatmeinungen/Jokes(?).
ist doch nicht schlecht
Da ist man gespannt auf die Auflösung des Rätsels im Review.
dargo
2025-03-02, 17:41:05
Naja... keine Ahnung was jetzt daran so besonders sein soll wenn ein AIB die Lüfterkurve versaubeutelt. :tongue: Dann wirds halt kühl und unnötig laut, schafft Asus auch nicht so selten. :tongue:
Slipknot79
2025-03-02, 17:49:30
Top. Danke. :up:
Mit 30% im Schnitt im Raster sollte man zufrieden sein. Denke ich. KA, ob es sich dann Sinn macht für 6800 XT+ Nutzer, muss jeder selbst wissen. Ich wurde es nicht machen. Aber jeder tickt anders.
Alles qool bei dir. 30% sind lächerlich, 50 vs 65fps, wer tut sich sowas freiwillig an. ;D (Verstehe auch ned, wie man von 4090 auf 5090 umsteigen can, aber bitte ;) )
Up +100% kommt dicke Bewegung in der Hose. (y) :cool:
Ravenhearth
2025-03-02, 18:37:56
Die 9070 XT wird in Raster sicher nicht nur 30% über einer 6800 XT liegen, wenn sie schon ~37% schneller als eine 7900 GRE ist (angenommen AMDs Zahlen stimmen). Damit liegt sie >50% über einer 6800 XT, in RT sogar ~70%.
Ex3cut3r
2025-03-02, 18:41:21
Dann mach halt 35-40% draus. Raffs Comment gesehen? Er meinte 60% wird man nur in RT sehen. Siehe:
https://s1.directupload.eu/images/250302/xq8w6zrg.png
Warum sollte Raff lügen? Macht keinen Sinn für mich.
Ravenhearth
2025-03-02, 18:46:17
Er sagt, 60% sind es nur in einem Mittelwert aus Raster und RT. Das passt sehr gut zu AMDs eigenem Mittelwert, den +42% zur GRE, was ziemlich genau +60% zur 6800 XT wären. Dementsprechend sind +50% bei Raster und +70% bei RT auch wahrscheinlich. Mit +35-40% bei Raster läge man nur auf dem Niveau der 7900 XT.
Ex3cut3r
2025-03-02, 18:47:37
;D Wir werden es ja bald sehen.
Ungenauen Mittelwert klingt für mich jetzt nicht danach. Aber gut, jeder liest wohl das, was er lesen will.
GerryB
2025-03-02, 18:50:32
schau mer mal in wieviel Fällen/Games die private Meinung vom Influenzer Raff passt
Er hat eigentlich gar keine Prozente hier gepostet.
Die Schätzwerte in seinem offiziellen Artikel fand ich sogar etwas optimistisch.
(im Rasterparcour >4080S, ... soll heissen >5070Ti ?)
Wenn überhaupt, würde ich gerne mal nen Parcour sehen, der sich mit dem AMD-Parcour deckt.
Falls es Zweifel an den relativen Werten ggü. der GRE gibt.
The_Invisible
2025-03-02, 19:01:41
Sorry, aber im Raster sollten es 7900XTX-~3% werden, mit RT geht eine XTX unter und die 6800XT ist da längst abgestorben!
Dachte RT ist für Radeon User eh nicht wichtig:freak:
Lawmachine79
2025-03-02, 19:07:33
Dachte RT ist für Radeon User eh nicht wichtig:freak:
Und Rasterleistung auch nicht, das ist nur was für 4K und VR-Leute, beides Nischen.
robbitop
2025-03-02, 19:09:50
Wenn man sich die Rasterperformance Delta Daten (vs GRE) anschaut und ein GEOMEAN berechnet kommt man auf +36% ggü der 7900GRE. Das hatte ich ja schonmal gepostet. Ich denke damit passen die Hochrechnungen etwas besser. ;)
edit:
Bei 13% Raster im 4K Index von CB 7900GRE vs 6800XT
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-7900-gre-test.85109/seite-2#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
Entsprechend kommt dann aggregiert +53% raus vs der 6800XT. Wobei einzelne Ausreißer auch sowohl schneller und langsamer sein können.
GerryB
2025-03-02, 19:12:44
Durchschnitt mit x ollen Games besagt wenig.
Wenn RDNA4 wirklich ggü. RDNA2 was reissen will, müssen solche Games wie Veilguard
schnurpsen. (dann motiviert man Leute zum Aufrüsten)
Dort wo RDNA2 schwächelt, kann man evtl. am ehesten sehen, wo die Reise hin geht.
mit zukünftigen Games
Ex3cut3r
2025-03-02, 19:12:46
Wenn man sich die Rasterperformance Delta Daten (vs GRE) anschaut und ein GEOMEAN berechnet kommt man auf +36% ggü der 7900GRE. Das hatte ich ja schonmal gepostet. Ich denke damit passen die Hochrechnungen etwas besser. ;)
Und wie schnell ist eine 7900 GRE vs 6800 XT? +15%?
Dann hätten wir 50/51% für die 9070 XT vs 6800 XT im Raster. Von 60 - 65% im Raster bin ich da immer noch weit weg. Nach 5 Jahren auch nicht soo wirklich der Hammer IHMO. VRAM bleibt auch gleich. Aber gut.
robbitop
2025-03-02, 19:21:27
Und wie schnell ist eine 7900 GRE vs 6800 XT? +15%?
Dann hätten wir 50/51% für die 9070 XT vs 6800 XT im Raster. Von 60 - 65% im Raster bin ich da immer noch weit weg. Nach 5 Jahren auch nicht soo wirklich der Hammer IHMO. VRAM bleibt auch gleich. Aber gut.
Ja sieht bei Geforce ja nicht anders aus mit 5070ti vs 3080 (im nicht-vram limit). Dank Gier und Blasen gibts kaum P/L Fortschritt trotz neuer Nodes weil Mickey Mouse Dice verkauft werden.
Und dazu kommt: die 6800xt hatte einen high end GPU core und N48 ist nur midrange. Der richtige Vergleich aus rdna2 wäre N22 aka R6700xt
The_Invisible
2025-03-02, 19:24:34
Durchschnitt mit x ollen Games besagt wenig.
Wenn RDNA4 wirklich ggü. RDNA2 was reissen will, müssen solche Games wie Veilguard
schnurpsen. (dann motiviert man Leute zum Aufrüsten)
Dort wo RDNA2 schwächelt, kann man evtl. am ehesten sehen, wo die Reise hin geht.
mit zukünftigen Games
Schätz Mal in RT wird man öfter >2x Leistung sehen
fizzo
2025-03-02, 19:25:18
Nach 5 Jahren auch nicht soo wirklich der Hammer IHMO. VRAM bleibt auch gleich. Aber gut.
Navi 21 war/ist ein 520mm2 Chip - Navi 48 misst hingegen nur 357mm2. Finde die 50% daher schon gut. Wenngleich der Verbrauch wohl in der gleichen Liga spielen wird.
x-force
2025-03-02, 19:25:30
Ja sieht bei Geforce ja nicht anders aus mit 5070ti vs 3080 (im nicht-vram limit). Dank Gier und Blasen gibts kaum P/L Fortschritt trotz neuer Nodes weil Mickey Mouse Dice verkauft werden.
Und dazu kommt: die 6800xt hatte einen high end GPU core und N48 ist nur midrange. Der richtige Vergleich aus rdna2 wäre N22 aka R6700xt
ein doppelter n48 zum doppelten preis wäre direkt gekauft.
w0mbat
2025-03-02, 19:34:07
Das wärs. Zwei N48 via InFO_LSI zu einem großen Chip mit 512-bit/32GB zusammen schalten. Und AMD so: Überraschung :cool:
Aber ist leider nur Träumerei ;(
Ravenhearth
2025-03-02, 19:36:13
Navi 21 war/ist ein 520mm2 Chip - Navi 48 misst hingegen nur 357mm2. Finde die 50% daher schon gut. Wenngleich der Verbrauch wohl in der gleichen Liga spielen wird.
Der Vergleich mit RDNA2 hinsichtlich der Effizienz ist wirklich interessant. Bei +50% zur 6800 XT ist die 9070 XT ca. 40% schneller als die 6900 XT - und damit auch nur ca. 40% effizienter, und das fast 5 Jahre später. Aber wie robbitop anmerkt, wäre N22 wohl der bessere Vergleich. Hier bietet man vsl. die 2,25-fache Performance bei einem Drittel mehr Verbrauch, also ~70% mehr Perf/W. Davon abgesehen existiert noch die 9070, die deutlich effizienter zu sein scheint. Ggü der effizientesten RDNA2-Karte, der 6800, ist die 9070 wohl ca. 50% schneller/effizienter.
robbitop
2025-03-02, 19:39:09
Schätz Mal in RT wird man öfter >2x Leistung sehen
Bei sehr hoher RT Last (zB PT) vielleicht. Je geringer die RT Last desto weniger bringt die deutlich schnellere RT Pipeline halt :)
robbitop
2025-03-02, 19:41:31
ein doppelter n48 zum doppelten preis wäre direkt gekauft.
Das wäre dann eine 1500€ GPU. Kann ich verstehen wenn es Leute gibt die das gutfinden. Ich für meinen Teil finde wenn es vierstellig wird einfach übertrieben / Verlust jeglicher Bodenhaftung. Dafür bekommt man einen ganzen PC oder 3 Konsolen oder schon manche Urlaube und es geht nur um eine GPU. Und das sage ich als jemand für den das nur Spielgeld ist (dem aber Prinzipien wichtig sind) ^^
OgrEGT
2025-03-02, 19:43:19
https://videocardz.com/newz/xfx-launches-first-dual-fan-radeon-rx-9070-xt-graphics-card
XFX launches first dual-fan Radeon RX 9070 XT graphics card
reaperrr
2025-03-02, 19:43:57
Nach 5 Jahren auch nicht soo wirklich der Hammer IHMO. VRAM bleibt auch gleich. Aber gut.
Gab in diesem Zeitraum halt nur 1 FullNode-Shrink, und wir vergleichen hier RDNA4 Midrange mit RDNA2 HighEnd. Dafür ist es eigentlich ziemlich gut.
Mickey Mouse Dice
N48 ist so groß wie Tahiti, in einem wahrscheinlich massiv teureren Prozess und auch sonst ordentlich Inflation seit 2012, und trotzdem nicht wesentlich teurer.
Für die Chipgröße in dem Prozess sind die Preise relativ fair, gerade auch im Vergleich zu Nvidia.
Ex3cut3r
2025-03-02, 19:44:17
Ja sieht bei Geforce ja nicht anders aus mit 5070ti vs 3080 (im nicht-vram limit). Dank Gier und Blasen gibts kaum P/L Fortschritt trotz neuer Nodes weil Mickey Mouse Dice verkauft werden.
Und dazu kommt: die 6800xt hatte einen high end GPU core und N48 ist nur midrange. Der richtige Vergleich aus rdna2 wäre N22 aka R6700xt
Ja leider. Von einer 3080 Ti auf die 5080. Wären es 50% :redface:
Ich wechsle in der Regel erst ab 70%
dargo
2025-03-02, 19:45:03
Das Lüfterdesign der XFX bei N48 schreckt mich total ab. Ob die Dinger was taugen? Naja... erfahren wir in 3 Tagen.
robbitop
2025-03-02, 19:48:42
N48 ist so groß wie Tahiti, in einem wahrscheinlich massiv teureren Prozess und auch sonst ordentlich Inflation seit 2012, und trotzdem nicht wesentlich teurer.
Für die Chipgröße in dem Prozess sind die Preise relativ fair, gerade auch im Vergleich zu Nvidia.
Wir waren aber schon bei 500, 600 und 700 mm2. Ja die Wafer werden immer teurer. Weiß ich alles. Aber auch die Margen von TSMC und Nvidia sind massiv in die Höhe geschossen. Alle werden reich (mangels echtem Wettbewerb). Und der Consumer muss bezahlen. Ich finde das braucht man nicht zu relativieren. Mit den Margen von früher wäre das auch alles bezahlbar. Und damals haben die IHVs auch schon gut (aber nicht so übertrieben) gelebt. Unter echtem Wettbewerb und Druck bei Foundry und IHVs würde da schon mehr gehen. RDNA4 bringt es zumindest ein Stück weit zurück (sofern die Preise auf der Straße ankommen).
Und Tahitii war auch nur midrange. Hawaii war high end. Tahiti hat aber die Bresche erzeugt bei der Nvidia dann erstmalig midrange dice als high end verkaufen konnte und seine Margen steigern konnte.
Hakim
2025-03-02, 19:49:12
Meinste die mit dem Magnet Lüftern? Ansich finde ich die Idee gute, aber nicht zum Ersetzen sondern eher Reinigen. Aber nichts was Kaufentscheidend wäre, Marketing vergibt Namen wie Magnetic Air und will vermutlich schönen Aufpreis für :)
x-force
2025-03-02, 19:54:34
3 Konsolen
die alle an rt scheitern und von pt nur träumen
robbitop
2025-03-02, 20:02:51
die alle an rt scheitern und von pt nur träumen
IMO: Wayne. Bringt auch nicht mehr Spielspaß.
Ist eine coole Technolgie und richtig sie einzuführen- zeigt aber dass es noch ziemlich leading edge ist und anscheinend noch nichts für den Massenmarkt. Leute die nicht irre sind und diese Art Geld in eine PC Komponente verschleudern. Alles IMO. Kann ja jeder gern anders sehen. :)
Die nächste Generation der Konsolen wird das dann wahrscheinlich in den Massenmarkt bringen.
DrFreaK666
2025-03-02, 20:03:22
Dann mach halt 35-40% draus. Raffs Comment gesehen? Er meinte 60% wird man nur in RT sehen. Siehe:
https://s1.directupload.eu/images/250302/xq8w6zrg.png
Warum sollte Raff lügen? Macht keinen Sinn für mich.
Nein, er schrieb "inklusiv". Das bedeutet RZ UND RT!
Dachte RT ist für Radeon User eh nicht wichtig:freak:
Wie immer: falsch gedacht. Es gibt nicht DEN Radeon-User
Badesalz
2025-03-02, 20:06:16
IMO: Wayne. Bringt auch nicht mehr Spielspaß.Sie kommen mit "MagicLights" ENTSPANNT ausreichend lange über die Runden bis die HW für Path schnell genug ist. Sehe hier kein Problem bei einem Konsolero. Der will halt auch möglichst schön spielen, aber die Analyse einzelner Frames ist ihm fremd.
Ist eine coole Technolgie und richtig sie einzuführen- zeigt aber dass es noch ziemlich leading edge ist und anscheinend noch nichts für den Massenmarkt. Leute die nicht irre sind und diese Art Geld in eine PC Komponente verschleudern. Alles IMO. Kann ja jeder gern anders sehen. :)Ab heute bin ich nicht mehr "ziemlich alleine", x-force :ulol: :rolleyes:
F5.Nuh
2025-03-02, 20:08:20
PCIe 5 und jo.
Oh man :freak:....
Ich müsste dann CPU, MoBo, RAM und evtl. Netzteil erneuern um auf die neuen Grakas zu wechseln...
Das ist mir zu Kostenintensiv. PCI 5.0 ist aber PCI 4.0 kompatibel oder?
Badesalz
2025-03-02, 20:09:59
Junge was geht bei dir? Natürlich ist es das :)
DrFreaK666
2025-03-02, 20:10:46
Nvidia-User sagen ja: DLLS4 P = DLLS3 Q -> Performance nochmals besser.
Das gilt natürlich auch für FSR4.
The_Invisible
2025-03-02, 20:13:19
Nvidia-User sagen ja: DLLS4 P = DLLS3 Q -> Performance nochmals besser.
Das gilt natürlich auch für FSR4.
Fsr4 ist noch nicht Mal draußen, wie willst das wissen :freak:
dargo
2025-03-02, 20:17:14
Meinste die mit dem Magnet Lüftern?
Nein, ich meine das Lüfterblätter Design.
DrFreaK666
2025-03-02, 20:17:16
Fsr4 ist noch nicht Mal draußen, wie willst das wissen :freak:
CES-Demo!?
Schlechter als FSR3.1 wird es wohl kaum werden :rolleyes:
Badesalz
2025-03-02, 20:21:17
IMO: Wayne. Bringt auch nicht mehr Spielspaß. Also NICHTS gegen Pathtracing. Hab ich schon vom Anfang an behauptet und vom Anfang an DLSS1 und DLSS2 nur als Versuche erstmal eine Technologiestudie auf die Beine zu stellen. Streckenweise also im Gegensatz zu unserem Lieblingsjubelblatt :rolleyes:
Allgemein aber (Zitat) erinnern mich die verwirrten Seelen 1zu1 an Audiophile. Die werfen ihr Audio auch nicht an um Musik auf der Anlage zu hören, sondern nutzen Musik um ihre Anlage zu hören (Alan Parsons).
Dann bringen Türstopper auf den Boxen eine deutliche Klangverbesserung und DLSS4-P ist besser als nativ. Thats life :uclap:
Geheiligt sei die Suche nach dem passenden Frame :usweet:
The_Invisible
2025-03-02, 20:42:40
Ich hab auch spaß auf Switch und ps5, sogar auf Amiga und NES noch. Am PC will ich aber den neuesten schei* haben
Ich hab auch spaß auf Switch und ps5, sogar auf Amiga und NES noch. Am PC will ich aber den neuesten schei* haben
Du hast noch einen Amiga? Krass!
schau mer mal in wieviel Fällen/Games die private Meinung vom Influenzer Raff passt
Ich habe in diesem Thread weder meine Meinung kundgetan, noch bin ich eine Krankheit. :D
MfG
Raff
Du hast noch einen Amiga? Krass!
Wer nicht?
Einen? :-)
TheGood
2025-03-02, 22:58:52
Fsr4 ist noch nicht Mal draußen, wie willst das wissen :freak:
Da FSR 4 kein CNN ist und eher Richtung Transfomer gehen soll, wird das schon so sein. Offensichtlich hat sich AMD selbst was zusammengebastelt, das kann natürlich auch nach hinten losgehen (erste anzeichen der CES sprechen aber erstmal nicht dafür dass es nach hinten losgeht). Aber wir haben ja in der Iteration von DLSS gesehen, dass es manchmal eben Zeit braucht.
Den Zug hat AMD aber halt mal völlig verschlafen und jetzt müssen sie den Shinkansen spielen. Mal gucken wie gut Ihnen das gelingt.
TheGood
2025-03-02, 23:04:56
Irgendwas verstehe ich nicht so ganz. Die 9070xt ist 42% schneller als die GRE.
Wie kann sie dann in der Einschätzung von Raff vor der 5070TI sein?
Hier bremst er auch die ganze zeit. Warum aber dann diese Einschätzung?
Edit: was ist denn das für ein Index ? Der ist auch anders wie die anderen Indexe. Kannst du das mal aufklären. Denn eine 1zu1 umsetzung ist hier so ja gar nicht möglich.
ChaosTM
2025-03-02, 23:06:45
AMD hatte Zeit und AI Hilfe* um was ähnliches zu basteln.
Die finanzielle Übermacht von Nvidia bezüglich R&D( 2-3 fach) schwindet immer mehr.
*DeepSeek: - zeig mir NV`s algos bezüglich upscaling..
crux2005
2025-03-02, 23:11:50
Für mehr als FSR4 vs. DLSS4 Vergleiche und Geräuschtests der AIB Modelle werden die Reviews eh nicht gut sein. :D.
Fsr4 ist noch nicht Mal draußen, wie willst das wissen :freak:
+1
CES-Demo!?
Schlechter als FSR3.1 wird es wohl kaum werden :rolleyes:
Die Demo haben die Leute noch vor DLSS4 gesehen. Schlechter als FSR3.1 erwartet keiner. Nur hat sich DLSS weiter verbessert.
TheGood
2025-03-02, 23:26:46
IMHO das einzige wofür wir noch die Reviews am 5.3. brauchen ist um FSR4 mit DLSS4 zu vergleichen und wie Laut die AIB Modelle sind. :D. Die Leistung der 9070 XT ist ja schon seit Monaten bekannt.
+1
Die Demo haben die Leute noch vor DLSS4 gesehen. Schlechter als FSR3.1 erwartet keiner. Nur hat sich DLSS weiter verbessert.
Dann hat man sich die alten Versionen immer schöngeredet oder wie ist das zu verstehen. Oder wird hier einfach jedes neue DLSS zur Referenz erhoben, was auch ziemlich schwachsinnig ist, weil man ja sieht was alles nicht funktioniert... man man man...
AUch hier die Frage, was ist die Logik dahinter und was ist die Referenz gegen die man vergleicht (jetzt kommt wieder dsa argument dass DLSS4 ja besser als nativ ist).
Ich will bestimmte fehler nicht sehen (wenn ich sie denn überhautps sehen würde) bei DLSS und das ist erstmal völlig unabhängig von DLSS version und dagegen gleiche ich es ab.
DrFreaK666
2025-03-03, 01:52:25
...Die Demo haben die Leute noch vor DLSS4 gesehen. Schlechter als FSR3.1 erwartet keiner. Nur hat sich DLSS weiter verbessert.
Ich hab ein Deja vu. Hatten wir das nicht schonmal?
Nvidia-User sagen ja: DLLS4 P = DLLS3 Q -> Performance nochmals besser.
Das gilt natürlich auch für FSR4.
Thema war Geschwindigszuwachs 6800XT -> 9070XT.
Und was ich sagen wollte war: bei gleicher/ähnlicher Qualität, wir man mit FSR4 dann höhere FPS haben, wie bei DLSS4 P vs DLSS3 Q, so dass das Upgrade Sinn machen könnte, wenn man nichts dagegen hat Upscaling zu nutzen
GerryB
2025-03-03, 05:27:14
Ich habe in diesem Thread weder meine "Meinung" kundgetan, noch bin ich eine Krankheit.
Wir werden ja sehen, ob die high Temps@340W Nitro/Mercury von der Influenza kommen oder doch nur von "Dir".
für die 304W-Modelle mit kleinerem Kühler mache ich mir auch keine Sorgen
ne Reaper wird schon reichen
crux2005
2025-03-03, 05:46:24
Thema war Geschwindigszuwachs 6800XT -> 9070XT.
Und was ich sagen wollte war: bei gleicher/ähnlicher Qualität, wir man mit FSR4 dann höhere FPS haben, wie bei DLSS4 P vs DLSS3 Q, so dass das Upgrade Sinn machen könnte, wenn man nichts dagegen hat Upscaling zu nutzen
Verstehe. Der Kontext war mir nicht bekannt.
dargo
2025-03-03, 06:29:29
für die 304W-Modelle mit kleinerem Kühler mache ich mir auch keine Sorgen
ne Reaper wird schon reichen
Warum sollte sie auch nicht reichen? Die Spanne zwischen nahezu lautlos, über mittelmäßig bis hin zu eher laut ist groß. Oder anders ausgedrückt bezogen auf Messungen von CB... die besten Kühler liegen bei 30db(A) bzw. minimal drunter, die schlechtesten bei >40db(A).
DrFreaK666
2025-03-03, 08:11:26
Verstehe. Der Kontext war mir nicht bekannt.
So rückblickend ist es auch verwirrend, da ich nicht ein 6800XT->9070XT Kommentar zitiert habe
Master3
2025-03-03, 08:23:40
Letztes Jahr hatte ich noch überlegt eine 7800XT/4070SUPER zu holen, aber da war mir das Leistungsplus nicht hoch genug. Zudem möchte ich keine Stagnation beim VRAM (4070).
Da kommt der Release der 9070 Serie nun endlich richtig und ich werde wohl diesmal direkt zum Release eine Karte kaufen. Normalerweise hätte ich ja noch gewartet bis zum Sommer, aber wenn das Thema Zoll aufkommen sollte, dann werden die Preis sicherlich nicht sinken.
Die Leistung der 9070 (non XT) würde mir bestimmt reichen. Aber wenn die XT Varianten nur 50-100€ mehr kosten sollte, dann wird natürlich so eine gekauft.
Ich vermute, dass die Karten trotz möglicherweise guter Bestände schnell weg sind.
Auf welche Shops sollte man beim Release den Fokus legen?
- Mindfactory
- Notebooksbilliger
- etc.?
woodsdog
2025-03-03, 08:31:50
Normalerweise hätte ich ja noch gewartet bis zum Sommer, aber wenn das Thema Zoll aufkommen sollte, dann werden die Preis sicherlich nicht sinken.
Immer wieder dieses Zoll Thema...
Welche Relevanz hat ein Einfuhr-Zoll in Land A kommend von Land C bei Wahrenströmen zwischen Land B und Land C?
E-Autos aus China haben 100% Zoll in den Staaten kommend von China. in der EU 17-35%. Werden die Autos jetzt trotzdem in die USA exportiert wo man sie nicht verkaufen kann oder doch eher in die EU? Wenn sie in der EU landen, werden sie dann den Strafzoll oben druff haben? eher nich... warum auch.
Ersetze "Auto" durch "Grafikkarte".
Mitname durch zwischenhändler wird es bei knappen Gütern wie eben z.Z. GPUs immer haben... das löst sich aber in der Sekunde wenn das Angebot breit ist
YeahBuoy!
2025-03-03, 08:39:05
@Master3: Am ehesten würde ich bei Galaxus und Mindfactory schauen was verfügbar und nicht preislich überzogen ist.
So am Rande: Wegen der Zölle musst du dir keine Sorgen machen, die Karten werden direkt aus Asien exportiert ohne jemals amerikanischen Boden gesehen zu haben. Nach Spekulationen (MLID soweit ich mich erinnere) soll der Preis ein paar Wochen nach Launch angezogen werden, aber ob das wirklich so eintrifft ist halt fraglich. Mal schauen wie gierig die Händler die Early Adopter dieses mal melken wollen oder ob das mal ein "normaler" Release wird.
Edit: Woodsdog war schneller :D
Auf welche Shops sollte man beim Release den Fokus legen?
- Mindfactory
- Notebooksbilliger
- etc.?
Computer Universe
Cyberport
Galaxus
evtl. amazon
Edit: Vielleicht kommt auch ein Computerbase Bot wie aktuell für die nvidia 5000er Reihe:
https://www.computerbase.de/forum/threads/verfuegbarkeit-und-preise-hier-gibt-es-geforce-rtx-5090-5080-5070-ti-zu-kaufen.2228191/page-302
dargo
2025-03-03, 08:55:25
Computer Universe
Cyberport
Unfassbar, das hier dieser Händler empfohlen wird. :eek:
Disco_STFU
2025-03-03, 08:59:23
Noch 54 Stunden... :ulol::usad:
Badesalz
2025-03-03, 09:01:22
AMD hatte Zeit und AI Hilfe* um was ähnliches zu basteln.
Die finanzielle Übermacht von Nvidia bezüglich R&D( 2-3 fach) schwindet immer mehr.Jein. Ich schrieb ja schon über das Rennen von Hase und Igel :wink: Das Gute kann sich irgendwann nicht mehr spürabr steigern, während das Dürftige sich noch weiter steigert und irgendwann (endlich) auch vergleichbar wird.
Verdrängt wird damit aber trotzdem nicht, daß eben Nvidia mit ihrer Phalanx an Docs und sogar Profs immer wieder die Zukunftsweichen stellt.
Unfassbar, das hier dieser Händler empfohlen wird. :eek:
Mea Culpa :sneak:
In der Tat nur Kacka Bewertungen...:udown:
w0mbat
2025-03-03, 09:59:05
Was ich immer noch nicht ganz verstehe. Die Karten liegen ja z.T. schon seit Dezember bei den Händlern. Wieso hat man RDNA4 nicht einfach wirklich zur CES vorgestellt, eine Woche später Reviews und dann direkt der launch? Dann wäre man jetzt schon fast zwei Monate am Markt.
Ich verstehe dieses "Warten auf Nvidia" nicht.
Der_Korken
2025-03-03, 10:05:25
Was ich immer noch nicht ganz verstehe. Die Karten liegen ja z.T. schon seit Dezember bei den Händlern. Wieso hat man RDNA4 nicht einfach wirklich zur CES vorgestellt, eine Woche später Reviews und dann direkt der launch? Dann wäre man jetzt schon fast zwei Monate am Markt.
Ich verstehe dieses "Warten auf Nvidia" nicht.
Mögliche Gründe:
- Zu geringe Stückzahlen
- Software noch nicht fertig
- Änderungen an Takt/Verbrauch
- Preisstreitigkeiten
dildo4u
2025-03-03, 10:09:21
Was ich immer noch nicht ganz verstehe. Die Karten liegen ja z.T. schon seit Dezember bei den Händlern. Wieso hat man RDNA4 nicht einfach wirklich zur CES vorgestellt, eine Woche später Reviews und dann direkt der launch? Dann wäre man jetzt schon fast zwei Monate am Markt.
Ich verstehe dieses "Warten auf Nvidia" nicht.
Zockst du AAA Games? Fast jedes setzt heute auf Upsampling die Karte steht und fällt also mit FSR4 bis jetzt ist noch nicht klar ob wir das diese Woche überhaupt bewerten können.
Das ganze ist für AMD nur schwerer geworden da man es jetzt gegen DLSS4 vergleichen kann.
Ratcht and Clank läuft z.b mit 40 FPS und nutzt kein Path Tracing.
Selbst für Konsolen Ports ist Upsampling wichtig.
https://i.ibb.co/RGv3nYwc/08-FG.jpg (https://ibb.co/1YvrV7WT)
robbitop
2025-03-03, 10:14:41
Immer wieder dieses Zoll Thema...
Welche Relevanz hat ein Einfuhr-Zoll in Land A kommend von Land C bei Wahrenströmen zwischen Land B und Land C?
E-Autos aus China haben 100% Zoll in den Staaten kommend von China. in der EU 17-35%. Werden die Autos jetzt trotzdem in die USA exportiert wo man sie nicht verkaufen kann oder doch eher in die EU? Wenn sie in der EU landen, werden sie dann den Strafzoll oben druff haben? eher nich... warum auch.
Ersetze "Auto" durch "Grafikkarte".
Mitname durch zwischenhändler wird es bei knappen Gütern wie eben z.Z. GPUs immer haben... das löst sich aber in der Sekunde wenn das Angebot breit ist
IMO ist das schon ein Unterschied:
Bei den EVs ist es ja so dass es um Chinesische Vendors gibt, die versuchen mit ihren E-Autos alle Märkte zu erobern. Mit kleinen Margen oder sogar Subventionen erzielen sie dann Preise wo sie ganze Märkte überschwemmen wollen und die lokale Konkurrenz unterbieten.
Bei GPUs haben wir aber 2 amerikanische Chiphersteller (die die AIBs im festen Griff haben was supply chain, Ausstattung, Pricing usw angeht) und zum größten Teil nicht chinesische AIBs. Und die wollen alle möglichst viel Gewinn machen. Wenn es jetzt in den USA zu +25% Zöllen kommt, müssten die Endverbraucherpreise um 25% steigen. Es kann gut sein, dass das von den IHVs und/oder den AIBs nicht gewünscht ist, weil das eben Auswirkungen auf einen ihrer Hauptmärkte hat. Also könnten sie die Mehrkosten auf mehrere Märkte verschmieren.
Allein schon die Chance, dass der Wettbewerber das macht und dann in einem der Märkte Vorteile hat lässt es wiederum andere potenziell auch in Betracht ziehen.
Wir hoffen alle, dass es nicht so kommt - aber es kann sehr gut sein, dass das passiert.
w0mbat
2025-03-03, 10:26:21
Die Zölle würden uns ja gar nicht betreffen, sondern nur Karten, die in die USA eingeführt werden. Wenn jemand aus Malaysia oder Indonesien eine Karte in die EU schickt haben US Zölle keinen Einfluss.
w0mbat
2025-03-03, 10:28:03
Zockst du AAA Games? Fast jedes setzt heute auf Upsampling die Karte steht und fällt also mit FSR4 bis jetzt ist noch nicht klar ob wir das diese Woche überhaupt bewerten können.
Das ganze ist für AMD nur schwerer geworden da man es jetzt gegen DLSS4 vergleichen kann.
Ratcht and Clank läuft z.b mit 40 FPS und nutzt kein Path Tracing.
Selbst für Konsolen Ports ist Upsampling wichtig.
https://i.ibb.co/RGv3nYwc/08-FG.jpg (https://ibb.co/1YvrV7WT)
Klar, aber Software features waren für AMD ja noch nie ein Grund für eine Verzögerung. FSR3.1 sollte ja ohne Probleme laufen.
Edit: Sorry für Doppelpost
dildo4u
2025-03-03, 10:37:55
Klar, aber Software features waren für AMD ja noch nie ein Grund für eine Verzögerung. FSR3.1 sollte ja ohne Probleme laufen.
3.1 reicht in 2025 nicht die Karten sind nicht so billig das man bei der Bildqualität Kompromisse machen sollte.
Das ist das Problem selbst die kleinen Nvidia Karten können DLSS4 sinnvoll nutzen anders als Path Tracing.
robbitop
2025-03-03, 10:38:55
Die Zölle würden uns ja gar nicht betreffen, sondern nur Karten, die in die USA eingeführt werden. Wenn jemand aus Malaysia oder Indonesien eine Karte in die EU schickt haben US Zölle keinen Einfluss.
Liest du Postings auch im Detail? ;D
YeahBuoy!
2025-03-03, 10:52:42
IMO ist das schon ein Unterschied:
Bei den EVs ist es ja so dass es um Chinesische Vendors gibt, die versuchen mit ihren E-Autos alle Märkte zu erobern. Mit kleinen Margen oder sogar Subventionen erzielen sie dann Preise wo sie ganze Märkte überschwemmen wollen und die lokale Konkurrenz unterbieten.
Bei GPUs haben wir aber 2 amerikanische Chiphersteller (die die AIBs im festen Griff haben was supply chain, Ausstattung, Pricing usw angeht) und zum größten Teil nicht chinesische AIBs. Und die wollen alle möglichst viel Gewinn machen. Wenn es jetzt in den USA zu +25% Zöllen kommt, müssten die Endverbraucherpreise um 25% steigen. Es kann gut sein, dass das von den IHVs und/oder den AIBs nicht gewünscht ist, weil das eben Auswirkungen auf einen ihrer Hauptmärkte hat. Also könnten sie die Mehrkosten auf mehrere Märkte verschmieren.
Allein schon die Chance, dass der Wettbewerber das macht und dann in einem der Märkte Vorteile hat lässt es wiederum andere potenziell auch in Betracht ziehen.
Wir hoffen alle, dass es nicht so kommt - aber es kann sehr gut sein, dass das passiert.
Nochmal kurz um das zu differenzieren:
1. Wegen den Zöllen in den USA auf chinesische Produkte an sich wird hier nach wie vor nichts teurer, da Versandland nicht die USA sind. oder als konkretes Beispiel: Sonst wären so manche Einfuhrten in den USA unerschwinglich teuer wenn die Chinesen nicht mittlerweile Proxyfirmen in Kanada oder Mexiko hätten ;).
2. Klar, können bei den Beteiligten in den Lieferketten Sicherungen durchknallen und die könnten gierig werden mit der Behauptung das es an den Trumpschen Zöllen liegt. Das gab es ja teils auch schon als durch das Evergreen Malheur der Suez Kanal dicht war oder halt wegen der grassierenden Piraterie und dem Staatsterrorismus im Roten Meer. Oder, oder, oder...
Für mich ist das eher ein Nebenkriegsschauplatz. AMD hat ja schon Preispunkte in die Welt gesetzt und verankert, wenn der Handel hier freidreht, zumal in einer Zeit mit so schlechter Verbraucherstimmung wie lange nicht mehr und bei scheinbar hohen Beständen an Karten, kann das ganz schön nach hinten losgehen. Bei Team Grün macht man es halt weil die Kunden per default Nvidia kaufen und bei der viel größeren Grundgesamtheit der Käufer irgendjemand mit genug flüssigen Barmitteln und zu wenig Geduld darauf wartet kaufen zu können. AMD ist eher für uns Nerds interessant als für Hinz und Cunts.
Badesalz
2025-03-03, 10:59:08
Was ich immer noch nicht ganz verstehe. Die Karten liegen ja z.T. schon seit Dezember bei den Händlern. Wieso hat man RDNA4 nicht einfach wirklich zur CES vorgestellt, eine Woche später Reviews und dann direkt der launch? Dann wäre man jetzt schon fast zwei Monate am Markt.
Ich verstehe dieses "Warten auf Nvidia" nicht.Was? Keine Ahnung was dir da alles entging :| Kriegst du unter den Leuten nichts mit? Wo ist das Problem? Taktisch wohl nicht vorausgesagt, aber eben taktisch war es trotzdem richtiger denn je :ulol:
In der Zeit lag der gesamte Fokus der Verbraucher auf Nvidia und die konnten alle Schritte, Stufen und Details des Desasters ungestört mitverfolgen. Ohne sich der Leistung (AMD) 100% sicher zu sein, haben viele der Nichtfanboys eben auch gezögert, mit NV kaufen oder diesmal doch AMD. Die Verfügbarkeit war und ist weiterhin Shice, die Preise sind noch beshicener.
Und während des Wartens lieferte NV ein Fettnäpfchen nach dem anderen. Jetzt werden sich die Vergraulten die AMDs nicht 1x, sondern 2x anschauen, ob es diesmal nicht doch einfach ausreicht.
Kein einziges Mal wäre so eine Nummer postitiv zu werten, aber diesmal hat Nvidia selbst - wie auch die AIBs - AMD sehr gut aus der Patsche geholfen :uup:
Disco_STFU
2025-03-03, 11:01:40
Die Lager müssten doch prallgefüllt sein. Hoffen wir es! :smile:
DrFreaK666
2025-03-03, 11:04:35
Mir reicht wenn ich eine Karte für UVP (wie hoch der auch sein wird) bekomme.
AMD Deutschland weiß bis heute nicht, dass RX9000 existiert :rolleyes:
Weiß jemand wieso nicht alle FSR3.1 Spiele upgradebar sind?
robbitop
2025-03-03, 11:14:15
Sind sie nicht? Nach meinem Verständnis gibt es eine Menge X an Spielen die direkt mit FSR4 kommen und alle die mit 3.1 vorhanden sind, sind upgradebar.
Per DLSS swapper kann man mittlerweile auch DLLs für FSR und XeSS austauschen. Müsste mal testen ob sich das auch auf < FSR 3.1 Spiele auswirkt.
Ansonsten ist aber mit Optiscaler dann alles upgradebar - aber fummeliger als per DLSS Swapper oder über das Treiber GUI
w0mbat
2025-03-03, 11:17:56
Liest du Postings auch im Detail? ;D
Anscheinend nicht :freak:
DrFreaK666
2025-03-03, 11:23:24
Sind sie nicht? Nach meinem Verständnis gibt es eine Menge X an Spielen die direkt mit FSR4 kommen und alle die mit 3.1 vorhanden sind, sind upgradebar.
Liest sich jedenfalls so
users can upgrade select FSR 3.1 games to FSR 4 using AMD Software: Adrenalin Edition™ 25.3.1 or newer.
https://www.amd.com/en/products/graphics/technologies/fidelityfx/super-resolution.html
Müsste das nicht "selected FSR..." heißen?
davidzo
2025-03-03, 11:25:56
Immer wieder dieses Zoll Thema...
Welche Relevanz hat ein Einfuhr-Zoll in Land A kommend von Land C bei Wahrenströmen zwischen Land B und Land C?
So einfach ist es aber nicht. Neben dem Produktionsland, Ursprungsland der Rohstoffe und Transitländern gibt es auch das präferenzierte Ursprungsland. Der GDDR7 kommt aus den USA, Die Chips wurden designt in den USA, Kühler und Platinen kommen aus China, Prepregs, Wafer, Chemikalien aus Japan etc. - Möglicherweise erfüllt die assemblierte GPU also bereits die Bedingungen für Präferenzzölle und werden damit gar nicht als taiwanische Waren verzollt. Das ist am Ende eine Frage der Zollberater und Anwälte und ggf. können Lizenzzahlungen an die Firmen in den USA, Endverpackung in Amiland etc. am Ende das Zünglein an der Waage sein. ob Schutzzoll erhoben wird oder nicht.
Mit Sicherheit steigen aber Laufzeit, Aufwand und Opportunitätskosten, selbst wenn man den Zoll am Ende doch vermeiden kann.
Mitname durch zwischenhändler wird es bei knappen Gütern wie eben z.Z. GPUs immer haben... das löst sich aber in der Sekunde wenn das Angebot breit ist
Nicht wenn die Händler bzw, AiBs untereinander absprachen treffen. Für eine funktionierende Marktökonomie hilft eben auch nicht dass die Anzahl der AiBs historisch noch nie niedriger war als heutzutage.
Es kann gut sein, dass das von den IHVs und/oder den AIBs nicht gewünscht ist, weil das eben Auswirkungen auf einen ihrer Hauptmärkte hat. Also könnten sie die Mehrkosten auf mehrere Märkte verschmieren.
Genau das. IHVs und AIBs machen das schon seit langem. Z.B. attraktive MSRPs bloß in den USA die dann von den anderen Märkten gestützt werden. Der Mindshare im größten westlichen Markt für Elektronik bestimmt halt maßgeblich die Stimmung in der Presse und das Firmenimage.
1. Wegen den Zöllen in den USA auf chinesische Produkte an sich wird hier nach wie vor nichts teurer, da Versandland nicht die USA sind. oder als konkretes Beispiel: Sonst wären so manche Einfuhrten in den USA unerschwinglich teuer wenn die Chinesen nicht mittlerweile Proxyfirmen in Kanada oder Mexiko hätten ;).
Ich glaube du hast die Funktionsweise des Zolls noch nicht verstanden. Es geht nicht um Herkunft, sondern um Ursprung. Die gucken schon auf das Ursprungsland und lassen sich nicht von Transitländern täuschen. Wenn das so einfach wäre, würde es jeder machen.
Beispiel: Wenn Sanktionen auf russisches Eisenerz gelten, dann sind davon auch Rohstahl oder Schrauben aus China betroffen die aus russischem Eisenerz hergestellt wurden. Sicher kann man das als kleiner Player irgendwie verschleiern, aber bei den großen Fischen guckt die Behörde da sehr genau hin. Das ist der Hauptgrund wieso der Zoll operiert wie ein neuer Geheimdienst und neue Leute einstellt wie blöde.
2. Klar, können bei den Beteiligten in den Lieferketten Sicherungen durchknallen und die könnten gierig werden mit der Behauptung das es an den Trumpschen Zöllen liegt.
Die werden nicht gierig, die sind das schon, davon kannst du fest ausgehen.
Und wenn in den USA Preiserhöhungen angekündigt werden, wird es zu Hamsterkäufen und Spekulantentum kommen das auch unsere Märkte hier beeinflusst. Die Händler hier werden dann auch versuchen von Panikkäufen zu profitieren, denn Gier nach Profit ist das wichtigste Gesetz des Marktes.
YeahBuoy!
2025-03-03, 11:41:45
@Davidzo: Mag alles sein, präferentieller Ursprung spielt aber keine Rolle im Fall von Taiwan.
1. Es gibt kein Präferenzabkommen zwischen der EU und Taiwan(siehe https://wup.zoll.de/wup_online/laenderinformationen.php?isoalpha=&landinfo=Taiwan&verarbeitungsliste=8471&stichtag=03.03.2025&submit_laendersuche_wup=&submit_laendersuche_wup=)
2. Auch ohne Präferenzabkommen wird kein Zoll auf GPU erhoben (siehe https://trade.ec.europa.eu/access-to-markets/de/results?product=847180&origin=TW&destination=DE)
Deine anderen Aussagen bezüglich des Zoll sind so nicht richtig: Wenn aus einem Vorprodukt ein neues Produkt hergestellt wird ändert sich der HS Code und in sehr vielen Fällen reicht dieser sogenannte Positionssprung aus um eine ausreichende Be- oder Verarbeitung darzustellen die eine zollrechtlich präferenzielle Behandlung ermöglich, vorausgesetzt es gibt ein Abkommen. Der Zoll hierzulande ist vieles, aber ganz sicher kein Geheimdienst, und der Grund warum die so irre viele Leute einstellen ist das man dort immer mehr Aufgaben hingeschoben hat (Geldwäsche und Schwarzarbeitsbekämpfung bspw.) die mit dem eigentlichen Thema des Zolls wenig zu tun haben und das dort immer mehr Leute in Rente gehen. Wenn du mit "Geheimdienst" meinst das du vorm Zoll gläsern bist, weil er die gleichen Daten zu sehen bekommt wie das Finanzamt, das Land für Landwirtschaft und Ernährung, das Amt für Rüstungskontrolle...dann; ja, dann ist der Zoll ein Geheimdienst. Aber es ist naiv zu glauben das eine deutsche deutsche Behörde hier so tief gucken kann wie du denkst das sie es können. Wäre das anders würden so spaßige Vorhaben wie CBAM ja ein Klacks sein in der Umsetzung und könnten ohne Mitwirkung durch die Wirtschaftsbeteiligten durchgeführt werden. :D
Aus GPUs bezogen hat man ja auch Gestaltungsmöglichkeiten, bspw. in dem man den Halter von Lizenzen, die bei der Präferenzkalkulation einbezogen werden oder die Endmontage (siehe Positionssprung) in ein für den Export vorteilhaftes Land verschiebt.
Schnitzl
2025-03-03, 11:51:22
... Nichtfanboys ...
;D
wir werden sehen... ich höre nur ständig "Team grün egal was AMD anbietet" und egal was ich an von nVidia erzähle, danach wird trotzdem eine RTX5xxx bestellt. Klinkt komisch ist aber so. ich sag dann nur noch "aber das sind doch Elektrolyte drin!"
mir ist das so langsam egal, irgendwann wird dann wieder geheult uuuuhhh so teuer und dann trotzdem gekauft. Ein Kampf gegen Windmühlen ist einfacher.
Die Lager müssten[B]sollten doch prallgefüllt sein. Hoffen wir es! :smile:
ftfy
Dann hat man sich die alten Versionen immer schöngeredet oder wie ist das zu verstehen. Oder wird hier einfach jedes neue DLSS zur Referenz erhoben, was auch ziemlich schwachsinnig ist, weil man ja sieht was alles nicht funktioniert... man man man...
AUch hier die Frage, was ist die Logik dahinter und was ist die Referenz gegen die man vergleicht (jetzt kommt wieder dsa argument dass DLSS4 ja besser als nativ ist).
Ich will bestimmte fehler nicht sehen (wenn ich sie denn überhautps sehen würde) bei DLSS und das ist erstmal völlig unabhängig von DLSS version und dagegen gleiche ich es ab.
+1
DLSS3 ist besser als nativ.... DLSS3.5 ist noch besser als nativ, DLSS4 ist wieder besser und besser als nativ... und jetzt? DLSS5 sieht dann im "Spieletitel2026" schon besser als als der Nachfolger "Spieletitel2028"?
Erinnert irgendwie an "Win98 ist stabiler als Win95 .... WinXP ist stabiler als Win98 ... usw usf."
Badesalz
2025-03-03, 12:20:08
wir werden sehen... ich höre nur ständig "Team grün egal was AMD anbietet" Das sind nicht Nichtfanboys :rolleyes:
Dann hat man sich die alten Versionen immer schöngeredet oder wie ist das zu verstehen.JA. Eine Senkgrube voller Blindschleichen war das. Die haben auch selbst nie 2x nachgeschaut. Das einzige was sie scharf sehen konnten waren nur die ASCII der PR-Journalie auf ausgesuchten Frames :usweet: Und selbst da haben die Blindschleichen nicht richtig hinschauen wollen.
madzapp
2025-03-03, 12:33:50
Nicht zu vergessen die ganzen Videos wo gezeigt wird um wieviel alles jetzt besser ist. :rolleyes:
ChaosTM
2025-03-03, 12:37:03
Wir sollten uns alle freuen, wenn eine Firma neue, sinnvolle Sachen bringt oder eine andere Firma Rückstände aufholt.
Ohne Konkurrenz geht alles den Bach runter und wir hatten das jahrelang im CPU Bereich.
Daher hoffe ich auch, das Intel wieder auf die Füsse kommt.
@Badesalz
Nvidia setzt die neuen Standards, keine Frage, aber das geht nur wenn man eine gewisse Marktmacht hat und NV hat das mit RT bestens ausgenutzt.
Anfänglich war das reines Marketing, aber mittlerweile bringt es echte optische Vorteile.
Daher -> go 9070(XT) !
The_Invisible
2025-03-03, 13:00:36
+1
DLSS3 ist besser als nativ.... DLSS3.5 ist noch besser als nativ, DLSS4 ist wieder besser und besser als nativ... und jetzt? DLSS5 sieht dann im "Spieletitel2026" schon besser als als der Nachfolger "Spieletitel2028"?
Erinnert irgendwie an "Win98 ist stabiler als Win95 .... WinXP ist stabiler als Win98 ... usw usf."
Naja ohne (T)AA & Co kann man sich heute native Grafik nicht mehr antun außer man steht auf Flimmerhölle. Von daher gar nicht mehr so schwer heute besser als nativ zu sein.
Und ja DLSS und FSR verbessert sich sonst kann man sich neue Versionen gleich sparen. Und ich hätte noch keinem sagen hören das DLSS perfekt sei, es setzt Referenzwerte aber es ist immer noch Luft nach oben.
Zossel
2025-03-03, 13:04:50
Ohne Konkurrenz geht alles den Bach runter und wir hatten das jahrelang im CPU Bereich.
Daher hoffe ich auch, das Intel wieder auf die Füsse kommt.
Die Sockel- und Feature-Politik von Intel zeigt das es Intel noch nicht schlecht genug geht.
Badesalz
2025-03-03, 13:09:46
Nvidia setzt die neuen Standards, keine Frage, aber das geht nur wenn man eine gewisse Marktmacht hat und NV hat das mit RT bestens ausgenutzt.
Haben sie. Sie haben aber auch weiterhin genug auf dem Kerbholz um fallweise Respekt zu bekommen, streckenweise aber auch GENUG Häme/Ärger. Leider machen sie zugegeben ausreichend viel gut und so kommt man selten an den Horden der Fanboys vorbei. Wobei die nun auch ihre schwere Zeit haben die sie zu überspielen versuchen ;)
Und ich hätte noch keinem sagen hören das DLSS perfekt sei, Was auch keine Kunst ist (?!), da es nun erst langsam anfängt ausreichend gut zu sein :|
Annator
2025-03-03, 13:39:22
Weiß einer um wieviel Uhr man die 9700 XT kaufen kann?
Hakim
2025-03-03, 13:45:59
Die Tests kommen übermorgen oder? Vermutlich schreiben die dann auch wann der Verkauf am 6ten anfängt. Halt das übliche vermutlich, 14 oder 15 Uhr, aber die Bots haben 30 Minuten vorher alles leergeräumt :).
Ne glaube Stückzahlen sollten mehr sein wenn seit Anfang des Jahres gelagert wird, ich hoffe es zumindest
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.