Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Disco_STFU
2025-03-03, 13:51:24
Die Tests kommen übermorgen oder? Vermutlich schreiben die dann auch wann der Verkauf am 6ten anfängt. Halt das übliche vermutlich, 14 oder 15 Uhr, aber die Bots haben 30 Minuten vorher alles leergeräumt :).
Ne glaube Stückzahlen sollten mehr sein wenn seit Anfang des Jahres gelagert wird, ich hoffe es zumindest
Man bekommt nix mehr bei den Händlern, aber dann hunderte Scalperangebote bei Ebay wieder... :mad:
edit: Ich hoffe einfach mal, dass die Masse an Karten einfach zu groß ist, um alles wegzuscalpen...
Palpatin
2025-03-03, 14:09:51
Was ich immer noch nicht ganz verstehe. Die Karten liegen ja z.T. schon seit Dezember bei den Händlern. Wieso hat man RDNA4 nicht einfach wirklich zur CES vorgestellt, eine Woche später Reviews und dann direkt der launch? Dann wäre man jetzt schon fast zwei Monate am Markt.
Ich verstehe dieses "Warten auf Nvidia" nicht.
Meine Vermutung man hat Blackwell total überschätzt und daher mit einer deutlich geringerer Nachfrage gerechnet. Im Januar hat man dann gesehen das Blackwell weder sonderlich gut ist noch das NV große Stückzahlen liefern kann. Also hat man den Start verschoben um nicht selbst viel negative Presse wegen Paper Launch zu ernten.
Wenn AMD so performt wie es aktuell aussieht zu dem Preis werden die auch so alles verkaufen was sie produzieren können also nichts falsch gemacht mit abwarten. Bei NV muss man man mittlerweile sagen fast schlimmster launch seit fx5800 .....
ChaosTM
2025-03-03, 14:16:35
Weiß einer um wieviel Uhr man die 9700 XT kaufen kann?
Es sollten genug verfügbar sein. AMD braucht keine künstliche Verknappung, um die Preise oben zu halten.
Würden sie gerne, aber sie sind nicht Nvidia ;)
Disco_STFU
2025-03-03, 14:18:36
Bei NV muss man man mittlerweile sagen fast schlimmster launch seit fx5800 .....
https://www.computerbase.de/forum/attachments/fxfun10-jpg.676315/
Das waren noch Zeiten... :freak:;D
Computerbase hat jeweils 5 x 9070XT und 5 x 9070 in der Redaktion! Das wird ein Fest am Mittwoch! :cool:
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-launch.91565/#update-2025-03-03T14:00
Taigatrommel
2025-03-03, 14:41:01
Weiß einer um wieviel Uhr man die 9700 XT kaufen kann?
Hi, also bis jetzt war es bei AMD immer ab 15 Uhr und ich glaube nicht, dass es dieses mal mit RDNA 4 anders sein wird.
Nakai
2025-03-03, 14:58:03
Meine Vermutung man hat Blackwell total überschätzt und daher mit einer deutlich geringerer Nachfrage gerechnet. Im Januar hat man dann gesehen das Blackwell weder sonderlich gut ist noch das NV große Stückzahlen liefern kann. Also hat man den Start verschoben um nicht selbst viel negative Presse wegen Paper Launch zu ernten.
Wenn AMD so performt wie es aktuell aussieht zu dem Preis werden die auch so alles verkaufen was sie produzieren können also nichts falsch gemacht mit abwarten. Bei NV muss man man mittlerweile sagen fast schlimmster launch seit fx5800 .....
Naja FX5800 war wirklich grauenhaft. Schlimmster Launch seit Thermi definitiv, aber ob es schlimmer als Thermi ist, wage ich nicht zu beurteilen.
Disco_STFU
2025-03-03, 15:03:46
Und wie immer...
Ich hoffe AMD kann liefern und die Preise für 5080/5070 rasseln runter..
Dino-Fossil
2025-03-03, 15:15:27
Und wie immer...
Ich hoffe nVidia kann endlich liefern und die Preise für die 9000er bleiben untern/gehen runter... :ugly:
Ex3cut3r
2025-03-03, 16:41:34
Der Preiskampf dürfte sich nun auf beide Hersteller unterhalb der 5080 ausweiten. Vielleicht gibt es im Sommerloch tatsächlich moderate Preise bei beiden. Andererseits bleibt abzuwarten, welchen Einfluss die Trump-Steuer haben wird – möglicherweise macht sie uns einen Strich durch die Rechnung.
w0mbat
2025-03-03, 16:58:10
Wenn ich AMD wäre, würde ich jetzt ganz schnell "Navi 49" zusammen kleistern. Sechs anstatt vier Shader Engines mit entsprechend mehr L2 cache und einem GDDR7 memory controller. Die 256-bit PHYs bleiben. Dafür 3GB 30Gbps GDDR7 Module.
Damit hätte mal 50% mehr Rohleistung, 50% mehr Speicherbandbreite und 50% mehr VRAM. Der Chip wäre aber nur ca. 30% Größer und dank gleich großem Speicherinterface und sparsameren GDDR7 Modulen würde man, bei etwas niedrigeren Taktraten, wohl ~40% Mehrleistung bei nur ~35-40% mehr Verbrauch rausholen.
Damit wäre man relativ sicher vor einer 4090 und nur ~20% hinter der 5090. Und das mit <500mm² und 256-bit. Und ca. 420W TDP. Man kann ja noch träumen :D
dargo
2025-03-03, 17:53:08
Der Preiskampf dürfte sich nun auf beide Hersteller unterhalb der 5080 ausweiten.
Nvidia will einen Preiskampf im Gamingsektor bei dem aktuellen AI-Boom? Das glaube ich erst wenn ich es sehe. :tongue:
Apropo Preiskampf. ;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13718300&postcount=2150
dildo4u
2025-03-03, 17:57:11
Die 5070 ist doch der einzige Chip der kleiner wurde und nur 12GB da ist Luft wenn nötig, die wird kaum einer für KI Software nutzen.
robbitop
2025-03-03, 18:02:44
Wenn ich AMD wäre, würde ich jetzt ganz schnell "Navi 49" zusammen kleistern. Sechs anstatt vier Shader Engines mit entsprechend mehr L2 cache und einem GDDR7 memory controller. Die 256-bit PHYs bleiben. Dafür 3GB 30Gbps GDDR7 Module.
Damit hätte mal 50% mehr Rohleistung, 50% mehr Speicherbandbreite und 50% mehr VRAM. Der Chip wäre aber nur ca. 30% Größer und dank gleich großem Speicherinterface und sparsameren GDDR7 Modulen würde man, bei etwas niedrigeren Taktraten, wohl ~40% Mehrleistung bei nur ~35-40% mehr Verbrauch rausholen.
Damit wäre man relativ sicher vor einer 4090 und nur ~20% hinter der 5090. Und das mit <500mm² und 256-bit. Und ca. 420W TDP. Man kann ja noch träumen :D
Wenn sie jetzt erst damit anfingen, würde der Chip viel zu spät auf den Markt kommen und wahrscheinlich kaum vor UDNA / Rubin verfügbar sein.
Nakai
2025-03-03, 18:11:39
Wenn ich AMD wäre, würde ich jetzt ganz schnell "Navi 49" zusammen kleistern. Sechs anstatt vier Shader Engines mit entsprechend mehr L2 cache und einem GDDR7 memory controller. Die 256-bit PHYs bleiben. Dafür 3GB 30Gbps GDDR7 Module.
Damit hätte mal 50% mehr Rohleistung, 50% mehr Speicherbandbreite und 50% mehr VRAM. Der Chip wäre aber nur ca. 30% Größer und dank gleich großem Speicherinterface und sparsameren GDDR7 Modulen würde man, bei etwas niedrigeren Taktraten, wohl ~40% Mehrleistung bei nur ~35-40% mehr Verbrauch rausholen.
Damit wäre man relativ sicher vor einer 4090 und nur ~20% hinter der 5090. Und das mit <500mm² und 256-bit. Und ca. 420W TDP. Man kann ja noch träumen :D
This. Ich hoffe sie haben gaben damit schon vor einiger Zeit angefangen gehabt.
dargo
2025-03-03, 18:15:50
Die 5070 ist doch der einzige Chip der kleiner wurde und nur 12GB da ist Luft wenn nötig, die wird kaum einer für KI Software nutzen.
Wie stellst du dir das vor bei einem Preiskamp? 5070 für 399$ und 5070TI weiterhin für 750$? :freak: Wobei letzteres auch nur ein Fantasiepreis ist.
Die 5070 ist doch der einzige Chip der kleiner wurde und nur 12GB da ist Luft wenn nötig, die wird kaum einer für KI Software nutzen.
Der GB205 ist gemäß Yield Calculator tatsächlich ein ziemlich günstiges Stück Silizium. Mit 18 GiByte GDDR7 wäre das sicherlich immer noch eine günstig zu fertigende Grafikkarte - und um Faktoren attraktiver als mit 12 GiByte.
MfG
Raff
Hakim
2025-03-03, 18:22:57
AMD macht es halt leichter sich für die 9070XT zu entscheiden, gute mehr Performance und nur 50€ Unterschied (obs so kommt mal sehen). Bei NV ist halt Leistung und Preis weiter auseinander zwischen 70 und 70Ti.
dildo4u
2025-03-03, 18:27:48
Wie stellst du dir das vor bei einem Preiskamp? 5070 für 399$ und 5070TI weiterhin für 750$? :freak: Wobei letzteres auch nur ein Fantasiepreis ist.
Dazu ist AMD nicht aggressiv genug mit der 9700
Ich tippe drauf das beide Vergleichbar performen sobald RT im Mix ist.
4070S=5070=9700
https://i.ibb.co/4n98RkKc/Screenshot-2025-03-03-18-22-49-099-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/ZptBz9G3)
Hakim
2025-03-03, 18:32:29
Hat es einen Grund warum einige hier statt 9070 immer 9700 schreiben? :)
robbitop
2025-03-03, 18:55:50
Das soll lustig oder clever sein.
w0mbat
2025-03-03, 18:56:05
Dazu ist AMD nicht aggressiv genug mit der 9700
Ich tippe drauf das beide Vergleichbar performen sobald RT im Mix ist.
4070S=5070=9700
Mit 12GB kannst du RT direkt knicken. Klar, solang der VRAM nicht limitiert kann es gut aussehen. Aber selbst in 1440p sollte RT immer öfter ins Speicherlimit rennen. Und ohne RT auch. 12GB passt nur noch zu einer 60er Karte.
Hat es einen Grund warum einige hier statt 9070 immer 9700 schreiben? :)
Schreibt sich schneller.
Hat es so etwas schon einmal gegeben: So ein großes Interesse an einer Midrange-Karte (laut AMD)? Ich kann mich nicht erinnern ...
Wo wir beim Punkt sind: Wie definiert man Midrange/Performance, Highend und Enthusiast überhaupt ein?
Dimon
2025-03-03, 19:03:35
Hat es so etwas schon einmal gegeben: So ein großes Interesse an einer Midrange-Karte (laut AMD)? Ich kann mich nicht erinnern ...
Ist doch ziemlich leicht zu beantworten, Nvidia liefert nix oder nur überteuerten müll :biggrin:
The_Invisible
2025-03-03, 19:07:23
Ist doch ziemlich leicht zu beantworten, Nvidia liefert nix oder nur überteuerten müll :biggrin:
Jaja was in den Forenblasen alles müll ist, die 4060 hat die Steam GPU Charts übernommen, so viel dazu
Ex3cut3r
2025-03-03, 19:09:33
Naja. Wir werden ja bald erfahren, was AMD Karten wirklich offiziell auf die Straße bringen. Mir geht das (hier) alles ein bisschen zu schnell, mit der Performance Einordnung.
Und wenn sich die neuen AMD Karten wie geschnitten Brot verkaufen, wird Nvidia reagieren müssen. Einzig wie gesagt, die Trump Steuer konnte nochmal die "Uno Reverse Card" werden.
Dimon
2025-03-03, 19:16:35
Jaja was in den Forenblasen alles müll ist, die 4060 hat die Steam GPU Charts übernommen, so viel dazu
Ja genau das meinte ich, die neue gen ist soweit unverfügbar, die alte wird soweit abverkauft ...
Wird die RTX 4060 eigentlich noch produziert?
basix
2025-03-03, 19:44:04
Wenn ich AMD wäre, würde ich jetzt ganz schnell "Navi 49" zusammen kleistern. Sechs anstatt vier Shader Engines mit entsprechend mehr L2 cache und einem GDDR7 memory controller. Die 256-bit PHYs bleiben. Dafür 3GB 30Gbps GDDR7 Module.
Damit hätte mal 50% mehr Rohleistung, 50% mehr Speicherbandbreite und 50% mehr VRAM. Der Chip wäre aber nur ca. 30% Größer und dank gleich großem Speicherinterface und sparsameren GDDR7 Modulen würde man, bei etwas niedrigeren Taktraten, wohl ~40% Mehrleistung bei nur ~35-40% mehr Verbrauch rausholen.
Damit wäre man relativ sicher vor einer 4090 und nur ~20% hinter der 5090. Und das mit <500mm² und 256-bit. Und ca. 420W TDP. Man kann ja noch träumen :D
Wieso ein frisches Die? AMD hat +2 SE im N48 Die versteckt und die PHY können bereits GDDR7 ;):D
256bit mit 3GByte Modulen wäre noch interessant, wenn man den Die kompakt halten will. Und das wäre doch einiges kleiner als 500mm2:
- 356mm2
- PCIe, Video etc ca. 40...50mm2
- GDDR6 PHY ca. 50...60mm2
- IF$ ca. 40mm2
Das heisst, es bleiben noch 200...230mm2 übrig. Sagen wir mal 220mm2 und das skaliert linear. Dann landen wir bei 6 SE, 12MB L2$ usw. bei 330mm2. Macht dann irgendwie 460...470mm2 oder so insgesamt. GB203 würde man damit locker schlagen, auch den Super Refresh.
Noch lieber hätte ich aber, dass AMD RDNA5 früh rausbringt und dort 3x Chips released:
- 32 / 64 / 96 CU
- 128 / 256 / 384bit
Alternativ den grössten Chip mit schmalerem SI und dafür etwas schnellerem Speicher. Beispielsweise 320bit und dafür 36 Gbps GDDR7.
nairune
2025-03-03, 20:07:40
Hat es so etwas schon einmal gegeben: So ein großes Interesse an einer Midrange-Karte (laut AMD)? Ich kann mich nicht erinnern ...
Ist doch ziemlich vergleichbar zur 5700 damals? War (auch?) grundsolide und mit gutem P/L sowie P/W-Verhältnis.
Marktanteile waren da glaube ich auch noch höher, mal sehen wie sich das mit der 9070 verhält.
lowkres
2025-03-03, 20:32:00
Ich bin sowas von auf Mittwoch gespannt. Werde sogar auf Arbeit direkt um 15 Uhr in die Pause gehen und erstmal alles schön lesen :biggrin:
Ich werde von einer RX6800 wechseln und wenn ich keine 9070XT bekomme dann eventuell mir eine 9070 holen, wenn mir der Leistungssprung doch gefallen sollte.
Ich frage mich dennoch wie wahrscheinlich es ist, dass UDNA im 2.H 2026 erscheinen könnte? Seht ihr da eventuell eine Chance oder doch erst 2027?:confused:
DrFreaK666
2025-03-03, 21:01:18
... Einzig wie gesagt, die Trump Steuer konnte nochmal die "Uno Reverse Card" werden.
Dadurch werden aber nicht nur AMD-Karten teurer
Shaft
2025-03-03, 21:53:04
Bissl Off Topic, aber wann starten üblicherweise die Händler mit dem Verkauf?
Vermute ab 0 Uhr?
w0mbat
2025-03-03, 22:12:25
Ne, meist 15 Uhr.
Wiseman
2025-03-04, 03:53:45
Besonders gespannt bin ich auf die Performance einer 9070XT in einem Game mit Raytracing.
Kann eine 9070XT (ca. 800€) tatsächlich 'ne 7900XTX in einem Spiel wie Cyberpunk77 mit Preset Raytracing Ultra übertrumpfen? Und wenn ja, um wieviel?
Um diese nervenaufreibende Frage :biggrin: beantworten zu können, testete ich heute unter 25.2.1 mit meiner 7900XTX Cyberpunk77 in folgenden Settings:
7900XTX @max 312W, 4k, Preset Raytracing Ultra, FSR3 Auto + FG: avg 112 fps - min 99 fps
Selbstverständlich werde ich, sobald ich meine 9070XT habe, Cyberpunk77 mit der 9070XT in den gleichen Settings testen und das Testergebnis hier posten.
Und warum wählte ich ausgerechnet Cyberpunk77 für diesen RT-Test aus? Ganz einfach, weil Cyberpunk77 eines der wenigen Spiele mit einem integrierten Benchmark ist und daher für jedermann leicht nachvollziehbar ist.
Hakim
2025-03-04, 04:09:15
Ich denke schon. Bei Cyberpunkt mit RT sollte die 9070XT irgendwo im Bereich 3090TI und 4070Ti S sein, das ist ein Stück langsamer als die 5070Ti aber immer noch Klar schneller als die 79XTX.
DrFreaK666
2025-03-04, 05:27:18
Besonders gespannt bin ich auf die Performance einer 9070XT in einem Game mit Raytracing.
Kann eine 9070XT (ca. 800€) tatsächlich 'ne 7900XTX in einem Spiel wie Cyberpunk77 mit Preset Raytracing Ultra übertrumpfen? Und wenn ja, um wieviel?
Um diese nervenaufreibende Frage :biggrin: beantworten zu können, testete ich heute unter 25.2.1 mit meiner 7900XTX Cyberpunk77 in folgenden Settings:
7900XTX @max 312W, 4k, Preset Raytracing Ultra, FSR3 Auto + FG: avg 112 fps - min 99 fps
Selbstverständlich werde ich, sobald ich meine 9070XT habe, Cyberpunk77 mit der 9070XT in den gleichen Settings testen und das Testergebnis hier posten.
Und warum wählte ich ausgerechnet Cyberpunk77 für diesen RT-Test aus? Ganz einfach, weil Cyberpunk77 eines der wenigen Spiele mit einem integrierten Benchmark ist und daher für jedermann leicht nachvollziehbar ist.
FSR Auto ist doch keine gute Basis um zu testen. Stell FSR auf Q oder B und vergleiche dann.
Niemand testet mit automatischer Auflösungsskalierung
Badesalz
2025-03-04, 06:54:24
@Wieseman
Bin mir eher unsicher, ob RDNA4 mit den Settings eine 4k GPU ist... Aber bereits UWQHD sollte langsam funktionieren.
(Für Zocker, auf leicht gebogenem Panel, sowieso eine viel stärkere Immersion.)
basix
2025-03-04, 07:30:30
FSR Auto ist doch keine gute Basis um zu testen. Stell FSR auf Q oder B und vergleiche dann.
Niemand testet mit automatischer Auflösungsskalierung
In 4K sollte auch FSR4-P gut genug sein :)
Leider ist CP2077 (noch) nicht auf der FSR4 Liste.
robbitop
2025-03-04, 08:09:02
In 4K sollte auch FSR4-P gut genug sein :)
Leider ist CP2077 (noch) nicht auf der FSR4 Liste.
Optiscaler anschmeißen. ^^
E39Driver
2025-03-04, 08:11:34
Wenn ich AMD wäre, würde ich jetzt ganz schnell "Navi 49" zusammen kleistern. Sechs anstatt vier Shader Engines mit entsprechend mehr L2 cache und einem GDDR7 memory controller. Die 256-bit PHYs bleiben. Dafür 3GB 30Gbps GDDR7 Module.
Damit hätte mal 50% mehr Rohleistung, 50% mehr Speicherbandbreite und 50% mehr VRAM. Der Chip wäre aber nur ca. 30% Größer und dank gleich großem Speicherinterface und sparsameren GDDR7 Modulen würde man, bei etwas niedrigeren Taktraten, wohl ~40% Mehrleistung bei nur ~35-40% mehr Verbrauch rausholen.
Damit wäre man relativ sicher vor einer 4090 und nur ~20% hinter der 5090. Und das mit <500mm² und 256-bit. Und ca. 420W TDP. Man kann ja noch träumen :D
Geil wäre es. Aber wohl unrealistisch. Zum einen die Entwicklungszeit. Zum anderen hat die 5080 auch noch ca. 15% Taktpotenzial über. NV könnte damit leicht eine 5080-Super neu auflegen als Konter und würde mit einem vergleichsweise sehr kleinen Chip auf ähnliche Performance kommen.
robbitop
2025-03-04, 08:28:06
IMO: auch wenn es ein "happy accident" war (weil man ja den top dog der auf chiplets basierte gecancelt hat) denke ich ist der Fokus auf das < 700 USD Segment sinnvoll. Da sind die meisten Käufer. 2 GPUs (N44/48) decken eigentlich alles ab - alles darunter dann durch APUs (und halo). Wenn das bedeutet, dass man sich besser fokussieren kann und damit gute midrange Grafikkarten baut: weiter so. :)
Was man zwischen den Zeilen in all den Podcast von den Leuten hört, die das Ding schon getestet haben: sie sind zufrieden mit den Features und der Geschwindigkeit. Und da Nvidia die MSRPs ohnehin nicht senken wird, hat man mit den 600 USD auch einen kompetativen Preis.
Was aber wahrscheinlich passieren wird: wenn sich N48 gut verkauft und zum MSRP auf der Straße ankommt, wird "wie durch ein Wunder" (;)) auf einmal auch die 5070 und die 5070ti doch zum MSRP verfügbar sein.
Badesalz
2025-03-04, 08:36:14
Was aber wahrscheinlich passieren wird: wenn sich N48 gut verkauft und zum MSRP auf der Straße ankommt, wird "wie durch ein Wunder" (;)) auf einmal auch die 5070 und die 5070ti doch zum MSRP verfügbar sein.Eigentlich müsste man auch als NV-Fanboy - wenn nicht gleich Highend-Fanboy - wenigstens diese eine Gen eher AMD kaufen, damit sie es lernen und sich das Blackwell-Scalping nicht so schnell wiederholt.
Das war diesmal wirklich eine ganze Kaskade an Ohrfeigen gegen die komplette Scene :mad: Selbst wenn man das nur zum kleineren Teil NV ankreiden würde und den Großteil den AIBs, ändert das nichts am Zustand.
robbitop
2025-03-04, 08:46:13
"Vote with your wallet" heißt es ja immer. :)
Ich vermute aber, dass da kein Unternehmen langfristig "lernfähig" ist. Sie nutzen die Vorteile, die sich bieten gnadenlos aus. Im Interesse ihrer Investoren. Das würde in einem Markt mit mehr Wettbewerbern niemals passieren. Das Problem ist nicht Nvidia sondern der mangelnde Wettbewerb. Nvidia ist einfach zu stark geworden (was sie sich erarbeitet haben - aber es macht jetzt den Markt mit dem Quasi Monopol kaputt). Schlecht für die Consumer. Wahrscheinlich ist es aus diesem Stand auch kaum noch möglich, das zu drehen - wäre eigentlich Zeit für eine Zerschlagung damit es mehr Wettbewerber gibt. ^^
Ist im Manufacturing ja auch fast so weit - TSMC und dann kommt lange nichts bei leading edge und dann Intel und Samsung.
Mit gesundem Wettbewerb gibt es gute Preise und gute Innovation. Ohne Wettbewerb gab es dieses Mal bei Nvidia nicht mal großartig neue HW. Die Transistorzahl ist kaum gewachsen und die Features sind zu 99% Software - einfach weil es nicht genug Wettbewerb gibt. Klar RDNA4 bringt das ein wenig zurück - aber eine Generation wird das nicht grundlegend ändern schätze ich.
Badesalz
2025-03-04, 08:57:18
TSMC macht schon einiges an Innovationen und die Kosten steigen auch bei denen. Je näher wir praktisch an die theoretischen physikalischen Grenzen kommen, desto mehr. Ich kann das ehrlich gesagt nicht einschätzen, ob die angesichts dessen wirklich überteuer geworden sind oder ob z.B. Samsung mit Querfinanzierung grad versucht bei +-0 Fuß zu fassen. Was dieses Beispiel angeht...
Und andererseits die fortlaufende Idee, Nvidia ist sauteuer und das ist alleine AMDs Schuld, daß ich meine RTX nicht zum vernünftigen P/L bekommen kann, fand ich schon immer bisschen schräg.
Wenn sie noch halbwegs abliefern die Häme, daß sie niemals mehr die Podiumsplätze erreicht, wenn sie nicht abliefern der Ärger, daß die NVs soviel teurer geworden sind.
Das ist schon irgendwie ziemlich Psycho oder? :|
Igel und Hase. Immernoch ;)
AMD kann sich noch steigern. Für NV wirds nun schwieriger beim Gaming. Es gibt einige Walls die man so langsam erreicht und an welche AMD noch nicht angekommen ist. Wäre das nicht so klar absehbar, gäbe es kein DLSS. Knappe 9 Jahre nach 14nm Pascal sind herbeifantasierte Frames nun ein riesen Thema...
edit:
Unabhängig davon, daß ich vom PT Mod für CP77 auf der 4090 geflasht wurde ;) Ich mein obiges also eher wertfrei. Fanboys haben für mich etwas klinisch relevantes an sich.
YeahBuoy!
2025-03-04, 09:02:05
@Robbitop: 4060(Ti) sind laut allseits beliebter Steam Survey der heiße Scheiß, und die gondeln irgendwo um 300 € herum. Bei dem Preisgefüge was mit der 9070 etabliert wird gehe ich davon aus das eine 9060 irgendwo zwischen 400-450 € einschlagen wird damit die Preislabel nicht komplett ausgewürfelt aussehn. Imo wird das nicht zu Polaris-artiger Popularität führen.
@Badesalz: Nachdem ich hier im Forum Zeuge werden durfte wie Fanboys die Schuld für die abfackelnden 12V HPWR Anschlüsse auch AMD mit in die Schuhe schieben wollten, weil Team Rot via PCI SIG an dessen Entwicklung beteiligt war, bin ich mir recht sicher das die eher zu Intel greifen würden als AMD einen Cent hinterher zu werfen.
The_Invisible
2025-03-04, 09:04:18
Eigentlich müsste man auch als NV-Fanboy - wenn nicht gleich Highend-Fanboy - wenigstens diese eine Gen eher AMD kaufen, damit sie es lernen und sich das Blackwell-Scalping nicht so schnell wiederholt.
Das war diesmal wirklich eine ganze Kaskade an Ohrfeigen gegen die komplette Scene :mad: Selbst wenn man das nur zum kleineren Teil NV ankreiden würde und den Großteil den AIBs, ändert das nichts am Zustand.
Klar ich werde von der 4090 downgraden und schlechtere Software Features in Kauf nehmen. Merkwürdiges Statement, beides sind Konzerne die unser Geld wollen, AMD langt bei CPUs auch gut zu, aus Mitleid kaufe ich sicher nicht.
Außerdem komisch das 600$ plötzlich gut für Midrange sind, bei NV wird immer gejammert das "es mal" Highend für 500EUR gab...
Badesalz
2025-03-04, 09:19:22
Klar ich werde von der 4090 downgraden Du brauchst erstmal überhaupt nichts neues. Richtig? Aber ok. Die Offenbarung mit dem Fanboy speichere ich ab :up:
Kann es auch sein, daß du hier im Thread daher, sozuagen, am Thema unbeteiliegt bist? Weil, als Unbeteiliegter treibt das hier deinen Postcount irgendwie überraschend an :|
Hast du etwa Spaß am böse auflaufen so wie manche Spaß am gruseln haben? Musst nur bescheid sagen...
Was spielen wir hier? "So dämlich ist kein Schwein"? Natürlich ging es dabei um vergleichbare Leistungsklasse. Du brauchst nicht von einer 4090 auf eine 9070 gehen. Keine Panik.
@YeahBuoy!
Schon klar. Das war nur ein theoretisches Idealszenario. Daß bei solchen Probanden nicht gleich jede Gehirnzelle ihr volles Potenzial entfaltet, das ist mir natürlich klar. Andererseits sagt man in solchen Fällen aber, daß der andere auch viel richtig machen muss. Sonst würde man ihn einfach ignorieren ;)
DrFreaK666
2025-03-04, 09:30:19
Klar ich werde von der 4090 downgraden und schlechtere Software Features in Kauf nehmen. Merkwürdiges Statement...
Stell dir vor: es gibt langsamere Karten von NV :eek:
robbitop
2025-03-04, 09:38:44
TSMC macht schon einiges an Innovationen und die Kosten steigen auch bei denen. Je näher wir praktisch an die theoretischen physikalischen Grenzen kommen, desto mehr. Ich kann das ehrlich gesagt nicht einschätzen, ob die angesichts dessen wirklich überteuer geworden sind oder ob z.B. Samsung mit Querfinanzierung grad versucht bei +-0 Fuß zu fassen. Was dieses Beispiel angeht...
Man muss sich doch nur die Gewinne anschauen. Ja es wird alles teurer und komplexer. Das ist auch in Ordnung. Aber: die Reingewinne dieser Unternehmen explodieren auch. Und genau das ist der Anteil, den sie durch die Quasimonopole einfahren und sich bereichern und die uns alle abartig viel Geld kosten.
@Robbitop: 4060(Ti) sind laut allseits beliebter Steam Survey der heiße Scheiß, und die gondeln irgendwo um 300 € herum. Bei dem Preisgefüge was mit der 9070 etabliert wird gehe ich davon aus das eine 9060 irgendwo zwischen 400-450 € einschlagen wird damit die Preislabel nicht komplett ausgewürfelt aussehn. Imo wird das nicht zu Polaris-artiger Popularität führen.
Es wird ja noch N44 geben für diesen Preisbereich der 4060.
Badesalz
2025-03-04, 09:41:53
Man muss sich doch nur die Gewinne anschauen. Ja es wird alles teurer und komplexer. Das ist auch in Ordnung. Aber: die Reingewinne dieser Unternehmen explodieren auch.Ok, aber sind "Reingewinne" schon NACH der nächsten Investitionsrunde in R&D?
PS:
Stell dir vor: es gibt langsamere Karten von NV :eek:
Tja...
Das ist schon irgendwie ziemlich Psycho oder? :|
robbitop
2025-03-04, 09:52:41
Ok, aber sind "Reingewinne" schon NACH der nächsten Investitionsrunde in R&D?
Ich meine Nettogewinn - der ist nach Abzug aller Kosten und Rücklagen für Investitionen. Also ja - das ist inkl Investitionen und R&D.
mczak
2025-03-04, 09:54:03
@Robbitop: 4060(Ti) sind laut allseits beliebter Steam Survey der heiße Scheiß, und die gondeln irgendwo um 300 € herum.
Also die 4060Ti kriegt man nicht für 300 Euro, schon bei der 4060 wird das ziemlich knapp.
Bei dem Preisgefüge was mit der 9070 etabliert wird gehe ich davon aus das eine 9060 irgendwo zwischen 400-450 € einschlagen wird damit die Preislabel nicht komplett ausgewürfelt aussehn.
Für die 4060 Ti sind auch mindestens 400 Euro fällig, vermutlich dürfte das bei der 5060 Ti ähnlich sein (die wird dafür immerhin etwas schneller sein).
Keine Ahnung aber was AMD für die N44 Karten verlangen wird, ich vermute aber N44 wird performancemässig ganz knapp nicht an GB206 rankommen und daher natürlich günstiger (heisst die Karte mit dem vollen N44 jetzt 9060)?
Wo bleiben die Karten mit N44 eigentlich? Irgendwie hat man seit die N48 Karten konkreter wurden rein gar nichts mehr davon gehört, die neuesten Gerüchte sprachen ja mal von Verfügbarkeit irgendwann April-Juni.
Imo wird das nicht zu Polaris-artiger Popularität führen.
Ja dafür müssten die Preise wohl wirklich tief sein.
robbitop
2025-03-04, 10:01:38
Naja ich sehe 2 Szenarien zum großen Marktanteil:
1.) Blackwell Straßenpreise bleiben überhöht und RDNA4 kommt in großen Stückzahlen zum MSRP auf die Straße und ist hoch verfügbar (und liefert ab -> gute Reviews)
2.) Blackwell Straßenpreise sinken auf MSRP (weil Szenario 1 eingetreten ist) -> AMD (entweder direkt oder über rebates mit den AIBs oder mit den Distributoren) senkt die Preise auf 500 - 550 USD. Dann bleibt es erfolgreich. Nvidia wird die Preise nicht unter MSRP senken - das haben sie ewig nicht mehr gemacht. Eher bringen sie wie mit der 4080 super ein neues Modell was ein Preiscut ist. Das wird aber ~1 Jahr dauern.
Also muss AMD nur liefern und bereit sein zu reagieren, wenn Nvidia "wie durch ein Wunder" den Supply der 5070/ti wieder ermöglicht und MSRP auf der Straße ankommt.
E39Driver
2025-03-04, 10:07:00
Ich denke NV wird nicht in einen Preiskampf einsteigen bis AMD wieder einen Marktanteil von 20 - 25% erreicht hat. Es gibt überhaupt keinen Grund sich die eigenen Margen kaputt zu machen wenn man jedes Stück Silizium viel Gewinnträchtiger im Profi-Bereich verkaufen kann und Gaming eh nur noch ein Randgebiet ist. Wäre also jetzt die Chance für AMD, vorausgesetzt der Preisabstand stimmt und die hergestellten Mengen sind ausreichend groß.
robbitop
2025-03-04, 10:15:12
Ich meine Nettogewinn - der ist nach Abzug aller Kosten und Rücklagen für Investitionen. Also ja - das ist inkl Investitionen und R&D.
Hier mal die Nettogewinne für Nvidia, AMD und TSMC der letzten 10 Jahre (keine Garantie für Richtigkeit - hat mir Copilot ausgespuckt):
Nvidia
2025: $72.88B
2024: $29.76B
2023: $4.368B
2022: $9.752B
2021: $4.332B
2020: $2.796B
2019: $4.141B
2018: $3.047B
2017: $1.666B
2016: $614M1
AMD
2024: $1.641B
2023: $854M
2022: $1.32B
2021: $3.162B
2020: $2.49B
2019: $341M
2018: $337M
2017: -$33M
2016: -$498M
2015: -$660M2
TSMC
2024: $33.324B
2023: $27.817B
2022: $32.311B
2021: $21.354B
2020: $18.189B
2019: $11.834B
2018: $11.861B
2017: $11.64B
2016: $10.238B
2015: $9.657B3
Man sieht sehr klar, dass die Reingewinne nach oben geschossen sind. Insbesondere bei TSMC und Nvidia. Da ist viel AI drin aber auch Consumerproducts.
Deshalb stimmt das Argument, dass alles komplexer und teurer wird zumindest nicht alleinig. Es ist ein Teil davon - aber es erscheint mir der kleinere Teil zu sein. Es ist ein immer stärker wachsendes Monopol was immer mehr abschöpft und der Kunde bezahlt.
Also kann man für den GPU Markt nur hoffen, dass RDNA4 den Wettbewerb zurück bringt. Und mehr als schade, dass Intel genau dann das Geld ausgeht, wo deren GPU uArch wirklich brauchbar wird.
dildo4u
2025-03-04, 10:20:57
Mit 12GB kannst du RT direkt knicken. Klar, solang der VRAM nicht limitiert kann es gut aussehen. Aber selbst in 1440p sollte RT immer öfter ins Speicherlimit rennen. Und ohne RT auch. 12GB passt nur noch zu einer 60er Karte.
Kommt auf die Engine an Nvidia ist extrem gut was Vram Verwaltung angeht.
Spiderman 2 renn ok mit 12GB mal sehen ob die 16GB AMD hier was bringen.
Interessanterer weise kann sich die 16GB 4070 TI nicht absetzen +25% zu 4070S egal ob Raster oder RT.
https://i.ibb.co/gMJ0YxN6/Screenshot-2025-03-04-101849.png (https://ibb.co/MD7zdmr9)
https://www.computerbase.de/artikel/gaming/spider-man-2-benchmark-test.91345/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd_mit_raytracing
Badesalz
2025-03-04, 10:22:51
Ja. Stimmt schon. Ich sehe bei TSMC aber nur zwei "insbesondere" Sprünge. Das war 2019/2020 und 2021/2022. 2024 ist man da wo man 2022 war (+ Inflation).
robbitop
2025-03-04, 10:29:40
Die haben ihren Reingewinn in den letzten 10 Jahren verdreifacht. Das ist nicht annährend so krass wie bei Nvidia - aber auch nicht ohne. Da wird schon auch ordentlich abgeschöpft.
madzapp
2025-03-04, 10:44:59
Gab doch eine zeitlang die Meldungen, dass TSMC die Preise hebt weil es ihnen zu blöd ist, dass NV so viel Kohle mit ihren Wafern macht.
Werden AMD und die anderen eben in Mitleidenschaft gezogen.
Wenn AMD im Graka-Markt ordentlich liefern will und bei NV alles in AI geht, gibt es höhere Nachfrage und Preise.
Mangel76
2025-03-04, 10:44:59
Der Gewinn alleine sagt nicht viel aus, man muss auch die Mengenentwicklung einbeziehen. Wenn man doppelt so viele Produkte zum gleichen Preis verkauft, hat man den Gewinn vielleicht auch verdoppelt, ohne an den Preisen etwas zu ändern. Man kann aber auch die gleiche Menge zum doppelten Preis verkaufen.
davidzo
2025-03-04, 11:03:41
Also kann man für den GPU Markt nur hoffen, dass RDNA4 den Wettbewerb zurück bringt. Und mehr als schade, dass Intel genau dann das Geld ausgeht, wo deren GPU uArch wirklich brauchbar wird.
Das Ungleichgewicht ist zwar enorm, aber weniger groß als die Gewinnzahlen es erscheinen lassen. Bei der Mitarbeiterzahl herrscht fast Gleichstand zwischen AMD und Nvidia. Das dürfte auch ungefähr widerspiegeln wie es um R&D Ausgaben bestellt ist. AMD hat die letzten 3 Jahre trotz guter Verkäufe eher niedrige Gewinne da man die Gewinne zum großen Teil re-investiert. Lisa weiß dass AMD gerade in einer einmaligen Position ist große Marktanteile zu erobern und massiv zu wachsen, aber gleichzeitig auch verwundbar wenn man das nicht tut.
Mal sehen ob Lisa immer weiterhin alles auf die AI Karte setzt oder langsam klar ist dass die Spitze des Hypes bald erreicht ist und man an der trailing Edge kaum Geld mehr verdienen kann während die anderen Märkte in denen AMD aktiv ist weiterhin solide Umsätze liefern können.
In der Vergangenheit hat AMD trotz aller Konzentration auf kritische Märkte sich trotzdem mit ambitionierten Experimenten in den anderen Bereichen diversifiziert. Mitten in der kritischen ZEN bringup phase kam mit Fiji die größte AMD GPU ever heraus, noch dazu mit sündhaft teurem experimentellen Packaging. Und das lange bevor nvidia das Wort HBM oder Interposer überhaupt in den Mund genommen hat.
Fiji, Vega, Vega20, Navi21 waren sicher keine günstigen Entwicklungsprojekte. Der Erfolg war zwar eher mäßig, aber auch wei die Konsistenz in der Architekturentwicklung fehlte die bei nvidia vorhanden ist. Trotzdem zeigen Navi10 und N21 dass auch ein kleineres Team an Ingenieuren Imstande ist konkurrenzfähige und trendsetzende Architekturen zu bauen. 128MB on-DIE sram war ein extrem mutiges Experiment das auch nach hinten hätte losgehen können. Stattdessen hat es nvidia voll erwischt und sie haben das in die nächste eigene Architektur übernommen.
Ich denke dass es bei UDNA erneut so einen mutigen experimentellen Move geben wird. Das passiert bei AMD in steter Regelmäßigkeit. Ich drücke die Daumen dass es eher ein N21-Moment ist und kein Vega20 oder N31 Moment.
dargo
2025-03-04, 11:10:12
Nur noch knapp 28 Stunden bis die Tests der custom Kühllösungen eintrudeln. Irgendwie freue ich mich drauf. =) Besonders auf CB da die mit einem praxisrelevanten Aufbau testen. (y)
DrFreaK666
2025-03-04, 11:45:16
Ich will Vorbestellungen
Nur noch knapp 28 Stunden bis die Tests der custom Kühllösungen eintrudeln. Irgendwie freue ich mich drauf. =) Besonders auf CB da die mit einem praxisrelevanten Aufbau testen. (y)
Praxisrelevant, wenn du exakt diese Konfiguration hast. Andere Hardware drumherum, andere Lüfter, andere Ergebnisse. ;) Das ist noch eine von diesen ewigen Diskussionen neben "640 KiB reichen für alles" und "Warum testet ihr CPUs in Tetris-Auflösungen?".
MfG
Raff
dargo
2025-03-04, 11:52:40
Praxisrelevant, wenn du exakt diese Konfiguration hast. Andere Hardware drumherum, andere Lüfter, andere Ergebnisse. ;)
Breaking News.
Was möchtest du mir damit sagen, dass euer offener Aufbau näher an der Praxis ist? :freak:
YeahBuoy!
2025-03-04, 11:52:55
Der Gewinn alleine sagt nicht viel aus, man muss auch die Mengenentwicklung einbeziehen. Wenn man doppelt so viele Produkte zum gleichen Preis verkauft, hat man den Gewinn vielleicht auch verdoppelt, ohne an den Preisen etwas zu ändern. Man kann aber auch die gleiche Menge zum doppelten Preis verkaufen.
Das ist grundsätzlich richtig, aber wenn du mehr oder weniger alles absetzen kannst was du produzierst, ergo in der AI Sparte, und die Waferkapazitäten zum Engpass werden dann optimiert NV eben die Margen (macht AMD in dessen Rahmen ja genauso, aber hier schiebt man die Gewichtung zwischen GPU und CPU Sparte hin und her).
Wenn man nicht gerade Intel heißt und neue Produkte erstmal als Invest sieht um Fuß zu fassen in einem frischen Geschäftsbereich, und grob 300 € GPUs mit 12 GB VRAM die in 5nm gefertigt werden sprechen hier dafür, macht es für die großen imo aus den oben genannten Gründen keinen Sinn irgendwelche "Volks" GPUs auf den Markt zu bringen.
denjudge
2025-03-04, 11:59:47
Nur noch knapp 28 Stunden bis die Tests der custom Kühllösungen eintrudeln. Irgendwie freue ich mich drauf. =) Besonders auf CB da die mit einem praxisrelevanten Aufbau testen. (y)
Leider haben deren Benchmarks noch nie was getaugt. Und das soll kein Bashing sein, sondern ist schlicht meine persönliche Erfahrung über die Jahre. Dennoch finde ich die Karten auch viel interessanter als die komplette 5000er Serie von Nvidia.
Badesalz
2025-03-04, 12:04:23
@denjudge
Weil?
"Was du machst taugt nichts, weil isso" wird natürlich keiner als Bashing empfinden. Schon ok.
Praxisrelevant, wenn du exakt diese Konfiguration hast. Andere Hardware drumherum, andere Lüfter, andere Ergebnisse. ;) Das ist noch eine von diesen ewigen Diskussionen neben "640 KiB reichen für alles" und "Warum testet ihr CPUs in Tetris-Auflösungen?"Wenn, müsste man sich die Arbeit doppelt machen :ulol:
Denn nach so einem Test würde man gerne wissen was es einem bringen könnte. In etwa, wenigstens. Stattdessen aber sucht man dann die eigene bzw. sehr ähnliche HW in der Liste und versucht jene Ergebnisse auf die eigenen interpolieren und dann die der interessanten HW auch irgendwie auf die eigene Umgebung interpolieren... Das ist schon extrem ungenau :wink:
Am Ende wartet man die äh... die Berichte der Nerds :usweet: in den Foren ab, welche das Teil in ihrem wohlbeschriebenen Gehäuse fahren. Am Ende gewinnt ein Forum also immer.
Ich kanns aber auch verstehen. Wenn man das in irgendeinem realen Aufbau, realen Auflösungen und realen Settings testen würde, wären die Balkenspiele dermaßen unspektakulär, daß man sich langsam Sorgen um die PC-Branche machen würde...
Oder man müsste die Achsen wieder mit altbekannten visuellen Tricks skalieren.
edit @YeahBuoy!
Auch Intel bepreist die Teile halbwegs passen zu Leistung. Nicht zu den Kosten. Kann man natürlich auslegen wie man grad lustig ist, aber das liestsich so, als wenn sie die Dinge erstmal für Marktanteile unter dem Leistungswert verkaufen würden. Das sehe ich nicht so.
dargo
2025-03-04, 12:04:49
Leider haben deren Benchmarks noch nie was getaugt.
Da bin ich anderer Meinung. Aber Benchmarks sind mir eh wayne bzw. nur ein Nebenschauplatz. Hauptsächlich interessiert mich die Kühlerperformance zwecks Kaufentscheidung.
Am Ende gewinnt ein Forum also immer.
Polemik ausgeklammert: Kann man so sehen. Man muss aber immer erst die Baseline, die Grundhürde, die Referenz definieren, um davon ausgehend Vergleiche ziehen zu können. Das Eine kann ohne das Andere nicht. :)
Timestamp 46:09 bis inklusive Ende: https://www.youtube.com/watch?v=sBIvqovn3jg&t=2769s
MfG
Raff
Hakim
2025-03-04, 12:16:47
Der größte Teil der Leute die Reviews lesen oder schauen machen sich nicht so viele Gedanken darüber. Nur so Bubbles wie hier im Forum evtl.
G3cko
2025-03-04, 12:23:29
Wann dürfen die Hersteller ihr Wasserkühler präsentieren?
DrFreaK666
2025-03-04, 12:26:10
Ich finde man sollte immer noch zusätzlich mit einer Midrange-Lösung benchen, damit so Späße wie bei der B580 auffallen
Hakim
2025-03-04, 12:30:05
Ich glaube Wasserkühler dürfte in dem Preis Bereich auch eine Nische sein. Meistens wird es ja für eher die teueren Top Dogs gemacht. Aber kann es nicht genau beurteilen
Polemik ausgeklammert: Kann man so sehen. Man muss aber immer erst die Baseline, die Grundhürde, die Referenz definieren, um davon ausgehend Vergleiche ziehen zu können. Das Eine kann ohne das Andere nicht. :)
Timestamp 46:09 bis inklusive Ende: https://www.youtube.com/watch?v=sBIvqovn3jg&t=2769s
MfG
Raff
Mir gefallen z.B. eure Benchmarks, aber eure Website /Artikel-Seite find ich schrecklich. Bei CB sieht alles "cleaner" aus und gefühlt weniger Werbung imo. Daher ist meine erste Anlaufstelle immer Computerbase. Sieht auch aufm Handy super leserlich aus.
Zossel
2025-03-04, 12:49:49
Mir gefallen z.B. eure Benchmarks, aber eure Website /Artikel-Seite find ich schrecklich. Bei CB sieht alles "cleaner" aus und gefühlt weniger Werbung imo. Daher ist meine erste Anlaufstelle immer Computerbase. Sieht auch aufm Handy super leserlich aus.
Nimm den Lesemodus im Browser, dann kann man das noch besser lesen.
G3cko
2025-03-04, 12:51:20
Ich glaube Wasserkühler dürfte in dem Preis Bereich auch eine Nische sein. Meistens wird es ja für eher die teueren Top Dogs gemacht. Aber kann es nicht genau beurteilen
Früher gab es auch für Mittelklasse -Karten Kühler. Ich find's aber lächerlich, dass eine 700-800€ Karte Mittelklasse sein soll. Problem wird sein, dass es kein Referenzdesign mehr gibt und die Hersteller eigene AiO Lösungen verkaufen, also gar kein Interesse an alternativen Kühllösungen besteht.
DrFreaK666
2025-03-04, 12:51:33
...Daher ist meine erste Anlaufstelle immer Computerbase. Sieht auch aufm Handy super leserlich aus.
Ist tatsächlich wirklich so. Bei PCGH hilft der Brave-Browser aber ungemein
Dural
2025-03-04, 12:59:25
Jep die Tests sind bei PCGH eigentlich besser... aber die Webseite ist eine Vollkatastrophe und man hat null Überblick und findet nichts.
Genau da schlägt dann CB zu, man finde alles sehr schnell.
Und das ist gefühlt seit es die beiden Webseiten gibt so, scheint PCGH aber nicht gross zu kümmern.
madzapp
2025-03-04, 12:59:35
Ich find's aber lächerlich, dass eine 700-800€ Karte Mittelklasse sein soll.
Wenn man die Klassen am Preis festmachen will muss man aber Ultra und Uber Ultra Enthusiast usw. einführen.
Relex
2025-03-04, 13:03:19
Mir gefallen z.B. eure Benchmarks, aber eure Website /Artikel-Seite find ich schrecklich. Bei CB sieht alles "cleaner" aus und gefühlt weniger Werbung imo. Daher ist meine erste Anlaufstelle immer Computerbase. Sieht auch aufm Handy super leserlich aus.
Größter Unterschied in der Usability ist auch die Performance. Während ich bei PCGH immer 1-2 Sekunden warten muss, bis die neue Seite nach einem Klick da ist, geht das bei CB nahezu instant und fühlt sich fast wie ne native Desktop Anwendung an.
Auch die Schriftgröße ist Mobile etwas zu groß und es gibt zu viele Unterbrechungen des Textes mit Kaufberatung oder ähnlichem. Die Seite wirkt dadurch deutlich unruhiger und weniger aufgeräumt.
Aber das sind ja alles Dinge auf die Raff und co. kaum oder gar keinen Einfluss haben. Ist halt auch nicht ihr Job und ein bisschen Geschmackssache ist es natürlich auch.
Man muss aber auch bedenken, dass CB irsinnig viel an der Seite optimiert. Die sind was das angeht immer ganz ganz vorne mit dabei. Daher ist der Vergleich auch etwas unfair.
PCGH_Thilo
2025-03-04, 13:06:43
Jep die Tests sind bei PCGH eigentlich besser... aber die Webseite ist eine Vollkatastrophe und man hat null Überblick und findet nichts.
Genau da schlägt dann CB zu, man finde alles sehr schnell.
Und das ist gefühlt seit es die beiden Webseiten gibt so, scheint PCGH aber nicht gross zu kümmern.
Hallo Dural, da ich mich zufällig hier hin verirrt habe und es um "meine" Webseite geht. Was genau meinst Du denn mit "Null Überblick", Vollkatastrophe und "findet nichts"? Würde gerne etwas Konkretes für mich ableiten, aber das bietet mir zu wenig Ansätze. Gerne auch per PN, wenn Du magst.
VG Thilo
Matrix316
2025-03-04, 13:07:18
Wenn man die Klassen am Preis festmachen will muss man aber Ultra und Uber Ultra Enthusiast usw. einführen.
Sollte man, oder? :D
Wobei ich nicht ganz verstehe, warum das bei Grafikkarten so eskaliert ist. CPUs sind sogar gefühlt billiger geworden. Der Ryzen 1700X hatte zum Beispiel damals am Anfang über 400 Euro gekostet. Heute kriegt man den 9700X für 100 weniger. Bei Grafikkarten kosten alle Klassen von damals gefühlt das doppelt und dreifache...
The_Invisible
2025-03-04, 13:09:32
Tipp: Man kann auch ein paar EUR einzahlen und ist die Werbung los, Raff & Co leben auch nicht von Benchmark zahlen ;-)
Tipp: Man kann auch ein paar EUR einzahlen und ist die Werbung los, Raff & Co leben auch nicht von Benchmark zahlen ;-)
Danke, dass du das so offen sagst. Ist wahr und die Lösung (okay, die Suche wird nicht besser [-> Google], aber alles andere). =) :up:
MfG
Raff
Matrix316
2025-03-04, 13:12:05
Tipp: Man kann auch ein paar EUR einzahlen und ist die Werbung los, Raff & Co leben auch nicht von Benchmark zahlen ;-)
Ich les einfach das Heft. :) Auch wenn die Schrift manchmal etwas klein ist. ;)
denjudge
2025-03-04, 13:14:02
@denjudge
Weil?
"Was du machst taugt nichts, weil isso" wird natürlich keiner als Bashing empfinden. Schon ok.
Du hast recht, ohne Begründung ist es natürlich Bashing. Hätte das lassen sollen. Ich kann dir aber sagen, dass ich über die letzten Jahrzehnte mit meiner Hardware zum Teil absurde Abweichungen von den CB Werten hatte. Und zwar regelmäßig. Ganz im Gegenteil zu den Werten der PCGH
Aber das Fass würde ich gerne wieder schließen wenn möglich.
Eigentlich wollte ich nur Dargo bezüglich der Praxisnähe wiedersprechen.
Hakim
2025-03-04, 13:15:40
Die haben es halt geschafft das die billigeren Karten sich nicht so richtig lohnen. Gefühlt bekommt man nur so 10% jede gen für die selbe Reihe dazu, z.B 3060ti zu 4060Ti und mein Gefühl sagt mir das sich die 5060ti auch nicht viel absetzen wird. Aber die fetten Karten bekommen halt eher die Performance Gewinne. Früher hatte man für 300-450€ noch ordentlich was dazu bekommen bei einer neuen Gen
wandermann
2025-03-04, 13:25:38
Die haben ihren Reingewinn in den letzten 10 Jahren verdreifacht. Das ist nicht annährend so krass wie bei Nvidia - aber auch nicht ohne. Da wird schon auch ordentlich abgeschöpft.Das stimmt definitiv. Vor allem wenn man bedenkt, dass am Ende ASML, TSMC und Nvidia sich alle eine dicke Marge gönnen und draufschlagen. Der Endkunde bezahlt am Ende sehr viel Margen für alle Firmen bis das Produkt bei ihm landet und deshalb sind die Chips heute von der Fläche so klein und werden endlos von der TDP hochgeprügelt (was dem Kunden auch noch Geld kostet).
Der Produktions-Fortschritt kommt derzeit kaum an, weil die Marge mit jeder Generation angehoben wird und der Gewinn der neuen Produktion bei den Eigentümern der Firmen landet.
madzapp
2025-03-04, 13:29:22
Sollte man, oder? :D
Wobei ich nicht ganz verstehe, warum das bei Grafikkarten so eskaliert ist.
Grafikkarten (Consumer) werden vom Gesamtmarkt einen immer geringeren Anteil ausmachen. Viele benutzen die Hardware die da ist, z.B. Handy, Tablet und schauen was da geht.
Hakim
2025-03-04, 13:45:47
AMD hat ja die neue Techdemo Toyshop video veröffentlicht wo es um PT und Neural Rendering geht. Aber irgendwie sieht es leider nicht so beeindruckend aus mMn.
DrFreaK666
2025-03-04, 13:48:53
Wichtig ist, wie es in Games aussieht.
AMD hätte sich eher ein Game aussuchen sollen, statt ne Tech-Demo zu basteln
madzapp
2025-03-04, 13:50:28
AMD hat ja die neue Techdemo Toyshop video veröffentlicht wo es um PT und Neural Rendering geht. Aber irgendwie sieht es leider nicht so beeindruckend aus mMn.
Einfach stur auf PT achten und den rest ausblenden.
AMD hat ja die neue Techdemo Toyshop video veröffentlicht wo es um PT und Neural Rendering geht. Aber irgendwie sieht es leider nicht so beeindruckend aus mMn.
Am Ende ist Navi 48 eine GPU mit ~50 TFLOPS FP32-Leistung. Wenn eine RTX 5090 mit mehr als der doppelten theoretischen Leistung struggled, ist der Ausgang klar.
Hier übrigens das Video:
p0vLil19mBs
MfG
Raff
Prinzenrolle
2025-03-04, 13:51:23
Jep die Tests sind bei PCGH eigentlich besser... aber die Webseite ist eine Vollkatastrophe und man hat null Überblick und findet nichts.
Will man einen bestimmten Test zu einer bestimmten GPU oder CPU finden, dann findet man: Nix. Unter der Rubrik Tests sind die letzten Tests zu finden, auch Specials und Co.
Im Test-Archiv kann man als Thema nur Hardware wählen und ist völlig verloren.:confused:
Bei Computerbase braucht es 3 Klicks bzw. man kann nach der GPU bei Tests suchen.
Der Reiter Tests ist auch noch ganz rechts, fast versteckt, der Header folgt nicht beim Scrollen. Man muss wieder nach oben scrollen.
Hallo Dural, da ich mich zufällig hier hin verirrt habe und es um "meine" Webseite geht.
Das sind nur die Basics die er meint und die stimmen nicht.:frown: Aber OT hier.
PCGH_Thilo
2025-03-04, 13:55:42
Will man einen bestimmten Test zu einer bestimmten GPU oder CPU finden, dann findet man: Nix. Unter der Rubrik Tests sind die letzten Tests zu finden, auch Specials und Co.
Im Test-Archiv kann man als Thema nur Hardware wählen und ist völlig verloren.:confused:
Bei Computerbase braucht es 3 Klicks bzw. man kann nach der GPU bei Tests suchen.
Danke, das sind gute Hinweise, auf deren Basis wir dann auch Verbesserungen mit unserer Web-IT besprechen können.
Für GPUs und CPUs haben wir auch eine eigene Testübersicht gebaut, hier kann man sicher weiter optimieren
https://www.pcgameshardware.de/Grafikkarten_Testuebersicht/
https://www.pcgameshardware.de/CPU_Testuebersicht/
YeahBuoy!
2025-03-04, 14:00:53
@Wandermann: Da könnte gut was dran sein, aber da sind ja die letzten grob 9-10 Jahre noch ein paar Entwicklungen mehr passiert:
- GF hat sich ca. 2018 aus dem Node Rennen ausgeklinkt
- Intel kam nicht mit der 10 nm Fertigung aus dem Knick
- Wir hatten in dem Zeitraum zwei massive Cryptohypes wo auf jedem Taschenrechner gemint wurde
- Corona & Lockdown GPU Boom
- Nachholeffekte / Bunkern / Supplychainwhiplash der die Lieferketten ziemlich ans Limit gepusht hat
- AI Boom
Mal abgesehen von 2020/2021 war in der Zeit kein richtiges Krisenjahr für die Wirtschaft dabei was die Nachfrage nach Chips hätte abwürgen können. Natürlich vergolden sich dann alle die hier relevante Wirtschaftsgüter herstellen den Dödel, zumal diejenigen die Top Nodes anbieten können. Sieht man auch ganz gut an den Marktanteilen bei den Foundries (https://www.statista.com/statistics/867223/worldwide-semiconductor-foundries-by-market-share/), allein TSMC hat seit 2019 16% Marktanteil dazu gewonnen. Dazu kommt ja auch der krasse Invest den die Foundries tätigen müssen und der bei ASML die Kassen klingeln läßt. Wobei das ja auch nur Teil der Wahrheit ist, da die Heerscharen an Ingenieuren und anderen Fachkräften auch nicht für Peanuts zu haben sein werden.
Auf dem aktuellen Pfad werden GPUs alsbald zu teuer sein wenn wir nicht Gamerzulagen vom Arbeitgeber erhalten, ich meine 650-700 € für eine Midrangekarte wie die 9070 mit und ohne XT sind schon eine Hausnummer, und vom Bauchgefühl reicht eine mittelgroße Wirtschaftskrise die länge als 1 Jahr andauert um den Markt sehr unsanft zum bremsen zu zwingen.
DrFreaK666
2025-03-04, 14:10:22
AMD Radeon RX 9070 XT Custom Model Reportedly Suffers From High VRAM Temperatures; Memory Can Hit Over 90°C
https://wccftech.com/amd-radeon-rx-9070-xt-custom-model-suffers-from-high-vram-temperatures/
Das hört sich nicht so "cool" an
dildo4u
2025-03-04, 14:16:13
Kann sein das die Chips keine Probleme mit solchen Temps haben zum Vergleich 7800XT.
https://i.ibb.co/Zp3HgvsF/01-Temperatures-GPU-Memory-2.png (https://ibb.co/FL9sYcvy)
https://www.igorslab.de/radeon-rx-7800xtx-und-rx-7700xt-im-test-vier-karten-gegen-nvidia-zwischen-echter-vernunft-und-energetischer-brechstange/12/
Dafür ist #BEZUG! schön kalt. :biggrin:
Man muss Äxl einfach lieben. Nicht.
MfG
Raff
Complicated
2025-03-04, 14:19:09
Wahrscheinlich Auslesefehler des Tools (die erste 9070 wird ja auch falsch identifiziert). Wenn nicht, ist es eher ein Problem des Kühlerdesign des AiB. Tests werden das zeigen.
madzapp
2025-03-04, 14:19:10
Wird morgen bei den Tests interessant. Ausreisser, Bug oder Mangelexemplar, schlechtes Design?
G3cko
2025-03-04, 14:20:06
Wenn man die Klassen am Preis festmachen will muss man aber Ultra und Uber Ultra Enthusiast usw. einführen.
Ich würde die Klassen auch an der Chipfläche festmachen, aber es kommen noch andere Faktoren dazu. ZB ob man am Anfang oder am Ende eines neuen Fertigungsprozesses steht.
Man hat jahrelang popelige QuadCores zu HighEnd umgelabelt. Von der Chipfläche schon lange Kategorie Celeron.
Der Preis spielt also schon eine wichtige Rolle. Was bringt es ein Produkt als Midrange zu kategorisieren, wenn dann doch nur ein Bruchteil der Käufer zugreift, weil schlicht zu teuer.
AffenJack
2025-03-04, 14:22:23
Sollte man, oder? :D
Wobei ich nicht ganz verstehe, warum das bei Grafikkarten so eskaliert ist. CPUs sind sogar gefühlt billiger geworden. Der Ryzen 1700X hatte zum Beispiel damals am Anfang über 400 Euro gekostet. Heute kriegt man den 9700X für 100 weniger. Bei Grafikkarten kosten alle Klassen von damals gefühlt das doppelt und dreifache...
Weil CPUs spottbillig zu produzieren sind. Ne CPU kostetete früher 10$ zu produzieren und du hast trotzdem 400€ bezahlt und niemand hat sich über Margen aufgeregt. Jetzt sind es halt 30-50$, die Marge ist immernoch da.
Bei GPUs ist hängt da viel mehr dran und ne GPU hat zig mal mehr Silizium als CPUs. GPUs sind eher von 50$ Produktionskosten auf 150-250$ oder sogar mehr gestiegen.
madzapp
2025-03-04, 14:25:29
Ich würde die Klassen auch an der Chipfläche festmachen, aber es kommen noch andere Faktoren dazu. ZB ob man am Anfang oder am Ende eines neuen Fertigungsprozesses steht.
Man hat jahrelang popelige QuadCores zu HighEnd umgelabelt. Von der Chipfläche schon lange Kategorie Celeron.
Der Preis spielt also schon eine wichtige Rolle. Was bringt es ein Produkt als Midrange zu kategorisieren, wenn dann doch nur ein Bruchteil der Käufer zugreift, weil schlicht zu teuer.
Für mich wird das durch des Umfeld bestimmt. Wenn die Karten, im Grossen und Ganzen, 8-32GB haben, 200-2000€ kosten... sind 9070xt und 5070ti schon eher unteres Mittelfeld. ;)
Der_Korken
2025-03-04, 14:27:29
https://wccftech.com/amd-radeon-rx-9070-xt-custom-model-suffers-from-high-vram-temperatures/
Das hört sich nicht so "cool" an
Was ist das überhaupt für ein Workload, der bei 330W zu einem durchschnittlichen GPU-Takt von 2028Mhz führt? Furmark mit MSAA?
Edit: Ach steht doch sogar da. Naja, erstmal abwarten, was die Reviews in Spielelast sagen. Schlechte Tempverteilung ist ja auch eine Frage des Kühlerdesigns.
Das muss Furmark sein.
MfG
Raff
Hakim
2025-03-04, 14:30:55
Laut Steam meist verkauften Karten 60er und 60ti, glaube außer denen noch zwei 70er in den Top 10. Die meist verkauften Karten sind um den 300-500€ Bereich wie es ausschaut. Und gerade da bietet man den Leuten kaum Performance Gewinn jede neue Gen in letzter Zeit.
G3cko
2025-03-04, 14:35:27
Für mich wird das durch des Umfeld bestimmt. Wenn die Karten, im Grossen und Ganzen, 8-32GB haben, 200-2000€ kosten... sind 9070xt und 5070ti schon eher unteres Mittelfeld. ;)
Also wenn Bugatti eine neue Karre mit 5000PS für 100Mio auf den Markt bringt, dann biste du plötzlich mit deinem Porsche 911 GTS nur noch ein armes Würstchen, das Midrange fährt. Quasi kurz vor Bürgergeld. So in etwa?
madzapp
2025-03-04, 14:35:45
Laut Steam meist verkauften Karten 60er und 60ti, glaube außer denen noch zwei 70er in den Top 10. Die meist verkauften Karten sind um den 300-500€ Bereich wie es ausschaut. Und gerade da bietet man den Leuten kaum Performance Gewinn jede neue Gen in letzter Zeit.
Mag schon sein, aber da sind wir auch wieder beim Thema "20 Accountes pro Karte im Asiatischen Internetkaffee". Das verzerrt einiges.
@G3cko Ja, jeder der keinen Bugatti fährt ist PKW-Unterrasse. So wie bei 5090 und Karten darunter.
Gipsel
2025-03-04, 14:55:05
https://wccftech.com/amd-radeon-rx-9070-xt-custom-model-suffers-from-high-vram-temperatures/
Das hört sich nicht so "cool" an
Wahrscheinlich Auslesefehler des Tools (die erste 9070 wird ja auch falsch identifiziert). Wenn nicht, ist es eher ein Problem des Kühlerdesign des AiB. Tests werden das zeigen.Es gibt mehrere Custom Designs sowohl mit nV- und AMD-GPUs, bei denen der Hersteller das Kühlerdesign nicht gerade optimal für guten Kontakt mit den Speicherchips ausgelegt hat. Über 90°C Speichertemperatur ist leider nicht völlig ungewöhnlich für schlecht designte Kühler. Und die Temperaturen werden schon echt sein, Gamers Nexus (oder war es wer anders?) hat da in der Vergangenheit in mehreren Tests (anderer GraKas natürlich) solche Temps auch per externer Temperaturdiode bestätigen können.
woodsdog
2025-03-04, 16:25:55
Mag schon sein, aber da sind wir auch wieder beim Thema "20 Accountes pro Karte im Asiatischen Internetkaffee". Das verzerrt einiges.
Steam wird doch garantiert die Hardware/das System fingerprinten... Da wird sicherlich keine GPU 20 Mal pro Woche gezählt.
madzapp
2025-03-04, 16:30:19
Steam wird doch garantiert die Hardware/das System fingerprinten... Da wird sicherlich keine GPU 20 Mal pro Woche gezählt.
Aussagen zu dem Thema werden immer in diese Richtung getroffen, also nach Account, dass es um tatsächliche Hardware geht habe ich von noch keinem gehört.
Auch nichts mitbekommen, dass Steam das dementiert hätte.
reaperrr
2025-03-04, 16:41:38
Wobei ich nicht ganz verstehe, warum das bei Grafikkarten so eskaliert ist.
Ist es im Grunde gar nicht.
Geforce 2 und Geforce 3 sind damals auch zu $499 MSRPs rausgekommen, und das waren 88mm2 in 180nm und 128mm2 in 150nm.
Man kann nur erahnen, was für eine prozentuale Marge die gehabt haben müssen.
Ja, die waren damals auch "HighEnd", aber bzgl. Preisen muss man eigentlich schon berücksichtigen, dass N48 4x so groß ist, in einem pro Wafer wahrscheinlich 5x (oder noch mehr) so teuren Prozess produziert wird usw., von den massiv gestiegenen R&D-Kosten mal ganz abgesehen.
Was heute "fehlt", sind die zwischenzeitlichen exzessiven Preiskämpfe früherer Jahre, als manche GPUs regelrecht verramscht wurden.
Aber gemessen an den Chipflächen gab es "zu teure" GPUs die letzten 15 Jahre eigentlich nur sporadisch von Nvidia.
Es läuft also immer wieder auf die selbe Antwort hinaus:
Die Fortschritte bei der Prozesstechnologie werden immer langsamer/kleiner und immer teurer, die Kosten je Transistor steigen eher, und die Chip-Schmieden müssen das teilweise an die Endkunden weitergeben, damit sich die R&D überhaupt weiter lohnt, jedenfalls auf Desktop bezogen.
Dass NV ihren Markenvorteil und Marktanteil dann ausnutzen, um noch ne Stange mehr zu nehmen, ist dann so.
Aber AMD nimmt im Grunde im Großen und Ganzen schon so wenig wie sie können, ohne dass es aufhört sich zu lohnen.
Soll nicht heißen, dass die Marge von 9070/XT für sich betrachtet schlecht ist, sondern dass das Verhältnis von Aufwand zu Ertrag bei billigeren Preisen nicht mehr so richtig passen würde, weil R&D, Masken usw. so arschteuer geworden sind und zu viele Leute dann trotzdem immer nur Nvidia kaufen.
Mangel76
2025-03-04, 17:14:09
Das ist grundsätzlich richtig, aber wenn du mehr oder weniger alles absetzen kannst was du produzierst, ergo in der AI Sparte, und die Waferkapazitäten zum Engpass werden dann optimiert NV eben die Margen (macht AMD in dessen Rahmen ja genauso, aber hier schiebt man die Gewichtung zwischen GPU und CPU Sparte hin und her).
Wenn man nicht gerade Intel heißt und neue Produkte erstmal als Invest sieht um Fuß zu fassen in einem frischen Geschäftsbereich, und grob 300 € GPUs mit 12 GB VRAM die in 5nm gefertigt werden sprechen hier dafür, macht es für die großen imo aus den oben genannten Gründen keinen Sinn irgendwelche "Volks" GPUs auf den Markt zu bringen.
Genau - nicht auf den Umsatz oder Gewinn schauen, sondern um die Margen. Wobei auch da durch mehr Verkäufe die Marge automatisch steigt. Stichwort Fixkostendegression.
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
qPGDVh_cQb0
Ganz bestimmt keine Absicht. :mad:
Ich stand - wie wohl jeder Tester, der sowohl die 5070 als auch Radeons testet - vor der Wahl, einfach jedes Element zu kopieren und einen natürlich voll unbeabsichtigten Leak (#hups) rauszulassen, entschied mich aber für die doppelte Arbeit. Weil man das so macht. Ohne das mit Klicks zu belohnen: Sieht schwer nach Schmarrn aus. Regt mich trotzdem auf.
MfG
Raff
Natürlich nicht, dem Kameramann war noch schwindelig von der Dachgeshichte.
Ex3cut3r
2025-03-04, 17:47:46
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
https://youtu.be/qPGDVh_cQb0
Alter Schwede, die Effizienz Krone hat RDNA 4 aber auch nicht.
dildo4u
2025-03-04, 17:47:48
Da machen die ganzen Monster Kühler Sinn XT scheint im Bereich einer 5080 Strom zu nehmen.
The_Invisible
2025-03-04, 17:54:26
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
https://youtu.be/qPGDVh_cQb0
Nur 50w weniger als die 4090? Was'n da los :freak:
dildo4u
2025-03-04, 17:56:44
Er testet in 1440p, die 4090 wird CPU limitiert sein.
Ex3cut3r
2025-03-04, 17:58:24
Nur 50w weniger als die 4090? Was'n da los :freak:
In War Hammer sieht es sogar noch schlimmer aus. :freak:
Also, wenn da nicht am Ende fast 4090 Leistung erreicht wird -> Fail. ;D ;D ;D
https://s1.directupload.eu/images/250304/4f4fda8n.png
dargo
2025-03-04, 18:00:07
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
https://youtu.be/qPGDVh_cQb0
Dann muss ich fragen welchen Unsinn HWU da misst? Wenn AMD sagt max. 304W für die 9070XT dann ergeben die Werte von HWU keinen Sinn. Auch nicht bei der non XT.
Edit:
Ah... ok, HWU misst also das Gesamtsystem. Oder wie kommen die auf 468W für eine 7900XTX? :uconf2:
dildo4u
2025-03-04, 18:04:42
Ist Komplettsystem mein 5700X3D plus 4070S zieht 300 Watt was zur 5070 passt.
madzapp
2025-03-04, 18:07:35
Angeben kann AMD mit diesen Werten nicht, vor allem da es keine OC-Werte sind. Mal warten was Perf/Watt ergiebt.
Und wie 9070 gegen 5070 dasteht.
The_Invisible
2025-03-04, 18:09:57
Gegen die 5070ti gewinnt man da FPS/w keinen blumentopf
why_me
2025-03-04, 18:12:43
Aber das passt doch vorne und hinten nicht, oder? Eine 7800xt hat eine TBP von 315W und kommt auf 340. Warum sollte die 9070 mit 220W dann so viel verbrauchen?
Achill
2025-03-04, 18:12:51
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
https://youtu.be/qPGDVh_cQb0
Das scheint das ganze System zu sein (also mit CPU) ... die üblichen Verdächtigen gehen hier gleich ab, dass die kleinen GPUs von NV und AMD auch zu viel verbrauchen schafft man ja nicht mehr zu bemerken und dann den Context zu reflektieren / den evtl. falschen Titel in den Folien in Frage zu stellen.
---
Ganz bestimmt keine Absicht. :mad:
Ich stand - wie wohl jeder Tester, der sowohl die 5070 als auch Radeons testet - vor der Wahl, einfach jedes Element zu kopieren und einen natürlich voll unbeabsichtigten Leak (#hups) rauszulassen, entschied mich aber für die doppelte Arbeit. Weil man das so macht. Ohne das mit Klicks zu belohnen: Sieht schwer nach Schmarrn aus. Regt mich trotzdem auf.
MfG
Raff
Kann ich voll verstehen und dann auch noch falsche Werte bzw. keine Erklärung was da gemessen wurde. Sieht leider so aus, als ob dort auch viele Überstunden angefallen sind und Aufgrund des Zeitdrucks mit der Vermarktung über YT dann müde Augen sowas nicht mehr sehen.
dildo4u
2025-03-04, 18:13:31
Aber das passt doch vorne und hinten nicht, oder? Eine 7800xt hat eine TBP von 315W und kommt auf 340. Warum sollte die 9070 mit 220W dann so viel verbrauchen?
7800xt ist 260.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
Der_Korken
2025-03-04, 18:15:09
Bei den Verbrauchsmessungen ergeben viele Dinge keinen SInn. Alleine schon, dass die 7900XTX fast den gleichen Verbrauch wie eine 4090 haben soll, obwohl erstere im Referenzdesign hart auf 355W gedeckelt ist, ist harter Tobak. Wenn man bedenkt, dass eine schnellere GPU auch mehr CPU-Last verursacht und somit auch der CPU-Verbrauch steigt, wird es noch absurder. Die 5080 ist in Ex3cut3rs Screenshot sogar sparsamer als die 5070 (!!) und in allen anderen Tests sparsamer als die 4080. Auch die absoluten Unterschiede zwischen einigen Modellen wie z.B. 7900XT und 7900XTX ergeben überhaupt keinen Sinn, weil viel zu groß. Für mich sieht das aus, als hätte man da größtenteils im CPU-Limit gemessen und wir sehen da Teillastverbräuche - was auch in Relation zu den Absolutverbräuchen (<400W bei >300W-Karten) plausibel ist. Das lässt RDNA4 jetzt nicht unbedingt besser aussehen, aber ich würde diese Zahlen mir sehr viel Vorsicht genießen.
The_Invisible
2025-03-04, 18:17:00
Das scheint das ganze System zu sein (also mit CPU) ... die üblichen Verdächtigen gehen hier gleich ab, dass die kleinen GPUs von NV und AMD auch zu viel verbrauchen schafft man ja nicht mehr zu bemerken und dann den Context zu reflektieren / den evtl. falschen Titel in den Folien in Frage zu stellen.
Relativer Verbrauchsvergleich kann man trotzdem rauslesen da muss man kein mathegenie sein
GerryB
2025-03-04, 18:17:57
7800xt ist 260.
und dann die 9070 auch in der Drehe, ... klingt vernünftig, ... oder sinds Customs?
(die schnelleren GPU´s ziehen auch ein bisschen mehr CPU und Gesamt)
hoffentlich die 9070nonXT dann auch mit mehr Takt
Ich würde ja lachen, wenn die Folien mit 220W und wenig Takt veraltet waren.
nach m.E. würde dann der Preis auch besser passen
Wer diesen Blödsinn glaubt ist selbst schuld!
woodsdog
2025-03-04, 18:24:36
werden wir ja morgen Nachmittag wissen.
Hakim
2025-03-04, 18:25:32
Mal außen vor was für ein Wert das ist, das muss überhaupt ausersehen passiert sein oder? Normal darf er bis Morgen keine Werte zu Karte zeigen.
Achill
2025-03-04, 18:26:04
und dann die 9070 auch in der Drehe, ... klingt vernünftig, ... oder sinds Customs?
(die schnelleren GPU´s ziehen auch ein bisschen mehr CPU und Gesamt)
hoffentlich die 9070nonXT dann auch mit mehr Takt
Ich würde ja lachen, wenn die Folien mit 220W und wenig Takt veraltet waren.
nach m.E. würde dann der Preis auch besser passen
Wenn man davon ausgeht, dass in den dort zu sehen Werten eben das ganze System erfasst wurde, dann muss eine 9070 nicht bei 260W wie eine 7800XT landen. Sofern hoffentlich die 9070 schneller als die 7800XT ist, so ergibt sich mehr CPU + generelle Last auf dem System was damit mehr Verbrauch erzeugt. Da auch die CPUs mit höheren Frequenzen nicht mehr so effizient arbeiten, kann bei gleicher Wattzahl am System die 9070 selbst weniger Verbrauchen, weil das restliche System mehr Verbraucht wegen der höheren Last..
madzapp
2025-03-04, 18:28:52
und dann die 9070 auch in der Drehe, ... klingt vernünftig, ... oder sinds Customs?
(die schnelleren GPU´s ziehen auch ein bisschen mehr CPU und Gesamt)
hoffentlich die 9070nonXT dann auch mit mehr Takt
Ich würde ja lachen, wenn die Folien mit 220W und wenig Takt veraltet waren.
nach m.E. würde dann der Preis auch besser passen
Die nehmen Standardtakte für Tests. Die spezifischen Einstellungen nur wenn ein Modelltest gemacht wird.
reaperrr
2025-03-04, 18:33:27
Mal außen vor was für ein Wert das ist, das muss überhaupt ausersehen passiert sein oder? Normal darf er bis Morgen keine Werte zu Karte zeigen.
Ich habe bei diesen YT-Reviewern meine Zweifel, wie ernst die das nehmen.
Zugriff auf NV-Samples zu verlieren würde die wesentlich härter treffen als AMD zu verärgern.
Traue NV auch ohne weiteres zu, ihn für diese Aktion "entschädigt" zu haben.
Ex3cut3r
2025-03-04, 18:35:47
Ich habe bei diesen YT-Reviewern meine Zweifel, wie ernst die das nehmen.
Zugriff auf NV-Samples zu verlieren würde die wesentlich härter treffen als AMD zu verärgern.
Traue NV auch ohne weiteres zu, ihn für diese Aktion "entschädigt" zu haben.
Nja. Das ist jetzt aber ziemlich hoch von dir gegriffen, oder?
HWU ist schon länger dabei, als der typische "YouTuber" Ich denke die Werte dürften ziemlich passen, auch wenn das für einige hier, natürlich nicht sein kann.
woodsdog
2025-03-04, 18:38:40
Traue NV auch ohne weiteres zu, ihn für diese Aktion "entschädigt" zu haben.
Weil es ja so unfassbar wichtig ist das der Balken heute unkommentiert statt morgen kommentiert so lang oder kurz ist... da wird schlicht der Editor beim Schnitt Mist gebaut haben.
Oder is DER vielleicht von NV gekauft? :eek:
einfach mal die Kirche im Dorf lassen
madzapp
2025-03-04, 18:42:05
Oder is DER vielleicht von NV gekauft? :eek:
Zwei bewaffnete, vermummte Herren in schwarz. :biggrin:
GerryB
2025-03-04, 18:43:53
in green
Die haben sich auf die Stromleitung gesetzt.
dargo
2025-03-04, 19:05:26
Aber das passt doch vorne und hinten nicht, oder? Eine 7800xt hat eine TBP von 315W...
Nö... 265W. Und bei den Messungen von CB lag die 7800XT real bei 250W.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7700-xt-rx-7800-xt-test.85286/seite-3#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Relativer Verbrauchsvergleich kann man trotzdem rauslesen da muss man kein mathegenie sein
Dann erkläre uns du Mathegenie wie eine 5080 sparsamer sein kann als eine 5070? Die Messungen von HWU, sofern sie stimmen, zeigen jedenfalls keine Volllast bei den GPUs oder mindestens bei der 5070 und 5080.
Edit:
4080S = 377W (TGP 320W)
5080 = 307W (TGP 360W)
Ist natürlich auch vollkommen korrekt. :uup:
Ex3cut3r
2025-03-04, 19:20:41
4080S = 377W (TGP 320W)
5080 = 307W (TGP 360W)
Ist natürlich auch vollkommen korrekt. :uup:
Hää? Ada verbraucht so gut wie fast nie, die volle Total Graphics Power. Die 4090 z.B. hat auch 450W und ist in Spielen dann oft bei 300W oder 350W. IIRC.
Badesalz
2025-03-04, 19:21:21
Dann erkläre uns du Mathegenie wie eine 5080 sparsamer sein kann als eine 5070?Ist der alt geworden oder? :wink:
@all
Ich ziiere mal Raff dazu:
"Sieht schwer nach Schmarrn aus. Regt mich trotzdem auf."
Frage @ all:
Bin ich der einzige der Raffs Beiträge wirklich LIEST? -> Ist wohl überhaupt nicht das was PCGH diesbezüglich gemessen hat. Chekov? Zwei Seiten Blödsinn, über Blödsinn bzw. über abgebrühte Bauernfängerei. Gut gemacht, Bauer :ulol:
GerryB
2025-03-04, 19:23:20
Hää? Ada verbraucht so gut wie fast nie, die volle Total Graphics Power.
aber die Relation untereinander muss stimmen (in SpaceMarine)
5070 324W
5070Ti 361W
5080 307W = ???
btw.
Falls die NV-Grakas eher im CPU-Limit landen, kanns schonmal komische Ergebnisse geben.
Badesalz
2025-03-04, 19:24:39
Noch so ein Bauer :uclap:
edit:
Ja. NATÜRLICH. Unter 1440 testen sie die RTX50 auf einem 285k :ulol:
Ich glaube das erste was wir morgen um 15:00 Uhr machen, die Balken bei Leistungsaufnahme in Spiele anschauen. Also das mache ich auf jeden Fall.
fizzo
2025-03-04, 19:30:14
Vermutlich kann man nur mit 220 Watt sagen, dass es die effizienteste Karte ist, die man je gebaut hat (evtl. gar die effizienteste überhaupt, aber das wäre wieder als pures Marketing verstanden worden -> Ergebnisse abwarten).
MfG
Raff
Ich sehe den Test’s morgen entspannt entgegen :cool:
dargo
2025-03-04, 19:30:57
Hää? Ada verbraucht so gut wie fast nie, die volle Total Graphics Power.
Musst sie halt fordern und nicht langweilen. :rolleyes:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4080-super-test.86810/seite-4#abschnitt_leistungsaufnahme_spiele_youtube_desktop
@all
Ich ziiere mal Raff dazu:
"Sieht schwer nach Schmarrn aus. Regt mich trotzdem auf."
Frage @ all:
Bin ich der einzige der Raffs Beiträge wirklich LIEST? -> Ist wohl überhaupt nicht das was PCGH diesbezüglich gemessen hat. Chekov? Zwei Seiten Blödsinn, über Blödsinn bzw. über abgebrühte Bauernfängerei. Gut gemacht, Bauer :ulol:
Ich find's zwar doof, dass wir immer noch dem Leak Beachtung schenken, aber yep, so viel kann ich sagen: Die Werte ergeben hinten und vorne keinen Sinn. Ich bin ja sooo gespannt, wie viele wirre "Du bist von AMD gekauft"-Vorwürfe es morgen hagelt. ;D
MfG
Raff
StevenB
2025-03-04, 20:14:36
Die kannst du schon heute haben! "Raff du bist doch von AMD gekauft!"
:facepalm:
Ich freue mich auf deinen Test!
why_me
2025-03-04, 20:18:38
7800xt ist 260.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
OK das macht auch mehr Sinn. Was hat mir Google da bloß ausgespuckt? Egal, auch mitt 260W passen die Werte der 9070 vorne und hinten nicht
crux2005
2025-03-04, 20:24:19
Im HU Review Video zur 5070 gibt es ab Minute 12:30 Verbrauchsangaben zur 9070 und 9070xt:
Power Consumption (PCIe+EPS)
5070: 301W
9070: 361W
9070xt: 423W
https://youtu.be/qPGDVh_cQb0
WTF. Das wäre schon mal ein Dämpfer und würde bedeuten ich brauche zur Graka noch ein neues NT.
Edit: Na hoffentlich stimmt es nicht.
Ex3cut3r
2025-03-04, 20:31:30
Raff bestätigt oben dass es nicht stimmt. ;)
dargo
2025-03-04, 20:32:43
Egal... Hauptsache motzen. Wen interessieren schon Fakten. ;D
Nakai
2025-03-04, 20:45:25
Ist der alt geworden oder? :wink:
@all
Ich ziiere mal Raff dazu:
"Sieht schwer nach Schmarrn aus. Regt mich trotzdem auf."
Frage @ all:
Bin ich der einzige der Raffs Beiträge wirklich LIEST? -> Ist wohl überhaupt nicht das was PCGH diesbezüglich gemessen hat. Chekov? Zwei Seiten Blödsinn, über Blödsinn bzw. über abgebrühte Bauernfängerei. Gut gemacht, Bauer :ulol:
Ich find's amüsant. Selten soviele Schweißperlen auf den Gesichtern mancher Grünen hier gesehen. Da greift man jeden Strohhalm.:freak:
Emil_i_Lönneberga
2025-03-04, 21:44:01
Wann dürfen die Hersteller ihr Wasserkühler präsentieren?
In 1-2 Tagen. Verfügbar ist aber auch bei Blackwell noch keiner. Kann also auch bei der 9070XT noch dauern.
Ich glaube Wasserkühler dürfte in dem Preis Bereich auch eine Nische sein. Meistens wird es ja für eher die teueren Top Dogs gemacht. Aber kann es nicht genau beurteilen
Nope.
https://ezmodding.com/search/?qs=4060
Wakü FTW.
Wiseman
2025-03-04, 21:52:12
Ich find's amüsant. Selten soviele Schweißperlen auf den Gesichtern mancher Grünen hier gesehen. Da greift man jeden Strohhalm.:freak:
:biggrin:
Die kommen gar nicht mehr aus der Schnappatmung heraus.
davidzo
2025-03-04, 22:21:00
WTF. Das wäre schon mal ein Dämpfer und würde bedeuten ich brauche zur Graka noch ein neues NT.
Edit: Na hoffentlich stimmt es nicht.
Ich finde das nicht unrealistisch, vor allem wenn dass Partnermodelle waren. Die 9070 soll zwar bei der BBA nur mit 220Watt TDP kommen, aber wer weiß ob die bei den Partnermodellen nicht angehoben wird. Rein hardwaretechnisch hat sie ja sehr viel gemein mit der 7800XT, insofern würde es mich auch nicht wundern wenn sie unter Last ca. gleichviel verbraucht.
Nahezu gleich viele CUs, Speicherinteface, Takteraten, gleiches Fertigungsverfahren TSMC N4 etc.
Monolitisch vs Chiplet beeinflusst ja in erster Linie den Idle-Verbrauch, oder nicht?
Dass die 9070xt geprügelt wird, tut mich auch nicht wundern. Nur so kann man mit 64CUs die 5070TI mit 70SM angreifen. Bei RDNA3 brauchte AMD noch fast 20% mehr CUs um einen Win gegen Lovelace einzufahren.
Ein Verbrauch auf dem Niveau der 7900XT ist für 64CUs @3Ghz vs 84CUs @2,4Ghz auch realistisch imo. Btw, die 7900XT hat 300Watt TDP und die 9070XT 304W.
Die HWU Ergebnisse machen für mich schon Sinn. Wie gesagt hat sich in der Fertigung ja nichts getan. N48 hat wesentlich mehr Transistoren pro CU und taktet höher. Da darf man imo nicht mit rechnen dass die Karte pro CU oder TFlop viel sparsamer wird als Navi3x.
Ein Idleverbrauch wie die 7600Xt oder 4060 wäre aber wünschenswert!
woodsdog
2025-03-04, 22:30:35
:biggrin:
Die kommen gar nicht mehr aus der Schnappatmung heraus.
lol welche Schnappatmung?
Die Leistung welche die 9070 morgen getestet bieten werden, kann man seit über 2 Jahren bereits - auch im roten Lager - kaufen. a bissl weniger strom braucht es und die Hälfte weniger VRAM ists nun heuer leider geworden... aber wer schaut schon genauer hin.
Was feiert ihr eigentlich? Den Stillstand? Das AMD mit RT auf 2 Jahre alte NV Karten aufschließt (sternchen: vielleicht)?
Wenn das Zeug nicht wirklich billig ist, fahren die Board-Partner und Händler AMD einfach mal richtig in den Karren. Inb4 900-1000 Eur rumgeheule
reaperrr
2025-03-04, 22:41:46
Btw, die 7900XT hat 300Watt TDP und die 9070XT 304W.
Nein, AMD hat die TDP/das PT für die 7900XT damals zwischen Vorstellungsfolien und Release noch schnell auf 315W angehoben, um die Durchschnittstaktraten und Performance etwas zu verbessern und 899$ etwas besser rechtfertigen zu können.
Bist aber nicht der Erste, der das nicht mitbekommen hat :wink:
Wie gesagt hat sich in der Fertigung ja nichts getan. N48 hat wesentlich mehr Transistoren pro CU und taktet höher. Da darf man imo nicht mit rechnen dass die Karte pro CU oder TFlop viel sparsamer wird als Navi3x.
Warum nicht?
Hat von RDNA1 zu RDNA2 oder Kepler zu Maxwell ja auch geklappt.
Dass RDNA3 nicht ganz so effizient und taktfreudig (in normalen TDPs) ausgefallen ist wie geplant, lässt auch mehr Raum für Verbesserungen.
Ex3cut3r
2025-03-04, 23:05:51
lol welche Schnappatmung?
Die Leistung welche die 9070 morgen getestet bieten werden, kann man seit über 2 Jahren bereits - auch im roten Lager - kaufen. a bissl weniger strom braucht es und die Hälfte weniger VRAM ists nun heuer leider geworden... aber wer schaut schon genauer hin.
Was feiert ihr eigentlich? Den Stillstand? Das AMD mit RT auf 2 Jahre alte NV Karten aufschließt (sternchen: vielleicht)?
Wenn das Zeug nicht wirklich billig ist, fahren die Board-Partner und Händler AMD einfach mal richtig in den Karren. Inb4 900-1000 Eur rumgeheule
Lass es doch einfach sein. Gönn den AMDlern doch einfach mal Ihren Spaß. Es bringt nix, mit Leuten wie Wiseman, Dargo, Horn, V_V zu diskutieren, das sind AMD Fans in Reinkultur.
w0mbat
2025-03-04, 23:34:12
@Ex3: nimm du mal lieber deine alten Abload-Links aus der Sig ;)
Badesalz
2025-03-05, 06:33:21
@w0mbat
Ja wann denn? RDNA4 kommt nun raus. Da ist erstmal keine Zeit für Nix, wenn du eine NV hast :uup:
dargo
2025-03-05, 07:22:39
lol welche Schnappatmung?
Die Leistung welche die 9070 morgen getestet bieten werden, kann man seit über 2 Jahren bereits - auch im roten Lager - kaufen. a bissl weniger strom braucht es und die Hälfte weniger VRAM ists nun heuer leider geworden... aber wer schaut schon genauer hin.
Das sagt der richtige in dem er nur auf Pimmellänge schaut und sich gar nicht mit dem GPU-Design und/oder Preisen beschäftigt. :ulol:
Was feiert ihr eigentlich? Den Stillstand?
Plus ~40% Performance zum nahezu gleichen Preis (9070XT vs. 7900GRE) ist also bei dir Stillstand? Was macht dann Nvidia? Sich rückwärts entwickeln? :freak:
basix
2025-03-05, 07:28:04
RDNA4 wird richtig spannend. Freue mich auch schon auf die Analysen von chipsandcheese und anderen, was da AMD genau an der Architektur geändert hat.
woodsdog
2025-03-05, 07:45:47
Das sagt der richtige in dem er nur auf Pimmellänge schaut und sich gar nicht mit dem GPU-Design und/oder Preisen beschäftigt. :ulol:
Plus ~40% Performance zum nahezu gleichen Preis ist also bei dir Stillstand? Was macht dann Nvidia? Sich rückwärts entwickeln? :freak:
Die Gen hat de-Facto keinerlei Fortschritt bei der Performance. Punkt. :ulol:
GPU-Design - was auch immer das für den Endkunden bedeuten soll - ist für praktisch alle Käufer völlig egal. Hauptsache die Karte macht 3D Bilder uffn Schirm. Ob da kleine 3D Aliens drin sitzen oder eine sonstwie geartete Innovation dafür sorgt... v0v :ulol:
Perf/Preis ist kein Fortschritt wenn ich mehr FPS will, nein. Vielleicht kann ja wenigsten FSR4 da was bewegen... :freak:
Darüber hinaus muss sich erst mal zeigen was bei dem Markt von dem Versprechen "599" übrig bleibt. Am Ende gibt es die guten Karten vielleicht doch für 1000+ :ulol:
Nvidia packt zumindest für leute die nicht primär - wie du ja scheinbar - auf ein möglichst gutes Preis/Leistungsverhältniss schielen 30% Performance und 33% mehr VRAM auf den Tisch. Darf dir nicht gefallen, darf dir zu teuer sein, darf dir zu durstig sein... :freak:
Fakt bleibt, ich kann dieses Jahr 30% mehr NV Perf vs 0% AMD Perf kaufen und bekomme 33% Mehr NV-VRAM anstelle von MINUS 33% VRAM bei den Roten. :freak:
Das sind Fakten, damit hast du es in der Regel nicht so - ist mir bewusst. Wenn Preis/Leistung SOOOO wichtig ist, wieso spielst du nicht mit APUs? Da ist letzteres UNENDLICH, braucht nicht viel Strom, ist auch voll leise... Wenn Performance ja offenbar für dich nachrangig ist... wieso nicht einfach mit der GPU auf dem CPU-Die spielen... :ulol:
freu mich auf den Launch heute :popcorn:
Grüße :freak:
Disco_STFU
2025-03-05, 07:54:40
Fakt bleibt, ich kann dieses Jahr 30% mehr NV Perf vs 0% AMD Perf kaufen und bekomme 33% Mehr NV-VRAM anstelle von MINUS 33% VRAM bei den Roten. :freak:
Und das zu einem sagenhaften Preispunkt von mindestens 3500€!
W A H N S I N N :rolleyes::freak:
DrFreaK666
2025-03-05, 07:56:15
Lass es doch einfach sein. Gönn den AMDlern doch einfach mal Ihren Spaß. Es bringt nix, mit Leuten wie Wiseman, Dargo, Horn, V_V zu diskutieren, das sind AMD Fans in Reinkultur.
Dass das gerade von dir kommt...
Du machst dich über noch nicht getesteten AMD-GPUs lustig, die noch nicht veröffentlicht wurden.
Über die 5070 machst dich jedenfalls nicht lustig
Dargo meckert auch mal über AMD. Da fällt mir spontan die 7900XTX ein
dargo
2025-03-05, 07:57:40
Die Gen hat de-Facto keinerlei Fortschritt bei der Performance. Punkt. :ulol:
Schwachsinn! Aber mehr als Äpfel mit Birnen zu vergleichen bist du eh nicht in der Lage.
Disco_STFU
2025-03-05, 08:01:35
Vor allem kann ich die Leistung nicht einfach losgelöst vom Preis betrachten...
Wenn ich das so mache kann ich immer sagen: Bis auf das Top Modell gab es die Leistung schon in der letzten Generation... :freak:
Dimon
2025-03-05, 08:03:08
Also ich bezeichne mich durchaus als NV fanboy, aber das was einige NV jünger so von sich geben ist nicht von schlechten Eltern ;D
Ich freue mich auf den test heute, und hoffe das die kleine RX 9070XT mal richtig liefert und verfügbar ist! :biggrin:
dargo
2025-03-05, 08:03:30
@Disco_STFU
Richtig, aber das ist für manche schon zu hoch in diesem Forum, insbesondere im grünen Lager. Wer braucht eine 5080 wenn es diese Leistung schon 2022 gab? usw. usf...
Also ich bezeichne mich durchaus als NV fanboy, aber das was einige NV jünger so von sich geben ist nicht von schlechten Eltern ;D
Die Spanne zwischen Bias über Fanboys bis hin zu Fanatikern ist groß. :)
basix
2025-03-05, 08:05:15
Perf/Preis ist kein Fortschritt wenn ich mehr FPS will, nein. Vielleicht kann ja wenigsten FSR4 da was bewegen... :freak:
Da ist deine Sichtweise eindeutig zu kurz gedacht ;) Wenn ich ein Budget von 500-600$ habe und nicht mehr ausgeben will/kann, dann ergibt bessere P/L eindeuting mehr Leistung
Nvidia packt zumindest für leute die nicht primär - wie du ja scheinbar - auf ein möglichst gutes Preis/Leistungsverhältniss schielen 30% Performance und 33% mehr VRAM auf den Tisch. Darf dir nicht gefallen, darf dir zu teuer sein, darf dir zu durstig sein... :freak:
Fakt bleibt, ich kann dieses Jahr 30% mehr NV Perf vs 0% AMD Perf kaufen und bekomme 33% Mehr NV-VRAM anstelle von MINUS 33% VRAM bei den Roten. :freak:
Und für wen ist das relevant? Selbst hier im Geek-Forum werden nur sehr wenige eine 5090 kaufen. Und sorry, eigentlich jeder schaut auf P/L. Ich habe eine 4090 und mir ist P/L nicht egal. Ebenso der Verbrauch der Karte ist mir nicht egal. Wen dir das alles egal ist, dann ist das deine Sache. Das kannst du aber gerne für dich behalten und musst nicht andere Leute kleinreden ;)
Das sind Fakten, damit hast du es in der Regel nicht so - ist mir bewusst. Wenn Preis/Leistung SOOOO wichtig ist, wieso spielst du nicht mit APUs? Da ist letzteres UNENDLICH, braucht nicht viel Strom, ist auch voll leise... Wenn Performance ja offenbar für dich nachrangig ist... wieso nicht einfach mit der GPU auf dem CPU-Die spielen... :ulol:
Naja, Fakten kann man auch schön- und krummreden. Das machst du anscheinend auch sehr gerne. Und bitte lass diesen überheblichen Ton generell weg. Nur weil dir anscheinend alles egal ist (oder zu viel Geld hast), ist das bei den meisten nicht so. Ich kann aber auch fragen: Laut deinem Systeminfo bist du noch (oder wieder wenn man dummerweise die 4090 verkauft) mit der völlig veralteten 3090 unterwegs, welche heute von einer mega billigen 9070 XT vernascht wird. Pffft, Peasant... ;)
Und ach ja, du übertreibst es ein wenig mit deinen :freak: Smileys...
Badesalz
2025-03-05, 08:06:37
Dargo meckert auch mal über AMD. Da fällt mir spontan die 7900XTX einDas erinnert an VW-Fanboys vs. BMW-Fanboys. Die VW-Fanboys ledern auch mal ordentlich im eigenen Lager ab. Bei BMW-Fanboys ist auch die stinkigste Exkremente gold-like.
Deswegen tanze ich aktuell (ja, auffallend) sont eigentlich Bias-free bisschen bei den Roten mit. V_V ausgenommen, sind sie mir deswegen irgendwie als Mensch sympathischer/authentischer. Der Anteil derer die nicht gleich bis zu den Knochen durchge-bias-ed sind, ist da signifikant höher.
Mit den Grünen kann ich schon ne Weile keine differenzierte Unterhaltung führen. Die sind mir bisschen zu Hubbards-like.
Disco_STFU
2025-03-05, 08:07:25
Also ich bezeichne mich durchaus als NV fanboy, aber das was einige NV jünger so von sich geben ist nicht von schlechten Eltern ;D
Ich freue mich auf den test heute, und hoffe das die kleine RX 9070XT mal richtig liefert und verfügbar ist! :biggrin:
Möge der Vaultboy bald mit einer 9070XT gesegnet werden! :biggrin:
madzapp
2025-03-05, 08:07:30
Die 7900er wurden ja eingestellt. Ist das bei 78(7)00xt auch so?
PS. Silver Member yeah!!! :ubeer:
dargo
2025-03-05, 08:12:30
Die 7900er wurden ja eingestellt. Ist das bei 78(7)00xt auch so?
Ja... deine erste Anlaufstelle bei sowas ist Newegg.
https://www.newegg.com/p/pl?d=RX+7800XT
Das was du noch in DE bzw. EU siehst sind Restbestände.
Disco_STFU
2025-03-05, 08:12:41
PS. Silver Member yeah!!! :ubeer:
Quasi schon dargo eingeholt! :freak:;D
GerryB
2025-03-05, 08:25:11
Das jetzt Technik-Unwissende ihren Senf dazugeben, "Was seit Jahren geht", ist für ein 3dC-Forum halt nicht passend.
ne 9070xt hat minimal mehr FP32 als die 7800xt (siehe Anhang)
eigentlich hat AMD mit dem GRE-vgl. sogar schon hoch gegriffen
Aus meiner Sicht ist der Fortschritt in dieser Gen beachtlich.
und N4P, .... scheint bei NV+AMD hohe Takte zu ermöglichen,
was dann die schlankeren Modelle wettbewerbstüchtig macht
und
senkt die Kosten bei AMD enorm ggü. ner 7900xtx
Man kann sich das so vorstellen wie V8 vs 4 Zylinder-Turbo.
Letzteres reicht auch und bringt mehr Marge.
Worauf ich gespannt bin, = Effizienz@144 Fps-Limit und
Skalierung mit FSR4+FG.
StevenB
2025-03-05, 08:28:09
Wann ist eigentlich Verkaufsstart? Heute nach den tests oder erst morgen?
Disco_STFU
2025-03-05, 08:31:07
Wann ist eigentlich Verkaufsstart? Heute nach den tests oder erst morgen?
Leider erst morgen.
dargo
2025-03-05, 08:32:56
Das jetzt Technik-Unwissende ihren Senf dazugeben, "Was seit Jahren geht", ist für ein 3dC-Forum halt nicht passend.
ne 9070xt hat minimal mehr FP32 als die 7800xt (siehe Anhang)
eigentlich hat AMD mit dem GRE-vgl. sogar schon hoch gegriffen
Aus meiner Sicht ist der Fortschritt in dieser Gen beachtlich.
und N4P, .... scheint bei NV+AMD hohe Takte zu ermöglichen,
was dann die schlankeren Modelle wettbewerbstüchtig macht
Wenn ich insbesondere die 9070 non XT betrachte ist es wirklich etwas schade, dass AMD bei RDNA4 keine zusätzliche, monolithische ~450-500mm² SKU gewagt hat. Ich denke bei etwas konservativen Frequenzen (ähnlich wie 9070 non XT) wären hier durchaus 350W möglich gewesen. Das Ding dann für 999$ anbieten und fertig ist der Lack. Natürlich muss aber alles entsprechend nach oben mitskalieren. Einfach nur mehr CUs reinknallen ist nicht. Naja... wenn nicht bei RDNA4 dann eben bei RDNA5 bzw. UDNA oder wie auch immer die Dinger bei der nächsten Gen heißen mögen.
fizzo
2025-03-05, 08:35:08
Leider erst morgen.
..und ich habe ein ungutes Gefühl was die Straßenpreise betrifft. Werde auf jedenfall versuchen zeitnah eine zu ergattern.
Disco_STFU
2025-03-05, 08:37:58
Sapphire scheint vorbereitet! :freak:
https://i.redd.it/9so6x2954qme1.png
dargo
2025-03-05, 08:48:30
Sapphire scheint vorbereitet! :freak:
https://i.redd.it/9so6x2954qme1.png
Ist das die Lieferung für einen Händler? :D
madzapp
2025-03-05, 08:51:38
216 Stk. können schnell ein Tropfen auf den heissen Stein sein. Falls es so viele sind wären es aber schon so viele wie die 5090 für Europa.
Wer kriegt den Plüsch-Burger? :ulove:
MfG
Raff
The_Invisible
2025-03-05, 08:56:18
Solche Stapelposts gabs bei RTX 5000er auch schon, sagt nix aus
basix
2025-03-05, 08:56:32
Wenn ich insbesondere die 9070 non XT betrachte ist es wirklich etwas schade, dass AMD bei RDNA4 keine zusätzliche, monolithische ~450-500mm² SKU gewagt hat. Ich denke bei etwas konservativen Frequenzen (ähnlich wie 9070 non XT) wären hier durchaus 350W möglich gewesen. Das Ding dann für 999$ anbieten und fertig ist der Lack. Natürlich muss aber alles entsprechend nach oben mitskalieren. Einfach nur mehr CUs reinknallen ist nicht. Naja... wenn nicht bei RDNA4 dann eben bei RDNA5 bzw. UDNA oder wie auch immer die Dinger bei der nächsten Gen heißen mögen.
N48 ist halt schon nicht so klein. Und AMD hat vermutlich erwartet, dass Blackwell stärker wird. Im Nachhinein ist das für AMD natürlich etwas schade, aber vielleicht wird es bei RDNA5 was:
- MID für alle SKUs (PCIe, Multimedia Zeugs)
- GCD mit 32/64/96 CU oder alternativ 40/80/120 CU
SI könnte noch spannend werden. Eventuell 128/256/320bit für 9...12 / 16...24 / 20...30 GByte GDDR7. 16 sowie 20GB halten die Kosten für die Basismodelle tief und oben rum / ML / Profi-Leute kann man etwas mehr Speicher anbieten.
dargo
2025-03-05, 08:56:49
216 Stk.
Die Mitte ist bestimmt hohl. ;D
madzapp
2025-03-05, 08:58:06
Wer kriegt den Plüsch-Burger? :ulove:
MfG
Raff
Ist da nicht einer in jeder Packung!?!? :eek:
@Dargo Die Mitte ist bestimmt hohl.
Und nicht mal die Wände müssen komplett sein. :wink:
basix
2025-03-05, 08:59:12
Dafür aber keine Karte in der Box, die wurde bereits raus-gescalped :D
dargo
2025-03-05, 08:59:44
N48 ist halt schon nicht so klein.
Ich finde schon, dass N48 klein ist.
N22 = 336mm²
N21 = 519mm²
N48 = 357mm²
So ein N4x mit 480-500mm² und max. 2,7Ghz wäre schon fein gewesen. Am besten noch mit 256Bit SI und GDDR7 @24GB um die gute Effizienz nicht unnötig zu killen. Ob sowas dann noch in 999$ passt sei mal dahin gestellt.
Palpatin
2025-03-05, 09:04:28
Solche Stapelposts gabs bei RTX 5000er auch schon, sagt nix aus
Um zu zeigen wie stark die AI der 5000er Serie ist. Aus 10 Lagernden Karten 500 gemacht ;)?
basix
2025-03-05, 09:10:56
So ein N4x mit 480-500mm² und max. 2,7Ghz wäre schon fein gewesen. Am besten noch mit 256Bit SI und GDDR7 @24GB um die gute Effizienz nicht unnötig zu killen. Ob sowas dann noch in 999$ passt sei mal dahin gestellt.
Du, sowas hätte ich auch gerne, keine Frage ;) Und mit 256bit wäre das wohl sogar etwas kleiner geworden als du angibst. 999$ sollte für das aber schon realistisch sein. Ich hätte ca. 450...470mm2 geschätzt und es bleibt bei 8x VRAM-Packages. Im besten Fall könnte AMD sowas wohl auch für 899$ anbieten.
Wenn AMD allerdings die 5080 von der Performance her ungefähr dort erwartet hatte, hat man mit nur mittelmässigen Verkaufszahlen gerechnet. Und deswegen wurde "Big-Navi" gecancelt. Verständlich.
Badesalz
2025-03-05, 09:11:06
Solche Stapelposts gabs bei RTX 5000er auch schon, sagt nix ausJa. Das waren aber nur die Außenwände. Fake-Quader, sozusagen... Das daoben ist auch innen gefüllt :wink:
2 Leute eine halbe Schicht nur für so ein Foto. Sportlich...
@Plapatin
:up: :D
madzapp
2025-03-05, 09:16:45
2 schlechtbezahlte Leute 1h ist billiger als das so unregelmässig zu generieren. 116 so Dinger sind schnell gestapelt.
mczak
2025-03-05, 09:21:09
So ein N4x mit 480-500mm² und max. 2,7Ghz wäre schon fein gewesen. Am besten noch mit 256Bit SI und GDDR7 @24GB um die gute Effizienz nicht unnötig zu killen.
Dazu müssten solche 24 gbit gddr7 Speicherchips erstmal auch erhältlich sein, und bisher gibt es keine Indizien dass das der Fall ist. Aber so schlimm sollte das mit 384bit gddr6 auch nicht werden.
Wenn man gewusst hätte dass ein solcher hypothetischer "N49" den zweitgrössten Blackwell-Chip klar im Griff hätte hätte AMD das sich vielleicht überlegt (Nvidia hätte dem ja kaum was entgegenzusetzen, für einen direkten Konkurrenten müsste man einen stark beschnittenen Riesenklopper GB202 verwenden). Ein ~500mm² Chip mit 6 SE / 96 CU / 384bit gddr6 wäre sicher machbar gewesen (entspricht ja von der Konfiguration her genau N21). Aber nachdem man die Highend N4x Chiplets gecancelt hat hat man sich eben auf die wichtigsten Chips beschränkt, und das Risiko für einen ziemlichen HighEnd Chip war sicherlich zu hoch (dass der die absolute Krone nicht holen kann war sowieso klar, und wenn dann nvidia einen Chip in derselben Leistungsklasse gehabt hätte würde der wohl weder sonderlich gut verkauft noch hohe Margen haben).
Dural
2025-03-05, 09:27:01
Ich frage mich immer was solche Fotos sollen.
Erstens sind da im Würfel sicher keine Karten, und zweitens haben die Lager Mitarbeiter zu viel Zeit?
DrFreaK666
2025-03-05, 09:44:41
Ich frage mich immer was solche Fotos sollen.
Erstens sind da im Würfel sicher keine Karten, und zweitens haben die Lager Mitarbeiter zu viel Zeit?
Für Promotion nimmt man sich Zeit. Dann darf die Putzkolonne auch Zusatzschichten schieben
dargo
2025-03-05, 09:50:16
Dazu müssten solche 24 gbit gddr7 Speicherchips erstmal auch erhältlich sein, und bisher gibt es keine Indizien dass das der Fall ist.
Ich spreche nicht von jetzt sondern erst Ende 2025/ Anfang 2026. Eine GPU-Gen lebt nicht nur ein Jahr. Aber klar... selbst das könnte u.U. zu früh für so einen GDDR7 sein.
Ich frage mich immer was solche Fotos sollen.
Erstens sind da im Würfel sicher keine Karten, und zweitens haben die Lager Mitarbeiter zu viel Zeit?
Du erkennst den Seitenhieb Richtung Blackwell nicht? :tongue:
DrFreaK666
2025-03-05, 10:00:20
Weiß eigentlich jemand ob MH Wilds auch den Karten beiliegt?
Weiß eigentlich jemand ob MH Wilds auch den Karten beiliegt?
Ich habe bei AMD nachgefragt, aber es gibt offiziell keine Antwort. Das ist mit einem "nein" gleichzusetzen, denn wäre es dabei, würde man freudig damit werben. Aber eventuell dreht der Wind ja noch.
MfG
Raff
dildo4u
2025-03-05, 10:06:45
Weiß eigentlich jemand ob MH Wilds auch den Karten beiliegt?
Wozu das macht man wenn man Probleme hat die Karten zu verkaufen.
Außerdem ist es ein Technisches Desaster kein guter erster Eindruck auch wenn die Karte Nix dafür kann.
Troyan
2025-03-05, 10:11:50
https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo
Tigershark
2025-03-05, 10:16:49
https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo
Schön, die spiegeln die unsinnigen Powermessungen von HWU auch einfach nur, ohne sie zu hinterfragen... aber gut, videocardz halt...
DrFreaK666
2025-03-05, 10:27:47
Mehr Infos werden verschiedene Tests zeigen.
Performance ist mir fast egal, da ich von ca. +100% ausgehen kann (mit RT wahrscheinlich sogar +150%).
Leistungsaufnahme ist da schon wichtiger, da ich nur ein 500W Netzteil habe (wenn auch von be quiet und nicht das günstigste Modell).
Was mir aber wichtig ist: FSR4 Qualität und Geschwindigkeit.
Leistungsaufnahme ist da schon wichtiger, da ich nur ein 500W Netzteil habe (wenn auch von be quiet und nicht das günstigste Modell).
Stimmt die Hardware, welche hier unter deinem Avatar steht? Dann würde ich mir keine Sorgen machen, zumindest bei der 9070. Was meldet denn deine 6700 XT für eine Power? Das ist bei RDNA 2 nur der GPU-Wert.
MfG
Raff
Ravenhearth
2025-03-05, 10:33:33
Ich habe genau das gleiche Netzteil und betreibe damit eine RX 6800 ohne Probleme, auf die 9070 schiele ich auch ;)
dargo
2025-03-05, 10:34:46
Was meldet denn deine 6700 XT für eine Power? Das ist bei RDNA 2 nur der GPU-Wert.
Das weißt du nicht als PCGH-Mitglied? X-D Die liegt ziemlich genau da wo die 9070 non XT rauskommt, +/- 10W sind in der Gesamtbetrachtung wayne.
Prinzenrolle
2025-03-05, 10:35:36
Ich freue mich auf den test heute, und hoffe das die kleine RX 9070XT mal richtig liefert und verfügbar ist! :biggrin:
Na hoffen wirs doch. Dann wird Jensen vielleicht mal gezwungen all-in zu gehen und nicht solchen aufgewärmten Ramsch anzubieten.
Disco_STFU
2025-03-05, 10:36:57
Stimmt die Hardware, welche hier unter deinem Avatar steht? Dann würde ich mir keine Sorgen machen, zumindest bei der 9070. Was meldet denn deine 6700 XT für eine Power? Das ist bei RDNA 2 nur der GPU-Wert.
MfG
Raff
Ich betreibe eine RX 6700XT mit einem BeQuiet Straight Power E9 400 Watt Netzteil ohne Probleme. :redface::whistle:
rentex
2025-03-05, 10:48:22
https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo
Sieht doch gut aus für AMD und kann die Basis für mehr werden...sage ich als jahrelanger NV User.
DrFreaK666
2025-03-05, 10:48:40
Stimmt die Hardware, welche hier unter deinem Avatar steht? Dann würde ich mir keine Sorgen machen, zumindest bei der 9070. Was meldet denn deine 6700 XT für eine Power? Das ist bei RDNA 2 nur der GPU-Wert.
MfG
Raff
Keine Ahnung wieviel meine 6700XT schluckt. Habe ehrlich gesagt noch nie richtig geschaut.
Ich will schon eher die 9070XT
Armaq
2025-03-05, 10:51:20
https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo
Sieht doch gut aus für AMD und kann die Basis für mehr werden...sage ich als jahrelanger NV User.
Imho kann das der GPU Launch des Jahres werden für die breite Masse und für alle PC Gamer viel bringen, auch was die Verbreitung von RT angeht.
Die Treibersuite von AMD vermisse ich jetzt schon etwas. Die ist aufgeräumt und stabil gewesen.
Die Preise sind schön aggressiv gesetzt und die Lieferbarkeit scheint gegeben zu sein. Das alles zusammen könnte ein Erfolg werden, aber der Konsument entscheidet das letztlich.
Das weißt du nicht als PCGH-Mitglied? X-D Die liegt ziemlich genau da wo die 9070 non XT rauskommt, +/- 10W sind in der Gesamtbetrachtung wayne.
Ich frage nicht, was "eine" RX 6700 XT meldet (das weiß ich neben 50 anderen GPUs auswendig), sondern was seine RX 6700 XT meldet.
MfG
Raff
MSABK
2025-03-05, 11:03:38
https://videocardz.com/pixel/last-minute-radeon-rx-9070-perfromance-leaks-appear-before-embargo
Sieht doch gut aus für AMD und kann die Basis für mehr werden...sage ich als jahrelanger NV User.
Der Verbrauch scheint aber bissi hoch zu sein.
Hakim
2025-03-05, 11:04:21
Meint ihr AMD hat bei der B Note, bei Sachen wie, YouTube, Dual Monitor mit unterschiedlichen Hz etc Verbesserungen bezüglich Energieverbrauch gemacht? Etwas was leider bei mir immer ein kleiner Minuspunkt ist bei denen.
Disco_STFU
2025-03-05, 11:06:40
Der Verbrauch scheint aber bissi hoch zu sein.
Raff hat die Verbrauchswerte schon als "Schwachsinn" bezeichnet.
Meint ihr AMD hat bei der B Note, bei Sachen wie, YouTube, Dual Monitor mit unterschiedlichen Hz etc Verbesserungen bezüglich Energieverbrauch gemacht? Etwas was leider bei mir immer ein kleiner Minuspunkt ist bei denen.
:smile:
MfG
Raff
The_Invisible
2025-03-05, 11:09:47
Wird wohl doch nicht so günstig: https://extreme.pcgameshardware.de/threads/es-wird-wohl-doch-teuer-rx-9070-xt-preise-aus-dem-grosshandel.659339/
9070 ab 700EUR
9070XT ab 800EUR
1500 Stück bei Großhändler lagernd
Wenns so weitergeht leg ich mir bald auch nur mehr eine Ps5Pro zu ;D
Hakim
2025-03-05, 11:10:00
Ok ok, dann bin ich mal gespannt :)
fizzo
2025-03-05, 11:10:41
:smile:
MfG
Raff
Langsam werde ich hibbelig. Energieeffizienz wird bei mir groß geschrieben. =)
Lawmachine79
2025-03-05, 11:11:03
Ja wo sind denn jetzt die Reviews?
dildo4u
2025-03-05, 11:11:33
Ja wo sind denn jetzt die Reviews?
Die kommen immer erst um 15Uhr.
MSABK
2025-03-05, 11:12:07
Meint ihr AMD hat bei der B Note, bei Sachen wie, YouTube, Dual Monitor mit unterschiedlichen Hz etc Verbesserungen bezüglich Energieverbrauch gemacht? Etwas was leider bei mir immer ein kleiner Minuspunkt ist bei denen.
Laut den Folien von AMD soll das deutlich besser sein.
fizzo
2025-03-05, 11:13:42
Wird wohl doch nicht so günstig: https://extreme.pcgameshardware.de/threads/es-wird-wohl-doch-teuer-rx-9070-xt-preise-aus-dem-grosshandel.659339/
9070 ab 700EUR
9070XT ab 800EUR
1500 Stück bei Großhändler lagernd
Wenns so weitergeht leg ich mir bald auch nur mehr eine Ps5Pro zu ;D
Die Preise sind ohne 19% MWSt.... :ugly:
edit: 850€ für eine Standard 9070 sind definitiv zuviel!
DrFreaK666
2025-03-05, 11:17:30
Die Preise sind ohne 19% MWSt.... :ugly:
edit: 850€ für eine Standard 9070 sind definitiv zuviel!
Na wenn das wirklich stimmt...
nairune
2025-03-05, 11:17:34
1000€ für die XT?
Naja dann wird halt nicht zum Release gekauft, ich bin erst zur UVP dabei. Halb so wild, das wird sich schon einrenken. Ne 7900XT gibt's ja auch "noch" für ~700€.
MSABK
2025-03-05, 11:18:26
Anscheinend orientieren sich die Händler am Preis der 7900XTX.
Badesalz
2025-03-05, 11:21:33
Eine Woche durchalten (Enthaltsamkeit). Dann wird das schon ;)
Die Teile sind nur Juhu, wenn die Preise stimmen. Macht nicht den gleichen Fehler wie die grüngefärbten. Zeigt Charakter :uup:
Hakim
2025-03-05, 11:25:18
Ich werde zwar versuchen morgen eine zu kaufen, aber falls die Preise durch die Decke gehen bin ich entspannt. Ich kann etwas warten. Verkauft auch bloß nicht eure Grafikkarten vorher, dann greift man verzweifelt auch bei Scalper Preisen zu :)
Badesalz
2025-03-05, 11:25:37
Bei Luxx geklaut
DE:
Asus PRIME Radeon RX 9070 16GB - 739,00
Asus TUF Radeon RX 9070 16GB - 789,00
Asus PRIME Radeon RX 9070 XT 16GB - 799,00
Asus TUF Radeon RX 9070 XT 16GB - 879,00
Sapphire Nitro+ Radeon RX 9070 XT - 879,00
Sapphire Pure Radeon RX 9070 XT - 789,00
Sapphire Pulse Radeon RX 9070 XT - 689,00
Gigabyte Radeon RX 9070 XT Aorus Elite - 899,00
Gigabyte Radeon RX 9070 XT Gaming OC - 799,00
Gigabyte Radeon RX 9070 16GB Gaming OC - 709,00
Ravenhearth
2025-03-05, 11:26:23
Das sind die UVPs?
The_Invisible
2025-03-05, 11:27:34
Bei Luxx geklaut
DE:
Asus PRIME Radeon RX 9070 16GB - 739,00
Asus TUF Radeon RX 9070 16GB - 789,00
Asus PRIME Radeon RX 9070 XT 16GB - 799,00
Asus TUF Radeon RX 9070 XT 16GB - 879,00
Sapphire Nitro+ Radeon RX 9070 XT - 879,00
Sapphire Pure Radeon RX 9070 XT - 789,00
Sapphire Pulse Radeon RX 9070 XT - 689,00
Gigabyte Radeon RX 9070 XT Aorus Elite - 899,00
Gigabyte Radeon RX 9070 XT Gaming OC - 799,00
Gigabyte Radeon RX 9070 16GB Gaming OC - 709,00
Mit STeuer? :freak:
Badesalz
2025-03-05, 11:28:35
Straßenpreise geht grad noch schlecht oder?? :| Es sind "Shoppreise" bei einem Händler.
@The_Invisible
1. Was ist das für eine blöde Frage?
2. Was ist das wieder einmal für ein blöder Fullquote?
DrFreaK666
2025-03-05, 11:31:24
Hab schon befürchtet, dass die Karte am Ende teurer wird, aber so viel teuer..??
fizzo
2025-03-05, 11:32:51
Straßenpreise geht grad noch schlecht oder?? :| Es sind "Shoppreise" bei einem Händler.
@The_Invisible
1. Was ist das für eine blöde Frage?
Ist keine blöde Frage!
Sapphire Pulse Radeon RX 9070 XT - 689,00
Klingt fast zu gut...oder eventuell nur 3 Stück verfügbar ;)
The_Invisible
2025-03-05, 11:32:57
Straßenpreise geht grad noch schlecht oder?? :| Es sind "Shoppreise" bei einem Händler.
@The_Invisible
1. Was ist das für eine blöde Frage?
2. Was ist das wieder einmal für ein blöder Fullquote?
Weiß ich doch nicht, gibst ja keine Angaben/Kontext dazu, einfach mal bissl runterkommen...
M4xw0lf
2025-03-05, 11:34:34
Ich betreibe eine RX 6700XT mit einem BeQuiet Straight Power E9 400 Watt Netzteil ohne Probleme. :redface::whistle:
7900XT und Straight Power 10 500W :uup:
nairune
2025-03-05, 11:34:44
Pulse > Pure > Nitro jeweils +100€ ist schon hart :freak:
689 für eine Pulse ist die erwartete UVP, also wenn es die wo gibt, passt das für mich.
Spring
2025-03-05, 11:35:06
Ja klar über 800€ für die dicken Customs, selbst für einen Midrange Chip viel zu viel. Danke an Nvidia für den Gurkenlaunch, danke an die Hersteller für den Greed. War ja klar das sowas passiert, wenn keine Ref kommt + Nachfrage unbefriedigt von Nvidia.
Dann halt erst kauf im Sommerloch, wenn die Preise sich gesetzt haben. Morgen dürfte der Run zu gross sein, selbst bei vielen Karten, werden die Händler auf Abgreifen gehen. Also bekommen wird kein Problem, sondern eher der Preis.
Badesalz
2025-03-05, 11:35:24
Hab schon befürchtet, dass die Karte am Ende teurer wird, aber so viel teuer..??Launchtag. Invisible würde sagen: einfach mal bissl runterkommen ;)
Wie gesagt. Lasst euch nicht gleich so melken wie die grünlichen Opfergaben. 879€ für eine TUF ist ein schlechter Joke :ulol:
w0mbat
2025-03-05, 11:36:26
Ok, dann wird es halt die Pulse. 27,5% Aufpreis für die Nitro+ ist extrem. Ich hätte mit 689€ für die Pulse, 739€ für die Pure und 789€ für die Nitro+ gerechnet. 879€ ist zu viel - außer sie ist ~10% schneller und dabei flüsterleise und kühl. Dann kann man es sich überlegen.
Fast 200€ sind bei einem Ausgangspreis von <700€ einfach zu viel.
Disco_STFU
2025-03-05, 11:37:10
7900XT und Straight Power 10 500W :uup:
Ok, DAS ist sportlich! ;D
M4xw0lf
2025-03-05, 11:39:44
Ok, DAS ist sportlich! ;D
Da muss man halt schon gut aufs restliche System schauen. Ich hatte noch keinerlei Probleme damit, und das obwohl ich allermeistens im GPU-Limit spiele, da 4k Monitor. :smile:
Aber eigentlich ist es ziemlich genauso sportlich wie 6700XT + 400 W - 100W mehr TDP, 100W mehr Saftleistung des Netzteils :D
YeahBuoy!
2025-03-05, 11:40:22
Bei Luxx geklaut
DE:
Asus PRIME Radeon RX 9070 16GB - 739,00
Asus TUF Radeon RX 9070 16GB - 789,00
Asus PRIME Radeon RX 9070 XT 16GB - 799,00
Asus TUF Radeon RX 9070 XT 16GB - 879,00
Sapphire Nitro+ Radeon RX 9070 XT - 879,00
Sapphire Pure Radeon RX 9070 XT - 789,00
Sapphire Pulse Radeon RX 9070 XT - 689,00
Gigabyte Radeon RX 9070 XT Aorus Elite - 899,00
Gigabyte Radeon RX 9070 XT Gaming OC - 799,00
Gigabyte Radeon RX 9070 16GB Gaming OC - 709,00
Soll jetzt keine Quellenkritik sein, aber zumindest bei den Sapphirepreisen wird hier vermutlich was verrutscht sein, tippe ich. Wenn ich bei ASUS eine 9070 non XT TUF für 100 € mehr als eine 9070 XT Sapphire Pulse angeboten bekomme dann muss ich nicht lange überlegen. Außer der Kühler von letzterer saugt und bläst wie ein hochfrequenter Heinzelmann.
Badesalz
2025-03-05, 11:40:32
Ok, dann wird es halt die Pulse. 27,5% Aufpreis für die Nitro+ ist extrem.Absolut. Mein Reden. Es sei denn die ist dabei nahezu lautlos :tongue:
Soll jetzt keine Quellenkritik sein, aber zumindest bei den Sapphirepreisen wird hier vermutlich was verrutscht sein, tippe ich. Wenn ich bei ASUS eine 9070 non XT TUF für 100 € mehr als eine 9070 XT Sapphire Pulse angeboten bekomme dann muss ich nicht lange überlegen. Außer der Kühler von letzterer saugt und bläst wie ein hochfrequenter Heinzelmann.Andersrum. Da ist eher was bei Asus verrutscht. Asus selbst. Ich nehme die überhaupt nicht mehr ernst.
Ich kann mich (ich) an keinen schlechten Kühler auf einer Pulse erinnern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.