Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
robbitop
2025-02-13, 07:20:00
Gerüchte. Erwartest du zu einem unreleasten Produkt eine Quelle?
Ich bin mir aber auch nicht sicher ob MLID das mal gesagt hatte - aber ja das schwirrte durch den Äther. Aber ich muss sagen ich bin da auch skeptisch.
Aus meiner Sicht kann der Chip ruhig mehr speicher kriegen. Die max. 16 GB Ansage war für mich eine, leichte, Enttäuschung.
Deutlich mehr als 16 GB wird in der Leistungsklasse wahrscheinlich recht lange kaum bis keine Vorteile bringen.
GerryB
2025-02-13, 07:32:18
Gerüchte. Erwartest du zu einem unreleasten Produkt eine Quelle?
Nein, sicher nicht offiziell, aber warum behauptet Gedi ständig hier im Thread, das N48 schon GDDR7 kann.
Das habe ich noch nirgends gehört!
Selbst im Spekuthread sollte man doch offenlegen können, Wo man Was gehört hat.
Wenn nicht, dann führen solche falschen Annahmen nur zu seitenlangen sinnlosen Diskussionen.
dargo
2025-02-13, 07:39:06
N48 kann GDDR7...
Wo steht das?
Gerüchte.
Auch für Gerüchte sollte es Quellen geben sonst ist das nichts weiter als hier im 3DC ausgedachter Hirngespinst.
mczak
2025-02-13, 07:57:02
Ich kann mich auch erinnern dass da bei den anfänglichen Spekulationen immer davon ausgegangen wurde dass N4x gddr7 beherrscht. Das ist aber ewig her.
Eine gewisse Logik dahinter sehe ich aber schon, zum Zeitpunkt als der Chip designt wurde war vielleicht noch nicht klar dass der Speicher zum Launch noch nicht mal erhältlich sein würde. Ausserdem hat ja nvidia sicher nicht bloss zum Spass für denselben Zeitraum auf gddr7 gesetzt. Zudem sind die N4x Karten ja deutlich schneller als die Vorgänger und haben demzufolge deutlich weniger Bandbreite pro Rechenleistung zur Verfügung (und N3x hat auch schon von Speicher-OC profitiert), ohne dass man da sonstige Gegenmassnahmen ergriffen hätte (mehr Cache wäre ja evtl. auch eine Option gewesen).
Da muss man imho abwarten bis das bestätigt oder dementiert wird. Klar ist zum jetzigen Zeitpunkt kommen keine N4x Karten mit gddr7, ganz egal ob die Chips das beherrschen oder nicht.
dildo4u
2025-02-13, 08:06:32
GDDR7 würde Sinn machen wenn sie was gegen 5090 hätten und der dicke AMD Chip nur ein 384 Bus hatte.
Ich hab ehrlich gesagt nicht damit gerechnet das wir neue GPU mit einem 512Bit Interface bekommen.
robbitop
2025-02-13, 08:42:58
Auch für Gerüchte sollte es Quellen geben sonst ist das nichts weiter als hier im 3DC ausgedachter Hirngespinst.
Nein, sicher nicht offiziell, aber warum behauptet Gedi ständig hier im Thread, das N48 schon GDDR7 kann.
Das habe ich noch nirgends gehört!
Selbst im Spekuthread sollte man doch offenlegen können, Wo man Was gehört hat.
Wenn nicht, dann führen solche falschen Annahmen nur zu seitenlangen sinnlosen Diskussionen.
Kann man so sehen aber finde ich andererseits auch mindestens müßig wenn man bedenkt, wie oft und viele Gerüchte es gibt über die Zeit. Das ist dann kaum noch nachverfolgbar IMO.
IMO sollte man dann einfach die Abkürzung IIRC dazu fügen und gut.
The_Invisible
2025-02-13, 08:53:13
Voll die Mainstream Preise.
https://www.pgs.sk/advanced_search_result_v1.php?keywords=9070+XT#
Sind sogar "auf Lager" und bestellbar. Können natürlich Platzhalter sein aber würde jedenfalls zu den 699 USD MSRP für 9070 XT passen.
Edit: Hier das Bild falls die auf einmal nicht mehr zu finden sind:
Edit2: Laut Artikelbeschreibung "ab 23.3.2025 verfügbar" (ja, XY, mir ist schon klar das der Release am 6.3.2025 ist...)
Edit3: Gibt sogar eine Gigabyte RX 9070 non-XT Gaming OC für 999€.
Bei AMD ist das was anderes, da gibts keine Scalperpreise wie bei Nvidia, alles ab Tag 1 ab UVP verfügbar :freak:
robbitop
2025-02-13, 09:00:11
Naja für unveröffentlichte Produkte sind Platzhalterpreise wohl kaum aussagekräftig oder?
dargo
2025-02-13, 09:00:33
Voll die Mainstream Preise.
https://www.pgs.sk/advanced_search_result_v1.php?keywords=9070+XT#
Sind sogar "auf Lager" und bestellbar.
Muss ja ein sehr vertrauenswürdiger Händler Scalper in der Slowakei sein der Grafikkarten schon anbietet die noch nicht mal offiziell vorgestellt wurden. :ulol: Selbst wenn du diese Karte dort kaufen kannst was willst du damit ohne einen Grafiktreiber? Im Netz rumposaunen welcher Held du mit einer 9070XT bist? :freak:
E39Driver
2025-02-13, 09:05:58
Bei GDDR6 ist doch auch noch etwas Taktreserve möglich. 32-GB RAM drauf, 400 Watt TDP und fertig wäre die billig zu produzierende XTX. Falls man damit in der Leistung wirklich auf 10 bis 5% an eine 5080 herankommen sollte und preislich irgendwo bei 700€ liegt, wäre das eine ganz nette Karte, die man auch ihren höheren Verbrauch nachsehen kann
fondness
2025-02-13, 09:09:28
Bei AMD ist das was anderes, da gibts keine Scalperpreise wie bei Nvidia, alles ab Tag 1 ab UVP verfügbar :freak:
Völlig sinnloser Beitrag da jetzt wegen Platzhalter Preise herum zu Trollen. Wenn es genug Karten gibt, wird es keine scalper geben. Was Nvidia aufgeführt hat, hat auch nichts mehr mit scalper zu tun, die haben einen klassischen paper launch durchgezogen.
Schnitzl
2025-02-13, 09:10:08
Das wusste ich gar nicht, dass meine 24GB@384bit alleine >100W für Vram+SOC verbraten. Und mit 16GB@256bit würde ich 60W sparen!
Das heißt, wenn AMD bei RDNA4 die Power-Limitierung in der Adrenalin-Software nicht wie bei RDNA3 mit lächerlichen -10%, sondern sagen wir mal mit -25% hinkriegt, dann könnte ich die 9070XT mit 200W betreiben.
Mach nur so weiter :biggrin: und ich downgrade im April auf eine Custom 16GB 9070XT.
Ich glaube, es gibt eh nur Custom 9070. Ist auch besser so.
das ist genau der Punkt.
Steht für mich auch ganz oben auf der "must have"-Liste :)
die RT Leistungssteigerungen sind auch noch ne Wundertüte, bin gespannt was da rauskommt...
(bzw. wie weit AMD da aufholt)
robbitop
2025-02-13, 09:11:00
Bei GDDR6 ist doch auch noch etwas Taktreserve möglich. 32-GB RAM drauf, 400 Watt TDP und fertig wäre die billig zu produzierende XTX. Falls man damit in der Leistung wirklich auf 10 bis 5% an eine 5080 herankommen sollte und preislich irgendwo bei 700€ liegt, wäre das eine ganz nette Karte, die man auch ihren höheren Verbrauch nachsehen kann
Theoretisch 24 gbps. Sind allerdings nie in Serie gegangene Speicherbausteine von Samsung. ("Vaporware" sozusagen ^^) Ansonsten sind 20 gbps AFAIK das schnellste was es in Serie produzierte GDDR6 Bausteine gibt.
Exxtreme
2025-02-13, 09:41:02
Aus meiner Sicht kann der Chip ruhig mehr speicher kriegen. Die max. 16 GB Ansage war für mich eine, leichte, Enttäuschung.
Wenn man sich die Verkaufszahlen so anschaut dann wollen die AMD-Kunden nicht mehr als 16 GB. Karten mit mehr Speicher verkaufen sich nicht gut.
madzapp
2025-02-13, 10:15:02
Deutlich mehr als 16 GB wird in der Leistungsklasse wahrscheinlich recht lange kaum bis keine Vorteile bringen.
Ich schätze 2-3 Jahre. Die HD 79x0 Serie hätte auch nie im Leben, nach der Meinung vieler, 2GB nutzen können. Doom 16 hat es den 3GB aber ganz schön gezeigt.
Wenn man sich die Verkaufszahlen so anschaut dann wollen die AMD-Kunden nicht mehr als 16 GB. Karten mit mehr Speicher verkaufen sich nicht gut.
Kommt auf den Preis und Verbrauch drauf an. AMD Kundern mögen viel Speicher. 7800xt hat sich super verkauft und ist ja schon bald das Vorgängermodel. Vor einem Jahr hat 12GB ja angeblich noch 2-3 Jahre für alles gereicht. Heute sieht das anders aus. Ich nutze meine Hardware gerne länger und wäre da schon ein potenzieller Kunde.
robbitop
2025-02-13, 10:17:34
Stimmt schon ja. Wenn man eine GPU lange behält macht es hinten raus schon Sinn das stimmt. :)
fondness
2025-02-13, 10:22:05
Das ist aber kein linearer Prozess, sondern hängt hauptsächlich an der nächsten Konsolen Generation. Dann wird auch wieder deutlich mehr Speicher nötig sein. Bis dahin sollte man mit 16GB sehr gut auskommen.
madzapp
2025-02-13, 11:22:12
Das ist aber kein linearer Prozess, sondern hängt hauptsächlich an der nächsten Konsolen Generation. Dann wird auch wieder deutlich mehr Speicher nötig sein. Bis dahin sollte man mit 16GB sehr gut auskommen.
Ja, 2-3 Jahre. Im Herbst neuen Rechner sind es 1,5-2,5 Jahre. Mit 16GB kann man lange viel Spass haben, auf jeden Fall mehr als mit 12GB, wenn einem Texturqualität wichtig ist. Die steigen ja auch in der Vielfalt was bedeutet, dass man in der Qualität abstriche machen muss auf dauer. Dabei kosten Texturen kaum Leistung und machen viel von der Optik aus.
Edit: ist aber eher was für den Vram Verbrauch von Spielen Thread
fondness
2025-02-13, 12:46:30
https://i.postimg.cc/FHfyZ2my/image.png (https://postimages.org/)
https://x.com/hkepcmedia/status/1889994288836280652
https://i.postimg.cc/kG1SNypY/image.jpg (https://postimg.cc/N2XLBRYR)
https://x.com/hkepcmedia/status/1889997824433197455
BlacKi
2025-02-13, 13:09:45
was letzte fake frame?
Palpatin
2025-02-13, 13:27:35
Völlig sinnloser Beitrag da jetzt wegen Platzhalter Preise herum zu Trollen. Wenn es genug Karten gibt, wird es keine scalper geben. Was Nvidia aufgeführt hat, hat auch nichts mehr mit scalper zu tun, die haben einen klassischen paper launch durchgezogen.
Das ist richtig, man sollte dann aber auch der Fairness halber das noch nicht auf die 5070ti und deren Preis projizieren. Gut möglich das die viel breiter verfügbar ist zum UVP. Die 4070ti gab es vor gut 2 Jahren auch direkt zum UVP, sogar leicht darunter.
fondness
2025-02-13, 13:29:32
Das ist richtig, man sollte dann aber auch der Fairness halber das noch nicht auf die 5070ti und deren Preis projizieren. Gut möglich das die viel breiter verfügbar ist zum UVP. Die 4070ti gab es vor gut 2 Jahren auch direkt zum UVP, sogar leicht darunter.
Möglich ist es ja. Ebenso, dass Nvidia bis März generell besser liefern kann. Die Gerüchte sagen aber was anderes, 5070ti hat denselben Chip wie die 5080, Liefermenge soll wieder sehr klein sein.
dildo4u
2025-02-13, 13:32:00
Die Karten unter 1k überschneiden sich zumindest konnte man die 4070TI S für 900€ kaufen daher sehe ich dort weniger hohe Nachfrage für Blackwell.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=t&bl1_id=30&xf=9816_03+05+17+-+RTX+4070+Ti+SUPER
w0mbat
2025-02-13, 13:41:36
Bin immer gespannter, aber hoffe, dass AMD beim Preis aggressiv vorgeht. $449/549 MSRP wäre meine Hoffnung. Bei $699 für die XT sind wir mit MwSt. wahrscheinlich bei einer UPV von 849€, was zu viel wäre. Gute Karten (Sapphire Nitro z.B.) wären dann sicher >900€.
Bei $549 MSRP wäre ne UVP von 659€ möglich, d.g. man würde ne Nitro+ wohl für <750€ bekommen. Das wäre eine Überlegung wert, auch ohne Nvidia Software.
fondness
2025-02-13, 13:48:22
Ich würde auf $599 für die XT und $499 für die non-XT tippen. Das wäre noch immer ein sehr guter Preis vs. der 5070Ti.
dargo
2025-02-13, 14:35:49
Bei GDDR6 ist doch auch noch etwas Taktreserve möglich.
Irgendwelche X Reserve müssen auch die Speichercontroller bieten, nicht nur der Vram.
https://i.postimg.cc/FHfyZ2my/image.png (https://postimages.org/)
https://x.com/hkepcmedia/status/1889994288836280652
https://i.postimg.cc/kG1SNypY/image.jpg (https://postimg.cc/N2XLBRYR)
https://x.com/hkepcmedia/status/1889997824433197455
Ok... PCIe 5.0 somit bestätigt. Hoffentlich wird das aber nicht ein ähnliches Desaster wie bei Nvidia damit. :freak:
fondness
2025-02-13, 14:44:45
Ok... PCIe 5.0 somit bestätigt. Hoffentlich wird das aber nicht ein ähnliches Desaster wie bei Nvidia damit. :freak:
AMD wird hoffentlich nicht so dumm sein den PCIe-Stecker auf eine eigene Platine zu setzen. :ugly:
dargo
2025-02-13, 14:46:15
Achja... stimmt. Ich hab da wieder was verwechselt bei den ganzen Problemen mit Blackwell. X-D Das Problem mit PCIe 5.0 betraf ja nur die FE Karten.
Palpatin
2025-02-13, 15:06:08
AMD wird hoffentlich nicht so dumm sein den PCIe-Stecker auf eine eigene Platine zu setzen. :ugly:
Sollte hoffentlich in den Watt Bereich der 9700XT egal sein.....
Hakim
2025-02-13, 15:13:16
Glaube geht eher um das PCIe Slot Signal Problem bei einigen FEs die dann unter 4.0 wieder laufen
Palpatin
2025-02-13, 15:28:39
Glaube geht eher um das PCIe Slot Signal Problem bei einigen FEs die dann unter 4.0 wieder laufen
Stimmt da war ja noch was .....
OgrEGT
2025-02-13, 18:29:38
Irgendwelche X Reserve müssen auch die Speichercontroller bieten, nicht nur der Vram.
Ok... PCIe 5.0 somit bestätigt. Hoffentlich wird das aber nicht ein ähnliches Desaster wie bei Nvidia damit. :freak:
Auf vcz heißt es, dass man sich mit PCIe x16 5.0 nicht sicher ist, da möglicherweise GPU-Z die Information nicht korrekt auslesen kann...
https://videocardz.com/newz/amd-radeon-rx-9070-xt-gpu-z-specs-leak-4096-cores-16gb-g6-20-gbps-memory-and-3-1-ghz-oc-boost
The screenshot seems to confirm that the card supports PCIe 5.0 x16 interface, but we are not sure if this version of GPU-Z is fully supporting this card at this time.
bbott
2025-02-13, 18:33:27
Das ist aber kein linearer Prozess, sondern hängt hauptsächlich an der nächsten Konsolen Generation. Dann wird auch wieder deutlich mehr Speicher nötig sein. Bis dahin sollte man mit 16GB sehr gut auskommen.
Texturen usw. kann man auch ohne neue Konsolen Gen upgraden und skalieren.
Prinzenrolle
2025-02-13, 18:46:34
Das wäre noch immer ein sehr guter Preis vs. der 5070Ti.
Nicht wenn die Karte "nur" 7900XT Performance hat, worauf es hinauslaufen wird, wenn man das Benchmarkergebnis für voll nimmt.
Die Karte heißt ja nicht umsonst 9070(XT).
Eine 6950XT schafft in dem Benchmark in etwa 190 FPS, womit die Karte rund 10-15% drüber läge. Das wäre ziemlich genau auf dem Level der 7900XT.
Mit mehr RT Leistung passen dazu dann ~649 Dollar.
dildo4u
2025-02-13, 19:03:07
Bilder der 9700 Nitro+
https://wccftech.com/sapphires-triple-slot-triple-fan-nitro-custom-model-amd-radeon-rx-9070-gpus-pictured/
madzapp
2025-02-13, 19:11:56
https://i.postimg.cc/FHfyZ2my/image.png (https://postimages.org/)
https://x.com/hkepcmedia/status/1889994288836280652
https://i.postimg.cc/kG1SNypY/image.jpg (https://postimg.cc/N2XLBRYR)
https://x.com/hkepcmedia/status/1889997824433197455
Kann man sagen von wann der Treiber, ungefähr, ist. Falls der noch von letztem Jahr ist sollte da noch, zumindest ein Bisschen, was drauf kommen.
fondness
2025-02-13, 19:30:49
28. Februar it is
https://x.com/McAfeeDavid_AMD/status/1890102891119276284?t=duVQLTDovh1VdiQ8w5Kvpw&s=19
madzapp
2025-02-13, 19:35:36
Danke.
Treiber aus der Zukunft? Und das ohne Frame Warp? :biggrin:
Schade, doch noch zwei Wochen, dachte es wäre nur noch eine. :frown:
GerryB
2025-02-13, 20:17:17
Kann man sagen von wann der Treiber, ungefähr, ist.
24.30 ist schon die neue Branch >25.2.1=24.20.33.05
madzapp
2025-02-13, 20:22:36
24.30 ist schon die neue Branch >25.2.1=24.20.33.05
Ah, ok. Dann sollte das Ergebnis ziemlich final sein.
GerryB
2025-02-13, 20:32:16
Es ist trotzdem noch Luft nach Oben.
Wiseman
2025-02-13, 21:04:00
24.30 ist schon die neue Branch >25.2.1=24.20.33.05
Genau.
Ich hab gerade mit meiner XTX (25.2.1, Branch 24.20.) diesen Monster Hunter Wilds Benchmark gegengetestet. Oh, oh, da schaut meine XTX alt aus.
dildo4u
2025-02-13, 21:12:23
Mit FSR und Framegen kommt man vermutlich auf 200 fps.
madzapp
2025-02-13, 21:12:42
Genau.
Ich hab gerade mit meiner XTX (25.2.1, Branch 24.20.) diesen Monster Hunter Wilds Benchmark gegengetestet. Oh, oh, da schaut meine XTX alt aus.
Da macht es einer spannend.
Was kommt denn raus?
crux2005
2025-02-13, 21:19:09
Da macht es einer spannend.
Was kommt denn raus?
112-113 ohne FSR3 FG. Ist halt Birnen vs. Äpfel.
Mit FSR und Framegen kommt man vermutlich auf 200 fps.
Eben.
fondness
2025-02-13, 21:24:06
Frank dementiert die 32Gb Version
https://x.com/AzorFrank/status/1890123828367601764?t=5ADOBv463B9EOUf7itp47Q&s=19
dargo
2025-02-13, 21:26:39
Lol... dann hat einer wieder schön im Netz getrollt. ;D
Genau.
Ich hab gerade mit meiner XTX (25.2.1, Branch 24.20.) diesen Monster Hunter Wilds Benchmark gegengetestet. Oh, oh, da schaut meine XTX alt aus.
Inwiefern? Vor allem sehe ich in dem Benchmark was von 1080p. Keine Ahnung welchen Sinn so ein Benchmark bei diesen Karten machen sollte. Was kommt als nächstes? 720p? :freak:
fizzo
2025-02-13, 21:26:46
Weil derjenige der den Screenshot gemacht hat wohl so eine verbaut hat
Das ganze stammt von HKEPC von Twitter, kannst ja mal dort Fragen warum diese Intel statt AMD CPUs verwenden
Auf Chiphell haben die Chinesen mit ihren Karten Benchmarks mit den selben Einstellungen geteilt
https://www.chiphell.com/thread-2672042-1-1.html
angebliche 9070XT: 211fps mit FSR Frame Gen
4090 mit DLSS 220fps, 4070ti mit DLSS 160fps und FSR 170fps
6900XT mit FSR 160fps und 7900GRE mit FSR 170fps
Link (https://www.computerbase.de/forum/threads/radeon-rx-9070-xt-amd-liefert-termin-ein-screenshot-eckdaten-und-benchmark.2229994/page-2#post-30293057)
basix
2025-02-13, 21:32:23
Frank dementiert die 32Gb Version
https://x.com/AzorFrank/status/1890123828367601764?t=5ADOBv463B9EOUf7itp47Q&s=19
Kannst sie ja 9080 XT nennen ;)
dargo
2025-02-13, 21:43:49
Link (https://www.computerbase.de/forum/threads/radeon-rx-9070-xt-amd-liefert-termin-ein-screenshot-eckdaten-und-benchmark.2229994/page-2#post-30293057)
Wenn das hier stimmt "4070ti mit DLSS 161fps und FSR 172fps" würde es bedeuten, dass die 9070XT mit ihren 211fps minimal schneller als die 4080 Super ist. Laut CB ist die 4080S 18% in 1080p schneller als die 4070TI.
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
4080 Super würde dann 203fps mit FSR und Framegen erreichen. Aber alles noch sehr wage, nicht zuletzt dank nur 1080p.
Der_Korken
2025-02-13, 21:59:03
Die Performance scheint zumindest kein Komplettausfall zu sein.
raffa
2025-02-13, 22:08:31
Klar, ich kauf mir 2025 ne neue GPU und spiel dann mit FSR Q? + FG in 1080p. Ist doch sinnfrei, so ein Wert.
Noch zwei, drei Wochen, dann wissen wir was die 9070er in 1440p+ (base!) auf die Strasse bringen, wie die RT Leistung gewachsen ist und ob FSR4 was kann und dann schau mer mal ob der aufgerufene Preis klar geht.
GerryB
2025-02-13, 22:25:54
1080p@FSR ist doch ganz interessant bzgl. der Shaderauslastung
wo manchmal größere Modelle@DualIssue ihre Probleme haben
und
die Fps mit FG scheinen auch gut zu skalieren
dargo
2025-02-13, 22:31:57
die Fps mit FG scheinen auch gut zu skalieren
Woran machst du das fest ohne Base Frames?
GerryB
2025-02-13, 22:33:42
Ein User im PCGH-Thread hatte mit seiner 7900XTX 205fps.
also sollte FG mindestens genauso gut wie bei RDNA3 skalieren(x)
https://extreme.pcgameshardware.de/threads/amd-radeon-rx-9070-xt-technische-daten-im-gpu-z-und-gaming-bechmark-geleakt.658604/page-2#post-11809834
(x) im Leak evtl. noch das alte FSR3-FG
wie FSR4-FG@AI skaliert kann nochmal ne ganz andere Liga sein, falls weniger Watt gebraucht werden
https://www.station-drivers.com/index.php/en/component/remository/Drivers/Amd-Ati/Gpus/AMD--Adrenalin-Edition/AMD-Radeon-Software-Adrenalin-Edition-Version-24.30/lang,en-gb/
Besonders mutige vorgetreten!!
dildo4u
2025-02-14, 02:03:54
Er hat versucht den Monster Hunter Bench nachzustellen
209 FPS mit 7900XTX 9800x3D
CZDlM4eSpFY
crux2005
2025-02-14, 04:29:08
Was soll FSR High sein? :confused:
dargo
2025-02-14, 07:42:53
Er hat versucht den Monster Hunter Bench nachzustellen
209 FPS mit 7900XTX 9800x3D
https://youtu.be/CZDlM4eSpFY
Kann man komplett vergessen. Wie schon befürchtet eher überwiegend cpu-limitiert der Test. Und dann verwendet Daniel auch noch den Dezember Treiber mit seiner RX 7900XTX anstatt den Adrenalin 25.2.1 zu nehmen der auch offiziell für dieses Spiel vorgesehen ist. Achja... und angeblich auch Werks-OC auf der RX 9070XT.
Palpatin
2025-02-14, 08:28:40
Der Screenshot trollt schon hart. CPU hat bei den verwendeten Einstellungen definitiv einen signifikanten Einfluss und dann wurde ein core ultra 9 285k verwendet. Wegen FSR eigentlich nur wirklich mit anderen Radeon Karten vergleichbar und dann müsste das jemand nachstellen der eine 7900xt oder xtx mit der selben Intel CPU verwendet..... Wird es nicht viel geben.....
robbitop
2025-02-14, 08:54:32
Ich hab mir das Video angeschaut. Er hat sich da eigentlich schon Gedanken gemacht.
Er hat sich die GPU waitstates in seinem System anzeigen lassen und die GPU Auslastung beobachtet und er sagt das kam so gut wie gar nicht vor. Also kaum CPU limitiert.
Auch hat er gemerkt, dass es bei den Settings einen Übersetzungsfehler gegeben hat offenbar und er hat extra recherchiert wie sich die Settings verhalten und aus dem Mandarin ins englische übersetzt und da kam raus, dass es keine "high" settings waren sondern "ultra". Und dass sich das Wort ändert, sobald man irgendwas an den Settings customized.
Er gibt auch zu, dass Unsicherheiten verbleiben. Man muss aber schon sagen, dass das Ergebnis auch relativ konkludent zu den bisherigen Angaben sind. Er hat nur ein 7900XTX AIB Modell (was nicht so doll boostet sagt er) und die 9070 XT hatte einen leichten Factory Overclock auf 3100 MHz boost. Und es ist ein grobes Pari - was ja auch so ziemlich zu den performance leaks passt. Also es ist kein makelloser Datenpunkt aber auch kein Wertloser IMO.
Palpatin
2025-02-14, 09:05:33
Ja alle leaks und Gerüchte seit Januar geben in etwa das Gesamtbild das man wohl im Raster ganz knapp hinter der 7900XTX bei deutlich gesteigerter Effizienz rauskommt. Damit im Raster wohl auch knapp vor der 5070ti bei ähnlicher Effizienz. RT, FSR4 und Preis sind dann die ???. In Summe kann man aber vermutlich schon sagen das man mit der Karte vermutlich nicht viel falsch macht vs 5070ti. Die non XT sehe ich hingegen aufgrund von 16gb klar vorne vs 5070 12gb.
GerryB
2025-02-14, 09:09:57
3100MHz kann ne Custom mit 330W sein, ergo, Perf. durch mehr Takt gibts nicht umsonst.
bezgl. Effizienz würde ich noch keine voreiligen Schlüsse ziehen.
hoffentlich gibts dann 2950MHz mit deutlich weniger Watt bei Reaper etc.
E39Driver
2025-02-14, 09:19:52
Bilder der 9700 Nitro+
https://wccftech.com/sapphires-triple-slot-triple-fan-nitro-custom-model-amd-radeon-rx-9070-gpus-pictured/
Die sieht echt schick aus. Frage mich wie das mit der versteckten Kabeldurchführung gelöst wurde. Sieht man auf den Bildern noch nicht.
Langlay
2025-02-14, 09:30:39
Die sieht echt schick aus. Frage mich wie das mit der versteckten Kabeldurchführung gelöst wurde. Sieht man auf den Bildern noch nicht.
Doch sieht man imo.
Die Aussparung auf der PCI-E Slotseite ist die Durchführung. Der 12VHPWR Anschluss ist in der Kühleraussparung das vordere schwarze linke Ding (Pfeil)
https://i.imgur.com/jMPwkQA.png
GerryB
2025-02-14, 09:34:09
https://www.station-drivers.com/index.php/en/component/remository/Drivers/Amd-Ati/Gpus/AMD--Adrenalin-Edition/AMD-Radeon-Software-Adrenalin-Edition-Version-24.30/lang,en-gb/
Besonders mutige vorgetreten!!
Längst passiert:
https://extreme.pcgameshardware.de/threads/3dmark-rangliste-geforce-und-radeon-grafikkarten-im-benchmark-und-wie-schnell-ist-ihre.590212/page-33#post-11794807
vermutlich sind schon 2-3 neue Vlk-Extensions in dem Treiber und man kanns im SN messen
hatte das Gefühl, das der StationTreiber etwas besser läuft als der 24.12.1
btw.
Es gibt da ne extra gezipte angepasste RadeonSoftware, damits überhaupt mit dem Treiber zusammenpasst.
Die musste ich, glaube, erst selbst auspacken.
edit:
Zusätzlich könnte man noch neuere dll`s reinpacken vor der Installation:
https://forums.guru3d.com/threads/when-will-there-be-a-new-driver.448223/page-77
fondness
2025-02-14, 09:48:38
Ja alle leaks und Gerüchte seit Januar geben in etwa das Gesamtbild das man wohl im Raster ganz knapp hinter der 7900XTX bei deutlich gesteigerter Effizienz rauskommt. Damit im Raster wohl auch knapp vor der 5070ti bei ähnlicher Effizienz. RT, FSR4 und Preis sind dann die ???. In Summe kann man aber vermutlich schon sagen das man mit der Karte vermutlich nicht viel falsch macht vs 5070ti. Die non XT sehe ich hingegen aufgrund von 16gb klar vorne vs 5070 12gb.
Mehr Effizienz würde ich nicht erwarten. Der Chip ist deutlich kleiner und gleicht das mit deutlich mehr Takt wieder aus. Dazu ist die Fertigung fast ident. Der Chip ist vor allem deutlich günstiger zu fertigen und das wird sich wohl auch auf den Preis auswirken.
The_Invisible
2025-02-14, 09:50:59
Doch sieht man imo.
Die Aussparung auf der PCI-E Slotseite ist die Durchführung. Der 12VHPWR Anschluss ist in der Kühleraussparung das vordere schwarze linke Ding (Pfeil)
https://i.imgur.com/jMPwkQA.png
Hat AMD nicht gesagt es gibt keinen HPWR Anschluss bei denen? Welcome to the party :D
fondness
2025-02-14, 09:52:38
Hat AMD nicht gesagt es gibt keinen HPWR Anschluss bei denen? Welcome to the party :D
Die Hersteller können natürlich machen was sie wollen. Man will ja da auch keine 600W drüber führen ;)
Mehr Effizienz würde ich nicht erwarten. Der Chip ist deutlich kleiner und gleicht das mit deutlich mehr Takt wieder aus. Dazu ist die Fertigung fast ident. ....
ist aber jetzt ein Monolith - da fällt einiges weg und/oder geht mit weniger Energie + nur 256 bit RAM
robbitop
2025-02-14, 09:58:53
Und modernere uArch. Aber dennoch kostet mehr Takt auch mehr Energie. Also betriebspunktnormiert ist N48 sicherlich effizienter aber er muss einen schlechteren Betriebspunkt fahren so scheint es.
fondness
2025-02-14, 10:01:07
Ihr habt natürlich beide Recht. Unterm Strich bleibt trotzdem 330W TDP bei ca. 7900XT Leistung. Das ist nicht mehr Effizienz. Klar bei Raytracing wird das anders aussehen und klar wird man wohl mehr raus holen können wenn man den Betriebspunkt optimiert.
robbitop
2025-02-14, 10:03:39
Es sieht aber tatsächlich nach fast XTX Leistung aus. ^^
fondness
2025-02-14, 10:06:46
Es sieht aber tatsächlich nach fast XTX Leistung aus. ^^
Ein paar Prozent auf oder ab kann man noch nicht sagen, aber den großen Effizienzsprung wird es nicht geben.
dargo
2025-02-14, 10:08:45
Er gibt auch zu, dass Unsicherheiten verbleiben. Man muss aber schon sagen, dass das Ergebnis auch relativ konkludent zu den bisherigen Angaben sind. Er hat nur ein 7900XTX AIB Modell (was nicht so doll boostet sagt er) und die 9070 XT hatte einen leichten Factory Overclock auf 3100 MHz boost. Und es ist ein grobes Pari - was ja auch so ziemlich zu den performance leaks passt. Also es ist kein makelloser Datenpunkt aber auch kein Wertloser IMO.
Das mit den 3100Mhz kann auch vollkommender Murks sein. Nirgendwo sieht man die anliegende Frequenz im Benchmark. Die 3,1Ghz werden nur aus GPU-Z abgeleitet was nicht tatsächlich anliegen muss.
3100MHz kann ne Custom mit 330W sein, ergo, Perf. durch mehr Takt gibts nicht umsonst.
bezgl. Effizienz würde ich noch keine voreiligen Schlüsse ziehen.
Der ganze Test ist eigentlich kompletter Murks. Denkbar ist auch, dass die Karte extrem hoch boostet weil sie dank nur 1080p und zusätzlich noch FG nicht voll ausgelastet wird. Ergo läuft so ein Teil dann entsprechend in ein Taktlimit.
Ein paar Prozent auf oder ab kann man noch nicht sagen, aber den großen Effizienzsprung wird es nicht geben.
Kann es auch gar nicht wenn N31 extremst eingebremst wurde um noch in die 355W zu passen während N48 "geprügelt" wird.
GerryB
2025-02-14, 10:17:08
Der ganze Test ist eigentlich kompletter Murks. Denkbar ist auch, dass die Karte extrem hoch boostet weil sie dank nur 1080p und zusätzlich noch FG nicht voll ausgelastet wird. Ergo läuft so ein Teil dann entsprechend in ein Taktlimit.
die bisherigen Custom Leaks hatten wohl 3060 im GPU-Z
evtl.
hat man da noch 40MHz draufgelegt
und
Ja, wenns ala RDNA3 boostet ist der reale Takt bei 3200MHz+.
fondness
2025-02-14, 10:21:23
und
Ja, wenns ala RDNA3 boostet ist der reale Takt bei 3200MHz+.
Ja, das habe ich mir auch schon gedacht, normalerweise wird der Boost ja deutlich überschritten. Aber gut irgendwoher muss ja die 7900XT/XTX-Leistung herkommen wenn man die wirklich erreicht.
Szenario21
2025-02-14, 11:12:13
Von einer 6950XT kommend macht diese Generation wohl keinen Sinn nehme ich an? Bleibt nur das Warten auf UDNA?
Palpatin
2025-02-14, 11:25:14
Ein paar Prozent auf oder ab kann man noch nicht sagen, aber den großen Effizienzsprung wird es nicht geben.
Ausgehend von der 7800xt schon. Die liegt ja bei 250 Watt und der fehlen ca 55-60% Leistung auf die 7900xtx. Bei gleicher Effizienz zur 7800xt bräuchte die 9700XT ca. 400 Watt um die 7900xtx zu erreichen.
Dino-Fossil
2025-02-14, 11:25:27
Von einer 6950XT kommend macht diese Generation wohl keinen Sinn nehme ich an? Bleibt nur das Warten auf UDNA?
Kommt drauf an, was du dir erhoffst. Ein großes Leistungsplus in Raster wirst du wohl nicht sehen. RT dürfte aber spürbar besser werden, wenn man den Gerüchten glauben darf, und dazu bekommst du noch FSR4. Obendrauf auch bessere Effizienz.
GrimReaper85
2025-02-14, 11:27:48
Ihr habt natürlich beide Recht. Unterm Strich bleibt trotzdem 330W TDP bei ca. 7900XT Leistung. Das ist nicht mehr Effizienz. Klar bei Raytracing wird das anders aussehen und klar wird man wohl mehr raus holen können wenn man den Betriebspunkt optimiert.
Nein, die Effizienz wird mindestens auf dem Niveau der 5070 Ti liegen. Referenzkarten werden 260W haben, das heißt, mit 300–330W gewinnt man nicht viel, höchstens 2–5%.
Ich würde eine 15% bessere Effizienz als bei der 7900 XT erwarten (260 vs. 300W), um 4070 SUPER:
https://www.techpowerup.com/review/nvidia-geforce-rtx-5080-founders-edition/44.html
Das sollte für mich jedenfalls das Hauptverkaufsargument sein. Wenn sie das nicht hinbekommen, haben wir ja schon die 7900 XT, die rund €100 billiger sein dürfte.
GerryB
2025-02-14, 11:30:16
Ausgehend von der 7800xt schon. Die liegt ja bei 250 Watt
CB hatte beim Review 263W für die 7800xt geschrieben.
vllt. schafft ja wenigstens die 9070nonXT die 260W
und man hätte nen schönen Generationenvgl.
reaperrr
2025-02-14, 11:35:40
Ich würde eine 15% bessere Effizienz als bei der 7900 XT erwarten (260 vs. 300W)
Die offizielle TDP der 7900XT ist doch 315W, sieht Ref vs. Ref also eher noch etwas besser aus, wenn die 9070XT TDP stimmt.
Wobei erwähnt werden sollte, dass die Gerüchte-Quellen von 26xW sprachen, dass es nur 260W sind ist also nicht bestätigt, ich würde eher mit mindestens 263W wie bei 78XT/79GRE rechnen, evtl. auch 265 oder 268W.
Andere Gerüchte sprachen von 304W, kann also sein, dass AMD auch offiziell nochmal 40W draufgepackt hat, um die XT ~5% höher zu kriegen.
Szenario21
2025-02-14, 11:44:09
Kommt drauf an, was du dir erhoffst. Ein großes Leistungsplus in Raster wirst du wohl nicht sehen. RT dürfte aber spürbar besser werden, wenn man den Gerüchten glauben darf, und dazu bekommst du noch FSR4. Obendrauf auch bessere Effizienz.
Gute Punkte. Vielleicht kommt ja noch ein verbesserter Refresh 9075XT? Ist halt auch die Frage was man für eine 6950 XT noch so bekommt.
Oranje7
2025-02-14, 11:44:42
Wahrscheinlich hat sie Hälfte welche mit Watt Angaben um sich schmeißen, nicht den Unterschied zwischen TDP, TBP und TCP verstanden
robbitop
2025-02-14, 12:47:29
Von einer 6950XT kommend macht diese Generation wohl keinen Sinn nehme ich an? Bleibt nur das Warten auf UDNA?
Das ist natürlich der Nachteil wenn man von einer high end Karte in eine Generation kommt, die nur Midrange SKUs hat.
Aber grob ~30-40% Mehrleistung in Raster sollten dabei rumkommen.
Weiterhin: deutlich mehr RT Leistung (insbesondere by heavy RT load) und FSR4. Und die Schere wird mit immer neueren Spielen und Treibern größer werden.
Szenario21
2025-02-14, 12:59:18
Das ist natürlich der Nachteil wenn man von einer high end Karte in eine Generation kommt, die nur Midrange SKUs hat.
Aber grob ~30-40% Mehrleistung in Raster sollten dabei rumkommen.
Weiterhin: deutlich mehr RT Leistung (insbesondere by heavy RT load) und FSR4. Und die Schere wird mit immer neueren Spielen und Treibern größer werden.
FSR4 klingt zwar gut aber wenn man sieht wie selten FSR3(.1) überhaupt unterstützt wird, da ist dann die Frage wie sehr man davon dann überhaupt profitieren kann.
Ich habe da immer irgendwie das Gefühl als wenn viele Entwickler lediglich DLSS bevorzugen, was ich echt nervig und unaufrichtig finde. Remedy wäre da so ein Beispiel. Ich bin zwar ein Riesenfan ihrer Spiele, aber diese Arroganz und NVidiahörigkeit versauert es mir dann doch etwas.
Palpatin
2025-02-14, 13:30:05
Gibt es da zu Zahlen? Bei den neuen Versionen habe ich was von 75 Spiele die DLSS 4 unterstützen vs 50 Spiele die zum Start das neue FSR unterstützen gelesen. Die meisten Hardwarefresser die ich in letzter Zeit gezockt habe, hatten beides unterstützt.
robbitop
2025-02-14, 13:30:15
FSR4 klingt zwar gut aber wenn man sieht wie selten FSR3(.1) überhaupt unterstützt wird, da ist dann die Frage wie sehr man davon dann überhaupt profitieren kann.
Ich habe da immer irgendwie das Gefühl als wenn viele Entwickler lediglich DLSS bevorzugen, was ich echt nervig und unaufrichtig finde. Remedy wäre da so ein Beispiel. Ich bin zwar ein Riesenfan ihrer Spiele, aber diese Arroganz und NVidiahörigkeit versauert es mir dann doch etwas.
Nutze doch am besten den Optiscaler Mod. Damit kannst du sofern DLSS 2+ oder FSR2+ oder XeSS vom Spiel unterstützt wird das Upsampling auf das umleiten was du willst. Auf das neuste FSR, auf das neuste DLSS oder das neuste XeSS. Entsprechend kann man damit diese Limitierung in der Praxis aushebeln. Ist auch echt einfach zu installieren.
Und er kann auch Spiele die nur DLSS Frame Generation haben auf FSR Framegeneration umleiten und Spiele die kein Frame Generation haben (aber DLSS2+/FSR2+/XeSS) auch Frame Generation injecten (wobei das noch ein experimentelles Feature ist).
TheAntitheist
2025-02-14, 14:06:22
FSR4 klingt zwar gut aber wenn man sieht wie selten FSR3(.1) überhaupt unterstützt wird, da ist dann die Frage wie sehr man davon dann überhaupt profitieren kann.
Ich habe da immer irgendwie das Gefühl als wenn viele Entwickler lediglich DLSS bevorzugen, was ich echt nervig und unaufrichtig finde. Remedy wäre da so ein Beispiel. Ich bin zwar ein Riesenfan ihrer Spiele, aber diese Arroganz und NVidiahörigkeit versauert es mir dann doch etwas.
es ist doch aber logisch das Devs DLSS bevorzugen, wenn 90% der Spieler eben eine Nvidia GPU haben. das auch auch nix mit Arroganz zu tun...
vllt unterstützt AMD auch die Devs einfach nichtmal ansatzweise so gut wie Nvidia (was so ist)
Exxtreme
2025-02-14, 14:16:24
es ist doch aber logisch das Devs DLSS bevorzugen, wenn 90% der Spieler eben eine Nvidia GPU haben. das auch auch nix mit Arroganz zu tun...
vllt unterstützt AMD auch die Devs einfach nichtmal ansatzweise so gut wie Nvidia (was so ist)
Mit FSR 3.1 deckst du Nvidia und Intel ebenfalls mit ab. Das ist deshalb auch nichts Exklusives für eine Winzigklientel. Und wenn man bedenkt, was Optiscaler so leistet, und das quasi von einem einzigen Entwickler entwickelt wird, scheint es nicht so zu sein als ob der Arbeitsaufwand so megagroß ist zusätzliche Upscaler einzubauen.
Wenn man nach Ockhams Rasiermesser geht dann bieten sich nur noch zwei Erklärungen dafür an: Nvidia rückt Kohle/Manpower raus für Exklusivität. Oder aber, die Entwickler sind zu faul/zu unfähig mehr als DLSS einzubauen.
Hakim
2025-02-14, 14:22:09
Ja zudem ist es auch auffällig das die letzten zwei neuen Hype Spiele, das neue Spiderman und Kingdom Come im Vergleich schlecht gegenüber NV Karten performen. Man könnte meinen die Entwickler konzentrieren sich erst mal auf NV da der Marktanteil so hoch ist und AMD muss dann anschließend die Treiber für die Games anpassen, was Zeit kostet.
robbitop
2025-02-14, 14:32:04
Mit FSR 3.1 deckst du Nvidia und Intel ebenfalls mit ab.
Das stimmt aber die Qualität hällt keinem Vergleich stand. Und wenn ohnehin 80-90% der GPUs Nvidia sind, macht das wahrscheinlich schon was in der Entscheidung aus. Aber ja ich vermute, da fließt auch eine ganz andere Unterstützung seitens Nvidia (vermutlich ein großes Dev-rel Department) und wer weiß was für Förderungen da noch sind.
aufkrawall
2025-02-14, 14:34:02
Ja zudem ist es auch auffällig das die letzten zwei neuen Hype Spiele, das neue Spiderman und Kingdom Come im Vergleich schlecht gegenüber NV Karten performen. Man könnte meinen die Entwickler konzentrieren sich erst mal auf NV da der Marktanteil so hoch ist und AMD muss dann anschließend die Treiber für die Games anpassen, was Zeit kostet.
KCD2 soll unter Linux aber schneller laufen, ohne dass der Treiber/API-Wrapper dafür vorab jemals eine Optimierung gesehen hat.
-> Gibt nicht nur bei NV, sondern auch bei AMD Bottlenecks auch im D3D12-Treiber.
fondness
2025-02-14, 14:46:47
Das stimmt aber die Qualität hällt keinem Vergleich stand. Und wenn ohnehin 80-90% der GPUs Nvidia sind, macht das wahrscheinlich schon was in der Entscheidung aus. Aber ja ich vermute, da fließt auch eine ganz andere Unterstützung seitens Nvidia (vermutlich ein großes Dev-rel Department) und wer weiß was für Förderungen da noch sind.
Es geht ohne Dev Unterstützung mittels eines Tools, das eine Person entwickelt. Es gibt IMO keine plausible Erklärung dafür, warum man nicht immer alle Verfahren anbietet außer irgendwelche tollen Schmiermittel von Nvidia.
robbitop
2025-02-14, 14:49:45
Es geht ohne Dev Unterstützung mittels eines Tools, das eine Person entwickelt. Es gibt IMO keine plausible Erklärung dafür, warum man nicht immer alle Verfahren anbietet
Ja das stimmt schon.
Palpatin
2025-02-14, 15:08:53
Es geht ohne Dev Unterstützung mittels eines Tools, das eine Person entwickelt. Es gibt IMO keine plausible Erklärung dafür, warum man nicht immer alle Verfahren anbietet außer irgendwelche tollen Schmiermittel von Nvidia.
Absolut, wenn man bedenkt das in einem PCSpiel ca 10k - 500k Stunden (grob von mir geschätzt) Programmerarbeiten steckt. AMD nur 5% Marktanteile hätte, wäre das um die Verkäufe um 5% zu steigern je nach Spiel 500 - 25000 Stunden zusätzlichen Aufwand wert....
fondness
2025-02-14, 15:22:23
Absolut, wenn man bedenkt das in einem PCSpiel ca 10k - 500k Stunden (grob von mir geschätzt) Programmerarbeiten steckt. AMD nur 5% Marktanteile hätte, wäre das um die Verkäufe um 5% zu steigern je nach Spiel 500 - 25000 Stunden zusätzlichen Aufwand wert....
So ist es. Ich warte ja nur darauf, dass Nvidia irgendwelche tollen Adaptionen an der Schnittstelle vornimmt, sodass man FSR nicht mehr einfach injecten kann. Die Fanboys würde selbst dann noch klatschen und sich aufs Monopol freuen.
Hakim
2025-02-14, 15:33:32
Die Verkäufe steigen und sinken nicht nur wegen Unterstützer oder nicht unterstützter upscaler Technik. Vielleicht bei einigen hier, aber der größte Teil kauft ein Spiel wenn es einem gefällt.
Ich spiele seit Jahren mit Freunden Warzone auf einer GeForce. Und Call of Duty hat die letzten Jahre deutlich besser auf Radeons performt, AMD wirbt auch mit FSR4 mit denen. Grund warum ich meinen Freunden sage ne will ich nicht mehr? :)
robbitop
2025-02-14, 15:34:37
So ist es. Ich warte ja nur darauf, dass Nvidia irgendwelche tollen Adaptionen an der Schnittstelle vornimmt, sodass man FSR nicht mehr einfach injecten kann. Die Fanboys würde selbst dann noch klatschen und sich aufs Monopol freuen.
IMO: Lohnt den Aufwand wahrscheinlich nicht für die paar wenigen (relativ zum Gesamtmarkt) die das machen. Ich könnte mir aber vorstellen, wenn AMD sowas bauen würde und in ihre Software integrieren würde, würde das anders aussehen. ^^
dargo
2025-02-14, 16:17:31
Ja zudem ist es auch auffällig das die letzten zwei neuen Hype Spiele, das neue Spiderman und Kingdom Come im Vergleich schlecht gegenüber NV Karten performen. Man könnte meinen die Entwickler konzentrieren sich erst mal auf NV da der Marktanteil so hoch ist und AMD muss dann anschließend die Treiber für die Games anpassen, was Zeit kostet.
Die Sache ist komplizierter, siehe Post von aufkrawall. Mittlerweile müsste man sich jedes Game auch direkt unter Linux anschauen um da halbwegs was verwertbares ableiten zu können.
Zu Spiderman 2 siehe auch mein Hinweis hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13706570&postcount=152
The_Invisible
2025-02-14, 17:38:06
900W Netzteil empfohlen, auch nicht mehr weit von der 5090 weg :freak:
https://videocardz.com/newz/powercolor-radeon-rx-9070-xt-red-devil-packaging-leak-confirms-64-rdna4-compute-units-900w-psu-requirement
DeadMeat
2025-02-14, 17:51:42
Die Red Devil hatte ja bei der 7900er auch schon 900w, 100 über AMD Empfehlung. Wenn die AMD Angabe tatsächlich 750 sind wäre der Abstand zwischen Ref und OC doch deutlich größer diesmal.
auch nicht mehr weit von der 5090 weg
vermutlich nur 250w real, kaum ein unterschied :D
dargo
2025-02-14, 18:04:38
900W Netzteil empfohlen, auch nicht mehr weit von der 5090 weg :freak:
https://videocardz.com/newz/powercolor-radeon-rx-9070-xt-red-devil-packaging-leak-confirms-64-rdna4-compute-units-900w-psu-requirement
Ich frage mich nur wie mein 650W Seasonic die 7900XTX überleben konnte, die teilweise auf bis zu 400W "geprügelt" wurde.
btw.
Wenn schon für eine RX 7700XT 750W Netzteile empfohlen werden dann ist das nichts weiter als würfeln. ;D Oder es gibt tatsächlich noch solche Chinaböller wo die IHVs auf Nummer sicher gehen (müssen). :freak:
fondness
2025-02-14, 18:05:21
Das ist eh die Red devil. Völlig nichtssagend.
dargo
2025-02-14, 18:11:13
Das ist eh die Red devil. Völlig nichtssagend.
Ja... das ist sicherlich das 330(+)W Ding. Dennoch sind die NT-Angaben lächerlich hoch. Aber wie gesagt... eventuell wollen sich die Hersteller rechtlich einfach nur absichern von noch so schrecklichen Chinaböllern.
GerryB
2025-02-14, 18:11:51
Die Sache ist komplizierter, siehe Post von aufkrawall. Mittlerweile müsste man sich jedes Game auch direkt unter Linux anschauen um da halbwegs was verwertbares ableiten zu können.
1+
Hypothetisch ist nicht jedes DX12-Game auch wirklich auf ner echten DX12-Gameengine.
Manchmal wurde auch nur DX11-->12 nachträglich umkompiliert, um DX12U für RT zu haben.
(aber DrawCallLimit u.ä. Altlasten sind trotzdem noch unter der Haube vorhanden)
In der Hinsicht sollte man vllt. mal ohne RT im DX11-Modus testen.(ala Dying Light 2)
Wer dann noch Zeit hat könnte dieses DX11-Game dann nochmal mit DXVK testen.
aufkrawall
2025-02-14, 18:19:19
Genau, moderne 700€ Grafikkarten mit völlig veralteten APIs und Effekten testen. Ergibt Sinn...
horn 12
2025-02-14, 18:41:00
Meine MBA 7900 XTX @Untervoltet zieht 316 Watt max.
und läuft mit einem 7 Jahre Alten BeQuiet Dark Power Pro 11 zu 650 Watt Tadellos zusammen mit 5800X3D
madzapp
2025-02-14, 19:15:48
Wenn man übertaktete 14900k, 2 360 AiOs und RGB aus der Hölle RAM und Laufwerke noch einberechnet kommt schon was zusammen, wenn man noch Luft will. USB Kram Weihnachtsbaum, Ventilatoren usw.....
GerryB
2025-02-14, 19:25:10
Genau, moderne 700€ Grafikkarten mit völlig veralteten APIs und Effekten testen. Ergibt Sinn...
... aber Dein Fortnite ist der ultimative Grafik-Bringer?!
Kann es sein, das Du überhaupt nicht begriffen hast, worauf ich hinauswill?
Wie will man herausfinden, ob die Engine selbst was taugt(x), oder ob nur im dummen remastered Style was nachträglich
draufgepfropft wurde.
(x) wurde tatsächlich eine brandneue low level Engine programmiert, die theoretisch besser laufen müsste als DX11
(kann man nur ohne RT direkt miteinander vgl. bezgl. Fps und GPU-Auslastung/Watt)
Das wird schon Gründe haben, warum manche Games ewig und drei Tage an DX11 festgehalten haben, bzw. neue remastered
wie ein Sack Nüsse laufen.
crux2005
2025-02-14, 19:41:56
Für was bitte braucht die Powercolor Karte ein 900W Netzteil. :confused:
Linmoum
2025-02-14, 19:48:05
Damit werden wie immer auch China-Böller abgedeckt, von denen es da draußen viel zu viele gibt. Ansonsten dasselbe wie bei der 7900XTX Red Devil, die Empfehlung lautet auch da offiziell 900W.
Szenario21
2025-02-14, 20:07:22
es ist doch aber logisch das Devs DLSS bevorzugen, wenn 90% der Spieler eben eine Nvidia GPU haben. das auch auch nix mit Arroganz zu tun...
vllt unterstützt AMD auch die Devs einfach nichtmal ansatzweise so gut wie Nvidia (was so ist)
Ja, leider ist die Userbase hier total unbalanciert.
Ich habe mich jetzt jedenfalls entschieden dann auf die 9070 XT zu wechseln.
Einfach um bei der neuesten Generation und den Features mit dabei zu sein aber auch um meinen Teil, zum hoffentlichen Erfolg von RDNA4, mit beizutragen.
Von RDNA 2 und älter macht es dann ja wohl noch etwas Sinn. Für die 7900 XT(X) Besitzer ist das wahrscheinlich eine schwierigere Wahl.
crux2005
2025-02-15, 06:28:28
Es gibt schon die ersten Gigabyte RX 9070 XT unboxing Videos von Benutzern. :D
Hakim
2025-02-15, 06:38:57
Ja und da steht auch auf der Verpackung was von Minimum 850 Watt für den Betrieb. Das wären 100W mehr als bei der 5070ti und 200W mehr als bei der 5070 verlangt wird. Ich weiß das die Hersteller sehr großzügig übertreiben um schlechte NTs zu berücksichtigen. Aber 850W hört sich dennoch nach viel an. Vergleicht man es mit dem Gigabyte 7900XTX Gaming OC, hat der zwar auch 850W als Voraussetzung, aber zumindest zwei 8Pin Stecker statt 3.
Glaube am Ende wird es bei mir doch die 9070 nonXT wenn ich AMD kaufen sollte :)
horn 12
2025-02-15, 07:54:12
Ja, wollte die Gigabyte, Pure oder Nitro+ probieren
Aber 55 bis 65mm und dazu alle noch mit 3x 8Pin Stecker
Die 7900 XTX Gigabyte hat da eben nur 2x
Dann wird es wohl die AMD Referenz mit 2x 8Pin werden, und die XTX geht in den Verkauf...
Aber nur wenn Raytracing +min 75 Prozent und Raster +- auf XTX im Durchschnitt rauskommt!
dildo4u
2025-02-15, 08:07:35
Ja und da steht auch auf der Verpackung was von Minimum 850 Watt für den Betrieb. Das wären 100W mehr als bei der 5070ti und 200W mehr als bei der 5070 verlangt wird. Ich weiß das die Hersteller sehr großzügig übertreiben um schlechte NTs zu berücksichtigen. Aber 850W hört sich dennoch nach viel an. Vergleicht man es mit dem Gigabyte 7900XTX Gaming OC, hat der zwar auch 850W als Voraussetzung, aber zumindest zwei 8Pin Stecker statt 3.
Glaube am Ende wird es bei mir doch die 9070 nonXT wenn ich AMD kaufen sollte :)
Nvidia lässt diesmal Luft AMD wäre dumm wenn sie das nicht ausnutzen.
5080 rennt nur um 2.8 GHz könnte locker 3.1Ghz laufen aber sie wollen Abstand zur 5090.
TheGood
2025-02-15, 08:08:15
Also raytracing plus 75% ist ja schon maximal unrealistisch...
crux2005
2025-02-15, 08:10:16
Aber nur wenn Raytracing +min 75 Prozent und Raster +- auf XTX im Durchschnitt rauskommt!
Dann kannst du ja nur enttäuscht werden.
dildo4u
2025-02-15, 08:12:13
Kommt drauf an was man Bencht?
75% sind nicht genug für PT.
https://i.ibb.co/rGm9RCxm/Screenshot-2025-02-15-08-10-44-710-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/MDsdxYcs)
https://www.techspot.com/review/2947-nvidia-geforce-rtx-5080
The_Invisible
2025-02-15, 08:17:42
In PT müsste die Karte wohl so Faktor 3 zulegen, bin ja mal gespannt
dargo
2025-02-15, 08:38:45
Ja, wollte die Gigabyte, Pure oder Nitro+ probieren
Aber 55 bis 65mm und dazu alle noch mit 3x 8Pin Stecker
Falsch... die Pure und auch eine Hellhound haben zwei Stromanschlüsse.
dildo4u
2025-02-15, 08:46:34
Hatte die Referenz xtx nicht nur 2x8Pin damit könnte man Theoretisch wieder 350Watt fahren?
Palpatin
2025-02-15, 08:47:13
In PT müsste die Karte wohl so Faktor 3 zulegen, bin ja mal gespannt
Nö der obere Benchmark ist nicht repräsentativ für PT. PC Games Hardware hat einen PT Index, da ist die XTX Faktor 2,1 hinter 4080S. Wenn die 5070ti etwas darunter raus kommt müsste die 9700xt, ca Faktor 2 also 100% zulegen um sie zu erreichen.
horn 12
2025-02-15, 08:47:26
Die Pure eben nicht diesesmal, zudem viel zu Fett!
Die Hellhound könnte noch hinkommen, hatte ich vergessen zu erwähnen!
robbitop
2025-02-15, 09:17:06
Also raytracing plus 75% ist ja schon maximal unrealistisch...
Bei diesen Angaben muss man genauer sein. Wenn die GPU massiv schneller in RT ist, schlägt das in Spielen wo nur ein kleiner Teil der Frametime für RT anfällt (leichtes rt) kaum durch.
Entsprechend sollte man bei der Angabe nur von der Verbesserung des Anteils der Frametime sprechen die für RT anfällt. Und da soll es eine wesentlich größere Steigerung geben als 75%.
Bei PT Spielen nimmt der Anteil der Frametime zu und die Spreu trennt sich mehr vom Weizen. Da sieht man dann RDNA2 richtig massiv abfallen, RDNA3 schon besser aber noch meilenweit entfernt von Nvidia und Intel (wenn man die relative Performanceeinbuße betrachtet - da ist Battlemage zB tatsächlich richtig stark). RDNA4 hat also massiv Spielraum für Verbesserung da.
IIRC war der Frametime in PT CP77 2,7x kürzer in Ada vs RDNA3 laut dem Chipsandcheese Artikel. Mark Cerny meinte sicherlich in einem vergleichbarem Kontext dass die RT Performance im PS5PRO Chip um Faktor 2+ zugenommen hat.
Das heißt aber nicht dass RT Spiele um so viel schneller geworden sind.
dargo
2025-02-15, 09:23:06
Hatte die Referenz xtx nicht nur 2x8Pin damit könnte man Theoretisch wieder 350Watt fahren?
Was heißt hier wieder theoretisch? Eine 7900XTX Hellhound hat 2x 8Pin und kann mühelos 400W (Performance Bios) fahren.
fondness
2025-02-15, 09:25:23
Detaillierte Bilder der Gigabyte Radeon RX 9070 XT, vom jemanden der die Karte schon gekauft hat :ugly:
https://videocardz.com/newz/gigabyte-radeon-rx-9070-xt-purchased-and-unboxed-ahead-of-launch
Inkl. Unboxing Video:
https://x.com/GaMer31648811/status/1890543895781515513
Und nochmal die Bestätigung, dass man die Karte ab 6. März offiziell kaufen wird können:
https://videocardz.com/newz/amd-radeon-rx-9070-xt-to-launch-on-march-6-just-day-after-rtx-5070
robbitop
2025-02-15, 09:32:08
Kriegt man die in Linux ggf mit Mesa zum laufen? IIRC wurde doch gemeldet dass rdn4 support hinzugefügt wurde. Dann könnte man schon Wochen vor dem Launch erste Benchmarks fahren ^^
fizzo
2025-02-15, 09:32:23
Detaillierte Bilder der Gigabyte Radeon RX 9070 XT, vom jemanden der die Karte schon gekauft hat :ugly:
https://videocardz.com/newz/gigabyte-radeon-rx-9070-xt-purchased-and-unboxed-ahead-of-launch
Für 1.600€ ein Schnapper :ugly:
Edit: laut Kommentar hat der Besitzer Treiber und es sollten zeitnah Benchmarks folgen.
fondness
2025-02-15, 09:33:56
Hatte die Referenz xtx nicht nur 2x8Pin damit könnte man Theoretisch wieder 350Watt fahren?
Laut Spec kannst du mit 2 Stromstecker inkl. PCIe Slot 366W aus der 12V Leitung ziehen. Der Rest ist 3V3 und 5V. Allerdings geben die Stromstecker in der Regel deutlich mehr als 150W her. Ich würde mir also keine Sorgen machen mit 2 Stromstecker, selbst bei Ocing.
fondness
2025-02-15, 09:38:02
Für 1.600€ ein Schnapper :ugly:
Der Händler hatte wohl seine Prinzipien und wollte das NDA nicht brechen....bis zu einem gewissen Preis :ugly:
Im übrigen hab ich ihn so verstanden, dass er die Karte um 1600EUR auf eBay weiterverkaufen will. Wieviel er gezahlt hat erwähnt er nicht.
The_Invisible
2025-02-15, 09:42:33
Für 1.600€ ein Schnapper :ugly:
Edit: laut Kommentar hat der Besitzer Treiber und es sollten zeitnah Benchmarks folgen.
Da bekommst ja schon eine 5080 dafür :D
fizzo
2025-02-15, 09:46:35
Der Händler hatte wohl seine Prinzipien und wollte das NDA nicht brechen....bis zu einem gewissen Preis :ugly:
Im übrigen hab ich ihn so verstanden, dass er die Karte um 1600EUR auf eBay weiterverkaufen will. Wieviel er gezahlt hat erwähnt er nicht.
Stimmt, habe ich unglücklich formuliert. Wäre ja nur Taschengeld für die Elite hier im 3dCenter Forum��
Edit:
Da bekommst ja schon eine 5080 dafür :D
Aber als erster Besitzer hättest mehr als 15 Minuten Ruhm ;)
BTW:
fondness
2025-02-15, 09:49:21
Kriegt man die in Linux ggf mit Mesa zum laufen? IIRC wurde doch gemeldet dass rdn4 support hinzugefügt wurde. Dann könnte man schon Wochen vor dem Launch erste Benchmarks fahren ^^
Es wurden auch schon Windows-Treiber geleaked:
https://www.station-drivers.com/index.php/en/component/remository/Drivers/Amd-Ati/Gpus/AMD--Adrenalin-Edition/AMD-Radeon-Software-Adrenalin-Edition-Version-24.30/lang,en-gb/
24.30 soll laut dem GPU-Z Screen von hinten der Launchtreiber Branch sein.
Aber ja, Linux sollte auch gehen. Aber keine Ahnung wie gut der Support dort schon ist.
Langlay
2025-02-15, 10:16:03
Laut Spec kannst du mit 2 Stromstecker inkl. PCIe Slot 366W aus der 12V Leitung ziehen. Der Rest ist 3V3 und 5V. Allerdings geben die Stromstecker in der Regel deutlich mehr als 150W her. Ich würde mir also keine Sorgen machen mit 2 Stromstecker, selbst bei Ocing.
Jup, bei der Radeon VII gingenmit OC 400W GPU Power(450-480W die ganze Karte) durch 2x8 Pin ohne das es da Probleme gab.
Nach der elektrischen Spec kann der 8-Pin mindestens 280W pro Stecker.
robbitop
2025-02-15, 10:55:45
Es wurden auch schon Windows-Treiber geleaked:
https://www.station-drivers.com/index.php/en/component/remository/Drivers/Amd-Ati/Gpus/AMD--Adrenalin-Edition/AMD-Radeon-Software-Adrenalin-Edition-Version-24.30/lang,en-gb/
24.30 soll laut dem GPU-Z Screen von hinten der Launchtreiber Branch sein.
Aber ja, Linux sollte auch gehen. Aber keine Ahnung wie gut der Support dort schon ist.
Ach krass. Na dann bin ich mal gespannt wie lange es dauert bis es Tests vor dem Launch gibt X-D
dildo4u
2025-02-15, 10:57:13
Was heißt hier wieder theoretisch? Eine 7900XTX Hellhound hat 2x 8Pin und kann mühelos 400W (Performance Bios) fahren.
Wundert mich warum es dann 9700XT Modelle mit 3x8 Pin gibt.
robbitop
2025-02-15, 11:03:59
Welchen Hintergrund hat das bei dir eigentlich dass du immer die falsche Bezeichnung für die 9070 aufschreibst?
The_Invisible
2025-02-15, 11:07:12
Ach krass. Na dann bin ich mal gespannt wie lange es dauert bis es Tests vor dem Launch gibt X-D
Sicher wieder so ein "Dulli" bekommen der nicht weiß wie man bencht :freak:
robbitop
2025-02-15, 11:08:20
Nicht unwahrscheinlich ^^
Für ne Redaktion wäre so eine GPU auch wenn sie 1600€ kostet schon geil. Kein NDA Bruch und 2-3 Wochen vor Launch Exklusiv review
horn 12
2025-02-15, 11:13:17
Da kann AMD so viel wieder gut machen
wenn jene sich besinnen und die Karte für 629 bis 679 Dollar auf den Markt mit Massig Verfügbarkeit werfen!
dildo4u
2025-02-15, 11:43:47
XFX 9070 XT OC für 850$ gelistet.
https://wccftech.com/xfx-radeon-rx-9070-xt-oc-listing-leaked/
davidzo
2025-02-15, 11:45:39
Jup, bei der Radeon VII gingenmit OC 400W GPU Power(450-480W die ganze Karte) durch 2x8 Pin ohne das es da Probleme gab.
Nach der elektrischen Spec kann der 8-Pin mindestens 280W pro Stecker.
Mit den 13A Crimp-Kontakten und AWG16 Kabel komme ich sogar auf 468Watt pro Kabel, also 936Watt für 2x 8Pin.
Es wäre wirklich viel sinnvoller gewesen hätte man den 12 HPWR Stecker weiterhin auf Mini-Fit Basis mit 4.2mm Pin Spacing implementiert. Die 13A Kontakte für Mini Fit sind nicht so selten und schwierig zu verarbeiten wie bei Micro-Fit 3.2. AWG16 lässt sich bei Microfit nur unter großen Schwierigkeiten crimpen und ins Gehäuse einführen und die Kühlung der Kontakte ist beim entspannteren 4.2mm Pitch Mini Fit auch wesentlich besser, da viel mehr Platz und Airflow im Stecker Gehäuse.
Der 8pin Stecker nutzt nur 3x Pins für 12Volt. In einem neuen 12Pin Stecker könnte man volle 6Pins für Power nutzen, wenn man die Sense-Pins wie bei 12VHPWR als kleinere angegossene Extrastecker ausführt. Wenn man dann die 13A Crimpkontakte und AWG16 vorschreibt hat man ein sehr robustes Kabel das nahezu 1Kilowatt aushält. Wenn man das mit 600Watt spezifiziert so wie der aktuelle 12V HPWR Standard hat man immerhin eine 80% Safety Margin.
Ich sehe auch keine Karte bei der ein 3.2mm Pitch für das Design / Kühler wirklich notwendig ist. Selbst die Nvidia FE Karten hätte man Platz gehabt für einen 2x6 4.2mm Pitch Stecker, denn der geht auch hochkant in 2Slot Karten noch rein.
Noch sinnvoller mit Blick auf die Zukunft wäre es aber gewesen mit ATX3.0 gleich auch 48V einzuführen und zwar als CPU wie auch GPU Stecker. Da würde ein kleines AWG16 2Pin Kabel reichen um eine 600W GPU oder CPU zu versorgen. Man brauchte ja eh neue Netzteile, wieso also nicht eine radikalere Veränderung? Das macht die VRMs wesentlich effizienter (siehe Server GPUs) und es reichen viel dünnere Kabel. Wobei ich idealerweise lieber Busbars mit board edge Connectoren hätte, denn dann kann man sich die Kabel vollends sparen und die Verbindung zur Stromversorgung funktioniert parallel zum PCIe Slot.
Dural
2025-02-15, 12:11:07
3x 8pin für eine mittelklasse karte? Locker bis 500watt möglich.
Disco_STFU
2025-02-15, 12:15:42
Guy Spotted with Radeon RX 9070 XT. Did Unboxing and will apparantly be doing Benchmarks soon
https://www.reddit.com/r/radeon/comments/1iprgo2/guy_spotted_with_radeon_rx_9070_xt_did_unboxing/
Klar noch keine Treiber, aber die Bilder der Karte sind interessant!
][immy
2025-02-15, 12:33:01
3x 8 pin weißt aber nicht gerade auf eine gute Effizienz hin. Ist noch zu früh das zu bewerten (gibt ja noch nichts) aber entweder die Performance liegt doch deutlich überhalb der Gerüchte oder die rdna3 Probleme mit dem Verbrauch sind doch noch nicht behoben.
Ansonsten macht 3x8 pin keinen Sinn.
GerryB
2025-02-15, 12:38:05
doch, ... für die OCer-Szene, die gerne mal 4GHz testen wollen@h2o+LM
why_me
2025-02-15, 12:38:19
Sind halt OC Modelle, da gab es doch schon immer mehr 8 Pin Stecker als notwendig.
Selbst bei 250W karten waren da 3 Stecker nicht unüblich.
Linmoum
2025-02-15, 12:45:40
Wobei es bei Gigabyte auch noch oberhalb der Gaming OC etwas gibt. Das ist ja nicht mal das Topmodell. Oder gibt's keine Master bei AMD?
GerryB
2025-02-15, 12:46:41
bei der 7900xtx gabs die Aorus
fondness
2025-02-15, 13:17:50
Die Diskussion ist eh müßig. Es wurden schon genug Karten mit nur 2 Stecker gezeigt und die werden sicher nicht die spec verletzen.
Der dritte Stecker ist ähnlich einzuordnen wie LED Beleuchtung etc. Es gibt halt ein Publikum dafür und deshalb wird es auch angeboten.
Szenario21
2025-02-15, 13:18:53
Warum verwendet AMD hier eigentlich nicht GDDR6X Speicher?
Ist der soviel teurer als normaler GDDR6?
fondness
2025-02-15, 13:29:30
Warum verwendet AMD hier eigentlich nicht GDDR6X Speicher?
Ist der soviel teurer als normaler GDDR6?
Der war AFAIK NV-exklusiv.
fondness
2025-02-15, 13:31:29
Es geht weiter mit den 32GB Gerüchten X-D
AMD’s 32 GB RDNA 4 GPU Might Be Called Radeon RX 9070 XTX, Double The VRAM For AI
https://wccftech.com/amd-32-gb-rdna-4-gpu-called-radeon-rx-9070-xtx-rumor/
Auch Benchlife bestätigt ein 32GB customer Modell:
Now, although Frank Azor denied that there will be no 32GB GDDR6 memory version of Radeon RX 9070 XT, our sources confirmed that AMD is developing products with 32GB GDDR6 memory configuration with AIB partners. The GPU chip used is code-named Navi 48, the same as the Radeon RX 9070 series.
https://benchlife.info/amd-radeon-rx-9070-xt-wont-have-32gb-gddr6-version/
fondness
2025-02-15, 13:33:14
Die erste 9070XT bereits um $750 gelistet, 9070 ab $650:
https://videocardz.com/pixel/xfx-radeon-rx-9070-xt-listed-at-750-rx-9070-at-650-in-leaked-amazon-listing
Default Specs sollen 2970 Mhz Boost für die 9070 XT und 2700 Mhz für die 9070 sein.
The_Invisible
2025-02-15, 13:37:03
Wo sind die träumer jetzt die 499$ für die 9070xt vorhergesagt haben :freak: aber gut bei 5070ti Leistung eh okay
fondness
2025-02-15, 13:43:32
Wo sind die träumer jetzt die 499$ für die 9070xt vorhergesagt haben :freak: aber gut bei 5070ti Leistung eh okay
Das sind noch immer keine offiziellen Preise sondern Platzhalter. Klar ist, kein Shop wird den Preis zu diesem Zeitpunkt zu niedrig ansetzen.
Aber könnten natürlich theoretisch auch schon die finalen Preise sein.
dildo4u
2025-02-15, 13:43:56
Niemand rechnet damit das Nvidia unter 900$ liefert?
Wird interessant was offiziell von AMD festgelegt wird.
raffa
2025-02-15, 13:47:32
Es geht weiter mit den 32GB Gerüchten X-D
Radeon RX 9070 AI MAX+ incoming
fondness
2025-02-15, 13:49:45
Irgendjemand hat auch schon eine Sapphire Radeon RX 9070 XT NITRO+ bei Amazon gekauft X-D
https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-appears-on-amazon-and-someone-already-bought-it
raffa
2025-02-15, 13:52:06
Ach die Leute :D
Eine Karte mit dem Charme eines Vollziegels
Szenario21
2025-02-15, 14:12:42
Ach die Leute :D
Eine Karte mit dem Charme eines Vollziegels
Also ick find se schön :D
Trifft meinen Jeschmack.
Ja, jetzt ist die Frage... Wenn AMD dann mit nem 32GB Modell um die Ecke kommt, ob dann nicht auch irgendwann auch sowas wie eine 9075 XT mit DDR7 und 24GB auftaucht.
Taigatrommel
2025-02-15, 14:23:43
Ich bin ja eigentlich immer großer Fan der Nitro Serie gewesen und gerade die 7900 XT(X) gehört meiner Meinung nach optisch und haptisch zu den schönsten Grafikkarten, welche dazu auch noch sehr gute Kühlleistung bei guter Lautstärke bieten. Doch bei der 9700 XT mit dem versteckten Anschlüssen, noch dazu ja offenbar dem ohnehin anfälligen 12VHPWR Anschluss weiß ich nicht, ob das eine gute Kombination wird. Abgesehen davon finde ich die Karte immer noch besser als viele Konkurrenzprodukte.
bbott
2025-02-15, 14:35:45
Da bekommst ja schon eine 5080 dafür :D
Ich wollte ja erst schon schreiben: Die 9070xt gibt aber noch nicht zu kaufen, die 5080 ja aber auch nicht :freak:
ChaosTM
2025-02-15, 14:45:36
Wie eine Graka ausschaut ist mir als Benutzer eines nicht verglasten Gehäuses herzlich egal.
Falls ich eine Seite mit Glas hätte, dann müsste es schon eine Hello Kitty oder Karte mit netter Waifu drauf sein :)
reaperrr
2025-02-15, 14:56:04
Ja, jetzt ist die Frage... Wenn AMD dann mit nem 32GB Modell um die Ecke kommt, ob dann nicht auch irgendwann auch sowas wie eine 9075 XT mit DDR7 und 24GB auftaucht.
Wenn die Gerüchte bzgl. vorhandenem G7-Support stimmen, ist es durchaus möglich, dass es in ca. 1 Jahr einen Refresh gibt, der dann ungefähr so aussieht:
9075 - 56CU, 260W, etwas mehr Chiptakt als 9070, 16GB 28Gbps G7
9075 XT - 64CU, 310W, etwas mehr Chiptakt als 9070XT, 16-24GB 32Gbps G7
9075 AI/XTX - 64CU, 350W, noch nen Tick mehr Chiptakt, 32GB (Clamshell) 32Gbps G7
Und die 9070 bliebe darunter als etwas günstigeres Modell mit G6 im Angebot.
Reine Speku, RDNA3 bekam ja auch keinen Refresh.
Szenario21
2025-02-15, 15:11:35
Reine Speku, RDNA3 bekam ja auch keinen Refresh.
Das stimmt, aber bei einigen Karten davor gab es sowas als man zwischen die GDDR Generationen geriet. Da gab es dann die gleiche Karte mit neuer GDDR Generation und verdoppeltem RAM.
dargo
2025-02-15, 15:26:49
Wundert mich warum es dann 9700XT Modelle mit 3x8 Pin gibt.
Weil man offenbar paar Idioten damit ködern kann. Nach dem Motto bigger, more = besser.
Hakim
2025-02-15, 15:37:15
Die Gaming OC Modelle bei den 7900ern haben die PT Begrenzung vom Standard Modell wenn ich das richtig gesehen habe. Wenn Gigabyte das nicht geändert hat werden die 850W wohl für alle XT gelten und die Fetten OC Versionen halt 900W wie die devil. Das müsste dann aber halt bei über 300W Stock liegen oder nicht?
dildo4u
2025-02-15, 15:51:03
Kann sein das man das Power Limit bis 360 ziehen kann.
Corsair empfiehlt 850 für 5080.
https://www.corsair.com/de/de/explorer/diy-builder/power-supply-units/best-psu-for-rtx-5080/?srsltid=AfmBOoqHQ8sOvQHAmiDQ6nmOvEQppJyVk1A1RDOmygwu7BV7zYIiwXj_
Sind die 64 CUs tatsächlich der Vollausbau, oder hat das Ding in Wahrheit 72-80 CUs, wo eben etwas deaktiviert wurde, sei es durch VBIOS, oder Lasercut?
reaperrr
2025-02-15, 18:02:45
Sind die 64 CUs tatsächlich der Vollausbau, oder hat das Ding in Wahrheit 72-80 CUs, wo eben etwas deaktiviert wurde, sei es durch VBIOS, oder Lasercut?
Was das physische Vorhandensein angeht, geht es technisch bei 4 SE nur in 16-CU-Schritten, damit ist 72 als Vollausbau schonmal ausgeschlossen.
Und wenn der volle Chip 80 CUs hätte, würde AMD für die XT mindestens 72 bringen (eher 80) und 64-72 bei der 9070.
Bei einem so relativ kleinen Chip in einem relativ ausgereiften Prozess wäre die Ausbeute viel zu gut, um mal eben 20% der CUs selbst beim Flaggschiff deaktiviert zu lassen.
Mit 80 CUs könnten sie schließlich in Raster die 7900XTX und 4080 klar schlagen, mindestens nah an die 5080 rankommen und selber 100-200$ mehr verlangen.
Also nein, N48 wird in Hardware nur 64 CUs haben, sonst hätte es auch schon längst anderslautende Gerüchte gegeben. Alles andere ist leider Wunschdenken.
Was das physische Vorhandensein angeht, geht es technisch bei 4 SE nur in 16-CU-Schritten, damit ist 72 als Vollausbau schonmal ausgeschlossen.
Und wenn der volle Chip 80 CUs hätte, würde AMD für die XT mindestens 72 bringen (eher 80) und 64-72 bei der 9070.
Bei einem so relativ kleinen Chip in einem relativ ausgereiften Prozess wäre die Ausbeute viel zu gut, um mal eben 20% der CUs selbst beim Flaggschiff deaktiviert zu lassen.
Mit 80 CUs könnten sie schließlich in Raster die 7900XTX und 4080 klar schlagen, mindestens nah an die 5080 rankommen und selber 100-200$ mehr verlangen.
Also nein, N48 wird in Hardware nur 64 CUs haben, sonst hätte es auch schon längst anderslautende Gerüchte gegeben. Alles andere ist leider Wunschdenken.
Danke der Aufklärung, aber ~360mm^2 empfinde ich nicht als Klein!
reaperrr
2025-02-15, 22:00:12
Danke der Aufklärung, aber ~360mm^2 empfinde ich nicht als Klein!
Es ist knapp 1/3 weniger Fläche als bei N21 und kaum mehr als bei N22, und N4 dürfte inzwischen ne ähnlich niedrige Defektrate je mm2 haben wie N7 damals.
Der N32-GCD war 200mm² in N5.
Da kommen jetzt
- 4 zusätzliche CUs
- 1 zusätzliche SE
- 32 zusätzliche ROPs
- je CU verdoppelte RT-Hardware
- Hardware-Matrix-Einheiten für KI je CU
- vmtl. neuere und größere VCN-Einheit (Hardware Video En-/Decoder)
- 64 MB IF$
- 256 bit SI
hinzu, während außer dem relativ kleinen IF-Interfaces zu den MCDs nichts wegfällt.
Und dass N4 Logiktransistoren ca. 4% dichter packen kann, aber das ist so gut wie nix und hilft nicht bei Registern, L0, L1, L2 und IF$, wovon N48 insgesamt recht viel haben wird.
Und das sind nur die Dinge die wir quasi sicher wissen, wahrscheinlich wurden die CUs auch an anderen Stellen aufgebohrt, sonst käme man mit 64 CUs in Raster nicht so nah an N31 ran.
360mm² kommt mir für die CU-Zahl zwar auch relativ viel vor, aber es war auch damals bei Navi10 schon so, dass die CUs nur ~1/3 der Gesamtfläche ausgemacht haben, bei N22 waren es vermutlich sogar nur ~25%.
robbitop
2025-02-16, 06:10:17
AD103 ist sogar größer und N48 wird grob auf ähnlicher Performance rauskommen was bedeutet dass man pro CU ja auch einiges an Verbesserungen reingebracht haben muss. Nicht nur bei RT. Das kostet eben Transistoren.
Wenn es zB nur ein doppelter N33 in 4 nm wäre müsste er deutlich kleiner sein. Wäre aber auch nicht so schnell. Sondern eher wohl nur auf 7800XT level. Und N48 wird grob 50% schneller.
GerryB
2025-02-16, 07:02:22
Was wäre denn, wenn man GCD+I/O als 2 Chips verbaut?
(I/O vllt. sogar schon was Neueres@N4)
Sowas könnte das unerwartet größere Package erklären.
Badesalz
2025-02-16, 08:17:11
was bedeutet dass man pro CU ja auch einiges an Verbesserungen reingebracht haben muss. Nicht nur bei RT.
Das kostet eben Transistoren.Dieser direkt zusammenhängende Automatismus in der Sache war mir bisher unbekannt.
und gerade die 7900 XT(X) gehört meiner Meinung nach optisch und haptisch zu den schönsten Grafikkarten, Bin ich heute in einem Paralleluniversum aufgewacht? :ulol:
Doch bei der 9700 XT mit dem versteckten Anschlüssen, noch dazu ja offenbar dem ohnehin anfälligen 12VHPWR Anschluss weiß ich nicht, Vernünftige Brandschutzmaßnahme. Die Flammen gehen nicht auf die nahen kompenenten über bis die Kiste eh von alleine ausgeht.
MSABK
2025-02-16, 09:01:59
Hmm, wenn die $749 für die 9070XT stimmen; dann sind wir hier locker bei 800€ mindestens.
horn 12
2025-02-16, 09:05:00
Nun, die Preise bei Amazon von 649 - 899 Dollar wären erneut ein Todesstoß für AMD
Hoffe die Gier hält sich in Grenzen und dies sind nur Platzhalter Preise
In Euro können es gerne 529/ 589 und 659 bis 749 Euro werden
Alles darüber - Geht der Schuss nach Hinten los!
AD103 ist sogar größer und N48 wird grob auf ähnlicher Performance rauskommen was bedeutet dass man pro CU ja auch einiges an Verbesserungen reingebracht haben muss. Nicht nur bei RT. Das kostet eben Transistoren.
Wenn es zB nur ein doppelter N33 in 4 nm wäre müsste er deutlich kleiner sein. Wäre aber auch nicht so schnell. Sondern eher wohl nur auf 7800XT level. Und N48 wird grob 50% schneller.
Das kann man ja nicht gleichsetzen. AD103/GB203 haben 120Trs/mm², das ist N5-Fertigung, Strix Point hat >140Trs/mm² und ist N4-Fertigung. N48 wird ja die gleiche Fertigung wie Strix nutzen, also auch >140Trs/mm² rauskommen.
dildo4u
2025-02-16, 09:30:32
Nun, die Preise bei Amazon von 649 - 899 Dollar wären erneut ein Todesstoß für AMD
Hoffe die Gier hält sich in Grenzen und dies sind nur Platzhalter Preise
In Euro können es gerne 529/ 589 und 659 bis 749 Euro werden
Alles darüber - Geht der Schuss nach Hinten los!
Es gibt keine FE Version der 5070 TI bis jetzt sind die bei 900$ gelistet.
Daher sind 650$ komplett Fantasie das macht kein Karten Hersteller freiwillig.
robbitop
2025-02-16, 09:50:15
Hmm, wenn die $749 für die 9070XT stimmen; dann sind wir hier locker bei 800€ mindestens.
Eher 900 EUR weil Umsatzsteuer on top kommt. Das ist ja schon 5700ti MSRP und damit IMO viel zu teuer als man damit dann „market share holen“ kann. Mit 599 usd wäre das IMO gerade eben noch der Fall. Mit 700 usd oder 750 USD wäre das wieder die übrliche Nvidia minus zu kleiner Offset Strategie um zu melken. Damit wird man dann aber wahrscheinlich nicht das wahrmachen können was man gesagt hat "Marktanteile zu holen". Wenn nur 50 USD auf eine ähnlich starke Geforce fehlen, werden die meisten zur Geforce greifen (siehe HWUB Video dazu). Einfach weil mehr Mindshare und mehr RT Leistung, und mehr/bessere/verbreiterere Features. Wäre ziemlich enttäuschend wenn das so käme. IMO.
OgrEGT
2025-02-16, 09:52:34
Ich bin ja eigentlich immer großer Fan der Nitro Serie gewesen und gerade die 7900 XT(X) gehört meiner Meinung nach optisch und haptisch zu den schönsten Grafikkarten, welche dazu auch noch sehr gute Kühlleistung bei guter Lautstärke bieten. Doch bei der 9700 XT mit dem versteckten Anschlüssen, noch dazu ja offenbar dem ohnehin anfälligen 12VHPWR Anschluss weiß ich nicht, ob das eine gute Kombination wird. Abgesehen davon finde ich die Karte immer noch besser als viele Konkurrenzprodukte.
Habe selbst eine 7900XT Nitro und kann das von der Haptik bestätigen... da ist alles Aluminium kein Plastik... bzgl 12VHPWR würde ich aber davon ausgehen dass Sapphire die Stromversorgung professioneller auf dem PCB löst als NV bei der 5090FE... dann bliebe nur die Thematik dass man auf korrekten Sitz der Stecker achten muss... auch wenn das nicht optimal ist mMn... andererseits sollte die 9070XT keine >400W benötigen...
robbitop
2025-02-16, 09:54:49
Das kann man ja nicht gleichsetzen. AD103/GB203 haben 120Trs/mm², das ist N5-Fertigung, Strix Point hat >140Trs/mm² und ist N4-Fertigung. N48 wird ja die gleiche Fertigung wie Strix nutzen, also auch >140Trs/mm² rauskommen.
Ich weiß nicht ob man eine APU mit einer GPU vergleichen kann. N4 bringt ggü N5 eigentlich nur 6% mehr Density laut TSMC und das sind eigentlich ideal world Angaben. Ansonsten ist AD103 mit 380 mm2 auch ein bisschen größer.
IMO ist das schon alles sehr sehr ähnlich.
horn 12
2025-02-16, 12:03:14
9070 XTX 32 GB
Ab April bis Mai womöglich ?
https://videocardz.com/newz/speculation-grows-around-radeon-rx-9070-xtx-with-32gb-memory
Exxtreme
2025-02-16, 12:52:31
Glaube ich nicht. Wozu sollte AMD einen Ladenhüter produzieren? Die haben doch gesehen, dass alles >16 GB nicht mehr läuft.
Wenn die gemunkelten hohen Preise für die 9070/9070XTs wirklich eintreten, dann hat AMDs Frank Azor aber gehörigen Bullshit gelabert.
Da werden die meisten wohl jäh aus ihren günstigen Phantasiepreis-Vorstellungen herausgerissen werden. Ob das für AMD gut ausgeht - ich glaub derzeit nicht dran.
Naja noch gibt's die 7900XTX, relativ günstig. Fragt sich allerdings wie lange noch? :conf:
dildo4u
2025-02-16, 13:03:59
Wenn sie keine Referenz Karte geplant haben können sie eh nicht den Preis Regeln.
Ist genau das selbe wie bei Nvidia es gibt ganz wenige Sparversionen der Rest sind OC Modelle.
Hakim
2025-02-16, 13:07:47
Die letzten Gerüchte über den vermutlichen Preis und auch wahrscheinlichen PT gefallen mir eigentlich so gar nicht. Wenn man zu nah an Nvidia bei den Preisen ist aber sogar mehr Schluckt, wird es schwer. Würde mehr Sinn ergeben wenn man die 5080 mit der Leistung nerven kann. Aber wie groß ist der Markt bei Leuten die bereit sind soviel überhaupt auszugeben, bezüglich derren aussaugen Anteile zurück zu holen. Dazu kommt Leute die bereit sind verdammt viel Geld auszugeben achten nicht so stark auf P/L, sprich schwerer dazu zu bringen eine 9070XT statt einer 5080 kaufen (Ausgehend nach einer Beruhigung des Marktes in paar Monaten). Mal abwarten
robbitop
2025-02-16, 13:14:51
Glaube ich nicht. Wozu sollte AMD einen Ladenhüter produzieren? Die haben doch gesehen, dass alles >16 GB nicht mehr läuft.
Kann man ggf für AI Kram verkaufen? Wenn AI bei N48 deutlich stärker geworden ist macht es ggf Sinn. Und große Modelle lieben viel VRAM.
robbitop
2025-02-16, 13:15:50
Wenn die gemunkelten hohen Preise für die 9070/9070XTs wirklich eintreten, dann hat AMDs Frank Azor aber gehörigen Bullshit gelabert.
Da werden die meisten wohl jäh aus ihren günstigen Phantasiepreis-Vorstellungen herausgerissen werden. Ob das für AMD gut ausgeht - ich glaub derzeit nicht dran.
Naja noch gibt's die 7900XTX, relativ günstig. Fragt sich allerdings wie lange noch? :conf:
Jopp wenn man nur 50 USD billiger ist als die 5070ti werden die meisten zur Geforce greifen. Wenn das stimmt war das mit dem Marktanteile holen wohl ggf nicht so ganz ernst gemeint. ^^
][immy
2025-02-16, 13:36:11
Glaube ich nicht. Wozu sollte AMD einen Ladenhüter produzieren? Die haben doch gesehen, dass alles >16 GB nicht mehr läuft.
Nun, die 32 Gb für AI würde halt für spezielle Märkte ggfs Sinn ergeben, aber da nutzt man ja eher cdna.
Das sich >16gb nicht gut verkaufen könnte, lag wohl auch eher das man damit Preislich mit 16gb rtx Produkten konkurrieren müsste und da dann den kürzeren zog. Auch die Effizienz war nicht so gut und brachte es damit AMDs GPUs ebenfalls in Verruf.
mironicus
2025-02-16, 13:37:32
AI lohnt sich schon. Sie bringen Strix Halo mit bis zu 96 GB VRAM raus und da kann man nicht herumkrebsen mit 16 GB bei den Topkarten. Für AI ist VRAM wichtiger als Highend-Geschwindigkeit. Mit 32 GB RAM wäre es eine günstige Alternative zur RTX 5090.
Der_Korken
2025-02-16, 13:41:29
Wenn die gemunkelten hohen Preise für die 9070/9070XTs wirklich eintreten, dann hat AMDs Frank Azor aber gehörigen Bullshit gelabert.
Da werden die meisten wohl jäh aus ihren günstigen Phantasiepreis-Vorstellungen herausgerissen werden. Ob das für AMD gut ausgeht - ich glaub derzeit nicht dran.
Ja, weil es genau das seit je her war: Phantiesiepreise.
Jopp wenn man nur 50 USD billiger ist als die 5070ti werden die meisten zur Geforce greifen. Wenn das stimmt war das mit dem Marktanteile holen wohl ggf nicht so ganz ernst gemeint. ^^
Dann warte mal, wie die realen Preise der 5070Ti aussehen werden. Selbst wenn AMD offiziell 750$ ausruft, erwarte ich, dass es bei brauchbaren Custom-Modellen mindestens 200€ Unterschied geben wird - zumindest die ersten Wochen. Später immer noch mindestens 100€. AMD wird den Boardparnern genug Marge übrig lassen, dass man für 750$ auch ernsthafte Modelle anbieten kann, während die Boardpartner bei Nvidia scheinbar absolute Sparbrötchen auflegen müssen, um mit 750$ noch bei +/-0 rauszukommen.
robbitop
2025-02-16, 14:00:25
HW Unboxed schätzt man muss 20% günstiger sein performancenormiert damit Endkunden umschwenken. Das würde ich auch aus dem Bauch heraus tippen. 700 USD MSRP Preise würden also ab ~840 USD für die 5070ti grob passen. Sofern sie von der Performance gleich ist.
Ich weiß nicht ob man eine APU mit einer GPU vergleichen kann. N4 bringt ggü N5 eigentlich nur 6% mehr Density laut TSMC und das sind eigentlich ideal world Angaben. Ansonsten ist AD103 mit 380 mm2 auch ein bisschen größer.
IMO ist das schon alles sehr sehr ähnlich.
Das passt schon.
robbitop
2025-02-16, 14:31:49
Gutes Argument :up: X-D
Wieso? Wir werden ja sehen, wie hoch die Packdichte ist, bei AMD ist die ja sowieso recht hoch in letzten Jahren, hinzu kommt noch die zusätzliche Flächeneinsparung bei N4, ich sehe nicht, warum N48 nicht zumindest >130Trs/mm² haben sollte, ich wette, es werden eher 140. Übrigens hat auch GB202 weniger Transitoren als AD103.
Meine Vermutung war bereits, dass bei N31 Transen wegrationaliert wurden, um Kosten zu sparen. Problem war dann nur, dass man die 3.5g nicht mehr erreichen konnte. N31 mit 3.5g wäre auf jeden Fall ein Gegner für die 4090 gewesen. Vielleicht fällt deshalb der Chip größer als erwartet aus.
OgrEGT
2025-02-16, 19:30:28
https://videocardz.com/newz/powercolor-rx-9070-xt-red-devil-limited-edition-listed-by-microcenter-as-pcie-5-0-gpu
PowerColor RX 9070 XT Red Devil Limited Edition listed by MicroCenter as PCIe 5.0 GPU
Der_Korken
2025-02-16, 19:35:09
Meine Vermutung war bereits, dass bei N31 Transen wegrationaliert wurden, um Kosten zu sparen. Problem war dann nur, dass man die 3.5g nicht mehr erreichen konnte.
Wovon redest du? Zumindest 3,3Ghz scheinen kein großes Problem zu sein. Du musst dem Chip halt nur 700W+ geben, damit der die Taktraten unter Last halten kann.
crux2005
2025-02-16, 20:07:39
Hmm, wenn die $749 für die 9070XT stimmen; dann sind wir hier locker bei 800€ mindestens.
Eher 950€+
Wenn die gemunkelten hohen Preise für die 9070/9070XTs wirklich eintreten, dann hat AMDs Frank Azor aber gehörigen Bullshit gelabert.
Da werden die meisten wohl jäh aus ihren günstigen Phantasiepreis-Vorstellungen herausgerissen werden. Ob das für AMD gut ausgeht - ich glaub derzeit nicht dran.
Habe es herausgesucht. Er hat nur gesagt:
"Azor confirmed that AMD will not be making a $1,000 RDNA 4 graphics card, and that they aim to create a “very competitive product.”
Und das stimmt.
Wenn einer Bullshit gelabert hat dann Jack Huynh. Wobei er wohl keine Ahnung hat was Mainstream ist und wie die Preise sein müssen damit sich Radeons verkaufen.
https://wccftech.com/amd-confirms-focus-on-mainstream-segment-first-rdna-4-gpus-compete-against-nvidia/
Bin jedenfalls gespannt wie viel Copium diesmal die AMD Radeon Fans brauchen um das zu rechtfertigen (falls die Preise denn stimmen, was sich aktuell aber so abzeichnet).
AffenJack
2025-02-16, 21:05:57
Wieso? Wir werden ja sehen, wie hoch die Packdichte ist, bei AMD ist die ja sowieso recht hoch in letzten Jahren, hinzu kommt noch die zusätzliche Flächeneinsparung bei N4, ich sehe nicht, warum N48 nicht zumindest >130Trs/mm² haben sollte, ich wette, es werden eher 140. Übrigens hat auch GB202 weniger Transitoren als AD103.
Glaube ich nicht dran. evtl geradeso 130Trs/mm², aber 140 wird man nicht schaffen. Dann müsste der ganze Chip tiefer takten, wenn man so auf Packdichte geht.
Wovon redest du? Zumindest 3,3Ghz scheinen kein großes Problem zu sein. Du musst dem Chip halt nur 700W+ geben, damit der die Taktraten unter Last halten kann.
Du erwartest doch nicht, dass ich auf so einen Stuss antworte...
GerryB
2025-02-17, 04:38:04
Ob man avg. 700W braucht, hängt doch eher vom Game/Benchmark ab, wo maxed sinnlos viel Watt verballert.
Raster@FHD oder 4k@FSR3.1-Perf. + FG + AFMF2 sollte eher ins Taktlimit laufen, wo nur die V/F-Kurve interessiert.
Nach m.E. packen sowohl FSR als auch FG oder /und AFMF2 asynchronen Takt obendrauf mit minimal Watt mehr.
Also wenn die Kurve weit genug hochgezogen werden kann, sprich Werte für Volt-Max +25...50...75...100mV@EVC2 in der Kurve vorh. sind, gehen auch schon@RDNA3 ca. 3,8GHz bei den Shadern (4GHz Frontend).
siehe HoF (im Anhang)
natürlich wärs nicer, wenn RDNA4 auch ohne EVC2 so hoch takten kann, bei weniger Volt
und AMD die Kurve oben offen lässt
Das sich sowas mit mehr Masse-Transistoren oder weniger Packdichte leichter verwirklichen lässt, ist wohl der Wunsch von Gedi.
(Optimierung der Leckströme)
robbitop
2025-02-17, 07:12:49
Eine starke GPU ist IMO doch nicht dazu da in Teillast zu laufen damit man sich auf hohe Taktratenen eine runter holen kann. Das Ding muss bei Volllast gut sein. Dafür kauft man IMO high end. 4k, max Details.
Schade, dass man bei RDNA3 es so schwierig hat da richtig TDP freizuschalten das war iirc mit rdna2 einfacher. Mit Wakü sind auch 600W und mehr kein Problem. Dann schön 3,3-3,5 GHz beim zocken? Ich hätte das gern genutzt. Aber mit evc2 rumlöten usw hatte ich damals kein Bock.
basix
2025-02-17, 07:47:04
Eine starke GPU ist IMO doch nicht dazu da in Teillast zu laufen damit man sich auf hohe Taktratenen eine runter holen kann. Das Ding muss bei Volllast gut sein. Dafür kauft man IMO high end. 4k, max Details.
Grundsätzlich gebe ich dir recht. Vollast muss gut sein und absurd hohe Taktraten bei Teillast bringen nicht so viel.
Aber da man heutzutage oft FSR-Q/P nutzt in 4K, sollte sie also auch bei niedrigeren Auflösungen skalieren. Und das machen dicke GPUs naturgemäss wegen ihrer Breite eher schlecht ;) Das gute an z.B. einer 4090 ist, dass niedrige Auflösungen oder sonstige Auslastungsprobleme für die Karte wie Teillast aussehen und selbstständig ihren Energiehunger zügelt. Ich bin deswegen in 4K mit UV+OC meistens zwischen 200...250W unterwegs, volle Pulle ist 300...330W (je nach Spiel und Render-Auflösung). Das ist ein wenig das umgekehrte, was du beschreibst: Niedrige Last = Sehr hohe Taktraten vs. Niedrige Last = Stark reduzierter Verbrauch. Aus meiner Sicht sollten GPUs wie letzteres Arbeiten, da extrem hoch gezogener Takt meistens nur wenig bringt (performancetechnisch). Weil wieso ist man nur mit "Teillast" unterwegs? CPU-Limit, Framelimiter, niedrige Auflösung z.B. aufgrund FSR-P, Bandbreitenlimit, usw.
Lovelace war die erste GPU-Generation, die so reagiert. Blackwell ist ähnlich (nicht selbst getestet). Und ich finde dieses Verhalten genial. Und ich hoffe das wird zum neuen Standard, auch bei AMD GPUs. Taktraten +/- halten und dafür den Verbrauch reduzieren, wenn man nicht voll ausgelastet wird.
dargo
2025-02-17, 07:54:31
Angeblich sind die geleakten XFX-Preise Platzhalter.
https://youtu.be/CQZoZV9oYak?si=FBliM-VrINeISr6F&t=274
dildo4u
2025-02-17, 08:19:03
Es ist egal was AMD sagt wenn die Nachfrage zu hoch ist liegt man über der Empfehlung siehe 9800x3D.
robbitop
2025-02-17, 08:30:12
Ich bin gespannt wie sich RDNA4 verhält mit starkem OC und langer Leine. Wenn man sagen wir mal 600-700W drauf schmeißen kann ob dann nochmal richtig viel mehr Takt geht? Dank custom wakü für viele ja kein Problem.
Die Frage ist nur, wie sehr sie das zunageln. Mit 600-700W und 4 GHz würde die sicherlich schon ordentlich abgehen - sofern sie nicht an der Bandbreite verhungert.
[MK2]Mythos
2025-02-17, 08:43:15
Ich bin gespannt wie sich RDNA4 verhält mit starkem OC und langer Leine. Wenn man sagen wir mal 600-700W drauf schmeißen kann ob dann nochmal richtig viel mehr Takt geht? Dank custom wakü für viele ja kein Problem.
Die Frage ist nur, wie sehr sie das zunageln. Mit 600-700W und 4 GHz würde die sicherlich schon ordentlich abgehen - sofern sie nicht an der Bandbreite verhungert.
Halte ich für ausgeschlossen. Für über 100% mehr Strom müssten ja wirklich alle Komponenten auf der Karte entsprechend dimensioniert sein.
fondness
2025-02-17, 08:45:38
Ich bin gespannt wie sich RDNA4 verhält mit starkem OC und langer Leine. Wenn man sagen wir mal 600-700W drauf schmeißen kann ob dann nochmal richtig viel mehr Takt geht? Dank custom wakü für viele ja kein Problem.
Die Frage ist nur, wie sehr sie das zunageln. Mit 600-700W und 4 GHz würde die sicherlich schon ordentlich abgehen - sofern sie nicht an der Bandbreite verhungert.
Die ermöglichen sicher keine TDP-Verdoppelung, das sollte klar sein. Und was man auch nicht vergessen sollte: Im Gegensatz zu N31 hat N48 auch zu wenig Bandbreite um davon groß zu profitieren.
Aber ja, seit die Zen-Leute mitwursteln geht da gut Takt bei den AMD-Karten.
robbitop
2025-02-17, 08:48:38
Mythos;13708132']Halte ich für ausgeschlossen. Für über 100% mehr Strom müssten ja wirklich alle Komponenten auf der Karte entsprechend dimensioniert sein.
Das stimmt - allerdings mit full cover wakü sinkt ja auch die VRM Temperatur stark und man kann schon auch mehr durchschieben. Man muss es ja nicht den DAUs geben. Aber so, dass man es ohne Elmo EVC2 irgendwie hinbekommt. Ohne Löten halt. Mit Mod bios oder Nerd Software. ^^
Ex3cut3r
2025-02-17, 08:57:34
Teuer wird es so und so. Wer irgendwas von 500€ fantasiert, ist IHMO ein Träumer. 700-1000€ zum Start sind realistisch. :)
robbitop
2025-02-17, 09:00:39
Ja ich fürchte auch. Wenn es 700 USD MSRP wird, dann sind es 850-900 EUR in Deutschland und dann sorry kaufe ich die Geforce. Dann will man offenbar keine Marktanteile.
Wenn man pari mit features, RT Performance und Game implementierung ist (oder gar schneller) wäre es was anderes. Aber so muss man schon pefromanancenormiert ein gutes Stück ablassen.
Aber wenn es deutlich günstiger als eine gleich schnelle Geforce ist (20%+) bin ich auch dabei ^^
dargo
2025-02-17, 09:01:53
Es ist egal was AMD sagt wenn die Nachfrage zu hoch ist liegt man über der Empfehlung siehe 9800x3D.
Breaking News.
Ja ich fürchte auch. Wenn es 700 USD MSRP wird, dann sind es 850-900 EUR in Deutschland...
Nö... bei 699$ UVP wird es langfristig 700-750€ Straßenpreis heißen. War schon immer so. Natürlich nicht in den ersten ~8 Wochen wo gierige Händler zuschnappen und natürlich muss das Angebot auch stimmen und nicht diese homöopathische Dosen @GB202/GB203. :lol: Zumal Nvidia auch noch ca. Faktor 8-9 an Stückzahlen vs. AMD liefern muss. Jetzt nicht unbedingt bei GB202, aber GB203 schon.
fondness
2025-02-17, 09:14:54
Man kann ja mittlerweile nicht mal mehr MSRP vergleichen, weil Nvidia das offenbar als Marketinginstrument benutzt.
Man wird ja dann sehen wo die realen Marktpreise liegen, alles andere ist irrelevant. Sofern man eine 5070Ti überhaupt kaufen kann. X-D
Aber amüsant anzusehen, dass manche hier schon wieder ganz genau wissen, wo der Preis liegen wird. X-D
fondness
2025-02-17, 09:22:39
Angeblich sind die geleakten XFX-Preise Platzhalter.
https://youtu.be/CQZoZV9oYak?si=FBliM-VrINeISr6F&t=274
Das ist klar, es gibt noch keinen Preis von AMD. Alle Listungen von Händlern aktuell sind Platzhalter.
Palpatin
2025-02-17, 11:09:43
Ja ich fürchte auch. Wenn es 700 USD MSRP wird, dann sind es 850-900 EUR in Deutschland und dann sorry kaufe ich die Geforce. Dann will man offenbar keine Marktanteile.
Wenn man pari mit features, RT Performance und Game implementierung ist (oder gar schneller) wäre es was anderes. Aber so muss man schon pefromanancenormiert ein gutes Stück ablassen.
Aber wenn es deutlich günstiger als eine gleich schnelle Geforce ist (20%+) bin ich auch dabei ^^
Wenn Verfügbarkeit ähnlich der 5080 wirst du aber halt auch lange keine 5070ti unter 1200€ sehen. Fände da 850-900 schon fair wenn entsprechend schnell.
robbitop
2025-02-17, 11:15:00
Naja für mich ist es nicht nur das delta. Wenn sich die Preise von beiden zu hoch entwickeln ist es halt trotzdem Abzocke bzw schlechtes P/L. Dann kauf ich halt einfach nichts. Geht dann halt in die ETFs.
Hakim
2025-02-17, 12:06:25
Wäre bei mir auch so, wenn beide Hersteller mich nicht richtig überzeugen, und könnte durchaus so kommen, sinkt die Motivation was zu kaufen. Obwohl ich wirklich vorhatte was zu holen. Das mit dem Fertigungs Änderung nächste Gen auf 3nm, wo der Sprung größer sein sollte. Aber nochmals 2 Jahre auf einer lahmen karte....., ob ich das aushalte
Dino-Fossil
2025-02-17, 12:56:05
Wer auf sinkende gpu Preise gehofft hatte dürfte wieder enttäuscht werden.
NVIDIA lässt den Partnern kaum was übrig, so dass deren Karten gut was auf die uvp drauf legen ( soviel zur Preissenkung der 5070) und AMD ist Marge auch wichtiger als Marktanteil.
G3cko
2025-02-17, 13:06:15
Und irgendwann stehste halt dann so wie ich mit einer Vega64 da und musst kaufen, ob du willst oder nicht. ;)
Dino-Fossil
2025-02-17, 13:09:39
Tja. Denke ich mache es wieder wie bei meinem letzten Wechsel und warte eben auf Angebotspreise gegen Ende der Generation. Aber gut. Noch ist ja nix offizielles raus.
fondness
2025-02-17, 13:16:33
und AMD ist Marge auch wichtiger als Marktanteil.
Die Glaskugel muss man erstmal haben.
robbitop
2025-02-17, 13:21:50
Tja. Denke ich mache es wieder wie bei meinem letzten Wechsel und warte eben auf Angebotspreise gegen Ende der Generation. Aber gut. Noch ist ja nix offizielles raus.
Gibt es sowas überhaupt noch? Auf mich wirkt es dass sich da nicht viel ändert. Die einzig attraktive GPU die immer mal wieder zu guten Preisen (auch schon in der Mitte der Lebensphase) kam war die 7900XT. Die gab es schon nach ~1 Jahr (IIRC) immer mal wieder für 650 EUR auf mydealz. Die XTX war relativ zu der XT IMO eigentlich immer zu teuer.
Die 7800XT und 7700XT gab es tatsächlich auch schon relativ früh immer mal zu guten Preisen - aber da die erst grob zur RDNA3 Halbzeit kamen also auch zeitlich in etwa so wie die 7900XT Angebote.
Bei Nvidia war Ada ja eigentlich ziemlich statisch von den Preisen.
Hakim
2025-02-17, 13:25:32
Bei Nvidia war Ada ja eigentlich ziemlich statisch von den Preisen.
Und die Preise sind gegen Ende eher hoch gegangen als runter, mit der Begründung das man die Produktion vor einiger Zeit für die neue Gen eingestellt hat. Dennoch beliefert man die neuen Karten Bruchstückhaft. Fast könnte man meinen wir spielen das Spiel von jemanden der sich das ausgedacht hat um die Preise stabil hoch zu halten.
Complicated
2025-02-17, 13:53:28
https://www.computerbase.de/news/grafikkarten/amd-geruechte-eine-radeon-rx-9070-xt-mit-32-gb-fuer-ai-soll-folgen.91382/#update-2025-02-17T08:42
Erneut hat sich Frank Azor zu den Gerüchten geäußert. Die anhaltenden Spekulationen um eine Radeon RX 9070 mit 32 GB GDDR6 kommentiert er mit
„Tatsächlich handelt es sich um eine 320-GB-Grafikkarte, wir nennen sie 90700.05XTXT Max“.
;D;D;D
Palpatin
2025-02-17, 13:58:25
Gibt es sowas überhaupt noch? Auf mich wirkt es dass sich da nicht viel ändert. Die einzig attraktive GPU die immer mal wieder zu guten Preisen (auch schon in der Mitte der Lebensphase) kam war die 7900XT. Die gab es schon nach ~1 Jahr (IIRC) immer mal wieder für 650 EUR auf mydealz. Die XTX war relativ zu der XT IMO eigentlich immer zu teuer.
Die 7800XT und 7700XT gab es tatsächlich auch schon relativ früh immer mal zu guten Preisen - aber da die erst grob zur RDNA3 Halbzeit kamen also auch zeitlich in etwa so wie die 7900XT Angebote.
Bei Nvidia war Ada ja eigentlich ziemlich statisch von den Preisen.
Die 4080 sind ja mit 1500€ gestartet und dann nach und nach mit dem Release der Super runter auf 1000€. Die 4070ti sind mit ca 950 gestartet und auf 700 runter. Statisch würde ich das jetzt nicht nennen.
fondness
2025-02-17, 13:59:11
https://www.computerbase.de/news/grafikkarten/amd-geruechte-eine-radeon-rx-9070-xt-mit-32-gb-fuer-ai-soll-folgen.91382/#update-2025-02-17T08:42
;D;D;D
"1.21 gigawatts PSU required. Features new 96 pin power connectors."
https://x.com/AzorFrank/status/1891125766395490607
mboeller
2025-02-17, 14:07:45
Die 4080 sind ja mit 1500€ gestartet und dann nach und nach mit dem Release der Super runter auf 1000€. Die 4070ti sind mit ca 950 gestartet und auf 700 runter. Statisch würde ich das jetzt nicht nennen.
<gelöscht>
Die 4080S findest du hier:
https://preisvergleich.heise.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4080+SUPER Die Gigabyte schaut da wesentlich humaner aus, abgesehen von dem letzten Monat. Bei der ist der Preis mehr oder weniger "statisch"
https://preisvergleich.heise.de/gigabyte-geforce-rtx-4080-super-gaming-oc-gv-n408sgaming-oc-16gd-a3097203.html?hloc=at&hloc=de
Daredevil
2025-02-17, 14:22:04
https://www.computerbase.de/news/grafikkarten/amd-geruechte-eine-radeon-rx-9070-xt-mit-32-gb-fuer-ai-soll-folgen.91382/#update-2025-02-17T08:42
;D;D;D
Cringe :<
Exxtreme
2025-02-17, 14:23:36
Cringe :<
Also ich finde es durchaus amüsant. Und es zeigt auch, dass die Leute bei AMD sehr wohl wissen was in der Hardware-Sphäre so abgeht.
Dino-Fossil
2025-02-17, 14:31:42
Die Glaskugel muss man erstmal haben.
Die heißt Resignation...
Gibt es sowas überhaupt noch? Auf mich wirkt es dass sich da nicht viel ändert.
Nun, massive Nachlässe sieht man eigentlich eher nicht, das stimmt. Aber gegenüber der UVP kann sich dann über die Zeit schon was tun, würde ich sagen. Meine RX 6700 (UVP ~420€) gab es dann z.B. für ~300€, wenn man Glück hatte auch noch in einem Bundle mit Spiel.
Hat auch keinen Jubel bei mir ausgelöst, aber immer noch besser als nichts.
Daredevil
2025-02-17, 14:48:48
Also ich finde es durchaus amüsant. Und es zeigt auch, dass die Leute bei AMD sehr wohl wissen was in der Hardware-Sphäre so abgeht.
Als onetime Joke wäre das auch mein Geschmack, aber als "Wir sind AMD, haben 10% Marktanteil und haben Angst vor dem HighEnd" ist es imho nicht unbedingt funny, nun den Twitter Troll zu machen. Aber Geschmäcker sind natürlich unterschiedlich, klar.
Natürlich wissen die Leute was im Hardware Game abgeht, dafür kriegen sie doch Kohle. Stand das zur Debatte? :D
https://s20.directupload.net/images/250217/mdurskoz.png
Edit: Aber fairerweise, besser so ein Marketing als gar keins. Also raus damit mit der Aufmerksamkeit!
Die Gaming Welt blickt auf AMD und die Erwartungen sind auch durch solche Stunts nicht kleiner geworden.
reaperrr
2025-02-17, 15:01:51
Bei Nvidia war Ada ja eigentlich ziemlich statisch von den Preisen.
Jup, man hat die Preise irgendwann mangels Nachfrage um ~50$/€ inoffiziell gesenkt und ist dann dabei geblieben, und seit Oktober sind die Preise teils durch absehbare Zölle, teils durch Auslaufen der Produktion und Verfügbarkeit sogar wieder gestiegen.
4070 gab's mal für ~520-530 neu, nähert sich jetzt 600. 4070S kosten die meisten Modelle schon über 700.
Natürlich auch deshalb, weil absehbar ist dass die 5070 a) auch Richtung 700+€ kosten wird (OC Modelle zum Launch) und b) in Raster wohl langsamer als die 4070S wird.
Die Zeiten wo Preise vor dem Launch gesenkt werden mussten weil die nächste Gen deutlich besseres P/L oder zumindest überlegene Perf/W oder Technik hatte sind halt komplett vorbei, dank ausbleibender großer Prozessfortschritte + "monotonem Duopol".
Hakim
2025-02-17, 15:07:46
Der eine hat schon Recht bei dem Twitter Gespräch darüber. Überall steht AI drauf inzwischen, selbst auf dem Toaster bestimmt, das NV und AMD bei der Namensgebung statt den ganzen X und Ts nicht mal AI Benutzen :)
fondness
2025-02-17, 15:11:26
Als onetime Joke wäre das auch mein Geschmack, aber als "Wir sind AMD, haben 10% Marktanteil und haben Angst vor dem HighEnd" ist es imho nicht unbedingt funny, nun den Twitter Troll zu machen.
Selten passt der Satz "haters gonna hate" besser als hier. :)
GerryB
2025-02-17, 16:48:22
Eine starke GPU ist IMO doch nicht dazu da in Teillast zu laufen damit man sich auf hohe Taktratenen eine runter holen kann. Das Ding muss bei Volllast gut sein. Dafür kauft man IMO high end. 4k, max Details. ...
Nein,
AMD will in dieser Gen nur Midrange-Player sein, ... heisst für mich nativ WQHD@144fps oder 4k@FSR+FG. Letzteres ist für UE5-Games dringend zu empfehlen. Da brauchts dann auch viiiiel Boost unter Teillast.(x)
nonmaxed ist auch sinnvoll, um erheblich Watt zu sparen, in den Teilllastbereich zu kommen
Die Anzahl von Games, die man nativ spielt wird in Zukunft abnehmen.
(x) bei meiner kleinen 6800 würden immer 200MHz fehlen, wenn ich nicht mehr Boost zulassen würde
(brauche Dafür nicht das PL anheben)
robbitop
2025-02-17, 16:51:46
Es ist egal in welcher Klasse man sich bewegt. Die Komponente sollte so schnell wie möglich sein insbesondere wenn sie der Bottleneck ist. Hohe Frequenzen in Teillast bringen auch nicht mehr nutzbare Leistung.
NVIDIA lässt den Partnern kaum was übrig, so dass deren Karten gut was auf die uvp drauf legen ( soviel zur Preissenkung der 5070) und AMD ist Marge auch wichtiger als Marktanteil.
Du kennst die Kassenbücher der AIBs? Oder hast du belegbare Quellen? Oder am Ende nur aus den Fingernägeln gesogen? :|
GerryB
2025-02-17, 17:07:04
Es ist egal in welcher Klasse man sich bewegt. Die Komponente sollte so schnell wie möglich sein insbesondere wenn sie der Bottleneck ist. Hohe Frequenzen in Teillast bringen auch nicht mehr nutzbare Leistung.
Irrtum!
alle async Funktionen wie FSR+FG+AFMF profitieren von zusätzlichem Boost
Grundtakt+ASync= erforderlicher Gesamttakt
Nach m.E. lieber ein Fps-Limit nutzen, aber keinesfalls das PL stark einschränken oder gar den Takt,
meist gehen 200MHz mehr ohne große Kunstgriffe.
reaperrr
2025-02-17, 17:09:03
Du kennst die Kassenbücher der AIBs? Oder hast du belegbare Quellen? Oder am Ende nur aus den Fingernägeln gesogen? :|
Gab einen Bericht von MLID, dass Nvidia die Preise für GPU+RAM so setzt, dass die AIBs zum MSRP eher +/-0 bis leicht Minus machen, und die AIBs dann verpflichtet, trotzdem mindestens eine Custom zum MSRP zu bringen, um den Schein zu wahren, weshalb die anderen Customs entsprechend teuer sein müssen, um das aufzufangen.
robbitop
2025-02-17, 17:21:32
Irrtum!
alle async Funktionen wie FSR+FG+AFMF profitieren von zusätzlichem Boost
Grundtakt+ASync= erforderlicher Gesamttakt
Nach m.E. lieber ein Fps-Limit nutzen, aber keinesfalls das PL stark einschränken oder gar den Takt,
meist gehen 200MHz mehr ohne große Kunstgriffe.
Diese Funktionen erhöhen aber auch die Last.
dargo
2025-02-17, 17:33:22
Gab einen Bericht von MLID, dass Nvidia die Preise für GPU+RAM so setzt, dass die AIBs zum MSRP eher +/-0 bis leicht Minus machen, und die AIBs dann verpflichtet, trotzdem mindestens eine Custom zum MSRP zu bringen, um den Schein zu wahren, weshalb die anderen Customs entsprechend teuer sein müssen, um das aufzufangen.
Und was hat das jetzt mit AMD zu tun? Genau... nichts. Oder kennst du die Konditionen von AMD an die AIBs und wieviel Luft AMD denen zum "atmen" lässt?
Diese Funktionen erhöhen aber auch die Last.
WTF? Seit wann erhöht FSR die Last? :freak: Außer natürlich beim Native-AA.
GerryB
2025-02-17, 17:33:49
Diese Funktionen erhöhen aber auch die Last.
Die MehrFps kosten aber weniger Watt als wenn mans nativ erzwingen wollte.
Gerade die gute Fps-Skalierung mit FSR+FG macht für mich AMD interessant.
(2. Lifetime für meine Kleine und sicherlich auch net verkehrt, falls sich ein 7900xtx-Besitzer nen 240Hz-Moni gönnt)
robbitop
2025-02-17, 17:38:09
WTF? Seit wann erhöht FSR die Last? :freak: Außer natürlich beim Native-AA. Ich meinte AFMF und FG. Und der compute Anteil von FSR (vs nur dessen Input resolution natürlich auch.
robbitop
2025-02-17, 17:39:56
Wenn man in einen Framelimiter läuft bringt auch höhere Frequenz nichts. Allgemein sollte mehr Frequenz nichts an Mehrleistung wenn die GPU nicht ausgelastet wird.
Hast du irgendwelche Messungen die aufzeigen was das bringen soll?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.