PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25

Der_Korken
2025-01-06, 20:36:19
Ja, auf einer Consumer-Messe entsprechende Consumer-Produkte vorzustellen... Wer kommt auf so eine Idee? Da muss Enterprise kommen, wie man es gerade sieht! :freak:

Wo kämen wir da auch hin! :freak:

Die ist bestimmt schon seit Herbst fertig. Aus irgendeinem Grund will man aber einfach nicht.

Ist das so wie die berühmte Intel-Schublade, wo schon die nächsten zwei Generationen auf Halde liegen, falls AMD doch noch was auf den Markt schmeißen sollte? :D

HOT
2025-01-06, 20:36:49
Was sollen die damit?
Zu teuer, zu viel Risiko, keine Querfinanzierung, keine Benefits
Playstation Graphics, launch immer zur Konsle/Refresh? Klar geht das. Würde halt deutlich anders laufen als jetzt.

Monsta
2025-01-06, 20:37:38
Die können die "9070" heute nicht zeigen, weil sie evtl den Namen noch auf 9050 ändern müssen.
Die wollen erst morgen abwarten :)

Sumpfmolch
2025-01-06, 20:37:47
Wer heute ein AI Trinkspiel macht, ist wenigstens seit 15 Minuten schon bewusstlos.

Nightspider
2025-01-06, 20:38:48
Wer heute ein AI Trinkspiel macht, ist wenigstens seit 15 Minuten schon bewusstlos.

;D

DeadMeat
2025-01-06, 20:39:16
ich verstehen nur nich das man schon bilder von Karten gezeigt hat und dann kommt da nichts, vielleicht ja doch noch am Ende.

Linmoum
2025-01-06, 20:39:46
Die können die "9070" heute nicht zeigen, weil sie evtl den Namen noch auf 9050 ändern müssen.
Die wollen erst morgen abwarten :)Wenn es nicht so traurig wäre, könnte man ja darüber schmunzeln. Nicht mal einen Performanceausblick zu geben, sollte eigentlich schon alle Alarmglocken läuten lassen, dass da irgendwas (noch) nicht fertig ist. Was wiederum die Frage aufwirft, wieso nicht.

MR2
2025-01-06, 20:41:53
Wird schon noch was kommen, die Powercolor gabs doch schon zu sehen

Hakim
2025-01-06, 20:42:04
Vielleicht auf den Letzten Drücker doch noch gesagt bekommen nichts darüber zu Zeigen (evt will man die NV preise abwarten), könnte vielleicht die Nervosität von dem Typen erklären der kurz vor seinem Auftritt seine eingeübte Präsentation abändern mußte :)

raffa
2025-01-06, 20:42:54
Es wirkte bisher so, als wär der Kram längst fertig (bis auf FSR4 vielleicht)

DrFreaK666
2025-01-06, 20:43:36
War es irgendwo offiziell angekündigt das man was über RDNA4 oder FSR4 sehen wird auf der CES? Hört doch mal auf hier rum zu spammen.... Kann hier eine AI mal aufräumen? ;D
Ja, war es
Excited to share the stage with some incredible special guests as we unveil our next generation of innovation across gaming, AI PC, and commercial. You won’t want to miss it!
Was soll da next-gen gaming innovation gewesen sein? Zen 5 wohl kaum

https://x.com/JackMHuynh/status/1863946658381222214

Linmoum
2025-01-06, 20:43:42
Tatsache, das war's also. ;D

prinz_valium_2
2025-01-06, 20:43:45
AMD schafft es im Bezug auf GPUs halt immer wieder mit allem möglichen zu Enttäuschen. Selbst wenn sie nichts vorstellen und launchen. nvidia wenigstens nur beim Preis.

Wie es v_v wohl geht?

Dino-Fossil
2025-01-06, 20:43:53
Jo, entweder wieder was kaputt oder die wollen knallhart 50€ unter NVIDIA bepreisen und warten jetzt ab was die Grünen bringen.

Relex
2025-01-06, 20:43:55
Jou, das wars dann. Meh...

w0mbat
2025-01-06, 20:44:34
Die können die "9070" heute nicht zeigen, weil sie evtl den Namen noch auf 9050 ändern müssen.
Die wollen erst morgen abwarten :)
Vielleicht zeigt Nvidia ja auch nix :biggrin:

Kriegsgeier
2025-01-06, 20:44:45
LOL, wo war Lisa?!
Wo die neuen Karten?

MR2
2025-01-06, 20:45:00
OK....:freak:

https://www.computerbase.de/news/grafikkarten/rdna4-grafikkarten-amd-radeon-rx-9070-xt-und-rx-9060-kommen-mit-fsr-4.90854/

Radeon RX 9000 unterstützt exklusiv FSR 4.

dargo
2025-01-06, 20:45:14
*Gähn*

Der_Korken
2025-01-06, 20:45:18
Oh mann. Nichts erwartet und trotzdem enttäuscht worden. Bei Nvidia streichen die gerade nochmal die Preise auf den Folien durch und schreiben vorne ne größere Zahl vor. Oder eine weitere Ziffer.

TheAntitheist
2025-01-06, 20:45:43
der youtube chat sagt ja schon wieder alles über AMDs marketing aus xD nur "L" für loser, "no gpu" und "wtf"...

kann man wirklich härter reinscheissen?

Seth
2025-01-06, 20:45:54
Ja, war es

Was soll da next-gen gaming innovation gewesen sein? Zen 5 wohl kaum

https://x.com/JackMHuynh/status/1863946658381222214

Hat deine AI da FSR4 und RDNA4 in dem tweet hinzugefügt? Bei mir steht da nichts von?!? ;D

Kriegsgeier
2025-01-06, 20:46:23
PS: Die neuen NVIDIA Karten sind gerade um 300-400$ im Preis gestiegen.
Dank AMD :-)

Nightspider
2025-01-06, 20:46:23
Wie es v_v wohl geht?

https://content.imageresizer.com/images/memes/south-park-orgasm-meme-9.jpg

Schnitzl
2025-01-06, 20:46:25
zumindest hat er mit seinen Handkanten Zwiebel, Kartoffeln und Tomaten für den ganzen Saal in Scheiben geschnitten.

Neurosphere
2025-01-06, 20:46:42
Man hätte ja auch die GPUs zeigen können und hätte einfach nix zu den Preisen gesagt, aber so?!

DrFreaK666
2025-01-06, 20:47:07
lol

https://www.computerbase.de/news/grafikkarten/rdna4-grafikkarten-amd-radeon-rx-9070-xt-und-rx-9060-kommen-mit-fsr-4.90854/

https://www.computerbase.de/news/grafikkarten/amd-fsr-4-ki-upscaling-kommt-exklusiv-fuer-rdna-4-grafikkarten.90856/

Linmoum
2025-01-06, 20:47:36
Hat deine AI da FSR4 und RDNA4 in dem tweet hinzugefügt? Bei mir steht da nichts von?!? ;Dwe unveil our next generation of innovation across gaming
"Next Generation" in Bezug auf Gaming ist für dich also...?

BlacKi
2025-01-06, 20:48:47
lol

https://www.computerbase.de/news/grafikkarten/rdna4-grafikkarten-amd-radeon-rx-9070-xt-und-rx-9060-kommen-mit-fsr-4.90854/
also kommen auch die karten mit fsr4 later this quarter? nochmal monate warten oder wie?

RitterRost
2025-01-06, 20:48:54
Die können die "9070" heute nicht zeigen, weil sie evtl den Namen noch auf 9050 ändern müssen.
Die wollen erst morgen abwarten :)

Nachdem heute per Videocards die 9070-Kartons geleakt wurden?

...warum tut AMD das? ...um dann nix zu zeigen...

DeadMeat
2025-01-06, 20:50:23
Lieber 80% der Zeit über AI und Enterprise reden statt wenigstens die paar info die CB/Presse bekommen hat zu zeigen.

Fragman
2025-01-06, 20:51:54
PS: Die neuen NVIDIA Karten sind gerade um 300-400$ im Preis gestiegen.
Dank AMD :-)

Ach, bleibt doch in der Familie…

Troyan
2025-01-06, 20:53:21
Cool, AMD scheint verschiedene CoD FSR4 Folie an die Presse gegeben zu haben. Die hier ist von Computerbase:
https://pics.computerbase.de/1/1/5/5/0/4-ce7a4cc6834636f5/16-2160.ef895611.png

Kriegsgeier
2025-01-06, 20:55:05
Lächerlich!
Wo ist Lisa selbst? Hoffentlich nichts passiert!

Seth
2025-01-06, 20:56:15
Ja da scheint der 9070 Part wirklich kurzfristig gestrichen worden zu sein. Vielleicht weil Dell gut gezahlt hat um für ihr Enterprise Zeug Werbung zu machen und man nur 45min hatte. ;)

Kriegsgeier
2025-01-06, 20:57:30
Die schwächste Präsentation aller Zeiten von AMD

Und Ohne Lisa?! Wtf?

horn 12
2025-01-06, 20:58:25
AMD 7900 XTX MBA Ohne Garantie nun, da 2 Jahre alt geworden ist fliegt raus
und wird durch 5070 TI ersetzt, danke dafür Lisa Su

Wieder passiert,- zum X-ten Male vergeigt es AMD erneut
anstelle man einen Kracher für 479 Euro als 9070XT geteasert hätte

Dino-Fossil
2025-01-06, 21:00:12
Etwas kurios ist das ganze ja, da die Non-Show weder zur Ankündigung noch zu den Presse-Folien passt (selbst wenn die kaum handfestes enthalten).
Da gab es wohl wirklich eine Änderung in letzter Minute, warum auch immer.

dildo4u
2025-01-06, 21:02:18
Die größte Ankündigung für AMD ist die 5090 für die muss eine der teuerste AMD CPU kaufen um sie vernünftig zu betreiben, die Margen sind dort sind massiv besser als bei einer 600 Watt GPU.
Ein Zen 5X3D ist im Vergleich ein Witz was Material Aufwand und Die Size angeht.

crux2005
2025-01-06, 21:04:17
Das einzige was für mich Sinn ergibt, FSR4 ist noch nicht fertig also wurde auch die 9070 XT nicht gezeigt. Ist ja das einzige "neue" an der Karte. Die RDNA4 Gen scheint nur ein Testvehicle für KI-upsampling zu werden.

Kriegsgeier
2025-01-06, 21:04:34
Also der Preis meiner gebrauchten, vier Jahre alten RTX 3090 Fe ist gerade um gute 200€ gestiegen - danke AMD

Seth
2025-01-06, 21:09:50
Das einzige was für mich Sinn ergibt, FSR4 ist noch nicht fertig also wurde auch die 9070 XT nicht gezeigt. Ist ja das einzige "neue" an der Karte. Die RDNA4 Gen scheint nur ein Testvehicle für KI-upsampling zu werden.

Um irgendwas von der 9070XT zu zeigen (gibt ja Folien) muss FSR4 ja nicht fertig sein. Dann wäre halt nur der Zeitraum zwischen erster Ankündigung und tatsächlicher Release der Karte länger und der Thread hier wäre voll von "PAPERLAUNCH!!!"

fizzo
2025-01-06, 21:10:13
RDNA4-Grafikkarten: AMD Radeon RX 9070 (XT) und RX 9060 kommen mit FSR 4 ( https://www.computerbase.de/news/grafikkarten/rdna4-grafikkarten-amd-radeon-rx-9070-xt-und-rx-9060-kommen-mit-fsr-4.90854/)

Bei ComputerBase gibt es neue Infos.

https://pics.computerbase.de/1/1/5/5/0/4-ce7a4cc6834636f5/19-1080.dbc6156d.png

horn 12
2025-01-06, 21:11:16
Hoffe die Presse lässt die Bombe platzen, verdient hat es sich AMD diesmal Tausendfach.
Die Leaker sind höflichst gebeten die Infos uns zukommen zu lassen.

Kriegsgeier
2025-01-06, 21:12:02
Und die Karten erst Ende März 2025!
Viel Spaß beim warten.
Ich zocke dann schon 2 Monate mit meiner 5090 ;-)

Kriegsgeier
2025-01-06, 21:13:25
AMD hat sich mit solch einer Präsentation NICHTS verdient - Null!
In die Ecke und eine Runde schämen

Seth
2025-01-06, 21:15:21
Und die Karten erst Ende März 2025!
Viel Spaß beim warten.
Ich zocke dann schon 2 Monate mit meiner 5090 ;-)
Ach und wenn die 9070XT in zwei Wochen erschienen wäre dann hättest du die genommen anstatt der 5090? :rolleyes:
Für einen Großteil der Leute hier im Forum ist die doch sowieso nicht interessant, da zu langsam.

MR2
2025-01-06, 21:16:15
"AMD will be sharing more information on its RDNA 4 GPUs in the coming days, so stay tuned as we enter the fourth iteration of the RDNA architecture."
Also will man einfach Nvidia abwarten...

DrFreaK666
2025-01-06, 21:17:45
Vielleicht wollen sie die Karten nicht im Schatten von Nvidia vorstellen

Ex3cut3r
2025-01-06, 21:17:47
Joa. Hammer Sache. 7900GRE/XT Leistung für 100-200€ weniger. Gegen die 50er Gen wird man wieder kein Licht sehen. Nvidia macht sich natürlich total in die Hosen. Ganz schwach AMD!

DrFreaK666
2025-01-06, 21:19:42
Joa. Hammer Sache. 7900GRE/XT Leistung für 100-200€ weniger. Gegen die 50er Gen wird man wieder kein Licht sehen. Nvidia macht sich natürlich total in die Hosen. Ganz schwach AMD!
Preise und Performance hast woher?

PCGH schreibt: Wie dem auch sei, zusammen mit den Hardware-Daten aus der Gerüchteküche ergibt sich folgende Prognose für die Radeon RX 9070 XT: Das RDNA-4-Topmodell wird beim Rasterizing irgendwo zwischen Radeon RX 7900 GRE und Geforce RTX 4080 landen, wobei wir einen Mittelwert im Bereich der Radeon RX 7900 XT erwarten - bei niedrigerer Leistungsaufnahme. Die Radeon RX 9070 muss einige Federn bei Rechenwerken und Takt lassen, sodass wir von einer Leistung im Dunstkreis der Radeon RX 7900 GRE und Geforce RTX 4070 Ti erwarten.

Der_Korken
2025-01-06, 21:20:52
Vielleicht wollen sie die Karten nicht im Schatten von Nvidia vorstellen

Ich fand es bei Vorträgen in Schule und Studium immer angenehmer mit einem schwachen oder mittelmäßigen Talk früh dran zu sein, damit andere mit den guten Talks die Latte noch nicht so hoch gelegt haben und mein Talk zu schäbig aussieht.

Nvidia könnte die Preise für 5070Ti abwärts auch einfach nachträglich rauswerfen und AMD mal machen lassen. Ich würd mich totlachen.

bbott
2025-01-06, 21:22:05
https://pics.computerbase.de/1/1/5/5/0/4-ce7a4cc6834636f5/19-1080.dbc6156d.png
Damit zeige doch AMD bereits, wo AMD selbst die 9070(XT) sehen >>=7800XT bis <=7900XT. Das dürfte auch recht realistisch sein.
Die 9070(XT) dürfte die 5070 erreichen bis (leicht) schlagen können, die 5070 Ti wird wohl außerreichweite sein.

gedi
2025-01-06, 21:22:36
AMD hat sich mit solch einer Präsentation NICHTS verdient - Null!
In die Ecke und eine Runde schämen

Japp, war ne Schande. Aber da ich von Blackwell auch nichts erwarte, kann ich endlich mal eine komplette Generation auslassen. Die 5090 wird ~35% schneller sein, als meine Karte und saufen wie ein Loch. So nö Rot und Grün. Da holt ihr noch nicht einmal einen alten Köter hinter dem warmen Ofen hervor.

Linmoum
2025-01-06, 21:24:46
Nvidia könnte die Preise für 5070Ti abwärts auch einfach nachträglich rauswerfen und AMD mal machen lassen. Ich würd mich totlachen.Scott Herkelman hätte die Karten auf der Bühne mit allem Relevanten angekündigt und um 4:20 Uhr heute Nacht dann "jebaited" rausgehauen. Das waren noch seriöse Marketing-Zeiten bei AMD im Vergleich zu dem Stunt heute.

bbott
2025-01-06, 21:24:58
AMD hat sich mit solch einer Präsentation NICHTS verdient - Null!
In die Ecke und eine Runde schämen

Wenn das schon reicht, dann hallo Monopol und eine Geforce 6050 ab 1.000€.

Wenn Preis, Leistung, Stromverbrauch und Features stimmen, wäre für mich wichtiger als eine Präsentation... aber jeder setzt die Prioritäten anders :freak:

raffa
2025-01-06, 21:25:33
Is aber doch einfach a schmarrn, Intel hats bei der B580 gezeigt, wies besser geht.

Irgendwie lustig, AMD hat nix angekündigt und die Presse veröffentlicht das vorab Material als wärs anders gwesen : )
FS7oryoEvWo

Kriegsgeier
2025-01-06, 21:26:25
Du weißt es doch selbst, dass NVIDIA bei Effizienz besser wird.
Also wird die 5090 per Watt mehr FPS liefern als die 4090!
Somit sind deine +35% eine Fehleinschätzung, der nicht mal du selbst glaubst!

crux2005
2025-01-06, 21:30:27
Japp, war ne Schande. Aber da ich von Blackwell auch nichts erwarte, kann ich endlich mal eine komplette Generation auslassen. Die 5090 wird ~35% schneller sein, als meine Karte und saufen wie ein Loch. So nö Rot und Grün. Da holt ihr noch nicht einmal einen alten Köter hinter dem warmen Ofen hervor.

Das hast du AFAIR vor ~2 auch über die 3090 gesagt. ;D

Linmoum
2025-01-06, 21:30:28
Irgendwie lustig, AMD hat nix angekündigt und die Presse veröffentlicht das vorab Material als wärs anders gwesen : )
https://youtu.be/FS7oryoEvWoIm Prinzip gibt's eigentlich nur zwei Theorien, die Sinn ergeben:

1. AMD hat die Folien schnell zusammengeschustert, um was zu haben.
2. AMD wollte RDNA4 ursprünglich auf der Präsentation mit ankündigen/vorstellen, hat sich aus unerfindlichen Gründen aber dagegen entschieden und nur die Folien sind übrig geblieben.

Ex3cut3r
2025-01-06, 21:32:59
Das hast du AFAIR vor ~2 auch über die 3090 gesagt. ;D

Jop. Ist es schon interessant zu sehen. Das bei jeder Nvidia GPU Gen immer wieder der Uplift im Vorfeld kleingeredet wird. IHMO wird schon eine 5070 Ti an der 4090 kratzen.

Daredevil
2025-01-06, 21:33:44
Was war das denn für ne Veranstaltung? lol
Einen 9950X3D den kein gamer braucht und eine Ankündigung durch einen Activison Trailer ohne konkrete Infos inkl. Tonprobleme während der Show.
Ich schäme mich richtig für Lisa. :usad:

Okay, lass es strategisch sein, das sie nicht genaueres gesagt haben, DANN MACHT HALT NICHT DIE SHOW WENN IHN NICHTS ZU SAGEN HABT. :D Man regt mich das auf. Man könnte meinen, Intel hätte da oben auf der Bühne gestanden. Und dann machen sie auch noch einen peinlichen Vergleich im VRAM Limit mit einer 4090, super lächerlich. Als hätten die nicht mehr zu bieten als solch billige Vergleiche.

Neurosphere
2025-01-06, 21:35:46
Im Prinzip gibt's eigentlich nur zwei Theorien, die Sinn ergeben:

1. AMD hat die Folien schnell zusammengeschustert, um was zu haben.
2. AMD wollte RDNA4 ursprünglich auf der Präsentation mit ankündigen/vorstellen, hat sich aus unerfindlichen Gründen aber dagegen entschieden und nur die Folien sind übrig geblieben.


Doof halt nur das man das Ganze aber schon an die Presse rausgegeben hat, die natürlich nun Artikel veröffentlicht die davon sprechen das was vorgestellt wurde.

MR2
2025-01-06, 21:37:34
Jop. Ist es schon interessant zu sehen. Das bei jeder Nvidia GPU Gen immer wieder der Uplift im Vorfeld kleingeredet wird. IHMO wird schon eine 5070 Ti an der 4090 kratzen.

Und wenn, dann wird auch der Preis nach oben gehen.
Am Ende kann AMD das abwarten und ihren Preis nach oben anheben.

Kriegsgeier
2025-01-06, 21:38:06
Das mit dem VRAM habe ich auch gedacht:
Vor allem dass er gesagt hat, dass man 2x mit nur 50 Watt vs. 400 Watt bekommt lol

Eindeutiges RAM-Limit!

Kriegsgeier
2025-01-06, 21:43:07
Auch Lunar Lake vergleich war komisch:

30 Watt vs. 55 Watt

Linmoum
2025-01-06, 21:44:53
Für AMD kann man ja fast nur hoffen, dass Jensen keine 5070 für $500 raushaut. Dann würde da vermutlich wochenlange StaatsUnternehmenstrauer herrschen. Wobei sie das mal echt verdient hätten, so wenig Vertrauen, wie AMD in die eigenen Grafikkarten zu haben scheint. Dieses "Nvidia minus $50" unterbieten wird dann irgendwann auch albern, wenn man immer nur darauf wartet, was die Konkurrenz für einen Preis ansetzt, um den dann marginal zu unterbieten.

Was ist mit der großen Verlautbarung, dass man Marktanteile gewinnen will? Nichts mehr übrig davon?

Relex
2025-01-06, 21:45:35
https://pics.computerbase.de/1/1/5/5/0/4-ce7a4cc6834636f5/19-1080.dbc6156d.png
Damit zeige doch AMD bereits, wo AMD selbst die 9070(XT) sehen >>=7800XT bis <=7900XT. Das dürfte auch recht realistisch sein.
Die 9070(XT) dürfte die 5070 erreichen bis (leicht) schlagen können, die 5070 Ti wird wohl außerreichweite sein.


Wie sie die RTX4080 weiter oben als die 7900XTX platzieren. ;D

Sowas kannste doch als Marketing Abteilung nicht bringen. :freak:
Zumal das nichtmal der Realität entspricht.

In Raster sind die praktisch gleich auf, erst bei RT ist Nvidia vorne, aber sowas muss man ja nicht der Kundschaft unter die Nase reiben.

Seth
2025-01-06, 21:45:38
Was ja auch noch komisch an der ganzen Nichtvorstellung ist. Sie Passen offiziell ihr Namenschema an damit es zu dem von nVidia passt. Von der Performance passt das vermutlich zur noch aktuellen 40er Generation. Aber schon morgen passt es dann ja nicht mehr. :freak:

DrFreaK666
2025-01-06, 21:49:18
Igor schreibt
Besonders hervorzuheben ist die hardwareunabhängige Implementierung von FSR 4, die es ermöglicht, die Technologie nicht nur auf Radeon-GPUs, sondern auch auf Konkurrenzprodukten zu nutzen, wodurch AMD eine breite Nutzerbasis anspricht.
aber davor
Diese Technologie, die stark auf die AI-Beschleunigung der RDNA-4-Architektur angewiesen ist
Ja was jetzt?

https://www.igorslab.de/ces-2025-amd-praesentiert-rdna-4-fsr4-und-die-radeon-rx-9700-xt-und-rx-9700/

fizzo
2025-01-06, 21:49:25
Und wenn, dann wird auch der Preis nach oben gehen.
Am Ende kann AMD das abwarten und ihren Preis nach oben anheben.

Laut Folie soll die RX 9070XT auf Augenhöhe mit der RX 7900XT/RTX 4070Ti spielen. Ich gehe davon aus, dass das Referenzmodell mit TDP 260 Watt gemeint ist. Für max. € 600 wäre das schon eine sexy Karte.

Kriegsgeier
2025-01-06, 21:49:47
Was mich stutzig gemacht hat ist, dass wir Lisa nicht gesehen haben!
Komisch oder?

The_Invisible
2025-01-06, 21:51:57
Wie sie die RTX4080 weiter oben als die 7900XTX platzieren. ;D

Sowas kannste doch als Marketing Abteilung nicht bringen. :freak:
Zumal das nichtmal der Realität entspricht.

In Raster sind die praktisch gleich auf, erst bei RT ist Nvidia vorne, aber sowas muss man ja nicht der Kundschaft unter die Nase reiben.

Beim AMD Marketing denk ich mir oft die lassen jeden Monat eine andere Praktikantentruppe ran sonst lässt sich das irgendwie nicht erklären...

GerryB
2025-01-06, 22:00:32
mixed Raster+RT - Parcour ?
oder
CB vermutet, das die Folie nur was mit der Namensgebung zu tun hat

Linmoum
2025-01-06, 22:02:58
Was ich ja auch interessant finde, dass Powercolor z.B. auf Twitter/X ja noch vor Stunden auf den Livestream und die AMD-Präsentation verlinkt hat (inkl. "stay tuned"). Das riecht doch danach, dass AMD da kurzfristig irgendwas raus- bzw. umgeschmissen hat.

BlacKi
2025-01-06, 22:03:26
mixed Raster+RT - Parcour ?jupp, macht zumindest den eindruck. und das bedeutet, das die 9070xt im mixed parcour ebenfalls nicht schneller als die 7900xt wird. und in reinem RT weit von einer xtx weg ist, und ein ganzes stück langsamer als die xt im raster.


CB vermutet, das die Folie nur was mit der Namensgebung zu tun hat

dann machen die komischen verschiebungen der 40gen von nv keinen sinn.

Kriegsgeier
2025-01-06, 22:05:20
Ja, es hat ein komischen Beigeschmack gelassen.
Morgen früh wissen wir mehr.
Jetzt schlafen wir erst dann ist NVIDIA Tag morgen ;-)

OCmylife
2025-01-06, 22:05:23
Was war das denn für ne Veranstaltung? lol
Einen 9950X3D den kein gamer braucht und eine Ankündigung durch einen Activison Trailer ohne konkrete Infos inkl. Tonprobleme während der Show.
Ich schäme mich richtig für Lisa. :usad:

Okay, lass es strategisch sein, das sie nicht genaueres gesagt haben, DANN MACHT HALT NICHT DIE SHOW WENN IHN NICHTS ZU SAGEN HABT. :D Man regt mich das auf. Man könnte meinen, Intel hätte da oben auf der Bühne gestanden. Und dann machen sie auch noch einen peinlichen Vergleich im VRAM Limit mit einer 4090, super lächerlich. Als hätten die nicht mehr zu bieten als solch billige Vergleiche.

Ton Probleme, Video startete erst beim zweiten Versuch und Phil Spencer las seinen Text ganz in Ruhe vom Display ab... Das war echt ne tolle Vorstellung. Aber immerhin wurden die Probleme immer ganz sympathisch mit einem verlegenen Kichern unterlegt. :-D
Hatte ich den Preis für den 9950X3D jetzt eigentlich verpasst?

robbitop
2025-01-06, 22:05:58
Igor schreibt

aber davor

Ja was jetzt?

https://www.igorslab.de/ces-2025-amd-praesentiert-rdna-4-fsr4-und-die-radeon-rx-9700-xt-und-rx-9700/

Hat er seinen Artikel von ChatGPT schreiben lassen? X-D
Aber wer weiß - ggf ist ja was dran, dass es doch überall läuft. Schlimm dass man trotz offenbar kleinerer Veranstaltung auf der CES solche Dinge nicht konkret vorstellt. ^^

MR2
2025-01-06, 22:11:20
https://wccftech.com/asus-radeon-rx-9070-xt-rx-9070-tuf-gaming-prime-gpus-16-gb-triple-8-pin-connectors/

TheGood
2025-01-06, 22:11:44
Igor hat wohl deutlich mehr Folien bekommen wie alle anderen oder hat das NDA nicht verstanden :D

BlacKi
2025-01-06, 22:14:20
https://wccftech.com/asus-radeon-rx-9070-xt-rx-9070-tuf-gaming-prime-gpus-16-gb-triple-8-pin-connectors/
das sind theoretisch über 450w die über die kabel laufen könnten. reichen 2 nicht locker aus? und das bei der prime karte, prime steht jetzt nicht für OC.

Fragman
2025-01-06, 22:15:48
Hat mich auch gleich verwirrt.
Ich dachte der Chip soll sparsam sein?

gedi
2025-01-06, 22:17:55
Ja, es hat ein komischen Beigeschmack gelassen.
Morgen früh wissen wir mehr.
Jetzt schlafen wir erst dann ist NVIDIA Tag morgen ;-)

Gemessen an den kolportierten Preisen, was willst du da erwarten? 5080+10% zur 4080s mit Dlss4 und den sehr breit aufgestellten 5090 mit Mondpreis. That's it!

Linmoum
2025-01-06, 22:21:45
das sind theoretisch über 450w die über die kabel laufen könnten. reichen 2 nicht locker aus? und das bei der prime karte, prime steht jetzt nicht für OC.Ich finde das ja mittlerweile eher eine Trotzreaktion von AMD, dass da immer noch die alten 8-pin auf den GPUs landen. 12V-2x6 und fertig statt mehrerer solcher Klopper und nein, das ist nicht (mehr) sicherer, bevor die Diskussion schon wieder losgeht.

Raff
2025-01-06, 22:21:49
Igor hat wohl deutlich mehr Folien bekommen wie alle anderen oder hat das NDA nicht verstanden :D

Das sind die gleichen Slides, die mir auch vorliegen und hier vollumfänglich zu sehen sind (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/RDNA-4-Release-RX-9070-XT-vs-RTX-4070-1462848/) (nur der RDNA-4-Teil).

MfG
Raff

Hakim
2025-01-06, 22:22:03
Glaub das war wirklich eine Entscheidung auf den letzten drücker, sehr merkwürdig. Naja hoffentlich kommen mehr infos die Tage.

monstar-x
2025-01-06, 22:24:07
IHMO wird schon eine 5070 Ti an der 4090 kratzen.

LOL ;D

r3ptil3
2025-01-06, 22:25:11
Hab die Befürchtung, dass alle die auf eine gute Effizienz gehofft haben, enttäuscht werden.

Produktionskosten wurden wohl maximal gesenkt, so dass die Effizienz schlussendlich fast egal ist bzw. kaum Fortschritte bringt, dafür aber kommt die die RX 9070 XT vielleicht für 399$.

TheGood
2025-01-06, 22:26:36
Das sind die gleichen Slides, die mir auch vorliegen und hier vollumfänglich zu sehen sind (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/RDNA-4-Release-RX-9070-XT-vs-RTX-4070-1462848/) (nur der RDNA-4-Teil).

MfG
Raff

Warum schreibst du dann nichts über die gezeigten Benchmarks ? Irgendwo muss er es ja herhaben.

Raff
2025-01-06, 22:27:46
Warum schreibst du dann nichts über die gezeigten Benchmarks ? Irgendwo muss er es ja herhaben.

Wo sind Benchmarks zu sehen? :confused:

MfG
Raff

Tesseract
2025-01-06, 22:27:54
Das sind die gleichen Slides, die mir auch vorliegen und hier vollumfänglich zu sehen sind (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/RDNA-4-Release-RX-9070-XT-vs-RTX-4070-1462848/) (nur der RDNA-4-Teil).

MfG
Raff

XT, XTX, XL... ich würde so gerne in den kopf der leute schauen können die auf diese schwachsinnigen bezeichnungen kommen. ;D

DrFreaK666
2025-01-06, 22:32:56
LOL ;D
Er meinte natürlich die 5060 :biggrin:

GerryB
2025-01-06, 22:33:41
Igor sagt im Thread, ... = nur kolportierte Info
Selbst konnte Er die Folie zu Games auch nicht sehen.

DrFreaK666
2025-01-06, 22:34:32
Hat mich auch gleich verwirrt.
Ich dachte der Chip soll sparsam sein?

Es wird auch Karten mit 2 Anschlüssen geben

monstar-x
2025-01-06, 23:14:13
Er meinte natürlich die 5060 :biggrin:

Ach so, gut dann passt es ja :biggrin:

Ich dachte schon die 5070TI ist so schwachbrüstig, hätte ich mir beim besten Willen nicht vorstellen können *Lach* ;D

Prinzenrolle
2025-01-07, 00:02:30
Hat er seinen Artikel von ChatGPT schreiben lassen? X-D

Ist effizienter, die KI hat FSR 3 mit 4 verwechselt (Infostand alt), kann schon mal passieren.

Igor sagt im Thread, ... = nur kolportierte Info
Scheint äußert stimmig zu sein.

Slipknot79
2025-01-07, 00:10:56
AMDead, so wie man den Laden eben kennt. (y)

Ich möchte dabei nicht mal Schadenfreude entwickeln und hätte mir doch lieber moar Fettbewerb (y) gewünscht, aber so wird das wohl nix. :rolleyes:

Wenn man nix zu zeigen hat, dann hat man eben nix zu zeigen.
Man taktiert definitiv und lässt erst mal NGreedia in der N8 auspacken. Es wird daraufhin zwar nicht sofort Infos von AMDead geben, stattdessen wird man die Shice durch Q1 streuen so wie eben angekündigt.

Ich vermute nun folgendes für die N8: Mehr Infos zur 5080, da in 2 Wochen Marktstart. Kaum Infos zur 5090, weil nicht unter Zugzwang dank AMDead. Der Fokus wird wohl eher 5080 (und Technologien) sein. 5070 und 5090 werden nur am Rande genannt, mehr Infos wohl auch in Q1 laufend.

https://wccftech.com/asus-radeon-rx-9070-xt-rx-9070-tuf-gaming-prime-gpus-16-gb-triple-8-pin-connectors/


Wieso lässt man Anus die size vom VRAM verkünden?
Wohl wieder ein Hinweis darauf, dass AMDead heute mehr zeigen wollte als es dann passiert ist. Oo

DrFreaK666
2025-01-07, 00:27:44
So ein Schmarrn kann auch nur von einem 4090-User kommen

DrFreaK666
2025-01-07, 01:01:35
fpSNSbMJWRk

Angeblich hatte AMD keine Zeit, da ihnen nur 45min gegeben wurde.
FSR4 kommt womöglich auch für ältere Generationen, je nachdem wie die Performance ist

=Floi=
2025-01-07, 01:51:31
Glaub das war wirklich eine Entscheidung auf den letzten drücker, sehr merkwürdig. Naja hoffentlich kommen mehr infos die Tage.

Die hatten einfach das ganze jahr dafür zeit das zu planen?! Hätten einfach NACH NV ihre präsentation machen sollen. Oder die chips vorstellen. Es ändert sich heute eh nichts mehr.


Ich finde die neue namensgebung noch immer kaptastrophe.

crux2005
2025-01-07, 01:53:36
https://youtu.be/fpSNSbMJWRk

Angeblich hatte AMD keine Zeit, da ihnen nur 45min gegeben wurde.
FSR4 kommt womöglich auch für ältere Generationen, je nachdem wie die Performance ist

Dann ist es ja noch schlimmer als ich dachte. GPUs haben offiziell keine Priorität bei AMD.

btw: Sony und NV haben beide 1 Std. Zeit "bekommen" (CES 2025).

Spring
2025-01-07, 02:08:34
Glaube AMD guckt sich erstmal den RTX 5xxx Release an, die RX 9070XT steht und fällt mit FSR 4 (im Wettbewerb zu den RTX 5xxx mit DLSS 4). Wird relativ kurzfristig gewesen sein, vllt Infos wg DLSS 4 bekommen und FSR 4 stinkt ab mit dem Featureset, was stand heute geboten wird, daher diese Gammelpräsi, wo merklich was fehlte^^

Witzig sind die 4080 und 4090 Nutzer, die sich darüber aufregen, die sowieso nie ne RX 9070XT gekauft hätten.

Denke Nvidia wird heute mit einem Hybrid Modell bezüglich KI Rendering kommen (in DLSS verpackt) und da ist FSR 4 wahrscheinlich noch schlechter.

EDIT: Ich meine sowas, als Kombi mit Raster/RT, in Echtzeit (und hoffentlich weniger Glitches).

iE7lCaZzmoM

ilrUfTSEabg

u_5WlBtkiG8

7s06MBLTEQ8

Sowas in der Richtung. Jensen selbst hat ja gesagt das KI das Rendering auf kurz oder lang übernehmen soll. Und damit wird sich AMD messen müssen.
Und sowas erwarte ich auch von DLSS 4 und FSR 4 (mglw noch sehr begrenzt auf Charaktere oder Teile der Umgebung bezogen, ähnlich wie RT zu Anfang).

horn 12
2025-01-07, 03:45:25
Scott Herkelman hätte die Karten auf der Bühne mit allem Relevanten angekündigt und um 4:20 Uhr heute Nacht dann "jebaited" rausgehauen. Das waren noch seriöse Marketing-Zeiten bei AMD im Vergleich zu dem Stunt heute.

Ja, elend schade um den Mann
Hatte einfach etwas und machte seine Präsentationen stets ansehend gut!
Allemal besser als die Gesamte Show von Heute, welche eine Farce ist.

TheAntitheist
2025-01-07, 04:05:11
die 5070 ist der Todesstoß für AMD, muss man einfach so sagen

Linmoum
2025-01-07, 04:07:48
Für AMD kann man ja fast nur hoffen, dass Jensen keine 5070 für $500 raushaut. Dann würde da vermutlich wochenlange StaatsUnternehmenstrauer herrschen. Wobei sie das mal echt verdient hätten, so wenig Vertrauen, wie AMD in die eigenen Grafikkarten zu haben scheint.Nunja, jetzt sind es halt $549. Aber der Grundtenor ist derselbe: Das wird für AMD echt... bitter.

Nightspider
2025-01-07, 04:37:26
Das wird für AMD echt... bitter.

Der Gaming Markt hat für AMD seit einiger Zeit lowest priority. Also nein.

Guck was AMD für Gewinne mit dem 9800X3D und 9950X3D machen wird. Jeder 5080 und 5090 Käufer wird den 9800X3D oder 9950X3D kaufen.
EPYC läuft wie geschmiert, man klaut Intel immer mehr Anteile.
MI300 holt sich ganz langsam kleine Marktanteile, die auch gleich Milliardenumsätze generieren.

AMDs kommende Quartalszahlen sollen die höchsten werden, die AMD _jemals_ hatte.

Für AMD lief es noch nie so gut wie jetzt.

Nur die Gamer bleiben erstmal etwas auf der Strecke.
Aus unternehmerischer Ansicht macht AMD das meiste richtig.

Selbst die Keynote von AMD ist jetzt nicht soo wichtig. Ob die Keynote da etwas stümperhaft rüberkommt spielt nach einer Woche keine Rolle mehr und alle schauen nur noch auf die neuen Produkte.
Ich tippe darauf das Lisa Su krank gerworden ist. In meiner Bubble waren alle dieses Jahr häufiger krank als je zuvor, ist bestimmt kein deutsches Phänomen.

reaperrr
2025-01-07, 05:59:38
das sind theoretisch über 450w die über die kabel laufen könnten. reichen 2 nicht locker aus? und das bei der prime karte, prime steht jetzt nicht für OC.
Ich habe mal irgendwo gelesen, dass die Graka-Hersteller generell nicht mehr so gern Strom über den PCIe-Slot ziehen, um Probleme aufgrund billiger Boards zu vermeiden.

Will halt keiner "Schuld" sein, wenn DAU-OCer es übertreiben und ihr Billig-Mobo überfordern und die ganze Kiste kaputtgeht.

Reichen würden für genug Spielraum grundsätzlich wohl auch 8+8+6, aber die 6er Anschlüsse verbaut ja kaum noch jemand bei neueren Karten, weil 8pin kaum größer ist und den Spielraum gleich verdoppelt.

Außerdem: Kann sein, dass es unterm Strich einfacher/billiger war, am Board-Design erstmal nicht viel zwischen den Modellen zu ändern, und stärker Kosten-optimierte Revisionen erst später kommen.

Nunja, jetzt sind es halt $549. Aber der Grundtenor ist derselbe: Das wird für AMD echt... bitter.
Was Marge angeht, ja.

AMD hat vermutlich auch gedacht, NV geht mit Perf/$ weniger aggressiv ran und lässt AMD mehr Raum, um ne passable Marge zu kriegen, den Gefallen tun sie AMD mit 5070 und 5070Ti jetzt halt doch nicht.
Scheinbar hat Jensen beschlossen, die ganze Kohle aus dem HPC-Bereich zu nutzen, um AMD im Gaming-Bereich stärker unter Margendruck zu setzen.

AMD wird die 9070er jetzt halt nicht viel teurer als die Launch-Preise der 7800 und 7700 machen können.

Man muss aber erwähnen, dass N48 wohl unterm Strich auch eher günstiger herzustellen sein sollte als N32 (und ne 79GRE sowieso), also der aktuelle 7800XT-Preis für die 9070 und aktuelle ~4070-Preis für die XT in Ordnung sein sollte.

Größeres Problem dürfte für AMD kurzfristig erstmal sein, dass mit Launch der 5070 und 5070Ti zu den Preisen endgültig keine Sau mehr ne 79XT oder XTX zu aktuellen Preisen kaufen wird und AMD die jetzt heftig subventionieren muss, um sie überhaupt noch loszuwerden.

Die Preise der 79XT und XTX müssen jetzt auf 599 und 749 runter, und zwar in €uro, in $ eher noch weiter, hilft nix.

Das könnte auch der Hauptgrund für die offenbare Last-Minute-Verschiebung der 9070er sein:
AMD muss jetzt erstmal den Panikverkauf der 7900er organisieren, und die würden dann eh erstmal die 9070XT von oben kannibalisieren, da Raster-Perf/W nicht sooo viel schlechter und mehr Speicher zu relativen Kampfpreisen.

Altehardware
2025-01-07, 06:32:37
nach der nvidia präsi woe s primär um ai ging wird amd was anderes brauchen da dlss4 im Treiber intrigiert ist quasi rendert die gpu mit eine achtel der Auflösung die nativ eingestellt ist
Der kern liegt in den rop das ist fixed hat natürlich ihre eigene Probleme da man kleinen display dann dlaa nutzen muss damit nicht matschig aussieht
bedeutet das amd durchaus hinter liegen kann mit rdna4.
ich gehe von nvidia doppelter perf. vs alte gen bei 1080p dlaa x4 = nativ 540p
Etwa rtx4070 vs rtx5070 46 vs 50sm 1080p bsp in indi tgc 48fps vs 103fps in PT
Nur kann man das nicht so vergleichen das muss dann 1080p dxr pt mit dlss perf. getestet werden und selbst dann ist das nicht wirklich vergleichbar.
Die Lösung ist 2160p pt nativ vs 2160p dlss up dann wäre beide auf 1080p mit optischen Vorteil für die rtx5070
Sprich amd hat neben dem dxr Nachteil zudem ein problem das man upscaler zwingend nutzen muss und das auf Treiber ebene.

TheAntitheist
2025-01-07, 06:35:15
Der Gaming Markt hat für AMD seit einiger Zeit lowest priority. Also nein.

Guck was AMD für Gewinne mit dem 9800X3D und 9950X3D machen wird. Jeder 5080 und 5090 Käufer wird den 9800X3D oder 9950X3D kaufen.
EPYC läuft wie geschmiert, man klaut Intel immer mehr Anteile.
MI300 holt sich ganz langsam kleine Marktanteile, die auch gleich Milliardenumsätze generieren.

AMDs kommende Quartalszahlen sollen die höchsten werden, die AMD _jemals_ hatte.

Für AMD lief es noch nie so gut wie jetzt.

Nur die Gamer bleiben erstmal etwas auf der Strecke.
Aus unternehmerischer Ansicht macht AMD das meiste richtig.

Selbst die Keynote von AMD ist jetzt nicht soo wichtig. Ob die Keynote da etwas stümperhaft rüberkommt spielt nach einer Woche keine Rolle mehr und alle schauen nur noch auf die neuen Produkte.
Ich tippe darauf das Lisa Su krank gerworden ist. In meiner Bubble waren alle dieses Jahr häufiger krank als je zuvor, ist bestimmt kein deutsches Phänomen.
genau das was alle von Nvidia erwartet haben, auf die Gamer zu scheissen, das passiert bei AMD jetzt schon seit mehreren Jahren und wird nur noch schlimmer und schlimmer. Ich frage mich ernsthaft welche Firma gieriger ist, Nvidia bräuchte das Geld nicht mehr, investieren aber dennoch 10x mehr als AMD ins gaming. traurig

Ex3cut3r
2025-01-07, 06:38:22
LOL ;D

Er meinte natürlich die 5060 :biggrin:

Ach so, gut dann passt es ja :biggrin:

Ich dachte schon die 5070TI ist so schwachbrüstig, hätte ich mir beim besten Willen nicht vorstellen können *Lach* ;D


;D ;D ;D

https://i.gyazo.com/6916a690342e711049f341daec5b52ef.jpg

Natürlich noch bitte unabhängige Benchmarks abwarten, aber die Richtung dürfte passen.

dildo4u
2025-01-07, 06:40:49
650€ in der EU Platz für AMD.
500€ sollten machbar sein wenn man die 7800XT sieht.


https://i.ibb.co/qBJL8QP/Screenshot-2025-01-07-06-42-09-620-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/D4rPF2S)

crux2005
2025-01-07, 06:49:50
IMHO wird AMD nicht viel tiefer als 550€ für die 9070 XT gehen. Auch wenn es 500€ sind (wovon ich nicht ausgehe), ja, mei. Kein DLSS4 und kein Reflex 2. Ob die Raster und RT Leistung % gesehen so viel besser ist bezweifle ich auch. Die Karte ist DOA.

madzapp
2025-01-07, 06:52:04
Gibt es keinen NV-Thread?

dildo4u
2025-01-07, 06:57:51
Ist die Karte nicht weniger Komplex als eine 7800XT?
Alles über 500€ würde mich wundern bei NV machen die Preise sinn da alles GDDR7 nutzt.

horn 12
2025-01-07, 07:42:45
Lasst mal AMD reagieren
die 7900 XT und XTX werden nicht ausverkauft werden, sind ja kaum mehr welche Lagernd
die XT geht auf 650 Euro und die XTX auf knappe 800 Euro runter
und ist immer noch schneller als die 5070 / 5070TI werdet sehen im Raster.

The_Invisible
2025-01-07, 07:47:33
und ist immer noch schneller als die 5070 / 5070TI werdet sehen im Raster.

Wenn interessiert noch Raster, die ganze Industrie geht auf RT / AI, willst AMD auf 1 stellige Marketshare abstürzen sehen?

madzapp
2025-01-07, 07:57:25
Wenn interessiert noch Raster, die ganze Industrie geht auf RT / AI, willst AMD auf 1 stellige Marketshare abstürzen sehen?

Mich zum Beispiel.:smile:

E39Driver
2025-01-07, 08:09:33
Die Karte dürfte recht günstig in der Herstellung sein. Kleiner Chip, 0815 RAM, günstiges 2-Slot Board. Wenn man realistisch eine Chance gegen die sehr gut bepreiste RTX5070 haben will, muss man eigentlich auf 399$ UVP runter gehen.

Und zu dem Kurs wäre sie dann tatsächlich eine sehr gute midrange Gamingkarte, mit der man mal wieder etwas Marktanteile gewinnen kann und die ein positives Feedback in der Presse bekommen würde. Selbst wenn sie 100 Watt ineffizienter als die 5070 ist, würde man ihr das bei dem Preis verzeihen.

Persönlich glaube ich aber das AMD es auch bei diesem Punkt verkackt und die Karte für 499$ in den Markt entlässt, entsprechend den Ersteindruck versaut und auch keine großen Stückzahlen absetzten kann...

Linmoum
2025-01-07, 08:10:07
Würde ja auch noch zu "einstelligem Marketshare" passen. ;)

Nachdem ja vor allem Powercolor im Vorfeld gut geteasert hat, habe ich nach den Preisen von Nvidia ja fast den Eindruck, dass AMD deswegen spontan nichts gezeigt hat, weil sie davon Wind bekommen haben. Jetzt muss man die 9070XT im Prinzip für maximal $450 anbieten bei dem, was Nvidia da alleine an einem Featurefeuerwerk abgebrannt hat. Und eine 5070 dürfte auch grob bei einer 4070Ti landen von der Performance, ob eine 9070XT da jetzt 4% mehr oder weniger schafft, ist dann auch irrelevant.

Badesalz
2025-01-07, 08:25:19
Natürlich noch bitte unabhängige Benchmarks abwarten, aber die Richtung dürfte passen.Dürfte passen?? :rolleyes: KI generierte Frames samt DLSS4 :uup:

dargo
2025-01-07, 08:26:53
Igor hat wohl deutlich mehr Folien bekommen wie alle anderen oder hat das NDA nicht verstanden :D
Die Infinity-Cache-Technologie wurde weiter optimiert, um eine höhere Bandbreite und geringere Latenzen zu erreichen.
Muss ich gleich wieder an das Rumgeier von blacki wegen Bandbreite denken. :freak:

;D ;D ;D

https://i.gyazo.com/6916a690342e711049f341daec5b52ef.jpg

Natürlich noch bitte unabhängige Benchmarks abwarten, aber die Richtung dürfte passen.
Puh... heftiger Preisverfall der RTX 4090. Mehr als 350-400€ ist die also gebraucht ab heute nicht mehr wert. :D

DrFreaK666
2025-01-07, 08:34:56
Ich denke AMD ist jetzt hart am Neu-Kalkulieren ^^

madzapp
2025-01-07, 08:49:28
Ich denke AMD ist jetzt hart am Neu-Kalkulieren ^^

Die hatten vorher schon nen Sack voll Plan B.

DrFreaK666
2025-01-07, 08:51:30
Ich hoffe es dauert nicht bis Ende Mai. Will ne 9070XT

dildo4u
2025-01-07, 08:54:29
Warum sollte man was wollen ohne unabhängig Tests die Karte steht und fällt mit der Upsampling Qualität.

RitterRost
2025-01-07, 09:14:20
Das ist AMDs offizielle Antwort auf die "wo war RDNA4?" Frage
https://morethanmoore.substack.com/p/where-was-rdna4-at-amds-keynote

Edit: Also bleibt die Preis- und Performance- Frage spannend.
AMD sagt, "niemand (da draußen) hat den finalen 9070 Treiber" (wer weiß, ob AMD den schon hat ;-)
Und, die Nvidia-FPS mit Frame Generation sind ja auch erst mal mit nix vergleichbar...

robbitop
2025-01-07, 09:28:26
Typisch AMD. Als wenn man sowas nicht planen kann. Dass man für eine neue GPU uArch mehr als 5 min braucht fällt einem doch sicher nicht erst in letzter Minute ein. Entsprechend kann man eine separate Keynote (auch für die CES planen).

IMO sieht es nach einer (typisch ungeschickten) last minute Entscheidung aus. Immerhin gab es ein paar slides, die dann separat gezeigt worden sind. Es gibt Karten die auf der CES gezeigt werden. Jemand spricht in dem Launch Video auch von FSR4 und RDNA4 und zwar so als wäre es vor seinem Beitrag schon erklärt worden - also hat man wahrscheinlich einfach ungeschickt ein Segment rausgecuttet aber potenziell darauf referenzierende Segmente nicht angepasst.
Die paar Slides die es abseits des Events für RDNA4 gab wie vorab vermutet voller Mehrdeutigkeit.
Die Story die sie der Presse erzählen wirkt nach einer passenden Ausrede.

DrFreaK666
2025-01-07, 09:35:08
Warum sollte man was wollen ohne unabhängig Tests die Karte steht und fällt mit der Upsampling Qualität.
Ich habe eine 6700XT. Reicht das als Grund?

madzapp
2025-01-07, 09:37:32
Ich hoffe es dauert nicht bis Ende Mai. Will ne 9070XT

Wurde das nicht für Q1 angekündigt?
März ware trotzdem schon nahe am Sommerloch.:rolleyes:

Wieviele FSR 3.1 Games gibt es eigentlich? Nicht jedes FSR 3 Spiel ist ja automatisch 3.1. Wegen automatisch FSR 4.

dargo
2025-01-07, 09:37:59
Ich habe eine 6700XT. Reicht das als Grund?
Und ich habe Lust wieder auf eine neue Grafikkarte wo ich ca. zwei Presets beim Upscaling auf 4k höher gehen kann als jetzt und trotzdem meine hohen, gewohnten fps bekomme. Reicht das auch als Antwort? :tongue:

Wurde das nicht für Q1 angekündigt?
März ware trotzdem schon nahe am Sommerloch.:rolleyes:

Sollen die Dinger jetzt erst März kommen? Kann ich mir kaum vorstellen wenn schon so viele Customs abgebildet wurden.

madzapp
2025-01-07, 09:43:18
Q1 ist eben Q1. Das endet März.

Die gezeigten Karten können auch leer sein.

Palpatin
2025-01-07, 09:54:28
Würde ja auch noch zu "einstelligem Marketshare" passen. ;)

Nachdem ja vor allem Powercolor im Vorfeld gut geteasert hat, habe ich nach den Preisen von Nvidia ja fast den Eindruck, dass AMD deswegen spontan nichts gezeigt hat, weil sie davon Wind bekommen haben. Jetzt muss man die 9070XT im Prinzip für maximal $450 anbieten bei dem, was Nvidia da alleine an einem Featurefeuerwerk abgebrannt hat. Und eine 5070 dürfte auch grob bei einer 4070Ti landen von der Performance, ob eine 9070XT da jetzt 4% mehr oder weniger schafft, ist dann auch irrelevant.
Ja wenn die 9070xt 4% hinter der 5070 landet und gleich viel kostet würde ich sie allein wegen der 16gb immer vor ziehen. Denk aber eher das die 9070 im Raster vor der 5070 landet. RT wird spannend.
Edit: Die Preise von NV waren sehr beeindruckend der Rest eher nicht.

Nightspider
2025-01-07, 10:03:58
Wenn interessiert noch Raster

Fast alle?

Oder glaubst du RT Leistung hilft hohen Auflösungen?

dargo
2025-01-07, 10:06:51
Oder glaubst du RT Leistung hilft hohen Auflösungen?
Klar hilft es, jeder Pixel ist teuer bei RT.

Q1 ist eben Q1. Das endet März.

Die gezeigten Karten können auch leer sein.
Hmm... meinst du es sind alles Attrappen? :D Wäre schon etwas strange. :freak:

monstar-x
2025-01-07, 10:07:57
;D ;D ;D

https://i.gyazo.com/6916a690342e711049f341daec5b52ef.jpg

Natürlich noch bitte unabhängige Benchmarks abwarten, aber die Richtung dürfte passen.

Komm schon, du bist doch nicht erst seit gestern dabei! Du solltest wissen, wie der Hase läuft!

In welchem Bereich ist die 4070 so schnell wie die 4090?
Im Fake-Bilder-Erzeugen, indem sie nun DREI Fake-AI-Bilder hinzufügt.
WOW, ich bin beeindruckt, die Latenz wird richtig toll.

Dann schreibe ich eine Software, die 20 Bilder hinzufügt, für Intel-Grafikkarten, die damit jede 5090 abzieht. Intern rendert die zwar nur mit ruckeligen 12 FPS, aber hey, wen interessiert es? Durch Frame Generation stehen 240 FPS auf dem Monitor. Heureka!



Jetzt mal ehrlich, du glaubst doch nicht im Ernst, dass eine 5070, die gerade mal 37 % Cores hat, mit der 4090 gleichzieht, vor allem mit 12GB VRAM (DOA).
Denn wenn du das glaubst, dann kann ich gleich alle deine Beiträge für die Zukunft ignorieren.

Warten wir mal echte, unabhängige Benchmarks von RAFF, TechPowerUp etc., ab.

G3cko
2025-01-07, 10:20:30
Denke AMD hat von Nvidias Preisen und Folien Wind bekommen und müssen nun nochmal den spitzen Bleistift schwingen.

DrFreaK666
2025-01-07, 10:20:43
Mit Losless Scaling und 4xFG ist meine Karte auch superschnell ^^

monstar-x
2025-01-07, 10:52:00
Mit Losless Scaling und 4xFG ist meine Karte auch superschnell ^^

Was meinst du wie es erst abgeht wenn du die 5070
mit DLSS 4 und Lossless Scaling und 4xFG betreibst.

Damit ist die sogar schneller als eine 6090.
Ich glaube wir haben den Code geknackt ;D

Lawmachine79
2025-01-07, 11:06:01
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Da bleibt nur zu hoffen, dass AMD parallel an was ganz großem arbeitet und seine Ressourcen schwerpunktmäßig da konzentriert, das ist ja nicht mal markttauglich, was sie da abliefern.

Und dabei sind die CPUs so richtig gut.

aufkrawall
2025-01-07, 11:07:37
Und dabei sind die CPUs so richtig gut.
Haben auch Glück, dass Intel wie eine aufgeblähte korrupte Gewerkschaft geführt wird. Gegen Qualcomm und Apple im selben Markt würden die auch sang- und klanglos untergehen.

dargo
2025-01-07, 11:19:48
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Ein Spitzenreiter mit <300mm²? Das wäre so als wenn die RTX 5070 schneller wäre als die RTX 4090. :lol: Ach nee... moment, mit Fake Frames @Lederjacken Marketing könnte das eventuell hinhauen. ;D

Nuada
2025-01-07, 11:27:39
Man kann sich als 4090 Besitzer ja nur eine 5090 holen, mit allen anderen Scamt man sich ja vermutlich selbst.

Und jetzt kommt schon überall, 4090 Killer für 649 € das es so 1:1 übernommen wird finde ich fragwürdig, Jacke ist sicher stolz auf diese ganzen, Speichellecker.

Bei den Machenschaften von NV, da wird jede Mafia Familie neidisch.

Loeschzwerg
2025-01-07, 11:29:34
ASUS packt wohl die Brechstange für die RX 9070 XT aus, mit 3x 8-Pin:
https://www.computerbase.de/news/grafikkarten/amd-radeon-rx-9070-xt-asus-bringt-tuf-gaming-und-prime-serie.90910/

M4xw0lf
2025-01-07, 11:32:36
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Da bleibt nur zu hoffen, dass AMD parallel an was ganz großem arbeitet und seine Ressourcen schwerpunktmäßig da konzentriert, das ist ja nicht mal markttauglich, was sie da abliefern.

Und dabei sind die CPUs so richtig gut.

Der Markt wird gerade wohl nur pro Forma bespielt, um die verbliebenen Boardpartner nicht gleich absaufen zu lassen. Ich kann mir vorstellen, dass erst mit CDNA wieder "große" GPUs kommen, weil dann wieder durch die gemeinsame Chip-Basis Synergien zwischen HPC/ML und Gaming zu erwarten sind - vorausgesetzt, CDNA kann was für Gaming. Wenn nicht, dann können wir uns vermutlich von Radeon verabschieden.

Ravenhearth
2025-01-07, 11:36:12
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Da bleibt nur zu hoffen, dass AMD parallel an was ganz großem arbeitet und seine Ressourcen schwerpunktmäßig da konzentriert, das ist ja nicht mal markttauglich, was sie da abliefern.

Und dabei sind die CPUs so richtig gut.
Die 9070XT dürfte es mit der RTX 5070 aufnehmen. RDNA4 ist eine Zwischengeneration ähnlich wie Polaris und RDNA1. Die RX 480 war auch etwas langsamer als die Fury X, aber deutlich kleiner und sparsamer, und Konkurrent zur GTX 1060. Das gleiche mit der 5700 XT als Ablöse der Radeon VII und Konkurrent zur RTX 2070. Mit UDNA wirds dann wohl wieder größere GPUs geben.

dildo4u
2025-01-07, 11:37:03
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Da bleibt nur zu hoffen, dass AMD parallel an was ganz großem arbeitet und seine Ressourcen schwerpunktmäßig da konzentriert, das ist ja nicht mal markttauglich, was sie da abliefern.

Und dabei sind die CPUs so richtig gut.
Die Masse vom Markt hängt mit 6/8GB Nvidia Karten rum dort wird man mit der 9060XT 16GB ansetzen.(Nachfolger der 7600XT)
4090 sind für die 1.18%.

https://store.steampowered.com/hwsurvey/videocard/

Hakim
2025-01-07, 11:46:51
Die RX 480 war auch etwas langsamer als die Fury X, aber deutlich kleiner und sparsamer, und Konkurrent zur GTX 1060

Sry das stimmt nicht

Da gabs direkt Chaos weil die Karte mit einem 6 Pin zickte, während die 1060 auf 120w tpd ausgelegt war.

Edit: aso du meinst zu Fury? Sry

00-Schneider
2025-01-07, 11:49:07
Hat AMD jetzt eigentlich ernsthaft eine neue Generation ausgebracht, deren Spitzenexemplar langsamer als ihre letzte Generation ist und die sie gegen das Midrangemodell (4070) der Vorgängergeneration von NVidia positionieren?

Da bleibt nur zu hoffen, dass AMD parallel an was ganz großem arbeitet und seine Ressourcen schwerpunktmäßig da konzentriert, das ist ja nicht mal markttauglich, was sie da abliefern.

Und dabei sind die CPUs so richtig gut.

+ Das neue FSR funktioniert nur auf den neuen Karten und nicht auf ihren aktuell und in naher Zukunft schnellsten Karten, z.b. 7900XTX.

Ich verstehe den Launch von RDNA4 nicht. Wieso bringt man keine 7900XTX gleiche RDNA4 Karte?

Sumpfmolch
2025-01-07, 11:49:41
Die Masse vom Markt hängt mit 6/8GB Nvidia Karten rum dort wird man mit der 9060XT 16GB ansetzen.(Nachfolger der 7600XT)
4090 sind für die 1.18%.

https://store.steampowered.com/hwsurvey/videocard/

Mit den Steam Surveys kann ich immer wenig anfangen. Wie viele der Karten sind denn wirklich Erstverkäufe (worauf es den Hardwareherstellern ankommt) und welche genutzte Hardware kauft am Ende überhaupt die PC Spiele (worauf es den Softwareherstellern ankommt)?

Niemand hat etwas von der ganzen alten Gerümpelhardware, die sich über Jahre vom Westen nach Asien und schließlich in Afrika angesammelt hat und wo dann nur paar free games drauf gezockt werden.


+ Das neue FSR funktioniert nur auf den neuen Karten und nicht auf ihren aktuell und in naher Zukunft schnellsten Karten, z.b. 7900XTX.


An dem Punkt musste ich mir tatsächlich auch die Augen reiben. Wenn man bei AMD also jetzt anfängt für sein schnellstes Produkt die Features einzuschränken, dann kann (und müsste) man die Produktion der 7900XTX einstellen.

Man wird bei jeder Kaufberatung das Fehlen der aktuellen Features im die Ohren gehauen bekommen.

DrFreaK666
2025-01-07, 12:01:44
+ Das neue FSR funktioniert nur auf den neuen Karten und nicht auf ihren aktuell und in naher Zukunft schnellsten Karten, z.b. 7900XTX...

Das ist doch noch gar nicht sicher, wie Tim von HWU gesagt hat. Er war vor Ort, du sicherlich nicht

raffa
2025-01-07, 12:07:58
Das steht ja auch so nirgends auf den Folien. Entwickelt für RDNA4 und FSR3.1->4 Upgrade wird nur mit rx 9070 gehen, steht da

monstar-x
2025-01-07, 12:09:47
Man kann sich als 4090 Besitzer ja nur eine 5090 holen, mit allen anderen Scamt man sich ja vermutlich selbst.

Und jetzt kommt schon überall, 4090 Killer für 649 € das es so 1:1 übernommen wird finde ich fragwürdig, Jacke ist sicher stolz auf diese ganzen, Speichellecker.

Bei den Machenschaften von NV, da wird jede Mafia Familie neidisch.

Richtig geil wäre es wenn sich jetzt jeder nur noch eine 5070 kauft, weil die Performance der 4090 erreicht wird und mehr braucht der normale Gamer nicht. (wird sie nicht aber, steht ja so da)

Da würde Lederjacke aber echt Blöd schauen :-)

Exxtreme
2025-01-07, 12:19:27
Da würde Lederjacke aber echt Blöd schauen :-)

Ich glaube, das wäre ein Komma-Betrag in der Portokasse. ;) Nvidia macht vieeeeel mehr Kohle mit AI-Zeugs.

fondness
2025-01-07, 13:19:49
Haben auch Glück, dass Intel wie eine aufgeblähte korrupte Gewerkschaft geführt wird. Gegen Qualcomm und Apple im selben Markt würden die auch sang- und klanglos untergehen.

Fake news. Qualcomm hat gerade einen "tollen" Einstieg in den Windows-Markt hingelegt, das Ding loost gegen AMDs Strix Point einfach nur ab. Apple lebt von tollen Geekbench-Werten und dem TSMC N3E Prozess.

prinz_valium_2
2025-01-07, 13:21:35
Damit wird $499 von AMD kommen müssen. Die Frage ist nur für die 9070 oder 9070XT.

aufkrawall
2025-01-07, 13:28:20
Fake news. Qualcomm hat gerade einen "tollen" Einstieg in den Windows-Markt hingelegt, das Ding loost gegen AMDs Strix Point einfach nur ab. Apple lebt von tollen Geekbench-Werten und dem TSMC N3E Prozess.
Zeig mal Javascript-Benchmarks mit Stromverbrauch.

fondness
2025-01-07, 13:29:09
Zeig mal Javascript-Benchmarks mit Stromverbrauch.

Warum sollte ich?

aufkrawall
2025-01-07, 13:36:56
Warum sollte ich?
Um dich zu blamieren. Aber du wirst wohl lieber irgendwelche handgepflückten MT-Werte posten.

fondness
2025-01-07, 13:38:09
Bemerkst du eigentlich selbst was du postest?
Zeig mal Javascript-Benchmarks mit Stromverbrauch.
Aber du wirst wohl lieber irgendwelche handgepflückten MT-Werte posten.
Aber ich habe schon verstanden: Cherry-Picken darf nur aufkrawall.

BavarianRealist
2025-01-07, 13:38:54
AMD hat gut daran getan, nach der Blackwell-Präsentation erstmal nix zu präsentieren, denn:
- was die GTX50xx leisten, muss sich erst zeigen
- inwiefern die von Nvidia genannten Preise dann auch real sind, muss erstmal bewiesen werden...

Es fällt doch auf, dass die 5070(ti) unerwartet günstig gepreist sind: entweder deren Leistung ist einfach nicht so toll oder die Straßenpreise werden am Ende höher liegen.
Oder aber: alle Gamer dürfen sich über sehr günstige Grakas in 2025 freuen, was ich eher bezweifle.

...hier gilt: abwarten. Genau das scheint AMD jetzt zu machen.

E39Driver
2025-01-07, 13:41:30
Ich glaube, das wäre ein Komma-Betrag in der Portokasse. ;) Nvidia macht vieeeeel mehr Kohle mit AI-Zeugs.
Vermutlich verkauft NV lieber 2 billig produzierte GB205 für 1300€ anstelle eines großen GB202 für 2500€, dessen Silizium man um Faktoren teurer als AI-Zeug verkaufen könnte ;)

aufkrawall
2025-01-07, 13:42:28
Bemerkst du eigentlich selbst was du postest?

Ja, ich habe nach dem mit Abstand wichtigsten Anwendungsfall gefragt, der alle Web-Backends jeglicher Software mit einschließt.
Ist bestimmt auch eine Anti-AMD-Verschwörung, dass Apple und Qualcomm ihre Hardware darauf optimieren (bei trotzdem auch allgemein sehr hoher IPC)...

fondness
2025-01-07, 13:48:10
Ja, ich habe auch das Problem, dass alle Web-Backends auf meinem Zen5 nur so dahinruckeln. LOL. Lass mich raten: Du hast einen Benchmark gesehen und glaubst jetzt dieser ist Allgemeingültig für alle Web-Backends. Und das Apple und Qualcomm ihre Hardware darauf optimieren hast du dir natürlich auch gerade aus den Fingern gesaugt.

Raff
2025-01-07, 13:49:00
Leude, ihr müsst echt dringend eure Aktien verkaufen, um wieder entspannt diskutieren zu können. :)

MfG
Raff

aufkrawall
2025-01-07, 13:49:30
Natürlich haben die ihre Hardware darauf optimiert, weils für Mobile-Apps entscheidend ist. Dass man dir so etwas erklären muss. :freak:
Aber keine Sorge, wird schon noch massenhaft auch in Servern aufschlagen.

fondness
2025-01-07, 13:51:18
Jeder der versteht wie man HW entwickelt weiß, dass das absurd ist. Eine CPU auf eine Programmiersprache entwickeln, lol.

aufkrawall
2025-01-07, 13:52:45
Jeder der versteht wie man HW entwickelt weiß
Wow, zu dem illustren Kreis kann mich, anders als du, leider nicht zählen. :frown:

fondness
2025-01-07, 13:53:59
Wow, zu dem illustren Kreis kann mich, anders als du, leider nicht zählen. :frown:

Das merkt man.

Ravenhearth
2025-01-07, 13:54:18
Um zum Thema zurückzukommen:
Damit wird $499 von AMD kommen müssen. Die Frage ist nur für die 9070 oder 9070XT.
Die XT darf auf keinen Fall mehr als $499 kosten, nicht nur wegen Nvidia, sondern auch wegen den eigenen Vorgängern. Wenn das Ding 25% schneller als die 7800 XT ist, darf man es nicht teurer verkaufen, wenn man überhaupt noch einen nennenswerten Fortschritt bei der Perf/$ haben möchte.

dildo4u
2025-01-07, 13:58:25
Du hast lange 6800 für 400€ gehabt was der besser Kauf war als die 7700XT mit weniger Vram, die Generationen werden sich wieder überschneiden.

][immy
2025-01-07, 14:02:23
AMD hat gut daran getan, nach der Blackwell-Präsentation erstmal nix zu präsentieren, denn:
- was die GTX50xx leisten, muss sich erst zeigen
- inwiefern die von Nvidia genannten Preise dann auch real sind, muss erstmal bewiesen werden...

Es fällt doch auf, dass die 5070(ti) unerwartet günstig gepreist sind: entweder deren Leistung ist einfach nicht so toll oder die Straßenpreise werden am Ende höher liegen.
Oder aber: alle Gamer dürfen sich über sehr günstige Grakas in 2025 freuen, was ich eher bezweifle.

...hier gilt: abwarten. Genau das scheint AMD jetzt zu machen.
Die "günstigen" Preise sind aber maximal US Preise. Bei den EU Preisen scheint man sich wie Sony bei der PS5 pro noch mal was draufgeschlagen zu haben. Mit aktuellen Kursen komme ich auch mit Steuern nicht ansatzweise auf solche Werte.

Kann aber eigentlich nicht mehr lange dauern bis die Wettbewerbshüter sich cuda mal näher anschauen und wie Nvidia da agiert wenn das jemand "kompatibel" mit anderen gpus machen möchte. Nicht das es Performance bringen würde, aber viele Bereiche setzen inzwischen ausschließlich darauf, was den Wettbewerb halt verzerrt.

Dino-Fossil
2025-01-07, 14:10:35
Um zum Thema zurückzukommen:

Die XT darf auf keinen Fall mehr als $499 kosten, nicht nur wegen Nvidia, sondern auch wegen den eigenen Vorgängern. Wenn das Ding 25% schneller als die 7800 XT ist, darf man es nicht teurer verkaufen, wenn man überhaupt noch einen nennenswerten Fortschritt bei der Perf/$ haben möchte.

Passiert doch schon längst. Inzwischen kostet Mehrperfomrance auch oft genug mehr Geld.
Und Abverkaufspreise sind sowieso ein Stück weit losgelöst (und dafür gibt's ja auch tolle(tm) neue Features).

prinz_valium_2
2025-01-07, 14:30:51
Um zum Thema zurückzukommen:

Die XT darf auf keinen Fall mehr als $499 kosten, nicht nur wegen Nvidia, sondern auch wegen den eigenen Vorgängern. Wenn das Ding 25% schneller als die 7800 XT ist, darf man es nicht teurer verkaufen, wenn man überhaupt noch einen nennenswerten Fortschritt bei der Perf/$ haben möchte.

Das Problem ist, dass dann die 9070 ohne XT ein zu gutes P/L haben könnte, weil sie eben nur ein kleines bisschen zur XT beschnitten ist.

überleg mal die gibt es für $399 16GB und fast RTX5070 Leistung in Raster

Palpatin
2025-01-07, 14:32:31
4090 sind für die 1.18%.

Steam hat irgendwas zwischen 1 und 1,5 Mrd User, das wären dann allein ca 15 Millionen 4090..... Wenn mann das mit Konsolen verkäufe Vergleicht ist das schon beachtlich. Oder Zahlen sind einfach fürn Popo.

Dimon
2025-01-07, 14:40:48
Leude, ihr müsst echt dringend eure Aktien verkaufen, um wieder entspannt diskutieren zu können. :)

MfG
Raff

Deswegen diskutiere ich schon lange nicht mit 😁

Grüsse

Ravenhearth
2025-01-07, 14:42:38
Passiert doch schon längst. Inzwischen kostet Mehrperfomrance auch oft genug mehr Geld.
Und Abverkaufspreise sind sowieso ein Stück weit losgelöst (und dafür gibt's ja auch tolle(tm) neue Features).
Ich rede nicht von Abverkaufspreisen, der MSRP der 7800 XT waren $499. In Euro wäre man bei $499 für die 9070 XT dann natürlich eher Richtung 600€.

Das Problem ist, dass dann die 9070 ohne XT ein zu gutes P/L haben könnte, weil sie eben nur ein kleines bisschen zur XT beschnitten ist.

überleg mal die gibt es für $399 16GB und fast RTX5070 Leistung in Raster
Ja, ich rechne für die non-XT dann eher mit $449, da war die 7700XT auch (bei deutlich stärkeren Abspeckungen).

raffa
2025-01-07, 14:45:38
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/Leistung-Effizienz-Preis-1463013/

"Mit den neuen Grafikkarten auf RDNA-4-Basis soll der sinkende Anteil am GPU-Markt weiter vergrößert werden" :D

madzapp
2025-01-07, 14:46:01
knoten im kopf

Dino-Fossil
2025-01-07, 14:49:56
Ich rede nicht von Abverkaufspreisen, der MSRP der 7800 XT waren $499. In Euro wäre man bei $499 für die 9070 XT dann natürlich eher Richtung 600€.

Ich stimme dir ja auch zu, hab aber inzwischen ein Stück weit resigniert. Die Preise gehen doch seit längerem nur noch nach oben und offensichtlich sind genug Kunden bereit, da mitzugehen (weil wenn ich mehr Performance habe, darf es ja auch mehr kosten :freak: )

w0mbat
2025-01-07, 15:12:33
Release am 24.1.
https://www.instagram.com/p/DEg58MsvVpJ/

DrFreaK666
2025-01-07, 15:46:23
Das wäre früher als erwartet. Vielleicht hat XFX auch einfach noch nicht von AMD bescheid bekommen :D

madzapp
2025-01-07, 15:55:01
Das wäre früher als erwartet. Vielleicht hat XFX auch einfach noch nicht von AMD bescheid bekommen :D

Nicht schlecht...:cool:

Wiseman
2025-01-07, 17:13:30
Das ist AMDs offizielle Antwort auf die "wo war RDNA4?" Frage
https://morethanmoore.substack.com/p/where-was-rdna4-at-amds-keynote


Na, da könnte ja meine RDNA3-Karte auch in den Genuss von FSR4 kommen, wenn auch - logischer Weise - nicht ganz so effektiv wie auf einer RDNA4-Karte.

Wie ich deinem Link entnehme, lud AMD ein paar Presseleute zu einer "After-the-keynote" - Diskussionsrunde ein. Dabei beantwortete David McAfee von AMD u. a. eine Frage von Tim von Hardware Unboxed betreffs FSR4 exklusive für 9070?:

Tim from Hardware Unboxed asked about an assumption based on a footnote that might have suggested that FSR4 was going to be 9070 exclusive (or minimum) and asked for clarity. David stated that there’s nothing about FSR4 that makes it exclusive to a specific model ...

Hakim
2025-01-07, 17:42:46
Wenn XFX am 24.01 die Karte vorstellen will, macht es die ganze Sache noch merkwürdiger. Evtl verschieben die es jetzt oder bringen einen besseren teaser an dem Tag :). Man stelle sich vor NV stellt vor und will am 31.01 liefern, AMD stellt nicht vor und bringen es ne Woche vorher.

Dorn
2025-01-07, 17:51:22
Mal schauen welche im Februar (Verfügbarkeit vorausgesetzt) gekauft wird: 5070 Ti oder 9070 XT.

Meine Fresse auf die Hardware Tests bin ich so verdammt gespannt. :smile:

gedi
2025-01-07, 18:00:36
Ich verstehe den Aufruhr nicht, denn eine 5090 legt ohne FG lächerliche 25% zur 4090 drauf. Nehme ich meine Karte und lass die mit 575w laufen, dann sind es derer lediglich 15%.
Und wenn eine 9070xt overall schneller als ne 5070 ist, warum muss sie dann ~150€ billiger sein?

GerryB
2025-01-07, 18:01:04
5070 Ti oder 9070 XT.

5070Ti = 879€ vs. 9070xt <649€
Was willste da vgl. ?
Fps/€

btw.
AMD soll dabei nicht unbedingt auf P/L für den User geschaut haben, sondern vor Allem auf die Kosten, Probleme
sinnvollen Aufwand in der Fertigung, ... damit auch bei AMD etwas Marge hängenbleibt?
may be
Dem einem oder anderem User hätte sicherlich GDDR7 bessser gefallen, aber war vermutlich zu teuer.
(das dadurch evtl. RDNA4 etwas mehr Watt braucht ist eigentlich nicht schlimm, weil diese soundso separat gekühlt werden,
sprich nicht über die Hotspottemp. zu ner Drossel werden)

G3cko
2025-01-07, 18:27:13
Steam hat irgendwas zwischen 1 und 1,5 Mrd User, das wären dann allein ca 15 Millionen 4090..... Wenn mann das mit Konsolen verkäufe Vergleicht ist das schon beachtlich. Oder Zahlen sind einfach fürn Popo.

Das eine sind User Accounts. (aktiv+inaktiv)
Das andere ist die Hardwareauswertung anhand einer freiwilligen Umfrage. (aktive Useraccounts + Umfrage.)

Lawmachine79
2025-01-07, 18:39:26
Mal schauen welche im Februar (Verfügbarkeit vorausgesetzt) gekauft wird: 5070 Ti oder 9070 XT.

Meine Fresse auf die Hardware Tests bin ich so verdammt gespannt. :smile:
Ich bin sehr optimistisch was die Verfügbarkeit der 9070XT angeht.

fizzo
2025-01-07, 18:53:12
Laut Folie soll die RX 9070XT auf Augenhöhe mit der RX 7900XT/RTX 4070Ti spielen. Ich gehe davon aus, dass das Referenzmodell mit TDP 260 Watt gemeint ist. Für max. € 600 wäre das schon eine sexy Karte.

Duch die aggresive Bepreisung der RTX 5700 werden < 600,00 Euro durchaus realistisch. Wenn es jetzt keine böse Überschung (zb. hoher Verbrauch) mehr gibt, werde ich meine 6700XT durch eine 9070XT ersetzen. Sollten ca. 100% Mehrleistung sein und die 16GB Ram sind auch willkommen. =)

DrFreaK666
2025-01-07, 19:12:33
Das eine sind User Accounts. (aktiv+inaktiv)
Das andere ist die Hardwareauswertung anhand einer freiwilligen Umfrage. (aktive Useraccounts + Umfrage.)

Fand diese Milchmädchen-Rechnung irgendwie ganz witzig ^^

OgrEGT
2025-01-07, 20:04:15
Weiß man denn schon was FSR4 genau beinhaltet? ML Upscaling klar aber wie sieht es mit FG aus? Wird es da ggf auch mehr ML-fps un Vgl zu FSR3-FG geben und wenn ja wo wird man dann da im Vgl zu BW landen?

raffa
2025-01-07, 20:27:36
Bekannt ist dazu bisher nichts, ich geh aber nicht davon aus, dass sie da viele Resourcen drauf verwendet haben, denn die FSR3.1 FG skaliert und läuft eh schon sehr gut und besser als die FG die NV bisher hatte - ganz ohne ML. Dazu wurde mit FSR3.1.2 das pacing nochmals verbessert (stichwort: Hybrid-Spinlock).

Heisst freilich nicht, dass sie da nicht was nachschieben.

Ob jetz MFG der nächste heisse Scheiss wird, ich bin da skeptisch, was will ich mit 240fps, wenn das nur 60 base fps sind? hmm.

gedi
2025-01-07, 21:45:32
... es muss doch einen Grund geben, dass alle Custums auf einmal 3x8 Pin anbieten. Bin auf die offizielle Zielvorgabe gespannt!

horn 12
2025-01-07, 22:42:51
https://www.youtube.com/watch?v=WP06VGYTu7Q

Unboxing Asus 9070
und da sollen die Karten nicht fertig sein, seit Ende Oktober/ Mitte November denk ich mal.

Troyan
2025-01-07, 22:53:19
Wärst du auf der CES, könntest auch die Karte benchmarken: https://www.ign.com/articles/amd-radeon-rx-9070-benchmark

Linmoum
2025-01-07, 22:56:35
Now, to be clear, this graphics card is running on very early alpha drivers, and that bug will more than likely be resolved by the time the card comes to market.Ahja. Wir haben Januar, die Karten kommen laut AMD spätestens im März. Hat IGN sich das jetzt ausgedacht oder kommt das von AMD?

MR2
2025-01-07, 23:00:02
AMD hat doch groß im Interview gesagt das die Hersteller noch keine finalen Treiber haben.

"Die verfügbaren Leistungsdaten für RDNA 4 sind völlig ungenau", erklärte David McAfee. "Und was ich Ihnen noch sagen möchte: Niemand, niemand hat die endgültigen Treiber. Wie können die Daten also genau sein? Nicht einmal die Kartenhersteller haben sie", führte Frank Azor weiter aus. David McAfee schloss das Ganze mit einer Binsenweisheit ab und wies darauf hin, dass man nicht alles glauben sollte, was im Internet zu finden ist, sondern vielmehr den Entwicklern bei AMD, denn David McAfee könne man durchaus vertrauen, wie er selbst sagte.

https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/Leistung-Effizienz-Preis-1463013/

nairune
2025-01-07, 23:01:58
Klingt aber als wäre das System direkt von AMD (auch wegen der CPU), dann könnten sie natürlich schon einen aktuelleren Treiber drauf haben.

Linmoum
2025-01-07, 23:03:21
AMD hat doch groß im Interview gesagt das die Hersteller noch keine finalen Treiber haben.

"Die verfügbaren Leistungsdaten für RDNA 4 sind völlig ungenau", erklärte David McAfee. "Und was ich Ihnen noch sagen möchte: Niemand, niemand hat die endgültigen Treiber. Wie können die Daten also genau sein? Nicht einmal die Kartenhersteller haben sie", führte Frank Azor weiter aus. David McAfee schloss das Ganze mit einer Binsenweisheit ab und wies darauf hin, dass man nicht alles glauben sollte, was im Internet zu finden ist, sondern vielmehr den Entwicklern bei AMD, denn David McAfee könne man durchaus vertrauen, wie er selbst sagte.Es geht um das von IGN genutzte Testsystem zum benchen und der Aussage zum Treiber. Wenn AMDs Treiber rund zwei Monate vor dem finalen Launch noch im "very early alpha"-Status wären, dann wäre das mehr als besorgniserregend. Deshalb meine Frage, ob sich IGN das hier nur ausgedacht hat oder AMD sich selbst dahingehend so geäußert hat. Die Aussage dazu, dass andere noch keine finalen Treiber haben, spielt dafür ja keine Rolle. Das ist ja auch völlig normal bis zu einem gewissen Zeitpunkt, bei Nvidia genauso.

fizzo
2025-01-07, 23:08:40
Wärst du auf der CES, könntest auch die Karte benchmarken: https://www.ign.com/articles/amd-radeon-rx-9070-benchmark

https://www.computerbase.de/artikel/gaming/cod-black-ops-6-benchmark-test.90101/seite-2#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Hm, 99fps wären deutlich über den Erwartungen.

Hakim
2025-01-07, 23:12:19
99 FPS wäre auf RTX 4080 Niveau oder? Aber sowas sollte man dennoch mit Vorsicht betrachten.

Linmoum
2025-01-07, 23:14:01
https://www.computerbase.de/artikel/gaming/cod-black-ops-6-benchmark-test.90101/seite-2#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Hm, 99fps wären deutlich über den Erwartungen.IGN hat nur den integrierten Benchmark genutzt, CB bencht reale Ingame-Szenen. Integrierte Benchmarks sind Schönwetter-FPS, daher fallen die auch immer deutlich höher aus.

Sumpfmolch
2025-01-07, 23:21:12
IGN hat nur den integrierten Benchmark genutzt, CB bencht reale Ingame-Szenen. Integrierte Benchmarks sind Schönwetter-FPS, daher fallen die auch immer deutlich höher aus.

Ob irgendjemand in diesem Forum bei einer Gaming Zeitschrift arbeitet und mal ein paar Grafikkarten durch den internen Benchmark mit identischen Settings laufen lässt? :biggrin:

fizzo
2025-01-07, 23:21:41
IGN hat nur den integrierten Benchmark genutzt, CB bencht reale Ingame-Szenen. Integrierte Benchmarks sind Schönwetter-FPS, daher fallen die auch immer deutlich höher aus.

However, even with DLSS on the 'Quality' setting, the Nvidia GeForce RTX 4080 Super gets around 129fps on the same graphics preset at 4K. Given that DLSS adds about a 30% performance jump at the Quality setting, that may place the Radeon RX 9070 on equal footing with the 4080 Super – though I'd need to test the 4080 Super without DLSS to know for sure.

Das schreibt IGN hierzu. Wie gesagt, das kommt für mich jetzt unerwartet.

Edit: btw das soll laut Artikel nur eine 9070 (keine XT) sein:ugly:

prinz_valium_2
2025-01-07, 23:28:45
Vor allem sind das bisher alles die 9070 GPUs und nicht 9070XT
Das ist doch das Interessante. Frage mich warum.

G3cko
2025-01-07, 23:30:08
IGN hat nur den integrierten Benchmark genutzt, CB bencht reale Ingame-Szenen. Integrierte Benchmarks sind Schönwetter-FPS, daher fallen die auch immer deutlich höher aus.

Das spielt doch aber keine Rolle, sofern alle die gleichen Bedingungen haben.

nairune
2025-01-07, 23:43:30
Das schreibt IGN hierzu.

Der Kasper könnte halt einen Kollegen auch fix einen Vergleichsbench machen lassen als so eine halbgare Hochrechnung.
Notebookcheck hat den integrierten Benchmark mit 7900XT und 13900K 4k Extreme bei 102 FPS.
https://www.notebookcheck.net/Black-Ops-6-tech-test-with-benchmarks-Light-and-shade-in-the-new-Call-of-Duty.912069.0.html

Also für die non-XT wäre das ein gutes Niveau.

edit: kurz im PCGH CPU-Bench geschaut, da scheint genug Puffer als dass der 9950X3D relevant sein sollte
edit2: weitere Beobachtung ist, dass im integrierten Benchmark die 4080 (zumindest bei Notebookcheck) weit schlechter wegkommt als z.B. bei der eigenen Szene von CB. Daher würde ich eher mit der 7900XT vergleichen, herstellerintern sollten sich Ergebnisse wohl mehr gleichen

Raff
2025-01-08, 00:01:27
Wichtig: Black Ops 6 ist quasi Radeon-Bestcase, neben in Cities Skylines 2 und X4 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/2/). Davon muss man also ein gutes Stück abziehen, um auf die durchschnittliche Performance zu kommen -> zu vage, zu früh.

MfG
Raff

Wiseman
2025-01-08, 00:44:24
Bekannt ist dazu bisher nichts, ich geh aber nicht davon aus, dass sie da viele Resourcen drauf verwendet haben, denn die FSR3.1 FG skaliert und läuft eh schon sehr gut und besser als die FG die NV bisher hatte - ganz ohne ML. Dazu wurde mit FSR3.1.2 das pacing nochmals verbessert (stichwort: Hybrid-Spinlock).

Heisst freilich nicht, dass sie da nicht was nachschieben.

Ob jetz MFG der nächste heisse Scheiss wird, ich bin da skeptisch, was will ich mit 240fps, wenn das nur 60 base fps sind? hmm.

Da stimme ich zu 100% mit dir überein.

https://www.ign.com/articles/amd-radeon-rx-9070-benchmark

Ein paar Anmerkungen noch zu diesem von IGN bei der CES 2025 auf die Schnelle gemachten Benchmark zum Spiel Call of Duty Black Ops 6. Ob es die 9070 XT oder die 9070 ist, ist nicht ersichtlich. IGN schreibt nur RX 9070.

Aber egal, 99 fps Average ohne FSR und ohne FG sind beeindruckend. Treiber sind ja auch noch nicht final. Die RX 9070 könnte tatsächlich in die Nähe der Performance der 7900XTX rankommen. Woher ich das weiß? :biggrin: Ich machte im Oktober diesen Benchmark mit den gleichen Settings und erzielte 120 fps Average (Siehe Screenshot).

Und da natürlich auch hier die üblichen Dampfplauderer emsig unterwegs sind, für die Integrierte Benchmarks nur Schönwetter-FPS sind, die selber nie eigene Benchmarks zeigen, aber fleißig CB zitieren, weil nur dort reale Ingame-Szenen getestet werden ;D , hänge ich einen weiteren Screenshot an. Ich habe Call of Duty Black Ops 6 nicht nur anhand des integrierten Benchmarks überprüft, sondern auch reale Ingame-Szenen getestet. In meinem 60s-Parcours erzielte meine auf max 312W gedrosselte XTX 176 fps Average (Extreme Settings, FSR 3.1 + FG).

Die RX 9070 könnte also mit fast den gleichen Settings (nur FSR wäre anders, nämlich FSR 4 statt FSR 3.1) sagen wir mal so ca. 150 fps Average erreichen. Das wäre in der Tat bärenstark für eine sagen wir mal 600 € Karte.

dildo4u
2025-01-08, 03:59:31
Die Raster Performance war ja auch nie das Problem aktuelles Call of Duty hat jegliche RT Effekte rausgenommen daher sind wir so schlau wie vorher.

dargo
2025-01-08, 07:49:49
Wichtig: Black Ops 6 ist quasi Radeon-Bestcase, neben in Cities Skylines 2 und X4 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/2/). Davon muss man also ein gutes Stück abziehen, um auf die durchschnittliche Performance zu kommen -> zu vage, zu früh.

Keine Ahnung wie du wieder auf die avg Performance kommst. Niemand sprach davon bisher, es ging nur um den einen Benchmark.

Die Raster Performance war ja auch nie das Problem...
Erzähl doch keinen Stuss... ich möchte auch nach über drei Jahren mehr Rasterperformance haben und nicht nur schnöde RT, was eh jeder GPU den Hals bricht. Je nach RT Frametime. Selbst Nvidia sieht letzteres endlich ein und kommt mit noch mehr Fake Frames bei Blackwell (*gähn*) um die Ecke anstatt mit deutlich mehr Hardware Power.

dildo4u
2025-01-08, 08:07:43
Siehe Call of Duty 100fps in 4k ohne Upsampling RT ist die einzige Möglichkeit die Performance der neuen Karten auszuspielen.
Du hast Probleme die Karten mit Raster Optik zu laden und nicht im CPU Limit zu landen, genau aus dem Grund decken sich High-End User mit X3D Modellen ein.

OgrEGT
2025-01-08, 08:21:26
Wenn insb bei NV immer von CPU Limit gesprochen wird... wie wird denn sauber unterschieden wann ein CPU Limit vorliegt und wann die GPU architekturbedingt in bestimmten Workloads nicht ausgelastet werden kann?

dildo4u
2025-01-08, 08:28:30
Das betrifft auch AMD je nach Game Stalker um 70fps in 1080p mit X3D CPU.

lEc-py9zqKs

dargo
2025-01-08, 09:07:07
Willst du jetzt mit Bananensoftware um die Ecke kommen um deinen Standpunkt zu stärken? In meinen Games sehe ich nirgendwo @4k ein CPU-Limit mit der RX 6800XT, trotz Upscaling. Und ein N48 wird voraussichtlich nur ca. 40% drauflegen (Raster).

dildo4u
2025-01-08, 09:10:42
9700 scheint grob Die Size einer 4080 zu haben.

https://videocardz.com/newz/amd-navi-48-rdna4-gpu-for-radeon-rx-9070-pictured-may-exceed-nvidia-ad103-size

dargo
2025-01-08, 09:12:09
;D ;D ;D

Die Leaker lagen mit ihren ~230-270mm² aber sowas von daneben. :freak:

Edit:
Einerseits fände ich diese Größe gut weil die ~265W (non OC) sich damit wesentlich einfacher kühlen lassen. Anderseits schlecht weil AMD damit andere Preise abrufen muss als mit bsw. 230mm².

Jemand eine Idee warum der Chip mit nur 64 CUs so fett geworden ist? Was könnte AMD da noch reingepackt haben? Oder sind die CUs wegen RT so viel fetter geworden?

basix
2025-01-08, 09:23:44
380mm2 wäre ziemlich gross. Wenn da nicht 4080 Performance rauskommt, dann weiss ich ja auch nicht was AMD gemacht hat (ausgehend von 200mm2 & 308mm2 GCDs von N32 und N31).

Vor allem wenn AMD noch behauptet (Aussage von Frank Azor), dass die GPU auf Effizienz getrimmt worden ist (Perf/Watt als auch Kosten).

Raff
2025-01-08, 09:25:23
Keine Ahnung wie du wieder auf die avg Performance kommst. Niemand sprach davon bisher, es ging nur um den einen Benchmark.

Ich denke immer einen bis mehrere Schritte weiter. Welche Aussage hat der hingeschluderte 9070-Benchmark, was wollt ihr wissen? :)

MfG
Raff

dargo
2025-01-08, 09:28:07
Welche Aussage hat der hingeschluderte 9070-Benchmark, was wollt ihr wissen? :)

Nichts... es ist nur eine Messung von vielen die bald kommen. :)

basix
2025-01-08, 09:28:38
Jemand eine Idee warum der Chip mit nur 64 CUs so fett geworden ist? Was könnte AMD da noch reingepackt haben? Oder sind die CUs wegen RT so viel fetter geworden?

Das ist eine gute Frage. Bei Turing wissen wir ja, dass die RT-Cores und Tensor Cores nicht extrem viel Platz brauchen, da spezialisierte HW. Was hiess es mal, 10% oder so grössere SMs (man hat RTX vs. non-RTX Turing verglichen)? Zusätzlich RT und Matrix Performance wird was kosten aber sicher nicht so viel.
Ich meine, wenn ich N31 nehme und dort 64MByte IF$ und 256bit draufschnalle, wird man in etwa bei den 380mm2 landen. Das ist aber mit 96 CUs!

Das einzige was mir gerade in den Sinn kommt:
- Verdoppelter FP32 Throughput pro CU (und entsprechend mehr Matrix FLOPS/TOPS)
- Grössere Caches = Bessere IPC

dargo
2025-01-08, 09:31:33
- Grössere Caches = Bessere IPC
Hmm... stimmt, daran hatte ich noch gar nicht gedacht wegen dem IF. Die anderen Caches könnten ja trotzdem größer diesmal ausfallen.

][immy
2025-01-08, 09:34:53
Ich weiß nicht ob Tensor & von nicht inzwischen auch deutlich mehr Platz einnehmen, da die Menge ja auch stetig erhöht wurde.
Kann gut sein das and jetzt einen ähnlichen weg geht und so etwas drauf klatscht statt die vorhandenen Ressourcen als AI cores auszugeben.

Ein monolithisches Design sollte allerdings erst mal etwas weniger Fläche benötigen als die rdna3 Chips. Lassen wir uns mal überraschen. Nach den bisherigen benches wird es tatsächlich kein großer Wurf werden. Gehen die 5000er von Nvidia wird man damit wohl kaum konkurrieren können außer über den Preis.

basix
2025-01-08, 09:35:23
Wie gesagt, bei Turing hat es nicht so viel ausgemacht.

dargo
2025-01-08, 09:38:11
Wie gesagt, bei Turing hat es nicht so viel ausgemacht.
Naja... mit Turing würde ich einen N48 aber auch nicht vergleichen wollen.

basix
2025-01-08, 09:39:12
Ah etwas habe ich noch vergessen:
AMD könnte dedizierte Matrix Cores verwenden. Also die, die man in CDNA3 hat.

Naja... mit Turing würde ich einen N48 aber auch nicht vergleichen wollen.
Turing hat ziemlich potente Matrix und RT HW. Deswegen dürfte N48 nicht viel mehr Fläche als Turing dafür aufwenden, wenn überhaupt. Und RDNA3 als Basis kann bereits WMMA und hat RT-Cores.

AffenJack
2025-01-08, 09:41:50
380mm2 wäre ziemlich gross. Wenn da nicht 4080 Performance rauskommt, dann weiss ich ja auch nicht was AMD gemacht hat (ausgehend von 200mm2 & 308mm2 GCDs von N32 und N31).

Vor allem wenn AMD noch behauptet (Aussage von Frank Azor), dass die GPU auf Effizienz getrimmt worden ist (Perf/Watt als auch Kosten).

Speicherinterface und Cache brauchen halt Platz. Die vorherigen Angaben haben einfach kaum Sinn gemacht. Das GCD braucht wegen Architektur etwas mehr und dann kommt eben Cache und Speichercontroller dazu, die zu 5nm auch nur wenig shrinken.

Wobei es mich nicht wundern würde, wenn das etwas zu hoch geschätzt ist und wir am Ende bei ~350mm² landen.

dargo
2025-01-08, 09:46:28
Turing hat ziemlich potente Matrix und RT HW. Deswegen dürfte N48 nicht viel mehr Fläche als Turing dafür aufwenden, wenn überhaupt. Und RDNA3 als Basis kann bereits WMMA und hat RT-Cores.
Sorry, aber das stimmt definitiv nicht. Dafür bricht Turing zu stark ein bei höherer RT-Last.


Wobei es mich nicht wundern würde, wenn das etwas zu hoch geschätzt ist und wir am Ende bei ~350mm² landen.
Ob jetzt 350mm² oder 380mm² sei dahin gestellt wegen zu ungenauen "Messung". Mich wundert das nur sehr weil es immer wieder hieß ca. 230mm. Und das ist ein riesen Unterschied.

The_Invisible
2025-01-08, 09:54:21
Sorry, aber das stimmt definitiv nicht. Dafür bricht Turing zu stark ein bei höherer RT-Last.


Ja voll schlecht, eine 2080Ti ist eh nur vor einer 79XTX :freak:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

dildo4u
2025-01-08, 09:58:18
Die 230 mm kann einfach Navi 44 sein was deutlich mehr Sinn macht so lange wir von 4nm reden.

basix
2025-01-08, 09:59:31
Sorry, aber das stimmt definitiv nicht. Dafür bricht Turing zu stark ein bei höherer RT-Last.

Ist das wegen RT-Cores oder 50% FP32 Rate seiner Nachfolger? ;)

Insgesamt kann Turing immer noch gut mithalten, solange der Speicher nicht ausgeht. Dass man bei PT dann etwas abfällt ist klar aber das sind eigentlich die einzigen Fälle, wo Turing die Puste etwas ausgeht.

Ob jetzt 350mm² oder 380mm² sei dahin gestellt wegen zu ungenauen "Messung". Mich wundert das nur sehr weil es immer wieder hieß ca. 230mm. Und das ist ein riesen Unterschied.

Evtl. war das N44. Da könnten 230mm2 vs. 380mm2 ziemlich gut passen.

Dann macht es auch viel Sinn, dass N33 im Portfolio verbleibt.

ODER:
Das Ding ist eine 9090 XT mit 96 CU und 384bit ;D (Spass ;))

mboeller
2025-01-08, 10:01:42
ODER:
Das Ding ist eine 9090 XT mit 96 CU und 384bit ;D (Spass ;))

Nö, nur eine N48x2 ... ;)
wegen der IMHO für Chips sehr seltsamen länglichen Form. Normalerweise versucht man ja alles quadratisch praktisch gut zu machen um mehr Dies pro Wafer unterzubringen.

Ex3cut3r
2025-01-08, 10:02:11
Ja voll schlecht, eine 2080Ti ist eh nur vor einer 79XTX :freak:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

:freak: Geht ja mal gar nicht für den alten Turing Schinken.

dargo
2025-01-08, 10:11:17
Ja voll schlecht, eine 2080Ti ist eh nur vor einer 79XTX :freak:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/
Dein Whataboutism stinkt, wo habe ich Vergleiche zu anderen IHVs angestellt? Junge, Junge... es geht um den absoluten Einbruch. Ist wirklich nicht so schwer zu verstehen. 44 avg.fps mit einer 2080TI ist natürlich voll der Burner in 1080p mit Performance Upscaling. :facepalm: Da ist bestimmt jeder Spieler scharf drauf.

Der_Korken
2025-01-08, 10:18:52
230mm² war schon immer zu klein. 256bit SI und 64MB Cache kosten locker 70mm² mehr als die Chiplet-Verbindungen von N32. Ausgehend davon müsstest du dessen 60CUs von 200 auf 160mm² verkleinern, dabei noch 4 CUs und eine Shader Engine zusätzlich verbauen, plus mehr RT-Einheiten, plus evtl. weitere Verbesserungen. Das wäre nur in 3nm möglich gewesen.

390mm² dagegen sind viel zu groß. Im Vergleich mit N31 müsste die Fläche pro CU, wie basix schon sagte, um 50% ansteigen. Selbst bei 350mm² müssten es immer noch 30-35% sein. Es gäbe natürlich Möglichkeiten die Fläche zu investieren: BVH-Traversal in Hardware, größere/schnellere L0-Caches, deutlich mehr Takt (>3,5Ghz), Ausbau des Dual-Issue-Pfades zu verdoppelten SIMDs wie bei Ampere. Ersteres reicht aber nicht aus, um den Flächenanstieg zu erklären und die anderen Sachen müssten die Performance deutlich stärker anheben. AMD selber sieht N48 angeblich unterhalb der 7900XTX.

Das wäre bei dem großen Die aber schon etwas mager. GB103 wird in der selben Größenordnung liegen, aber in Raster bestimmt 20% über der 7900XTX liegen und in RT sicherlich nicht gegenüber N48 zurückfallen. Damit ist zumindest die preisliche Patzierung für AMD ein großes Thema. Kosten fast auf N31-Niveau aber für die 5070Ti mit 750$ wird es wahrscheinlich nicht reichen.

reaperrr
2025-01-08, 10:20:25
Speicherinterface und Cache brauchen halt Platz.
256bit SIs haben auch schon deutlich kleinere GPUs gehabt (RV670, Pitcairn, Polaris10 waren alle im 190-230mm² Bereich).

128bit sind in modernen Prozessen ca. 25mm². Nicht klein, aber definitiv nicht der Grund für die Größe von N48, zumal ggü. N32 die IF-Interfaces zw. GCD und MCDs wegfallen.

Und was den IF$ angeht: Der wird zwar nicht direkt klein sein, aber SRAM ist in N5/4 schon etwas dichter als in N6 (grob 20%), und N33 ist mit halb so hohen Specs wie N48 schon in N6 nur 207mm².
Kurzum, N48 scheint in N4P so groß zu sein, wie es ein doppelter N33 in N6 gewesen wäre.

Nee, dass N48 in N4P derart groß ist geht eigentlich nur, wenn entweder alle Gerüchte zur WGP-Zahl falsch waren, oder im Frontend/WGPs/Backend einiges massiv aufgebohrt wurde.

why_me
2025-01-08, 10:22:13
Nö, nur eine N48x2 ... ;)
wegen der IMHO für Chips sehr seltsamen länglichen Form. Normalerweise versucht man ja alles quadratisch praktisch gut zu machen um mehr Dies pro Wafer unterzubringen.

Nimm 2 davon nebeneinander und es ist wieder quadratisch ;D

GerryB
2025-01-08, 10:24:09
Jemand eine Idee warum der Chip mit nur 64 CUs so fett geworden ist? Was könnte AMD da noch reingepackt haben?

L4 wo die 2x Framebuffer der echten Frames für FG drin liegen und evtl. der SAM-Bereich
= bessere Latenz
Ist bei vergrößerter Fläche vermutlich preiswerter als ein 3dCache.


Einerseits fände ich diese Größe gut weil die ~265W (non OC) sich damit wesentlich einfacher kühlen lassen.

380...450W fun für OCer incoming , ... was dann aber auch wirklich ne 4080 matchen können muss, damits sich lohnt
vllt. überschätzt AMD aber auch nur die reale Performance der 5070Ti (ohne DLSS4) und hat deswegen beim Branding nur
zu 9070xt gegriffen oder es kommen noch gebinnte XT(H) mit etwas mehr Takt+Watt (ne Taichi mit 675W-Bios ?)

raffa
2025-01-08, 11:43:26
Wenn man sich den Gigabyte Klopper mit 3x8Pin anschaut, könnte das hinkommen.
https://youtu.be/3-s4KrPlIx4?t=651

Gefällt mir gar nicht, lässt nix gutes für die Effizienz befürchten...

dildo4u
2025-01-08, 11:46:48
Das ist ein gutes Zeichen wenn teure Karten gebaut werden erwarten die OEM das der Chip Konkurrenzfähig ist.
Und unsinnige Custom Modelle gibt es häufig obwohl GPU OC kaum noch was bringt mit den ganzen Boost Algorithmen.

DrFreaK666
2025-01-08, 11:48:23
Ich werde mich mit einer 9070XT mit zwei Anschlüssen begnügen

basix
2025-01-08, 11:50:02
Gefällt mir gar nicht, lässt nix gutes für die Effizienz befürchten...

Solange die Performance stimmt, wäre das ja egal. Oder hättest du was gegen 4090 Performance bei 300W? Eben. 3x8p sind wohl auch für max. OC Geschichten. 2x8p wäre bei ~350W limitiert und evtl. wollen einige Hersteller darüber hinaus gehen (auch wenn ich das für sinnlos halte).

Mal abwarten wie es schlussendlich rauskommt.

mboeller
2025-01-08, 11:50:02
ODER:
Das Ding ist eine 9090 XT mit 96 CU und 384bit ;D (Spass ;))

oder die 130mm2 für N44 stimmen und das ist einfach ein 3x N44 :eek::biggrin:

Leonidas
2025-01-08, 12:03:04
Release am 24.1.
https://www.instagram.com/p/DEg58MsvVpJ/

Oder eher nur eine Vorstellung? Aus dem Tagesdatum selber ist nicht herauszulesen, was da passieren wird. Bei einem Release am 24. hätte AMD die Dinger aber ziemlich sicher schon zur CES vorgestellt.

w0mbat
2025-01-08, 12:04:18
Stimmt, könnte auch Vorstellung sein. Aber die gab es ja (eigentlich) schon. Also angekündigt wurde RDNA4 ja.

DrFreaK666
2025-01-08, 12:08:46
Stimmt, könnte auch Vorstellung sein. Aber die gab es ja (eigentlich) schon. Also angekündigt wurde RDNA4 ja.

Jo, Specs kann man auch im Review erwähnen.
Mehr als Specs brauchen wir ja nicht zusätzlich und auf AMD-Benchmarks kann man auch verzichten ^^

basix
2025-01-08, 12:09:16
oder die 130mm2 für N44 stimmen und das ist einfach ein 3x N44 :eek::biggrin:

Eben, 3 * (32 CU + 128bit + 32MB IF$) ;D

Oder evtl. auch 3 * (32 CU + 96bit + 24MB IF$)
- 256bit für 9070 (anstatt die vollen 288bit)
- 192bit für 2x N44 = 12GByte = 9060
- 96bit für 1x N44 und ebenfalls 12 GByte für die 9050 XT

Wäre noch irgendwie interessant sowas :D

Dino-Fossil
2025-01-08, 12:24:36
Ist die Zuordnung zu N48 denn wirklich sicher?