PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25

fondness
2025-01-09, 17:30:38
Ob es jetzt explizit das NN ist sei mal dahingestellt. Fest steht aber auf jeden Fall, dass man jetzt natürlich deutlich mehr Rechenleistung zur Verfügung hat wenn da eigene Einheiten vorhanden sind. Aber ja vermutlich ist die Komplexität so hoch, dass NN seine Vorteile hat.

Nakai
2025-01-09, 17:36:56
Was hat N48 mit einem 10 Jahre alten AMD Chip zu tun?

Weil Leute kommentiert haben, dass 390mm2 nicht sonderlich groß ist bzw. als groß empfinden. AMDs Bilanz bei größeren Chips ist auch hervorragend. R600, Fiji, V64, N31, waren alle sehr gute Chips...nicht. Deswegen sehe ich das eher kritisch, wenn man bei 390mm2 (wo man eher beim N31 Transistorcount liegt) bei der Einheitenzahl und Performance unterhalb eines N31 landen wird. Die Leaks sind ja noch nicht sehr eindeutig. Zusätzlich ist es auch kein Chipletdesign, was Perf/mm2 und Perf/W steigern sollte. Also wenn da nichts rumkommt, ist das sehr unverständlich. Die 256 Bit SI deuten eigentlich schon darauf hin, außer es gibt eine Secret Sauce.

Kurz ich erwarte gar nichts.

€: eigentlich müsste man anhand dessen und was N31/32 abliefern, ein gutes Stück vor N31 landen müssen.

RitterRost
2025-01-09, 17:38:21
Sind nicht die anderen FSR-Versionen als Open Source auf gpuopen.com zu finden?
Ich denke, AMD sollten ihre Programmierer lieber erst mal an der 9070 Software feilen lassen, bevor sie Zeit in eine FSR4 Implementierung für RX480 investieren...

fondness
2025-01-09, 17:39:45
€: eigentlich müsste man anhand dessen und was N31/32 abliefern, ein gutes Stück vor N31 landen müssen.

Weil? Das Ding ist kleiner und hat (höchstwahrscheinlich) weniger Transen als N31. Dazu 1/3 weniger Einheiten und Speicherinterface.

gedi
2025-01-09, 17:42:21
Keine Ahnung, ob schon bekannt: https://www.computerbase.de/news/grafikkarten/radeon-rx-9070-xt-release-termin-und-preise-aus-der-geruechtekueche.90973/

horn 12
2025-01-09, 17:44:23
@Nakai

9070 zwischen 7900XT und XTX
9070 XT ca. 10% vor einer 7900XTX - Bei Maximalem OC wohl knappe 20% davor und kaum langsamer somit als eine 5080 @Stock

Kann mna dies so stehen lassen?

robbitop
2025-01-09, 17:49:07
Ob es jetzt explizit das NN ist sei mal dahingestellt. Fest steht aber auf jeden Fall, dass man jetzt natürlich deutlich mehr Rechenleistung zur Verfügung hat wenn da eigene Einheiten vorhanden sind. Aber ja vermutlich ist die Komplexität so hoch, dass NN seine Vorteile hat.
Man muss wohl spekulieren - aber selbst TSR (als das aktuell beste Heuristik Temporal upsampling) hat die Probleme die sich anscheinend bisher ohne NN nicht beseitigen lassen. Dazu der Beitrag von aufkrawall (IMO untersucht niemand von uns so intensiv und akribisch sämtliche Verfahren wie er):



Hab ich dir schon mehrfach ausgeführt: TSR ist sehr gut, wenn gut oder halbwegs ausreichend temporale Informationen vorhanden. Das Ergebnis ist bei vielen unverdeckten Bereichen dann oft erstaunlich gut, ja.
Bei Dingen wie animierten Texturen, Partikeln, RT-Noise von VSM oder viel Disocclusion/komplexer Vegetation geht es bei 4k 50% aber ebenfalls komplett unter gegen DLSS Preset E. Folglich spielt es bei komplexem Content mit 4k-Target 50% auch 1-2 Ligen unter DLSS Preset E. Mit 1440p-Monitor kann die Schärfe von TSR Epic im Vergleich zum DLSS-Smearing sehr angenehm sein, gibts aber auch nicht gratis. Es ist FSR in gut, aber mehr auch nicht.
Diese ständige Behauptung von dir "es ist eigentlich ähnlich gut wie DLSS" ist schlicht falsch bzw. unterkomplex. Mit 4k-Monitor ist es ganz sicher weit von Äquivalent entfernt.


Es scheint ja einen Grund zu geben, warum beim Upsampling alle am Ende bei NN landen und jeder der NN einführt erlebt was Konsistenz angeht einen ordentlichen Sprung.

Nvidia mit DLSS
Intel mit XeSS (insbesondere die XMX Version)
Sony mit PSSR
Apple mit MetalFX (in der neusten NN Variante die auf der NPU läuft)
IIRC forschen ARM und QCom auch mit Hochdruck an eigenen Verfahren für temporales Upsampling mit AI
Microsoft hat es auf der Roadmap für die nächste Xbox (entsprechendes RnD wird sicherlich auch in der Mache sein)

Ich denke da wird schon was dran sein. Insbesondere wenn man sieht, wie viel Mühe und Zeit Epic und AMD in Heuristik Verfahren und dessen Iteration gesteckt haben, die anscheinend bei obigen Dingen allerdings stagnieren (also deminishing return Phase).
Nvidia hat mit DLSS4 mit den Transformer Models gezeigt, dass es da potentiell (wenn sich das so bewahrheiten wird in unabhängigen Tests) nochmal ein Sprung oben drauf geben kann (also noch nicht in der deminishing return Phase).

dargo
2025-01-09, 17:54:38
@Nakai

9070 zwischen 7900XT und XTX
9070 XT ca. 10% vor einer 7900XTX - Bei Maximalem OC wohl knappe 20% davor und kaum langsamer somit als eine 5080 @Stock

Kann mna dies so stehen lassen?
Zu optimistisch.

The_Invisible
2025-01-09, 17:55:34
der8auer auch maximal verwirrt von der RDNA4 "Vorstellung" :D

AUgtMWU2fC0

fondness
2025-01-09, 17:57:42
der8auer auch maximal verwirrt von der RDNA4 "Vorstellung" :D

https://youtu.be/AUgtMWU2fC0

Es war offensichtlich, dass sie auf Nvidia gewartet haben und vorher nur Buzzwords raus hauen wollten.

dargo
2025-01-09, 17:58:01
Da steckt Taktik dahinter, alle reden plötzlich über Radeon. :D

Nakai
2025-01-09, 18:00:13
Weil? Das Ding ist kleiner und hat (höchstwahrscheinlich) weniger Transen als N31. Dazu 1/3 weniger Einheiten und Speicherinterface.

Ja, und kein Chipletdesign und reiner N4 Prozess, welcher nur ein kleines Stück besser als N5 ist, aber sei es drum. Die Frage aus meiner Sicht müsste eher lauten, wieso hat der Chip 1/3 weniger Einheiten und Speicherinterface. Vermutlich hat man soviel AI und RT reingestopft, um einigermaßen mit Nvidia in gewissen Regionen mitzukommen.

Zu optimistisch.

Ich erwarte gar nichts.

Sunrise
2025-01-09, 18:01:56
Da steckt Taktik dahinter, alle reden plötzlich über Radeon. :D
Das war ja auch der Plan. Alle Karten liegen auf dem Tisch und wenn du im Gedächtnis bleiben willst, rede immer am Schluss.

robbitop
2025-01-09, 18:06:35
Naja man hätte schon IMO selbstbewusst die best mögliche 9070xt zu einem aggressiven Preis vorstellen können und hätte sich nicht verstecken müssen. Dieses sich immer am Wettbewerber orientieren ist ggf weniger sinnvoll als selbstbewusst das best mögliche zum best möglichen Preis zu präsentieren.
Aber nur ein IMO. Kann jeder anders sehen. :)

The_Invisible
2025-01-09, 18:06:48
Da steckt Taktik dahinter, alle reden plötzlich über Radeon. :D

Aber nicht gut wennst dir die ganzen live Chats dazu ansiehst

Ravenhearth
2025-01-09, 18:07:56
Nochmal zum Preis: Bei den 390mm² und falls die Karte wirklich an die 7900 XTX/4080/5070 Ti rankommen sollte, kann ich die ~$500 nicht glauben. Wann hat AMD zuletzt Nvidia so stark unterboten? Meistens sind sie $50-$100 günstiger und das wars. AMD war in den letzten Jahren mehr auf seine Margen bedacht als früher. Wenn sie die Karte nun so günstig machen, dass selbst Nvidia mglw. ihre Preise reduzieren, haben sie nichts gewonnen außer weniger Geld. Außerdem dürfte der Chip ein gutes Stück teurer als N32 sein, damit würden sie sich auch keinen Gefallen tun.

davidzo
2025-01-09, 18:10:27
AMDs Bilanz bei größeren Chips ist auch hervorragend. R600, Fiji, V64, N31, waren alle sehr gute Chips...nicht.
:confused: Was soll dass den bedeuten? Das ist ja so als wenn ich sage dass rote Autos historisch / statistisch gesehen schneller sind als blaue. Stimmt wahrscheinlich auch, aber sagt trotzdem null über die Zukunft aus.

Außerdem hast du bewusst alle größeren Chips ausgelassen die sehr konkurrenzfähig waren. Navi21, Tahiti, Cypress, Cayman, R580, ... man kann genau so eine Gegenliste aufstellen die deiner Behauptung widerspricht.

Troyan
2025-01-09, 18:10:55
Wieso? Die Blackwell-Preise sind einfach auf dem Stand von Lovelace und man bekommt 20%+ Mehrleistung. Wo soll AMD da die 9070 XT platzieren? Zwischen der 5070 und 5070 TI?

Macht doch absolut Sinn auf die Marge zu verzichten und irgendwelche Käufer zu finden, so dass FSR 4 in Spielen eingebaut wird.

The_Invisible
2025-01-09, 18:11:42
Naja man hätte schon IMO selbstbewusst die best mögliche 9070xt zu einem aggressiven Preis vorstellen können und hätte sich nicht verstecken müssen. Dieses sich immer am Wettbewerber orientieren ist ggf weniger sinnvoll als selbstbewusst das best mögliche zum best möglichen Preis zu präsentieren.
Aber nur ein IMO. Kann jeder anders sehen. :)

Das meinte ich ja, die Produktion läuft schon lange und die Performance steht schon lange fest, der einzige änderbare Punkt ist noch der Preis, den hätte man ja noch nicht nennen müssen. Maximal strange

fondness
2025-01-09, 18:13:23
Naja man hätte schon IMO selbstbewusst die best mögliche 9070xt zu einem aggressiven Preis vorstellen können und hätte sich nicht verstecken müssen. Dieses sich immer am Wettbewerber orientieren ist ggf weniger sinnvoll als selbstbewusst das best mögliche zum best möglichen Preis zu präsentieren.
Aber nur ein IMO. Kann jeder anders sehen. :)

Hat das Risiko, dass man sich preislich nochmal korrigieren muss wenn der Marktführer stärker abliefert als erwartet oder aber man das Produkt zu billig angeboten hat.

robbitop
2025-01-09, 18:14:37
Nochmal zum Preis: Bei den 390mm² und falls die Karte wirklich an die 7900 XTX/4080/5070 Ti rankommen sollte, kann ich die ~$500 nicht glauben. Wann hat AMD zuletzt Nvidia so stark unterboten? Meistens sind sie $50-$100 günstiger und das wars. AMD war in den letzten Jahren mehr auf seine Margen bedacht als früher. Wenn sie die Karte nun so günstig machen, dass selbst Nvidia mglw. ihre Preise reduzieren, haben sie nichts gewonnen außer weniger Geld. Außerdem dürfte der Chip ein gutes Stück teurer als N32 sein, damit würden sie sich auch keinen Gefallen tun.
Zu Polaris. Und wenn man Marktanteile haben will, muss man das tun.
Vor 2 Jahren war AD103 (mal durch Waferpreise die durch den Ether und den Yieldcalculator ermittel) ~100 USD bei TSMC. N48 hat die gleiche Größe. Allerdings ist N4P auch kein leading edge mehr. Könnte jetzt also ggf etwas unter 100 USD pro Chip sein.
GDDR6 ist ziemliches Commodity jetzt. Der Spotpreis liegt zwischen 1.3 - 2.9 USD pro Gigabyte (8 gigabit chips). AMD wird sicherlich aufgrund Massen eher im unteren Bereich des Spotpreises bekommen - sagen wir mal 2 USD. Wären 32 USD für die 16 GB RAM Chips und 100 USD für den Chip. Was die anderen Komponenten kosten weiß ich nicht. Dazu kommen noch Board und Kühler. Da kommt man dann ggf. bei ~300 USD raus.
Händler und Boardpartner wollen auch was verdienen. Aber wenn man auch dieses Mal mit schmalen Margen einverstanden ist um Anteile zu holen (also nichts mehr mit 40-50% Bruttomarge), kann das schon gehen. Und AMD hat ja im Interview letztes Jahr gesagt, dass es ihnen dieses Mal um Marktanteile geht.

Hat das Risiko, dass man sich preislich nochmal korrigieren muss wenn der Marktführer stärker abliefert als erwartet oder aber man das Produkt zu billig angeboten hat.
Klar - das funktioniert dann nicht mehr mit der Geforce - Offsetpreis Strategie um die Margen zu halten. Aber wenn man gleich aggressiv anbietet wird man maximal zu günstig - aber dann bekommt man das was man wollte. Marktanteile.
Naja was solls - ich bin gespannt auf das Produkt und den Preis.

Ravenhearth
2025-01-09, 18:15:10
Wieso? Die Blackwell-Preise sind einfach auf dem Stand von Lovelace und man bekommt 20%+ Mehrleistung. Wo soll AMD da die 9070 XT platzieren? Zwischen der 5070 und 5070 TI?
Ja. $649 für die XT halte ich für realistischer (bei passender Performance). Was anderes glaube ich erst, wenn ichs sehe. Zumal selbst die Boardpartner sagen, dass sie keine genauen Informationen über Preise haben (https://www.3dcenter.org/news/news-des-8-januar-2025). Alle Leaks in diese Richtung sind BS.

Zu Polaris. Und wenn man Marktanteile haben will, muss man das tun.
Vor 2 Jahren war AD103 (mal durch Waferpreise die durch den Ether und den Yieldcalculator ermittel) ~100 USD bei TSMC. N48 hat die gleiche Größe. Allerdings ist N4P auch kein leading edge mehr. Könnte jetzt also ggf etwas unter 100 USD pro Chip sein.
GDDR6 ist ziemliches Commodity jetzt. Der Spotpreis liegt zwischen 1.3 - 2.9 USD pro Gigabyte (8 gigabit chips). AMD wird sicherlich aufgrund Massen eher im unteren Bereich des Spotpreises bekommen - sagen wir mal 2 USD. Wären 32 USD für die 16 GB RAM Chips und 100 USD für den Chip. Was die anderen Komponenten kosten weiß ich nicht. Dazu kommen noch Board und Kühler. Da kommt man dann ggf. bei ~300 USD raus.
Händler und Boardpartner wollen auch was verdienen. Aber wenn man auch dieses Mal mit schmalen Margen einverstanden ist um Anteile zu holen (also nichts mehr mit 40-50% Bruttomarge), kann das schon gehen. Und AMD hat ja im Interview letztes Jahr gesagt, dass es ihnen dieses Mal um Marktanteile geht.
Ich habe nicht ausgeschlossen, dass sies könnten, nur bezweifelt dass sie wollen. Aber wenn sie gesagt haben, dass es ihnen dieses Mal um Marktanteile geht, ist das natürlich was anderes. :)

fondness
2025-01-09, 18:15:33
Das meinte ich ja, die Produktion läuft schon lange und die Performance steht schon lange fest, der einzige änderbare Punkt ist noch der Preis, den hätte man ja noch nicht nennen müssen. Maximal strange

Wenn man den Preis nicht festlegt weiß man ja nichtmal gegen welches Produkt man benchen soll. Der Preis ist elementar. Einfach nur Balken hinknallen und nicht sagen was es kostet funkt nicht. Außerdem kann man immer noch kurzfristig die Marktposition ändern, Richtung mehr Perf/Watt oder umgekehrt.

Hakim
2025-01-09, 18:17:22
Ja Roman übertreibt etwas, aber wo er Recht hat sind die Namen, sei es die Chipsätze die ähnlicher wie bei Intel benannt werden, obwohl mal derzeit die besseren Produkte hat oder halt mit den 9070. Dabei hatte mal ja mal einen Kracher mit dem Namen 9700 damals, warum überhaupt der Konkurrenz anpassen? Zeugt halt nicht von Selbstvertrauen in die eigenen Namen. Naja letzten Endes ist es ja Egal wie es heißt.

fondness
2025-01-09, 18:25:10
Wären 32 USD für die 16 GB RAM Chips und 100 USD für den Chip. Was die anderen Komponenten kosten weiß ich nicht. Dazu kommen noch Board und Kühler. Da kommt man dann ggf. bei ~300 USD raus.


Du schätzt Board und Kühler auf ~168 USD? :ugly:


Klar - das funktioniert dann nicht mehr mit der Geforce - Offsetpreis Strategie um die Margen zu halten. Aber wenn man gleich aggressiv anbietet wird man maximal zu günstig - aber dann bekommt man das was man wollte. Marktanteile.
Naja was solls - ich bin gespannt auf das Produkt und den Preis.

Es bringt AMD nichts das Produkt billig anzubieten. Nvidia kann jederzeit nachziehen, wie sie auch in der Vergangenheit gemacht haben. Es hat schon einen Grund warum AMD mittlerweile nicht mehr versucht mit dem Preis zu überzeugen. Als kleiner Anbieter kannst du da nur verlieren.

dargo
2025-01-09, 18:42:27
Nochmal zum Preis: Bei den 390mm² und falls die Karte wirklich an die 7900 XTX/4080/5070 Ti rankommen sollte, kann ich die ~$500 nicht glauben. Wann hat AMD zuletzt Nvidia so stark unterboten?
Ich glaube auch nicht an die fast 7900XTX Performance da AMD selbst die 9070XT bei der 7900XT laut Folie sieht. Irgendwie ergibt vieles noch keinen Sinn.

BavarianRealist
2025-01-09, 18:47:29
Ich glaube auch nicht an die fast 7900XTX Performance da AMD selbst die 9070XT bei der 7900XT laut Folie sieht. Irgendwie ergibt vieles noch keinen Sinn.

Es stellt sich mir die Frage, ob AMD in dieser Folie nicht vorsichtshalber mal tief gestapelt haben könnte? Auch die Bezeichnung 9070 passt hier zwar gut dazu, aber nicht die Diesize, nach der das Ding mehr leisten sollte.

dargo
2025-01-09, 18:55:17
Es stellt sich mir die Frage, ob AMD in dieser Folie nicht vorsichtshalber mal tief gestapelt haben könnte? Auch die Bezeichnung 9070 passt hier zwar gut dazu, aber nicht die Diesize, nach der das Ding mehr leisten sollte.
Ich habe vielleicht eine banale Erklärung dafür... mit dem 26xW Bios war man knapp über der 7900XT, deshalb diese Folie die schon vorher angefertigt wurde. Auf den letzten Drücker ist AMD auf 330W hoch gegangen und kommt damit knapp unter der 7900XTX raus. So riesig ist der Abstand zwischen XTX und XT N31 ja auch nicht. So ein Manöver ist aber wirklich nur möglich wenn man den AIBs viel früher schon mitteilt bereitet eure Kühler und Platinen auf 330+W vor.

TheGood
2025-01-09, 18:56:11
Einige negativ Kommentare bei dem CB Artikel über FSR4. Aber ja wenn die Technik die neuen Hardware Einheiten braucht kann man es halt nicht ändern, irgendwann muß man so einen cut machen wenn es dann Konkurrenz fähig wird. Aber dennoch lustig das gerade Nvidia jetzt DLSS4 für alle RTX Karten zu Verfügung stellt :)

Sorry diese Diskussion ist den Bock zum Gärtner gemacht und darauf sollte man gar nicht eingehen, weil sie ja irrsinnig ist... Manche Leute sind halt nicht im Stand 1+1 zusammenzuzählen und verstehen den Grundgedanken dahinter nicht. Ist auch kein Wunder wenn man sieht dass man offensichltich nur noch schwarz und weiss sieht, weil der Rest offensichtlich zu schwierig zu verstehen ist für 2/3 der menschheit .

TheGood
2025-01-09, 18:58:53
Naja man hätte schon IMO selbstbewusst die best mögliche 9070xt zu einem aggressiven Preis vorstellen können und hätte sich nicht verstecken müssen. Dieses sich immer am Wettbewerber orientieren ist ggf weniger sinnvoll als selbstbewusst das best mögliche zum best möglichen Preis zu präsentieren.
Aber nur ein IMO. Kann jeder anders sehen. :)

Man hätte einfach die zwei pressefolien zeigen können als Teaser.
Oder die Presseberichte vor der Show raushauen, dann wäre es halb so schlimm gewesen.

TheGood
2025-01-09, 18:59:21
Aber nicht gut wennst dir die ganzen live Chats dazu ansiehst
Genau die 75000 zuhörer sind auch der Nabel der Welt ;)

gedi
2025-01-09, 19:41:14
Ich habe vielleicht eine banale Erklärung dafür... mit dem 26xW Bios war man knapp über der 7900XT, deshalb diese Folie die schon vorher angefertigt wurde. Auf den letzten Drücker ist AMD auf 330W hoch gegangen und kommt damit knapp unter der 7900XTX raus. So riesig ist der Abstand zwischen XTX und XT N31 ja auch nicht. So ein Manöver ist aber wirklich nur möglich wenn man den AIBs viel früher schon mitteilt bereitet eure Kühler und Platinen auf 330+W vor.

Die 330w gelten nur für entsprechende Customs mit 3x8. Es würde mich nicht wundern, wenn eine Sapphire mit 370w auftaucht. Ohne FG ~5080-15% Performance, aber 200€ billiger. Ich denke, diese Karte würde sich sehr gut verkaufen, wenn die das Powerlimit per Treiber nach unten aufmachen, wäre dies selbst eine Dargo Karte.

raffa
2025-01-09, 19:51:09
Kann doch sein, dass man den AIB einfach viel Spielraum gelassen hat. 260W sind Referenz, aber macht was ihr wollt, der Chip verträgt auch 70 mehr. Das würde zb die Powercolormodelle erkären, die kleinste ist klar auf unter 300 ausgelegt, die 3x8Pin Red Devil auf deutlich mehr.

HOT
2025-01-09, 19:57:02
Glaub ich nicht, die XT wird schon 330W haben. Mit 4080-Leistung hätte man dann die Effizienz von AD103 grade so erreicht (nicht ganz weil Kotzgrenze, was beim AD103 nicht so war). Ist aber leider realistisch das Scenario. Ist aber kein Beinbruch, da ja die 5000er kaum effizienter sind, ich denk mal, die 5070Ti wird schon in etwa bei der 4080 landen mit kaum weniger TBP.

Ich schätz mal die XT kostet 699€ und die non-XT wird 499€ kosten. Damit hätte man einen guten Preispuffer zur 5070/Ti, ich denke nicht, dass AMD noch mal mir zu hohen Preisen an den Start geht.

Das Teil verbraucht dann immer noch so 30-50W zuviel, mit FSR4 ist man aber endlich auf einem guten Level angekommen und DLSS4 kann man sich mMn eh in die Haare schmieren. Fragt sich dann nur noch, wieviel man in RT hinterher hängt, ich tipp mal so auf 15% hinter die 5070Ti.

Altehardware
2025-01-09, 20:29:03
ich glaube nächstes jahr mit zen6 wird es richtig inetresssant erste n3 node apu fürn laptop udn am desktop nur n3 x3d cpu die bis 6,0ghz Takten +20% ipc
Erst dann wird amn die Rohleistung der gpu mal ausfahren können amd udna ist leider gesetzt rdna5 ist cant womit nur warten hilft oder bei nenn deal mit rx9070 die noch relativ ok ist mit ihren 230w tbp und auf level der rtx4070 super ist
Die preise werden interessant wenn es sich so entwickelt wie ich es mir denke
Der euro wertet auf grob 1-1,30 dann geht die msrp auf 500$ glatt runter und schon wird amd rx9070 zum perfekten Produkt mit maxed 459€
Wichtiger ist ob rx 9060xt 48cu bekommt wenn ja dürfte das sehr interessant für viele werden mit dann 200w tbp grob so schnell wie die rtx4060ti +25% in dxr und knapp an der rtx4070 in raster für dann 409€nvidia hat
Das wäre die sku für entry Spieler darunter den vollen n44 mit maxed Takt 3,3ghz bei 180w +-rtx4060ti lvl und in dxr auf rtx4060 level für 289€
nvidia hat da nix da die rtx5060 grob 16tf 12gb vram haben wird mit ihren 379€ msrp Das ist keine option. Die 28 rt cores dieser sku dürfte bei grob rtx4060ti perf. liegen und das bei gleichem preis wie die rtx4060ti derzeit

Die nächste gen wird von nvidia nur mit high end bedient akä gr203
amd wird definitiv apu gehen bis 40cu a128alu und dann nur einen big chip haben mit 120cu a128alu bei grob 2,70ghz in n3 node
Sku daraus sind
un10-200 120cu 110tf
un10-300 100cu 92tf
un10-400 80cu 74tf
Der Rest wird mit eol rdna4 bedient oder am6 apu bis 40cu 37tf und einen 12core x3d chip 5,2ghz zen6 maxed 220w tdp
ich denke am6 wird schon 2026 kommen q3 eventuell udna etwa gleichzeitig
preise
apu systeme ab board ram apu 600€ bis 900€
konfigs
8core x3d aktiv 20cu +-18tf 700gb/s (hbm 3 teilaktiven Anbindung 512bit)
10core x3d aktiv 30cu +- 27tf 800gb/s(hbm3 512bit)
12core x3d aktiv 40cu +- 37tf 950gb/s (hbm3 volle Anbindung 1024bit in I/O die)

nvidia indes unklar vermutlich intel nvidia apu völlig offen denkbar sind refresh von blackwell mit mehr Speicher. Sku Umplanung und gesenkten Takt Vermutlich super Serie etwa rtx5070 super mit dann vollen 60sm des gb205 (72sm)
Sku dann 2026
rtx5060 super 38sm 18gb
rtx5060ti super 46sm 18gb
rtx5070 super 60sm 18gb
rtx5070ti super 80sm 21gb
rtx5080 super 96sm 24gb
rtx5090 bleibt
2027 wird dann entscheidend für nvidia den ne apu ist zwingend notwendig womit ich einen verspäteten release erst ende des Jahres erwarte also q4 2027 mit rubin apu

Ein letztes aufbäumen wäre ein gr205 in n4 node mit dann 4 gpc 18sm a 256alu und einen 160bit si +- 400mm² chip Sku ab 569€ perf. auf level der rtx4090 320w tbp
name dann eventuell rtx6070ti 720gb/s möglich wäre das
Darunter ne sku mit 48sm und nur 260w etwa 48tf (rtx5080 lvl) als rtx6070 12gb 576gb/s sku ab 499€ beide wären massiv Bandbreitenlimitiert
nvidia braucht intel für die nächste gen da führt kein Weg vorbei. die rubin arch auf n4 kann ein Ausweg sein ist aber teuer
Da aber amd bis dahin die am5 Serie einstellt und neue cpu nur noch als apu kommen fehlt nvidia die Plattform und intel ist unklar ob nova lake mehr ipc bekommt. Alle Zeichen sagen klar nein.
Daher wird erst mit dem Nachfolger 2028 und sehr Wahrscheinlich apu mit nvidia geben.

Was wird es als Ersatz geben für cpu only in workstation Einsatz nun threadripper ab 24 cores ab 900€ +500€ Brett
Da machen die Riesen chips von amd mit 120cu Sinn und nvidia größten chip gr202 +-384sm a128 /192sm a256 at 2,1ghz 560w tbp

Der Übergang ist fließend bis 2028 aber 2028 kauft keiner mehr ne dgpu mehr der nicht ne workstation nutzt

aufkrawall
2025-01-09, 20:35:29
mit FSR4 ist man aber endlich auf einem guten Level angekommen
Ohne RR leider nur so semi. Aber wer weiß, vielleicht hat das AMD-Dodo-Marketing das auch einfach noch nicht erwähnt...
Wie halt jetzt den komisch als "ggf. möglich" beschriebenen FSR 4 Support für (manche, aber welche auch immer :freak: ) ältere Karten.
Kann man sich alles nicht ausdenken, was die an PR-Gaus bringen...

Linmoum
2025-01-09, 20:44:20
Ansonsten müsste man sich halt die Blöße geben, dass man sich jahrelang über die Konkurrenz und deren proprietäre Tech lustig gemacht hat (und sich immer auf die Schulter geklopft hat, wie toll doch der Umstand ist, dass die eigene Lösung alle Hersteller und viele ältere Generationen unterstützt), nur um jetzt selbst dasselbe zu bringen...

Auch, wenn das jedem Normaldenkenden klar und unumgänglich war. Was natürlich auch AMD all die Jahre wusste, dass zwangsläufig dedizierte Einheiten notwendig sein würden, die bislang nicht vorhanden waren. Man muss ja auch mal das Positive sehen, dass sie es über 6 Jahre nach der Konkurrenz 2018 dann auch endlich mal geschafft haben. Ich hatte ja manchmal schon die Befürchtung, das wird selbst mit RDNA4 womöglich nichts.

Altehardware
2025-01-09, 20:44:40
von fsr4 erwarte ich nur das es im Treiber aktiv ist quasi optional einstellbar ohne Spielintegration aber als dll für spiele verfügbar.
Das modell wird aber das bisherige cnn Verfahren sein (übernommen von xess)
Es ist Ok aber nicht zwingend wünschenswert in games zu haben quasi nur bei dxr in Pt Modus

gedi
2025-01-09, 20:46:34
Ohne RR leider nur so semi. Aber wer weiß, vielleicht hat das AMD-Dodo-Marketing das auch einfach noch nicht erwähnt...
Wie halt jetzt den komisch als "ggf. möglich" beschriebenen FSR 4 Support für (manche, aber welche auch immer :freak: ) ältere Karten.
Kann man sich alles nicht ausdenken, was die an PR-Gaus bringen...

Dies betrifft lediglich RDNA3, wenn überhaupt. Wenn es da mit grottiger Performance einhergeht, dann macht FSR4 für RDNA3 keinen Sinn.

Exxtreme
2025-01-09, 20:46:55
FSR4 wird zumindest technisch auch auf den Vorgängergrafikkarten möglich sein. Die Frage ist halt, wie schnell das Ding wird auf RDNA3 oder gar RDNA2. Und da kann es sein, dass AMD das nicht freischaltet.

gedi
2025-01-09, 20:55:32
FSR4 wird zumindest technisch auch auf den Vorgängergrafikkarten möglich sein. Die Frage ist halt, wie schnell das Ding wird auf RDNA3 oder gar RDNA2. Und da kann es sein, dass AMD das nicht freischaltet.

Meine Rede, obwohl ich glaube, dass RDNA2 keine Rolle mehr spielt.

aufkrawall
2025-01-09, 20:57:51
FSR4 wird zumindest technisch auch auf den Vorgängergrafikkarten möglich sein.
Wird es? Wenn das über etwas wie HIP läuft, und nicht das WMMA-Feature von SM 6.8, können die im Treiber einfach GPUs per Blacklist/Whitelist ausschließen.
Haben sie etwa auch für ROCm WSL2 selbst für die 7800 XT gemacht.

crux2005
2025-01-09, 20:59:35
Du hast doch wohl nicht ernsthaft daran gedacht, dass die 9070XT für weniger als 499$ kommt oder? :freak:

Sag das lieber dildo https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13678489&postcount=4365

Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.

Wenn ich mir eine neue Graka kaufe will ich nativ zocken und nicht auf FSR4 angewiesen sein.

dargo
2025-01-09, 21:08:27
Wenn ich mir eine neue Graka kaufe will ich nativ zocken und nicht auf FSR4 angewiesen sein.
Das wird dir aber (leider) bei einzelnen Games nicht gelingen weil die keine nativen Auflösungen ohne Upscaling anbieten. Und es könnte in weiterer Zukunft immer mehr zum Standard werden.

Linmoum
2025-01-09, 21:09:15
Wenn FSR4 es analog zu DLSS (irgendwann) schaffen sollte, ein besseres Bild als nativ zu liefern, spielt man natürlich unter Verwendung von FSR4. So doof wird niemand sein, an irgendeinem schlechteren Nativ-Wahn festzuhalten, nur, weil es halt nativ ist.

Raff
2025-01-09, 21:11:10
Das wird dir aber (leider) bei einzelnen Games nicht gelingen weil die keine nativen Auflösungen ohne Upscaling anbieten. Und es könnte in weiterer Zukunft immer mehr zum Standard werden.

Welche sollten das sein? FSR Native, XeSS Native und DLAA laufen ja mit der Pixelmenge, die man eingestellt hat. Definieren wir jetzt Upsampling als böse, auch wenn man's bei nativer Auflösung nutzt? ^^

MfG
Raff

dargo
2025-01-09, 21:11:53
Welche sollten das sein? FSR Native, XeSS Native und DLAA laufen ja mit der Pixelmenge, die man eingestellt hat.

Das ist aber keine native Auflösung weil die Upscaler immer dabei sind. ;) Hast du irgendwelche sichtbaren Fuckups dank Upscaler wirst du diese nicht los.

robbitop
2025-01-09, 21:13:40
Du schätzt Board und Kühler auf ~168 USD? :ugly:


Ich hatte mal was von ~20-30 USD für das PCB gelesen und 100 usd bei einem guten Kühler. SMD Komponenten ging ich jetzt von aus sind cent Artkel und die Bestückung ist in hohen Stückzahlen automatisiert.

Wenn diese Zahl so abwegig ist, welche passt denn besser und warum?

Exxtreme
2025-01-09, 21:17:24
Wird es? Wenn das über etwas wie HIP läuft, und nicht das WMMA-Feature von SM 6.8, können die im Treiber einfach GPUs per Blacklist/Whitelist ausschließen.
Haben sie etwa auch für ROCm WSL2 selbst für die 7800 XT gemacht.

Mir geht es um grundsätzliche Machbarkeit. Grundsätzlich wäre das möglich, man kann Inferencing auch über Shader und die Matrixeinheiten machen. Nur ist das Ganze natürlich viel langsamer im Vergleich mit Tensor-Einheiten. Und da ist die Frage ob AMD das freischaltet.

robbitop
2025-01-09, 21:17:51
Das ist aber keine native Auflösung weil die Upscaler immer dabei sind. ;) Hast du irgendwelche sichtbaren Fuckups dank Upscaler wirst du diese nicht los.

Ich glaube das ist nur Semantik die euch trennt. Wenn Input = outputresolution gibt es kein Upscaling. Was dann besser passt ist temporales Super Sampling. (bei dem der output eben nicht für das Upsampling genutzt wird)
:)

aufkrawall
2025-01-09, 21:18:42
So doof wird niemand sein, an irgendeinem schlechteren Nativ-Wahn festzuhalten, nur, weil es halt nativ ist.
Ich habe den Eindruck, viele Leute wollen absichtlich so doof sein als eine Art Trotzreaktion.
Dass da oft ein Verständnisproblem vorherrscht, dass TAAU nicht TAA + Upscaling in zwei getrennten Schritten ist, spielt zwar auch eine Rolle, ist aber imho nicht entscheidend. Bzw. der Trotz blockiert vermutlich den Verstehensprozess.

robbitop
2025-01-09, 21:21:37
Mir geht es um grundsätzliche Machbarkeit. Grundsätzlich wäre das möglich, man kann Inferencing auch über Shader und die Matrixeinheiten machen. Nur ist das Ganze natürlich viel langsamer im Vergleich mit Tensor-Einheiten. Und da ist die Frage ob AMD das freischaltet.

Wenn man wie Sony für PSSR auch andere Instruktionen oder Datenformate genommen hat nicht unbedingt. Aber man könnte es sicher umschreiben falls das der Fall ist. Die Frage ist dann die des Aufwandes und der Performance. Ggf lässt man RDNA3 das machen weil die schon moderne Instructions für NNs haben und die high end Modelle auch einigermaßen Rechenleistung haben.

Bei Intel XeSS hat man extra ein vereinfachtes Modell für dp4a gemacht (alle GPUs lauffähig) - war aber trotzdem langsam. Das volle NN war iirc 4x komplexer. Also noch langsamer.
AMD könnte sich ggf. nicht den Aufwand machen 2x NNs konstant mitzuschleppen.

Raff
2025-01-09, 21:23:51
[...] So doof wird niemand sein, an irgendeinem schlechteren Nativ-Wahn festzuhalten, nur, weil es halt nativ ist.

Solche Leute muss man nur kurz mit Deathloop in einen Raum sperren und zu einem kurzen Vergleich zwischen dem spieleigenen TAA und einem beliebigen DLSS-Modus zwingen -> Insta-Heilung/Erleuchtung. :biggrin:

-> https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-Benchmarks-Test-Vergleich-mit-anderen-Upscaling-Verfahren-1385215/2/#a4

MfG
Raff

gedi
2025-01-09, 21:26:54
Das wird dir aber (leider) bei einzelnen Games nicht gelingen weil die keine nativen Auflösungen ohne Upscaling anbieten. Und es könnte in weiterer Zukunft immer mehr zum Standard werden.

Selbst auf einer 4090 braucht es unter 4k meist DLSS, obwohl ich mich fragen muss, warum? So toll sehen die Spiele nicht aus und für mich bringt auch RT keinen Kick. Ich nehme z.B. Stalker 2 und habe ohne DLSS eine wirklich bescheidene Performance in 4k nativ. Eigentlich hat sich hier im Vergleich zu Spielen aus dem Jahr 2018 optisch nix getan. Ähnlich der FS2024, obwohl der für mich optisch Referenz ist. Den Unterschied zu 2020 kannst du mit der Lupe suchen, aber er drittelt die Performance easy. Hier bringt dir auch x3d nix, da rennt ein 9950x mit +250 (6g) sehr viel besser. Meine Meinung: Die Software hält mit der Hardware nicht schritt, ist nicht optimiert und man ist aufgrund Unfähigkeit auf Upsampler angewiesen.

Sumpfmolch
2025-01-09, 21:44:02
Irgendwie eine absurde Situation, wenn AMD nichts ordentlich ankündigt und die Leute dann am Stand einfach an PCs vorbeilaufen, die FSR4 zeigen... :ugly:

xt_opWoL89w

Lurtz
2025-01-09, 21:45:16
Ich habe den Eindruck, viele Leute wollen absichtlich so doof sein als eine Art Trotzreaktion.
Dass da oft ein Verständnisproblem vorherrscht, dass TAAU nicht TAA + Upscaling in zwei getrennten Schritten ist, spielt zwar auch eine Rolle, ist aber imho nicht entscheidend. Bzw. der Trotz blockiert vermutlich den Verstehensprozess.
Inwiefern? Weil TAA inhärent bedingt, dass nicht alles nativ gerendert wird?

Dorn
2025-01-09, 21:45:47
Solche Leute muss man nur kurz mit Deathloop in einen Raum sperren und zu einem kurzen Vergleich zwischen dem spieleigenen TAA und einem beliebigen DLSS-Modus zwingen -> Insta-Heilung/Erleuchtung. :biggrin:
MfG
RaffStimmt und für mich ist DLSS eins der wichtigsten Features geworden.
Es wird quasi immer schwerer zu AMD zu wechseln, DLSS sollte wie FSR offen sein.

aufkrawall
2025-01-09, 21:52:56
Inwiefern? Weil TAA inhärent bedingt, dass nicht alles nativ gerendert wird?
So zu sagen. Nativ ohne AA ist ja auch nur Müll, und erst das temporale SSAA fixt es.
Und ML-TAAU kann halt diverse Aspekte des Renderings trotz niedrigerer Renderauflösung viel besser rekonstruieren als das reguläre TAA, was ohne Blur-Krücke fast nie funktioniert.
Schärferes TAA wie TSR@100% ist halt mal eben wesentlich teurer und hat auch trotz 100% immer noch Disocclusion-Aliasing, was das reguläre TAA einfach mit mehr Blur temporal unterdrückt.

basix
2025-01-09, 21:53:12
Irgendwie eine absurde Situation, wenn AMD nichts ordentlich ankündigt und die Leute dann am Stand einfach an PCs vorbeilaufen, die FSR4 zeigen... :ugly:

https://youtu.be/xt_opWoL89w

Ja, FSR4 sieht hier mal schon ziemlich gut aus :)

nairune
2025-01-09, 22:34:47
Irgendwie eine absurde Situation, wenn AMD nichts ordentlich ankündigt und die Leute dann am Stand einfach an PCs vorbeilaufen, die FSR4 zeigen... :ugly:


Also ich find das eigentlich so viel spannender als wenn überall dieselben Hersteller-Marketingslides mit paar Worten umrandet werden :smile:

Raff
2025-01-10, 02:04:33
Naja... ich schätze grob +60% mit einzelnen Ausreißern eventuell. Sofern die +5% für die 7900XTX tatsächlich stimmen. Momentan ist bissel Chaos.

Zig Stunden später: Erste Indexwerte 2025 für die 6800 XT und 7900 XT stehen. Prozentpunkte mit RTX 4090 als 100er-Basis:
7900 XTX: 79,4
7900 XT: 67,8
6800 XT: 49,8

Die 7900 XT ist in den neuen Rasterizing-Benchmarks um 36 Prozent flotter als die 6800 XT; die 7900 XTX kann die 6800 XT um 59 Prozent schlagen (2024er-Werte: jeweils minimal kleinerer Abstand (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)). Wenn die 9070 XT tatsächlich +60 Prozent schafft, wäre das wirklich stark.

MfG
Raff

GerryB
2025-01-10, 06:50:41
Wenn die 9070 XT tatsächlich +60 Prozent schafft, wäre das wirklich stark.

Und wo liegt in dem neuen Index jetzt die 4080nonS ?.
may be, ne 5070Ti liegt auch nur in der Drehe, dann wirds spannend

Mich persönlich würde jetzt auch nicht so sehr Overall über 4 Resis interessieren, sondern vor Allem nur WQHD, wo
AMD am Dringensten die Marktanteile halten muss.

btw.
Beim letzten TSE Leak habe ich gestaunt, das die Bandbreite der 9070xt so gut@4k gereicht hat, ... wenn man mal bedenkt,
wie gut ne GRE mit Vram-OCen skaliert.
Da könnte man annehmen, das ne 9070xt auch noch gut in UWQHD zu gebrauchen ist und die nonXT dicke für WQHD.

dargo
2025-01-10, 07:21:36
Zig Stunden später: Erste Indexwerte 2025 für die 6800 XT und 7900 XT stehen. Prozentpunkte mit RTX 4090 als 100er-Basis:
7900 XTX: 79,4
7900 XT: 67,8
6800 XT: 49,8

Die 7900 XT ist in den neuen Rasterizing-Benchmarks um 36 Prozent flotter als die 6800 XT; die 7900 XTX kann die 6800 XT um 59 Prozent schlagen (2024er-Werte: jeweils minimal kleinerer Abstand (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)). Wenn die 9070 XT tatsächlich +60 Prozent schafft, wäre das wirklich stark.

MfG
Raff
Lol... ich hatte da irgendwie grob +70% bei der 7900XTX vs. 6800XT nach den zwei Jahren im Kopf. Dann korrigiere ich mich. 9070XT + 45-50%.

Korvaun
2025-01-10, 08:30:39
"Echte Frames sind das einzig Wahre / Fake Frames schlecht" geht in die selbe Richtung wie "nur der full-fat Chip ist gut / teildeaktivierte Chips sind Schrott"... für 99,999999999% der Leute ist das komplett irrelevant ;)

HOT
2025-01-10, 08:36:53
"Echte Frames sind das einzig Wahre / Fake Frames schlecht" geht in die selbe Richtung wie "nur der full-fat Chip ist gut / teildeaktivierte Chips sind Schrott"... für 99,999999999% der Leute ist das komplett irrelevant ;)
Unfug.

Blase
2025-01-10, 08:59:12
Sagen wir es so: Wichtig ist, was hinten bei raus kommt. Wenn du einen Fake Frame nicht von einem echten mehr unterscheiden kannst, who cares!? Und dahingehend hat die Aussage doch etwas Wahrheit.

Vor nicht all zu langer Zeit wurde auch über DLSS und Co. gesagt, dass nur NATIV zählt (gut, einige behaupten das heute unverändert :tongue:). Das hat sich heute in der Betrachtung großflächig geändert. Gut möglich also, dass das auch bei (M)FG der Fall wird.

Ich persönlich habe schon einige Titel mit FG gespielt und den Benefit genossen :up:

MfG Blase

Zossel
2025-01-10, 09:01:57
"Echte Frames sind das einzig Wahre / Fake Frames schlecht" geht in die selbe Richtung wie "nur der full-fat Chip ist gut / teildeaktivierte Chips sind Schrott"... für 99,999999999% der Leute ist das komplett irrelevant ;)

Nur Doppelblindtest sagen die Wahrheit.
Wurden solche Test schon mal durchgeführt?

fondness
2025-01-10, 09:57:28
Ich gehe mittlerweile davon aus, dass diese Benchmarks auch die tatsächliche Performance zeigen:
https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way

Eine 7900XTX hat 96 CUs bei einen Game clock von ca. 2250Mhz.
Eine 9070XT mit 64 CUs und einem Game Clock von vielleicht 2,8Ghz wäre da bis auf 20% dran.

Die 15% die fehlen auf die Benchs erledigt bessere Skalierung von Takt vs. Einheiten und vielleicht noch kleinere IPC-Verbesserungen.

Also in Raster knapp hinter einer 7900XTX. In Raytracing natürlich dann eher vorne, wobei ich da auch keine Wunder erwarten würde.
Auf Wundertreiber kann man dann noch hoffen, aber ob da noch viel kommt wenn die Specs stimmen wage ich zu bezweifeln.

dargo
2025-01-10, 10:00:02
Vor nicht all zu langer Zeit wurde auch über DLSS und Co. gesagt, dass nur NATIV zählt (gut, einige behaupten das heute unverändert :tongue:). Das hat sich heute in der Betrachtung großflächig geändert. Gut möglich also, dass das auch bei (M)FG der Fall wird.

DLSS1 war auch grottenschlecht, wurde dennoch von einigen grünen Boys gefeiert. Und selbst aktuelles DLSS hat noch in einigen Bereichen seine Probleme. Witzigerweise kommt es erst mit dem Release von RTX 5000 zum Vorschein. ;)

Ich gehe mittlerweile davon aus, dass diese Benchmarks auch die tatsächliche Performance zeigen:
https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way

Eine 7900XTX hat 96 CUs bei einen Game clock von vielleicht 2250Mhz.
Eine 9070XT mit 64 CUs und einem Game Clock von ca. 2,8Ghz wäre da bis auf 20% dran.

Die 15% die fehlen auf die Benchs erledigt bessere Skalierung von Takt vs. Einheiten und vielleicht noch kleinere IPC-Verbesserungen.

Also in Raster knapp hinter einer 7900XTX. In Raytracing natürlich dann eher vorne, wobei ich da auch keine Wunder erwarten würde.

Und ich frage mich wie es überhaupt verlässliche Benchmarks geben kann wenn es angeblich noch gar keinen finalen Treiber gibt. :freak:

Raff
2025-01-10, 10:03:35
Eine 7900XTX hat 96 CUs bei einen Game clock von vielleicht 2250Mhz.

Bereits eine 7900 XTX MBA taktet über eine breite Gaming-Workload-Palette mit gut 2,6 GHz (Shader-Domäne), "saftige" Custom-Designs mit mehr. Aktueller Durchschnittswert bei den 20+15 PCGH-Benchmarks: ~2,63 GHz. Die offiziellen Taktangaben sind nicht zu gebrauchen.

MfG
Raff

fondness
2025-01-10, 10:04:22
Und ich frage mich wie es überhaupt verlässliche Benchmarks geben kann wenn es angeblich noch gar keinen finalen Treiber gibt. :freak:

Die Frage ist eher ob ein finaler Treiber dann wirklich noch tonnenweise Performance freischaltet, gerade in Benchs wie 3dmark die eh schon ausgelutscht sind.

ChaosTM
2025-01-10, 10:04:55
Irgendwie eine absurde Situation, wenn AMD nichts ordentlich ankündigt und die Leute dann am Stand einfach an PCs vorbeilaufen, die FSR4 zeigen... :ugly:

https://youtu.be/xt_opWoL89w


Was Marketing betrifft ist AMD wirklich gar nicht mal so gut.
Da ist die Jackenfima um Welten besser.


Würde mich freuen, wenn die 9000er Serie so richtig gut wird.

Solange man "Doppelblind" nicht mit "beiden Augen zu" verwechselt, ist es ok. :)
Dass die Zukunft nicht beim reinen Rastern liegt sollten mittlerweile die meisten, bis auf ein paar "Puristen", verstanden haben.
Neural Rendering in DX12 (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Neural-Rendering-DirectX-12-Kooperative-Vektoren-1463241/) ist einer der nächsten Schritte.

dargo
2025-01-10, 10:06:10
Die Frage ist eher ob ein finaler Treiber dann wirklich noch tonnenweise Performance freischaltet, gerade in Benchs wie 3dmark die eh schon ausgelutscht sind.
Warum immer diese Übertreibungen? Wer spricht von tonnenweise mehr Performance? :freak:

fondness
2025-01-10, 10:07:30
Warum immer diese Übertreibungen? Wer spricht von tonnenweise mehr Performance? :freak:

Weil ich zur Übertreibung neige :ugly:

dargo
2025-01-10, 10:08:33
Ok. :D

mboeller
2025-01-10, 10:09:15
Die Frage ist eher ob ein finaler Treiber dann wirklich noch tonnenweise Performance freischaltet, gerade in Benchs wie 3dmark die eh schon ausgelutscht sind.

wenn die 64CU + 390mm2 stimmen, dann sollte die interne Organisation der 9070/XT doch sehr stark von den Vorgängern abweichen... also "ja"; wie immer natürlich "abhängig vom Spiel"

fondness
2025-01-10, 10:09:22
Bereits eine 7900 XTX MBA taktet über eine breite Gaming-Workload-Palette mit gut 2,6 GHz (Shader-Domäne), "saftige" Custom-Designs mit mehr. Aktueller Durchschnittswert bei den 20+15 PCGH-Benchmarks: ~2,63 GHz. Die offiziellen Taktangaben sind nicht zu gebrauchen.

MfG
Raff

Ersthaft? Der Boost-Clock liegt ja nur bei 2,5Ghz offiziell. Gut, dasselbe Spiel könnte man dann natürlich auch bei der 9070XT spielen: Boost-clock 3060Mhz, tatsächlicher Takt? :ugly:

Blase
2025-01-10, 10:17:36
DLSS1 war auch grottenschlecht, wurde dennoch von einigen grünen Boys gefeiert. Und selbst aktuelles DLSS hat noch in einigen Bereichen seine Probleme. Witzigerweise kommt es erst mit dem Release von RTX 5000 zum Vorschein. ;)

Fair enough! Aber ein optionales Feature wird nicht erst dann interessant, wenn es perfekt läuft. Sondern doch bereits dann, wenn die Vorzüge anfangen die möglicherweise noch vorhandenen Nachteile zu überwiegen, oder? Aber klar, ist auch eine Betrachtung individueller Vorlieben...

MfG Blase

aufkrawall
2025-01-10, 10:22:09
Bei DLSS gabs halt auch ewig wirklich unnötige Fails durch das grottige Preset D und das Shippen veralteter DLLs. Ist nicht für alle Fails verantwortlich, aber sehr viele. Haben immer noch zig Spiele nicht 3.7 dabei. Sie fangen jetzt offenbar endlich mit Treiber-Overrides dafür an, hat lange genug gedauert...

dargo
2025-01-10, 10:35:11
Fair enough! Aber ein optionales Feature wird nicht erst dann interessant, wenn es perfekt läuft. Sondern doch bereits dann, wenn die Vorzüge anfangen die möglicherweise noch vorhandenen Nachteile zu überwiegen, oder?
Ja... und das ist höchst subjektiv. :) Ein kleines Beispiel von mir... als ich mit ~160ppi 4k und balanced FSR 3.1 in HFW getestet habe fand ich die Bildstabilität hervorragend. Dennoch hat FSR 3.1 hier noch Probleme beim Wasser und Schneeflocken (oder waren das jetzt Partikel? bin mir nicht mehr ganz sicher). Würde ich deswegen auf FSR3.1 hier verzichten? Nein... denn in 4k + TAA wären die Frames mit der RX 6800XT mir zu niedrig. FSR 3.1 ist hier also ein für mich persönlich brauchbarer Kompromiss. :)

robbitop
2025-01-10, 10:38:20
Ich gehe mittlerweile davon aus, dass diese Benchmarks auch die tatsächliche Performance zeigen:
https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way

Eine 7900XTX hat 96 CUs bei einen Game clock von ca. 2250Mhz.
Eine 9070XT mit 64 CUs und einem Game Clock von vielleicht 2,8Ghz wäre da bis auf 20% dran.

Die 15% die fehlen auf die Benchs erledigt bessere Skalierung von Takt vs. Einheiten und vielleicht noch kleinere IPC-Verbesserungen.

Also in Raster knapp hinter einer 7900XTX. In Raytracing natürlich dann eher vorne, wobei ich da auch keine Wunder erwarten würde.
Auf Wundertreiber kann man dann noch hoffen, aber ob da noch viel kommt wenn die Specs stimmen wage ich zu bezweifeln.
Kleine Ergänzungen:

(1) laut CB Review liegen bei der 7900XTX im Durchschnitt 2556 MHz an
(2) wenn man die 3060 MHz annimmt (ja da ist noch unklar ob die erreicht werden - allerdings sieht man bei den 3DMark screenshots ~3 GHz und der Graph vorher als der Benchmark lief war sogar höher - aber ohne Skalierung...
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_die_durchschnittlichen_taktraten_unter_last

Bleibt dann aber bei 20%


CUs skalieren IIRC laut einer Untersuchung die CB mal gemacht hat mit dem Faktor 0.7.
Also bringen die 50% mehr CUs der 7900XTX taktnormiert nur 35%.

Wenn man den CU Vorteil statt +50% mit +35% annimmt und den Taktnachteil von -20% annimmt, käme ohne uArch Veränderung eine 20% höher getaktete 64 CU GPU auf ~88% der Leistung einer 7900XTX. Entsprechend braucht es "nur" noch 12,5% mehr "IPC". (oder aber Takt - oder aber eine Mischung. Die roten Balken bei dem GPU Takt könnten ja alles bedeuten in dem Screenshot)

Aber Frank Azor sprach auch von höherer IPC pro CU.

Die Frage ist eher ob ein finaler Treiber dann wirklich noch tonnenweise Performance freischaltet, gerade in Benchs wie 3dmark die eh schon ausgelutscht sind.
Ich denke auch die 3DM Benchmarks sind mit voller Leistung entstanden. Da lag anscheinend volle Last an und auch TDP. Und die Ergebnisse sind viel zu hoch als dass da noch groß was sinnvoll zurückgehalten hat. Es sei denn man ist ganz gewievt und baut irgendwelche Wait states ein die nur ~10% ausmachen, so dass es nicht auffällt und irgendwie zusätzlich noch Last generieren.
IMO aber unwahrscheinlich. Das Ding hat ungefähr 7900XTX Rasterlevel. (Heavy) RT bleibt noch offen. Ich tippe da dann auf 4070/ti level wenn man sich die Frametimes von CP77 PT von ChipsandCheese ansieht und die 7900XTX Frametime FP32 normiert um Faktor 2-3 (wie von Cerny gesagt) teilt. Aber zugegeben ist das ziemliches Fischen im Trüben. :D

aufkrawall
2025-01-10, 10:39:11
Bis zu einem gewissen Grad. War DLSS Preset A mit 1440p-Monitor vor fünf Jahren noch mitunter der absolute Graus, sieht das mittlerweile mit Preset E und 4k-Target halt mitunter völlig anders aus.
Bei dem FSR 4 Preview sieht man jedenfalls in dem DF-Video auch deutliches Smearing von Clanks roter Lampe vor dem roten Teppich.

robbitop
2025-01-10, 10:43:13
Bis zu einem gewissen Grad. War DLSS Preset A mit 1440p-Monitor vor fünf Jahren noch mitunter der absolute Graus, sieht das mittlerweile mit Preset E und 4k-Target halt mitunter völlig anders aus.
Bei dem FSR 4 Preview sieht man jedenfalls in dem DF-Video auch deutliches Smearing von Clanks roter Lampe vor dem roten Teppich.
Und wenn er den Arm bewegt gibt es auch noch leichtes Ghosting fand ich im Video sichtbar.

edit:
Allerdings muss es insgesamt schon ein ordentlicher Sprung sein wenn Alex so positiv darüber redet. Er hat sich das erste Level von R&C wohl komplett ansehen können und hat das wohl auch ziemlich oft mit allen anderen Upscalern vorher angeschaut und kennt sämtliche Schwächen nach eigenen Aussagen. Auch soll R&C wohl einige dieser von FSR3.1 aufzeigen die mit FSR4 wohl massiv besser waren. Kann man in den Videos auch gut sehen. Mit particles, transparenzen, disocclusion. Das sieht alles deutlich besser aus. Trotz performance preset. :)

aufkrawall
2025-01-10, 10:48:12
Ja, ist sicherlich so schon der massiv bessere Trade-Off und für eine nicht mal irgendwie offiziell angepriesene Preview schon sehr gut.
Klingt nur leider so, als wäre es mal wieder nicht zum RDNA4-Launch verfügbar und der User kauft da die Katze im Sack...

robbitop
2025-01-10, 10:51:28
Naja es scheint bei R&C ja gut zu laufen und wurde auch bei CoD6 beworben. Weit weg ist es wahrscheinlich nicht mehr. :)
edit: Ich vermute es wird vom verschobenen RDNA4 launch zurück gehalten. Die Anzeichen auf der CES sind finde ich so deutlich dafür wenn man sich die Kuriositäten die DF beschreibt von der AMD booth anhört oder auch die kuriose Präsentation am Dienstag wo das nur halbherzig entfernt wurde und man noch "Spuren" davon sieht.

Viel wichtiger IMO, wenn man es bringt: dass es gepolisht ist. Keine blöden bugs mehr. Gleich mit Frame Generation bundlen die gutes Framepacing hat (und das auch sicherstellen) und auch mit Anti Lag 2 bundlen. So dass der Developer beim Frame Generation Teil nichts mehr verkacken kann.
Diese halbgaren Dinge zu launchen ist nicht gut für die Reputation. Lieber etwas mehr polish und dann etwas später. IMO.

Blase
2025-01-10, 10:55:50
Ja... und das ist höchst subjektiv. :) Ein kleines Beispiel von mir...

Bin da komplett bei dir. Das meinte ich auch mit meinem Schluss Satz bezüglich ist auch eine Betrachtung individueller Vorlieben - dass es eben höchst subjektiv ist und von Fall zu Fall betrachtet werden muss...

MfG Blase

fondness
2025-01-10, 12:45:36
Frank Azor haut wieder ein paar Fetzen raus:
https://videocardz.com/newz/amd-radeon-rx-9070-series-to-have-balance-of-power-and-price-similar-to-the-rx-7800-xt-and-rx-7900-gre

Er gibt auch zu, dass man auf Nvidia gewartet hat, wie schon vermutet.

Jetzt gibt es wohl Marketing technisch jeden Tag einen kleinen Info Happen.

dargo
2025-01-10, 13:03:55
Falls es wen interessiert... Sapphire Pure und irgendeine Serie von XFX haben ebenfalls zwei Stromstecker.

8vXEaslAxnA

Frank Azor haut wieder ein paar Fetzen raus:
https://videocardz.com/newz/amd-radeon-rx-9070-series-to-have-balance-of-power-and-price-similar-to-the-rx-7800-xt-and-rx-7900-gre

Er gibt auch zu, dass man auf Nvidia gewartet hat, wie schon vermutet.

Jetzt gibt es wohl Marketing technisch jeden Tag einen kleinen Info Happen.
N44 also >300$ und N48 <1.000$. Wow... jetzt sind wir viel schlauer. :freak: Und Preis und Leistung bei RX 7800XT bis 7900GRE wäre bei den durchgeleakten Powerbudgets wieder meh wenn nicht sogar ne Katastrophe.

E39Driver
2025-01-10, 13:10:38
Falls es wen interessiert... Sapphire Pure und irgendeine Serie von XFX haben ebenfalls zwei Stromstecker.

https://youtu.be/8vXEaslAxnA
Das Video wirft weitere Fragen auf. Die teure Saphire Nitro mit 3x8Pin aber nur einem kleinen 2-Slot Kühler. Und die Saphie Pure als eigentliche Einsteigerbaureihe noch unter der Pulse mit 2x8Pin aber dafür großen 3-Slot Kühler.

Und welche Karte im silbernen Lochblechdesign war auf AMDs Marketingfolie zu sehen, wenn es scheinbar nicht die Nitro ist?

dargo
2025-01-10, 13:12:19
Das Video wirft weitere Fragen auf. Die teure Saphire Nitro mit 3x8Pin aber nur einem kleinen 2-Slot Kühler. Und die Saphie Pure als eigentliche Einsteigerbaureihe noch unter der Pulse mit 2x8Pin aber dafür großen 3-Slot Kühler.

Die Pure könnte weniger Heatpipes haben. Dann brauchst du mehr Masse.


Und welche Karte im silbernen Lochblechdesign war auf AMDs Marketingfolie zu sehen, wenn es scheinbar nicht die Nitro ist?
Afaik Referenz von AMD.

Dino-Fossil
2025-01-10, 13:13:23
Man könnte es so lesen, dass N48 (vermutlich deutlich) über 300$ startet, und N44 hier nicht mitgemeint ist (da vorher nie die Rede von N44 war), aber ich befürchte auch, dass die Einsteigerklasse preislich auch bei AMD weiter Richtung 400$ rutscht.

Außerdem nochmals bestätigt, dass FSR4 RDNA4-exklusiv sein wird, aber es klingt auch, als wolle man FSR3 weiter unterstützen (notgedrungen...).
Ich frage mich allerdings, ob man es auch für nVidia oder Intel öffnen wird (würde der Verbreitung gut tun), die dürften genug compute-power für ML-Gedöns haben.

Exxtreme
2025-01-10, 13:16:34
Ich gehe davon aus, dass das Ding preislich so zwischen der RX7800XT und der RX7900GRE platziert wird. Denn speziell die erste ging dann doch sehr gut weg weil sie relativ gesehen ein gutes P-/L-Verhältnis hatte.

Ravenhearth
2025-01-10, 13:18:19
N44 also >300$ und N48 <1.000$. Wow... jetzt sind wir viel schlauer. :freak: Und Preis und Leistung bei RX 7800XT bis 7900GRE wäre bei den durchgeleakten Powerbudgets wieder meh wenn nicht sogar ne Katastrophe.
Ich denke das wollte er damit nicht sagen, nur dass 7800XT und 7900GRE sehr viel besser angekommen sind, also wird N48 preislich irgendwo in dem Bereich liegen. Ich denke auch nicht, dass er von N44 gesprochen hat, als er meinte die Karten lägen nicht bei $300, denn N44 als halbierter N48 dürfte da sehr wohl rauskommen.

dildo4u
2025-01-10, 13:19:21
7800XT hat ihren Preis gehalten die einzige AMD GPU die ein vernünftigen Preis zum Launch hatte.
Mal sehen ob AMD gelernt hat.

E39Driver
2025-01-10, 13:20:47
Afaik Referenz von AMD.

Glaub ich nicht. Die silberne mit Lochblech als zweite oben Rechts hätte ich eigentlich für die Nitro gehalten. AMD Referenzdesign ist denke ich die kleine Karte darunter (3 Lüfter = XT) und links darunter mit den 2-Lüftern als Non-XT Referenz.
https://cdn.videocardz.com/1/2025/01/AMD-RADEON-RX-9070-RDNA4-HERO.jpg

nairune
2025-01-10, 13:22:16
N44 also >300$ und N48 <1.000$. Wow... jetzt sind wir viel schlauer. :freak: Und Preis und Leistung bei RX 7800XT bis 7900GRE wäre bei den durchgeleakten Powerbudgets wieder meh wenn nicht sogar ne Katastrophe.

Richtig lesen: er spricht vom P/L-Verhältnis, nicht von absoluter Leistung oder Preis.
Wenn man jetzt also eine bestimmte Performance annimmt, könnte man schon ziemlich genau den Preis ermitteln.

Dino-Fossil
2025-01-10, 13:27:24
Je nachdem wie geil sie auf die Margen sind: Preis des entsprechenden nVidia-Modells abzüglich 50-100€

DrFreaK666
2025-01-10, 14:06:34
... Er gibt auch zu, dass man auf Nvidia gewartet hat, wie schon vermutet...

Keine Ahnung wo du das gelesen haben willst

fondness
2025-01-10, 14:07:41
DLSS1 war auch grottenschlecht, wurde dennoch von einigen grünen Boys gefeiert. Und selbst aktuelles DLSS hat noch in einigen Bereichen seine Probleme. Witzigerweise kommt es erst mit dem Release von RTX 5000 zum Vorschein. ;)


Ja gut das ist immer so. Selbst wenn FSR4 das aktuelle DLSS pre Blackwell schlägt wird es für die selben Leuten dann plötzlich Schrott sein, die vorher DLSS abgefeiert haben.

fondness
2025-01-10, 14:09:43
Kleine Ergänzungen:

(1) laut CB Review liegen bei der 7900XTX im Durchschnitt 2556 MHz an
(2) wenn man die 3060 MHz annimmt (ja da ist noch unklar ob die erreicht werden - allerdings sieht man bei den 3DMark screenshots ~3 GHz und der Graph vorher als der Benchmark lief war sogar höher - aber ohne Skalierung...
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_die_durchschnittlichen_taktraten_unter_last

Bleibt dann aber bei 20%


CUs skalieren IIRC laut einer Untersuchung die CB mal gemacht hat mit dem Faktor 0.7.
Also bringen die 50% mehr CUs der 7900XTX taktnormiert nur 35%.

Wenn man den CU Vorteil statt +50% mit +35% annimmt und den Taktnachteil von -20% annimmt, käme ohne uArch Veränderung eine 20% höher getaktete 64 CU GPU auf ~88% der Leistung einer 7900XTX. Entsprechend braucht es "nur" noch 12,5% mehr "IPC". (oder aber Takt - oder aber eine Mischung. Die roten Balken bei dem GPU Takt könnten ja alles bedeuten in dem Screenshot)

Aber Frank Azor sprach auch von höherer IPC pro CU.


Ich denke auch die 3DM Benchmarks sind mit voller Leistung entstanden. Da lag anscheinend volle Last an und auch TDP. Und die Ergebnisse sind viel zu hoch als dass da noch groß was sinnvoll zurückgehalten hat. Es sei denn man ist ganz gewievt und baut irgendwelche Wait states ein die nur ~10% ausmachen, so dass es nicht auffällt und irgendwie zusätzlich noch Last generieren.
IMO aber unwahrscheinlich. Das Ding hat ungefähr 7900XTX Rasterlevel. (Heavy) RT bleibt noch offen. Ich tippe da dann auf 4070/ti level wenn man sich die Frametimes von CP77 PT von ChipsandCheese ansieht und die 7900XTX Frametime FP32 normiert um Faktor 2-3 (wie von Cerny gesagt) teilt. Aber zugegeben ist das ziemliches Fischen im Trüben. :D

Ja, das wird schon ungefähr hinkommen. Takt skaliert einfach besser. Schade finde ich, dass AMD eigentlich nur einen N32 done right bringt. Die low hanging fruit auch einen N31 done right zu bringen, also einen N4X mit 96 CUs und 384bit SI inkl. ordentlicher Taktraten wäre schon noch ganz nett gewesen. Aber Frank sagt es eh ganz klar:

When you want to offer a full-stack, you need three or four chips, which requires significant resources - people, money and time

Alles Dinge die er wohl nicht hat.

Sumpfmolch
2025-01-10, 14:22:30
Wird etwas Verwirrung geben, weil AMD offensichtlich die 7090XT mit zwei sehr unterschiedlichen TDP bringt. Die "normale" 7090XT mit ~260W und die 7090XT mit ~330W.

Scherzkekse können letztere Karte auch 7090XTX nennen... :ugly:

Denke also schon, dass wir 7090XT mit zwei als auch drei Lüfter Designs sehen werden.

Dino-Fossil
2025-01-10, 14:23:35
Ja, das wird schon ungefähr hinkommen. Takt skaliert einfach besser. Schade finde ich, dass AMD eigentlich nur einen N32 done right bringt. Die low hanging fruit auch einen N31 done right zu bringen, also einen N4X mit 96 CUs und 384bit SI inkl. ordentlicher Taktraten wäre schon noch ganz nett gewesen.

Ich würde ja behaupten ein bisschen mehr scheint es schon zu sein, wenn die Gerüchte passen.
Deutlich bessere Rechenpower für ML/KI und massiv besseres Raytracing vs. einfach nur bessere Taktbarkeit und ein, zwei interne Bremsen gelockert.

fondness
2025-01-10, 14:25:15
Ich würde ja behaupten ein bisschen mehr scheint es schon zu sein, wenn die Gerüchte passen.
Deutlich bessere Rechenpower für ML/KI und massiv besseres Raytracing vs. einfach nur bessere Taktbarkeit.

Klar, deshalb "done right". Aber von der breite des Chips ist es trotzdem nur ein N32. Auch den hohen Takt wollte man ja schon mit N3x erzielen.

dargo
2025-01-10, 14:26:57
Glaub ich nicht. Die silberne mit Lochblech als zweite oben Rechts hätte ich eigentlich für die Nitro gehalten. AMD Referenzdesign ist denke ich die kleine Karte darunter (3 Lüfter = XT) und links darunter mit den 2-Lüftern als Non-XT Referenz.
https://cdn.videocardz.com/1/2025/01/AMD-RADEON-RX-9070-RDNA4-HERO.jpg
Ach die meintest du. Nee... ich bezog mich auf die eine drunter.

Richtig lesen: er spricht vom P/L-Verhältnis, nicht von absoluter Leistung oder Preis.

Ich schmeiße da nen Übersetzer drüber. Kann sein, dass der Übersetzer Murks macht. :tongue:

Ja gut das ist immer so. Selbst wenn FSR4 das aktuelle DLSS pre Blackwell schlägt wird es für die selben Leuten dann plötzlich Schrott sein, die vorher DLSS abgefeiert haben.
Das ist so sicher wie das Amen in der Kirche. Ansonsten fühlt sich der eine oder andere grüne Boy unterlegen und das geht gar nicht. ;)

Wird etwas Verwirrung geben, weil AMD offensichtlich die 7090XT mit zwei sehr unterschiedlichen TDP bringt. Die "normale" 7090XT mit ~260W und die 7090XT mit ~330W.

Scherzkekse können letztere Karte auch 7090XTX nennen... :ugly:

Denke also schon, dass wir 7090XT mit zwei als auch drei Lüfter Designs sehen werden.
Argh... das tut beim lesen etwas weh. 9070(XT) bitte. ;)

Schade finde ich, dass AMD eigentlich nur einen N32 done right bringt. Die low hanging fruit auch einen N31 done right zu bringen, also einen N4X mit 96 CUs und 384bit SI inkl. ordentlicher Taktraten wäre schon noch ganz nett gewesen.
Findest du? Naja... ich weiß nicht so recht. Das wäre auch wieder so ein Heizofen @~450W. Die Entwicklung der Powerbudgets gefällt mir überhaupt nicht, siehe den Wahnsinn mit der RTX 5090.

robbitop
2025-01-10, 14:35:13
Ja gut das ist immer so. Selbst wenn FSR4 das aktuelle DLSS pre Blackwell schlägt wird es für die selben Leuten dann plötzlich Schrott sein, die vorher DLSS abgefeiert haben.
Ja leider verschiebt sich die Erwartung im Sinne "das Bessere ist der Feind des Guten".

FSR2/3 und TSR wären nach Maßstäben von 2019/20 sehr sehr gut gewesen. Trotz Kompromissen.
Es ist natürlich unglücklich, dass FSR4 so lange gedauert hat bis Nvidia mit dem neuen Transformer Modell von DLSS4 (muss sich noch bestätigen in unabhängigen reviews) wieder einen potentiell bemerkenswerten Schritt nach vorn gemacht hat und damit die Messlatte höher legt.

fondness
2025-01-10, 14:40:22
Erstmal abwarten was davon überhaupt ankommt. Das Nvidia Marketing ist sehr "kreativ" alles als Gold zu verkaufen. Auch bei FSR4 braucht es natürlich genauere Tests.

robbitop
2025-01-10, 14:45:11
Ja, das wird schon ungefähr hinkommen. Takt skaliert einfach besser. Schade finde ich, dass AMD eigentlich nur einen N32 done right bringt. Die low hanging fruit auch einen N31 done right zu bringen, also einen N4X mit 96 CUs und 384bit SI inkl. ordentlicher Taktraten wäre schon noch ganz nett gewesen. Aber Frank sagt es eh ganz klar:

Alles Dinge die er wohl nicht hat.
Tja N40/41 hätte das werden können. Aber die wurden (wahrscheinlich zu Recht) gecancelt. Advanced packaging ist knapp und teuer. AMDs resources sind auch knapp.

Jetzt ein IMO (was auch gern jeder anders sehen kann - finde ich ok):
Die GPU Welt hat in den letzten 4 Jahren doch total die Bodenhaftung verloren. In welcher Welt ist eine GPU die (locker) vierstellig kostet noch okay? Für die absoluten Enthusiasten ja. Aber die Masse ist abgehängt. Und in den letzten Jahren waren GPUs im niedrigen Preissegment nicht gerade toll was Fortschritt und P/L angeht.

Selbst die PS5PRO (und hier sprechen wir von einem gesamten System - nicht nur von einer GPU) wurde von der Masse aufgrund ihres Preises kritisiert.

Gute für die Masse bezahlbare Produkte brauchen wir. Und wenn AMD das liefert, gibt's auch wieder Marktanteil. :)
Nvidia minus kleinem Offset hat dahingehend nicht funktioniert in den Vorgängergenerationen. Ggf. muss man halt zurück was vor ~10 Jahren gut funktioniert hat.
Und klar kurz bis mittelfristig hat man nichts davon, kein Geld zu verdienen und könnte auch einfach nur noch Epyc und Instinct machen. Aber mehr Standbeine machen auch mehr Sicherheit. Wenn man Marktanteil zurückgewinnt, kann man mittelfristig auch wieder mindshare aufbauen und dann wieder sukzessive teurer werden vermute ich (Spekulation). Dazu muss man aber 2...3...4 Generationen hintereinander mit wenn möglich keinen slipups abliefern. Runde Produkte (HW und SW - ich meine hier nicht Treiber sondern FSR3 FG hat zu lange gedauert bis das gut lief und man hat das beim Kunden reifen lassen - der Endkunde darf sowas nicht zu Gesicht bekommen IMO). Keine komischen bugs mehr - lieber mehr polish. Mehr die Initiative ergreifen und mehr gute Features bringen, die noch keiner hat. Versuchen mehr Leistung abzuliefern.

why_me
2025-01-10, 14:45:14
Und DF in ihren vorab Tests finden auch erst die Fehler wenn es eine neue Version gibt. Bis dahin ist immer alles super.

robbitop
2025-01-10, 14:47:07
Erstmal abwarten was davon überhaupt ankommt. Das Nvidia Marketing ist sehr "kreativ" alles als Gold zu verkaufen. Auch bei FSR4 braucht es natürlich genauere Tests.
Ja absolut. Allerdings muss man auch konstatieren, dass bis dato wenn BQ Verbesserungen präsentiert worden sind die auch so kamen, oder? Und es gab ja auch gezoomte bewegte Bilder. Und DF hat auch schon drauf geschaut und ein Preview dazu gemacht was gegen DLSS 3 verglichen wurde. Ist aber nur ein Preview von nur einer Quelle.
Aber natürlich hast du Recht: ohne unabhängige Tests ist das erstmal noch nicht viel wert. Ich vermute die werden nicht so lange auf sich warten lassen. :)

fondness
2025-01-10, 14:51:02
Und DF in ihren vorab Tests finden auch erst die Fehler wenn es eine neue Version gibt. Bis dahin ist immer alles super.

Ja gut Nvidia baut sich natürlich auch "ihre" Medien auf, das ist gerade "en vogue". Deshalb braucht es unabhängige tests und kein cherry picking.

The_Invisible
2025-01-10, 14:53:06
Erstmal abwarten was davon überhaupt ankommt. Das Nvidia Marketing ist sehr "kreativ" alles als Gold zu verkaufen. Auch bei FSR4 braucht es natürlich genauere Tests.

Hä, Nvidia macht schon ein paar Jährchen AI Upscaling, bei AMD ist es das erste mal. Wo wäre man da wohl skeptischer?

fondness
2025-01-10, 14:54:20
Hä, Nvidia macht schon ein paar Jährchen AI Upscaling, bei AMD ist es das erste mal. Wo wäre man da wohl skeptischer?

Warum muss man jetzt irgendwo besonders skeptisch sein? :) In beiden Fällen schadet es sicher nicht auf unabhängige und ausführliche Tests zu warten.

dargo
2025-01-10, 14:54:21
Und DF in ihren vorab Tests finden auch erst die Fehler wenn es eine neue Version gibt. Bis dahin ist immer alles super.
Ich hatte mich in diesem Punkt auch köstlich amüsiert. :D

Dino-Fossil
2025-01-10, 15:02:16
Jetzt ein IMO (was auch gern jeder anders sehen kann - finde ich ok):
Die GPU Welt hat in den letzten 4 Jahren doch total die Bodenhaftung verloren. In welcher Welt ist eine GPU die (locker) vierstellig kostet noch okay?
[...]

Das sehe ich auch so. Polaris z.B. wurde nicht zu unrecht für einige Details kritisiert, aber man bot damit bezahlbare Karten mit solider Leistung und folglich gutem P/L*.
Inzwischen bezahlt man selbst für Karten, die relativ zum Portfolio gesehen niedriger positioniert sind locker 100€ mehr (wenns reicht).


*Wobei es dem Marktanteil auch nur bedingt geholfen hat - aber dass muss man dann halt auch langfristig durchhalten.

The_Invisible
2025-01-10, 15:02:41
Warum muss man jetzt irgendwo besonders skeptisch sein? :) In beiden Fällen schadet es sicher nicht auf unabhängige und ausführliche Tests zu warten.

Naja hört sich schon wieder an als müsste sich Nvidia beweisen, als hätten sie in der Vergangenheit nicht geliefert. Außerdem läuft FSR4 noch unter dem Projektnamen bei den Ständen. Aber gut, lets see...

Lurtz
2025-01-10, 15:26:00
Erstmal abwarten was davon überhaupt ankommt. Das Nvidia Marketing ist sehr "kreativ" alles als Gold zu verkaufen. Auch bei FSR4 braucht es natürlich genauere Tests.
nVidia hat in den letzten Jahren deutlich mehr abgeliefert als jeder andere Marktteilnehmer, was das angeht.
Und DF in ihren vorab Tests finden auch erst die Fehler wenn es eine neue Version gibt. Bis dahin ist immer alles super.
Ohne der verlängerten nVidia-Marketingarm DF groß verteidigen zu wollen: Das ist schon übertrieben. Die Kritik an Preset D tragen sie seit mittlerweile Jahren vor. Auch auf den Oil Paint-Look von RR sind sie eingegangen.

robbitop
2025-01-10, 15:33:35
So richtig unkorrekte Aussagen machen sie IMO auch nicht (oder so selten, dass ich mich nicht erinnere). Auffällig ist, dass sie Nvidia Exclusives bekommen und weniger zu AMDs Fortschritten berichten. Aber hat DF wirklich Dinge schöngeredet bzw Dinge besser dargestellt als sie waren?

Schnitzl
2025-01-10, 15:47:52
Tja N40/41 hätte das werden können. Aber die wurden (wahrscheinlich zu Recht) gecancelt. Advanced packaging ist knapp und teuer. AMDs resources sind auch knapp.

Jetzt ein IMO (was auch gern jeder anders sehen kann - finde ich ok):
Die GPU Welt hat in den letzten 4 Jahren doch total die Bodenhaftung verloren. In welcher Welt ist eine GPU die (locker) vierstellig kostet noch okay? Für die absoluten Enthusiasten ja. Aber die Masse ist abgehängt. Und in den letzten Jahren waren GPUs im niedrigen Preissegment nicht gerade toll was Fortschritt und P/L angeht.

Selbst die PS5PRO (und hier sprechen wir von einem gesamten System - nicht nur von einer GPU) wurde von der Masse aufgrund ihres Preises kritisiert.

Gute für die Masse bezahlbare Produkte brauchen wir. Und wenn AMD das liefert, gibt's auch wieder Marktanteil. :)
Nvidia minus kleinem Offset hat dahingehend nicht funktioniert in den Vorgängergenerationen. Ggf. muss man halt zurück was vor ~10 Jahren gut funktioniert hat.
Und klar kurz bis mittelfristig hat man nichts davon, kein Geld zu verdienen und könnte auch einfach nur noch Epyc und Instinct machen. Aber mehr Standbeine machen auch mehr Sicherheit. Wenn man Marktanteil zurückgewinnt, kann man mittelfristig auch wieder mindshare aufbauen und dann wieder sukzessive teurer werden vermute ich (Spekulation). Dazu muss man aber 2...3...4 Generationen hintereinander mit wenn möglich keinen slipups abliefern. Runde Produkte (HW und SW - ich meine hier nicht Treiber sondern FSR3 FG hat zu lange gedauert bis das gut lief und man hat das beim Kunden reifen lassen - der Endkunde darf sowas nicht zu Gesicht bekommen IMO). Keine komischen bugs mehr - lieber mehr polish. Mehr die Initiative ergreifen und mehr gute Features bringen, die noch keiner hat. Versuchen mehr Leistung abzuliefern.
das kann ich zu 100% unterschreiben

AMD benötigt wieder sowas wie Mantle - oder wie das damals hiess. Also etwas was es noch nicht gab, nicht dasselbe nochmal ;)

Evtl. könnten sie ja von den Konsolen profitieren und ein oder zwei Dinge "rüberholen" in die PC Welt damit es wieder näher an die HW geht. Das wäre für mich mal ein guter Sprung, im Moment gehts ja irgendwie in die falsche Richtung...

Ich spekuliere, dass RDNA4 eine gute Basis wird für RDNA5 und hoffe dass es da wieder fette Karten gibt, damit AMD nicht nur im Mittelfeld und darunter Produkte hat.

aufkrawall
2025-01-10, 15:49:58
Ohne der verlängerten nVidia-Marketingarm DF groß verteidigen zu wollen: Das ist schon übertrieben. Die Kritik an Preset D tragen sie seit mittlerweile Jahren vor. Auch auf den Oil Paint-Look von RR sind sie eingegangen.
Das ist wahr, da waren sie auf jeden Fall ehrlicher/vollständiger als bei den vorigen Iterationen. Aber Luft nach oben ist ja immer. :)

The_Invisible
2025-01-10, 15:50:37
AMD hätte halt sowas wie Neural Rendering gebraucht und das sie die ersten sind die mit MS damit zusammenarbeiten. So ist es halt sonst wie immer: Hinterhergelaufe

Schnitzl
2025-01-10, 16:33:34
du weisst nie was im Hintergrund bereits abläuft.
Wie das dann verkauft wird ist ne andere Sache, vor allem bei AMD ;)

EDIT
zu deinem Link:
"The HLSL team is working with AMD, Intel, NVIDIA, and Qualcomm on bringing cross-vendor support for cooperative vectors to the DirectX ecosystem."
wo ist jetzt das Problem?

The_Invisible
2025-01-10, 16:38:00
Zumindest MS bewirbt nur RTX50: https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/

basix
2025-01-10, 16:42:04
AMD hätte halt sowas wie Neural Rendering gebraucht und das sie die ersten sind die mit MS damit zusammenarbeiten. So ist es halt sonst wie immer: Hinterhergelaufe

Intel, AMD und Nvidia sind gerade zusammen mit Microsoft dran, das in DX12 zu integrieren ("Cooperative Vectors" oder wie das heisst). Das selbe passiert momentan bei Vulkan und Khronos. Beide Informationen sind öffentlich zugänglich ;)

Nvidia ist "nur" die erste Firma, die konkrete Applikationen damit zeigt. "Neural Rendering" wird von allen Chip-Schmieden via standard API unterstützt.

AMD hat ausserdem schon eigene Papers zu "Neural Rendering" vorgestellt (z.B. Neural Texture Block Compression), FSR4 mit ML-Enhanced Upsampling und wohl auch Ray Reconstruction werden wir bald zu Gesicht bekommen. Intel hat mit XeSS schon lange was im petto und auch eigene Papers veröffentlicht. Nvidia ist klar führend auf dem Gebiet aber es ist nicht so, dass die anderen nicht auch mitwirken ;)

Zumindest MS bewirbt nur RTX50: https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/
RDNA4 und die RX 9000er Serie wurden noch nicht offiziell vorgestellt ;)

Und Intel ist auch nicht genannt worden, trotz ihren Matrix-Cores. Nvidia hat Neural Rendering inkl. RTX 50er halt explizit gezeigt.

Sumpfmolch
2025-01-10, 17:31:39
Argh... das tut beim lesen etwas weh. 9070(XT) bitte. ;)


Bei AMDs Namensgebungen klingt der Name genauso richtig wie alle anderen. :P

fondness
2025-01-10, 17:53:26
Die Chinesen eskalieren wieder beim Design
https://videocardz.com/newz/yeston-radeon-rx-9070-xt-sakura-atlantis-features-16gb-memory-and-white-pcb

dargo
2025-01-10, 17:55:16
Hey... du bist kein Asiate, du kannst das nicht verstehen. Die stehen auf sowas. ;)

Oranje7
2025-01-10, 18:09:41
AMD benötigt wieder sowas wie Mantle - oder wie das damals hiess. Also etwas was es noch nicht gab, nicht dasselbe nochmal ;)

Mantle wurde auf dem PC doch komplett Ignoriert, selbst als die Geschichte in DX12 und Vulkan aufging hat es ewigkeiten gedauert bis es angekommen ist. Jahrelang wurde trotzdem Nvidea empfohlen weil in DX11 besser :confused:


Evtl. könnten sie ja von den Konsolen profitieren und ein oder zwei Dinge "rüberholen" in die PC Welt damit es wieder näher an die HW geht. Das wäre für mich mal ein guter Sprung, im Moment gehts ja irgendwie in die falsche Richtung....

Siehe oben, Mantle wurde eingeführt als die Konsolen AMD Hardware benutzt haben. Für Windoof und Desktop Gaming scheint es die Entwickler nicht zu interessieren, da man die 75% (mittlerweile 90%) Marktanteil ja einfach haben will und ich glaube das Nvidea ähnlich wie Intel im Laptop bereich einfach mehr/besseren support bietet

KodeX
2025-01-10, 18:13:45
Die Chinesen eskalieren wieder beim Design
https://videocardz.com/newz/yeston-radeon-rx-9070-xt-sakura-atlantis-features-16gb-memory-and-white-pcb

Ist doch mega :-D

madzapp
2025-01-10, 19:03:00
Mich könnten sie mit einer Cute Pet ködern. Finde ich einfach scharf.
Trotz geschlossenem Gehäuse.:freak:

basix
2025-01-10, 19:29:37
Hä, Nvidia macht schon ein paar Jährchen AI Upscaling, bei AMD ist es das erste mal. Wo wäre man da wohl skeptischer?

AMD wird sicher nicht aus dem Stand DLSS4 schlagen. Aber es ist halt einfacher etwas abzuschauen als selbst drauf zu kommen. Und Temporal Upsampling ist aufgrund FSR2/3 kein Neuland für AMD. Deswegen bin ich bei FSR4 schon optimistisch, dass das ganz gut kommt. Die Grundprobleme von Temporal Upsampling sind AMD sehr gut bekannt und sie wissen, worauf es beim Output ankommt. Ob das jetzt das erste Mal mit AI ist, spielt da nicht so eine Rolle, AMD weiss dass der Output verbessert werden kann (siehe DLSS).

robbitop
2025-01-10, 19:34:17
Eigene Iteration ist aber wahrscheinlich schon nochmal was anderes. Es wäre deshalb beeindruckend wenn man aus dem Stand an Model E von DLSS 3.7+ rankäme. Aber (für mich) auch nicht überraschend wenn man eher auf Model C oder F Level von 2.5.1 läge.

aufkrawall
2025-01-10, 19:44:03
Das sah ehrlich gesagt schon besser aus als C.
(aufkrawall ist erstaunt über seine eigenen Worte.)
Bis auf etwas Smearing ist mir da wirklich gar nichts negativ aufgefallen. Kann natürlich sein, dass es bei Kamerabewegung doch noch irgendwie zu unscharf wird, oder bestimmte Elemente arg ghosten. Schien bei manchen vorbeifliegenden Ufos im Hintergrund manchmal so auszusehen, aber kann auch täuschen. Dafür haben sie aber vor der Skybox offenbar kaum gesmeart.
Preset C dürfte bei 50% deutlich stärker rauschen und unschärfer sein (bei auch noch schlechter geglätteten Kanten?).

basix
2025-01-10, 20:21:32
Wir wissen ja nicht, ob AMD auch auf ein Transformer Modell setzt. Vision Transformer (ViT) gibt es seit 2021. Hier ein Artikel aus Mitte 2023, welcher den Unterschied von CNN (DLSS2/3) und ViT (DLSS4) schön erklärt: https://medium.com/@hansahettiarachchi/unveiling-vision-transformers-revolutionizing-computer-vision-beyond-convolution-c410110ef061

Wo Nvidia DLSS2 gemacht hat, gab es ViT noch nicht und CNN war die State-of-the-Art Lösung. Für ViT war bei DLSS3 die Time to Market wahrscheinlich zu knapp oder FG Stand im Fokus. Und was hat AMD? Sie hatten genug Zeit, sich mit CNN vs. ViT auseinanderzusetzen. Wenn man bei Startschuss für FSR4 (laut Jack Hu ca. vor 1...1.5 Jahren) eine Variantenanlyse inkl. Entscheidungsmatrix gemacht hat, dann Stand dort sicher auch ViT auf dem Papier. Und anhand dem oben verlinkten Artikel hat ViT einige entscheidende Vorteile gegenüber CNN, insbesondere aufgrund self-attention "entfernte Informationen" doch noch nützlich zusammenzutragen. Es kann also gut möglich sein, dass FSR4 wie DLSS4 auf einen ViT setzt und entsprechend eine bessere Qualität herauskommen könnte, als man es von DLSS 3.x mit CNN her kennt. Dass man DLSS4 schlägt ist unwahrscheinlich, dazu hat Nvidia zu viel Manpower und Know How. Aber >DLSS3.x? Vielleicht ja.

Für Temporal Upsampling und Frame Generation relevant:
Applications of Vision Transformers

Image Classification: Classifying images into predefined categories
Object Detection: Identifying and localizing objects within images
Semantic Segmentation: Assigning a label to each pixel in an image to identify object boundaries
Image Generation: Generating new images based on a given context or description

Hier noch ein Artikel von Microsoft über ViT und Vorteile gegenüber CNN:
https://techcommunity.microsoft.com/blog/machinelearningblog/train-vision-transformer-model-and-run-inference/4241945
Note: U-Net = CNN
U-Net is generally more efficient than ViT, especially in sparse data scenarios. U-Net's architecture is simpler with fewer parameters, making it more efficient in terms of computational resources and time. While ViT has advantages in capturing global information, its self-attention mechanism has high computational complexity, particularly when handling large-scale data.
ViT ist qualitativ also besser, benötigt aber anscheinend mehr Rechenleistung. Würde zu den Aussagen von AMD zu FSR4 passen, dass viel Rechenleistung benötigt wird.

GerryB
2025-01-10, 20:21:35
Wird etwas Verwirrung geben, weil AMD offensichtlich die 7090XT mit zwei sehr unterschiedlichen TDP bringt. Die "normale" 7090XT mit ~260W und die 7090XT mit ~330W.

oder es gibt Modelle mit 2x Bios ala GB
1 Bios = Silent(?) ist anscheinend mit 260W für Boost 2970MHz = evtl. die Werksvoreinstellung bei GB
ob die 2x 8pin auch ein zusätzliches 330W-Performance-Bios für 3060MHz hat, mal schauen
(wobei die 3060MHz im GPU-Z garantiert nicht der reale Boost sind, eher so ca. 3150MHz)

https://netcodex.ph/product/gigabyte-radeon-rx-9070-xt-gaming-oc16gb-gddr6-256-bit-rdna-4-architecture-graphics-card/

Das 260W-Bios sollte dann für UVer genug Spielraum nach Unten haben.(Powerlimit -10% geht vermutlich)
260 x 0,9 =234W tbp
vgl.bar mit 200W tgp bei ner stark UVteten 6800xt

dargo
2025-01-10, 20:41:50
Mir wäre lieber wenn schnellstmöglich es MPT-Support für RDNA4 gibt. ;)


https://netcodex.ph/product/gigabyte-radeon-rx-9070-xt-gaming-oc16gb-gddr6-256-bit-rdna-4-architecture-graphics-card/

Der Preis für diese 9070XT dort beträgt übrigens 582,65€. Ist aber auch nur ein Platzhalter.

Altehardware
2025-01-10, 20:47:35
Da wird nix passieren da amd den Zugriff auf die vrm gesperrt hat
Sprich kein watt mehr als die tbp

dargo
2025-01-10, 20:48:33
Da wird nix passieren da amd den Zugriff auf die vrm gesperrt hat

Wo steht das? Zugenagelt war bisher nur RDNA3 und ich hoffe das war ein einziger Ausrutscher.

GerryB
2025-01-10, 20:49:03
Hellm hat noch Nichts in die Hand bekommen, keine Aussage zum MPT-Tool möglich.
(da halten alle Quellen mit Bios sich noch zurück)

Wenn soundso keine Kopie des Bios/Powertable in die Registry erfolgt, sind eeh die Aussichten für MPT gering.
(ala RDNA3)

aufkrawall
2025-01-10, 20:57:59
Wo steht das? Zugenagelt war bisher nur RDNA3 und ich hoffe das war ein einziger Ausrutscher.
Würde mich wundern, wenn sie Usern wieder mehr Kontrolle außerhalb der von ihnen vorgesehenen APIs geben wollen. Scheint AMDs größer Albtraum geworden zu sein, wenn User "zu viel" Leistung aus einem Produkt rausholen können.

dargo
2025-01-10, 21:17:49
Quatsch... dann hätte man auch jeden Ryzen zugenagelt.

The_Invisible
2025-01-10, 21:18:55
ViT ist qualitativ also besser, benötigt aber anscheinend mehr Rechenleistung. Würde zu den Aussagen von AMD zu FSR4 passen, dass viel Rechenleistung benötigt wird.

Ja Nvidia sagt auch 4x mehr Compute bei 4:20: https://www.youtube.com/watch?v=qQn3bsPNTyI

Sumpfmolch
2025-01-10, 21:26:33
oder es gibt Modelle mit 2x Bios ala GB
1 Bios = Silent(?) ist anscheinend mit 260W für Boost 2970MHz = evtl. die Werksvoreinstellung bei GB
ob die 2x 8pin auch ein zusätzliches 330W-Performance-Bios für 3060MHz hat, mal schauen
(wobei die 3060MHz im GPU-Z garantiert nicht der reale Boost sind, eher so ca. 3150MHz)

https://netcodex.ph/product/gigabyte-radeon-rx-9070-xt-gaming-oc16gb-gddr6-256-bit-rdna-4-architecture-graphics-card/

Das 260W-Bios sollte dann für UVer genug Spielraum nach Unten haben.(Powerlimit -10% geht vermutlich)
260 x 0,9 =234W tbp
vgl.bar mit 200W tgp bei ner stark UVteten 6800xt

Die 9070XT Variante mit weniger Verbrauch würde die angeblichen Varianten mit kleinem 2x Lüfter Kühler erklären. Dann bleibt 330W(+x) den großen OC Varianten vorbehalten (oder den billigen, schlechten Kühlern...)

aufkrawall
2025-01-10, 21:27:49
Quatsch... dann hätte man auch jeden Ryzen zugenagelt.
Blödsinn ist dein Vergleich, denn auch für RDNA3 gibts OC (oder sie tun zumindest so). Mal abgesehen davon, dass sie genau wissen, dass Ryzens mit freiem Multiplikator kaum stabil auch nur 50MHz höher gehen.

dargo
2025-01-10, 21:31:11
Mich interessiert kein OC sondern maximale Reduzierung der Power bei Referenz Performance. Und dafür brauche ich volle Kontrolle über die GFX, SoC Voltage und Power. Wobei Power hier auch überflüssig ist sofern AMD im Treiber wenigstens -25% erlaubt und nicht so einen Quatsch mit nur -10%. Alle Werte über den Referenzvorgaben können die von mir aus sperren, das juckt mich nicht.

Die 9070XT Variante mit weniger Verbrauch würde die angeblichen Varianten mit kleinem 2x Lüfter Kühler erklären.
Wo gabs eine 9070XT mit zwei Lüftern? Das einzige was ich bisher gesehen habe war die MBA von AMD mit zwei Lüftern für die non XT.

Schnitzl
2025-01-10, 21:37:16
KI-Upsampling: AMD will FSR 4 auch auf Radeon RX 7000 zum Laufen bringen (https://www.computerbase.de/news/grafikkarten/ki-upsampling-amd-will-fsr-4-auch-auf-radeon-rx-7000-zum-laufen-bringen.90989/)
aha ;D
Auf welchen Grafikkarten wird FSR 4 denn nun eigentlich verfügbar sein? Das weiß AMD selbst noch nicht, RDNA 3 ist aber nicht zwingend raus.
immer wieder was zu lachen bei AMD ^^

aufkrawall
2025-01-10, 21:40:23
Mich interessiert kein OC sondern maximale Reduzierung der Power bei Referenz Performance. Und dafür brauche ich volle Kontrolle über die GFX, SoC Voltage und Power. Wobei Power hier auch überflüssig ist sofern AMD im Treiber wenigstens -25% erlaubt und nicht so einen Quatsch mit nur -10%. Alle Werte über den Referenzvorgaben können die von mir aus sperren, das juckt mich nicht.

Das interessiert uns alle. Das ist aber nur ein Detail bzw. Symptom der Ursache, dass AMD meint, dem User immer mehr Kontrolle wegnehmen zu müssen (bei GPUs mehr als bei CPUs, ja). Sie könnten auch einfach wieder die Takt-/Spannungskurve wieder ganz regulär im WM sinnvoll anpassbar wie bei RDNA1 machen und einen größeren negativen Offset fürs PT erlauben, dann bräuchte es den Hack MPT dafür gar nicht. Da will ich jetzt aber keine Prognose wagen, bzw. zumindest wären sinnvolle Änderungen in der Hinsicht eine positive Überraschung...

dargo
2025-01-10, 21:40:35
@Schnitzl
Das kommt davon wenn die eine Abteilung mit der anderen nicht spricht. Kommt mir bekannt vor. :ulol:

robbitop
2025-01-10, 22:09:06
Wir wissen ja nicht, ob AMD auch auf ein Transformer Modell setzt. Vision Transformer (ViT) gibt es seit 2021. Hier ein Artikel aus Mitte 2023, welcher den Unterschied von CNN (DLSS2/3) und ViT (DLSS4) schön erklärt: https://medium.com/@hansahettiarachchi/unveiling-vision-transformers-revolutionizing-computer-vision-beyond-convolution-c410110ef061

Wo Nvidia DLSS2 gemacht hat, gab es ViT noch nicht und CNN war die State-of-the-Art Lösung. Für ViT war bei DLSS3 die Time to Market wahrscheinlich zu knapp oder FG Stand im Fokus. Und was hat AMD? Sie hatten genug Zeit, sich mit CNN vs. ViT auseinanderzusetzen. Wenn man bei Startschuss für FSR4 (laut Jack Hu ca. vor 1...1.5 Jahren) eine Variantenanlyse inkl. Entscheidungsmatrix gemacht hat, dann Stand dort sicher auch ViT auf dem Papier. Und anhand dem oben verlinkten Artikel hat ViT einige entscheidende Vorteile gegenüber CNN, insbesondere aufgrund self-attention "entfernte Informationen" doch noch nützlich zusammenzutragen. Es kann also gut möglich sein, dass FSR4 wie DLSS4 auf einen ViT setzt und entsprechend eine bessere Qualität herauskommen könnte, als man es von DLSS 3.x mit CNN her kennt. Dass man DLSS4 schlägt ist unwahrscheinlich, dazu hat Nvidia zu viel Manpower und Know How. Aber >DLSS3.x? Vielleicht ja.

Für Temporal Upsampling und Frame Generation relevant:


Hier noch ein Artikel von Microsoft über ViT und Vorteile gegenüber CNN:
https://techcommunity.microsoft.com/blog/machinelearningblog/train-vision-transformer-model-and-run-inference/4241945
Note: U-Net = CNN

ViT ist qualitativ also besser, benötigt aber anscheinend mehr Rechenleistung. Würde zu den Aussagen von AMD zu FSR4 passen, dass viel Rechenleistung benötigt wird.
Allerdings gibt es da noch ein paar Komponenten die mit in Betracht gezogen werden müssen

1.) Laut Nvidia kostet deren Transformer Modell 4x so viel Rechenleistung. Damit die Frametime nicht durch die Decke geht, sollte man schon viel Matrixleistung haben. IIRC leuchteten bei CNN DLSS die Tensor Cores bei nvperf in dem analysierten Frame in Doom damals auch nur erstaunlich kurz auf. Dank der Tensor Cores hat man ja auch ordentlich zusätzliche Matrixleistung die parallel zu dem Vektor Compute laufen kann (sich aber natürlich resources teilt)
2.) Wer weiß, wie das in RDNA4 geregelt ist. Ggf. so ähnlich wie auf der PS4 wo es immer noch keine Matrix Einheiten (sondern nur durch passendere Instructions beschleunigt wird) gibt. Dann könnte dafür (wenn man nicht will, dass die Frametime durch die Decke schießt) ggf nicht genug "grunt" haben.
3.) AMD hat (so erweckt es den Eindruck - zumindest für RTG-Gaming Projekte) wesentlich weniger Resources bei NN. Insbesondere das talentierte Personal was an der leading edge der NN Entwicklung mit dabei ist (bzw das umsetzen kann was leading edge gerade Stand der Technik ist).
4.) Es gab noch (zwar vs FSR3.1 reduzierte) sichtbares Ghosting bei bewegenden Objekten wie zum Beispiel den Arm von Ratchet als er winkte. In den DLSS4 Videos war ja genau das (sowohl im Nvidia Promo Material als auch bei DF) fast komplett eliminiert.
5.) "Viel Rechenleistung" (was FSR4 kosten soll) kann auch relativ zu FSR3.1 gemeint sein. Und das ist auch bei der Nutzung eines CNN absolut der Fall. Ist immer eine Frage des Referenzpunkts.

Wie immer:
Alles kann - nichts muss. Nur mal spekulativ auch von der anderen Seite betrachtet.

Mein Tipp: es ist noch ein CNN.

GerryB
2025-01-10, 22:43:45
Wollt Ihr nichtmal die DLSS vs. FSR4-Diskussion in den FSR-Thread auslagern?
(die seitenlangen Spekus spammen hier nur unnötig den Thread voll)

Die Leute hier interessieren sich evtl. mehr für die Daten+Preis der AMD-Grakas
vs. Vorgänger.
Und nehmen einfach mal an, das FSR bei der neuen Gen ausreichend funzt, sowie
in allen Games mit FSR3.1 läuft.

basix
2025-01-11, 00:15:32
1.) Laut Nvidia kostet deren Transformer Modell 4x so viel Rechenleistung. Damit die Frametime nicht durch die Decke geht, sollte man schon viel Matrixleistung haben. IIRC leuchteten bei CNN DLSS die Tensor Cores bei nvperf in dem analysierten Frame in Doom damals auch nur erstaunlich kurz auf. Dank der Tensor Cores hat man ja auch ordentlich zusätzliche Matrixleistung die parallel zu dem Vektor Compute laufen kann (sich aber natürlich resources teilt)
<0.2ms auf einer 4090 in 4K mit ca. 50% Tensor Core Load. Das ist fast nichts. Selbst wenn ich grosszügig schätze sind das ~50 GOPS (INT8). 4x von dem sind 200 GOPS. Das wäre mit einer 9070 XT machbar (200 TFLOPS FP8 oder mehr). Man muss immer sehen, das selbst eine 4080 "nur" 400 TFLOPS FP8 hat und DLSS4 wohl ohne Probleme stemmen wird. Und DLSS4 kommt auch auf Turing, Ampere und generell schwächere Karten. Ergo: RDNA4 wird genug Rechenleistung für ViT haben. RDNA3 wird knapp aber gehen und RDNA2 wird unwahrscheinlich ohne gestutztes Modell.


3.) AMD hat (so erweckt es den Eindruck - zumindest für RTG-Gaming Projekte) wesentlich weniger Resources bei NN. Insbesondere das talentierte Personal was an der leading edge der NN Entwicklung mit dabei ist (bzw das umsetzen kann was leading edge gerade Stand der Technik ist).

Dann kann ich dich folgendes fragen:
- Nehme ich bei begrenzten Ressourcen das, was vermeintlich am einfachsten ist oder das, was tendenziell am längsten hält, weil am modernsten und grösstes Potential?
- Nehme ich einen Transformer, wo gefühlt 90% aller neuen DNN-Modelle als Grundarchitektur haben? Stichwort (verfügbares) Know How
- Wenn man in Konkurrenz mit Nvidia steht und weiss dass die nicht schlafen, nehme ich wenn möglich State-of-the-Art oder eine ältere Version?

AMD hat mittlerweile doppelt so viel Personal wie 2020. Und da werden sicher auch ein paar DNN-Experten dabei sein ;) Natürlich hat Nvidia hier deutlich mehr Ressourcen und auch Know How, deswegen wird man Nvidia auch nicht überholen. Aber es ist wie immer die 20/80 Regel anzuwenden: 20% des Aufwands resultieren in 80% des Ertrags. So sehe ich das bei AMD vs. Nvidia oder FSR4 vs. DLSS4: AMD investiert 20% und erreicht 80% des Levels von Nvidia ;)

Die Leute hier interessieren sich evtl. mehr für die Daten+Preis der AMD-Grakas
vs. Vorgänger.
Logisch :) Doch den Preis wirst du vor der Veröffentlichung definitiv nicht erfahren. Alle Spekus im vornherein sind dahingehend eigentlich wertlos. Und da RDNA4 auf der CES nicht gezeigt wurde, wirst du von AMD bis zur Veröffentlichung wohl auch nichts relevantes zu den Daten oder zur Performance erfahren. Die letzten zwei Launch-Zyklen (RDNA3, Lovelace, RDNA4, Blackwell) haben gezeigt dass AMD und Nvidia die Leaks mittlerweile im Griff haben. Wirklich verwertbares wird man vor offiziellem Release und unabhängigen Tests nicht mehr erfahren (ausser Anzahl SM und CUs sowie SI-Breite, das stimmte jeweils).

dargo
2025-01-11, 08:32:32
Frank Azor plaudert mit PC World über RX 9000.

2p7UxldYYZM

Nichts wirklich Neues was schon nicht bekannt war. Raster Performance aufgebohrt vs. RDNA3 und Raytracing massiv gesteigert da RT in Games langsam salonfähig wird. "Massiv" ist natürlich ein sehr dehnbarer Begriff. :tongue: FSR 4 vorerst RDNA4 exklusiv, für ältere Generationen noch nicht vom Tisch. Muss die Zukunft zeigen ob sinnvoll nutzbar.

robbitop
2025-01-11, 09:54:06
Endlich klare Worte anstatt Ausreden. Wir wollten auf den Wettbewerber warten, FSR4 erstmal RDNA4. Versuch aber kein Commitment für ältere GPUs.
Warum müssen es immer erst shitstorms im Netz und unangenehme Frage der Presse sein eh man Klartext spricht? Hätte man so doch straight am Montag sagen können. Sowas kostet auch immer Glaubwürdigkeit weil es unprofessionell wirkt. (und das haben auch genug Youtuber so empfunden und in ihren Videos thematisiert) Naja egal - am Ende zählt das Produkt.

DrFreaK666
2025-01-11, 09:59:51
Ich hoffe Gigapixel AI wird schnell von den AI Cores gebraucht machen.
Mit meiner 6700XT braucht es gefühlt eine Ewigkeit bis das Bild generiert wird

BlacKi
2025-01-11, 10:09:34
Frank Azor plaudert mit PC World über RX 9000.

https://youtu.be/2p7UxldYYZM

Nichts wirklich Neues was schon nicht bekannt war. Raster Performance aufgebohrt vs. RDNA3 und Raytracing massiv gesteigert da RT in Games langsam salonfähig wird. "Massiv" ist natürlich ein sehr dehnbarer Begriff. :tongue: FSR 4 vorerst RDNA4 exklusiv, für ältere Generationen noch nicht vom Tisch. Muss die Zukunft zeigen ob sinnvoll nutzbar.
hat er da bei 5:20 gesagt, das die rasterperformance ein klein bisschen gegenüber der xtx gewachsen ist?



ich meine, der fragesteller hat zwar grob nach den fortschritten der rdna4 architektur gefragt, aber hat mit dem fortschritt zum portfolio geantwortet.


demnach wäre eine 9070xt ein klein weng geschneller als die 7900xtx.


vermutlich hab ich das aber wieder nur missverstanden...

basix
2025-01-11, 10:36:34
hat er da bei 5:20 gesagt, das die rasterperformance ein klein bisschen gegenüber der xtx gewachsen ist?

Könnte man so interpretieren. Die Basis (welche Karte) wird halt nicht genannt. Das kann die 7900 XTX sein. Das kann aber auch etwas mehr Raster-Performance zum gleichen Preispunkt sein (GRE, XT). Ich würde auf letzteres tendieren.

Lurtz
2025-01-11, 10:39:52
KI-Upsampling: AMD will FSR 4 auch auf Radeon RX 7000 zum Laufen bringen (https://www.computerbase.de/news/grafikkarten/ki-upsampling-amd-will-fsr-4-auch-auf-radeon-rx-7000-zum-laufen-bringen.90989/)
aha ;D

immer wieder was zu lachen bei AMD ^^
Ist ja auch nur eine Forschungsarbeit :D

TheGood
2025-01-11, 10:50:20
Also er bezog sich bei 5:20 klar auf 9070 Grakas und sagt dann dass es ein kleine Verbesserung in Rasterization gibt.
So, jetzt kann man spekulieren auf was er das bezieht :D Das sagt er nämlich nicht. Aber am Ende kann er es ja nur auf die Vorgänger generation beziehen, denn er sagte ja auch noch, dass das die kunden erwarten (expect).

JEtzt könnt ihr wieder loslegen mit spekulieren.

basix
2025-01-11, 10:53:05
Wie gesagt: 7900 XTX wäre schön (zu schön?). Verglichen mit RDNA3 Karten zum ähnlichen Preispunkt ist die wahrscheinlichste Auflösung ;)

fondness
2025-01-11, 10:56:14
Endlich klare Worte anstatt Ausreden. Wir wollten auf den Wettbewerber warten, FSR4 erstmal RDNA4. Versuch aber kein Commitment für ältere GPUs.
Warum müssen es immer erst shitstorms im Netz und unangenehme Frage der Presse sein eh man Klartext spricht? Hätte man so doch straight am Montag sagen können. Sowas kostet auch immer Glaubwürdigkeit weil es unprofessionell wirkt. (und das haben auch genug Youtuber so empfunden und in ihren Videos thematisiert) Naja egal - am Ende zählt das Produkt.

Unser tägliches "AMD macht alles falsch" Posting darf natürlich nicht fehlen.

aufkrawall
2025-01-11, 10:57:40
Ist ja auch nur eine Forschungsarbeit :D
Wann soll es in Spielen erhältlich sein, bei welcher Performance, und dann nach ggf. Performance-Optimierungen bei welcher Qualität?
Sie haben noch ihre offizielle Ankündigungsveranstaltung für die Karten. Da kann man nur beten, dass sie sich hier mit Eigentoren zurückhalten. :freak:

fondness
2025-01-11, 10:58:59
Viel klarer kann man es nicht mehr kommunizieren. FSR4 ist für RDNA4, das hat klar HW-technische Gründe. Wer was anderes erwartet kann enttäuscht werden. Aber man wirds es immerhin versuchen und schauen ob es Sinn macht (würde ich mir an ihrer Stelle sparen).

aufkrawall
2025-01-11, 11:03:53
Das war auf RDNA4 bezogen, das man bald kaufen kann. Und da sollte am besten schon 100% Klarheit über die Nutzung auf der neuen Hardware als einen der größten Selling Points herrschen.

fondness
2025-01-11, 11:05:37
Naja gut, das wurde ja noch nicht mal vorgestellt. Es soll ein eigenes Event zu FSR4 und auch zu RDNA4 geben. Auf der CES gabs nur ein Preview.

raffa
2025-01-11, 11:09:26
Viel klarer kann man es nicht mehr kommunizieren. FSR4 ist für RDNA4, das hat klar HW-technische Gründe. Wer was anderes erwartet kann enttäuscht werden. Aber man wirds es immerhin versuchen und schauen ob es Sinn macht (würde ich mir an ihrer Stelle sparen).

Würde ich nicht, denn STRIX Halo zb. ist RDNA3.5 und kann einen besseren Upscaler sicher gut brauchen. Und er sagte auch, die FSR Strategie hat sich nicht geändert, es so offen und kompatibel wie möglich zu halten. Zudem wäre ein FSR4 Pfad für RNDA3+ sowohl für die Verbreitung als auch die postive Wahrnehmung (und für alle RDNA3 Besitzer, die ja am wenigsten wahrscheinlich auf RDNA4 wechseln) nicht schlecht.

fondness
2025-01-11, 11:20:27
Würde ich nicht, denn STRIX Halo zb. ist RDNA3.5 und kann einen besseren Upscaler sicher gut brauchen. Und er sagte auch, die FSR Strategie hat sich nicht geändert, es so offen und kompatibel wie möglich zu halten. Zudem wäre ein FSR4 Pfad für RNDA3+ sowohl für die Verbreitung als auch die postive Wahrnehmung (und für alle RDNA3 Besitzer, die ja am wenigsten wahrscheinlich auf RDNA4 wechseln) nicht schlecht.

Klar brauchen kann es immer jeder. Aber erstens ist die Frage wie gut das überhaupt laufen kann ohne entsprechenden HW-Support und zweitens: Ich habe lange in der HW-nahen SW Entwicklung gearbeitet und es gibt nichts was die Devs mehr Zeit kostet und einfach nur anpisst als solchen alten nicht mehr kompatiblen Schrott mitschleppen zu müssen. Ich kann den Schmerz richtig fühlen X-D. Gerade als AMD das eben nicht die Ressourcen hat um mit Nvidia auf jeder Hochzeit zu tanzen sollte man die Ressourcen IMO eher einsetzen um vorne mitspielen zu können anstatt auf maximale Kompatibilität zu setzen.

raffa
2025-01-11, 11:25:37
I feel you.
Kann freilich sein, dass sie bei der Evalierung der Möglichkeiten irgendwann beschließen, das der Aufwand nicht lohnt und lediglich FSR3.x mit kleinen Updates versehen, auch wenn da nicht mehr viel zu holen ist, wie er sagt.

(Allerdings ist ja "Ryzen AI Max" ein neues wichtiges Produkt, und da ist das AI ja schon im Namen, anders als RDNA3 nicht EOL, sondern frisch, ganz frisch.)

madzapp
2025-01-11, 11:39:53
Frank Azor plaudert mit PC World über RX 9000.

https://youtu.be/2p7UxldYYZM

Nichts wirklich Neues was schon nicht bekannt war. Raster Performance aufgebohrt vs. RDNA3 und Raytracing massiv gesteigert da RT in Games langsam salonfähig wird. "Massiv" ist natürlich ein sehr dehnbarer Begriff. :tongue: FSR 4 vorerst RDNA4 exklusiv, für ältere Generationen noch nicht vom Tisch. Muss die Zukunft zeigen ob sinnvoll nutzbar.

Eigentlich alles was AMD direkt nach der CES-"Vorstellung" mit der Presse kommuniziert hat?
Will nicht schon wieder ein Video mit geichem Inhalt anschauen. Ist schon so entäuschend wie ihr Auftritt.

robbitop
2025-01-11, 11:40:31
Unser tägliches "AMD macht alles falsch" Posting darf natürlich nicht fehlen.
Du kannst ja mit Substanz darauf eingehen. Oder es ignorieren. Beides okay für mich.

Weiterhin: Ich äußere mich keinesfalls, dass AMD "alles falsch" macht. Viele Aspekte (insbesondere die technischen) lobe ich. Insofern ist dein Posting inhaltlich falsch.
Was ich kritisiere, ist ihre Kommunikation. Da viele professionelle Leute aus der Presse eine sehr ähnliche Ansicht zu vertreten scheinen, scheint diese Ansicht so abwegig nicht zu sein. Weiterhin schreibe ich was ich denke, und lasse mich da nicht (schon gar nicht durch Motzposts) davon abhalten. Insofern hat obiges null Sinn mit mir. ;)

Also zukünftig: gerne Postings, die dir nicht passen ignorieren. Oder aber wenn dann differenziert, mit Substanz darauf eingehen, wenn der Inhalt deiner Ansicht nach nicht korrekt sein sollte. :)

Klar brauchen kann es immer jeder. Aber erstens ist die Frage wie gut das überhaupt laufen kann ohne entsprechenden HW-Support und zweitens: Ich habe lange in der HW-nahen SW Entwicklung gearbeitet und es gibt nichts was die Devs mehr Zeit kostet und einfach nur anpisst als solchen alten nicht mehr kompatiblen Schrott mitschleppen zu müssen. Ich kann den Schmerz richtig fühlen X-D. Gerade als AMD das eben nicht die Ressourcen hat um mit Nvidia auf jeder Hochzeit zu tanzen sollte man die Ressourcen IMO eher einsetzen um vorne mitspielen zu können anstatt auf maximale Kompatibilität zu setzen.
Dem kann ich nur zustimmen. AMD braucht jetzt Fokus um dabei bleiben zu können. :up:

OgrEGT
2025-01-11, 12:40:03
Was genau gibt es denn zu AMDs Kommunikation zu kritisieren?
Ja gut sie haben bei der Keynote nicht viel dazu gesagt. Warum weiß man doch jetzt. Die Karten waren von vielen Herstellern vor Ort und liefen sogar live. Termin wann vorgestellt wird ist bekannt... Preise können erahnt werden... Leistung ist noch nicht ganz klar OK... Ist das jetzt so schlimm? Ein wenig mehr Geduld auch von Seiten der Presse wäre mMn angebracht...

fondness
2025-01-11, 12:58:50
Hohoho, eine Ansage:

AMD fires back at Radeon RX 9070 leaks: performance will be better than reported
https://videocardz.com/?post_type=pixel&p=194237

Troyan
2025-01-11, 13:00:48
Klar brauchen kann es immer jeder. Aber erstens ist die Frage wie gut das überhaupt laufen kann ohne entsprechenden HW-Support und zweitens: Ich habe lange in der HW-nahen SW Entwicklung gearbeitet und es gibt nichts was die Devs mehr Zeit kostet und einfach nur anpisst als solchen alten nicht mehr kompatiblen Schrott mitschleppen zu müssen. Ich kann den Schmerz richtig fühlen X-D. Gerade als AMD das eben nicht die Ressourcen hat um mit Nvidia auf jeder Hochzeit zu tanzen sollte man die Ressourcen IMO eher einsetzen um vorne mitspielen zu können anstatt auf maximale Kompatibilität zu setzen.

Stimmt. Deswegen hat man Jahre mit FSR 2 verschwendet. ;D

robbitop
2025-01-11, 13:01:05
Was genau gibt es denn zu AMDs Kommunikation zu kritisieren?
Ja gut sie haben bei der Keynote nicht viel dazu gesagt. Warum weiß man doch jetzt. Die Karten waren von vielen Herstellern vor Ort und liefen sogar live. Termin wann vorgestellt wird ist bekannt... Preise können erahnt werden... Leistung ist noch nicht ganz klar OK... Ist das jetzt so schlimm? Ein wenig mehr Geduld auch von Seiten der Presse wäre mMn angebracht...

Ich denke dazu muss man die ganze Sache verfolgt haben über die Woche. Hier mal ein Kurzabriss:

(1) Das Launch Video war ersteinmal voller Pannen (was peinlich ist und nicht passieren sollte). Echos, Dinge die ganz offensichtlich nicht geplant waren die eingeblendet wurden.
(2) Die Entfernung von FSR4 war sichtbar übereilt und ungründlich. Immerhin wurde im CES Video in einem der Sequenzen vom "bereits vorgestellten" FSR4 (und nein das war noch nicht vorgestellt -> ???) im Zusammenhang mit COD6 gesprochen. Plus: siehe (5)+(6)
(3) Im darauf folgenden Q&A (CB hat berichtet, viele andere websites auch, der8auer und Daniel Owen haben es auch kommentiert) wurde gesagt RDNA4 wurde nicht präsentiert, weil nicht genug Zeit da war (zu dem Zeitpunkt wurde die Wahrheit - nämlich, dass man das kurzfristig raus genommen hat noch verschwiegen und nur diese Ausrede genutzt)
(4) Die slides die es zu dem Q&A gab (die dann auch von allen outlets publiziert wurden) waren voller Uneindeutigkeiten.
(5) Auf der Booth von AMD gab es völlig überraschend (obwohl zu dem Zeitpunkt noch nicht vorgestellt) FSR4 zu sehen und wurde kurzer Hand in "AMDs Research Projekt" umbenannt und wenn man das DF Video sieht, kann man klar erkennen, dass das nicht glaubwürdig wirkte.
(6) Trotz verschobenen Launch stellen die Boardpartner Karten aus - von einem nicht gelaunchten Produkt.

Ein Haufen von Dingen, die offenbar auf dem originalen Launch aufbauten blieben erhalten, wirkten aber komisch und nicht selbsterklärend ohne das Segment zu RDNA4. Und erst am Do/Fr wurde dann endlich Klartext gesprochen von Frank Azor. Also war es doch das Abwarten auf den Wettbewerber.

Wenn Dinge uneindeutig, sich widersprechen und pannenhaft sind, ist das nicht gerade ein Maßstab für gute Kommunikation mit der Öffentlichkeit und den Medien. Und das erweckt nicht unbedingt Zuversicht. Auf youtube haben sich einige der großen Influencer darüber schon lustig gemacht. Und das ist nicht unbedingt gut für AMD.
All das wäre nicht passiert, wenn man das Segment zwar gestrichen hätte aber gleich am Montag straight gesagt hätte, warum und btw ihr könnt euch bei den Partnern Karten anschauen und FSR4 bei uns. Das hätte jedem eingeleuchtet.

robbitop
2025-01-11, 13:02:23
Hohoho, eine Ansage:

AMD fires back at Radeon RX 9070 leaks: performance will be better than reported
https://videocardz.com/?post_type=pixel&p=194237
Was zu den 3DMark Leaks passt wo man bei der XTX liegt. Ich denk, dass wir alle überrascht worden sind und AMD seit Monaten die Leaker gut an der Nase herumgeführt hat. ^^

fondness
2025-01-11, 13:04:15
Stimmt. Deswegen hat man Jahre mit FSR 2 verschwendet. ;D

Gar nichts zu bringen war damals keine Alternative. Aber deshalb muss man jetzt nicht neues Zeug rück portieren.

fondness
2025-01-11, 13:05:06
Was zu den 3DMark Leaks passt wo man bei der XTX liegt. Ich denk, dass wir alle überrascht worden sind und AMD seit Monaten die Leaker gut an der Nase herumgeführt hat. ^^

Ist die Frage ob die 3dmark leaks schon die volle Leistung zeigen. Auch die waren immerhin pre CES. Siehe Artikel.

If there's any leak that comes to mind prior to CES is the Chiphell rumor, while the series were still known as RX 8800. It claimed ray-tracing performance comparable to the RTX 4080/4080S and overall performance at the level of the Radeon 7900 XT. If the RX 9070 series performs better, AMD might have something really good coming for gamers.

Aber ich gehe auch mal davon aus, dass die 3dmark leaks schon die wahre Leistung zeigen.

Troyan
2025-01-11, 13:09:54
Gar nichts zu bringen war damals keine Alternative. Aber deshalb muss man jetzt nicht neues Zeug rück portieren.

Also Verschwendung ist gut, wenn man damit billige Propaganda betreiben kann? Aber Verschwendung ist schlecht, wenn man damit der einigen Käuferschicht einen positiven Effekt liefert?

Immerhin sind die Prioritäten bei AMD gesetzt. Vergessen wir auch nicht die bezahlten Publisher und Entwickler, die FSR 2 und kein DLSS eingebaut haben.

fondness
2025-01-11, 13:11:10
Also Verschwendung ist gut, wenn man damit billige Propaganda betreiben kann? Aber Verschwendung ist schlecht, wenn man damit der einigen Käuferschicht einen positiven Effekt liefert?

Immerhin sind die Prioritäten bei AMD gesetzt. Vergessen wir auch nicht die bezahlten Publisher und Entwickler, die FSR 2 und kein DLSS eingebaut haben.

:facepalm:

The_Invisible
2025-01-11, 13:19:29
Hohoho, eine Ansage:

AMD fires back at Radeon RX 9070 leaks: performance will be better than reported
https://videocardz.com/?post_type=pixel&p=194237

Naja Marketingansage, Jensen sagt auch rtx5070 = rtx4090

dildo4u
2025-01-11, 13:27:34
Die meisten haben nicht erwartet das sie Strom wie die 7900XTX zieht daher waren die Erwartungen niedrig.

Linmoum
2025-01-11, 13:31:29
Hohoho, eine Ansage:

AMD fires back at Radeon RX 9070 leaks: performance will be better than reported
https://videocardz.com/?post_type=pixel&p=194237Nach dem RDNA3-Desaster und AMDs Ankündigungen damals sollte man deren GPU-Marketing gar nichts mehr glauben, bis es handfestes gibt.

Ravenhearth
2025-01-11, 13:32:56
Wie gesagt: 7900 XTX wäre schön (zu schön?). Verglichen mit RDNA3 Karten zum ähnlichen Preispunkt ist die wahrscheinlichste Auflösung ;)
Es gibt verschiedene Indizien, die darauf hinweisen, dass die Performance nicht nur leicht besser wird als die 7900 GRE:

1. Die Die-Size ist deutlich größer als vorher angenommen. Bei den 270mm² wurde GRE-Performance als realistisch eingeschätzt. Jetzt wo das Die 40% größer ist als gedacht, warum sollte die erwartbare Leistung nicht auch 40% höher sein? Auch der Vergleich mit N32 lässt das vermuten. Monolithisch und in 4nm wäre der geschätzt bei ca. 300mm². Wieso soll bei +30% Flche nur ein bisschen mehr Performance rauskommen? So viel Fläche brauchen RT und AI eigentlich nicht alleine. AMD spricht von mehr IPC der CUs, was zusammen mit 20% mehr Takt, dem monolithischen Design (bessere Latenz) und mehr Einheiten ggü N32 durchaus für +50% Leistung reichen könnte.

2. Der Verbrauch ist mit 330W 32% über der 7800 XT. Es gibt keinen Grund anzunehmen, dass die Effizienz schlechter wird, ganz im Gegenteil. Durch den monolithischen Chip spart man Energie, die man anderweitig investieren kann. Außerdem sind die 330W nur 20W unter der 7900 XTX. Ich denke nicht, dass AMD den Chip so hoch prügelt, nur um dann 25% unter der XTX zu landen. Ich denke im Worst Case ist die Perf/W gleich "gut" und man landet bei der Performance 5% unter der XTX.

3. AMD sagt selber, dass die Performance besser wird als vorher gemeldet. Wobei man solche Aussagen natürlich auch mit Vorsicht genießen sollte.

Troyan
2025-01-11, 13:34:01
:facepalm:

Na, fällt dir selbst auf, wie dumm deine Aussage war?
AMD hat genug Ressourcen. Man diese nur jahrelang verschwendet für etwas, was man ja jetzt fröhlich zerpflücken kann.

Klar für dich natürlich nicht zu erkennen, weil du hier jahrelang den FSR 2 Rotz beworben hast. Aber kannst gerne darlegen, wieso FSR 4 toll wäre, wenn FSR 2 es schon war.

Sowas von vor sechs Monaten sagt genug aus:
Ich habs doch sogar erwähnt, man hätte FSR 2.x und FSR3.0 FG parallel entwickeln können.

Und nochmal: Ich sage nicht, dass es so ist. Aber einfach mal pauschal zu sagen weil jemand NN verwendet ist sowieso alles besser und überlegen ist zu kurz gegriffen.

Naja, immerhin hast du es wohl nun auch akzeptiert, dass ein NN "besser und überlegen" ist.

/edit: Nicht zu vergessen, die haben FSR 3.1 ebenfalls vor Monaten in Ratchet als Verbesserung gezeigt. Hätte man sich komplett sparen und die Ressourcen in vernünftigen FSR 4 Support für Altbesitzer investieren können.

prinz_valium_2
2025-01-11, 13:40:06
Ich werde nicht dem Hype Train verfallen.
Aber wenn die Karte wirklich an eine 7900XTX in Raster ran kommt (oder sogar übertrifft) und es massive Verbesserungen bei RT und ML noch oben drauf gibt, wird das Teil gekauft bei einem vernünftigen Preis.

5070TI gibt es ja leider nur als Custom Modelle und unter 900€ erwarte ich da nichts.
5080FE wird es auch niemals unter UVP geben. Das ist schließlich das Modell mit der besten Kühllösung.



Selbst 699€ für eine 7090XT mit entsprechender Leistung wäre noch vollkommen im Rahmen, wenn die 5070 nur 50€ drunter liegt.

davidzo
2025-01-11, 13:41:20
All das wäre nicht passiert, wenn man das Segment zwar gestrichen hätte aber gleich am Montag straight gesagt hätte, warum und btw ihr könnt euch bei den Partnern Karten anschauen und FSR4 bei uns. Das hätte jedem eingeleuchtet.

Und man hätte ein Datum für das RDNA4 Launch Event kommunizieren sollen.

Das ist einfach schlechtes Management von demjenigen der kurzfristig den Launch verschoben hat um auf nvidia zu warten. Wenn das eh in ein paar Wochen passieren soll, wieso dann den Termin weiterhin geheim halten? Keinen Termin zu nennen wirkt nach außen als wenn das Produkt schwerwiegende Bugs hat zu deren Analyse und Fix man eine unbestimmte Zeitspanne braucht.

Es gibt sonst keinen plausiblen Grund den Termin für das Launch Event nicht zu nennen. Die Partnerkarten sind fertig, nvidia launcht bis dahin sowieso und ein Launchevent muss ja auch nicht zwangsläufig mit Sofortverfügbarkeit einher gehen. Man hätte sich also durchaus auf einen Termin festlegen können.

Das sieht jetzt aus als wäre man nicht vorbereitet, hätte vergessen eine Event Location zu mieten und rechtzeitig die Presse einzuladen.

Man will offensichtlich nochmal das Power Target und BIOS anpassen um die nvidia 5070 zu matchen. Sowas kann man mit guter Organisation aber aber auch in einem vordefinierten Zeitplan noch machen. Sich aus diesem Grund noch nicht auf Termine festzulegen wirkt als wenn die zuständigen Produktmanager mit ihrer Aufgabe überfordert sind, den Kopf in den Sand stecken und prokrastinieren.

robbitop
2025-01-11, 13:44:06
Es gibt verschiedene Indizien, die darauf hinweisen, dass die Performance nicht nur leicht besser wird als die 7900 GRE:

1. Die Die-Size ist deutlich größer als vorher angenommen. Bei den 270mm² wurde GRE-Performance als realistisch eingeschätzt. Jetzt wo das Die 40% größer ist als gedacht, warum sollte die erwartbare Leistung nicht auch 40% höher sein? Auch der Vergleich mit N32 lässt das vermuten. Monolithisch und in 4nm wäre der geschätzt bei ca. 300mm². Wieso soll bei +30% Flche nur ein bisschen mehr Performance rauskommen? So viel Fläche brauchen RT und AI eigentlich nicht alleine. AMD spricht von mehr IPC der CUs, was zusammen mit 20% mehr Takt, dem monolithischen Design (bessere Latenz) und mehr Einheiten ggü N32 durchaus für +50% Leistung reichen könnte.

2. Der Verbrauch ist mit 330W 32% über der 7800 XT. Es gibt keinen Grund anzunehmen, dass die Effizienz schlechter wird, ganz im Gegenteil. Durch den monolithischen Chip spart man Energie, die man anderweitig investieren kann. Außerdem sind die 330W nur 20W unter der 7900 XTX. Ich denke nicht, dass AMD den Chip so hoch prügelt, nur um dann 25% unter der XTX zu landen. Ich denke im Worst Case ist die Perf/W gleich "gut" und man landet bei der Performance 5% unter der XTX.

3. AMD sagt selber, dass die Performance besser wird als vorher gemeldet. Wobei man solche Aussagen natürlich auch mit Vorsicht genießen sollte.
edit: Das passt allerdings nicht zu den 3DMark Benchmarks, die auf der CES durchgeführt wurden.
Auch passt die Chipgröße und die Aussagen von Frank Azor nicht mehr dazu.

Ravenhearth
2025-01-11, 13:48:36
Das passt allerdings nicht zu den 3DMark Benchmarks, die auf der CES durchgeführt wurden.
Auch passt die Chipgröße und die Aussagen von Frank Azor nicht mehr dazu.
Wieso? Im 3DMark lag man doch auf Höhe der 7900 XTX. :confused:
Ich argumentiere doch, dass eine mit der XTX vergleichbare Leistung aufgrund von Chipfläche und Verbrauch wahrscheinlich ist.

why_me
2025-01-11, 13:52:32
:facepalm:

Mal ehrlich, hast du was anderes erwartet?

Hakim
2025-01-11, 13:57:03
Hohoho, eine Ansage:

AMD fires back at Radeon RX 9070 leaks: performance will be better than reported
https://videocardz.com/?post_type=pixel&p=194237

Ja aber das wissen wir doch jetzt schon seit 1-2 Tagen. Vorher wurde ja mit ~7900 GRE Performance und ~270mm Chip gerechnet.

fondness
2025-01-11, 14:01:28
Mal ehrlich, hast du was anderes erwartet?

Ich habe mir eingebildet, dass ich im Ansatz sinnvolle Aussagen von Troyan erahnen konnte. Man kann sich auch mal irren. :D

fondness
2025-01-11, 14:02:16
Ja aber das wissen wir doch jetzt schon seit 1-2 Tagen. Vorher wurde ja mit ~7900 GRE Performance und ~270mm Chip gerechnet.

Ja ich denke auch. Die 3dmark Werte sollten aber die korrekte Performance zeigen.

AffenJack
2025-01-11, 14:06:19
Ja ich denke auch. Die 3dmark Werte sollten aber die korrekte Performance zeigen.

Das denke ich auch. Dürfte auf Raster zwischen Xt und XTX landen und RT XTX oder drüber bei höherer RT Last.

OgrEGT
2025-01-11, 14:09:07
Ich denke dazu muss man die ganze Sache verfolgt haben über die Woche. Hier mal ein Kurzabriss:

(1) Das Launch Video war ersteinmal voller Pannen (was peinlich ist und nicht passieren sollte). Echos, Dinge die ganz offensichtlich nicht geplant waren die eingeblendet wurden.
(2) Die Entfernung von FSR4 war sichtbar übereilt und ungründlich. Immerhin wurde im CES Video in einem der Sequenzen vom "bereits vorgestellten" FSR4 (und nein das war noch nicht vorgestellt -> ???) im Zusammenhang mit COD6 gesprochen. Plus: siehe (5)+(6)
(3) Im darauf folgenden Q&A (CB hat berichtet, viele andere websites auch, der8auer und Daniel Owen haben es auch kommentiert) wurde gesagt RDNA4 wurde nicht präsentiert, weil nicht genug Zeit da war (zu dem Zeitpunkt wurde die Wahrheit - nämlich, dass man das kurzfristig raus genommen hat noch verschwiegen und nur diese Ausrede genutzt)
(4) Die slides die es zu dem Q&A gab (die dann auch von allen outlets publiziert wurden) waren voller Uneindeutigkeiten.
(5) Auf der Booth von AMD gab es völlig überraschend (obwohl zu dem Zeitpunkt noch nicht vorgestellt) FSR4 zu sehen und wurde kurzer Hand in "AMDs Research Projekt" umbenannt und wenn man das DF Video sieht, kann man klar erkennen, dass das nicht glaubwürdig wirkte.
(6) Trotz verschobenen Launch stellen die Boardpartner Karten aus - von einem nicht gelaunchten Produkt.

Ein Haufen von Dingen, die offenbar auf dem originalen Launch aufbauten blieben erhalten, wirkten aber komisch und nicht selbsterklärend ohne das Segment zu RDNA4. Und erst am Do/Fr wurde dann endlich Klartext gesprochen von Frank Azor. Also war es doch das Abwarten auf den Wettbewerber.

Wenn Dinge uneindeutig, sich widersprechen und pannenhaft sind, ist das nicht gerade ein Maßstab für gute Kommunikation mit der Öffentlichkeit und den Medien. Und das erweckt nicht unbedingt Zuversicht. Auf youtube haben sich einige der großen Influencer darüber schon lustig gemacht. Und das ist nicht unbedingt gut für AMD.
All das wäre nicht passiert, wenn man das Segment zwar gestrichen hätte aber gleich am Montag straight gesagt hätte, warum und btw ihr könnt euch bei den Partnern Karten anschauen und FSR4 bei uns. Das hätte jedem eingeleuchtet.
Aus meiner Sicht mehr oder weniger kleinkarierte Rummäkelei... Entscheidend ist was die Karten nachher können... darauf sollte man doch warten können...

why_me
2025-01-11, 14:16:44
Ich habe mir eingebildet, dass ich im Ansatz sinnvolle Aussagen von Troyan erahnen konnte. Man kann sich auch mal irren. :D

In einem AMD thread? Dafür bist du doch schon zu lange dabei

horn 12
2025-01-11, 14:29:35
Bei AMD Homepage
würde da nicht mehr Lagernd
das Ganze 7900 Portfolia aus dem Shop genommen
und wohl alles durch die 9000-er Serie ersetzt werden.

Sprechen von 5 bis Max. 10% über einer 7900XTX (Customs mit 3x 8 Pin)
und dies wäre fast 5080-er Performance...
Raytracing gar 20 bis 25% darüber als XTX.

Da sticht man NV diesesmal aber sowas von aus!

dildo4u
2025-01-11, 14:31:47
Ich dachte die 3D Mark Werte waren mit 330 Watt dort war sie langsamer in Raster als XTX damit kommt man nicht auf 5080 Level.

Eine 5080 hat massiv mher Bandbreite Nvidia verbaut nicht aus Spaß GDDR7.

fondness
2025-01-11, 14:35:35
Wenn man die 5070Ti erreicht, wäre das schon ziemlich gut. Gerade auch ohne GDDR7.

dildo4u
2025-01-11, 14:38:14
Hoffentlich wenn sie mehr Strom braucht.

Wird eine Aufgabe hat fast 900GB/sec Bandbreite.

https://www.techpowerup.com/gpu-specs/geforce-rtx-5070-ti.c4243

fondness
2025-01-11, 14:43:01
Hoffentlich wenn sie mehr Strom braucht.

330W waren nur IHV-Modelle, default dürfte niedriger sein. Dazu ist auch die Die-Size vergleichbar zur 5070Ti und wie gesagt es fehlt einiges an Bandbreite ohne GDDR7. Preis dürfte eher unter der 5070Ti liegen. Wenn man unter diesen Vorzeigen die 5070Ti erreicht wäre das ziemlich gut.

Ravenhearth
2025-01-11, 14:48:33
Die Die-Size ist auch vergleichbar zur 5080, ist derselbe Chip ;) Aber ja, mit dem Salvage in Form der 5070 Ti müsste man sich anlegen können.

Hakim
2025-01-11, 14:49:15
Ob die Karte sehr gut mit VRam OC reagiert? 330W würde ich nicht laufen lassen wollen, maximal 280-300W.

fondness
2025-01-11, 14:49:57
Die Die-Size ist auch vergleichbar zur 5080, ist derselbe Chip ;) Aber ja, mit dem Salvage in Form der 5070 Ti müsste man sich anlegen können.

Ah okay, das wusste ich nicht. Trotzdem würde ich das noch immer als Erfolg werten. Man muss jetzt auch nicht erwarten, dass man Nvidia in jeder Disziplin schlägt. :D

dildo4u
2025-01-11, 14:50:00
Gigabyte OC Boost 2.97Ghz mit einer 2x8 Pin Karte.


https://videocardz.com/newz/retailer-in-philippines-lists-radeon-rx-9070-xt-with-4096-cores-2-97-ghz-boost-at-600

robbitop
2025-01-11, 15:03:14
Wieso? Im 3DMark lag man doch auf Höhe der 7900 XTX. :confused:
Ich argumentiere doch, dass eine mit der XTX vergleichbare Leistung aufgrund von Chipfläche und Verbrauch wahrscheinlich ist.
Hab mich verlesen - habe mein Posting editiert. :)

Aus meiner Sicht mehr oder weniger kleinkarierte Rummäkelei... Entscheidend ist was die Karten nachher können... darauf sollte man doch warten können...
Dagegen habe ich auch nichts gesagt. Du hast aber gefragt was an AMDs Kommunikation nicht in Ordnung war und das habe ich beschrieben. ;)

Wiseman
2025-01-11, 15:06:01
Was genau gibt es denn zu AMDs Kommunikation zu kritisieren?
Ja gut sie haben bei der Keynote nicht viel dazu gesagt. Warum weiß man doch jetzt. Die Karten waren von vielen Herstellern vor Ort und liefen sogar live. Termin wann vorgestellt wird ist bekannt... Preise können erahnt werden... Leistung ist noch nicht ganz klar OK... Ist das jetzt so schlimm? Ein wenig mehr Geduld auch von Seiten der Presse wäre mMn angebracht...

Fast nichts, aber das ist doch denen egal, die eh keine AMD-Karte kaufen. Hauptsache man schaut hier täglich rein, um sich über AMD zu mokieren.

GerryB
2025-01-11, 15:15:18
btw.
Der Alpha-Treiber, den die TSE+SW-Leaker hatten, scheint gar net so übel zu sein, wenn die olle 7900xtx damit beachtlich zulegt.
Dementspr. wird wohl auch die Performance der 9070xt schon relativ gut passen.(+330W ?)
Nur die ersten Leaks zu TS+PR sind evtl. nicht so passend, was Azor dann meinte.(+260W ?)

Die Reviewer sollten auf jeden Fall die Grakas in der Range mit dem aktuellenNV bzw. N48-Launchtreiber gegentesten und bitte nicht weiter uralte Scores verwenden.

Hakim
2025-01-11, 15:17:26
Man hätte einfach in 2-3 Sätzen Kurz erklären können das man RDNA4 eine eigene Presentation in Kürze geben wird um dem Produkt gerecht zu werden, statt es in einem Satz mit "FSR4 and RDNA4, more later this quarter" abzutun. Das kann man schon kritisieren, auch da viele wegen der Karte reingeschaut haben

OgrEGT
2025-01-11, 15:21:50
Fast nichts, aber das ist doch denen egal, die eh keine AMD-Karte kaufen. Hauptsache man schaut hier täglich rein, um sich über AMD zu mokieren.
So ist es leider... keine Ahnung warum...

OgrEGT
2025-01-11, 15:24:53
Man hätte einfach in 2-3 Sätzen Kurz erklären können das man RDNA4 eine eigene Presentation in Kürze geben wird um dem Produkt gerecht zu werden, statt es in einem Satz mit "FSR4 and RDNA4, more later this quarter" abzutun. Das kann man schon kritisieren, auch da viele wegen der Karte reingeschaut haben
Was macht das für einen Unterschied... die Präsentation war ja nicht zu nachtschlafender Zeit...

Hakim
2025-01-11, 15:29:43
Es waren einfach alle richtig enttäuscht, selbst so große AMD fan wie horn war abgefuckt. Dazu sehr viele Berichte und YT vids die negativ berichtet haben. Warum wenn es unnötig war? Sowas kann und sollte man kritisieren.

madzapp
2025-01-11, 15:33:25
Aber wie es scheint haben sie einen ordentlichen Fokus auf ihre Karten gezogen.
Der ganze Rummel wegen enttäuscht und man kann wieder lästern ist evtl. Gold wert. Natürlich müssen sie jetzt tatsächlich ordentlich was abliefern.
Zur CES wäre das ganze eher untergegangen.

OgrEGT
2025-01-11, 15:34:18
Da bin ich eben anderer Meinung und stehe dem gelassen gegenüber und warte ab...

Wiseman
2025-01-11, 15:39:58
btw.
Der Alpha-Treiber, den die TSE+SW-Leaker hatten, scheint gar net so übel zu sein, wenn die olle 7900xtx damit beachtlich zulegt.
Dementspr. wird wohl auch die Performance der 9070xt schon relativ gut passen.(+330W ?)
Nur die ersten Leaks zu TS+PR sind evtl. nicht so passend, was Azor dann meinte.(+260W ?)

Die Reviewer sollten auf jeden Fall die Grakas in der Range mit dem aktuellenNV bzw. N48-Launchtreiber gegentesten und bitte nicht weiter uralte Scores verwenden.

Oha. Da könnte ich ja meine olle XTX behalten. :biggrin:

@ Hakim

Man hätte einfach in 2-3 Sätzen Kurz erklären können das man RDNA4 eine eigene Präsentation in Kürze geben wird um dem Produkt gerecht zu werden


Da gebe ich dir recht. Deshalb formulierte ich weiter oben: "Fast nichts."

Hatstick
2025-01-11, 15:57:52
Mich irritiert ein bisschen die Aussage, das AMD den Sweetspot der Gamer bei maximal 1000€ sieht.
Ich hoffe, das es auf spätere Modelle bezogen ist und nicht auf eine 600€ 9070XT. :freak:

Wiseman
2025-01-11, 16:00:58
Aber wie es scheint haben sie einen ordentlichen Fokus auf ihre Karten gezogen.
Der ganze Rummel wegen enttäuscht und man kann wieder lästern ist evtl. Gold wert. Natürlich müssen sie jetzt tatsächlich ordentlich was abliefern.
Zur CES wäre das ganze eher untergegangen.

Stimmt. Das dürfte der eigentliche Grund gewesen sein. Ich glaube, AMD hat es auch so in den "After-the Keynotes" Diskussionsrunden mit Presseleuten so kommuniziert.

Und um mal meine persönliche Stimmungslage zum Ausdruck zu bringen: Bisher hat mich dieser 9070-Mittelklasse-Launch nicht besonders interessiert. Warum sollte ich eine 24GB-Grafikkarte durch eine 16GB-Grafikkarte ersetzen? Aber nach den neuesten "Enthüllungen" :biggrin: komme ich allmählich doch ins Grübeln. Naja, man wird sehen. Dauert ja nicht mehr lange.

BlacKi
2025-01-11, 16:13:50
Mich irritiert ein bisschen die Aussage, das AMD den Sweetspot der Gamer bei maximal 1000€ sieht.
Ich hoffe, das es auf spätere Modelle bezogen ist und nicht auf eine 600€ 9070XT. :freak:meinst du nicht eher dollar? denn die unterschiede sind nichtmehr nahezu 1 zu 1.

madzapp
2025-01-11, 17:01:46
Stimmt. Das dürfte der eigentliche Grund gewesen sein. Ich glaube, AMD hat es auch so in den "After-the Keynotes" Diskussionsrunden mit Presseleuten so kommuniziert.

Und um mal meine persönliche Stimmungslage zum Ausdruck zu bringen: Bisher hat mich dieser 9070-Mittelklasse-Launch nicht besonders interessiert. Warum sollte ich eine 24GB-Grafikkarte durch eine 16GB-Grafikkarte ersetzen? Aber nach den neuesten "Enthüllungen" :biggrin: komme ich allmählich doch ins Grübeln. Naja, man wird sehen. Dauert ja nicht mehr lange.

16GB sind jetzt offiziell mittelklasse. :freak: Indiana Jones ballert die ja gut voll und nach Hogwarts hat es auch nicht lange gedauert bis 12GB mitteklasse wurden.
Ich würde auf einen 32GB Refresh im Januar 26 hoffen. Das wäre eine würdige Nachfolgerin.

Hatstick
2025-01-11, 17:17:09
meinst du nicht eher dollar? denn die unterschiede sind nichtmehr nahezu 1 zu 1.

Ok, auf Dollar gerechnet nicht 1:1 aber immer noch viel zu teuer.
Für unter 700€ hatten wir die 9070XT ja schon in Form der 7900XT.

Vielleicht wird man ja doch noch positiv überrascht.

DrFreaK666
2025-01-11, 18:12:21
Die ganzen Gerüchte gehen mir langsam auf den Sack. Ich will endlich eine Karten kaufen dürfen

Prinzenrolle
2025-01-11, 18:52:34
Sieht doch langsam besser aus als gedacht. Die Hoffnung auf einen günstigen Preis stirbt zuletzt.

fizzo
2025-01-11, 18:59:38
RX 9070XT gelistet (https://videocardz.com/newz/retailer-in-philippines-lists-radeon-rx-9070-xt-with-4096-cores-2-97-ghz-boost-at-600). Mittlerweile interssiert mich fast mehr wo die 9070 zu liegen kommt - Preis/Leistung. Könnte für mich schon ausreichend sein.

Wiseman
2025-01-11, 19:00:46
16GB sind jetzt offiziell mittelklasse. :freak: Indiana Jones ballert die ja gut voll und nach Hogwarts hat es auch nicht lange gedauert bis 12GB mitteklasse wurden.
Ich würde auf einen 32GB Refresh im Januar 26 hoffen. Das wäre eine würdige Nachfolgerin.

32 GB! Da wär dann wahrscheinlich auch gedi dabei, der mit den Treibern für seine aktuelle 4090 überhaupt nicht zufrieden ist. Ich wäre wahrscheinlich auch dabei. Allerdings gibt es bis dato für eine 32GB-Version nicht den Hauch einer Andeutung von Seiten AMDs.

Und auch horn wär dabei. Stimmts, horn. :wink:

madzapp
2025-01-11, 19:06:09
RX 9070XT gelistet (https://videocardz.com/newz/retailer-in-philippines-lists-radeon-rx-9070-xt-with-4096-cores-2-97-ghz-boost-at-600). Mittlerweile interssiert mich fast mehr wo die 9070 zu liegen kommt - Preis/Leistung. Könnte für mich schon ausreichend sein.

582€:eek:

dargo
2025-01-11, 19:08:50
RX 9070XT gelistet (https://videocardz.com/newz/retailer-in-philippines-lists-radeon-rx-9070-xt-with-4096-cores-2-97-ghz-boost-at-600). Mittlerweile interssiert mich fast mehr wo die 9070 zu liegen kommt - Preis/Leistung. Könnte für mich schon ausreichend sein.
Guten Morgen. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13682040&postcount=4885

madzapp
2025-01-11, 19:09:19
Allerdings gibt es bis dato für eine 32GB-Version nicht den Hauch einer Andeutung von Seiten AMDs.


Mit "soo much AI" könnte das als refresh kommen. Wie 7600 xt nur verschiedene Klassen diesmal.
Ein Mann wird doch noch träumen dürfen. :smile:

@dargo
logisch woher sollten die das wissen

The_Invisible
2025-01-11, 19:17:48
582€:eek:

Heißt das die 79xtx sinkt unter diesem Preis? Bin ja gespannt wo AMD diese Karte im vorhandenen Portfolio einordnet.

horn 12
2025-01-11, 19:24:24
Aber immer doch @Wissemann
Habe Grippe und Fieber ,- geht jetzt da wo es ratsam ist.

dargo
2025-01-11, 19:37:58
Heißt das die 79xtx sinkt unter diesem Preis? Bin ja gespannt wo AMD diese Karte im vorhandenen Portfolio einordnet.
Wofür? Wenn die 9070XT in die Nähe der 7900XTX kommt wird letztere eingestellt. Es macht überhaupt keinen Sinn diese weiter zu produzieren wenn erstere deutlich günstiger herzustellen ist.

gas3t
2025-01-11, 20:07:58
Ich denke mittlerweile ebenfalls, dass nicht nur die RX 7900 XT abgelöst wird, sondern auch die RX 7900 XTX. Der Abverkauf wird natürlich eine Weile parallel laufen, da 24 GB immer noch ein Zugfaktor ist.

Wenn die bisherigen Leaks in etwa stimmen, dann landet die RX 9070 XT bei Raster auf RX 7900 XTX Niveau (bzw. leicht darunter) und bei Raytracing darüber (plus dem FSR4 Vorteil). Dafür ist sie um einiges günstiger in der Herstellung (kleinerer Chip, Monolith-Design, 16 GB statt 24 GB). Die Marge ist für AMD wesentlich besser und so können sie den MSRP um einiges reduzieren.

Meine Schätzung sind immer noch 699€ für die RX 9070 XT MBA. Die Customs sollten dann zwischen 749 und 899 € landen. Günstiger sehe ich als nicht realistisch an, da NVIDIA 879 € für die 5070TI ansetzt und wir werden am Anfang kaum eine TI unter 1000€ sehen (da hohe Nachfrage).

raffa
2025-01-11, 20:10:05
Ist ne 24GB version nicht machbar, keine 3GB Module in Sicht?

dargo
2025-01-11, 20:12:57
Ist ne 24GB version nicht machbar, keine 3GB Module in Sicht?
Nicht mit GDDR6.

gas3t
2025-01-11, 20:15:13
Ist ne 24GB version nicht machbar, keine 3GB Module in Sicht?

Gute Frage. Laut Gerüchten soll die RX 9000 Serie auch mit GDDR7 umgehen können. Vielleicht bringt AMD in einem halben Jahr eine RX 9080 mit GDDR7 und 24 GB.

gedi
2025-01-11, 22:42:04
Nicht mit GDDR6.

Das Interface kann GDDR7! Von daher abwarten... Aber da im etwa die Performance einer 4080 rumkommt, machen da 24, oder 32GB Sinn?

Allerdings würde ich mich aufgrund der kolportierten Performance-Werte in den Hintern beißen, warum ich mit RDNA4 nicht in die vollen gegangen bin. Erst hat es Intel bei den CPUs verkackt und nu NV mit Blackwell.

raffa
2025-01-11, 22:54:41
Nun, es gibt Leute, die zahlen gerne aweng mehr für mehr vram. Der Chip muss erstmal liefern, aber dann spricht nicht viel dagegen auch eine Version mit dickerer Austattung zu bringen. Auch "gamer" zocken ja nicht nur. KI kram, mods, entwickeln... mehr ram schadet selten : )

Tja was die Entscheidung betrifft, kein high end zu bauen, ist es halt schwer abzuschätzen, ob der move gut war oder schlecht. Lieber eine sehr gute 70er Serie, als so halbgares wie bei rdna3, oder nicht?

ChaosTM
2025-01-11, 23:09:47
16Gb sehe ich im mittleren bis unteren Bereich nicht als "problematisch" an.

24+ machen erst ab 4k Sinn und da werden/sind sie jetzt schon relevant (Indy, Fs2024)

GerryB
2025-01-11, 23:11:26
Das Interface kann GDDR7!
Quelle?


warum ich mit RDNA4 nicht in die vollen gegangen bin.
9070xt@330W vs 5070Ti@300W
(da wäre ein Superrefresh@330W+749€ easy, ... oder ne 5080TiS vom großen Chip mit 450W <1500€)

Das Rennen kann man schlecht gewinnen, wenn NV dagegen halten will und vor Allem auch bisher easy konnte mit
nem Refresh+Preisnachlass nach nem Jahr.
Ob AMD mal ne 9075xt mit kleinen Verbesserungen+GDDR7 bringen kann ala 6x50er, mal schauen.
(würde nur Sinn machen, falls UDNA zu lange Zeit in der Entwicklung braucht)

Derzeit scheint die Lücke zw. 5070 und 5070Ti groß genug zu sein, das AMD sich austoben kann + Marktanteile gewinnen.
(vermutlich darunter auch, wenn ne 5060Ti-16/12/8GB wieder restlos überteuert ist)

Lawmachine79
2025-01-12, 00:50:17
Gute Frage. Laut Gerüchten soll die RX 9000 Serie auch mit GDDR7 umgehen können. Vielleicht bringt AMD in einem halben Jahr eine RX 9080 mit GDDR7 und 24 GB.

Wäre ein guter Konter zur 5060Ti, die es dann gibt. Ist nur etwas overmuscled beim VRAM.

GerryB
2025-01-12, 00:58:06
5060Ti vs 9080 = ???
ist da nicht die 5060Ti an ganz anderer Stelle/Rohleistung undermuscled

Wiseman
2025-01-12, 02:46:59
Ich überprüfte mal anhand meiner Screenshots, in welchen Spielen ich in 4k + max Preset mehr als 16 GB VRAM benötigte:

- Call of Duty Black Ops 6: 22 GB
- Avatar FoP: 21.4 GB
- Ratchet & Clank: 18.6 GB
- Star Wars Outlaws: 17.1 GB
- Dragon Age The Veilguard: 17 GB

Altehardware
2025-01-12, 05:09:26
amd handhabt das laden anders als nvidia.
Das muss amd auch tun da ansonsten die Bandbreite limitieren würde. Es ist stark vom Spie abhängig wieviel geladen wird.
Im falle von cod also iwtech9 lädt alles bis zum maximum was bei default Einstellung 90% sind das ist nötig da ansonsten die engine gerne Texturen nicht anzeigt oder es massive Ruckler gibt da man von HDD SSD lädt

dargo
2025-01-12, 06:32:14
16Gb sehe ich im mittleren bis unteren Bereich nicht als "problematisch" an.

Ich auch nicht. Schon die 24GB der 7900XTX waren nicht unbedingt nötig, haben sich halt aus dem SI ergeben. Ich gehe nicht davon aus, dass AMD bei RDNA4 mit mehr als 16GB kommt wenn das Ding auf Effizienz bei der Fertigung ausgelegt ist. Mehr wird es erst mit RDNA5 imo geben.


Tja was die Entscheidung betrifft, kein high end zu bauen, ist es halt schwer abzuschätzen, ob der move gut war oder schlecht. Lieber eine sehr gute 70er Serie, als so halbgares wie bei rdna3, oder nicht?
Wieso abschätzen? AMD hatte bei RDNA4 rechtzeitig die Handbremse bei High End gezogen als sie festgestellt haben, dass Multi-GCD im Gamingsektor noch nicht marktreif war. Sie hätten natürlich monolithisch eine fettere SKU bringen können. Aber dafür war es vermutlich schon zu spät innerhalb der RDNA4 Familie. Und ganz ehrlich... was hätten wir davon wenn AMD bei RDNA4 eine monolithische 500mm²+ SKU gebracht hätte? Auch wieder nur einen weiteren, ekelhaften Heizofen. Das gälte aber genauso für Multi-GCD, auch das wäre ein übler Heizofen. Einfach sich mal N48 x2 vorstellen. Selbst wenn du sowas dann über die Frequenzen stärker einbremst wird es eh unmöglich sein weit unter 500W zu kommen.


9070xt@330W vs 5070Ti@300W
(da wäre ein Superrefresh@330W+749€ easy, ... oder ne 5080TiS vom großen Chip mit 450W <1500€)

Da ist überhaupt nichts easy weil die 5070TI schon der Salvage GB203 ist. 5080TI wäre prinzipiell möglich, ist aber eher unwahrscheinlich. Dafür müsste NV GB202 nochmal salvagen und ohne Konkurrenz in diesem Segment wäre das reine Geldverschwendung ein 744mm² Die für <1500€ anzubieten wenn die das Ding woanders für wesentlich mehr Marge loswerden. Wobei ich NV zutrauen würde, dass die später wenn 3GB GDDR7 verfügbar ist einen GB203 mit 24GB und vielleicht +100Mhz oder so bringen. :D

Ich überprüfte mal anhand meiner Screenshots, in welchen Spielen ich in 4k + max Preset mehr als 16 GB VRAM benötigte:

- Call of Duty Black Ops 6: 22 GB
- Avatar FoP: 21.4 GB
- Ratchet & Clank: 18.6 GB
- Star Wars Outlaws: 17.1 GB
- Dragon Age The Veilguard: 17 GB
Andressiert, wenn 24GB vorhanden heißt nicht benötigt, solltest du eigentlich wissen. Zudem wird damit was Neueres kaum jemand im nativen 4k spielen sondern mit FSR4.

dargo
2025-01-12, 06:43:36
del

why_me
2025-01-12, 08:14:56
Wieso abschätzen? AMD hatte bei RDNA4 rechtzeitig die Handbremse bei High End gezogen als sie festgestellt haben, dass Multi-GCD im Gamingsektor noch nicht marktreif war. Sie hätten natürlich monolithisch eine fettere SKU bringen können. Aber dafür war es vermutlich schon zu spät innerhalb der RDNA4 Familie.

Mal eine ganz abgedrehte Spekulation (wenn auch sehr sehr unwahrscheinlich): AMD hat MCM doch gelöst bekommen und an den Gerüchten Navi48 = 2x Navi44 war doch etwas dran.
Aber anstatt zwei Chiplets + interposer baut man den Navi48 MCM monolithisch und verbindet die chips auf dem Wafer.
Je nachdem welche GPU man braut, schneidet man die Chips auseinander oder nicht.
Würde auch erklären warum der Chips größer ist als gedacht. Die Fläche für den Schnitt kommt noch dazu.
AMD würde ein Haufen Geld für die Masken sparen, kann sehr flexibel auf die Nachfrage reagieren.

Und ganz ehrlich, AMD hat schon öfters mit "kreativer" Fertigung überrascht.

dargo
2025-01-12, 08:18:40
Das macht für mich keinen Sinn denn in diesem Fall hätten wir auch 3x N44 oder 4x N44 gesehen.

GerryB
2025-01-12, 08:21:12
Da ist überhaupt nichts easy weil die 5070TI schon der Salvage GB203 ist.
???
mit 10% mehr Watt einfach den Takt um 10% anheben ist very easy für die 5070+Ti (x)
und den Preis um 150€ senken dito, weil@TSMC evtl. im 2.Jahr der Produktion preiswerter ist

(x) beide scheinen erstmal niedrig getaktet zu sein, ... und 10% mehr Gesamtwatt ist so ca. 15% mehr Watt für die Shader
wenn man für SOC+Vram nix ändert, die bei 75-100W lässt, dann geht die Watterhöhung voll in die Shader

btw.
obs bei der 5090 soviel Ausschuß gibt, das sich in nem Jahr ne 5080Ti davon lohnt, mal sehen

BlacKi
2025-01-12, 08:28:25
Ich überprüfte mal anhand meiner Screenshots, in welchen Spielen ich in 4k + max Preset mehr als 16 GB VRAM benötigte:

- Call of Duty Black Ops 6: 22 GB
- Avatar FoP: 21.4 GB
- Ratchet & Clank: 18.6 GB
- Star Wars Outlaws: 17.1 GB
- Dragon Age The Veilguard: 17 GB
du hast belegung mit benötigt verwechselt. mach dir nichts draus, kann jedem mal passieren.

why_me
2025-01-12, 08:30:33
Das macht für mich keinen Sinn denn in diesem Fall hätten wir auch 3x N44 oder 4x N44 gesehen.

Kommt drauf an.
Wie du selbst sagt, viel größer macht wegen dem Verbrauch nicht viel Sinn.
Und wenn man z.B. eine Maske für N48 hat, die für N44 halb geschnitten wird, geht 3x N44 nicht so einfach.
Auch fraglich ob sich der Aufwand für einen noch breiteren Chip lohnt. Klar halo product, Marktanteile bekommt man davon aber kaum und ob es sich finanziell rechnet?

Aber wie gesagt, reine speku und sehr sehr unwahrscheinlich. Interessant wäre es aber schon. Und man könnte damit sehr aggressive Preise fahren.

OgrEGT
2025-01-12, 08:30:49
Kann man denn so klar die Grenze zwischen benötigt und belegt ziehen?

BlacKi
2025-01-12, 08:50:32
Kann man denn so klar die Grenze zwischen benötigt und belegt ziehen? die grafikkarte schon, dir bleiben nur gewisse metriken.

GerryB
2025-01-12, 08:55:56
Oft laufen Grakas mit viel Vram bezüglich der RAM-Belegung ruhiger.
Da werden 32GB dann länger reichen.

Grakas mit wenig Vram tendieren dazu den RAM stärker zu füllen.

Tarkin
2025-01-12, 08:57:24
Zwei Benchmark Leaks

Black Myth: Wukong

4080S
4K 33
2K 77
1080 99

XXXX XT(9070XT)
4K 30
2K 73
1080 97

2077 RT Overdrive, Native Res

4080S
4k 32
2k 65
1080p 101

4070 Ti S
4k 26
2k 53
1080p 87

XXXX xt
4k 26
2k 52
1080p 85


Quelle:https://x.com/9550pro/status/1878321019586589027 bzw Chiphell