Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
basix
2025-01-22, 22:09:15
FSR4 wird wohl ziemlich klar zusammen mit RDNA4 im März launchen.
https://x.com/McAfeeDavid_AMD/status/1882166390645203318
I really appreciate the excitement for RDNA4. We are focused on ensuring we deliver a great set of products with Radeon 9000 series. We are taking a little extra time to optimize the software stack for maximum performance and enable more FSR 4 titles. We also have a wide range of partners launching Radeon 9000 series cards, and while some have started building initial inventory at retailers, you should expect many more partner cards available at launch.
Wiseman
2025-01-22, 22:28:07
FSR4 wird wohl ziemlich klar zusammen mit RDNA4 im März launchen.
https://x.com/McAfeeDavid_AMD/status/1882166390645203318
Na da wartet man doch gerne noch zwei Monate. Nicht nur Call of Duty Black Ops 6 bekommt zum Start FSR4, sondern weitere Games.
aufkrawall
2025-01-22, 22:38:27
FSR4 wird wohl ziemlich klar zusammen mit RDNA4 im März launchen.
Kann auch mehr FSR 3.1-Spiele heißen, die dann über Treiber/DLL auf 4 "enabled" werden.
Die Wortwahl ist etwas sus, man hätte ja auch "FSR 4 shippen" sagen können.
Ex3cut3r
2025-01-22, 23:15:41
Ja, Nvidia ist technologisch vorne. Das heißt aber nicht, dass AMD nicht in Frage kommt.
Und warum genau kommt AMD (für dich) infrage? :smile:
Was können Sie besser als gleich/preis wertige Nvidia Karten? Bin gespannt.
crux2005
2025-01-22, 23:28:10
Wenn die QA bei AMD Grafikkarten in etwa so ist wie bei den CPUs, dann gute Nacht. So viel Geld um 2x oder mehr Grafikkarten zu kaufen habe ich nicht.
Hakim
2025-01-22, 23:44:03
Und warum genau kommt AMD (für dich) infrage? :smile:
Was können Sie besser als gleich/preis wertige Nvidia Karten? Bin gespannt.
Nun ja derzeit können wir nur Spekulieren, daher vermutlich wenn die 9070XT genau soviel kosten sollte wie die 5070: Vermutlich etwas bessere Raster Leistung, 16GB gegenüber 12GB, und wie schon geschrieben besserer Linux Support. Auf die schnelle so eingefallen.
dargo
2025-01-23, 06:54:35
YuGlXL3uKKQ
Kurz und schmerzlos. Angeblich Strategiewechsel bei AMD um ein fertiges Gesamtprodukt zu bringen, deshalb die Verschiebung.
OgrEGT
2025-01-23, 07:35:20
https://youtu.be/YuGlXL3uKKQ
Kurz und schmerzlos. Angeblich Strategiewechsel bei AMD um ein fertiges Gesamtprodukt zu bringen, deshalb die Verschiebung.
Hört sich mMn vernünftig an...
Dazu noch Zeit die Karten optimal zur Leistung und v.a. P/L gegenüber der Konkurrenz zu platzieren... diesmal will AMD alles richtig machen...
robbitop
2025-01-23, 07:38:23
https://youtu.be/YuGlXL3uKKQ
Kurz und schmerzlos. Angeblich Strategiewechsel bei AMD um ein fertiges Gesamtprodukt zu bringen, deshalb die Verschiebung.
Hier ein absolutes IMHO - muss ja keiner zustimmen - aber so sehe ich das:
Das was sie erklären klingt nach einer sinnvollen Strategie. Eine Strategie ist aber etwas was man mittelfristig und langfristig macht. Das Verschieben des Launches in letzter Minute (und dass man Partner und Händler laut hwub auf Inventar sitzen lässt(und Fotos von Karten und Kartons gibt es ja auch und das 2 Monate vor dem launch)) wirkt auf mich aber nicht wie eine Strategie sondern wie eine schnelle Reaktion. Und auf die verkauft man jetzt (zunächst intern - sind ja nur leaks - kann mir aber gut vorstellen, dass das auch noch getwittert wird - oder schon wurde) eine positive Story. Das ist alles geplant und folgt einer Strategie. Klar.
Genauso wie sie das canceln des Top Dogs (der in Entwicklung war und wohl eher wegen der Chiplet Technologie gecancelt war) als absichtlichen Fokus auf die Käufer im Midrange verkauft haben. Mehr Kundenfokus. Klar.
Ist aber in wahrscheinlich jeder großen Aktiengesellschaft so. Executives erfinden tolle Geschichten damit es besser klingt. Auch intern - man will ja gut dastehen für die Karriere. Habe ich x mal gesehen - bin selbst Executive in einem US Aktienunternehmen und habe sowas schon so oft gesehen... Ich fands ein wenig naiv von MLID das zu schlucken.
Aber: wäre natürlich schön wenn sich da jetzt diese Strategie auch langfristig einschleift. Auch wenns mit einem „oopsie“ begonnen haben sollte. Immer schön die Produkte polished und gut positionieren und sich nicht von anderen Wettbewerbern drängen lassen.
dildo4u
2025-01-23, 07:44:47
Wäre interessant zu wissen wie das Intern läuft hat die GPU Devision eine längere Leine da Ryzen genug Geld macht oder wird es Konsequenzen für das GPU Team geben.
Der_Korken
2025-01-23, 08:01:09
Immer schön die Produkte polished und gut positionieren und sich nicht von anderen Wettbewerbern drängen lassen.
Der Punkt ist schon vorbei, da sie sich dem Namensschema der Konkurrenz unterworfen haben. Den Rest sehe ich aber ähnlich: Eine schöne Story, die man sich nachträglich dazugedichtet hat.
Badesalz
2025-01-23, 08:01:56
@dildo4u
Was haben die nochmal total falsch gemacht?
@robbitop
Es gibt da noch die nicht so seltenen Fälle, daß eine richtige Reaktion besser ist als eine falsche Strategie ;) Radeon ist meist in für sie stürmischen Gewässern entlang der Küste unterwegs. und NV macht den Wellengang. Für die sind also schnelle Reaktionen meist wichtiger, um nicht endgültig zu zerschellen.
Für mich hat das auch wenig Kontext mit dem Produkt. Was leistet es bei wieviel Watt, wie sieht es mit dem P/L aus. Das ist eigentlich auch schon alles. Der Rest ist für den Kunden irgendwie Peng oder? Die Leute scheinen sich streckenweise mehr für die BWL-Krimis zu interessieren als für die Technik.
Ich gebe dir mit deiner Analyse eigentlich sogar Recht. Nur halt... Wayne?
Linmoum
2025-01-23, 08:05:23
Klar ist das nichts weiter als PR-Speech, mit der man jetzt offiziell versucht zu retten, was zu retten ist und die Verschiebung in quasi letzter Sekunde noch positiv versucht zu verkaufen.
Gut ist tatsächlich, dass sie nicht schon wieder überhastet und unfertig launchen. Wobei abzuwarten bleibt, wie es im März aussieht, bevor man das abschließend beurteilen kann.
Die andere Frage ist, warum sowas notwendig ist und warum man damit bis kurz vor knapp wartet, sodass Karten schon zu Händlern gelangt sind. Kann man wieder nur den Kopf schütteln über die GPU-Division und deren Strategie bzw. Vorgehen. Warum können die nicht einmal einen Launch ohne Fettnäpfchen über die Bühne bringen?
Zossel
2025-01-23, 08:10:34
Aber: wäre natürlich schön wenn sich da jetzt diese Strategie auch langfristig einschleift. Auch wenns mit einem „oopsie“ begonnen haben sollte. Immer schön die Produkte polished und gut positionieren und sich nicht von anderen Wettbewerbern drängen lassen.
Ohne Deppen die sich von so was beeindrucken lassen wäre das total Latte.
The_Invisible
2025-01-23, 08:18:27
Ohne Deppen die sich von so was beeindrucken lassen wäre das total Latte.
Du kaufst also gern halbgare Produkte die beim Kunden reifen? Interessant...
DrFreaK666
2025-01-23, 08:19:43
Vielleicht überrascht AMD im März mit 4x FG.
Die Technologie ist ja schon vorhanden. Glaube kaum, dass in diese Richtung nicht weitergeforscht wurde
Tegenarian
2025-01-23, 08:37:02
Ich habe sehr viel Sympathie für Radeon (bzw. AMD) und ihre Versuche ein möglichst offenes "Öko"system zu fahren. Zur Zeiten der begrenzten Ressourcen absolut bewundernswert (siehe Vulcan/Metal). Dass sie beim Marketing immer wieder Böcke schießen: Geschenkt.
Jetzt aber das aber aus meiner Laiensicht: Radeon war mal innovativ, was die breite Aufstellung von Software und Hardware anging. Ich erinnere mich, als Radeon-Karten nvidia bei Open Cl Anwendungen beim RAW-Programm von Capture One geschlagen hat. Dann haben Sie zwar Werkzeuge zur Verfügung gestellt, damit Entwickler schneller von Cuda auf entsprechende Schnittstellen für AMD-Software umsteigen zu können in der irrigen Annahme, das würden Entwickler freiwillig machen, wo sie doch dadurch absolut keinen Mehrwert haben und haben dann diesen Part aufgegeben (RNDA-Entwicklung), um auch diese Entwicklung wieder umzukehren.
Auf X streiten sich Radeon und Entwickler öffentlich darum, wer Schuld an der Entwicklung sei. Das hört sich alles so extrem unprofessionell an, dass es kein Wunder ist, dass nvidia doch machen kann, was sie möchten und trotzdem bevorzugt werden.
Badesalz
2025-01-23, 08:52:25
Du kaufst also gern halbgare Produkte die beim Kunden reifen? Interessant...War das sein Kontext? :uroll:
@Tegenarian
Wie wäre es, wenn man all die Gefühle und das Philosophieren über BWL, PR und Innovationen weglässt und einfach nur jeweils schaut wieviel man für sein Geld bekommt? (also in etwa was Zossel meinte) Würde das Leben viel zu einfach und damit zu langweilig machen oder?
Das 5.5 Megalights-Demo auf der PS5, läuft komplett auf AMD. Ist soweit ok oder?
Exxtreme
2025-01-23, 08:56:31
Klar ist das nichts weiter als PR-Speech, mit der man jetzt offiziell versucht zu retten, was zu retten ist und die Verschiebung in quasi letzter Sekunde noch positiv versucht zu verkaufen.
Naja, eine Verschiebung kann man das jetzt nicht nennen. Denn AMD sagte immer nur Q1/2025, was den März einschließt. Dass RDNA4 im Januar erscheinen sollte, das sind nur Gerüchte auf Twitter.
robbitop
2025-01-23, 09:34:02
Ohne Deppen die sich von so was beeindrucken lassen wäre das total Latte.
Nur zur Klarstellung: Ich meinte damit reife HW, reife SW zu einem kompetitiven Preis. Weniger Priorität auf exaktes Timing. :)
Vielleicht überrascht AMD im März mit 4x FG.
Die Technologie ist ja schon vorhanden. Glaube kaum, dass in diese Richtung nicht weitergeforscht wurde
Das könnte ich mir vorstellen. Ob jetzt 1 interpoliertes Frame, 2 oder 20. Kann ja selbst Lossless scaling.
Ich denke aber der Clou ist, diese auch schön gleichmäßig und artefaktarm auszugeben. Und es könnte sein, dass man dafür dann doch mehr AI Magie (reimt sich ^^) braucht. Bryan Catanzaro hatte das im NV interview IIRC ja beschrieben, dass die Qualität des optical flow accelerators nicht mehr zufriedenstellend dafür war (weil ja nun 3 von 4 Frames generiert werden und nicht nur 1 von 2 und man somit einen viel längeren Zeitraum generierte Bilder in Folge sieht bis wieder ein echtes kommt) und sie das nun auch über AI machen. Wenn man bedenkt, dass die BQ von DLSS 3 FG (mit optical flow accelerator) etwas höher ist (bezogen auf die generated frames! nicht auf das upsampling), wäre ggf ein einfaches Aufbohren des Frame Generation Teils von FSR 3.1 erkennbar abfallend von der Bildqualität. Dazu noch das Vergleichmäßigen was Nvidia ja über Flip Metering macht.
IIRC waren die ersten Tests mit höheren Faktoren in Lossless Scaling nicht so toll.
Ich könnte mir vorstellen, damit das gut ankommt, muss auch Frame Generation in FSR 4 mit AI laufen. Andererseits hat Jack Huynh sowas aber auch in einem Interview vor Monaten gesagt, dass sie an AI Frame Generation (im Kontext mit Handhelds war das IIRC) arbeiten.
Also wer weiß. Es kommt bestimmt - aber ob es zum März bereit ist?
Wenn AMD sich treu bleibt müsste es dann der 31. März werden - das ist sicher "etwas" frustrierend (und dann ist die Spielezeit auf der Nordhalbkugel quasi auch schon wieder vorbei)
dargo
2025-01-23, 09:53:49
Wenn AMD sich treu bleibt müsste es dann der 31. März werden - das ist sicher "etwas" frustrierend (und dann ist die Spielezeit auf der Nordhalbkugel quasi auch schon wieder vorbei)
Ich finde das ehrlich gesagt nicht schlimm. Bis dahin kommen eh kaum neue AAA-Titel raus. Und ständig die alten Schinken durchkauen wird auch irgendwann langweilig. Ich zb. spiele schon länger gar nichts mehr weil nix da ist was mich anspricht. Und ehrlich gesagt habe ich es persönlich auch nicht so eilig weil die 4k OLEDs mit RGB Subpixel Layout eh noch auf sich warten lassen.
Badesalz
2025-01-23, 09:56:36
Reife SW hab ich nur 2x im Leben gesehen. Das war 1x der OpenBSD Kernel und 1x die Soft von Voyager 1 (vor den Updates...). Mehr kenn ich nicht diesbezüglich.
Es ist ja nicht so, daß NV immer nur neue Features nachschiebt und bestehende erweitert, wenn sie sie was updaten...
fondness
2025-01-23, 10:47:17
Hier ein absolutes IMHO - muss ja keiner zustimmen - aber so sehe ich das:
Das was sie erklären klingt nach einer sinnvollen Strategie. Eine Strategie ist aber etwas was man mittelfristig und langfristig macht. Das Verschieben des Launches in letzter Minute (und dass man Partner und Händler laut hwub auf Inventar sitzen lässt(und Fotos von Karten und Kartons gibt es ja auch und das 2 Monate vor dem launch)) wirkt auf mich aber nicht wie eine Strategie sondern wie eine schnelle Reaktion. Und auf die verkauft man jetzt (zunächst intern - sind ja nur leaks - kann mir aber gut vorstellen, dass das auch noch getwittert wird - oder schon wurde) eine positive Story. Das ist alles geplant und folgt einer Strategie. Klar.
Genauso wie sie das canceln des Top Dogs (der in Entwicklung war und wohl eher wegen der Chiplet Technologie gecancelt war) als absichtlichen Fokus auf die Käufer im Midrange verkauft haben. Mehr Kundenfokus. Klar.
Ist aber in wahrscheinlich jeder großen Aktiengesellschaft so. Executives erfinden tolle Geschichten damit es besser klingt. Auch intern - man will ja gut dastehen für die Karriere. Habe ich x mal gesehen - bin selbst Executive in einem US Aktienunternehmen und habe sowas schon so oft gesehen... Ich fands ein wenig naiv von MLID das zu schlucken.
Aber: wäre natürlich schön wenn sich da jetzt diese Strategie auch langfristig einschleift. Auch wenns mit einem „oopsie“ begonnen haben sollte. Immer schön die Produkte polished und gut positionieren und sich nicht von anderen Wettbewerbern drängen lassen.
Naja, klar kann man das jetzt lächerlich machen und klar versucht man immer sachen nach außen positiv zu verkaufen. Nur: Was soll es denn sonst sein? Die Karten liegen bei den Händlern, die Hardware ist offensichtlich fertig. Es kann also nur noch die Software sein. Von daher ist die Aussage man möchte die Software polishen und noch mehr FSR4 Titel absolut schlüssig.
Exxtreme
2025-01-23, 10:49:55
Naja, klar kann man das jetzt lächerlich machen. Nur: Was soll es denn sonst sein? Die Karten liegen bei den Händlern, die Hardware ist offensichtlich fertig. Es kann also nur noch die Software sein. Von daher ist die Aussage man möchte die Software polishen und noch mehr FSR4 Titel absolut schlüssig.
Das kann auch etwas viel Banaleres sein. Z.B. dass man die Grafikkarten zusammen mit den Ryzen 9900X3D und 9950X3D veröffentlicht. Weil man sich davon irgendwelche "Synergieeffekte" (:freak: ) verspricht. Manager finden "Synergieeffekte" halt einfach geil.
fondness
2025-01-23, 10:53:28
Das kann auch etwas viel Banaleres sein. Z.B. dass man die Grafikkarten zusammen mit den Ryzen 9900X3D und 9950X3D veröffentlicht. Weil man sich davon irgendwelche "Synergieeffekte" (:freak: ) verspricht. Manager finden "Synergieeffekte" halt einfach geil.
Ja klar kann es auch sowas sein. Vielleicht will man vom positiven "Wind" der X3D cpus was abbekommen, das hat man ja hinten sogar so angedeutet.
Die X3D cpus mussten verschoben werden, weil man die Nachfragen offensichtlich vorher nicht bedienen kann und jetzt verschiebt man eben auch die Radeon.
Exxtreme
2025-01-23, 11:18:24
Und zurück zum Thema!
fondness
2025-01-23, 12:11:45
Was ist denn hier eskaliert? Gibts hier kein Archiv? :D
Mal was zum schmunzeln: Irgendein Markegtingfritz hat die Verschiebung offensichtlich nicht mitbekommen: X-D
https://videocardz.com/newz/somebody-didnt-get-a-memo-amd-ad-claims-you-can-enjoy-gaming-on-radeon-rx-9070-xt-already
Sieht so aus als wäre heute der ursprüngliche Launch-Tag gewesen. So soll im übrigen das Referenzdesign aussehen:
https://i.postimg.cc/RCGvB4jq/RADEON-RX-9070-XT-AD-HERO-1.jpg (https://postimg.cc/NLy38qGw)
Haha, geil. Und gut zu wissen, denn die MBA hatte sich bislang gut versteckt.
MfG
Raff
DeadMeat
2025-01-23, 12:21:33
Ja die Werbung ist wohl in einigen Regionen noch immer da , wenn man drauf klickt kommt man zur Produktseite. "Play now".
dargo
2025-01-23, 12:24:24
Blöd, dass alle Lüfter in die gleiche Richtung drehen. Haben die das noch nicht mitbekommen, dass dies ein Nachteil ab bestimmten Drehzahlen ist?
fondness
2025-01-23, 12:27:39
Die 9070 non-XT Referenz hat im übrigen nur zwei Lüfter. Ist die Karte genau in der Mitte:
Dürfte also wirklich deutlich weniger TDP haben.
https://i.postimg.cc/wMDf9qBM/9070XT.jpg (https://postimg.cc/9wFtpjZH)
Badesalz
2025-01-23, 12:54:05
Blöd, dass alle Lüfter in die gleiche Richtung drehen. Haben die das noch nicht mitbekommen, dass dies ein Nachteil ab bestimmten Drehzahlen ist?Ist nicht 575W. Müssen nicht SO hoch drehen :rolleyes:
dargo
2025-01-23, 13:07:24
Die 9070 non-XT Referenz hat im übrigen nur zwei Lüfter. Ist die Karte genau in der Mitte:
Dürfte also wirklich deutlich weniger TDP haben.
https://i.postimg.cc/wMDf9qBM/9070XT.jpg (https://postimg.cc/9wFtpjZH)
Dort wird das weniger zum Problem, schon alleine wegen dem größeren Abstand zwischen den Lüftern. ;)
Hakim
2025-01-23, 13:11:45
Haben die jetzt niemand vorher bescheid gesagt das zu ändern? Also die Werbung meinte ich
DeadMeat
2025-01-23, 13:12:50
Ich hatte mal eine Karte dort war der mittlerere Lüfter unterschiedlich geregelt, mit eigener Ansteuerung, gibt also auch dafür Lösungen.
dargo
2025-01-23, 13:17:09
Ich hatte mal eine Karte dort war der mittlerere Lüfter unterschiedlich geregelt, mit eigener Ansteuerung, gibt also auch dafür Lösungen.
Ja... das bringt auch schon was. Effizienter ist es aber den mittleren entgegengesetzt laufen zu lassen.
w0mbat
2025-01-23, 13:22:48
Also heute wäre wirklich der geplante launch gewesen. AMD hat gerade eine Reddit-Kampagne gestartet, wo der offizielle AMD-Account die neu releasten 9000er Karten bewirbt. Da hat jemand vergessen, die angelegte Kampagne abzusagen. :D
Selber auf Reddit gesehen, Artikel gibt es hier: https://videocardz.com/newz/somebody-didnt-get-a-memo-amd-ad-claims-you-can-enjoy-gaming-on-radeon-rx-9070-xt-already
Edit: old news
dargo
2025-01-23, 13:29:18
Guten Morgen. ;)
Schnitzl
2025-01-23, 13:30:43
jetzt noch so zu tun als wäre März geplant gewesen macht null Sinn.... :rolleyes:
w0mbat
2025-01-23, 13:30:47
Ah fuck. Heute mal wieder im Büro und nicht im home office - gleich ist man hinterher.
ashantus
2025-01-23, 14:31:48
Es gibt da noch die nicht so seltenen Fälle, daß eine richtige Reaktion besser ist als eine falsche Strategie
Napoleon: "Ein Plan den man nicht ändern kann, ist ein schlechter Plan."
dargo
2025-01-23, 14:36:20
jetzt noch so zu tun als wäre März geplant gewesen macht null Sinn.... :rolleyes:
Nö... geplant war Q1 25. ;)
Ah fuck. Heute mal wieder im Büro und nicht im home office - gleich ist man hinterher.
Passiert. :)
prinz_valium_2
2025-01-23, 16:25:53
So damit wäre Blackwell jetzt geklärt.
Die 5090 legt maximal das auf die 4090 drauf, was sie an Rohleistung mehr zu bieten hat.
Die 5080 wird damit bei der 4080 Super landen.
Die 5070Ti wird langsamer als eine 4080 und maximal ein kleines bisschen schneller als eine 4070TI Super.
Damit kann man die RX9070(XT) also ganz einfach gegen die letzte nVidia gen Vergleichen und weiß wo sie auch im Vergleich zu Aktuellen stehen wird. Es gibt da keine Unbekannten mehr.
Wenn! die 9070XT also bei einer 4080 ist, wäre sie schneller als eine 5070TI.
Es müssen nur noch breite Testparcours abgewartet werden.
DrFreaK666
2025-01-23, 16:42:18
Die 9070XT wird nur in Ausnahmefällen bei der 4080 landen, denke ich jedenfalls.
Palpatin
2025-01-23, 17:10:32
Wenn! die 9070XT also bei einer 4080 ist, wäre sie schneller als eine 5070TI.
Es müssen nur noch breite Testparcours abgewartet werden.
Wäre schön, glauben kann ich es noch nicht. Falls dem aber so ist darf die Karte auch gern 700-800€ kosten.
Redneck
2025-01-23, 17:19:22
Wäre schön, glauben kann ich es noch nicht. Falls dem aber so ist darf die Karte auch gern 700-800€ kosten.
Ist 700-800 mittlerweile Mittelklasse? Prost Mahlzeit.. Das offizielle Ziel war es, Masse zu verkaufen und dadurch die Entwickler ins Boot zu holen. Aber wie wir ja wissen, sind auch solche Pläne, für kurzfristigen Gewinn, änderbar
MSABK
2025-01-23, 17:54:09
Ist 700-800 mittlerweile Mittelklasse? Prost Mahlzeit.. Das offizielle Ziel war es, Masse zu verkaufen und dadurch die Entwickler ins Boot zu holen. Aber wie wir ja wissen, sind auch solche Pläne, für kurzfristigen Gewinn, änderbar
Im 3dcenter sogar untere Mittelklasse.;)
Iscaran
2025-01-23, 19:17:28
Im 3dcenter sogar untere Mittelklasse.;)
Eher "Low-budget" Einsteigerklasse ;D
Anyway - bin gespannt was im Bereich 300 € kommt...x2 oder gar x3 auf eine RX6600 wäre schon was
Im 3dcenter sogar untere Mittelklasse.;)
;D
BTW. könnte AMD die Karten nach dem 5080-Launch endlich rausbringen. Denn vor Blackwell braucht man wohl keine Angst mehr haben. Vielleicht labeln die datt Ding noch auf 9080 um ;D
horn 12
2025-01-23, 19:35:37
Heute der Link zu der AMD Referenz Karte
Zudem der 25.1.1 Treiber
Somit hätte die Vorstellung RDNA 4 und die Vorbestellung wirklich Heute/ bzw. Morgen begonnen
mit den Testberichten Morgen oder nächsten Tage!
GerryB
2025-01-23, 19:56:10
25.1.1 ist nur ein gameready, keine neue Branch
dargo
2025-01-23, 19:57:16
;D
BTW. könnte AMD die Karten nach dem 5080-Launch endlich rausbringen. Denn vor Blackwell braucht man wohl keine Angst mehr haben. Vielleicht labeln die datt Ding noch auf 9080 um ;D
Dann müssten die ganzen AIB Karten die schon beim Händler liegen wieder zurück. :freak: ;)
why_me
2025-01-23, 20:00:55
Dann müssten die ganzen AIB Karten die schon beim Händler liegen wieder zurück. :freak: ;)
Das müssen wir nur noch oft genug wiederholen und in anderen Foren etc schreiben. Dann macht das AMD am Ende noch ;D
dargo
2025-01-23, 20:09:13
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41. Jetzt wo wir die grandiose (*hust*) Vorstellung von Blackwell sehen. Das hätte AMD wieder spielend mit einem ~550mm² Die aufholen können. Aber vielleicht ist das wie es ist nicht verkehrt. Einen weiteren Heizofen braucht die Welt nicht.
The_Invisible
2025-01-23, 20:13:27
;D
BTW. könnte AMD die Karten nach dem 5080-Launch endlich rausbringen. Denn vor Blackwell braucht man wohl keine Angst mehr haben. Vielleicht labeln die datt Ding noch auf 9080 um ;D
Dann dürft ihr euch auf 5080 Preise -100 freuen ;)
dildo4u
2025-01-23, 20:24:24
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41. Jetzt wo wir die grandiose (*hust*) Vorstellung von Blackwell sehen. Das hätte AMD wieder spielend mit einem ~550mm² Die aufholen können. Aber vielleicht ist das wie es ist nicht verkehrt. Einen weiteren Heizofen braucht die Welt nicht.
5090 kann 2x wenn Die CPU schnell genug ist da die 9700XT ca 4080 Größe hat würde ich da keine Wunder erwarten.
https://i.ibb.co/255vjXq/Screenshot-2025-01-23-20-21-49-346-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Trr4Hzc)
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65361-die-geforce-rtx-5090-founders-edition-im-test.html?start=8
Nakai
2025-01-23, 20:25:28
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41. Jetzt wo wir die grandiose (*hust*) Vorstellung von Blackwell sehen. Das hätte AMD wieder spielend mit einem ~550mm² Die aufholen können. Aber vielleicht ist das wie es ist nicht verkehrt. Einen weiteren Heizofen braucht die Welt nicht.
Ich glaub, das hätte man auch unter 500 mm2 geschafft. Ein N48+50% und man wäre auf 4090 Niveau+ gelandet.
Der_Korken
2025-01-23, 21:00:55
Ich glaub, das hätte man auch unter 500 mm2 geschafft. Ein N48+50% und man wäre auf 4090 Niveau+ gelandet.
N48 wird bei 350mm²+ rauskommen, d.h. ein 96CU-Chip mit 384bit SI wäre rechnerisch über 500mm² groß. Für die 4090 hätte es reichen können, für die 5090 aber definitiv nicht. Die ist über 60% schneller als die 4080S, der ich mal unterstelle, dass sie >=10% über der 9070XT liegt. Aber ja, es ist schon ärgerlich für AMD, dass sie keinen N21 2.0 aufgelegt haben.
Palpatin
2025-01-23, 21:33:10
Im 3dcenter sogar untere Mittelklasse.;)
Jap der Golf unter den Grakas, aber für einen neuen Golfs zahlst du mittlerweile auch ca 35-40k€.
dargo
2025-01-23, 21:33:26
5090 kann 2x wenn Die CPU schnell genug ist da die 9700XT ca 4080 Größe hat würde ich da keine Wunder erwarten.
https://i.ibb.co/255vjXq/Screenshot-2025-01-23-20-21-49-346-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Trr4Hzc)
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65361-die-geforce-rtx-5090-founders-edition-im-test.html?start=8
Und gleich geht wieder das Rosinenpicken los mit dem schnöden CP77. :facepalm: Ich verrate dir jetzt mal ein Geheimnis... wenn meine CPU zu langsam ist brauche ich keine schnellere Grafikkarte. Und schon gar nicht diesen Heizofen!
Ich glaub, das hätte man auch unter 500 mm2 geschafft. Ein N48+50% und man wäre auf 4090 Niveau+ gelandet.
Ja... oder sowas halt. Wir wollen doch nicht, dass AMD Nvidia überholt. Da würde ja für viele hier die Welt zusammen brechen. Ich hätte da schon vor diversen Suiziden Angst. :D
fondness
2025-01-23, 21:42:42
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41. Jetzt wo wir die grandiose (*hust*) Vorstellung von Blackwell sehen. Das hätte AMD wieder spielend mit einem ~550mm² Die aufholen können. Aber vielleicht ist das wie es ist nicht verkehrt. Einen weiteren Heizofen braucht die Welt nicht.
Ja sehe ich genauso. Wie ich eh hinten schon sagte, hätte man auch einen N31 done right gebracht, also einen N4x mit 96CUs und 384 bit si wie N31 wäre da gut was möglich gewesen. Vielleicht nicht 5090 Performance, aber zumindest weit über dem was Nvidia unter der 5090 bringt. Der Preisbereich der 5090 ist in Wahrheit eh irrelevant.
Wie N41 geplant gewesen wäre kann natürlich nur spekuliert werden. Aber zumindest wäre er wohl kaum kleiner als N31 gewesen.
25.1.1 ist nur ein gameready, keine neue Branch
Immerhin hat AMD etwas für Final Fantasy VII Rebirth geliefert, Nvidia hat’s verpennt.
MfG
Raff
OgrEGT
2025-01-23, 22:10:36
Sowas wie das spekulierte N4C Ding mit >13 Chiplets muss ja gar nicht sein... wenn man es in der nächsten Generation schafft (>)2xN48 zu verbinden mit kleinerem und effizienterem Fertigungsprozess dann wäre das schon ein Pfund...
Der_Korken
2025-01-23, 22:14:12
Sowas wie das spekulierte N4C Ding mit >13 Chiplets muss ja gar nicht sein... wenn man es in der nächsten Generation schafft (>)2xN48 zu verbinden mit kleinerem und effizienterem Fertigungsprozess dann wäre das schon ein Pfund...
Theoretisch ist noch nicht ausgeschlossen, dass AMD sich die Hintertür mit 2xN48 über ein Fanout-Interface offen gehalten hat und wir bisher nichts davon gesehen haben, weil AMD skeptisch war, ob sie damit überhaupt gegen Big Blackwell einen Stich sehen würden. Aber das sollte ich lieber nicht zu laut sagen, sonst drehen einige Fanboys hier noch frei ;D.
Wiseman
2025-01-23, 22:20:04
5090 kann 2x wenn Die CPU schnell genug ist da die 9700XT ca 4080 Größe hat würde ich da keine Wunder erwarten.
2x können doch die Radeons dank AFMF schon längst.
Inspiriert von deinem HardwareLuxx Raster-Benchmark (4k, Ultra, FSR3 Q) zu Cyberpunk77 zeige ich dir einen Cyberpunk77 Benchmark meiner XTX. Wie komme ich jetzt im 9070-Speku-Thread auf die olle XTX? Ganz einfach, weil ich vor ein paar Tagen die geleakten 9070XT Benchmarks von Chiphell sah. Da waren auch 9070XT-Ergebnisse von Cyberpunk in 4k + Ray Tracing Ultra dabei. Flugs verglich ich die mit meinen XTX Ergebnissen und war von den Socken. Die 9070XT war in diesem geleakten Benchmark um sage und schreibe 46% schneller als meine XTX. Gib zu meinen AVG 80 fps ca. die Hälfte dazu und leih dir dann von Horni die Sauerstoffmaske aus.
Die 9070xt wird für mich endlich mal wieder ein spannender Launch. Bei den Customs bin ich gespannt, wie nah 330w an 360w liegen. Naja, vor UDNA wird es wahrscheinlich eh keine neue Grafikkarte in meinen Rechner schaffen.
dildo4u
2025-01-23, 22:24:25
Ja Nvidia hat FG auch angepasst kein Plan was aktuell besser skaliert.
Skaven
2025-01-23, 22:25:19
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41. Jetzt wo wir die grandiose (*hust*) Vorstellung von Blackwell sehen. [..]
Hmm, ich weiß nicht. Ich denke die Nvidia-Karten sollte man jetzt nicht unterschätzen, nur weil die Steigerung der Rohleistung nicht so beeindruckend ist.
Vielleicht haben sie einfach sehr viele Transistoren verwendet, um die ganzen neuen Features gut zu unterstützen, zB DLSS4, KI, etc. - da sind sie ja durchaus innovativ.
Aber ich verstehe schon, was Du meinst. Vielleicht hätte sich N41 besser verkauft als AMD dachte.
Exxtreme
2025-01-23, 22:28:44
Nüchtern betrachtet hat AMD bei RDNA4 richtig Pech gehabt mit dem Canceln von N41.
Es ist sehr wahrscheinlich, dass ein N41 trotzdem ein Ladenhüter geworden wäre. Die Leute kaufen weiterhin grün auch wenn AMD mal was brauchbares bringt.
DrFreaK666
2025-01-23, 23:01:37
Immerhin hat AMD etwas für Final Fantasy VII Rebirth geliefert, Nvidia hat’s verpennt.
MfG
Raff
Bei Rebirth können ja die NV-User für bessere Performance sorgen, da das Spiel DLSS nutzt. Ich hoffe es kommt noch ein FSR3.1 Patch
Vorbestellung wohl am 23.3
https://wccftech.com/amd-rx-9070-series-gpus-to-see-pre-orders-starting-on-march-23/
Wiseman
2025-01-23, 23:10:12
Hmm, ich weiß nicht. Ich denke die Nvidia-Karten sollte man jetzt nicht unterschätzen, nur weil die Steigerung der Rohleistung nicht so beeindruckend ist.
Vielleicht haben sie einfach sehr viele Transistoren verwendet, um die ganzen neuen Features gut zu unterstützen, zB DLSS4, KI, etc. - da sind sie ja durchaus innovativ.
Aber ich verstehe schon, was Du meinst. Vielleicht hätte sich N41 besser verkauft als AMD dachte.
Sicher. Eine 9080XT mit 24GB bei einem Preis deutlich unter 1000 Euro fehlt im Angebot. Das hätte sehr wahrscheinlich viele XTX-User zu einem Wechsel angeregt.
Wiseman
2025-01-23, 23:20:37
Bei Rebirth können ja die NV-User für bessere Performance sorgen, da das Spiel DLSS nutzt. Ich hoffe es kommt noch ein FSR3.1 Patch
Vorbestellung wohl am 23.3
https://wccftech.com/amd-rx-9070-series-gpus-to-see-pre-orders-starting-on-march-23/
Horni, bitte beachten, das ist kein offizielles Datum, sondern erneut bloß so ein Internet-Gemunkel.
why_me
2025-01-23, 23:22:45
An einem Sonntag?
crux2005
2025-01-24, 00:21:57
Dann dürft ihr euch auf 5080 Preise -100 freuen ;)
Eben, das hilft uns Kunden nicht. Das goldene Zeitalter der GPUs ist leider vorbei. :(
aufkrawall
2025-01-24, 04:29:02
Ja Nvidia hat FG auch angepasst kein Plan was aktuell besser skaliert.
DLSS FG ist nun auf jeden Fall besser. Skalierung und Frame Times wurden auch für LL deutlich verbessert, man hat weiterhin Reflex und es gibt keine Qualitäts-Fails am Bildrand.
F5.Nuh
2025-01-24, 04:51:53
Sicher. Eine 9080XT mit 24GB bei einem Preis deutlich unter 1000 Euro fehlt im Angebot. Das hätte sehr wahrscheinlich viele XTX-User zu einem Wechsel angeregt.
Wird dann Zeit von meiner 6900xt zu wechseln. :)
Nvidia hat nicht mehr alle Tassen im Schrank bei den Preisen
Linmoum
2025-01-24, 08:27:25
https://www.computerbase.de/news/grafikkarten/amd-rdna-4-radeon-rx-9070-xt-und-rx-9070-kommen-im-maerz.91097/#update-2025-01-24T07:24
Ein erster Shop spricht von Pre-Orders, die ab dem 23.03. möglich sind. Scheint man den März womöglich auch noch voll auszuschöpfen.
fondness
2025-01-24, 08:38:26
23. März ist ein Sonntag, das kann man ausschließen. Das ist ein Platzhalter, mehr nicht.
dargo
2025-01-24, 08:38:50
Ich hoffe wirklich AMD rudert bei der 9070XT wieder zurück zu den ~265W nach der Enttäuschung von Blackwell. :) Wenigstens bei der Referenzvorgabe. Was AIBs dann machen ist deren Sache. Eine Sache irritiert mich aber etwas... wenn die Powerlimits von N48 noch nicht feststehen wie soll das dann funktionieren wenn schon AIB-Karten bei den Händlern liegen? AMD kann doch nicht ernsthaft von einem 08/15 Hans erwarten, dass der sich ein neues Bios auf seine Grafikkarte aufspielt. Wobei... mit PPT könnte man das über den Treiber steuern oder? :uponder: PPT begrüße ich sehr wegen MPT. ;)
dildo4u
2025-01-24, 08:44:43
5070TI wird die 4080 erreichen 300 Watt sind damit gegeben und ich bezweifle das sie eine Karte wollen die nicht in der Lage ist das alte AMD Flaggschiff zu schlagen.
The_Invisible
2025-01-24, 08:45:52
Hmm, ich weiß nicht. Ich denke die Nvidia-Karten sollte man jetzt nicht unterschätzen, nur weil die Steigerung der Rohleistung nicht so beeindruckend ist.
Vielleicht haben sie einfach sehr viele Transistoren verwendet, um die ganzen neuen Features gut zu unterstützen, zB DLSS4, KI, etc. - da sind sie ja durchaus innovativ.
Aber ich verstehe schon, was Du meinst. Vielleicht hätte sich N41 besser verkauft als AMD dachte.
Blackwell ist wieder ein Zugpferd für neue Features wie Neural Shaders, Textures, RAdiance usw mit Hardware MFG. Das verstehen halt viele nicht die rein auf Rohleistung schauen. Im Prinzip fast ein Turing, ebnet den Weg für neue Features und in Zukunft fragt sich dann jeder warum NV bei 95% Marktanteil steht ;)
OgrEGT
2025-01-24, 08:47:04
Ich hoffe wirklich AMD rudert bei der 9070XT wieder zurück zu den ~265W nach der Enttäuschung von Blackwell. :) Wenigstens bei der Referenzvorgabe. Was AIBs dann machen ist deren Sache. Eine Sache irritiert mich aber etwas... wenn die Powerlimits von N48 noch nicht feststehen wie soll das dann funktionieren wenn schon AIB-Karten bei den Händlern liegen? AMD kann doch nicht ernsthaft von einem 08/15 Hans erwarten, dass der sich ein neues Bios auf seine Grafikkarte aufspielt. Wobei... mit PPT könnte man das über den Treiber steuern oder? :uponder: PPT begrüße ich sehr wegen MPT. ;)
Zumal BIOS per Software aufzuspielen zuletzt bei RDNA3 gar nicht möglich war/ist...
Bzgl TBP... wenn sie es so wie bei RDNA3 machen dann können sie das per Treiber begrenzen ohne PPT...
dargo
2025-01-24, 08:48:52
5070TI wird die 4080 erreichen 300 Watt sind damit gegeben und ich bezweifle das sie eine Karte wollen die nicht in der Lage ist das alte AMD Flaggschiff zu schlagen.
Ja... ich befürchte auch, dass AMD mindestens die XT prügeln wird. Aber egal... solange der Preis stimmt bin ich auch bereit auf 3-5% Performance zu verzichten. Dann komme ich bestimmt auf ~250W runter mit manuellem Eingriff. Wäre auch noch ok für mich.
Zumal BIOS per Software aufzuspielen zuletzt bei RDNA3 gar nicht möglich war/ist...
Vergiss RDNA3 in dieser Betrachtung... der wurde von AMD komplett zugenagelt, aus Gründen.
Linmoum
2025-01-24, 08:50:16
23. März ist ein Sonntag, das kann man ausschließen. Das ist ein Platzhalter, mehr nicht.PRE-Orders. Das geht sehr wohl an einem Sonntag. ;)
aufkrawall
2025-01-24, 08:53:23
Zumal BIOS per Software aufzuspielen zuletzt bei RDNA3 gar nicht möglich war/ist...
AMD hat selbst für Polaris nachträglich Mod-Biose gesperrt. Der Windows-Treiber startet dann einfach nicht mehr, der Linux- geht weiterhin. :freak:
Bei neueren Karten hatte man dann den möglichen Limits in MPT auch nachträglich engere Grenzen gesetzt.
Alles, was nicht offiziell geht, können sie einem jederzeit wegnehmen. Bzw. haben sie ja mit RDNA3 von Anfang an. Trend-Umkehr unwahrscheinlich...
OgrEGT
2025-01-24, 08:57:14
(...)
Trend-Umkehr unwahrscheinlich...
Befürchte ich auch...
fondness
2025-01-24, 10:39:18
PRE-Orders. Das geht sehr wohl an einem Sonntag. ;)
Pre-Orders machen nur am Launch-Tag Sinn. ;)
Exxtreme
2025-01-24, 10:45:12
Befürchte ich auch...
Wobei sich die Kunden selber schuld sind, dass das gesperrt wurde. Oft wurden Mod-BIOSse benutzt um Salvage-Chips wieder vollständig zu machen. Und oft machten die Kunden das dann so, dass sie sich viele Karten bestellt haben, diese flashten und die Karten, die nach dem Flashen irgendwelche Grafikfehler zeigten, wieder per FAG zurückschickten. Das verursachte bei Händlern massive Kosten. Und da war es wahrscheinlich billiger das Flashen ganz abzustellen.
raffa
2025-01-24, 10:50:09
Jo, leider unwahrscheinlich. Auch im Linux Treiber haben sie (overdrive muss man eh schon immer per Kernel Parameter freischalten) mit Kernel 6.7 das Powerlimit auf -6% bis +20% sowie das Absenken des Maximaltakts eingeschränkt.
Immerhin lässt sich das mit gepatchtem Kernel umgehen. (zenkernel zb)
Die Einschränkerei der Tuningmöglichkeiten fin ich nicht besonders klug, man verärgert damit die Poweruser und es gibt schlechte Presse in den Foren etc.
Ich hoffe sie haben aus Angst vor der 5070(ti) die Karten nicht bis an die Kotzgrenze geprügelt, leider sehen die meisten AIB Klopper schon danach aus. 30% mehr TDP für 10% Mehrleistung haben mir schon immer missfallen
edid: BIOS: ja, einige treiben leider immer Schindluder, insofern kann man das schon verstehen
why_me
2025-01-24, 10:53:48
Blackwell ist wieder ein Zugpferd für neue Features wie Neural Shaders, Textures, RAdiance usw mit Hardware MFG. Das verstehen halt viele nicht die rein auf Rohleistung schauen. Im Prinzip fast ein Turing, ebnet den Weg für neue Features und in Zukunft fragt sich dann jeder warum NV bei 95% Marktanteil steht ;)
Also wie RT damals? "It just works" aber die HW ist erst in 3-4 Generationen schnell genug um es wirklich einsetzen zu können? :freak:
robbitop
2025-01-24, 10:56:19
Naja mit der 2080 ti kann man RT doch relativ gut einsetzen. Auch heute noch. Zumindest in Kombination mit DLSS RR und wenn man nicht alle Regler auf Maximum stellt.
Hier gibts eine Art Post Mortem welche die Karte in der heutigen Zeit testet:
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/
Das Gute an Turing war, dass man gleich eine ordentliche RT Hardware Pipeline eingebaut hat und nicht nur das Minimum. Dadurch war die Mehrleistung beim Launch geringer - aber RT ist tatsächlich relativ gut nutzbar auch 6,5 Jahre nach Launch.
dargo
2025-01-24, 11:33:28
Wobei sich die Kunden selber schuld sind, dass das gesperrt wurde. Oft wurden Mod-BIOSse benutzt um Salvage-Chips wieder vollständig zu machen. Und oft machten die Kunden das dann so, dass sie sich viele Karten bestellt haben, diese flashten und die Karten, die nach dem Flashen irgendwelche Grafikfehler zeigten, wieder per FAG zurückschickten. Das verursachte bei Händlern massive Kosten. Und da war es wahrscheinlich billiger das Flashen ganz abzustellen.
Und Nvidia juckt dieses Verhalten der Kunden dann nicht oder wie?
Also wie RT damals? "It just works" aber die HW ist erst in 3-4 Generationen schnell genug um es wirklich einsetzen zu können? :freak:
Mach da eher 6-10 Generationen draus wenn ich sehe wie GB202 bei hoher RT/PT Last abschneidet. :freak:
Der_Korken
2025-01-24, 12:06:07
Bei allem Verständnis für das Sperren von Möglichkeiten, was das Rumgefrickel an Spannungsregulation und der Firmware des Chips selbst angeht: Ich verstehe die Einschränkungen nach unten bezüglich Verbrauch und Takt nicht. Wo ist das Problem? Haben die Angst, dass irgendwelche Deppen das PPT auf -50% stellen und dann online rumheulen, dass AMD-Karten langsamer sind als beworben? Dann setz das Limit halt auf -25%. Ich frage mich wie die überhaupt noch CPUs verkaufen können, nach all dem Schmu, den man in einem ausgewachsenen Mainboard-BIOS theoretisch einstellen könnte :rolleyes:.
Edit: Oder man nutzt die Möglichkeiten eines Dual-BIOS mal sinnvoll aus, z.B. ein Quiet-BIOS mit 265W und ein OC-BIOS mit 330W. Ich schüttel jedes Mal den Kopf, wenn Kartenhersteller Dual-BIOS verbauen, die sich dann um 5W PPT und eine 5% aggressivere Lüfterkurve unterscheiden. Da kann man sich das auch sparen.
Prinzenrolle
2025-01-24, 12:24:46
Also wie RT damals? "It just works" aber die HW ist erst in 3-4 Generationen schnell genug um es wirklich einsetzen zu können? :freak:
Kauft ihr zwei RT- Heulsusen euch mal eine GeForce Karte.:rolleyes:
Wenn man das nicht nutzen kann, dann entweder weil man sich zu dumm anstellt, oder es partout nicht will.:wink:
In Doom: The Dark Ages ist RT Pflicht. Genießt es. :D
dargo
2025-01-24, 12:28:14
In Doom: The Dark Ages ist RT Pflicht. Genießt es. :D
Pfff. Schon das letzte Doom lief hier selbst mit N21 Salvage mit RT problemlos, gib dir beim nächsten Mal bitte mehr Mühe beim trollen.
Bei allem Verständnis für das Sperren von Möglichkeiten, was das Rumgefrickel an Spannungsregulation und der Firmware des Chips selbst angeht: Ich verstehe die Einschränkungen nach unten bezüglich Verbrauch und Takt nicht. Wo ist das Problem? Haben die Angst, dass irgendwelche Deppen das PPT auf -50% stellen und dann online rumheulen, dass AMD-Karten langsamer sind als beworben? Dann setz das Limit halt auf -25%. Ich frage mich wie die überhaupt noch CPUs verkaufen können, nach all dem Schmu, den man in einem ausgewachsenen Mainboard-BIOS theoretisch einstellen könnte :rolleyes:.
Warte erstmal RDNA4 ab ob der auch komplett zugenagelt ist. Ich habe den Verdacht AMD hat RDNA3 so zugenagelt damit nicht rauskommt was da im GPU-Design schief gelaufen ist. Reine Speku von mir.
Edit:
Warum AMD bei N31 im Treiber aber nur -10% PT erlaubt (also sogar weniger als bei OC mit +15% :freak:) dafür kann ich einfach keine logische Erklärung finden. Manchmal werden von den verantwortlichen seltsame Entscheidungen getroffen. Bei Zen3 war das ja auch so... CO max. - 30, obwohl mein 5800X3D mehr negativ vertragen würde. Ab Zen 4 meine ich waren es dann CO max. -50.
Der_Korken
2025-01-24, 13:16:37
Bei Zen3 war das ja auch so... CO max. - 30, obwohl mein 5800X3D mehr negativ vertragen würde. Ab Zen 4 meine ich waren es dann CO max. -50.
Bei meinem Board ist es möglich sowohl den klassischen negativen VCore-Offset aus Zen-1-Zeiten als auch den CO zu nutzen, sodass sich beide Effekte addieren. Es funktioniert auch, da ich mal ausversehen mit geschätzt -200mV ins Windows kam und mich gewundert habe, warum alle Benches so schnell crashen und HWInfo so niedrige Spannungen ausliest. Sowas würde ich im GPU-Bereich auch gerne sehen (also bis auf die Crashes natürlich).
Exxtreme
2025-01-24, 13:18:38
Und Nvidia juckt dieses Verhalten der Kunden dann nicht oder wie?
Keine Ahnung. Womöglich kann man die Nvidia Salvage-Produkte nicht per BIOS-Flash wieder voll aktivieren. Und dann ist das Problem nicht da.
prinz_valium_2
2025-01-24, 13:21:34
5070TI wird die 4080 erreichen 300 Watt sind damit gegeben und ich bezweifle das sie eine Karte wollen die nicht in der Lage ist das alte AMD Flaggschiff zu schlagen.
Wie kommst du darauf? Es deutet nichts darauf hin, dass die 4080 erreicht wird
dargo
2025-01-24, 13:22:12
Bei meinem Board ist es möglich sowohl den klassischen negativen VCore-Offset aus Zen-1-Zeiten als auch den CO zu nutzen, sodass sich beide Effekte addieren.
Das ist doch Quatsch... mit negativen Offset bremst du die CPU aus, das bringt nichts. Bei -25 bis -50mV macht sich das bei manchen Brettern noch nicht bemerkbar weil die per Default leicht overvolten. Spätestens aber bei -100mV sollte du die niedrigere Performance bemerken. Und nicht auf irgendwelche Frequenzen von Tools blind schauen sondern Performance messen. ;)
dildo4u
2025-01-24, 13:33:37
Wie kommst du darauf? Es deutet nichts darauf hin, dass die 4080 erreicht wird
TDP ist höher als 4070TI Super mal abwarten wie der Takt real aussieht, es wäre enttäuschend wenn sie die 15% zur 4080 nicht schafft.
reaperrr
2025-01-24, 13:38:13
Edit:
Warum AMD bei N31 im Treiber aber nur -10% PT erlaubt (also sogar weniger als bei OC mit +15% :freak:) dafür kann ich einfach keine logische Erklärung finden.
Also danach gehend, wie schlecht sich RDNA3 zu untervolten lassen scheint, wäre meine Vermutung, dass AMD schlicht schon ziemlich aggressiv auf niedrigen Verbrauch gebinnt hat, was Spannungen usw. angeht, und man den Treiber diesbezüglich DAU-sicher machen wollte.
Prinzenrolle
2025-01-24, 13:43:18
Pfff. Schon das letzte Doom lief hier selbst mit N21 Salvage mit RT problemlos, gib dir beim nächsten Mal bitte mehr Mühe beim trollen.
Achso, na wenn es problemlos mit RT läuft, wo ist dann das Problem?:rolleyes:
Mach da eher 6-10 Generationen draus wenn ich sehe wie GB202 bei hoher RT/PT Last abschneidet. :freak:
Selbst die erste Generation lief schon mit sehr hübscher und performanter globaler Beleuchtung in Metro Exodus.:P
Kann ja niemand was für deine Nvidia und RT Aversion.
Altehardware
2025-01-24, 13:50:13
Was doom angeht das sind arena shooter mit starren Inhalt demzufolge ist die gpu und cpu load gering was viele fps bringt.
Es ist kein wunder das man über 180fps mit ner rtx3060 1080p in doom eternal bekommt.
Dasselbe wird doom dark ages sein und wie man anhand von indy sieht dürfte die Anforderung auf etwa 50fps mit so einer gpu kommen
Der Einbruch kommt von den rop da id tech an der rendepipeline was geändert hat um pathtracing zu ermöglichen.
Ich ahne aber das man in dem Spiel die alte Implementierung von dxr nutzen wird und somit auch die 150fps mit ner rtx3060 drin sind lediglich braucht man viel vram.
Achja der dx12 Pfad war schneller in dem Spiel, vulkan ist langsamer und indy läuft mit vulkan
Für so einen schnellen shooter kann man pathtraycing völlig vergessen das wird viel zu griesellig da das denoising zu langsam ist.
Also die Wahl zwischen Latenz die man nicht brauchen kann oder unscharfe Konturen. Ein grain ist damit aber sicher.
Darum macht doom mit dxr bedingt sinn aber pathtraycing und somit die Implantierung wie in indy j nicht praktikabel.
Beide games nutzen die idtech9 doom eternal hat idtech8 (2020)
dargo
2025-01-24, 14:34:58
Selbst die erste Generation lief schon mit sehr hübscher und performanter globaler Beleuchtung in Metro Exodus.:P
Geht dein Kirschen-Pflücken wieder los? Die Gamingwelt dreht sich nur nur um Metro Exodus. Das war sogar noch eine relativ leichte RT-Frametime Kost.
Also danach gehend, wie schlecht sich RDNA3 zu untervolten lassen scheint, wäre meine Vermutung, dass AMD schlicht schon ziemlich aggressiv auf niedrigen Verbrauch gebinnt hat, was Spannungen usw. angeht, und man den Treiber diesbezüglich DAU-sicher machen wollte.
Das ist doch Unsinn. Wenn man sich diverse Gaming-Workloads im Detail anschaut war da noch bei vielen Spielen genug Spielraum nach unten mit der Spannung und natürlich gleichzeitig den Frequenzen. Beides hängt ja bekanntlich zusammen. Ist ja nicht so, dass N31 überall schon bei 700mV lag. Bei CP77 (nur um ein Beispiel zu nennen) war ich bei 856mV im Schnitt (PT -10%). Würdest du das auf 800mV innerhalb der V/F Kurve schieben würdest du spielend unter 280W beim Fullchip N31 kommen.
Edit:
Du kannst natürlich innerhalb der V/F Kurve den Verbrauch weiter senken indem du den Boosttakt im Treiber reduzierst. Nur kannst du dann wieder bei leichterer Kost das Pech haben, dass die Karte eben nicht hoch genug boostet (Taktlimit). Mit einem stärkeren, negativen Powerlimit (mehr als -10%) hättest du diese Einschränkung nicht. Dieses Thema bei RDNA3 finde ich nicht elegant gelöst. Mir gefällt der Ansatz in MPT einfach besser, auch weil du dort Zugriff auf den SoC hast.
horn 12
2025-01-24, 14:59:44
Nun kommt wohl eine 9080 XT im März zusammen mit 9070 - 9070 XT und dies wäre wirklich eine Verschiebung wert :-)
Mann kann ja noch träumen dürfen :-)
E39Driver
2025-01-24, 15:16:18
Lol scheinbar hätte heute wirklich der ursprüngliche Marktstart sein sollen, da Werbeanzeigen geschaltet wurden. Irgendwas im Hintergrund muss da mächtig schief gelaufen sein, die Karte kurz vor Release zurückzuziehen und 2 weitere Monate vergehen zu lassen. Mal schauen ob das noch aufgeklärt wird.
Beide games nutzen die idtech9 doom eternal hat idtech8 (2020)
Fast ;-)
https://www.pcgameshardware.de/Doom-The-Dark-Ages-Spiel-74718/News/Doom-The-Dark-Ages-Raytracing-ist-Pflicht-bei-den-Systemanforderungen-1464397/
Lawmachine79
2025-01-24, 15:47:52
Nun kommt wohl eine 9080 XT im März zusammen mit 9070 - 9070 XT und dies wäre wirklich eine Verschiebung wert :-)
Mann kann ja noch träumen dürfen :-)
Die 9080 XT macht die 4070 Mobile bestimmt rund wie 'nen Buslenker.
prinz_valium_2
2025-01-24, 16:58:43
TDP ist höher als 4070TI Super mal abwarten wie der Takt real aussieht, es wäre enttäuschend wenn sie die 15% zur 4080 nicht schafft.
Ist der Falsche Topic, aber sie wird die 15% natürlich nicht schaffen.
Die 5080 wird auch nur max 5% auf die 4080/Super drauflegen
raffa
2025-01-24, 17:08:29
Eigentlich ist es total egal ob die 5% langsamer oder 3% schneller ist als eine 5070(ti)
Wichtig ist, dass Preis, Effizienz, RT Leistung und FSR4 passen.
Nakai
2025-01-24, 18:10:26
Nun kommt wohl eine 9080 XT im März zusammen mit 9070 - 9070 XT und dies wäre wirklich eine Verschiebung wert :-)
Mann kann ja noch träumen dürfen :-)
Ich glaub auch mittlerweile, dass es so kommt, aber man wird wohl die 9070xt zur 9080xt umlabeln und noch etwas an der Taktschraube drehen. Die 9070xt und non-xt bleiben in etwa gleich. Das gibt auch etwas Zeit für Treiber etwas zu optimieren und am FSR4 zu tunen.
DrFreaK666
2025-01-24, 18:25:52
Das war hier schonmal Thema, aber wie wäre es wenn es nicht nur Sharpening per AI wäre, sondern auch Upscaling?
AI Sharpening macht für mich auch überhaupt keinen Sinn
https://videocardz.com/pixel/gigabyte-radeon-rx-9070-xt-features-mention-possible-ai-update-for-radeon-image-sharpening
Nakai
2025-01-24, 18:29:01
Nvidia generiert Frames und macht Upsampling. Wieso sollte man jegliche Ausgangsbilder nicht anders aufhübschen können?
Ich glaub aber eher, dass es normales AI Upscaling ist.
TheGood
2025-01-24, 20:16:24
Naja mit der 2080 ti kann man RT doch relativ gut einsetzen. Auch heute noch. Zumindest in Kombination mit DLSS RR und wenn man nicht alle Regler auf Maximum stellt.
Hier gibts eine Art Post Mortem welche die Karte in der heutigen Zeit testet:
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/
Das Gute an Turing war, dass man gleich eine ordentliche RT Hardware Pipeline eingebaut hat und nicht nur das Minimum. Dadurch war die Mehrleistung beim Launch geringer - aber RT ist tatsächlich relativ gut nutzbar auch 6,5 Jahre nach Launch.
Aber dann den Radeons immer die Raytracingfähigkeit absprechen. Finde den Fehler.
Ich helfe dir, der liegt im Wording bei der Radeon Einschätzung.
Irgendwas im Hintergrund muss da mächtig schief gelaufen sein, die Karte kurz vor Release zurückzuziehen und 2 weitere Monate vergehen zu lassen. Mal schauen ob das noch aufgeklärt wird.
Ich glaube, AMD ist in Panik. Und das zurecht, weil nun Nvidia nicht die Preise in den Himmel geschraubt hat und mit MFG ein Killerfeature hat. Damit ist AMD wieder eine Generation hinterher, und die AMD-Karten sehen noch schlechter aus. Wie will man da die Preise noch rechtfertigen?
Blackwell ist wieder ein Zugpferd für neue Features wie Neural Shaders, Textures, RAdiance usw mit Hardware MFG. Das verstehen halt viele nicht die rein auf Rohleistung schauen. Im Prinzip fast ein Turing, ebnet den Weg für neue Features und in Zukunft fragt sich dann jeder warum NV bei 95% Marktanteil steht ;)
Ist wirklich so. Dieses Gucken auf die 30% Performancesteigerung bei Rasterizing finde ich hilarious. Und dabei dann noch die Features wie MFG auszuklammern, was ein Killerfeature ist. Wer sich daran aufgeilen will, dass es eben generierte Frames sind, bitte. Dann aber bitte auch jedes Spiel bashen, das Antialiasing anbietet, und nur wirklich nativ ohne jegliches Antialiasing spielen, wo alles flimmert, bis man Augenkrebs bekommt. Denn nur das sind ja "echte" Bilder.
Exxtreme
2025-01-24, 22:53:28
Ich glaube, AMD ist in Panik. Und das zurecht, weil nun Nvidia nicht die Preise in den Himmel geschraubt hat und mit MFG ein Killerfeature hat. Damit ist AMD wieder eine Generation hinterher, und die AMD-Karten sehen noch schlechter aus. Wie will man da die Preise noch rechtfertigen?
Ich halte MFG nicht so wirklich für ... ordentlich ausfahrbar. Ist irgendwie wie ein Lamborgini in der Stadt.
Und ich glaube nicht, dass AMD irgendwie Panik schiebt. Denen ist das wohl eher egal.
Edit: Kann sogar sein, dass FSR3 auch MFG kann:
https://wccftech.com/amd-fsr-3-might-generate-up-to-4-interpolated-frames-be-enabled-on-driver-side/
Ist wirklich so. Dieses Gucken auf die 30% Performancesteigerung bei Rasterizing finde ich hilarious. Und dabei dann noch die Features wie MFG auszuklammern, was ein Killerfeature ist. Wer sich daran aufgeilen will, dass es eben generierte Frames sind, bitte. Dann aber bitte auch jedes Spiel bashen, das Antialiasing anbietet, und nur wirklich nativ ohne jegliches Antialiasing spielen, wo alles flimmert, bis man Augenkrebs bekommt. Denn nur das sind ja "echte" Bilder.
"Echte" Bilder liegen in unendlicher Auflösung vor. Deshalb sind Bilder mit Antialiasing nicht unecht sondern sind näher an uendlicher Auflösung dran.
raffa
2025-01-24, 23:06:13
MFG ist nun wirklich kein Killerfeature. Wir reden vom Spielen, von interaktivem Zeugs, wo die Performance von der Baseframerate definiert wird, und nicht von irgendwelchem zeitlich glättenden Kram, der der dazu auch noch pacing Probleme und Artefakte mit sich bringt.
Freilich, das sieht smooth aus, aber das ist jenseits der 120fps doch recht egal, weils eh schon smooth ist. Und bei 120 will man entweder keine FG oder vielleicht single FG bei langsamen games. MSFS ist so ein Beispiel (wenns nicht grad ein airracer ist)
Und bei Spielen, wo man von 120+ fps noch was hat, will man eh kein FG.
Ausnahmen aussen vor bietet MFG keinen echten Mehrwert - und wenn man bei AMD will, dann bläst man halt die eigene FG auf 4x auf. idc.
Daredevil
2025-01-24, 23:14:16
MFG ist kein „Feature“, sondern die einzige Möglichkeit Pathtracing flüssig auf über 100fps zu bekommen in den nächsten Jahren. Es ist also ein essentieller Bestandteil der zukünftigen Entwicklung, weil man KI noch skalieren kann und reine Rower nur mit mehr Power.
Man kann nur hoffen das AMD dafür eine Antwort hat, denn Rubin ist bereits vorgestellt. :usad:
Lurtz
2025-01-24, 23:17:01
Und ich glaube nicht, dass AMD irgendwie Panik schiebt. Denen ist das wohl eher egal.
Dass AMD so manches egal ist, merkt man leider ;D
basix
2025-01-24, 23:17:37
Blackwell ist wieder ein Zugpferd für neue Features wie Neural Shaders, Textures, RAdiance usw mit Hardware MFG. Das verstehen halt viele nicht die rein auf Rohleistung schauen. Im Prinzip fast ein Turing, ebnet den Weg für neue Features [...]
Wie Turing? Nö. Turing kann alles wichtige, was Blackwell kann. Blackwell kann es einfach besser. Auch Turing unterstützt Neural Shaders und vom Prinzip her auch MFG. Ist nur die Frage, ob die Performance für alles reicht. Bei einer 6 Jahre alten GPU-Generation ist das mMn aber zu verschmerzen.
Turing hat eine starkes Compute-SM sowie RT- und Tensor Cores eingeführt und alles was es für DX12 Ultimate braucht. Blackwell ist da schon nicht im gleichen Masse revolutionär ;) Verglichen mit Lovelace ist Blackwell zudem kein riesen Sprung von den Features her. Turing war verglichen zu Pascal ein riesiger Sprung. Klar kann Blackwell Tensor-FP4 und besseres RT und ist besser für Neural Rendering geeignet. Aber so gross wird die Differenz zu Lovelace nicht sein. Es ist eine (für Gamer eher kleine) Evolution. Und deswegen ist Blackwell eher entäuschend.
Die Revolution der letzten Jahre passierte auf SW-Seite und wie bereits geschrieben ist Turing da immer noch dabei. DLSS1 -> DLSS4 mit neuem Transformer Modell. Ray Reconstruction. Reflex. Kann Turing alles. Bei FG ist man momentan aussen vor aber FSR3 und DLSS4 FG zeigen, dass man keinen HW-OFA für das braucht. Und FSR3 FG läuft auch auf Turing ;)
DLSS4 hyped mich deutlich mehr als Blackwell. Und nun wird es sehr spannend, was FSR4 bringen wird. Ich hoffe, man kommt DLSS4 möglichst nahe. Gutes Super Resolution, RR und FG (bitte: Extrapolation ;)). MFG ist mir nicht so wichtig (wird man aber vermutlich bringen). Verbessertes RIS und AFMF. RSR mit AutoSR ersetzen. So etwas wie Nvidias DLDSR, einfach besser. Stimmt dann bei RDNA4 noch die HW, würde es sehr gut aussehen ;)
MFG ist kein „Feature“, sondern die einzige Möglichkeit Pathtracing flüssig auf über 100fps zu bekommen in den nächsten Jahren. Es ist also ein essentieller Bestandteil der zukünftigen Entwicklung, weil man KI noch skalieren kann und reine Rower nur mit mehr Power.
Man kann nur hoffen das AMD dafür eine Antwort hat, denn Rubin ist bereits vorgestellt. :usad:
MFG mit Interpolation ist nice to have. Und so extrem schwierig ist das nicht, wenn man FG bereits kann. Richtig interessant wird es mMn erst mit Extrapolation und dann noch kombiniert mit Framewarp. Dann fühlen sich generierte Frames an der Maus wie gerenderte Frames an ;) Dann wären auch 30fps Basis OK (100...120fps mit MFG), solange die generierten Frames keine grösseren Artefakte zeigen. MFG in der DLSS4 Form ist nur interessant, wenn man die 240Hz+ eines schnellen Monitors anpeilt.
Palpatin
2025-01-24, 23:23:38
MFG ist kein „Feature“, sondern die einzige Möglichkeit Pathtracing flüssig auf über 100fps zu bekommen in den nächsten Jahren. Es ist also ein essentieller Bestandteil der zukünftigen Entwicklung, weil man KI noch skalieren kann und reine Rower nur mit mehr Power.
Man kann nur hoffen das AMD dafür eine Antwort hat, denn Rubin ist bereits vorgestellt. :usad:
Wenn ich mit MFG auf 100 Frames komme ist doch die Basis irgendwas um die 25-30 und das wird sich nie flüssig spielen.
raffa
2025-01-24, 23:24:23
MFG ist kein „Feature“, sondern die einzige Möglichkeit Pathtracing flüssig auf über 100fps zu bekommen in den nächsten Jahren. Es ist also ein essentieller Bestandteil der zukünftigen Entwicklung, weil man KI noch skalieren kann und reine Rower nur mit mehr Power.
Man kann nur hoffen das AMD dafür eine Antwort hat, denn Rubin ist bereits vorgestellt. :usad:
Flüssig bei 25-30fps? Come on.
Daredevil
2025-01-24, 23:30:02
Wenn ich mit MFG auf 100 Frames komme ist doch die Basis irgendwas um die 25-30 und das wird sich nie flüssig spielen.
Deswegen schrieb ich wohl „über 100fps“.
Du würdest dich also dafür entscheiden, mit „ehrlichen“ 25fps zu spielen als das potentiell unperfekte MFG zu nutzen? Weil die Alternative, das man über 100fps bekommt mit dem visuellen Eyecandy von Pathtracing ist nicht existent und wird es auch nicht, sofern nicht weiter die technische Entwicklung voran schreitet. +400% Raw Power wird es nicht geben in nächster Zeit, egal bei wem.
Es sei denn AMD klebt 4 DIEs zusammen. Bitte machen, danke :D
Linmoum
2025-01-24, 23:30:41
Freilich, das sieht smooth aus, aber das ist jenseits der 120fps doch recht egal, weils eh schon smooth ist.Nein, ist es nicht. Ich hab mittlerweile einen 240Hz UHD-OLED, das ist alles in allem kein Vergleich zu einem 120Hz-Monitor/TV (vs. meinen alten LG OLED). Der Unterschied ist nicht so eklatant, wie wenn man von der 60Hz-Blase kommt, aber er ist immer noch deutlich. Auf einem 120Hz-Monitor fühlt sich das danach, wieder von 240Hz kommend, klar unrunder an.
Techniken wie MFG sind genau wegen solcher Szenarien die Zukunft. Einfach, weil Rohleistung steigern in diesem Maße schlicht und ergreifend nicht (mehr) funktioniert. Simple as that. Völlig egal, ob Nvidia oder AMD. Ganz davon abgesehen, dass das die CPUs nicht einmal im entferntesten ermöglichen. Weder heute, noch in 5 Jahren. Wo soll das plötzlich herkommen?
raffa
2025-01-24, 23:39:34
Ich hab nicht gesagt, dass bei 120 schluss ist. Aber die i/o flüssigkeit skaliert locker bis 90hz, da biste mit single FG schon bei 180fps. Und da drüber wird die Luft schon sehr dünn für einen wirklichen Gewinn an optischer Flüssigkeit, würde ich meinen.
Deswegen schrieb ich wohl „über 100fps“.
Du würdest dich also dafür entscheiden, mit „ehrlichen“ 25fps zu spielen als das potentiell unperfekte MFG zu nutzen? Weil die Alternative, das man über 100fps bekommt mit dem visuellen Eyecandy von Pathtracing ist nicht existent und wird es auch nicht, sofern nicht weiter die technische Entwicklung voran schreitet. +400% Raw Power wird es nicht geben in nächster Zeit, egal bei wem.
Es sei denn AMD klebt 4 DIEs zusammen. Bitte machen, danke :D
Nein, man stellt das Spiel, die Grafik so ein, dass man mindestens 60, besser 90 base fps hat, will man ein rundum gutes Spielerlebnis haben.
---
edit: ein klein wenig offtopic ist das hier ja grad schon geworden.
DrFreaK666
2025-01-24, 23:45:30
"Ein klein wenig offtopic"?
Tobt euch im DLSS-Thread aus!
Wiseman
2025-01-25, 01:08:24
...
Edit: Kann sogar sein, dass FSR3 auch MFG kann:
https://wccftech.com/amd-fsr-3-might-generate-up-to-4-interpolated-frames-be-enabled-on-driver-side/
Interessant. Besonders interessant ist, dass dieser Report vom 23. Mai des Jahres 2023 stammt.
AMD FSR 3 Might Generate Up To 4 Interpolated Frames & Be Enabled On Driver-Side
Hassan Mujtaba
•
May 23, 2023 at 12:45am EDT
Prinzenrolle
2025-01-25, 02:05:34
Edit: Kann sogar sein, dass FSR3 auch MFG kann:
Über den Treiber. Diese Schmalspurlösung die sich nach wie vor abschaltet und übles Framepacing und Inputlag bringt, kann man nicht ernst nehmen. Das wäre die pure Verzweiflung.
Mit Losless Scaling kann man auch 20 Bilder generieren.
Die Frage ist immer wie gut, wie schnell und mit wieviel zusätzlichen Input Lag das von statten geht.
DrFreaK666
2025-01-25, 02:51:42
Über den Treiber. Diese Schmalspurlösung die sich nach wie vor abschaltet und übles Framepacing und Inputlag bringt, kann man nicht ernst nehmen...
BS. Es geht um FSR.
Das treiberseitige aktivieren kam als AFMF auf den Markt.
Es ist kein Verlust wenn FSR FG !und! AFMF 4xFG erhalten
Neurosphere
2025-01-25, 09:09:12
Hmm, ist hier schon angekommen das es Gerückte gibt das AMD Navi 4C doch noch bringen will?
https://x.com/Olrak29_/status/1883035137799266641
horn 12
2025-01-25, 09:21:58
Navi 41 oder wie man das dann nennen will- also Konkurrent zur 5080 bis 5090 in etwa
So eine 5090 mit 450 Watt könnte man doch dann knapp erreichen,- sieht man die Werte bei Computerbase da dort jene 5090 ca. 12 Prozent vor 4090 liegt.
Das wäre dann ein Halo Produkt für 1100 Euro
und der Rest 599 und 749 Euro so wie die Preise im März wohl aussehen werden!
Diese Generation kann AMD vieles wieder gut machen,- Hauptsache der Finale Lauch im März läuft Souverän ab!
basix
2025-01-25, 10:27:57
Dass das wirklich FSR 4 war, ist auch noch nicht ausgemacht. Es wurde nichts über die Performance gesagt/gezeigt. Ist derzeit noch nicht ausgeschlossen, dass das finale FSR 4 schlechter aussehen wird, falls die Renderkosten dieser Tech Preview zu hoch waren.
Oder die +2 Monate sind genau der Grund für "Research Project @ FSR4".
Zwei Gedanken dazu:
- Es wäre ziemlich dämlich von AMD, mit dem Research Project auf der CES Erwartungen zu schüren und dann enttäuscht FSR4 in der Praxis
- Falls dem aber so wäre: FSR4 hätte CNN sein sollen und neu wird es doch mit Transformer Model rauskommen? Aber ne, 2 Monate sind zu kurz für solch eine Umstellung.
Ich glaube eher, dass AMD den Release verzögert hat, um ihre Features zu verbessern oder Markt-Ready zu machen:
- Treiber Feinschliff (neuer AI augmented Compiler, siehe AMD Papers)
- Neues BIOS (evtl. mehr Watt für die 9070XT?)
- FSR4 (hoffentlich auch mit DLSS4 mässiger Qualität)
- RR
- FG (x4? Extrapolation? Beides?)
- RIS @ AI (siehe Gigabyte Teaser)
- RSR @ AI (AutoSR?)
- AFMF3 @ AI (bessere Qualität? Extrapolation?)
- DSR @ AI (siehe Nvidia DLDSR)
Damit hätte man zu Nvidia aufgeholt und in einigen Bereichen würde man sogar mehr bieten (z.B. AFMF).
TheGood
2025-01-25, 10:38:48
Oder die +2 Monate sind genau der Grund für "Research Project @ FSR4".
Zwei Gedanken dazu:
- Es wäre ziemlich dämlich von AMD, mit dem Research Project auf der CES Erwartungen zu schüren und dann enttäuscht FSR4 in der Praxis
- Falls dem aber so wäre: FSR4 hätte CNN sein sollen und neu wird es doch mit Transformer Model rauskommen? Aber ne, 2 Monate sind zu kurz für solch eine Umstellung.
Ich glaube eher, dass AMD den Release verzögert hat, um ihre Features zu verbessern oder Markt-Ready zu machen:
- Treiber Feinschliff (neuer AI augmented Compiler, siehe AMD Papers)
- Neues BIOS (evtl. mehr Watt für die 9070XT?)
- FSR4 (hoffentlich auch mit DLSS4 mässiger Qualität)
- RR
- FG (x4? Extrapolation? Beides?)
- RIS @ AI (siehe Gigabyte Teaser)
- RSR @ AI (AutoSR?)
- AFMF3 @ AI (bessere Qualität? Extrapolation?)
- DSR @ AI (siehe Nvidia DLDSR)
Damit hätte man zu Nvidia aufgeholt und in einigen Bereichen würde man sogar mehr bieten (z.B. AFMF).
Ich glaube nicht an ein FG 4x, auch wenn sie schon länger wohl dran arbeiten. Wird aber sicher auf der Roadmap stehen. DAs AFM3 wird sicher auch nicht kommen, da AMD hier gerade etwas umschwenkt. Die müssen aufholen und können sich dann nicht mit zu viel allgemeinem beschäftigen, daher wird der Fokus sicher anders verteilt werden. Sie werden aber die abwärtskompatibilität nicht aufgeben, sofern es keine hardware einschränkungen gbit (was ja dann auch nur logisch ist)
die einzig halbwegs logsiche Erklärung ist, dass sie den ganzen Softwarestack optimieren wollen, anders ist die VErschiebung doch nicht zu erklären. Vor allem wenn sie denn wirklich eine gute P/L liefern wollen (glaube ich aber auch nicht dran, da sie ja auch geld verdienen wollen und müssen)
Badesalz
2025-01-25, 10:51:13
@basix
Das sind die Untiefen einer (Foren)Blase :wink: Der Rest spielt und analysiert keine Standbilder. Wenn in Bewegung oder max. ruhigeren Phasen nichts auffällt ist der drops gelutscht. Vor allem bei NVs Preisen. Mehr als P/L Win + kein Treibertheater + wahrnehmbare RT/PT-Stufen muss das Ding nicht können, wenn es in WQHD und ggf. UWQHD mit dem 9800X3D nicht rumzuckt.
Das alleine sind die Messlatten 2025 für den Markt, für AMD. Bei den Preisen werden sich jetzt mehr als früher 2x RDNA4 anschauen, bevor sie sich entscheiden. Auch trotz der journalistischen Promoter und sonstiger Influencer.
Der Rest sind nur die üblichen Tecnerds Fantasien. Das ist für den relevantesten Rest des Marktes nicht von Belang. Es ist daher wirklich so, daß eher AMD als NV den Markt der PC-Gamer zu retten versucht, auch wenn NV technisch wesentlich weiter ist.
basix
2025-01-25, 11:04:54
Naja, der Unterschied DLSS4 zu DLSS3 fällt ziemlich schnell auf ;) Und verglichen mit FSR2/3 wird der Unterschied auch für "Normalos" sofort auffallen.
Und auch die Normalos sind nicht auf den Kopf gefallen. Wenn man sich für 500 Euro was kauft, informiert man sich vorher. Oder lässt sich von jemandem mit Know How beraten. Da wird das Thema Upsampling und Frame Generation ziemlich schnell aufpoppen.
Sowas wie AFMF oder AutoSR kann man auch Laien schnell erklären: Du kannst in jedem Spiel mehr FPS und eine höhere Auflösung bei besserer Qualität erhalten. Das kann Nvidia so nicht. Hört sich doch gut an ;)
robbitop
2025-01-25, 11:24:37
IMO ist FG (auch 4x) schon sinnvoll. Aber nur wenn man genug Grund FPS hat, so dass Artefakte und Inputlatwnz von Anfang an gut sind. Entsprechend kann sich das Feature dann darauf konzentrieren wofür es gut ist: bewegtschärfe. Dann sieht man in Bewegung mehr Details. Allerdings braucht es dafür dann auch den Monitor der das umsetzen kann (schnelles panel, hohe refreshrate) und einen PC der eine hohe Grund FPS schafft.
4K480 Hz mit 120 grund FPS wird auf einem schnellen OLED wahrscheinlich super scharf in Bewegung aussehen.
Für die jetzigen 240Hz 4K displays: 4x60-> 240 wären mir noch zu wenig Grund FPS. Da würde ich wahrscheinlich nur Stufe 2x oder 3x fahren. 80x3. Das sollte gut passen.
Was bei hohen Faktoren halt wichtig wird (und ich denke genau da hat DLSS 4 MFG angesetzt) ist (1) Frametimekosten (2) so wenig wie mögliche Artefakte (3) saubere Frametimes. Und bei allen dreien ist da ja ordentlich was passiert anscheinend.
Virtual
2025-01-25, 11:30:56
Naja, der Unterschied DLSS4 zu DLSS3 fällt ziemlich schnell auf ;) Und verglichen mit FSR2/3 wird der Unterschied auch für "Normalos" sofort auffallen. ...
Ist diese Aussage wirklich repräsentativ für die Allgemeinheit der Zocker? Kann sie es überhaupt sein? Du bist ein Individuum, du beschreibst deine subjektive, visuelle Wahrnehmung der Ereignisse auf deinem Monitor und überträgst die Einschätzung auf die Breite Masse der Zocker.
In ähnlicher Form erkennen einige Forenteilnehmer den Unterschied zwischen 120Hz und 240Hz derart eindringlich, dass sie tatsächlich zur festen "Überzeugung" kommen, es handele sich dabei um einen weiteren, für Zocker absolut relevanten Quantensprung in der Darstellungsqualität, weshalb MFG ein Killerfeature sei. Ich denke, die Motivation zu diesen Aussagen hat eine andere Ursache als die eigenen visuelle Wahrnehmung.
Meine persönliche Wahrnehmung der Unterschiede motiviert mich jedenfalls nicht zu solchen Aussagen, aber, klar doch, die Unternehmensumsätze müssen weiterhin generiert werden und zur Not wird dem Zocker eben eindringlich über Medien vermittelt, was er selbst nicht wahrnehmen kann, aber eben so wahrnehmen soll.
DrFreaK666
2025-01-25, 11:47:37
Das Problem an 4xFG ist doch, dass das nur sinnvoll ist, wenn man einen Monitor mit min. 240Hz hat.
Und ganz ehrlich: Wer sich demnächst eine 5070 (oder später eine 5060) holt, weil sie günstig ist, hat nicht auch automatisch noch Geld für einen Monitor zur Verfügung oder hat einen mit 120Hz und denkt: Das reicht noch für ein paar Jahre
robbitop
2025-01-25, 11:52:26
Ja das Upgrade für MFG ist teuer. Weg sind 2T EUR.
dildo4u
2025-01-25, 11:53:11
Das Problem an 4xFG ist doch, dass das nur sinnvoll ist, wenn man einen Monitor mit min. 240Hz hat.
Und ganz ehrlich: Wer sich demnächst eine 5070 (oder später eine 5060) holt, weil sie günstig ist, hat nicht auch automatisch noch Geld für einen Monitor zur Verfügung oder hat einen mit 120Hz und denkt: Das reicht noch für ein paar Jahre
240hz sind ziemlich verbreitet du vergisst 1080p IPS/TN Modelle 240hz OLED ist neu.
https://geizhals.de/?cat=monlcd19wide&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&bl1_id=30&xf=11939_23~11955_IPS~11963_240&sort=p#productlist
DrFreaK666
2025-01-25, 12:07:50
240hz sind ziemlich verbreitet...
Sagt wer? Ich kenne persönlich niemanden.
Der Steam Hardware Survey spuckt meines Wissens auch keine Zahlen aus
dildo4u
2025-01-25, 12:10:27
Es macht kein Sinn was langsameres zu kaufen wenn man sie für 200€ und billiger bekommt.
DrFreaK666
2025-01-25, 12:25:01
Das ist immer noch kein Beweis für "weit verbreitet".
Ich selbst habe erst kürzlich einen mit 180Hz gekauft und wüsste nicht wieso ich aktuell mehr bräuchte
basix
2025-01-25, 12:31:36
Ist diese Aussage wirklich repräsentativ für die Allgemeinheit der Zocker? Kann sie es überhaupt sein? Du bist ein Individuum, du beschreibst deine subjektive, visuelle Wahrnehmung der Ereignisse auf deinem Monitor und überträgst die Einschätzung auf die Breite Masse der Zocker.
Ist natürlich nicht "garantiert" ;)
Mein Vater hat auch schon gefragt wo das ist etc. und es war virtuelle Spielegrafik.
Aber jemand der regelmässig zockt (was man bei einer 500 Euro GPU wohl macht), sollte typischerweise schon Unterschiede erkennen können. Ist ja das selbe bei Qualitätssettings oder RT. Manchen fällt es weniger auf aber die Unterschiede fallen ab einem gewissen Grad dann doch auf. Und ich behaupte mal bei 1440p FSR2-P vs. DLSS4-P wird es deutlich auffallen. Bei FSR-Nativ vs. DLAA wohl weniger. Mir fällt es bei DLSS4 mit 4K DLSS-P vs. DLSS3 4K DLSS-Q auf ;)
Wenn man einen Grütze-Monitor hat oder eine weniger gute Sehkraft hat wird das Thema noch mehr aufgeweicht. Ist nicht schwarz-weiss ;)
dildo4u
2025-01-25, 12:44:02
Das ist immer noch kein Beweis für "weit verbreitet".
Ich selbst habe erst kürzlich einen mit 180Hz gekauft und wüsste nicht wieso ich aktuell mehr bräuchte
60fps x3 wären in dem Fall doch nützlich.
Badesalz
2025-01-25, 12:47:48
IMO ist FG (auch 4x) schon sinnvoll. Aber nur wenn man genug Grund FPS hat, so dass Artefakte und Inputlatwnz von Anfang an gut sind.Man spricht von zwischen 60fps und 75fps "base". Das aber auch nicht erst seit gestern ;)
Badesalz
2025-01-25, 12:55:12
Und ganz ehrlich: Wer sich demnächst eine 5070 (oder später eine 5060) holt, weil sie günstig ist, hat nicht auch automatisch noch Geld für einen Monitor zur Verfügung oder hat einen mit 120Hz und denkt: Das reicht noch für ein paar JahreDas ist auch außerhalb der Forenblasen überhaupt keine Metrik. Wenn es 120Hz hat, geht es um Größe/Auflösung. Es ist den Leute shicegal, ob der erträumte leicht gebogene UWQHD mehr als 120Hz hat.
Diese vermeintlichen Nerds laufen meist nur ihresgleichen rum und meine tonangebend zu sein. An sich haben sie dadurch, da alles drunter verachtet wird, keine Ahnung vom eigentliche Markt. Verkaufscharts von 1-2 Jahren spielen dabei auch nicht so DIE Rolle. Wichtig ist die vorhandene Masse. Nicht die aktuellen Neukäufe. Das sind Tendenzen für die Masse 2029 and above. Für jetztige Gens uninteressant.
DrFreaK666
2025-01-25, 12:55:18
60fps x3 wären in dem Fall doch nützlich.
Ja schon. Aber besser noch 90x2 :D
Und ich hab nicht ganz zufällig von 4xFG geredet.
"Voll krasse 240FPS mit MFG" wird auch der Werbespruch für kleinere Blackwell werden und wie gesagt: Ich sehe da keine Masse sich dann 240hz-Monitore kaufen, genauso wie ich jetzt keine weite Verbreitung sehe.
In ein paar Jahren ist das sicherlich interessanter, aber ich denke, dass viele noch mit ihren 120Hz bzw. 144Hz Monitoren zufrieden sind. Wieso auch nicht!?
Lurtz
2025-01-25, 12:59:26
Es ist im grünen Lager immer das selbe. Alles wird von Anfang an völlig unbegründet overhyped. Dann erlebt man es selbst und stellt fest ab wann es tatsächlich überzeugt bzw. brauchbar wird.
Komisch dass ich FG schon seit zwei Jahren immer wieder verwende und es völlig brauchbar ist ;D
Overhypen kannst du im AMD-Forum bezüglich AFM2 erleben :uup:
DrFreaK666
2025-01-25, 13:07:34
Du willst aber nicht behaupten, dass dargo AFMF2 overhyped :lol:
Lurtz
2025-01-25, 13:26:58
Nein, nur gewisse andere Leute.
ecodriver
2025-01-25, 13:49:43
FG ist nur brauchbar wenn man eh schon genug Frames hat (60 Frames bei normalen Spielen).
Bei schnellen Spielen braucht es mMn eher 100 bis 120 Frames.
Wenn ich so viele Frames habe brauch ich es nicht, die Verbesserung ist mMn marginal.
Wenn man drunter liegt ist es Grütze, bei Nvidia wie bei AMD.
Das fühlt sich mal so richtig schlecht an.
Wenn selbst die Online Mags und Zeitungen darauf hinweisen sollte man gewarnt sein.
Von daher ist FG in einer zu geringen Spanne sinnvoll nutzbar.
Wird vermutlich als eines von vielen Features in den Spiele auto. Optimierern von AMD und Nvidia verschwinden.
Das grundsätzliche Problem der FG mit niedrigen Frames lässt sich halt nicht lösen.
Ach nein ich hab ja ganz vergessen die KI wird es lösen, selbstverständlich weiß Sie wie der Mensch die Maus bewegen wird;D.
DrFreaK666
2025-01-25, 13:57:14
Nein, nur gewisse andere Leute.
Wiseman ist schon etwas biased, aber wenns für ihn passt: Ist doch in Ordnung.
Laut Richard von DF ist AFMF2 auch in Ordnung
dargo
2025-01-25, 14:28:37
Hauptsache FSR4 hypen obwohl das nur auf einen abgesperrten Messe-PC mit einem Spiel gelaufen ist, da fragt man sich wer was hypt, wird immer lustiger hier.
Wer hypt hier FSR4? Bisher wissen wir nur, dass auf der CES was gezeigt wurde was viele Problemzonen von FSR <4 behebt, mehr nicht. Bald erfahren wir mehr.
Man kann auch mit 120 oder 144 Hz prima von MFG profitieren. Ich hatte die Tage einige Ausflüge mit 40 bis 60 Basis-Fps in allerkrassester Qualität (DLAA, PT und so Dinge). Klarer Mehrwert, sofern man kein kompetitiver Multiplayer ist. :)
MfG
Raff
dargo
2025-01-25, 14:37:22
Es macht kein Sinn was langsameres zu kaufen wenn man sie für 200€ und billiger bekommt.
Mein Monitor ist bald 10 Jahre alt, jetzt bist du dran. :rolleyes: Ich hoffe du verstehst worauf ich damit hinaus will. Bei dir klingt das immer so, wenn etwas auf einen kleineren Preis geht sich zig Millionen Spieler direkt drauf stürzen.
Komisch dass ich FG schon seit zwei Jahren immer wieder verwende und es völlig brauchbar ist ;D
Was willst du jetzt von mir darauf hören? Dein Anspruch ist nicht besonders hoch? Mit ich nutze FG kann ich eh nichts anfangen, es hängt davon ab wie hoch deine Baseline fps sind. Nur ein Beispiel von vielen bei mir... mich haben selbst 140 FG-Frames nicht überzeugt weil ich um die 90+ Baseline fps hatte, was sich direkter anfühlt. Und nein... Baseline 60fps sind mir nicht genug. Zumindest nicht dauerhaft.
Hakim
2025-01-25, 14:38:15
Ich weiß ja nicht, ich persönlich will nur 120-140+ nur bei competitive Spielen. Und gerade da würde ich persönlich nicht FG oder MFG nutzen. Da wird auch bei vielen Pro Spielern die streamen von dem was ich gesehen habe nicht genutzt. Meisten haben selbst mit 4090 oder XTX competitive Settings, sprich meisten Einstellungen auf low oder mid, max noch DLSS oder FSR wenn es keine Nachteile gibt.
fondness
2025-01-25, 14:55:46
Jo bestes beispiel DLSS1 super overhyped und atsächlich schlecht und dann wird AMD vorgeworfen keine Ausgereiften produkte zu produzieren.
Es ist einfach nur lächerlich...
Das grösste problem von MFG und FG ist, dass es in weniger als 10% der spielen unterstützt wird die pro Jahr rauskommen. Und wie schon oft gesagt ohne Rohpower bringt dir das beste MFG heut offensichltich auch nichts. Daher sollten die Tester mal anfangen bei DLSS und FSR immer auch die BASE FPS mit angeben, dann könnte man das ERgebnis auch sauber interpretieren.
Es ist aber davon auszugehen, dass das in Zukunft besser wird, da die Technik immer noch am Anfang ist.
Warum sollte man AMD absprechen an MFG zu arbeiten ? Verstehe ich nicht... So hinterm mond sind sie nun auch wieder nicht.
ich hab z.b. der Unterschied nur am Anfang direkt nach dem umstellen gemerkt als ich von 60 herz auf 144 herz monitor umgestiegen bin, danach nicht mehr. Bang jetzt habt ihr es. Ist wohl bei jedem einfach anders... Ich kann auch problemlos mit 30 fps spielen, vermtulich weil wir halt früher mit noch deutlich wneiger gespielt hatten und das ging auch problemlos :)
Interessant finde ich auch dass computerbase bei weitem nicht den begeisterungssturm von DLSS 4 vermitteln wie die anderen portale. Da frage ich mich, wer hat es jetzt ehrlich getestet und wer nicht, da eben neue problemstellen aufgemacht wurden und da DLSS3 dann weider besser war.
witzig finde ich dann die NVidia vergleiche von dlss3 performance mit dlss 4 quality mode. Wenn man schon zu solchen mitteln greifen muss ist es ja mehr als fair die frage zu stellen wie hoch der sprung tatsächlich ist....
ES wird wie bei den anderen Versionen sein, auf Dauer ist DLSS4 das bessere modell, jetzt scheint es halt noch nicht bei allen gut zu funktionieren. Das liegt sicher auch daran, dass man lernen muss es sauber zu implementieren.
immer erst dem anderen vorwerfen, dass man nicht objektiv ist, kann man machen, aber man sollte zuerst bei sich selbst anfangen und das fehlt heute sehr vielen menschen, da ja jeder die Weisheit mit Löffeln gefressen hat...
CB ist super. Einer der letzten kritischen Redaktionen. Das ist noch echter Journalisten, die meisten beten Marketing Material nach.
dildo4u
2025-01-25, 15:09:32
Powercolor 9700XT Modelle
https://videocardz.com/newz/powercolor-formally-introduces-radeon-rx-9070-xt-hellhound-and-reaper-gpus
Hakim
2025-01-25, 15:11:39
Irgendwie hatten die FE Kühler der Ampere und Ada gen großen Einfluss überall
Palpatin
2025-01-25, 15:12:06
Man kann auch mit 120 oder 144 Hz prima von MFG profitieren. Ich hatte die Tage einige Ausflüge mit 40 bis 60 Basis-Fps in allerkrassester Qualität (DLAA, PT und so Dinge). Klarer Mehrwert, sofern man kein kompetitiver Multiplayer ist. :)
MfG
Raff
Merkt man bei 120 HZ, bei ca. 60 Basis Frames tatsächlich einen wirklich merkbaren Unterschied zwischen 1 oder 2 oder 3 AI Fake Frames, z.B. bei einem Blindtest ohne zu wissen was gerade eingestellt ist und wieviel Frames gerade anliegen.
DrFreaK666
2025-01-25, 15:23:47
Man kann auch mit 120 oder 144 Hz prima von MFG profitieren. Ich hatte die Tage einige Ausflüge mit 40 bis 60 Basis-Fps in allerkrassester Qualität (DLAA, PT und so Dinge). Klarer Mehrwert, sofern man kein kompetitiver Multiplayer ist. :)
MfG
Raff
Ohja, plötzlich sind FPS unter 60 wieder endgeil
Merkt man bei 120 HZ, bei ca. 60 Basis Frames tatsächlich einen wirklich merkbaren Unterschied zwischen 1 oder 2 oder 3 AI Fake Frames, z.B. bei einem Blindtest ohne zu wissen was gerade eingestellt ist und wieviel Frames gerade anliegen.
Nun, es gibt immer noch Leute, die etwas von "Mehr als 24 Fps sieht man eh nicht" faseln. Ich entgegne da immer: "Stimmt, 12 pro Auge halt!" ... und verlasse die absolut sinnlose Diskussion. :D Solche Leute merken das nicht. Aber das dürften Ausnahmen sein.
Aus dem Beispiel hier, Cyberpunk-Werte: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/5/
Der Bildfluss mit rund 180 Frames ist natürlich viel besser als mit gut 50 nativen Frames. Selbst wenn man unterstellt, dass die "künstlichen" Frames etwas schlechter aussehen als die "echten", ist der Faktor so groß, dass es wesentlich besser aussieht - sofern man keinen Bereich erwischt, wo MFG irgendeine flackernde Schmiergrütze produziert, was passieren kann. Und was die Latenz angeht: Die Benchmarks ohne FG laufen ohne Anti-Lag-Maßnahmen, sprich, FG-Werte, die immer Reflex drin haben, fühlen sich nicht zwangsläufig schlechter an. Insofern kann ich mich da nur wiederholen (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/7/):
"[...] RTX-5000-GPUs dürfen außerdem die neuen MFG-Modi 3× und 4× verwenden. Zwar arbeitet keiner davon absolut perfekt, allerdings muss man bei neutraler, blind testender Herangehensweise eines konstatieren: Sie sind gut genug. Gut genug für das Auge, das eine flüssigere Bildfolge wahrnimmt. Gut genug für die Hand, welche dank Reflex (2) keine übermäßige Latenz zu fühlen bekommt. Wären viermal so viele native Frames besser? Zweifellos - und dennoch stellt MFG einen klaren Mehrwert dar, welcher das Spielerlebnis verbessert."
Die selektive Wahrnehmung einiger Spezialisten hier verhindert leider, diese Erkenntnisse neutral aufzunehmen. Wer MFG als Mehrwert sieht, ist kein ernsthafter Journalist. ;D Ich werde all diesen Quatsch mal sammeln und dann, wenn AMDs Antwort von denselben Leuten hochgejubelt oder aufs Schärftste verteidigt wird, wieder rausholen.
Ohja, plötzlich sind FPS unter 60 wieder endgeil
Ich fand 40 Fps schon immer akzeptabel, bin aber eine ganz klare Ausnahme (habe verstanden, dass man einen Hi-Res-Fetisch und einen High-Fps-Fetisch nicht vereinbaren kann -> Hi-Res ;)).
MfG
Raff
dargo
2025-01-25, 15:34:38
Powercolor 9700XT Modelle
https://videocardz.com/newz/powercolor-formally-introduces-radeon-rx-9070-xt-hellhound-and-reaper-gpus
Nanu... die Hellhound ist nur Dualslot? Das ist eigentlich ein gutes Zeichen bezüglich TGP, 7900XTX Hellhound war noch Tripleslot.
basix
2025-01-25, 15:40:26
Ich fand 40 Fps schon immer akzeptabel, bin aber eine ganz klare Ausnahme (habe verstanden, dass man einen Hi-Res-Fetisch und einen High-Fps-Fetisch nicht vereinbaren kann -> Hi-Res ;)).
Uiii, da bin ich wohl eine noch grössere Ausnahme :D
High-Res / Bildschärfe und -klarheit finde ich ziemlich wichtig (habe ich immer an DLSS2/3 bemängelt, habe eine 4K Monitor und nutze oft DSR/DLDSR obendrauf) und daneben fühle ich mich erst bei >80...100fps wohl, besser 120+fps. Ich musste mich da immer in Richtung Kompromiss bewegen, trotz starker GPU. Und bei der Framerate ist bei mir die Bildausgabe wichtiger als die Input Latency (FG x2 auf Ada ist für mich also ein Gewinn), ich spiele aber mehr Single Player und nicht mehr kompetitiv online wie früher. Aber bei nur 40 Render-FPS ist bei mir nur in wenigen Fällen die Latenz tief genug. Alan Wake 2 ist ein Beispiel, das ist aber sehr langsam. Und: 60fps Render sind oftmals zwar OK hinsichtlich Eingabelatenz, aber 120fps fühlen sich deutlich besser an. Ach herrje :D Wann erscheint jetzt nochmals Frame Extrapolation mit Framewarp? ;D
Nicht so schlimm, man kann gut Spielen (und es ist wirklich nur "Spielen", nichts überlebenswichtiges). Und an Eingabelatenz oder etwas zu niedrige Framerate gewöhnt man sich nach einer gewissen Zeit (das schöne an unserem Gehirn :)). Nur der "perfekte Zustand" ist noch nicht erreicht. Da gibt es noch Entwicklungspotential, aber der Weg dorthin lässt sich erahnen ;)
dildo4u
2025-01-25, 15:42:35
Der Kühler geht über 2 Slot.
https://i.ibb.co/HHGypL7/product-2025012315020810.webp (https://ibb.co/71rDNxv)
https://www.powercolor.com/product-detail223.htm
dargo
2025-01-25, 15:45:18
Ah ok... sieht eher nach 2,3 bis 2,5 Slot aus. Info von videocardz mal wieder falsch.
aufkrawall
2025-01-25, 15:46:24
Nanu... die Hellhound ist nur Dualslot? Das ist eigentlich ein gutes Zeichen bezüglich TGP
Nicht wenn AMD die TBP hochgekloppt hat, nachdem schon Karten produziert waren.
dargo
2025-01-25, 15:48:04
Bei mir gehts eh runter Richtung ~250W.
dildo4u
2025-01-25, 15:49:27
7900XT hatte 320 TDP mit dieser Kühler höhe GPU war kalt könnte man deutlich langsamer laufen lassen.
https://www.techpowerup.com/review/amd-radeon-rx-7900-xt/3.html
dargo
2025-01-25, 15:59:50
Pfff... die 7900XTX Hellhound konnte ich bei 312W locker mit max. 1000RPM betreiben, völlig unhörbar aus dem geschlossenen Gehäuse (war aber Tripleslot "Klopper"). Dagegen ist die Referenz 7900XT laut. :tongue:
Exxtreme
2025-01-25, 17:31:51
Der Kühler geht über 2 Slot.
https://i.ibb.co/HHGypL7/product-2025012315020810.webp (https://ibb.co/71rDNxv)
https://www.powercolor.com/product-detail223.htm
Dieser Kühler bläst die Hitze aber auch in Richtung CPU/RAM. Ist auch wieder bissl blöd.
dildo4u
2025-01-25, 17:35:56
Nicht direkt oder der CPU Kühler sollte über den ersten beiden Lüftern sein dort ist die Backplate.
Palpatin
2025-01-25, 17:39:13
Ich fand 40 Fps schon immer akzeptabel, bin aber eine ganz klare Ausnahme (habe verstanden, dass man einen Hi-Res-Fetisch und einen High-Fps-Fetisch nicht vereinbaren kann -> Hi-Res ;)).
MfG
Raff
Bin auch eher auf Highres aus. Hab aber durchaus große vorbehalte gegen FG und MFG weil ich da bisher mit der 4070ti fast ausschließlich schlechte Erfahrungen gemacht habe. Dying Light 1 habe ich als es rauskam in 4k mit Gsync und ~40 FPS gespielt und war damit absolut fein. Mittlerweile gibt es viele Games (hauptsächlich UE5) die mit 60-80 echten oder mit ~100 gefakten FPS gefühlt deutlich schlechter laufen.....
Der_Korken
2025-01-25, 17:50:14
Dieser Kühler bläst die Hitze aber auch in Richtung CPU/RAM. Ist auch wieder bissl blöd.
Wohin soll der Kühler die Luft sonst pusten? In alle Richtungen, damit er einen Teil davon mehrfach durch den Radi zieht? Mehr als wir aktuell haben ist mit ATX nicht drin. Würde man Boards und Gehäuse mit der heutigen Hardware im Hinterkopf neu designen, würde man alles anders machen.
Warum hat man DHE nicht weiter entwickelt? Eigentlich war dies eine vernünftige Lösung, nur eben viel zu laut.
BTW. benötigt die Reaper lediglich 2 Steckplätze. Wurde auf CB nochmals aufgegriffen.
rentex
2025-01-25, 18:25:22
Wohin soll der Kühler die Luft sonst pusten? In alle Richtungen, damit er einen Teil davon mehrfach durch den Radi zieht? Mehr als wir aktuell haben ist mit ATX nicht drin. Würde man Boards und Gehäuse mit der heutigen Hardware im Hinterkopf neu designen, würde man alles anders machen.
Gabs ja schon nen Versuch mit BTX...oder? Oder Gehäuse mit Überkopf einbau der Mobo.
why_me
2025-01-25, 18:36:59
Warum hat man DHE nicht weiter entwickelt? Eigentlich war dies eine vernünftige Lösung, nur eben viel zu laut.
Was willst du da groß weiterentwickeln? Leiser wirst du das kaum bekommen, weil die ganze Luft durch eine viel kleinere Fläche gedrückt werden muss.
Exxtreme
2025-01-25, 18:54:19
Wohin soll der Kühler die Luft sonst pusten?
Nach draussen so wie bei anderen Grafikkarten auch.
Der_Korken
2025-01-25, 19:14:47
Warum hat man DHE nicht weiter entwickelt? Eigentlich war dies eine vernünftige Lösung, nur eben viel zu laut.
Damit hast du dir deine Frage bereits selbst beantwortet.
Gabs ja schon nen Versuch mit BTX...oder? Oder Gehäuse mit Überkopf einbau der Mobo.
Das Board nur um 180 Grad zu drehen, bringt nichts. Das PCB der Graka ist eine riesige Sperre im Gehäuse, die jeglichen Airflow im Gehäuse behindert. Man müsste Grakas standardmäßig parallel zum MB verbauen und einen Towerkühler auf die GPU setzen wie das bei CPUs der Fall ist. Damit wäre ein konsistentes Airflow-Konzept möglich.
Nach draussen so wie bei anderen Grafikkarten auch.
Welche denn z.B.? Die 50dB-Vega-Referenzkarten von 2017? Meine letzte Custom-Karte mit DHE-Kühler ist von 2007 (!).
Exxtreme
2025-01-25, 19:17:49
Welche denn z.B.? Die 50dB-Vega-Referenzkarten von 2017? Meine letzte Custom-Karte mit DHE-Kühler ist von 2007 (!).
Meine Sapphire RX5700XT bläst die Luft nach draussen.
dargo
2025-01-25, 19:28:31
Dieser Kühler bläst die Hitze aber auch in Richtung CPU/RAM. Ist auch wieder bissl blöd.
Bei ~250W kein Problem hier. Einfach keine Heizöfen mit über 300W kaufen, dann bekommt man auch keine Schwierigkeiten. Hat man ein eher "ungünstiges" Gehäuse dann halt ~200W.
Meine Sapphire RX5700XT bläst die Luft nach draussen.
Nur ein kleiner Teil wird damit nach draußen befördert.
Falls du diese meinst, die hatte ich auch.
https://www.sapphiretech.global/de-de/consumer/pulse-radeon-rx-5700-xt-8g-gddr6
Die hatte den Vorteil, dass die Kühllamellen um 90° gedreht waren.
Exxtreme
2025-01-25, 19:51:55
Nur ein kleiner Teil wird damit nach draußen befördert.
Falls du diese meinst, die hatte ich auch.
https://www.sapphiretech.global/de-de/consumer/pulse-radeon-rx-5700-xt-8g-gddr6
Die hatte den Vorteil, dass die Kühllamellen um 90° gedreht waren.
Nein, ich habe die:
https://www.sapphiretech.com/de-de/consumer/21293-01-40g-radeon-rx-5700-xt-8g-gddr6
Und die bläst 100% der heissen Luft nach draussen. Schade, dass das eine Seltenheit geworden ist.
fondness
2025-01-25, 20:03:13
Nein, ich habe die:
https://www.sapphiretech.com/de-de/consumer/21293-01-40g-radeon-rx-5700-xt-8g-gddr6
Und die bläst 100% der heissen Luft nach draussen. Schade, dass das eine Seltenheit geworden ist.
Ja wurde leider auch von Testern nicht gouttiert, da wurde immer nur auf die Lautstärke verwiesen. Dass es ein beträchtlicher Vorteil ist, wenn die warme Luft nicht alles aufheizt liest man kaum wo.
dargo
2025-01-25, 20:10:48
Nein, ich habe die:
https://www.sapphiretech.com/de-de/consumer/21293-01-40g-radeon-rx-5700-xt-8g-gddr6
Und die bläst 100% der heissen Luft nach draussen. Schade, dass das eine Seltenheit geworden ist.
Ach das Ding, praktisch eine Referenz. Sowas ist mir zu laut.
Badesalz
2025-01-25, 20:23:14
Nur ein kleiner Teil wird damit nach draußen befördert.
Ja, aber das reicht wohl aus auf dem 90800X3D um den D15 herum zu kommen. Die FE wärmt das restliche System schon extrem auf.
(haben wir das nicht schon 3x durchgekaut seit dem Launch?)
PS:
Wie ist das eigentlich mit den Quadros (PNY)? Die haben alle diese "meiste raus" Kühler. Ist das nicht zu laut für Workstation?...
Der_Korken
2025-01-25, 20:37:55
Nein, ich habe die:
https://www.sapphiretech.com/de-de/consumer/21293-01-40g-radeon-rx-5700-xt-8g-gddr6
Und die bläst 100% der heissen Luft nach draussen. Schade, dass das eine Seltenheit geworden ist.
Die 5700XT hat maximal 225W verbraucht und das war schon nicht besonders leise: https://www.computerbase.de/artikel/grafikkarten/radeon-rx-5700-xt-test.68313/seite-3#abschnitt_lautstaerke__kuehlung
Mit 300W wird es nur schlimmer. Das DHE-Prinzip zu skalieren ist nicht so leicht, da der die Karte nur in der Bauhöhe aber nicht in der Fläche wachsen kann. Ich weiß nicht, ob man Radiallüfter mit vier Slots Bauhöhe bauen kann, die dann bei gleicher Lautstärke proportional mehr Luftstrom auf den Radiator erzeugen. Aber im Prinzip geht das in Richtung Towerkühler, wie ich oben schrieb, nur dass die Karte senkrecht zum MB steht und ihren eigenen Luftkanal mitbringt.
Ich finde die FE-Bauweise von Nvidia mit den ultrakleinen PCBs und mehr Durchstrom von unten nach oben wesentlich interessanter für die ATX-Welt. In Gehäusen, wo man den kompletten Boden als Intakte nutzen und im Deckel eine AiO verbauen entsprechend Outtake verbauen kann, bekommt man damit etwas hin, was man zumindest mal als Airflow-Konzept bezeichnen kann. Da GPUs mittlerweile ein Vielfaches aller anderen Komponenten verbrauchen, wäre es eigentlich günstiger diese ans Ende der Kette zu stellen, aber dazu müsste man die Graka umdrehen, sodass die Lüfter von oben ansaugen und nach unten blasen. Die Gehäuselüfter kann man natürlich schon heute umdrehen, aber wenn die Graka falsch rum bläst, funktioniert das nicht (selbst probiert aus Neugier).
Nachdem die Reaper lediglich 2 Slots braucht, sehe ich die 265W für BBA und günstige Costums als gesichert an. Dargo wird sich freuen ...
dildo4u
2025-01-26, 04:40:32
Abwarten könnte sein das man einfach was anbieten will was in SFF Gehäuse passt.
Es wurden z.b 4080 in Dual Slot Produziert.
https://videocardz.com/newz/elsa-launches-dual-slot-geforce-rtx-4080-super-s-a-c-x3-graphics-card
AMD eigene Benches hatten 304 als TDP vermutlich nicht final.
https://youtu.be/bZ6NeSGad4I?si=GDFaSu86EkYiLdvg&t=587
dargo
2025-01-26, 07:02:07
Nachdem die Reaper lediglich 2 Slots braucht, sehe ich die 265W für BBA und günstige Costums als gesichert an. Dargo wird sich freuen ...
Hehe... nee, danach kannst du nicht unbedingt gehen. Reaper ist die Einstiegsklasse bei Powercolor, da darf die Kühlung durchaus etwas lauter werden.
AMD eigene Benches hatten 304 als TDP vermutlich nicht final.
https://youtu.be/bZ6NeSGad4I?si=GDFaSu86EkYiLdvg&t=587
Das stimmt zwar... jetzt aber wo jeder sieht wie winzig Blackwell zulegt könnte AMD theoretisch die XT wieder weniger "prügeln". Es ist alles noch möglich... sowohl rauf als auch runter. :tongue: Je nachdem welches Ziel die Verantwortlichen verfolgen. Die RX 9070XT war sicherlich als Nachfolger für die RX 7800XT geplant.
dildo4u
2025-01-26, 07:28:34
Ich würde sie Prügeln wer weniger will für die ist die 9700 da und im Gegensatz zur 7700XT macht man keine Kompromisse beim Vram.
dargo
2025-01-26, 07:59:24
Schwer zu beurteilen. Einerseits ja da AMD bei RDNA4 nichts größeres als N48 released. Anderseits aber auch nein, man erinnere sich an den N10 mit 225W (real 210W). Auch da hatte AMD nichts Schnelleres. Und mal ganz ehrlich... der Unterschied zwischen 300W und 265W wird kaum mehr als 2% Performance ausmachen, wen juckt das? Dafür gibt es AIBs mit ihren =>300W im OC-Bios.
robbitop
2025-01-26, 08:11:15
Man könnte das wie du sagst mit Multi BIOS lösen. Das gab es in der Vergangenheit bei AMD mit einem silent und einem Performance BIOS. Oder man bringt halt eine extra low TDP SKU raus so wie bei der Fury Nano.
Und wenn man endlich wieder UV und TDP Absenkung ohne große Restriktionen bringt ist es auch egal.
dargo
2025-01-26, 08:16:08
Sowas wie eine Nano wird es nie mehr geben.
robbitop
2025-01-26, 08:29:04
Wahrscheinlich nicht. Hat sich anscheinend nicht besonders verkauft.
dildo4u
2025-01-26, 08:57:44
Kein Plan ob das wieder Möglich ist aber die 7800XT legt gut zu über 250 Watt.
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/40.html
fondness
2025-01-26, 11:14:16
Kein Plan ob das wieder Möglich ist aber die 7800XT legt gut zu über 250 Watt.
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/40.html
N31/N32 sind auch verbuggt, die Chips schaffen deutlich über 3Ghz müssen aber auf deutlich weniger gedrosselt werden weil sonst die TDP davonläuft. Klar hilft da mehr TDP. Das würde ich so bei N48 nicht mehr erwarten.
horn 12
2025-01-26, 12:05:48
https://videocardz.com/newz/amd-fsr4-support-may-be-added-to-all-fsr3-1-games
FSR 3.1 wird zu FRS 4.0 zu Release der RDNA 4 Karten
robbitop
2025-01-26, 12:12:00
Das war doch schon lange bekannt?
fizzo
2025-01-26, 12:16:07
Das war doch schon lange bekannt?
Für Videocardz war es wohl neu. Mir auch.
robbitop
2025-01-26, 12:19:07
Das wurde iirc schon zur CES im Q&A gesagt und stand auch indirekt auf einer von AMDs slides.
fondness
2025-01-26, 12:20:31
Das der Treiber die DLL direkt austauscht wusste ich bisher auch nicht. Damit werden alle FSR 3.1 Spiele automatisch FSR 4 Games.
fizzo
2025-01-26, 12:28:38
Das wurde iirc schon zur CES im FAQ gesagt und stand auch indirekt auf einer von AMDs slides.
Stimmt, da steht was in der Fußzeile....
DrFreaK666
2025-01-26, 12:28:56
Neu ist eine Liste mit Games, die FSR 3.1 unterstützen
robbitop
2025-01-26, 12:30:31
Das der Treiber die DLL direkt austauscht wusste ich bisher auch nicht. Damit werden alle FSR 3.1 Spiele automatisch FSR 4 Games.
Naja es steht in der Fußleiste einer slide zumindest indirekt und da seit fsr3.1 dlls geupgradet werden können sind es maximal 1+1 zusammenzählen ^^
basix
2025-01-26, 12:32:32
Ist ja nichts anderes, was Nvidia mit DLSS4 auch macht ;)
fondness
2025-01-26, 12:34:34
Naja es steht in der Fußleiste einer slide zumindest indirekt und da seit fsr3.1 dlls geupgradet werden können sind es maximal 1+1 zusammenzählen ^^
Naja gut das herumgefrickel mit DLLs würde mich nerven.
aufkrawall
2025-01-26, 12:35:16
Naja es steht in der Fußleiste einer slide zumindest indirekt und da seit fsr3.1 dlls geupgradet werden können sind es maximal 1+1 zusammenzählen ^^
Es gab afair auch schon in PAL Erwähnungen von FSR 4. Wenn man nicht so blöd-naiv ist und etwas wie "FSR 4 in allen Spielen über Treiber!!1" glaubt, auch ein weiteres Indiz.
robbitop
2025-01-26, 12:41:10
Naja gut das herumgefrickel mit DLLs würde mich nerven.
Macht ja dann die AMD Software anscheinend auf Wunsch. Dann ist es auch Endkunden freundlich. :)
dargo
2025-01-26, 13:11:58
Das der Treiber die DLL direkt austauscht wusste ich bisher auch nicht. Damit werden alle FSR 3.1 Spiele automatisch FSR 4 Games.
Endlich denkt mal einer mit, und damit meine ich nicht dich. ;)
Ist ja nichts anderes, was Nvidia mit DLSS4 auch macht ;)
Nur wird es von dargo und Co. vehement bekämpft, und hier bei AMD bejubelt. :rolleyes:
dargo
2025-01-26, 15:01:59
Wat? Was wird von mir bejubelt?
Ich weiß nicht, ob dies hier bereits diskutiert wurde, aber ich habe etwas davon gehört, dass es keine BBA in den Handel schaffen wird.
Altehardware
2025-01-26, 21:11:48
ja weil amd keine produziert
ja weil amd keine produziert
Gehe ich damit recht in der Annahme, dass es keine "offizielle" TDP geben wird?
dargo
2025-01-27, 07:29:39
Eine offizielle TGP muss es geben. Schließlich müssen die AIBs eine Richtlinie haben.
DrFreaK666
2025-01-27, 08:47:29
these cards were initially planned to sell at around $899 for the RX 9070 XT and $749 for the RX 9070 non-XT, with a launch date of January 23
Was meint ihr? Senkt AMD die Preise?
Linmoum
2025-01-27, 08:54:39
Lol. Dachte AMD, dass Nvidia die 5070 auf $900 anhebt, oder wie?
Dann sind die ganzen Händler, die schon Karten haben/hatten, natürlich alles andere als begeistert, weil daraus dann mal eben realistisch maximal eigentlich nur $500 geworden sind und man die Karten vermutlich für mehr als das eingekauft hat.
basix
2025-01-27, 08:55:37
Kann mir nicht vorstellen, dass AMD so hohe Preise verlangen wollte. Insbesondere, wenn Blackwell vermutlich schneller hätte werden sollen. Eine 5080 hätte 999$ bei 1.3x Performance landen können. Wieso sollte AMD dann die 9070XT für 899$ verkaufen wollen? Und AMD betonte immer weider, dass sie auf Market Share aus sind und ein attraktives Angebot liefern werden. Ergo macht diese Preise keinen Sinn.
Wenn AMD auf Market Share aus ist, sollten sie eher sowas machen:
- 9070XT = 599$ = 4080 / 5070 Ti Raster Performance
- 9070 = 499$ = 4070 Ti / 1.1x 5070 Raster Performance
Verglichen mit N32 wären das bereits gut gesteigerte MSRP. Und man erreicht die >1.2x Perf/$ die es wohl braucht, damit die Leute von Nvidia zu AMD umschwenken.
Altehardware
2025-01-27, 08:57:08
Solche preise nenn ich mal Marktfremd 900$ hier 1029€ fürn 70er chip
Was hat da amd geritten das kostet nicht mal die aktuelle n31 sku
außer es sind kanadische dollar (0,66).
Dann wäre es ne logische Antwort 709€
Das klingt deutlich realistischer.
amd konnte die preise nicht kennen zur ces daher nehme ich stark an das dlss4 mfg zum Abbruch der Vorstellung gekommen ist.
basix
2025-01-27, 08:59:24
Wobei MFG erwartbar war, da eine Art logische Weiterentwicklung. AMD hat das sicher als Möglichkeit in Betracht gezogen.
Der_Korken
2025-01-27, 09:05:40
Kann mir nicht vorstellen, dass AMD so hohe Preise verlangen wollte. Insbesondere, wenn Blackwell vermutlich schneller hätte werden sollen. Eine 5080 hätte 999$ bei 1.3x Performance landen können. Wieso sollte AMD dann die 9070XT für 899$ verkaufen wollen? Und AMD betonte immer weider, dass sie auf Market Share aus sind und ein attraktives Angebot liefern werden. Ergo macht diese Preise keinen Sinn.
Irgendwelchem unverbindlichem Gerede um Market Share würde ich nicht weiter trauen als ich werfen kann. Natürlich waren 900$ für die 9070XT völliger Schwachsinn. Selbst gegen Ada wäre das P/L-technisch nur Gleichstand gewesen und somit für einen 2 Jahre späteren Chip ziemlich uninteressant. Dass AMD entweder übersehen hat, dass Nvidia nach all der Zeit auch eine neue Gen bringen könnte bzw. fest damit geplant hat, dass Nvidia eine neue Gen launcht, die weniger leistet als die alte, traue ich denen durchaus zu. Da habe ich die letzten 2,5 Jahre zu viel gesehen, sorry.
ashantus
2025-01-27, 09:08:28
Was meint ihr? Senkt AMD die Preise?
899 Dollar?
Die Meldung glaube ich nicht. AMD hat gesagt, dass die Karte deutlich unter 1000 liegen wird.
Zweitens liegt die 7900xt bei 700€, was auch eine Messlatte bleibt in der Preisgestaltung.
GerryB
2025-01-27, 09:11:16
7900xt aktuell ab 679€
Von daher die 9070nonXt deutlich darunter ?, ... 649€ maximal, eher 579€, weil
da gänge man ja noch von dem ersten TS-Leak aus, wo die nonXT <<7900xt rauskam.
9070 =579€ passt dann zu 9070xt <699€
für 9070xt >749€ müsste die RT-Perf. auf 4070TiS-Niveau sein, was noch nicht ausreichend
belegt ist, derzeit gibts da nur den CP2077-Leak
Zur 5070Ti ist vermutlich der Abstand@RT so groooß, das der Preis nur deutlich kleiner sein kann.
Hakim
2025-01-27, 09:13:20
Das wären 9070 auf 5070Ti Preis und 9070XT sehr nah am 5080. Zumindest vom FE Ausgehend. Wenn es stimmen sollte, entweder AMD hat mit deutlich teueren BW Preisen gerechnet oder AMD war überzeugt Performance mäßig so gut zu stehen das es aufgeht. Dennoch eigenartig, vor allem die aussaugen das man preislich keine 1k Karten verkaufen will, aber 899$ oder wie?
dargo
2025-01-27, 09:15:42
Was meint ihr? Senkt AMD die Preise?
Ohne die endgültige Performance von N48 zu kennen lässt sich das nicht beantworten.
899 Dollar?
Die Meldung glaube ich nicht. AMD hat gesagt, dass die Karte deutlich unter 1000 liegen wird.
Zweitens liegt die 7900xt bei 700€, was auch eine Messlatte bleibt in der Preisgestaltung.
Von deutlich unter 1.000$ habe ich nichts mitbekommen. Der letzte Stand war weniger als 1.000$ und mehr als 300$.
Linmoum
2025-01-27, 09:17:31
899 Dollar?
Die Meldung glaube ich nicht. AMD hat gesagt, dass die Karte deutlich unter 1000 liegen wird.
Zweitens liegt die 7900xt bei 700€, was auch eine Messlatte bleibt in der Preisgestaltung.Die Aussage kam mit Sicherheit, nachdem man den Launch schon verschoben hatte.
Davon ab sollten AMDs eigene Karten nicht als Orientierung für Preise dienen. Denn damit gewinnt man keine Marktanteil, was man aber als klares Ziel ausgegeben hat und was auch bitter nötig ist bei dem bisschen, was AMD aktuell noch an dGPU-Marktanteil hat.
fondness
2025-01-27, 10:06:47
Dass AMD entweder übersehen hat, dass Nvidia nach all der Zeit auch eine neue Gen bringen könnte bzw. fest damit geplant hat, dass Nvidia eine neue Gen launcht, die weniger leistet als die alte, traue ich denen durchaus zu. Da habe ich die letzten 2,5 Jahre zu viel gesehen, sorry.
Dass die Preise keinen Sinn ergeben, sollte jeder mit ein paar Gehirnzellen eigentlich sehen. Natürlich kann man es so wie Der_Korken machen und einfach die Leute bei AMD für kollektiv dumm erklären. In der Quelle wird im übrigen auch von einer Red Devil Limited Edition gesprochen. Das sind irgendwelche überteuerten Karten mit tollen Karton, sofern die Angaben überhaupt korrekt sind. Eine mögliche Erklärung wäre natürlich auch, dass man glaubte vor Nvidia zu launchen.
https://videocardz.com/newz/retailer-confirms-powercolor-radeon-rx-9070-xt-red-devil-limited-edition-is-in-stock-talks-amd-pricing-strategy
basix
2025-01-27, 10:16:44
Irgendwelchem unverbindlichem Gerede um Market Share würde ich nicht weiter trauen als ich werfen kann. Natürlich waren 900$ für die 9070XT völliger Schwachsinn. Selbst gegen Ada wäre das P/L-technisch nur Gleichstand gewesen und somit für einen 2 Jahre späteren Chip ziemlich uninteressant. Dass AMD entweder übersehen hat, dass Nvidia nach all der Zeit auch eine neue Gen bringen könnte bzw. fest damit geplant hat, dass Nvidia eine neue Gen launcht, die weniger leistet als die alte, traue ich denen durchaus zu. Da habe ich die letzten 2,5 Jahre zu viel gesehen, sorry.
AMD wird sicher keine Wohlfahrtspreise ansetzen, das ist klar.
Aber:
Eine 9070XT für 579/599$ sowie 9070 für 499/529$ wäre verglichen mit Lovelace und Blackwell relativ attraktiv (dazu 16GB) und gleichzeitig steigert man die Margen verglichen zu N32 (Release- und heutige Marktpreise) und vor allem auch N31 zu heutigen Marktpreisen.
Das wären vermutlich ca. 1.2x P/L verglichen zu Blackwell MSRP (Marktpreise werden wir noch sehen). Ist kein Quantensprung, aber merkbar besser.
Schlussendlich Win-Win für Kunden sowie AMD, wenn man damit das RDNA3 Portfolio ablöst. Und gegenüber Nvidia würde es auch gut aussehen.
Dino-Fossil
2025-01-27, 10:40:30
Lol. Dachte AMD, dass Nvidia die 5070 auf $900 anhebt, oder wie?
Dann sind die ganzen Händler, die schon Karten haben/hatten, natürlich alles andere als begeistert, weil daraus dann mal eben realistisch maximal eigentlich nur $500 geworden sind und man die Karten vermutlich für mehr als das eingekauft hat.
Das wäre zumindest nochmal die gleiche Aussage, wie das Gerücht vor 1-2 Wochen zu den Preisänderungen hinter den Kulissen. Zuzutrauen wäre es nVidia natürlich gewesen.
Ich könnte mir aber vorstellen, dass sie aufgrund der relativ handzahmen Fortschritte von Blackwell versuchen werden, in Richtung 550$ und mehr zu gehen, wenn man sich sicher ist, die 5070er klar übertreffen zu können.
Palpatin
2025-01-27, 10:41:55
Aber:
Eine 9070XT für 579/599$ sowie 9070 für 499/529$ wäre verglichen mit Lovelace und Blackwell relativ attraktiv (dazu 16GB) und gleichzeitig steigert man die Margen verglichen zu N32 (Release- und heutige Marktpreise) und vor allem auch N31 zu heutigen Marktpreisen.
599$ falls ->1x% langsamer als 5070ti.
650$ falls ->0-10% langsamer als 5070ti
699$ falls ->in etwa 5070ti performance.
750$ falls ->0-10% schneller als 5070ti
799$ falls ->1x% schneller als 5070ti
halte ich für realistisch und hoffe auf einen möglichst hohen Preis ;).
E39Driver
2025-01-27, 11:07:18
Ich hoffe auf einen möglichst niedrigen Pries, damit sie endlich mal ihre Marktanteile etwas erholen können. Bei weiterhin 10% wird sonst bald die Dev-Unterstützung weg brechen und dann wars das gewesen.
Theorie zur Verschiebung: Man hat BW deutlich stärker eingeschätzt als er sich jetzt heraus stellt. Nach dem Leak auf Computerbase wird eine 5080 kaum mehr wie 5% bis 10% vor einer 4080 landen. Wenn die ursprüngliche 9070XT bis auf die 5% an eine 4080 herangekommen ist und als Gegner der 5070TI konzipiert war. Vielleicht holt man jetzt die Watt-Keule heraus und prügelt die Karte bis zur Kotzgrenze, um als Gegner einer 5080 platziert werden zu können
basix
2025-01-27, 11:08:21
699$ bei gleicher Performance wie die 5070 Ti? Schlechter Deal.
Nach dem Leak auf Computerbase wird eine 5080 kaum mehr wie 5% bis 10% vor einer 4080 landen. Wenn die ursprüngliche 9070XT bis auf die 5% an eine 4080 herangekommen ist und als Gegner der 5070TI konzipiert war. Vielleicht holt man jetzt die Watt-Keule heraus und prügelt die Karte bis zur Kotzgrenze, um als Gegner einer 5080 platziert werden zu können
Ich wäre froh, wenn die 9070XT auf 4080 Niveau landen wird. Und das ist bereits positiv gedacht. Eine 5070 Ti wird nämlich ziemlich genau auf Niveau 4080 landen. Eine 5080 ist mMn unrealistisch weit weg.
Hey, falls es doch klappen sollte nehmen es wir wohl gerne. Aber die Wahrscheinlichkeit eines 5080 Gegners ist sehr gering.
dargo
2025-01-27, 11:15:04
Dass die Preise keine Sinn ergeben, sollte jeder mit ein paar Gehirnzellen eigentlich sehen. Natürlich kann man es so wie Der_Korken machen und einfach die Leute bei AMD für kollektiv dumm erklären. In der Quelle wird im übrigen auch von einer Red Devil Limited Edition gesprochen. Das sind irgendwelche überteuerten Karten mit tollen Karton, sofern die Angaben überhaupt korrekt sind. Eine mögliche Erklärung wäre natürlich auch, dass man glaubte vor Nvidia zu launchen.
https://videocardz.com/newz/retailer-confirms-powercolor-radeon-rx-9070-xt-red-devil-limited-edition-is-in-stock-talks-amd-pricing-strategy
Ok... eine Powercolor Red Devil und dann noch limited Edition war schon immer einiges teurer als UVP.
dildo4u
2025-01-27, 11:35:39
Diese GPU sind mehrere Jahre in Entwicklung vermutlich war damals die 4070 TI aktuell womit AMD zwei Modelle mit 16GB vs zwei Modelle mit 12GB hätte.
Die 5070 TI ist ein Modell was nicht besiegt werden kann da Nvidia behauptet es kostet 750$ es aber keine FE gibt der diese Preis ankert.
robbitop
2025-01-27, 11:45:48
these cards were initially planned to sell at around $899 for the RX 9070 XT and $749 for the RX 9070 non-XT, with a launch date of January 23
Was meint ihr? Senkt AMD die Preise?
Sofern das stimmt. (Ansonsten ist nachfolgendes obsolet):
Soviel zu "wir wollen Marktanteile holen". Und deshalb redete man offenbar auch nur von "unter 1000 USD" zur CES2025. Ich hab es mir fast schon gedacht, dass deren Marketing (im Sinne der Preisbildung) es immer noch nicht verstanden haben.
Bereits die 7900XT gab es zu ~650 EUR in der Last Gen. Damit man jetzt beeindrucken will reicht es nicht einfach nur mehr RT Leistung draufzupacken und FSR4 und wieder Nvidia -50 EUR zu fahren.
IMO:
499 und 599 (USD) wären Preise mit denen man ganz offensichtlich an den Start gegangen sein müsste wenn man Marktanteile holen wollte.
dargo
2025-01-27, 11:45:59
Wir schwadronieren hier zwar ständig über die UVPs, nüchtern betrachtet ist das aber alles wayne. Entscheidend sind die Straßenpreise, mal sehen wie diese bald aussehen.
Soviel zu "wir wollen Marktanteile holen". Und deshalb redete man offenbar auch nur von "unter 1000 USD" zur CES2025.
Was hast du jetzt an der Powercolor Red Devil LE nicht verstanden? Zur Erinnerung... die Powercolor RX 7900XTX Red Devil LE kostete beim Release ca. 1500€ bei einer UVP der Referenz von 999$.
Complicated
2025-01-27, 11:46:00
Als ob die Margen von AMD an den GPU-Karten Marktpreisen des Einzelhandels gemessen werden.
Hier gibt es so einige Milchmädchen-Rechnungen und darauf basierend seltsame Handlungsempfehlungen, an die falschen Unternehmen. Powercolor, Sapphire etc. erhalten lediglich GPU-Chip und RAM von AMD.
fondness
2025-01-27, 11:48:50
In Wahrheit ist das alles Kaffeesatzleserei und man erkennt bei solchen Sachen mal wieder schön den Bias der jeweiligen Leute. :D
dargo
2025-01-27, 11:49:36
Als ob die Margen von AMD an den GPU-Karten Marktpreisen des Einzelhandels gemessen werden.
Hier gibt es so einige Milchmädchen-Rechnungen und darauf basierend seltsame Handlungsempfehlungen, an die falschen Unternehmen. Powercolor, Sapphire etc. erhalten lediglich GPU-Chip und RAM von AMD.
Hatte ich auch schon erzählt, interessiert offenbar aber niemanden. :tongue:
In Wahrheit ist das alles Kaffeesatzleserei und man erkennt bei solchen Sachen mal wieder schön den Bias der jeweiligen Leute. :D
Jepp. ;)
Das ist so als wenn ich die Asus RTX 5090 Astral mit der RTX 5090 FE vergleichen würde. ;D
fondness
2025-01-27, 11:49:53
Was hast du jetzt an der Powercolor Red Devil LE nicht verstanden? Zur Erinnerung... die Powercolor RX 7900XTX Red Devil LE kostete beim Release ca. 1500€ bei einer UVP von 999$.
Man will halt nicht alles verstehen. ;)
Exxtreme
2025-01-27, 11:53:39
Soviel zu "wir wollen Marktanteile holen".
Eventuell war das als "Marktanteile von Intel holen" gedacht. Wie ich schon schrieb, ich habe nicht den Eindruck, dass AMD großartig mit Nvidia konkurrieren will. Denn sie sind immer noch in allererster Linie eine CPU-Firma. Und der firmeninterne Todfeind ist damit Intel und nicht Nvidia. Und solange sie Intel weit abhängen, dürften sie wohl zufrieden sein.
fondness
2025-01-27, 11:57:29
Intel hat keine Marktanteile :D
basix
2025-01-27, 11:59:23
Und bei GPUs gibt es ja schon schön Geld zu verdienen. Nvidia macht nur mit ihrem Gaming Segment >10 Mrd. Umsatz pro Jahr.
Dino-Fossil
2025-01-27, 12:01:25
Was sollen sie denn auch sagen?
"Wir sind zufrieden damit immer weniger GPUs zu verkaufen und wollen eigentlich kein Geld verdienen"?
robbitop
2025-01-27, 12:01:59
Was hast du jetzt an der Powercolor Red Devil LE nicht verstanden? Zur Erinnerung... die Powercolor RX 7900XTX Red Devil LE kostete beim Release ca. 1500€ bei einer UVP der Referenz von 999$.
Oh ok das habe ich nicht mitbekommen - DrFreak hat keinen Kontext und keine Quelle im Post gehabt. Ich habe auch das Posting einige Minuten danach nochmal editiert, dass es für den Fall ist, dass die gequotete Aussage zutrifft.
In Wahrheit ist das alles Kaffeesatzleserei und man erkennt bei solchen Sachen mal wieder schön den Bias der jeweiligen Leute. :D
Ich finde diese Aussage von dir ist schon irgendwie sehr ironisch. :D
Altehardware
2025-01-27, 12:02:49
Die abstände sind
rtx4070 21,8tf
rtx4070 super 26tf
rtx4070ti 29,5tf
rx7900xt 31tf
rtx4070ti super 32tf
rtx4080 36,1tf
rx7900xtx 36,5tf
Die rx9070xt liegt zwischen 31tf und 33tf
Die rx9070 zwischen 26,6-29tf
Die preise derzeit
rtx4070 530€
rtx4070 super 650€
rx7900xt 679€
rtx4070ti super 850€
rx7900xtx 900€
rtx4080 1080€
Die dxr perf. der rx9070xt liegt bei grob rtx4070ti lvl
die der rx9070 bei rtx4070 lvl
Daher ideale preispunkte
rx9070 599€/509$
rx9070xt 659€/579$
ich denke eher das amd die preise hochziehen will auf 599$/689€ und 649$/739€
ne rtx5070 erreicht knapp 24,8tf 639€
ne rtx5070ti knapp 36,2tf 869€
obwohl das der optimale fall ist, eher sind die tf werte etwa 15% geringer.
Complicated
2025-01-27, 12:05:28
AMDs Lineup bis 9070 (und die Namensänderung!), sowie die späte Vorstellung im März könnten auch einfach darauf hindeuten, dass AMD bei den Komplettsystemherstellern mehr dGPUs unterbringen mit Bündel-Rabatten für Ryzen-CPUs. Dort sind für AMD derzeit mehr Marktanteile zu holen als im Retail/DIY. Auch die Umbenennung in Richtung Nvidia Nomenklatur spricht für Gesamtsysteme und OEM-Markt. Mehr Stückzahlen um Marktanteile zu gewinnen benötigt dadurch womöglich diese Extrazeit.
Diese Entscheidung könnte während der CES in Verhandlungen/Nachbestellungen mit OEMs gefallen sein, was zu den holprigen Umstellungen/Fahrplanänderungen für Retail passen würde.
fondness
2025-01-27, 12:05:29
Ich finde diese Aussage von dir ist schon irgendwie sehr ironisch. :D
Touché. :D
Im Gegensatz zu anderen tu ich aber auch nicht so, als wäre ich super objektiv. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.