Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
aufkrawall
2022-11-03, 21:30:05
Immerhin wurd FSR 2.2 erwähnt...
Edit: Jetzt 3.0 mit FG. :freak:
2023
Gott1337
2022-11-03, 21:30:20
es wird über den Preis gehen, was sonst. und wie immer
Daredevil
2022-11-03, 21:30:41
Ich kapiere es auch nicht. Da gibt's ja wirklich Null RT-improvements, die Performance steigt einfach nur analog zur klassischen Raster-Perf. Wenn AMD schon best cases genommen hat womöglich sogar weniger.
Das wird echt nicht schön gegen Nvidia in Heavy-RT. Also wohlgemerkt gegen Ampere, nicht Ada....
RT ist für AMD und deren Preispunkt und Käuferschaft nice2have, aber einfach nicht wichtig. Man entwickelt doch nicht für eine Nische, wenn man P/L abgreifen möchte. Wer hier was anderes erwartet hat, ist ( wie heute schon mehrfach gesagt ) einfach an der Welt vorbei gegangen.
Und das ist okay, weil man so den Preis niedrig halten kann und trotzdem schneller wird "nebenbei".
Ravenhearth
2022-11-03, 21:31:04
Bei der Performance darf die echt nicht mehr als $999 kosten
Grendizer
2022-11-03, 21:31:17
Soll die Karte dann für 699$ verkauft werden ?
Lurtz
2022-11-03, 21:31:19
Na jetzt kommt immerhin noch FSR3 mit Frame Generation...
Sumpfmolch
2022-11-03, 21:31:38
Der Preisbereich um 1000€ ist schon attraktiv. Das wird vermutlich interessant gegen die 4080....
Si|encer
2022-11-03, 21:31:41
Lederjacke schaut sich das alles ganz entspannt an :D
Der_Korken
2022-11-03, 21:31:52
Na jetzt kommt immerhin noch FSR3 mit Frame Generation...
omegalul ...
Nakai
2022-11-03, 21:31:59
Wie gesagt, eher ein RV770 und so sollte man N31 auch sehen.
Gott1337
2022-11-03, 21:32:11
FSR 3 lächerlich, damit fangen die gerade an
und die UE5 demo ruckelt, geil
r3ptil3
2022-11-03, 21:32:15
Lederjacke schaut sich das alles ganz entspannt an :D
Zum Glück kam die RTX 4090 schon vorher, sonst wäre die UVP der RTX 4090 bei 1999$.
The_Invisible
2022-11-03, 21:32:19
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81240&stc=1&d=1667507499
Zieht man da nicht eher mit der 3090Ti gleich oder so?
Metzler
2022-11-03, 21:32:30
Ich finde die Karte interessant. Ich brauche nicht die aller schnellste, teuerste Karte, sondern möchte ein bestehendes System aufrüsten, um 4k sinnvoll zu "vernünftigen" Preisen spielen zu können. Und da scheint mir das AMD Angebot durchaus interessant zu sein.
Langlay
2022-11-03, 21:33:08
Zieht man da nicht eher mit der 3090Ti gleich oder so?
Die 3090TI sollte in RT leicht schneller sein ...
Linmoum
2022-11-03, 21:33:17
RT ist für AMD und deren Preispunkt und Käuferschaft nice2have, aber einfach nicht wichtig. Man entwickelt doch nicht für eine Nische, wenn man P/L abgreifen möchte. Wer hier was anderes erwartet hat, ist ( wie heute schon mehrfach gesagt ) einfach an der Welt vorbei gegangen.
Und das ist okay, weil man so den Preis niedrig halten kann und trotzdem schneller wird "nebenbei".Na komm, dass man den Abstand verkleinert zu Nvidia ist mit der 2. RT-Gen nun wahrlich nicht zu viel verlangt gewesen. Danach sehen AMDs Benchmarks aber überhaupt nicht aus.
Das hier ist der High-End/Enthusiast-Chip, da ist das noch mal ein großes Stück enttäuschender. Im Mainstream würde ich dir recht geben, aber bei vierstelligen Preisen bzw. $999 ist das echt einfach zu wenig...
Troyan
2022-11-03, 21:34:11
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81240&stc=1&d=1667507499
Zieht man da nicht eher mit der 3090Ti gleich oder so?
Eher nicht so:
https://gamegpu.com/images/2022_new/4090/Palit/test/c77.png
https://gamegpu.com/test-video-cards/obzor-i-testirovaniya-videokarty-palit-gamerock-geforce-rtx-4090-24-gb
Badesalz
2022-11-03, 21:34:58
Für 999€ wäre die XTX wohl ok.
Jetzt kommt der Typ wegen dem der andere davor so angepisst war, weil der ihn ständig voll ausgemeckert hat ;)
Sardaukar.nsn
2022-11-03, 21:35:15
Bisher alles ganz solide, aber es wird nur über den Preis gehen.
Sumpfmolch
2022-11-03, 21:35:30
Das hier ist der High-End/Enthusiast-Chip, da ist das noch mal ein großes Stück enttäuschender. Im Mainstream würde ich dir recht geben, aber bei vierstelligen Preisen bzw. $999 ist das echt einfach zu wenig...
Erst mal sehen, was NVIDIA um die 1000€ raushauen wird.
Inquisitor
2022-11-03, 21:35:32
Ach ich hau einfach mal
+25% RZ
+5% RT
zur 4090 raus bei 1499 UVP
Nicht weils realistisch wäre, sondern just 4 fun :D
Ich muss sagen, ein klein wenig erleichtert bin ich schon, dass meine Funprognose nicht zutraf. Da hätte ich mich doch ein wenig ins Popöchen gebissen, die 4090 gekauft zu haben ;)
Ravenhearth
2022-11-03, 21:35:36
Bisher alles ganz solide, aber es wird nur über den Preis gehen.
Damit kann AMD auch nicht zufrieden sein...
deadkey
2022-11-03, 21:35:43
Für unter 1000€ ginge die XTX schon klar. Das ist ein durchaus realistischer Preis, schließlich ist das RT wieder schlecht.
FSR3 in 2023, nicht zum Start und wohl wieder hinter der Konkurrenz.
Noch dazu hätte ich nicht diese Schlaftabletten auf die Bühne gelassen. Ein wenig Begeisterung für das Produkt gehört halt zu so einer Präsentation.
Badesalz
2022-11-03, 21:35:43
Lederjacke schaut sich das alles ganz entspannt an :DJa. Wenn er keine 4090 am laufen hat kann er den Feuerlöscher weglegen.
w0mbat
2022-11-03, 21:35:44
Wäre ähnlich wie bei RDNA -> RDNA2, damals gab es in RT auch etwas die Leistung von Nvidias last-gen high-end, also eine 6900 XT war ungefähr auf dem Niveau einer 2080 Ti und eine 7900 XTX ist jetzt ca. = 3090 Ti.
Insgesamt langsamer als gedacht, aber auch deutlich kleiner als Ada. AMD geht einen Leistungsvergleich mit Ada ziemlich gekonnt aus dem Weg :ugly:
Adam D.
2022-11-03, 21:36:11
Die Preise wtf
Grendizer
2022-11-03, 21:36:37
Falls die Preise für eine 3090 Ti im Abverkauf auf 1099 oder drunter sinken sollte, wäre das evtl. der bessere Schnapper.
Wenn die Karte für 999$ angeboten wird, wären wir bei Preisen oberhalb einer 3090
Gott1337
2022-11-03, 21:36:49
Wäre ähnlich wie bei RDNA -> RDNA2, damals gab es in RT auch etwas die Leistung von Nvidias last-gen high-end, also eine 6900 XT war ungefähr auf dem Niveau einer 2080 Ti und eine 7900 XTX ist jetzt ca. = 3090 Ti.
Insgesamt langsamer als gedacht, aber auch deutlich kleiner als Ada.
ist ja nicht mal RT Leistung von ampere,
r3ptil3
2022-11-03, 21:36:58
Bisher alles ganz solide, aber es wird nur über den Preis gehen.
Kann man auch so sehen, aber die Karten hätten früher kommen müssen.
Da werden doch viele Interessenten direkt nach der RTX 4090 Ausschau halten und wenn das nicht klappt, dann nach der RTX 4080.
Badesalz
2022-11-03, 21:37:25
Deutlich kleiner bei deutlich weniger Watt. Wenn die Produkte entsprechend deutlich preiswerter sind, sind sie ein entsprechend gutes Angebot.
Das könnte die Mitte der Steam-Statistik endlich mal bewegen ;)
Troyan
2022-11-03, 21:37:37
Wäre ähnlich wie bei RDNA -> RDNA2, damals gab es in RT auch etwas die Leistung von Nvidias last-gen high-end, also eine 6900 XT war ungefähr auf dem Niveau einer 2080 Ti und eine 7900 XTX ist jetzt ca. = 3090 Ti.
Insgesamt langsamer als gedacht, aber auch deutlich kleiner als Ada. AMD geht einen Leistungsvergleich mit Ada ziemlich gekonnt aus dem Weg :ugly:
:confused:
AD103 ist 378mm^2 groß. 520mm^2 sind deutlich größer. Und dabei liefert man im Worst-Case die halbe Leistung mit Raytracing. Das Ding ist riesig und ineffizient.
MSABK
2022-11-03, 21:38:05
Ich sags ja, für mehr RT brauchts eine neue Architektur. Würde mich nicht wundern wenn irgendwann RTNA kommt. Mit RDNA geht anscheinend in RT nicht viel.
Nakai
2022-11-03, 21:38:08
Wäre ähnlich wie bei RDNA -> RDNA2, damals gab es in RT auch etwas die Leistung von Nvidias last-gen high-end, also eine 6900 XT war ungefähr auf dem Niveau einer 2080 Ti und eine 7900 XTX ist jetzt ca. = 3090 Ti.
Insgesamt langsamer als gedacht, aber auch deutlich kleiner als Ada.
Also bei RT hätte ich schon etwas mehr erwartet, vor allem bei den Dual-Issue SIMDs.
Der Chip ist deutlich günstiger zu fertigen. Man ist ja teilweise zwei Fertigungs-Nodes dahinter. ;D
Linmoum
2022-11-03, 21:38:16
Nachdem sie mit RDNA2 so gut von der 5700XT gekommen sind...
Raster wird man ein gutes Stück hinter der 4090 zurückbleiben (was jetzt keine Überraschung ist, aber hier haben ja manche sogar +20% Vorsprung erwartet... hust) und RT wird man nicht einmal Ampere schlagen können.
Einfach nur ernüchternd. Und erst in einem Monat ist auch ziemlich spät, damit holt man heute niemanden ab. Ich glaube ja eher, dass die halbwegs interessierten für "nur" $200 mehr in zwei Wochen direkt zur 4080 greifen werden.
Sardaukar.nsn
2022-11-03, 21:38:29
Kann man auch so sehen, aber die Karten hätten früher kommen müssen.
Da werden doch viele Interessenten direkt nach der RTX 4090 Ausschau halten und wenn das nicht klappt, dann nach der RTX 4080.
Meine Einschätzung...
1000€+ Nvidia
999-500€ AMD
499-€ Intel
Gott1337
2022-11-03, 21:38:46
Deutlich kleiner bei deutlich weniger Watt. Wenn die Produkte entsprechend deutlich preiswerter sind, sind sie ein entsprechend gutes Angebot.
Das könnte die Mitte der Steam-Statistik endlich mal bewegen ;)
die 4080 ist der Gegner und die verbraucht auch nicht mehr...
Aber schön das "reflex" jetzt auch bei den Roten einhält
Wie gesagt, eher ein RV770 und so sollte man N31 auch sehen.
Leider ja, eigentlich sehr enttäuschend. 2.3g Gameclock? 699€ und gekauft, ansonsten-meh.
user77
2022-11-03, 21:39:51
Was wird eine 4080 16gb in rz machen gegenüber einer 6950 XT?
[dzp]Viper
2022-11-03, 21:40:01
Also wenn es die XTX für 999€ (nicht Dollar) gibt, dann wäre das absolut in Ordnung.
Wahrscheinlich werden es aber 999 Dollar.. also um die 1200 Euro. Das ist dann Grenzwertig
fondness
2022-11-03, 21:40:24
:confused:
AD103 ist 378mm^2 groß. 520mm^2 sind deutlich größer. Und dabei liefert man im Worst-Case die halbe Leistung mit Raytracing. Das Ding ist riesig und ineffizient.
Das ist wohl kaum vergleichbar, nur 300 mm2 sind in 5nm. 6nm wafer kosten vielleicht die Hälfte.
Badesalz
2022-11-03, 21:41:10
die 4080 ist der Gegner und die verbraucht auch nicht mehr...
Aber schön das "reflex" jetzt auch bei den Roten einhältHaben wir eigentlich schon Preise für die 4080?
TheGood
2022-11-03, 21:41:19
Nach dem tollen RDNA2 launch ist das echt ein Bummer gewesen.
Vor allem sagte man am anfang noch greatly improved RT performance, aber davon ist ja leide rnicht viel übrig geblieben.
Nicht dass ich das wirklich brauche, denn für mich zählt bei RT hauptsähclich Global Illumination, der rest ist zeugs das man nicht wirklcih braucht und auch der optische gewinn im spiel minimal ist...
Linmoum
2022-11-03, 21:41:19
In RT wird man bestenfalls mit einem 295mm² AD104 gleichziehen können. Heavy-RT dürfte man sogar deutlicher zurückliegen bei mehr Verbrauch.
Ich weiß nicht einmal, ob die Margen hier nicht sogar geringer sind als bei einer $999 6900XT damals. Es würde mich nicht überraschen.
BlacKi
2022-11-03, 21:41:24
Die Preise wtfja, selbst amd verkauft nun 4070 performance für 1100€
Haben wir eigentlich schon Preise für die 4080?
uvp sind 1469€ für die 16gb 4080.
Troyan
2022-11-03, 21:41:41
Das ist wohl kaum vergleichbar, nur 300 mm2 sind in 5nm. 6nm wafer kosten vielleicht die Hälfte.
Es sind 300mm^2 in 5nm gegen 378mm^2. Sorry, aber die Kosten sind bei AMD deutlich höher als bei nVidia.
Gott1337
2022-11-03, 21:42:00
Haben wir eigentlich schon Preise für die 4080?
schon lange
horn 12
2022-11-03, 21:42:25
20% Hinter einer RTX 4090 circa, und Raytracing die nicht mal die Hälfte ?
Dafür bekommt man die Karten wenigstens :-)
899 und 999 Dollar sind echt um einiges zu viel
749 und 879 Hätten s sein müssen :-)
Nakai
2022-11-03, 21:42:30
Leider ja, eigentlich sehr enttäuschend. 2.3g Gameclock? 699€ und gekauft, ansonsten-meh.
Meine Performance-Einschätzungen waren bei etwa 20% mehr Takt. Meine Erwartungen sind eigentlich vollkommen getroffen worden, bis auf RT. Da hab ich mehr von den CUs erwartet. Der hybride Ansatz bei RT ist ja beigeblieben.
Korvaun
2022-11-03, 21:43:02
Normal groß, normaler Verbrauch, normale Leistung für normale Leute. Alles ganz ok.
Klar, haut keinen hier vom Hocker...
Der Gegner sind klar die 4070/80, und da siehts dann schon wieder ganz ordentlich aus, sofern der Preis stimmt.
r3ptil3
2022-11-03, 21:43:11
20% Hinter einer RTX 4090 circa, und Raytracing die nicht mal die Hälfte ?
Eher ein ordentliches Stück mehr dahinter.
aufkrawall
2022-11-03, 21:43:22
Aber schön das "reflex" jetzt auch bei den Roten einhält
Hab ich nicht explizit rausgehört.
w0mbat
2022-11-03, 21:43:24
:confused:
AD103 ist 378mm^2 groß. 520mm^2 sind deutlich größer. Und dabei liefert man im Worst-Case die halbe Leistung mit Raytracing. Das Ding ist riesig und ineffizient.
Navi31 GCD ist 300mm² in N5, AD102 ist mehr als doppelt so groß in 4N. AD103 wird ein gutes Stück langsamer sein, ist aber immer noch größer in einem besseren Prozess.
Du bist hier :confused:
Aber schön das "reflex" jetzt auch bei den Roten einhält
Anti-Lag gibts bei AMD schon lange.
Grendizer
2022-11-03, 21:43:56
Da bin ich mal auf echte Benchmarks gespannt. Ich vermute da echt ernüchterndes.
Der_Korken
2022-11-03, 21:44:05
Wie gesagt, eher ein RV770 und so sollte man N31 auch sehen.
Leider ja. "Leider" deswegen, weil AMD damals genau das gebracht hat, was RV770: Mehr von dem, was man schon hatte, für verhältnismäßig wenig Fläche. Dadurch dass AMD jetzt aber einen krassen Rückstand in RT hat(te), fühlt sich das eher wie ein R600 -> RV770 an, bloß dass beide GPUs noch DX9 sind, während die 8800GTX und die neue GTX280 schon beides DX10-Karten sind.
Die 1,7X Raster-Performance gehen für mich völlig in Ordnung, da man an den 300mm² für das GCD imho schon gesehen hat, dass AMD hier nicht voll committet. N31 wird deutlich günstiger herzustellen sein als AD102, da man bessere Yields hat und beim Salvage sogar Chipfläche spart durch das weggelassene MCD. Dass AMD beim RT aber anscheinend nicht aufholen kann, könnte ihnen diese Gen übel auf die Füße fallen, da RT immer mehr an Fahrt aufnehmen wird. Da sieht sich die 7900XTX irgendwann gegen eine RTX4070 und AMD muss mit dem Preis entsprechend weit runter. Gegen einen AD104 sieht N31 dann kostentechnisch nicht mehr so geil aus.
Troyan
2022-11-03, 21:44:22
Navi31 GCD ist 300mm² in N5, AD102 ist mehr als doppelt so groß in 4N. AD103 wird ein gutes stück langsamer sein, ist aber immer noch größer in einem besseren Prozess.
Du bist hier :confused:
Und die 4090 liefert doppelte Leistung mit Raytracing. Toll, vergleichen wir doch gleich 13900K mit 7600X. :rolleyes:
Cubitus
2022-11-03, 21:44:47
Nachdem sie mit RDNA2 so gut von der 5700XT gekommen sind...
Raster wird man ein gutes Stück hinter der 4090 zurückbleiben (was jetzt keine Überraschung ist, aber hier haben ja manche sogar +20% Vorsprung erwartet... hust) und RT wird man nicht einmal Ampere schlagen können.
Einfach nur ernüchternd. Und erst in einem Monat ist auch ziemlich spät, damit holt man heute niemanden ab. Ich glaube ja eher, dass die halbwegs interessierten für "nur" $200 mehr in zwei Wochen direkt zur 4080 greifen werden.
Ja what did i say ;D
Glaubt mir doch mal was :freak:
Grendizer
2022-11-03, 21:45:05
999$ -> 1199 Euro
899$ -> 1069 Euro
Zu teuer
r3ptil3
2022-11-03, 21:45:18
Hat er gerade "mid December" gesagt?
Freestaler
2022-11-03, 21:45:21
999$ was? zu teuer.. echt..
TheCounter
2022-11-03, 21:45:36
Aus welchem Grund sollte man eine XT nehmen, wenn die XTX nur 100$ mehr kostet?
Macht absolut keinen Sinn.
Gott1337
2022-11-03, 21:45:36
1200€ okay denke ich, aber halt nicht "most advanced". und der Reference Kühler kann nicht mit Adas vergleichen werden.
[dzp]Viper
2022-11-03, 21:45:49
Wie vermutet.. 999 Dollar.
Die "Normale" XT sogar 899 Dollar.. die hätte maximal bei 799Dollar liegen müssen
DeadMeat
2022-11-03, 21:45:51
Hab ich nicht explizit rausgehört.
Er meinte AMD Anti Lag funktion, die gibts zwar schon länger , funktionierte aber nicht in verbindung mit vielen anderen funktion also nur wirklich begrenzt nutzbar, jetzt solls aber in verbindung mit diesen auch aktiv sein.
BlacKi
2022-11-03, 21:46:15
Hat er gerade "mid December" gesagt?13.
Tangletingle
2022-11-03, 21:46:17
Na da sind dann wohl ein paar träume zur Performance geplatzt. Mit der letzten Ankündigung zum Preis und Verbrauch verschiebt sich das aber durchaus in eine deutlich positive Richtung. Natürlich gesehen auf aktuell aufgerufene Preise. Alles in allem sind die Karten trotzdem Mond $150 überpreist.
Was mich wundert ist der doch Recht niedrige Takt. Überrascht haben mich die unterschiedlichen clockdomains.
Negativ überrascht hat mich die Steigerung der Rt Performance. Das ist so Grad Ampere Niveau.
Niall
2022-11-03, 21:46:28
999€, 350W TBP, noice. *click*
Ravenhearth
2022-11-03, 21:46:40
Die 1,7X Raster-Performance gehen für mich völlig in Ordnung, da man an den 300mm² für das GCD imho schon gesehen hat, dass AMD hier nicht voll committet.
Es sind leider nur "up to" 1.7x, im Schnitt sah das nicht nach viel mehr als 1.5x aus.
Gott1337
2022-11-03, 21:47:32
Hab ich nicht explizit rausgehört.
naja anti-lag wird "reflex-boost" sein, was sonst.
sie kopieren halt alles nach, selbst aber nichts neues entwickelt.
Si|encer
2022-11-03, 21:47:52
The World fastes graphics card under 1000$
Zumindest dazu haben sie sich hinreißen lassen ^^^^
999€, 350W TBP, noice. *click*
999$... ne 4090 kostet auch "nur" die Hälfte mehr... ohne MwSt..
Ach scheiße. Bei RDNA2 war ich begeistert, auch wenns dann ne 3090 geworden ist. Aber diesmal ist zu NV high end nicht mal ne Alternative gegeben. Deshalb gibts AD102 ja auch nur in der Invalidenvariante für Gamer, die wussten dass das Ding selbst im 80% Ausbau nicht angegriffen wird.
r3ptil3
2022-11-03, 21:47:54
Jetzt kann man sich fragen, wie Nvidia ihre extrem hohe Preisgestaltung der RTX 40 Serie "richtig" setzen konnte?
Da haben (wie jede Generation) viele gemeint Nvidia wird auf den GPUs sitzen bleiben. Jetzt kommt raus, dass die Preise fast noch zu tief sind.
Grendizer
2022-11-03, 21:47:57
999$ was? zu teuer.. echt..
Die Karte prügelt sich mit 3090ern im Abverkauf, die beim selben Preis stehen werden
Freestaler
2022-11-03, 21:47:59
wenn die 1.6x auf die 6950 gepackt werden, dann ist man ungefähr -/+10% 4090 für 999 anstatt 1599 und ohne neues NT. Passt doch.
MSABK
2022-11-03, 21:48:25
Naja, ganz in Ordnung. Wir sind mitten in einer Wirtschaftskrise und da ist die Karte sogar noch zu teuer. Ich denke die Karte wird schnell 949€ kosten.
Ravenhearth
2022-11-03, 21:48:36
AMD Reveals Radeon RX 7900 XTX and 7900 XT: First RDNA 3 Parts To Hit Shelves in December (https://www.anandtech.com/show/17638/amd-reveals-radeon-rx-7900-xtx-and-7900-xt-first-rdna-3-parts-to-hit-shelves-in-december)
Gott1337
2022-11-03, 21:48:40
24GB ist für die Leistung aber auch übertrieben teuer oder? da zahlt AMD für nix drauf.
DeadMeat
2022-11-03, 21:48:44
naja anti-lag wird "reflex-boost" sein, was sonst.
sie kopieren halt alles nach, selbst aber nichts neues entwickelt.
Anti Lag ist jahre älter als Reflex. Aber auch weniger wirksam und begrenzt, aber älter als die Nvidia lösung.
Berniyh
2022-11-03, 21:48:51
Fand es ganz ok. Hab aber auch keine Wunder von RDNA3 erwartet, insofern passt schon.
Raytracing is jetzt nicht gerade die Stärke von RDNA3, aber das wäre mir persönlich ziemlich egal.
Denke es wird aber dann doch eher eine reduzierte oder gebrauchte Navi 21 Karte bei mir werden, die reicht für das meiste auch.
ashantus
2022-11-03, 21:49:00
999€, 350W TBP, noice. *click*
Das sind 999 Dollar.
Hier im Dezember also 1200,-.
Dazu Knappheit am Markt am Anfang und kurz vor Weihnachten. Dürfte eher 1400-1500 im Dezember sein, danach runter auf 1200,-.
Edit: Weil Sie im RT so abkacken. Warum hat AMD nicht Benches genommen ohne jedes RT?
w0mbat
2022-11-03, 21:49:38
Und die 4090 liefert doppelte Leistung mit Raytracing. Toll, vergleichen wir doch gleich 13900K mit 7600X. :rolleyes:
1.5x in RT wäre ca. 3090 Ti level und das sind ca. 70% hinter einer 4090. Wieso musst du immer so übertreiben? Das wertet alle deine posts hier total ab.
aufkrawall
2022-11-03, 21:49:46
Er meinte AMD Anti Lag funktion, die gibts zwar schon länger , funktionierte aber nicht in verbindung mit vielen anderen funktion also nur wirklich begrenzt nutzbar, jetzt solls aber in verbindung mit diesen auch aktiv sein.
In Verbindung mit Chill wäre nett. Aber ich würd erstmal das Kleingedruckte abwarten bzw. wie es sich in der Realität darstellt. Nicht, dass es nur wieder dieses üble Radeon Boost ist.
Das existierende Anti-Lag für D3D12 ist nice, aber besser wär natürlich noch ein exaktes Reflex-Pendant als Ergänzung.
naja anti-lag wird "reflex-boost" sein, was sonst.
Wie bereits gesagt, gibts Anti-Lag schon ewig. Das ist aber vom Lag her wie Nvidia NULL und nicht wie Reflex.
OpenVMSwartoll
2022-11-03, 21:50:10
Hat schon jemand den Rettungswagen gerufen? Ein Hypetrain ist zerschellt, hoffe es gibt keine Toten.
So sehr das Hypen auch amüsiert, führt es zu falschen Erwartungen.
Verstehe aber nicht, warum die ganzen Optimierungen keinen Erfolg zeigen sollen. Obwohl: Man weiß nicht, wie es ohne aussähe.
Nun ja, man schlägt sich wahrscheinlich mit NVs letzter Generation. Bin gespannt auf Reviews.
Linmoum
2022-11-03, 21:50:33
- Raster-Performance gibt's nichts zu meckern
- RT-Performance leider unterirdisch
- Perf/Watt wird man wohl auch gegen Nvidia verlieren, sofern bei AMD die angegebene TBP auch der Realität entspricht
- Preis bei dem gebotenen - für Ende 2022 - leider auch zu hoch.
Alles sehr schade aus Kundensicht. RT wird ihnen noch auf die Füße fallen, denn ein 295mm² AD104 ist definitiv günstiger zu fertigen als N31. RDNA3 muss bis mindestens 2024 durchhalten, da von der sowieso schon miesen RT-Performance bei RDNA nur 50-70% draufzulegen ist einfach nicht gut.
24GiB sind hier eigentlich auch Verschwendung aus Sicht von AMD.
The_Invisible
2022-11-03, 21:50:35
24GB ist für die Leistung aber auch übertrieben teuer oder? da zahlt AMD für nix drauf.
Ist die Frage ob sie die Bandbreite brauchen, 12GB wären halt zu wenig gewesen. Aber bin ich taub oder hat man vom IF$ fast nix gehört?
DeadMeat
2022-11-03, 21:50:35
In Verbindung mit Chill wäre nett. Aber ich würd erstmal das Kleingedruckte abwarten bzw. wie es sich in der Realität darstellt. Nicht, dass es nur wieder dieses üble Radeon Boost ist.
Anti-Lag für D3D12 ist nice, aber besser wär natürlich noch ein exaktes Reflex-Pendant als Ergänzung.
Wie bereits gesagt, gibts Anti-Lag schon ewig. Das ist aber vom Lag her wie Nvidia NULL und nicht wie Reflex.
Das Chill nicht auftauchte finde ich auch sehr fragwürdig das wäre die mit abstand wichtigste kombination.
PingpiN
2022-11-03, 21:50:38
Riecht nach Niederlage. Hoffe das es bald eine 6900 XT für 500 Euro zu kaufen gibt! oder besser ne 3080 12 GB.:smile:
AMD gerät wohl wieder ins hintertreffen.:eek:
fondness
2022-11-03, 21:50:52
Leider ja. "Leider" deswegen, weil AMD damals genau das gebracht hat, was RV770: Mehr von dem, was man schon hatte, für verhältnismäßig wenig Fläche. Dadurch dass AMD jetzt aber einen krassen Rückstand in RT hat(te), fühlt sich das eher wie ein R600 -> RV770 an, bloß dass beide GPUs noch DX9 sind, während die 8800GTX und die neue GTX280 schon beides DX10-Karten sind.
Die 1,7X Raster-Performance gehen für mich völlig in Ordnung, da man an den 300mm² für das GCD imho schon gesehen hat, dass AMD hier nicht voll committet. N31 wird deutlich günstiger herzustellen sein als AD102, da man bessere Yields hat und beim Salvage sogar Chipfläche spart durch das weggelassene MCD. Dass AMD beim RT aber anscheinend nicht aufholen kann, könnte ihnen diese Gen übel auf die Füße fallen, da RT immer mehr an Fahrt aufnehmen wird. Da sieht sich die 7900XTX irgendwann gegen eine RTX4070 und AMD muss mit dem Preis entsprechend weit runter. Gegen einen AD104 sieht N31 dann kostentechnisch nicht mehr so geil aus.
Sehe ich auch so. RT Leistung hätte es mehr gebraucht. Ansonsten im erwartbaren Rahmen. Nv hat eben jetzt keinen Fertigungsrückstand mehr, AD102 mit den über 600mm2 in 5nm zu erreichen war unrealistisch. Und Nvidia hat dabei sogar noch an i/O gespart das auch nicht wenig Fläche kostet.
aufkrawall
2022-11-03, 21:51:17
- Raster-Performance gibt's nichts zu meckern
Nach dargos Definition ist es jetzt offiziell eine Luftpumpe. :cool:
Badesalz
2022-11-03, 21:51:21
Was mich grad triggert sind Benches ohne FSR und ohne DLSS. Da bin ich mal gespannt :tongue:
Aber dafür daß sich nichts bei RT an Mehr tat, ist der größte Boost bei Cyberpunk? Hab ich noch nicht geschnallt.
TheGood
2022-11-03, 21:51:31
Es sind leider nur "up to" 1.7x, im Schnitt sah das nicht nach viel mehr als 1.5x aus.
DAs ist für 63 TFLOPS also 2,7 fache zur RDNA2 genauso übel wie bei der 4090... nach dem ganzen Effizienz geredet ist auch das leider ein Bummer.
Echt schade.
Man hat den Leuten irgendwie auf der Bühne auch angesehen, dass Sie selbst nicht so happy über ihr Produkt sind...
BlacKi
2022-11-03, 21:51:38
wenn die 1.6x auf die 6950 gepackt werden, dann ist man ungefähr -/+10% 4090 für 999 anstatt 1599 und ohne neues NT. Passt doch.nach welchen benchmarks? nach dem CB index schon mal nicht:wink:
Sunrise
2022-11-03, 21:51:46
Wie war das nochmal, AMD geht nicht über den Preis? Der $999 US Preispunkt ist sowas von festgetackert.
Ich verstehe bei RDNA3 nicht ganz, warum die Taktfrequenzen so stark hinter den Erwartungen geblieben sind. Gabs da wirklich keinen Spielraum mehr? Liegts eventuell nur an der Limitierung der TBP?
BiG OnE
2022-11-03, 21:51:54
Wenn ADA eine Luftpumpe sein soll, dann ist RDNA3 ein Rohrkrepierer par excellence!
Gott1337
2022-11-03, 21:52:07
1.5x in RT wäre ca. 3090 Ti level und das sind ca. 70% hinter einer 4090. Wieso musst du immer so übertreiben? Das wertet alle deine posts hier total ab.
Naja bei der 4090 werden einige features fürs RT aber auch noch nicht genutzt. also mal abwarten.
w0mbat
2022-11-03, 21:52:11
naja anti-lag wird "reflex-boost" sein, was sonst.
sie kopieren halt alles nach, selbst aber nichts neues entwickelt.
:ugly:
Anti-Lag ist deutlich älter als die Nvidia-Kopie. Mach dich doch nicht lächerlich.
Ravenhearth
2022-11-03, 21:52:14
Die XT hat 24% weniger Rohleistung, ist aber nur 10% günstiger? Warum gibts zu der überhaupt keine Benchmarks? Das stinkt.
Mortalvision
2022-11-03, 21:52:56
Mit dem Kauf der 6800XT vor 1,5 Jahren nix falsch gemacht... Für meine Spielambitionen in 4k völlig ausreichend. Daher werde ich mich aus dem Stream ausklinken und bedanke mich für die lustigen Kommentare. Bis 2024, AMD und nVidia :freak:
DrFreaK666
2022-11-03, 21:52:58
naja anti-lag wird "reflex-boost" sein, was sonst.
sie kopieren halt alles nach, selbst aber nichts neues entwickelt.
Lustig. Als NV den NV1 veröffentlicht hat, hat ATI schon seit Ewigkeiten Grafikkarten veröffentlicht. :ugly:
So, Wie erwartet langsamer als RTX4090.
Bin gespannt wie NV da mit der 12GB Karte antworten will ^^
Troyan
2022-11-03, 21:53:21
1.5x in RT wäre ca. 3090 Ti level und das sind ca. 70% hinter einer 4090. Wieso musst du immer so übertreiben? Das wertet alle deine posts hier total ab.
Warte einfach ein paar Monate. Wir sind komplett am Anfang von Lovelace. nVidia hat soviele Transistoren in RT investiert, dass hier der Abstand noch größer wird als bei RDNA2 und Ampere.
Du kannst dich hier bei PCGH durchklicken: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/
Abstände von 80% zur 3090TI sind heute keine Seltenheit.
OCmylife
2022-11-03, 21:53:34
Die High Refresh Rates in 4 und 8K kann man sich bei der Performance auch schenken, solange es keine Esport Titel sind. Und dann flackern die Kanten schon in der Demo von FSR3...
Zudem die ruckelnde UE5 Demo.
Ich bin ziemlich enttäuscht.
Thunderburne
2022-11-03, 21:54:08
2,3GHZ lol.
Okay mit den Customs und 3*8Pin dann bei 525W vielleicht mit OC 3GHZ.
Daredevil
2022-11-03, 21:54:13
Nach dargos Definition ist es jetzt offiziell eine Luftpumpe. :cool:
Her er nicht gesagt, das 4Ghz auch kein Ding sind, sofern die Architektur dafür gebaut wird?
Na ups, offensichtlich sind manche hier doch nicht die besseren GPU Ingenieure als die, die bei AMD arbeiten. :)
Die Alternative wäre gewesen, das AMD die Kiste auf 400w+ bringt und trotzdem langsamer als ADA ist, somit kappt man die Leistung und erwähnt 10 mal in der Keynote Performance/Watt, was auch ein besserer Weg ist, als den Holzhammer zu machen. Thank God AMD hat nicht den Holzhammer rausgeholt.
Alles wie erwartet, abgesehen von den niedrigen Taktraten. Haben die da einen Energiesparprozess eingesetzt? Naja solange Preis/Leistung passt ein durchaus gelungenes Produkt.
sehr komisch, daß sie sich bei RT nicht deutlich verbessert haben - ist schon enttäuschend aus rein technisch interessierter Sicht (mir reichen mittlerweile APUs)
w0mbat
2022-11-03, 21:55:16
Ich finde man hat auch gemerkt, dass die Menschen auf der Bühne nicht ganz so gehyped waren wie zB beim RDNA2 oder Zen3 launch.
konkretor
2022-11-03, 21:55:22
https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/
Mandalore
2022-11-03, 21:57:08
Weit interessanter als RDNA 3 finde ich die Displays. Da scheint sich echt was EXTREM GEILES anzubahnen :eek::eek::eek:
Daredevil
2022-11-03, 21:57:32
Das ist meine Lieblingsstelle und genau so fühlt es sich auch an, nachdem man den halben Tag hier im Thread verbracht hat. Da ist man schon alleine aus Empathie gekränkt.
https://youtu.be/hhwd6UgGVk4?t=1744
Das Ding ist z klein :( Könnte man nicht einen 1,5x so großen GCD mit 8 stacked MCD kombinieren? Ich würds bezahlen ;D
Habe ich auch gedacht. Knuffige 300 mm² - aber damit und dem Effizienzbestreben holt man eben keine Rekorde. Schade. Aber die Boardpower ist nett. Krumm, aber nett. :)
MfG
Raff
DrFreaK666
2022-11-03, 21:57:50
DP 2.1 war denen sehr wichtig
fondness
2022-11-03, 21:58:13
Warte einfach ein paar Monate. Wir sind komplett am Anfang von Lovelace. nVidia hat soviele Transistoren in RT investiert, dass hier der Abstand noch größer wird als bei RDNA2 und Ampere.
Du kannst dich hier bei PCGH durchklicken: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/
Abstände von 80% zur 3090TI sind heute keine Seltenheit.
Und wieviel davon bleibt bei der 4080 über?
PingpiN
2022-11-03, 21:58:20
Mal wieder Hype um nichts! AMD schafft es einfach nicht Nvidia deutlich zu schlagen. Jetzt sieht es eher nach Flasche leer aus. Trotzdem würde ich gerne eine 6900 XT für 500 Euro kaufen wollen als alter ATI Fanboy.
Ravenhearth
2022-11-03, 21:58:30
Die XT müsste mit den Daten eigentlich $799 kosten. Ich vermute, die XT ist preislich so nah an der XTX und wird im Marketing stiefmütterlich behandelt, um den Abverkauf der alten Generation nicht zu stören.
Freestaler
2022-11-03, 21:58:47
nach welchen benchmarks? nach dem CB index schon mal nicht:wink:
Wo hat CB ne 6950? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160
Die 4090 bei CB ist zur 6900 78% schneller... jetzt nimmst du die 5-10% die ne 6950 mehr hergibt und die bist bei 60-70% in 4K. RZ. Sorry für mich reicht, für "ca. dort".. sind aber evtl noch +-15 anstatt 10.. mei.. niochts was ich merken würde für 1000€ mehr ;-) Und garantiert, wenn die 7900XTX ernsthaft zu langsam für ein Game ist, wird 4090 auch keine Freude mehr sein.
Cubitus
2022-11-03, 21:59:53
Die Rasterazing Leistung wird aber vermutlich nicht so schlecht sein.
Der Preispunkt wird Nvidia weh tun.
Linmoum
2022-11-03, 22:00:16
1.5x in RT wäre ca. 3090 Ti levelÄhm..
3090Ti vs. 6900XT Black (entspricht ~6950XT Referenz) bei CB bzw. 6950XT bei PCGH:
Guardians: +91%
Cyberpunk: +90%
Doom: +77%
DL2: +66%
F1 22: +66%
Lego: +64%
Riftbreaker: +58%
Metro: +54%
Alles average fps, da AMD vermutlich auch die für die eigenen Benchmarks genommen hat. Und da ist noch nicht einmal Pathtracing dabei...
r3ptil3
2022-11-03, 22:00:54
Wo hat CB ne 6950? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160
Die 4090 bei CB ist zur 6900 78% schneller... jetzt nimmst du die 5-10% die ne 6950 mehr hergibt und die bist bei 60-70% in 4K. RZ. Sorry für mich reicht, für "ca. dort".. sind aber evtl noch +-15 anstatt 10.. mei.. niochts was ich merken würde für 1000€ mehr ;-) Und garantiert, wenn die 7900XTX ernsthaft zu langsam für ein Game ist, wird 4090 auch keine Freude mehr sein.
https://i.ibb.co/4FfBP46/image.png
ChaosTM
2022-11-03, 22:01:47
DP 2.1 ist keine Niederlage - its the Future ;)
Linmoum
2022-11-03, 22:02:44
Die Rasterazing Leistung wird aber vermutlich nicht so schlecht sein.
Der Preispunkt wird Nvidia weh tun.Nvidia tut da leider gar nichts weh. Die 4080 kostet "nur" $200 mehr, wird in RT aber massiv vorne liegen und selbst in Raster nicht extrem weit hinten. Bei weniger Verbrauch.
BlacKi
2022-11-03, 22:03:06
Wo hat CB ne 6950? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160
Die 4090 bei CB ist zur 6900 78% schneller... jetzt nimmst du die 5-10% die ne 6950 mehr hergibt und die bist bei 60-70% in 4K. RZ. Sorry für mich reicht, für "ca. dort".. sind aber evtl noch +-15 anstatt 10.. mei.. niochts was ich merken würde für 1000€ mehr ;-) Und garantiert, wenn die 7900XTX ernsthaft zu langsam für ein Game ist, wird 4090 auch keine Freude mehr sein.ja, keine 50xt. dafür eine oc edition der 6900xt.
aber um mal bei der referenz zu bleiben.
https://abload.de/img/screenshot2022-11-03ayri01.png
TheGood
2022-11-03, 22:03:16
-
- Preis bei dem gebotenen - für Ende 2022 - leider auch zu hoch.
.
immerhin deutlich besser als das was die 4090 für Ihren Preis liefert. Wenn es danach geht, dürfte die kein normaldenkender Gamer kaufen....
Troyan
2022-11-03, 22:04:25
Und wieviel davon bleibt bei der 4080 über?
~70% der 4090 Leistung. Damit wäre man 25%+ schneller als eine 3090TI. Und das sind 378mm^2 gegenüber 533mm^2. Die Herstellungskosten hat AMD bestimmt nicht auf deren Seite.
Redneck
2022-11-03, 22:05:42
Underwhelming.. Frage wird sein, ob die bis zu 70% mehr auf RZ eher die Regel sind oder nur eine Schwalbe.
Liegt sie im avg bei "nur" 30-40% on top, wäre es enttäuschend.
Witzig fand ich FSR3.. Smoothing... Lol.
MSABK
2022-11-03, 22:05:51
Nvidia tut da leider gar nichts weh. Die 4080 kostet "nur" $200 mehr, wird in RT aber massiv vorne liegen und selbst in Raster nicht extrem weit hinten. Bei weniger Verbrauch.
$999 ist eine psychologische Preisgrenze, gerade in den heutigen Zeiten wird da bei $1399 die Luft dünn vom Kundenkreis. Klar, hier im Forum hat sich gefühlt jeder mit einer 4090 eingedeckt, aber das sollte Nischenbereich sein preislich.
Sunrise
2022-11-03, 22:06:27
Die Rasterazing Leistung wird aber vermutlich nicht so schlecht sein.
Der Preispunkt wird Nvidia weh tun.
Nvidia hat damit aber leider erreicht was sie wollten, obenrum werden sie weiter machen können was sie wollen (daher ging man auch mit 4nm-Kapazität bei TSMC in die vollen), drunter dann deutlich kompaktere GPUs mit der eigentlichen Konkurrenz.
Den einzigen Fehler sehe ich in der Display Engine, da hat NV gepennt.
Troyan
2022-11-03, 22:07:26
AMD bleibt auch bei PCIe 4.0. Finde ich genauso strange wie bei nVidia.
robbitop
2022-11-03, 22:07:33
Gerade RT sehr enttäuschend.
Interessant, dass man so schnell einen dlss3 competitor haben wird (auch wenn erst angekündigt).
Die AI Units fand ich auch interessant und schade, dass sie dazu nicht viel gesagt haben.
Ich hätte ehrlich gesagt dennoch mehr erwartet. Mal sehen wie sie 4080 so wird und wie die Straßenpreise werden.
Linmoum
2022-11-03, 22:07:58
immerhin deutlich besser als das was die 4090 für Ihren Preis liefert.Die wird nicht selten in RT deutlich Faktor >2x schneller sein als RDNA3.
Ich hab vor zwei Jahren selbst die 6900XT statt Ampere geholt, weil RT mir da immer noch egal war und Ampere insgesamt nicht leistungsstark genug. Aber die Ausrede zählt nicht mehr, wir haben fast 2023. Ich find's einfach nur schade, dass AMD hier sowas abliefert aus Kundensicht.
Monsta
2022-11-03, 22:08:08
Wird FSR3 auch auf den alten Karten laufen?
robbitop
2022-11-03, 22:09:10
Wird FSR3 auch auf den alten Karten laufen?
Das habe ich mich auch gefragt.
Tangletingle
2022-11-03, 22:09:13
Ich verstehe bei RDNA3 nicht ganz, warum die Taktfrequenzen so stark hinter den Erwartungen geblieben sind. Gabs da wirklich keinen Spielraum mehr? Liegts eventuell nur an der Limitierung der TBP?
Ich auch nicht. Ist für mich das größte Rätsel. Es gab ja im Vergleich zur 6950 sogar einen Taktrückgang. Spiegelt sich auch in der Performance 1:1 wider. Wäre der takt bei den kolportierten knapp 3ghz läge man bei der Rasterperformance auch auf dem Niveau der 4090 wie einige angenommen haben.
MSABK
2022-11-03, 22:09:17
Das wird wie bei Zen4 sein denke ich, dir RDNA2 Verkäufe werden stark bleiben.
Ravenhearth
2022-11-03, 22:09:28
Damit können wir jetzt auch die Prognosen zu N32 senken. :freak: Viel mehr als AD104 oder N21-Leistung wird da in Raster nicht bei rumkommen, wenn N32 37,5% weniger Shader und 33% weniger Bandbreite und Cache als N31 hat.
Sunrise
2022-11-03, 22:09:30
Wird FSR3 auch auf den alten Karten laufen?
Wie bei AMD üblich vermutlich schon, aber bei den neuen Karten deutlich schneller.
TheGood
2022-11-03, 22:09:50
JEtzt wissen wir auch warum Nvidia die Kundenvearsche par excellence 4080 12 GB zurückgezogen hat, da sie durch AMD schlichtweg platt gemacht würde. ABer das hatte ja auch schon einer hier erwähnt..
Also nicht zum Wohle des Kunden oder aus einsicht (sowas gibts da schon lange nicht mehr) sondern um nach dem Steckergate nicht noch dümmer aus der Wäsche zu schauen und die Marke zu beschädigen...
Freestaler
2022-11-03, 22:09:56
So, CB als Start, die dortige 6900 Black mit 4k AVG RT und RZ umgerechnet in Dollar im Prozentpunkt.
Für RT ist sie bis auf 12$ gleichteuer wie 4090 und in RZ ist sie viel zu günstig...
RT 4k (CB)
4090 259
6900 Black 100
7900 160
1599$/259%Punkte*160%Punkte = 987$
RZ 4k (CB)
4090 183
6900 Black 100
7900 170
1599$/189%Punkte*170%Punkte = 1438$
BlacKi
2022-11-03, 22:10:22
Und das sind 378mm^2 gegenüber 533mm^2. Die Herstellungskosten hat AMD bestimmt nicht auf deren Seite.
533mm + extra kosten für das chiplet design. das ist schon krass.
Neurosphere
2022-11-03, 22:10:23
https://i.ibb.co/4FfBP46/image.png
Damit wäre man beim Raster aber nicht so weit weg.
54,8*1,7 = 93. Geht man davon aus das die 6950 etwas schneller ist wäre es patt. Allerdings waren die Faktor 1,7 auch best case.
So wie es aussieht wäre man mit der 7900 XTX 10-20% langsamer im Raster.
In RT ist die Arch wirklich ziemlich enttäuschent. Es sieht so aus als hätte man zu RDNA2 nicht wirklich viel getan und profitiert nur aus dem Mehr an Einheiten.
Der Takt ist merkwürdig. Entweder wurde nicht das erreicht was in der Designphase prognostiziert wurde oder man ist wegen dem Verbrauch so weit runter gegangen mit dem Takt. Es wird aber kaum möglich sein das die Boardpartner nun 50% drauflegen sollen...
Abwarten was die ersten realen Tests zeigen. Bei RDNA2 hatte AMD damals mehr versprochen als wirklich in den ersten Reviews geliefert wurde, evtl. läuft es diesmal anders.
Voodoo6000
2022-11-03, 22:10:32
Die Preise sind echt nicht schlecht, AMD hat mich damit positive überrascht. Die RTX 4090 hat keine Konkurrenz aber die RTX 4080(12 GB) wird von AMD ganz schön unter druck gesetzt.
AMD bleibt auch bei PCIe 4.0. Finde ich genauso strange wie bei nVidia.
Eine 4090 ist selbst mit 3.0 kaum limitiert. Für die aktuellen Leistungsklassen braucht es echt kein 5.0, dafür sind die Karten viel zu schwach.
Nvidia tut da leider gar nichts weh. Die 4080 kostet "nur" $200 mehr, wird in RT aber massiv vorne liegen und selbst in Raster nicht extrem weit hinten. Bei weniger Verbrauch.Meine letzte AMD/ATI Grafikkarte war in den frühen 2000er eine Radeon 9600. Jetzt 20 Jahre später sind es Nvidias Mondpreise die dafür sorgen, dass meine nächste Grafikkarte von AMD sein wird.
Die Leistung ist m.E. leicht besser als erwartet.
Winter[Raven]
2022-11-03, 22:12:07
Kann mir gerade und insbesondere nach der Show jemand erklären, für was genau "Worlds most advanced gaming graphics" stehen soll?
vinacis_vivids
2022-11-03, 22:12:17
Wird FSR3 auch auf den alten Karten laufen?
Glaub ich schon. FSR3 nutzt wahrscheinlich die AI-Units (Int8 und bf16) und ist auf RDNA3 deutlich schneller.
dildo4u
2022-11-03, 22:12:53
Glaub ich nicht. FSR3 nutzt wahrscheinlich die AI-Units (Int8 und bf16).
Was ist aus den 3Ghz geworden?
MSABK
2022-11-03, 22:12:58
;13157691']Kann mir gerade und insbesondere nach der Show jemand erklären, für was genau "Worlds most advanced gaming graphics" stehen soll?
Hat man ja in der Zusammenfassung gesehen, chiplet, DP2.1 und noch ein paar Dinge.
Olliver
2022-11-03, 22:13:23
Für den Preis ist die Performance eigentlich okay, aber jetzt immer noch bei RT eine ganze Generation zurück zu hängen, ist enttäuschend, ich habe kein 4090 Niveau erwartet, aber gehofft das die Distanz geringer wird.
Nö, sie wird wohl bei RT eher noch größer.
Alex1973
2022-11-03, 22:13:32
[immerhin deutlich besser als das was die 4090 für Ihren Preis liefert. Wenn es danach geht, dürfte die kein normaldenkender Gamer kaufen....[/QUOTE]
Und es wird noch besser, wenn AMD ihre Karten nicht mal für solche Preise los wird.;D So ein Launch spricht sich schnell rum.
RT ist nun eine nutzlose Geschichte. Weder die Konsolen noch AMD können RT wirklich gut. Und wenn Pro Konsolen kommen, werde diese sicher wieder solche RT Krüppel einbauen also noch 6-8 Jahre warten bis Global illumination.
BlacKi
2022-11-03, 22:13:51
;13157691']Kann mir gerade und insbesondere nach der Show jemand erklären, für was genau "Worlds most advanced gaming graphics" stehen soll?war nicht auf die performance bezogen:wink:
Grendizer
2022-11-03, 22:13:52
In Zukunft bis 900 fps an entsprechenden Monitoren..:freak:
Linmoum
2022-11-03, 22:13:57
JEtzt wissen wir auch warum Nvidia die Kundenvearsche par excellence 4080 12 GB zurückgezogen hat, da sie durch AMD schlichtweg platt gemacht würde. ABer das hatte ja auch schon einer hier erwähnt..
Also nicht zum Wohle des Kunden oder aus einsicht (sowas gibts da schon lange nicht mehr) sondern um nach dem Steckergate nicht noch dümmer aus der Wäsche zu schauen und die Marke zu beschädigen...Was soll da plattgemacht werden?
Die 12GiB war von der Namensgebung und Positionierung am Markt einfach fail. Sowohl isoliert betrachtet, aber gerade auch verglichen mit der 4080 16GiB. Das schrie einfach nach Verarsche von unwissenden Käufern die denken, sie kriegen bis auf den Speicherausbau dasselbe.
Die wird in Raster natürlich klar langsamer sein, in RT dafür aber schneller und wird nur <=285W ziehen (vs. 355W 7900XTX). Dafür aber auch nur halb so viel Speicher.
Ich garantiere dir trotzdem, dass sie diese 4080 12GiB für $899 besser verkauft hätte, als RDNA3. So wird es jetzt halt irgendwann die 4070 und das ist das große Problem für AMD.
Sunrise
2022-11-03, 22:13:59
Ich auch nicht. Ist für mich das größte Rätsel. Es gab ja im Vergleich zur 6950 sogar einen Taktrückgang. Spiegelt sich auch in der Performance 1:1 wider. Wäre der takt bei den kolportierten knapp 3ghz läge man bei der Rasterperformance auch auf dem Niveau der 4090 wie einige angenommen haben.
Korrekt, entweder bewusst beschränkt oder wir übersehen was, AMD hatte da bisher immer Stärke gezeigt.
Daredevil
2022-11-03, 22:14:25
https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/
RDNA 3 bietet KI-Einheiten
Ziemlich überraschend hat AMD darüber hinaus pro Compute Unit zwei KI-Einheiten eingebaut, zu der es noch gar keine weiteren Details gab. Es scheint sich um separate Einheiten zu handeln, die unter anderem die Formate INT8 und BFLOAT16 beschleunigen können. Sie scheinen deutlich simpler als Nvidias Tensor-Cores auszufallen, sollen aber dennoch den KI-Durchsatz um den Faktor 2,7× vergrößern. Bisher bot RDNA gar kein Äquivalent zu Nvidias Tensor-Kernen.
Das freut mich sehr, das AMD nicht noch weiter KI verschläft.
Somit kommt nicht nur Performance am Ende raus, sondern auch intelligente Features auf dem Rechner für Gamer, Streamer und sonstige Workloads, die davon profitieren.
Bei Apple wird das an jeder Ecke genutzt, bei Windows macht man 0,0 damit.
Korrekt, entweder bewusst beschränkt oder wir übersehen was, AMD hatte da bisher immer Stärke gezeigt.
Nvidia ist böse und ein Schluckspecht, AMD ist effizient und grün. Thats it.
Das ist gutes Marketing Material und der Seitenhieb zum neuen Netzteil ist zwar frech, aber natürlich passend.
Zudem muss man nicht soviel für den Kühler ausgeben.
Lurtz
2022-11-03, 22:14:47
Bringen die Ansätze Richtung Chiplet-Design eigentlich einen Kostenvorteil gegenüber nVidia oder ist das noch zu früh?
Lehdro
2022-11-03, 22:15:12
Ich war selten so gelangweilt bei einer Präsi. Gelangweilter war glaube nur Naffziger :D
Linmoum
2022-11-03, 22:15:30
Hier meine Einschätzung (fast unverändert):
Raster, breite Auswahl:
7900XTX > 7900XT > 4090FE
https://abload.de/img/rdna3vsadas3cjf.png
Raster/Ray-Tracing Hybrid, breite Auswahl ohne propiätäre NV-Demos:
7900XTX ~ 4090FE > 7900XT
Bei Ray-Tracing fehlt AMD bisher noch die Zeit um die Matrix-Cores und BHV-Traversal im Treiber zu optimieren, daher ist die 7900XTX nur so schnell wie die 4090FE im Ray-Tracing. In NV-RT-Demos sicherlich etwas langsamer wie bei Tessellation x64. Leider werden viele Tester und Schafe drauf reinfallen.
Theoretisch bzw. physisch ist N31XTX auch in RT-Hardware stärker als AD102 Salvage.
Ich denke das ist ziemlich realistisch. Sollte die 7900XTX nur 96MB IF$ und nur 300-350W haben, wird der Abstand etwas kleiner, also 7900XTX ca. ~20% vor 4090FE im Raster statt 30%.
btw. ist VV eigentlich noch da? :freak:
TheGood
2022-11-03, 22:16:29
Die wird nicht selten in RT deutlich Faktor >2x schneller sein als RDNA3.
Ich hab vor zwei Jahren selbst die 6900XT statt Ampere geholt, weil RT mir da immer noch egal war und Ampere insgesamt nicht leistungsstark genug. Aber die Ausrede zählt nicht mehr, wir haben fast 2023. Ich find's einfach nur schade, dass AMD hier sowas abliefert aus Kundensicht.
Ändert nichts am miserablen P/L und an einer unverschämten Marge, die ja STand heute noch zu wenig ist...
Ich sehe bis heute keinen RT Hype. Man muss einfach so ehrlich sein, das Argument zieht nicht.
Einzige sinnvolle Feature ist Global Illumination und wenn da RDNA gut funktioniert passt es doch, aber diese Tests macht heute leider keiner.
Lieber RT mit spiegel wo es nichts zu spiegeln gibt und einem in der Regel nicht auffällt, weil man schlichtweg keine Zeit hat sich das anzusehen...
Einfach mal UE5 ansehen, da sieht man was den WOW effekt auslöst, vor allem mehr Geometrie und schöne Beleuchtung.
Ja es ist die Zukunft und wer seine Graka 4-5 jahre oder lange behalten will, sollte sich wohl Nvidia kaufen (mein Problem). Mal noch Tests abwarten was da so rauskommt...
PingpiN
2022-11-03, 22:16:38
Glaub ich schon. FSR3 nutzt wahrscheinlich die AI-Units (Int8 und bf16) und ist auf RDNA3 deutlich schneller.
Vinacis bist du nicht enttäuscht=? die schwache Perfomance hast du doch nicht erwartet oder=? :up::down::comfort:
Thunderburne
2022-11-03, 22:16:45
https://abload.de/img/screenshot2022-11-032f9ibk.jpg (https://abload.de/image.php?img=screenshot2022-11-032f9ibk.jpg)
Wenn die XTX 50-70 Schneller ist als die 6950XT dann fehlen der XTX ca 6-26% auf die je nach Spiel.
Wenn der Chip gute OC Reserven hat und man die XTX auf 3GHZ puschen könnte dann hätte man eine schöne Wakü Karte für ca 1250 Euro mit viel Leistung.
Die Custom Karten mit 3*8Pin werden da dann interessant sein aber wohl bis ca 1500 Euro hoch gehen.
Lurtz
2022-11-03, 22:16:50
btw. ist VV eigentlich noch da? :freak:
Er bereitet noch seine Erklärung vor wieso AMDs Frames viel wertiger als nVidias sind weil weniger komprimiert.
Sunrise
2022-11-03, 22:17:02
Bringen die Ansätze Richtung Chiplet-Design eigentlich einen Kostenvorteil gegenüber nVidia oder ist das noch zu früh?
Naja, der GCD ist dadurch halt deutlich kleiner und der Yield insgesamt immens höher.. mit dem Preis haben sie jedenfalls kein Problem.
Ich war selten so gelangweilt bei einer Präsi. Gelangweilter war glaube nur Naffziger :D
Empfand ich auch etwas daneben, er lief auch schon raus als er noch sprach, wirkte entweder enttäuscht oder extrem nervös.
Gott1337
2022-11-03, 22:17:07
Die XT müsste mit den Daten eigentlich $799 kosten. Ich vermute, die XT ist preislich so nah an der XTX und wird im Marketing stiefmütterlich behandelt, um den Abverkauf der alten Generation nicht zu stören.
Ich denke eher die XTX war vorher 100-200$ teurer und deswegen sieht es jetzt merkwürdig aus.
Ravenhearth
2022-11-03, 22:17:29
Kann es sein, dass das Chiplet-Design die Effizienz drückt? Es müssen ja permanent riesige Datenmengen ausgetauscht werden; wäre N31 monolithisch, könnte man sich die Interfaces in den Chiplets und die Energie dafür sparen.
Troyan
2022-11-03, 22:18:04
Bringen die Ansätze Richtung Chiplet-Design eigentlich einen Kostenvorteil gegenüber nVidia oder ist das noch zu früh?
Der Vorteil ist, dass du bestimmte Bereiche auf günstigere Nodes ausgliedern kannst. So ist der Stromverbrauch von Cache nicht wirklich relevant.
Jedoch muss man das immer auch in Bezug auf die Konkurrenz sehen. Wenn der in 5nm kaum langsamer bei 15% größeren Komplettchip als dein 5nm ComputeChiplet ist, dann ist es kein Vorteil.
Das wird erst in Zukunft zum Vorteil, wenn man aufgrund der prozessbedingten Probleme keine großen Dies mehr produzieren kann.
Habe ich auch gedacht. Knuffige 300 mm² - aber damit und dem Effizienzbestreben holt man eben keine Rekorde. Schade. Aber die Boardpower ist nett. Krumm, aber nett. :)
MfG
Raff
Vorallem, wenn man schon Chiplets macht dann bietet sich Skalierung doch an.
Gott1337
2022-11-03, 22:19:02
https://abload.de/img/screenshot2022-11-032f9ibk.jpg (https://abload.de/image.php?img=screenshot2022-11-032f9ibk.jpg)
Wenn der Chip gute OC Reserven hat und man die XTX auf 3GHZ puschen könnte dann hätte man eine schöne Wakü Karte für ca 1250 Euro mit viel Leistung.
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Rincewind
2022-11-03, 22:19:14
bei den von AMD vorgestellten Grafikkarten habe ich eher so das Gefühl von Handbremse. Mal schaun, was die Customs so bieten. Eine dritter 8-Pin-Stecker könnte Reserven freilegen, aber ich bin kein Profi, ist irgendwie nur ein Bauchgefühl.
Tangletingle
2022-11-03, 22:19:22
btw. ist VV eigentlich noch da? :freak:
Den Scheiß nimmt doch hoffentlich seit Jahren keiner mehr ernst. Das hat was von nem Nvidia-mole, der im Vorfeld einfach massiv die Erwartungen anheizt um im Nachgang die große Enttäuschung still und heimlich feiern zu können.
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Rnda2 läuft optimiert eher schneller als langsamer beim selben Verbrauch. Ich denke darauf wollte er hinaus.
crux2005
2022-11-03, 22:19:57
Ich frage mich wer die Zielgruppe für die 7900XT(X) sein soll. :freak:
Inquisitor
2022-11-03, 22:20:06
Ich fürchte ein wenig, dass die Verfügbarkeit der 4090 jetzt extrem schwierig werden könnte. Viele Enthusiasten haben doch nur noch heute abwarten wollen.
MSABK
2022-11-03, 22:20:29
Meine Theorie ist, dass AMD im Referenzdesign unbedingt den dritten Stromstecker meiden wollte und entsprechend den Takt niedrig gehalten hat.
vinacis_vivids
2022-11-03, 22:20:30
btw. ist VV eigentlich noch da? :freak:
Ja hier:
https://abload.de/img/2022-11-0321_26_00-ams7c4v.png
Ich schaue schon mal nach 4K@240hz Displays nächstes Jahr.
Oder nach 8K
https://abload.de/img/2022-11-0321_26_47-amhpe6f.png
Voodoo6000
2022-11-03, 22:20:58
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Dafür gibt es doch die Customs
MSABK
2022-11-03, 22:21:12
Ich frage mich wer die Zielgruppe für die Grafikkarten sein soll. :freak:
Menschen die was aktuelles in 4k zu relativ „normalen“ Preisen spielen können.
BlacKi
2022-11-03, 22:21:49
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
11 watt. denn über der pcie dürfen nur 66w 12v.
Linmoum
2022-11-03, 22:22:10
Ich sehe bis heute keinen RT Hype. Man muss einfach so ehrlich sein, das Argument zieht nicht.Ich sehe spätestens seit der 4090 und deren Performance einen noch größeren "RT-Hype" als zuvor.
Ja, bei einem AD106 oder N33 ist's einfach latte. Da gibt's wenig Hype darum und die potentielle Zielgruppe hat auch völlig andere Prioritäten.
Aber beim besten vom besten beider Hersteller? Was wir mit einem N31 von AMD ja definitiv haben? Nope, da gibt's keine Ausreden. Unterirdische RT-Performance Ende 2022, die oftmals sogar noch unterhalb von Ampere liegen wird, bei dem Preis ist einfach ein No-Go. Sorry.
Troyan
2022-11-03, 22:22:20
Ja hier:
https://abload.de/img/2022-11-0321_26_00-ams7c4v.png
Ich schaue schon mal nach 4K@240hz Displays nächstes Jahr.
Oder nach 8K
https://abload.de/img/2022-11-0321_26_47-amhpe6f.png
Was für eine dummdreiste Lüge von AMD. 4K sind mit 240Hz möglich. Kann man heute kaufen und mit einer 4 Jahre alten Turing-Karte betreiben.
Erste Folie war nicht geladen. Mea Culpa.
DrFreaK666
2022-11-03, 22:22:21
Nvidia tut da leider gar nichts weh. Die 4080 kostet "nur" $200 mehr, wird in RT aber massiv vorne liegen und selbst in Raster nicht extrem weit hinten. Bei weniger Verbrauch.
Und für wie viel wird NV die 4070 mit gigantischen 12GB anbieten? 600?
Der Preis tut NV schon weh
...Unterirdische RT-Performance Ende 2022, die oftmals sogar noch unterhalb von Ampere liegen wird, bei dem Preis ist einfach ein No-Go. Sorry.
unterirdische Performance.
Wie viel schneller wird die 4080 sein? 25% vielleicht?
Thunderburne
2022-11-03, 22:22:29
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Rede von den Custom Karten mit 3*8Pin und OC .
Sehe auch gerade der Screen den ich gemacht habe zeigt die 6950 XT auch nicht mit 100%.
Die Ref. Karte ist doch total langweilig mit 2*8Pin
Olliver
2022-11-03, 22:23:10
Was meint ihr, sind die Gründe für diese mäßige Entwicklung?
Das man bei RT deutlich mehr zulegen muss, war doch vor zwei Jahren schon völlig klar.
Sind AMD Ingenieure abgeworben worden?
Linmoum
2022-11-03, 22:24:24
Und für wie viel wird NV die 4070 mit gigantischen 12GB anbieten? 600?
Der Preis tut NV schon wehSie bieten sie einfach trotzdem wieder für $899 an? Meinetwegen auch $799, was zur Namensgebung besser passen würde. Aber da tut Nvidia gar nichts weh, AD104 ist kleiner als das GCD von N31 und damit deutlich günstiger zu fertigen als das Konstrukt N31.
Jupiter
2022-11-03, 22:24:25
Ich sehe bis heute keinen RT Hype. Man muss einfach so ehrlich sein, das Argument zieht nicht.
Ohne Raytracing hat man Grafik der letzten Generation. Control von 2019 hat bessere Grafik als jedes Spiel, welches kein Raytracing bietet. Mit Raytracing ist die Beleuchtung um ein vielfaches realistischer und fehlerärmer. Je dynamischer die Beleuchtung, desto größer die Unterschiede.
Tangletingle
2022-11-03, 22:24:58
Ja hier:
https://abload.de/img/2022-11-0321_26_00-ams7c4v.png
Ich schaue schon mal nach 4K@240hz Displays nächstes Jahr.
Oder nach 8K
https://abload.de/img/2022-11-0321_26_47-amhpe6f.png
Bringt dir genau was wenn die Rohperformance dafür nicht reicht. Fsr und framegeneration sind dafür keine adequate Lösung.
DrFreaK666
2022-11-03, 22:25:40
Sie bieten sie einfach trotzdem wieder für $899 an? Meinetwegen auch $799, was zur Namensgebung besser passen würde. Aber da tut Nvidia gar nichts weh, AD104 ist kleiner als das GCD von N31 und damit deutlich günstiger zu fertigen als das Konstrukt N31.
Und schon ist der nächste Shitstorm vorprogrammiert :lol:
dargo
2022-11-03, 22:25:44
Puh... da hätte ich doch etwas mehr erwartet. Nur 50-70% je nach Spiel soll die 7900XTX schneller als die 6950XT sein. Würde bedeuten ich bekomme vs. meine 6800XT 74-98% mehr Performance mit der 7900XTX. Nur säuft mir die XTX mit bis zu 355W zu viel, ergo kommt nur die 7900XT in Frage die ich ebenfalls "optimieren" muss (Ziel sind wieder 250-260W). Hmm... sieht ebenfalls nach einer Luftpumpe wie Ampere/Ada aus bei 61 vs. 23 TFLOPs. Was mich aber völlig überrascht hat sind die recht niedrigen Frequenzen von N31. Da hat einer bei den Gerüchten ganz schön mit 3+Ghz getrollt. :D Immerhin sind die Preise aber recht human ausgefallen. 899$ hören sich jetzt recht ok für die 7900XT an. Mal sehen was die Straßenpreise bei den Customs letztendlich sagen.
Grendizer
2022-11-03, 22:26:27
Ich denke das nVidia bei den Grundlagenforschung einfach Jahre voraus ist und einen Plan für einige Generationen hat, wie man RT Performance steigert.
AMD ist da vermutlich kalt erwischt worden und hat das in RDNA2 und RDNA3 irgendwie reingewürgt. Aber das Design ist nicht für RT geschaffen. Das scheint bei nVidia anders zu sein.
vinacis_vivids
2022-11-03, 22:26:31
Was für eine dummdreiste Lüge von AMD. 4K sind mit 240Hz möglich. Kann man heute kaufen und mit einer 4 Jahre alten Turing-Karte betreiben.
Wieso denn? FSR 3.0 ist doch ne feine Sache. 4K@240hz Gaming ist für mich schon interessant. Sowohl Monitor als auch Grafikkarte. Nvidia kann glaube ich wegen DP 1.4 gar kein 4K@240hz.
Nvidia ist limitiert auf 4K@120hz, also Altmetall.
kleeBa
2022-11-03, 22:26:53
Ich frage mich wer die Zielgruppe für die 7900XT(X) sein soll. :freak:
Ich.
Leute die bei 2k € für eine Grafikkarte in Lachen ausbrechen.
Also so ca. 97% aller Gamer.
Die bist hier in einer Nerd-Forum-Tech-Blase, solltest du dir vielleicht öfter mal in Erinnerung rufen.
Langlay
2022-11-03, 22:27:42
Sag mal was stimmt da nicht? OC Reserven wenn man noch 17? Watt Spielraum hat.... mehr dürfen die gar nicht ziehen.
Tun sie ja auch Stock nicht, was du dann selbst machst ist doch dein Problem.
Ich kann die 6900XT auch mit 400W+ befeuern mit 2x8Pin.
Allerdings seh ich auch bei OC keine 3GHz, 2.5-2.7GHz könnte ich mir allerdings schon vorstellen.
Sunrise
2022-11-03, 22:28:08
Was meint ihr, sind die Gründe für diese mäßige Entwicklung?
Das man bei RT deutlich mehr zulegen muss, war doch vor zwei Jahren schon völlig klar.
Sind AMD Ingenieure abgeworben worden?
Als wäre zuviel Optimierungszeit von Suzanne Plummer und Team in die Zen4-Entwicklung geflossen.
Es ist schon krass, was AMD aus 7nm rausholen konnte.
PingpiN
2022-11-03, 22:28:25
AMD Grafikkarten werden immer vor Release übelst gehypt nur um dann eher zu enttäuschen. Das erlebe ich jetzt schon seit Anfang 2000. AMD schafft es einfach nicht Nvidia zu schlagen. Mit RDNA 2 sah es vielversprechend aus und jetzt der rückschlag. Im CPU Bereich gehts auch wieder eher bergab. Amd wird wohl der ewige zweite bleiben.:comfort2:
w0mbat
2022-11-03, 22:28:25
533mm + extra kosten für das chiplet design. das ist schon krass.
Aber es sind keine 533mm², sondern nur ca. 300mm². Das packaging sollte keine $10 extra kosten, aber die yield Gewinne sind extrem. 300mm² in N5 ist ein gutes Stück günstiger als 378mm² in N4 und die MCDs kosten fast nix, da super klein, perfektes yield und in N6.
Mit 46 Mrd. Transistoren ist AD103 nicht weit hinter Navi31 (58 Mrd.), wird in der Herstellung aber teurer sein.
Voodoo6000
2022-11-03, 22:28:36
Was meint ihr, sind die Gründe für diese mäßige Entwicklung?
Das man bei RT deutlich mehr zulegen muss, war doch vor zwei Jahren schon völlig klar.
Vermutlich war vor 2 Jahren der Zug für RDNA 3 bezüglich RT schon längst abgefahren. So eine Grafikkarte entwickelt man nicht in 2 Jahren. Amd hat z.B. schon Anfang 2018 an Zen 5 gearbeitet und Zen 5 erscheint erst 2024.
Daredevil
2022-11-03, 22:28:40
Wer hier übrigens denkt, dass der GPU Takt gesunken ist, laut AMDs Angabe "Gameclock" ist das definitiv nicht der Fall
Die 6900xt hatte nen Gameclock von 2015Mhz. https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/
Die 7900XTX hat nen Gameclock von 2300Mhz und die 7900XT hat 2000Mhz https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/
Real lag bei der 6900xt 2200-2400Mhz an, die 7900XT könnte also bei einer Gameclock Skalierung von +15% durchaus bei 2530-2760Mhz liegen im Game.
Insofern müssten 3Ghz mit Brechhammer und Custom möglich sein, oder übersehe ich da was? :)
Hilft nur nichts, wenn da am Ende nichts bei rum kommt.
MSABK
2022-11-03, 22:30:10
AMD Grafikkarten werden immer vor Release übelst gehypt nur um dann eher zu enttäuschen. Das erlebe ich jetzt schon seit Anfang 2000. AMD schafft es einfach nicht Nvidia zu schlagen. Mit RDNA 2 sah es vielversprechend aus und jetzt der rückschlag. Im CPU Bereich gehts auch wieder eher bergab. Amd wird wohl der ewige zweite bleiben.:comfort2:
Ewiger zeite muss ja nichts negatives sein. Solange da interessante Produkte kommen und das Unternehmen nachhaltig wirtschaftet passt es doch für den Wettbewerb. Nur weil man jetzt mit der Spitze für das Obere 5% nicht mithalten kann geht der Laden nicht unter.
iamthebear
2022-11-03, 22:30:49
2.65x Transistoren/mm² Holy Shit.
Da hat AMD was die Density Optimierung angeht echt tolle Arbeit geleistet.
Damit packen sie auf 300mm² nun 2x so viele Transistoren als bisher auf 400mm² und das obwohl der IO Part auch noch mit dabei ist.
Was ich aber so amüsant finde ist, dass sich Leute wie RGT oder Kepler L2 100% sicher waren, dass es "weit über 3GHz" werden oder die 2.2x Performance oder die "N33 > N21 Leaks".
Auch wenn einigen die 1.5x Performance zu wenig sind:
Das ist genau das, was der Markt braucht. Besser eine vernünftige 350W Karte um 1200€ als eine 2300€ 450W Karte, die noch dazu ein neues NT und Gehäuse braucht nur für ein paar RT Effekte und vielleicht 20% mehr Performance.
Ingesamt sieht das Portfolio jetzt auch ziemlich rund aus. N21 gibt es um die 600$. N31 bietet 1.6x mehr Performance für 1.6x mehr Preis.
So kann AMD gemütlich die N21 Bestände abverkaufen und wenn die aus sind kommt N32 hinterher.
Und N33 wird dann statt N22 nachgeschoben um dieselben 350$.
Ich denke Nvidia kann sich die 4090 Ti erstmal sparen, muss aber mit der 4080 16GB kräftig im Preis runter
Thunderburne
2022-11-03, 22:31:16
Ist halt die Frage ob man die Karten in Richtung 3GHZ gepeitscht bekommt?
Da wäre man dann bei der Raster Leistung schon nah dran an der 4090 .
Wenn halt auch Bandbreite und Co mitspielen.
Es wurde aber etwas von 2 Frequenzen erzählt die Frage ob man die nur zusammen Übertakten kann oder Asyncron auch geht bzw wenn nur zusammen ob einer von den Taktgebern eventuell dann bremst beim OC.
Berniyh
2022-11-03, 22:31:27
Kann es sein, dass das Chiplet-Design die Effizienz drückt?
Ja, hat man auch bei Zen 2 gesehen. Unterm Strich wiegen aber die Vorteile stärker, zumindest aus Sicht des Herstellers.
Aus Sicht der Effizienz ist monolithisch immer stärker zu erwarten, aber auch teurer.
Die Frage wird aber pespektisch eher sein, ob man auch das GCD aufteilen kann ohne, dass Effizienz und Performance flöten gehen.
Sunrise
2022-11-03, 22:32:34
Hilft nur nichts, wenn da am Ende nichts bei rum kommt.
Ist halt auch noch vollkommen unklar, wie das Chiplet-Design skaliert, insbesondere wegen der feingranularen Clock-Domains und den MCDs/Cache.
Bringt aber nix, wenn grundsätzlich RT in der Basis schon nicht genug RT-fps liefert.
Daredevil
2022-11-03, 22:33:17
CB hatte doch was dazu geschrieben:
Die Radeon RX 7900 XTX setzt auf den Navi-31-Vollausbau mit 96 Compute Units, was entweder 6.144 FP32-ALUs mit Dual-Issue oder 12.288 FP32-ALUs bedeutet. Der Shader-Takt liegt bei 2,3 GHz, das Front-End arbeitet mit 2,5 GHz. AMD nennt als Game-Takt 2,3 GHz, die Rechenleistung ist mit 61 TFLOPS angegeben – was offensichtlich 2,5 GHz zur Basis hat.
DrFreaK666
2022-11-03, 22:33:34
...Ich denke Nvidia kann sich die 4090 Ti erstmal sparen, muss aber mit der 4080 16GB kräftig im Preis runter
Bis auf die 90er Karten haben die anderen NV-Karten mal wieder zu wenig RAM. Die Differenz zur 4070 wird besonders witzig
TheGood
2022-11-03, 22:34:13
Was soll da plattgemacht werden?
Die 12GiB war von der Namensgebung und Positionierung am Markt einfach fail. Sowohl isoliert betrachtet, aber gerade auch verglichen mit der 4080 16GiB. Das schrie einfach nach Verarsche von unwissenden Käufern die denken, sie kriegen bis auf den Speicherausbau dasselbe.
Die wird in Raster natürlich klar langsamer sein, in RT dafür aber schneller und wird nur <=285W ziehen (vs. 355W 7900XTX). Dafür aber auch nur halb so viel Speicher.
Ich garantiere dir trotzdem, dass sie diese 4080 12GiB für $899 besser verkauft hätte, als RDNA3. So wird es jetzt halt irgendwann die 4070 und das ist das große Problem für AMD.
Ja der grüner Ritter :) Das ist leider nicht das Gesicht von Nvidia.
für 899 wäre die 7900 das bessere Angebot für die meisten Käufer, da kein massiv abgespeckter Chip.
PS: Ich glaube nicht an die Einsicht zum Wohle des Kunden, dafür arbeitet Nvidia seit 15 Jahren genau in die andere Richtung. Das war eine klare Marktentscheidung.
WEnn man das weiterspinnt dann wäre der Vergleich zur Konkurrenz ja nichtmal so falsch 4080 steht gegen die Topmodelle von AMD. Das würde ja klar für Nvidia sprechen und daraus ist sicher auch die 4080 12 GB Idee entstanden...
vinacis_vivids
2022-11-03, 22:34:43
Bringt dir genau was wenn die Rohperformance dafür nicht reicht. Fsr und framegeneration sind dafür keine adequate Lösung.
Die Rohperformance sollte man mehr Richtung fp16 Rechnen, weil FSR 2.0 mittlerweile viel fp16 hat. Mit FSR 3.0 gibs noch ein extra boost mit den AI-Units. Ich denke wird müssen uns verabschieden von zu viel fp32 raw-power. Die ist für Normalos nicht mehr bezahlbar.
4K@240hz ist schon mein nächster Monitor. Wollte eh Monitor mit aufrüsten. Wird alles in Allen passt AMD da perfekt zur Aufrüstung. Wenn die fps zu wenig sind, einfach FSR 2.0 bzw. 3.0 einschalten.
GPU Radeon 7900XTX ~ 1200€
Monitor 4K@240hz hdr 12bit ~ 1200€
CPU Ryzen 7900X + Board X670 + 64 GB DDR5-RAM ~ 1200€
Das sind in Summe schon 3600€, viel Geld bzw. ne ordentliche Stange für einen Rechner.
Troyan
2022-11-03, 22:36:02
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81241&stc=1&d=1667511488
https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/post-2272138
Ravenhearth
2022-11-03, 22:37:21
https://images.anandtech.com/doci/17638/AMD%20RDNA%203%20Tech%20Day_Press%20Deck%2063_575px.png
Man versucht echt, die XT im Dunkeln verschwinden zu lassen ;D
Thunderburne
2022-11-03, 22:37:21
GPU Radeon 7900XTX ~ 1200€
Kannst von ca 1250 ausgehen bei dem Euro Kurs * Mehrwertsteuer.
Bei den Customs bis 1500 hoch.
Und bei zu hoher nachfrage noch mal 150-200 on Top.
The_Invisible
2022-11-03, 22:38:12
Wieso denn? FSR 3.0 ist doch ne feine Sache. 4K@240hz Gaming ist für mich schon interessant. Sowohl Monitor als auch Grafikkarte. Nvidia kann glaube ich wegen DP 1.4 gar kein 4K@240hz.
Nvidia ist limitiert auf 4K@120hz, also Altmetall.
Klar, deswegen nutze ich mit meiner ollen Ampere einen 4k/144Hz Monitor ; )
Mit DP1.4 + DSC sind auch 4k/240Hz + 10bit möglich
Daredevil
2022-11-03, 22:38:23
Ich denke wird müssen uns verabschieden von zu viel fp32 raw-power. Die ist für Normalos nicht mehr bezahlbar.
https://i.imgflip.com/6zffhv.jpg
Linmoum
2022-11-03, 22:40:29
https://i.imgflip.com/6zffhv.jpgAber echt. Nachdem sein Pre-Launch-Hype um die Performance völlig in Luft aufgegangen ist, sucht er sich jetzt was anderes um seine Grundhaltung trotzdem noch aufrechterhalten zu können. ;D
prinz_valium_2
2022-11-03, 22:40:59
So viel zum Thema AMD kann keine Karte unter 1000 Dollar bringen
TheGood
2022-11-03, 22:41:17
Ohne Raytracing hat man Grafik der letzten Generation. Control von 2019 hat bessere Grafik als jedes Spiel, welches kein Raytracing bietet. .
OCh Gott, bei der Aussage braucht man erst gar nicht mehr weiter zu diskutieren....
Dino-Fossil
2022-11-03, 22:41:54
Haut nicht vom Hocker, wobei das die 4090 bei mir auch nicht tat, wenn auch aus anderen Gründen.
Taktraten scheinen mir recht niedrig, aber vielleicht waren wir da auch einfach alle getrollt/-hyped.
Ich kaufe zwar eh nicht in dem Segment, aber es ist halt ein erster Ausblick auch auf die kleineren Karten.
Davon abgesehen lässt AMD erstaunlich viel offen (Navi3X?, RT-Verbesserungen ohne echten Nutzen?, genaueres zu den Chiplets, die AI Kerne,...), siehe auch der Artikel auf Anandtech. Entweder kommt da noch was (eher unwahrscheinlich, wenn man an voherige Gens denkt) oder AMD hat sich ein wenig verschätzt..
Sunrise
2022-11-03, 22:42:00
So viel zum Thema AMD kann keine Karte unter 1000 Dollar bringen
Ja, da ist auf AMD Verlass. Man muss aber leider sagen, man hat irgendwie das Gefühl, dass sie genau auch auf diese Preispunkte entwickelt haben.
Ich weiß nicht so recht, was ich davon halten soll. $999 US ist schon teuer genug, dass das auch eher in Richtung Enthusiast geht, hat man aber mal die Leistung vergleichen, siehts garnicht gut aus.
Linmoum
2022-11-03, 22:42:31
So viel zum Thema AMD kann keine Karte unter 1000 Dollar bringenDiese Performance hat aber auch nun wirklich fast niemand vorausahnen können. :freak:
w0mbat
2022-11-03, 22:43:00
Wieso spricht AMD eigentlich von 61 TFLOPs? 96 CUs x 128 shader @ 2,3GHz sind 56,5 TFLOPs.
vinacis_vivids
2022-11-03, 22:44:27
Ist halt die Frage ob man die Karten in Richtung 3GHZ gepeitscht bekommt?
Da wäre man dann bei der Raster Leistung schon nah dran an der 4090 .
Wenn halt auch Bandbreite und Co mitspielen.
Es wurde aber etwas von 2 Frequenzen erzählt die Frage ob man die nur zusammen Übertakten kann oder Asyncron auch geht bzw wenn nur zusammen ob einer von den Taktgebern eventuell dann bremst beim OC.
Bandbreite hat N31 genug.
https://abload.de/img/17-1080.3e1c95fdt8e7u.png
Was Taktrate und OC-Potential angeht hat N31 sehr viel Luft nach oben. Mit 3x8pin sind 450W + 75W = 525W möglich. Das ist aber auch heftigste Brechstange. Kriegst du mit Luft nicht mehr gekühlt.
Sunrise
2022-11-03, 22:44:35
Wieso spricht AMD eigentlich von 61 TFLOPs? 96 CUs x 128 shader @ 2,3GHz sind 56,5 TFLOPs.
Andere Clock-Domain, du musst mit 2,5GHz rechnen.
Thomas Gräf
2022-11-03, 22:44:57
Die heutige Vorstellung war doch ne Klatsche für RT im allgemeinen.
Was nützt es wenn nur ein Hersteller diese Technik performen kann?
Rincewind
2022-11-03, 22:45:59
weil man dort vielleicht mehr verdienen kann, als an Leuchtturmprojekte wie 4090? Die 4090 ist echt ein Monster, sowohl leistungs-, als aus preistechnisch. Ganz gut, dass auch etwas preistechnisch günstigeres angeboten wird.
Die heutige Vorstellung war doch ne Klatsche für RT im allgemeinen.
Was nützt es wenn nur ein Hersteller diese Technik performen kann?
weil sie Marktführer sind.
w0mbat
2022-11-03, 22:46:02
btw. ist VV eigentlich noch da? :freak:
Schau dir die Taktraten an, das ist der Haken! Die Gerüchte haben von 3GHz+ gesprochen, jetzt ist es sogar weniger als RDNA2. Lagen da alle "leaker" falsch, oder ist bei AMD was schief gelaufen?
Daredevil
2022-11-03, 22:46:39
Schau dir die Taktraten an, das ist der Haken! Die Gerüchte haben von 3GHz+ gesprochen, jetzt ist es sogar weniger als RDNA2. Lagen da alle "leaker" falsch, oder ist bei AMD was schief gelaufen?
Wer hier übrigens denkt, dass der GPU Takt gesunken ist, laut AMDs Angabe "Gameclock" ist das definitiv nicht der Fall
Die 6900xt hatte nen Gameclock von 2015Mhz. https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/
Die 7900XTX hat nen Gameclock von 2300Mhz und die 7900XT hat 2000Mhz https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/
Real lag bei der 6900xt 2200-2400Mhz an, die 7900XT könnte also bei einer Gameclock Skalierung von +15% durchaus bei 2530-2760Mhz liegen im Game.
Insofern müssten 3Ghz mit Brechhammer und Custom möglich sein, oder übersehe ich da was? :)
Hilft nur nichts, wenn da am Ende nichts bei rum kommt.
:)
Nakai
2022-11-03, 22:46:45
Haut nicht vom Hocker, wobei das die 4090 bei mir auch nicht tat, wenn auch aus anderen Gründen.
Taktraten scheinen mir recht niedrig, aber vielleicht waren wir da auch einfach alle getrollt/-hyped.
Ich kaufe zwar eh nicht in dem Segment, aber es ist halt ein erster Ausblick auch auf die kleineren Karten.
Davon abgesehen lässt AMD erstaunlich viel offen (Navi3X?, RT-Verbesserungen ohne echten Nutzen?, genaueres zu den Chiplets, die AI Kerne,...), siehe auch der Artikel auf Anandtech. Entweder kommt da noch was (eher unwahrscheinlich, wenn man an voherige Gens denkt) oder AMD hat dieses mal halt wieder ein wenig daneben gegriffen.
Full ack. Weder N31 noch die 4090 waren jetzt spektakulär. Wobei man sagen muss, dass NV es irgendwie versucht eine NextGen-GPU zu liefern, jedenfalls von der Performance. N31 sieht zwar auch nett aus, aber AMD hätte da gerne ein paar mehr mm² reinpacken können, einfach wegen mehr RT-Performance oder generell mehr Performance.
Naja...und technisch wurde gar nichts Spektakuläres vermittelt. Ich will mehr Specs sehen.
Schau dir die Taktraten an, das ist der Haken! Die Gerüchte haben von 3GHz+ gesprochen, jetzt ist es sogar weniger als RDNA2. Lagen da alle "leaker" falsch, oder ist bei AMD was schief gelaufen?
Ja, das Performance-Loch das von 1.5~1.7 -> auf 1.8~2.0x gefehlt hat.
vinacis_vivids
2022-11-03, 22:47:56
~3Ghz bei 525W ist für den normalen Gamer nicht mehr beherrschbar und auf Dauer auch nicht bezahlbar.
MasterElwood
2022-11-03, 22:48:42
Die RT Leistung ist zwar nicht so doll - wird die 4090 aber in jedem Game schlagen das FSR3 aber nur DLSS2 bietet. Wenn AMD es also schafft, schnell einen Haufen FSR3 Games zu bekommen, dann können sie bei RT trotzdem mithalten. Und RT Leistung mit FSR3 ist dann 3x von 6900er - das sollte ausreichen für 2 Jahre.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81241&stc=1&d=1667511488
https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/post-2272138
Merkt euch Call of Duty: Modern Warfare 2 als RDNA-Showcase. Folgt man AMD, ist die RX 7900 XTX hier um Faktor 1,5 schneller als die 6950 XT. Kleiner Teaser aus dem Techniktest (-> alle Werte gibt's morgen früh): Hier reicht es für 'nen Gleichstand zur RTX 4090.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81242&stc=1&d=1667512155
Aber wie gesagt: Bestcase für AMD.
MfG,
Raff
Daredevil
2022-11-03, 22:50:16
Ich find RDNA3 tatsächlich sehr spannend, gerade als direkter Nachfolger der 6900xt.
Wenn die 4090 nicht da wäre, würde RDNA3 in einem ganz anderen Licht stehen, eben weil das keine unnormal "fette" Karte ist, die Gains super sind und AMD damit auch noch mehr Geld verdient. Ja, RT ist nicht fett angewachsen, das ist aber offenbar auch nicht AMDs Priorität dieses mal.
Ich habe ja gesagt, dass AMD nicht auf mehreren Hochzeiten gleichzeitig tanzen kann und genau das ist hier eindrücklich vorgekommen.
Performance ist merklich gestiegen, sie machen jetzt was mit AI und generell sind tolle neue Features dazu gekommen wie AV1, FSR3, Chiplet.
Sich da nun an RT aufzuhängen wäre falsch, weil man alles andere nicht sieht.
Imho geht AMD hier den richtigen Weg, wenn sie damit auch gutes Geld verdienen.
MasterElwood
2022-11-03, 22:51:20
Ausserdem: die XTX scheint der perfekte Preisknaller für VR zu sein - weil dort gibt's noch kein RT - nur Raster. Und mehr Raster fürs DAS Geld gibts nirgends...
Alex1973
2022-11-03, 22:53:00
Die heutige Vorstellung war doch ne Klatsche für RT im allgemeinen.
Was nützt es wenn nur ein Hersteller diese Technik performen kann?
weil sie Marktführer sind.[/QUOTE]
Ja aber das ist nicht wirklich ein Grund für Spieleentwickler.:biggrin::biggrin::biggrin:
Berniyh
2022-11-03, 22:54:15
Lagen da alle "leaker" falsch, oder ist bei AMD was schief gelaufen?
Nun, die Vermutung liegt nahe, dass die ganzen "Leaker" einfach Dampfplauderer sind. ;)
Wenn sich einer verdient machen will, dann trägt er die ganzen "Leaks" der letzten ca. 6 Monate zu RDNA3 mal zusammen und schaut wer wann welchen Unsinn behauptet hat. Das wäre eine super Liste für die Bewertung der zukünftigen (Nicht-)"Leaks".
Wenn man es gutmütig betrachten will, dann sind da ggf. Infos durcheinander gekommen. Die +3GHz könnten ja z.B. Navi 33 zuzuordnen sein. Für den Chip könnte es evtl. realistisch sein.
Vermutlich waren die Aussagen aber teilweise einfach nur erfunden, z.B. auf der Basis was der Prozess kann und was man an Verbesserungen der Architektur erwartet.
prinz_valium_2
2022-11-03, 22:56:42
Diese Performance hat aber auch nun wirklich fast niemand vorausahnen können. :freak:
Naja die Performance knapp unter 4090 war ja von vielen erwartet worden. Die Hälfte unter, die andere Hälfte über der 4090.
Wobei der Takt schon fast unterirdisch ist. Jedenfalls von dem, was manche erwartet haben (ich hätte auch nicht mit weniger als nVidia und last Gen gerechnet.
Mit deutlich mehr Takt wäre dann auch Performance über der 4090 möglich.
Die Frage ist ob mehr Takt bei einem ähnlichen Preis möglich gewesen wäre nur durch mehr Verbrauch erkauft.
Linmoum
2022-11-03, 22:57:41
Sich da nun an RT aufzuhängen wäre falsch, weil man alles andere nicht sieht. Turing ist mittlerweile schon über vier Jahre alt, daher finde ich es alles andere als falsch, wenn man den Fokus heute - gerade bei den Dickschiffen - auf RT legt. Ganz im Gegenteil.
Wenn ich schon Raster derart aufbohre, dass die 4090 wohl "nur" ~20% schneller sein wird, ich in RT aber schon gegen eine alte 3090 (vielleicht sogar 3080...) Probleme haben werde, dann ist das einfach unausgewogen.
Dass sie auf ppa und nicht absolute Performance gehen - geschenkt, kann ich sogar nachvollziehen. Hier hat ja keiner Wunder erwartet (ok, ich nenne jetzt mal keine Namen...), aber die RT-Performance steigt ja nur analog mit der Raster-Performance. Da gab es ja augenscheinlich wirklich NULL Fortschritt. Das ist ja eigentlich so traurig an der ganzen Sache.
Niall
2022-11-03, 22:57:56
Ich finde es insgesamt auch rund, gerade Preis/ TBP sind okay.
Dass man einen Milchpalettengrossen 450W Brute-Force Bomber für 1200€ bekommt, hat doch nicht wirklich jemand geglaubt, oder?
Man darf nicht vergessen, womit man sich die extreme Leistung der 4090 erkauft. Allein dass ‚der Gerät‘ - derzeit - schlanke 1000€ mehr kostet, lässt einen Vergleich schon etwas seltsam wirken.
DrFreaK666
2022-11-03, 22:58:41
Die RT Leistung ist zwar nicht so doll - wird die 4090 aber in jedem Game schlagen das FSR3 aber nur DLSS2 bietet. Wenn AMD es also schafft, schnell einen Haufen FSR3 Games zu bekommen, dann können sie bei RT trotzdem mithalten. Und RT Leistung mit FSR3 ist dann 3x von 6900er - das sollte ausreichen für 2 Jahre.
Sollte FSR 3 AMD-only werden, dann sollte man das zusammen mit DLSS 3 im Marianengraben versenken
vinacis_vivids
2022-11-03, 22:59:08
@Linmoun
RT ist von Nvidia überhypt wie Tessellation x64. AMD macht da nicht mehr mit, vielleicht steigt Intel auf dem Zug.
Ravenhearth
2022-11-03, 22:59:52
@Linmoun
RT ist von Nvidia überhypt wie Tessellation x64. AMD macht da nicht mehr mit, vielleicht steigt Intel auf dem Zug.
:facepalm:
prinz_valium_2
2022-11-03, 23:00:31
Was man wohl auch noch sagen muss.
Die 7900XT ist deutlich uninteressanter als die 7900XTX
Da würde ich doch glatt mehr RAM, Shader und Takt für die $100 mitnehmen.
verstehe das Preisgefüge absolut nicht.
Die 7900XT ist $100 zu teuer.
@Linmoun
RT ist von Nvidia überhypt wie Tessellation x64. AMD macht da nicht mehr mit, vielleicht steigt Intel auf dem Zug.
Im Gegensatz zu Polygonen, die kleiner sind als Pixel, bringt Raytracing aber klare Vorteile und ist die einzige Möglichkeit in Richtung Fotorealismus.
MfG
Raff
TheGood
2022-11-03, 23:02:20
@Linmoun
RT ist von Nvidia überhypt wie Tessellation x64. AMD macht da nicht mehr mit, vielleicht steigt Intel auf dem Zug.
DAs ist so ja nicht richtig. Für Global Illumination ist das TOP, bringt den Entwicklern was und auch dem Nutzer, da das direkt sichtbar ist. Das war abe rimho bisher nicht die Schwäche von AMD...
Man sollte mal dedizierte RT Benchmarks nur auf die einzelnen RT Use Cases machen und das vergleichen.
Global Illumination wid auch das RT Feature sein was sich am schnellsten durchsetzt, da es viel Aufwand in der Entwicklung spart.
TheGood
2022-11-03, 23:03:30
Im Gegensatz zu Polygonen, die kleiner sind als Pixel, bringt Raytracing aber klare Vorteile und ist die einzige Möglichkeit in Richtung Fotorealismus.
MfG
Raff
Aber da sehen wir dass Nanite deutlich mehr bringt als RT zum jetzigen Zeitpunkt. Um das mal umzusetzen vergehen noch locker 10 Jahre..... Da die Leistung schlichtweg nicht da ist und auch nicht so schnell da sein wird.
w0mbat
2022-11-03, 23:03:51
Was man wohl auch noch sagen muss.
Die 7900XT ist deutlich uninteressanter als die 7900XTX
Da würde ich doch glatt mehr RAM, Shader und Takt für die $100 mitnehmen.
verstehe das Preisgefüge absolut nicht.
Die 7900XT ist $100 zu teuer.
AMD will einfach noch die alten RDNA2 Karten los werden und das geht schlecht, wenn die 7900 XT $749 kosten würde.
Daredevil
2022-11-03, 23:04:02
Turing ist mittlerweile schon über vier Jahre alt, daher finde ich es alles andere als falsch, wenn man den Fokus heute - gerade bei den Dickschiffen - auf RT legt. Ganz im Gegenteil.
Wenn ich schon Raster derart aufbohre, dass die 4090 wohl "nur" ~20% schneller sein wird, ich in RT aber schon gegen eine alte 3090 (vielleicht sogar 3080...) Probleme haben werde, dann ist das einfach unausgewogen.
Dass sie auf ppa und nicht absolute Performance gehen - geschenkt, kann ich sogar nachvollziehen. Hier hat ja keiner Wunder erwartet (ok, ich nenne jetzt mal keine Namen...), aber die RT-Performance steigt ja nur analog mit der Raster-Performance. Da gab es ja augenscheinlich wirklich NULL Fortschritt. Das ist ja eigentlich so traurig an der ganzen Sache.
Ja, das kann ich auch nachvollziehen, aber schau dir doch mal die Probleme der Gamer an, wo brennt es am meisten?
1. Die Leute wollen WQHD@144+ spielen oder haben vielleicht schon ne 4K Kiste Zuhause. Dafür brauchen sie Raw Performance, weil die 6900xt dafür schon sehr grenzwertig war und nun haben sie wirklich eine "Full4K" Karte bzw. haben auch problemlos HighFPS in Games in WQHD. ´
In VR braucht man auch einfach nur blöde Leistung.
2. Die Leute wollen tatsächlich nicht für jede GPU neu aufrüsten, insofern ist 2x8Pin nicht nur ein guter Seitenhieb, sondern auch logisch ein guter Grund.
3. Die Leute haben kein Bock mehr auf 1000$+ Scalper Preise und alles von Nvidia fällt unter genau diese Beschreibung, weil Arschteuer
4. Erst dann würde ich sagen, dass man mit Luxus Features wie RT, DLSS/FSR, AI Upscaling, KI Kram, Video Engines usw. anfängt.
Der Gamer kann ja RT haben, er muss halt dafür 1599$ ausgeben und bei Nvidia klingeln.
Für alle anderen, die "wichtigere" Probleme haben, gibts für 999$ ne gute Alternative zu einer 6900xt und einer 3090ti, die eine andere Preisklasse für "fast die gleiche Raster Leistung" darstellt als ne 4090. Mit FSR3 hat man dann auch mal ne richtig gute RT Erfahrung, aber halt nicht durchgängig.
grizu
2022-11-03, 23:04:30
Ich finde die 7900XTX verdammt nice :cool:.. ich wäre sogar als Nvidia Käufer interessiert.
dargo
2022-11-03, 23:04:46
Wer hier übrigens denkt, dass der GPU Takt gesunken ist, laut AMDs Angabe "Gameclock" ist das definitiv nicht der Fall
Die 6900xt hatte nen Gameclock von 2015Mhz. https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/
Die 7900XTX hat nen Gameclock von 2300Mhz und die 7900XT hat 2000Mhz https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/
Stimmt... ich war hier schon am grübeln wie AMD auf 61 TFLOPs kommt? Bei 2,3Ghz komme ich nämlich nur auf 56,5 TFLOPs. Dann boostet das Teil offenbar auf 2,48Ghz hoch. Ist jetzt aber auch nicht so viel mehr Takt.
DrFreaK666
2022-11-03, 23:06:59
Wie viel Prozent wird die 4080 voraussichtlich schneller mit RT? 25%?
Tangletingle
2022-11-03, 23:07:23
Turing ist mittlerweile schon über vier Jahre alt, daher finde ich es alles andere als falsch, wenn man den Fokus heute - gerade bei den Dickschiffen - auf RT legt. Ganz im Gegenteil.
Und nach diesen 4 Jahren kannst du RT-Titel immer noch fast am zwei Händen abzählen. Titel bei denen es wirklich optisch einprägsame Eindrücke hinterlassen hat eher an weniger als zwei Händen.
Na RT ist die Zukunft aber von der Sinnhaftigkeit bei aktueller Leistungsfähigkeit selbst bei topdog Karten, sind die meisten Entwickler wohl selbst nicht überzeugt.
Ohne getrickse wie fsr oder dlss ist ein Spielbares Ergebnis bei allen Titeln eher die Ausnahme als die Regel. Entweder gibt's bei diesen Techniken noch einen massiven Durchbruch oder die HW muss noch deutlich potenter werden. Letzteres halte ich auch in den nächsten 2-3 Generationen für eher unwahrscheinlich. Eher bekommen wir wirklich gutes Upscaling mit temporalem AA, ich halte dlss und fsr noch nicht für gut genug, zu sehen oder RT wird weiter ein Nischendasein fristen.
Obiges soll im übrigen keines Falls den niedrigen Zuwachs bei der Rt Performance von RDna3 schönreden. Den halte ich auch für zu wenig.
Freestaler
2022-11-03, 23:07:28
Im Gegensatz zu Polygonen, die kleiner sind als Pixel, bringt Raytracing aber klare Vorteile und ist die einzige Möglichkeit in Richtung Fotorealismus.
MfG
Raff
... und ist bekannt seit dem letzten Jahrtausend, es fehlt einfach noch die HW Power, auch die RTX4000 haben xfach zu wenig für "richtigen" Fotorealismus. Wie mindestens die letzten 25 Jahre.
TopTip von mir: 2030 wirds auch noch nicht reichen mit Power, aber ja ohne geht nimmer ;.-) oder evtl doch, ist Psycho MOD der CP2077 doch nur eher ShowCase ohne ernsthafte relevanz?
grizu
2022-11-03, 23:09:49
...
TopTip von mir: 2030 wirds auch noch nicht reichen mit Power, aber ja ohne geht nimmer ;.-) oder evtl doch, ist Psycho MOD der CP2077 doch nur eher ShowCase ohne ernsthafte relevanz?
Dann warte mal auf zukünftige U5 Engine Games
Was fürn bekackter Tradeoff. Da hat aber die BWL-Abteilung erheblichen Anteil an dieser Katastrophe würd ich sagen. Man hätte wirklich bei den 300mm² und dem "Packdichte ist unsere Designphilosophie" hellhörig werden sollen. Das Teil sollte vor allem eins werden: Billig!
Das hat man auch geschafft, das Teil ist billig und enthält auch nur das nötigste. Leider erreicht man aber so keine Enthusiasten, das hat man beim Pricing dann auch gemerkt, denn die 7900XTX sollte mit Sicherheit 1200$ kosten. Da hat man kurz vorher gesehen, dass man das gegen ne 4080 dann doch lieber nicht direkt entgegenstellen sollte und hat reagiert, heraus kam der Schwachsinn mit 900 und 1000$ :freak:.
Ich kapiers nicht, man hat nun wirklich ALLE Möglichkeiten in der Hand, einen echten Hit zu landen und man verkackt das dermaßen, nur weil man ein paar Buchhalter mitbestimmen lässt und Dollarzeichen in den Augen hat.
Wie viel Prozent wird die 4080 voraussichtlich schneller mit RT? 25%?
bei alten Titeln mit Sicherheit. Mit potenziellen DXR1.2 oder 2.0-Titeln wirds sicherlich dann weniger werden. Offenbar hat man ja RT-Einheiten die mehr können als das bisherige DX, da wurde jedenfalls in der Präsi gesagt.
Dann warte mal auf zukünftige U5 Engine Games
grade bei denen wird RT aber mit Sicherheit kein Hindernis sein, dafür sorgen schon die Konsolen. Die Technologie ist wie gemacht für den Tradeoff, den AMD hier gemacht hat. U5 wird grade ein Argument für dieses Vorgehen sein aus meiner Sicht und gegen die Enthusiasten.
kleeBa
2022-11-03, 23:10:07
(...)
Man darf nicht vergessen, womit man sich die extreme Leistung der 4090 erkauft. Allein dass ‚der Gerät‘ - derzeit - schlanke 1000€ mehr kostet, lässt einen Vergleich schon etwas seltsam wirken.
This.
Mal bitte nicht die Relationen vergessen.
MSABK
2022-11-03, 23:10:18
Stimmt... ich war hier schon am grübeln wie AMD auf 61 TFLOPs kommt? Bei 2,3Ghz komme ich nämlich nur auf 56,5 TFLOPs. Dann boostet das Teil offenbar auf 2,48Ghz hoch. Ist jetzt aber auch nicht so viel mehr Takt.
Ist ja inzwischen bekannt, dass die Karte mit 2,5Ghz taktet.
Bei den Customs erwarte ich 2,7Ghz.
Aber da sehen wir dass Nanite deutlich mehr bringt als RT zum jetzigen Zeitpunkt. Um das mal umzusetzen vergehen noch locker 10 Jahre..... Da die Leistung schlichtweg nicht da ist und auch nicht so schnell da sein wird.
Es gibt gute Gründe dafür, warum sich Software-Ingenieure in aller Welt den Kopf über temporales Supersampling zerbrechen. Mittlerweile können wir bestenfalls 7 von 8 Pixeln pro Frame "einsparen" - und die Forschung geht weiter. Mit Brute Force kommen wir nicht ans Ziel, die Zeiten der tief hängenden Früchte durch Shrinks sind vorbei.
Ist ja inzwischen bekannt, dass die Karte mit 2,5Ghz taktet.
Bei den Customs erwarte ich 2,7Ghz.
Ganz einfach: Es gibt zwei Taktdomänen statt bisher einer. Damit hat eine Radeon-GPU ziemlich viele Clock Domains (u. a. noch beim Infinity Fabric). Bei der 7900 XTX:
Front-End: 2,5 GHz
Shader/Cache/Rest: 2,3 GHz
Lustige Beobachtung bei AMD. Wo genau limitiert das Front-End? In Full HD und E-Sports-Settings? Sicher nicht in 4K und/oder Raytracing. :ugly: Wegen so einer geringen Differenz ein Fass aufzumachen ... also ich finde das sehr seltsam. Aber hey, ein Tuning-Schalter mehr. :D
MfG
Raff
Dural
2022-11-03, 23:13:28
Zusammenfassung: 522mm2 384bit vs 379mm2 256bit
AD102 mit RT mal eben doppelt so schnell.
Chiplet?!? Was für eine lachnummer! Ich würde gerne wissen was die Typen bei AMD die diesen Aufbau festgelegt haben genau genommen haben???
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.