Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Leonidas
2022-12-12, 14:55:47
Radeon RX 7900 XTX
- Navi 31
- 96 Shader-Cluster an 384-Bit-Speicherinterface
- 24 GB GDDR6
- $999 MSRP
- Launch-Reviews am 12. Dezember, Marktstart am 13. Dezember
Radeon RX 7900 XT
- Navi 31
- 84 Shader-Cluster an 320-Bit-Speicherinterface
- 20 GB GDDR6
- $899 MSRP
- Launch-Reviews am 12. Dezember, Marktstart am 13. Dezember
Listen der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/amd-radeon-rx-7900-xt-xtx-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/144834/amd-radeon-rx-7900-xtx-xt-review-roundup)
w0mbat
2022-12-12, 15:00:04
Bin echt gespannt, kann wirklich in jede Richtung gehen.
Edit: Puh, gerade mal auf Augenhöhe mit der 4080.
BlacKi
2022-12-12, 15:02:18
die 1% lows sind stark bei CB. aber avg fps sind doch eher enttäuschend.
cb schreibt:
Die Leistungsschwankungen sind mit RDNA 3 groß
da waren die selektierten benchmarks von amd etwas irreführend. statt 1,5-1,7x legt man gerade mal 43% zu. aber nicht gegen die 6950xt, ne, gegen die 6900xt...
das ist bitter...
https://abload.de/img/screenshot2022-12-12ae8fp8.png
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160
AMD Radeon RX 7900 XTX und RX 7900 XT im Test: "Doppel-Wumms" gegen Nvidias Geforce RTX 4080 (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/) :up:
Jetzt auch mit Video: https://www.youtube.com/watch?v=PMgC7j47vOs
MfG
Raff
Troyan
2022-12-12, 15:05:48
Wow. Der ILP-Ansatz ohne weitere Verbesserung der Architektur ist echt ein Schuss in den Offen. Gut, konnte man schon seit 8 Jahren nach dem Kepler -> Maxwell wissen, aber es ist schon strange, dass AMD es erneut versucht.
w0mbat
2022-12-12, 15:06:44
In 4K ist die 4090 (10% bin von AD102!) ca. 60% schneller als eine 3090 Ti (full GA102), die 7900 XTX ist nur ca. 35% vor einer 6950 XT.
In 4K ist die 7900 XTX nur 18% effizienter als die 6900 XT!
Da ist was gehörig schief gelaufen, so langsam glaube ich die Gerüchte mit dem HW-Bug.
Linmoum
2022-12-12, 15:07:06
Die fps-Limit-Benchmarks bei CB. Die XTX zieht 78% (!) mehr als eine 4080 (139W vs. 248W), wenn die fps auf 144 begrenzt werden in WQHD. In UHD sind es auch immer noch +55% Verbrauch.
Generell komisch, dass RDNA3 selbst in WQHD scheinbar maximal möglich säuft.
Adam D.
2022-12-12, 15:07:43
Extrem enttäuschend, kann man nicht anders sagen.
Extrem enttäuschend, kann man nicht anders sagen.
Wieso? Das PLV beider Karten ist besser als bei der RTX 4080 (solange man Raytracing ausklammert).
MfG
Raff
Adam D.
2022-12-12, 15:11:56
Wieso? Das PLV beider Karten ist besser als bei der RTX 4080 (solange man Raytracing ausklammert).
MfG
Raff
Da hast du doch die Antwort schon in deiner Erklärung. Besseres PLV als die 4080 ist - mal nüchern formuliert - keine große Herausforderung gewesen. Insgesamt ein entäuschender Leistungszuwachs, in Sachen Energieeffizienz ist NVidia wieder eine Generation voraus. Dazu wirklich lächerliche Zuwächse beim RT. Das Gesamtpaket überzeugt mich überhaupt nicht, ich bin echt enttäuscht.
Ravenhearth
2022-12-12, 15:12:06
Wieso? Das PLV beider Karten ist besser als bei der RTX 4080 (solange man Raytracing ausklammert).
MfG
Raff
Super :freak: Man bezahlt 1200€ für eine High-End-Karte, um dann High-End-Features nicht zu nutzen.
Voodoo6000
2022-12-12, 15:13:23
Also 4080 Performance für deutlich weniger Geld finde ich nicht schlecht. Interessanterweise hat RT doch überproportional zugelegt und liegt nun auf 3090TI Niveau(bei PCGH).
Da hast du doch die Antwort schon in deiner Erklärung. Besseres PLV als die 4080 ist - mal nüchern formuliert - keine große Herausforderung gewesen. Insgesamt ein entäuschender Leistungszuwachs, in Sachen Energieeffizienz ist NVidia wieder eine Generation voraus. Dazu wirklich lächerliche Zuwächse beim RT. Das Gesamtpaket überzeugt mich überhaupt nicht, ich bin echt enttäuscht.
Ich weiß nicht, was ihr da manchmal lest, aber:
- unter Volllast sind beide Karten ähnlich effizient wie die RTX 4080, (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/)
- der RT-Zuwachs ist größer als der Raster-Zuwachs. (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/4/)
Wirklich ekelhaft ist nur, wie AMD den Display-Anschluss-Vorteil versemmelt (Leistungsaufnahme).
MfG
Raff
r3ptil3
2022-12-12, 15:14:17
Die 7900 XT ist knapp vor der 6900 XT, d.h. eine Custom 6950 XT dürfte mehr oder weniger gleichauf sein.
Geht irgendwie nicht so auf die Rechnung, sowohl Namensgebung als auch der Preis. Irgendwie wirkt die ganze aktuelle Produktpalette etwas verkalkuliert mit den Preisen. Zen4 ist viel zu teuer, RDNA3 bringt für den Preis auch etwas zu wenig.
Mit 700-800$ wäre die 7900 XTX richtig gewesen (ja, immer noch ein bisschen zu teuer, aber fair), schliesslich ist die RT-Schwäche nicht annähernd ausgemerzt und immer noch auf einem katastrophalen Niveau.
BlacKi
2022-12-12, 15:14:56
jesus, wo ist die effizienz hin? nur 17-18% vs 6900xt?
https://i.ibb.co/TwG5rhb/Screenshot-2022-12-12-at-15-12-29-AMD-Radeon-RX-7900-XTX-RX-7900-XT-im-Test-Lautst-rke-Temperatur-Le.png
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/5/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Linmoum
2022-12-12, 15:16:13
Die Benchmarks von AMD waren dann doch zu schön um wahr zu sein. Schade.
Was auf den ersten Blick aber extrem ernüchternd ist, ist Perf/Watt und die Leistungsaufnahme selbst in WQHD/Teillast/begrenzten fps. Gerade letzteres muss so wirklich nicht sein.
RT wie erwartet, teilweise prügelt man sich sogar nur mit einer 3080. Ich bin auf Witcher 3 gespannt.
Der_Korken
2022-12-12, 15:17:09
Bisher nur bei CB geguckt, aber die Effizienz ist absolut enttäuschend. Da haben wir noch drüber gestritten welchen Unterschied der Betriebspunkt zwischen 300W und 355W bei der Berechnung ausmacht und jetzt ist das Teil irgendwo bei +20%. Nvidia somit deutlich vorne. Bei RT macht die 7900 einen leicht größeren Performance-Sprung, was aber auch einfach daran liegen kann, dass der dicke Chip etwas Auslastungsprobleme hat. In 4K ist auch in Rasterizer der Sprung größer als in 1440p. Dennoch, die 4080 ist in RT ca. 30% vorne bei weniger Verbrauch und bei 1200$ vs 1000$ auch mit besserem P/L für diesen Fall. Bei so einer Preisregion kann man sich nicht mehr damit rausreden, dass die Karte für RT nicht gemacht sei und das nur ein Nischen-Setting für Enthusiasten ist - nur Enthusiasten geben so viel Geld für eine GPU aus! Aber das wurde schon nach AMDs Präsi alles durchgekaut. Als jemand der sonst eher Pro-AMD-Bias hat, muss(te) ich hier klar in die selbe Kerbe hauen, dass AMDs Zuwächse in RT auch nach der Präsi ziemlich underwhelming ist.
Und wegen des Hardware-Bugs: Angesichts des gestiegenen Verbrauchs trotz 5nm für gerade mal +20% CUs, die zumindest in den CB-Vergleichen auch keine +20% IPC bringen, kann ich mir nicht vorstellen, dass das so geplant war. Hier fehlen locker 20-30% Takt damit die Verhältnisse halbwegs stimmen.
dildo4u
2022-12-12, 15:18:32
Ja da wurde deftig selektiert nix mit 50% zur 6950XT was mich verwundert kein Monster Performance in AMD Titeln wie Forza.
https://youtu.be/4UFiG7CwpHk?t=480
Exxtreme
2022-12-12, 15:19:35
Super :freak: Man bezahlt 1200€ für eine High-End-Karte, um dann High-End-Features nicht zu nutzen.
Kommt drauf an welche Spiele man spielt. Spielt man Nvidias Grafikdemos dann ist die Radeon halt echt nichts. :)
Ja da wurde deftig selektiert nix mit 50% zur 6950XT was mich verwundert kein Monster Performance in AMD Titeln wie Forza.
https://youtu.be/4UFiG7CwpHk?t=480
Forza Horizon 5 ist mit Navi 31 derzeit "broken" (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/):
"Falls Sie über die Ergebnisse in Forza Horizon 5 gestolpert sind: Wir haben die relativ schwache Performance der RX-7900-Karten mehrfach überprüft (ebenso wie die gute der 6900er) und eine Rückmeldung von AMD erhalten: Dieses Problem sei bekannt und werde im Launch-Treiber (vmrl. AMD Software 22.12.1) behoben sein. Sobald verfügbar, werden wir weitere Nachtests anstellen und diesen Artikel aktualisieren."
MfG
Raff
Lowkey
2022-12-12, 15:23:14
del
dildo4u
2022-12-12, 15:23:43
Forza Horizon 5 ist mit Navi 31 derzeit "broken" (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/):
"Falls Sie über die Ergebnisse in Forza Horizon 5 gestolpert sind: Wir haben die relativ schwache Performance der RX-7900-Karten mehrfach überprüft (ebenso wie die gute der 6900er) und eine Rückmeldung von AMD erhalten: Dieses Problem sei bekannt und werde im Launch-Treiber (vmrl. AMD Software 22.12.1) behoben sein. Sobald verfügbar, werden wir weitere Nachtests anstellen und diesen Artikel aktualisieren."
MfG
Raff
Dying Light 2 hat auch üble Probleme mit DX12 laut Hardware Unboxed Karte musste wohl unbedingt vor Weihnachten raus.
Prinzenrolle
2022-12-12, 15:24:09
Wieso? Das PLV beider Karten ist besser als bei der RTX 4080 (solange man Raytracing ausklammert).
Das ist doch ein absoluter Scherz.
Die RTX 4080 hat die gleiche Rasterleistung und ist bei RT knapp 30% überlegen, für gerade mal 100 Dollar mehr bei den Customs, bei zudem weniger Verbrauch und besserem Featureset.
Die AMD Fanbase hat jetzt monatelang zu den Nvidia Preisen genölt und ist nach dem xten Hypetrain zerschellen vielleicht endlich mal geläutert.
Bei RT hat man komplett die Bodenhaftung verloren und die RTX 4090 liegt bei den 4K Percentilen bei CB satte 77% in Front.
Eine 4090Ti wird die doppelte RT Leistung bieten.
Die Nvidia Karten sind ja quasi nochn günstig für die Leistung und dann noch die schwachen Frametimes.
Da kann ich ja meine 3090Ti noch behalten und habe nicht einmal einen großen Effizienz-nachteil.
Dural
2022-12-12, 15:24:12
Das geilste finde ich ja wie AMD damals noch betont hat wie klein ihre Karten im Vergleich zu den 4080 sind. :freak:
Jetzt haben wir kleinere Karten mit über 60Watt mehr Verbrauch, bei gleicher / weniger Leistung :freak:
Die PR Abteilung von AMD lief wohl schon auf Hochtouren, ist schon so irgend was findet man immer ;)
Dying Light 2 hat auch üble Probleme mit DX12 laut Hardware Unboxed Karte muss Wohl unbedingt vor Weihnachten raus.
Kann ich nicht bestätigen, das läuft hier wie geleckt sowohl mit Raster als auch Ray. =)
MfG
Raff
Linmoum
2022-12-12, 15:26:06
Also mal unabhängig von irgendwelchen reinen Performancemetriken, aber die Effizienz ist doch völlig absurd. Wie kommt AMD auf die Idee, hier mit +54% zu werben. Was zum?
Troyan
2022-12-12, 15:26:28
4090 oder nichts:
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/metro-exodus-rt-3840-2160.png
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/34.html
Existiert kein Grund upzugraden. Upscaling bringt die fehlende Mehrleistung und Raytracing ist sowieso uninteressant.
Adam D.
2022-12-12, 15:27:47
Ich weiß nicht, was ihr da manchmal lest, aber:
- unter Volllast sind beide Karten ähnlich effizient wie die RTX 4080, (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/)
- der RT-Zuwachs ist größer als der Raster-Zuwachs. (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/4/)
Wirklich ekelhaft ist nur, wie AMD den Display-Anschluss-Vorteil versemmelt (Leistungsaufnahme).
MfG
Raff
1. Beim Realverbrauch dreht die 4080 Kreise um die 7900XTX, darauf kommt es mir an.
2. Der RT-Zuwachs ist größer, aber das reicht 2023 einfach nicht mehr, sind wir doch ehrlich. Bei RDNA2 hab ich ja selbst noch ein Auge zugedrückt, aber das Argument zieht jetzt einfach nicht mehr für mich.
Prinzenrolle
2022-12-12, 15:28:17
Die PR Abteilung von AMD lief wohl schon auf Hochtouren, ist schon so irgend was findet man immer ;)
Ich würde sagen, da könnten es Klagen regnen.
Wenn ich im Schnitt mit 55% mehr Leistung werbe, es aber am Ende nur 30% sind, kann das Folgen haben..
Ravenhearth
2022-12-12, 15:29:10
Preis/Leistung finde ich nicht besser als bei der 4080. AMD hat zwar mehr Rasterleistung, ist aber deutlich langsamer bei RT und zieht beim Featureset den kürzeren. Beide sind überteuert.
nairune
2022-12-12, 15:29:50
Jo, also damit ist die Generation gelutscht. Auch nicht schlecht, Geld gespart.
MSABK
2022-12-12, 15:29:57
Hmm, doch eher enttäuschend. Vor allem für den Preis.
Rancor
2022-12-12, 15:30:22
Sehe ich auch so. Eine 7900XT wäre für 799€ - 899€ interessant.
Troyan
2022-12-12, 15:30:45
Die 4090 liefert absurde 34% mehr Leistung bei Computerbase. Das ist der Unterschied zwischen der 3090 und 6800 gewesen.
Ehrlich, entweder kauft man eine 6900XT unter 700€ oder gleich die 4090.
Dural
2022-12-12, 15:33:11
Die 4090 liefert absurde 34% mehr Leistung bei Computerbase. Das ist der Unterschied zwischen der 3090 und 6800 gewesen.
NV könnte wenn sie möchten auch 50% daraus machen (AD102 full)
MSABK
2022-12-12, 15:33:11
Die 4090 liefert absurde 34% mehr Leistung bei Computerbase. Das ist der Unterschied zwischen der 3090 und 6800 gewesen.
Ehrlich, entweder kauft man eine 6900XT unter 700€ oder gleich die 4090.
Jep, man sollte da wie man sieht auf die zweite Gen multichip GPU warten, der erste Schuss war nichts.
w0mbat
2022-12-12, 15:33:47
Ich sehe es schon, jetzt werden wir monate lang mit "bald kommt der Wundertreiber" bombardiert.
Was mich am meisten stört ist AMDs Präsentation. Seit Zen war AMD immer extrem verlässlich was ihre benchmarks und Angaben zu kommenden Produkten betrifft. Aber bei der RDNA3 Vorstellung hat man extremes cherry picking betrieben und wo sind die angeblich >+50% Effizienz hin?
Aber man hat schon bei der Prästentation gemerkt wie unwohl sich die AMD Mitarbeiter gefühlt haben. Ich denke der Schritt zu multi-issue, was man mit RDNA ja explizit vermeiden wollte, hat AMD gekillt. Oder es gibt echt einen HW-Fehler.
Bis Blackwell wird Nvidia wohl wieder verlangen können was sie wollen, und da Intel auch failed sehe ich keine Besserung.
Rasterizing-Performance in 15% unter meinen Erwartungen, RT etwas stärker als von mir erwartet. 1149€ finde ich fair.
BlacKi
2022-12-12, 15:33:55
hat jemand einen test gesehen mit reduziertem powerlimit? Uv hab ich bei CB schon gesehen, aber mit powerlimit wäre interessant.
StevenB
2022-12-12, 15:35:13
Ich bin enttäuscht, nicht das ich gerade die Zeit hätte um zu zocken, aber mehr Konkurrenz bzw. ein besseres Ergebnis für AMD hätte ich mir schon gewünscht.
Die 4090 ist aber auch ein grandioses Produkt. (Unabhängig vom Preis)
Das die 7900XTX so wenig absetzen kann.. "Fine old wine" in 6 Monaten oder broken by design?
dargo
2022-12-12, 15:37:03
Puh... gerade den CB-Test gelesen. Bin schon etwas enttäuscht von N31. Da hätte ich mehr erwartet. Selbst die 7900XTX setzt sich nicht stark genug von der vorhandenen 6800XT ab. Zu durstig ist das Teil offensichtlich auch geworden. Sieht man an den starken Taktschwankungen. Der Referenzkühler überzeugt mich ebenfalls nicht, zu laut. Hmm... entweder auf deutliche Preissenkung warten oder RDNA3 komplett überspringen. Mal sehen...
Edit:
Was ich auch sehr komisch finde ist die Tatsache, dass manche Games im Rasterizer stärker vs. RDNA2 zulegen als mit RT. Da würde ich noch auf unausgereifte Treiber tippen. Logisch erscheint mir das jedenfalls nicht.
Troyan
2022-12-12, 15:37:05
ILP bedeutet, der Compiler muss genug Berechnungen finden, die keine Abhängigkeit haben. Aber damit läuft man eben immer hinter, weil man per Treiber für die Spiele optimieren muss. Das hat auch Kepler gekillt, weil im schlimmsten 1/3 der Rechenleistung brachliegt. Bei AMD kann es bis zu 1/2 sein und dann hat man Ende nur noch 20% more CUs und mehr OnChip-Cache.
DrFreaK666
2022-12-12, 15:37:17
Die 4090 liefert absurde 34% mehr Leistung bei Computerbase. Das ist der Unterschied zwischen der 3090 und 6800 gewesen.
Ehrlich, entweder kauft man eine 6900XT unter 700€ oder gleich die 4090.
Was kommst du hier dauernd mit einer deutlich teureren 4090?
Lass das einfach.
MSABK
2022-12-12, 15:37:41
Aber immerhin scheint die Performance in aktuellen Titeln gut zu sein.
dildo4u
2022-12-12, 15:37:58
Hier performt Forza normal oder die 4080 spinnt derbe Spikes.
tMH9vfvos00
Dural
2022-12-12, 15:39:19
Was kommst du hier dauernd mit einer deutlich teureren 4090?
Lass das einfach.
Weil es die einzige Karte ist die deutlich mehr Leistung als die Vorgänger Generation hat. :wink:
Lowkey
2022-12-12, 15:40:12
Die 4090 liefert absurde 34% mehr Leistung bei Computerbase. Das ist der Unterschied zwischen der 3090 und 6800 gewesen.
Ehrlich, entweder kauft man eine 6900XT unter 700€ oder gleich die 4090.
Das war mein erster Gedanke nach dem Lesen auf CB. Die 6950xt gab es auch für unter 700 Euro.
Aber schaut man sich andere Reviews an, dann kommen die Tester zu anderen Ergebnissen. Alleine Farcry 6 performt wohl in jedem Review anders.
Weil es die einzige Karte ist die deutlich mehr Leistung als die Vorgänger Generation hat. :wink:
Auf CB ist die 4090 quasi so schnell wie zwei Generationen.
Lehdro
2022-12-12, 15:41:41
HD2900XT reloaded. Dazu noch die vielen Bugs, zusätzlich zur entäuschenden Performance & Effizienz. Einziger Lichtblick bleibt die Preislage, wobei man mittlerweile durchaus einfach selbst eine 4080 rechtfertigen kann, bei dem was AMD da abliefert.
Hoffentlich ist N32 nicht genauso kaputt, sondern ist gleich der RV670 dieser Generation...
DrFreaK666
2022-12-12, 15:42:08
Weil es die einzige Karte ist die deutlich mehr Leistung als die Vorgänger Generation hat. :wink:
Und was hat die NV-Karte im AMD-Thread verloren? Oder sind wir im Kaufberatungs-Thread? Ich glaube nicht!
Der_Korken
2022-12-12, 15:42:35
Die B-Noten beim Verbrauch finde ich auch zum Fürchten. 20W Idle-Verbrauch, also doppelt so viel wie die 6800/6900er und in Youtube sagenhafte 80W um ein Video abzuspielen. Die 8800GTX aus 2006 hat angerufen und will ihren Video-Dekodierer wieder haben ...
CB schreibt, dass der Verbrauch im Idle immer wieder nach oben spiked, ein Verhalten, dass RDNA2 überhaupt nicht hatte. Zusätzlich (wurde schon angemerkt) hat sich auch in Spielen das Teillast-Verhalten deutlich verschlechtert, obwohl man hier gegenüber Ampere noch deutliche Vorteile hatte. Also neben dem späten Launch scheint es unter der Haube auch bei den Treibern noch ordentlich zu klemmen. Ich glaube diese Serie kann man echt vergessen und lieber auf N32 und N31-Refresh warten. Bis dahin läuft auch die Software vernünftig.
MSABK
2022-12-12, 15:42:37
Das war mein erster Gedanke nach dem Lesen auf CB. Die 6950xt gab es auch für unter 700 Euro.
Aber schaut man sich andere Reviews an, dann kommen die Tester zu anderen Ergebnissen. Alleine Farcry 6 performt wohl in jedem Review anders.
Auf CB ist die 4090 quasi so schnell wie zwei Generationen.
Entsprechend verlangen sie auch Geld von zwei Generationen.
Hoffentlich wird RDNA2 nicht teurer jetzt.
BlacKi
2022-12-12, 15:43:36
im luxx test bringen +20% powerlimit gerade mal 1-3% mehr leistung. UV bringt etwas mehr. die reduzierung von 10% powerlimit bringt -7% fps... das ist nicht bombe.
DrFreaK666
2022-12-12, 15:45:00
Hoffe dass die 7700 eine bessere Karte wird
Puh... gerade den CB-Test gelesen. Bin schon etwas enttäuscht von N31. Da hätte ich mehr erwartet. Selbst die 7900XTX setzt sich nicht stark genug von der vorhandenen 6800XT ab. Zu durstig ist das Teil offensichtlich auch geworden. Sieht man an den starken Taktschwankungen. Der Referenzkühler überzeugt mich ebenfalls nicht, zu laut. Hmm... entweder auf deutliche Preissenkung warten oder RDNA3 komplett überspringen. Mal sehen...
Schau dir mal die AMD-Fanboys von PCGH an, die zeichnen ein netteres Bild und haben sogar den Radeon-Showcase CoD MW2(022) im Parcours. Verkehrte Welt. :biggrin: ;)
MfG
Raff
dargo
2022-12-12, 15:47:29
Forza Horizon 5 ist mit Navi 31 derzeit "broken" (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/):
"Falls Sie über die Ergebnisse in Forza Horizon 5 gestolpert sind: Wir haben die relativ schwache Performance der RX-7900-Karten mehrfach überprüft (ebenso wie die gute der 6900er) und eine Rückmeldung von AMD erhalten: Dieses Problem sei bekannt und werde im Launch-Treiber (vmrl. AMD Software 22.12.1) behoben sein. Sobald verfügbar, werden wir weitere Nachtests anstellen und diesen Artikel aktualisieren."
Interessant... ob der Grund für den späten Launch im Jahr doch noch an den unausgereiften Treibern liegt? :uponder:
Korvaun
2022-12-12, 15:48:00
Karten sind ok, die Treiber wohl noch nicht wirklich ausgereift. Der Preis ist insgesamt je 100€ zu hoch (mindestens!), das gilt aber genauso für nV.
Das große Problem für AMD, die Karten sind einfach nicht "sexy" gegenüber vor allem der 4090. Da hilft nur den Preis weiter runter bringen. Wird aber schwer mit der Menge an RAM und dem "Tile-Design"...
][immy
2022-12-12, 15:50:36
im luxx test bringen +20% powerlimit gerade mal 1-3% mehr leistung. UV bringt etwas mehr. die reduzierung von 10% powerlimit bringt -7% fps... das ist nicht bombe.
Computerbase hat auch erwähnt, das schon bei niedrigen Taktraten die Karte ordentlich zieht. Sieht so aus, als wenn in dem Design irgendwo die Energie wegenuckelt wird.
Wäre vielleicht etwas für einen refresh, denn wenn diese "Lücke" gefunden wird, dürften die Taktraten ordentlich steigen können (bzw. die benötigte Leistung deutlich sinken). Normal sieht das aktuell nicht aus. Man scheint ja wirklich nur mäßig effizienter als mit der Vorgängergeneration zu sein.
Ich bin allerdings auch noch davon überzeugt, das die Karte (im Verhältnis zur nvidia Konkurrenz) noch deutlich an Performance durch Treiberverbesserungen zugewinnen wird. Das war ja noch nie so AMDs stärke, das zum Launch ein relativ gut optimierter Treiber zur Verfügung stand. Zumindest scheinen derzeit noch einige Tests darauf hinzuweisen, das die Karte in einigen Titeln mit angezogener Handbremse fährt (da sie gegenüber RDNA2 kaum/keine zugewinne zeigen).
Aber der hohe Energiebedarf schon bei "einfachen" Aufgaben, weißt eher darauf hin, das was mit dem Chip nicht so läuft wie es geplant war.
Karten sind ok, die Treiber wohl noch nicht wirklich ausgereift. Der Preis ist insgesamt je 100€ zu hoch (mindestens!), das gilt aber genauso für nV.
Das große Problem für AMD, die Karten sind einfach nicht "sexy" gegenüber vor allem der 4090. Da hilft nur den Preis weiter runter bringen. Wird aber schwer mit der Menge an RAM und dem "Tile-Design"...
Naja, die 4090 ist Preislich aber noch mal in ganz anderen Bereichen unterwegs. Aber ja, wenn man schon Kunden findet die 1000€ für eine Grafikkarte zum Spielen ausgeben, sind die ~2000€ auch nicht mehr so weit entfernt ;)
Exxtreme
2022-12-12, 15:51:15
Interessant... ob der Grund für den späten Launch im Jahr doch noch an den unausgereiften Treibern liegt? :uponder:
Bei AMD ist es sogar recht wahrscheinlich, dass man hier und da 5 - 15% mehr Performance rausholt mit neuen Treibern. Und da diese Chiplet-Architektur neu ist wundert mich das nicht. :)
Prinzenrolle
2022-12-12, 15:51:43
Schau dir mal die AMD-Fanboys von PCGH an, die zeichnen ein netteres Bild und haben sogar den Radeon-Showcase CoD MW2(022) im Parcours. Verkehrte Welt. :biggrin: ;)
AMD Fanboys trifft es schon irgendwie..;(
Das bringt auch nix mit Kack-Grafik und nem xten Call of Duty zu kokettieren, ich will Witcher 3 Next Gen Benchmarks!
unl34shed
2022-12-12, 15:51:44
Das große Problem für AMD, die Karten sind einfach nicht "sexy" gegenüber vor allem der 4090.
Die kostet hier ca. das doppelte...
BlacKi
2022-12-12, 15:52:22
auch ließt man überall coilwhine coilwhine coilwhine...
und peaks, doppelt so hoch wie die tdp...
Hmm die Reviews lesen sich deutlich positiver, als dieser Thread.
Palpatin
2022-12-12, 15:56:10
Wenn sie tatsächlich die 200k Stück dieses Jahr noch ausgeliefert bekommen, dann dürfen wir uns wohl bald über Realpreise unterhalb vom UVP freuen, die 4080 gibts ja auch schon unter UVP.
Einen Run auf die Karte sehe ich bei dem was geboten wird nicht.
DrFreaK666
2022-12-12, 15:56:11
Ist doch oft so, dass Hater am lautesten sind
AMD Fanboys trifft es schon irgendwie..;(
Danke, habe ich schon viel zu lange nicht mehr gelesen. :D
Das bringt auch nix mit Kack-Grafik und nem xten Call of Duty zu kokettieren, ich will Witcher 3 Next Gen Benchmarks!
Die kommen natürlich - wenn das Spiel endlich verfügbar ist.
MfG
Raff
Megamember
2022-12-12, 15:58:44
AMD Fanboys trifft es schon irgendwie..;(
Das bringt auch nix mit Kack-Grafik und nem xten Call of Duty zu kokettieren, ich will Witcher 3 Next Gen Benchmarks!
Das ist doch auch nur alte Engine mit aufgeflanschtem RT und Texturmods?!
Exxtreme
2022-12-12, 15:59:07
Hmm die Reviews lesen sich deutlich positiver, als dieser Thread.
Ja. Wahrscheinlich haben viele gedacht, dass man mit einer 1k $ Grafikkarte eine 1,6k $ Grafikkarte schlagen kann bzw. in die Nähe kommt. Und dieser Wunsch ist nicht in Erfüllung gegangen. :)
Dural
2022-12-12, 15:59:08
Hmm die Reviews lesen sich deutlich positiver, als dieser Thread.
Aus dem Fazit von CB:
Eine ist, dass sich die für ihren hohen Preis gescholtene GeForce RTX 4080 (Test) am Ende als das technisch bessere Produkt erwiesen hat, weil Navi 31 mit RDNA 3 nicht alle in die Generation gesteckten Erwartungen erfüllen konnte. AMD benötigt an der Leistungsspitze einen relevanten Preisvorteil, um dagegenzuhalten.
Rolsch
2022-12-12, 15:59:22
Also ich finde der Leistungszuwachs ist solide gegenüber der letzten Generation. Bei der Energieeffizienz glaube ich auch das was mit dem Chip schief gelaufen ist, das war so nicht geplant. Der Refresh wird dann wieder besser sein. Aber wie auch die 4080 zu teuer, kann man auch gleich seine RDNA2 behalten oder billig kaufen.
dargo
2022-12-12, 15:59:24
Schau dir mal die AMD-Fanboys von PCGH an, die zeichnen ein netteres Bild und haben sogar den Radeon-Showcase CoD MW2(022) im Parcours. Verkehrte Welt. :biggrin: ;)
Habe jetzt euren Test gelesen. Ändert nichts an meinem ersten Eindruck. Die Mehrleistung im Raster ist schon beinah lächerlich vs. RDNA2 in manchen Games. Und da schaue ich sogar auf 4k obwohl ich in 1440p spiele. :freak: Mit RT sieht es etwas besser aus, aber wie gesagt... ich habe da mehr vs. RDNA2 erwartet. Eventuell sind meine Erwartungen zu hoch für die IHVs. Dann muss es eben RDNA4 richten. Ist auch nicht so, dass der Schuh hier aktuell stark drückt. Wie es in 2023 mit dem Schuh aussieht wird sich zeigen. Aktuell fehlt mir jede Menge interessante Software, sprich Spiele um sich von RDNA2 zu trennen.
Cool, das Ding bekommt man nächstes Jahr für 500€ nachgeworfen :D. Vielleicht ist sie dann kaufbar.
Wenn da wirklich kein Hund drin ist, ist das ne echte Failgeneration. Man fühlt sich an Vega erinnert.
Also das hätte als 7800X und 7800 releast werden MÜSSEN. 7900XTX ist lächerlich. Hat man doch bei der 5700X auch gemacht, also wieso das jetzt? Nur wegen den Dollarzeichen in den Augen? Der Preis lässt sich eh nicht halten...
Ex3cut3r
2022-12-12, 16:00:25
Schade. Von einer 3080 Ti mit 4K, 32", 144HZ Display macht das wenig Sinn. Vor allem da DLSS P besser ist als FRS 2.1 P. Ich warte nun auf die 4080 Ti. Mit hoffentlich AD102 und nicht AD103.
Oder aber, ich lasse diese Gen das erste mal seit Pascal, komplett aus, und schlage zum Rls. bei einer 5090 zu.
EDIT: RT Leistung wird laut PCGH endlich der GA102 erreicht, mal aber auch langsamer. :freak:
Wirklich sehr sehr schade, bei 50% mehr im Raster und mindestens 25% mehr in RT, hätte ich ernsthaft eine 7900XTX in Erwägung gezogen, da die 4090 und 4080 einfach unverschämt im Preis sind, aber so, machen die Nvidia Preise natürlich Sinn. Frage mich, woher Nvidia das immer weiß.
Korvaun
2022-12-12, 16:00:54
[immy;13186855']Naja, die 4090 ist Preislich aber noch mal in ganz anderen Bereichen unterwegs. Aber ja, wenn man schon Kunden findet die 1000€ für eine Grafikkarte zum Spielen ausgeben, sind die ~2000€ auch nicht mehr so weit entfernt ;)
Sicher, aber das "Halo" Produkt strahlt immer auch auf die kleineren Karten ab, im positiven wie im negativen... und die 4090 is bis auf den Preis wirklich nen tolles Teil. Das hilft der 4080 jetzt sicher weiter, mindestens so gut wie die AMD Karten und nur ein bisschen teurer. Ich erwarte das die Lagerbestände der 4080 bis Weihnachten nun zügig austrocknen.
OpenVMSwartoll
2022-12-12, 16:01:45
Wenn ich bei Igor nachschaue, nährt dies den Verdacht, dass die Karten kurzfristig hochgeprügelt wurden.
Rancor
2022-12-12, 16:01:49
Für 500€ würde ich von meiner 6800xt nochmal wechseln ;D
dargo
2022-12-12, 16:02:37
Das ist doch auch nur alte Engine mit aufgeflanschtem RT und Texturmods?!
Jepp... aber für eine Prinzenrolle reicht das schon weil RAYTRACING! 111elf ;)
Lowkey
2022-12-12, 16:02:46
Wer spielt hier ernsthaft mit dem Gedanken eine neue AMD Karte zu kaufen?
Exxtreme
2022-12-12, 16:05:17
Wer spielt hier ernsthaft mit dem Gedanken eine neue AMD Karte zu kaufen?
Nächstes Jahr im Frühjahr vielleicht. Bin noch auf einer R5700XT unterwegs. Das wäre schon ein sehr spürbares Upgrade für mich. Aber auch eine RTX4090 kommt infrage. :)
dildo4u
2022-12-12, 16:07:26
Wer spielt hier ernsthaft mit dem Gedanken eine neue AMD Karte zu kaufen?
Gibt Leute die nur ein Game zocken z.b Call of Duty.
PCGH hat die 7900XTX dort innerhalb von 5% zur 4090 in 4k.
DrFreaK666
2022-12-12, 16:09:02
Aus dem Fazit von CB:
Ist dein Zitat "die Reviews"? :ugly:
Linmoum
2022-12-12, 16:10:35
Hmm die Reviews lesen sich deutlich positiver, als dieser Thread.Echt? Irgendwie hab ich weniger den Eindruck, zumal die Karten sogar weniger liefern als das, was AMD versprochen hat. Bei der Effizienz ist man von diesen angeblichen +54% sogar weit entfernt.
Aber spätestens jetzt ist klar, warum der Preis dort angesetzt worden ist. Und traurigerweise muss man sogar feststellen, dass der Preis der 4080 bei diesem Gesamteindruck von N31 nicht einmal zu hoch ist.
"Nur" grob identische Rasterperformance, RT deutlich zurück, beim reinen Verbrauch und der Effizienz meilenweit zurück (gerade Teillast/fps-Cap)...
Das ist sehr schade und diese "broken"-Gerüchte bestätigt AMD fast schon mit diesen beiden Produkten in der Form. Das kann so niemals gewollt sein.
Matrix316
2022-12-12, 16:11:58
Weil es die einzige Karte ist die deutlich mehr Leistung als die Vorgänger Generation hat. :wink:
Es ist auch die einzige Karte, die so viel kostet wie normalerweise zwei Generationen...:rolleyes:
Für das Geld einer 0815 4090 hast du mal fast zwei 2080TI oder zwei 3080TI bekommen. :freak:
Der_Korken
2022-12-12, 16:16:41
Da es noch nicht näher angesprochen wurde: CB hat versucht die IPC von RDNA2 und 3 zu vergleichen: https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/6/#abschnitt_rdna_2_vs_rdna_3_wie_viel_mehr_leistung_bringt_die_neue_technik
Am nächsten dran waren sie mit 80CUs@2,3Ghz und 84CUs@2,2Ghz, wobei letztere noch den Vorteil von 6 vs 4 Shader Engines hat und 50% mehr Speicherbrandbreite (bei dafür nur 80 statt 128MB Cache).
Herausgekommen sind 9% in Raster und 18% in RT. Ersteres ist echt mau, dafür dass man wie gesagt noch mehr Frontend-Power und Bandbreite hat, eventuell sogar nahezu 0 Steigerung. RT scheint mehr von den neuen CUs zu profitieren, d.h. diese Design-Entscheidung könnte u.a. auch wegen RT getroffen worden sein.
hardtech
2022-12-12, 16:18:32
watt für eine enttäuschung.
amd hat selbst gesagt, die werden 50% besser bei energie-effizienz. pustekuchen. eine glatte lüge!
jetzt kaufe ich weder ada noch xtx. bleibe bei meiner 3070 tuf. die hersteller können auf mein geld verzichten. hoffe, dass es vielen so geht.
gbm31
2022-12-12, 16:18:47
Hmm...
Die Rasterleistung ist nicht so hoch wie erwartet bzw gewünscht (für VR), gleichzeitig ist der Verbrauch echt unter aller Kanone gefühlt, mich reizt es irgendwie null eine 7900XTX zu kaufen und meine 6900XT zu ersetzen...
Da würde ich ja schon fast lieber eine 4080 für 1250€ kaufen...
Wir schauen mal nach den Verkaufszahlen. Mein Kollege hofft ja, dass das Verkaufsecho auch die Preise von NV ein wenig senkt (bzw. deutlich senkt) - aber daran glaube ich nach den Reviews gar nicht. Schade.
BlacKi
2022-12-12, 16:21:06
Wenn ich bei Igor nachschaue, nährt dies den Verdacht, dass die Karten kurzfristig hochgeprügelt wurden.die reduzierung des powerlimits beim luxx test ist aber auch nicht prickelnd.
Troyan
2022-12-12, 16:24:40
Da es noch nicht näher angesprochen wurde: CB hat versucht die IPC von RDNA2 und 3 zu vergleichen: https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/6/#abschnitt_rdna_2_vs_rdna_3_wie_viel_mehr_leistung_bringt_die_neue_technik
Am nächsten dran waren sie mit 80CUs@2,3Ghz und 84CUs@2,2Ghz, wobei letztere noch den Vorteil von 6 vs 4 Shader Engines hat und 50% mehr Speicherbrandbreite (bei dafür nur 80 statt 128MB Cache).
Herausgekommen sind 9% in Raster und 18% in RT. Ersteres ist echt mau, dafür dass man wie gesagt noch mehr Frontend-Power und Bandbreite hat, eventuell sogar nahezu 0 Steigerung. RT scheint mehr von den neuen CUs zu profitieren, d.h. diese Design-Entscheidung könnte u.a. auch wegen RT getroffen worden sein.
Unter OpenGL jedenfalls gibt es keine Steigerung bei Tessellation trotzdem die GPU 50% breiter ist: https://www.comptoir-hardware.com/articles/cartes-graphiques/47052-test-amd-radeon-rx-7900-xt-a-rx-7900-xtx.html?start=5
maximus_hertus
2022-12-12, 16:24:44
RDNA3 ist bisher ziemlich enttäuschend. Das N31 am Ende sogar klar gegen AD103 verliert ist unschön.
Ich fürchte, dass AMD weiterhin keine wirkliche Konkurrenz für nV sein wird und sich nV mit ihren Preisen bestätigt sieht.
Was man aber wieder schön sieht ist der Effekt des Halo-Produkts, der 4090. Wäre die 4080 die Spitzenkarte der 4000er Gen (zum aktuellen Zeitpunkt) würde wohl auch die Bewertung von RDNA3 evtl. etwas weniger negativ ausfallen.
So oder so, RDNA3 scheint schon arge Schwierigkeiten zu haben, sich ausreichend vor RDNA2 zu platzieren bei teils höherem Stromverbrauch.
Selbst wenn man per Treiber nochmal das ein oder andere raus holt, wird sich am Gesamteindruck wohl eher nichts mehr bewegendes verändern.
Schade, aber bei den MSRP Preisen war irgendwie schon klar, dass es nicht so gut um RDNA3 stehen würde.
arcanum
2022-12-12, 16:25:50
auch wenn das cherry picking von vorn herein klar war, haben die folien deutlich bessere ergebnisse suggeriert. bei den preisen ist sogar die 4080 attraktiver aber ich erwarte schnell straßenpreise von unter 1000€, da mMn selbst hartgesottene AMD fans hier nicht so oft zugreifen werden. insgesamt eine ernüchternde generation bisher da es für value käufer nix gibt und ethusiasten bisher nur die ebenfalls total überteuerte 4090 bleibt. pc gaming hat sich in eine echte shit show verwandelt.
Wenn ich bei Igor nachschaue, nährt dies den Verdacht, dass die Karten kurzfristig hochgeprügelt wurden.
Nein, das Gegenteil. Die hätten eigentlich 450W haben müssen und wurden künstlich gedrosselt, um das Etikett "effizent" aufdrucken zu können. Das macht Igor eigentlich ganz am Anfang seines Videos klar, dass die extrem im Powermanagement hängen.
Echt? Irgendwie hab ich weniger den Eindruck, zumal die Karten sogar weniger liefern als das, was AMD versprochen hat. Bei der Effizienz ist man von diesen angeblichen +54% sogar weit entfernt.
Aber spätestens jetzt ist klar, warum der Preis dort angesetzt worden ist. Und traurigerweise muss man sogar feststellen, dass der Preis der 4080 bei diesem Gesamteindruck von N31 nicht einmal zu hoch ist.
"Nur" grob identische Rasterperformance, RT deutlich zurück, beim reinen Verbrauch und der Effizienz meilenweit zurück (gerade Teillast/fps-Cap)...
Das ist sehr schade und diese "broken"-Gerüchte bestätigt AMD fast schon mit diesen beiden Produkten in der Form. Das kann so niemals gewollt sein.
Das seh ich auch so, da stimmt auch was nicht. VDDCR_USR? WTF? Da ist was mit der heißen Nadel gestickt worden. Die verbraucht viel viel mehr als geplant war.
YeahBuoy!
2022-12-12, 16:37:40
Geht ja hier fast zu wie damals beim Vega Launch, da wurde ja auch auf den ersten Seiten ordentlich über AMD gekübelt.
Stand jetzt würde ich die Karte auch nicht kaufen wollen (generelle Treiberoptimierung steht noch aus und der hohe Idle Verbrauch sind jetzt eher unschön) habe aber noch die Hoffnung das der Markt die Performance richtig einpreist.
Rolsch
2022-12-12, 16:39:13
Da wird wohl bald eine abgespeckte 7900XL mit weniger Speicher kommen um die Preisfüchse bedienen zu können, ähnlich wie bei der Vega56. So bleibt das ein Ladenhüter.
DrFreaK666
2022-12-12, 16:40:16
Hätte wenigstens noch einen Teaser zu FSR 3 oder so gewünscht. So sind die Karten noch uninteressanter
Da wird wohl bald eine abgespeckte 7900XL mit weniger Speicher kommen um die Preisfüchse bedienen zu können, ähnlich wie bei der Vega56. So bleibt das ein Ladenhüter.
Das Ding vermarkten die als 7800XT. Ich hab die Befürchtung, dass N32 und N33 sich bis ins 2.H 23 verspäten, der Leak zu den Notebookchips im 2.H sprechen ja dafür. Ich vermute, man wird noch die 7800XT bringen und darunter Renames der jetzigen N22(S) und N23(S). Ende 23 releasen die dann ne komplette Refreshgeneration.
Hätte wenigstens noch einen Teaser zu FSR 3 oder so gewünscht. So sind die Karten noch uninteressanter
FSR3 ist pure Nische, genau wie DLSS3 Nische ist. Das ist nur in speziellen Anwendungszwecken von Vorteil (beispielsweise wenn man von 144 auf 240Hz hoch möchte oder mit VR), ansonsten ist das eh unbrauchbar für den normalen Spielebetrieb.
Santini
2022-12-12, 16:49:12
Immerhin ist man jetzt besser als 3090, leider ist die 4090 aber schon da :freak:
Nicht wirklich schlechte Werte AMD ist wieder mal nicht vorn, wie immer.
In kommenden kleineren 7xxx Varianten wird man Probleme bekommen die sinnvoll einzuordnen zwischen 6700, 6800 oder 6900. Wenn die leistungsmäßig dahinter liegen wäre es ja ziemlich blöd.
dargo
2022-12-12, 16:52:36
Da wird wohl bald eine abgespeckte 7900XL mit weniger Speicher kommen um die Preisfüchse bedienen zu können, ähnlich wie bei der Vega56. So bleibt das ein Ladenhüter.
Hmm... die Flexibilität wäre zumindest da mit vier MCDs und 16GB @256Bit. Allerdings bezweifle ich das da N31 sich nicht stark genug von N21 absetzen kann. Ergo ist 7900XL überflüssig, dafür kommt N32.
Hmm... die Flexibilität wäre zumindest da mit vier MCDs und 16GB @256Bit. Allerdings bezweifle ich das da N31 sich nicht stark genug von N21 absetzen kann. Ergo ist 7900XL überflüssig, dafür kommt N32.
Die 16MB-Variante ist ja schon durchgesickert. Da wird also was kommen. Und das passt doch gut als Ersatz für N21, falls man die unteren Produkte beibehält erst mal ;). N21 wird ja EOL sein, das muss nicht für N22 und N23 gelten, dann braucht man die XL.
N32 und 33 stehen ja momentan eher in den Sternen. Wir werden es ja sehen, obs dazu Anmerkungen auf der CES gibt, die Gerüchte zu N32 und N33 sind wenig optimistisch bisher gewesen. N33 sollte eigentlich zur CES kommen, wenn nicht ist das ein Zeichen. N33 in Mobil für H2 ist auch ein sehr schlechtes Vorzeichen für den Chip, denn da wird er dringend gebraucht. Und die letzten Gerüchte zu N32 sprachen gar von April/Mai. Das wird also noch lange dauern mit den neuen Chips in der Richtung. Ich hab wie gesagt den Verdacht, dass die 7k-Generation einfach nur ein Zwischenschieber ist. Aber wir werden sehen.
Der_Korken
2022-12-12, 16:57:34
Hmm... die Flexibilität wäre zumindest da mit vier MCDs und 16GB @256Bit. Allerdings bezweifle ich das da N31 sich nicht stark genug von N21 absetzen kann. Ergo ist 7900XL überflüssig, dafür kommt N32.
Wenn man ursprünglich mit deutlich mehr Takt geplant hat, wäre das Speichersystem für die jetzt finalen Produkte quasi überdimensioniert. Gut möglich, dass man die 7900XT auch ohne nennenswerten Leistungsverlust auch mit 16GB und 256bit hätte verkaufen können bzw. sowas als Notlösung noch tut - der Name "7900" ohne alles ist ja noch offen :D.
dildo4u
2022-12-12, 17:06:43
7900XT ist mal eine Gurke erklärt warum NV mit 900€ für die 4070 TI liebäugelt.
8RN9J6cE08c
gbm31
2022-12-12, 17:06:52
Schade, irgendwie denk ich, psychologisch würden die Karten als 7800XT und 7800 wohl sogar richtig positiv aufgenommen worden...
Eigentlich sind die Dinger ja nicht schlecht, nur der Verbrauch, auf dem AMD so rumgeritten ist, ist richtig bescheiden.
Platos
2022-12-12, 17:06:53
Wow, die Karten haben mich wirklich überrascht, negativ...
So schlecht hätte ich sie nicht erwartet. Und dann auch noch so teuer (wie eben schon bekannt war).
Somit liefert auch AMD überteuerten Mist. Ob nun nvidia noch bisschen schlechter ist im P/L, spielt auch keine Rolle mehr. Beide sind einfach nur miserabel bei diesen Preisen.
Kaputter Markt.
Und dann kommt noch der absurde Stromverbrauch von über 70 Watt um Youtube-Videos abzuspielen :D
Stromverbrauch unter Spielen ist auf default auch wieder so absurd.
Die Karten sollten eig. 7800 und 7800XT genannt werden (maximal) und 500-550 und 700-750 kosten.
user77
2022-12-12, 17:09:37
Hmmm. Ich mag AMD und dachte da kommt mehr.
Aber so?
nVidia´s Technik super, aber sauteuer.
AMD technisch okay, aber auch nicht im dem Verhältnis besser als dass ich sie gegenüber nVidia bevorzugen würde.
Troyan
2022-12-12, 17:16:19
https://techgage.com/wp-content/uploads/2022/12/Need-for-Speed-Unbound-4K-Performance-AMD-Radeon-RX-7900-XT-and-XTX.jpg
RDNA3 kommt mir so vor, dass das Design zwischen geschoben wurde. Auf ILP zu setzen und somit wieder deutlich abhängiger vom Compiler und somit Treiber zu sein, ist wohl eher aus einem Notfall herausgeschuldet.
Matrix316
2022-12-12, 17:20:01
[...]
Und dann kommt noch der absurde Stromverbrauch von über 70 Watt um Youtube-Videos abzuspielen :D
Stromverbrauch unter Spielen ist auf default auch wieder so absurd.
[...].
Stromverbrauch wäre auch ein Grund um eher auf eine günstige 4080 zu schielen... :uponder:
Dino-Fossil
2022-12-12, 17:21:12
Joa, wie die Vorstellung von RDNA3 flashen mich auch die ersten Karten nicht so richtig. Nicht wirklich schlecht, aber auch nicht toll.
Zu den Preisen ist weder AMD noch (erst recht!) nVidia aktuell überzeugend.
Dabei ist das eh nicht der Preisbereich in dem ich kaufe, aber als Ausblick auf die allgemeine Preisgestaltung einigermaßen erschreckend.
Schätze meine Gammel-Polaris bleibt noch eine Weile im Rechner. Vielleicht werden die alten Karten im Ausverkauf ja noch preislich interessant.
Aber wer weiß, vielleicht friert noch die Hölle zu und AMD/nVidia bringen für die neue Gen wieder Erwarten doch noch eine vernünftige Mittelklasse-Karte um die 300€. :freak:
Matrix316
2022-12-12, 17:27:06
Joa, wie die Vorstellung von RDNA3 flashen mich auch die ersten Karten nicht so richtig. Nicht wirklich schlecht, aber auch nicht toll.
Zu den Preisen ist weder AMD noch (erst recht!) nVidia aktuell überzeugend.
Dabei ist das eh nicht der Preisbereich in dem ich kaufe, aber als Ausblick auf die allgemeine Preisgestaltung einigermaßen erschreckend.
Schätze meine Gammel-Polaris bleibt noch eine Weile im Rechner. Vielleicht werden die alten Karten im Ausverkauf ja noch preislich interessant.
Aber wer weiß, vielleicht friert noch die Hölle zu und AMD/nVidia bringen für die neue Gen wieder Erwarten doch noch eine vernünftige Mittelklasse-Karte um die 300€. :freak:
Och naja also eine Radeon 6700 XT für 450 wäre doch ein ziemliches Upgrade, oder? 300 Euro sind heute eher Entry Level und nicht Mittelklasse. ;)
Tesseract
2022-12-12, 17:30:24
schlechter als erwartet. die performance ist ziemlich genau da wo man nach der präsentation plus ein bischen mathe und gesunder menschenverstand erwarten würde, was aber neu ist ist das schlechte referenzdesign und die tatsache, dass die karte für das was sie leistet härter ans limit geprügelt wurde als erwartet.
aufkrawall
2022-12-12, 17:33:58
Haben wohl keinen Bock mehr auf die Konkurrenz mit NV. Schaufenster-Produkte einer Lizensierungsfirma mit Tech für SoCs.
Edit: Ok, leicht trolliert. :D
Ex3cut3r
2022-12-12, 17:36:28
Wenigstens erreicht AMD mit der 7900XTX Big GA102 RT Leistung nach etwas über 2 Jahren. Hut ab.
Raster ist in Ordnung im Vergleich zur 4080 und 6900XT, aber auch zu schwankend. Mal gibt es Spiele, da wird gerade mal die 4080 im Raster erreicht.
Hakim
2022-12-12, 17:37:02
Da lese ich den Testbericht und bin etwas von der Performance enttäuscht und denke haben die evt woanders nachgebessert, zwei Monitor Betrieb, vor Nvidia, wow Endlich bemühen die sich bei so Kleinigkeiten die mich immer etwas bei AMD Karten gestört haben, mal YouTube verbrauch schauen.....:freak:. Wieso geht man an einer stelle einen Schritt vor und woanders wieder 2 Schritte zurück? Evt ist irgendwo noch der Wurm drin und wird via Treiber nachgebessert.
Lehdro
2022-12-12, 17:55:08
Wieso geht man an einer stelle einen Schritt vor und woanders wieder 2 Schritte zurück? Evt ist irgendwo noch der Wurm drin und wird via Treiber nachgebessert.
Ehrlich, die Karten haben derzeit mehr Pferdefüße als ein durchschnittliches Reittunier. Und das eben zusätzlich zur durchwachsenen Performance.
Wer spielt hier ernsthaft mit dem Gedanken eine neue AMD Karte zu kaufen?
Ich, vielleicht. Warte auf die Customs und entscheide dann. Die haben wenigstens das Problem mit dem PL nicht und können vielleicht aufzeigen, was N31 mit 20% Transen anrichten kann.
Daredevil
2022-12-12, 18:00:05
Geht ja hier fast zu wie damals beim Vega Launch, da wurde ja auch auf den ersten Seiten ordentlich über AMD gekübelt.
Stand jetzt würde ich die Karte auch nicht kaufen wollen (generelle Treiberoptimierung steht noch aus und der hohe Idle Verbrauch sind jetzt eher unschön) habe aber noch die Hoffnung das der Markt die Performance richtig einpreist.
Vega war auch zu keiner Zeit gut, das einzige was griff war der Preis im Gegenzug zu Nvidias Portfolio.
Den Pain der Temperatur und Abwärme + Radial Lüfter hat man nur in Kauf genommen, weil die Kiste Spottbillig war.
RDNA3 ist nicht unbedingt spottbillig, die kauft man sich nicht einfach so 4fun.
Für das, was sie kostet, ist das aber sicherlich okay und schön, dass man mithalten kann.
Den White Knight mit 4090 Performance und 300w Verbrauch bei 999$ ist es aber wohl offensichtlich nicht geworden, an jeder Ecke enttäuscht AMD ein wenig, weil sie vorher zu hohe Erwartungen gesetzt haben.
Thorin
2022-12-12, 18:02:01
Naja habe wiederwillens zur 4080 gegreifen um von der rx 480 aufzurüsten. Schade amd hatte eigentlich vor die 7900xtx zu holen. Aber die Testberichte lesen sich sehr enttäuschend. Eigentlich würde ich auch noch warten aber nach 6 Jahren und mit einem 1440p Monitor kann ich das nicht mehr.
Si|encer
2022-12-12, 18:03:48
Dual Monitorbetrieb 100 Watt, wollen die mich verarschen ? :freak:
Tesseract
2022-12-12, 18:07:56
wo wurde das getestet? die 4090 is bei 16W board power mit dual monitor. :freak:
Hakim
2022-12-12, 18:13:12
Dual Monitorbetrieb 100 Watt, wollen die mich verarschen ? :freak:
Bei CB haben die Werte um die 19-23 Watt, bei Techpowerup aber über 100W, ist vermutlich weil dort unterschiedliche Monitore verwendet und bei CB 2x der selbe, sonst wüsste ich nicht warum das so ausartet. Aber dennoch, egal wie die Konfig ist, 100> sind halt .....genauso der Youtube Verbrauch. Ich vermute das man da nachbessern wird.
Dino-Fossil
2022-12-12, 18:13:35
Och naja also eine Radeon 6700 XT für 450 wäre doch ein ziemliches Upgrade, oder? 300 Euro sind heute eher Entry Level und nicht Mittelklasse. ;)
Die Frage ist doch nicht, ob von der 480 kommend ein Upgrade drin ist. Klar ist das möglich. Aber ich will halt nicht mehr als ~300 dafür löhnen. Mehr ist bei dem was und wieviel ich noch zocke in meinen Augen sinnbefreit.
Bin einfach nicht willens diese Preise mitzugehen.
Aber das ist hier ein gutes Stück offtopic.
gbm31
2022-12-12, 18:16:25
wo wurde das getestet? die 4090 is bei 16W board power mit dual monitor. :freak:
Igor. Mehrere Monitore oder einer mit entsprechender Bildwiederholrate und Peng! Dann noch Youtube schauen...
dargo
2022-12-12, 18:17:52
Versteht eigentlich einer die merkwürdige Referenzkühlung bzw. die Lüftersteuerung? Jetzt wo ich den Test von Igor sehe finde ich die völlig bekloppt. Die Lüftersteuerung hält den GDC Hotspot bei der 7900XT bei lächerlichen 66-68°C. WTF? :freak:
https://www.igorslab.de/amd-radeon-rx-7900xtx-und-rx-7900xt-im-test-ein-riesiger-schritt-nach-vorn-und-ein-kleiner-zur-seite/13/
Damit verschenkt AMD doch jede Menge an Lautstärkepotenzial. Oder darf der GDC nicht mehr so heiß werden wie noch der Die bei RDNA2?
Exxtreme
2022-12-12, 18:26:15
Dual Monitorbetrieb 100 Watt, wollen die mich verarschen ? :freak:
Japp, das ist ein totaler Fail. Zuerst deutlich darauf hinweisen, dass man ja nur 2 Stromstecker braucht und keinen neuen. Suggeriert halt eine sparsame Karte. Und dann sowas.
Aber mal 2 oder 3 Treiber abwarten. Kann sein, dass sich da noch deutlich was tut.
Si|encer
2022-12-12, 18:30:01
Bei PCGH im Video von Raff hörte sich die Stellungnahme von AMD eher nicht danach an, als würde man da Treibermäßig nachbessern.
Aber mal abwarten.
Hott3X
2022-12-12, 18:30:29
Muss echt sagen, die Karten hauen mich nicht vom Hocker. Dan doch besser auf die 4070TI warten.
//differentRob
2022-12-12, 18:33:40
bin willig meine RTX 2070 Super völlig unnütz in Rente zu schicken...
Review und Benchmarks gesehen:
https://media.giphy.com/media/11gC4odpiRKuha/giphy.gif
ich kann warten, bis mich DLSS in WQHD nicht mehr rettet, wobei ab Juni 23 kommt eh Diablo ran und danach ist geklärt ob RDNA3 bei nextgen Titeln basierend auf UE5 "magisch aufholt".
FPS/Watt ist ja echt übel bei RDNA3. Mal schauen wie das mit 78xx 77xx aussieht.
Cubitus
2022-12-12, 18:37:35
Zur 4080 GTX, XTX etwas billiger.
Quasi gleich schnell zur 4080 GTX
RT deutlich langsamer als bei der 4080
Dafür schluckt die 7900-XTX wesentlich mehr Strom
Joa also die 4080 ist einfach die bessere Karte :)
Ich spiel mal weiter mit meinen ~200 Watt Cyberpunk mit RT auf Ultra ;D
Rolsch
2022-12-12, 18:39:44
Bei PCGH im Video von Raff hörte sich die Stellungnahme von AMD eher nicht danach an, als würde man da Treibermäßig nachbessern.
Aber mal abwarten.
Raff im Video "Warum sind die so billig." :biggrin:
Exxtreme
2022-12-12, 18:42:24
Habt ihr mal einen Link für's Video? X-D Ich habe nur ein Video gefunden wo er die Karten auspackt.
dildo4u
2022-12-12, 18:43:07
Habt ihr mal einen Link für's Video? X-D Ich habe nur ein Video gefunden wo er die Karten auspackt.
PMgC7j47vOs
Rolsch
2022-12-12, 18:43:08
Habt ihr mal einen Link für's Video? X-D Ich habe nur ein Video gefunden wo er die Karten auspackt.
PMgC7j47vOs
Linmoum
2022-12-12, 18:44:53
Die Frage nach dem Preis hat sich ja heute endgültig beantwortet. Man hebt sich nirgends nennenswert von der 4080 ab (ok, beim Speicher und Stromverbrauch schon...), bietet nur gleichwertige Raster-Performance und dafür aber deutlich schlechtere RT-Performance (im worst case reicht es dann sogar nur knapp für eine 3080...).
P/L ist nicht besser als bei Nvidia. Was traurig ist, da Jensen so den Preis für die 4080 rechtfertigen kann und die Konkurrenz ihm sogar noch recht gibt. Man stelle sich vor, Nvidia hätte das Teil für $899 gelauncht. AMD hätte mit N31 und diesen Produkten in der Form richtige Probleme gehabt. Zumindest die werden sehr froh über die Preisgestaltung sein.
P/L ist nicht besser als bei Nvidia. Was traurig ist, da Jensen so den Preis für die 4080 rechtfertigen kann und die Konkurrenz ihm sogar noch recht gibt. Man stelle sich vor, Nvidia hätte das Teil für $899 gelauncht. AMD hätte mit N31 und diesen Produkten in der Form richtige Probleme gehabt. Dann wären XTX für 799 $ über die Theke gegangen...
Das ist doch jetzt albern, 899 Dollar in den Raum zu werfen und dann gleich dann zu unterstellen AMD hätte Probleme mit dem Preis...bitte nicht noch mehr Spekulatius.
interzone
2022-12-12, 18:49:42
ich habe ja nur "geringe" Ansprüche - 60FPS für 4K-Raster, dazu noch eine Karte die kein Heizblockkraftwerk ist, und meinen nächsten Kontoauszug nicht in die Ablage "Porsche für's Einkaufenfahren" stecken.
AMD hat hier wohl komplett mit dieser Generation verkackt, und dabei hätte es so schön sein können. Dass die 4090 in dieser Generation bisher die effizienteste Karte ist, ist einfach unglaublich.
Macht aktuell keinen Spaß, und ich kann mich nur wiederholen; das ist für das PC-Gaming nicht gut.
Cubitus
2022-12-12, 18:56:17
AMD hätte einfach für die 7900XTX 800 Dollar aufrufen sollen und für die kleine XT 700 Dollar. Die Karten sind einfach nicht "überzeugend" genug um den Preis aktuellen Preis zu rechtfertigen.
Linmoum
2022-12-12, 18:59:34
Ich bezweifle, dass die Margen bei $700/$800 toll gewesen wären. Erkennt man schon am Preis der 7900XT.
Der_Korken
2022-12-12, 19:02:45
7900XTX: 103W
Die 80W Unterschied machen bei 10h am Tag und 40 Cent pro kWh ca. 115 Euro im Jahr und 230 Euro in 2 Jahren.
230 Euro sind ziemlich genau der Abstand zwischen der 7900XTX und der 4080.
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/power-consumption.png
4080: 23W
https://tpucdn.com/review/nvidia-geforce-rtx-4080-founders-edition/images/power-consumption.png
Video Playback 88W vs 20W :frown:
In Zeiten von 40 C/kWh sollte man diesen Aspekt definitiv berücksichtigen.
Alter, bei CB waren es mit 2x 4K@60Hz nur ca. 20W, also genauso viel wie mit einem Monitor. Wenn man aber unterschiedliche Monitorsettings benutzt, nuckelt die ernsthaft 100W weg :uroll:.
w0mbat
2022-12-12, 19:03:24
AMD hätte die Karten 7800 XTX & 7800 XT nennen und für $899 & $739 verkaufen sollen. Und bei der Vorstellung nicht von 50-70%, sondern eher von 35-50% reden sollen.
Für mich einzig positiver Punk von RDNA3: ray traying Leistung ist doch besser geworden als gedacht.
r3ptil3
2022-12-12, 19:05:26
Das bittere an der ganzen Sache ist nicht mal die eher etwas enttäuschenden AMD-Grafikkarten, sondern die Tatsache, dass diese Modelle noch fast 2 Jahre die aktuelle Generation von High-Performance-GPUs darstellen werden.
Gibt kein warten mehr was die Konkurrenz bringt, damit hoffentlich die Preise runtergehen. Wenn was neu kommt dann die 4070 Ti und eine mögliche 4080 Ti und gerade letztere wird wohl auch preislich zwischen der 4080 und der 4090 sein. Wer ein Produkt will das alles kann, muss zwangsweise sowieso fast schon zu Nvidia greifen.
aufkrawall
2022-12-12, 19:08:49
P/L ist nicht besser als bei Nvidia.
Eher deutlich schlechter, wenn man noch DLSS und teilweise andere Gegebenheiten mit einpreist. Ich würd deshalb und wegen "RTX-RT" in Spielen, wo Nvidia mitwirkt, sogar eine 3080 12GB vorziehen.
dargo
2022-12-12, 19:09:17
RT deutlich langsamer als bei der 4080
15% langsamer ist also deutlich? :facepalm:
https://www.igorslab.de/amd-radeon-rx-7900xtx-und-rx-7900xt-im-test-ein-riesiger-schritt-nach-vorn-und-ein-kleiner-zur-seite/6/
Bei 1% Low sind es dann aber schon -26%.
Nightspider
2022-12-12, 19:09:41
Ja, in dem Thread hier is es besser aufgehoben.
Ja kann sein, trotzdem habe ich mehrere … und 100 Watt zu 20 Watt (siehe Techpowerup) ist halt ordentlich.
Die 80W Unterschied machen bei 10h am Tag und 40 Cent pro kWh ca. 115 Euro im Jahr und 230 Euro in 2 Jahren.
230 Euro sind ziemlich genau der Abstand zwischen der 7900XTX und der 4080.
7900XTX: 103W
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/power-consumption.png
4080: 23W
https://tpucdn.com/review/nvidia-geforce-rtx-4080-founders-edition/images/power-consumption.png
Video Playback 88W vs 20W :frown:
In Zeiten von 40 C/kWh sollte man diesen Aspekt definitiv berücksichtigen.
Die Frage ist ob AMD dieses Verhalten fixen kann oder nicht.
Bei Zen4 kann man zumindest den zweiten Monitor ans Mainboard hängen und über die CPU (APU) ansprechen, richtig?
Jetzt mal ehrlich, angesichts verbesserter DCC und schnellerem Speicher (offenbar wären ja auch 21 GHz kein Problem gewesen, wenn man nach den OC-Berichten geht) kann mir keiner erzählen, dass 384bit für die Rohleistung eine gute Idee waren. Entweder schmaleres SI, um am IF$/SI/Speicher Energie und Kosten zu sparen die man dann in höheren Chiptakt und niedrigere Preise investieren kann, oder breiteres GCD-Design (5 WGP je SA für 120 CUs, oder 8 SA für 128), um die 384bit auch selbst bei Taktproblemen definitiv zu rechtfertigen.
Könnte AMD eigentlich, rein theoretisch, eine Navi31 Grafikkarte mit nur 4 MCDs und voller CU Zahl releasen?
Rein von der Bandbreite und der Speichermenge (16GB) würde das für die gebotene Leistung ja locker ausreichen, wenn 33% fehlen würden.
Das Ding ist halt wirklich broken, und das Naming ist ne Frechheit, genau wie der Preis. Das ist einfach mal nicht zu leugnen.
Jepp, sie hätte definitiv 7800XT heißen sollen.
Ich bezweifle, dass die Margen bei $700/$800 toll gewesen wären. Erkennt man schon am Preis der 7900XT.
Das wird exakt das Problem sein - aber es wird nicht funktionieren. Damit haben es jetzt geschafft wegen ein paar Erstkäufern das Marketing komplett zu versauen:
- x900 ist "verbrannt"
- Man hat wieder einen schlechten Ruf deswegen
- Die alten, schlechten Gewohnheiten sind zurück
Toll gemacht. Der Markt wird die Dinger sowieso bei der Marktsituation bei 550€ bzw. 700€ einpreisen, genau wieder Markt die 4080 bei <<1000€ einpreisen wird mittelfristig.
Das Problem ist einfach, dass die Hersteller zuviel produziert haben werden als das man das in der Marktsituation absetzen könnte. Außerdem wird künftig das Chinageschäft massiv behindert werden, wegen strikterer Regularien für KI-fähige Chips, das ist ja jetzt schon absehbar, da wird es mit Sicherheit Exportbeschränkungen geben, da zwischen USA und China ein Wirtschaftskrieg läuft. Und dann kann man die Preise erst recht purzeln sehen, dann wars dass mit 60%-Margen, dann kann man noch froh sein, wenn man 10-20% einheimsen kann.
Bei der 5700XT war das trotz des fehlenden RTs kein Nachteil, die Karte so zu nennen, und auch preislich spielte man gut mit. Das wär mit einer 7800(X) auch gegangen, nur eben "nur" als Erstpreise mit $600 und $800.
Man hätte damit einen guten Ruf bei der Presse bekommen und die Leute hätten über Verlustleistung und RT hinweg sehen können. Es bleibt eigentlich echt nur zu hoffen, dass das Ding wirklich kaputt ist und ne neue Rev. das fixen kann. In jedem Fall für alle wichtig:
FINGER WEG BEI DEN PREISEN! Bei einer 4090 ist das ok, aber alles darunter ist VIEEL zu teuer, bitte abstrafen, auch AMD.
dildo4u
2022-12-12, 19:16:29
Eher deutlich schlechter, wenn man noch DLSS und teilweise andere Gegebenheiten mit einpreist. Ich würd deshalb und wegen "RTX-RT" in Spielen, wo Nvidia mitwirkt, sogar eine 3080 12GB vorziehen.
Kommt ja wieder in Form der 4070 TI zur Zeit kosten 3080 12GB 1100€. ;D
3uQh4GkPopQ
dargo
2022-12-12, 19:22:55
Das Problem ist einfach, dass die Hersteller zuviel produziert haben werden als das man das in der Marktsituation absetzen könnte.
Das ist doch eigentlich gut für den Kunden oder nicht? Wenig Nachfrage, große Produktion heißt in der Regel sinkende Preise. Die 7900XT finde ich mittlerweile gar nicht mal so schlecht. Sie dürfte nur 700€ kosten. :freak: Die Mehrperformance vs. 6800XT wäre mit +30-40% eher meh, aber wenn der Preis stimmt, warum nicht?
12GB ist scheiße so, bei den Preise bloß die Finger davon lassen. Für die Mittelklasse ist das ok. Bei einer 3080Ti war es nicht ok und bei einer 4070(TI) ist es auch nicht ok.
Für 450€ für ne 4070 mit 12GB geht das i.O., für 750€ nicht.
Das ist doch eigentlich gut für den Kunden oder nicht? Wenig Nachfrage, große Produktion heißt in der Regel sinkende Preise. Die 7900XT finde ich mittlerweile gar nicht mal so schlecht. Sie dürfte nur 700€ kosten. :freak: Die Mehrperformance vs. 6800XT wäre mit +30-40% eher meh, aber wenn der Preis stimmt, warum nicht?
Exakt. Deswegen warten bis zum Frühjahr, dann kann man getrost kaufen, egal wie das Ding heißt ;). Ich kritisiere nur das beschissene Marketing, ich finds einfach so unnötig, den Fail... Das Produkt ist super, wenn der richtige Preis dransteht.
user77
2022-12-12, 19:24:10
Gamers:
https://starecat.com/content/wp-content/uploads/you-were-supposed-to-be-the-chosen-one-star-wars-obi-wan-kenobi.jpg
Exxtreme
2022-12-12, 19:24:39
Das bittere an der ganzen Sache ist nicht mal die eher etwas enttäuschenden AMD-Grafikkarten, sondern die Tatsache, dass diese Modelle noch fast 2 Jahre die aktuelle Generation von High-Performance-GPUs darstellen werden.
Meine Vermutung ist eher, dass man in Zukunft kaum noch bessere Grafikkarten sehen wird weil das wirtschaftlich wohl nicht mehr sinnvoll umzusetzen ist. Die Fertigungsprozesse sind wohl mehr oder weniger am Ende. Und 10k € für eine Grafikkarte wird kaum jemand ausgeben.
Und deshalb gibt es neuerdings so Sachen wie DLSS/FSR um das zu kaschieren. Man tut so als ob es da Fortschritt gibt weil man die Renderauflösung absetzt und das in mehr fps umsetzt. Aber Bilder hochskallieren kann auch mein Monitor.
dildo4u
2022-12-12, 19:27:12
12GB ist scheiße so, bei den Preise bloß die Finger davon lassen. Für die Mittelklasse ist das ok. Bei einer 3080Ti war es nicht ok und bei einer 4070(TI) ist es auch nicht ok.
Für 450€ für ne 4070 mit 12GB geht das i.O., für 750€ nicht.
Mit 12GB kann man irgendwann Dumping Preise erwarten siehe 6700XT mit 20GB der 7900XT sehe ich das nicht.
Linmoum
2022-12-12, 19:29:06
Jetzt weiß man aber auch, warum man erst Mitte Dezember launcht und nicht schon im November. Wobei die Treiber in diesem Zustand wahrscheinlich erst in Q1 einem solchen Launch angemessen gewesen wären. Dann hätte man "2022" aber nicht mehr einhalten können. Zwickmühle.
Meine Vermutung ist eher, dass man in Zukunft kaum noch bessere Grafikkarten sehen wird weil das wirtschaftlich wohl nicht mehr sinnvoll umzusetzen ist. Die Fertigungsprozesse sind wohl mehr oder weniger am Ende. Und 10k € für eine Grafikkarte wird kaum jemand ausgeben.
Und deshalb gibt es neuerdings so Sachen wie DLSS/FSR um das zu kaschieren. Man tut so als ob es da Fortschritt gibt weil man die Renderauflösung absetzt und das in mehr fps umsetzt. Aber Bilder hochskallieren kann auch mein Monitor.
Das ist ein sehr interessanter Punkt - und ich schließe mich dem an. Es wird sicherlich eher versucht werden, die Verlustleistung zu optimieren mit neueren Prozessen, die Chiplets durchzusetzen, wegen der hohen Kosten, und mit Innovationen die Leistungsfähigkeit zu optimieren, als auf Teufel komm raus mehr Leistung durchzusetzen.
Ich denke, dass wird sowohl bei der Verlustleistung und auch preislich den Peak erreicht haben. Künftige Generationen, werden eher im 15-25%igem Bereich wachsen, nicht mehr mit 50-60%.
Mit 12GB kann man irgendwann Dumping Preise erwarten siehe 6700XT mit 20GB der 7900XT sehe ich das nicht.
überschätz das nicht. So teuer sind weder die Speichermodule noch das MCD. Im Endeffekt spielt es nur ne untergeordnete Rolle, siehe Radeon R9 390.
Jetzt weiß man aber auch, warum man erst Mitte Dezember launcht und nicht schon im November. Wobei die Treiber in diesem Zustand wahrscheinlich erst in Q1 einem solchen Launch angemessen gewesen wären. Dann hätte man "2022" aber nicht mehr einhalten können. Zwickmühle.
Das Ding hat sowieso einen faden "nicht fertig"-Beigeschmack aus meiner Sicht. Hat eigentlich mehr vom Savage2000 als von Vega :freak:
Spring
2022-12-12, 19:31:54
Für die Beurteilung einer Grafikkarte zählt nicht nur deren Leistung, sondern auch der Preis. Ganz gleich wie gut die GeForce RTX 4080 technisch ist: Das Modell ist selbst mit der kürzlich vorgenommenen Preissenkung auf 1.399 Euro und einer Lieferbarkeit ab 1.350 Euro nicht nur sehr teuer, sondern schlussendlich zu teuer, wenn man den großen Abstand zur GeForce RTX 4090 bedenkt. Hier hat Nvidia AMD ein großes Scheunentor offen gelassen, durch das die zwei Radeons nun auch mit Wucht fahren. Radeon RX 7900 XTX und Radeon RX 7900 XT sind zwar keinesfalls günstig, sondern mit über 1.000 Euro ebenfalls hochpreisig angesetzt. Allerdings übertreiben es die zwei Produkte deutlich weniger.
1.149 Euro wird die Radeon RX 7900 XTX kosten und damit genau 250 Euro weniger als die GeForce RTX 4080 (200 Euro weniger im Vergleich zu lieferbaren RTX-4080-Karten), während die Radeon RX 7900 XT ab 1.050 Euro den Besitzer wechseln wird. Damit bietet die Radeon RX 7900 XTX 22 Prozent mehr FPS pro Euro in Rasterizer Spielen, beim Raytracing liegt weiterhin die GeForce RTX 4080 im Testparcours mit 4 Prozentpunkten vorne. In Summe erreicht AMD beim Preis-Leistungs-Vergleich einen Sieg für die Radeon-Mannschaft. Jedoch ist das eben auch ein Weg, den AMD gehen muss, da die Hardware nicht völlig konkurrenzfähig ist.
Zitat CB
Begeistert bin ich auch nicht, wobei ich denke das der Idle Verbrauch noch reduziert werden kann durch folgende Treiber. Die 7800 & 7700 werden wohl wesentlich interessanter (falls nicht auch überteuert).
Der große Verlierer dieses Jahr ist die Masse der Gamer, da alle Karten (egal ob AMD oder NV) viel zu teuer sind. Das muss man auch biasfrei feststellen können. Und ob nächstes Jahr das wirklich besser wird mit den Preisen der 7800/7700 und 4070/4060 wage ich ja zu bezweifeln.
Wird mehr Leute zu Konsolen treiben...
horn 12
2022-12-12, 19:32:37
@Dargo
Dann kauft dir die 7900XT
ich für meinen Teil Bleibe aber eher bei der 6800XT und schaue was in 2 Monaten so geht
und ob die Teile wirklich und ohne Bugs OPTIMIERT WERDEN KÖNNEN.
Idle/ Youtube Verbrauch in der Grünen Norm, Stabilere Taktraten und Gutes UV und dann wäre man ja schön Glücklich!
Nightspider
2022-12-12, 19:34:49
Ob vinacis_vivids immernoch Geld für einen 4K@240hz / 8K@120hz Monitor (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13158064#post13158064) zur Seite legt? ;D
Timbaloo
2022-12-12, 19:34:51
"Up to 54%" Effizienzsteigerung my ass :ulol:
Tesseract
2022-12-12, 19:36:41
Und deshalb gibt es neuerdings so Sachen wie DLSS/FSR um das zu kaschieren. Man tut so als ob es da Fortschritt gibt weil man die Renderauflösung absetzt und das in mehr fps umsetzt. Aber Bilder hochskallieren kann auch mein Monitor.
das ist kein "kaschieren", das sind einfach moderne rendertechniken. genauso könntest du sagen polygone "kaschieren" voxel oder freiformflächen oder texturen kaschieren detaillierte oberflächengeometrie bzw. materialeigenschaften. die komplette echzeitcomputergrafik ist darauf ausgelegt effizient zu tricksen und das ist einfach ein weiterer logischer schritt.
und nein, dein monitor kann das nicht.
Linmoum
2022-12-12, 19:38:02
Bei P/L aktuell sollte man aber nicht nur auf die Performance blicken, sondern auch den Verbrauch. Was AMD und Intel bei CPUs machen ist das eine, aber warum AMD hier so einen Rückschritt bei der Effizienz macht, verstehe ich immer noch nicht. Liegt das wirklich nur an Chiplets statt eines monolithischen Dies?
In jedem Fall ist das Resultat auch in Spielen unnötig viel mehr an Verbrauch ggü. einer 4080, gerade auch bei Teillast.
Bei @Raff zieht die 7900XTX sogar in Anno 1800 die vollen 350W - wohlgemerkt in FHD!!
dargo
2022-12-12, 19:43:40
@Dargo
Dann kauft dir die 7900XT
ich für meinen Teil Bleibe aber eher bei der 6800XT und schaue was in 2 Monaten so geht
Locker bleiben Brauner. ;) Ich bin hier völlig gechillt, ne Graka habe ich nur die Spiele fehlen mir dazu. :freak:
Bei P/L aktuell sollte man aber nicht nur auf die Performance blicken, sondern auch den Verbrauch. Was AMD und Intel bei CPUs machen ist das eine, aber warum AMD hier so einen Rückschritt bei der Effizienz macht, verstehe ich immer noch nicht. Liegt das wirklich nur an Chiplets statt eines monolithischen Dies?
Was für Rückschritt wieder? Ich habe noch keinen Test entdeckt wo RDNA3 ineffizienter wäre als RDNA2. Du etwa?
Bei P/L aktuell sollte man aber nicht nur auf die Performance blicken, sondern auch den Verbrauch. Was AMD und Intel bei CPUs machen ist das eine, aber warum AMD hier so einen Rückschritt bei der Effizienz macht, verstehe ich immer noch nicht. Liegt das wirklich nur an Chiplets statt eines monolithischen Dies?
In jedem Fall ist das Resultat auch in Spielen unnötig viel mehr an Verbrauch ggü. einer 4080, gerade auch bei Teillast.
Bei @Raff zieht die 7900XTX sogar in Anno 1800 die vollen 350W - wohlgemerkt in FHD!!
Das ist aber leider typisch für Strategiespiele. Auch bei Victoria3 ziehen die GPUs maximal aus der Dose, obwohl der Kram auf einer APU läuft... da muss man dann selbst Hand anlegen um den Verbrauch zu drosseln. Bei AMD ist das sogar besonders einfach, da es hier AMD Chill gibt.
beats
2022-12-12, 19:49:47
Vega war auch zu keiner Zeit gut, das einzige was griff war der Preis im Gegenzug zu Nvidias Portfolio.
Den Pain der Temperatur und Abwärme + Radial Lüfter hat man nur in Kauf genommen, weil die Kiste Spottbillig war.
RDNA3 ist nicht unbedingt spottbillig, die kauft man sich nicht einfach so 4fun.
Für das, was sie kostet, ist das aber sicherlich okay und schön, dass man mithalten kann.
Den White Knight mit 4090 Performance und 300w Verbrauch bei 999$ ist es aber wohl offensichtlich nicht geworden, an jeder Ecke enttäuscht AMD ein wenig, weil sie vorher zu hohe Erwartungen gesetzt haben.
Also ich muss ja sagen das die Vega64 schon sehr langlebig ist und vergleichsweise gute Leistung bringt. Ich meine in einem der Benches irgendwas vom Spielen in 4K gesehen zu haben die auf der Vega noch mit 40FPS laufen. :ugly:
Linmoum
2022-12-12, 19:51:00
Das ist aber leider typisch für Strategiespiele. Auch bei Victoria3 ziehen die GPUs maximal aus der Dose, obwohl der Kram auf einer APU läuft... da muss man dann selbst Hand anlegen um den Verbrauch zu drosseln. Bei AMD ist das sogar besonders einfach, da es hier AMD Chill gibt.4090 und 4080 geben sich in diesem Fall mit <270W zufrieden. Also nein, normal ist das nicht.
Ich find's einfach schade, dass das alles nach volle Lotte schreit und zwar nicht (nur) bei der Performance, sondern auch beim Verbrauch.
Zen4 zeigt ja, wie effizient es bei Niedrig-/Teillast abseits von AMDs gewählten Betriebspunkten ist. Aber RDNA3 schafft ja nicht mal das, die Lücke zu Nvidia wird unter diesen Voraussetzungen sogar noch riesiger.
Freestaler
2022-12-12, 19:52:26
*leck..* wo ist die Power x1,6+ zur 6900xt geblieben? Fail.
Digidi
2022-12-12, 19:53:56
das ist kein "kaschieren", das sind einfach moderne rendertechniken. genauso könntest du sagen polygone "kaschieren" voxel oder freiformflächen oder texturen kaschieren detaillierte oberflächengeometrie bzw. materialeigenschaften. die komplette echzeitcomputergrafik ist darauf ausgelegt effizient zu tricksen und das ist einfach ein weiterer logischer schritt.
und nein, dein monitor kann das nicht.
Viele leute Denken hier das eine 4090 wohl super ein Subatomar Modell simulieren kann 1fram/woche ;D
BlacKi
2022-12-12, 19:55:53
oioioiiii was die karte unter teillast verbraucht, ist übel.
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/power-vsync.png
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/37.html
Eher deutlich schlechter, wenn man noch DLSS und teilweise andere Gegebenheiten mit einpreist. Ich würd deshalb und wegen "RTX-RT" in Spielen, wo Nvidia mitwirkt, sogar eine 3080 12GB vorziehen.
DLSS im Vergleich zu FSR2 wirst du wenn spielst, wohl kaum in Vergeich stellen wollen! Sorry, weltfremd! Und wenn du mir jetzt irgendwelche bestcase Bildchen präsentieren willst-es gibt Leute welche spielen wollen und keinem (!) von denen und auch nicht dir (!) wird ein Unterschied ingame auffallen.
oioioiiii
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/power-vsync.png
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/37.html
Gefixt mit 22.12.1!
BlacKi
2022-12-12, 19:58:28
Gefixt mit 22.12.1!und wo liegen die dann?
und ich habe schon angefangen, Treiber zu suchen (jaja, ich hab die alte 6700 XT, aber ich mag neue Treiber) :O
Daredevil
2022-12-12, 20:03:19
AMD hat offensichtlich Probleme mit ihrem Treiber ( Warum? ), mit der neuen Architektur ( Warum? ) oder mit der neuen Display Engine ( 8K 120hz für 100w Idle gekauft lol ).
Es ist ja wohl ein Witz, das 4k60 17w ziehen und 4k120 auf einmal fast 50w. Im Idle! lol
Die Sahne auf der Kirsche sind dann 4k144hz mit 102w im Idle. ;D
( Daten aus dem Video von Raff )
Das AMD sowas präsentiert und nichtmal den Fokus für die Reviews auf diesen Aspekt legt, ist entweder komplett inkompetent, oder sie haben die Nachteile der Architektur stark unterschätzt.
Bandit3644
2022-12-12, 20:04:59
Quelle PCGH
https://i.postimg.cc/Z5NvHgnJ/22.png (https://postimg.cc/gxY0kg37)
Matrix316
2022-12-12, 20:08:33
Meine Vermutung ist eher, dass man in Zukunft kaum noch bessere Grafikkarten sehen wird weil das wirtschaftlich wohl nicht mehr sinnvoll umzusetzen ist. Die Fertigungsprozesse sind wohl mehr oder weniger am Ende. Und 10k € für eine Grafikkarte wird kaum jemand ausgeben.
Und deshalb gibt es neuerdings so Sachen wie DLSS/FSR um das zu kaschieren. Man tut so als ob es da Fortschritt gibt weil man die Renderauflösung absetzt und das in mehr fps umsetzt. Aber Bilder hochskallieren kann auch mein Monitor.
Das denk ich eigentlich bei jedem Grafikkartenrelease - wie soll man das noch toppen? Und dann kommt die 4090 und ist mal doppelt so schnell wie alles vorher. ;) Und ich wette der Preis der Karte könnte durchaus 500~600 Euro billiger sein, wenn Nvidia wöllte und nicht so viele 30er Karten hätte. Alleine der riesige Kühler, der total überdimensioniert ist. Die Platine mit den Chips sieht auch nicht gerade hochwertig aus. Das kann so viel nicht kosten in der Herstellung.
Vielleicht kommt ja jetzt auch wieder die Zeit der Multi GPU Grafikkarten wie schon mal.
BlacKi
2022-12-12, 20:10:36
Quelle PCGH
https://i.postimg.cc/Z5NvHgnJ/22.png48w single 4k 120 XD ein fucking display und 144? WTH?
Hayab
2022-12-12, 20:15:01
Na ja, mehr zu erwarten wäre auch Wunschdenken. Was mir nicht gefällt ist Stromverbrauch im Desktop. Ich glaube nicht AMD wird da schnellen Treiber fix anbieten... und der Preis ist ein 'No'
mironicus
2022-12-12, 20:17:44
Das Powermanagement ist wohl bei den neuen Karten kaputt. 69 Watt für ein Youtubevideo ist ein Relikt aus finstersten Zeiten. Diese Generation hat es NVidia offenbar wieder geschafft, den alten Zustand wieder herzustellen und AMD mit einem großen Chip spürbar auf Abstand halten zu können.
Hakim
2022-12-12, 20:22:34
Ich verstehe es nicht ganz, laut PCGH, bei einem 4k@144hz Moni, im Idle 102W und wenn ich ein YouTube Video schaue dann 78W?? Heißt das jetzt man sollte es statt im Idle zu Belassen immer ein YouTube Video darauf laufen lassen? :)
Freestaler
2022-12-12, 20:23:32
AMD hätte die Karten 7800 XTX & 7800 XT nennen und für $899 & $739 verkaufen sollen. Und bei der Vorstellung nicht von 50-70%, sondern eher von 35-50% reden sollen.
Für mich einzig positiver Punk von RDNA3: ray traying Leistung ist doch besser geworden als gedacht.
Naja, der Preis kann ja noch in die Richtung gehen. Aber ja, dann fazit mit rt leistung triffst. Was haben die blos gesoffen.
dargo
2022-12-12, 20:24:37
Das denk ich eigentlich bei jedem Grafikkartenrelease - wie soll man das noch toppen? Und dann kommt die 4090 und ist mal doppelt so schnell wie alles vorher. ;)
Mathematik ist nicht so deine Stärke oder?
Ich verstehe es nicht ganz, laut PCGH, bei einem 4k@144hz Moni, im Idle 102W und wenn ich ein YouTube Video schaue dann 78W?? Heißt das jetzt man sollte es statt im Idle zu Belassen immer ein YouTube Video darauf laufen lassen? :)
Wie wärs mal mit Kopf einschalten? Offensichtlicher kann ein Treiberbug gar nicht sein.
Matrix316
2022-12-12, 20:27:23
Mathematik ist nicht so deine Stärke oder?
Hä? Ach so, meinst du weil die 4090 mehr als doppelt so schnell ist wie fast alles vorher? Und die 5090 wird auch nicht langsamer werden denke ich.
BlacKi
2022-12-12, 20:28:02
Ich verstehe es nicht ganz, laut PCGH, bei einem 4k@144hz Moni, im Idle 102W und wenn ich ein YouTube Video schaue dann 78W?? Heißt das jetzt man sollte es statt im Idle zu Belassen immer ein YouTube Video darauf laufen lassen? :)eher 160w, denn youtube playback wurde ja mit 4k60hz gemacht. also 78w-20w(idleverbrauch @4k60)+ 102w idleverbrauch 4k144. ergo 160w;)
Hä? Ach so, meinst du weil die 4090 mehr als doppelt so schnell ist wie fast alles vorher? Und die 5090 wird auch nicht langsamer werden denke ich.
ja, aber der rießige vorteil von 8nm vs 4nm wird wegfallen. ich rechne mit +35-45%. NV hatte die letzten 4 jahre krüppelfertigung.
dargo
2022-12-12, 20:29:17
Hä?
Wo ist eine 4090 doppelt so schnell wie eine 3090TI?
https://www.igorslab.de/amd-radeon-rx-7900xtx-und-rx-7900xt-im-test-ein-riesiger-schritt-nach-vorn-und-ein-kleiner-zur-seite/6/
Und komme mir nicht mit irgendwelchen Kirschen hier an.
Daredevil
2022-12-12, 20:30:23
Ich verstehe es nicht ganz, laut PCGH, bei einem 4k@144hz Moni, im Idle 102W und wenn ich ein YouTube Video schaue dann 78W?? Heißt das jetzt man sollte es statt im Idle zu Belassen immer ein YouTube Video darauf laufen lassen? :)
Spekulation: Die neue Display Engine ist auf High Refreshrate bzw. 8K ausgelegt und man fokussiert sich nicht auf die niedrigen und "effizienten" Ziele.
Zu deinem Beispiel: "Idle" bzw. Desktop muss die GPU berechnen, das Video auf Youtube berechnet der Video Decoder, welcher meist effizienter ist, da fixed Function Hardware. ( Das ist der Grund, wieso Apple im Video Bereich so weit vorne ist, dafür aber nicht sehr "flexibel". )
Wie wärs mal mit Kopf einschalten? Offensichtlicher kann ein Treiberbug gar nicht sein.
Wenn AMD selber sagt, dass dieser Verbrauch erwartbar ist, da für neue Display Technologien ausgelegt, ist es offensichtlich nicht offensichtlich.
Und selbst wenn: Ab wann möchte sich AMD mal von ihrem "World First Driver Bugs in Release Software" verabschieden? So langsam sind sie aus der Underdog Nische raus, das man so einen Unsinn nicht abliefert.
Daredevil
2022-12-12, 20:31:46
del
Im Endeffekt ist nur der Kakulator schuld, an dem durchschnittlichem Ergebnis. Eigentlich war RDNA3 mit ~380mm^2 geplant und hat die Entscheidung dann den Noobs, sprich dem kaufmännischen Bereich überlassen. Eigentlich ist das Design nicht verkehrt, das werden Customs beweisen, es wurden eben zu viele 0-Stellen eingespart!
Hakim
2022-12-12, 20:34:05
Wie wärs mal mit Kopf einschalten? Offensichtlicher kann ein Treiberbug gar nicht sein.
Wie wärs mit ohne jemanden dumm anzumachen? Bug oder nicht, ändert nichts daran das es gerade so ist.
Midnight-3DC
2022-12-12, 20:35:47
Finde ich Alles in Allem ziemlich enttäuschend. Wer den PC nur zum zocken anschaltet und selten bis gar nicht im Idle oder unter niedriger Last betreibt, für den mögen die Karten gut sein, für mich macht es aber einen riesen Unterschied. Ich verbringe viel Zeit mit dem schauen von YT Videos und arbeite auch am PC. Und wenn ich Abends dann mal 3D Games zocke, dann habe ich üblicherweise Vsync (60Hz) und FPS-limiter an.
Nicht einmal hauptsächlich zum Stromsparen (auch wenn mir das nicht unwichtig ist) sondern vor allem, weil ich meinen PC gerne leise habe und im Sommer kein Heißluftgebläse haben möchte. All das sind genau die Kategorien in denen die neuen Radeon Karten schlecht abschneiden. Beim Idle-Betrieb bzw. YT habe ich ja noch gewisse Hoffnungen, dass sich das Softwarseitig beheben oder zumindest erheblich verbessern lässt, beim Teillastbetrieb habe ich aber den Eindruck das dies Designbedingt so ist und sich vermutlich nicht ändern wird.
Und das die Karten ein besseres P/L Verhältnis haben als die 4080 liegt auch nur daran, dass diese ein absurd schlechtes P/L Verhältnis hat. Unter den Blinden ist eben der einäugige der König. Da hat das allgemein hohe Preisniveau anscheinen schon dazu geführt, dass eine Karte die 2019 vor dem Cryptoboom und Pandemie als überteuert abgestraft worden wäre, inzwischen sogar für ihr gutes P/L Verhältnis gelobt wird, weil es nicht ganz so schlecht ist, wie das der Konkurenz.
Matrix316
2022-12-12, 20:36:25
Wo ist eine 4090 doppelt so schnell wie eine 3090TI?
https://www.igorslab.de/amd-radeon-rx-7900xtx-und-rx-7900xt-im-test-ein-riesiger-schritt-nach-vorn-und-ein-kleiner-zur-seite/6/
Und komme mir nicht mit irgendwelchen Kirschen hier an.
Naja also ~60~80% in Ultra HD sind schon gefühlt doppelt so schnell von der Balkenlänge. :D
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160
Wenn man jetzt noch Performance per Watt mit einbezieht, dann sieht auch eine 3090TI ganz alt aus.
Linmoum
2022-12-12, 20:36:45
Wenn AMD selber sagt, dass dieser Verbrauch erwartbar ist, da für neue Display Technologien ausgelegt, ist es offensichtlich nicht offensichtlich.Das ist in der Tat wenig erfreulich und hoffentlich doch nicht ernst gemeint. Da erwarte ich dann ehrlich gesagt aber auch vom Hersteller, dass er sowas nicht in der Form auf den Markt schmeißt, wenn der Verbrauch sich nicht fixen lässt, sondern innerhalb des erwartbaren liegt.
Das sind ja immerhin nicht nur 10W, von denen wir hier reden.
Lawmachine79
2022-12-12, 20:38:48
Ich freue mich für die AMD-Community, dass sie nach 26 Monaten endlich auch eine 3090 kaufen können.
Daredevil
2022-12-12, 20:39:26
Das ist in der Tat wenig erfreulich und hoffentlich doch nicht ernst gemeint. Da erwarte ich dann ehrlich gesagt aber auch vom Hersteller, dass er sowas nicht in der Form auf den Markt schmeißt, wenn der Verbrauch sich nicht fixen lässt, sondern innerhalb des erwartbaren liegt.
Das sind ja immerhin nicht nur 10W, von denen wir hier reden.
Sie können ja gerne überraschen, meinetwegen ist es auch ein "PR Mittel", damit man das mit dem nächsten Treiber fixed und man dann die Fanboys erheitert, dass alle Probleme mit dem Treiber gefixed werden, schwach ist es trotzdem.
Wenn sie aber sagen, es sei normal, dass der Lüfter ( !!! ) läuft im Idle, werden wir schlicht nie unter 50w oder sowas kommen, trotz dickem Lüfter.
Hier die Stelle von PCGH mit dem Statement von AMD zum Thema Stromverbrauch:
https://youtu.be/PMgC7j47vOs?t=1363
dargo
2022-12-12, 20:41:46
Naja also ~60~80% in Ultra HD sind schon gefühlt doppelt so schnell von der Balkenlänge. :D
Lass besser deine Gefühle bei Mathematik raus. X-D
Linmoum
2022-12-12, 20:42:06
Ich mach's noch mal für alle direkt hier sichtbar:
https://i.gyazo.com/53733cac6cb5b364304cefe797ae6d62.jpg
Oder als tl;dr: Es ist kein (klassicher) Treiber-Bug.
Troyan
2022-12-12, 20:44:46
Äh, die Monitore sind alle mit DP1.4a angeschlossen. Also nix mit DP2.1 und so. Das kann nur ein Bug sein oder aber der Displaycontroller ist komplett im Arsch.
Hayab
2022-12-12, 20:47:13
Ich mach's noch mal für alle direkt hier sichtbar:
https://i.gyazo.com/53733cac6cb5b364304cefe797ae6d62.jpg
Oder als tl;dr: Es ist kein (klassicher) Treiber-Bug.
Not a bug, a feature
:devil:
Daredevil
2022-12-12, 20:48:22
Der Memory Clock geht auf jeden Fall hoch hinaus bei Multimonitor, während die GPU mit 1-2 Mhz taktet.
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/38.html
https://abload.de/img/screenshot2022-12-122sle73.png
PS: Bei der 6900xt geht der Speichertakt bei "Media" auch sofort hoch, hier ist MM aber nicht kaputt.
https://abload.de/img/screenshot2022-12-122fzfks.png
BlacKi
2022-12-12, 20:51:51
die voltage sieht eher gering aus, aber der verbrauch ist trotzdem zu hoch.
Linmoum
2022-12-12, 20:54:21
Hoher Speichertakt bei AMD ist ja nichts neues. Hat trotzdem nie dazu geführt, dass der Verbrauch der Karten im Idle/MM/YT derart explodiert ist.
aufkrawall
2022-12-12, 20:56:35
Hoher Speichertakt bei AMD ist ja nichts neues. Hat trotzdem nie dazu geführt, dass der Verbrauch der Karten im Idle/MM/YT derart explodiert ist.
Joa, hat sich jetzt mehr als verdoppelt. Mir schwant, die altbekannte Unfähigkeit das in den Griff zu bekommen + Chiplet-Design ist keine gute Mischung...
die voltage sieht eher gering aus, aber der verbrauch ist trotzdem zu hoch.
Das Review kam exakt ein bis zwei Tage zu früh
Ja erst kaufen und dann veralbert fühlen.
RoNsOn Xs
2022-12-12, 21:08:29
Hmmm. Ich mag AMD und dachte da kommt mehr.
Aber so?
nVidia´s Technik super, aber sauteuer.
AMD technisch okay, aber auch nicht im dem Verhältnis besser als dass ich sie gegenüber nVidia bevorzugen würde.
Exakt so gehts mir auch.
Ich hätte mir wirklich eine günstige Alternative gewünscht und hätte AMDs Karte wirklich gemocht, aber sie lassen selbst mir keine Chance den Schritt zu wagen. Dann vllt mit dem Refresh next year hoffentlich :)
Uiuiuiuiui, da hängt der Haussegen aber gewaltig schief... ;D
Sorry ich kann auf deinen Post nicht negativ reagieren. Ich weiß nun hoffentlich nicht nur morgen, dass wir alle nur das sind was wir sind. Out of context-Sorry
raffa
2022-12-12, 21:16:21
Morgen ist der Launch und da gibts den 22.12.1 der einiges der Anfangsholperei beheben wird?
ChaosTM
2022-12-12, 21:20:08
Abwarten. Ich dachte der hohe Multi Monitor/Video Verbrauch sei seit RDNA Geschichte ?
Davor wer das leider ein altbekanntes Problem, das immer erst mit der Zeit mitigiert wurde.
Thomas Gräf
2022-12-12, 21:31:04
Bei einer brandneuen Architektur kann man neue Bugs haben ja.
Aber alte Bugs nimmt man doch bewusst nich noch mit. ;D
user77
2022-12-12, 21:34:47
wie immer, AMD liefert hohe Rohleistung, aber nur durchschnittliche aktuelle Leistung und man soll warten wie sich die Treiber entwickeln...
Ich bin kein nVidia Fan, aber da funktionierts halt einfach... für das ist der Preis zu hoch...
Die Radeon RX 7900 XTX startet am 13. Dezember voraussichtlich um 15:00 Uhr für einen Preis von 1.149 Euro, während die Radeon RX 7900 XT zum selben Zeitpunkt mindestens 1.050 Euro kosten wird
für 999€ oder 899€ wäre es okay
für ich ist eine 6900/6950 xt oder 6800 xt der bessere Deal...
Achill
2022-12-12, 21:52:57
Ein anderer Preis und nicht dieser Desktop-Verbrauch .. das wäre gut gewesen. Entweder es gibt bald für die viele verschiedene Einkommensschichten mehr Gehalt (generell auf den Märkten von NV und AMD) oder aber der Absatz von dGPUs wird weiter zurück gehen.
Morgen ist der Launch und da gibts den 22.12.1 der einiges der Anfangsholperei beheben wird?
"Einiges" eher nicht, aber ein paar Fixes bestimmt. Der Pressetreiber wird Beta 5 genannt und datiert intern auf den 2. Dezember (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1409055&page=1&draft=-1&rank=1).
MfG
Raff
Langlay
2022-12-12, 22:05:08
Ja, in Raster ist die 7900XTX etwas unter meinen Erwartungen rausgekommen, in RT leicht drüber. Aber der Multimonitorverbrauch bei unterschiedlichen Auflösungen ist echt ein krasser Dealbreaker für mich, weil ich genau den Fall hätte das die Karte dann 100W säuft die ganze Zeit.
So richtig sexy ist die Karte irgendwie nicht. Ich werde erstmal abwarten und hoffen das es vielleicht Preissenkungen gibt in ein paar Monaten. Für deutlich unter 1000€ könnte man schonmal drüber nachdenken son Teil mitzunehmen.
Linmoum
2022-12-12, 22:05:37
One thing AMD won't do: Take down the GeForce RTX 4090 that sits at the top of our GPU benchmarks hierarchy. AMD has said that it doesn't feel the need to compete directly against a $1,600 (or more!) graphics card, but several senior people at AMD also indicate that Nvidia's AD102 chip was "bigger than expected" and basically out of reach.
https://www.tomshardware.com/reviews/amd-radeon-rx-7900-xtx-and-xt-review-shooting-for-the-top
Klingt irgendwie logisch, dass AMD von AD102 völlig überrascht worden ist. Aber selbst wenn man intern mit einem deutlich kleineren Die gerechnet hat, dann wäre AD102 ja trotzdem immer noch größer als AD103 gewesen. Und mit dem hat man ja schon seine Probleme (deutlich langsamer in RT, ~Gleichstand in Raster). Selbst ein 500mm² AD102 wäre völlig außer Reichweite gewesen.
IMO ist das größere Problem für AMD aber auch das Powermanagement. Sowohl von Ada als auch vorrangig das von RDNA3. Die haben im September bei der Präsentation die 450W/320W/285W gesehen und haben sich wahrscheinlich insgeheim dabei etwas gefreut. Bis dann die Reviews kamen und man feststellen musste, dass die Karten oftmals nicht im entferntesten diese Limits ausreizen und bei Teillast unheimlich sparsam sind, wohingegen die eigenen Karten selbst da saufen wie die Leute Samstagabend in der Kneipe.
Das wird AMD auch sicherlich nicht urplötzlich mit einem Treiber fixen. Im Prinzip werden sie noch Schadensbegrenzung bei Idle/MM/YT betreiben müssen, aber das war es dann auch in der Hinsicht. Muss man ggf. mit Leben, wenngleich das in Relation zur Konkurrenz, zu diesem Preis und bei den aktuellen Strompreisen fast schon lächerlich ist.
Slipknot79
2022-12-12, 22:15:10
Aber auch eine RTX4090 kommt infrage. :)
Widerstand ist zwecklos. :redface:
Ex3cut3r
2022-12-12, 22:20:49
Also für 700€ wärs vlt. gar nicht mal so übel. Was bekomme ich dann von einer 3080 Ti?
+5% in RT und + 30-50% im Raster. Naja....Abstriche bei DLSS, Stromverbrauch gleich....Naja.
Warten auf die 4080 Ti mit AD102 Chip. :)
aufkrawall
2022-12-12, 22:24:39
+5% in RT und + 30-50% im Raster. Naja....Abstriche bei DLSS, Stromverbrauch gleich....Naja.
+Performance-Ausfälle wie in GotG RT...
Warten auf die 4080 Ti mit GA102 Chip. :)
Die hatte ich bis vor ein paar Tagen auch erwartet. Nun ist aber klar, dass Nvidia die XTX auch mit einem hochgeballerten AD103 kontern könnte. Mit gleicher Speichermenge (also nix mit 20 GiB) und zehn Prozent mehr Leistung. Hoffen wir, dass es trotzdem ein AD102 Salvage wird, weil genug Reste anfallen.
MfG
Raff
Shink
2022-12-12, 22:26:20
Gibt es schon undervolting-Tests?
(Das klingt wie damals bei Polaris: Der Chip braucht mehr Spannung und mehr TDP-Budget um konkurrenzfähig zu sein - in Endeffekt war er mit Undervolting dann sogar schneller)
[dzp]Viper
2022-12-12, 22:28:52
Gibt es schon undervolting-Tests?
Ja auf Computerbase
nordic_pegasus
2022-12-12, 22:31:05
@raff
war Euer Sample der 7900XTX unauffällig bzgl. Spulenfiepen bzw. -rasseln? Einige Tests erwähnen es, andere gar nicht. Die Aufnahmen von Igor haben mich von der Referenzkarte abspringen lassen.
Linmoum
2022-12-12, 22:31:45
+Performance-Ausfälle wie in GotG RT...Ist mir generell schon aufgefallen, dass die Karten vor allem bei den Lows scheinbar gerne mal Probleme haben. Spider-Man MM ist auch so ein Kandidat.
https://abload.de/thumb/1245sjfy0.png (https://abload.de/image.php?img=1245sjfy0.png)
Ex3cut3r
2022-12-12, 22:32:00
+Performance-Ausfälle wie in GotG RT...
Ich nehme mal an, du meinst das hier?
https://abload.de/img/neuesprojekty0d9d.png
Sieht mir nach Treiber Bug aus, die Min. FPS fallen stark ab, warum auch immer.
EDIT: Linmoum war schneller. :redface:
@raff
war Euer Sample der 7900XTX unauffällig bzgl. Spulenfiepen bzw. -rasseln? Einige Tests erwähnen es, andere gar nicht. Die Aufnahmen von Igor haben mich von der Referenzkarte abspringen lassen.
Schau dir mal diese viel zu infoschwangere Seite an: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/ :D
"Negativ aufgefallen ist uns jedoch die Neigung zum Spulenfiepen: Bei vierstelligen Bildraten, welche es mittels Framelimits zu vermeiden gilt, schreien beide AMD-Grafikkarten regelrecht; das Ausmaß des reinen Fiepens (!) rangiert bei 0,5 bis 1,1 Sone. Letzteres konnten wir im altehrwürdigen Worstcase-Test - dem Witcher-3-Hauptmenü bei hoher Auflösung - provozieren. Bei typischen zwei- bis dreistelligen Bildraten tritt hingegen ein Zischen oder Rattern auf, das nur unwesentlich lauter ist als bei anderen Grafikkarten dieser Wattklasse."
Ebenfalls einen Blick wert:
"Da uns die große Lautheits-Differenz zwischen XT und XTX stutzen ließ, haben wir weitere Messungen mit unterschiedlichen Lüfterdrehzahlen angestellt. Besonders interessant: Die 7900 XTX erzeugt bei gleicher Laufleistung eine deutlich höhere Lautheit als die 7900 XT."
MfG
Raff
Exxtreme
2022-12-12, 22:34:54
Widerstand ist zwecklos. :redface:
:P :P :P
Die 7900XTX ist für mein Spiele-Portfolio eigentlich eine sehr gute Grafikkarte. Aber ich habe ein Multimonitor-Setup. Und 100 W Verbrauch sind echt nicht tragbar. Die RT-Performance juckt mich nicht. Das einzige RT-Spiel, was ich habe ist WoW. Aber damit hat schon RDNA2 keine Probleme. Und mal ehrlich, RT-Performance auf RTX3090Ti-Niveau war vor einem Monat noch top. :)
Redneck
2022-12-12, 22:39:02
@Raff : schönes Video Review.
Am Ende musste ich aber schmunzeln bzgl deines Kommentares zur 4080 RT Leistung..
"deutlich, teilweise auch fühlbar schneller".
Achso.. 100 RT Spiele gibt es deiner Meinung nach.. Wieviel % sind das von allen verfügbaren Spielen.. Gibt es da Zahlen? Würde das mal gerne in Relation gesetzt sehen.
[...] Das einzige RT-Spiel, was ich habe ist WoW. Aber damit hat schon RDNA2 keine Probleme. [...]
Najaaa ... (https://www.pcgameshardware.de/World-of-Warcraft-Dragonflight-Spiel-73654/Specials/WoW-Dragonflight-Benchmarks-Anforderungen-1408516/2/) :D
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81830&stc=1&d=1670881233
MfG
Raff
Lawmachine79
2022-12-12, 22:57:45
Das Review kam exakt ein bis zwei Tage zu früh
Allerdings kam die Karte 2 Jahre zu spät. Da ist das frühe Review etwas tröstend.
Najaaa ... (https://www.pcgameshardware.de/World-of-Warcraft-Dragonflight-Spiel-73654/Specials/WoW-Dragonflight-Benchmarks-Anforderungen-1408516/2/) :D
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81830&stc=1&d=1670881233
MfG
Raff
Ist doch top. AMD schlägt Intel deutlich.
Wirklich ekelhaft ist nur, wie AMD den Display-Anschluss-Vorteil versemmelt (Leistungsaufnahme).
Ich verstehe aktuell eh nicht, warum alle auf DP 2.1 rumreiten. Ein Feature,
das bis Mitte nächsten Jahres absolut nutzlos ist
aktuell keinen Mehrwert bietet
wenn, dann eh nur Monitore befeuern kann, die mindestens oder mehrfach teurer sind als die aktuell teuerste GPU
die aktuell kaum von einer aktuellen GPU sinnvoll befeuern können
und eh nur maximal 0,0001% der Spieler in den nächsten 2-4 Jahren betreffen wird, die sich auch entsprechende Monitore kaufen werden.
diejenigen, die sich solche Monitore kaufen, werden dann auch in 1-2 Jahren zu einer 5090 oder anderes wechseln.
Prinzenrolle
2022-12-12, 23:05:30
Raff im Video "Warum sind die so billig." :biggrin:
Rafft er einfach nicht.^^
Preis der Leistung entsprechend würd ich sagen.
y33H@
2022-12-12, 23:06:30
RTX 4080 Ti mit AD103 Vollausbau bitte, danke.
Vita Brevis ars Longa
2022-12-12, 23:19:39
Na ja, preiswerter als die 4080, aber auch langsamer.
CBs Einschâtzung ist da sehr nüchtern:
Aus den Perspektiven Leistung und Effizienz betrachtet, ist die GeForce RTX 4080 die bessere Grafikkarte als die Radeon RX 7900 XTX. Das gleicht auch der mit 24 GB (XTX) bzw. 20 GB (XT) schön große Speicher nicht aus.
Das Modell ist selbst mit der kürzlich vorgenommenen Preissenkung auf 1.399 Euro und einer Lieferbarkeit ab 1.350 Euro nicht nur sehr teuer, sondern schlussendlich zu teuer, wenn man den großen Abstand zur GeForce RTX 4090 bedenkt. Hier hat Nvidia AMD ein großes Scheunentor offen gelassen, durch das die zwei Radeons nun auch mit Wucht fahren. Radeon RX 7900 XTX und Radeon RX 7900 XT sind zwar keinesfalls günstig, sondern mit über 1.000 Euro ebenfalls hochpreisig angesetzt. Allerdings übertreiben es die zwei Produkte deutlich weniger.
Also preiswerter als Nvidia, aber immer noch teuer.
Prinzenrolle
2022-12-12, 23:28:00
RTX 4080 Ti mit AD103 Vollausbau bitte, danke.
Ist was für anfang Februar für 1299 im Januar kommt erst Mal die RTX Titan mit 48GB Speicher für 2299 Dollar und + 15% auf die 4090.
DrFreaK666
2022-12-12, 23:32:20
Ist was für anfang Februar für 1299 im Januar kommt erst Mal die RTX Titan mit 48GB Speicher für 2299 Dollar und + 15% auf die 4090.
Genau. Und die 4080 ist 30% schneller als die 7900XTX bei The Witcher 3 :lol:
Spring
2022-12-12, 23:52:14
Mal was zum Schmunzeln & zum Auflockern:
https://abload.de/img/amdvsnvidiabychatgpt4yijx.jpg
Mit chatGPT erstellt, hab mir vier Namen aus dem Thread genommen, ist ganz nett geworden, abgesehen von dem Sprachumbruch mitten im Text.
Linmoum
2022-12-13, 00:27:28
https://www.club386.com/wp-content/uploads/2022/12/26630664RadeonRX7900XTX-06.png
Software scheint bei AMD mal wieder on point für einen Launch zu sein. *seufz*
DrFreaK666
2022-12-13, 00:34:56
Die Treiber sind nicht so der Hit.
Was ist da los?
fast schon ein Anti-Treiber :O echt bitter.
(meine 6700 XT hat 339,76 ^^)
Ich habe hier immerhin ~237 Fps erreichen können, plus 9,3 Prozent gegenüber MS aus (~95 Fps). ;D Zum Vergleich, sogar eine treiberwackelige Arc A770 kommt mit aktivem Mesh Shading auf ~440 Fps - und, wie die 7900 XTX, ~95 Fps mit MS aus.
MfG
Raff
Sumpfmolch
2022-12-13, 01:20:10
Da wird meine 23 Monate alte 1000€ 6900XT wohl noch eine Weile im Rechner bleiben...
Thomas Gräf
2022-12-13, 01:30:35
hehe Anti-Treiber :biggrin:
Mir tun schon die Augen weh vom vielen Reviews lesen.
Achje schon Scheibenkleister, es sind paar Macken die stören. OK, das die 4090 King bleibt war ja klar.
Aber auch ich fand es überraschend das eine XTX im RT besser aufgeholt hat als im Raster. Man dat Raster ist viel zu knapp zur 4080. AMD was habt ihr geraucht? ;)
RT werden sie mal in den Griff bekommen zumal wenn sich plattformübergreifend Standards entwickeln.
Aber an den Hausaufgaben scheitert es derzeit noch mächtig...
Puh, jetzt'n Bier aufmachen draussen ums Eck gehen und bissl abkühlen.
Nightspider
2022-12-13, 02:47:29
Raff könntest du mal bitte testen, wie stark die Leistung einbricht, wenn du den VRAM 10, 20 und 30% niedriger takten lässt?
Mich würde es brennend interessieren, ob die Karte die ganze Bandbreite benötigt, wenn der Cache schon 5,3TB/s liefert.
Und ob man die paar zusätzlichen Watt nicht sinnvoller in das GCD pumpt.^^
Digidi
2022-12-13, 05:20:44
Ich habe hier immerhin ~237 Fps erreichen können, plus 9,3 Prozent gegenüber MS aus (~95 Fps). ;D Zum Vergleich, sogar eine treiberwackelige Arc A770 kommt mit aktivem Mesh Shading auf ~440 Fps - und, wie die 7900 XTX, ~95 Fps mit MS aus.
MfG
Raff
Hallo Raff kannst du diesen Test bitte hier mal ausführen der Bezieht sich auch auf Mesh Shader. Wir brauchen mehr Syntethische Tests....
Hallo wer könnte sich mal mit einer 4090 die Zip hier runterladen und das durchbenchen? Wahrscheinlich geht nur Vulkan unter Windows 11 zumindest bei mir:
aufrühren dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0
Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/
Wenn jemand das mit einer 6900xt noch macht wäre auch nice.
Zur info eine 3070:
Mesh Instance Tris: 9.10 B/S
Mesh Prmitive 64x84: 5.5 B/s
Mesh Indexing: 64x84: 5,26 B/s
Mult DrawIndirext 64x84: 9.09 B/s
Mesh Shader: 9.21 B/s
Compute Shader: 14,48 B/s
Kriegsgeier
2022-12-13, 06:40:22
Ich bin wirklich sauer auf AMD - ohne jegliche Ironie!
Ja, ich bin sauer!
Wie kann man ein Produkt über 2 Jahre in der Entwicklung haben und dann halbfertiges Produkt rausbringen?
Über Treiber spreche ich nicht mal!
Wirklich unterirdisch was AMD sich da geleistet hat. Und dann zu solchen Preisen ein unfertige Wahre versuchen zu verkaufen?
Ich hoffe wirklich, dass der Markt das nicht OK findet und die Karten wie Ziegelsteine in den Regalen liegen bleiben!
Lieber eine RTX 4080 oder 4090 - diese karten bieten wesentlich rundere Produkte und das trotzt der relativ hohen Preise!
Wahrscheinlich werden andere Karten in rein monolithischer Aufbau wesentlich weniger Probleme haben!
Lanicya
2022-12-13, 06:54:02
Lieber eine RTX 4080 oder 4090 - diese karten bieten wesentlich rundere Produkte und das trotzt der relativ hohen Preise!
Und damit weiter zu signalisieren „wir sind bereit noch mehr zu zahlen“? Kann doch nicht ernsthaft die Lösung sein.
Oder man geduldet sich noch ein paar Monate und schaut was man da noch optimieren kann. Man muss doch nicht immer gleich zu Release kaufen oder?
Gruß
Kriegsgeier
2022-12-13, 06:57:37
das ist natürlich richtig, nur WARUM veröffentlicht AMD solch ein Produkt überhaupt? Es ist doch eine Zumutung für die Erstkunden, oder?
Vor Allem, wenn man bedenkt, dass genau diese Erstkäufer ja auch oft noch die größten Fanboys sind - und dann "bestraft" man so gesehen seine beste Kundschaft am meisten?
Ne, da habe ich kein Pardon für AMD!
das ist natürlich richtig, nur WARUM veröffentlicht AMD solch ein Produkt überhaupt?Stand doch hier irgendwo, das bei RDNA3 irgendwas kaputt ist und erst mit 8xxx gefixt wird oder war das nur ein Gerücht?
digidoctor
2022-12-13, 07:25:15
Ist mir generell schon aufgefallen, dass die Karten vor allem bei den Lows scheinbar gerne mal Probleme haben. Spider-Man MM ist auch so ein Kandidat.
https://abload.de/thumb/1245sjfy0.png (https://abload.de/image.php?img=1245sjfy0.png)
Warum wird hier ständig scheinbar geschrieben, obwohl anscheinend gemeint ist?
SamLombardo
2022-12-13, 07:25:49
.
Aber auch ich fand es überraschend das eine XTX im RT besser aufgeholt hat als im Raster. Man dat Raster ist viel zu knapp zur 4080. AMD was habt ihr geraucht? ;)
RT werden sie mal in den Griff bekommen zumal wenn sich plattformübergreifend Standards entwickeln.
Und genau das finde ich eine gute Sache. Dass sie beim Rasterizing auf 4080 Niveau liegt.. geschenkt. Ob Call of Duty mit 100 fps oder 95 fps läuft ist doch in der Praxis wenig relevant, das interessiert allenfalls die Benchmarker. Raytracing ist jetzt auf dem Niveau der 3090 und damit voll nutzbar. Raytracing ist die Zukunft, ob man das wahrhaben will oder nicht. Insofern keine schlechte Entwicklung bei AMD.
Neurosphere
2022-12-13, 07:32:00
Stand doch hier irgendwo, das bei RDNA3 irgendwas kaputt ist und erst mit 8xxx gefixt wird oder war das nur ein Gerücht?
Erstmal sind alles nur Gerüchte. Einen Bug wird man aber vermutlich schon in einer 7950 fixen können. Die generelle Effizienz und evtl. Probleme der Arch aber erst mit RDNA4.
RoNsOn Xs
2022-12-13, 07:39:58
das ist natürlich richtig, nur WARUM veröffentlicht AMD solch ein Produkt überhaupt? Es ist doch eine Zumutung für die Erstkunden, oder?
Vor Allem, wenn man bedenkt, dass genau diese Erstkäufer ja auch oft noch die größten Fanboys sind - und dann "bestraft" man so gesehen seine beste Kundschaft am meisten?
Ne, da habe ich kein Pardon für AMD!
Das ist die logische Konsequenz aus der Vergangenheit. AMD, als auch NVidia-Käufer waren bereit kaputte und zu teure Produkte zu kaufen. Das funktioniert scheinbar/anscheinend erneut, wie man seit 2 Monaten sieht.
Dampf
2022-12-13, 07:46:14
Ich bin wirklich sauer auf AMD - ohne jegliche Ironie!
Ja, ich bin sauer!
Wie kann man ein Produkt über 2 Jahre in der Entwicklung haben und dann halbfertiges Produkt rausbringen?
Über Treiber spreche ich nicht mal!
Wirklich unterirdisch was AMD sich da geleistet hat. Und dann zu solchen Preisen ein unfertige Wahre versuchen zu verkaufen?
Ich hoffe wirklich, dass der Markt das nicht OK findet und die Karten wie Ziegelsteine in den Regalen liegen bleiben!
Lieber eine RTX 4080 oder 4090 - diese karten bieten wesentlich rundere Produkte und das trotzt der relativ hohen Preise!
Wahrscheinlich werden andere Karten in rein monolithischer Aufbau wesentlich weniger Probleme haben!
Besser als 4090's die abfackeln.
dargo
2022-12-13, 07:54:34
Ebenfalls einen Blick wert:
"Da uns die große Lautheits-Differenz zwischen XT und XTX stutzen ließ, haben wir weitere Messungen mit unterschiedlichen Lüfterdrehzahlen angestellt. Besonders interessant: Die 7900 XTX erzeugt bei gleicher Laufleistung eine deutlich höhere Lautheit als die 7900 XT."
MfG
Raff
Inwiefern ist das jetzt interessant bzw. überraschend? Die Lüfter der XTX sind größer und da die Anzahl dieser gleich bleibt sind sie bei gleicher Drehzahl logischerweise lauter.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.