PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15

Sardaukar.nsn
2022-12-13, 07:55:56
Besser als 4090's die abfackeln.

Von den über 100.000 die ausgeliefert wurden, sind jetzt wie viele zum Garantiefall geworden? 0,01%? Dabei sind Fehler durch den Kunden beim Zusammenbau nicht mal ausgeschlossen.

@Topic: Die Effizienz könnte bei den 7900er noch besser sein, aber die Leistung ist doch genau da wo man vermutet hatte. Zudem günstiger als 4080. Okay, aber halt keine Wunderwaffe.

Sumpfmolch
2022-12-13, 07:58:36
@Topic: Die Effizienz könnte bei den 7900er noch besser sein, aber die Leistung ist doch genau da wo man vermutet hatte. Zudem günstiger als 4080. Okay, aber halt keine Wunderwaffe.

Dass man sich bei den Treibern wieder so in die Nesseln setzt, hätte ich aber nicht erwartet. Das war schon bei RDNA2 monatelang ein Chaos beim Stromverbrauch @Multimonitor und @Videoplayback.

Und jetzt schon wieder? Ernsthaft?

Redneck
2022-12-13, 08:01:13
Und genau das finde ich eine gute Sache. Dass sie beim Rasterizing auf 4080 Niveau liegt.. geschenkt. Ob Call of Duty mit 100 fps oder 95 fps läuft ist doch in der Praxis wenig relevant, das interessiert allenfalls die Benchmarker. Raytracing ist jetzt auf dem Niveau der 3090 und damit voll nutzbar. Raytracing ist die Zukunft, ob man das wahrhaben will oder nicht. Insofern keine schlechte Entwicklung bei AMD.

Sehe ich auch so.. Allerdings gibt es bei N31 zu viele "aber" und das passt nicht ins Bild (Preis und Anspruch/Marketing AMDs sowie darauf aufgebauter Erwartungen der Kundschaft).
N31 liefert in RT gut ab (besser als Erwartet dafür weniger in RZ, was gerade die Fraktion verschreckt, die RZ von der Wichtigkeit her immer noch höher eingeordnet haben).
Ein niedrigerer Preispunkt erklärt und entschuldigt auch nicht die Kinderkrankheiten.. Für über €1000 darf man schon ein ausgereifteres Produkt erwarten.
Wer auch immer das bei AMD entschieden hat auf Zwang noch das Weihnachtsgechäft mitzunehmen, hat der Firma und den Fans keinen Gefallen damit getan. Eine offene Kommunikation, das es noch Probleme gibt und der launch dadurch verschoben werden muss, hätte professioneller gewirkt und Vertrauen geschaffen.

dargo
2022-12-13, 08:07:26
Und genau das finde ich eine gute Sache. Dass sie beim Rasterizing auf 4080 Niveau liegt.. geschenkt. Ob Call of Duty mit 100 fps oder 95 fps läuft ist doch in der Praxis wenig relevant, das interessiert allenfalls die Benchmarker. Raytracing ist jetzt auf dem Niveau der 3090 und damit voll nutzbar. Raytracing ist die Zukunft, ob man das wahrhaben will oder nicht. Insofern keine schlechte Entwicklung bei AMD.
Wie ich immer diese Argumente die keine sind liebe. :rolleyes: Ist es auch uninteressant ob ein APT:R mit 39fps oder 63fps läuft?
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/4/

Die Zukunft ist nicht Raytracing sondern der hybride Ansatz!

Rancor
2022-12-13, 08:08:22
Und genau das finde ich eine gute Sache. Dass sie beim Rasterizing auf 4080 Niveau liegt.. geschenkt. Ob Call of Duty mit 100 fps oder 95 fps läuft ist doch in der Praxis wenig relevant, das interessiert allenfalls die Benchmarker. Raytracing ist jetzt auf dem Niveau der 3090 und damit voll nutzbar. Raytracing ist die Zukunft, ob man das wahrhaben will oder nicht. Insofern keine schlechte Entwicklung bei AMD.
Raytracing ist imho abseits der 4090 nicht vernünftig nutzbar. 4080 auch nur mit DLSS 3. Zumindest bei Auflösungen beyond 3440x1440.

Rancor
2022-12-13, 08:15:04
das ist natürlich richtig, nur WARUM veröffentlicht AMD solch ein Produkt überhaupt? Es ist doch eine Zumutung für die Erstkunden, oder?
Vor Allem, wenn man bedenkt, dass genau diese Erstkäufer ja auch oft noch die größten Fanboys sind - und dann "bestraft" man so gesehen seine beste Kundschaft am meisten?

Ne, da habe ich kein Pardon für AMD!

Junge, komm mal runter. Es ist nur ne Grafikkarte….

SamLombardo
2022-12-13, 08:24:15
Raytracing ist imho abseits der 4090 nicht vernünftig nutzbar. 4080 auch nur mit DLSS 3. Zumindest bei Auflösungen beyond 3440x1440.
Ja, ist halt immer eine Frage des Anspruchs. Wenn man von Minimum 60 fps ausgeht dass du recht ...und dennoch: der Raytracing worst case Cyberpunk lief mit der 3090 in 4k RT ultra (mit DLSS2) mit ~35-40fps. Das ist schon okay spielbar und die RDNA 2 Radeons konntest du da vergessen. Wenn das jetzt mit der 7900 so läuft ist das nicht übel. Ohne DLSS (bzw AMD Pendants) braucht es in der Tat noch ein/zwei Generationen.

dargo
2022-12-13, 08:28:32
Ja, ist halt immer eine Frage des Anspruchs. Wenn man von Minimum 60 fps ausgeht dass du recht ...und dennoch: der Raytracing worst case Cyberpunk lief mit der 3090 in 4k RT ultra (mit DLSS2) mit ~35-40fps. Das ist schon okay spielbar und die RDNA 2 Radeons konntest du da vergessen.
35-40fps gut spielbar? Ist halt ne Frage des Anspruchs.

DozerDave
2022-12-13, 08:29:13
das ist natürlich richtig, nur WARUM veröffentlicht AMD solch ein Produkt überhaupt? Es ist doch eine Zumutung für die Erstkunden, oder?
Vor Allem, wenn man bedenkt, dass genau diese Erstkäufer ja auch oft noch die größten Fanboys sind - und dann "bestraft" man so gesehen seine beste Kundschaft am meisten?

Ne, da habe ich kein Pardon für AMD!

Hatte AMD schon öfter gemacht: Bananenprodukt, reift beim Kunden.
Schau mal zu Intel und deren neuen Grafikkarten, da siehst Du das gleiche.

Rancor
2022-12-13, 08:29:36
Ich glaube das selbst im Witcher 3 Remaster auf den Ultra+ PC Settings unterhalb der 40er Karten nicht viel gehen wird.

35-40fps gut spielbar? Ist halt ne Frage des Anspruchs.
Ich halte das auch nicht für spielbar und bei DLSS und auch bei FSR kann man die Einstellungen unterhalb vom Setting "Qualität" auch in die Tonne kloppen.

dargo
2022-12-13, 08:30:42
Ich glaube das selbst im Witcher 3 Remaster auf den Ultra+ Settings PC Settings unterhalb der 40er Karten nicht viel gehen wird.
Logisch... CDPR "schläft" auch mit Nvidia. :D

Rancor
2022-12-13, 08:32:23
Logisch... CDPR "schläft" auch mit Nvidia. :D
Aber immerhin gibts FSR 2.1 :D

Freestaler
2022-12-13, 08:33:44
Hatte AMD schon öfter gemacht: Bananenprodukt, reift beim Kunden.
Schau mal zu Intel und deren neuen Grafikkarten, da siehst Du das gleiche.

Naja, wenn wir das Boot fahren darf NV einsteigen. Idle Power, DislpayBug wurde doch auch bei der 4090 erst nach den Review im Treiber gefixt.

dargo
2022-12-13, 08:36:56
Aber immerhin gibts FSR 2.1 :D
Da hätte es schon FSR 2.2 geben müssen. :P Spaß... ;)

SamLombardo
2022-12-13, 08:40:40
35-40fps gut spielbar? Ist halt ne Frage des Anspruchs.
Es ist okay spielbar, ich habe es so gespielt und es war "okay". Nicht "gut". Ich bin aber auch kein High fps Spieler, mir ist die Grafik wichtiger. Deswegen wähle ich bei der PS5 auch immer den Auflösungsmodus:D. Eben wie gesagt, eine Frage des Anspruchs und der eigenen Präferenzen.

Steve1
2022-12-13, 08:47:29
Ich habe damals Max Payne 1 mit 8 - 10 fps gespielt, alles eine Frage der Sichtweise. 30 - 40 fps für Cyberpunk ist schon richtig gut

Redneck
2022-12-13, 09:10:26
Ich habe damals Max Payne 1 mit 8 - 10 fps gespielt, alles eine Frage der Sichtweise. 30 - 40 fps für Cyberpunk ist schon richtig gut
Hast Du das damals auf nem Emulator gespielt ? wie kriegt man denn das hin ?

N31 suckt mir zu viel elektrische Leistung und UV kann auch nicht immer die Lösung sein.
Würde mal gerne ein paar VR Benchmarks (echte Games.. keine Synthies) sehen und eine Quali Vergleich des AV1 encoders in Handbrake zu Quicksync und Nvidias pendant.

gnomi
2022-12-13, 09:23:12
Die Karten sind brauchbar, aber imho nicht gut genug.
AMD wird weiterhin klar zweite Geige mit schätzungsweise 20-25% Marktanteil spielen.
Die 4080 ist bald überzeugender, und das ist die schlechteste GPU bei der Konkurrenz.
4090 uneinholbar vorn.
Die 4070 TI wird denke ich mehr Käufer finden, wenn die passend platziert wird.
Und die 30er Serie kann bei Abverkauf mithalten, denn in Sachen RT hat AMD eher mit dieser Generation gleichgezogen.
Bei Far Cry 6 sieht man jedoch mal, wie gut die Karten laufen, wenn alles in der Entwicklung passt.
Da AMD in den Konsolen steckt, sollte es immer auch mal positive Überraschungen geben.
Bin da mal auf Langzeit Betrachtungen gegen 3080TI-3090TI gespannt.
Falsch macht man imho sicherlich nichts mit den Karten.
Sie kosten deshalb eben auch ihr Geld.

Lowkey
2022-12-13, 09:26:23
Ich habe damals Max Payne 1 mit 8 - 10 fps gespielt, alles eine Frage der Sichtweise. 30 - 40 fps für Cyberpunk ist schon richtig gut

Wir haben in den 80ern und 90ern Fußball in Schwarz-Weiss auf 30cm mit <720x576 geschaut:

https://www.welt.de/sport/fussball/article124330542/Neue-Aufnahme-des-Jahrhunderttors-entdeckt.html

soLofox
2022-12-13, 09:27:22
Keine Ahnung wieso hier wieder so groß gemeckert oder sich gar empört wird :biggrin:

Es kommen annähernd die Karten, die vor einem Monat vorgestellt wurden. Die Enttäuschung war schon vor einem Monat groß, so ging's mir auch, aber jetzt bei den Tests gab es doch gar keine bitterböse Überraschung. Wo? Die Leistung ist annähernd da, wo man sie erwartet hat nach der Vorstellung. Der Preis mag 100-200€ zu hoch sein, aber gibt es Alternativen? Nein.
Jeder der jetzt lieber nVIDIA kaufen will, kann ja die 2000€ für eine 4090 ausgeben oder 1400€ für eine 4080.

Mir gefällt die XTX und ich werde bei einer Gelegenheit upgraden.

Mir gefällt auch die 4090, aber abgesehen davon dass nVIDIA ein unfassbar arroganter Laden geworden ist und ich schon aus Prinzip Käufe aus dem Lager boykottiere, sind mir 2000€ dann doch zuviel des Guten. Auch, wenn ich den Kühler verdammt sexy finde und die Größe mich nicht stört :usad:


Hate more :usweet:

3d
2022-12-13, 09:35:12
die karte wäre nicht so schlecht, wenn der verbrauch in teillast und 2D sinken würde.
mir auch ein rätsel warum AMD so ein produkt auf die weltbühne wirft.
First Launch, Alle Augen auf AMD.
und dann sowas?

Rolsch
2022-12-13, 09:39:52
Keine Ahnung wieso hier wieder so groß gemeckert oder sich gar empört wird :biggrin:

Die Leistung ist OK! Was halt für mich enttäuschend ist das die Karten so unfertig wirken. FSR 3 mit Fluid Motion gibts noch nicht mal als Beta. Als Aktionär frage ich mich, was haben die bei AMD die 2 Jahre gemacht? In diesen Zeiten hätte man mit der Effizienz Karte auftrumpfen können, aber Pustekuchen.

dargo
2022-12-13, 09:40:23
Bei Far Cry 6 sieht man jedoch mal, wie gut die Karten laufen, wenn alles in der Entwicklung passt.

Was redest du da wieder für einen Unsinn?

7900XTX FC6 Rasterizer = +46% vs. 6900XT
7900XTX FC6 Rasterizer + RT = +43% vs. 6900XT

Jo... läuft alles gut. ;D

Linmoum
2022-12-13, 09:42:18
Es kommen annähernd die Karten, die vor einem Monat vorgestellt wurden.Naja. Die Raster-Leistung ist schlechter als von AMD beworben und das Marketing mit +54% Perf/Watt sogar eine dreiste Lüge gewesen. Neben den Sauforgien im Idle/MM/YT ist auch die Effizienz in Spielen und insbesondere bei Teillast einfach desaströs. Das ist ein deutlicher Rückschritt gegenüber RDNA2.

Die Karten ziehen selbst in FHD oftmals die volle TBP, was komplett sinnlos ist. Und mit fps-Limit verbraucht eine XTX teils doppelt (!) so viel wie eine 4090 und ist langsamer.

Ich hatte gehofft, dass die Vega-Zeiten vorbei sind und man von der Konkurrenz in der Hinsicht nicht mehr derart abgehängt wird.

Master3
2022-12-13, 09:43:05
Insgesamt wirklich ernüchternd was mit der 7900er Reihe vorgestellt wurde.
Ich zwar nicht mein Metier, aber bei dem Preisbereich über 1000€ wäre für mich nun ganz klar die RTX 4080 vorne.
AMD kann hier nur über den Preis gehen.
Ich finde die gewählten UVPs und die damit resultierenden Euro Preise zu unattraktiv im Vergleich zu Nvidia.

Und dann der hohe Energieverbrauch. Ich finde die 200W der 6700XT schon grenzwertig. Mir kommt da zu viel Wärme aus dem Rechner die ich eigentlich nicht will. An die 300W oder 400W will ich gar nicht denken.

robbitop
2022-12-13, 09:47:35
Da hätte es schon FSR 2.2 geben müssen. :P Spaß... ;)
Interessanterweise hat AMD bis heute FSR 2.2 nicht auf github veröffentlicht.

Exxtreme
2022-12-13, 09:54:10
die karte wäre nicht so schlecht, wenn der verbrauch in teillast und 2D sinken würde.
mir auch ein rätsel warum AMD so ein produkt auf die weltbühne wirft.
First Launch, Alle Augen auf AMD.
und dann sowas?

Wobei man fairerweise sagen muss, die Fixierung auf den Stromverbrauch ist eine sehr deutsche Spezialität. Die Amis z.B. sehen das viel lockerer.

Dural
2022-12-13, 09:57:04
20-25% ??? eher 10-15% mehr werden das auf gar keinen Fall.

Ganz krass wird ja 7900XT vs 4070Ti, gleiche Leistung bei halber Produktionskosten.
Oder anders Ausgedrückt 520mm2 vs 300mm2 Die, 320Bit vs 192Bit.

Die Lisa ist nüchtern Betrachtet gar nicht mehr Tragbar für AMD: Desktop CPUs im freien Fall, Desktop GPUs werden keine grossen Gewinne erzielen. Dazu kommt das die nähere Zukunft (2 Jahre) bei AMD ja ganz Düster aussieht, mit den neuen Intel CPUs nächstes Jahr, und der GPU Zug ist abgefahren.

Hott3X
2022-12-13, 10:02:16
Die Lisa ist nüchtern Betrachtet gar nicht mehr Tragbar für AMD: Desktop CPUs im freien Fall, Desktop GPUs werden keine grossen Gewinne erzielen. Dazu kommt das die nähere Zukunft (2 Jahre) bei AMD ja ganz Düster aussieht, mit den neuen Intel CPUs nächstes Jahr, und der GPU Zug ist abgefahren.

Naja sehe ich anders. Im Datacenter und Semi Bereich wird richtig Kohle gemacht. Versuch grade Mal Server mit Epic zu bekommen.

Und Zen4 ist jetzt nicht schlecht. Da krankt es an den hohen Plattform kosten.
Dazu kommen halt bald die 3D Cache Modelle.

beats
2022-12-13, 10:02:49
Hast Du das damals auf nem Emulator gespielt ? wie kriegt man denn das hin ?

N31 suckt mir zu viel elektrische Leistung und UV kann auch nicht immer die Lösung sein.
Würde mal gerne ein paar VR Benchmarks (echte Games.. keine Synthies) sehen und eine Quali Vergleich des AV1 encoders in Handbrake zu Quicksync und Nvidias pendant.

Da musst du hier Ausschau halten. Guter Kanal! https://youtu.be/HAc7BKnVD6Y

ChaosTM
2022-12-13, 10:05:02
@ Dural Im freien Fall? Was rauchst du für Sachen - haben will! :D

GPU Chiplets sind brandneu. Dass es da zu Anlaufschwierigkeiten kommt war abzusehen.
Früher oder später, spätestens mit der 6er Serie muss sich auch NV intensiver damit beschäftigen - bzw. tun sie das nebenbei wahrscheinlich schon länger.
War der Launch toll? Nein, aber die totale Katastrophe als die sie hingestellt wird, ist sie nicht. Man muss nur am Preis noch etwas (ab)feilen. :)

Si|encer
2022-12-13, 10:05:03
Nach der Preissenkung der 4080 ist die Lage völlig klar.

Wer kauft sich denn eine XTX für 1150 €, wenn es eine 4080 mittlerweile für 1350 gibt. Ist beides Absurd teuer, und wenn man sich dann noch die Leistungsbewertung bei nicht-Spielen anguckt, ist die XTX völlig absolet.
Lediglich Nvidias 3000er Markt dürfte jetzt einbrechen, denn die wiederum sollte jetzt ebenso keiner mehr kaufen, es sei denn man bekommt sie für den halben Preis des Neupreises.

Alleine die 100 Watt im IDLE bei den ab 01.01.2023 stattfindenden Strompreisen von 0,50 Cent/Kwh ist das ein absoluter NoBrainer. Wer oft den Rechner anhat und Arbeitet mit 2+ Monitoren hat die 200 € wahrscheinlich schon im ersten Jahr wieder raus.

dargo
2022-12-13, 10:05:10
Wobei man fairerweise sagen muss, die Fixierung auf den Stromverbrauch ist eine sehr deutsche Spezialität. Die Amis z.B. sehen das viel lockerer.
Bei 16 Cent die kWh auch kein Wunder. ;D

Steve1
2022-12-13, 10:05:18
@Redneck Habe damals Max Payne mit einer TNT 1 Grafikkarte von NVidia und einem K6-2 Prozessor von AMD gespielt 300 MHz.

Matrix316
2022-12-13, 10:06:02
Wobei man fairerweise sagen muss, die Fixierung auf den Stromverbrauch ist eine sehr deutsche Spezialität. Die Amis z.B. sehen das viel lockerer.
Die haben ja auch viel niedrigere Strompreise! :freak:

Mich stört am meisten der Verbrauch in Windows bzw. Youtube. Da ich die meiste Zeit in Windows eigentlich nicht spiele, summiert sich das doch ziemlich mit der Zeit. Wenn ich die Kiste nur zum Zocken anmachen würde, wäre das anders.

Prinzenrolle
2022-12-13, 10:08:40
20-25% ??? eher 10-15% mehr werden das auf gar keinen Fall.

Ganz krass wird ja 7900XT vs 4070Ti, gleiche Leistung bei halber Produktionskosten.

Ich sehe die 4070Ti RT und Raster im Mittel leicht vorne.
-5% in Raster +25% in RT.


Die Lisa ist nüchtern Betrachtet gar nicht mehr Tragbar für AMD: Desktop CPUs im freien Fall, Desktop GPUs werden keine grossen Gewinne erzielen.

Ganz so schlimm auch wieder nicht, aber was ich von der Leistung der neuen Intel Prozessoren gehört habe, dürfte das für AMD gar nicht so geil werden.
Jetzt kommt im Januar erst mal die Titan RTX mit +15 % auf die 4090 und dann wohl im Februar ein leichter 4080 Refresh mit Vollausbau, leicht schnellerem Speicher und ~10% mehr Leistung als Super oder Ti um auch im Raster durchgehend vor AMD zu liegen.
Immerhin senkt Nvidia intern den Preis der 4080 um ein paar Nutschgerl, das heißt die dürfte bald für 1250 zu haben sein.

dargo
2022-12-13, 10:13:30
Nach der Preissenkung der 4080 ist die Lage völlig klar.

Es gab keine Preissenkung bei der 4080, nur eine €/$ Anpassung. Davon profitieren auch AMD-Karten logischerweise.

Ravenhearth
2022-12-13, 10:15:42
Ganz krass wird ja 7900XT vs 4070Ti, gleiche Leistung bei halber Produktionskosten.
Oder anders Ausgedrückt 520mm2 vs 300mm2 Die, 320Bit vs 192Bit.
Du vergleichst Äpfel mit Birnen; Navi31 ist kein monolithischer Chip und die 7900XT kein Vollausbau. Aber ja, die Marge dürfte bei Nvidia deutlich besser sein.

gnomi
2022-12-13, 10:15:54
Was redest du da wieder für einen Unsinn?

7900XTX FC6 Rasterizer = +46% vs. 6900XT
7900XTX FC6 Rasterizer + RT = +43% vs. 6900XT

Jo... läuft alles gut. ;D

Kannst du das auch verlinken statt einfach was rauszuhauen?

https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/4/

Bei PCGH ist die Leistung in Far Cry 6 RT allgemein sehr hoch auf den Karten.
80-90 fps in 4K können sich sehen lassen. RT wird wohl hier auf AMD gleich anbleiben können.
6900XT auf 7900XTX +52%
6900XT auch bereits gute 60 fps.

Raster Performance ist kein Gradmesser mehr bei so schnellen GPU's und immer unwichtiger. Hier wurde Far Cry 6 gar nicht erst ohne RT getestet und da derart verglichen.

ChaosTM
2022-12-13, 10:19:10
Bevor Jensen den Preis offiziell senkt, schneidet er sich einen Körperteil ab. Not happening..
Möglicherweise geht es bei den AIBs schleichend bis auf 1200 runter, aber offiziell wird das nicht passieren.
Außer AMD senkt wirklich massiv, was ich aber auch nicht sehe.

dargo
2022-12-13, 10:19:27
Kannst du das auch verlinken statt einfach was rauszuhauen?

Klar kann ich das. Ich ging davon aus, dass du CB-Tests eigentlich kennst.
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160


Raster Performance ist kein Gradmesser mehr bei so schnellen GPU's und immer unwichtiger.
Blödsinn³.

ChaosTM
2022-12-13, 10:26:55
Kannst du das auch verlinken statt einfach was rauszuhauen?

https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/4/

Bei PCGH ist die Leistung in Far Cry 6 RT allgemein sehr hoch auf den Karten.
80-90 fps in 4K können sich sehen lassen. RT wird wohl hier auf AMD gleich anbleiben können.
6900XT auf 7900XTX +52%
6900XT auch bereits gute 60 fps.

Raster Performance ist kein Gradmesser mehr bei so schnellen GPU's und immer unwichtiger. Hier wurde Far Cry 6 gar nicht erst ohne RT getestet und da derart verglichen.


Far Crys RT ist aber ehrlich gesagt nicht der Rede wert. Eigentlich ists ne reine FPS Bremse ohne viel Benefit. ;)

Linmoum
2022-12-13, 10:27:59
So unbedingt Blödsinn ist das nicht. Hängt davon ab, wie sehr der Fortschritt bei CPUs anhält. Die limitieren eine 4090 schon heute auch in UHD und das ist noch nicht einmal der Vollausbau.

Exxtreme
2022-12-13, 10:43:35
Die haben ja auch viel niedrigere Strompreise! :freak:

Mich stört am meisten der Verbrauch in Windows bzw. Youtube. Da ich die meiste Zeit in Windows eigentlich nicht spiele, summiert sich das doch ziemlich mit der Zeit. Wenn ich die Kiste nur zum Zocken anmachen würde, wäre das anders.

Richtig. Aber eventuell hat sich AMD gedacht, man ignoriert die Deutschen erstmal bei der Produktvorstellung. Die werden zwar meckern deswegen, aber solange ausser denen niemand meckert ist es auch OK. :freak:

Lowkey
2022-12-13, 10:54:29
Der Stromverbrauch im IDLE ist doch seit Jahrzehnten immer wieder ein Problem. Gerade auch mit mehreren Monitoren.

FC6 tanzt aus der Reihe als ob es weder für Intel noch für Nvidia optimiert sei.

Die interessante Frage ist die Frage nach der zukünftigen Finanzierbarkeit von neuer Hardware.

DrFreaK666
2022-12-13, 11:12:49
Logisch... CDPR "schläft" auch mit Nvidia. :D

TW3 scheint ja gut zu performan laut PCGH

SamLombardo
2022-12-13, 11:29:03
TW3 scheint ja gut zu performan laut PCGH
Gibts da schon Benchmarks, bzw irgendwas Neues? Verlink mal.

Badesalz
2022-12-13, 11:49:38
Erinnert bisschen (nicht?) an die ersten Schritte mit Zen und dann Zen+ :rolleyes: bevor das Zeug Fahrt aufnehmen konnte... Erstmal aber egal.

Wenn man jetzt kurz das idle-Problem ausklammert und das Schwurbeln hier oder gar die Lügen der Hohltrolle beiseite schiebt:
Wie schlecht sind die Karten im P/L wirklich, wenn man nicht den seltsamen Ansatz verfolgt, daß es keine finanziellen Schranken gibt und eine Karte mit 1000fps in 4k für 4000€, ein super Deal wäre...

edit:
Das mit den ruckeligen Desktops bei 60Hz war aber eines dicken Lachers wert :D

edit@ Lowkey
Nicht ganz richtig. Das mit 2 Monitoren und Idle war nicht immer wieder ein Problem, sondern war und ist ein Problem. Das funktionierte im Vergleich noch nie richtig gut. Idle mit 1 Monitor war aber imho mit Polaris sehr sehr ordentlich (falls ich was nicht durcheinander bringe).

gbm31
2022-12-13, 11:49:56
Raster Performance ist kein Gradmesser mehr bei so schnellen GPU's und immer unwichtiger.

In VR ist das das einzige wichtige!

KriNemeth
2022-12-13, 11:58:21
VR ist aber nun wirklich eine absolute Randerscheinung. ;)

Exxtreme
2022-12-13, 12:00:26
In VR ist das das einzige wichtige!

Naja, wenn man sich die Steam Charts so anschaut dann ist mehr Rastersizer-Leistung schon komplett an der Masse vorbei entwickelt, RT übrigens genauso. VR ist noch viel nischenhafter.

gbm31
2022-12-13, 12:05:02
Erzählt das den Simmern die ihren PC fast nur dafür nutzen und der Preis einer 4090 im Vergleich zu deren Sim-Hardware Peanuts darstellt...

Das werden in Zukunft die sein, die PC-Gaming noch tragen. Der Rest wird bei den Preisen auf Konsole und APU umsteigen.

Badesalz
2022-12-13, 12:07:57
@gbm
Bis dahin machen wir aber noch 3-4 Grakagenerationen mit ;) Also man kann moch bisschen darüber quatschen bevor das alles obsolet wird ;)

dargo
2022-12-13, 12:08:15
So unbedingt Blödsinn ist das nicht. Hängt davon ab, wie sehr der Fortschritt bei CPUs anhält. Die limitieren eine 4090 schon heute auch in UHD und das ist noch nicht einmal der Vollausbau.
Also braucht niemand eine 4090 aktuell? :freak:

gbm31
2022-12-13, 12:12:46
@gbm
Bis dahin machen wir aber noch 3-4 Grakagenerationen mit ;) Also man kann moch bisschen darüber quatschen bevor das alles obsolet wird ;)

Genauso wie Rasterleistung. :-)

Btw hab ich die Tripple-Monitor-Fraktion komplett unterschlagen...

Naja, wenn man sich die Steam Charts so anschaut dann ist mehr Rastersizer-Leistung schon komplett an der Masse vorbei entwickelt, RT übrigens genauso. VR ist noch viel nischenhafter.

Die Masse kauft auch keine >1000€ Graka. Das ist Nische und genau für diese Nischen da!

Badesalz
2022-12-13, 12:13:21
Naja, wenn man sich die Steam Charts so anschaut dann ist mehr Rastersizer-Leistung schon komplett an der Masse vorbei entwickelt, RT übrigens genauso. VR ist noch viel nischenhafter.Wenn ich mir die "Charts" anschaue, dann wird der N32 als erster RDNA3+ die wichtigste GPU die ATI/AMD seit R500 brachte ;)

edit:
Ist das also noch nicht abschätzbar?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13187601#post13187601

dargo
2022-12-13, 12:26:15
NFu7fhsGymY

:D

Edit:
Das ist auch etwas merkwürdig hier. Bei HWU ist die 7900XTX vs. 6800XT in 1440p bei F1 22 inkl. RT 83% schneller, bei CB sind es "nur" +68%.
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_benchmarks_mit_und_ohne_rt_in_2560__1440

Jemand eine plausible Erklärung für solche Unterschiede in den Benchmarks?

huey
2022-12-13, 12:31:01
Also auch wenn ich mir mehr erhofft hatte so läuft es irgendwie immer nach dem gleichen Muster ab was nach Produkteinführungen von AMD passiert. Wenn das Produkt nicht überall deutlich führt wird es zerrissen. Im Preisbereich der im Grunde auch erst in 4 Wochen bewertet werden kann steht sie doch ganz gut da und zwischen 1150Euro und 1339Euro (genau 1 RTX4080 bei geizhals - eher 1389+) liegen dann auch ein paar Euros die nicht einfach egal sind und noch dazu sind es 24GB zu 16GB. Die 100 Watt im Idle bei einer bestimmten 2 Monitorkonfiguration sind natürlich nicht tragbar, aber es ist eben auch nicht der normale Idle Verbauch den 90% der User haben werden sondern 17 Watt AMD zu 18 Watt Nvidia (PCGH).

Es ist jetzt das erste Produkt mit Chiplets und sicher hat sich auch AMD mehr erhofft und das vielleicht sogar noch bis vor 3 Monaten. Möglicherweise tauchen jetzt auch Probleme auf die es bei den Profikarten so nicht gibt da beim Gaming viel Teillast gefordert ist und das Verhalten bei Chiplets in der jetzigen Konfiguration nicht so funktioniert wie gedacht. Ich lese hier sonst interessiert mit da ich das technisch alles sehr interessant finde, aber es nicht mein Berufsfeld ist und ich im grunde keine Ahnung habe, aber was mir auffällt ist das die AMD Karten auch dann immer an ihrer TDP hängen wenn die Nvida Karten z.B. 100 Watt unter ihrer TDB bleiben in bestimmten Spielen. Bei PCGH fehlt in dieser Tabelle leider die 6900 um einen weiteren Vergleich zu haben ob das dort auch schon so gewesen ist.
Die Frage die ich mir nun stelle ist ob das so gewollt ist da eine technische Beschränkung besteht (Chiplets - Taktwechsel ) oder es noch am Treiber liegt. (eine 100% Auslastung in jedem Spiel kann ich mir kaum vorstellen)

AMD musste als kleiner Hersteller meistens technische Neuentwicklungen schneller bringen als Nvidia oder Intel (Quadcore, HBM Speicher -mitentwickelt, Chiplets bei CPUs etc.) um daraus Kosten- als auch Produktvorteile zu ziehen und das geht halt nicht immer gut oder klappt sofort zu 100% ,aber manchmal tut es das eben doch siehe Ryzen im Profibereich. Sowohl erster Phenom X4, Bulldozer als auch Vega (deutlich weniger) waren in der jeweiligen Preisklasse dann trotzdem Konkurrenzfähig, aber nicht an der Leistungsspitze und sicher waren sie nicht das was man bei neuen Ansätzen erwartet hat. Wenn Nvidia irgendwann auch zu Chiplets wechselt werden sie auch ihre Vorteile aus der Vorarbeit ziehen und wenn es über TSMC ist oder wie jetzt bei HBM im Profibereich.

Hätten sie nun nochmal ein halbes oder 1 Jahr weiterentwickeln sollen oder ein funktionierendes Produkt auf Leistungshöhe oder sogar über der RTX4080 nicht bringen sollen?
Es gibt einen Preisabstand von rund 250Euro und den eingerechnet passt die Vorstellung finde ich, auch wenn das keine Preise sind die ich für ein schnelllebiges Produkt wie eine Grafikkarte bereit bin auszugeben und sie auch durch die Bank weg zu hoch finde.

Ich bin gespannt wie die kleineren Chips abschneiden werden und da vor allem auf den Vergleich zur 7900XT/XTX denn dann wird man möglicherweise sehen ob sich vielleicht doch ein Fehler eingeschlichen hat der AMD den Takt und Verbrauch verhagelt hat.

Raff
2022-12-13, 12:55:56
3DMark-Rangliste 2022: 57 Modelle seit 2014 im Benchmark [Update: RX 7900 XTX und RX 7900 XT] (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/)

Aus der Einleitung: "Der Abstand zwischen Radeon RX 7900 XTX und Geforce RTX 4080 in den 3DMark-Tests Time Spy und Time Spy Extreme deckt sich beinahe haargenau mit dem aktuellen PCGH-Leistungsindex Grafikkarten - während die Speed-Way-Ergebnisse weitestgehend deckungsgleich zu unserem Raytracing-Leistungsindex ausfallen. Der 3DMark erweist sich damit als verlässliche Lösung, die Grafikkartenleistung schnell einzuschätzen, wenn man weiß, wohin man schauen muss."

MfG
Raff

Niall
2022-12-13, 12:59:07
3DMark-Rangliste 2022: 57 Modelle seit 2014 im Benchmark [Update: RX 7900 XTX und RX 7900 XT] (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/)

Aus der Einleitung: "Der Abstand zwischen Radeon RX 7900 XTX und Geforce RTX 4080 in den 3DMark-Tests Time Spy und Time Spy Extreme deckt sich beinahe haargenau mit dem aktuellen PCGH-Leistungsindex Grafikkarten - während die Speed-Way-Ergebnisse weitestgehend deckungsgleich zu unserem Raytracing-Leistungsindex ausfallen. Der 3DMark erweist sich damit als verlässliche Lösung, die Grafikkartenleistung schnell einzuschätzen, wenn man weiß, wohin man schauen muss."

MfG
Raff

Sieht doch prima aus für die beiden AMDs. Ich denke auch, dass da in den nächsten Wochen noch Firmware- und Treiberseitig Optimierungspotenzial gibt.

dargo
2022-12-13, 12:59:44
Die Stromverbrauchsmessungen werden auch immer schwieriger zu deuten. Während die 4080 beim gesamten System 16W weniger in DL2 verbraucht als die 7900XT verbraucht die 4080 in Doom 34W mehr. In Hitman 3 sind es noch 23W mehr für die 4080.
https://youtu.be/NFu7fhsGymY?t=744

btw.
Die merkwürdige Wahl von AMD bei der Lüftersteuerung sieht man bei HWU auch ganz gut. GPU-Hotspot geht gerade mal auf max. 77°C.
https://youtu.be/NFu7fhsGymY?t=878

Völlig überflüssige ~1760RPM an den Lüftern. Die Dinger sollten locker mit <1400RPM auskommen. Es sei denn der GCD darf bei N31 nicht mehr so heiß werden. Bin gespannt ob sich das noch aufklärt. Übrigens ist das Delta zwischen Hotspot und Edge sehr gering. Das hätte ich bei 300mm² anders erwartet.

Lyka
2022-12-13, 13:08:13
ich sag mal so: Auch 1 oder 2 enttäuschende Generationen sind weniger enttäuschend, wenn man sie als Lehrmaterial nutzt für die eigene Entwicklung. Fehlerursachen finden und daran arbeiten. Deshalb bin ich auf die nächste Generation gespannt.

(auch wenn für mich das größte persönliche Debakel die HD 7870 Ghtz -> R9 380 (reines Sidegrade, bis auf doppelten VRAM // und die 5600er, die auch nur 4 GB RAM hatten, und die langsame 5500 8 GB RAM).

Raff
2022-12-13, 13:09:35
Die Stromverbrauchsmessungen werden auch immer schwieriger zu deuten. Während die 4080 beim gesamten System 16W weniger in DL2 verbraucht als die 7900XT verbraucht die 4080 in Doom 34W mehr. In Hitman 3 sind es noch 23W mehr für die 4080.
https://youtu.be/NFu7fhsGymY?t=744

btw.
Die merkwürdige Wahl von AMD bei der Lüftersteuerung sieht man bei HWU auch ganz gut. GPU-Hotspot geht gerade mal auf max. 77°C.
https://youtu.be/NFu7fhsGymY?t=878

Völlig überflüssige ~1760RPM an den Lüftern. Die Dinger sollten locker mit <1400RPM auskommen. Es sei denn der GCD darf bei N31 nicht mehr so heiß werden. Bin gespannt ob sich das noch aufklärt. Übrigens ist das Delta zwischen Hotspot und Edge sehr gering. Das hätte ich bei 300mm² anders erwartet.

Das Zeugs wird schon deutlich heißer: https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1409055&page=5&draft=-1&rank=2

Die Lüftersteuerung agiert zwar manchmal präventiv, am Ende wird die Drehzahl aber gebraucht. AMD macht das nicht aus Spaß - wie die "zu hohen" Spannungen, nebenbei bemerkt. ;) Ich weiß, Besserwisserei kommt nicht gut an, aber grundsätzlich würde ich mir wünschen, dass die einheimische Presse anstelle der oberflächlichen Mega-Youtuber beachtet wird, denn die meisten davon wollen vor allem mit coolen Grafiken schön aussehen, während hierzulande seziert wird.

MfG
Raff

Exxtreme
2022-12-13, 13:10:08
Sieht doch prima aus für die beiden AMDs. Ich denke auch, dass da in den nächsten Wochen noch Firmware- und Treiberseitig Optimierungspotenzial gibt.

Ja. Wenn sie die Stromproblematik in den Griff bekommen dann ist die Grafikkarte dann ganz gut und je nach Spieleportfolio und Geldbeutel die Grafikkarte der Wahl.

dargo
2022-12-13, 13:14:17
Das Zeugs wird schon deutlich heißer: https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1409055&page=5&draft=-1&rank=2

Das ist ne XT was ich da verlinkt habe und keine XTX. Die XTX wird bei HWU auch etwas wärmer, nicht aber so warm wie bei euch.
https://youtu.be/4UFiG7CwpHk?t=1498

Hier hast du noch einen Vergleich zu N21.
https://youtu.be/nxQ0-QtAtxA?t=721

Das da oben ist Edge und kein Hotspot. Der Hotspot wurde afaik bei 95°C gehalten.

dildo4u
2022-12-13, 13:19:59
Ah CB hat ja direkt das Treiber Team angesprochen, laut Moores law Video müssen die über Weihnachten arbeiten.
Macht Sinn mit den derzeitigen Werten sind 7900xt und 4070Ti vermutlich dicht beisammen.

Hatstick
2022-12-13, 13:23:58
Wie manch andere hier schreiben, da schließe ich mich gerne an.
Eine absolute Frechheit was AMD hier abgeliefert hat, Karte auf RTX 4080 Niveau. Absoluter Crap, sowas würde ich noch nicht mal für 500€ nehmen! * Ironie aus *

Solide Karte wie erwartet auf RTX 4080, Topfmodell 100-150€ zu teuer.
900€ für die kleine und max. 1050€ für die größere Karte und dann wäre die Wiese grün. So sind sie noch ein Schnack zu teuer aber um gottes Willen, hier wird ja getan, als wenn das absolute Schrottkarten sind.

Ich finde sie durchaus solide aber bin vielleicht auch mit bissl weniger zufrieden.

Rancor
2022-12-13, 13:24:41
JO ich denke AMD wird etwas mit den Preisen runtergehen und dann passt das.

Der_Korken
2022-12-13, 13:25:43
https://youtu.be/NFu7fhsGymY

:D

In fact, I've been so disappointed with the 7900XT, that I've requested all AIB partners avoid sending me their custom versions, as I have very little interest covering them, given that they are just not worth recommending them with current asking price.

Uff, das ist schon ne Ansage ;D

dargo
2022-12-13, 13:27:06
Uff, das ist schon ne Ansage ;D
Wieso? Ist doch völlig in Ordnung. Die 4080 wurde wegen ihren Preis auch zerrissen. Gleiches wird hoffentlich bei der 470TI passieren.

dildo4u
2022-12-13, 13:27:44
Schwer zu bewerten ob die Preise passen angeblich soll alles was nur 30% oder weniger zulegt Potenzial nach oben haben, der neue Aufbau erfordert mher Treiber Arbeit laut Computerbase.

Der_Korken
2022-12-13, 13:35:35
Wieso? Ist doch völlig in Ordnung. Die 4080 wurde wegen ihren Preis auch zerrissen. Gleiches wird hoffentlich bei der 470TI passieren.

Hab den guten Steve noch nie so salty nach einem Graka-Review gesehen. Ich habe aber auch die 4000er Nvidia Reviews nicht geguckt, weil die Karten ohnehin so weit außerhalb meines preislichen Interesses liegen, dass es mir völlig egal ist wie schnell die sind. Die 7900er eigentlich auch, aber mich hat dann doch interessiert was HWU dazu sagt.

T800Unit
2022-12-13, 13:35:47
Sind doch sehr solide Karten! Die Problemchen wird AMD schon noch beseitigen.

Der MultiMonitor / Youtube Verbrauch wäre jetzt, abseits vom Preis, auch das einzige was Ich wirklich Kritikwürdig finde.

Das bashing hier verstehe Ich nicht so ganz, wird wohl die falsche Erwartungshaltung sein, dazu die hohen Preise aus dem grünen Lager. Ja das kann zu Frust führen, sollte es aber nicht :)

Sumpfmolch
2022-12-13, 13:36:24
Wieso? Ist doch völlig in Ordnung. Die 4080 wurde wegen ihren Preis auch zerrissen. Gleiches wird hoffentlich bei der 470TI passieren.

Richtig blöd wird erst erst, wenn ein Produkt im Vergleich zur überteuerten 4080 wegen des Preises verrissen wird.

Achill
2022-12-13, 13:46:23
Weil es hier im Thread noch nicht verlinkt wurde, gibt auch ein Test von phoronix (https://www.phoronix.com/review/rx7900xt-rx7900xtx-linux) für die 7900er.

In short:
- Aktueller Linux 6.0 Kernel und Mesa 22.3 Stack reicht aus
- Aktuelle Firmware ist noch nicht in https://git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git
- Zen4 läuft nicht performant, Tests daher mit 5950X bei phoronix
- ROCm/HIP soll zeitnah unterstützt werden (bzw. wird?) und Michael will alsbald testen

Gibt ein paar Syn. Tests und dann auch welche mit DXVK/Proton sowie Quake II RTX und GeexLab für RT.

--
Für Linux-User die ein OSS Stack wollen dann natürlich die aktuell schnellste GPU ..

bloodflash
2022-12-13, 13:48:20
Uff, das ist schon ne Ansage ;D
Sorry, das ist doch nur dumpfe Stimmungsmache. Das hätte er seit den vorletzten Launches bei jeder neuen Grafikkartengeneration von jedem Hersteller sagen müssen, bei jedemModell und bei den meisten CPUs auch.

Alle neu vorgestellten Grafikkarten in 2022 sind mindesten 50% zu teuer bei der UVP. Das ist nur Marge machen bei schrumpfendem Markt und willkürlichen Preisfestsetzungen der Marktführer ASML, TSMC und Co. Wobei letztere ja mit ähnlichen Margenwünschen kalkulieren.

Und solange nV und AMD keine vernünftigen Karten unter 500,-€ anbieten, wird der PC-Gamingmarkt deutlich schrumpfen. Meine letzte neue Karte hat 170,- gekostet und ich kam mir nicht verarscht vor, wie bei RTX4000 und RX7000.

DrFreaK666
2022-12-13, 13:51:43
Gibts da schon Benchmarks, bzw irgendwas Neues? Verlink mal.

Nein, hab mich vertan.
War nur die normale Version, die PCGH noch verlinkt hat

Raff
2022-12-13, 13:53:16
Normal, aber mit recht großer Pimperei der Rastergrafik (HD Reworked 12 + Config-Tweaks). :) Das Original sieht recht deutlich schlechter aus und erzeugt deutlich höhere Bildraten.

MfG
Raff

Niall
2022-12-13, 13:54:15
Steve war auch bei der 4080 (wegen der Bepreisung) extrem angefressen und ist auch in nachfolgenden Reviews zu ganz andere Hardware nicht müde geworden, dies immer wieder zu wiederholen.

Der_Korken
2022-12-13, 13:56:01
Sind doch sehr solide Karten! Die Problemchen wird AMD schon noch beseitigen.

Der MultiMonitor / Youtube Verbrauch wäre jetzt, abseits vom Preis, auch das einzige was Ich wirklich Kritikwürdig finde.

Das bashing hier verstehe Ich nicht so ganz, wird wohl die falsche Erwartungshaltung sein, dazu die hohen Preise aus dem grünen Lager. Ja das kann zu Frust führen, sollte es aber nicht :)

Sofern der Idle-Verbrauch (offensichtlich ist ja selbst der Single-Monitor-Verbrauch betroffen, wenn man 144Hz auf 4K betreibt) überhaupt vernünftig gefixt wird. Irgendwer hatte hier ein Zitat gebracht, wo ein Reviewer bei AMD nachgefragt hat und als Antwort sinngemäß kam, dass man die Teile auf maximale Performance ausgelegt hat und ein höherer Idle-Verbrauch beabsichtigt ist. Wenn die von 80-100W Idle/Youtube noch 10-20W wegschneiden, ist das für mich nicht gefixt, sondern die neue Display Engine ist broken by design.

Vor allem steht dann zu befürchten, dass die kleineren Modelle alle dasselbe Problem haben werden, weil alle die neue Display Engine verwenden. Wer seinen Rechner pro Tag 6-8h im Idle hat, summiert sich das bei den aktuellen Strompreisen schnell mal zu 50-100€/Jahr, die zusätzlich zur Konkurrenz verbraucht werden. Wer die Karte 3 Jahre behält, zahlt beim Strom also entsprechend 150-300€ drauf und das muss man beim Kaufpreis berücksichtigen. Wenn das nicht vernünftig gefixt wird, wäre das ein absoluter Dealbreaker für mich.

Nightspider
2022-12-13, 13:59:20
@Raff:

Könntest du das vielleicht machen? =)

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13187417#post13187417

Der_Korken
2022-12-13, 14:02:03
@Raff:

Könntest du das vielleicht machen? =)

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13187417#post13187417

-> https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/6/#abschnitt_rdna_2_vs_rdna_3_wie_viel_mehr_leistung_bringt_die_neue_technik

Der Speichertakt kann derweil leider nicht reduziert werden, die Radeon RX 7900 XT verfügt in dem Test also über einen deutlich höheren Speicherdurchsatz.

Zergra
2022-12-13, 14:07:32
Vor allem steht dann zu befürchten, dass die kleineren Modelle alle dasselbe Problem haben werden, weil alle die neue Display Engine verwenden. Wer seinen Rechner pro Tag 6-8h im Idle hat, summiert sich das bei den aktuellen Strompreisen schnell mal zu 50-100€/Jahr, die zusätzlich zur Konkurrenz verbraucht werden. Wer die Karte 3 Jahre behält, zahlt beim Strom also entsprechend 150-300€ drauf und das muss man beim Kaufpreis berücksichtigen. Wenn das nicht vernünftig gefixt wird, wäre das ein absoluter Dealbreaker für mich.

Die brauchen doch gar keine neuen Modelle... 6900XT-> 7800XT usw. da sind die doch gut aufgestellt und von den Lücken passt das schon ganz gut.

SamLombardo
2022-12-13, 14:08:08
Nein, hab mich vertan.
War nur die normale Version, die PCGH noch verlinkt hat
Ah alles klar kein Problem. Spätestens morgen werden wir es wissen. Wundert mich, dass es noch keine PC Benchmarks gibt, Konsole findet man überall schon.

Raff
2022-12-13, 14:09:28
PC braucht anscheinend etwas mehr Liebe, weil komplex und so: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187716&postcount=10692 ;)

MfG
Raff

Niall
2022-12-13, 14:10:26
PC braucht anscheinend etwas mehr Liebe, weil komplex und so: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187716&postcount=10692 ;)

MfG
Raff

:up:

Nightspider
2022-12-13, 14:12:37
-> https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/6/#abschnitt_rdna_2_vs_rdna_3_wie_viel_mehr_leistung_bringt_die_neue_technik

Oh man. Vielleicht weil man sonst sehen würde, das die Karten viel zu viel Bandbreite und VRAM relativ zur Leistung haben. ;D

PC braucht anscheinend etwas mehr Liebe, weil komplex und so: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187716&postcount=10692 ;)

MfG
Raff

Gut zu wissen, danke.

Raff
2022-12-13, 14:14:21
Man kann nie genug Transferrate haben, das hilft gerade dann, wenn der Käsch überläuft. Die 7900 XTX kann ihren Vorsprung zur RTX 4080 mit steigender Auflösung ausbauen, wenngleich nicht spektakulär. ;)

MfG
Raff

T800Unit
2022-12-13, 14:19:29
Sofern der Idle-Verbrauch (offensichtlich ist ja selbst der Single-Monitor-Verbrauch betroffen, wenn man 144Hz auf 4K betreibt) überhaupt vernünftig gefixt wird. Irgendwer hatte hier ein Zitat gebracht, wo ein Reviewer bei AMD nachgefragt hat und als Antwort sinngemäß kam, dass man die Teile auf maximale Performance ausgelegt hat und ein höherer Idle-Verbrauch beabsichtigt ist. Wenn die von 80-100W Idle/Youtube noch 10-20W wegschneiden, ist das für mich nicht gefixt, sondern die neue Display Engine ist broken by design.

Vor allem steht dann zu befürchten, dass die kleineren Modelle alle dasselbe Problem haben werden, weil alle die neue Display Engine verwenden. Wer seinen Rechner pro Tag 6-8h im Idle hat, summiert sich das bei den aktuellen Strompreisen schnell mal zu 50-100€/Jahr, die zusätzlich zur Konkurrenz verbraucht werden. Wer die Karte 3 Jahre behält, zahlt beim Strom also entsprechend 150-300€ drauf und das muss man beim Kaufpreis berücksichtigen. Wenn das nicht vernünftig gefixt wird, wäre das ein absoluter Dealbreaker für mich.

Stimme dir in allem zu. Hoffen wir dass der Verbrauch in vernünftige Regionen kommt. Ansonsten wie du sagst -> broken by design

SamLombardo
2022-12-13, 14:24:54
PC braucht anscheinend etwas mehr Liebe, weil komplex und so: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187716&postcount=10692 ;)

MfG
Raff
Aaaah danke;)

Linmoum
2022-12-13, 14:25:35
Eigentlich hätte man die Karten mit jeweils 16GiB ausstatten sollen. Wären 111mm2 eingesparter N6 Die Size und man hätte dennoch keinen Nachteil gegenüber der Konkurrenz gehabt, weil man mit mehr als AD103 sowieso nicht konkurrieren kann. 20/24GiB sind auf dem Papier schön aber 16 vs. 20/24 ist auch noch mal was anderes als 10 vs. 16. Das sind im Prinzip unnötige Kosten, die AMD sich hier anbindet. Aber wahrscheinlich hatte man dann die Befürchtung, dass die Karten noch weniger attraktiv für die meisten sind.

Bandbreite selbst sollte durch den verbesserten 2nd Gen IF$ ja kein Problem sein.

Nightspider
2022-12-13, 14:25:47
Man kann nie genug Transferrate haben, das hilft gerade dann, wenn der Käsch überläuft. Die 7900 XTX kann ihren Vorsprung zur RTX 4080 mit steigender Auflösung ausbauen, wenngleich nicht spektakulär. ;)

MfG
Raff

Im Allgemeinen stimmt das schon. Gehen wird aber mal davon aus, dass das Taktziel für N31 mal 30% höher lag, dann wäre der Flaschenhals primär bei den Recheneinheiten.

Man muss auch mal sehen wie viel Bandbreite Navi10 oder die RTX2080 oder RTX3080 hatten. Da lag Navi21 ja schon extrem weit vorne und N31 vervielfacht das nochmal.

Eigentlich hätte man die Karten mit jeweils 16GiB ausstatten sollen. Wären 111mm2 eingesparter N6 Die Size und man hätte dennoch keinen Nachteil gegenüber der Konkurrenz gehabt, weil man mit mehr als AD103 sowieso nicht konkurrieren kann. 20/24GiB sind auf dem Papier schön aber 16 vs. 20/24 ist auch noch mal was anderes als 10 vs. 16. Das sind im Prinzip unnötige Kosten, die AMD sich hier anbindet. Aber wahrscheinlich hatte man dann die Befürchtung, dass die Karten noch weniger attraktiv für die meisten sind.

Bandbreite selbst sollte durch den verbesserten 2nd Gen IF$ ja kein Problem sein.

Ich frage mich ja schon seit der Ankündigung, ob ein N31 mit 4 MCDs und 16GB möglich wäre.

Ich glaube, so eine Variante wäre nicht viel langsamer aber dafür deutlich günstiger in der Herstellung.

Raff
2022-12-13, 14:32:01
Eine "RX 7900 XL" mit 64 MiB L3$ und 256 Bit dürfte technisch kein Problem sein. Einfach zwei MCDs weg, weniger anschließende Speicherchips und gut. Darum geht's ja bei der Chiplet-Sache auch: Konfigurierbarkeit. Da die Yields des GCD aber mutmaßlich gut sind, gibt's wohl nicht viel Ausschuss (reine Spekulation!).

Ich würde ja gerne einen Navi 31 ohne MCDs im Vergleich sehen (der hat ordentlich L0- bis L2-SRAM), aber das geht leider nicht, da die DRAM-Controller in den MCDs stecken. :ugly:

MfG
Raff

lilgefo~
2022-12-13, 15:06:31
Wie zu erwarten wurde man dem Hype wieder nicht gerecht und wie nach jedem AMD Launch liest man überall immer den Verweis darauf, dass ja mit der Zeit noch alles viel besser wird mit neueren Treibern. Und bei der nächsten Runde dann wieder von vorne.
Die Performance ist ja (RT ausgenommen) ja ok aber grad in den B-Noten zu Power und Thermal Managment scheinen die immer weiter abzubauen statt besser zu werden.
Schade. Hoffe AMD schafft es irgendwann nochmal einen zweiten R300 rauszubringen. Wird aber mit jeder mediokren Generation schwieriger. ;/

Niall
2022-12-13, 15:09:09
Die Performance ist ja (RT ausgenommen) ja ok aber grad in den B-Noten zu Power und Thermal Managment scheinen die immer weiter abzubauen statt besser zu werden.

Ach, da würde ich erstmal abwarten was da u.U. in den nächsten Wochen noch an softwareseitigem Feintuning passiert. Ist zwar doof, aber leider auch nix neues. :freak:

r3ptil3
2022-12-13, 15:22:40
Die Customs (TUF) gehen auf bis zu 3200 Mhz mit OC (XTX): :D

https://i.ibb.co/DY6pSP5/image.png

Kühlung ist fantastisch (TUF).

https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/39.html

Matrix316
2022-12-13, 15:23:32
MF hat schon über 40 Mal die XFX Radeon RX 7900 XTX MERC310 Black Edition verkauft. Die anderen XTX sind schon weg. Die gehen ja weg wie warme Semmeln...

Troyan
2022-12-13, 15:26:19
Techpowerup hat Reviews zur Asus TUF und XFX Mecha. Stromverbrauch liegt bei 400 bis 410W und die Karten sind ca. 3% schneller:
Asus - https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/
XTX - https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-merc-310-oc/

mironicus
2022-12-13, 15:27:05
Verfügbarkeitsthread wurde erstellt und Beiträge hierhin verschoben.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613404

dildo4u
2022-12-13, 15:31:39
Treiber


https://videocardz.com/driver/amd-radeon-software-adrenalin-22-12-1-rx-7900

anddill
2022-12-13, 15:32:25
Verfügbarkeitsthread wurde erstellt und Beiträge hierhin verschoben.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613404

Danke. Bin nicht hinterhergekommen. Musste ja nebenbei auch noch eine Grafikkarte bestellen ;)

dargo
2022-12-13, 15:34:14
Die Customs (TUF) gehen auf bis zu 3200 Mhz mit OC (XTX): :D

https://i.ibb.co/DY6pSP5/image.png

Das kann doch gar nicht sein. Laut Dural taktet N31 mit 2,3Ghz. ;)

KriNemeth
2022-12-13, 15:34:21
Danke. Bin nicht hinterhergekommen. Musste ja nebenbei auch noch eine Grafikkarte bestellen ;)

Man muss auch Prioritäten setzen. :D

x5
2022-12-13, 15:34:59
Keine Ahnung wie man es nicht schaffen kann zum Release voll funktionierende Treiber bereitzustellen.AMD hat die Karten ja nicht erst seit gestern fertig.

Niall
2022-12-13, 15:36:32
Das kann doch gar nicht sein. Laut Dural taktet N31 mit 2,3Ghz. ;)
:D

Nightspider
2022-12-13, 15:39:07
Wenn AMD schon für die neuesten Spiele so viele Bugs auflistet will ich gar nicht erst wissen wie verbuggt die alten Spiele mit der neuen Architektur laufen. :usad:

dargo
2022-12-13, 15:40:33
Kühlung ist fantastisch (TUF).

So stelle ich mir eine herausragende Kühlung vor... 1000RPM an den Lüftern mit Quiet Bios. :up: XFX hats diesmal aber irgendwie verkackt vs. RDNA2. :( Wobei man das auch immer in Relation zum GPU-Hotspot setzen muss. Da müsste man schauen wie schnell die Lüfter der XFX noch drehen müssen wenn der Hotspot von 78°C auf 86°C wie bei der TUF geht.

Exxtreme
2022-12-13, 15:42:57
Wenn AMD schon für die neuesten Spiele so viele Bugs auflistet will ich gar nicht erst wissen wie verbuggt die alten Spiele mit der neuen Architektur laufen. :usad:

Ich glaube, grad die alten Spiele werden eher problemloser laufen. :)

Ach ja:
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-22-12-1-rx7900

* High idle power has situationally been observed when using select high resolution and high refresh rate displays.


Das Problem mit den 100 W ist also bekannt. Kann also sein, dass sie das fixen können.

Badesalz
2022-12-13, 15:43:30
Uff, das ist schon ne Ansage ;DHauptsache die Trolle haben Intels Arc getestet :rolleyes:

Lyka
2022-12-13, 15:45:59
Mal sehen, was Sapphire mit der Nitro+ bringt (ja, sicher keine 3,2GHz)
:/
Up to 2680 MHz Boost Clock and 2510 MHz Game Clock
und was die Vapor-X-Kühllösung bringt.

dargo
2022-12-13, 15:49:39
Mal sehen, was Sapphire mit der Nitro+ bringt (ja, sicher keine 3,2GHz)
:/
Up to 2680 MHz Boost Clock and 2510 MHz Game Clock
und was die Vapor-X-Kühllösung bringt.
Die offiziellen Angaben kannst du doch eh knicken. War schon bei RDNA2 so, die GPU boostet oftmals höher als angegeben.

Nightspider
2022-12-13, 15:56:02
Liebster Raff kannst du jetzt nochmal den Idle Verbrauch unter 3440*1440 @ 175Hz testen? :D

Digidi
2022-12-13, 16:21:48
@Raff konntet ihr das mal Benchen? bei MultiDraW indirect sollte ja das doppelte Rauskommen und beschleunigt werden. Auch Mesh Shader wäre interessant, da es ja bei 3d Mark wohl defekt ist:

Hallo wer könnte sich mal mit einer 4090 die Zip hier runterladen und das durchbenchen? Wahrscheinlich geht nur Vulkan unter Windows 11 zumindest bei mir:

aufrühren dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0

Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/

Wenn jemand das mit einer 6900xt noch macht wäre auch nice.

Zur info eine 3070:
Mesh Instance Tris: 9.10 B/S
Mesh Prmitive 64x84: 5.5 B/s
Mesh Indexing: 64x84: 5,26 B/s
Mult DrawIndirext 64x84: 9.09 B/s
Mesh Shader: 9.21 B/s
Compute Shader: 14,48 B/s

Tangletingle
2022-12-13, 16:27:42
Wie sieht es eigentlich mit waküblöcken aus? Sind ref. Modelle zu denen für 69/800 Modellen kompatibel?

bnoob
2022-12-13, 16:33:05
Nein, schon weil dieses Mal XT und XTX unterschiedliche Platinen haben

https://www.hardwareluxx.de/community/threads/amd-rdna3-rx7000-wasserk%C3%BChler.1326234/post-29614055

dargo
2022-12-13, 16:46:21
PowerColor RX 7900 XTX HellHound Review

0OxGyHV2-kA

1200RPM bei 360+W können sich imo sehen lassen. (y) Wenn man die Karten mit UV Richtung 300-320W drücken kann sollte das echt zu nahezu unhörbaren Karten führen.

Sumpfmolch
2022-12-13, 16:50:58
Da wird doch diesmal nicht das Referenzdesign scheiße und das Design der Customs toll sein... :uponder:

dargo
2022-12-13, 16:58:53
Naja... die AIBs verwenden bei den Customs in der Regel mehr Material beim Kühler. Die Hellhound ist 32cm lang und sicherlich auch dicker als ne Referenz. Da sie aber das selbe (zumindest in den USA) kostet wie die Referenz würde ich eine Hellhound definitiv vorziehen.

btw.
N31 säuft aber schon ordentlich bei nur 0,84V sofern der Wert richtig ausgelesen wird.

r3ptil3
2022-12-13, 17:14:32
[B] Wenn man die Karten mit UV Richtung 300-320W drücken kann sollte das echt zu nahezu unhörbaren Karten führen.

Bin mir sicher die Karten gehen mit 200-250W schon extrem gut.

Würde zu gerne eine Referenz-RX 7900 auf 200W (+/-) laufen lassen, um testen zu können, ob das Spulenfiepen noch wahrnehmbar ist.

dargo
2022-12-13, 17:21:06
Bin mir sicher die Karten gehen mit 200-250W schon extrem gut.

Löl? Wir müssen nicht gleich so übertreiben. :tongue: Bei 200W sollten die Ziegelsteine kaum aus der Idledrehzahl von ~600RPM rauskommen. ;D

MSABK
2022-12-13, 17:26:40
Hat jemand Ergebnisse in Assetto Corsa Competizione gesichtet? Hardware Unboxed war diesmal nichts dabei.

hardtech
2022-12-13, 17:52:10
@leo

wird es diesmal schneller eine launch-analyse geben als bei der 4080?
hoffe noch auf diese woche! :)

ChaosTM
2022-12-13, 18:06:59
Techpowerup hat Reviews zur Asus TUF und XFX Mecha. Stromverbrauch liegt bei 400 bis 410W und die Karten sind ca. 3% schneller:
Asus - https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/
XTX - https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-merc-310-oc/


https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/39.html


Eher 23% - in 77 kann man damit quasi aufschließen.

Immer wieder faszinierend wie Fanboys dem "Gegnern" schlechte Werte herbeireden.
Dümmer gehts echt nicht mehr. Je besser die Konkurrenz, desto besser für uns alle. Jesus Christ

forenhoernchen
2022-12-13, 18:07:17
Hier seht ja ein eisiger shitstorm durch...

Für mich kann ich nur sagen, dass mir herzlich egal ist, ob AMDs oder nvidias Nudel länger ist, wenn sie sich im 4-stelligen Preisbereich matchen. Dass eine 2000€ Karte schneller als ne 1400€ Karte ist und diese schneller als eine 1200€ Karte, sollte doch jetzt keinen verwundern. Diese Preise sind und bleiben krank und daher warte ich geduldig darauf, dass die beiden kapieren dass die fetten Jahre vorbei sind und man plötzlich wieder auf die Preise schauen muss.
Da AMD keine nvidia Sexyness hat, werden sie nur über den Preis angreifen können und das wird nach Weihnachten automatisch passieren.

bnoob
2022-12-13, 18:09:26
Falls sich (wie ich) jemand gefragt, hat, wie die Beleuchtung der 7900XTX aussieht, im PCGH-Video ist sie zu sehen.

Leider kein beleuchtetes Logo mehr :(

https://i.imgur.com/HT3fDTD.png

Taigatrommel
2022-12-13, 18:11:38
Also da hätten sie lieber das Logo beleuchtet lassen sollen, anstelle der komischen Streifen.:(

bnoob
2022-12-13, 18:12:57
Ja, pinkes Logo bei meiner 6900XT fand ich cool :D

Nightspider
2022-12-13, 18:17:20
Eher 23% - in 77 kann man damit quasi aufschließen.

Du kannst nicht einfach vers. Sachen in einen Topf werfen.

Die Karten saufen @ stock ~400W.

Für die 3,2 Ghz ist gar kein Verbrauch angegeben, würde mich nicht wundern wenn die Karte bei 500W liegt.

ChaosTM
2022-12-13, 18:27:03
Es ging nur darum, dass der T-Guy meinte es sind nur 3% ;)
Glatt gelogen..

Lowkey
2022-12-13, 18:27:50
Hier seht ja ein eisiger shitstorm durch...

Für mich kann ich nur sagen, dass mir herzlich egal ist, ob AMDs oder nvidias Nudel länger ist, wenn sie sich im 4-stelligen Preisbereich matchen. Dass eine 2000€ Karte schneller als ne 1400€ Karte ist und diese schneller als eine 1200€ Karte, sollte doch jetzt keinen verwundern. Diese Preise sind und bleiben krank und daher warte ich geduldig darauf, dass die beiden kapieren dass die fetten Jahre vorbei sind und man plötzlich wieder auf die Preise schauen muss.
Da AMD keine nvidia Sexyness hat, werden sie nur über den Preis angreifen können und das wird nach Weihnachten automatisch passieren.

Die deutschen Preise für Hardware sind meistens auch die Tiefstpreise. Am Beispiel des 7900x sieht man es. Bei Grafikkarten ist es ausgeprägter, denn meine Ebay Käufer kommen oft aus dem EU Ausland. Dort ist neue Hardware schwer zu bekommen und deutlich teurer.
Es besteht die Möglichkeit, dass bei fehlender Kaufkraft in Deutschland sogar die Preise weiter steigen.

dargo
2022-12-13, 18:37:31
Du kannst nicht einfach vers. Sachen in einen Topf werfen.

Die Karten saufen @ stock ~400W.

Für die 3,2 Ghz ist gar kein Verbrauch angegeben, würde mich nicht wundern wenn die Karte bei 500W liegt.
Eher unwahrscheinlich da der Treiber max. +15% beim PT zulässt. Die 3,2Ghz resultieren aus UV + OC, ergo eh Äpfel/Orangen und so.

forenhoernchen
2022-12-13, 18:37:36
Die deutschen Preise für Hardware sind meistens auch die Tiefstpreise. Am Beispiel des 7900x sieht man es. Bei Grafikkarten ist es ausgeprägter, denn meine Ebay Käufer kommen oft aus dem EU Ausland. Dort ist neue Hardware schwer zu bekommen und deutlich teurer.
Es besteht die Möglichkeit, dass bei fehlender Kaufkraft in Deutschland sogar die Preise weiter steigen.

Es kommen gerade viele Sachen zusammen. Zb sollte sich der EUR Kurs weiter wieder auf altes Niveau stabilisieren, purzeln die Preise auch gleich wieder. Aber das ist ja das Tolle an der Zukunft: sie kommt bestimmt und dann wissen wir mehr ;)

LivingAudio
2022-12-13, 18:39:29
Wie sieht es eigentlich mit der Mining Leistung aus?

Meine Überlegung ist, vielleicht wurden die Karten eigentlich für die Miner gemacht und AMD hat nach den Entwicklungen in den letzten Monaten "das Thema verfehlt" - weil Mining im Moment wieder ein paar Jahre Pause macht. Wie schneidet die XTX im Vergleich zur 4080 / 4090 im Mining ab? Gibts da Daten?

Linmoum
2022-12-13, 18:47:13
Es ging nur darum, dass der T-Guy meinte es sind nur 3% ;)
Glatt gelogen..Es sind auch nur 3% @Stock. Irgendwelche UV/OC-Werte als Vergleich zu nehmen ist Quatsch, die 4080 lässt sich schließlich genauso übertakten.

paul.muad.dib
2022-12-13, 18:48:57
Wenn die kleineren Karten nicht drastisch besser sind, werden die AMD Marktanteile weiter in den Keller gehen.

Im Vergleich zur rtx 6900 xt wird ebenfalls jedes Prozent Raster Mehrleistung 1:1 zu einem höheren Preis erkauft, also exakt wie bei 4080.

Der Hardware Einsatz im Vergleich zu NV ist enorm: deutlich mehr Chipfläche, Transitoren, mehr Speicher, größeres SI. Auch das Packaging ist sicher aufwendiger, als nur einen monolithischen Chip zu verwenden. Von den Produktionskosten liegt die 7900 wahrscheinlich über der 4800. Daher kann AMD auch keine aggressive Preisstrategie fahren.


Insgesamt muss man leider RDNA3 als Fehlschlag abtun. Ob jemals ein chiplet design für Grafikkarten funktioniert bleibt abzuwarten.

Sehr schade, nach den wirklich guten rdna 1 und 2.

Ich kaufe wohl einfach eine 3060 (ti).

forenhoernchen
2022-12-13, 18:50:51
Ich vermute übrigens, dass die Grafikeinheiten (shader & RT) für AMD gar nicht so sehr im Fokus standen, sondern die wollten erstmal die Multichiparchitektur lauffähig bekommen (shader und Co nur optimieren und neuen TSMC Node ausnützen).
Und da haben sie aktuell noch viel Lehrgeld zu zahlen, weil es einfach ziemliches Neuland ist (Ryzen imho schwer vergleichbar, bei der GPU ist die benötigte Bandbreite um eine Größenordnung höher). Das ist imho auch der Grund warum der Stromverbrauch noch so hakt, immerhin müssen jetzt viele Dies miteinander abklären wer wie aufdrehen darf. Das wird mit neuen Treibern sicher noch gerichtet werden.
Dass ein 300mm² Chip die Speerspitze der neuen Generation sein wird, war sicher auch nicht geplant. Die werden diese Mehrfachhauptchipvariante einfach noch nicht hinbekommen haben und müssen daher mit dem auf den Markt gehen was sie haben.
Wenn sie aber nächste Generation wieder keine riesigen RT performance Sprünge machen, dann wird es grausig für die, weil dann von unten auch noch Intel heranrobbt (deren RT Performance ist gar nicht so schlecht).

Cubitus
2022-12-13, 18:55:10
Die werden diese Mehrfachhauptchipvariante einfach noch nicht hinbekommen haben und müssen daher mit dem auf den Markt gehen was sie haben.
Wenn sie aber nächste Generation wieder keine riesigen RT performance Sprünge machen, dann wird es grausig für die, weil dann von unten auch noch Intel heranrobbt (den RT Performance ist gar nicht so schlecht).

Genau so war es auch.
Nur iwas hin zu experimentieren, ist halt bei der starken Konkurrenz "gewagt".

Nvidia hat dieses mal alles richtig gemacht!
Die 40er Serie ist schnell und effizient, kühl und leise.

Aber halt teuer :)
AMD hätte wesentlich billiger sein müssen um Kudos zu bekommen.
Die rennen deutlich Nvidia hinter her.

BlacKi
2022-12-13, 19:18:20
ich denke, mit einem 400mm² monolitischem DIE, wäre die karte billiger und sparsamer geworden. mag sein, das die karten ein testboot für chiplet gpus war, aber das braucht wohl noch einige iterationen bis man monolitisch kontern kann.

die 6900xt in 5nm mit 300w hätte sicher die 7900xt einholen können, wäre sogar wohl kleiner als die 7900xt.

dargo
2022-12-13, 19:19:57
Wenn sie aber nächste Generation wieder keine riesigen RT performance Sprünge machen, dann wird es grausig für die, weil dann von unten auch noch Intel heranrobbt (deren RT Performance ist gar nicht so schlecht).
Intel ist noch sehr weit weg und muss erstmal Fuss bei High-End fassen. So einfach ist das nicht wie sich das manche hier vorstellen. Wenns ganz blöd läuft wird der zweite Versuch von Intel nach Larrabee wieder eingestampft. Je nachdem wie viele Milliarden der Versuch Intel kosten wird und wie die Marktakzeptanz ist.

forenhoernchen
2022-12-13, 19:21:39
Genau so war es auch.
Nur iwas hin zu experimentieren, ist halt bei der starken Konkurrenz "gewagt".

Gewagt schon, aber ich sehe schon die Vorteile. Klar viele Chips kosten auch viel Geld, aber die Yield rate ist bei kleineren Chips echt viel besser. Außerdem ist jedes Teil dass du noch mit älterer Technologie fertigen kannst im Vergleich dazu spottbillig. Aber ja, dafür muss man es aber auch schaffen ;)
Wenn sie Glück haben, können sie noch mit dieser Generation samt neuerem stepping (Q3?) noch das geplante Teil nachreichen und alles ist wieder eitel Sonnenschein. Sonst haben sie die nächste Generation als letzte Chance für eine lange Zeit...

aufkrawall
2022-12-13, 19:26:00
Intel ist noch sehr weit weg und muss erstmal Fuss bei High-End fassen.
Trifft auf AMD nun ähnlich zu, so dermaßen wie die 4090 außer Konkurrenz ist. Eine ordentliche Optimierung bei der Die-Size in einem neuen Prozess, und die Intel-Welt kann recht schnell ziemlich anders aussehen. Gut, es ist Intel, und ein massives Ausführungs-Defizit wie bei Arc erscheint weiterhin leider nicht ganz unwahrscheinlich...

Aber so gut wie FSR 2 teilweise auch ist: Keine vollwertiges DL-TSSAU allein stinkt mir schon ziemlich. Und sogar das bekommt man bei Intel...

dargo
2022-12-13, 19:29:33
Trifft auf AMD nun ähnlich zu, so dermaßen wie die 4090 außer Konkurrenz ist.
Du meinst also Intel peilt auch 2000€+ Grafikkarten nach ARC an? Das will ich sehen. ;D Das Kunststück ist nicht die schnellste Grafikkarte zu releasen, egal zu welchen Preis. Dafür ist der Gamingmarkt nicht geschaffen, es gibt Grenzen. Wir sind hier nicht im produktiven Bereich wo 10-20k schnell wieder drin sind.

btw.
Ich bin mir nicht mal sicher ob bei der nächsten Gen die 2.000€ reichen werden. Wenn NV dann in 3nm mit einem >600mm² Die bei einer 5090 antanzt wirst du mit den 2.000€ nicht auskommen denke ich.

forenhoernchen
2022-12-13, 19:30:15
Intel ist noch sehr weit weg und muss erstmal Fuss bei High-End fassen.
Yup, Intel muss noch deutlich weiter gehen als AMD. Der Treiber alleine ist schon Jahre hinten. Aber die haben viel Geld und in den letzten Monaten große Fortschritte gemacht. Spätestens mit der C-Generation werden die echt gefährlich. Bei RT sind sie aber jetzt schon überproportional gut (natürlich nur auf ihrem niedrigen Niveau). Wenn ich mich recht erinnere, kitzeln die mit der A-Generation bei RT schon an der 6700XT. Macht Intel bei RT mit Battlemage einen größeren Sprung als jetzt AMD, könnte Intel (RT only und brauchbarere Treiber vorausgesetzt) sogar die Liga einer 7800er in Sichtweite haben.

Sumpfmolch
2022-12-13, 19:30:20
Falls sich (wie ich) jemand gefragt, hat, wie die Beleuchtung der 7900XTX aussieht, im PCGH-Video ist sie zu sehen.

Leider kein beleuchtetes Logo mehr :(

https://i.imgur.com/HT3fDTD.png

Ist das blaues Licht? :uponder:

Und dass das Logo nicht leuchtet, ist ja wohl ein schlechter Scherz. Durch das transparente Material dort erweckt das doch klar den Eindruck.

Tangletingle
2022-12-13, 19:35:50
Wie sieht es eigentlich mit der Mining Leistung aus?

Meine Überlegung ist, vielleicht wurden die Karten eigentlich für die Miner gemacht und AMD hat nach den Entwicklungen in den letzten Monaten "das Thema verfehlt" - weil Mining im Moment wieder ein paar Jahre Pause macht. Wie schneidet die XTX im Vergleich zur 4080 / 4090 im Mining ab? Gibts da Daten?
Nach dem Ende von ETH Mining ist GPU mining aktuell toter als tot. Ich bezweifle, dass das irgendwann noch einmal von den Toten aufersteht. Schon gar nicht hat AMD auf dieses Klientel abgezielt, da seit Jahren eine Umstellung zu POS abzusehen war.

Thunder99
2022-12-13, 19:38:05
RDNA3 ist AMDs Ampere ;D

An sich interessant und teilweise konkurrenzfähig. Leider zu viele Baustellen im Moment.
Wird sich zeigen müssen wie die Karten reifen können und wie es der Markt annimmt.

Es ist Verlass auf CB und PCGH :) Danke für die Arbeit :up:

Der_Korken
2022-12-13, 19:38:16
Interessant, dass techpowerup mal eben 3,2Ghz aus dem Chip rausbekommt. Läuft das Frontend weiterhin 200Mhz, also dann mit 3,4Ghz? Wären das die stock clocks bei 350W, dann wären wir eher da, wo wir AMD nach der Präsentation und den früheren Gerüchten vermutet hätten. Mich wundert nur, dass die Referenz-7900XTX solche Taktraten nicht auch schafft. Die TUF hat zwar ~17% mehr PPT, aber bei OC steigt der Takt nicht linear mit dem Verbrauch an. Selbst 10% mehr Takt bei 17% mehr Verbrauch sind normalerweise nicht drin, wenn beide Settings bis an die Stabilitätsgrenzen getrieben werden. Ebenfalls komisch sind diese Tweets hier: https://twitter.com/0x22h/status/1602298408655536129
Teil läuft mit (leichter?) OpenCL-Last stabil mit 3,4Ghz, aber Spiele kann man mit dem Takt vergessen. Ich weiß nicht, ob andere Karten sich auch so verhalten, aber so abwegig scheinen die 3Ghz++ Gerüchte nicht gewesen zu sein. (Edit: Abgesehen davon, dass es beim fertigen Chip offensichtlich an einigen Ecken klemmt)

Wenn N32 mit solchen Taktraten daherkommt bei angemessenem Verbrauch (so 225W wären ganz recht :D), wird die 7900XT obsolet.

Rolsch
2022-12-13, 19:39:32
Wie sieht es eigentlich mit der Mining Leistung aus?

Meine Überlegung ist, vielleicht wurden die Karten eigentlich für die Miner gemacht und AMD hat nach den Entwicklungen in den letzten Monaten "das Thema verfehlt" - weil Mining im Moment wieder ein paar Jahre Pause macht. Wie schneidet die XTX im Vergleich zur 4080 / 4090 im Mining ab? Gibts da Daten?
Ist genauso wie bei der Vorgängergeneration, GDDR6 vs GDDR6x. Für Miner wäre Nvidia reizvoller. Eher schaut die übermäßig abgespeckte 4080 wie eine Miner Karte aus.

Ich denke schon dass Lisa und Jensen den Tag verfluchen wo sich Ethereum vom Mining abgewandt hat. Jetzt müssen sie ihre Karten an die paar PC-Gamer wie Sauerbier anpreisen. Und Ansprüche haben die auch noch. ;D

Linmoum
2022-12-13, 19:40:41
Du meinst also Intel peilt auch 2000€+ Grafikkarten nach ARC an? Das will ich sehen. ;D Das Kunststück ist nicht die schnellste Grafikkarte zu releasen, egal zu welchen Preis. Dafür ist der Gamingmarkt nicht geschaffen, es gibt Grenzen. Wir sind hier nicht im produktiven Bereich wo 10-20k schnell wieder drin sind.Nvidia verkauft in wenigen Wochen hunderttausende von 4090. An der Spitze sind viele Leute bereit, sehr tief in die Tasche zu greifen, um das (aktuell) beste zu kriegen. Andere stecken Geld in ihr Auto oder Modelleisenbahnen, andere halt in GPUs. Sehe da das Problem nicht.

Zudem hat das Halo-Produkt den Vorteil, auf das restliche Lineup abzufärben. "Boah, die haben die mit Abstand schnellste GPU, also muss auch der Rest toll sein. GPUs von denen kauf ich!".

Das braucht AMD auch mal. 10% Marktanteil kommen nicht durch Zufall, da spielt auch viel Mindshare rein. Nur günstiger zu sein, schadet AMD auf Dauer.

LivingAudio
2022-12-13, 19:42:06
Nach dem Ende von ETH Mining ist GPU mining aktuell toter als tot. Ich bezweifle, dass das irgendwann noch einmal von den Toten aufersteht. Schon gar nicht hat AMD auf dieses Klientel abgezielt, da seit Jahren eine Umstellung zu POS abzusehen war.

Ich gebe dir im Kern recht. Trotzdem wäre es interessant zu wissen wie die Hash Rate jetzt ist und was passiert wäre wenn ETH Mining nicht tot wäre ;) und die Entwicklung war zur Zeit als das Design fertig sein musste noch nicht wirklich sicher meiner Meinung nach.

aufkrawall
2022-12-13, 19:42:18
RDNA3 ist AMDs Ampere ;D

Nicht im Entferntesten, Ampere dürfte durch die starken Shrinks im günstigen Prozess massiv die Kosten für NV gesenkt haben.

Troyan
2022-12-13, 19:45:57
Vorallem hat sich bei Ampere die Leistung pro Fläche um 1,9x erhöht. Bei Navi31 sind es +-35%. Weiß immer noch nicht, wo die ganzen Transistoren hingewandert sind. Der komplette Chip hat 58 Mrd. Transistoren.

dargo
2022-12-13, 19:46:58
Nvidia verkauft in wenigen Wochen hunderttausende von 4090. An der Spitze sind viele Leute bereit, sehr tief in die Tasche zu greifen, um das (aktuell) beste zu kriegen.
Ja... nur diese Spitze finanziert nicht die Spiele und ohne Spiele sind Gaming-Grafikkarten wertlos. Dein "Projekt" könnte u.U. funktionieren wenn 4090 Käufer pro Spiel 500€ anstatt 50€ bezahlen müssten. Wobei selbst dann eher nicht.


Zudem hat das Halo-Produkt den Vorteil, auf das restliche Lineup abzufärben. "Boah, die haben die mit Abstand schnellste GPU, also muss auch der Rest toll sein. GPUs von denen kauf ich!".

Hat ja bestens bei der 4080 funktioniert.

Linmoum
2022-12-13, 19:47:39
Nicht im Entferntesten, Ampere dürfte durch die starken Shrinks im günstigen Prozess massiv die Kosten für NV gesenkt haben.Zumal ich auch bezweifle, dass N31 insgesamt billiger zu fertigen ist als AD103. Der ist immerhin nur 379mm2 klein.

Würde mich nicht wundern, wenn AMD hier höhere Kosten hat.

BlacKi
2022-12-13, 19:54:16
Zumal ich auch bezweifle, dass N31 insgesamt billiger zu fertigen ist als AD103. Der ist immerhin nur 379mm2 klein.

Würde mich nicht wundern, wenn AMD hier höhere Kosten hat.overhead, durch multi chiplet design. chiplet design macht imho aber erst richtig sinn, wenn man nicht größer gehen kann. bei sub 500mm² fläche ins multichiplet zu gehen war keine gute idee.

Sardaukar.nsn
2022-12-13, 20:06:30
Das mit den Taktraten finde ich ja spannend. Alphacool hatte wohl schon früh Zugang zu den 3D-Daten der Karten und konnte bereits mehrere Wasserblöcke ankündigen. https://www.alphacool.com/new-products

https://www.alphacool.com/media/image/0f/bd/7e/Alphacool_Eisblock_Aurora_Acryl_RX_7900XTX_XT_Nitro_mit_Backplate_1023357_04.jpg

Diese Direct-Die chiplet Kühlung ist auch noch recht neu. Ich bin mal gespannt wie gut das funktioniert.

dr.denton
2022-12-13, 20:08:57
overhead, durch multi chiplet design. chiplet design macht imho aber erst richtig sinn, wenn man nicht größer gehen kann. bei sub 500mm² fläche ins multichiplet zu gehen war keine gute idee.

Hoffen wir mal, dass AMD damit nur den Grundstein für einen größeren Navi 3x gelegt hat.

w0mbat
2022-12-13, 20:11:46
Vorallem hat sich bei Ampere die Leistung pro Fläche um 1,9x erhöht. Bei Navi31 sind es +-35%. Weiß immer noch nicht, wo die ganzen Transistoren hingewandert sind. Der komplette Chip hat 58 Mrd. Transistoren.
Nicht nur das, die 4090 ist nur ca. 89% des vollen AD102, hier geht also noch mehr. Es sind also ca. 58 Mrd. aktive Transistoren vs. ca. 68 Mrd. Und die 4090 ist mit den extra 10 Mrd. Transistoren viel schneller.

Lyka
2022-12-13, 21:27:31
Adrenalin Edition 22.12.1 for AMD Radeon™ RX 7900 (https://www.amd.com/en/support/kb/release-notes/rn-rad-win-22-12-1-rx7900)
Mal sehen, was der bringt (y) viel Spaß beim Testen (y)

Highlights

Support for Radeon™ RX 7900 Series Graphics.

Known Issues

Corruption may be encountered when using Virtual Super Resolution with multi-display configurations [Resolution targeted for 22.12.2].
A system crash may be observed when changing display modes with 4 display configurations [Resolution targeted for 22.12.2].
High idle power has situationally been observed when using select high resolution and high refresh rate displays.
Intermittent app crashes or driver timeout may occur when using Radeon Super Resolution with some extended display configurations.
Video stuttering or performance drop may be observed during gameplay plus video playback with some extended display configurations.
Stuttering may be observed in UNCHARTED™ 4: A Thief’s End during the opening game sequence.
While loading Marvel’s Spider-Man: Miles Morales™ an app crash or driver timeout may occur after enabling ray tracing settings [Resolution targeted for 22.12.2].

Sardaukar.nsn
2022-12-13, 21:30:40
@Wombat: Der AD102 Chip hat aktuell 76 Milliarden Schaltkreise auf gut 600mm² Fläche. Mit Abstand das komplexeste Werk was die Menschen jemals herstellt haben.

Achill
2022-12-13, 21:37:41
@Wombat: Der AD102 Chip hat aktuell 76 Milliarden Schaltkreise auf gut 600mm² Fläche. Mit Abstand das komplexeste Werk was die Menschen jemals herstellt haben.

Was wird weder von einer gruppe Menschen allein selbst designed noch gebaut. Braucht Computer, Software und Technik ... und etwas Mensch.

Lawmachine79
2022-12-13, 21:42:05
Würde mich nicht wundern, wenn AMD hier höhere Kosten hat.
Naja, dafür ist der Chip aber auch langsamer.

Lyka
2022-12-13, 21:44:05
immerhin bewirbt AMD die neue GPU mit Raffis PCGH-Video, nur mal so zur Info (y)

https://abload.de/img/amdfbqui2m.jpg

lilgefo~
2022-12-13, 21:45:29
Oha nice, gz Raff

Linmoum
2022-12-13, 21:50:25
@Raff wird also von AMD bezahlt. Jetzt ist es raus.

Thunder99
2022-12-13, 21:57:00
Denke ich nicht, aber gute Werbung wenn man objektive Review macht :) :D

Trap
2022-12-13, 22:00:18
Gab es bisher ein Review mit Benchmarks zu OpenCL oder noch besser Rocm/HIP Compute? Außer Blender...

Tangletingle
2022-12-13, 22:01:30
Rocm wird wohl noch nicht supported. Schau Mal bei phoronix.

Ex3cut3r
2022-12-13, 22:08:32
@Raff wird also von AMD bezahlt. Jetzt ist es raus.

;D

Nightspider
2022-12-13, 22:11:51
@Raff wird also von AMD bezahlt. Jetzt ist es raus.

+1 ;D

Trap
2022-12-13, 22:12:12
Bei Phoronix steht:
And, yes, there should be ROCm/HIP support working for the Radeon RX 7900 series! But I'll be talking about that separately in the coming days once having had more time to test that out and looking at different GPU compute areas and Blender 3D performance, etc.
Also noch ein paar Tage warten...

Badesalz
2022-12-13, 22:13:06
Es sind auch nur 3% @Stock. Irgendwelche UV/OC-Werte als Vergleich zu nehmen ist Quatsch, die 4080 lässt sich schließlich genauso übertakten.Man kann bisher bei RDNA3 +20% Leistung dazu OCen? Wow... :rolleyes:

DrFreaK666
2022-12-13, 22:21:44
Was ist eigentlich mit Portal? Hat man nun 2FPS?

ChaosTM
2022-12-13, 22:30:23
Was ist eigentlich mit Portal? Hat man nun 2FPS?


4-5fps ;)


Portal"RTX" ist ein reines Maketing Vehikel das nicht mal besonders gut ausschaut und die Atmo eher zerstört als fördert mit ihrer sinnlosen Buntheit.

Portal 2 ohne Pathtracing kam um Welten besser.

w0mbat
2022-12-13, 22:53:13
@Wombat: Der AD102 Chip hat aktuell 76 Milliarden Schaltkreise auf gut 600mm² Fläche. Mit Abstand das komplexeste Werk was die Menschen jemals herstellt haben.
Jupp, aber die 4090 nutzt nur ca. 89% vom A102, daher die "ca. 68 Mrd. aktiven Transistoren".

Daredevil
2022-12-13, 23:32:16
@Wombat: Der AD102 Chip hat aktuell 76 Milliarden Schaltkreise auf gut 600mm² Fläche. Mit Abstand das komplexeste Werk was die Menschen jemals herstellt haben.
Apple M1 Ultra hat 135Mrd auf 840.5 mm² :D
https://en.wikipedia.org/wiki/Transistor_count

Apple hat ein wenig dichter gepackt als Nvidia, aber der Prozess von LowBudget Samsung auf TSMC war schon Gold wert.

Linmoum
2022-12-14, 00:54:56
Babeltech hat ein paar VR-Benchmarks.

https://sf.ezoiccdn.com/ezoimgfmt/babeltechreviews.com/wp-content/uploads/2022/12/Unconstrained-fps-vr.jpg?ezimgfmt=ng:webp/ngcb1

Although synthetic VR benches (except for OpenVR benchmark) predicted good VR performance, we were disappointed with our 7900 XTX VR experience, unlike with pancake games. In at least two games, we experienced distracting visual artifacting and texture shimmering. The 7900 series may benefit from some attention to VR from the Radeon driver team as in many cases it even falls behind the RX 6900 XT.

At AMD’s press event in Las Vegas, the presenters noted that AMD drivers continue to improve for the entire life of the architecture – generally with an up to 10% performance gain – often compared to “fine wine” aging well. However, for VR enthusiasts today, the RX 7900 XTX is disappointing and it performs well behind the RTX 4080 not logging a single performance win.
https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/5/

Lyka
2022-12-14, 01:06:11
ich hoffe nur, der feine Wein wird nicht zum feinen Whiskey. Die Werte sind echt bitter, teilweise unter der 3080 TI. Naja, Hoffnung etc.

crnkoj
2022-12-14, 05:55:15
Bin enttäuscht. AMD hätte die Karten lieber als 7800 xtx und XT releasen sollen. Versprochene Performance fehlt, versprochene Effizienz fehl und die Frequenzen sind auch nicht sonderbar hoch. Nicht zu vergessen der idle Verbrauch etc.. Nvidia scheint doch die bessere, wenn auch teurere Option zu sein...

gbm31
2022-12-14, 05:57:21
Babeltech hat ein paar VR-Benchmarks.


Boah, das sieht sch"§$% aus!

Wenn der neue Treiber da nix ändert geht meine stante pede zurück!

horn 12
2022-12-14, 07:11:10
Nun, denke da wird viel gefixt werden können und der Treiber enorm Zulegen sodass die 4080 so gut wie immer geschlagen werden kann.
5 bis 10% rechne ich wird wohl das Minimum sein, es hakt aber wirklich an Allen Ecken bei der Neuen AMD Generation.
Ähnlich intel Arc kann man da schon behaupten,- denn oftmals ist der Treiber bei Gewissen Games unter Aller Sau.
Dies muss gesagt werden und deshalb hatte ich Gestern im Shop auch noch nicht gekauft, obwohl die XTX drinn gewesen wäre und die XT hatte ich 3x kaufen können,- aber belassen aus Vernunft.

=Floi=
2022-12-14, 07:17:04
und das von dir!

DrFreaK666
2022-12-14, 07:27:26
Man wird alt und weise.
Diesen Status erreichen Prinzenrolle, Gott1337 usw. vielleicht auch mal, aber soweit ich weiß sehen die bei der 3060/8GB kein Problem

Rolsch
2022-12-14, 07:28:09
Boah, das sieht sch"§$% aus!

Wenn der neue Treiber da nix ändert geht meine stante pede zurück!
Leider muss ich sagen in Sachen VR hat AMD generell noch viel zu verbesseren. Der Wechsel von der 6900XT zur 4090 hat mir das erst gezeigt.
So nervige Sachen wie der wackelige Oculus Link Screen oder bei Half Life Alyx die Menüs im Rücken gibts da nicht. Von der Performance will ich gar nicht reden, gefühlt sind das Welten beim MSFS.

Digidi
2022-12-14, 08:13:47
Wäre cool wenn das jemand mal Benchen könnte: @Raff konntet ihr das mal Benchen? bei MultiDraW indirect sollte ja das doppelte Rauskommen und beschleunigt werden. Auch Mesh Shader wäre interessant, da es ja bei 3d Mark wohl defekt ist:

Hallo wer könnte sich mal mit einer 4090 die Zip hier runterladen und das durchbenchen? Wahrscheinlich geht nur Vulkan unter Windows 11 zumindest bei mir:

aufrühren dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0

Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/

Wenn jemand das mit einer 6900xt noch macht wäre auch nice.

Zur info eine 3070:
Mesh Instance Tris: 9.10 B/S
Mesh Prmitive 64x84: 5.5 B/s
Mesh Indexing: 64x84: 5,26 B/s
Mult DrawIndirext 64x84: 9.09 B/s
Mesh Shader: 9.21 B/s
Compute Shader: 14,48 B/s

P.s Bitte die Werte aus dem Anzeigefenster wählen und nicht aus dem DOS Fenster. Die 5 Modie stellt man auch oben rechts im Anzeigefenster um.

Spring
2022-12-14, 09:45:47
Man wird alt und weise.
Diesen Status erreichen Prinzenrolle, Gott1337 usw. vielleicht auch mal, aber soweit ich weiß sehen die bei der 3060/8GB kein Problem

;D

Sowas wie die hier?

Abgespeckt: GeForce RTX 3060 mit 8 GB an 128 Bit jetzt bestätigt (https://www.computerbase.de/2022-10/abgespeckt-geforce-rtx-3060-mit-8-gb-an-128-bit-jetzt-bestaetigt/)

Inzwischen hat die neue GeForce RTX 3060 mit nur 8 GB statt 12 GB Grafikspeicher den Markt erreicht. Erste Tests, beispielsweise von Hardware Unboxed, attestieren der Grafikkarte im Vergleich zur herkömmlichen 12-GB-Variante eine im Durchschnitt um 15 Prozent reduzierte Leistung in HD- sowie WQHD-Benchmarks. In einzelnen Spielen beträgt der Abstand gar über 30 Prozent.

Ursache ist dabei nicht etwa, dass der kleinere Grafikspeicher nicht ausreicht, sondern dass die durch das 128-Bit-Speicherinterface verringerte Speicherbandbreite limitiert

Dural
2022-12-14, 09:52:42
Naja, dafür ist der Chip aber auch langsamer.

Nö ist er nicht, AD103 hat noch rund 5% mehr Einheiten im Chip als in der 4080 aktiv.

Raff
2022-12-14, 10:21:39
Moin!

Lektüre für den ersten Kaffee! =)

Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-RX-7900-XTX-oder-Geforce-RTX-4080-fuer-Raytracing-1409411/)

"Die Radeon RX 7900 XTX blüht mit FSR regelrecht auf."

MfG
Raff

dildo4u
2022-12-14, 10:39:58
Spider-Man renn richtig gut Miles Morales deutlich schlechter da noch RT Schatten dazu kommen?

Troyan
2022-12-14, 10:41:18
Das kommt doch daran an, wo man testet. Wenn man Raytracing testet, sollte man sich irgendwo hinstellen, wo man auch was sieht. Miles hat zusätzlich Schatten, wodurch der Aufwand erheblich größer wird.

Raff
2022-12-14, 10:45:12
Die durchaus spannenden Titel Miles, Callisto, Portal und Witcher 3 sind nicht enthalten, da die Daten auf den Messungen von Ada basieren und um RDNA 3 erweitert wurden. Mehr kommt, sobald die neuen Spiele fertig gepatcht sind. :ugly:

MfG
Raff

dildo4u
2022-12-14, 10:49:57
Leider lässt sich Fortnite schlecht Benchen eigentlich der wichtigste Benchmark für die Zukunft.(UE 5.1)
Wir brauchen Hellblade 2 dort kann man vermutlich CPU Limit umgehen.

00-Schneider
2022-12-14, 10:55:05
Leider lässt sich Fortnite schlecht Benchen eigentlich der wichtigste Benchmark für die Zukunft.(UE 5.1)


Hat das Game nicht auch einen Singleplayer-Mode? Den müsste man doch benchen können? :confused:

Oder unterstützt nur der BR-Mode UE 5.1?

dildo4u
2022-12-14, 11:02:20
Ich kann es nicht testen da nicht gekauft aber bei Epic steht nur was von BR.


https://www.epicgames.com/fortnite/en-US/news/drop-into-the-next-generation-of-fortnite-battle-royale-powered-by-unreal-engine-5-1

Digidi
2022-12-14, 11:05:01
Die durchaus spannenden Titel Miles, Callisto, Portal und Witcher 3 sind nicht enthalten, da die Daten auf den Messungen von Ada basieren und um RDNA 3 erweitert wurden. Mehr kommt, sobald die neuen Spiele fertig gepatcht sind. :ugly:

MfG
Raff
Danke Raff. Kannst du das hier noch einschieben? Würde mich sehr freuen!

Zitat von Digidi Beitrag anzeigen
@Raff konntet ihr das mal Benchen? bei MultiDraW indirect sollte ja das doppelte Rauskommen und beschleunigt werden. Auch Mesh Shader wäre interessant, da es ja bei 3d Mark wohl defekt ist:

Hallo wer könnte sich mal mit einer 4090 die Zip hier runterladen und das durchbenchen? Wahrscheinlich geht nur Vulkan unter Windows 11 zumindest bei mir:

aufrühren dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0

Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/

Wenn jemand das mit einer 6900xt noch macht wäre auch nice.

Zur info eine 3070:
Mesh Instance Tris: 9.10 B/S
Mesh Prmitive 64x84: 5.5 B/s
Mesh Indexing: 64x84: 5,26 B/s
Mult DrawIndirext 64x84: 9.09 B/s
Mesh Shader: 9.21 B/s
Compute Shader: 14,48 B/s

Prinzenrolle
2022-12-14, 12:13:56
immerhin bewirbt AMD die neue GPU mit Raffis PCGH-Video, nur mal so zur Info (y)

Bei PCGH kommt die Karte wohl noch am Besten weg.
Modern Warfare rettet da wohl den Performanceschnitt der Karte um einige wenige Prozent.:tongue:
Fraglich ist warum die Min FPS und Percentile so schlecht bei RDNA 3 sind.
Ist das Hardware oder Software bedingt?

Prinzenrolle
2022-12-14, 12:17:37
Nun, denke da wird viel gefixt werden können und der Treiber enorm Zulegen sodass die 4080 so gut wie immer geschlagen werden kann.

Auf alle Fälle. Vor allem in modernen RT Titeln die auf AMD optimiert worden sind, wird es gar für jene eine Leistungsexplostion geben...


Ähnlich intel Arc kann man da schon behaupten,- denn oftmals ist der Treiber bei Gewissen Games unter Aller Sau.

Ich glaube mit Intel sollte man das nicht unbedingt vergleichen.

Moin!

Lektüre für den ersten Kaffee! =)


Super Arbeit, danke!
Macht im Mittel +36,4% für die RTX 4080, das ist natürlich nicht so geil.

Thunder99
2022-12-14, 12:18:48
Ich würde den Treibern noch Zeit geben, könnte noch so einiges gefixt werden nach meiner Meinung.
Die Karten sind besser als man denkt, haben aber in manchen Spielen halt ein Performance Problem.
Ob das Architektur bedingt ist oder Treiber oder beides wird sich zeigen müssen.
Schreibt die Karten noch nicht ab :)

Taigatrommel
2022-12-14, 12:34:31
Ich würde den Treibern noch Zeit geben, könnte noch so einiges gefixt werden nach meiner Meinung.
Die Karten sind besser als man denkt, haben aber in manchen Spielen halt ein Performance Problem.
Ob das Architektur bedingt ist oder Treiber oder beides wird sich zeigen müssen.
Schreibt die Karten noch nicht ab :)

Nur das weckt leider wieder gewisse Erinnerungen an Vega: Auch dort schob man die wohl nicht ganz so ideale Leistung auf Treiberprobleme und Käufer warteten dann auf den Wundertreiber, welcher in der Form ja nie erschienen ist. Ich möchte jetzt nicht sagen, dass Radeon 7000 gar keine Treiberprobleme hat, doch ich würde davor warnen, nicht den Fehler zu begehen, die Karte(n) mit der felsenfesten Überzeugung zu kaufen, in ein, zwei Monaten komme der Supertreiber mit deutlichem Leistungsschub.

MSABK
2022-12-14, 12:37:58
Beim Idle Verbrauch erwarte ich schon Verbesserungen bei neuen Treibern. Aber die Speed wird denke ich keine große Sprünge machen.

DrFreaK666
2022-12-14, 12:39:39
Nur das weckt leider wieder gewisse Erinnerungen an Vega: Auch dort schob man die wohl nicht ganz so ideale Leistung auf Treiberprobleme und Käufer warteten dann auf den Wundertreiber, welcher in der Form ja nie erschienen ist...

Vegas sind was Leistung angeht gut gealtert

KriNemeth
2022-12-14, 12:59:50
Eben AMD scheint da schon ein Händchen dafür zu haben (positiv konnotiert) oder sie lassen die Produkte wirklich beim Kunden reifen (negativ konnotiert).
Vega ist da auf jeden Fall ein Beispiel.

Aber auch, wenn man 6800XT Release Benchmarks im Vergleich zu den bei der 7900XT/X vergleicht, konnte der GAP, welcher zwischen 6800XT und 3080 existierte geschlossen werden.

Hier haben wir ein völlig neues Design und bei ein paar Benchmarks scheint das Potential auch durch, bin auch der Meinung, dass da noch was brach liegt an Performance.

Crazy_Chris
2022-12-14, 14:09:03
Beim Idle Verbrauch erwarte ich schon Verbesserungen bei neuen Treibern.

Die Frage ist nur in welcher Größenordnung das sein wird. In 4k@144Hz liegt man bei über 100W im Idle und akzeptabel wären so der Bereich um die 30W denke ich. Würde mich schon überraschen wenn sie das via Treiber soweit drücken könnten.

Lawmachine79
2022-12-14, 14:09:03
Nun, denke da wird viel gefixt werden können und der Treiber enorm Zulegen sodass die 4080 so gut wie immer geschlagen werden kann.

Ja, mit dem Angriff Steiner wird das schon alles in Ordnung kommen.

gbm31
2022-12-14, 14:29:54
Vegas sind was Leistung angeht gut gealtert

Muss ich auch sagen, was die Vega im 5700G noch liefert, alle Achtung!

Trotzdem werd ich max. die verlängerte Rückgabe bis 31.01.2023 von NBB testen wie die Karte unter VR performt.

Entweder bleib ich sonst bei der 6900XT (ist ja jetzt kein wirklicher Leidensdruck...) oder die 4080 ist im Preis gefallen (huch böse.. soviel zum roten Fanboy)

][immy
2022-12-14, 14:41:47
Moin!

Lektüre für den ersten Kaffee! =)

Radeon RX 7900 XTX im Raytracing-Härtetest: Faktor 2 gegenüber Radeon RX 6000 ist drin (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-RX-7900-XTX-oder-Geforce-RTX-4080-fuer-Raytracing-1409411/)

"Die Radeon RX 7900 XTX blüht mit FSR regelrecht auf."

MfG
Raff
Das würde ja darauf hinweisen, das irgendwo in dem System ein Bremsklotz drin ist. Z.B. der Cache der verkleinert wurde. Durch das kleinere Render-Target passt ggfs. mehr Daten in den Cache und bremst dann nicht mehr so aus.
Andere Theorie wäre, das mal wieder die TF-Leistung einfach nicht durchschlägt und durch das zusätzlichen FSR was über die Shader ausgeführt wird, dadurch noch weniger ins Budget haut als bei der 6000er Serie.
Das man hier die KI-Kerne für den FSR-Kram schon nutzt und daher mehr Leistung frei hat, halte ich für verfrüht.

Ansonsten sollte es eigentlich keinen Grund geben, warum FSR bei der neuen Gen deutlich mehr bringt als bei der alten.

Btw, die Mincraft RTX Werte sind nach wie vor unter aller Sau. Aber das haut auch (in 4k) auf so ziemlich jeder Hardware richtig rein. Schon erstaunlich wie aufwendig so ein billiges Spiel werden kann (was quasi auf jedem Toaster läuffähig ist ... ok, ohne Pathtracing) und das obwohl man die Lichtänderungen sehen kann (über viel Frames).

Langlay
2022-12-14, 14:45:48
[immy;13188953']Das würde ja darauf hinweisen, das irgendwo in dem System ein Bremsklotz drin ist. Z.B. der Cache der verkleinert wurde. Durch das kleinere Render-Target passt ggfs. mehr Daten in den Cache und bremst dann nicht mehr so aus.


Wenns es der Cache ist, dann würde es wohl die gestapelte Variante mit 192MB Cache geben. Da es sie nicht gibt würde ich vermuten, dass der Cache nicht das Problem ist.

Spring
2022-12-14, 14:49:35
Ja, mit dem Angriff Steiner wird das schon alles in Ordnung kommen.

Zweimal funktioniert der nicht, das erste Mal hat besser gepasst.
Bitte kreativer werden.

Legendenkiller
2022-12-14, 14:50:14
Was ich nicht so richtig verstehe ... ohne RT mit zu beachten.

Die 3080 hat 30TFLOPS, die 4080 hat 48,8 TFLOPS
Also 62% mehr und schafft damit ~45% mehr FPS. Also fast perfekt.


Die 6900XT hat 23 TFLOPS, die 7900XTX hat 61 TFLOPS
Also 165% mehr und schafft auch nur ~50% mehr FPS ... das ist imo irgendwie grotten schlecht.

Da hat AMD doch noch irgendein massives Problem?

Der_Korken
2022-12-14, 15:03:31
Was ich nicht so richtig verstehe ... ohne RT mit zu beachten.

Die 3080 hat 30TFLOPS, die 4080 hat 48,8 TFLOPS
Also 62% mehr und schafft damit ~45% mehr FPS. Also fast perfekt.


Die 6900XT hat 23 TFLOPS, die 7900XTX hat 61 TFLOPS
Also 165% mehr und schafft auch nur ~50% mehr FPS ... das ist imo irgendwie grotten schlecht.

Da hat AMD doch noch irgendein massives Problem?

Das "Problem" besteht darin, dass die theoretischen TFlops/s null Aussagekraft haben. Eigentlich ist die Steigerung nur gut 30% durch +20% CUs und etwas Takt. Zusätzlich hat man die Caches und Register Files vergrößert, sodass die CUs mehr Instruktionen auf Tasche halten können und besser ausgelastet werden können. Und dann gibt es noch die Neuerung, dass die CUs unter ganz besonderen Umständen statt nur einer Instruktion noch eine zweite Instruktion "for free" durchschieben können. Da das theoretisch (aber nicht praktsch) in jedem Takt passieren kann, zählt man die TFlops/s jetzt eben doppelt.

Langlay
2022-12-14, 15:04:44
Was ich nicht so richtig verstehe ... ohne RT mit zu beachten.

Die 3080 hat 30TFLOPS, die 4080 hat 48,8 TFLOPS
Also 62% mehr und schafft damit ~45% mehr FPS. Also fast perfekt.


Die 6900XT hat 23 TFLOPS, die 7900XTX hat 61 TFLOPS
Also 165% mehr und schafft auch nur ~50% mehr FPS ... das ist imo irgendwie grotten schlecht.

Da hat AMD doch noch irgendein massives Problem?

Bei Nvidia hat der Sprung zu den dual FP32 Einheiten früher stattgefunden.

2080TI -> 13,5TFLOPS
3090TI -> 40,0TFLOPS

Die 3090TI ist auch nicht 3x so schnell (in Spielen) wie die 2080ti.

Monsta
2022-12-14, 15:08:40
Für den Preis ist die 7900er Serie vollkommen uninteressant.
In meinen Augen DOA.

Langsamer versoffener und unkonstante Leistung.
Hoher Idle/Youtube verbraucht.
Schlechteres Featureset.
Die Versprechen von AMD wurden nicht eingehalten.

Die Nvidias sind auch ausserhalb meiner Kaufgewohnheit. Sind trotz des hohem Preises das viel bessere Angebot.

Mir völlig unverständlich sowas zu bringen. Das ist eher eine 7700xtx.
Der Name 7800 wäre auch nicht passend, da die 4080 viel schneller ist.
+35% in Raytracing.

][immy
2022-12-14, 15:26:08
...
Mir völlig unverständlich sowas zu bringen. Das ist eher eine 7700xtx.
Der Name 7800 wäre auch nicht passend, da die 4080 viel schneller ist.
+35% in Raytracing.
Das war aber auch bei der Vorgängergeneration bereits so (bzw. noch extremer). RayTracing ist halt einfach nichts wofür man eine AMD Karte aktuell kauft. Aber es gibt (IMHO) auch noch nichts wofür es sich wirklich lohnt. Bei meiner RTX 3070 schalte ich das eigentlich nie ein, weil ich dann auch DLSS aktivieren muss (damit die Bildrate gut bleibt) und dann kommen neue Artefakte und verminderte Qualität in Bewegung dazu. Für mich ist das DLSS Bild nach wie vor deutlich unschärfer als native 1440p sogar mit diversen TAA Filtern. DLSS ist nach wie vor relativ unberechenbar und die Qualität schwankt extrem (in meinen Augen), weshalb ich davon nach wie vor die Finger lasse.

w0mbat
2022-12-14, 15:44:23
Für Nvidia Fans ist RT immer nur auf Nvidia GPUs nutzbar, dort dann richtig gut. Aber sobald eine neue Generation kommt, sind die alten Top-Chips plötzlich alle viel zu langsam.

Am Anfang war nur eine 2080 Ti schnell genug für RT, war dort aber so viel besser als AMD ohne RT, dass es ein "Killer-Feature" war. Als dann die 6900 XT mit der RT-Performance einer 2080 Ti kam, war es viel zu langsam und eigentlich nicht nutzbar.
Jetzt wieder genau das selbe. Vor ein paar Wochen war die 3090/Ti eine richtig tolle RT Graka. Damit konnte man - laut Nvidia Fans - RT so nutzen wie es sein sollte. Aber jetzt, wo die 7900 XTX das gleiche Level an RT-Performance liefert, ist es nicht nur viel zu langsam, sondern plötztlich nicht mehr nutzbar.

Keine Frage, Nvidia hat eine Generation Vorsprung bei RT und ich bin auch immer mehr der Meinung, dass RT-Leistung langsam ein wichtiger Faktor wird, der auch beim Kauf entscheidend sein kann. Wenn ich jetzt eine RDNA3 Graka kaufe und in 2-3 Jahren ein RT-Game zocken will, wie läuft das dann?

Aber dieser Reflex, dass sobald eine neue Nvidia GPU raus kommt, alles langsamere sofort nutzlos wird, ist einfach lächerlich. Die gleichen Leute, die noch vor zwei Monaten die RT-Leistung der 3090 gefeiert haben, sind plötzlich der Meinung, die XTX ist für RT nich zu gebrauchen.

Dabei leistet selbst meine RX 6800 eine mehr als ordentliche RT-Leistung. Ich hab Metro Exodus Anfang 2020 mit RT gespielt, sah super aus und ich hatte im Schnitt so 70-80 FPS. Ich hab dieses Jahr Guardians of the Galaxy gespielt, mit aktiven RT, und es lief nicht nur gut (auch so 80+ FPS), sondern sah auch nett aus.

Klar, CP2077 oder das neue TW3 Update würde Probleme bereiten, aber so viele "ultra RT" Spiele gibt es aktuell noch nicht. Die große Masse läuft selbst auf RDNA2 ganz ordentlich und eine 7900 XTX wird dort keine Probleme haben.

Linmoum
2022-12-14, 15:57:12
Mit welchen Settings hattest du deine 70-80fps? In welcher Auflösung? Das sind immer nur wenig verwertbare Informationen, wenn solche Sachen fehlen, die zur Einordnung ja nun einmal relevant sind.

Aber Raffs Test zeigt doch auch, dass viele eben nicht "ganz ordentlich" läuft. Zumindest nicht in UHD. Und das ist auch AMDs Problem. In Raster sind das UHD-Karten, mit RT aber eher maximal WQHD. Teilweise sogar eher nur FHD, wenn man z.B. Minecraft sieht.

Und alles kann FSR halt auch nicht kompensieren, was nativ an fps fehlt.

Spring
2022-12-14, 16:00:15
Für Nvidia Fans ist RT immer nur auf Nvidia GPUs nutzbar, dort dann richtig gut. Aber sobald eine neue Generation kommt, sind die alten Top-Chips plötzlich alle viel zu langsam.

Am Anfang war nur eine 2080 Ti schnell genug für RT, war dort aber so viel besser als AMD ohne RT, dass es ein "Killer-Feature" war. Als dann die 6900 XT mit der RT-Performance einer 2080 Ti kam, war es viel zu langsam und eigentlich nicht nutzbar.
Jetzt wieder genau das selbe. Vor ein paar Wochen war die 3090/Ti eine richtig tolle RT Graka. Damit konnte man - laut Nvidia Fans - RT so nutzen wie es sein sollte. Aber jetzt, wo die 7900 XTX das gleiche Level an RT-Performance liefert, ist es nicht nur viel zu langsam, sondern plötztlich nicht mehr nutzbar.

Keine Frage, Nvidia hat eine Generation Vorsprung bei RT und ich bin auch immer mehr der Meinung, dass RT-Leistung langsam ein wichtiger Faktor wird, der auch beim Kauf entscheidend sein kann. Wenn ich jetzt eine RDNA3 Graka kaufe und in 2-3 Jahren ein RT-Game zocken will, wie läuft das dann?

Aber dieser Reflex, dass sobald eine neue Nvidia GPU raus kommt, alles langsamere sofort nutzlos wird, ist einfach lächerlich. Die gleichen Leute, die noch vor zwei Monaten die RT-Leistung der 3090 gefeiert haben, sind plötzlich der Meinung, die XTX ist für RT nich zu gebrauchen.

Dabei leistet selbst meine RX 6800 eine mehr als ordentliche RT-Leistung. Ich hab Metro Exodus Anfang 2020 mit RT gespielt, sah super aus und ich hatte im Schnitt so 70-80 FPS. Ich hab dieses Jahr Guardians of the Galaxy gespielt, mit aktiven RT, und es lief nicht nur gut (auch so 80+ FPS), sondern sah auch nett aus.

Klar, CP2077 oder das neue TW3 Update würde Probleme bereiten, aber so viele "ultra RT" Spiele gibt es aktuell noch nicht. Die große Masse läuft selbst auf RDNA2 ganz ordentlich und eine 7900 XTX wird dort keine Probleme haben.

Weiser w0mbat :up:

Wie gesagt, sobald man das 3DC/PCGH/CB/Golem und wie sie alle heißen verlässt, wird es nämlich Zappenduster mit der realen Nutzung von RT.

Da kann man DLSS und FSR deutlich mehr abgewinnen, aber auch das ist bei den meisten Unbekannt oder wird einfach nicht genutzt.

Zumindest nicht in UHD. Und das ist auch AMDs Problem. In Raster sind das UHD-Karten, mit RT aber eher maximal WQHD. Teilweise sogar eher nur FHD, wenn man z.B. Minecraft sieht.


Auch hier gilt: in 4K spielt nur ein kleiner Teil der Gamer, WQHD ist da schon relevanter. FullHD ist noch weltweit mit Abstand die meist genutzte Auflösung (beim Zocken).
Das 3DC & co ist eine Bubble, ihr macht euch mit RT und 4K viel zu wichtig. Auch wenn HIER natürlich fast jeder davon schreibt.

Linmoum
2022-12-14, 16:08:58
AMD vermarktet die Karten explizit für UHD, insofern sehe ich nicht, warum andere Auflösungen hier relevanter sein sollen, wo man dann im CPU-Limit rumgurkt, weil die Karten zu schnell sind...

Spring
2022-12-14, 16:13:46
AMD vermarktet die Karten explizit für UHD, insofern sehe ich nicht, warum andere Auflösungen hier relevanter sein sollen, wo man dann im CPU-Limit rumgurkt, weil die Karten zu schnell sind...

Die Karten sind ja auch obv nur für einen kleinen Teil der eben auf mehr als FullHD/WQHD spielt.

Und da sind die Absatzzahlen einfach lächerlich (paar hundert k 4090 weltweit ist nichts, gilt dann für die 7900XTX auch so), im Vergleich zum Bereich 250-600€ wo mehrere Mio an Karten verkauft werden (die auch selten in 4K zocken btw).

Und UHD läuft doch ez, auch bei AMD (Raster sowieso und auch RT wird gehen, wahrscheinlich nicht max quali).

Matrix316
2022-12-14, 16:28:20
Blöde OT Frage: War Raytracing eigentlich eine Idee von Nvidia, weil sie ihre komischen Tensorchips übrig hatten oder war Raytracing damals aktuell ein neues Direct X Feature und Nvidia hat nur ihre Chips so entworfen um die Anforderungen zu erfüllen?

Weil eigentlich ist so ein Feature viel zu essentiell damit ein Hersteller damit "Angeben" kann. Da müsste man doch eigentlich gemeinsam Lösungen finden um Grafikkarten dafür herzurichten.

OpenVMSwartoll
2022-12-14, 16:31:04
Hab mal auf CB zum Thema UHD mit der 7900 XTX noch mal nachgelesen. Klar, man kann sich immer mehr erhoffen, aber den Großteil der Spiele kann man auch mit RT gut genießen.

Ihr somit die Tauglichkeit abzusprechen wirkt doch sehr verzweifelt. Und irgendwie geht kaum einer der Kritiker auf das valide Argument, dass bis vor Kurzem die 3090 (TI) der heiße Shit war und absolut notwendig für RT, ein.

Nightspider
2022-12-14, 16:33:18
Mich würden halt mal noch Benchmarks interessieren, wo nur die sinnvollen Raytracing Einstellungen aktiviert wurden und alles unwichtige deaktiviert ist.

Bei manchen Titeln wird durch bestimmte Raytracing Effekte nur sinnlos Leistung verschleudert, die in Rastereffekten besser investiert wäre.

Wiseman
2022-12-14, 16:33:35
Jetzt wieder genau das selbe. Vor ein paar Wochen war die 3090/Ti eine richtig tolle RT Graka. Damit konnte man - laut Nvidia Fans - RT so nutzen wie es sein sollte. Aber jetzt, wo die 7900 XTX das gleiche Level an RT-Performance liefert, ist es nicht nur viel zu langsam, sondern plötztlich nicht mehr nutzbar.

Aber dieser Reflex, dass sobald eine neue Nvidia GPU raus kommt, alles langsamere sofort nutzlos wird, ist einfach lächerlich. Die gleichen Leute, die noch vor zwei Monaten die RT-Leistung der 3090 gefeiert haben, sind plötzlich der Meinung, die XTX ist für RT nich zu gebrauchen.


+1

Lehdro
2022-12-14, 16:36:36
Blöde OT Frage: War Raytracing eigentlich eine Idee von Nvidia, weil sie ihre komischen Tensorchips übrig hatten oder war Raytracing damals aktuell ein neues Direct X Feature und Nvidia hat nur ihre Chips so entworfen um die Anforderungen zu erfüllen?

Weil eigentlich ist so ein Feature viel zu essentiell damit ein Hersteller damit "Angeben" kann.
Wohl eher hatte man AMD soweit abgehängt, das man den Diespace dafür hatte, um eine neues Feature einzubringen, was man exklusiv für sich vermarkten konnte, da AMD schon genug zu tun hatte, auch nur traditionelles Raster aufzuholen. RTX wird in einer Zeit konzipiert worden sein, als AMD komplett am Krückstock ging (Fury). Vega hat dass dann nur noch bestätigt. Passend kam RTX dann vorher auf den Markt als AMD einen Achtungserfolg mit RDNA1 hatte...der sofort durch das Timing entwertet wurde. Man stelle sich das Duell ohne RTX vor, schlimmer noch bei RDNA2 vs. Ampere.

Da müsste man doch eigentlich gemeinsam Lösungen finden um Grafikkarten dafür herzurichten.
Hahaha, NV und offene Standards ;D

TobiWahnKenobi
2022-12-14, 16:40:10
naja.. nvidias hausinterner aufschlag auf die bescheidene leistung einer 3090 war jetzt - 2 jahre danach - auch nicht ohne..

btw,
AFAIR hat AMD die XTX doch sogar für noch höhere auflösungen und refreshraten angepriesen.. immerhin gibt es den neuen displayport.. LOL


(..)

mfg
tobi

Nightspider
2022-12-14, 16:48:43
Bei welcher Seite gabs nochmal VR Benchmarks?

Finds gerade nicht.

dildo4u
2022-12-14, 16:57:34
Bei welcher Seite gabs nochmal VR Benchmarks?

Finds gerade nicht.

https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/5/

Lawmachine79
2022-12-14, 17:05:05
Für Nvidia Fans ist RT immer nur auf Nvidia GPUs nutzbar, dort dann richtig gut. Aber sobald eine neue Generation kommt, sind die alten Top-Chips plötzlich alle viel zu langsam.

Am Anfang war nur eine 2080 Ti schnell genug für RT, war dort aber so viel besser als AMD ohne RT, dass es ein "Killer-Feature" war. Als dann die 6900 XT mit der RT-Performance einer 2080 Ti kam, war es viel zu langsam und eigentlich nicht nutzbar.
Jetzt wieder genau das selbe. Vor ein paar Wochen war die 3090/Ti eine richtig tolle RT Graka. Damit konnte man - laut Nvidia Fans - RT so nutzen wie es sein sollte. Aber jetzt, wo die 7900 XTX das gleiche Level an RT-Performance liefert, ist es nicht nur viel zu langsam, sondern plötztlich nicht mehr nutzbar.

Keine Frage, Nvidia hat eine Generation Vorsprung bei RT und ich bin auch immer mehr der Meinung, dass RT-Leistung langsam ein wichtiger Faktor wird, der auch beim Kauf entscheidend sein kann. Wenn ich jetzt eine RDNA3 Graka kaufe und in 2-3 Jahren ein RT-Game zocken will, wie läuft das dann?

Aber dieser Reflex, dass sobald eine neue Nvidia GPU raus kommt, alles langsamere sofort nutzlos wird, ist einfach lächerlich. Die gleichen Leute, die noch vor zwei Monaten die RT-Leistung der 3090 gefeiert haben, sind plötzlich der Meinung, die XTX ist für RT nich zu gebrauchen.


Hab mal auf CB zum Thema UHD mit der 7900 XTX noch mal nachgelesen. Klar, man kann sich immer mehr erhoffen, aber den Großteil der Spiele kann man auch mit RT gut genießen.

Ihr somit die Tauglichkeit abzusprechen wirkt doch sehr verzweifelt. Und irgendwie geht kaum einer der Kritiker auf das valide Argument, dass bis vor Kurzem die 3090 (TI) der heiße Shit war und absolut notwendig für RT, ein.

Ist doch logisch. Der Maßstab des Erwünschten richtig sich nach dem Verfügbaren. Wenn ein neuer Sheriff in der Stadt ist, gilt ab dann eben ein neuer Maßstab und es wird eine neue Standortbestimmung durchgeführt. Ich fand auch mal 60 FPS auf FHD absolut knorke. Heute ist das 'ne Zumutung. Wenn die 5090 kommt ist die 4090 in irgendwas scheiße (und auch die AMD-Karte, die über 2 Jahren nach der 5090 kommt und so schnell wie die 4090 ist), weil die 5090 darin 70% besser ist.

Ich fand früher auch mal das hier flüssig:
https://www.youtube.com/watch?v=FdAQYLI_2b4

Weil es eben nichts anderes gab.


btw,
AFAIR hat AMD die XTX doch sogar für noch höhere auflösungen und refreshraten angepriesen.. immerhin gibt es den neuen displayport.. LOL

Ja, den kann man sich auf eine 4090 löten...

https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/5/
VR saugt also auch. Genau wie RT. Aber gut, das ist ja alles nur für Nerds ;). Dann werden wohl Casual Gamer 1000 Euro für eine AMD-Graka ausgeben ;).

w0mbat
2022-12-14, 17:13:39
Wenn ein neuer Sheriff in der Stadt ist, gilt ab dann eben ein neuer Maßstab und es wird eine neue Standortbestimmung durchgeführt.
Wut? Sheriff? Standortbestimmung?

Alte GPUs werden nicht langsamer nur weil es was neues gibt. Entweder war die 3090 ausreichend für RT, oder nicht.
Klar verändert sich das Empfinden über Zeit, aber nicht von jetzt auf heute und auch nur, wenn man die höhere Leistung selber erfahren kann. Also wenn du eine 4090 kaufst und CP2077 jetzt schneller läuft als auf der alten 3090 bin ich voll bei dir. Aber wenn du weiter deine alte 3090 nutzt, ändert sich nichts. Entweder sie reicht dir aus oder nicht, die 4090 hat keinen Einfluss darauf.

Lawmachine79
2022-12-14, 17:18:34
Wut? Sheriff? Standortbestimmung?

"Metapher entdeckt. Transferleistung erforderlich."

Wut? Sheriff? Standortbestimmung?

Alte GPUs werden nicht langsamer nur weil es was neues gibt. Entweder war die 3090 ausreichend für RT, oder nicht.
Klar verändert sich das Empfinden über Zeit, aber nicht von jetzt auf heute und auch nur, wenn man die höhere Leistung selber erfahren kann. Also wenn du eine 4090 kaufst und CP2077 jetzt schneller läuft als auf der alten 3090 bin ich voll bei dir. Aber wenn du weiter deine alte 3090 nutzt, ändert sich nichts. Entweder sie reicht dir aus oder nicht, die 4090 hat keinen Einfluss darauf.
Also, CP2077 konnte ich mit einer 3090 Non-Ti mit mittlerem RT spielen, für mehr musste ich DLSS einschalten. Hat mich vom Hocker gehauen, weil es Hammer aussah. Als ich es dann das erste Mal auf der 4090 gesehen habe, wo es ohne DLSS mit allen RT-Assets schneller lief, war es, so wie es auf der 3090 war für mich schlagartig uninteressant.

Aber richtig, in meiner Logik kann man es als beharrlicher AMD-Käufer, der aus Prinzip einen großen Bogen um NV macht, dann dennoch mit der 7900XTX und RT probieren. Man kennt ja nix besseres. Ein Golf GTI ist auch geil, bis man mal einen Ferrari gefahren ist. Und hätte ich es auf einer 4090 nicht gesehen, fände ich es auf einer 3090 wohl noch toll.

Dampf
2022-12-14, 17:23:15
+1

Ist jetzt aber so. 3080 RT ist jetzt schlecht. Man sehe sich nur die Performance in Witcher an. Der grüne Mann sorgt jetzt dafür, dass man RT nur noch auf Ada mit Frame Generation genießen kann.

w0mbat
2022-12-14, 17:26:54
Nein, ist eben nicht so. Nur weil du das behauptest wird daraus nicht die Wahrheit. Und ein unfertiges Spiel, das noch nicht mal stabil läuft, als Argument zu nutzen hilft dir nicht wirklich weiter.

Zu du mit deiner 8800 GT nicht wirklich mitreden kannst ;)

Linmoum
2022-12-14, 17:27:07
Naja, die 3080 mit 10GiB ist aber auch ein Extrembeispiel. Die ist schon aufgrund des mickrigen Speichers einfach Müll für hohe Auflösung inkl. RT.

Viel Speicher ist natürlich witzlos, wenn die Grundleistung nicht da ist, aber die ist bei RDNA3 ja höher als bei der 3080. Zumindest in den meisten Fällen, wenn auch leider nicht immer.

forenhoernchen
2022-12-14, 17:37:17
Klingt alles hier nach akademischen Diskussionen. Schlussendlich kommt es ja nur auf den Preis an. Die 7900er kosten für ihren Preisbereich "passend" und damit ist es komplett wurscht, dass die 4090er besser ist. Jeder kauft in dem Preisbereich, den er sich leisten will - und dort die jeweils beste Karte. Dass es natürlich Mist ist, dass selbst eine >1000€ Karte kein no-brainer mehr ist, liegt weniger an AMD (alleine) sondern an den kranken Preisen. Würde die Karte - sagen wir - 700€ kosten, dann würden wir denen das Teil aus den Händen reißen.

dargo
2022-12-14, 17:52:39
Ist jetzt aber so. 3080 RT ist jetzt schlecht.
Wie jetzt? 3080 ist jetzt schlecht und du kriechst mit deiner 2060 noch rum? Finde den Fehler. :lol:

Der grüne Mann sorgt jetzt dafür, dass man RT nur noch auf Ada mit Frame Generation genießen kann.
Jo... bei alten Schinken. ;D

horn 12
2022-12-14, 17:58:35
AMD.com

AMD Referenz XT Ohne Drop Verfügbar!



@gbm31
Karte bereits erhalten

dargo
2022-12-14, 19:33:49
Leider erstmal nur langweiliges Unboxing zum Nitro+ Klopper.

ymXKGv1nXpc

Es dürfte aber bald genug Videos mit eingeblendetem Overlay zur Karte von dem Typen geben, der veröffentlich regelmäßig Gameplayvideos.

Olliver
2022-12-14, 19:39:06
Lustige Diskussion über RT und die neuen Karten, geht aber für mich mit viel Polemik an der Realität vorbei.
Ich habe damals eine 3090 FE für zu viel Geld gekauft, weil sie als einzige Karte einigermaßen für RT zu gebrauchen war, sie war aber eigentlich für Cyberpunk viel zu langsam.

Das Geruckel hat genervt, ich hatte aber keine Alternative, jetzt ist AMD da, wo nvidia vor zwei Jahren war und ich es gibt eine 4090 die tatsächlich schnell genug ist,
ich meine aber das eine 1.5K€ teure Karte länger als zwei Jahre halten muss und ich nicht nochmal 2K+ ausgeben möchte, damit ein zwei Jahre altes Spiel richtig läuft.

Wenn eine 7900xtx für 1200€ bei RT mit einer rtx 4080 mithalten könnte, würde ich einen Kauf in Betracht ziehen.
Die 4080 ist mit ihren 256 bit & 16GB, 1K€ wert.

user77
2022-12-14, 19:46:49
Ich weiß nicht was alle haben, die AMD RX 7900 XTX hat 3x so viele X wie die RTX 4090.
Vor allem die XFX RX 7900 XTX ist ganz weit vorne.

https://abload.de/img/screenshot2022-12-141xlc9c.png

Ätznatron
2022-12-14, 19:48:07
Die 4080 ist mit ihren 256 bit & 16GB, 1K€ wert.

Die eine hat GDDR6, die andere GDDR6X, und das ist ein nicht zu unterschätzender Unterschied.

Olliver
2022-12-14, 19:51:03
Die Speichbandbreite der 4080 ist doch bekanntermaßen ca. 20 bis 25% geringer.
Und Steelrising hat jetzt schon 20GB+ verbraucht, wann sind 16GB zu knapp?

Ätznatron
2022-12-14, 19:59:48
Die Speichbandbreite der 4080 ist doch bekanntermaßen ca. 25% geringer.

Das mag sein, der GGDR6X-Speicher hat ja andere Vorteile.

Eine fette Busbreite allein reicht jedenfalls nicht. Die XTX wird dadurch jedenfalls nicht zum Gewinner im Duell.

dargo
2022-12-14, 20:01:20
Ich weiß nicht was alle haben, die AMD RX 7900 XTX hat 3x so viele X wie die RTX 4090.
Vor allem die XFX RX 7900 XTX ist ganz weit vorne.

https://abload.de/img/screenshot2022-12-141xlc9c.png
Der ist echt gut. ;D :up:

HOT
2022-12-14, 20:05:56
Das mag sein, der GGDR6X-Speicher hat ja andere Vorteile.

Eine fette Busbreite allein reicht jedenfalls nicht. Die XTX wird dadurch jedenfalls nicht zum Gewinner im Duell.
Welche sollen das sein? Nein, die 7900XTX hat fast die gleiche Bandbreite wie die 4090. Beide AMD Karten sind sogar überdimensioniert aus meiner Sicht.

Olliver
2022-12-14, 20:10:52
Ich hatte auch darauf angespielt, dass ich heute von 3090 zu 4080 weniger Bandbreite und Speichermenge für gleichviel € bekomme.

Ätznatron
2022-12-14, 20:13:21
Welche sollen das sein? Nein, die 7900XTX hat fast die gleiche Bandbreite wie die 4090. Beide AMD Karten sind sogar überdimensioniert aus meiner Sicht.

Niedrigere Temperatur, höheres OC-Potential.

Und zwischen 20 und 22 Gbps sind es schon 10 % Unterschied.

Olliver
2022-12-14, 20:17:52
ich komme bei der 4080 mit OC also fast auf 3090 Niveau?
Das ist doch mal Fortschritt.

Ätznatron
2022-12-14, 20:26:53
ich komme bei der 4080 mit OC also fast auf 3090 Niveau?
Das ist doch mal Fortschritt.

Wer massig Datendurchsatz braucht, greift im Zweifel zur AMD VII.

Für alle anderen, vor allem die Gamer, gilt: "Entscheidend ist, was hinten rauskommt" (um mal den verstorbenen Herrn Dr. Kohl zu zitieren).

Und da sehe ich eine 3090 nicht mal ansatzweise als Konkurrenz zu den hauseigenen Lovelace-Modellen.

Nightspider
2022-12-14, 20:28:57
Gibts schon Benchmarks zu The Witcher 3 Next Gen 4080 vs 7900 XTX?

Ätznatron
2022-12-14, 20:32:19
Gibts schon Benchmarks zu The Witcher 3 Next Gen 4080 vs 7900 XTX?


Ich bitte dich.

Es läuft auf meiner 4080 so unrund, dass ich die Installation fast schon bereue.

Was willst du da also vergleichen?

Olliver
2022-12-14, 20:38:18
"Und da sehe ich eine 3090 nicht mal ansatzweise als Konkurrenz zu den hauseigenen Lovelace-Modellen."
Das ist natürlich klar, mir ging es nur um gleichviel € für weniger Ram Menge und performance.