PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GPU-Benchmarks 2024 (Rasterizing & Raytracing): Die Diskussion


Raff
2023-12-04, 00:43:58
Moin!

Da hier einige Enthusiasten herumwuseln, möchte ich euch neueste Doktorarbeit der PCGH ans Herz legen. Benchmark-Diskussionen haben hier schließlich eine gewisse Tradition. :)

Die besten Gaming-Grafikkarten für 2024 - Teil 1: High-End für 4K/Ultra HD (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Die-beste-Grafikkarte-2024-Teil-1-4K-Ultra-HD-1433940/)

Das dazugehörige Video:

OgUCUb49Qc8

Warum ich denke, dass das jeden interessieren sollte, hier ein paar Stichpunkte zum Inhalt und zur Methodik:

– 20 neue Spiele verschiedenster "Gesinnungen" im Rasterizing-Parcours
– 10 fortschrittliche/anspruchsvolle Spiele im Raytracing-Parcours
– Jeweils vier Auflösungen getestet (Full HD, WQHD, UWQHD, Ultra HD)
– Durchweg sehr anspruchsvolle Custom-Benchmarkszenen (Videos der Szenen inkl.)
– Selbstverständlich aktueller Treiber- und Spiele-Stand
– Teil 1 mit Fokus auf High-End-Grafikkarten
– Bonusinhalte: Energie-Effizienz & Preis-Leistungs-Verhältnis

Konstruktives Feedback ist sehr willkommen. :up:

Teil 2 mit Grafikkarten zwischen 500 und 900 Euro folgt übrigens kommende Woche, abgerundet mit Modellen zwischen rund 200 und 450 Euro noch vor Weihnachten.

MfG
Raff

Ex3cut3r
2023-12-04, 08:19:19
Danke für den Test.

Interessant ist, dass eine 3090 Ti also 2020 Tech in RT, eine 7900XTX also 2023 Tech in UHD immer schlägt.

P.S. Gute Adblock Maßnahmen, kann die Benchmarks mit aktivierten Ublock Origin nicht ansehen. -.-

Auch eine Filterlisten Aktualisierung ändert daran nichts, congrats ihr seit besser als YouTube. Leider ist eure Website zu aufdringlich von den Ads, daher kann ich leider nicht drauf verzichten.

vinacis_vivids
2023-12-04, 08:25:04
Leider wurde die 7900XT ohne AFMF getestet, also relativ nutzlose Daten.

][immy
2023-12-04, 08:54:16
Leider wurde die 7900XT ohne AFMF getestet, also relativ nutzlose Daten.

Zumindest im Video wird doch extra erwähnt das ohne frame generation getestet wird. Macht auch überhaupt keinen Sinn diese Features zu benchen. DLSS/FSR halte ich ja schon für grenzwertig, da man nie wirklich weiß was am Ende an Bildqualität raus kommt und halt nicht vergleichbar ist. Aber bei RT muss man diesen Preis wohl aktuell zahlen.

Exxtreme
2023-12-04, 09:02:22
Leider wurde die 7900XT ohne AFMF getestet, also relativ nutzlose Daten.

AFMF ist im jetzigen Zustand absoluter Schrott und überhaupt nicht zu empfehlen. Zumal es auch noch dafür sorgen kann, dass man in Onlinespielen gebannt wird. Weil AMD auf die glorreiche Idee gekommen ist eine Technik dafür zu nutzen, die Cheats und Botsoftware ebenfalls nutzt.

Raff
2023-12-04, 09:52:55
Moin!

Danke für den Test.

Interessant ist, dass eine 3090 Ti also 2020 Tech in RT, eine 7900XTX also 2023 Tech in UHD immer schlägt.

P.S. Gute Adblock Maßnahmen, kann die Benchmarks mit aktivierten Ublock Origin nicht ansehen. -.-

Auch eine Filterlisten Aktualisierung ändert daran nichts, congrats ihr seit besser als YouTube. Leider ist eure Website zu aufdringlich von den Ads, daher kann ich leider nicht drauf verzichten.

Ich gebe das Feedback gerne weiter und stimme (leider) zu, dass die Website mit Werbung kein großer Spaß ist. Dagegen hilft derzeit nur ein Online-/Werbefrei-Abo für schmales Geld.

Leider wurde die 7900XT ohne AFMF getestet, also relativ nutzlose Daten.

Ich habe mir zwar vorgenommen, auf deine Postings nicht mehr einzugehen, bis du deine Tonne an AMD-Aktien endlich verkauft hast ;), aber hier die offizielle Antwort: AFMF steckt derzeit nicht im Haupt-Branch, der die neuesten Spiele-Optimierungen und "HAGS" enthält -> die Wahl fällt bis auf Weiteres auf den offiziellen Branch, nicht den experimentellen.

MfG
Raff

robbitop
2023-12-04, 09:54:45
Danke für den Test.

Interessant ist, dass eine 3090 Ti also 2020 Tech in RT, eine 7900XTX also 2023 Tech in UHD immer schlägt.
RDNA3 ist was RT angeht sogar noch hinter Turing (level 2 vs level 3). Kein wunder, dass bei hoher RT Last RDNA3 schnell überholt wird.

dildo4u
2023-12-04, 10:21:06
Guter Mix an Games was auffällt selbst die 60fps Konsolen Games mit RT performen grottig auf der 7900XTX(Ratchet/Forza/Metro) ich vermute mal Raff achtet da deutlich mehr drauf das die Karten nicht in CPU Limits laufen.
Wobei Hogwarts selbst mit dem OC Intel immer noch Probleme hat.

DrFreaK666
2023-12-04, 10:24:41
...Leider ist eure Website zu aufdringlich von den Ads, daher kann ich leider nicht drauf verzichten.

Versuchs mal mit der mobilen Seite. Zumindest an meinem Smartphone werde ich nicht mit Werbung zugeballert. Kann man das am Desktop irgendwie erzwingen?

AFMF ist im jetzigen Zustand absoluter Schrott und überhaupt nicht zu empfehlen. Zumal es auch noch dafür sorgen kann, dass man in Onlinespielen gebannt wird.Weil AMD auf die glorreiche Idee gekommen ist eine Technik dafür zu nutzen, die Cheats und Botsoftware ebenfalls nutzt.

Sicher? Das habe ich bisher noch nirgends gelesen

Raff
2023-12-04, 10:27:25
ich vermute mal Raff achtet da deutlich mehr drauf das die Karten nicht in CPU Limits laufen.

Definitiv! Lässt sich aber trotz GPU-lastiger Szenen nicht immer ganz vermeiden, wie bei ...

Wobei Hogwarts selbst mit dem OC Intel immer noch Probleme hat.

Fun fact: Beim ersten Abstecken der Benchmarkszene anhand einer RTX 4090 OC (Plattform muss Reserven haben) wollte ich auf TAA gehen, denn das CPU-Limit ist gerade beim Besen-Streaming hart. Wenn man aber sieht, wie alle anderen GPUs dann wegsterben ... jedenfalls ist Q-Upsampling mit partiellem CPU-Limit (nur) bei der RTX 4090 der harmlosere Tod. :)

Sicher? Das habe ich bisher noch nirgends gelesen

Schau mal hier: https://www.3dcenter.org/news/news-des-16-oktober-2023

Das Problem ist AntiLag+, nicht (A)FMF generell.

MfG
Raff

Taigatrommel
2023-12-04, 11:37:07
Leider wurde die 7900XT ohne AFMF getestet, also relativ nutzlose Daten.

Da AFMF noch gar nicht in die offiziellen Treiber integriert wurde, sondern es lediglich eine Tech-Preview gibt, ist es absolut verständlich, dass man dieses Feature gar nicht erst bewertet hat. Generell hat AMD ja derzeit mehrere Treiberzweige, da muss man sich als Redaktion schon entscheiden, welchen man überhaupt nehmen soll. Das man dort vermutlich eher den 23.11.1 genommen hat, macht Sinn. Davon abgesehen sind meine eigenen kurzen Erfahrungen mit AFMF eher schlecht, ja der Balken wird länger aber das Spielgefühl ist tendenziell eher schlechter - was also soll das bringen? Kann man sich anschauen, wenn es irgendwann einmal in die offiziellen Treiber übernommen wird.

Das die 7900 XTX bei RT so abstinkt, ist ja nun wirklich keine neue Erkenntnis, die lag schon vor einem Jahr meistens irgendwo zwischen der 3080 im schlechteren und 3090 Ti im besseren Fall. Mich hat da eher Jagged Alliance 3 überrascht, welches als reiner Rastertitel überraschend schlecht auf der XTX läuft, ist ja fast eine umgekehrte Variante von Starfield zum Release. Ich spiele JA3 ja selbst und es läuft flüssig - doch wenn man es mal im Vergleich zu den GeForce Karten sieht, ist das schon ein extremer Unterschied.

Exxtreme
2023-12-04, 11:52:47
Sicher? Das habe ich bisher noch nirgends gelesen

Der Antilag-Teil davon schon. Steam hat schon Leute deswegen gebannt. Das Ding injiziert sich in einen laufenden Spiel-Prozess. Macht also das gleiche was Cheats und Bots auch machen, dass sie einen Spielclient zur Laufzeit verändern.

basix
2023-12-04, 11:52:55
Danke Raff für den Test. Bin gespannt auf die Ergebnisse mit den kleineren Karten. Mich würde auch ein vergleich zur 2080 Ti interessieren (meiner Vorgänger Karte), oder benchst du nur aktuell "verfügbare" Karten?

Interessant ist, dass eine 3090 Ti also 2020 Tech in RT, eine 7900XTX also 2023 Tech in UHD immer schlägt.

Kleine Korrektur: Die 7900 XTX erschien 2022 ;)

Und als Nitpick: Die 3090 Ti erschien ebenfalls 2022 ;D

DrFreaK666
2023-12-04, 12:04:20
Der Antilag-Teil davon schon. Steam hat schon Leute deswegen gebannt. Das Ding injiziert sich in einen laufenden Spiel-Prozess. Macht also das gleiche was Cheats und Bots auch machen, dass sie einen Spielclient zur Laufzeit verändern.

Das ist nur ne Vermutung oder? Anti-Lag wurde im Treiber nicht deaktiviert und hat in der Vergangenheit auch nie Probleme gemacht. Und da es auch mit RDNA2 funktioniert, nutzt es sicherlich kein Anti-Lag +

Raff
2023-12-04, 12:37:29
Mich hat da eher Jagged Alliance 3 überrascht, welches als reiner Rastertitel überraschend schlecht auf der XTX läuft, ist ja fast eine umgekehrte Variante von Starfield zum Release. Ich spiele JA3 ja selbst und es läuft flüssig - doch wenn man es mal im Vergleich zu den GeForce Karten sieht, ist das schon ein extremer Unterschied.

Das ist tatsächlich ein bemerkenswerter Fall. Wichtig zu wissen ist, dass die neuen Leistungsindizes erstmals durchweg auch die Eigenheiten von Arc berücksichtigen. Schaut man auf drei Architekturen anstatt das alte, öde "Radeon gegen Geforce", werden individuelle Stärken und Schwächen deutlicher. In Falle von Jagged Alliance 3 ergeben sich sehr interessante Ergebnisse, die teils nach VRAM-Transferratenlimit aussehen, teilweise auch nicht. Hier mal das komplette Paket der getesteten GPUs inklusive der jüngsten Nachtschicht (7900 GRE, 7800 XT, RTX 4070, jeweils neuester Treiber):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=86216&stc=1&d=1701689680

-> Geforce untereinander sehen normal aus
-> Arc außerordentlich stark
-> Radeon vergleichsweise schwach
- Bildqualitäts-Stichproben ergaben keine Auffälligkeiten
- Das Spiel ist an der (Worstcase!-)Szene eine echte Power-Keule, Boosts aller GPUs unterdurchschnittlich

Danke Raff für den Test. Bin gespannt auf die Ergebnisse mit den kleineren Karten. Mich würde auch ein vergleich zur 2080 Ti interessieren (meiner Vorgänger Karte), oder benchst du nur aktuell "verfügbare" Karten?

Aufgrund des immensen Aufwands lautet die Salami-Herangehensweise diesmal "Kaufberatung" - also erst mal Zeugs, das aktuell lieferbar und im Fokus steht. Ich fülle den alten Kram nach Neujahr auf.

Die Preisstufe zwischen rund 500 und 900 Euro (eigentlich ~540 bis ~830 derzeit) bringt aber bereits einige weitere sehr spannende Ergebnisse. =)

MfG
Raff

gnomi
2023-12-04, 13:14:38
Tut gut mal einen modernen Benchmark Parcours zu sehen.
Ich persönlich würde allerdings nur noch mit Upscaling Quality testen.
Native ist im Grunde genommen tot und ich brauche mehr diese fps Zahl möglichst ab (U)WQHD als die theoretische Vergleichbarkeit.
Über die nächsten Monate könnte man Raster Games in der Anzahl auch rausschmeißen und reduzieren beziehungsweise bei wenig RT trotzdem diesen Modus als Standard nehmen.
Ein kurzer Kommentar, ab welcher GPU so ein Spiel problemlos im normalen Modus läuft reicht denke ich zukünftig aus.
Zur Bildqualität könnte man ähnlich wie bei AF früher kurz was schreiben pro Spiel bei Auffälligkeiten. Ansonsten reicht ein kurzes Rating der Upscaling Verfahren.

Als Kaufberatung betrachtet geht es bei mir allerdings in die Richtung, ganz aus dem Zirkus auszusteigen. :wink:
IMHO AMD RT Leistung von gestern und nvidia weiterhin miese vierstellige Preise.
Im Grunde ist gar alles abseits der 4070 nur noch daneben bei den Preisen.
Werde die 3080TI vermutlich weit länger behalten und mit DLSS ohne FG zurechtkommen müssen.
Ich wette, die 4080 wird anders als die 2080 schneller abverkauft und die Super Karte mangels Konkurrenz kaum bis gar nicht günstiger.

Taigatrommel
2023-12-04, 13:20:16
-> Geforce untereinander sehen normal aus
-> Arc außerordentlich stark
-> Radeon vergleichsweise schwach
- Bildqualitäts-Stichproben ergaben keine Auffälligkeiten
- Das Spiel ist an der (Worstcase!-)Szene eine echte Power-Keule, Boosts aller GPUs unterdurchschnittlich
Hi das ist ja wirklich irgendwo verblüffend, die A770 irgendwo auf Augenhöhe mit einer 7900 GRE oder deutlich vor einer 7800 XT zu sehen.

Relic
2023-12-04, 13:20:18
Das ist tatsächlich ein bemerkenswerter Fall. Wichtig zu wissen ist, dass die neuen Leistungsindizes erstmals durchweg auch die Eigenheiten von Arc berücksichtigen. Schaut man auf drei Architekturen anstatt das alte, öde "Radeon gegen Geforce", werden individuelle Stärken und Schwächen deutlicher. In Falle von Jagged Alliance 3 ergeben sich sehr interessante Ergebnisse, die teils nach VRAM-Transferratenlimit aussehen, teilweise auch nicht. Hier mal das komplette Paket der getesteten GPUs inklusive der jüngsten Nachtschicht (7900 GRE, 7800 XT, RTX 4070, jeweils neuester Treiber):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=86216&stc=1&d=1701689680

-> Geforce untereinander sehen normal aus
-> Arc außerordentlich stark
-> Radeon vergleichsweise schwach
- Bildqualitäts-Stichproben ergaben keine Auffälligkeiten
- Das Spiel ist an der (Worstcase!-)Szene eine echte Power-Keule, Boosts aller GPUs unterdurchschnittlich



Aufgrund des immensen Aufwands lautet die Salami-Herangehensweise diesmal "Kaufberatung" - also erst mal Zeugs, das aktuell lieferbar und im Fokus steht. Ich fülle den alten Kram nach Neujahr auf.

Die Preisstufe zwischen rund 500 und 900 Euro (eigentlich ~540 bis ~830 derzeit) bringt aber bereits einige weitere sehr spannende Ergebnisse. =)

MfG
Raff

Schade, dass ihr die 6700XT nicht dabei habt. Die wurde ja die letzten Monate oft als P/L Empfehlung im unteren Bereich gehandelt.

DrFreaK666
2023-12-04, 14:09:27
Schade, dass ihr die 6700XT nicht dabei habt. Die wurde ja die letzten Monate oft als P/L Empfehlung im unteren Bereich gehandelt.

...
Teil 2 mit Grafikkarten zwischen 500 und 900 Euro folgt übrigens kommende Woche, abgerundet mit Modellen zwischen rund 200 und 450 Euro noch vor Weihnachten.

MfG
Raff

Eingangspost beachten ;)

aufkrawall
2023-12-04, 14:28:54
Der Antilag-Teil davon schon.
Du wirfst wieder Dinge durcheinander. Das betraf "nur" Anti-Lag+, nicht das normale Anti-Lag, und hat direkt nichts mit AFMF zu tun.

Schade, dass ihr die 6700XT nicht dabei habt. Die wurde ja die letzten Monate oft als P/L Empfehlung im unteren Bereich gehandelt.
Dann sehen wohl "manche" Karten zu blöd im Vergleich aus.

ShinyMcShine
2023-12-04, 14:53:17
Danke für den Test, Raff!

Raff
2023-12-04, 15:11:49
Dann sehen wohl "manche" Karten zu blöd im Vergleich aus.

Gute Karten sehen immer gut aus, schlechte schlecht. Diese Liste (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Grafikkarten-Preise-Vergleich-Kauftipps-1418023/) ist noch erstaunlich aktuell, aber noch anhand der "alten" Benchmarks und Sommerpreise erstellt.

"Wer etwas mehr Pixel-Power sucht, ohne ein Vermögen auszugeben, fährt mit unserem Allrounder-Tipp gut: Die Radeon RX 6700 XT ist dank deutlich höherer Leistung auch für WQHD (1440p) zu haben und stemmt dank 12 GiByte Speicher alles, was man ihr vorsetzt."

Wie gesagt, Update mit Altsilizium, das nicht mehr für einen Neukauf in Frage kommt, gibt's erst im neuen Jahr - wird dann eine fette Übersicht mit allen neuen Werten. Die 6700 XT und 7700 XT werden's aber schon in die Übersicht der Karten zwischen knapp 200 und 500 Euro schaffen, das sind ja breit lieferbare Optionen.

MfG
Raff

Taigatrommel
2023-12-04, 15:35:50
Du wirfst wieder Dinge durcheinander. Das betraf "nur" Anti-Lag+, nicht das normale Anti-Lag, und hat direkt nichts mit AFMF zu tun.

Wobei Anti-Lag+ halt im Control Panel gleich automatisch mit AFMF aktiviert wurde, man konnte es zwar wieder deaktivieren, doch z.B. Cyberpunk war mit AFMF On aber Anti-Lag+ Off quasi unspielbar. Die Eingabeverzögerung, vor allem bei Autofahrten war jenseits von gut und böse. Mit AL+ On war es dann besser, jedoch war das Spielgefühl trotz höherer Bildraten schlechter als ohne diesen Kram.

aufkrawall
2023-12-04, 15:39:42
Betrifft halt nur den CPU Prerender Lag, der erstmal nichts mit AFMF zu tun hat. Klar, dass weniger immer besser ist.

Schnitzl
2023-12-04, 18:27:04
– 20 neue Spiele verschiedenster "Gesinnungen" im Rasterizing-Parcours
– 10 fortschrittliche/anspruchsvolle Spiele im Raytracing-Parcours
– Jeweils vier Auflösungen getestet (Full HD, WQHD, UWQHD, Ultra HD)
– Durchweg sehr anspruchsvolle Custom-Benchmarkszenen (Videos der Szenen inkl.)
– Selbstverständlich aktueller Treiber- und Spiele-Stand
– Teil 1 mit Fokus auf High-End-Grafikkarten
– Bonusinhalte: Energie-Effizienz & Preis-Leistungs-Verhältnis

Konstruktives Feedback ist sehr willkommen. :up:

Teil 2 mit Grafikkarten zwischen 500 und 900 Euro folgt übrigens kommende Woche, abgerundet mit Modellen zwischen rund 200 und 450 Euro noch vor Weihnachten.

MfG
Raff
Danke für deinen unermüdlichen Einsatz :up:

Ich warte noch bis kommende Woche ;)

The_Invisible
2023-12-04, 20:33:06
[immy;13447262']DLSS/FSR halte ich ja schon für grenzwertig, da man nie wirklich weiß was am Ende an Bildqualität raus kommt und halt nicht vergleichbar ist. Aber bei RT muss man diesen Preis wohl aktuell zahlen.

DLSS/XeSS sieht eigentlich immer (viel) besser aus als FSR, von demher müsste man eigentlich DLSS/XeSS-Balanced gegen FSR-Q testen. Wenns UE5 ist könnte man ja sogar TSR hernehmen.
Aber ja, das Problem gabs ja schon früher mal als die AF-Tricksereien im Kurs standen.

Finde ich aber ansonsten gut da Native ja langsam stirbt, cooles Video auch :up:

DrFreaK666
2023-12-04, 21:24:57
... von demher müsste man eigentlich DLSS/XeSS-Balanced gegen FSR-Q testen...

Und was testet man damit dann?

The_Invisible
2023-12-05, 11:20:48
Performance bei annähernd gleicher Bildqualität, aber das wird eh nie so gehen...

DrFreaK666
2023-12-05, 11:39:41
Performance bei annähernd gleicher Bildqualität, aber das wird eh nie so gehen...

Natürlich geht das. Wenn man nur mit FSR testet. Aber da hat Hardware Unboxed ja einen Riesen-Shitstorm deswegen erhalten

Raff
2023-12-05, 11:45:58
Alle noch so gut begründeten und dokumentierten Vergleiche dieser Art entsprechen Wandern auf dünnem Eis. Manchmal sogar Hüpfen. ;) Es gibt einfach zu viele Unterschiede in Bildteilen zwischen den Upsampling-Verfahren, die jede "Das ist vergleichbar"-Aussage nicht hieb- und stichfest machen. Was PCGH angeht, ist der einzige Kompromiss, mit dem jeweils herstellereigenen Verfahren zu testen. Dabei aber immer mit der gleichen internen Pixelmenge (Regel: Q-Upsampling, also 2/3 der eingestellten Auflösung), um zumindest den gleichen Grund-Workload zu haben. Wie das dann für den Bildschirm aufbereitet wird, ist zu großen Teilen subjektiv. Wenn man meint, dass in einem Fall etwa DLSS B mit FSR Q vergleichbar ist, stellt man das eben ein und freut sich darüber, dass man noch mehr Leistung als im Balken-Chart hat.

Die Benchmarks für den GPU-Test, Teil 2 (500 bis 900 Euro) sind seit heute Nacht übrigens komplett. Plan, das Donnerstagfrüh zu veröffentlichen, weiterhin "on track". :)

MfG
Raff

Wiseman
2023-12-06, 04:41:53
Frage an Radio Eriwan ähm Mastermind Raff:

Du hast für die "Rasterizing Performance 2024" Abteilung u. a. die Spiele Forza Horizon 5, Ratchet & Clank und Forspoken getestet. Unter Details schreibst du bei diesen Spielen: max. Rasterizing Details. In diesen Spielen wird aber auch Raytracing angeboten.

Gehe ich richtig in der Annahme, dass du in diesen Spielen grundsätzlich Raytracing auf Off gestellt hast? Sonst hättest du sie ja in deiner "Raytracing Performance 2024" Abteilung testen müssen.

Stellvertretend für meine oben genannten 3 Spiele hänge ich einen Screenshot aus dem integrierten Benchmark von Forza Horizon 5 an. Den habe ich heute mit dem 23.12.1 Treiber und wie man sieht mit Raytracing Quality Off gemacht.

dildo4u
2023-12-06, 07:06:40
Erstmal der Bench ist nicht anspruchsvoll daher nutzt Raff ihn nicht und hat daher niedrigere Werte.(Das Video im Artikel zeigt was er Bencht)

FoRNz0rRIPE

Man sieht doch im Vergleich zur 4080 der Raster Index hat die 7900xtx leicht vor der GeForce, wäre RT z.b in Ratchet aktiv würde die 4080 deutlich aufholen.
Wie man an den RT Werten sieht es kann sehr teuer sein da die PC Versionen oft mehr Effekte haben als auf der Konsole.(Konsole Ratchet hat ein RT Effekte auf PC 2 oder 3)

Raff
2023-12-07, 00:42:18
Jo. "Max. Rasterizing Details" heißt immer: alles, das kein Raytracing ist, auf Anschlag. Die Benchmark-Videos zeigen alle 26 Spiele mit den jeweiligen Einstellungen. Speziell zu Forza Horizon 5: Da müsste im Creative Hub immer noch das Benchmarkrennen "Pitfall!" (ebenfalls im Video zu sehen) abrufbar sein, das Grafikkarten deutlich mehr stresst als der integrierte Benchmark.

MfG
Raff

E39Driver
2023-12-07, 14:28:41
Als Feedback: Ich finde den Test gelungen und war sicherlich aufwendig zu produzieren. Auf YouTube hab ich euch allerdings vor einiger Zeit deabonniert. Fand die Beiträge insgesamt zu werbelastig und zu sehr auf RT-Hype fokussiert, was mich nur sekundär interessiert.

Bei einem "Wünsch dir was" Testparkour hätte ich folgende Aufstellung:

1080p Low Raster-Only (non RT, Non Up-Scalling) - Interessant für alle IGPs, alten Karten und Steam-Deck, ob das Spiel grundlegend lauffähig ist
1440p High Raster-Only (non RT, Non Up-Scalling) - Interessant für die breite Masse der Spieler mit Mittelklasse Karten oder älteren High-End
4k UHD Ultra Raster Only (non RT, Non Up-Scalling) - Auch wenn ggf. nicht mehr spielbar. Interessant für den puren Vergleich der Rohleistung
4k UHD Ultra RT-Max und alle Up-Scaller an - der Vergleich des Technisch maximalen, was an Bildraten zu erwarten ist


Als Extrawunsch, wenn wohl auch sehr aufwendig. Mitgetestet werden sollte auch immer Mid- und High-End der letzten 7 Jahre im Vergleich

Raff
2023-12-08, 10:56:19
Es zog sich wegen Nachtests etwas, aber das Sequel ist nun live: Die besten Gaming-Grafikkarten für 2024 - Teil 2: GPUs zwischen 500 und 900 Euro (https://www.pcgameshardware.de/Radeon-RX-7900-XT-Grafikkarte-279322/Tests/Die-beste-Grafikkarte-2024-Teil-2-1440p-WQHD-Gaming-1435304/)

Ein paar Schlagworte zu den spannenden Ergebnissen:

– RX 7900 XT schlägt RTX 4070 Ti beim Rasterizing um 12 Prozent
– RX 7800 XT schlägt RTX 4070 beim Rasterizing um nunmehr 6 Prozent
– RTX 4070 kann es beim Raytracing mit RX 7900 XT aufnehmen

Als Feedback: Ich finde den Test gelungen und war sicherlich aufwendig zu produzieren. Auf YouTube hab ich euch allerdings vor einiger Zeit deabonniert. Fand die Beiträge insgesamt zu werbelastig und zu sehr auf RT-Hype fokussiert, was mich nur sekundär interessiert.

Okay, interessant. Raytracing ist nämlich nur eines von vielen Themen, die dort zur Sprache kommen. Schau gerne nochmal rein. :)

Bei einem "Wünsch dir was" Testparkour hätte ich folgende Aufstellung:

1080p Low Raster-Only (non RT, Non Up-Scalling) - Interessant für alle IGPs, alten Karten und Steam-Deck, ob das Spiel grundlegend lauffähig ist
1440p High Raster-Only (non RT, Non Up-Scalling) - Interessant für die breite Masse der Spieler mit Mittelklasse Karten oder älteren High-End
4k UHD Ultra Raster Only (non RT, Non Up-Scalling) - Auch wenn ggf. nicht mehr spielbar. Interessant für den puren Vergleich der Rohleistung
4k UHD Ultra RT-Max und alle Up-Scaller an - der Vergleich des Technisch maximalen, was an Bildraten zu erwarten ist


Benchmarks mit reduzierten Details sind immer wieder Gegenstand von Specials bzw. im Rahmen der regulären Spiele-Tests. Ich halte wenig davon, steigende Auflösungen mit geringeren Details zu testen als niedrige Auflösungen, denn das verwirrt ("Warum sind die Grafikkarten in UHD schneller als in WQHD?"). Deine Wünsche 3 und 4 werden im Rahmen der regulären Tests abgedeckt. :)

MfG
Raff

dildo4u
2023-12-08, 11:44:42
Interessant das die 12GB keine Probleme mit RT machen hängt vermutlich damit zusammen das man 3080 nicht ausschließen will.
Hatte Hogwarts nicht Probleme mit zu wenig Vram?

Raff
2023-12-08, 12:30:26
Jo, hat es, die Absturzneigung steht nochmal im Fazit. Hogwarts und Ratchet sind aber die einzigen Spiele im (Raytracing-)Parcours, die eindeutig durch 12 GiB beeinträchtigt werden. In den hohen Auflösungen kommt eine RTX 4060 Ti 16GB nah heran und crasht nie. Das sind aber noch Ausnahmen, weshalb man mit 12 GiByte durchaus leben kann.

MfG
Raff

The_Invisible
2023-12-08, 14:44:56
Avatar packst du nicht mehr rein oder Raff? Die UBER-Settings knüppeln schon hart rein... ;-)

Raff
2023-12-08, 14:47:17
Nope. Wir haben zwar das Zeitalter "Benchmarks as a Service" erreicht, wo ständig Nachtests notwendig sind, aber irgendwann muss auch mal Schluss mit den Standards sein. Was folgt in den kommenden Wochen und Monaten folgt, ist Wartung. :)

MfG
Raff

Rampage 2
2024-01-03, 10:18:45
Ich weiß nicht, ob es mit dem im OP verlinkten Artikel zu tun hat, aber Exxtreme oder Raff hatte mal erst vor Kurzem (oder nicht all zu langer Zeit) Anderswo hier im Forum in einem Posting einen Artikel verlinkt, wo die 4090 in RT mehr als doppelt so schnell ist wie die 3090 Ti - welcher Artikel war das nochmal und kann ihn Jemand hier erneut verlinken? Ich finde das Posting vom besagtem User (k.A. welcher von Beiden;)) einfach nicht... :redface:

R2

00-Schneider
2024-01-03, 11:21:52
Ich finde die Unterscheidung zwischen Raster- und RT nicht mehr zeitgemäß.

Es sollte nur noch Max Quality(was RT beinhaltet) getestet werden und dann halt je nach Auflösung. Wieso macht man diese Unterscheidung überhaupt noch? Wir haben seit 2018 GPUs mit vernünftiger RT-Performance.

Macht man das nur noch, damit AMD nicht immer so schlecht dasteht?

dildo4u
2024-01-03, 11:31:45
Mehr Daten sind nie schlechter der RT Index ist doch genau das was du willst da es dort ein Mix gibt aus Konsolen RT/Pathtracing etc.

Und mal zur Verbreitung die meisten UE5 Games nutzen kein Hardware RT daher performt AMD gleich oder besser.


0saKY1w4Y4c

00-Schneider
2024-01-03, 11:34:22
Und mal zur Verbreitung die meisten UE5 Games nutzen kein Hardware RT daher performt AMD gleich oder besser.


Naja, kann man bei den meisten(allen?) UE5-Games nicht Hardware-RT über kleine Tweaks aktivieren?

DrFreaK666
2024-01-03, 11:36:20
...
Es sollte nur noch Max Quality(was RT beinhaltet) getestet werden und dann halt je nach Auflösung. Wieso macht man diese Unterscheidung überhaupt noch?

"Schau mal. Die 4060Ti ist 25% schneller als als die 7700XT (20FPS vs 16FPS)."
Danke max Details mit RT :ugly:

dildo4u
2024-01-03, 12:09:34
Hardware RT könnte CPU Last erhöhen vielleicht wartet man auf besser Multicore Nutzung.
Ansonsten hast du wieder Ports wie Jedi Survivor.

dargo
2024-01-03, 12:15:37
Wir haben seit 2018 GPUs mit vernünftiger RT-Performance.

Guter Witz. :lol:

][immy
2024-01-03, 12:25:26
Ich finde die Unterscheidung zwischen Raster- und RT nicht mehr zeitgemäß.

Es sollte nur noch Max Quality(was RT beinhaltet) getestet werden und dann halt je nach Auflösung. Wieso macht man diese Unterscheidung überhaupt noch? Wir haben seit 2018 GPUs mit vernünftiger RT-Performance.

Macht man das nur noch, damit AMD nicht immer so schlecht dasteht?
Me, macht keinen Sinn. Weil du dann dank RT Limitierung die Hardware teils gar nicht ausreizt. Und was sind max Details? RT bis auf Anschlag gedreht so das selbst die 4090 nicht mehr zurecht kommt und wir bei den kleinen Karten dann einstellige (sowas wie 5 vs 7 fps) Vergleiche ziehen können.

Das treten von GPUs ist deutlich komplizierter geworden. Und das obwohl die Hardware inzwischen länger hält.

Gut, zu Zeiten der voodoo 1 war es auch nicht unkompliziert. Da gab es Karten die Dinge nicht könnten oder extra Features boten und nie hatte man die gleiche Bildqualität. Läuft aktuell auf ein ähnliches Problem hinaus, aber zumindest mit deutlich weniger Treiber Problemeb als damals.

00-Schneider
2024-01-03, 12:34:00
[immy;13464326']RT bis auf Anschlag gedreht so das selbst die 4090 nicht mehr zurecht kommt und wir bei den kleinen Karten dann einstellige (sowas wie 5 vs 7 fps) Vergleiche ziehen können.


Das wird dann in den Benchmarks über DLSS oder Auflösung geregelt. Alles unter 15-20fps, würde ich gar nicht auflisten bzw. testen.

The_Invisible
2024-01-03, 12:35:10
"Schau mal. Die 4060Ti ist 25% schneller als als die 7700XT (20FPS vs 16FPS)."
Danke max Details mit RT :ugly:

Hat das bei Raster Benches jemals wem gestört? :rolleyes:

Es geht um Vergleichbarkeit und nicht "welche Settings sind auf GPU xyz spielbar", dann interpolier die Ergebniss halt nach oben und du hast 60 vs 48 was schon einen Unterschied macht...

dargo
2024-01-03, 12:55:06
Hat das bei Raster Benches jemals wem gestört? :rolleyes:

Ja... hat es.

Raff
2024-01-03, 13:07:15
Ich weiß nicht, ob es mit dem im OP verlinkten Artikel zu tun hat, aber Exxtreme oder Raff hatte mal erst vor Kurzem (oder nicht all zu langer Zeit) Anderswo hier im Forum in einem Posting einen Artikel verlinkt, wo die 4090 in RT mehr als doppelt so schnell ist wie die 3090 Ti - welcher Artikel war das nochmal und kann ihn Jemand hier erneut verlinken? Ich finde das Posting vom besagtem User (k.A. welcher von Beiden;)) einfach nicht... :redface:

R2

Das war Alan Wake 2 (mit Pfadverfolgung): https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/ :)

MfG
Raff

redpanther
2024-01-03, 13:39:19
@Raff, kannst du mal in https://www.forum-3dcenter.org/vbulletin/showthread.php?t=614513 schauen? Da gehts darum, das DSR laut NVidia nicht mit DSC zusammen funzt.
Kennst du das Thema?

DrFreaK666
2024-01-03, 13:46:33
... dann interpolier die Ergebniss halt nach oben und du hast 60 vs 48 was schon einen Unterschied macht...

Natürlich ist das so einfach, da wir wissen, dass Radeon und Geforce gleich stark zulegen, wenn man RT deaktiviert oder die Genauigkeit reduziert :rolleyes:

VooDoo7mx
2024-01-03, 14:00:12
Da ich neben meiner Desktop 4090 auch ein 4070 Notebook habe, muss ich sagen, dass Unreal Engine 5 irgendwie nicht wirklich gut auf nVidia Ada läuft bzw die GPU Auslastung (Stromverbrauch) sehr schlecht ist.
Bei Unreal Engine 4 ist dies überhaupt nicht zu beobachten.

Bei Immortals of Aveum wird in UHD Ultra DLSS Q teilweise mit meiner 4090 200W Stromverbauch unterschritten.

Bei Unreal ENgine 4 ist das komplett anders. Da ist die Auslastung am Anschlag und auch der Stromverbrauch dementsprechend deutlich höher.

Das lässt sich sogar bei Spielen vom selben Studio nachvollziehen.
Remnant 1 läuft mit UE4 Stromverbrauch bis 300W. Remnant 2 mit UE5, Stromverbrauch bis maximal 240W at best.

Durch die schlechte Auslastung der Ada Arch sieht man wie im geposteten Video auch bei vielen UE5 Spielen die 7800XT mal 10-20% an der 4070 vorbeiziehen.

Keine AHnung was da klemmt, aber nVidia muss hier im Treiber mal nachlegen.

dargo
2024-01-03, 14:15:52
Das war Alan Wake 2 (mit Pfadverfolgung): https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/ :)

Bin ich der einzige dem dieses Ergebnis spanisch vorkommt? Wie kann es sein, das eine RTX 3090TI nur magere 40% vor einer RX 7900XTX rauskommt in diesem Szenario? Da würde ich schon beinah drauf tippen, dass alles mit non Ada künstlich ausgebremst wird. Bzw. der Code Ada besonders schmackhaft gemacht wurde.

btw.
Aber die Performance von PT ist echt der Knaller. X-D Wir reden hier bei 1080p immerhin von 720p GPU-Last dank Q-Upscaling + Overhead. Der Overhead dürfte sich bei nur 1080p in Grenzen halten. Das müsste deutlich unter 1ms sein.

DrFreaK666
2024-01-03, 14:23:32
"Wir haben seit 2018 GPUs mit vernünftiger RT-Performance."

The_Invisible
2024-01-03, 14:29:22
Natürlich ist das so einfach, da wir wissen, dass Radeon und Geforce gleich stark zulegen, wenn man RT deaktiviert oder die Genauigkeit reduziert :rolleyes:

Geht ja um max Details und nicht wieder um "wann läufts auf GPU xyz am besten"... manchmal ist echt besser man redet mit der Wand...

dargo
2024-01-03, 14:34:54
"Wir haben seit 2018 GPUs mit vernünftiger RT-Performance."
Stimmt ja, habs vergessen. :D

DrFreaK666
2024-01-03, 14:39:08
Geht ja um max Details und nicht wieder um "wann läufts auf GPU xyz am besten"... manchmal ist echt besser man redet mit der Wand...

Und was soll dann diese Hochrechnung?
Sagen wir doch gleich 1000FPS und 1250FPS.
Wenn man höhere FPS erreichen will, dann muss man Details reduzieren.
Die Wand kann dir nicht widersprechen, verstehe schon... :D

Schnitzl
2024-01-03, 14:40:45
Geht ja um max Details und nicht wieder um "wann läufts auf GPU xyz am besten"... manchmal ist echt besser man redet mit der Wand...
eigenen Post vergessen?
Hat das bei Raster Benches jemals wem gestört? :rolleyes:

Es geht um Vergleichbarkeit und nicht "welche Settings sind auf GPU xyz spielbar", dann interpolier die Ergebniss halt nach oben und du hast 60 vs 48 was schon einen Unterschied macht...
...und genau das geht eben nicht so einfach, allein schon weil sich RT komplett unterschiedlich verhält und es verschiedene Architekturen sind.Selbst Ada/Ampere verhalten sich unterschiedlich wie schon bemerkt wurde...

Lurtz
2024-01-03, 14:43:29
Da ich neben meiner Desktop 4090 auch ein 4070 Notebook habe, muss ich sagen, dass Unreal Engine 5 irgendwie nicht wirklich gut auf nVidia Ada läuft bzw die GPU Auslastung (Stromverbrauch) sehr schlecht ist.
Bei Unreal Engine 4 ist dies überhaupt nicht zu beobachten.

Bei Immortals of Aveum wird in UHD Ultra DLSS Q teilweise mit meiner 4090 200W Stromverbauch unterschritten.

Bei Unreal ENgine 4 ist das komplett anders. Da ist die Auslastung am Anschlag und auch der Stromverbrauch dementsprechend deutlich höher.

Das lässt sich sogar bei Spielen vom selben Studio nachvollziehen.
Remnant 1 läuft mit UE4 Stromverbrauch bis 300W. Remnant 2 mit UE5, Stromverbrauch bis maximal 240W at best.

Durch die schlechte Auslastung der Ada Arch sieht man wie im geposteten Video auch bei vielen UE5 Spielen die 7800XT mal 10-20% an der 4070 vorbeiziehen.

Keine AHnung was da klemmt, aber nVidia muss hier im Treiber mal nachlegen.
Die UE5 wird primär für die RDNA2-Konsolen entwickelt worden sein. PC war bei der Engine ja seit UE3 nur noch ein Afterthought.

Lurtz
2024-01-03, 14:46:00
"Wir haben seit 2018 GPUs mit vernünftiger RT-Performance."
Was für eine Quatschlogik. Demzufolge ist Rasterization seit Jahrzehnten nicht vernünftig benutzbar, oder wofür habe ich mir in den letzten 30 Jahren neue Grafikkarten gekauft?

The_Invisible
2024-01-03, 15:19:35
Was für eine Quatschlogik. Demzufolge ist Rasterization seit Jahrzehnten nicht vernünftig benutzbar, oder wofür habe ich mir in den letzten 30 Jahren neue Grafikkarten gekauft?

RT/PT ist nur nutzbar wenns 100% akkurat ist und quasi keine Leistung kostet laut einigen von hier... ich verstehe die Logik auch nicht ganz, von demher dürfte man nie irgendein Produkt veröffentlichen

@Schnitzl
Ging um die Vergleichbarkeit von max Details, DrFreaK666 ist ja wieder mit "ohne RT/geringere Genauigkeit" dahergekommen was ich gar net meinte... und ja das es net 100% stimmt ist klar, dafür macht die PCGH aber ja mehrere Auflösungen mit denen man es gut hinauf/herunterrechnen kann

Langlay
2024-01-03, 15:21:50
Was für eine Quatschlogik. Demzufolge ist Rasterization seit Jahrzehnten nicht vernünftig benutzbar, oder wofür habe ich mir in den letzten 30 Jahren neue Grafikkarten gekauft?

Das ist es halt.
Das RT auf AMD Graka (Navi2X/3X) eher bescheiden läuft, liegt natürlich nicht am Heiland AMD und dadurch das die Performancekosten von RT dann so hoch sind, kommste dann zu dem Schluss RT ist zu teuer für das gebotene.

Das auf der anderen Seite des Zauns der Rasen tatsächlich grüner (pun intended) ist, auf den Gedanken kommt man hat nicht.


https://i.imgur.com/fjLUurr.png


https://i.imgur.com/IDvH0Xr.png

Quelle : https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-GOG-Release-GPU-Benchmark-Test-Performance-1429500/


Mit der 4090/4080 kann ich in WQHD einfach RT Ultra anmachen DLSS Q dazu und ich verliere ein paar FPS und alles ist gut.

Mit der 7900XTX kann ich in WQHD RT Ultra auch anmachen allerdings muss ich dann zwingend FSR Q dazu nehmen damit mein Avg. >60FPS bleibt.

Natürlich wäre mir dann RT auch zu teuer. Aber daran sind halt nicht die Spiele schuld, sondern es ist AMD die hier einfach hinterher hinken.

Das Nvidia sich das auch fürstlich bezahlen lasst, ist zwar auch ein Thema, allerdings ist ne 7900XTX auch kein Schnäppchen.

][immy
2024-01-03, 15:23:46
Die UE5 wird primär für die RDNA2-Konsolen entwickelt worden sein. PC war bei der Engine ja seit UE3 nur noch ein Afterthought.
Das sieht eher nicht danach aus, denn die ue5 Spiele bislang sind auf den Konsolen verdammt niedrig aufgelöst und bringen auch sonst Probleme mit sich.
Problem dürfte eher sein das Nvidia in dx12 nicht mehr so viel machen kann wie zuvor und die Spiele mit der neueren engine deutlich häufiger mit dx12 laufen.
Zudem bietet die engine sehr viele neue Stellschrauben die eventuell derzeit eher eine schwäche der Nvidia Hardware treffen, wobei die Spiele nach wie vor gut laufen, nur nicht so gut wie erwartet.


Btw, muss denn hier jeder Thread zu "AMD ist blöd weil schlechte RT Leistung" verkommen? Sind leider wieder die üblichen Verdächtigen.

Exxtreme
2024-01-03, 15:59:30
Die UE5 wird primär für die RDNA2-Konsolen entwickelt worden sein. PC war bei der Engine ja seit UE3 nur noch ein Afterthought.

Ich glaube eher, dass das ein Treiberproblem bei Nvidia ist. Und was Treiberentwicklung angeht, das scheint da sowieso arg eingeschlafen zu sein. Es wäre auch selten dämlich seitens Epic eine Kauf-Engine auf eine einzige Architektur eines einzigen Herstellers zu optimieren.

Lurtz
2024-01-03, 16:15:40
[immy;13464464']
Btw, muss denn hier jeder Thread zu "AMD ist blöd weil schlechte RT Leistung" verkommen? Sind leider wieder die üblichen Verdächtigen.
Ebenso ermüdend ist die immer wiederkehrende Diskussion, ob RT sinnvoll ist oder nicht. Es ist Teil aktueller Spiele und damit sollte es auch berücksichtigt werden.

Rampage 2
2024-01-03, 16:19:18
Das war Alan Wake 2 (mit Pfadverfolgung): https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/ :)

MfG
Raff

Dankeee!!! =):up:

Boah... das ist ja richtig brutal! :freak: Sogar die 4080 ist bis zu 73% schneller als die 3090 Ti, wobei diese aber auch 37,5% höher taktet als Letztere;) Ich schätze mal, es liegt an den verbesserten RT-Kernen der RTX 4xxx-Karten - hier kommen die (RT-)Architekturverbesserungen von Lovelace voll zu Geltung, korrekt?

R2

dargo
2024-01-03, 16:30:44
Ebenso ermüdend ist die immer wiederkehrende Diskussion, ob RT sinnvoll ist oder nicht. Es ist Teil aktueller Spiele und damit sollte es auch berücksichtigt werden.
Verstehe den Einwand jetzt nicht. Es gibt doch regelmäßig Raster-/ und RT-Parcours in den Benchmarks der bekannten Reviewer. :confused: Übrigens ist auch dieses krankhafte Pochen diverser User hier auf "du brauchst unbedingt RT oder du brauchst unbedingt max. RT/PT" genauso ermüdend. Überlasst diese Entscheidung dem jeweiligen Spieler!

DrFreaK666
2024-01-03, 17:25:31
... dafür macht die PCGH aber ja mehrere Auflösungen mit denen man es gut hinauf/herunterrechnen kann

Auf welche Auflösung willst runterrechnen, wenn man schon in 1080p unterirdische FPS hat (AW2)?
https://i.postimg.cc/620Wn5Vd/Screenshot-20240103-171038.jpg (https://postimg.cc/620Wn5Vd)

Ich zitiere mich mal selbst, denn nichts anderes sehen wir hier
"Schau mal. Die 4060Ti ist 25% schneller als als die 7700XT (20FPS vs 16FPS)."
Danke max Details mit RT :ugly:

Mr. Lolman
2024-01-03, 23:35:34
Noch dazu, wo mich das RT in AW2 jetzt ohnehin nicht sonderlich vom Hocker haut - dank sehr ordentlichem GI.

dildo4u
2024-01-04, 05:51:50
Paar interessante Beobachtungen AMD hat Treiber Probleme in Warzone und Fortnite DX11.
Mit dem DX12 UE5 Renderer sieht es komplett anders aus.
Ich schätze mal die COD Überlegenheit von AMD betrifft die kleinen Map?

vfI2CIcqWII

Lurtz
2024-01-04, 09:32:42
Und wieso sollte man die Spiele mit DX11 spielen?

E39Driver
2024-01-04, 09:33:52
Ich denke Lead-Plattform bei fast allen Spielentwicklern wird die PS5 sein. PC ist nur unwichtiges Beiwerk. Das erklärt dann auch warum UE5 Titel auf RDNA2/3 Karten besser performen als auf den Nvidia Gegenstücken. Für die Zukunft sicherlich nicht unrelevant

dildo4u
2024-01-04, 09:54:27
Und wieso sollte man die Spiele mit DX11 spielen?
Im Fall von Fortnite deutlich höhere FPS dadurch niedrige Latenz was natürlich wichtig für ein Multiplayer Modus ist.

Nvidia scheint da immer noch Vorteile zu haben.

dargo
2024-01-04, 10:05:52
Im Fall von Fortnite deutlich höhere FPS dadurch niedrige Latenz was natürlich wichtig für ein Multiplayer Modus ist.

Nvidia scheint da immer noch Vorteile zu haben.
Wenn ich das hier so sehe wüsste ich jetzt nicht warum Radeon User DX11 verwenden sollten.
DoSyS8LbGAg

Bei Nvidia mag das natürlich anders aussehen.

Edit:
Nvidia scheint da noch paar Problemchen zu haben.
Os1sC6WMBqQ

Wenn man genauer hinschaut sind die 1% Low bei NV unter DX11 aber komplette Grütze, da ist DX12 massiv besser.

dildo4u
2024-01-04, 10:20:26
Kann sein das der Performance Modus mehr Details abschaltet und daher Vorteile hat aber er ist immer DX11.

Epic hat diese Beschreibung im Menü.

https://i.ibb.co/fCBK8F2/Screenshot-2024-01-04-102025.png (https://ibb.co/CnNXJ8z)

Achill
2024-01-04, 13:11:28
Paar interessante Beobachtungen AMD hat Treiber Probleme in Warzone und Fortnite DX11.
Mit dem DX12 UE5 Renderer sieht es komplett anders aus.
Ich schätze mal die COD Überlegenheit von AMD betrifft die kleinen Map?

https://youtu.be/vfI2CIcqWII

Das Video/Test ist imho interessant aber auch bescheiden, warum?

1. In die Raster-Betrachtung fließt Fortnite mit DX11 sowohl mit Medium als auch Epic ein, beides mit sehr guten Werten für NV. Dies wird bei keinen anderen Spiel gemacht.
2. In Fortnite mit DX12 wird nur einmal mit Epic mit HW-RT Lumen + Nanite kurz gezeigt, nicht wie DX12 mit Settings wie in DX11 performed.
3. Das relativ Ausgeglichene Ergebnis (über alle Auflösungen) von Fortnite mit DX12 mit HW-RT Lumen ließt nicht in Raytracing-Betrachtung ein

Der Unterschied bei Raster wie auch Raytracing würde kleiner werden, wenn Fortnite mit DX11 nur einmal als Messpunkt verwendet werden und wenn Fortnite mit DX12 bei Raytracing mit einfließen würde.

dildo4u
2024-01-04, 13:19:11
Ich finde es gut das bei Esport mal das gebencht wird was wirklich genutzt wird.
CB und PCGH maxen fast immer was es natürlich einfach macht aber nicht immer relevant für eine Kaufempfehlung ist.

Die Werte dort sind absolut Pro AMD wenn man überlegt das die 4090 2X kostet.

dargo
2024-01-04, 13:32:57
Kann sein das der Performance Modus mehr Details abschaltet und daher Vorteile hat aber er ist immer DX11.

Keine Ahnung was du mit dem Performance-Modus willst, der war nicht das Thema.

Cubitus
2024-01-04, 14:19:10
Warum ist Avatar hier nicht drin :confused:
PCGH hat das schon gut getestet.

Am besten mit zuschaltbaren Unobtainium-Einstellungen.
Damit auch eine 4090 ordentlich gefickt wird.

So und nicht anders sehen High-End PC-Masterrace-Spiele aus, RT muss in Sachen Beleuchtung und Co. immer erste Wahl sein und das klobige Rasterizing sollte endlich Platz machen.

Inoffiziell ist es mit den höchsten Einstellungen auf einer 4090 natürlich sehr gut unter 4K spielbar, also faktisch, real und greifbar. --> Die eingefleischten 4090 Fans wissen was ich meine ^^
Und da Nvidia ja sowieso kein 8K wegen eines nicht vorhandenen DP 2.1 kann, gerade noch ausreichend. :biggrin:

Damit meine ich natürlich nicht AMDs FramGen-Versuch, der bei Avtar sehr gummiartig läuft,
sondern dank Pure Darks-Mod läuft es hier mit kompromisslosem Unobtainium auf 4K+HDR mit DLSS balanced, Preset D + FG mit 80-100 FPS und Gsync.... Und sieht tatsächlich fantastisch aus unter 4K. DLSS mit Preset-D (MOD-Setting) , macht einen super Job und ist qualitativ schöner als AMDs FSR Lösung.

Und es faktisch so das heutzutage "AMD" Spiel bedeutet, nicht das dieses Spiel auf AMD Karten am besten läuft und aussieht, sondern das Ubi so gnädig war und High zu Ultra Settings deklarierte und Nvidias FG nicht eingebaut hat, damit AMD nicht so gnadenlos untergeht.

So sieht es aktuell aus, Features und Details bei top aktuellen HighEnd Games verstecken, nur weil AMD nicht leistungsfähig genug ist. Würde mir zu denken geben.

Solche Bereiche sind mit einer technisch älteren 7900XTX und FSR einfach nicht machbar.
Da kann man die Rasterleistung 1000 mal in den Himmel loben, das ändert nichts daran, dass diese Technologie am Ende ist und AMD hats halt hart verpennt, ist ja nicht so dass man sich ab der 2080 RTX hätte Gedanken machen können.

Exxtreme
2024-01-04, 14:27:11
Da kann man die Rasterleistung 1000 mal in den Himmel loben, das ändert nichts daran, dass diese Technologie am Ende ist.

Wie bitte? Rasterung ist noch lange nicht am Ende. Was eventuell am Ende ist, ist Fake-RT mittels Ambient Occlusion, Bumpmapping etc. Rasterung an sich braucht man immer um überhaupt irgendetwas am Bildschirm darstellen zu können.

dildo4u
2024-01-04, 14:34:31
Avatar spricht nicht wirklich für Nvidias Ansatz bei Alan Wake und Cyberpunk kann man das Argument machen das die PC Version komplett überlegen ist.
Ich wette wenn ich dir Bilder von Avatar Ultra vs Unobtainium zeigen hast du kein Plan was was ist.

Cubitus
2024-01-04, 14:38:23
Wie bitte? Rasterung ist noch lange nicht am Ende. Was eventuell am Ende ist, ist Fake-RT mittels Ambient Occlusion, Bumpmapping etc. Rasterung an sich braucht man immer um überhaupt irgendetwas am Bildschirm darstellen zu können.

Wir reden hier von aktuellsten Spielen, und nein man braucht nur ordentliche auf RT optimierte HW und eine gute solide Hochskalierungstechnolgie wie DLSS.

Natürlich ist noch eine Mischung aus beiden Technolgien fällig, aber es werden keine neuen Techniken im Raster mehr großartig kommen, sei es wie die von dir erwähnten Bumpmapping, oder AO.
Dies wird Schritt für Schritt aus den Engines verschwinden und man wird die Ausrichtung immer mehr auf RT legen.
Wie gesagt Ubi zeigt doch schon die Richtung dahingehend an.

Avatar spricht nicht wirklich für Nvidias Ansatz bei Alan Wake und Cyberpunk kann man das Argument machen das die PC Version komplett überlegen ist.
Ich wette wenn ich dir Bilder von Avatar Ultra vs Unobtainium zeigen hast du kein Plan was was ist.

Ist ein abwegiger Gedanke, da ich genügend Perfomance habe und mir um solche Vergleiche keine Gedanken machen muss, heisst ich muss mir auch keine Gedanken darüber machen grafisch iwas zu verpassen.
Bei einer 7900 XTX würde ich mir die Settings schon genauer anschauen und sehen, was ich runterdrehen kann und was optisch "kaum" einen Mehrwert bringt, da würde ich mich dann aber innerlich rechtfertigen und sagen, gut hab ja 750 bis 800 Euro weniger bezahlt.

Wobei eine 4080(Super) auch nicht wesentlich teurer ist, wenn ich neue Games mit RT spielen will..

Ich sehe allerdings wie schlecht FSR gegenüber DLSS ist bei Avatar, und ich fühle, wie gut FG gegenüber AMDs Lösung bei dem Spiel funktioniert.
Zudem denke ich auch an die Devs, es ist doch effizienter gleich RT einzusetzen als arbeitsaufwendige Lightmaps zu erstellen.

Fakt ist das RT in der Beleuchtung um Welten besser ist, als alles, was Raster so zu bieten hat.
Vorzeige Raster-Spiel, Last of US, dass wirkt gegenüber einem DyingLight2 geradezu last Gen beleuchtungstechnisch, obwohl das stellenweise sehr gut gemacht ist.
Von Cyberpunk her ganz zu schweigen.

DrFreaK666
2024-01-04, 15:33:49
Wie man sieht ist die 7900XTX deutlich langsamer als die sonst gleich schnelle 4080 :rolleyes:
https://i.postimg.cc/VNr6gxSs/Screenshot-20240104-153218.jpg (https://postimg.cc/HJmdsP4F)

Exxtreme
2024-01-04, 16:14:31
Natürlich ist noch eine Mischung aus beiden Technolgien fällig, aber es werden keine neuen Techniken im Raster mehr großartig kommen, sei es wie die von dir erwähnten Bumpmapping, oder AO.
Dies wird Schritt für Schritt aus den Engines verschwinden und man wird die Ausrichtung immer mehr auf RT legen.
Wie gesagt Ubi zeigt doch schon die Richtung dahingehend an.


Was RT angeht, da kommt auch nicht mehr so viel. Das ist ja ein gelöstes Problem und war schon auf dem Amiga 500 möglich, wenn auch nicht in Echtzeit. Was man eher sehen wird ist mehr Performance und dadurch eventuell mehr Strahlen, die verschossen werden. Das war's aber auch.

dildo4u
2024-01-04, 16:15:02
Wie man sieht ist die 7900XTX deutlich langsamer als die sonst gleich schnelle 4080 :rolleyes:
https://i.postimg.cc/VNr6gxSs/Screenshot-20240104-153218.jpg (https://postimg.cc/HJmdsP4F)

Jup Konkurrenzfähig klar will AMD noch größere Margen aber die XTX hält ihren Preis nach über 12 Monaten, die Preise müssten erst runter wenn NV wirklich aggressiv mit der 4080S wird.

Cubitus
2024-01-04, 16:41:28
Was RT angeht, da kommt auch nicht mehr so viel. Das ist ja ein gelöstes Problem und war schon auf dem Amiga 500 möglich, wenn auch nicht in Echtzeit. Was man eher sehen wird ist mehr Performance und dadurch eventuell mehr Strahlen, die verschossen werden. Das war's aber auch.

Was sollte dann AMD tun, eine Karte rausbringen, wo man eben mal auf die Idee kommen könnte auch dedizierte RT-Kerne zu nutzen,
die Berechnung über die allgemeinen Compute-Einheiten zu stützen war ein Fehlgriff.

FSR wird besser, aber es ist noch nicht gut genug und AMDs FG Lösung ist auch noch nicht optimal, aber okay ist zumindest ausbaufähig.

Sachen wie RC fehlen obendrauf.
Vorher sprechen wir nicht von Konkurrenzfähigkeit, sondern immer nur von einem "Kompromiss"

In Sachen RT ist eine 7900XTX in etwa so schnell wie eine 3080(TI) RTX
Klar ist besser als nichts, aber die Karte hängt von der RT-Rohleistung faktisch eine Generation hinten dran.

Soll sich das bei der nächsten Generation wiederholen oder wie stellt sich das AMD denn vor?

Wie man sieht ist die 7900XTX deutlich langsamer als die sonst gleich schnelle 4080 :rolleyes:
https://i.postimg.cc/VNr6gxSs/Screenshot-20240104-153218.jpg (https://postimg.cc/HJmdsP4F)

Einen Link bitte?

Das passt aber so gar nicht mit den Ergebnissen aus CB zusammen:

Da zeichnet es sich schon unter max Settings ab, dass eine 4080 einer X7900XTX überlegen ist. Zumindest mit DLSS in Qualität
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Allg lt meiner Erfahrung, wenn jemand Tests mit kyrillischer Schrift postet, wirkt das schon sehr glaubhaft, wie tief hast du da im Netz gesucht bist du da was Brauchbares gefunden hast ;D

Lurtz
2024-01-04, 16:48:43
Was RT angeht, da kommt auch nicht mehr so viel. Das ist ja ein gelöstes Problem und war schon auf dem Amiga 500 möglich, wenn auch nicht in Echtzeit. Was man eher sehen wird ist mehr Performance und dadurch eventuell mehr Strahlen, die verschossen werden. Das war's aber auch.
Not sure if trolling... :ugly:

Kannst du ja mal solchen Leuten erzählen, dass sie sich über gelöste Probleme den Kopf zerbrechen:
https://blog.traverseresearch.nl/dynamic-diffuse-global-illumination-b56dc0525a0a

dildo4u
2024-01-04, 16:51:20
Einen Link bitte?

https://gamegpu.tech/action-/-fps-/-tps/avatar-frontiers-of-pandora-benchmark-of-graphics-cards-and-processors-in-unobtanium-quality-mode

Cubitus
2024-01-04, 17:17:57
https://gamegpu.tech/action-/-fps-/-tps/avatar-frontiers-of-pandora-benchmark-of-graphics-cards-and-processors-in-unobtanium-quality-mode

Danke, doch da stimmt etwas nicht.
Für AMDs Frame Generation muss doch FSR an sein?

Wie kann es dann sein, dass der Abstand zwischen non FSR + FSR gerade mal 7 FPS sind, das ist doch viel zu wenig. :confused:

dildo4u
2024-01-04, 17:27:18
70fps ohne Framegen

https://i.ibb.co/99Hcgmx/Screenshot-2024-01-04-172643.png (https://ibb.co/nsM6mqX)

140 mit

https://i.ibb.co/LdDKx2X/Screenshot-2024-01-04-172734.png (https://ibb.co/hFx0BtJ)

Quality FSR ohne Framegen muss nicht zwangsweise über 20 % bringen das hängt von der Engine/Game ab.

dargo
2024-01-04, 17:33:34
Quality FSR ohne Framegen muss nicht zwangsweise über 20 % bringen das hängt von der Engine/Game ab.
Quatsch... es hängt von Limits ab. Wenn eine Szene stärker cpu-limitiert ist dann ist es auch logisch, dass Upscaling weniger bringt.

dildo4u
2024-01-04, 17:37:01
Hast du mal FSR in Forza Horizon 5 versucht die skalierung ist grottig wie gesagt es hängt von der Engine ab das Game rennt locker mit 200 FPS auf aktuellen CPU.

dargo
2024-01-04, 18:41:10
Keine Ahnung was du da wieder siehst. Kann es sein, dass du wieder mal nicht auf die Rahmenbedingungen genauer achtest? Wenn ein Spiel schlecht mit Upscaling skaliert gibt es nur zwei Gründe wenn ich nicht einen weiteren übersehen habe.

1. CPU-Limit
2. Takt-Limit der GPU (spätestens beim Upscaling kommt es oft vor)

Wenn man irgendwelche fairen Vergleiche diesbezüglich anstellt muss die GPU in beiden Fällen im Powerlimit landen. Alles andere kann man sich schenken. Es ist dir hoffentlich klar, dass mit Upscaling die GPU-Last abnimmt und diese GPU oftmals dann viel höher boosten könnte. Sie wird aber wegen ihrem max. Boost daran gehindert. Endergebnis von diesem Lied... du hast zwar eine schwächere Skalierung durch das Upscaling, aber gleichzeitig auch einen wesentlich niedrigeren Stromverbrauch. Hättest du den max. Boost in diesem Szenario manuell angehoben damit die GPU wieder im Powerlimit landet hättest du auch eine bessere Upscaling-Skalierung. Natürlich nur wenn kein CPU-Limit vorliegt.

Edit:
3. Pixellast

Die Pixellast noch vergessen. Es macht natürlich einen Unterschied ob ich bei 4k Q-Upscaling verwende oder bei 1440p, obwohl in beiden Fällen der Input um 50% verringert wird. Ersteres wird immer besser skalieren. Übrigens... die Pixellast ist bei Raytracing besonders hoch, auch schon in niedrigeren Auflösungen. Und welch eine Überraschung... dort skaliert Upscaling immer am besten.

Rampage 2
2024-01-05, 16:23:19
*bump* @ Raff, Exxtreme und Robbitop;)

Bitte um Bestätigung, Erklärung, Ergänzung, Korrektur, was auch immer...


Boah... das ist ja richtig brutal! :freak: Sogar die 4080 ist bis zu 73% schneller als die 3090 Ti, wobei diese aber auch 37,5% höher taktet als Letztere;) Ich schätze mal, es liegt an den verbesserten RT-Kernen der RTX 4xxx-Karten - hier kommen die (RT-)Architekturverbesserungen von Lovelace voll zur Geltung, korrekt?

R2

DrFreaK666
2024-01-05, 19:45:32
Für irgendwas müssen die +18 Millionen Transistoren ja gut sein

The_Invisible
2024-01-05, 19:54:15
SER alleine könnte schon bis zu 25% bringen für Ada, kann man leider ja nicht ein/ausschalten, wär interessant ;)

Achill
2024-01-06, 16:11:04
Dankeee!!! =):up:

Boah... das ist ja richtig brutal! :freak: Sogar die 4080 ist bis zu 73% schneller als die 3090 Ti, wobei diese aber auch 37,5% höher taktet als Letztere;) Ich schätze mal, es liegt an den verbesserten RT-Kernen der RTX 4xxx-Karten - hier kommen die (RT-)Architekturverbesserungen von Lovelace voll zu Geltung, korrekt?

R2

Neben der Verbesserung mit der Architektur (inkl. mehr Power-Budget), könnte es auch einfach dran liegen, dass es von NV für die 40er Serie optimiert wurde? Imho sollte man es also als aktuellen Leuchtturm ansehen, ähnlich wie Metro Exodus oder CP2077 in der Vergangenheit.

Da meines Wissens sowohl Ray-Reconstruction als auch Shader Execution Reordering durch die Entwickler unterstützt werden müssen, u.z.T. von NV freigeben werden müssen, sollte man diese Leistung nicht auf andere Spiele 1:1 übertragen:

Ray-Reconstruction ist bisher nur auf Anfrage verfügbar:

[..]
Q: How do I get access to DLSS with Ray Reconstruction?
A: Ray Reconstruction is coming soon to all game developers - sign up to be notified here. Dynamic Frame Generation and Auto Scene Change Detection are available in DLSS 3.5 through Streamline Plugin 2.2+.
[..]



Shader Execution Reordering muss durch Entwickler im Shader-Code eingebaut werden, laut Whitepaper sollte man das Ergebnis auch immer prüfen, da bei leichten Ray-tracing der Overhead dadurch die Beschleunigung aufhebt oder sogar umkehrt: https://developer.nvidia.com/sites/default/files/akamai/gameworks/ser-whitepaper.pdf

Palpatin
2024-01-06, 19:29:06
und war schon auf dem Amiga 500 möglich, wenn auch nicht in Echtzeit.
piUrB0bApkw

dildo4u
2024-01-07, 09:47:58
Da zeichnet es sich schon unter max Settings ab, dass eine 4080 einer X7900XTX überlegen ist. Zumindest mit DLSS in Qualität
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

DLSS spart Bandbreite wegen reduzierter Auflösung die 4080 ist in 1080p nativ massiv vorne und verliert mit jeder Auflösungsstufe Performance gegenüber XTX.

https://www.techpowerup.com/review/avatar-fop-performance-benchmark/5.html


Das ist der selbe Ansatz wie bei Unreal Engine 5, das Feature Set muss auf Konsole ordentlich laufen daher baut man nix ein was AMD das Genick bricht.

Relex
2024-01-07, 10:40:40
Tja und um auf brauchbare Bildraten zu kommen, brauchste selbst auf der 4090 Upscaling.
Das wird mit steigendem Alter der Karte nur noch wichtiger bzw. man wird zumindest in 4K dann auch agressivere Faktoren wie Balanced und Performance nutzen müssen.


Dass manche GPUs in hohen Auflösungen solche Biester sind ist nett, aber in der Praxsis oft nicht wirklich nutzbar.

AMD hatte das zuletzt auch zu ich glaube es war Vega? Wo man die Leistung einfach nicht auf die Straße brachte, weil das Design nur in die breite skaliert hat. In 4K bei 30-40 FPS waren sie top. Aber so spielt halt keiner.
Sowas sieht man eben je nach Architektur und Ausstattung immer wieder.

Deswegen Theorie ist das eine, die Praxis das andere...


In der Praxsis spielt man ja eher FPS normiert. Zumindest wenn die Leistung nicht für alles maxed out 120 FPS 4K nativ reicht. Dann nutzt man eben Upscaling oder geringere Settings um die Wunschframerate zu erreichen.
Dieser Aspekt wird bei Benchmarks nie berücksichtigt, was ich schade finde.
Gerade das VRAM Thema ist ja auch extrem von den Settings abhängig (Texturen sind oft nichtmal VRAM Fresser #1).
Was hab ich von der Aussage, dass 8 GB in 1080p nicht ausreichen, wenn mit leicht reduzierten Settings auch 6 GB in 1440p reichen.

Sowas kannst natürlich nicht alles durchtesten, aber es macht die Fazits die bei Benchmarks meist gezogen werden eben meistens mehr oder weniger irrelevant.

dildo4u
2024-01-07, 11:25:54
Mein Punkt ist eher die Technik des Game an sich es nutzt RT und killt AMD nicht bei Cyberpunk/Alan Wake liegt die XTX bei einer 4070.(Normales RT)

Ubisoft wird Snow Drop für viel zukünftige Games nutzen CDPR hat hingegen schon gesagt das auf UE5 umgestiegen wird.

Raff
2024-01-09, 21:18:38
50 Minuten Talk rund um Benchmarks - falls euch die Gedanken hinter den Indizes interessieren. :)

sBIvqovn3jg

(Für die Clickbait-Überschrift bin ich nicht verantwortlich; habe dagegen protestiert, aber verloren.)

MfG
Raff

dildo4u
2024-01-16, 11:32:30
Erster Fall für spezielle RDNA3 Optimierung?
7800XT 30% vor 6800XT in Alan Wake RT.


https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/

dargo
2024-01-16, 11:41:03
Beides unspielbar, von daher wayne. Und dann noch 1080p mit Upscaling. :lol:

Raff
2024-01-16, 11:47:08
Es wurde Zeit, dass da mehr rumkommt. :up: Mal schauen, ob das künftig öfter passiert - über die ganze RT-Palette ist die 7800 XT nur um 6-8 Prozent flotter.

MfG
Raff

dildo4u
2024-01-16, 12:53:08
Und der 7600 geht der Vram aus?Wird ja bald geklärt.
Die 4060 sieht dort immens aus wenn man ihre Limitierungen bedenkt.