Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
13
14
15
"Lossless" AV1-Capturing via OBS gibt's natürlich nicht umsonst. ;)
MfG
Raff
Langlay
2023-07-11, 17:24:32
"Lossless" AV1-Capturing via OBS gibt's natürlich nicht umsonst. ;)
MfG
Raff
Yap, ohne Encoding siehts dann ungefähr so aus auf der 4090 :
https://i.imgur.com/bFxjUtc.jpg
aufkrawall
2023-07-11, 17:32:39
Jo:
https://abload.de/thumb/tlou-i_2023_07_11_16_tninb.png (https://abload.de/image.php?img=tlou-i_2023_07_11_16_tninb.png)
Hat hier jemand eine Radeon RX 7900 XTX mit 3 GHz am Start? Ich wüsste gerne, wie nah man einer Geforce RTX 4080 kommen kann, wenn die Power nicht rigoros limitiert. Hier wird eine handoptimierte MBA-Karte mit rund 2.750 MHz (~2.700 in UHD, ~2.800 in FHD) getestet:
https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Next-Gen-Benchmarks-Test-Tuning-1423789/2/
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=84663&stc=1&d=1689843778
Mit 500 Watt dürften 3 GHz machbar sein.
MfG
Raff
GerryB
2023-07-20, 16:18:52
Hast Du jetzt die Hellhound am Start?
Die hat doch sogar Dualbios, wo man flashen könnte.(zumindestens die üblichen "bis 465W" ohne Probleme)
Das neue Taichi-Bios>500W ist wohl net so einfach drauf zu bekommen.
(falls man durch flashen zu ner Taichi-Air wird und so auch erkannt wird!, gänge dann erst mit einigem HickHack "Treiber runter etc."
vllt. das AsRock-Tool für das neue >500W-Bios)
Das Ganze ist eeh nur auf dem gut gelüfteten Benchtable mit 100% Lü. sinnvoll.
Wiseman
2023-07-20, 20:54:10
Versus RDNA2 sieht N31 da wieder ziemlich meh aus. In meiner Spielauflösung von 1440p ist die 7900XTX nur 45% schneller als die 6800XT. Schon fast lächerlich bei Full vs. Salvage. Etwas besser wirds erst in 4k mit +61%. Nur ist mir 4k dann von den fps zu langsam, so dass ich wieder bei 1440p lande oder 4k + FSR2_Q verwenden würde. Ein Teufelskreis. :ulol:
Raff hat anscheinend mit 'ner ollen MBA getestet. Mit einer Custom 7900XTX schaut es viel besser aus. Guck mal, was meine downgraded Hellhound in der Benchmarkszene "Chapel" von PCGH reißt:
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset: min 72 fps - avg 77 fps
Das ist wieder mal knapp hinter der 4090. Aber ich bin es nicht anders gewohnt. :biggrin:
Das heißt also, eine downgraded Custom 7900XTX wäre 88% schneller in 4k als deine 6800XT. Wär dir natürlich immer noch viel zu wenig :biggrin: , deshalb hänge ich auch noch einen Bench mit FSR2 Q an. Just for fun. Ich weiß ja, dass du FSR nicht magst.
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset/ FSR2 Q: min 94 fps -avg 99 fps
Das wären sogar 141% Unterschied. Und TLoU schaut in FSR2 Q prima aus.
OgrEGT
2023-07-20, 21:38:03
Hast Du jetzt die Hellhound am Start?
Die hat doch sogar Dualbios, wo man flashen könnte.(zumindestens die üblichen "bis 465W" ohne Probleme)
Das neue Taichi-Bios>500W ist wohl net so einfach drauf zu bekommen.
(falls man durch flashen zu ner Taichi-Air wird und so auch erkannt wird!, gänge dann erst mit einigem HickHack "Treiber runter etc."
vllt. das AsRock-Tool für das neue >500W-Bios)
Das Ganze ist eeh nur auf dem gut gelüfteten Benchtable mit 100% Lü. sinnvoll.
Seit wann und mit welchem Tool kann man bei RDNA3 Karten das Bios flashen?
Linmoum
2023-07-20, 21:55:14
Raff hat anscheinend mit 'ner ollen MBA getestet. Mit einer Custom 7900XTX schaut es viel besser aus. Guck mal, was meine downgraded Hellhound in der Benchmarkszene "Chapel" von PCGH reißt:
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset: min 72 fps - avg 77 fps
Das ist wieder mal knapp hinter der 4090. Aber ich bin es nicht anders gewohnt.
Das heißt also, eine downgraded Custom 7900XTX wäre 88% schneller in 4k als deine 6800XT. Wär dir natürlich immer noch viel zu wenig , deshalb hänge ich auch noch einen Bench mit FSR2 Q an. Just for fun. Ich weiß ja, dass du FSR nicht magst.
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset/ FSR2 Q: min 94 fps -avg 99 fps
Das wären sogar 141% Unterschied. Und TLoU schaut in FSR2 Q prima aus.
Die XTX von PCGH rennt mit >2700MHz realem Takt. Deine ~20% mehr an fps mit zudem noch scheinbar ~300W (und ~10% weniger Takt) ergeben schon rein logisch betrachtet keinen Sinn. Da ist auch Custom oder MBA egal für. Irgendwas stimmt da nicht, zumindest für einen direkten Vergleich nicht.
vinacis_vivids
2023-07-20, 21:57:11
Der PCGH-Rechner ist einfach langsamer.
Raff hat anscheinend mit 'ner ollen MBA getestet. Mit einer Custom 7900XTX schaut es viel besser aus. Guck mal, was meine downgraded Hellhound in der Benchmarkszene "Chapel" von PCGH reißt:
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset: min 72 fps - avg 77 fps
Das ist wieder mal knapp hinter der 4090. Aber ich bin es nicht anders gewohnt. :biggrin:
Das heißt also, eine downgraded Custom 7900XTX wäre 88% schneller in 4k als deine 6800XT. Wär dir natürlich immer noch viel zu wenig :biggrin: , deshalb hänge ich auch noch einen Bench mit FSR2 Q an. Just for fun. Ich weiß ja, dass du FSR nicht magst.
Custom 7900XTX/ 23.7.1/ 312W PL/ 4k/ Ultra-Preset/ FSR2 Q: min 94 fps -avg 99 fps
Das wären sogar 141% Unterschied. Und TLoU schaut in FSR2 Q prima aus.
Ich teste immer mit 'ner ollen MBA. Und ollen Founders- sowie Limited-Editions - tiefe Referenzkarten-Baseline. Dass deine Karte bei TLOU - einem Radeon-Showcase - stark sein würde, war zu erwarten. Aber wie sieht's denn mit The Witcher 3 aus? :)
Nochmal zu TLOU: Das "Sichtfeld" unter "Effekte" im Menü "Anzeige" hast du auch maximiert? Muss auf 10 gezogen werden -> größeres peripheres Sichtfeld. Denn wie Linmoum sagt, passt das nicht zu deiner Optimierung auf Effizienz.
Der PCGH-Rechner ist einfach langsamer.
Quatsch. Erst recht, da wir von UHD reden.
MfG
Raff
vinacis_vivids
2023-07-20, 23:12:07
Man müsste schon auf 8K hochgehen (33,2 Mio. Pixel), um das CPU-Limit zu umgehen. Ist aber nativ dann nicht mehr so praxistauglich (wie 720p), weil PCGH kein 8K Monitor bzw. 8K-Fernseher hat.
FSR-Q anschalten, was dann folgendes ergibt:
(7680 X 4320) : 1,5 (DLSS-Q/FSR-Q) = 5120 X 2880 5k rendering resolution und 8k output resolution. Der Anschluss am UHD Monitor spart ja am Pixel-Shader ggü. 8k Pixel-shader.
Bei dem Standard sind sowieso die meisten Karten aussortiert. Wir reden hier von 1000-2000€ GPUs, die müssen auch größere Bildschirme und mehr Pixel beschleunigen können.
Ich habe das jetzt extra nochmal getestet. Frische Installation eines neuen AMD-Wundertreibers ;), Spiel auf die Version 1.1.1.1 (das ist der 12. Patch) aktualisiert, frische Gebäude-Bepinselung, Re-Test. Again. Das kommt mit einer RX 7900 XTX MBA in Ultra HD heraus:
~64/72 Fps P1/Avg.
Tatsächlich, die aktuelle Kombination läuft in UHD deutlich besser. Erstaunlich, dass der Patch wohl wieder was gedreht hat. Aber von Wisemans Ergebnis bin ich trotz Referenz-Boardpower (355 Watt) weit entfernt. Und ein Problem, das seit dem Vulkan-Extension-Treiber besteht und im PCGH-Artikel genannt wird, ist immer noch vorhanden: In niedrigen Auflösungen (bzw. generell im CPU-Limit, würde ich sagen) läuft das Spiel signifikant schlechter als mit der ASAE 23.5.2:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=84675&d=1689888162
Muss ich jetzt auch ein Video dazu drehen oder glaubt man mir das auch so? Über Repro wäre ich weiterhin sehr erfreut, dann kann ich das auch mal AMD schicken. :)
-> Einmal mit dem Treiber 23.5.2 benchen.
-> Einmal mit einem neueren Treiber benchen.
MfG
Raff
Wiseman
2023-07-21, 02:38:37
Man müsste schon auf 8K hochgehen (33,2 Mio. Pixel), um das CPU-Limit zu umgehen. Ist aber nativ dann nicht mehr so praxistauglich (wie 720p), weil PCGH kein 8K Monitor bzw. 8K-Fernseher hat.
FSR-Q anschalten, was dann folgendes ergibt:
(7680 X 4320) : 1,5 (DLSS-Q/FSR-Q) = 5120 X 2880 5k rendering resolution und 8k output resolution. Der Anschluss am UHD Monitor spart ja am Pixel-Shader ggü. 8k Pixel-shader.
Bei dem Standard sind sowieso die meisten Karten aussortiert. Wir reden hier von 1000-2000€ GPUs, die müssen auch größere Bildschirme und mehr Pixel beschleunigen können.
Für den Liebhaber von 8k habe ich "Chapel" mal in 8k (DR 7680x4320) plus FSR2 P (RR 3840x2160) getestet.
Gespielt hatte ich TLoU in 6k (DR 5760x3240) plus FSR2 Q (RR 3840x2160). Damit konnte ich TLoU mit ca. 60 fps spielen.
DR = Display Resolution
RR = Render Resolution
GerryB
2023-07-21, 08:06:53
Seit wann und mit welchem Tool kann man bei RDNA3 Karten das Bios flashen?
Ohne Programmer an den Bioschip anzuschließen gehts leider noch nicht.
Die Extrem-OCer im Luxx sind i.d.R. aber mit der erf. zusätzlichen Hardware ausgerüstet, ... dort könntest Du Dir so ein Teil ausborgen
oder lässt mal Deine Graka von Jemand flashen, um auf das normale Taichi-Bios zu kommen.
https://www.amazon.de/KeeYees-SOIC8-EEPROM-CH341A-Programmer/dp/B07SNTL5V6/ref=asc_df_B07SNTL5V6/?tag=googshopde-21&linkCode=df0&hvadid=380205837265&hvpos=&hvnetw=g&hvrand=8846002653700009982&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9044421&hvtargid=pla-813582484306&psc=1&th=1&psc=1&tag=&ref=&adgrpid=81608261030&hvpone=&hvptwo=&hvadid=380205837265&hvpos=&hvnetw=g&hvrand=8846002653700009982&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9044421&hvtargid=pla-813582484306
(kannst Du auch selber kaufen)
Das AsRock-Tool brauchts dann um vom normalen Taichi-Bios auf das >500W-Bios zu flashen.
OgrEGT
2023-07-21, 08:35:21
Ohne Programmer an den Bioschip anzuschließen gehts leider noch nicht.
Die Extrem-OCer im Luxx sind i.d.R. aber mit der erf. zusätzlichen Hardware ausgerüstet, ... dort könntest Du Dir so ein Teil ausborgen
oder lässt mal Deine Graka von Jemand flashen, um auf das normale Taichi-Bios zu kommen.
https://www.amazon.de/KeeYees-SOIC8-EEPROM-CH341A-Programmer/dp/B07SNTL5V6/ref=asc_df_B07SNTL5V6/?tag=googshopde-21&linkCode=df0&hvadid=380205837265&hvpos=&hvnetw=g&hvrand=8846002653700009982&hvpone=&hvptwo=&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9044421&hvtargid=pla-813582484306&psc=1&th=1&psc=1&tag=&ref=&adgrpid=81608261030&hvpone=&hvptwo=&hvadid=380205837265&hvpos=&hvnetw=g&hvrand=8846002653700009982&hvqmt=&hvdev=c&hvdvcmdl=&hvlocint=&hvlocphy=9044421&hvtargid=pla-813582484306
(kannst Du auch selber kaufen)
Das AsRock-Tool brauchts dann um vom normalen Taichi-Bios auf das >500W-Bios zu flashen.
Ah OK Danke... davon hab ich schon gehört... ich dachte es würde jetzt eine Software Lösung geben... wenn es das gäbe dann könnte das RDNA3 ggf zu noch mehr Attraktivität verhelfen da man dann auch andere Bereiche ober- und unterhalb der Default TBP +/- 10% erschließen könnte...
GerryB
2023-07-21, 09:38:28
Jo, downflashen ist sicher auch interessant, falls Du ne Custom ohne gescheites Silent-Bios hast.
fondness
2023-07-21, 09:40:35
Ich teste immer mit 'ner ollen MBA.
Seit wann denn das? Da gabs ja ewig lange Diskussionen, dass man immer die Oced NV-Karten verwendet hat. Jetzt wo also NV auf einen absurd großen Ref-Kühler geschwenkt ist und AMD die TDP limitiert geht man plötzlich auf MBA-Karten? :D
dildo4u
2023-07-21, 09:57:56
Die alten AMD Kühler waren doch wesentlich schlechter z.b Vega und co Custom Kühler machen Heute kein Unterschied.
https://www.computerbase.de/2023-05/sapphire-radeon-rx-7900-xt-pulse-test/2/#abschnitt_lautstaerke__kuehlleistung
Für den Liebhaber von 8k habe ich "Chapel" mal in 8k (DR 7680x4320) plus FSR2 P (RR 3840x2160) getestet.
Gespielt hatte ich TLoU in 6k (DR 5760x3240) plus FSR2 Q (RR 3840x2160). Damit konnte ich TLoU mit ca. 60 fps spielen.
DR = Display Resolution
RR = Render Resolution
Und wie sieht's mit meinen Fragen oben aus? Wir müssen jetzt mal etwas zielgerichteter werden, um Dinge zu klären. :)
Seit wann denn das? Da gabs ja ewig lange Diskussionen, dass man immer die Oced NV-Karten verwendet hat. Jetzt wo also NV auf einen absurd großen Ref-Kühler geschwenkt ist und AMD die TDP limitiert geht man plötzlich auf MBA-Karten? :D
Bitte nicht irgendwelche wilden Fantasien verbreiten. Der Kurs hat sich noch nie geändert.
MfG
Raff
GerryB
2023-07-21, 11:09:10
Solange Raff auf dem Benchtable ist, sollte auch die MBA noch net throtteln.
Das ne FE schon irgendwie ne Custom und kein Ref.design mehr ist, weiss Jeder.
(könnte also passieren das ne Custom@Ref-PCB ein mue anders ist)
Ob man jetzt als Redakteur nach der schlechtesten CustomRef suchen müsste, ... geschenkt.
aufkrawall
2023-07-21, 11:33:31
Nochmal zu TLOU: Das "Sichtfeld" unter "Effekte" im Menü "Anzeige" hast du auch maximiert? Muss auf 10 gezogen werden
Sehr unglücklich, dass PCGH nicht mit Default FoV testet. Um nicht zu sagen unsinnig.
Sehr unglücklich, dass PCGH nicht mit Default FoV testet. Um nicht zu sagen unsinnig.
Ist heute schon wieder Quatschtag, wo einfach alles kritisiert wird? Getestet wird mit maximalen Details und ein "entkonsolisiertes" FOV hilft dem Spiel. :) Es gibt nicht umsonst Videos zu allen Benchmarkszenen, die auch die Settings zeigen.
MfG
Raff
Linmoum
2023-07-21, 12:38:18
Kommt natürlich immer aufs Spiel an. Aber ich sehe das grundsätzlich auch so, zu gefühlten 98% sind die Default-FOVs immer völliger Unfug. Leider gibt's viel zu oft keinen integrierten Slider und man muss sich erst über ini-Tweaks oder Mods Abhilfe schaffen.
aufkrawall
2023-07-21, 12:39:21
"entkonsolisiertes" FOV hilft dem Spiel. :)
Fischaugeneffekt hilft dem Spiel auf dem PC?
Quatschtag
Glaub ich auch. Mal abgesehen davon, dass es unglaublich nervig für eure Leser ist, das FoV jedes Mal anzupassen. Vergessen bestimmt die Hälfte. Nachvollziehbarerweise, weil man so eine unsinnige Quatsch-Einstellung halt buchstäblich eher nicht auf dem Schirm hat...
Bei solchem Feedback überlege ich immer, den super aufwendigen Service der nachvollziehbaren Benchmarks (wenn man sich ein paar Minuten darauf einlässt) einfach zu killen, um die Nachtschichten etwas einzudämmen. Machen die "Großen" bei Youtube auch so und denen wird einfach geglaubt. Da fragt auch niemand nach der Auflösung bei CPU-Tests. :tongue:
MfG
Raff
aufkrawall
2023-07-21, 12:53:30
So viel auch zur angeblich besonders GPU-fordernden Szene in der Kirche :tongue: :
https://abload.de/thumb/tlou-i_2023_07_21_12_m8ent.png (https://abload.de/image.php?img=tlou-i_2023_07_21_12_m8ent.png) https://abload.de/thumb/tlou-i_2023_07_21_12_ird9u.png (https://abload.de/image.php?img=tlou-i_2023_07_21_12_ird9u.png)
Wahrscheinlich neun von zehn Stellen im Grünen laufen deutlich langsamer. :confused:
Edit: Immerhin kann ich die PCGH-Werte mit der 6700 XT bestätigen:
https://abload.de/thumb/tlou-i_2023_07_21_13_nhf5t.png (https://abload.de/image.php?img=tlou-i_2023_07_21_13_nhf5t.png)
Edit 2:
FSR 2 Q bringt +40% bei den 1% low:
https://abload.de/thumb/tlou-i_2023_07_21_13_ysd8e.png (https://abload.de/image.php?img=tlou-i_2023_07_21_13_ysd8e.png)
So viel auch zur angeblich besonders GPU-fordernden Szene in der Kirche :tongue: :
https://abload.de/thumb/tlou-i_2023_07_21_12_m8ent.png (https://abload.de/image.php?img=tlou-i_2023_07_21_12_m8ent.png) https://abload.de/thumb/tlou-i_2023_07_21_12_ird9u.png (https://abload.de/image.php?img=tlou-i_2023_07_21_12_ird9u.png)
Wahrscheinlich neun von zehn Stellen im Grünen laufen deutlich langsamer. :confused:
Das habe ich hier schon mal erklärt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13347670&postcount=2744
Was die ständigen Patches und Treiber-Updates ändern, webe ich ein, sobald das Spiel ein Dauerbenchmark wird. Mit dem getunten 13900KS kann ich vielleicht auch draußen eine optimale Skalierung erzielen. TBA.
MfG
Raff
DrFreaK666
2023-07-21, 14:13:19
... Da fragt auch niemand nach der Auflösung bei CPU-Tests. :tongue:
MfG
Raff
Das war bei HWU auch schon Thema ;)
Ok, das ist fair. :D
MfG
Raff
GerryB
2023-07-21, 14:33:24
bezgl. minFps = CPU-Limit, da kann@DX12 u.U. auch die falsche GPU limitieren
(NV ist da net in jedem Game die beste Wahl)
Es sind vermutlich unterschiedliche Szenen, aber die minFps beim GPU-Test fallen doch auf.
(wenn in 720p der CPU-Test schlechter ist)
aufkrawall
2023-07-21, 14:38:18
Ist halt mal wieder so ein Titel, wo der NV-D3D12-Treiber offenbar Schrott-Overhead zeigt, der die CPU Frame Time-Varianz versaut.
Laut The_Invisible ist das natürlich kein Problem, weil Nvidia unfehlbar ist und so...
Nightspider
2023-07-21, 15:37:06
Also ich habe letzte Nacht die 7900XTX ausgebaut und die 4090 eingesetzt und war denn etwas geschockt.
Das letzte Jahr habe ich ziemlich viel Diablo2 Resurrected gespielt, weil es auf dem OLED besonders geil war und ich wieder 15 war. ^^ Nur die Bildruhe hätte immer etwas besser sein können aber da half es nicht mal von 3440*1440 die interne Auflösung um 50% oder 100% hochzudrehen. Es half zumindest nur etwas. Ganz zu schweigen davon das die 7900XTX bei 200% (6880*2880) nur noch 66fps schaffte.
Die 4090 hat dann 103fps an der gleichen Stelle ausgespuckt, also 56% mehr.
Aber als ich dann noch DLSS zugeschaltet habe waren die fps nicht nur gleich bei 200fps sondern das Bild war plötzlich viel ruhiger, viel weniger pixelig, obwohl ich vorher schon verdammt nochmal 6880*2880 Pixel oft genug getestet habe. Bei Diablo2:R hat mich DLSS echt geschockt.
In BFV waren es dann ebenfalls knapp 57-60% mehr Leistung in Wide 5K.
Ich hatte sogar das Gefühl, dass das Menü in BFV viel schneller reagiert hat. Mit der Radeon kam es mir im Menü immer zäh vor. Vielleicht ist das Spiel auch zu sehr auf Nvidia optimiert gewesen.
In nativer Wide5K Auflösung waren es in BF2042 vielleicht um die 30fps aber mit DLSS und DLSR in 5160*2160er Auflösung hatte ich dann auch sehr flüssige 130-170fps.
Aber da muss ich noch weiter testen.
Scheinbar kann man DL-DSR und DLSS irgendwie sogar gleichzeitig aktivieren und ich konnte im kurzen Test noch nicht genau feststellen ob das Bild verschlimmbessert wurde.
Vielleicht habe ich jetzt sehr Nvidia lastige Games testet aber es waren jetzt genau die Spiele, die ich im letzten Jahr häufig(er) gespielt habe.
Bei Star Citizen war mit DL_DSR Auflösung von 5160*2160 die GPU Auslastung laut GeForce Experience bei knaoo 60% bei 30fps auf dem übervollen FreeFlight Server. Also sollten knapp 50-55fps mit dieser Auflösung drin sein wenn der Server mal nicht am abschmieren ist.
vinacis_vivids
2023-07-21, 15:48:28
Diablo 2 Resurrected habe ich auch.
Die Frametimes sind bei NV deutlich schlechter:
https://www.computerbase.de/2021-10/diablo-ii-resurrected-benchmark-test/2/
"Weil die Nvidia-GPU keine großen Ausreißer hat, macht sich das in der Praxis bei einer ausreichend hohen Framerate nicht bemerkbar. Sinken die FPS aber deutlich unter die 60-FPS-Marke, fühlt sich der Spielfluss auf einer GeForce zäher als auf einer Radeon an."
Langlay
2023-07-21, 15:51:06
Diablo 2 Resurrected habe ich auch.
Die Frametimes sind bei NV deutlich schlechter:
https://www.computerbase.de/2021-10/diablo-ii-resurrected-benchmark-test/2/
"Weil die Nvidia-GPU keine großen Ausreißer hat, macht sich das in der Praxis bei einer ausreichend hohen Framerate nicht bemerkbar. Sinken die FPS aber deutlich unter die 60-FPS-Marke, fühlt sich der Spielfluss auf einer GeForce zäher als auf einer Radeon an."
Stand von vor 2 Jahren, ist ja nicht so das es zwischendurch nicht den ein oder anderen Spielpatch und Treiberupdate gab.
https://i.imgur.com/7IRQuxF.png
aufkrawall
2023-07-21, 15:55:58
Diablo 2 Resurrected läuft auf Nvidia massiv schneller, die Frame Times sind mit Radeon dabei auch nicht besser. Dass es mit DLSS besser aussieht, ist auch logisch, weil das Spiel kein nennenswertes TAA hat. Ist in Overwatch 2 mit FSR 2 aber genau die gleiche Situation.
vinacis_vivids
2023-07-21, 15:56:29
Glaube auch nicht, dass sich das mit den Frametimes geändert hat.
Ich installiere mal D2R und schaue mir das mal an ;-)
aufkrawall
2023-07-21, 15:57:26
Hatte hier schon damals eine glatte Linie mit Nvidia...
vinacis_vivids
2023-07-21, 15:59:40
Es geht um das Szenario wo man unter 60fps fällt...
aufkrawall
2023-07-21, 16:02:09
Wie schon gesagt, glatte Linie mit der popeligen 3060. Auch ohne DLSS.
Hab sogar noch Screenshots da:
https://abload.de/thumb/d2r_2022_05_11_21_30_5ni0p.png (https://abload.de/image.php?img=d2r_2022_05_11_21_30_5ni0p.png)
Die Hückel sind Effekt-Spam mit entsprechenden Leistungskosten.
Btw. Sind die Frame Times in Akt 2 in etwa Dry Hills mit der Radeon nicht berauschend. Glaube fast, das war mit Nvidia sogar besser.
][immy
2023-07-21, 16:49:33
Wird hier ernsthaft eine Grafikkarte die deutlich dicker ist wirklich mit einer auf etwa rtx4080 Niveau verglichen?
Verstehe den Zusammenhang in diesem Thread nicht. Abgesehen vom Namensschema hat die rtx4090 absolut keine Konkurrenz und entsprechend kostet sie auch. Das sollte hier doch wohl jedem bekannt sein.
Bei der 3090 passte es mit der 6900 noch aber bei dieser Gen ist sowohl Nvidia nach oben hin über das Ziel hinaus geschossen, wie auch nach unten hin enttäuschent. Während AMD nach oben hin eher nur neb "besserten" refresh (von der Performance her) gebracht hat und nach unten hin ähnlich wie Nvidia enttäuscht (wobei man zumindest die Preise runter korrigiert).
Erstaunlich finde ich nur immer wieder das es immer wieder Spiele gibt die extrem in die eine oder andere Richtung gehen und dann nicht mal top Grafikqualität bieten.
Edit: Tippfehler am Handy. Sollte oben natürlich eine 4080 sein, keine 3080
Nightspider
2023-07-21, 17:29:56
Wird hier ernsthaft behauptet die 7900XTX ist auf 3080 Niveau?
vinacis_vivids
2023-07-21, 17:36:36
D2R ist keine Herausforderung für die 7900XTX. Wer das bevorzugt im UHD zockt, dem reicht auch ne RX6800 (was ich zu genügend getan habe die letzten zwei Jahre).
Matrix316
2023-07-21, 17:45:55
Wer spielt denn auch in Auflösungen wie 6880*2880? :ugly:
Isch hab aaach mal mit ner 4090 in 50000*40000 gespielt unn da hat die nur 2 FPS geliefert. Scheiß Katte! :rolleyes:
Nightspider
2023-07-21, 17:52:57
Die 7900XTX hatte schon bei Wide4K Probleme hohe Bildraten zu halten, weshalb ich auf die native 3440*1440er Auflösung runterschalten musste.
Wenn du einen 175Hz OLED hast willst du nicht phasenweise mit 90fps vor dich "hinruckeln", wenn es bei bossfights hart zu geht und du aufpassen musst nicht zu sterben, weil du einen riskanten Char aufgebaut hast oder solo Uber Tristram machst.
Matrix316
2023-07-21, 17:55:59
Die 7900XTX hatte schon bei Wide4K Probleme hohe Bildraten zu halten, weshalb ich auf die native 3440*1440er Auflösung runterschalten musste.
Wenn du einen 175Hz OLED hast willst du nicht phasenweise mit 90fps vor dich "hinruckeln", wenn es bei bossfights hart zu geht und du aufpassen musst nicht zu sterben, weil du einen riskanten Char aufgebaut hast oder solo Uber Tristram machst.
Du musst überlegen, dass 6880*2880 mehr als doppelt so viele Pixel sind wie Ultra HD Auflösung. Ist ja klar, dass da die wenigsten Karten noch genug Power haben.
Nightspider
2023-07-21, 18:13:07
Ist ja klar, dass da die wenigsten Karten noch genug Power haben.
Deswegen ja der Kauf der 4090.
Du musst überlegen, dass 6880*2880 mehr als doppelt so viele Pixel sind wie Ultra HD Auflösung.
Mir schon klar.
Aber wie gesagt, 6880*2880 war nicht mal mein Ziel. Die 7900XTX ist schon an +50% mit 5160*2160 gescheitert.
Das die 4090 jetzt keine Probleme mit dem sogar hübscheren DLSS mit 6880*2880 hat, ist nur ein fetter Bonus.
Das Bild ist jetzt nahezu perfekt. Es ist mir direkt ins Auge gesprungen, ohne das ich auf irgendwelche Kanten achten musste.
Das Bild ist einfach sauber jetzt. Nachdem ich das Spiel jetzt ein Jahr lang gezockt habe war es ein riesiger Unterschied.
Wiseman
2023-07-22, 18:35:08
Und wie sieht's mit meinen Fragen oben aus? Wir müssen jetzt mal etwas zielgerichteter werden, um Dinge zu klären. :)
MfG
Raff
Yes, Sir, yes. :biggrin:
Im Gegensatz zu dir teste ich nicht "maxed". Maxed ist meiner Meinung nach realitätsfremd. So spielt doch keiner. Das ist jetzt keine Kritik an dir. Du schreibst es ja bei deinen Tests auf PCGH immer dazu. Ich versteh dich auch. Du sparst dir damit bei deinen Hunderten von Benchmarks Zeit, weil du von einer einheitlichen Basis ausgehen kannst, die für alle Karten gilt.
Ich habe nun zielgerichtet die Einstellungen überprüft, die bei mir von "maxed" abweichen. Sind alle im "Display"-Menü zu finden:
Field of View, Motion Blur, Chromatic Aberration und Film Grain
Die 3 Optikverhunzer Motion Blur, Chromatic Aberration und Film Grain stelle ich grundsätzlich in jedem Spiel ab.
Field of View, das bei mir auf 0 (default) steht, ändert gar nichts am Ergebnis, auch wenn ich es auf +10 stelle.
Chromatic Aberration auf +10 und Film Grain auf +10 ändern bei mir auch nichts am Ergebnis. Aber Motion Blur haut rein. Ausgerechnet Motion Blur. Das haben sich doch Developer irgendwann ausgedacht, um uns zu verarschen. Unglaublich, aber wahr. Motion Blur auf +10 kostet in diesem Spiel an dieser Stelle 5% Leistung.
Das heißt also, ich nenne in Zukunft MBAs nicht mehr "olle" MBAs, sondern korrekt MBAs. Ich hatte mich sowieso gewundert, warum ich keinen Rüffel von horn_12 bekam. Horn_12 ist stets voll des Lobes für seine MBA XTX.
Fazit: Wenn ich Motion Blur Maxed verwenden würde, würde ich mit meiner Custom 7900XTX in diesem Spiel an dieser Stelle in etwa die gleichen Werte (64/73) wie du mit der MBA 7900XTX von PCGH erzielen. Der einzige Unterschied ist der geringere Spritverbrauch. Dank Silent BIOS + PL -10% + UV verbrauche ich mit meiner Custom XTX ca. 50W weniger.
TheGood
2023-07-22, 19:50:42
Yes, Sir, yes. :biggrin:
Im Gegensatz zu dir teste ich nicht "maxed". Maxed ist meiner Meinung nach realitätsfremd. So spielt doch keiner. Das ist jetzt keine Kritik an dir. Du schreibst es ja bei deinen Tests auf PCGH immer dazu. Ich versteh dich auch. Du sparst dir damit bei deinen Hunderten von Benchmarks Zeit, weil du von einer einheitlichen Basis ausgehen kannst, die für alle Karten gilt.
Ich habe nun zielgerichtet die Einstellungen überprüft, die bei mir von "maxed" abweichen. Sind alle im "Display"-Menü zu finden:
Field of View, Motion Blur, Chromatic Aberration und Film Grain
Die 3 Optikverhunzer Motion Blur, Chromatic Aberration und Film Grain stelle ich grundsätzlich in jedem Spiel ab.
Field of View, das bei mir auf 0 (default) steht, ändert gar nichts am Ergebnis, auch wenn ich es auf +10 stelle.
Chromatic Aberration auf +10 und Film Grain auf +10 ändern bei mir auch nichts am Ergebnis. Aber Motion Blur haut rein. Ausgerechnet Motion Blur. Das haben sich doch Developer irgendwann ausgedacht, um uns zu verarschen. Unglaublich, aber wahr. Motion Blur auf +10 kostet in diesem Spiel an dieser Stelle 5% Leistung.
Das heißt also, ich nenne in Zukunft MBAs nicht mehr "olle" MBAs, sondern korrekt MBAs. Ich hatte mich sowieso gewundert, warum ich keinen Rüffel von horn_12 bekam. Horn_12 ist stets voll des Lobes für seine MBA XTX.
Fazit: Wenn ich Motion Blur Maxed verwenden würde, würde ich mit meiner Custom 7900XTX in diesem Spiel an dieser Stelle in etwa die gleichen Werte (64/73) wie du mit der MBA 7900XTX von PCGH erzielen. Der einzige Unterschied ist der geringere Spritverbrauch. Dank Silent BIOS + PL -10% + UV verbrauche ich mit meiner Custom XTX ca. 50W weniger.
Immerhin kam mit dem letzten Satz die gewünschte Information :D Danke.
Wiseman
2023-07-22, 21:19:31
Immerhin kam mit dem letzten Satz die gewünschte Information :D Danke.
Ich wusste gar nicht, dass ich dir eine Information überbringen wollte. :biggrin:
Yes, Sir, yes. :biggrin:
Im Gegensatz zu dir teste ich nicht "maxed". Maxed ist meiner Meinung nach realitätsfremd. So spielt doch keiner. Das ist jetzt keine Kritik an dir. Du schreibst es ja bei deinen Tests auf PCGH immer dazu. Ich versteh dich auch. Du sparst dir damit bei deinen Hunderten von Benchmarks Zeit, weil du von einer einheitlichen Basis ausgehen kannst, die für alle Karten gilt.
Ich habe nun zielgerichtet die Einstellungen überprüft, die bei mir von "maxed" abweichen. Sind alle im "Display"-Menü zu finden:
Field of View, Motion Blur, Chromatic Aberration und Film Grain
Die 3 Optikverhunzer Motion Blur, Chromatic Aberration und Film Grain stelle ich grundsätzlich in jedem Spiel ab.
Field of View, das bei mir auf 0 (default) steht, ändert gar nichts am Ergebnis, auch wenn ich es auf +10 stelle.
Chromatic Aberration auf +10 und Film Grain auf +10 ändern bei mir auch nichts am Ergebnis. Aber Motion Blur haut rein. Ausgerechnet Motion Blur. Das haben sich doch Developer irgendwann ausgedacht, um uns zu verarschen. Unglaublich, aber wahr. Motion Blur auf +10 kostet in diesem Spiel an dieser Stelle 5% Leistung.
Das heißt also, ich nenne in Zukunft MBAs nicht mehr "olle" MBAs, sondern korrekt MBAs. Ich hatte mich sowieso gewundert, warum ich keinen Rüffel von horn_12 bekam. Horn_12 ist stets voll des Lobes für seine MBA XTX.
Fazit: Wenn ich Motion Blur Maxed verwenden würde, würde ich mit meiner Custom 7900XTX in diesem Spiel an dieser Stelle in etwa die gleichen Werte (64/73) wie du mit der MBA 7900XTX von PCGH erzielen. Der einzige Unterschied ist der geringere Spritverbrauch. Dank Silent BIOS + PL -10% + UV verbrauche ich mit meiner Custom XTX ca. 50W weniger.
Prima, danke! :up:
Dass bei dir nicht alles an ist, meinte ich bereits deinen Shots zu entnehmen - die grässliche Firmkörnung ist da nämlich nicht zu sehen. Aber weil Bildkompression hier einen Streich spielen kann, habe ich nix weiter geschrieben. :) Interessant, dass Motion Blur so teuer ist. Ich spiele privat übrigens auch immer ohne die von dir genannten Bildverschlechterer.
Wenn du (oder jemand anderes) jetzt noch dazu kämest, die Leistung mit der Treiberversion 23.5.2 abzuklopfen, wär's perfekt.
MfG
Raff
Edgecrusher86
2023-07-23, 08:58:53
Wer spielt denn auch in Auflösungen wie 6880*2880? :ugly:
Isch hab aaach mal mit ner 4090 in 50000*40000 gespielt unn da hat die nur 2 FPS geliefert. Scheiß Katte! :rolleyes:
Schon einmal was von PCMR gehört?! Nicht? 😜
Ich teste aus Spaß an der Freude mit jeder neuen Karte solche extremen Sachen - hinauf bis 16.00x DSR - also hier 13760x5760 - auch um zu schauen, wie voll der VRAM dann geht. Immer wieder lustig, wenn die beste GPU an alten Kamellen scheitert - vor allem, wenn es böses MSAA gibt. Max Payne III etwa braucht eine 64GB Karte für 16.00x plus 8xMS (52GB forderte das Spiel). Bei 16K dürften vielleicht nicht einmal 64GB ausreichend sein. Um es aber nicht ganz so irrsinnig zu erscheinen lassen - 10320x4320 plus FXAA rennt bei 60 fps Cap und 200W (UV). Sieht schon nett aus. ^^
Wenn die Leistung da ist und man bessere Bildqualität fahren kann - warum nicht?!
Das ist ja das schöne an PC Gaming, dass einem nicht nur zwei vorgegebene Stufen wie bei den Konsolen zur Verfügung stehen, sondern quasi unendlich viel wenn man alle Settings miteinbezieht.
Für mich muss ich aber eingestehen, dass ich es bei nativem UWQHD belasse, wenn die Bildqualität für mich in Ordnung ist - mit DLSS Q etwa öfters der Fall.
Ob es jetzt immer Sinn macht, b
Brutalo-Settings zu fahren, muss Jeder für sich entscheiden. Manche spielen ja gar in 8K30 und empfinden das als angenehm.
Für mich müssen es halt in SP Games konstante 58 fps sein. MP besser in 80 oder 100 fps. Mehr gibt der Moni hier eh nicht her (G-SYNC Range). Die meisten hier bevorzugen wohl mindestens 120 feste fps - andere wollen 200+ erreichen.
Meiner Meinung nach der beste Kompromiss ist, in 5160x2160 (plus DLSS Q oder DLAA - so denn verfügbar) zu spielen bezüglich fps und Qualität. Im alten AC:Syndicate hatte ich hier nicht nur deutlich mehr fps, sondern auch wesentlich mehr Bildschärfe als mit 4.00x DSR gesehen.
OK, zurück zu RDNA3. 😁
Matrix316
2023-07-23, 11:16:12
Ich finde es nur unfair, Hardware nach Kriterien zu beurteilen, nach denen sie nicht entwickelt wurden. Was weiß ich z.B. Pathtraycing auf AMD Karten oder Video Encoding Vergleiche wo Intel mit Quick Sync immer schneller ist als AMD. Oder Benchmarks mit Hairworks wo nVidia einen Vorteil hat. Oder Effizienztests mit ARM vs X86 Chips. Oder halt Auflösungen bei Grafikkarten zu vergleichen die so nie realistisch gefahren werden. Alles eigentlich sinnlos.
Edgecrusher86
2023-07-23, 11:48:41
Wie gesagt, wenn es subjektiv für den jeweiligen Benutzer flüssig läuft, hat es in meinen Augen auch Praxisnähe.
4K/5K 16:9 oder WS ist halt vor allem Dank upscaling kein Problem.
The Last of Us etwa läuft mit 5K60 per DLSS 3 Mod auf einer 4090 UV - es gibt wohl einige kleinere Darstellungsfehler, aber nichts Gravierendes - wurde mir gesagt.
Anderes Beispiel - Uncharted 5K60 mit DLSS Q passiv unter Luft möglich.
Oder TW3 NG. 80-100+ fps in 5160x2160 DL-DSR + FG und DLSS Q per 13700K und 4090.
Also ich sehe hier nichts Unfaires.
Natürlich ist es Blödsinn, wenn man jetzt nur 30-40 fps hätte und es sich nach Kaugummi anfühlen würde.
Auf Karte A rennt es halt, auf Karte B von der Konkurrenz nicht - ist halt so.
Dann muss man halt als Interessent noch einmal eine Generation später einen Blick drauf werfen.
Exxtreme
2023-07-23, 11:53:35
Ich finde es nur unfair, Hardware nach Kriterien zu beurteilen, nach denen sie nicht entwickelt wurden. Was weiß ich z.B. Pathtraycing auf AMD Karten oder Video Encoding Vergleiche wo Intel mit Quick Sync immer schneller ist als AMD. Oder Benchmarks mit Hairworks wo nVidia einen Vorteil hat. Oder Effizienztests mit ARM vs X86 Chips. Oder halt Auflösungen bei Grafikkarten zu vergleichen die so nie realistisch gefahren werden. Alles eigentlich sinnlos.
Also ich finde es nicht unfair. Da man immer damit rechnen muss, dass man die Hardware für Dinge einsetzen wird, für die sie nicht entwickelt wurde. Und wie schnell AMDs Pathtracing in Nicht-Nvidia-Demos ist, das weiss man bis heute nicht.
GerryB
2023-07-23, 21:01:15
macht doch bitte nen extra Thread für "brotlose Kunst" auf
gerade im Hochsommer über extrem große Resis und Pathtracing zu fachsimplen = ???
mit ner AMD-Graka würde ich immer die RT-Settings selektiv auswählen, um ein sparsames hybrides RT zu fahren
(wofür die Hardware auch designed ist)
Erstmal abwarten ob 2028 die PS6 auf Pathtracing geht, wenn net ist das wieder ein Alleingang.
(von daher gehört Sowas eher in den RDNA5-Speku-Thread)
macht doch bitte nen extra Thread für "brotlose Kunst" auf
gerade im Hochsommer über extrem große Resis und Pathtracing zu fachsimplen = ???
mit ner AMD-Graka würde ich immer die RT-Settings selektiv auswählen, um ein sparsames hybrides RT zu fahren
(wofür die Hardware auch designed ist)
Erstmal abwarten ob 2028 die PS6 auf Pathtracing geht, wenn net ist das wieder ein Alleingang.
(von daher gehört Sowas eher in den RDNA5-Speku-Thread)
Dumme Frage, aber gibt es überhaupt eine Hardware, welche Pathtracing ohne Upscaler überhaupt spielbar wiedergeben kann? Ich interessiere mich eigentlich nicht mehr für den Krempel, da ich ich Hybrid fahre und eh auf der Looser-side bin und ich seeeehr selten spiele und wenn dann HL-Ableger und F1. Wir sprechen imo über Anforderungen, welche 2025-2028 gestellt werden können
GerryB
2023-07-24, 06:35:50
Erstmal wird für normale User interessant wie es mit der UE5@Lumen so läuft.(x)
Satisfactory sieht von den Fps her in FHD ganz brauchbar aus.
(UE5.2 hat dazu ein gutes TSR, was als Upsampler nutzbar ist)
(x) Das ist nach m.E. derzeit die Mindestanforderung, falls es ein paar Jahre reichen soll.
The_Invisible
2023-07-24, 11:43:38
Dumme Frage, aber gibt es überhaupt eine Hardware, welche Pathtracing ohne Upscaler überhaupt spielbar wiedergeben kann? Ich interessiere mich eigentlich nicht mehr für den Krempel, da ich ich Hybrid fahre und eh auf der Looser-side bin und ich seeeehr selten spiele und wenn dann HL-Ableger und F1. Wir sprechen imo über Anforderungen, welche 2025-2028 gestellt werden können
Was heißt schon "reicht". Man kann die Rays immer ins unendliche erhöhen bis jede GPU erstickt. Ich verstehe eher nicht warum Ray/Pathtracing quasi immer "perfekt" sein muss aber wir selbst in Rastergrafik noch weit davon entfernt sind bzw damit gar nicht möglich ist.
Zumindest in aktuelle Games reicht dafür eine 4080/4090 in 1080p bzw teilweise auch 1440p (4090). Die Frage ist eher warum man kein Upscaling will wenns eh nicht schlechter aussieht bzw dank integriertem AA sogar oft besser.
Exxtreme
2023-07-24, 12:03:47
Und man sollte auch bedenken, dass Pathtracing auch nicht den visuellen Unterschied bringt. Das ist jetzt nur noch eine nette Spielerei und lässt sich wohl ziemlich gut faken zu einem Bruchteil der Kosten. Spiegelungen sind da ähnlich. Die kann man ebenfalls extrem gut nachbilden ohne die Kosten für RT-Spiegelungen zu zahlen. PT sind halt die letzten 5%, die 300% mehr kosten.
OgrEGT
2023-07-26, 12:31:23
Das Idle Stromverbrauch Thema bei Multi Monitor Setups ist weiterhin als Known Issue gelistet...
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-7-2
Laut Videocardz soll dieser Treiber auch erstmals die mobile 700M unterstützen...
https://videocardz.com/newz/amd-releases-public-ryzen-7040-radeon-700m-phoenix-driver-ryzen-7-7840s-spotted
aufkrawall
2023-07-26, 12:41:56
Das Idle Stromverbrauch Thema bei Multi Monitor Setups ist weiterhin als Known Issue gelistet...
Hoffentlich heißt das, dass weitere Verbesserungen kommen. Und nicht, dass die alten wieder rausgeflogen sind. ;)
GerryB
2023-07-27, 07:37:22
ds entlastet schwache CPU´s ganz gut, ... ne 7900xtx-MBA dürfte volle Fps schaffen@13100
(die Aorus verliert nur 2fps auf der schwachen CPU, hat aber auch mehr W+Fps)
dildo4u
2023-07-28, 12:41:16
23.7.2 Treiber Test mit Forza Horizon 5 und Last of Us vs 4090.
aETMNMgqO4E
Matrix316
2023-07-28, 12:45:31
23.7.2 Treiber Test mit Forza Horizon 5 und Last of Us vs 4090.
[...]
Wieso werden da unterschiedliche CPUs verwendet? Das hat ja unter Umständen auch noch mal Einfluss auf das Ergebnis...
Wiseman
2023-07-29, 01:43:20
23.7.2 Treiber Test mit Forza Horizon 5 und Last of Us vs 4090.
https://youtu.be/aETMNMgqO4E
Du hast wieder mal emsig im Internet Belege gesammelt, dass die 700 Euro teuere 4090 um 20% schneller ist als die 7900XTX. In FH5. In TLoU sind es eher 10% bis 15%. Bekommst ein Fleißkärtchen dafür.
Ist dir auch der irrsinnige Wattverbrauch aufgefallen? Die 7900XTX des Youtubers verbraucht fast immer 460W. Bei der 4090 ist der Wattverbrauch in FH5 nicht ganz so wild, aber in TLoU geht er während der Autofahrt auch bis an 460W heran.
Ich überprüfte vor Kurzem (23.7.1) FH5 mit meiner 312W limitierten 7900XTX. So wie der Youtuber in 4k, mit TAA und im Extreme Preset. Beim Vergleichen wird der ganze Irrsinn dieses Youtubers beim Energieverplempern deutlich. Der Youtuber erzielte avg 146fps bei 460W. Ich erzielte avg 140fps bei 312W. Das heißt, der Youtuber verbrauchte für 4% mehr Leistung 47% mehr Energie.
Zum Beweis hänge ich meine Performance Summary an.
DrFreaK666
2023-07-29, 05:04:40
Für Troyan wahrscheinlich total unspielbare Latenz :lol:
BlacKi
2023-07-29, 12:51:39
wie schnell ist denn die GRE nun eigentlich? 6% weniger mhz 4,8% weniger recheneinheiten als die xt.
11% langsamer, aber 24% billiger*?
klingt nach keinem schlechten deal.
*hab mal die teile aus dem fertig pc rausgerechnet, komme auf grob 609€ über den daumen.
€dit: leo haut gerade einen artikel dazu raus.
VooDoo7mx
2023-07-29, 13:39:49
Du hast wieder mal emsig im Internet Belege gesammelt, dass die 700 Euro teuere 4090 um 20% schneller ist als die 7900XTX. In FH5. In TLoU sind es eher 10% bis 15%. Bekommst ein Fleißkärtchen dafür.
Ist dir auch der irrsinnige Wattverbrauch aufgefallen? Die 7900XTX des Youtubers verbraucht fast immer 460W. Bei der 4090 ist der Wattverbrauch in FH5 nicht ganz so wild, aber in TLoU geht er während der Autofahrt auch bis an 460W heran.
Ich überprüfte vor Kurzem (23.7.1) FH5 mit meiner 312W limitierten 7900XTX. So wie der Youtuber in 4k, mit TAA und im Extreme Preset. Beim Vergleichen wird der ganze Irrsinn dieses Youtubers beim Energieverplempern deutlich. Der Youtuber erzielte avg 146fps bei 460W. Ich erzielte avg 140fps bei 312W. Das heißt, der Youtuber verbrauchte für 4% mehr Leistung 47% mehr Energie.
Zum Beweis hänge ich meine Performance Summary an.
1. Der Vergleich ist eh wertlos, da verschiedene CPUs verwendet wurden.
2. Beide Grafikkarten sind da wohl bis an die Kotzgrenze übertaktet, daher auch der hohe Stromverbrauch.
3. Beide Grafikkarten kann man mit diversen Maßnahmen deutlich energieeffizienter machen. Gerade im Teillastbereich hat die AMD Grafikkarte jedoch einen deutlich höheren Stromverbrauch.
4. Beides sind Titel die auf AMD Hardware überdurchschnittlich gut performen. Normal ist der Abstand deutlich größer und das weißt du auch. Und daran wird sich auch weiterhin nichts ändern. Man sieht auch an den "relativ" niedrigen Stromverbrauch der 4090 das diese Spiele-Engines die Karte nicht gut auslasten.
4. Keine Ahnung was du dir jetzt hier mir Rosinenpicken beweisen willst. Gerade we wenn man in UHD bei 150 fps+ hat, ist man doch eher im CPU Limit und da ist es doch quasi egal ob Grafikkarte A jetzt 20% schneller als Grafikkarte B ist ist, oder doch 30%
In den Extreme Preset bei FH5 ist im Rennen Raytracing deaktiviert. Schalte dies ein und der Abstand wird wieder größer. In anderen Titeln mit Raytracing ist die 4090 50% oder noch mehr schneller. Und das sind auch die Aufgaben wo man wirklich die Rechenleistung so einer Karte wirklich braucht und nicht bei Titeln die eh schon mit 150fps laufen.
5. Leute die sich eine 4090 kaufen ist es egal ob in 2 Titeln die Karte nur 20% schneller als eine 7900XTX ist. Solche Menschen wollen das Beste haben und sind auch bereit dafür zu bezahlen.
Der_Korken
2023-07-29, 13:45:12
€dit: leo haut gerade einen artikel dazu raus.
Hab den im Speku-Thread kommentiert und vergessen, dass wir den Review-Thread haben. Ich kopier mal das Fazit hier rein:
Die GRE fällt in der Praxis nun aber völlig ab. In 4K ist die XT 27% schneller und die XTX wäre kumuliert satte 49% schneller. Durch die fehlende Shader-Engine kann diese Diskrepanz nicht erklärt werden, denn das Frontend ist gegenüber der XTX genauso stark geschrumpft wie die CUs.
[...]
Meine Schlussfolgerung: Das kleine SI bzw. der kleine Cache ziehen die GRE so weit runter. Dadurch dass die GRE (afaik?) nur mit 18Gbps am VRAM läuft, hat die XT 39% mehr Bandbreite (und die XTX 67% mehr). Nichts anderes an der XT ist 27% schneller, um auf diese 4K-Diskrepanz zu kommen. Wäre es die Rechenleistung, müsste die GRE in Spielen mit 2,1Ghz takten, um so stark abzufallen, was ich für unwahrscheinlich halte.
Für 650$ eigentlich nichts berauschendes, wenn die Leistung so stimmt. Ich hätte so mit 10% Rückstand zur 7900XT gerechnet. Eigentlich fast schon eine Verschwendung von N31-Chips, wenn der so krass durch nur 4 MCDs eingebremst wird.
basix
2023-07-29, 14:05:31
Eigentlich kann es nur die Bandbreite sein, dass dei GRE so stark abfällt. Alles andere macht keinen Sinn. Anhand diesem Werte sehen wir zudem gut ein Indiz für die Performance von N32. Mehr als die GRE wird nicht rauskommen. Gleichstand ist absoluter best case, aber ziemlich unwahrscheinlich. Ich tippe auf -10% darunter und damit ziemlich genau RTX 4070 Performance.
fondness
2023-07-29, 14:35:24
Der nur halb so große IF$ vs. N21 ist natürlich schon ein erheblicher Nachteil.
Achill
2023-07-29, 14:46:12
Eigentlich kann es nur die Bandbreite sein, dass dei GRE so stark abfällt. Alles andere macht keinen Sinn. Anhand diesem Werte sehen wir zudem gut ein Indiz für die Performance von N32. Mehr als die GRE wird nicht rauskommen. Gleichstand ist absoluter best case, aber ziemlich unwahrscheinlich. Ich tippe auf -10% darunter und damit ziemlich genau RTX 4070 Performance.
Ich tippe auf die Caches als stärkeres Bottleneck, die Hitrate sink bekannter maßen je höher die Auflösung ist. Die GRE hat nur 64MB L3 Cache .. mit der limitierten Cache und Brandbreite ist es keine 4k Karte. Test in 4K als Vergleich heran zu ziehen ist interessant aber sicherlich nicht die Zielauflösung der Karte und damit imho nicht ganz Sinnvoll.
Laut ersten Tests (https://www.techpowerup.com/311816/amds-radeon-rx-7900-gre-gets-benchmarked) kann sich die Karte unter 2560x1440 etwas absetzten von der 4700er. Die 4700TI wird damit schneller sein, hat aber 4GB weniger VRAM ...
Der_Korken
2023-07-29, 15:01:01
Man sollte bedenken, dass Expreview "nur" mit einem 13790F (ohne K) getestet hat. Keine Ahnung, ob das in 1080p oder 1440p schon bremst und mit einer schnelleren CPU auch da die Unterschiede schon größer wären. In 1080p mit RT ist die XT z.B. auch schon durchgehend 25%+ schneller als die GRE. Nur in Far Cry 6 nicht, aber da der Abstand dort auf 13 bzw. 25% steigt in 1440p/4K wird das wohl ein CPU-Limit sein. Das ist also kein reines Auflösungsproblem.
basix
2023-07-29, 16:16:30
Der nur halb so große IF$ vs. N21 ist natürlich schon ein erheblicher Nachteil.
Ich tippe auf die Caches als stärkeres Bottleneck, die Hitrate sink bekannter maßen je höher die Auflösung ist. Die GRE hat nur 64MB L3 Cache .. mit der limitierten Cache und Brandbreite ist es keine 4k Karte. Test in 4K als Vergleich heran zu ziehen ist interessant aber sicherlich nicht die Zielauflösung der Karte und damit imho nicht ganz Sinnvoll.
IF$ + DRAM = Bandbreite ;) Das kann man nicht voneinander trennen
Die CUs und Shader-Engines sind jedenfalls nicht für die Performance-Differenz verantwortlich.
Und wie gesagt: N32 hat die genau gleichen 64MByte und 256bit SI (jedoch 19.5 Gbps anstatt 18 Gbps). Deswegen kann man die 7900 GRE als Best Case für die schnellste N32 Karten annehmen. Vermutlich etwas langsamer. Ausgehend von der 7900 XTX und linearer Performance Skalierung anhand der CU käme N32 auf 330% im 4K Performance Index (7900 XTX = 530%; 7900 GRE = 360%). Karten mit weniger CU skalieren meistens aber etwas besser.
DrFreaK666
2023-07-29, 16:43:32
...Die 4700TI wird damit schneller sein, hat aber 4GB weniger VRAM ...
Die 4070 Ti ist auch nicht die Konkurrenz. Die günstigste 7900XT gibt es für 10€ mehr als die günstigste 4070 Ti (laut Geizhals)
Achill
2023-07-30, 13:45:00
IF$ + DRAM = Bandbreite ;) Das kann man nicht voneinander trennen
Die CUs und Shader-Engines sind jedenfalls nicht für die Performance-Differenz verantwortlich.
Und wie gesagt: N32 hat die genau gleichen 64MByte und 256bit SI (jedoch 19.5 Gbps anstatt 18 Gbps). Deswegen kann man die 7900 GRE als Best Case für die schnellste N32 Karten annehmen. Vermutlich etwas langsamer. Ausgehend von der 7900 XTX und linearer Performance Skalierung anhand der CU käme N32 auf 330% im 4K Performance Index (7900 XTX = 530%; 7900 GRE = 360%). Karten mit weniger CU skalieren meistens aber etwas besser.
Hab ich nicht getrennt bzw. wenn hab ich mich nicht gut ausgedrückt. Die Aussage "IF$ + DRAM = Bandbreite" stimmt zwar, lässt aber komplett den Aspekt der Cache-Hitrate unter den Tisch fallen - und das war mein Punkt.
Wir kennen von AMD Folien die Hit-Rate in Bezug auf Cache-Größe zu Auflösung (zumindest für Navi2x). Mein Punkt war und ist, dass der GRE nicht nur weniger VRAM-Bandbreite (ohne Cache) hat sondern m.E. insbesondere wegen der Cache-Größe keine 4K Karte ist.
Zur Erinnerung:
https://pbs.twimg.com/media/E2rDmb1WEAE7GGf?format=jpg
Lehdro
2023-07-31, 15:33:38
Das ist echt wild:
Computerbase: GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein (https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-idle-2023/#abschnitt_die_grosse_ueberraschung_amd__adaptive_sync)
Das neue Display mit VRR schickt Radeon RX schlafen
Nun ist die Redaktion in den letzten Monaten auf ein neues Display umgestiegen, das Ultra HD bei 144 Hz unterstützt und Adaptive Sync bietet. Während bei Nvidia-Grafikkarten VRR nach einer Windows-Neuinstallation abgeschaltet gewesen ist, hat der AMD-Treiber das Feature von sich aus angeschaltet. Und da gab es dann plötzlich eine große Überraschung, obwohl VRR für den Windows-Desktop weiterhin laut Windows deaktiviert blieb!
Doch anstatt 1xx Watt im „Leerlauf“ auf dem Desktop unter Ultra HD bei 144 Hz hat die Radeon RX 7900 XTX auf dem System plötzlich nur noch 24 Watt benötigt, weniger als ein Fünftel des bisherigen Messwerts.
Nach anfänglicher Verwirrung war dann schnell klar, welche Funktion für den plötzlichen „Leistungsverlust “ verantwortlich gewesen ist: Variable Refreshrate. Denn schaltet man die Funktion im Treiber wieder ab, stieg die Leistungsaufnahme auf dem Desktop bei 4K144 plötzlich wieder auf 104 Watt an. Das gelang nicht nur auf dem Testsystem mit dem Ultra-HD-Display, auch auf einem völlig anderen Rechner mit einem anderen VRR-Display ließ sich das Verhalten reproduzieren.
Der_Korken
2023-07-31, 15:59:02
Wenn AMD jetzt noch den Video-Verbrauch gebändigt bekommt, wären die Karten halbwegs brauchbar im Idle. Was mich aber mehr interessieren würde ist, wie sich die Umschaltung zwischen einer Zen 4 iGPU und RDNA3-Karten in der Praxis schlägt. Sprich: Wie hoch ist der Systemverbrauch in den Szenarien und gibt es in Spielen spürbare/messbare Leistungsverluste (fps, Latenz).
MSABK
2023-07-31, 16:12:11
Windows 11 soll auch Anpssungen bzgl VRR bekommen.
https://www.notebookcheck.com/Windows-11-erhaelt-Support-fuer-dynamische-Bildraten-auf-mehreren-Monitoren-und-neue-Inbox-App.737695.0.html
Das ist echt wild
Prima - bestätigt die PCGH-Messungen vor zwei Wochen:
https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-Adrenalin-2371-Idle-Power-Test-1424012/
Könnte das (Forza Horizon 5) bitte auch noch jemand von hier bestätigen? :D
https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-2371-Benchmark-Test-Forza-Horizon-5-1424071/
MfG
Raff
Exxtreme
2023-07-31, 16:27:24
Das ist echt wild:
Computerbase: GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein (https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-idle-2023/#abschnitt_die_grosse_ueberraschung_amd__adaptive_sync)
Ist nicht wild sondern normal. Mit VRR kann man viel gezielter steuern wann man den RAM heruntertakten kann und vice versa. Und da lässt sich viel Strom sparen. Fehlt noch der Multimonitorbetrieb. Aber auch das wird mit VRR viel einfacher.
Crazy_Chris
2023-07-31, 17:02:49
Windows 11 soll auch Anpssungen bzgl VRR bekommen.
https://www.notebookcheck.com/Windows-11-erhaelt-Support-fuer-dynamische-Bildraten-auf-mehreren-Monitoren-und-neue-Inbox-App.737695.0.html
Uihui uiiui hui das wäre ja tatsächlich mal ein echter Grund auf Windows 11 zu wechseln. Warum nicht gleich Microsoft? :biggrin:
Wenn AMD jetzt noch den Video-Verbrauch gebändigt bekommt, wären die Karten halbwegs brauchbar im Idle. Was mich aber mehr interessieren würde ist, wie sich die Umschaltung zwischen einer Zen 4 iGPU und RDNA3-Karten in der Praxis schlägt. Sprich: Wie hoch ist der Systemverbrauch in den Szenarien und gibt es in Spielen spürbare/messbare Leistungsverluste (fps, Latenz).
Videoverbrauch ist um die 30W. Ist Nv da besser? Ich bekomme meine XTX nicht mehr zu hohen Verbräuchen mit meinem Sys außer Last natürlich.
aufkrawall
2023-07-31, 18:36:46
Videoverbrauch ist um die 30W. Ist Nv da besser?
Warum steht dann bei CB >65W?
Was da steht ist mir total wurscht, meine braucht um 30W bei YT, schwankt zwar aber im Schnitt ist es nicht mehr. Meine braucht im Idle aber auch nur knapp 7W.
Weiß jetzt nicht, ob dies bei Intel auch funktioniert, aber wenn doch, dann legt die Grafikkarten per Hybrid-Modus schlafen. Das Problem, dass auf einmal der Bildschirm schwarz wird, obwohl der PC ganz normal seine Dinge verrichtet, sind mit dem 23.7.2 Geschichte.
Das einzige Problem beim Hybrid-Modus ist, dass man die jeweilige GPU nicht auswählen kann und die Settings sich alle 15s ändern von iGPU auf diskret.
Naja es funktioniert wahrscheinlich doch, indem man den Desktop als 3d-Anwendung ausgibt, die Settings für die diskrete GPU ändert, um dann den Desktop wieder der iGPU zuzuweisen.
Umständlich, hier sollte das Treiberteam seitens AMD nochmals nachbessern.
Matrix316
2023-07-31, 22:45:03
Das mit Freesync aufm Desktop scheint zu funktionieren. Nur hab ich zwei Monitore. Einer mit und einer ohne Freesync und wenn ich das Bild nur auf dem Freesync Monitor ausgebe, dann geht es - wenn beide an sind, dann nicht. Der mit Freesync ist der 4K Monitor, der andere ist ein Full HD Monitor, beide mit 60 Hz.
DeadMeat
2023-08-01, 10:56:18
Warum steht dann bei CB >65W?
Das weiß nur CB, die offenbar ja nichtmal eine Adaptive Sync Lösung hatten im Testbench.
Stimmen tut es aber nicht, vielleicht war es mit dem Launch Treiber so, aber aktuell sind solche Werte hier auch nicht zu sehen.
OgrEGT
2023-08-01, 21:30:25
https://videocardz.com/newz/amd-releases-adrenalin-gpu-driver-for-ratchet-clank-rift-apart-fixing-crashes-with-ray-tracing
Neuer Treiber für Ratchet & Clank mit RT...
Ja, aber ohne das korrespondierende Spiel-Update (Version 1.729 oder besser) ist immer noch nichts zu holen.
MfG
Raff
just4FunTA
2023-08-01, 23:42:52
schon absurd das es aufm pc ohne raytracing für amd kam, obwohl die ps5 version raytracing hat und wie wir alle wissen amd hardware verbaut ist. :x
DrFreaK666
2023-08-01, 23:53:34
Ja, aber ohne das korrespondierende Spiel-Update (Version 1.729 oder besser) ist immer noch nichts zu holen.
MfG
Raff
Wie war das?
We are working closely with AMD to enable support as soon as possible.
Offensichtlich sehr "close"
Linmoum
2023-08-02, 00:03:26
Das eine schließt das andere nicht aus. Irgendeiner muss zuerst liefern und hier ist es logischerweise AMD, da es offensichtlich Treiberprobleme gab.
Davon ab sind laut Release Notes auch nur die Probleme bei RT in Kombination mit DRS behoben worden. Im vorherigen Treiber hat AMD aber explizit auch noch Stabilitätsprobleme aufgeführt bei der Nutzung von RT, davon fehlt plötzlich jede Spur. Erweckt den Eindruck, dass das noch nicht alles ist, was gefixt worden ist.
GerryB
2023-08-03, 15:07:04
Dazu kann ich nur sagen, ... vermutlich überall nur noch GenZ am Werk.
Der neueste Hit, es wird nicht mehr live telefoniert sondern nur dem verpassten Anruf irgendwann späääter hinterhergesimst.
So kommt mir auch NIXXE vor. Ist ja net nur AMD net erreichbar sondern anscheinend interessierts auch Keinen wenn mit NV das rBar und
das DirectStorage sich net vertragen.
Tesseract
2023-08-03, 15:20:40
Was da steht ist mir total wurscht, meine braucht um 30W bei YT, schwankt zwar aber im Schnitt ist es nicht mehr. Meine braucht im Idle aber auch nur knapp 7W.
wie ist das gemessen? wenn das nur der von der karte selbst ausgelesene wert ist kannst du das bei AMD vergessen, die messen den verbrauch nicht direkt per shunt an den zuleitungen sondern nach dem VRM und rechnen dann irgendwie hoch, das ist ein reiner fantasiewert. wenn CB mit echem messequipment misst stimmt ist deren wert wahrscheinlich sehr viel näher an der realität.
keine ahnung ob es bei AMD custom layouts gibt die das anders machen aber aus irgendeinem grund hat sich AMD vor jahren dazu entschieden das mit dem verbrauch nicht so genau zu nehmen.
aufkrawall
2023-08-03, 15:53:55
Ggf. um die absurden Latenz-Probleme zu vermeiden, die es mit diversen Nvidia-Karten bei Abfrage des Power-Sensors seit Ewigkeiten gibt.
vinacis_vivids
2023-08-04, 12:08:25
Stable Diffusion
Automatic 1111 - RTX4090 - 21,04
https://abload.de/thumb/stable_diffusion_consgbfev.png (https://abload.de/image.php?img=stable_diffusion_consgbfev.png)
SHARK - RX 7900XTX - 20,76
https://abload.de/thumb/stable_diffusion_condbcaf.webp (https://abload.de/image.php?img=stable_diffusion_condbcaf.webp)
Die 7900XTX erreicht bei Stable Diffusion (KI-Bild-Rendering) das Level der RTX4090
dargo
2023-08-08, 17:17:11
Sehe gerade die neue Messmethode von CB beim Verbrauch.
https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-spiele-2023/#abschnitt_leistungsaufnahme_beim_spielen_in_full_hd_wqhd_und_ultra_hd
Wirkt schon ziemlich albern wenn die 7900XT(X) bei Teillast (Doom @144fps) ineffizienter in 4k ist als die 6800XT. Da sollte AMD wirklich noch beim Treiber nachbessern. In den kleineren Auflösungen passt es wieder.
Edit:
Die Messungen wirken auf mich aber merkwürdig. In 1080p ist die 7900XT effizienter als die XTX. In 1440p ist es wieder andersrum. Logisch wirkt das auf mich nicht. Eventuell Beschriftung vertauscht.
GerryB
2023-08-08, 23:58:25
may be in 1440@144fps schaltet die XTX von 384bit auf 256 oder 192bit runter
may be in 1080p@144fps schaltet die XT von 320bit auf 192 oder 160bit runter
(Teildeaktivierung sollte ja ein sinnvolles Feature sein, ... Stufen nach AMD-Gutdünken)
aus solchen Gründen, wollte ich ja Damals von Dir wissen wie die Hellhound in 1440p oder 4k@FSR2quality läuft
mit sinnvollem Fps-Limit je nach Game+Resi mal 144 oder 71 oder 60(57)
dargo
2023-08-09, 06:49:48
may be in 1440@144fps schaltet die XTX von 384bit auf 256 oder 192bit runter
may be in 1080p@144fps schaltet die XT von 320bit auf 192 oder 160bit runter
Was ist das denn wieder für ein Quatsch? Du meinst also in diesem Szenario kappt AMD einfach mal bis zu 50% vom SI weg und somit auch bis zu 50% vom VRAM? :freak:
GerryB
2023-08-09, 09:38:28
Wie genau sich AMD das dynamische Feature Teildaktivierung vorstellt, wurde leider nie beschrieben.(x)
... wäre aber ne Alternative zu niedrigen DPM-States mit wenig Volt
(x) so absurd wäre ne Teilabschaltung von L3+Vram@Resi XYZ auch gar net
1080p=12GB
1440p=16GB
4k@FSR=20...16GB
... reichen dicke aus
Warum dann ne XTX in 1080p net ganz sooo sehr "spart" weiss nur AMD.
Vllt. hat man sich gar net vorstellen können, das Jemand ne 1k€-Graka mit so nem Quatsch testet.
dargo
2023-08-09, 12:20:06
Sorry, aber diese Idee ist völlig absurd. Was heute an VRAM reicht muss nicht in wenigen Jahren auch noch reichen. Es gibt Spieler die nicht jede GPU-Generation wechseln. Mal etwas über die 3DC-Blase hinaus denken.
Ex3cut3r
2023-08-09, 14:07:33
Es gibt Spieler die nicht jede GPU-Generation wechseln. Mal etwas über die 3DC-Blase hinaus denken.
Diese Leute spielen ganz sicher nicht mit maximalen (Textur) Settings.
DrFreaK666
2023-08-09, 15:01:36
Diese Leute spielen ganz sicher nicht mit maximalen (Textur) Settings.
Je nach Spiel reichen die 11GB der 1080Ti noch locker aus für max
Warum steht dann bei CB >65W?
Bei mir sind es zwischen 45 bis 53w. Keine Ahnung, ob hier ggf. das Ausgabegerät eine Rolle spielt. Der Vram taktet max. mit 900Mhz, die GPU geht allerdings bis auf 1.3g hoch. Da muss definitiv noch gefeilt werden.
GerryB
2023-08-10, 09:54:01
Sorry, aber diese Idee ist völlig absurd. ...
Du hast vermutlich keinen Plan welche Teile der Architektur wieviel Watt verbrauchen.
Da hättest Du mal HWinfo studieren sollen.
bei ner 7900xtx haste leicht mal 100Watt für L3+SOC+Vram
(daher für mich nicht absurd, dort Teile schlafen zu legen, wenn net benötigt)
z.Vgl.
ne olle 6800xt ist da vllt. bei 40...45W, hat ja auch nur 256bit
RoughNeck
2023-08-10, 18:09:14
Je nach Spiel reichen die 11GB der 1080Ti noch locker aus für max
Wie immer, reichen ist relativ.
Das hängt vom User und den jeweiligen Einstellungen ab.
vinacis_vivids
2023-08-10, 18:14:47
Ratchet & Clank Rift Apart , Ray Tracing Update FSR 4K 7900XTX + 7950X3D
VcVOGudqozo
Ratchet & Clank hat ein RT-Update bekommen für AMD RDNA2/3, hier speziell für die getestete 7900XTX.
DrFreaK666
2023-08-10, 19:23:23
Wie immer, reichen ist relativ.
Das hängt vom User und den jeweiligen Einstellungen ab.
"Je nach Spiel"?
The_Invisible
2023-08-10, 20:02:56
Ratchet & Clank Rift Apart , Ray Tracing Update FSR 4K 7900XTX + 7950X3D
https://youtu.be/VcVOGudqozo
Ratchet & Clank hat ein RT-Update bekommen für AMD RDNA2/3, hier speziell für die getestete 7900XTX.
Läuft ja toll mit einer hochgezüchteten 450W XTX bis auf 30fps runter :freak:
OgrEGT
2023-08-10, 20:03:21
Ratchet & Clank Rift Apart , Ray Tracing Update FSR 4K 7900XTX + 7950X3D
https://youtu.be/VcVOGudqozo
Ratchet & Clank hat ein RT-Update bekommen für AMD RDNA2/3, hier speziell für die getestete 7900XTX.
Liegt in 4K Ultra mit RT Very High so zwischen 4070ti und nahe bei 4080. Gar nicht schlecht :D
DrFreaK666
2023-08-10, 20:05:50
Also komplett unspielbar
aufkrawall
2023-08-10, 20:12:40
Ist es im Wald-Abschnitt mit tweilse <35fps auch. Ist die Frage, ob GeForces da genau so einkacken, oder ob RT mit der Vegetation Radeons im Besonderen killt.
Radeonfreak
2023-08-10, 20:38:56
Ich hab ne 100fps Begrenzung drinne und die wird erreicht.
Video:
https://abload.de/img/screenshot2023-08-10atfcws.png
4K Max + RT +Max +DLSS Q. kein FG
https://abload.de/img/screenshot2023-08-1026ochl.png
https://abload.de/img/screenshot20233d4pdg0.png
Bild bissel überstrahlt wegen HDR was dazwischenfunkt.
The_Invisible
2023-08-10, 20:50:02
Hier auch mit einer UV 4090, dort wo im Video beim grünen Roboter 35fps ist habe ich >95fps
DrFreaK666
2023-08-10, 20:51:44
Falscher Thread!
The_Invisible
2023-08-10, 20:54:17
Nö wurde ja gefragt obs mit Geforce auch so einbricht...
aufkrawall
2023-08-10, 20:55:55
Falscher Thread!
Bist du die selbsternannte OT-Polizei? Scheinst dich jedenfalls dafür zu halten.
Es ging um die Performance der 7900 XTX im Vergleich. Wär mir neu, dass dafür hier ständig eigene Threads eröffnet werden...
Ex3cut3r
2023-08-10, 21:35:15
Ist halt Radeon. RT des Topmodells ist auf 3 Jahre alten Ampere (RTX 3090) Niveau. Meistens nicht mal das. Wer mit (vielen gleichzeitigen) RT Optionen spielen will, sollte halt eher zur GeForce greifen.
The_Invisible
2023-08-10, 21:54:18
Wobei an der Stelle das Setting auch anders ist, glaub zuerst hat man diese Partikel nicht. Werden hoffentlich bald mal richtige Benches kommen...
vinacis_vivids
2023-08-10, 21:55:36
Das sind völlig unterschiedliche Bildqualitäten, bei AMD sieht es echt aus, bei NV sind die Farben fake.
Bin gerade dran, 6650 XT bis 7900 XTX - GRE (https://www.youtube.com/watch?v=gQrxIxTEwYk) inklusive. Kommt morgen.
MfG
Raff
vinacis_vivids
2023-08-10, 22:49:38
AMD mit der 7900XTX Starfield "Limited Edition" (und 7800X3D)
_1KjsqaWIU4
Achill
2023-08-10, 23:00:58
Bin gerade dran, 6650 XT bis 7900 XTX - GRE (https://www.youtube.com/watch?v=gQrxIxTEwYk) inklusive. Kommt morgen.
MfG
Raff
Thx .. es gibt noch etwas anderes was in China verfügbar ist: RX 580 mit 16GB VRAM .. für ~90$ (https://www.tomshardware.com/news/5-year-old-radeon-rx-580-2048sp-gets-16gb-vram-upgrade)
Würde ich direkt kaufen, wenn's das hier bei Amazon gäbe. Die GRE ist einfacher zu besorgen. :D
Wenn jemand eine "RX 575 16GB" bestellt: Lasst uns gleich 'nen ganzen Sack kaufen. Wäre dabei.
MfG
Raff
OgrEGT
2023-08-13, 10:19:27
Bin gerade dran, 6650 XT bis 7900 XTX - GRE (https://www.youtube.com/watch?v=gQrxIxTEwYk) inklusive. Kommt morgen.
MfG
Raff
Wahrscheinlich läuft das Spiel so gut auf Radeon dass Raff die Zeit vergaß :ulol:
GerryB
2023-08-14, 18:03:50
Die alte Engine von Atlas Fallen liegt eher Ampere.(ne 3080=6900)
(dito bei 4000 vs 7000)
dargo
2023-08-15, 12:49:58
Hat hier noch jemand die Default V/F-Kurve bezüglich Spannung und Takt der RX 7900XT im Kopf im Wattman?
Wahrscheinlich läuft das Spiel so gut auf Radeon dass Raff die Zeit vergaß :ulol:
Die alte Engine von Atlas Fallen liegt eher Ampere.(ne 3080=6900)
(dito bei 4000 vs 7000)
Zu viele Töpfe gleichzeitig auf dem Herd. ;) Hier übrigens der Link zum Test: https://www.pcgameshardware.de/Atlas-Fallen-Spiel-73845/Specials/Test-Technical-Review-Release-Gameplay-Benchmark-1426157/
MfG
Raff
dildo4u
2023-08-15, 17:14:05
Treiber Probleme? Das Game hat kein Raytracing.
5IBmkPMQMUA
OgrEGT
2023-08-22, 07:20:21
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-8-1
Neuer Adrenalin Treiber...
Es wird u.a. weiterhin an Verbesserungen am Idle Stromverbrauch gearbeitet...
Improvements to high idle power when using select multi-display setups with mixed high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs with variable refresh rate enabled. Further optimizations are being investigated to improve idle power on additional display configurations.
Matrix316
2023-08-22, 11:40:44
Juhu! :D Geil. :) Wobei die Frage ist, liegt der hohe Idle Verbrauch generell eigentlich vielleicht am vielen VRAM? :uponder: Eine 4070 oder 4080 hat ja jeweils deutlich weniger als die 7900er Karten.
dargo
2023-08-22, 11:48:25
Nein... es liegt daran, dass die Speichercontroller sowie die Speicherfrequenzen noch bei einigen Konfigurationen unnötig hochtakten was höhere Spannungen erfordert und somit auch der Verbauch ansteigt.
Exxtreme
2023-08-22, 11:55:01
Juhu! :D Geil. :) Wobei die Frage ist, liegt der hohe Idle Verbrauch generell eigentlich vielleicht am vielen VRAM? :uponder: Eine 4070 oder 4080 hat ja jeweils deutlich weniger als die 7900er Karten.
VRAM-Menge spielt eine Rolle. Aber viel wichtiger ist der VRAM-Takt. Wenn man den nicht heruntertaktet dann zieht er sehr viel Saft.
][immy
2023-08-22, 14:35:20
VRAM-Menge spielt eine Rolle. Aber viel wichtiger ist der VRAM-Takt. Wenn man den nicht heruntertaktet dann zieht er sehr viel Saft.
Wobei es dabei auch eher auf die Anzahl der Chips ankommt als auf die Größe des Speichers. Das der Takt nicht weit genug im idle runter geht ist natürlich immer noch ärgerlich.
Aber hey, it's a Feature, denn dadurch werden die Lötstellen und Chips nicht ständig Temperaturschwankungen ausgesetzt...
Exxtreme
2023-08-22, 14:45:46
[immy;13377268']Wobei es dabei auch eher auf die Anzahl der Chips ankommt als auf die Größe des Speichers. Das der Takt nicht weit genug im idle runter geht ist natürlich immer noch ärgerlich.
Aber hey, it's a Feature, denn dadurch werden die Lötstellen und Chips nicht ständig Temperaturschwankungen ausgesetzt...
Nein, der Grund ist ein anderer.
Ich habe es mal hier beschrieben:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13341944&postcount=39
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13342057&postcount=41
Matrix316
2023-08-23, 21:16:25
Also ich wollte gerade schreiben, dass sich mit zwei 60 Hz Bildschirmen (4K + FullHD) sich nicht viel am Idle Wert getan hat, aber kann es sein, dass Youtube kaum noch bei der Grafikkarte Last erzeugt? Da ändert sich der Wert nur beim Starten vom Video und bleibt dann ähnlich wie unter idle...
mig23
2023-08-30, 14:42:48
Nein, der Grund ist ein anderer.
Ich habe es mal hier beschrieben:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13341944&postcount=39
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13342057&postcount=41
Hallo erstmal, ich bin seit gestern Besitzer einer 7900 XT Pulse und habe trotz Free Sync Premium im AMD Adrenalin Treiber 23.8.1 und variabler Aktivierungsrate bei den Monitoren einen Board Power Draw von ca. 80 W, gemessen mit GPUZ und im Treiber ausgelesen beim Betrieb von 2 Monitoren, AOC Q3279VWFD8 mit 75 Hz und INNOCN 40C1R mit 144 hz.
Was mir auffällt und was ich nicht verstehe, vielleicht kann mir einer von Euch weiterhelfen:
Habe ich auf dem 144hz Monitor im Hintergrund das Bildschirm-Einstellungsmenü erweiterte Anzeigeeinstellungen im Vollbild offen, geht mein Verbrauch auf 22 - 32 Watt zurück, egal was ich "davor" anstelle im Desktop. Schließe ich das Fenster, springt er wieder hoch auf 60 - 80 Watt... Das gleiche passiert auch bei Browser-Fenstern, nur nicht so krass.. Also kann ich meinen Stromverbrauch senken, in dem ich "weiße Fenster" im Hintergrund als Vollbild offen lasse?
Und die GPU Voltage springt dann auch nicht mehr so hin und her... komisch!
Linmoum
2023-08-31, 20:23:28
Power is definitely a prime initiative. You’ll see us over time get better and better at it. We need to catch up. There are still bugs that we need to fix. Idle power is one of them. We believe there is a driver fix for it. It’s a wonky one, actually. We do see some inconsistencies with idle power that shouldn’t be there, and we’re working with our partners to maybe help with that. It will be cleaned up, but it might take a bit more time.https://www.club386.com/scott-herkelman-qa-amd-radeon-boss-answers-your-burning-rx-7800-xt-questions/
Wer beim Idle-Verbrauch noch Hoffnungen hat, sollte die scheinbar erstmal begraben. Vielleicht schafft man's ja trotzdem noch vor RDNA4. :D
phoenix887
2023-08-31, 21:06:41
Schaue hier mit der 7900XT die Eintracht im Live Stream mit 30W.Da mein TV defekt ist. Was verbraucht die aktuelle Nvidia Generation beim Streamen so?
dildo4u
2023-09-01, 07:14:13
Schaue hier mit der 7900XT die Eintracht im Live Stream mit 30W.Da mein TV defekt ist. Was verbraucht die aktuelle Nvidia Generation beim Streamen so?
Paar Werte mit YouTube.
https://abload.de/img/screenshot2023-09-010w7fzj.png
https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-idle-2023/#abschnitt_auch_rdna_2_profitiert_von_vrr_aber_weniger
phoenix887
2023-09-01, 11:13:36
Nein 30w nur die Karte.
Danke für die Liste.
Die optimale Grafikkarte für Starfield: Radeon RX 7900 XTX schlägt Geforce RTX 4090 durchgängig (https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/Starfield-Grafikkarte-Benchmark-Tuning-Tipps-1428215/)
7900 XTX um bis zu 14 Prozent vor RTX 4090 und sogar um 49 Prozent vor der RTX 4080. Das gab's in dieser Form noch nie. Well done, AMD. ;)
MfG
Raff
=Floi=
2023-09-03, 04:12:16
dann kann aber bei NV etwas noch nicht passen.
Ein titel der mal ausreisst ist auch nicht so krass, weil das game auch eher ne nische bleiben wird.
Mich stört eher die abstufung der verbrauchsstufen. Leider sind es stufen und kein variabler wert.
Auch ganz unten gibt es nur 60w (für nix) 120w, mit denen man schon sehr weit kommt, es mir dann aber auch oft zu viel erscheint oder gleich 220W.
wo auch keiner drauf eingeht sind die kleineren bugs in den nebenbereichen. Die normalen games laufen alle ok und da tut die karte was sie soll.
Aber abseits gibt es ein paar blöde bugs und das fixen die auch nicht, wei l das treiberteam aus gefühlt null leuten besteht.
Oder hotfixes und kleinere updates fehlen auch komplett. Alle 3 monate ein treiber ist ein witz.
Nightspider
2023-09-03, 04:37:25
Da wird bestimmt auch noch ein großer Treiber von Nvidia kommen der das Bild wieder kippt.
dildo4u
2023-09-03, 08:52:08
Da wird bestimmt auch noch ein großer Treiber von Nvidia kommen der das Bild wieder kippt.
Nicht zwangsweise das Game hat hohe CPU Last dort hat der Nvidia Treiber schwächen siehe 1080p Werte hier: https://youtu.be/H9guEsBly0I?si=EhajPjX37mwWzA-j&t=770
Nvidias Lösung dafür ist Framegen.
Exxtreme
2023-09-03, 09:38:21
dann kann aber bei NV etwas noch nicht passen.
Nvidia hat z.T. massive Probleme mit den Treibern was CPU-Belastung angeht. Da hat AMD auch viele Ressourcen reingesteckt um das zu minimieren/optimieren. Ich glaube auch nicht, dass da von Nvidia so schnell was kommt. MLID meint, die Treiber-Abteilung läuft da auf Sparflamme weil sie fast alle Ressourcen in KI-Software angezogen haben.
dargo
2023-09-03, 09:48:11
Nicht zwangsweise das Game hat hohe CPU Last dort hat der Nvidia Treiber schwächen siehe 1080p Werte hier: https://youtu.be/H9guEsBly0I?si=EhajPjX37mwWzA-j&t=770
Nvidias Lösung dafür ist Framegen.
Aus deinem Link lässt sich überhaupt nicht ableiten was du da hinschreibst. Überrraschung... je kleiner die Auflösung desto näher kommen sich Grafikkarten unterschiedlicher Leistungsklassen, ganz neue Erkenntnis. :uclap:
dildo4u
2023-09-03, 10:01:29
Der Link heißt extra Treiber Overhead Test zum Glück weißt du es wie immer besser.
Denniss
2023-09-03, 10:25:33
Der Treiber-Overhead bei Nvidia ist ja jetzt nichts neues.
Ich meine Igor hatte ne Zeit lang für CPU-Tests eine 6900XT benutzt statt einer 3090 und da waren die Ergebnisse doch mal anders als erwartet durch den Overhead.
GerryB
2023-09-03, 11:06:19
vllt. nutzt Starfield auch FP16
dann ...
(würde ich keine 4070 für das Game kaufen, eher mal noch auf die 7800xt warten)
dildo4u
2023-09-03, 11:13:17
Die 6800XT ist auch massiv vor 4070 wer weiß ob NV überhaupt Zugang zum Game hatten.
https://abload.de/img/screenshot2023-09-031oueel.png
https://youtu.be/7JDbrWmlqMw?si=w3unQqh7R31sWw9_&t=929
robbitop
2023-09-03, 11:32:21
Ob es für dual issue in rdna3 optimiert wurde? Die 6800XT liegt auf 3080 Niveau also jetzt nicht so ungewöhnlich aber M31 ist fast auf Ad102 Niveau. Sieht so aus als wenn RDNA3 hier mit dual issue seine Beine etwas ausstrecken kann auch relativ zu RDNA2
GerryB
2023-09-03, 11:45:58
Die 6800XT ist auch massiv vor 4070 wer weiß ob NV überhaupt Zugang zum Game hatten.
Warum nicht, der gameready Treiber ist vom 22.8., also mehr als genug Zeit.
aufkrawall
2023-09-03, 11:48:04
Bei CB ist die 6800 XT in 1440p hoch 27% vor der 3080, das ist schon desaströs schlecht für Ampere.
Ohne ausgeprägtes HW-RT gibt es eine zunehmende Häufung bei langsam laufenden Titeln auf NV.
dargo
2023-09-03, 11:48:04
Ob es für dual issue in rdna3 optimiert wurde? Die 6800XT liegt auf 3080 Niveau also jetzt nicht so ungewöhnlich aber M31 ist fast auf Ad102 Niveau. Sieht so aus als wenn RDNA3 hier mit dual issue seine Beine etwas ausstrecken kann auch relativ zu RDNA2
Quatsch... 7900XTX nur 66% vor 6800XT, nichts weltbewegendes.
PS: ein APTR schafft +82% in 4k.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
vinacis_vivids
2023-09-03, 11:59:17
AMD’s RX 7900 XTX Beats the NVIDIA RTX 4090 in Starfield Despite Being $650 Cheaper
https://www.hardwaretimes.com/amds-rx-7900-xtx-beats-the-nvidia-rtx-4090-in-starfield-despite-being-650-cheaper/
robbitop
2023-09-03, 12:28:18
Quatsch... 7900XTX nur 66% vor 6800XT, nichts weltbewegendes.
PS: ein APTR schafft +82% in 4k.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
Hm okay. Dann liegt nur der Schluss nahe, dass NV schlechter dasteht als sonst relativ zu AMD.
dildo4u
2023-09-03, 12:56:57
Skaling ist wirklich komisch die 7600 ist innerhalb von 10% zu 6700XT das ist neu.
Die 6800XT setzt sich aber ab also nix wegen FP16.
Das Hoch Preset scheint nicht so anspruchsvoll AMD bewirbt ja die 7800XT im Marketing auch nur als 1440p Karte.
https://abload.de/img/screenshot2023-09-031u4f8k.png
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
=Floi=
2023-09-03, 14:15:50
Ob es für dual issue in rdna3 optimiert wurde?
das kann doch NV auch ewig. Liegt es eher an weniger shaderleistung und mehr pixeldurchsatz?!
GerryB
2023-09-03, 14:25:33
Skaling ist wirklich komisch die 7600 ist innerhalb von 10% zu 6700XT das ist neu.
Die 6800XT setzt sich aber ab also nix wegen FP16.
NEU?
siehe EldenRing im Anhang
ne 6800xt hat insgesamt mehr Power, da erwarte ich net, das die 7600 gleichzieht, aber ne 6700xt ist bei FP16 schwächer als die 7600
dildo4u
2023-09-03, 14:36:01
Die 6800XT ist 60% schneller als 7600 das entspricht dem sonstigen schnitt du darfst dich nicht nur auf einen Spec festbeißen, die Bandbreite spielt auch noch eine Rolle.
GerryB
2023-09-03, 14:43:27
Wenns nur Bandbreite wäre, dann dürfte die 6700xt net so schlecht in dem gaaaaanz speziellen Fall sein.
Es wird sicherlich ne Mischung aus verschiedenen Bottlenecks in dem ULTRA-Preset sein.
robbitop
2023-09-03, 18:24:28
das kann doch NV auch ewig. Liegt es eher an weniger shaderleistung und mehr pixeldurchsatz?!
Ne das ist was anderes. Das Gegenstück zum NV SM ist die WGP bei AMD. Und die hat mit dual issue bis zu 256 ops. Aber dual issue hat halt bei AMD einige Restriktionen.
The_Invisible
2023-09-03, 18:54:41
Nvidia hat für FP16 halt auch seine TensorCores, soll da nicht mal eine gemeinsame API von Microsoft für DirectX kommen?
Bei NV muss irgendwas ganz gewaltig klemmen. Bei HUB ist ne 6950XT so schnell wie ne 4080, die testen aber anders als fast alle Reviewer im Wald, was ganz andere Werte hervorbringt. Da wird vielleicht sogar ein Patch des Spieles nötig sein, um das zu fixen, da reicht der Treiber evtl. nicht. Und, natürlich hatten NV und Intel vorher Zugang dazu. Das kann mir keiner erzählen ;D.
Die 7600 bleibt aber auffällig schnell, auf 6700XT-Niveau, recht weit weg von N23.
https://youtu.be/vTNiZhEqaKk
GerryB
2023-09-04, 08:03:05
Nvidia hat für FP16 halt auch seine TensorCores, soll da nicht mal eine gemeinsame API von Microsoft für DirectX kommen?
Aber derzeit nicht in Games nutzbar.
...derzeit wird ein FP32 für ein FP16 benutzt
und
bei Ampere muss auch ein FP32 für ein INT verwendet werden
Man könnte natürlich mal schauen wieviel INT+FP16+FP32 gleichzeitig in dem Game an der schlimmsten GPU-Test Szene
verwendet wird.
robbitop
2023-09-04, 10:07:57
Die Frage ist, was da limitiert. Es ist in Spielen äußerst selten der reine Floating Point Durchsatz.
Sagen wir, wie's ist: Starfield ist ein krasser Ausreißer. Ohne jede Diskussion. Es gibt nur ganz wenige, isolierte Merkmale, bei denen eine Radeon RX 7900 XTX vor einer Geforce RTX 4090 liegt. Es gibt eigentlich nur zwei Punkte: Man hat den Code so geschrieben, dass er in 96 MiB on-chip-cache noch hineinpasst, mit den 72 MiB der RTX 4090 aber viele Speichertransfers erfordert. Oder das halbe Rendering (evtl. das ganze Post-Processing?) wird mithilfe von FP16 gemacht, das RDNA mit doppeltem Durchsatz schafft. FP32 Dual-Issue kann es nicht sein, dafür ist der Abstand zwischen RDNA 2 und RDNA 3 zu klein (und FP64/DP schon gar nicht ;). Wie man's auch dreht, es ist sowohl interessant als auch eigenartig.
MfG
Raff
Bei den CPU Tests ist Starflied ja auch merkwürdig, das ist extrem Speicherbandbreitenlastig und auch der 3D-Cache ist dafür zu klein. Das hat Buildzoid anhand der PCGH-Tests herausgefunden. Er hat vor allem den 13700k mit dem 12900k vergleichen - DDR5 5600 vs. DDR5 4400. Entsprechend läuft Starfield vor allem auf Ryzen mit lahmen DDR5200 und ADL mit 4400er wie Scheisse. Ich warte auf HUB-Tests, die das mit DDR5 6000 testet, das ist sicherlich etwas aussagekräftiger.
Raffs Cache-Theorie find ich interessant, allerdings hat die 7900XT ja nur 80MB, nicht 96.
Linmoum
2023-09-04, 11:00:47
Sagen wir, wie's ist: Starfield ist ein krasser Ausreißer. Ohne jede Diskussion. Es gibt nur ganz wenige, isolierte Merkmale, bei denen eine Radeon RX 7900 XTX vor einer Geforce RTX 4090 liegt. Es gibt eigentlich nur zwei Punkte: Man hat den Code so geschrieben, dass er in 96 MiB on-chip-cache noch hineinpasst, mit den 72 MiB der RTX 4090 aber viele Speichertransfers erfordert. Oder das halbe Rendering (evtl. das ganze Post-Processing?) wird mithilfe von FP16 gemacht, das RDNA mit doppeltem Durchsatz schafft. FP32 Dual-Issue kann es nicht sein, dafür ist der Abstand zwischen RDNA 2 und RDNA 3 zu klein (und FP64/DP schon gar nicht ;). Wie man's auch dreht, es ist sowohl interessant als auch eigenartig.
MfG
RaffNaja, interessant würde ich das nur bedingt nennen, da Nvidia hier offenkundig irgendein Auslastungsproblem hat, wenn eine 4090 teils auf (bis zu) 200W runtergeht. Das erklärt dann auch, warum Radeon in Relation dazu so gut abschneiden.
robbitop
2023-09-04, 11:02:05
Sagen wir, wie's ist: Starfield ist ein krasser Ausreißer. Ohne jede Diskussion. Es gibt nur ganz wenige, isolierte Merkmale, bei denen eine Radeon RX 7900 XTX vor einer Geforce RTX 4090 liegt. Es gibt eigentlich nur zwei Punkte: Man hat den Code so geschrieben, dass er in 96 MiB on-chip-cache noch hineinpasst, mit den 72 MiB der RTX 4090 aber viele Speichertransfers erfordert. Oder das halbe Rendering (evtl. das ganze Post-Processing?) wird mithilfe von FP16 gemacht, das RDNA mit doppeltem Durchsatz schafft. FP32 Dual-Issue kann es nicht sein, dafür ist der Abstand zwischen RDNA 2 und RDNA 3 zu klein (und FP64/DP schon gar nicht ;). Wie man's auch dreht, es ist sowohl interessant als auch eigenartig.
MfG
Raff
Naja kann auch einfach code sein, der auf RDNA besser läuft als auf Ada/Ampere. (uArch spezifische Optimierung)
dildo4u
2023-09-04, 11:03:28
Bei den CPU Tests ist Starflied ja auch merkwürdig, das ist extrem Speicherbandbreitenlastig und auch der 3D-Cache ist dafür zu klein. Das hat Buildzoid anhand der PCGH-Tests herausgefunden. Er hat vor allem den 13700k mit dem 12900k vergleichen - DDR5 5600 vs. DDR5 4400. Entsprechend läuft Starfield vor allem auf Ryzen mit lahmen DDR5200 und ADL mit 4400er wie Scheisse. Ich warte auf HUB-Tests, die das mit DDR5 6000 testet, das ist sicherlich etwas aussagekräftiger.
Serie X nutzt GDDR6 für den CPU Teil hohe Bandbreite hohe Latenz.
Wenn die Zen 3 APU wie die reinen CPU performen haben sie erfolgreich für den Konsolen Aufbau optimiert.
Exxtreme
2023-09-04, 11:06:20
Bei den CPU Tests ist Starflied ja auch merkwürdig, das ist extrem Speicherbandbreitenlastig und auch der 3D-Cache ist dafür zu klein. Das hat Buildzoid anhand der PCGH-Tests herausgefunden. Er hat vor allem den 13700k mit dem 12900k vergleichen - DDR5 5600 vs. DDR5 4400. Entsprechend läuft Starfield vor allem auf Ryzen mit lahmen DDR5200 und ADL mit 4400er wie Scheisse. Ich warte auf HUB-Tests, die das mit DDR5 6000 testet, das ist sicherlich etwas aussagekräftiger.
So eine Bandbreitelastigkeit spricht für eine generelle Optimierung für Konsolen. Denn Konsolen haben beträchtlich mehr Durchsatz als PCs.
GerryB
2023-09-04, 11:13:41
Sagen wir, wie's ist: Starfield ist ein krasser Ausreißer. Ohne jede Diskussion. Es gibt nur ganz wenige, isolierte Merkmale, ...
Bei RDNA3 gäbs noch die Möglichkeit in sparsamen Games den FrontEnd-Takt anzuziehen, um die Auslastung zu verbessern.
vllt. mal vgl. wie es in COD vs Starfield ausschaut
=ähnliches Szenario mit Vorteilen von RDNA3 vs Ada
während bei RT-Games der FrontEnd gesenkt wird, quasi das Gegenteil
Hatstick
2023-09-04, 11:27:53
Also ist die RTX 4090 eine 1440p Karte? Ich wusste es doch! :freak:
Ist doch total broken das Game, wenn die 90er so wenig FPS auf dem Schirm zaubert.
Das ist keine Wunderkarte aber mit der ollen Engine und "ok" Optik so wenig FPS, da ist doch irgendwas komplett kaputt.
dargo
2023-09-04, 11:30:08
Ach Leute... jetzt wartet doch mal wenige Wochen/Monate ab. Es wird sich schon aufklären was da los ist.
Raffs Cache-Theorie find ich interessant, allerdings hat die 7900XT ja nur 80MB, nicht 96.
Jo, ich bin da vermutlich auf dem Holzweg. Denn das erklärt auch nicht die verwegene Performance einer neuen RDNA-3-GPU mit nur 64 MiB L3$. Wäre auch zu einfach gewesen. :ugly:
Naja kann auch einfach code sein, der auf RDNA besser läuft als auf Ada/Ampere. (uArch spezifische Optimierung)
Im Grunde muss es das sein. Konsequent auf die Konsolenbasis optimiert. Jetzt müsste nur mal jemand mit 'nem Profiler drüberrutschen und schauen, welche Instruktionen anfallen und wo's bei Nvidia klemmt.
Bei RDNA3 gäbs noch die Möglichkeit in sparsamen Games den FrontEnd-Takt anzuziehen, um die Auslastung zu verbessern.
vllt. mal vgl. wie es in COD vs Starfield ausschaut
=ähnliches Szenario mit Vorteilen von RDNA3 vs Ada
während bei RT-Games der FrontEnd gesenkt wird, quasi das Gegenteil
Spiele können am Taktverhältnis der Domänen nichts ändern. Und wenn es um rohen Polygondurchsatz geht, ist Nvidia immer noch weit in Front, so weit ich weiß. Das war noch nie AMD/ATIs Stärke.
MfG
Raff
GerryB
2023-09-04, 11:32:04
Also ist die RTX 4090 eine 1440p Karte? Ich wusste es doch! :freak:
Raff empfiehlt für die 4090 dann 5k-->1440p downsampling, um das Dingens/architektur auszulasten.
.... kannste ja mit FG dann wieder ausgleichen
Falls Er bzgl. Bandbreite/Cache richtig vermutet, geht dann ne RDNA3 auch net mehr besser als Ada.
(weil die Trefferquote net mehr reicht)
Ich empfehle gar nichts, das war ein Scherz (wenngleich das abseits der PCGH-Schinderszene bzw. Jemison-Urwald generell funktioniert ;)).
MfG
Raff
Exxtreme
2023-09-04, 11:40:37
Also ist die RTX 4090 eine 1440p Karte? Ich wusste es doch! :freak:
Ist doch total broken das Game, wenn die 90er so wenig FPS auf dem Schirm zaubert.
Das ist keine Wunderkarte aber mit der ollen Engine und "ok" Optik so wenig FPS, da ist doch irgendwas komplett kaputt.
Ich vermute mal, bei Starfield hat man Upscaler schon eingepreist und spart sich die Kosten für Optimierungen.
Das Meme gibt es nicht umsonst:
https://i.redd.it/0vcdq39vq6ka1.jpg
The_Invisible
2023-09-04, 11:55:16
Naja kann auch einfach code sein, der auf RDNA besser läuft als auf Ada/Ampere. (uArch spezifische Optimierung)
meinst also ein "if(vendor=="nvidia") sleep(xxx)" oder so
Würde zumindest die niedrige Wattauslastung erklären :D
GerryB
2023-09-04, 11:56:02
Jo, ich bin da vermutlich auf dem Holzweg. ...
Spiele können am Taktverhältnis der Domänen nichts ändern.
aber Treiber können Das, ... why not, mal Game spezifisch festlegen
Andersrum
Könnte man als 4090-besitzer mal full OCen ohne im PL/VoltLimit zu landen.
einfach mal schauen, was die 1,10V schaffen
edit: net nur reden sondern einfach mal machen, ... ala Lt.Matt von OCersUK
https://imgsli.com/MjAyMzM0
Läuft>3100MHz mit >400W !!!
ergo liegt der Fehler im Boostmanagement von NV, weil sonst das PL besser ausgeschöpft würde
Hatte net Intel letztens Sowas gemacht!?
(mehr Boost in DX(?)-games)
Matrix316
2023-09-04, 13:05:58
meinst also ein "if(vendor=="nvidia") sleep(xxx)" oder so
Würde zumindest die niedrige Wattauslastung erklären :D
Ich hätte eher gedacht: If (vendor == "nvidia") MaxFPS = MaxFPSAMD*0.95 oder so. ;)
Lurtz
2023-09-04, 22:08:59
Ich vermute mal, bei Starfield hat man Upscaler schon eingepreist und spart sich die Kosten für Optimierungen.
Das Meme gibt es nicht umsonst:
https://i.redd.it/0vcdq39vq6ka1.jpg
Nur weil das Spiel FSR2 unterstützt muss das doch überhaupt nicht die Ursache für die fehlende Optimierung sein. Das Spiel würde ohne Upsampling einfach nur noch beschissener laufen.
=Floi=
2023-09-05, 04:17:16
Im Grunde muss es das sein. Konsequent auf die Konsolenbasis optimiert. Jetzt müsste nur mal jemand mit 'nem Profiler drüberrutschen und schauen, welche Instruktionen anfallen und wo's bei Nvidia klemmt.
gibt es das wirklich?
][immy
2023-09-05, 07:10:57
meinst also ein "if(vendor=="nvidia") sleep(xxx)" oder so
Würde zumindest die niedrige Wattauslastung erklären :D
Daran muss es wohl nicht liegen. Reicht ja schon wennn Instruktionen genutzt werden die Nvidia GPUs nicht so liegen und dadurch ein Limit entsteht was alles andere ausbremst. Wie damals bei den 10x0 Karten mit async compute, was den Karten bis heute nicht schmeckt. Generell scheinen AMD Karten zwar immer wieder besser zu altern, aber in starfield ist es wohl eher eine Anomalie, denn so alt sind die nvidia Karten noch nicht.
Mich wundert aber eher das der Code dermaßen AMD optimiert ist das sogar die alten Karten (Vega &co) durchaus noch respektable frameraten hin bekommen. Aber ich denke ein paar nvidia Treiber später wird es deutlich runder laufen. Das Spiel skaliert nach oben aber auch extrem schlecht.
dargo
2023-09-05, 07:23:45
[immy;13388215']
Mich wundert aber eher das der Code dermaßen AMD optimiert ist das sogar die alten Karten (Vega &co) durchaus noch respektable frameraten hin bekommen.
Inwiefern wundert dich das? Wenn ein IHV eng zusammen mit DEV XYZ arbeitet kommt logischerweise auch so ein Ergebnis im besten Fall dabei raus. Schließlich legst du deine Grafikpresets mit den ganzen einzelnen Grafikoptionen so aus, dass die GPU-Reihe von IHV X bei diversen Parametern möglichst geringe Kosten pro Parameter entstehen und schon hast du eine gute Gesamtperformance. Sowas nennt man Optimierung. Es nützt ja nichts wenn ich bei einer Grafikoption SKU XYZ mit hirnverbrannten Werten bei wenig besserem visuellen Ergebnis völlig überfahre wo es zu unnötigen Stalls kommt.
Exxtreme
2023-09-05, 08:38:43
Ich vermute eher, dass AMDs "general purpose"-Ansatz hier so seine Früchte trägt. Ja, sie machen viel mehr über programmierbare Shader, was recht ineffizient und langsamer sein kann. Aber man ist dadurch sehr flexibel. Nvidias Ansatz mit spezialisierter Hardware ist viel effizienter, dafür aber relativ starr. Sie können nicht einfach spezialisierte Hardware für etwas anderes verwenden. Und das dürfte auch der Grund sein warum einige RTX 4090 bei 200W herumdümpeln. 1/3 des Chips sind wohl inaktiv und drehen Däumchen.
robbitop
2023-09-05, 08:39:49
Man erinnere sich an Doom 3 (2016) / Wolfenstein 2. Das lief auf Vega/GCN extrem gut relativ zu Pascal. (wobei das auf jeder HW extrem gut lief - also grundsätzlich gut optimiert war im Gegensatz zu Starfield offenbar). Da wurde Vega/GCN so ziemlich das erste und einzige mal richtig ausgereizt. (GCN hatte ja immer relativ viel Rohleistung, die aber schwierig auf die Straße zu bringen war).
Die Situation ist hier natürlich anders, da NV ja nicht weniger Rohleistung hat. Das ist wahrscheinlich eher so, dass der Code dem AMD shadercompiler besser schmeckt als dem NV shadercompiler und damit dann bei AMD eine höhere Auslastung erzeugt.
Ich vermute eher, dass AMDs "general purpose"-Ansatz hier so seine Früchte trägt. Ja, sie machen viel mehr über programmierbare Shader, was recht ineffizient und langsamer sein kann. Aber man ist dadurch sehr flexibel. Nvidias Ansatz mit spezialisierter Hardware ist viel effizienter, dafür aber relativ starr. Sie können nicht einfach spezialisierte Hardware für etwas anderes verwenden. Und das dürfte auch der Grund sein warum einige RTX 4090 bei 200W herumdümpeln. 1/3 des Chips sind wohl inaktiv und drehen Däumchen.
Wohl eher nicht, da Ada trotz FF HW ja nicht weniger General Purpose FP32 Rohleistung hat. Im Gegenteil.
aceCrasher
2023-09-05, 11:56:14
Man erinnere sich an Doom 3 / Wolfenstein 2. Das lief auf Vega/GCN extrem gut relativ zu Pascal.
Du meinst eher Doom 4 (Doom 2016) oder? Doom 3 kam 2004 raus.
robbitop
2023-09-05, 12:22:05
Ja natürlich - stimmt - hab's gefixt. Danke :)
Doom 3 hingegen war extrem krass auf NV3x/4x optimiert und lief dort überproportional besser.
Die hatten IIRC bessere Stencil throughputs und das eine "kostenlose" Instruction (NRM_PP?) (zumindest NV4x) womit bump mapping billiger/schneller wurde wenn man es implementiert hat.
DrFreaK666
2023-09-05, 15:33:21
Die Beta, die dann auch geleaked wurde, wurde allerdings auf AMD Hardware vorgestellt (wahrscheinlich 9700Pro), da die 4600 zu langsam war
robbitop
2023-09-05, 15:39:57
Ja NV2x war noch last gen (shader model 1). Richtig frei programmierbare FP shader gab es erst mit SM2. Und Doom 3 war schon in der letzteren Ära.
Ex3cut3r
2023-09-05, 19:49:54
Wenn man Starfield und Doom Eternal vergleicht, zwei Welten. Das eine läuft super ultra smooth auf eigentlich fast allem, hat massiv NPCs, Explosionen auf dem Bildschirm und droppt selbst mit RT Spiegelungen ab Turing niemals unter 100 FPS. Dagegen Starfield, welches auf Ampere und Ada irgendwo bei 50 FPS mit Upscaling herauskommt. Und das bei einer Grafik, die das überhaupt nicht rechtfertigt. :freak:
Ich meine, was machen die Entwickler eigentlich so die letzten Jahre nach Covid?
phoenix887
2023-09-05, 19:53:04
Weltuntergang, mal ein Spiel wo AMD stärker ist. Es kann nicht etwas sein, das nicht sein sollte.
Ex3cut3r
2023-09-05, 19:56:14
Da hast du mich missverstanden. Oder ich habe mich nicht klar genug ausgedrückt, es läuft selbst auf AMD Karten (RDNA 2) nicht wirklich toll. Es ist allgemein einfach nur grottig.
Shink
2023-09-05, 20:11:04
https://www.computerbase.de/2023-09/starfield-linux-benchmarks/
Unter Linux ist AMD am Tag 1 die einzige Wahl aber das ist nicht unüblich
DrFreaK666
2023-09-05, 20:41:48
Wenn man Starfield und Doom Eternal vergleicht, zwei Welten. Das eine läuft super ultra smooth auf eigentlich fast allem, hat massiv NPCs, Explosionen auf dem Bildschirm und droppt selbst mit RT Spiegelungen ab Turing niemals unter 100 FPS. Dagegen Starfield, welches auf Ampere und Ada irgendwo bei 50 FPS mit Upscaling herauskommt. Und das bei einer Grafik, die das überhaupt nicht rechtfertigt. :freak:
Ich meine, was machen die Entwickler eigentlich so die letzten Jahre nach Covid?
Naja, wir wissen ja nicht, was im Hintergrund alles berechnet wird (was teilweise vielleicht auch nicht nötig wäre). Doom Eternal ist da ja deutlich weniger komplex. Ein Spiel besteht ja nicht nur aus Grafik
phoenix887
2023-09-05, 20:47:24
Da hast du mich missverstanden. Oder ich habe mich nicht klar genug ausgedrückt, es läuft selbst auf AMD Karten (RDNA 2) nicht wirklich toll. Es ist allgemein einfach nur grottig.
Genau so läuft es auf meiner 7900XT. Sagt er auch, das Problem ist der Nvidia Treiber mit seinem CPU Overhead. Wundert mich auch nicht, wenn man noch das Menu aus XP Zeiten hat. Was macht Nvidia seit 23 Jahren?
https://youtu.be/6c3_S5brP_0?si=Gt8AuGUXERBNiqt2
robbitop
2023-09-05, 21:08:02
Naja, wir wissen ja nicht, was im Hintergrund alles berechnet wird (was teilweise vielleicht auch nicht nötig wäre). Doom Eternal ist da ja deutlich weniger komplex. Ein Spiel besteht ja nicht nur aus Grafik
Naja so segmentiert Starfield ist, ist es deutlich weniger komplex als initial gedacht.
Ex3cut3r
2023-09-05, 22:02:00
Genau so läuft es auf meiner 7900XT. Sagt er auch, das Problem ist der Nvidia Treiber mit seinem CPU Overhead. Wundert mich auch nicht, wenn man noch das Menu aus XP Zeiten hat. Was macht Nvidia seit 23 Jahren?
https://youtu.be/6c3_S5brP_0?si=Gt8AuGUXERBNiqt2
Was soll mir jetzt da ein Random 7900XT Video sagen? Bei 40 FPS mit Ampere (RTX 3080) wird ja es kein CPU Limit sein, dass schafft der Nvidia DX12 Treiber auch noch. :freak:
Dein Argument ist daher ziemlich an den Haaren herbeigezogen.
Für mich ist die Sache ziemlich klar, auch wenn das wieder einigen nicht schmecken wird. AMD hat dafür gezahlt. DLSS auszuschließen und Nvidias Leistung zumindest etwas zu drosseln. Da mich das Spiel zum Glück überhaupt nicht tangiert, ärgert mich das nicht so stark, wie vlt. andere.
Exxtreme
2023-09-05, 22:24:19
In solchen Fällen halte ich es mit Hanlon's Razor:
https://de.wikipedia.org/wiki/Hanlon%E2%80%99s_Razor
Und in dem Fall scheint das sogar zuzutreffen.
AwesomeSauce
2023-09-05, 23:49:39
Sagt er auch, das Problem ist der Nvidia Treiber mit seinem CPU Overhead.
Geht das wieder los :rolleyes:
Hardware Unboxed
https://abload.de/img/starfield295f8p.png (https://abload.de/image.php?img=starfield295f8p.png)
https://youtu.be/wqFs1Auxo8Y?si=M9YwYRW6TgtRSB8l&t=792
Gamers Nexus
https://abload.de/img/starfield1iwdjs.png (https://abload.de/image.php?img=starfield1iwdjs.png)
https://youtu.be/raf_Qo60Gi4?si=uTYvwvXmzkURPiiM&t=1283
vinacis_vivids
2023-09-06, 03:19:37
Making AMD GPUs competitive for LLM inference
https://blog.mlc.ai/2023/08/09/Making-AMD-GPUs-competitive-for-LLM-inference
In kurzer Zeit ist die 7900XTX and der RTX4090 dran im LLM Interferenz (Machine Learning).
Hier geht's um fp16-Performance und Bandbreite.
GerryB
2023-09-06, 05:35:23
... es läuft selbst auf AMD Karten (RDNA 2) nicht wirklich toll. ...
???
Für ein kleines Feierabend-Spielchen genau richtig und unheimlich sparsam.(auf meiner 6800nonXT)
chill57fps am 60Hz-Moni reicht dicke (1080p@FSR2-75% siehe Anhang)
phoenix887
2023-09-06, 08:47:52
Was soll mir jetzt da ein Random 7900XT Video sagen? Bei 40 FPS mit Ampere (RTX 3080) wird ja es kein CPU Limit sein, dass schafft der Nvidia DX12 Treiber auch noch. :freak:
Dein Argument ist daher ziemlich an den Haaren herbeigezogen.
Für mich ist die Sache ziemlich klar, auch wenn das wieder einigen nicht schmecken wird. AMD hat dafür gezahlt. DLSS auszuschließen und Nvidias Leistung zumindest etwas zu drosseln. Da mich das Spiel zum Glück überhaupt nicht tangiert, ärgert mich das nicht so stark, wie vlt. andere.
Ist leider ne Tatsache mit dem Overhead.
AMD und gezahlt, geil was für ein Geschwurbel und damit Verschwörungstheorie :)
dildo4u
2023-09-06, 08:58:00
Ist leider ne Tatsache mit dem Overhead.
AMD und gezahlt, geil was für ein Geschwurbel und damit Verschwörungstheorie :)
Stimmt hier nicht die 4090 Performt besser in 720p.
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_cpubenchmarks_mit_einer_rtx_4090_und_rx_7900_xtx_update
robbitop
2023-09-06, 08:59:18
Was soll mir jetzt da ein Random 7900XT Video sagen? Bei 40 FPS mit Ampere (RTX 3080) wird ja es kein CPU Limit sein, dass schafft der Nvidia DX12 Treiber auch noch. :freak:
Dein Argument ist daher ziemlich an den Haaren herbeigezogen.
Für mich ist die Sache ziemlich klar, auch wenn das wieder einigen nicht schmecken wird. AMD hat dafür gezahlt. DLSS auszuschließen und Nvidias Leistung zumindest etwas zu drosseln. Da mich das Spiel zum Glück überhaupt nicht tangiert, ärgert mich das nicht so stark, wie vlt. andere.
Das halte ich für übertrieben. Was ich eher vermute, dass sie den Code für RDNA (vor allem 3) optimiert haben - also besser ausgelastet wird als sonst. Nvidias GPUs sind meist etwas besser ausgelastet - insbesondere wenn man RDNA3 mit in den Vergleich nimmt.
Es gibt ja auch noch ein paar wenige andere Spiele, die RDNA(3) sehr gut schmecken.
IIRC war es ein CoD und ein Assassins Creed und ein Forza Titel wo RDNA3 realtiv überdurchschnittlich abschneidet.
Aber grundsätzlich ist Starfield aus Performance pro Bildqualität (unabhängig vom IHV) eher unteres Mittelfeld.
phoenix887
2023-09-06, 09:03:43
Stimmt hier nicht die 4090 Performt besser in 720p.
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_cpubenchmarks_mit_einer_rtx_4090_und_rx_7900_xtx_update
Warte kann auch Geschwurbel wie der Kollege. Nvidia baut die Treiber mit Absicht so, das die 4090 im Vorteil ist, damit andere Nvidia Karte im Nachteil sind, sodass man eine 4090 kauft. :D
Ich sehe die Welt aufeinander mit ganz andere Augen.:)
aufkrawall
2023-09-06, 10:09:20
Das halte ich für übertrieben. Was ich eher vermute, dass sie den Code für RDNA (vor allem 3) optimiert haben - also besser ausgelastet wird als sonst. Nvidias GPUs sind meist etwas besser ausgelastet
Ohne intensives HW RT scheint das mit UE5 ziemlich vorbei zu sein.
GerryB
2023-09-06, 11:25:10
Stimmt hier nicht die 4090 Performt besser in 720p.
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_cpubenchmarks_mit_einer_rtx_4090_und_rx_7900_xtx_update
720p zzgl. 50% Upsampling = 360p
Ich geh gleich mal los und kauf ne 4090.(not)
Wieviel Objektdetails gehen eigentlich in 360p verloren?
DrFreaK666
2023-09-06, 12:01:08
720p zzgl. 50% Upsampling = 360p
Ich geh gleich mal los und kauf ne 4090.(not)
Wieviel Objektdetails gehen eigentlich in 360p verloren?
Kaufst dir dann ne 7900XTX für 360p, oder was wolltest damit andeuten?
GerryB
2023-09-06, 12:06:30
Leider momentan kein Handlungsdruck mit meiner 16GB-Graka.
Wie bereits in Post#2957 gezeigt reicht derzeit mein Bestand.
Werde am Sonntag mal noch auf 4k-FSR2-50% wechseln, erwarte da aber eigentlich keine Probleme.
(chill57fps am 60Hz-TN-Moni reichen, ... und bessere OLEDS kommen eeh erst 2H24)
edit: vermutlich würde ne 7800xt als "ersatz" gut reichen wenn b... Review passt
Troyan
2023-09-06, 13:11:33
Das halte ich für übertrieben. Was ich eher vermute, dass sie den Code für RDNA (vor allem 3) optimiert haben - also besser ausgelastet wird als sonst. Nvidias GPUs sind meist etwas besser ausgelastet - insbesondere wenn man RDNA3 mit in den Vergleich nimmt.
Es gibt ja auch noch ein paar wenige andere Spiele, die RDNA(3) sehr gut schmecken.
IIRC war es ein CoD und ein Assassins Creed und ein Forza Titel wo RDNA3 realtiv überdurchschnittlich abschneidet.
Aber grundsätzlich ist Starfield aus Performance pro Bildqualität (unabhängig vom IHV) eher unteres Mittelfeld.
Die 4090 hat fast 100 TFLOPs in Starfield, weil die GPU nicht ausgelastet wird. Ist aber genauso schlecht wie eine deutlich langsamere 7900XTX. Ja, das muss diese tolle neu gefundene Auslastung bei AMD sein...
Diese Titel sind komplett unoptimiert für nVidia. Eine 4080 kann Cyberpunk in 1080p mit 40 bis 60 FPS bei Verwendung von Pathtracing spielen, aber Starfield? Ne, >80FPS in 1080p mit Billo-Grafik ist da schon schwierig.
Cyberpunk: https://youtu.be/SWMmadX4blY?t=40
Starfield: https://youtu.be/6ZASmv1a8s4?t=143
robbitop
2023-09-06, 13:17:29
Die 4090 hat fast 100 TFLOPs in Starfield, weil die GPU nicht ausgelastet wird. Ist aber genauso schlecht wie eine deutlich langsamere 7900XTX. Ja, das muss diese tolle neu gefundene Auslastung bei AMD sein...
Diese Titel sind komplett unoptimiert für nVidia. Eine 4080 kann Cyberpunk in 1080p mit 40 bis 60 FPS bei Verwendung von Pathtracing spielen, aber Starfield? Ne, >80FPS in 1080p mit Billo-Grafik ist da schon schwierig.
Cyberpunk: https://youtu.be/SWMmadX4blY?t=40
Starfield: https://youtu.be/6ZASmv1a8s4?t=143
Grundsätzlich ist Starfield für das was es bietet nicht besonders toll optimiert wenn man es mit anderen Spielen vergleicht.
Und ja ich denke, dass es für AMD besser optimiert wurde (bzw ein wenig weniger schlecht ^^).
Ich wundere mich, warum dieser Aspekt kaum abgestraft wurde von der Presse - insbesondere der techaffinen Presse.
Wäre Starfield jetzt das große "aus einem Stück" Spiel, wie es zu Anfang den Anscheind hätte - wäre es was anderes. Aber es ist ja extrem in kleine Häppchen segmentiert, die einzeln geladen werden. Entsprechend muss auch nichts außerhalb des aktiven Levelabschnitts großartig simuliert werden.
Linmoum
2023-09-06, 13:36:03
Auf AMD optimiert würde aber bedeuten, dass Starfield überdurchschnittlich gut auf Radeons performt - und damit ist wiederum explizit gemeint, dass Nvidia auf der anderen Seite gerade nicht massiv unterperformt und eine 4090 beispielsweise teilweise nur im niedrigen 200W-Bereich rumdümpelt. Da ist mir "liegt an Optimierungen für AMD" als Grund auch zu plump für.
Wie gesagt, ähnliches hatten wir seinerzeit schon mal bei Valhalla (ebenfalls AMD sponsored btw), wo Ampere deutlich unterdurchschnittlich performt hat (und AMD logischerweise dann genau andersrum).
Ich weiß, dass Nvidia das dann irgendwann via Treiber gefixt hat. Ich weiß allerdings nicht, da das eine Ewigkeit gedauert hat, ob das tatsächlich ein klassisches Treiberproblem war oder ob sie irgendwann einfach die Schnauze voll hatten und das (eigentlich) nur eine Art "Workaround" für etwas war/ist, was eigentlich der Entwickler selbst hätte fixen können/sollen/müssen.
GerryB
2023-09-06, 13:51:09
In Valhalla war SAM das Must Have.
btw.
Man sieht bei ARC ja ganz deutlich wie viele Games ohne rBar net rund liefen.
Mal gesponnen, der Drawcall kommt ohne rBar einfach zu langsam von der CPU zur GPU.
In SF machts vllt. net allzuviel aus, aber Kleinvieh macht auch Mist.
https://www.reddit.com/r/nvidia/comments/16b81im/starfield_manual_rebar_on_vs_off_benchmarks/
aufkrawall
2023-09-06, 13:57:46
In Valhalla war SAM das Must Have.
Nein, den Performance-Gewinn via GeForce-Treiber gabs auch ohne rBAR.
GerryB
2023-09-06, 14:06:47
Dann isses bei NV anders als bei AMD, ... who knows.
Ex3cut3r
2023-09-06, 19:11:03
Ja natürlich. Bei AMD bringt SAM aka RBar eigentlich immer etwas. Bei Nvidia ist es sehr oft sogar eher nachtteilig, deswegen ist RBar bei Nvidia auch eigentlich nie standardmäßig aktiviert, außer für eine Handvoll Spiele die von Nvidia/Community getestet auch wirklich was bringen.
Das halte ich für übertrieben. Was ich eher vermute, dass sie den Code für RDNA (vor allem 3) optimiert haben - also besser ausgelastet wird als sonst. Nvidias GPUs sind meist etwas besser ausgelastet - insbesondere wenn man RDNA3 mit in den Vergleich nimmt.
Es gibt ja auch noch ein paar wenige andere Spiele, die RDNA(3) sehr gut schmecken.
IIRC war es ein CoD und ein Assassins Creed und ein Forza Titel wo RDNA3 realtiv überdurchschnittlich abschneidet.
Aber grundsätzlich ist Starfield aus Performance pro Bildqualität (unabhängig vom IHV) eher unteres Mittelfeld.
Hier werden wir uns (leider) weiterhin im Kreis drehen, weil man es wenden kann, wie man will. Wir haben nämlich alle keinen Zugang zum Code. Daher meine Gegenfrage, wie kann man es sich leisten, auf Nvidia HW mit derer Marktmacht (ich vermute 80% der Gamer in Industrie Staaten haben eine RTX Karte) einfach in den Arsch zu treten? Indem man partout für diese Kunden nicht optimiert, wenn man angeblich von AMD kein "Sabotage" Geld bekommen hat?
Ist leider ne Tatsache mit dem Overhead.
AMD und gezahlt, geil was für ein Geschwurbel und damit Verschwörungstheorie :)
Das hier über dir gesehen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13388884&postcount=2955
Dein Argument ist, wie gestern schon gesagt, bedauerlicherweise objektiv los.
Linmoum
2023-09-06, 19:47:31
Hat hier schon wer Anti-Lag+ testen können bzw. schon Ersteindrücke sammeln können? Ggf. auch @Raff? (ok, da werden die Prioritäten gerade vermutlich andere sein :D)
Mit N32 geht's ja warum auch immer nicht, da der Treiber nicht kompatibel ist. E: nvm
Exxtreme
2023-09-06, 20:11:37
Hier werden wir uns (leider) weiterhin im Kreis drehen, weil man es wenden kann, wie man will. Wir haben nämlich alle keinen Zugang zum Code. Daher meine Gegenfrage, wie kann man es sich leisten, auf Nvidia HW mit derer Marktmacht (ich vermute 80% der Gamer in Industrie Staaten haben eine RTX Karte) einfach in den Arsch zu treten? Indem man partout für diese Kunden nicht optimiert, wenn man angeblich von AMD kein "Sabotage" Geld bekommen hat?
Naja, einige Dinge kann man schon von aussen abgreifen was ein Spiel so macht. Man kann z.B. die Shader analysieren etc.
Linmoum
2023-09-06, 23:08:31
Hat hier schon wer Anti-Lag+ testen können bzw. schon Ersteindrücke sammeln können? Ggf. auch @Raff? (ok, da werden die Prioritäten gerade vermutlich andere sein :D)
Gemeint ist eine auf der klassischen Latenzreduzierung aufbauende Methode, die analog zu Nvidias Reflex von den Entwicklern manuell in ein Spiel integriert werden muss und anschließend das Framepacing optimiert. Das bedeutet freilich, dass Anti-Lag+ im Gegensatz zu Anti-Lag nicht per Treiber erzwungen werden kann. AMD spricht von einem kleinen bis nicht vorhandenen Einfluss auf die Bildqualität, aber im Gegenzug einer „game-winnig responsiveness“. https://www.computerbase.de/2023-09/amd-hypr-rx-feature-bundle-fuer-rdna-3-gpus-ist-endlich-erschienen/
Mittlerweile bin ich noch mehr verwirrt, als ohnehin schon (einen seperaten "Latenz-Thread" haben wir ja nicht, oder?). Man muss Anti-Lag+ also im Treiber aktivieren, es funktioniert aber nur mit explizitem Spielesupport? Und Anti-Lag+ kann also die Bildqualität negativ beeinflussen? Dafuq?
DrFreaK666
2023-09-06, 23:10:35
Ähm, ja. Bin da tatsächlich auch verwirrt
Monsta
2023-09-07, 08:16:19
Daher meine Gegenfrage, wie kann man es sich leisten, auf Nvidia HW mit derer Marktmacht (ich vermute 80% der Gamer in Industrie Staaten haben eine RTX Karte) einfach in den Arsch zu treten? Indem man partout für diese Kunden nicht optimiert, wenn man angeblich von AMD kein "Sabotage" Geld bekommen hat?
Weil AMD das egal ist wie es auf NVIDIA performt,geschweige denn DLSS bringt.
Man kann im Endeffekt froh sein das es überhaupt auf Nvidia Hardware startet.
Microsoft konnte es sich erlauben es nicht auf der Ps5 zu bringen.....
robbitop
2023-09-07, 08:19:08
Ist Bethesda nicht Microsoft? Also klar, dass die Anstrengung nicht hoch ist es auf der PS5 zu bringen. Gerade der Spielemarkt wird durch diese Akquisitionen von großen Publishern immer kaputter mit diesen bescheuerten (Teil) Exclusives.
phoenix887
2023-09-07, 08:23:26
Hat hier schon wer Anti-Lag+ testen können bzw. schon Ersteindrücke sammeln können? Ggf. auch @Raff? (ok, da werden die Prioritäten gerade vermutlich andere sein :D)
Mit N32 geht's ja warum auch immer nicht, da der Treiber nicht kompatibel ist. E: nvm
Ja mit Boderlands 3. funktioniert einwandfrei. Alles nochmal einen Tick direkter. Aber erwarte jetzt keine Balken und Analysen. Dazu habe ich keine Zeit und wenn ich Zeit habe Zocke ich, wenn ich sonst nichts anliegt.
Der_Korken
2023-09-07, 09:26:40
https://www.computerbase.de/2023-09/amd-hypr-rx-feature-bundle-fuer-rdna-3-gpus-ist-endlich-erschienen/
Mittlerweile bin ich noch mehr verwirrt, als ohnehin schon (einen seperaten "Latenz-Thread" haben wir ja nicht, oder?). Man muss Anti-Lag+ also im Treiber aktivieren, es funktioniert aber nur mit explizitem Spielesupport? Und Anti-Lag+ kann also die Bildqualität negativ beeinflussen? Dafuq?
Ich habe es so verstanden, dass sich die Qualitätseinbußen auf Radeon Boost beziehen, also von der in Bewegung verringerten Auflösung kommen. Mit Antilag+ hätte das nichts zu tun.
Linmoum
2023-09-07, 09:40:16
Das steht hier explizit unter dem Punkt Anti-Lag+ auch so:
https://abload.de/img/screenshot_20230907_0g8dum.jpg
https://www.amd.com/en/technologies/hypr-rx
aufkrawall
2023-09-07, 10:12:46
Es gibt also einen Bildqualitätsnachteil durch FSR 2 bzw. kein DLSS, einen Nachteil durch Anti-Lag+ und einen weiteren Nachteil durch kein Gegenstück zum TC-Denoising. Und ggf. auch bei FSR 3 FG vs. DLSS 3 FG.
Ne, dann lieber 12GB VRAM. Einfach nur absurd...
Das steht hier explizit unter dem Punkt Anti-Lag+ auch so:
https://abload.de/img/screenshot_20230907_0g8dum.jpg
https://www.amd.com/en/technologies/hypr-rx
(Die Game-Profile sind im Treiber ;). Und so ist das auch gedacht. Leider unterstützt 23.10 kein Antilag+.) ARG outdated
Edit: AAAAAh diese Honks!
antilag+ ist da, aber NUR DANN wenn man hyprRX EINSCHALTET.
phoenix887
2023-09-07, 10:33:45
Ich habe es so verstanden, dass sich die Qualitätseinbußen auf Radeon Boost beziehen, also von der in Bewegung verringerten Auflösung kommen. Mit Antilag+ hätte das nichts zu tun.
Richtig, genau so ist das.
Edit: Alles sehr verwirrend. Sehe bei Borderlands nativ in WHQD kein Qualitätsverlust. Keine Ahnung was die damit meinen. Auch im OSd fällt mir nichts auf bei den verschiedene Parameter.
Linmoum
2023-09-07, 10:41:58
antilag+ ist da, aber NUR DANN wenn man hyprRX EINSCHALTET.Sicher? Das ergibt doch überhaupt keinen Sinn, wenn das nur im Paket bei HYPR-RX und nicht eigenständig funktioniert.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85184&stc=1&d=1694076345
DrFreaK666
2023-09-07, 11:01:58
Könnte nicht jemand Vergleichsscreenshots machen?
M4xw0lf
2023-09-07, 11:21:14
(Die Game-Profile sind im Treiber ;). Und so ist das auch gedacht. Leider unterstützt 23.10 kein Antilag+.) ARG outdated
Edit: AAAAAh diese Honks!
antilag+ ist da, aber NUR DANN wenn man hyprRX EINSCHALTET.
Bei mir ist es auch bei Benutzerdefiniert zu finden, gleich unter dem normalen AntiLag.
Boost, Chill, dynamische Auflösung hab ich alles aus.
The_Invisible
2023-09-07, 11:30:59
Was soll Anti-Lag+ an der Bildqualität ändern? Oder meinen die ein paar fps weniger? Und warum soll das nur auf RDNA3 laufen? Anscheinend gibts genug zu tun für die Hardware-Redakteure
DrFreaK666
2023-09-07, 11:37:21
Was soll Anti-Lag+ an der Bildqualität ändern? Oder meinen die ein paar fps weniger? Und warum soll das nur auf RDNA3 laufen? Anscheinend gibts genug zu tun für die Hardware-Redakteure
Bei FSR vs DLSS wird jedes Pixel untersucht; bei Anti-Lag+ geht man plötzlich einfach davon aus, dass es kacke aussieht
Exxtreme
2023-09-07, 11:37:46
Was soll Anti-Lag+ an der Bildqualität ändern? Oder meinen die ein paar fps weniger? Und warum soll das nur auf RDNA3 laufen? Anscheinend gibts genug zu tun für die Hardware-Redakteure
Kann sein, dass sie die Auflösung temporär senken um höhere FPS zu bekommen Und höhere FPS bedeuten niedrigere Eingabelatenz.
aufkrawall
2023-09-07, 11:38:59
Das macht aber schon Boost.
Antilag reduziert die Latenz, das hat nix mit Bildqualität zu tun :freak:. Einfach Boost und RSR ausmachen, alles wieder gut.
Linmoum
2023-09-07, 13:30:41
Dann sollte AMD ihre Seiten und Folien vielleicht einfach mal eindeutig klarstellend formulieren und nicht bei Anti-Lag+ dazuschreiben, dass das die Bildqualität reduzieren kann.
GerryB
2023-09-07, 13:39:34
Das wird eher an der unglücklichen HyperX-Kombi mit dynamischem Boost liegen.
vllt. mal den Boost=off
Oder kann man da nen Wert einstellen, das net dauernd die Resi geä. wird?
Genau. HyprRX enthält ja Boost, das reduziert natürlich die BQ. RSR auch, wenn man an der Auflösung herumspielt, was Boost ja macht :D. Anti Lag+ wird direkte Treiberoptimierung, vielleicht auch dynamischer (KI-basierter?) Latenzoptimierung sein.
aufkrawall
2023-09-07, 14:00:44
Wo groß muss das Bild im ersten Post auf dieser Thread-Seite denn noch sein? AMD sagt es selbst. Punkt.
robbitop
2023-09-07, 14:02:44
Wenn AMD nicht mal ihre Features so kommunizieren kann, dass selbst wir Nerds hier durcheinander kommen... und das meine ich unter anderem wenn ich ihr Marketing kritisiere.
Exxtreme
2023-09-07, 14:09:59
Passendes MEme zum AMD-Marketing:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13382785#post13382785
Und ja, ich habe aus diesen Beschreibungen jetzt auch keinen Plan was Antilag+ macht. :freak::crazy2:
Linmoum
2023-09-07, 14:25:54
Wir wissen immerhin sicher, dass Anti-Lag+ die Latenz weiter reduziert. Ist doch schon mal ein Anfang. :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.