Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
[
13]
14
15
BlacKi
2023-09-07, 15:00:55
Das wird eher an der unglücklichen HyperX-Kombi mit dynamischem Boost liegen.
vllt. mal den Boost=off
Oder kann man da nen Wert einstellen, das net dauernd die Resi geä. wird?
dann müsste auf der folie hyprx stehen und nicht antilag+. die folie selbst sagt eindeutig aus, das antilag+ einen minimalen negativen einfluss auf die bildqualität haben kann.
GerryB
2023-09-08, 12:17:57
Oder kann man da nen Wert einstellen, das net dauernd die Resi geä. wird?
50% Change ist in manchen Resis sicherlich zuviel.
würde mal denken wenn man so 33...25% Change beim Boost einstellt passts
Wenns dann noch in jedem einzelnen Gameprofil jeweils unterschiedlich gewählt werden kann, wirds auch qualitativ sinnvoller.
In der Grundeinstellung springt es im worst Case sonst von 100% auf 50%.
Nur weil in ner Ecke gerade ne Explosion mit paar Partikeln ist o.ä.
DrFreaK666
2023-09-15, 18:17:08
"Starfield Runs Better on AMD GPUs Thanks to Architectural Advantages, New in-Depth Analysis Suggests"
https://wccftech.com/starfield-runs-better-on-amd-gpus-architectural-advantages/
Der Chips and Cheese Bericht ist ziemlich lang. Vielleicht mag ihn mal jemand durchlesen. Bin da tatsächlich zu faul :D
https://chipsandcheese.com/2023/09/14/analyzing-starfields-performance-on-nvidias-4090-and-amds-7900-xtx/
HarryHirsch
2023-09-16, 01:24:42
ich hatte auch keinen bock alles zu lesen.
aber die final words reichen doch auch:
"In summary there’s no single explanation for RDNA 3’s relative overperformance in Starfield. Higher occupancy and higher L2 bandwidth both play a role, as does RDNA 3’s higher frontend clock. However, there’s really nothing wrong with Nvidia’s performance in this game, as some comments around the internet might suggest. Lower utilization is by design in Nvidia’s architecture. Nvidia SMs have smaller register files and can keep less work in flight. They’re naturally going to have a more difficult time keeping their execution units fed. Cutting register file capacity and scheduler sizes helps Nvidia reduce SM size and implement more of them. Nvidia’s design comes out top with kernels that don’t need a lot of vector registers and enjoy high L1 cache hitrates."
wichtig:
If we look at the frame as a whole, the RTX 7900 XTX rendered the frame in 20.2 ms, for just under 50 FPS. Nvidia’s RTX 4090 took 18.1 ms, for 55.2 FPS. A win is a win, and validates Nvidia’s strategy of using a massive shader array even if it’s hard to feed. Going forward, AMD will need more compute throughput if they want to contend for the top spot.
BlacKi
2023-09-16, 01:50:15
man hat also einen weg gefunden, nvidias architektur möglichst schlecht skalieren zu lassen. es als win verbuchen zu lassen ist schon recht hart.
dargo
2023-09-16, 06:48:43
man hat also einen weg gefunden, nvidias architektur möglichst schlecht skalieren zu lassen. es als win verbuchen zu lassen ist schon recht hart.
[ ] Ich habe den Test von CaC nicht gelesen
robbitop
2023-09-16, 07:39:06
man hat also einen weg gefunden, nvidias architektur möglichst schlecht skalieren zu lassen. es als win verbuchen zu lassen ist schon recht hart.
Die Chips and Cheese Analyse sagt was anderes.
OgrEGT
2023-09-16, 07:49:33
Ach hört doch auf! Alle stecken doch unter einer Decke hier... Wenn es mal gelingt eine Radeon besser auszulasten dann kann das doch niemals mit rechten Dingen zugehen...
:ulol:
Lurtz
2023-09-16, 09:33:56
Wieso sieht man das Verhalten sonst so gut wie nie (Call of Duty zuletzt vielleicht noch)? Rendern alle anderen so viel anders?
dildo4u
2023-09-16, 09:43:16
Die ersten Third Party UE5 Games mit Nanite/Lumen performen schlechter und im Verhältnis 7900XTX zu 4090 auf dem selben Level wie Starfield.
Nanite Beide Modelle um 45 FPS in 4k.
https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-analysis/5.html
Nanite plus Lumen 41 vs 44fps.
https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html
Starfield 4k Ultra 54 vs 52fps
https://youtu.be/vTNiZhEqaKk?si=Z_iqtNWrxW9EgK3c&t=315
NV kann diese Generation an DX12 Games weniger per Treiber machen ich tippe drauf das es der Entwickler zusammen mit Nvidia fixen muss.
robbitop
2023-09-16, 10:09:10
Wieso sieht man das Verhalten sonst so gut wie nie (Call of Duty zuletzt vielleicht noch)? Rendern alle anderen so viel anders?
Es scheint compute limitiert zu sein. Das sind die wenigsten Spiele. Und RDNA3 scheint seine WGPs bei viel compute besser auslasten zu können.
dargo
2023-09-16, 10:12:32
Hat nichts mit irgendwelchen RDNA3 "Vorteilen" zu tun. N31 performt da vs. N21 richtig mies.
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd_update
Das einzige was ich da ablese ist, dass sowohl Ada als auch Ampere nicht wirklich gut aussehen vs. N31 und N21. Dass eine RX 6800XT vor der RTX 3090TI landet ist auch eher ungewöhnlich. Im übrigen versagt Intel in diesem Spiel auf ganzer Linie (Abstand zwischen A770 und RX 6650XT ist riesig), irgendwas schmeckt Intel da überhaupt nicht.
Also ich lese da eher geringere Latenzen und damit bessere Auslastung hinein, wenn moderne Engines viel Last erzeugen - da ist ja nunmal auch viel Compute bei. Man darf ja den Fehler nicht machen, die Creation Engine mit dem Renderer von Starfield zu verwechseln. Man hat da einen Porsche mit perfekter Aerodynamik und auch sonst allem perfekt mit dem VW-Käfer Motor kombiniert. Die CPU Last ist ja auch überhaupt nicht vom Renderer abhängig, sondern vom Käfermotor. Das Ding könnte vom Renderer her 300km/h fahren, der Käfermotor bremst aber auf 60FPS ab :D.
NV kann halt mit ihrer (Cache-)Architektur die internen Latenzen nicht soweit reduzieren, hat aber mit mehr Rohleistung trotzdem weiterhin den Vorteil. 300 (oder besser ca. 450mm² mit Speicherinterfaces und Cache in N5) vs. 600mm² eben. Daher ist die 4090 weiterhin die bessere Karte, vollkommen klar, aber es sollte einen nicht Wundern, wenn der sparsamere Ansatz auch manchmal funktioniert.
robbitop
2023-09-16, 10:58:12
Die Architekturellen Eigenschaften die CaC da rausbekommt gelten praktisch fast alle auch für RDNA2.
fondness
2023-09-16, 11:12:57
Es scheint compute limitiert zu sein. Das sind die wenigsten Spiele. Und RDNA3 scheint seine WGPs bei viel compute besser auslasten zu können.
Richtig, dafür verwenden viele Spiele so viel Raytracing das es auf vielen Karten unspielbar ist. Genau wie damals bei Tesslation. Wenn dann mal ein Spiel die Vorzüge der AMD-Architektur zum Vorschein bringt, ist der Aufschrei groß.
BlacKi
2023-09-16, 11:19:22
Also ich lese da eher geringere Latenzen und damit bessere Auslastung hinein, wenn moderne Engines viel Last erzeugen - da ist ja nunmal auch viel Compute bei. Man darf ja den Fehler nicht machen, die Creation Engine mit dem Renderer von Starfield zu verwechseln. Man hat da einen Porsche mit perfekter Aerodynamik und auch sonst allem perfekt mit dem VW-Käfer Motor kombiniert. Die CPU Last ist ja auch überhaupt nicht vom Renderer abhängig, sondern vom Käfermotor. Das Ding könnte vom Renderer her 300km/h fahren, der Käfermotor bremst aber auf 60FPS ab :D.
NV kann halt mit ihrer (Cache-)Architektur die internen Latenzen nicht soweit reduzieren, hat aber mit mehr Rohleistung trotzdem weiterhin den Vorteil. 300 (oder besser ca. 450mm² mit Speicherinterfaces und Cache in N5) vs. 600mm² eben. Daher ist die 4090 weiterhin die bessere Karte, vollkommen klar, aber es sollte einen nicht Wundern, wenn der sparsamere Ansatz auch manchmal funktioniert.i call it BS. bei den älteren gpus ist der amd bias ebenso vorhanden. die wahrscheinlichkeit, das man hier optimierungen weggelassen hat, vl sogar aktiv bremsen eingebaut hat, ist imho gegeben. würde mich nicht wundern, wenn in ein paar monaten die optimierungen kommen und dann die nv gpus 25-30% zulegen wie man das erwarten darf.
Richtig, dafür verwenden viele Spiele so viel Raytracing das es auf vielen Karten unspielbar ist. Genau wie damals bei Tesslation. Wenn dann mal ein Spiel die Vorzüge der AMD-Architektur zum Vorschein bringt, ist der Aufschrei groß.
vorteile? amd performt in dem spiel auch nur durchschnittlich. es ist ja nicht so, das amd karten per se gut performen wie man das anhand der gebotenen grafik erwarten dürfte. die amd karten performen eher erwartbar anhand von dem was die grafik bietet, es ist eher so, das nv unter durchschnittlich performt. siehe verbrauch. da stimmt was mit dem spiel nicht. wenn die bremse gefunden wird, dann ist das bild klar.
Die Architekturellen Eigenschaften die CaC da rausbekommt gelten praktisch fast alle auch für RDNA2.und auch für die 5700xt? die ist 1 fps langsamer ist als eine 2080ti?
fondness
2023-09-16, 11:27:57
vorteile? amd performt in dem spiel auch nur durchschnittlich. es ist ja nicht so, das amd karten per se gut performen wie man das anhand der gebotenen grafik erwarten dürfte. die amd karten performen eher erwartbar anhand von dem was die grafik bietet, es ist eher so, das nv unter durchschnittlich performt. siehe verbrauch. da stimmt was mit dem spiel nicht. wenn die bremse gefunden wird, dann ist das bild klar.
Ob die Grafik in Relation zur Performance steht ist rein subjektiv und damit völlig willkürlich. AMD performt in Relation zur Konkurrenz (NV & Intel) erheblich besser als üblich, das ist Fakt.
The_Invisible
2023-09-16, 11:34:03
Die ersten Third Party UE5 Games mit Nanite/Lumen performen schlechter und im Verhältnis 7900XTX zu 4090 auf dem selben Level wie Starfield.
Nanite Beide Modelle um 45 FPS in 4k.
https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-analysis/5.html
Nanite plus Lumen 41 vs 44fps.
https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html
Starfield 4k Ultra 54 vs 52fps
https://youtu.be/vTNiZhEqaKk?si=Z_iqtNWrxW9EgK3c&t=315
NV kann diese Generation an DX12 Games weniger per Treiber machen ich tippe drauf das es der Entwickler zusammen mit Nvidia fixen muss.
Ja weil alles ohne HW-RT.
In einer Woche kommt aber CP2077 und im Oktober noch einiges mehr, vor allem Alan Wake 2, wird spannend
dildo4u
2023-09-16, 11:37:26
RDNA2 performt außerordentlich in Starfield was sinn macht wenn Konsequent auf XBox Spec entwickelt wurde.
Ansonsten fehlt bei den ersten Benches das Nvidia Rebar Profil.
Hardware Unboxed hat das im Podcast angesprochen das es durchaus was bringt.
https://youtu.be/djilvZv95os?si=ylq1nmqUn-xvbRS4&t=341
Exxtreme
2023-09-16, 11:42:47
RDNA2 performt außerordentlich in Starfield was sinn macht wenn Konsequent auf XBox Spec entwickelt wurde.
Ansonsten fehlt bei den ersten Benches das Nvidia Rebar Profil.
Hardware Unboxed hat das im Podcast angesprochen das es durchaus was bringt.
https://youtu.be/djilvZv95os?si=ylq1nmqUn-xvbRS4&t=341
Laut Leuten im Nvidia-Forum kann Rebar aber Schwierigkeiten machen wenn man das für Starfield aktiviert. Die haben dann Hänger alle paar Sekunden etc. So ausgereift ist das leider noch nicht.
Thunder99
2023-09-16, 11:48:59
Sehe es auch so, das Spiel wurde auf RDNA optimiert und ausgelegt, damit diese Karten ihr Potential besser nutzen können. Läuft einfach gut :up:
DrFreaK666
2023-09-16, 12:01:42
Ja weil alles ohne HW-RT.
In einer Woche kommt aber CP2077 und im Oktober noch einiges mehr, vor allem Alan Wake 2, wird spannend
Da wird nichts spannend
Sehe es auch so, das Spiel wurde auf RDNA optimiert und ausgelegt, damit diese Karten ihr Potential besser nutzen können. Läuft einfach gut :up:
Es wurde auf die XBox ausgerichtet.
i call it BS. bei den älteren gpus ist der amd bias ebenso vorhanden. die wahrscheinlichkeit, das man hier optimierungen weggelassen hat, vl sogar aktiv bremsen eingebaut hat, ist imho gegeben. würde mich nicht wundern, wenn in ein paar monaten die optimierungen kommen und dann die nv gpus 25-30% zulegen wie man das erwarten darf.
Eben nicht, weil das neue Cache-System ja sein RDNA1 existiert.
Laut Leuten im Nvidia-Forum kann Rebar aber Schwierigkeiten machen wenn man das für Starfield aktiviert. Die haben dann Hänger alle paar Sekunden etc. So ausgereift ist das leider noch nicht.
NV hat generell immer noch große Schwierigkeiten mit dem Feature. Irgendwie sind deren Architekturen und Treiber hier immer noch im Nachteil.
Anders als bei Intel, die überhaupt nicht ohne laufen witzigerweise.
DrFreaK666
2023-09-16, 13:01:48
Wieso sollte man Bremsen einbauen?
NV hat auch ewig gebraucht, bis FH5 normal auf Geforce Karten performt hat. Lief auf RDNA3 anfangs auch schlecht. War bestimmt ne Bremse eingebaut :ugly:
Achill
2023-09-16, 14:07:45
Also ich lese da eher geringere Latenzen und damit bessere Auslastung hinein, wenn moderne Engines viel Last erzeugen - da ist ja nunmal auch viel Compute bei.
[..]
Meine Zusammenfassung für alle Lesefaulen:
- Es wurden die zeitlich drei längsten laufenden Shader gewählt
- Ersten Shader: Longest Duration Compute Shader
-- Ausführungszeit: 4090 (1.15 ms) / 7900XTX (1.19 ms) / 3090 (2.49 ms) / Titan RTX (4.92 ms)
-- Belegung: 10 von 16 Threads bei 7900XTX / 3.7 von 12 Threads bei Ada+Ampere / 3.69 von 8 Threads bei Turing
-- Limitierung: Vector Register Größe der SIMDs (in diesen laufen die Threads der Waves/Wraps ab)
-- AMDs Vector Register Größe pro SIMD: 192 KB
-- NVs Vector Register Größe: 64KB (Anscheinend gleich geblieben bei allen 3 Generationen)
=> NVs große 4090 hat zwar mehr SIMDs als die 7900XTX, da eine SIMD von AMD aber mehr Threads Aufgrund der Register Größe ausführen kann nivellierte es sich und beide sind fast gleich schnell mit einen minimalen Vorsprung für die 4090
- Zweiter Shader: Longest Duration Pixel Shader
-- Ausführungszeit: 4090 (0.93 ms) / 7900XTX (1.18 ms) / 3090 (2.08 ms) / Titan RTX (4.08 ms)
-- Belegung: 16 von 16 Threads bei 7900XTX / 4.7 von 12 Threads bei Ada+Ampere / 4.4 von 8 Threads bei Turing
-- Limitierung: Vector Register Größe der SIMDs (again)
=> Ergebnis wie beim ersten Shader, NV's 4090 gewinnt aber die 7900XTX kann aufgrund der hohen möglichen Auslastung dran bleiben
- Dritter Shader: Second Longest Compute Shader
-- Ausführungszeit: 7900XTX (0.96 ms) / 4090 (1.14 ms) / 3090 (1.57 ms) / Titan RTX (1.94 ms)
-- Belegung: 8 von 16 Threads bei 7900XTX / 8.43 von 12 Threads bei Ada / 7.65 von 12 Threads bei Ampere / 7.53 von 8 Threads bei Turing
-- Limitierung: L2 Cache Bandwidth
=> Die NV's 4090 ist limitiert durch ihre L2 Bandbreite und dadurch kann die 7900XTX diesmal schneller sein ...
Wichtig: Ich gebe hier nur zusammen gefasst wieder, was der verlinkte Artikel von Chips And Cheese (https://chipsandcheese.com/2023/09/14/analyzing-starfields-performance-on-nvidias-4090-and-amds-7900-xtx/) heraus gearbeitet hat.
=> @Hot, ich konnte nirgends etwas von einer Latenzlimitierung lesen, weiß also nicht wie du darauf gekommen bist.
horn 12
2023-09-16, 15:42:26
Was haltest Du bitte selbst von RDNA 3 und wird jener noch Früchte zeigen?
Deine Weisheit ist doch oft zum Tragen gekommen!
robbitop
2023-09-16, 16:43:05
und auch für die 5700xt? die ist 1 fps langsamer ist als eine 2080ti?
Die WGPs haben sich von RDNA1 zu 2 praktisch nicht geändert bis auf die Raytester in den TMUs. Auch RDNA3 ist da eher eine sanfte Evolution.
Ich finde es merkwürdig wenn Profis sich so viel Mühe geben und das detailiert analysieren und dann kommen Laien die einfach „BS“ rufen. Ohne adäquate Argumente und Belege und mit nichts anderem als oberflächlicher Skepsis. Wenn „BS“ kommt, dann bitte basierend auf Argumenten und Belegen, die mindestens auf dem Niveau sind.
aufkrawall
2023-09-16, 16:55:55
Die Radeon-Performance ist halt auch nur relativ gesehen gut. Isoliert betrachtet ist das Optik/Performance-Verhältnis von Starfield auch auf Radeons absolut beschissen.
Sich drüber zu freuen, dass auf anderen Herstellern noch bescheidener läuft, ist nicht gerade der Spirit des Fortschritts...
DrFreaK666
2023-09-16, 17:00:52
Darum gehts doch gar nicht
robbitop
2023-09-16, 17:11:08
Denke ich auch.
Achill
2023-09-16, 17:35:29
Was haltest Du bitte selbst von RDNA 3 und wird jener noch Früchte zeigen?
Deine Weisheit ist doch oft zum Tragen gekommen!
Horn - wenn du mich meinest - dann ist meine Einschätzung:
- Wir sehen jetzt schon sehr Wahrscheinlich das max. was mit RDNA3 geht. Ich erwarte keine Wunder, wenn AMD diese selbst irgendwo noch vermutet hätte, dann hätten Sie bestimmt alles heran gesetzt diese noch zum Laufen zu bekommen, das erste Jahr der 7900XTX ist aber rum ...
- Ich denke der Treiber ist bzgl. Leistung schon sehr ausgereift, eher können vielleicht die lästigen Kleinigkeiten (die für einige sehr wichtig sein können) wie der Desktop-Verbrauch sich noch etwas verbessern.
- In Spielen die keine RT nutzen kann RDNA3 gleich auf liegen, mal etwas schneller oder etwas langsamer. Mit RT gewinnt aktuell NV in fast allen Fällen.
=> Meine 6900XT muss durchhalten - gibt für mich keine RDNA3.
aufkrawall
2023-09-16, 17:40:53
Denke ich auch.
Bei dir ist das wohl nicht die Intention. Trotzdem ist es nicht gut auf RDNA optimiert, sondern läuft aufgrund des grottigen Codes woanders nur einfach noch viel schlechter. Das ist nicht das Gleiche.
Das Spiel sieht im Grunde aus wie Control ohne RT bzw. schlechter und läuft bei einem Bruchteil der fps. Mir nicht nachvollziehbar, weshalb da überhaupt irgendeine Tech-Analyse interessieren sollte. Das ist Code-Schrott durch und durch. :freak:
Exxtreme
2023-09-16, 17:50:08
- In Spielen die keine RT nutzen kann RDNA3 gleich auf liegen, mal etwas schneller oder etwas langsamer. Mit RT gewinnt aktuell NV in fast allen Fällen.
MMn. nach wird man das auch in Nicht-RT-Spielen nicht sehr oft sehen, dass die 7900XTX an die 4090 rankommt. Starfield ist halt so eine, offenbar arg mies programmierte Anomalie, die RDNAx etwas besser schmeckt als Turing/Ada.
Achill
2023-09-16, 18:31:37
MMn. nach wird man das auch in Nicht-RT-Spielen nicht sehr oft sehen, dass die 7900XTX an die 4090 rankommt. Starfield ist halt so eine, offenbar arg mies programmierte Anomalie, die RDNAx etwas besser schmeckt als Turing/Ada.
Hab das nicht gut geschrieben, ich hatte eher die Architekturen im Hinterkopf und wenn man vergleicht, dann Karten in der gleichen Preisklasse. Eine 4090 muss imho immer besser performen, ansonsten wäre der Preisunterschied zur 7900XTX / 4080 nicht machbar.
Hinsichtlich ähnliches Preislevel und Watt Budget wäre der Vergleich also eher 7900 XTX vs 4080 ... und dort treffen die zwei Karten schon sehr oft aufeinander.
---
Edit: Wobei (Fun Fact) der abs. Preisabstand von 4070 TI zur 7900 XTX keiner ist (155€) als 7900 XTX zur 4080 (190€) ...
The_Invisible
2023-09-16, 18:59:57
---
Edit: Wobei (Fun Fact) der abs. Preisabstand von 4070 TI zur 7900 XTX keiner ist (155€) als 7900 XTX zur 4080 (190€) ...
Wenn man den neuen PCGH-RT Parcour hernimmt passt das auch. Warum man sich jetzt an diesem einen Spiel so aufhängt kann ich auch net ganz verstehen, Ausreißer wirds immer geben...
Linmoum
2023-09-16, 19:22:21
Das Beispiel Starfield ist sowieso wenig einleuchtend für irgendwelche Rückschlüsse, weil die absolute Performance selbst mit vermeintlich optimiertem RDNA3 auf einer 7900XTX für das Gebotene immer noch völligst albern und mies ist. Dafür muss man nicht einmal Nvidia als Vergleich heranziehen, der Hardwarehunger ist über alle (bzw. beide, bei Intel läufts ja augenscheinlich nicht einmal fehlerfrei oder crasht ständig...) IHV halt einfach lächerlich.
Unoptimierter Softwaremüll. Eigentlich absurd, dass man da noch über irgendwelche "Optimierungen" (bzw. die Performance) für einen IHV diskutiert. Könnte man vielleicht tun, wenn das Spiel PT-Grafikqualität auf CP2077-Niveau hätte, aber davon ist Starfield so weit entfernt, wie die Erde vom Neptun. Und traurigerweise ist die Performance sogar nicht mal massiv besser.
Das Beispiel Starfield ist sowieso wenig einleuchtend für irgendwelche Rückschlüsse, weil die absolute Performance selbst mit vermeintlich optimiertem RDNA3 auf einer 7900XTX für das Gebotene immer noch völligst albern und mies ist. Dafür muss man nicht einmal Nvidia als Vergleich heranziehen, der Hardwarehunger ist über alle (bzw. beide, bei Intel läufts ja augenscheinlich nicht einmal fehlerfrei oder crasht ständig...) IHV halt einfach lächerlich.
Unoptimierter Softwaremüll. Eigentlich absurd, dass man da noch über irgendwelche "Optimierungen" (bzw. die Performance) für einen IHV diskutiert. Könnte man vielleicht tun, wenn das Spiel PT-Grafikqualität auf CP2077-Niveau hätte, aber davon ist Starfield so weit entfernt, wie die Erde vom Neptun. Und traurigerweise ist die Performance sogar nicht mal massiv besser.
Unoptimierter Softwaremüll? Treiberbteilung!
BlacKi
2023-09-16, 22:10:40
Die Radeon-Performance ist halt auch nur relativ gesehen gut. Isoliert betrachtet ist das Optik/Performance-Verhältnis von Starfield auch auf Radeons absolut beschissen.
Sich drüber zu freuen, dass auf anderen Herstellern noch bescheidener läuft, ist nicht gerade der Spirit des Fortschritts...das ist es halt. amd karten laufen, wenn man die grafik und die performance einordnet nur normal.
nv unterperformt massiv. und intel gleichmal garnicht.
sieht man auch daran, das intel ein treiber update liefert das in starfield stabilität und performance bietet und bethesda überhaupt darauf reagiert.
Unoptimierter Softwaremüll? Treiberbteilung!
seit dx12 hat die treiberentwicklung nur noch begrenzten einfluss auf die performance auf das spiel. die hauptentwicklungsarbeit liegt beim spieleentwickler. das war stets der angebliche vorteil ggü. dx11, wo das treiberteam maßgeblich einfluss haben konnte.
wenn daher der spieleentwickler keinerlei interesse hat(aus welchen gründen auch immer) da keine entwicklungsarbeit zu leisten. dann saugt die performance auf weniger optimierten karten. ich frag mich gerade nur, wieviel geld amd hat springen lassen.
MMn. nach wird man das auch in Nicht-RT-Spielen nicht sehr oft sehen, dass die 7900XTX an die 4090 rankommt. Starfield ist halt so eine, offenbar arg mies programmierte Anomalie, die RDNAx etwas besser schmeckt als Turing/Ada.
ich glaube es fehlt jegliche optimierung seitens des entwicklers für alle anderen gpus ausser amd.
DrFreaK666
2023-09-16, 23:03:29
@BlacKi Wie erklärst du dann die Performance-Sprünge bei FH5 durch Treiber-Updates seitens AMD UND NV? Zufall?
BlacKi
2023-09-16, 23:18:05
@BlacKi Wie erklärst du dann die Performance-Sprünge bei FH5 durch Treiber-Updates seitens AMD UND NV? Zufall?auch nv hat mit treiberupdates angeblich 5% bei starfield rausgeholt. das ändert leider nichts zu den aussagen aus amds vergangenheit. ausserdem fehlen da noch 25%.
damit du nicht suchen musst:
Schon mit AMDs Mantle-API wurde schnell klar, dass den Spielentwicklern deutlich mehr Verantwortung in die Hände gelegt wird als beispielsweise mit DirectX 11: Da man vieles händisch regeln muss, darunter die Videospeicherverwaltung, kann natürlich auch viel falsch gemacht werden.buuuhh bethesda buuuhhh
https://www.pcgameshardware.de/DirectX-12-Software-255525/News/Entwicklerverantwortung-Feature-Levels-1152752/
DrFreaK666
2023-09-17, 00:18:11
Seltsamerweise sehe ich bei den FH5 Benchmarks keine NV Schwäche. Da muss sich bei mir etwas falsch abgespeichert haben
dildo4u
2023-09-17, 05:34:14
Seltsamerweise sehe ich bei den FH5 Benchmarks keine NV Schwäche. Da muss sich bei mir etwas falsch abgespeichert haben
RDNA2 war extrem performant 6950XT= 7900XT, Nvidia hat aber irgendwann ein Rebar Profil eingeflegt daher performt Lovelace normal.
Rebar Profile
https://www.reddit.com/r/nvidia/comments/13zes73/created_a_list_with_supported_games_for_nvidia/
6950XT = 7900XT= 4070 TI.
https://youtu.be/23bVb1l6ZQo?si=DY6nKxVVbt2rRHZu&t=330
OgrEGT
2023-09-18, 19:00:25
Zocke momentan RDR2 mit der 7900XT 3440x1440 TAA Ultra FSR off... mit UV und FPScap 97fps bei 280W TBP :D
Hammer Grafik kein Flimmern kein Tearing :up:
vinacis_vivids
2023-09-18, 19:14:30
Still und leise hat die 7900XTX aufgeholt in:
Cyberpunk 2077 Psycho Settings FSR VS DLSS 4K | RTX 4090 VS RX 7900 XTX
k0P7G9KzaJQ
The_Invisible
2023-09-18, 19:27:24
Psycho ist für mich RT, das Video ist so reiner Clickbait...
Rancor
2023-09-18, 19:42:25
Da wird nichts spannend
Eben. Abgesehen von Pathtracing kannst du auf ner 7900XTX das Game auch mit Raytracing spielen. Wenn FSR 3 kommt, dann umso mehr.
DrFreaK666
2023-09-18, 19:45:41
Mit RDNA 2/3 muss man mit den Details halt so weit runter, so dass man min 60FPS hat.
GerryB
2023-09-18, 22:30:22
Still und leise hat die 7900XTX aufgeholt ...
... durch sinnloses, nichtmal gut gemachtes OCen@465W bei der Nitro
Der Abstand 7900xtx-MBA zur 4090FE ist unverändert@stock
und eigentlich total egal, weil nur der Vgl. zur 4080 zählt.
btw.
Was evtl. einen Versuch wert ist, mit dem Adrenalin 23.9.1 das UVen nochmal nachzujustieren.
vllt. kommen manche 7900xtx dann von 1120mV auf 1100...1080mV runter.(ala Gurdi bei PCGH)
vinacis_vivids
2023-09-22, 11:03:33
RX 7970 XTX @ 3,0Ghz vs RTX4090
KS4QczJCi7g
Mit Asrock Extreme Bios ~552W simuliert
Taigatrommel
2023-09-22, 11:50:18
Psycho ist für mich RT, das Video ist so reiner Clickbait...
Ja, anders kann man es nicht ausdrücken. RT Ultra geht auf meiner XTX nur mit FSR, man braucht gar nicht erst daran denken, es ohne zu spielen. Dabei ist selbst FSR Quality für meinen Geschmack nicht wirklich zuverlässig schnell genug, da bleibt nur Balanced oder halt RT ausschalten und rein mit Raster spielen.
Also mir reicht RT medium mit Reflexionen, der Rest ist im Eifer des Gefechts eh kaum zu sehen.
Ich werd das eh mit vollem PT und allen Bugs gefixt und hoffentlich auch ohne die Scheiss Anzeigeverzögerungen von Farbgebung und Spieglungen bei RT mit der nächsten Generation GPUs mal versuchen. Die find ich nämlich extrem störend.
Achill
2023-09-22, 13:31:30
Ja, anders kann man es nicht ausdrücken. RT Ultra geht auf meiner XTX nur mit FSR, man braucht gar nicht erst daran denken, es ohne zu spielen. Dabei ist selbst FSR Quality für meinen Geschmack nicht wirklich zuverlässig schnell genug, da bleibt nur Balanced oder halt RT ausschalten und rein mit Raster spielen.
Mal FSR mit Auto und FPS-Target versucht? Das wäre dann ggf. ein Kompromiss an Stellen, wo die XTX es nicht ganz schafft und die Auflösung wird dann dyn. reduziert wird.
vinacis_vivids
2023-09-22, 18:37:35
Ja, anders kann man es nicht ausdrücken. RT Ultra geht auf meiner XTX nur mit FSR, man braucht gar nicht erst daran denken, es ohne zu spielen. Dabei ist selbst FSR Quality für meinen Geschmack nicht wirklich zuverlässig schnell genug, da bleibt nur Balanced oder halt RT ausschalten und rein mit Raster spielen.
FSR-Performance (50%) läuft auch in höheren Auflösungen (UHD) ganz passabel, weil HD dann die Redering-Resolution ist.
Allerdings gibs leichtes Tearing bei den Figuren.
OgrEGT
2023-09-23, 12:07:18
GeForce RTX 4090 limited to 120Hz on Samsung Odyssey Neo G9 dual 4K 240Hz monitor
Only Radeon RX 7000 can support 7680×2160/240Hz output on Odyssey Neo G9
https://videocardz.com/newz/geforce-rtx-4090-limited-to-120hz-on-samsung-odyssey-neo-g9-dual-4k-240hz-monitor
DrFreaK666
2023-09-23, 12:38:00
Kann man ja von einer 1600+€ Karte nicht erwarten
Kann man ja von einer 1600+€ Karte nicht erwarten
Aber die 5900 für 2500€ wird es definitiv können.
Linmoum
2023-09-23, 13:36:53
Das sind Sachen, die seit fast einem Jahr allseits bekannt sind. Oder übersehe ich da jetzt irgendwie was neues? :confused:
DrFreaK666
2023-09-23, 13:37:59
Das sind Sachen, die seit fast einem Jahr allseits bekannt sind. Oder übersehe ich da jetzt irgendwie was neues? :confused:
Aber "FSR sieht schlechter aus" regelmäßig wiederholen :lol:
The_Invisible
2023-09-23, 13:44:42
Aber die 5900 für 2500€ wird es definitiv können.
Da macht's auch Sinn performancemäßig
horn 12
2023-09-25, 20:27:44
Wirklich Schade um Scott Herkelmann
War zumindest mir äußerst Symphatisch und hatte es wie beschrieben mit dem Problem der Vapor Chamber echt nicht einfach.
Hut ab und Alles Gute Ihm für die Zukunft!
https://videocardz.com/newz/scott-herkelman-announces-departure-from-amd
DrFreaK666
2023-09-25, 20:55:19
Hoffentlich kein schlechtes Zeichen für die Radeon-Sparte
aufkrawall
2023-09-26, 05:16:36
Wirklich Schade um Scott Herkelmann
Ja, wirklich schade um einen der großen Vordenker AMDs beträchtlicher Marktanteile. :freak:
GerryB
2023-09-26, 07:11:20
Was genau sich AMD bezgl. Marktanteilen so denkt, who knows.(x)
Mit RDNA2 hätte man im Mobilsegment echt ne Chance gehabt.(mit RDNA3 eher nicht)
Evtl. war einfach Konsolen+CPU+GPU-Launch im selben Jahr too much bezgl. Waferkontingent.
(man hätte gar nicht soviel ausliefern können)
Vllt. wirds dann ein kleineres Brötchen mit den Phönix-APU´s.
(x) inwiefern Mining+Covid+AI und Waferknappheit dann die Entscheidungsgewalt von Person XYZ beeinträchtigen, .... AMD wird traditionell erstmal die Wafer bei den CPU´s nutzen mit mehr Marge(?).
Das ist halt nicht ATI.
dildo4u
2023-09-26, 07:35:39
Welche Relevanz hat Herkelmann?Sein Job war doch nur die Katastrophale PR zu führen deutlich zu viel versprochen und nicht gehalten dafür sollte er gehen.
Rdna3 hätte zum absoluten Kundenliebling und Verkaufsschlager werden können mit korrekter Bepreisung, aber die Strategie war offensichtlich ne andere.
Linmoum
2023-09-26, 08:57:27
Kein Unternehmen gibt Millionen/Milliarden für die Entwicklung seiner Produkte aus, nur um sie dann mit beschissenen Margen verkaufen zu können/müssen. Daher gibt's dieses Wunder von geiler Bepreisung bei RDNA3 auch nicht.
Aber unabhängig davon hat Herkelman auch als Gesicht der Sparte einfach keinen guten Job gemacht. Ob er jetzt selbst geht oder nicht doch gegangen wurde, who knows. Auch letzteres wäre keine Überraschung.
OgrEGT
2023-09-26, 08:58:30
Man muss bedenken dass Preise auch was mit Verfügbarkeit und damit auch mit Produktionskapazitäten zu tun haben. Da haben wir nicht so viel Einblick um zu beurteilen wieviel von welcher SKU zu welchem Zeitpunkt lieferbar war/ist... zudem musste das Preisgefüge auch dazu dienen den Abverkauf von RDNA2 sicher zu stellen... jetzt wo der Abverkauf durch ist werden die Preise für RDNA3 weiter sinken...
dargo
2023-09-26, 09:15:43
Rdna3 hätte zum absoluten Kundenliebling und Verkaufsschlager werden können mit korrekter Bepreisung, aber die Strategie war offensichtlich ne andere.
Das glaube ich nicht Tim. Mir wäre MPT-Support wesentlich lieber als tiefere Preise. Oder zumindest bis mindestens -30% PT im Bios und somit Treiber, dann wäre MPT-Support überflüssig. Aber egal wie man es dreht... das RDNA3-Design ist einfach nicht gelungen.
PS: MPT-Support bei RDNA3 wäre mir trotzdem lieber da UV damit nochmal effizienter geht vs. Treiber, zumindest sieht man das bei RDNA2.
Das glaube ich nicht Tim. Mir wäre MPT-Support wesentlich lieber als tiefere Preise. Oder zumindest bis mindestens -30% PT im Bios und somit Treiber, dann wäre MPT-Support überflüssig. Aber egal wie man es dreht... das RDNA3-Design ist einfach nicht gelungen.
PS: MPT-Support bei RDNA3 wäre mir trotzdem lieber da UV damit nochmal effizienter geht vs. Treiber, zumindest sieht man das bei RDNA2.
Mehr Nische geht nicht. MPT ist 99,99999% der Kunden total egal.
aufkrawall
2023-09-26, 10:40:20
Mehr Nische geht nicht. MPT ist 99,99999% der Kunden total egal.
Ich muss zugeben, dass ich es aufgrund der einwandfrei funktionierenden Lüftersteuerung über den WM mit der Hellhound auch nicht vermisst hatte. War halt selbst mit den 100% PT 360W bei offenem Gehäuse quasi nicht zu hören.
dargo
2023-09-26, 12:22:55
Mehr Nische geht nicht. MPT ist 99,99999% der Kunden total egal.
Klar... so egal, dass AMD bei RDNA3 eine Blackbox kreiert hat im Gegensatz zu RDNA2 und RDNA1. :rolleyes:
vinacis_vivids
2023-09-26, 12:45:16
Komme auch ohne MPT sehr gut mit der 7900XTX zurecht. Für mich wäre 600W Brute-Force interessant zum Benchmarking gewesen. So bleiben max. 464W übrig.
Allerdings war die Bepreisung für Custom-Modelle für >1000€ schon happig. Für die RX6800 zahlte ich auch knapp 1000€.
Insgesamt schon n geiles Ding und vielen Games doppelt so schnell wie die 6800er. Hält wieder die nächsten 3 Jahre vermutlich.
BlacKi
2023-09-26, 12:54:34
Klar... so egal, dass AMD bei RDNA3 eine Blackbox kreiert hat im Gegensatz zu RDNA2 und RDNA1. :rolleyes:du hast wohl immernoch nicht verstanden warum mpt nichtmehr für rdna3 un neuer kommt. sicherheit ist hier das thema. die entwickler von mpt könnten die blackbox von rdna3, wie bei rdna1 und 2, knacken, lassen das aber, um die sicherheit der rdna3 karten nicht zu komprimitieren. das mpt nicht rdna3 supporten wird liegt also nicht direkt an amd, sondern an den entwicklern der software, die rdna3 aus sicherheitsgründen nichtmehr jailbreaken wollen.
dargo
2023-09-26, 12:56:11
Insgesamt schon n geiles Ding und vielen Games doppelt so schnell wie die 6800er.
Was für ein Meisterwerk bei doppelt so hohen Verbrauch. :lol:
du hast wohl immernoch nicht verstanden warum mpt nichtmehr für rdna3 un neuer kommt. sicherheit ist hier das thema. die entwickler von mpt könnten die blackbox von rdna3, wie bei rdna1 und 2, knacken, lassen das aber, um die sicherheit der rdna3 karten nicht zu komprimitieren. das mpt nicht rdna3 supporten wird liegt also nicht direkt an amd, sondern an den entwicklern der software, die rdna3 aus sicherheitsgründen nichtmehr jailbreaken wollen.
Und die Sicherheit bei RDNA2 war den Entwicklern egal oder was? Die Gründe warum RDNA3 keinen MPT-Support bekommt sind erstmal völlig latte. Nur wenn da nichts kommt dann sollte AMD halt nicht mit so einem Witz wie max. -10% PT ankommen bei diesen modernen Wattschleudern. Bei Polaris hatten sie auch -50% bis +50% auf die Reihe bekommen. Letzteres kann man gerne kleiner wählen damit einem die Grafikkarte nicht um die Ohren fliegt.
OgrEGT
2023-09-26, 13:01:27
Was für ein Meisterwerk bei doppelt so hohen Verbrauch. :lol:
Und die Sicherheit bei RDNA2 war den Entwicklern egal oder was? Die Gründe warum RDNA3 keinen MPT-Support bekommt sind erstmal völlig latte. Nur wenn da nichts kommt dann sollte AMD halt nicht mit so einem Witz wie max. -10% PT ankommen bei diesen modernen Wattschleudern. Bei Polaris hatten sie auch -50% bis +50% auf die Reihe bekommen. Letzteres kann man gerne kleiner wählen damit einem die Grafikkarte nicht um die Ohren fliegt.
Läuft die 7900xtx dauerhaft mit 464W?
dargo
2023-09-26, 13:05:52
Läuft die 7900xtx dauerhaft mit 464W?
Was ist das denn wieder für eine seltsame Frage? Wenn man das entsprechende PT wählt und die Grafikkarte gefordert wird wird diese auch dauerhaft 464W schlucken.
btw.
Um das mal in Relation zu setzen... mein gesamtes System liegt aktuell im Gaming bei ca. 300-320W Brutto. Da sind ca. 260-280W Netto vor dem Netzteil. Wann bekomme ich deutlich mehr Performance (im besten Fall Faktor 2) im vergleichbaren Powerbudget? Mit RDNA4 Ende 2024/Anfang 2025 oder erst RDNA5 Ende 2026/Anfang 2027? :ulol:
OgrEGT
2023-09-26, 13:07:29
Was ist das denn wieder für eine seltsame Frage? Wenn man das entsprechende PT wählt und die Grafikkarte gefordert wird wird diese auch dauerhaft 464W schlucken.
VV schreibt dass er max 464W einstellen kann... hab mich gefragt ob er das dann auch ständig so nutzt... muss ja nicht sein...
Rancor
2023-09-26, 14:33:31
Was ist das denn wieder für eine seltsame Frage? Wenn man das entsprechende PT wählt und die Grafikkarte gefordert wird wird diese auch dauerhaft 464W schlucken.
btw.
Um das mal in Relation zu setzen... mein gesamtes System liegt aktuell im Gaming bei ca. 300-320W Brutto. Da sind ca. 260-280W Netto vor dem Netzteil. Wann bekomme ich deutlich mehr Performance (im besten Fall Faktor 2) im vergleichbaren Powerbudget? Mit RDNA4 Ende 2024/Anfang 2025 oder erst RDNA5 Ende 2026/Anfang 2027? :ulol:
Das intressiert die meisten User aber nicht wirklich. Siehe die 4090 Käufer. Und wenn das Teil 800Watt fressen würde, es würde sich trotzdem verkaufen.
dargo
2023-09-26, 14:37:51
Das intressiert die meisten User aber nicht wirklich. Siehe die 4090 Käufer. Und wenn das Teil 800Watt fressen würde, es würde sich trotzdem verkaufen.
Das glaube ich nicht. Irgendwann ist die Schmerzgrenze erreicht. Bei dem einem fängt es früher an, bei dem anderen später. Einen Heizofen von 800W kriegst du gar nicht mehr akzeptabel mit Luft gekühlt. Nicht immer nur in dieser 3DC-Nerd-Blase denken. Es gibt übrigens auch RTX 4090 Käufer die ihre Karte undervolten, warum wohl?
Die 600W macht die 5090Ti mMn noch voll (falls das Teil kommt, 4090Ti ist ja abgesagt und die wär ja 550-600W gelandet).
Der 12V-2x6 Stecker wird da die Grenze für lange Zeit vorgeben mMn. Low-End so bis ca. 160W, Maintream bis ca. 220W, Performance bis ca. 320W, High-End bis 450W, Bekloppte bis 600W.
vinacis_vivids
2023-09-26, 20:15:47
Hin und wieder gibs die ~464W
https://abload.de/thumb/aufdemgipfel130ghzhzd1kdko.jpg (https://abload.de/image.php?img=aufdemgipfel130ghzhzd1kdko.jpg)
Bei der Decima Engine werden 3,0Ghz erreicht.
60fps Begrenzung mit Radeon-Chill auf ~328W und 2,58Ghz
https://abload.de/thumb/aufdemgipfel1chill30g0vc5i.jpg (https://abload.de/image.php?img=aufdemgipfel1chill30g0vc5i.jpg)
GerryB
2023-09-27, 07:19:47
1. bzgl. offenem PL
Das kann man derzeit nur mit EVC2 erreichen. Wers braucht, einfach mal im Luxx erklären lassen.
(wo genau das Teil angelötet wird)
VV kann sich in der HoF alternativ die Scores der Luxxer anschauen, ... siehe Anhang
(sein eigener Bench würde da keine neuen Erkenntnisse bringen)
2. bzgl. RDNA3 fehlt das MPT
eigentlich NICHT, weil die üblichen Einsparmaßnahmen bei SOC+Vram kaum Was bringen
(Wer weniger W verbrauchen will kann eeh im WM etwas UVen, ... 23.9.1 geht ganz gut, ... und Fps-Limit setzen)
Dant3
2023-09-28, 02:02:00
Hat hier jemand die Hellhound (7900 xt oder xtx egal) verbaut und kann mir sagen, ob bei ihm auch ein leises Lagergeräusch des/der Lüfter auftritt, sobald diese anfangen zu drehen?
Drehzahl ist dabei egal, faengt beim Minimum an und besteht gleichbleibend bei 40%.
Würde gerne wissen ob es da eine Serienstreuung gibt oder ob es für dieses Modell normal ist.
Edit: Hat sich im Prinzip erledigt. Habe alle Lüfter mal einzeln angehalten und diese selber sind sehr laufruhig, scheint wohl die Elektronik auf der Karte zu sein, da das Geräusch permanent bestehen bleibt.
Nun, da nutzen auch sehr niedrige 600rpm minimaldrehzahl nichts, wenn da so ein Pfeifkonzert bei entsteht. Es ist auf jeden Fall so laut, dass ich es bereits im idle über die sonstigen case Lüfter heraus höre. Das war dann mal nichts und die Suche geht weiter :/.
horn 12
2023-09-28, 06:52:50
Das hat die Hellhound XTX oftmals und nennt sich Spulenfiepen!
Schnitzl
2023-09-28, 14:44:05
Hat hier jemand die Hellhound (7900 xt oder xtx egal) verbaut und kann mir sagen, ob bei ihm auch ein leises Lagergeräusch des/der Lüfter auftritt, sobald diese anfangen zu drehen?
Drehzahl ist dabei egal, faengt beim Minimum an und besteht gleichbleibend bei 40%.
Würde gerne wissen ob es da eine Serienstreuung gibt oder ob es für dieses Modell normal ist.
Edit: Hat sich im Prinzip erledigt. Habe alle Lüfter mal einzeln angehalten und diese selber sind sehr laufruhig, scheint wohl die Elektronik auf der Karte zu sein, da das Geräusch permanent bestehen bleibt.
Nun, da nutzen auch sehr niedrige 600rpm minimaldrehzahl nichts, wenn da so ein Pfeifkonzert bei entsteht. Es ist auf jeden Fall so laut, dass ich es bereits im idle über die sonstigen case Lüfter heraus höre. Das war dann mal nichts und die Suche geht weiter :/.
versuch mal die fps zu limitieren
entweder mit vsync oder in der Treibersoftware mit chill
wenns dann weg ist sinds die Spulen ;)
aufkrawall
2023-09-28, 15:23:53
Man kann auch einfach die Lüfter ohne 3D-Last via Software händisch aufdrehen lassen?! :freak:
Dant3
2023-09-28, 17:19:44
Es sind weder die Spulen noch die Lüfter direkt. 2min Nach meinem Posting bin ich dann auch drauf gekommen, die Lüfter per Afterburner einfach ohne Last andrehen zu lassen und habe sie dann einzeln per Hand gestoppt. Entsprechend das Fazit, es ist die Elektronik auf der Karte, die die Lüfter antreibt, die dieses unangenehme Geräusch von sich gibt.
Die Spulen waren je nach Spiel auch jenseits von gut und böse. Bis 60 fps im geschlossenen Gehäuse am Boden ist es noch ok, Richtung 100 wird es schon sehr auffällig. Man kann es auf jeden Fall zu jedem Zeitpunkt aus dem restlichen System raus hören und ab dem dreistelligen Bereich muss man es schon gezielt ignorieren können, damit es nicht zu sehr stört.
Ich hatte ja auch erst gedacht, es liegt primär daran wie viel Watt durch die Karte geht, aber Baldurs Gate 3 mit uncapped fps und 355~ Watt Verbrauch Schreit z.b wie die Hölle, wohingegen Cyberpunk mit maximalen Verbrauch und nur knapp 60 fps relativ ruhig bleibt. FFXIV dagegen, 120 fps mit nur 200~ Watt Aufnahme war auch sehr ruhig.
Das übelste Geschreie gibt es also bei maximalem Verbrauch gekoppelt mit hohen FPS. Undervolting hat auch kaum Besserung gebracht. Bin bis auf 1025mv (von 1100) runter, aber die Spulen sind einfach von Grund auf viel zu laut, als das man mit solchen Babysprüngen wirklich etwas retten könnte.
Am Ende habe ich die Karte heute zurück geschickt. Insgesamt ist das alles bei den aufgrerufenen Preisen einfach nicht akzeptabel für mich.
aufkrawall
2023-09-28, 17:24:55
Hatte ich hier übrigens auch schon für die Hellhound erwähnt. Es war allerdings nur ein leises Surren, das nach etwas Aufwärmen zum Glück noch leiser wurde. Hoffentlich wurd da bei neueren Produktionschargen kein Mist gebaut.
Spulen sind leider Glückssache und eigentlich kein Rückgabegrund. Man kann echt Pech haben und eine echt laute Karte erwischen, egal welcher Hersteller. Meine ist auch ziemlich leise, selbst unter vollen 355W. Nutze ich natürlich nicht, meine bleibt auf den 315W. Die XFX Merc 319 RX6800, die ich vorher hatte, hatte lautere Spulen als die Hellhound jetzt.
The_Invisible
2023-09-28, 17:37:22
Diese Gen ist besonders schlimm mit Spulen/fiepen, egal ob Nvidia oder AMD. Könnte mich nicht erinnern vor dieser Generation besonders darauf geachtet zu haben beim Kauf, einfach die Karte mit den besten Lüftern und fertig.
Gibt ja bei Hardwareluxx & Co lustige Threads darüber, die besten Karten sind vermehrt betroffen.
Dant3
2023-09-28, 17:37:57
Ich hatte im Vorfeld schon nach der Hellhound hier recherchiert, aber das mit dem Motorgeräusch ist mir leider entgangen, sonst hätte ich sie gar nicht erst bestellt. Hatte sie ja extra ausgewählt, weil (ich glaube du warst es) hier die geringe Anlaufdrehzahl genannt wurde.
Das Geräusch war bei mir auf jeden Fall lauter als die Lüfter selber bis 900~ RPM. Wenn alles unter Last hoch dreht, mag es auch nicht so schlimm sein, aber in meinem leicht gedämmten Case, mit langsam drehenden Lüftern, werden die Karten im Idle bzw. bei Twitch/Youtube schon mal so Warm, dass der Zero RPM Modus überschritten wird und dann sticht dieser nervige Ton leider hervor.
Meine 6800 Nitro gibt auch ein elektronisches Geräusch von sich, wenn die Lüfter mit minimaler RPM (600 ~) anfangen zu laufen, aber da muss man wirklich schon mit dem Ohr direkt neben der Karte liegen, um es zu hören.
Dant3
2023-09-28, 17:49:24
Spulen sind leider Glückssache und eigentlich kein Rückgabegrund. Man kann echt Pech haben und eine echt laute Karte erwischen, egal welcher Hersteller. Meine ist auch ziemlich leise, selbst unter vollen 355W. Nutze ich natürlich nicht, meine bleibt auf den 315W. Die XFX Merc 319 RX6800, die ich vorher hatte, hatte lautere Spulen als die Hellhound jetzt.
Das mit den Spulen hatte ich ja auch im Vorfeld erwartet und ich war drauf und dran mich zu arrangieren, eben weil es auch je nach Spiel deutlich schwankte. Die Lüfterelektronik fiel mir dann aber während des Testens zusätzlich auf und danach war ich dann auch durch mit dem ganzen Thema. Das sind für mein Empfinden einfach zu viele Kompromisse für die aufgerufenen Preise und ich werde auch keine weitere 7900er bestellen.
Zusätzlich war die Abwärme der Karte auch irgendwo zu viel für mein Case. Der 5800X3D wurde teilweise 84 - 85 Grad Warm, wo er mit der 6800er maximal 80 erreichte.
Diese Gen ist besonders schlimm mit Spulen/fiepen, egal ob Nvidia oder AMD. Könnte mich nicht erinnern vor dieser Generation besonders darauf geachtet zu haben beim Kauf, einfach die Karte mit den besten Lüftern und fertig.
Gibt ja bei Hardwareluxx & Co lustige Threads darüber, die besten Karten sind vermehrt betroffen.
Was auch kein Wunder ist, wenn man sich die PCBs so anschaut. Es sind einfach deutlich mehr Spulen.
horn 12
2023-09-29, 00:47:08
FSR 3.0 kommt endlich Heute
Twitterpost von Frank Azor:
https://twitter.com/AzorFrank/status/1707496318921293925
Nice, dann stimmte das "September" ja doch. :up:
MfG
Raff
DrFreaK666
2023-09-29, 01:27:41
Im FSR-Thread schaut keiner nach :P
Hoffe das taugt
GerryB
2023-09-29, 11:34:06
Forspoken@FSR3+FMF dann als Spulentester, mit viel Fps.
(bei meiner ollen 6800 keine Geräusche)
vinacis_vivids
2023-09-30, 02:52:29
Star Atlas UE5@EPIC 5120X2160
Bei UE5 schafft meine 7900XTX auch wieder die magische ~3,0Ghz
https://abload.de/thumb/staratlas30.09.202302wgitx.jpg (https://abload.de/image.php?img=staratlas30.09.202302wgitx.jpg)
Bandit3644
2023-09-30, 07:13:31
Ich habe mal bisschen herumgespielt, macht echt Laune. Die Fluid Motion Frames mit FSR2 funktionieren auch ganz gut. The Witcher 3 und Cyberpunk 2077 in 4K RT Ultra Einstellungen mit einer 7900XT 100-130 FPS, auch in Starfield komme ich in 4K @Ultra auf ca.175 FPS. Bei Star Wars Jedi: Survivor und The Last of Us ca. eine Verdoppelung der FPS erhalten, spielt sich ganz gut. Dann warten wir mal ab was FMF mit FSR3 und richtig in den Games implementiert zu bieten hat.
M4xw0lf
2023-09-30, 09:03:25
Da ich eh noch mit 60 Hz unterwegs bin, stellt sich mir eher die Frage, ob ich mit FMF den Stromverbrauch der 7900XT senken kann und dabei immer noch ein ordentliches Spielgefühl erhalte. Werde das mal ausprobieren die Tage, habe noch ein paar unterstützte Spiele auf der Platte (Control, HZD, Jedi Survivor).
dargo
2023-10-02, 07:51:46
Vergiss es... für FMF sind 60Hz viel zu niedrig.
btw.
Ich bräuchte bitte ein kleines Feedback ausschließlich von RX 7900XT Usern die eine Karte haben die bei 90% PT "nur" noch ~280W verbraucht. Wie weit müsst ihr den max. Boost in Wattman absenken damit ihr auf einen Verbrauch von ~260W kommt? Hier gibt es was wichtiges zu beachten! Bitte nur mit A Plague Tale Requiem testen weil dieses Game die höchste Heizlast erzeugt. Sollte jemand dieses Game nicht haben gerne was anderes, in diesem Fall dann aber schauen wie weit der max. Boost abgesenkt werden muss um ~230W zu erreichen. Und bitte auf keinen Fall bei der Voltage im Treiber drehen, nur den max. Boost absenken!
OgrEGT
2023-10-02, 08:20:06
Vergiss es... für FMF sind 60Hz viel zu niedrig.
btw.
Ich bräuchte bitte ein kleines Feedback ausschließlich von RX 7900XT Usern die eine Karte haben die bei 90% PT "nur" noch ~280W verbraucht. Wie weit müsst ihr den max. Boost in Wattman absenken damit ihr auf einen Verbrauch von ~260W kommt? Hier gibt es was wichtiges zu beachten! Bitte nur mit A Plague Tale Requiem testen weil dieses Game die höchste Heizlast erzeugt. Sollte jemand dieses Game nicht haben gerne was anderes, in diesem Fall dann aber schauen wie weit der max. Boost abgesenkt werden muss um ~230W zu erreichen. Und bitte auf keinen Fall bei der Voltage im Treiber drehen, nur den max. Boost absenken!
APTR hab ich leider nicht...
Aktuell installiert hab ich CP2077 RDR2 SotTR
RDR2 mag kein RTSS und CapFX im Hintergrund...
Juckt dich der RDNA3 Bestell-mich Finger wieder :ulol:
dargo
2023-10-02, 08:32:19
Juckt dich der RDNA3 Bestell-mich Finger wieder :ulol:
Nicht wirklich jetzt wo meine RX 6800XT im Schnitt eher bei 220-230W liegt (gesamte Karte). Es sei denn ich komme mit der RX 7900XT da auch hin. :D Könntest du das mal bei dir testen für mich? CP77 und SotTR reichen mir völlig, ich kenne die Heizlast dieser Spiele. Dort dann bitte 220-230W anpeilen.
OgrEGT
2023-10-02, 08:42:59
Nicht wirklich jetzt wo meine RX 6800XT im Schnitt eher bei 220-230W liegt (gesamte Karte). Es sei denn ich komme mit der RX 7900XT da auch hin. :D Könntest du das mal bei dir testen für mich? CP77 und SotTR reichen mir völlig, ich kenne die Heizlast dieser Spiele. Dort dann bitte 220-230W anpeilen.
Ich schaus mir heute abend bzw morgen am Feiertag mal an... Auflösung 3440x1440 oder 2560x1440?
Welche Einstellungen im Spiel? Alles Ultra TAA kein FSR? RT in CP?
dargo
2023-10-02, 08:49:29
2560x1440 nativ bitte ohne Upscaling, CP77 ohne RT. Entweder Ultra-Preset ohne RT oder HUB-Settings ohne RT. Such dir was aus.
https://www.youtube.com/watch?v=B03_Aa5NwIY
Bei CP77 einfach den Benchmark nehmen, das reicht mir. Wichtig ist hier nur vorher nicht spielen sonst sind die Ergebnisse verfälscht. Bei SotTR reicht mir eigentlich der erste Abschnitt vom Benchmark auch schon aus. Und logge bitte dabei die GPU-Frequenzen, die GPU-Spannung und den Verbrauch mit CapFrameX mit.
OgrEGT
2023-10-03, 08:27:35
Habe CP2077 getestet. Allerdings mit 3440x1440.
Konnte 2560x1440 in CP2077 nicht einstellen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85462&stc=1&d=1696314392
dargo
2023-10-03, 08:36:34
Puh... danke für deine Mühe, aber irgendwie sind die Ergebnisse für mich nicht nachvollziehbar.
1. Hast du jetzt doch an der Voltage in Wattman gedreht oder sind die max. 1100mV bei der RX 7900XT Default?
2. Warum setzt sich die erste Messung so stark ab von der zweiten Messung bei den avgs.?
3. Warum ist Run 4 trotz weniger Frequenz und logischerweise Verbrauch nicht langsamer als Run 3 bei den avgs.? :freak:
Normalerweise ist der Benchmark von CP77 sehr zuverlässig. Hast du nach jeder Messung das Game auch neu gestartet? Und immer nur die erste Messung verwenden.
PS: sind max. 2825Mhz/1100mV Default bei der Karte in Wattman?
OgrEGT
2023-10-03, 09:06:36
Puh... danke für deine Mühe, aber irgendwie sind die Ergebnisse für mich nicht nachvollziehbar.
1. Hast du jetzt doch an der Voltage in Wattman gedreht oder sind die max. 1100mV bei der RX 7900XT Default?
2. Warum setzt sich die erste Messung so stark ab von der zweiten Messung bei den avgs.?
3. Warum ist Run 4 trotz weniger Frequenz und logischerweise Verbrauch nicht langsamer als Run 3 bei den avgs.? :freak:
Normalerweise ist der Benchmark von CP77 sehr zuverlässig. Hast du nach jeder Messung das Game auch neu gestartet? Und immer nur die erste Messung verwenden.
PS: sind max. 2825Mhz/1100mV Default bei der Karte in Wattman?
1100mV sind Default
2825MHz ist der Wert den ich sonst auch eingestellt habe 2795 ist glaube ich Default...
Der erste avg Wert kommt wahrscheinlich daher da ich das Capture evtl früher gestartet habe und da ein paar fps aus dem Ladebildschirm reingekommen sind...
Was genau willst Du denn ableiten? Es geht um grobe Richtwerte... wenn Du die TBP in Richtung 200W drücken willst dann musst du den GPU Takt zumindest bei CP2077 in Richtung 2GHz begrenzen...
Habe nochmal nachgeschaut. Default Einstellungen 23.9.3 Treiber sind sogar 2845MHz und 1100mV... (Ich meine das Taklimit war bei einer früheren Treiberversion niedriger...)
vinacis_vivids
2023-10-03, 12:25:09
7900XTX @ 2,8-3,0Ghz ~ 464W
5120 X 2160 Auflösung
37fps Native AA
https://abload.de/thumb/forspokendemo03.10.20qufdm.jpg (https://abload.de/image.php?img=forspokendemo03.10.20qufdm.jpg)
61fps FSR3-Q
https://abload.de/thumb/forspokendemo03.10.208digp.jpg (https://abload.de/image.php?img=forspokendemo03.10.208digp.jpg)
102fps FSR3-Q FG
https://abload.de/thumb/forspokendemo03.10.2038ep8.jpg (https://abload.de/image.php?img=forspokendemo03.10.2038ep8.jpg)
37fps -> 61fps FSR-Q (+65%)
37fps -> 102fps FSR-Q + FG (+175%)
OgrEGT
2023-10-03, 12:44:52
So jetzt nochmal genauer vermessen...
Treiber: PL-10% GPU Voltage: 1100mV (Default)
CP2077 3440x1400 Ultra RToff
Nach jedem Run Spiel neu gestartet
Es bleibt dabei... Um auf 200W TBP zu kommen muss der GPU Takt in dem Spiel auf ca 2000MHz begrenzt werden.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85468&stc=1&d=1696329712
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85469&stc=1&d=1696329721
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85470&stc=1&d=1696329730
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85471&stc=1&d=1696329739
Schnitzl
2023-10-03, 14:44:18
wow super danke dir OgrEGT! :up:
sowas hab ich gesucht
die performt sogar mit 185W noch... aktzeptabel - schade dass WQHD nicht geht aber wird einfach ein wenig mehr sein :)
OgrEGT
2023-10-03, 14:56:01
wow super danke dir OgrEGT! :up:
sowas hab ich gesucht
die performt sogar mit 185W noch... aktzeptabel - schade dass WQHD nicht geht aber wird einfach ein wenig mehr sein :)
Perf/W ist im Vergleich mit RDNA2 glaub ich nicht wirklich schlechter geworden... ist eben nur nicht gestiegen wie es mit 5nm zu erwarten gewesen wäre. Im Prinzip skaliert RDNA3 die Performance über RDNA2 hinaus weiter, allerdings auch mit mehr Stromverbrauch...
vinacis_vivids
2023-10-03, 17:08:58
7900XTX @ 2,5-2,6Ghz ~ 363W
36fps Native AA
https://abload.de/thumb/forspokendemo03.10.20yifxo.jpg (https://abload.de/image.php?img=forspokendemo03.10.20yifxo.jpg)
59fps FSR-Q
https://abload.de/thumb/forspokendemo03.10.203rdha.jpg (https://abload.de/image.php?img=forspokendemo03.10.203rdha.jpg)
98fps FSR3-Q + FG
https://abload.de/thumb/forspokendemo03.10.20fiehx.jpg (https://abload.de/image.php?img=forspokendemo03.10.20fiehx.jpg)
Fazit: 100W weniger Verbrauch bei (nahezu) gleicher Leistung. Forspoken reagiert (fast) gar nicht auf GPU-Takt. Da limitiert irgendwas anderes (wahrscheinlich Bandbreite und IF$?).
dargo
2023-10-03, 18:27:19
So jetzt nochmal genauer vermessen...
Treiber: PL-10% GPU Voltage: 1100mV (Default)
CP2077 3440x1400 Ultra RToff
Nach jedem Run Spiel neu gestartet
Es bleibt dabei... Um auf 200W TBP zu kommen muss der GPU Takt in dem Spiel auf ca 2000MHz begrenzt werden.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85468&stc=1&d=1696329712
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85469&stc=1&d=1696329721
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85470&stc=1&d=1696329730
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85471&stc=1&d=1696329739
Wir wollen nicht übertreiben, mein Ziel sind nicht 200W für die ganze Karte. ;)
Danke für den Test, sehr aufschlussreich. Mein Powerbudget ist eher der dritte Run von oben bei dir. Ergo müsste ich mich mit ~2,2Ghz zufrieden geben. Mit etwas Glück durch UV eventuell ~2,3Ghz, aber das ist immer etwas Lotterie. Etwas blöd finde ich, dass es gleich -6% Performance ist. Aber gut... sind auch 10% weniger Takt. Blöde Physik. :D Nee... wenn ich das so sehe warte ich auf RDNA4. Da müsste die RX 7900XT Custom schon 600€ kosten damit ich mich damit zufrieden gebe.
OgrEGT
2023-10-03, 19:43:54
Jau 200W ist nicht viel aber ohne RT mit Ultra Settings kann man schon lassen :)
Ich habe mein Powerbudget so bei 280W... Deshalb hab ich mich seinerzeit für die XT entschieden da das Powerbudget für die Leistung für meinen Monitor mit 3440x1440 und 100Hz VRR genau passt...
Für mich ein sehr guter Kompromiss aus Leistung und Bildqualität und damit Spielspaß bei vernünftigem Aufwand...
Erste Benchmarks aus dem neuen Forza Motorsport: https://www.pcgameshardware.de/Forza-Motorsport-Spiel-2204/Tests/Forza-Motorsport-8-Release-Test-Benchmarks-1430407/
7900 XTX auf dem Niveau einer RTX 3080: Uff, da scheint die Handbremse zu klemmen - kenne ich von meinem Auto.
MfG
Raff
Linmoum
2023-10-04, 10:16:38
Liefen Radeons nicht schon beim letzten Forza Horizon monatelang extrem mies?
RDNA 3 lief in FH5 das erste halbe Jahr nicht optimal, da konnte eine 6950 XT schon mal die 7900 XT anknabbern. Das ist seit dem Juli-Treiber aber gefixt (https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-2371-Benchmark-Test-Forza-Horizon-5-1424071/). Was gerade bei Motorsport abgeht, ist eine Spur schlimmer.
MfG
Raff
dargo
2023-10-04, 10:37:47
Erste Benchmarks aus dem neuen Forza Motorsport: https://www.pcgameshardware.de/Forza-Motorsport-Spiel-2204/Tests/Forza-Motorsport-8-Release-Test-Benchmarks-1430407/
7900 XTX auf dem Niveau einer RTX 3080: Uff, da scheint die Handbremse zu klemmen - kenne ich von meinem Auto.
Oder einfach weniger Betasoftware testen. ;) Die 2070 Super geht da ab wie Schmitz Katze in WQHD.
PS: auch, dass eine RTX 3060TI ohne RT fast eine RX 6800XT erreicht ist natürlich völlig normal. :D
RoughNeck
2023-10-04, 12:39:31
Die Min FPS der 4090er sind höher als die AVG FPS der XTX.
Da hat AMD noch viel Treiberarbeit vor sich.
dargo
2023-10-04, 12:50:05
Der offizielle Treiber ist noch gar nicht erschienen weil das Game noch gar nicht da ist. ;D
Taigatrommel
2023-10-04, 15:21:33
Oder einfach weniger Betasoftware testen. ;) Die 2070 Super geht da ab wie Schmitz Katze in WQHD.
PS: auch, dass eine RTX 3060TI ohne RT fast eine RX 6800XT erreicht ist natürlich völlig normal. :D
Ja da ist einiges merkwürdig, das mit der 3060 Ti ist mir auch aufgefallen, in 3440x1440 ist die 6800 XT gerademal 13% schneller als die 3060 Ti - in Rasterizing, wohlgemerkt. Schaltet man RT ein, sind es auf einmal 60% Vorsprung. Geht man noch eine RDNA Generation zurück fällt auch die 5700 XT auf, welche sich der Radeon RX 590 geschlagen geben muss - die müsste eigentlich spürbar schneller sein, es sei denn, hier wären die 8 GB Grafikspeicher ein absoluter Flaschenhals, doch dann wäre die 3060 Ti nicht so gut.
OgrEGT
2023-10-04, 19:43:11
https://videocardz.com/newz/windows-11-update-may-reset-amd-adrenalin-gpu-driver-settings
Echt ätzend dass man mit Windows Update so eine unausgereifte Bloat Software dazubekommt...
Immerhin sollte man seine Treiber Settings speichern und wieder importieren können...
GerryB
2023-10-06, 19:07:19
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-30-afmf-tech-preview
Ist ein bisserl OT, weil jetzt Treiber-AFMF auch für die 6000er.
(andererseits gibts hier im Thread genügend Leser mit RDNA2)
Da kann dargo@6800xt sich dann direkt mit ner 7800xt vgl., ... auch mit FG.
bei Forspoken und integriertem FG ging FRTC
aber
bei Treiber-FMF geht FRTC nicht
edit:
bei nicht gelisteten Games sollte man ggf. ein Spielprofil anlegen und dort das FMF händisch aktivieren
DrFreaK666
2023-10-06, 19:26:15
GEIL :D
Habe das Wochenende kindfrei. ^^
Poste das doch noch in den FSR Thread
Redneck
2023-10-07, 09:52:31
Hat einer von euch eine VR Brille und könnte das Treiber FMF mal in VR testen?
Es gibt sie noch, die Fälle, wo eine 7900 XTX einer RTX 4090 davonlaufen kann. Knapp, aber hey, Ubi-Engines liegen Radeons: https://www.pcgameshardware.de/Assassins-Creed-Mirage-Spiel-74010/Tests/Assassins-Creed-Mirage-Benchmarks-Test-1430382/2/
MfG
Raff
Exxtreme
2023-10-07, 20:44:51
Es gibt sie noch, die Fälle, wo eine 7900 XTX einer RTX 4090 davonlaufen kann. Knapp, aber hey, Ubi-Engines liegen Radeons: https://www.pcgameshardware.de/Assassins-Creed-Mirage-Spiel-74010/Tests/Assassins-Creed-Mirage-Benchmarks-Test-1430382/2/
MfG
Raff
In UHD gewinnt die RTX 4090 wieder mit +20%. :) Aber ja, die Engine liegt den Radeons sehr.
GerryB
2023-10-07, 21:05:32
Was soll immer der Schmarrn die 4090 mit der wesentlich kleineren 7900xtx zu vgl., wenn schon dann die 4080.(x)
(von P/L ganz zu schweigen)
(x) man muss die reinen Shaderflächen vom Silizium hernehmen, und dann ...
hat die 4090 ca. 90% mehr
Für mich = Äpfel vs. Birnen!
Topmodelle unter sich. Umso besser, wenn die "kleine" Karte dann an der großen vorbeikommt. Das Abschneiden in Mirage ist weit überdurchschnittlich, die RTX 4080 chancenlos.
MfG
Raff
dargo
2023-10-07, 21:07:39
Es gibt sie noch, die Fälle, wo eine 7900 XTX einer RTX 4090 davonlaufen kann. Knapp, aber hey, Ubi-Engines liegen Radeons: https://www.pcgameshardware.de/Assassins-Creed-Mirage-Spiel-74010/Tests/Assassins-Creed-Mirage-Benchmarks-Test-1430382/2/
MfG
Raff
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13408675&postcount=162 :ulol:
Aus diesem Grund war das nur ein Teaser (der Benchmark ging so nicht live, war nur im CMS), der Treiber war ja abzusehen. Heutzutage veralten Aussagen schneller als Frischmilch, daher bin ich ja quasi 24/7 am Arbeiten. ;)
MfG
Raff
Wiseman
2023-10-07, 21:34:45
Das Abschneiden in Mirage ist weit überdurchschnittlich, die RTX 4080 chancenlos.
MfG
Raff
Raff, ich befürchte, du hast heute nicht noch einmal in den AMD-Treiberthread reingeschaut. Ich habe dich in diesem Thread vor ein paar Minuten um Folgendes gebeten:
Raff, wenn du mal Zeit hast, bench bitte den integrierten Benchmark mit eurer 4090 in 4k, damit ich besser die Leistung meiner 312W-limitierten Custom 7900XTX einordnen kann. Kannst hier antworten oder in meinem Benchmark-Thread.
Ich hänge leider gerade in der Welt von 200-Euro-Grafikkarten fest und muss da noch eine Nachtschicht durchmessen. Du kannst aber gerne mal die PCGH-Szene abrennen, die skaliert stark mit Pixeln:
3VlcDfWkAn4
MfG
Raff
Wiseman
2023-10-07, 22:06:03
Ich hänge leider gerade in der Welt von 200-Euro-Grafikkarten fest und muss da noch eine Nachtschicht durchmessen. Du kannst aber gerne mal die PCGH-Szene abrennen, die skaliert stark mit Pixeln:
MfG
Raff
Ich denke, ich werde deine PCGH-Szene irgendwann mal abrennen, aber jetzt aktuell würde mich halt dein 4090-er Ergebnis (4k, deine üblichen max Details, TAA, Native) aus dem Integrierten Benchmark brennend interessieren. Ist doch zeitlich gesehen ein Klacks. Spiel aufrufen, Benchmark aufrufen und 1 1/2 Minuten später siehst du das Ergebnis. Aber das weißt du ja als erfahrener Profi-Benchmarker selber. Natürlich musst du das nicht heute Nacht machen. Ich hab doch geschrieben, wenn du mal Zeit hast. Also morgen oder übermorgen?
The_Invisible
2023-10-07, 22:34:12
Es gibt sie noch, die Fälle, wo eine 7900 XTX einer RTX 4090 davonlaufen kann. Knapp, aber hey, Ubi-Engines liegen Radeons: https://www.pcgameshardware.de/Assassins-Creed-Mirage-Spiel-74010/Tests/Assassins-Creed-Mirage-Benchmarks-Test-1430382/2/
MfG
Raff
Oder Fälle wie Forza mit RT wo sie hinter einer 3080 liegt... hilft halt nix einzelne Spiele als Status quo darzustellen
BlacKi
2023-10-07, 22:34:27
Ich hab doch geschrieben, wenn du mal Zeit hast. Also morgen oder übermorgen?
also hier in D hat man nach den 24/7 schichten erstmal frei.
DrFreaK666
2023-10-07, 23:04:26
Oder Fälle wie Forza mit RT wo sie hinter einer 3080 liegt... hilft halt nix einzelne Spiele als Status quo darzustellen
Macht Raff doch gar nicht. Er sagt eindeutig, dass das eine Eigenart der Engine ist, und nicht der Ist-Zustand allgemein
Schnitzl
2023-10-07, 23:05:50
Oder Fälle wie Forza mit RT wo sie hinter einer 3080 liegt... hilft halt nix einzelne Spiele als Status quo darzustellen
Wo macht er das?
Es gibt sie noch, die Fälle, ....
Es geht da um Einzelfälle :rolleyes:
/Edit: zu laaaaangsam
/Edit 2: ich finde den Zuwachs durch die neuen Treiber viel interessanter. Krass wieviel da doch noch möglich ist.
WQHD kurz mal 10 fps mehr bei den P1 :eek:
The_Invisible
2023-10-07, 23:24:14
Macht Raff doch gar nicht. Er sagt eindeutig, dass das eine Eigenart der Engine ist, und nicht der Ist-Zustand allgemein
Sry, meinte auch gar net Raff...
Ich denke, ich werde deine PCGH-Szene irgendwann mal abrennen, aber jetzt aktuell würde mich halt dein 4090-er Ergebnis (4k, deine üblichen max Details, TAA, Native) aus dem Integrierten Benchmark brennend interessieren. Ist doch zeitlich gesehen ein Klacks. Spiel aufrufen, Benchmark aufrufen und 1 1/2 Minuten später siehst du das Ergebnis. Aber das weißt du ja als erfahrener Profi-Benchmarker selber. Natürlich musst du das nicht heute Nacht machen. Ich hab doch geschrieben, wenn du mal Zeit hast. Also morgen oder übermorgen?
Dienstag, frühestens. Evtl. ist bis dahin auch ein angepasster NV-Treiber am Start. :)
MfG
Raff
GerryB
2023-10-08, 05:02:56
@Wiseman
Vermutlich wird der integrierte Benchmark ein mue ... 1-2%(?) günstiger für RDNA3 vs NV sein als die Szene von Raff.
= näher an der realen Fps bei 95% des Spielverlaufs
btw.
Das hat schon seinen Grund warum Raff neuerdings gerne mal am Wasser rumkraucht.
Vermutlich liegen Partikel+Wasserphysik den NV´s generell in Games etwas besser.
The_Invisible
2023-10-08, 08:25:01
Willst damit sagen Raff sucht die Benchmarks gezielt danach aus welche auf NV besser laufen? Sorry langsam wird's absurd hier...
robbitop
2023-10-08, 08:37:01
Topmodelle unter sich. Umso besser, wenn die "kleine" Karte dann an der großen vorbeikommt. Das Abschneiden in Mirage ist weit überdurchschnittlich, die RTX 4080 chancenlos.
MfG
Raff
Hättest du mit der gleichen Logik 2016 die RX480 und die 1080ti miteinander verglichen? Topmodelle unter sich.
Natürlich sind die Segmente in dem Beispiel noch verschiedener aber der Punkt ist dass das Segment von N31 auch ein anderes ist als AD102.
-=Popeye=-
2023-10-08, 12:17:39
Dienstag, frühestens. Evtl. ist bis dahin auch ein angepasster NV-Treiber am Start. :)
MfG
Raff
Einfach das Valhalla Profil mit rBAR ON kopieren und schon gibt es ein paar Bilder gratis.
GerryB
2023-10-08, 18:25:42
Willst damit sagen Raff sucht die Benchmarks gezielt danach aus welche auf NV besser laufen? Sorry langsam wird's absurd hier...
Ersteres kann Zufall sein, aber ansonsten finde ich eher die Szene "absurd".
... man kanns mit worst case Szene rauspicken auch übertreiben
Das Raff ins Wasser geht ist z.Bsp. auch in CS2 so.
(Wie oft kommt das im realen Spiel vor?)
btw.
Bei manchen Games würde ich mir wünschen das mit optimaler Bildqualität getestet wird.
MotionBlur+Filmkorn etc. = OFF, ... evtl. auch mal DoF=off
(praktisch spielt man doch auch nicht mit verblurrtem Bild)
GerryB
2023-10-09, 08:26:07
Bei manchen Games würde ich mir wünschen das mit optimaler Bildqualität getestet wird.
MotionBlur+Filmkorn etc. = OFF, ... evtl. auch mal DoF=off
(praktisch spielt man doch auch nicht mit verblurrtem Bild)
Eine Ausnahme könnte CP2077 sein, wo man die Stärke vom Motion Blur auch mal auf LOW
an lassen kann.
Leider haben die meisten Games diesbezgl. keine Regler sondern nur on/off.
Willst damit sagen Raff sucht die Benchmarks gezielt danach aus welche auf NV besser laufen? Sorry langsam wird's absurd hier...
Ich gehe auf diesen im Kern uralten Quatsch gar nicht mehr ein. Allein die Vorstellung, dass ich nicht nur in jedem Spiel die anspruchsvollsten Szenen suche, was wirklich genug Zeit kostet, sondern unter denen auch noch gezielt die, wo Nvidia gut abschneidet, sagt viel über die Geisteshaltung aus. ;)
Zumal etwas so etwas wie "läuft auf Nvidia besser" nur in Ausnahmefällen gibt. Wenn, dann läuft etwas auf einer starken GPU besser, auf einer mit viel Speichertransferrate, genug VRAM et cetera.
Einfach das Valhalla Profil mit rBAR ON kopieren und schon gibt es ein paar Bilder gratis.
Jo, das mag sein, kompetitive Benchmarks laufen aber ohne jegliche Tweaks/Hacks. Vsync muss weichen, der Rest ist Werkszustand. :)
MfG
Raff
GerryB
2023-10-09, 09:36:51
Ich gehe auf diesen im Kern uralten Quatsch gar nicht mehr ein. Allein die Vorstellung, dass ich ...
Häng doch ganz einfach mal nen Frametimeverlauf von 7900xtx und RTX4080 in die Reviews mit rein.
Wenn die Benchszene lang genug läuft, dann bitte möglichst mit nem trockenen und nem verwässerten Part.
Dann kann sich ganz einfach Jeder seine Meinung bilden.(und zw. PCGH+CB-review vgl.)
(ob womöglich Teil x oder y seiner GPU besser liegt)
btw.
Man könnte z.Bsp. CS2 hernehmen, wo CB auch die Frametimes der 4070 mit der 7800 vgl. hat.(siehe Anhang)
Bei PCGH gibts leider nur die GRE statt der 7800xt.
Das die Szenen in beiden Reviews doch deutlich unterschiedlich sind drängt sich mir "subjektiv" gesehen auf.
Wenn Raff das als Zufall sehen will, bitte sehr, aber ich kann Jedem nur empfehlen, auch mal echtes Gameplay auf YT
zu schauen.
Komisch, bei Starfield hast du dich nicht beschwert, dass das Kräfteverhältnis stark vom Durchschnitt abweicht. ;) Ist übrigens immer noch so, Radeon regelt (weiterhin brutale Benchmarkszene; Teaser aus brandneuen Benchmarks, die morgen debütieren):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85561&stc=1&d=1696842046
MfG
Raff
GerryB
2023-10-09, 11:07:23
Was willst Du jetzt mit SF?
Da hat halt NV zu kleine Cache-Register, um seine Shader richtig auszulasten.
Ob das NV-Treiberteam da noch Was ändern kann, ist nicht das Problem von AMD.
Ich hatte hier im Thread auch schonmal vorgeschlagen, das NV ala Intel einfach für das Game mehr Boosttakt zulassen soll,
das dürfte bei dem niedrigen Verbrauch kein Problem sein.
(Intel hatte das wohl für ältere DX9-11 so mit seinem Boost gemacht, neben dem DXVK-Style)
Ob dann zusätzlich noch rBar helfen tät, who knows.
Da laufen tausende Engineers bei NV rum und nix geht vorwärts, ... seit Jahren.
Linmoum
2023-10-09, 11:22:47
Irgendwelche Starfield-Vergleiche oder Verweise darauf sind sowieso jedes Mal relativ witzlos, weil es auf allen drei Herstellern scheiße läuft für das Gebotene. Und ja, selbst auf Radeons ist das keine annehmbare Performance für diese veraltete Technik und Optik.
GerryB
2023-10-09, 11:26:39
finde ich nicht, ... da ich eeh oft im CPU-Limit bin lass ich das Ganze gemächlich mit FSR2+AFMF laufen
ob nun W/fps total daneben sind, ... glaub ich eigentlich nicht (Takt+W passen ganz gut zusammen)
Irgendwie habe ich das Gefühl, das AFMF den Takt ein bisschen hochzieht durch die höhere AC-Last.
Ex3cut3r
2023-10-09, 19:52:49
Ähmm Ja. Ein 3qm Innenraum ohne NPCs der gar nicht mal so viele Polygone hat. Dafür 86 FPS. In 1800p? Finde ich jetzt FPS mäßig keine Offenbarung mit einer 1200€ GPU. Ehrlich gesagt.
EDIT: Ach so, ist im CPU Limit. Dann frage ich mich, was da so viel CPU Leistung kostet. Es bleibt ein Mix Salat, das Spiel von der Optimierung her.
GerryB
2023-10-09, 20:45:15
In SF hat man meist das CPU-Limit in der Stadt (mit meinem ollen i5 9400F),
das ich damit dann Overall spiele ist praktisch zur Gewöhnung.(per RTSS 43fps = AFMF 86fps)
Damit sollte die CPU nicht ganz oder nur selten tatsächlich limitieren. wäre nicht gut
fürs InputLag.
alternativ
kann ich auch über das Powerlimit der GPU begrenzen, falls tatsächlich 105W dann 25% mehr Fps bringen tät
als die 82Wtgp an der Stelle, ... aber da müsste auch 25% mehr Boost-Takt her, sprich ganz anderes Setting.
(ne 6800 kostet derzeit nur 449€, wenn man sich jetzt auf mein Bild+Fps-limit beziehen will)
edit:
Vorrangig werde ich wohl jetzt erstmal mit dem niedrigen Setting weiter das AFMF testen.
Das richtige FSR3+FG in Forspoken war eigentlich mit den Fps schon ausreichend um mal schnell durchs halbe
Spiel zu rennen und durch die Siedlung.(Forspoken hat nach m.E. durch das RT mehr W gebraucht)
edit2: just for fun kann man auch mal AFMF in älteren Games ausprobieren
k.A. obs sinnvoll ist, aber mal am 60Hz-Moni 120fps eingestellt (siehe Anhang2)
@Wiseman
Vermutlich wird der integrierte Benchmark ein mue ... 1-2%(?) günstiger für RDNA3 vs NV sein als die Szene von Raff.
= näher an der realen Fps bei 95% des Spielverlaufs
btw.
Das hat schon seinen Grund warum Raff neuerdings gerne mal am Wasser rumkraucht.
Vermutlich liegen Partikel+Wasserphysik den NV´s generell in Games etwas besser.
Um das nochmal aufzugreifen: Der Abstand zwischen RX 7900 XTX und RTX 4080 ist im neuen Leistungsindex angewachsen - weil (und nicht obwohl) die Last und somit Skalierung mit Grafikleistung bewusst besser ist. Was sagst du jetzt? :D
So und so: Mehr bald, wenn es Artikel, Balken und Videos zu den Rohdaten gibt.
MfG
Raff
aufkrawall
2023-10-16, 15:36:42
Es ist ein seltenes Ereignis, aber ich muss GerryB zustimmen: Eure Benchmark-Szene am Wasser in der Ödnis mutet sehr seltsam an für ein Spiel, das vermutlich zu ~90% in einer städtischen Umgebung spielt. Die Werte bei CB sind entsprechend auch Radeon-freundlicher.
Von welchem Spiel war denn die Rede? Mir geht's übrigens um das Gesamtbild in einer Benchmark-Zusammenstellung, die "wilder" kaum sein könnte - also tatsächlich etwas, das einem Querschnitt nahekommt. ;)
MfG
Raff
GerryB
2023-10-16, 18:51:30
Ursprünglich gings um ACM und dann als ergänzendes Bsp. um CS2.(am Bächlein)
aber
sei es drum, mir persönlich ist ein Index über alle Games+Resis eeh zu ungenau.
(da hauen dann u.U. irgendwelche Bottlenecks verzerrend rein)
Der ältere Parcour bei TPU ist dann vllt. ergänzend sinnvoll und CB für gemäßigtes RT.
(bei TPU ganz interessant, auf einen Blick, wie die Games der jeweiligen Graka/Treiber so liegen, ab +/-10% vllt. spürbar,
da geb ich Leonidas Recht, das 4-7% Streung jetzt nicht schlimm, ... und kaufentscheidend sind)
Wer Lieblingsspiele hat, wo man >100h zubringt, sollte einfach breiter recherchieren,
mehrere Reviews und auch mal Gameplay auf YT anschauen.
Das Raff jetzt als Erster soviel neue Games im Parcour hat = positiv.
(incl. typischer Unterschiede bei inzwischen 3 Herstellern, ... es wird nicht einfacher, ... besonders hab ich über die A580 in JA gestaunt,
wo Intel irgendeine Optimierung perfekt hinbekommen hat, ... fast so wie im synth. TS, ... aber andererseits noch ein Problem in TLoU!?)
Interessante Sichtweise, dass eine Verrechnung möglichst vieler Datenpunkte "ungenau" ist - das Gegenteil ist der Fall. Wenn überhaupt, dann ist Kirschenpflücken ungenau. Es ist gut, ein buntes Feld mit möglichst vielen Teilnehmern und somit Gesinnungen zu haben. :) Wobei ein Spiel in einem 20er-Feld gar nicht so wild ist - das sind fünf Prozent der Gesamtsumme, sprich: Selbst wenn die Werte massiv vom Durchschnitt abweichen, fällt das kaum ins Gewicht. Bei einem tatsächlich ungenauen Index mit beispielsweise fünf Spielen wäre das wesentlich dramatischer, hier stimmt die Probenmenge einfach nicht, um eine realistische Gesamtbewertung vorzunehmen.
Ich kann aber nochmal bei Webdev fragen, ob ein manuelles Selektieren der Spiele mit eigener Zusammenrechnung gehen würde. Optional, für Power User. Das ist es, was du vermisst, richtig?
Bei Jagged Alliance 3 zeigt sich übrigens, dass nicht etwa Intel stark, sondern AMD schwach ist. Und was bei TPU in The Last of Us klemmt: Möglicherweise testen sie eine besonders VRAM-lastige Szene (wobei das ganze Spiel VRAM-lastig ist) und daher kippt Intel da um. Global kaputt ist das Spiel jedenfalls nicht, sonst wär's auch bei PCGH langsam.
Das Ausarbeiten der Stärken und Schwächen in Prozent ist cool, stimmt, das kommt auch mal wieder auf den Zettel der Stretch Goals für die Aufarbeitung. :up:
MfG
Raff
GerryB
2023-10-16, 21:18:12
Was soll es bringen ne FHD-Graka in 4k zu testen und ne 4090/7900xtx in FHD?
(da hab ich mich auch genauso im CB-Review über Wolfgang mit der GRE aufgeregt, wenn AMD sagt, >1440p nur mit FSR2,
warum wird dann nicht in 4k@FSR2 getestet!?)
Jegliche Ergebnisse(Datenpunkte) außerhalb der Specs sind vertane Zeit vom Reviewer und Leser.
Einerseits auf die Trefferquote vom Cache oder DoubleIssue hinweisen und dann aber stur mit dem Kopf durch die Wand
das Gegenteil von Sinnvoll testen.
bezgl.TLoU
Da müsste ja 8GB von Intel-ARC schlechter reichen als 6GB bei NV-Turing.
The_Invisible
2023-10-16, 21:31:59
Leichter gesagt als getan, unterschiedliche Spiele haben unterschiedliche Anforderungen. Wo eine Mittelklassekarte in einem Spiel vielleicht gerade noch 1440p schafft kann sie in einem anderen Spiel auch locker UHD schaffen. Bezieht man auch noch CPU-Limits + VRAM-Bestückung mit ein kann es das Ergebnis nochmals verfälschen. Dann kommen noch die Stärken/Schwächen der IHVs hinzu.
Da würde man nie ein gemeinsames Performancerating schaffen, außerdem kauft keiner eine Grafikkarte für ein Spiel.
GerryB
2023-10-16, 22:06:29
Aber man könnte Andersrum eine Graka wg. einem wichtigen AAA-Spiel ausschliessen, bzw.
nach nem Modell mit mehr Vram+Bandbreite+Cache schauen.(wenns denn tatsächlich Daran scheitert)
Da müsste man jetzt mal recherchieren, wo z.Bsp. ne GRE ggü. der XT besonders schlecht abschneidet.
(natürlich mit Umrechnung Fps/W und noch in einer sinnvollen Resi)
Es soll ja Leute geben, die nicht zufrieden sind, wenn die 144fps nicht kommen.
(obwohl die GRE in Fps/W genauso gut ausschaut)
Was soll es bringen ne FHD-Graka in 4k zu testen und ne 4090/7900xtx in FHD?
(da hab ich mich auch genauso im CB-Review über Wolfgang mit der GRE aufgeregt, wenn AMD sagt, >1440p nur mit FSR2,
warum wird dann nicht in 4k@FSR2 getestet!?)
Jegliche Ergebnisse(Datenpunkte) außerhalb der Specs sind vertane Zeit vom Reviewer und Leser.
Ich stimme zu, dass das super aufwendig und für die meisten Leser "zu genau" ist, denn UHD und Einsteiger-GPUs passen beispielsweise nicht zusammen. Allerdings ist das nur für mich ein (Zeit-)Problem, denn wofür sonst fertigt PCGH - weltweit einzigartig - fünf Indizes an? Gesamt sowie FHD, WQHD, UWQHD, UHD einzeln. Damit jeder selbst gucken kann, was er braucht. Maximale Information. Der Gesamtindex verrechnet dann alles, mit sehr vielen Datenpunkten, um die Gesamtleistung = Standhaftigkeit einer Grafikkarte bei vielfältiger Last zu bewerten.
MfG
Raff
GerryB
2023-10-17, 09:52:22
Jo, Deine Fleissarbeit ist nice.
(ich persönlich finde UWQHD ganz gut, weil da das PL noch nicht sooo zuschlägt)
vllt. mal generell in den Spielereviews 4k@Upsampling mit reinnehmen
(wie bei LoF, = ganz nützlich)
Oder man könnte auch bei Hardwarereviews 4k durch 4k-Upsampling ersetzen, weil eeh das AA
oft besser ist.(das mit AA sagt Wolfgang von CB)
dito ist in der Praxis dann der Verbrauch in 4k@FSR2 mit 60 Fps-Limit halt am Wichtigsten
(für ne GRE vs 7800xt vs 7900xt)
nach m.E. sind 60fps meist ausreichend, um AFMF zuschalten zu können
(die 70fps-Vorgabe von AMD wird man nur in Einzelfällen brauchen)
Sumpfmolch
2023-10-17, 09:57:46
Wenn ich die Performance in 4k FSRx Quality abschätzen will, schau ich doch einfach eine Auflösung niedriger auf nativ, d.h. WQHD :uponder:
GerryB
2023-10-17, 10:07:02
Ganz sooo einfach ist es nicht, schau Dir mal ein paar Gamereviews bei CB an.
Phantom Liberty verhält sich ganz anders als man erwartet.
(interessanterweise tauschen die 6950 und die 7800xt dann die Plätze)
Dant3
2023-10-17, 13:11:00
Obwohl ich ja nach der Hellhound 7900 XT mit ihrem Grillenkonzert eigentlich den Hals voll hatte, habe ich jetzt doch noch einmal eine 7900 XT Nitro bestellt und tatsaechlich habe ich wohl ein Golden Sample gefischt.
Meine 6800 Nitro war schon praktisch frei von Spulengeschrei, wirklich hören konnte man die nur in Ladescreens mit 2000 fps, aber die Spulen der 7900er sind in den gleichen Situation sogar noch leiser.
Unglaublich was da für ein Unterschied möglich ist, das ist wirklich absolut laecherlich. Die Hellhound hat schon beim Booten merkwuerdige Geräusche von sich gegeben und bereits bei 60 fps lauter gepiffen als die Nitro bei 3000 fps Ladenscreens.
dargo
2023-10-17, 13:16:33
Das zeigt eigentlich nur welcher Schrott da teilweise produziert wird und hoffentlich geht dieser Schrott auch jedes Mal Retoure. Wie man bei deinem Beispiel sieht geht es auch anders, ich nehme an am System hat sich sonst nichts verändert?
Dant3
2023-10-17, 13:21:21
Es hat sich nichts am System verändert. Netzteil ist ein Enermax Platimax 750 Watt von 2019.
Ob ein Tausch da an dem Spektakel von der Hellhound etwas geändert hätte bzw. es so weit reduziert hätte, dass es für 850,- akzeptabel geworden wäre, wage ich doch stark zu bezweifeln.
dargo
2023-10-17, 13:27:13
Ich auch, deshalb finde ich immer solches Feedback gut. (y)
Dant3
2023-10-17, 13:36:06
Und noch eine Randinfo bezueglich der minimalen Drehlzahl, die Nitro geht wie die Hellhound auch auf knapp 600 rpm runter. Kann man selber im Afterburner (10%) einstellen bzw. wenn man Zero - RPM deaktiviert dreht sie damit auch von selber im Idle. Der Kühler scheint aber so massiv zu sein, dass sie anders, als meine 6800 Nitro, auch bei einem Twitch Stream nicht mal ansatzweise in den Temperaturbereich kommt, wo die Lüfter anspringen würden.
Ex3cut3r
2023-10-17, 14:26:20
Das ändert sich mit der Zeit aber, da der Kühlkörper verstaubt, etwas an Kühlleistung einbüßt, die WLP etwas trockener wird, das Gehäuse mehr Staub hat und/oder irgendwann auch der Sommer kommt.
Ist nur aber nur bei Kühlern problematisch, die schon ab Day 1 auf der letzten Rille sind.
Ganz sooo einfach ist es nicht, schau Dir mal ein paar Gamereviews bei CB an.
Phantom Liberty verhält sich ganz anders als man erwartet.
(interessanterweise tauschen die 6950 und die 7800xt dann die Plätze)
Das wär mal ein wirklich interessanter Test, Upsampling mit den entsprechenden Auflösungen zu vergleichen. Es könnte sein, dass durch die ganzen Tweaks und Fixes, die bei DLSS+FSR2 nötig sind, die Performancesprünge teilweise doch recht klein ausfallen mittlerweile.
aufkrawall
2023-10-17, 14:54:19
Hä? Das ergibt null Sinn. Die Auflösungsskalierung von diversen Spielen war schon immer sehr verschieden, es hat sich überhaupt nichts geändert.
Das wär mal ein wirklich interessanter Test, Upsampling mit den entsprechenden Auflösungen zu vergleichen. Es könnte sein, dass durch die ganzen Tweaks und Fixes, die bei DLSS+FSR2 nötig sind, die Performancesprünge teilweise doch recht klein ausfallen mittlerweile.
Nee, das skaliert schon ziemlich gut. Ausnahmen wie Forza Motorsport bestätigen die Regel. In Spielen wie Lords of the Fallen (https://www.pcgameshardware.de/Lords-of-the-Fallen-Spiel-12615/Specials/Test-Release-Benchmarks-1431343/), die quasi immer pixellimitiert sind, skaliert das hervorragend - so weit, dass das Upsampling zwischen ruckelig und spielbar entscheidet. Schau mal, hier gibt's eine recht frische Skalierung mit FSR, DLSS und XeSS:
https://www.pcgameshardware.de/Layers-of-Fear-Spiel-55923/Specials/2023-Unreal-Engine-5-Release-Benchmarks-Steam-1421920/2/
MfG
Raff
Dant3
2023-10-17, 15:03:42
Das ändert sich mit der Zeit aber, da der Kühlkörper verstaubt, etwas an Kühlleistung einbüßt, die WLP etwas trockener wird, das Gehäuse mehr Staub hat und/oder irgendwann auch der Sommer kommt.
Ist nur aber nur bei Kühlern problematisch, die schon ab Day 1 auf der letzten Rille sind.
Das kann gut sein, wobei es bei der 6800 Nitro bereits von Anfang an so war. Aber eben drum, falls man in die Situation kommt, ist es um so wichtiger dass die Karte auch mit wenig RPM andreht und das ist zum Glück bei beiden Nitro´s und auch der schreienden Hellhound gegeben.
Das ändert sich mit der Zeit aber, da der Kühlkörper verstaubt, etwas an Kühlleistung einbüßt, die WLP etwas trockener wird, das Gehäuse mehr Staub hat und/oder irgendwann auch der Sommer kommt.
Ist nur aber nur bei Kühlern problematisch, die schon ab Day 1 auf der letzten Rille sind.Damit kämpft doch jede Grafikkarte. Oder?
OgrEGT
2023-10-18, 06:19:34
Obwohl ich ja nach der Hellhound 7900 XT mit ihrem Grillenkonzert eigentlich den Hals voll hatte, habe ich jetzt doch noch einmal eine 7900 XT Nitro bestellt und tatsaechlich habe ich wohl ein Golden Sample gefischt.
Meine 6800 Nitro war schon praktisch frei von Spulengeschrei, wirklich hören konnte man die nur in Ladescreens mit 2000 fps, aber die Spulen der 7900er sind in den gleichen Situation sogar noch leiser.
Unglaublich was da für ein Unterschied möglich ist, das ist wirklich absolut laecherlich. Die Hellhound hat schon beim Booten merkwuerdige Geräusche von sich gegeben und bereits bei 60 fps lauter gepiffen als die Nitro bei 3000 fps Ladenscreens.
Glückwunsch:up:
Habe die gleiche Karte und bin auch sehr zufrieden... Die Verarbeitung und auch der Kühler sind sehr gut... Alles aus Aluminium so gut wie kein Plastik und superleise... habe auch kein Spulenfiepen...
Dant3
2023-10-19, 09:30:06
Danke @OgrEGT. Die Karte ist wirklich ansprechend und vor allem stabil verarbeitet. Sie hängt trotz des sehr hohen Gewichts auch ohne GPU Stütze praktisch gar nicht durch. Meine 6800 Nitro hing dagegen im hinteren Bereich sichtbar durch, obwohl diese ein gutes Stück leichter ist. Allgemein wirkt sie im direkten Vergleich mit der 7900er eher wie ein Spielzeug was die Optik und Verarbeitung betrifft.
Ich wollte noch eine weitere Sache bezüglich des Wechsels von der 6800 zur 7900 anmerken, welche evtl. für den einen oder anderen interessant sein könnte. Abgesehen von der Performance, war meine primäre Motivation die Karte zu tauschen ein Problem mit meinem AVR (Denon 1500h).
Ich hatte willkürlich ein knacken in den Boxen. Nicht im Idle auf dem Desktop, aber wenn ich aus einem Spiel auf den Desktop tabbe, konnte es passieren, dass es geschätzt alle 10 Sekunden ein Knacken gibt. Dies verschwindet erst wenn man wieder ins Spiel wechselt oder eben das Spiel komplett schließt. Selten konnte dies auch im Spiel selber vorkommen, aber zuletzt bei Baldur´s Gate 3 war es extrem penetrant und ähnlich wie die Problematik mit dem tabben auf dem Desktop vorhanden.
Es bleibt einem dann nichts übrig, als den AVR mehrere male neu zu starten, denn dieses Problem tritt nur manch mal auf. Nach Restart 4 (Bsp.) kann es sein, dass es überhaupt nicht mehr vorhanden ist ... bis man den AVR dann erneut einschaltet, dann kann es wieder da sein.
BG3 ist hier allerdings ein negativ Beispiel, ansonsten hätte ich längst die Karte auf verdacht getauscht.
Es gibt natürlich X Möglichkeiten woher das Problem kommen könnte und ich habe auch so ziemlich alle Lösungsansätze ausgeschöpft (Windows frisch installiert, komplettes System ohne OC/UV betrieben, diverse Treiber, Kabel getauscht, Bitraten durchgetestet, unterschiedliche Soundformate, PCI-E 4 -> 3 und noch vieles mehr), konnte es aber nie beseitigen. Ich fand auch andere Beiträge dazu, aber meist in Kombination mit RDNA 1, doch zu RDNA 2 gab es auch einige.
Ich war mir ziemlich sicher, dass es an der GPU liegen wird, denn meine alte Vega 64 hatte das Problem nicht und nach ein paar Tagen mit der 7900er und BG3 würde ich unter Vorbehalt sagen, das Problem existiert nicht mehr. Es gibt lediglich beim ersten Ton, den die Boxen nach dem Start des AVR von sich geben, ein kurzes knacken und danach funktioniert der Ton fehlerfrei.
OgrEGT
2023-10-20, 21:52:58
Und noch eine Randinfo bezueglich der minimalen Drehlzahl, die Nitro geht wie die Hellhound auch auf knapp 600 rpm runter. Kann man selber im Afterburner (10%) einstellen bzw. wenn man Zero - RPM deaktiviert dreht sie damit auch von selber im Idle. Der Kühler scheint aber so massiv zu sein, dass sie anders, als meine 6800 Nitro, auch bei einem Twitch Stream nicht mal ansatzweise in den Temperaturbereich kommt, wo die Lüfter anspringen würden.
Wie weit runter kannst Du die Lüfterdrehzahl im WM drehen?
Bei mir geht mit dem WM nur min. 23%= 885rpm avg...
horn 12
2023-10-20, 22:31:42
Bekomme nun für Kollege eine 7900XTX Vapox X Nitro
NagelNeu da zu Groß vom Käufer für 890 Euro,- als er sie einbauen wollte :-(
Zuschlagen oder sein lassen!
Wieviel verbraucht die 7900XTX Nitro Minimum und Maximum also 400 Watt Bios und AMD bei 355 gedeckelt ?
Reicht ein 650 oder 750 Watt NT BQ aus, weiss nimmer wieviel Watt Kollege besitzt.
OgrEGT
2023-10-20, 22:37:42
Bekomme nun für Kollege eine 7900XTX Vapox X Nitro
NagelNeu da zu Groß vom Käufer für 890 Euro,- als er sie einbauen wollte :-(
Zuschlagen oder sein lassen!
Also verarbeitungs- und wertigkeits und vor allem leistungsmäßig kannst Du zu dem Preis eigentlich nix falsch machen... da Du aber bereits eine XTX MBA hast wird dich die Nitro nicht in ungeahnte Leistungssphären katapultieren, aber sie sollte bestimmt um einiges leiser sein selbst bei hoher Leistungsaufnahme und entsprechend höherer Mehrleistung...
horn 12
2023-10-20, 22:44:00
Nun, bin immer auf der Suche.
passt aber nicht ins Gehäuse, zu breit gleichfalls wie die Gigabyte Gaming OC
Ist eine Krankheit von mir immer was Neues haben zu wollen,- und für Mich würde nur die HellHound passen,- aber da ist das Spulenfiepen, Kann zutreffen, Mussa aber nicht!
Karte würde für Kollege sein,- jener hat eine 6800 welche ich damals für 950 Euro aus Germany vom (Drop) Scalper gekauft hatte.
OgrEGT
2023-10-20, 22:48:22
Also die 7900XT Nitro ist deutlich größer als meine alte 6800 Nitro (die wirkt fast kümmerlich im Vergleich :ugly:). Das stimmt... hat bei mir auch auf den mm ins Gehäuse gepasst...
Musst halt vlt mal auf ein anderes Gehäuse wechseln :smile:
Dant3
2023-10-21, 04:30:48
Wie weit runter kannst Du die Lüfterdrehzahl im WM drehen?
Bei mir geht mit dem WM nur min. 23%= 885rpm avg...
Also per AMD Software geht bei mir nur minimal 15% (720~ rpm), aber mit dem Afterburner kann ich über die Lüfterkurve auf 10% runter und da laufen die Lüfter mit ca. 570 rpm an. Wenn man noch weiter runter geht hören sie wieder auf zu drehen, da wahrscheinlich die anliegende Spannung zu gering sein wird.
OgrEGT
2023-10-21, 09:21:14
Also per AMD Software geht bei mir nur minimal 15% (720~ rpm), aber mit dem Afterburner kann ich über die Lüfterkurve auf 10% runter und da laufen die Lüfter mit ca. 570 rpm an. Wenn man noch weiter runter geht hören sie wieder auf zu drehen, da wahrscheinlich die anliegende Spannung zu gering sein wird.
Interessant... kannst du mal mit GPUz schauen welche BIOS Version Du hast? Nutzt du BIOS1 oder BIOS2?
Dant3
2023-10-21, 09:45:44
Bios 2 da mich die möglichen 400 Watt von Bios 1 mit erhöhtem Power Target nicht wirklich interessieren.
Version 022.001.002.025.000001.
horn 12
2023-10-21, 10:01:18
Bios 2 hat AMD Vorgabe zu 355 Watt ?
und immer noch absenkbar mit PT Minus 10% falls erwünscht wäre?
Dant3
2023-10-21, 10:09:27
Genau, Bios 2 läuft regulär mit 312~ Watt (285~ -10% PT / 355~ +15% PT).
Bios 1 regulär 355~ Watt (312~ -10% PT / 400~ +15% PT).
Der Verbrauch schwankt natürlich und kann daher immer noch etwas mehr oder weniger sein.
OgrEGT
2023-10-21, 11:30:56
Ich nutze auch BIOS2 derzeit mit PL-5% ~300W...
Laut GPUz BIOS Version 022.001002.010000001
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85711&stc=1&d=1697880712
horn 12
2023-10-21, 17:06:10
hatte 890 Euro ausgemacht Vormittags, nun will einer erneut 950 Euro bieten!
Hatte gesagt reserviere mir die Karte für 890 Euro
@edit
Hat nun wirklich an Anderen für 950 Euro verkauft.
Geile Welt, und wollte jene für Kollege sicher haben.
Bleibt noch die 7900 Gigabyte Gaming OC für 890 Euro übrig.
phoenix887
2023-10-22, 07:07:55
Tja Ehrenwort zählt heute nichts mehr. Wundert mich bei der Gesellschaft nicht.
Bekomme nun für Kollege eine 7900XTX Vapox X Nitro
NagelNeu da zu Groß vom Käufer für 890 Euro,- als er sie einbauen wollte :-(
Zuschlagen oder sein lassen!
Wieviel verbraucht die 7900XTX Nitro Minimum und Maximum also 400 Watt Bios und AMD bei 355 gedeckelt ?
Reicht ein 650 oder 750 Watt NT BQ aus, weiss nimmer wieviel Watt Kollege besitzt.
Die Nitro braucht bei-10 exakt 363w! Durch UV und OC von GPU und Vram ist er trotzdem 8-10% schneller unterwegs! Am NT würde ich trotzdem niemals sparen. Lieber dann ne kleinere GPU! Die 7800XT geht weg wie warme Semmeln, also warum nicht so etwas? Ohne RT stemmt die Karte in 4k meist 60FPS, FG für jedes Game mit aktuellem Beta-Treiber und 500€ günstiger!
Kennt ihr den bzw. das schon? =)
Ojan2m9KT5Y
MfG
Raff
DrFreaK666
2023-10-26, 02:48:48
Kennt ihr den bzw. das schon? =)
https://youtu.be/Ojan2m9KT5Y
MfG
Raff
Ja, ist dort leider untergegangen
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13422746#post13422746
horn 12
2023-10-29, 17:54:59
Gerade die 7900XTX Asus TUF Gaming für 875 Euro NEU Versiegelt für Kollege ergattert.
Mal schauen wie sich jene macht...
dargo
2023-10-29, 18:27:45
Sind die Dinger in IT 200€ günstiger zu bekommen? :D
https://geizhals.de/asus-tuf-gaming-radeon-rx-7900-xtx-oc-a2841783.html?hloc=at&hloc=de
horn 12
2023-10-29, 19:54:37
Nein, aus Österreich
Verkauft Versiegelt da umsteigt auf Notebook, und RTX 4090
dargo
2023-10-29, 20:05:14
Achso... Privatverkauf. :cool:
dildo4u
2023-11-01, 05:32:20
Nachtest Hauptsächlich wegen neuen Preisen.
0XVdsKHBcPE
Taigatrommel
2023-11-01, 09:08:49
Das Video habe ich gestern ebenfalls gesehen, die XT steht und fällt halt nach wie vor mit dem Preis. Wir hatten die ja teilweise auch schon neu bei unter 800€, jetzt aktuell scheint das günstigste irgendwo bei 835€ zu liegen, gleichzeitig gibt es die XTX für unter 989€.
Ich denke es ist kaum zu bestreiten, dass die XT inzwischen deutlich attraktiver ist, allerdings empfinde ich sie durch die ebenfalls deutlich nachgerutschte XTX dann auch nicht wirklich attraktiv.
BlacKi
2023-11-01, 10:11:16
also hat das garnichtmal was mit dem wechselkurs zu tun, wie ich ursprunglich vermutet habe.
dildo4u
2023-11-01, 10:17:36
Ist doch ganz normal es kommen jetzt alle wichtigen Games raus es wird kälter mach null Sinn die für 700€ zu verkaufen.
Und wie er im Video sagt die Black Friday Angebote haben kein Effekt wenn der Preis schon unten ist.
Die Packageing-Kapazität wird auf MI300 übergehen, mich würd nicht wundern, wenn die in ein paar Wochen einfach weg ist oder nur als teures Alibi-Produkt verfügbar ist und bis N48 nur Geforces kaufbar sind.
dildo4u
2023-11-01, 10:40:48
7900GRE taucht doch langsam im Retail auf AMD will keine 20GB für billig verkaufen.
https://videocardz.com/newz/amd-radeon-rx-7900-gre-available-in-italy-for-e672
BlacKi
2023-11-01, 10:41:56
ich hab noch in erinngerung, das die MBA karten ein problem mit vertikalem einbau hatten. wohl wegen der vaporchamber.
also nicht der standard vertical mount, sondern so, das die power cables oben und die grafikkarten ausgänge unten sind.
heatpipe kühler haben das problem ja nicht, oder?
7900GRE taucht doch langsam im Retail auf AMD will keine 20GB für billig verkaufen.
https://videocardz.com/newz/amd-radeon-rx-7900-gre-available-in-italy-for-e672
gestern erst geschaut, keine angebote auf GH.
7900GRE taucht doch langsam im Retail auf AMD will keine 20GB für billig verkaufen.
https://videocardz.com/newz/amd-radeon-rx-7900-gre-available-in-italy-for-e672
Das ist wohl eher so, dass die mehr produziert haben als China abgenommen hat. In Asien laufen AMD-GPUs extrem schlecht.
Taigatrommel
2023-11-01, 10:50:12
ich hab noch in erinngerung, das die MBA karten ein problem mit vertikalem einbau hatten. wohl wegen der vaporchamber.
also nicht der standard vertical mount, sondern so, das die power cables oben und die grafikkarten ausgänge unten sind.
heatpipe kühler haben das problem ja nicht, oder?
Da waren nur die XTX MBA betroffen und auch dort bei weitem nicht alle, meine z.B. kühlt gut. Das Problem lag wohl in nicht ausreichend gefüllten Vapor Chambers einzelner Karten.
Customs waren davon nicht betroffen, weil das ja völlig andere Konstruktionen sind. Die XT MBA nutzt einen kleineren Kühler als die XTX und blieb daher wohl gänzlich von der Problematik verschont. Es wird spekuliert, dass man bei der Produktion wohl versehentlich die VCs der XTX teilweise mit der Füllmenge der kleineren XT VCs befüllt hat.
Bei neueren MBA ist das auch kein Thema mehr, zumal man die Karten auch nur noch direkt über AMD beziehen kann - wenn sie denn mal verfügbar sind.
Linmoum
2023-11-01, 10:50:14
Für "extrem schlecht" laufende Märkte legt man aber nicht extra eigene SKUs auf.
Thunder99
2023-11-01, 11:23:44
Macht aber VW auch mir dem ID.6 den es nur in China gibt :D :freak:
Der Markt scheint speziell zu sein, dass es sich wohl rentiert es zu machen damit man den Absatz ankurbelt.
Für "extrem schlecht" laufende Märkte legt man aber nicht extra eigene SKUs auf.
Doch grade dafür, wenn man in den Markt rein will. Die Dinger waren ja auch recht günstig.
Frische Benchmarks aus Cities Skylines 2 nach dem "Anti-Megaruckler-Patch" (https://www.pcgameshardware.de/Cities-Skylines-2-Spiel-74219/Specials/Benchmarks-Review-Technik-Test-1432196/)
RDNA 2 ist gut, RDNA 3 herausragend.
MfG
Raff
dargo
2023-11-02, 13:07:19
Keine Ahnung wo du da ein "herausragend" bei RDNA3 siehst. Ich sehe da immer noch um die +60% bei der 7900XTX auf eine 6800XT, ergo alles im normalen Rahmen (entspricht ziemlich genau dem Schnitt bei CB). Das einzige was man hier sagen könnte die Geforces performen hier im Vergleich eher schlecht unter den Erwartungen.
phoenix887
2023-11-03, 11:57:29
Ist doch ganz normal es kommen jetzt alle wichtigen Games raus es wird kälter mach null Sinn die für 700€ zu verkaufen.
Und wie er im Video sagt die Black Friday Angebote haben kein Effekt wenn der Preis schon unten ist.
Kälter….dann ein US Video…darf dran erinnern das die USA mehr als eine Klimazone haben.
Aber so ist der Deutsche, er denkt er ist der Nabel der Welt ;D
Linmoum
2023-11-03, 12:10:42
Denkt dildo doch gar nicht. Ab Dezember geht es auch in den USA bis einschließlich Februar auf landesweite Durchschnittstemperaturen im einstelligen Bereich. Kann man nicht kälter finden, sollte man vielleicht aber. Dass bei der Jahreszeit auch aufgrund von Wetter und Temperaturen eher gekauft wird, ist nun auch kein Geheimnis oder irgendeine Überraschung. Gerade auch jetzt Richtung Black Friday und Weihnachtszeit.
Taigatrommel
2023-11-03, 13:47:23
Laut Computerbase hat man in WRC ein zweites Starfield (https://www.computerbase.de/2023-11/wrc-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd): RDNA3 schlägt sich dort sehr gut (bzw. Ada auffällig schlecht), nicht nur die 7900 XTX, sondern auch die XT kann sich von einer 4090 absetzen, die 7800 XT ist in Reichweite der 4070 Ti. Die 4090 ist gleichzeitig beinahe nur unwesentlich schneller als die kleinere Schwester.
Bei PCGH sind die Ergebnisse hingegen "normal (https://www.pcgameshardware.de/WRC-23-Spiel-74322/Specials/Ruckelt-im-Test-Benchmarks-Unreal-Engine-1432801/)": Die 4090 liegt deutlich vor der 4080 in Führung, die beiden 7900er folgen. Interessant ist gerade auch hier, dass sich die 7800 XT dem Vorgänger 6800 XT geschlagen geben muss, bei CB konnte sich erstere noch überdeutlich absetzen.
BlacKi
2023-11-03, 15:22:32
und auch dort ist intel unspielbar, wie in starfield.
aber ich vermute ein stärkeres cpu limit bei CB, entweder unterschiede durch das testsystem oder benchmarkszene. dx12 ist keine nv stärke im cpu limit.
sieht man auch schön daran, das die 4090 kaum schneller ist als die 4080, selbst in 4k.
Schnitzl
2023-11-03, 19:57:54
Laut Computerbase hat man in WRC ein zweites Starfield (https://www.computerbase.de/2023-11/wrc-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd): RDNA3 schlägt sich dort sehr gut (bzw. Ada auffällig schlecht), nicht nur die 7900 XTX, sondern auch die XT kann sich von einer 4090 absetzen, die 7800 XT ist in Reichweite der 4070 Ti. Die 4090 ist gleichzeitig beinahe nur unwesentlich schneller als die kleinere Schwester.
du meinst wohl deshalb?
Das Framepacing ist absolut problematisch
Das Framepacing in WRC ist aktuell ein großes Problem. So leidet das Spiel massiv unter Shader-Kompilierungs-Stotterern, die die Entwickler auch so schon zugegeben haben. Diese treten nicht nur bei jedem Grafikkarten- oder Treiberwechsel neu auf, auch jede Strecke muss sich diesbezüglich erst mal einruckeln.
Eine Riesenfrechheit!
Ich hoffe das kauft kaum einer
Die sollten das selbst täglich 8h selber spielen müssen und zwar mit nem 8 Jahre alten PC, solange bis sie auf den Tisch reihern.
robbitop
2023-11-04, 09:37:57
Wie kann es sein, dass in 2023 noch ein Spiel mit shader compilation stutter erscheint? Leben die auf dem Mond?
00-Schneider
2023-11-04, 10:23:26
Die Funktion "shader pre-complation" bei einem Spiel anzubieten ist laut Alex von DF afair wohl mit extremen Aufwand verbunden und erfordert viel manuelle kleinteilige Arbeit(zumindest bei UE4). Hoffentlich haben wir irgendwann Engines, die die Liste der Shader für die pre-compilation automatisch mit einen Knopfdruck erstellen können.
Ich würde auch darauf tippen, das viele Devs überhaupt keine Erfahrung diesbezüglich haben.
Ich würde auch darauf tippen, das viele Devs überhaupt keine Erfahrung diesbezüglich haben.
Yep, das ist Codemasters' erstes Projekt auf Basis der Unreal Engine. Der Wechsel ist schade, aber vermutlich sagen die Zahlen, dass man damit den Content besser pro Jahr runterrotz... ääh, dass man so schneller Inhalte erstellen kann. ;)
Zur der interessanten Diskrepanz in WRC bitte die folgenden Postings/Gedanken beachten:
https://extreme.pcgameshardware.de/threads/ea-sports-wrc-im-test-das-erste-wrc-mit-unreal-engine-hat-noch-sand-im-getriebe.641630/page-2#post-11450740
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-laberthread.624844/page-170#post-11450709
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-laberthread.624844/page-170#post-11450728
MfG
Raff
RoughNeck
2023-11-04, 13:26:26
Es ist doch zu 95% einfach hinrotzen und fertig.
Schnell Geld machen und zum nächsten Projekt oder in die Pleite, wenn man da keinen "guten" Publisher hinter einen hat, hat man verloren oder ist auf die Hilfe potenzieller Käufer angewiesen die für eine Alpha 30€+ bezahlen.
Bekannter von mir war vor 5 Jahren noch in der Branche tätig, der hatte danach ein Burnout und war etwa 3 Jahre in Behandlung. Mittlerweile hat er es überwunden und ist wieder ein lebensfroher Mensch. Ist sicher nicht überall so aber die Branche ist meiner Meinung komplett hinüber.
Wegen der 7900 XTX.
Meine hat sich die Nitro Vapor X Version gegönnt (war ein Notverkauf für 600€, gekauft im August).
Vielleicht hat ja einer diese Karte, weil die Lüfter drehen sporadisch kurz an und dann wieder aus, Temperatur ist dabei unterschiedlich (kann ab 40° passieren, kann aber auch erst ab 50° passieren). Das andrehen der Lüfter geschieht nur kurz, die drehen für 3 Sekunden und gehen dann wieder. Kann also nicht an der Temperatur liegen, Taktraten der GPU / RAM ändern sich nicht.
Ein Lüfterprofil mittels des Treiber oder AB schafft Abhilfe, im GPU-Z Log sieht man allerdings dennoch dass die Lüfter gelegentlich um 300 RPM höher drehen, für 3 Sekunden und dann wieder fallen.
Was mir aufgefallen ist, ist folgendes: Die Performance ging mit dem letzten Preview-Treiber bez. RT um 10-15% nach oben, wobei die Rasterizing-Performance sehr leicht gelitten hat.
Ne Nitro unter Wasser zu betreiben macht 0 Sinn, da die Original-Kühlung den Job bis 463w gut genug erledigt, mit sehr wenigen Ausnahmen. Sprich mit massivem RT-Einsatz bringt die Kühlung schon etwas.
Abseits dessen finde ich es schade, dass die Anbindung CPU<->Steckplatz so etwas wie fest verdrahtet zu sein scheint.
Deathstalker
2023-11-05, 22:22:32
mal hier eine Frage, ich habe das schon im Alan Wake Thread geschrieben. Ich hab mit dem neuesten Treiber bei Alan Wake 2 viel höhere FPS.
Ich hab mir das auch angeschaut, ich benutze den Sound der 7900XTX, keinen Onboardsound und hatte mit dem letzten Treiber eine hohe CPU Last, so hoch, dass mein alter 6700k mit Board bei fast 100% Last dümpelte und die GPU nur auf 60-70% kam. Mit dem neuen Treiber ist meine CPU Last auf 60% abgefallen und die Karte kann auf 90-93% aufdrehen und endlich richtig FPS liefern.
Ich bin mir aktuell unsicher, ob der neue Treiber einfach besser den Soundanteil integriert hat oder ob der alte Treiber irgendwie defekt/falsch installiert war.
Nachtrag:
Mir ist das schon früher aufgefallen, wenn ich meinen USB DAC genutzt habe, dass die CPU Last in einigen Spielen geringer zu sein schien.
Ich nutze aktuell den Sharkoon Gaming DAC Pro S mit meinen Sennheiser Momentum 4 mittels Klinke im Wechsel mit der Monitorklinke über die Graka.
Matrix316
2023-11-11, 19:52:39
... aber was ich gerade festgestellt habe:
Ich habe zwei Monitore an der 7900XTX. Einen 32 Zoll Ultra HD und einen 24 Zoll Full HD mit jeweils 60 Hz. Wenn ich die Monitore gemeinsam anschließe hab ich in Windows 909 MHz fixen VRAM Takt. Egal ob ich z.B. Youtube schaue oder nichts mache und - über 50 Watt Verbrauch.
Wenn ich jeweils nur einen Monitor verwende, dann sinkt der VRAM Speed und der Verbrauch ist natürlich viel niedriger.
Was kann das sein? Es heißt ja immer zu hohe Refreshrate, aber meine Bildschirme können ja nur 60 Hz.
Ich überleg schon die ganze Zeit wie ich den Verbrauch im Idle und bei Youtube z.B. runterkriege. Ich hab schon überlegt eine neue Grafikkarte zu kaufen die einfach weniger verbraucht.
Jetzt hab ich mal etwas rumgespielt und wenn ich die Auflösung des 32 Zöllers auf z.B. WQHD oder Full HD runterstelle sinkt plötzlich auch der VRAM Takt massiv und ich hab selbst mit Youtube nur noch ca. 33 Watt Verbrauch. Alle Auflösungen unter 3200x1800 funktionieren normal, nur darüber plötzlich 909 MHz unter Windows... was kann das sein?
BlacKi
2023-11-11, 20:42:43
nimm mal die igpu zuhilfe.
Crazy_Chris
2023-11-11, 20:44:13
Das ist doch nun wirklich nichts neues und war schon bei der 5700XT so. :freak: Was am besten hilft ist Freesync zu verwenden. Ist eine ewige Radeon Baustelle. Leider.
Matrix316
2023-11-12, 00:19:15
nimm mal die igpu zuhilfe.
Wie genau meinst du das?
Das ist doch nun wirklich nichts neues und war schon bei der 5700XT so. :freak: Was am besten hilft ist Freesync zu verwenden. Ist eine ewige Radeon Baustelle. Leider.
Freesync hat nicht geholfen. Und ich dachte auch, das Problem wären eher hohe Wiederholfrequenzen so 144 Hz. Aber beide Monitore unterstützen Freesync. Wobei der kleine Monitor sogar 75 Hz unterstützt. Aber ich meine beide liefen nur mit 60.
Also ich hab noch einen alten Dell mit WQHD Auflösung statt dem 32er und jetzt taktet der Speicher normal runter.
dargo
2023-11-12, 08:40:02
Wie genau meinst du das?
Du sollst einen Monitor an deine iGPU und einen an deine dGPU anschließen.
Matrix316
2023-11-12, 11:20:22
Du sollst einen Monitor an deine iGPU und einen an deine dGPU anschließen.
Ja aber dann hab ich ja zwei aktive Grafikkarten die auch mehr Strom verbrauchen, oder? :uponder:
BlacKi
2023-11-12, 11:43:50
Ja aber dann hab ich ja zwei aktive Grafikkarten die auch mehr Strom verbrauchen, oder? :uponder:
nein. du solltest echt mal ausprobieren wie effizient igpus sind. die brauchen nichtmal 1w zusätzlich.
Hakim
2023-11-12, 11:58:30
Wie ist das eigentlich wenn man so eine Kombi nutzt mit igpu und Steckkarte, kann man an der igpu angeschlossenen Monitor dennoch das Spiel übertragen welches über die 7900 berechnet wird?
BlacKi
2023-11-12, 12:04:11
ich hab zwar keine amd dgpu, aber das funktioniert sogar mit einer nv dgpu, dass man das bild über die amd igpu ausgibt. zumindest mit win11 hier.
ich hab derzeit kein anzeigekabel an der 4070ti angeschlossen. funktioniert hier genauso, wie wenn ich es direkt an die dgpu anschließen würde.
spart hier 3w idle aufs gesammtgesehen.
Tesseract
2023-11-12, 12:05:35
normalerweise definiert der primärmonitor das defaultrenderdevice wenn man das nicht manuell umstellt.
The_Invisible
2023-11-12, 15:21:20
ich hab zwar keine amd dgpu, aber das funktioniert sogar mit einer nv dgpu, dass man das bild über die amd igpu ausgibt. zumindest mit win11 hier.
ich hab derzeit kein anzeigekabel an der 4070ti angeschlossen. funktioniert hier genauso, wie wenn ich es direkt an die dgpu anschließen würde.
spart hier 3w idle aufs gesammtgesehen.
Ja nur wird hier dann der pcie bus belastet mit der bildausgabe
dargo
2023-11-12, 16:03:53
Ja aber dann hab ich ja zwei aktive Grafikkarten die auch mehr Strom verbrauchen, oder? :uponder:
Wenn schon eine fette dGPU @RX 7900XTX bei ordnungsgemäßen Funktionsweise max. um die 7W in idle zieht wie viel Watt kann dann eine iGPU damit ziehen? X-D
Matrix316
2023-11-12, 22:59:50
Ja also das mit der iGPU funktioniert nur zum Teil.
Ich hab den 2. Monitor per iGPU angeschlossen. der 32er hängt an der Radeon.
Wenn ich nix mache, wird der VRAM Speed gesenkt.
Wenn ich Youtube auf dem 32er an der Radeon schaue, geht der Takt wieder fix hoch auf 909 MHz.
Schieb ich das Video auf den zweiten Monitor wird der Takt wieder gesenkt.
Das ist zwar ein wenig besser, aber halt nicht die optimale Lösung. Mach die Auflösung am 32er wieder unter die genannte, dann wird der VRAM Takt auch wieder verringert, selbst wenn Youtube läuft.
Alles sehr merkwürdig...
PS.: Was noch komischer ist, der kleine 24er unterstützt auch 75 Hz. Wenn ich das einstelle, dann geht der VRAM Takt auf 2,5 GHz und die Karte braucht 100 Watt!! :ugly: Ich dachte die hätten den Bug da im Treiber durch gerade Freesync behoben?!
DrFreaK666
2023-11-13, 07:38:21
Nur bei bestimmten Konfigurationen, nicht bei allen, wurde es verbessert.
Matrix316
2023-11-18, 00:51:53
Sooo kleines Update. Ich hab mal gedacht ich experimentiere mal. Ich hab jetzt den 32er mit Ultra HD zusammen mit dem älteren 27er mit WQHD statt dem (neueren) 24er angeschlossen... (Beides Dell)... und tadaaa: VRAM ist nicht mehr bei 909 MHz festgetacktert - auch bei Youtube nicht. Es lag also an dem 24er Dell. Der alte 27er Dell kann nicht mal Freesync soweit ich weiß und hat auch nur 60 Hz. Das ist ja mal interessant. :uponder:
Zusammengefasst:
32" Ultra HD 60 HZ + 24" Full HD 60 HZ (der 75 kann) -> fixe 909 MHz VRAM Takt
32" Ultra HD 60 HZ + 27" WQHD 60 HZ -> variabler VRAM Takt
Crazy_Chris
2023-11-18, 10:55:12
Nenn doch einfach mal die Typenbezeichnungen der Monitore. :wink:
Matrix316
2023-11-18, 11:42:29
Nenn doch einfach mal die Typenbezeichnungen der Monitore. :wink:
Für die Grafikkarte sollte das ja egal sein, oder? Wobei ich hab irgendwo gesehen, dass vielleicht auch unterschiedliche Kabel darauf Einfluss haben könnten.
BenQ EW3270U 32" Ultra HD 60 HZ
DELL S2421NX 24" Full HD 60 HZ (der 75 kann)
DELL U2713HM 27" WQHD 60 HZ
Jetzt hab ich mit den zwei größeren Monitoren weniger Stromverbrauch insgesamt als mit dem großen und dem kleinen. ;)
BlacKi
2023-11-18, 12:08:40
wenn du noch mehr strom sparen willst, dann kauf dir einen großen statt 2 kleinen. imho die beste alternative.
Crazy_Chris
2023-11-18, 12:48:42
Für die Grafikkarte sollte das ja egal sein, oder? Wobei ich hab irgendwo gesehen, dass vielleicht auch unterschiedliche Kabel darauf Einfluss haben könnten.
BenQ EW3270U 32" Ultra HD 60 HZ
DELL S2421NX 24" Full HD 60 HZ (der 75 kann)
DELL U2713HM 27" WQHD 60 HZ
Jetzt hab ich mit den zwei größeren Monitoren weniger Stromverbrauch insgesamt als mit dem großen und dem kleinen. ;)
Ja echt kurios. Eigentlich sollte der Stromverbrauch mit den Freesyncmonitor geringer sein insofern es aktiviert ist. :confused: Vielleicht hat es auch etwas mit HDMI/Displayport Version zutun?
OgrEGT
2023-11-18, 19:02:35
wenn du noch mehr strom sparen willst, dann kauf dir einen großen statt 2 kleinen. imho die beste alternative.
Bin auch am überlegen 5120x1440 :D.. meine Kollegen mosern jetzt schon mit 3440x1440 wenn ich im Homeoffice den Bildschirm teile... da wär alles immer so klein :ulol:
Matrix316
2023-11-19, 11:46:34
Bin auch am überlegen 5120x1440 :D.. meine Kollegen mosern jetzt schon mit 3440x1440 wenn ich im Homeoffice den Bildschirm teile... da wär alles immer so klein :ulol:
Ja wobei diese Brummer auch riesige Standfüße haben. soviel Platz hab ich garnet auf dem Schreibtisch, wenn ich noch eine Tastatur davor stellen will und so. :freak: Ich meine, es gab mal eine Zeit da hat mir ein Monitor gereicht, aber wenn man sich mal an zwei gewöhnt hat... :biggrin:
Ich meine wenn ich einen neuen Monitor kaufen würde, dann kann ich mir auch wieder eine 4080 holen, weil ich so oder so dann etwas Geld drauflegen müsste.
Taigatrommel
2023-11-19, 12:01:48
Also die neuen Samsung G9 OLED haben da sogar recht kompakte Standfüße, vor allem der G93SC. Mir wäre das dennoch zuviel, ich finde 21:9 da als guten Kompromiss mit 34". Allerdings bin ich auch nicht im Home Office;)
Ich habe jetzt übrigens seit kurzem eine Nitro+ XTX im Rechner und kann über die Karte nur positives berichten. Man kann hier die Brechstange ansetzen und mit +15% PL zieht sie z.B. in Control durchgehend über 460 W, der Kühler bleibt dennoch leiser als jener der MBA bei 347 W, allerdings ist er nicht kühler. Wenn man die auf Default betreibt und UV ansetzt, ist sie quasi nicht zu hören und schön kühl. Bislang läuft sie mit 1080 mV absolut stabil, in diversen Spielen hält sie dann mit +15% durchgehend über 2900 Mhz.
Dann kann man natürlich auch in die andere Richtung gehen und erhält eine quasi lautlose Karte. Es ist da schon beeindruckend, wie spät die Lüfter z.B. bei Alan Wake 2 erst anspringen, wenn die Karte noch kühl ist.
Noch dazu hat sie IMHO ein tolles Design, meiner Meinung nach eine der besten aussehenden Grafikkarten derzeit. Leider hat die Karte ebenfalls ein leichtes Spulenfiepen, jedoch weniger ausgeprägt als die Referenz.
horn 12
2023-11-19, 12:07:47
Behalte meine Referenz und Spulenfiepen hat meine Keines
Dennoch um die 2550 bis 2650 Mhz bei Alan Wake II
und die Asus TUF wenn jene noch kommt (Kommen sollte)
wird fürn Kollege sein wie schon gesagt.
Matrix316
2023-11-19, 18:46:51
Also die neuen Samsung G9 OLED haben da sogar recht kompakte Standfüße, vor allem der G93SC. Mir wäre das dennoch zuviel, ich finde 21:9 da als guten Kompromiss mit 34". Allerdings bin ich auch nicht im Home Office;)[...]
Also ich hab zwei Systeme, eins für Home Office mit zwei 27 Zöllern mit WQHD Auflösung - das gleiche Setup hab ich auch in der Firma. Das reicht gerade so (auch wenn manmal mehr Monitore noch besser wären ;)).
Aber am Privat PC ist ein zweiter Monitor ganz praktisch um da Videos zu schauen, während man gleichzeitig im Web surft. Das mit einem Monitor zu ersetzen, da weiß ich nicht ob ein 34er reicht. 38 Zoll im Ultra Wide Format oder 49 wäre da schon besser. Nur brauchen die halt auch mehr Platz.
Alles nicht so einfach. ;)
BlacKi
2023-11-19, 18:53:20
38 Zoll im Ultra Wide Format oder 49 wäre da schon besser. Nur brauchen die halt auch mehr Platz.
Alles nicht so einfach. ;)
platz im zimmer oder platz auf dem tisch? einfach größer kaufen und dann vom moni/tv zurücksetzen, wenn hinter dir genug platz ist. ich hab nen 80cm tiefen schreibtisch und brauch den auch ganz, das ist kein platz mehr für monitore. im prinzip bringt mir ein großer monitor also auch mehr platz, zumindest auf dem schreibtisch.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.