PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15

Matrix316
2023-11-19, 19:04:39
platz im zimmer oder platz auf dem tisch? einfach größer kaufen und dann vom moni/tv zurücksetzen, wenn hinter dir genug platz ist. ich hab nen 80cm tiefen schreibtisch und brauch den auch ganz, das ist kein platz mehr für monitore. im prinzip bringt mir ein großer monitor also auch mehr platz, zumindest auf dem schreibtisch.

Platz aufm Tisch. Der ist ca. 70cm tief und wenn der Monitor schon 30-35 hat inkl Fuß... wobei einen Schwenkarm am Tisch anbringen wäre noch eine Alternative... aber langsam wirds OT.

Wenn man schon überlegen muss, welchen Monitor kauft, damit die Grafikkarte am wenigsten Strom verbraucht... :freak:

Taigatrommel
2023-11-24, 16:01:14
Ich habe mal eine blöde Frage an die wenigen Nutzer, die hier noch eine MBA 7900 XT/XTX haben: Sind auf den Schrauben vom Spannkreuz die kleinen Garantie-Sticker aufgeklebt oder nicht? Leider kann ich selbst nicht mehr nachschauen, die wenigen Fotos die ich gefunden habe, zeigen keinerlei Sticker.

horn 12
2023-11-24, 16:23:32
Kann ich nachsehen
sobald Zuhause bin

Crazy_Chris
2023-11-24, 18:14:06
Um das zu sehen müsste man die Backplate abmachen.

horn 12
2023-11-24, 19:34:02
Kollege kauft nun eine XTX
Modell 7900 XTX Gigabyte 7900 Gaming OC
für 948 Euro - NEU von Shop in Italien - Versiegelt und NEU von Lieferung letzter Woche.

BlacKi
2023-11-24, 20:02:03
freut mich für deinen kollegen.

Ich habe mal eine blöde Frage an die wenigen Nutzer, die hier noch eine MBA 7900 XT/XTX haben: Sind auf den Schrauben vom Spannkreuz die kleinen Garantie-Sticker aufgeklebt oder nicht? Leider kann ich selbst nicht mehr nachschauen, die wenigen Fotos die ich gefunden habe, zeigen keinerlei Sticker.

steave got you at 5:55

BMKK6z__tXM



auf der backplate sind auch keine sticker.

Taigatrommel
2023-11-24, 21:38:44
Hi, Gamers Nexus war meine erste Anlaufstelle, doch ich bin mir 1. nicht sicher, ob Steve die Karte nicht schon vorher einmal auseinander hatte und 2. ob die Review Samples überhaupt mit den Stickern ausgeliefert werden.

Und ja, man muss leider die Backplate abschrauben, um das Kreuz und dessen Schrauben zu sehen. Da ich dies bei meiner nie getan habe, weiß ich halt tatsächlich nicht, was da Sache ist.

Hintergrund: Ich habe meine MBA verkauft und die Käuferin sagt, ich hätte die Karte entgegen der Beschreibung bereits geöffnet, da wohl die Schrauben der Backplate Abnutzungsspuren hätten (was ich per Foto widerlegen kann) und vor allem würden die Warranty Void Sticker der Schrauben fehlen.

Nach meiner bisherigen Recherche scheinen die MBA jedoch keine Sticker zu haben. Es gibt ein weiteres Teardown und Unboxing Video von Powercolor XT und XTX Karten, welche beide keine Aufkleber haben. Auch auf Reddit fand ich Fotos einer Demontage, dort sind auch keine zu sehen.

anddill
2023-11-24, 21:55:04
Ich habe die Schrauben des Spannkreuzes bei meiner Karte damals nachgezogen weil die beschissene Temperaturen hatte, und ich kann mich an keinen Aufkleber erinnern. Und ich würde mich erinnern, weil ich mich darüber gewaltig aufgeregt hätte.

Taigatrommel
2023-11-24, 21:58:44
Ich habe die Schrauben des Spannkreuzes bei meiner Karte damals nachgezogen weil die beschissene Temperaturen hatte, und ich kann mich an keinen Aufkleber erinnern. Und ich würde mich erinnern, weil ich mich darüber gewaltig aufgeregt hätte.
Danke dir, ich kann mich jetzt sogar wieder an deine Berichte darüber erinnern.

horn 12
2023-11-26, 12:15:19
7900 GRE war heute unter 600 Euro zu haben in Italien.
Guter Preis,- und wird wohl vielleicht Europaweit verfügbar werden nach dem NV Super Refresh

DrFreaK666
2023-11-26, 12:29:18
Es ist schon seit einigen Wochen in Teilen Europas kaufbar, in Deutschland allerdings immer noch nicht

vinacis_vivids
2023-11-26, 16:36:58
https://wccftech.com/dell-prohibits-sales-amd-radeon-rx-7900-xtx-7900-xt-pro-w7900-mi300-gpus-in-china/

Das Embargo in China gilt nun auch für AMD Gaming und Workstation-GPUs wie: 7900XT / 7900XTX / W7900, also alle größeren RDNA3 chips.

Grund: AMD bietet zu viel fp16 Perfomance mit ~ 122,8 Tflops bei der 7900XTX und ist deswegen gebannt.

OCmylife
2024-01-02, 19:31:49
Was für ein schönes Stück Technik die Karte doch ist. Gerade wieder 2 Stunden Elden Ring gespielt und die Temperaturen sind einfach nur göttlich. Spulenfiepen hatte ich bisher auch nur im sehr hohen 3-stelligen Bereich. Ansonsten ist die Karte einfach still. :ulove:

GerryB
2024-01-08, 05:39:09
Was für ein schönes Stück Technik die Karte doch ist. Gerade wieder 2 Stunden Elden Ring gespielt und die Temperaturen sind einfach nur göttlich ...

Wow, die GPU-SpeicherJunction sieht richtig gut aus!

Ist das die original Wakü-Tachi ohne eigene Verbesserungen?

btw.
Viele Air-Modelle haben sinnlos hohe Vram-Temps. Wäre schon interessant was bei der Taichi anders gelöst ist.
Bei XFX haben einige höherpreisige Modelle noch extra Pads zw. Vram und Backplate.

OgrEGT
2024-01-08, 06:19:27
Wozu VRAM Pads auf der Rückseite? Die VRAM Chips sitzen doch alle auf der Vorderseite?

GerryB
2024-01-08, 07:24:57
Ich fands gut das XFX die 90°C beim Vram nicht gefallen haben und man auf der Rückseite noch Was gemacht hat.(x)

https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-merc-310-oc/3.html

(x) Dadurch zahlt sich die massive MetallBackplate auch so richtig aus.

btw.
Ich halte Das für keinen Zufall, das bei Wiseman das Vram-OCen als Erstes instabil wird, bzw. man dadurch schlechter die GPU
UVen kann, ... may be die Volts für den Speicherkontroller reichen dann nicht.

horn 12
2024-01-08, 07:44:34
@OCmylife

Ist dies eine umgebaute XTX Taichi auf Wasser
oder die von Haus angebotene Taichi Acqua /eigene Wasserlösung

Welche Taktraten erreicht jene bitte immer bei aktuellsten Spielen?

RoNsOn Xs
2024-01-08, 09:28:39
Wow, die GPU-SpeicherJunction sieht richtig gut aus!

???
Es ist Elden Ring mit einem 60fps Limit. Die Karte läuft überhaupt nicht am Anschlag und langweilt sich, was man am Verbrauchswert und der Auslastung sieht.

BlacKi
2024-01-08, 10:28:11
???
Es ist Elden Ring mit einem 60fps Limit. Die Karte läuft überhaupt nicht am Anschlag und langweilt sich, was man am Verbrauchswert und der Auslastung sieht.

was spulenrasseln angeht, ist das auch von spiel zu spiel unterschiedlich. und ja, bei max 270w unter wasser und die 160w avg war die karte grob halb ausgelastet^^

OCmylife
2024-01-08, 13:52:25
@OCmylife

Ist dies eine umgebaute XTX Taichi auf Wasser
oder die von Haus angebotene Taichi Acqua /eigene Wasserlösung

Welche Taktraten erreicht jene bitte immer bei aktuellsten Spielen?

Jap, ist die Taichi mit Bitspower Wasserblock. Bei Elden Ring hatte ich die Taktanzeige nicht mitlaufen, aber ich kann nach Dienstende gerne nochmal schauen, wo das Taktlimit bei 406 Watt liegt. Das ist nämlich im Performance-Bios das Powerlimit.
Und natürlich habt ihr Recht. Elden Ring lastet ohne RT die Karte nicht wirklich aus. Aber auch wenn sich die Karte ihr volles Powerlimit genehmigen darf, bleibt sie auch ohne irgendwelche Mods noch kühl für den Verbrauch. Am Hotspot waren glaube ich 75 Grad das Höchste, was ich bisher gesehen habe und auf dem Core 50 und das auch nur im Peak(2 360er Hardwarelabs GTS mit Coolermaster Mobius im Fractal Define 7).
Meine Treiberprobleme waren wohl auf meine Corsair Vengeance 4600 CL18 zu schieben. Seitdem ich sie nur noch mit 4000 Gear 1 CL16 laufen habe, verabschiedete sich der Treiber nicht mehr. Seltsamerweise war das XMP Profil mit der Nvidia nie ein Problem und der Treiber machte auch nur im Idle Faxen.

Raff
2024-01-08, 14:12:13
???
Es ist Elden Ring mit einem 60fps Limit. Die Karte läuft überhaupt nicht am Anschlag und langweilt sich, was man am Verbrauchswert und der Auslastung sieht.

Elden Ring ist übrigens so ziemlich das Harmloseste an aktuellem Game Code, was man einer Grafikkarte antun kann. Gegenvorschläge, um der Karte mal richtig Feuer unter'm Kühler zu machen: A Plague Tale Reqiem oder Metro Exodus Enhanced Edition. :naughty:

MfG
Raff

OCmylife
2024-01-08, 14:37:07
Elden Ring ist übrigens so ziemlich das Harmloseste an aktuellem Game Code, was man einer Grafikkarte antun kann. Gegenvorschläge, um der Karte mal richtig Feuer unter'm Kühler zu machen: A Plague Tale Reqiem oder Metro Exodus Enhanced Edition. :naughty:

MfG
Raff

Metro Exodus könnte ich nachher installieren :-) Ich nehme für meine Tests halt immer praxisrelevante Spiele und das sind diejenigen, die mich gerade bei Laune halten. :-D
Zuvor war das Deathloop. Aber was mir auch aufgefallen ist: Hogwarts Legacy läuft in der Stadt auch deutlich fluffiger(und auch die Treppensektion in Hogwarts läuft endlich flüssig), als mit der 3090 zuvor, solange man Raytracing ausblendet. Als ich mit Raytracing auf der 7900 XTX rumgespielt habe, gefiel mir XESS aber auch deutlich besser, als FSR. FSR fängt bei Gräsern und auch feinen Linien sehr schnell an zu bröseln, sobald man die Kamera schwenkt. Das Problem hatte ich bei XESS nicht so stark.

vinacis_vivids
2024-01-08, 14:51:47
FSR3+FG in Topform gibs bei "Immortals of Aveum" mit der UE5-Engine.

DrFreaK666
2024-01-08, 15:00:51
Elden Ring ist übrigens so ziemlich das Harmloseste an aktuellem Game Code, was man einer Grafikkarte antun kann. Gegenvorschläge, um der Karte mal richtig Feuer unter'm Kühler zu machen: A Plague Tale Reqiem oder Metro Exodus Enhanced Edition. :naughty:

MfG
Raff

Mit RTGI via Reshade wird auch aus Elden Ring ein Hardware-Monster

The_Invisible
2024-01-08, 15:04:59
Elden Ring hat ja selbst einen Patch für RT bekommen was soweit ich mich erinnere recht gefräßig ist

DrFreaK666
2024-01-08, 15:21:27
Stimmt. Total vergessen.
Aber die Umsetzung ist eher meh

OCmylife
2024-01-08, 17:12:35
Elden Ring hat ja selbst einen Patch für RT bekommen was soweit ich mich erinnere recht gefräßig ist
Kein FSR und so gefräßig, dass ich zumindest keine 60fps mehr bekomme(45 iirc). Da ist mir eine stabile Framerate wichtiger.

FSR3+FG in Topform gibs bei "Immortals of Aveum" mit der UE5-Engine.
Habe ich nicht und auch keine Ambitionen es zu kaufen. ;-)

DrFreaK666
2024-01-08, 17:49:54
...Habe ich nicht und auch keine Ambitionen es zu kaufen. ;-)

Es gibt ja eine Demo um es zu testen

OCmylife
2024-01-08, 18:37:47
https://ibb.co/sHz3d6f

ca 10 Min im Spiel. Die Wassertemperatur liegt aktuell bei 34,4 Grad und der Durchfluss bei 140l/h. Kein UV oder OC. Hwinfo-Screen kommt in 10 Min.

Edit: 10 Min weiter ist die Wassertemperatur genau um 0,1 Grad gestiegen und auch die Temperaturen generell sind stabil geblieben.

https://ibb.co/HhMb4pV

https://ibb.co/c3jXzdn

https://ibb.co/RTvdT6V

https://ibb.co/L8g5ndJ

Die GPU taktet bei voller Auslastung immer bei irgendwas um die 2,5(teilweise auch knapp drunter) bis 2,65 GHz. Ich hatte kurz nach Einbau einfach mal das Autooc-Feature benutzt, da es ja mit einem Klick getan ist. 465 Watt war mir dann aber doch etwas zu viel. Da lag der Takt dann ca bei 2,8 GHz und ich bin mir sicher, dass da auch noch mehr geht.

OgrEGT
2024-01-08, 21:21:15
Ich fands gut das XFX die 90°C beim Vram nicht gefallen haben und man auf der Rückseite noch Was gemacht hat.(x)

https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-merc-310-oc/3.html

(x) Dadurch zahlt sich die massive MetallBackplate auch so richtig aus.

Absolut :up:
Die Backplate bei meiner 7900XT Nitro ist auch aus massivem Metall und transportiert gut was an Wärme ab... habe nur Teardowns von der XTX gefunden... da hat die Backplate auch Thermal Pads... dann wirds die XT auch haben... muss mal schauen wie heiß der VRAM bei mir wird...

Edit:
Bei 355W (BIOS2 PL+15) im geschlossenen Gehäuse komme ich grad so maximal auf 88°C VRAM Junction... Timespy...
Bei meinen normalen 293W (BIOS2 PL-5) sinds so bis 80°C...

Denniss
2024-01-08, 22:49:34
Bei einem guten Kühlkonzept kann eine eingebunde metallene Backplate schon einiges bei temperaturkritischen Bereichen bringen.

GerryB
2024-01-08, 23:49:30
Bei Navi haben damals einige Modder dann noch nen extra Lü. auf die Backplate gelegt.
(macht natürlich nur Sinn, wenn man schon Pads zw. Vram und Backplate hat)

Raff
2024-01-09, 00:26:20
Das Problem ist, dass Platten wenig Oberfläche haben - man müsste Rillen, also ein Profil, reinfräsen, um mehr zu reißen. Bei meiner RTX 3090 habe ich einen kompletten, alten GPU-Kühler auf die Backplate gepappt und aktiv belüftet. Das hat enorm viel gebracht. Man könnte auch mehrere BGA-Kühlerchen draufkleben. Aber yep, das geht eben nur, wenn man die Wärme auch mit Pads aus dem PCB zieht.

MfG
Raff

GerryB
2024-01-09, 00:31:19
Frag mal Xaphyr, der hatte bei seiner 6900 nen fetten Kühlkörper auf die Backplate geklebt, 10x10cm o.ä
(mit WLP)

man muss dann halt schauen, wieviel Platz zum evtl. störenden CPU-Towerkühler ist
und
bei sooo großen Kühlkörpern dann darauf achten, das die Rippen zum Luftstrom passen

OCmylife
2024-01-17, 12:09:57
@Raff: Ich habe mir nur wegen eurem 7900 XTX Extreme OC Artikel die neue PCGH gekauft und wollte an dieser Stelle mal anmerken, dass ich wirklich positiv überrascht war, wie gut der Artikel geschrieben war, mit welchen Infos er gespickt war, welches Leid euer Redakteur mit durchmachen musste und wie viel Mehrleistung am Ende bei dem abartigen Stromverbrauch wirklich auf der Straße landet. :)
Fazit für mich: Falls die @Stock-Leistung mal nicht reicht, drehe ich einfach das Powerlimit rauf, statt mit mit dem Hardwareprogrammer ein Extreme Bios zu flashen. 465 Watt sind für mehr Takt immer noch genug. Eure Hotspottemperaturen waren aber auch beachtlich mit maximal 61 Grad bei 3 GHz Takt. Meine Wassertemp liegt dank etwas schneller drehenden Lüftern in einem ähnlichen Bereich, aber da komme ich bei weitem nicht hin und von Flüssigmetall lasse ich im PC mittlerweile die Finger. Das kann ein teurer Spaß werden. Bei Overclock.net wird häufig von guten Ergebnissen mit dem Honeywell PTM7950 Wärmeleitpad berichtet. Vielleicht probiere ich das irgendwann mal aus, wenn mir langweilig ist.

vinacis_vivids
2024-01-18, 22:03:43
Hard Reset Redux [4K] Vulkan 7950X + 7900XTX
_9QJU0ij4NI

GerryB
2024-01-18, 23:15:59
Die alte Hard Reset Demo@Steam läuft wohl noch mit DX9 ?
(zumindestens geht auch dort AFMF, wow!)

dildo4u
2024-01-20, 10:53:14
Performance/Preis Betrachtung mit reduziertem Preis.

vJn06-CZpQ4

GerryB
2024-01-20, 15:19:27
Warum nimmt DO nicht einfach alle Games wo FG für Beide implementiert ist, und vergleicht dann
4k-FSR2/3quality+FG ?
Das würde doch bezgl. Vram interessieren.(vor Allem nach ner Stunde Spielzeit)
(Interessant wäre dann noch, wie es mit aktiviertem rBar+DirectSorage ausschaut, = Zukunft?
oder konnte NV die Probleme in R&C inzwischen fixen, vllt. ist da irgendwas komplett ungeeignet für gleichzeitig ...)

Das Gefummel mit ausgesuchten Kram, z.T. in 1440p bei so ner großen GPU, bei Ihm ist sinnlos.

DrFreaK666
2024-01-20, 23:44:19
Seine Videos gehen mir sowieso langsam auf den Keks. Immer und immer wieder die gleichen Sequenzen. Mir würden Balken zum Schluss tatsächlich reichen

dildo4u
2024-01-21, 08:57:26
PCGH 7900XT vs 4070S

Besonders bemerkenswert die RT Performance in Alan Wake kein Plan was der Unterschied ist zu anderen schweren RT Games aber es Performt Plötzlich.
Wäre immens wenn das in Cyberpunk möglich wäre.

https://www.pcgameshardware.de/Radeon-RX-7900-XT-Grafikkarte-279322/Specials/Angebote-zum-Bestpreis-1438547/

AMD hatte ja geworben mit deutlich besseres RT Performance aber der Treiber war nicht Fertig?

horn 12
2024-01-21, 09:45:20
Nun, das Kartenhaus von Nvidia fällt mehr und mehr auseinander.
Die Effizienz bleibt wohl langsam als einziges Bestehen!
Da hatte Igor wohl Recht als er sagte mal schauen wie RDNA 3 in einem Jahr performt.

DrFreaK666
2024-01-21, 09:48:24
Da hatte Igor wohl Recht als er sagte mal schauen wie RDNA 3 in einem Jahr performt.

7800XT weiterhin nur 3% vor der 6800XT. Sehe da keine Verbesserung seitens RDNA3

dildo4u
2024-01-21, 09:50:34
Geht im Schnitt unter?Die 7800XT ist 30% schneller in Alan Wake.

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/

War ja immer die Frage was die ganzen zusätzliche Transistoren machen wirkte alles viel zu langsam.

horn 12
2024-01-21, 09:51:29
@DrfreaK666
Ist ja auch Navi32, nicht Navi 31
Erst die 7900GRE (ist stark beschnitten) ist die kleinste N31 GPU.

The_Invisible
2024-01-21, 10:04:46
Geht im Schnitt unter?Die 7800XT ist 30% schneller in Alan Wake.

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/

War ja immer die Frage was die ganzen zusätzliche Transistoren machen wirkte alles viel zu langsam.

Laut ihm nur bis max 15%, was jetzt?

DEG-flOOXw8

dildo4u
2024-01-21, 10:08:43
Anderes Modell andere Test Szene etc.
Ich fand es nur interessant da das Game kein RT auf Konsole nutzt der Entwickler also nicht auf gute AMD Performance achten musste.

DrFreaK666
2024-01-21, 10:12:32
Geht im Schnitt unter?Die 7800XT ist 30% schneller in Alan Wake.

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/

War ja immer die Frage was die ganzen zusätzliche Transistoren machen wirkte alles viel zu langsam.

ok. Sieht da schon anders aus.
Wäre das durchgehend so, dann wäre RDNA3 deutlich interessanter.
Wenn aber á la Intel nur einzelne Spiele optimiert werden, dann warte ich RDNA4 ab

OgrEGT
2024-01-21, 11:19:58
Geht im Schnitt unter?Die 7800XT ist 30% schneller in Alan Wake.

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Nachtest-Raytracing-Benchmarks-1437974/

War ja immer die Frage was die ganzen zusätzliche Transistoren machen wirkte alles viel zu langsam.
Tja... dann müsste man eigentlich konstatieren dass alles unter 4080 Müll ist uns genauso wie alle AMD Karten vollkommen rückständig und ungeeignet für RT ist...
Und was jetzt? Kirschen tauschen?

The_Invisible
2024-01-21, 11:25:12
Das Problem ist eher das DLSS besser aussieht und man FG + RR auch noch hat... für mich nicht wirklich vergleichbar

dildo4u
2024-01-21, 11:51:39
Das Problem ist eher das DLSS besser aussieht und man FG + RR auch noch hat... für mich nicht wirklich vergleichbar
Jup Upsampling ist Pflicht das betrifft nicht nur High-End RT.
PCGH hat 7900XTX unter 60fps in 1440p in Lords of the Fallen.

Lurtz
2024-01-21, 12:00:35
PCGH 7900XT vs 4070S

Besonders bemerkenswert die RT Performance in Alan Wake kein Plan was der Unterschied ist zu anderen schweren RT Games aber es Performt Plötzlich.
Wäre immens wenn das in Cyberpunk möglich wäre.

https://www.pcgameshardware.de/Radeon-RX-7900-XT-Grafikkarte-279322/Specials/Angebote-zum-Bestpreis-1438547/

AMD hatte ja geworben mit deutlich besseres RT Performance aber der Treiber war nicht Fertig?
Welches Preset wird denn da genutzt? DirectX 12, Raytracing with Standard Denoisers + Q-Upsampling -- rBAR/SAM enabled

Heißt Raytracing, dass die Pathtracing-Optionen deaktiviert sind, also RayTracing Preset Low?

dildo4u
2024-01-21, 12:02:54
Das sollte PT sein beide Karten schaffen keine 60fps in 1080p mit Upsampling Nativ sollte was um 40fps sein.

https://i.ibb.co/Gtdcnhs/Screenshot-2024-01-21-121123.png (https://ibb.co/2sFgWb8)

vinacis_vivids
2024-01-27, 03:44:49
Creator Review: 7900XTX vs RTX4090
JIsFqX4LgZI

SpoOokY1983
2024-01-31, 16:54:22
Das sollte PT sein beide Karten schaffen keine 60fps in 1080p mit Upsampling Nativ sollte was um 40fps sein.

https://i.ibb.co/Gtdcnhs/Screenshot-2024-01-21-121123.png (https://ibb.co/2sFgWb8)

Nein, das ist das ganze schnöde Standard RT (direkte Beleuchtung). Mit PT hat das nichts zu tun, da sähe das Ergebnis noch brutaler aus als bei CP77. Da ist, btw PT auch nicht aktiv.

OCmylife
2024-02-03, 20:08:11
https://ibb.co/sHz3d6f

ca 10 Min im Spiel. Die Wassertemperatur liegt aktuell bei 34,4 Grad und der Durchfluss bei 140l/h. Kein UV oder OC. Hwinfo-Screen kommt in 10 Min.

Edit: 10 Min weiter ist die Wassertemperatur genau um 0,1 Grad gestiegen und auch die Temperaturen generell sind stabil geblieben.

https://ibb.co/HhMb4pV

https://ibb.co/c3jXzdn

https://ibb.co/RTvdT6V

https://ibb.co/L8g5ndJ

Die GPU taktet bei voller Auslastung immer bei irgendwas um die 2,5(teilweise auch knapp drunter) bis 2,65 GHz. Ich hatte kurz nach Einbau einfach mal das Autooc-Feature benutzt, da es ja mit einem Klick getan ist. 465 Watt war mir dann aber doch etwas zu viel. Da lag der Takt dann ca bei 2,8 GHz und ich bin mir sicher, dass da auch noch mehr geht.

Ich bin den Tipps aus dem overclock.net Forum mal gefolgt und hatte mir über Amazon das Honeywell PTM7950 Set bestellt und wollte mich dann heute mal dem Projekt annehmen und die Noctua NT-H2 gegen das Wärmeleitpad zu tauschen. Leider bin ich daran gescheitert, dass Wärmeleitpad nach dem auftragen auf der GPU von seiner zweiten Folie zu befreien. Das ging dann so weit, dass ich das Pad nur noch in Teilen auf dem Die hatte und schlussendlich den ganzen "Salat" von der GPU entfernt und wieder Paste aufgetragen habe. :rolleyes: Das Pad ist wirklich hauchdünn und zerbröselt schnell. Wie man das dann nochmal wiederverwenden soll, erschließt sich mir nicht so ganz. Wenigstens hat mich das Pad inkl Versand gerade mal 9,32€ gekostet.

Die Temperaturen sind nach dem erneuten sauberen auftragen aber auch etwas besser als zuvor. Sollten sie so bleiben, wäre ich zufrieden.

https://ibb.co/fF40w1y

Da ich das System gerade erst wieder zusammen gebaut habe, ist das Foto natürlich noch nicht aussagekräftig.

Edit: Das Delta zwischen GPU und Hotspot-Temp ist aber ungefähr das selbe, sehe ich gerade.

Wiseman
2024-02-18, 18:22:20
Die alte Hard Reset Demo@Steam läuft wohl noch mit DX9 ?
(zumindestens geht auch dort AFMF, wow!)

AFMF geht nicht im DX9-Game Hard Reset aus dem Jahre 2012. Habe heute die Demo auch überprüft. Die Adrenalin Software meldet korrekt "Frame Generation inactive, please use DirectX 11 or 12 API". Muss ja auch nicht sein, da FPS in Hülle und Fülle.

Achill
2024-02-18, 21:03:10
AFMF geht nicht im DX9-Game Hard Reset aus dem Jahre 2012. Habe heute die Demo auch überprüft. Die Adrenalin Software meldet korrekt "Frame Generation inactive, please use DirectX 11 or 12 API". Muss ja auch nicht sein, da FPS in Hülle und Fülle.

Du könntest eins der letzten dgVoodoo2 Releases (https://github.com/dege-diosg/dgVoodoo2/releases) probieren, damit kann Glide & DX8/9 auf DX11/12 übersetzt werden ... habe selber schon eine Weile nicht mehr verwendet, die Doku gibt es hier (http://dege.freeweb.hu/dgVoodoo2/ReadmeGeneral/).

GerryB
2024-02-19, 08:32:13
AFMF geht nicht im DX9-Game Hard Reset aus dem Jahre 2012. Habe heute die Demo auch überprüft. Die Adrenalin Software meldet korrekt "Frame Generation inactive, please use DirectX 11 or 12 API". Muss ja auch nicht sein, da FPS in Hülle und Fülle.

Hast Du schon den RegistryHack = zusätzliches dword, benutzt?.... hatte ich schonmal gepostet
DAS sollte mehr API´s freischalten, ... wie bei mir zu sehen war, lief AFMF in HardReset. (wenn FrameGenLag angezeigt wird, ist AFMF aktiv)

Wiseman
2024-02-19, 22:09:28
Hast Du schon den RegistryHack = zusätzliches dword, benutzt?.... hatte ich schonmal gepostet
DAS sollte mehr API´s freischalten, ... wie bei mir zu sehen war, lief AFMF in HardReset. (wenn FrameGenLag angezeigt wird, ist AFMF aktiv)

Super Tipp. :uup:

Dieser GFGEnableAPI Eintrag in der Registry ist wirklich schnell erledigt. Kleiner Wermutstropfen: muss nach einem Treiberwechsel erneut eingetragen werden.

Und ein bisschen schneller wurde Hard Reset damit auch. Von 235 fps --> 445 fps. :biggrin:

Langlay
2024-02-19, 22:26:24
Super Tipp. :uup:

Dieser GFGEnableAPI Eintrag in der Registry ist wirklich schnell erledigt. Kleiner Wermutstropfen: muss nach einem Treiberwechsel erneut eingetragen werden.



Dann bastel dir doch eine .reg Datei die das für dich übernimmt. Dann sind das nur noch 2 Klicks.

][immy
2024-02-21, 22:22:39
Also nach den anfänglichen Soundproblemen (über Umwege gelöst) fällt mir gerade auf, das die Karte extrem schnell auf 300W geht (trotz silent Bios), selbst wenn ich alles mittels Vsync auf 60Hz begrenze. Habe jetzt mal -10% im Powertarget eingetragen, dadurch bleibt sie etwas darunter. Aber trotzdem säuft sie doch recht schnell (oder die Anzeige passt im Treiber nicht).

Z.B. vorhin bei Dungeons 4 ist mir aufgefallen, das im Treiber 300W Leistung auf der Platine liegen soll, als ich das Spiel minimiert hatte. Sobald ich wieder ins Spiel gegangen bin, gingen die Werte runter.

Bei Everspace 2 (alles auf Max, begrenzt auf 60Hz) süppelte sie auch sofort 300W. Als ich dann da auf einer Station war (also eigentlich nur Menü) und auf den rechten Schirm (aus dem Spiel) gegangen bin, war sie auch wieder bei 300W. Ich vermute aber mit den 300W stimmt etwas im Treiber nicht, denn eigentlich war das Spiel auf 30fps (im Hintergrund) begrenzt und die Temperatur ist auch nicht gerade angestiegen.

lilgefo~
2024-02-21, 22:49:12
[immy;13495806']Also nach den anfänglichen Soundproblemen (über Umwege gelöst) fällt mir gerade auf, das die Karte extrem schnell auf 300W geht (trotz silent Bios), selbst wenn ich alles mittels Vsync auf 60Hz begrenze. Habe jetzt mal -10% im Powertarget eingetragen, dadurch bleibt sie etwas darunter. Aber trotzdem säuft sie doch recht schnell (oder die Anzeige passt im Treiber nicht).

Z.B. vorhin bei Dungeons 4 ist mir aufgefallen, das im Treiber 300W Leistung auf der Platine liegen soll, als ich das Spiel minimiert hatte. Sobald ich wieder ins Spiel gegangen bin, gingen die Werte runter.

Bei Everspace 2 (alles auf Max, begrenzt auf 60Hz) süppelte sie auch sofort 300W. Als ich dann da auf einer Station war (also eigentlich nur Menü) und auf den rechten Schirm (aus dem Spiel) gegangen bin, war sie auch wieder bei 300W. Ich vermute aber mit den 300W stimmt etwas im Treiber nicht, denn eigentlich war das Spiel auf 30fps (im Hintergrund) begrenzt und die Temperatur ist auch nicht gerade angestiegen.

Zumindest das mit den 300W+ im Hintergrund muss nicht zwangsweise ein Problem von AMD sein. Kann mich an einige Spiele z.B. Total War Warhammer 2 erinnern, die sobald minimiert komplett das PL ausreizen. Hatte das über mehrere Generationen von Karten (von NV), Windows &Treiberversionen und Plattformen. Auch unabhängig davon, was man im Treiber oder Spiel als FPS Limit setzt.

kmf
2024-02-23, 10:26:40
[immy;13495806']Also nach den anfänglichen Soundproblemen (über Umwege gelöst) fällt mir gerade auf, das die Karte extrem schnell auf 300W geht (trotz silent Bios), selbst wenn ich alles mittels Vsync auf 60Hz begrenze. Habe jetzt mal -10% im Powertarget eingetragen, dadurch bleibt sie etwas darunter. Aber trotzdem säuft sie doch recht schnell (oder die Anzeige passt im Treiber nicht).

Z.B. vorhin bei Dungeons 4 ist mir aufgefallen, das im Treiber 300W Leistung auf der Platine liegen soll, als ich das Spiel minimiert hatte. Sobald ich wieder ins Spiel gegangen bin, gingen die Werte runter.

Bei Everspace 2 (alles auf Max, begrenzt auf 60Hz) süppelte sie auch sofort 300W. Als ich dann da auf einer Station war (also eigentlich nur Menü) und auf den rechten Schirm (aus dem Spiel) gegangen bin, war sie auch wieder bei 300W. Ich vermute aber mit den 300W stimmt etwas im Treiber nicht, denn eigentlich war das Spiel auf 30fps (im Hintergrund) begrenzt und die Temperatur ist auch nicht gerade angestiegen.Ich weiß auch ned, wie das gehen soll mit Stromverbrauch minimieren. Am Beispiel von Avatar: Spiel läuft ohne Treiberrücksetzung bei 1050mV. PT auf -10%, im Adrenalin stell ich die max Frequenz sogar runter auf 2500. Was passiert - es ist völlig irre. Stromsparen ist ned dafür geht die Karte trotz PT -10% und der Einstellung 2500 Mhz auf über 3000 Hz Boost. Ich weiß ned was hier erzählt wird mit Stromsparmechanismen bei 7900XTX, bei mir klappt das jedenfalls nicht. Karte verballert > 400W.
Ältere Spiele hab ich auch getestet - kann da runter auf 900mV, Boost geht da auch durch die Decke - Stromverbrauch auch.

][immy
2024-02-23, 11:13:23
Ich Frage mich allerdings ob das nur ein falscher Wert vom Treiber/Sensor ist, denn bei 300W hätte ich erwartet das auch die Temperatur ansteigt, was nicht der Fall war.
Zudem begrenze ich auf 60fps, was dann auch erstaunlich wäre, weil der größte Teil der Karte bei meinen bisherigen tests eigentlich idlen sollte.

RoNsOn Xs
2024-02-23, 14:14:26
Hab bislang nur noch den Fehler, dass über hwinfo 0Mhz VRAM-Takt ausglesen werden. Seit einigern Treibern so.

kleeBa
2024-02-23, 19:26:48
Der aktuelle Treiber ist in der Hinsicht ziemlich kaputt.
Die CPU Werte (Takt, Spannung, Verbrauch und Temperatur) werden in der Adrenalin Software permanent mit 0 angezeigt, der GPU Idle Verbrauch ist von 9 auf über 30 Watt gestiegen und was mir das Ingame Overlay anzeigt kann ich schon überhaupt nicht mehr ernst nehmen.
Hoffe das wird bald gefixt.

Megamember
2024-02-23, 19:50:50
Hab im Flight simulator mit meiner 7900XTX Nitro+ das Problem das sie eigendlich nie richtig hochtaktet mit den letzten paar Treibern. Bleibt fast immer unter 2000MHZ oder knapp darüber und das Spiel ruckelt ziemlich stark. Alle anderen Spiele laufen ganz gut.

GerryB
2024-02-23, 20:19:36
Sollte nicht mit Adrenalin 24.2.1 und aktivem AFMF die Graka ein bisschen mehr hochtakten?
(kommt mir subjektiv in Games XYZ so vor, als ob mit AFMF der Takt bei meiner ollen RDNA2
etwas höher wäre, ... quasi als AsyncCompute oben drauf gepackt)

Schnitzl
2024-02-23, 22:01:13
[immy;13496740']Ich Frage mich allerdings ob das nur ein falscher Wert vom Treiber/Sensor ist, denn bei 300W hätte ich erwartet das auch die Temperatur ansteigt, was nicht der Fall war.
Zudem begrenze ich auf 60fps, was dann auch erstaunlich wäre, weil der größte Teil der Karte bei meinen bisherigen tests eigentlich idlen sollte.
Seltsam. Computerbase hat da (v.a. im fps-Limit) sehr niedrige Verbrauchswerte gemessen.
Evtl. Treiber vermurkst oder Anzeige falsch?
Welche Auflösung hast du?

Raff
2024-03-09, 11:13:18
Sicherlich auch hier spannend: Geforce RTX 4090 vs. Radeon RX 7900 XTX: Duell der Topmodelle - Nachtest 2024 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/)

Vergleicht man die 7900 XTX im März 2024 mit der 6800 XT, erreicht das Dickschiff immerhin +62 Prozent beim Rasterizing und +66 Prozent beim Raytracing (jeweils UHD).

MfG
Raff

dargo
2024-03-09, 13:05:09
Vergleicht man die 7900 XTX im März 2024 mit der 6800 XT, erreicht das Dickschiff immerhin +62 Prozent beim Rasterizing und +66 Prozent beim Raytracing (jeweils UHD).

Wieso sollte man das tun? Um sich die RX 7900XTX schöner zu saufen? :freak: Der einzig sinnvolle Vergleich ist RX 7900XTX vs. RX 6900XT!

Ex3cut3r
2024-03-09, 13:28:32
Ende des Jahres kommen schon neue Karten. Wurde keine 40er oder AMD Karte kaufen.

GerryB
2024-03-09, 14:10:43
RDNA4 wird sicher nicht die XTX ersetzen können wollen
(momentan für 889€ ist die XTX auch nicht zu teuer)

dargo
2024-03-09, 14:21:58
Aber zu durstig!

GerryB
2024-03-09, 14:24:38
die 312W bei Wiseman sind doch noch erträglich
(um ne RDNA4 auf die Fps zu OCen, wirds auch net sparsamer)

dargo
2024-03-09, 20:48:21
die 312W bei Wiseman sind doch noch erträglich

Klar, deswegen ging meine zurück. :ulol:

GerryB
2024-03-09, 20:50:07
Manche kennen nichtmal den Unterschied zw. TGP und TBP.
(und glauben dann das ihre olle RDNA2 sonstwie effizient wäre)

dargo
2024-03-09, 20:51:58
Geh woanders trollen bitte. Meine Güte...

Das sind 230-240W für die gesamte Karte, nur um ein Beispiel zu nennen.
sm7RhidfpE8

Raff
2024-03-09, 21:31:50
Wieso sollte man das tun? Um sich die RX 7900XTX schöner zu saufen? :freak: Der einzig sinnvolle Vergleich ist RX 7900XTX vs. RX 6900XT!

Auch gut. Dann rechne fünf Prozent bei der 6800 XT obendrauf (oder nimm einfach die Werte der 7800 XT in den aktuellen Benchmarks). Ändert nichts an der Aussage "kann sich sehen lassen". Nvidia schlägt das eigene Topmodell im vergleichbaren Rahmen: +68 Prozent beim Rasterizing, +69 Prozent beim Raytracing (wieder beides UHD). Ich bin sehr gespannt, ob die Folge-Generationen das ebenfalls schaffen.

MfG
Raff

lilgefo~
2024-03-09, 22:32:23
RDNA4 wird sicher nicht die XTX ersetzen können wollen
(momentan für 889€ ist die XTX auch nicht zu teuer)

Für 900€ oder niedriger ist die XTX ne Top Karte. Man kriegt im Raster ne 4090 -~30% und zahlt die Hälfte. Wo jetzt das Problem bei 300W+ Verbrauch liegen soll verstehen auch nur Leute, die im Kopf noch in der Katmai Ära sind wo alles mit einem 40mm Lüfter gekühlt wurde. Wer RT & Nv Software Features will will kauft sich ne 4090 zahlt aber auch das Doppelte oder kauft sich erst ne 4080 um zu merken, dass die einfach zu lahm ist und dann die 4090.

1ch0
2024-03-09, 22:33:34
Wer RT & Nv Software Features will will kauft sich ne 4090 zahlt aber auch das Doppelte oder kauft sich erst ne 4080 um zu merken, dass die einfach zu lahm ist und dann die 4090.

Die 4080 is nicht zu lahm, aber sie könnte mehr VRAM gebrauchen.

lilgefo~
2024-03-09, 22:35:45
Zu lahm für den Preis auf jeden Fall wenn ne 7900xtx 900€ kostet.

GerryB
2024-03-09, 22:47:00
Wo jetzt das Problem bei 300W+ Verbrauch liegen soll verstehen auch nur Leute, die im Kopf noch in der Katmai Ära sind wo alles mit einem 40mm Lüfter gekühlt wurde. ...
1+

Ich frage mich auch wie Manche in 4k-120Hz/fps maxed spielen wollen, ohne 300W reinzustecken.
Mit den guten Vaporchamber-Kühlern ist Das kein Thema.
(Nativ wirds nicht immer reichen, ... dafür gibts dann zum Glück FSR und/oder FG/AFMF, damits auch in den
Benchszenen von PCGH reicht)

lilgefo~
2024-03-09, 23:07:05
1+

Ich frage mich auch wie Manche in 4k-120Hz/fps maxed spielen wollen, ohne 300W reinzustecken.
Mit den guten Vaporchamber-Kühlern ist Das kein Thema.
(Nativ wirds nicht immer reichen, ... dafür gibts dann zum Glück FSR und/oder FG/AFMF, damits auch in den
Benchszenen von PCGH reicht)

Jop, vor Allem wenn man mal überlegt wie es früher war. Kaufst das Topmodell und kriegst nen 40mm Turbinen Fön der schon im Windows abhebt und sobald man 2xAA angemacht hat lag man direkt bei 25fps bei 1024x768. Dafür nur 50Watt Verbrauch. Toll. Heutzutage kann man 400W+ auch problemlos silent kühlen wenn man will und selbst die normalen Referenzdesigns mit Lukü sind um Welten besser als alles was es früher gab. Vor Allem kann man heutzutage ja alle Parameter easy einstellen. Sei es das PL, Takt, Fan Curve etc. pp. Wie man darüber nölen kann ist mir unverständlich. Und dazu kommt dann noch das es dann auch damals schon teurer Grafikkarten gab, ne GeForce 2 Ultra kostete 1200DM. Und die massiv beschnittenen Budgetmodelle haben auch über 100DM gekostet ohne wirklich irgendwas zu können. Inflationsbereinigt ist es also nur geringfügig teurer geworden. Und heutzutage kann man selbst auf ner 6600xt mit gewissen Kompromissen AAA Spiele flüssig mit 60 fps spielen. Sowas hat man zu gf2/3 bzw. radeon 7000/8000 Zeiten mal grad mit den Topmodellen hingekriegt. Alles darunter lag auch mit reduzierten/minimalen Details&Auflösung weit unter 60.

HOT
2024-03-09, 23:31:29
Klar, deswegen ging meine zurück. :ulol:
Den Quatsch hab ich eh nie verstanden :freak:... Aber deine Sache. Ich hab das Ding um nichts in der Welt zurückgeschickt und war echt froh über die Mehrleistung.

dargo
2024-03-10, 06:21:21
Wo jetzt das Problem bei 300W+ Verbrauch liegen soll verstehen auch nur Leute, die im Kopf noch in der Katmai Ära sind wo alles mit einem 40mm Lüfter gekühlt wurde.
Mit Physik hast du es nicht so oder? Die 300+W an Abwärme müssen aus dem Gehäuse wieder irgendwie raus. So ein Gehäuse ist irgendwann mit Abwärme pro Zeit gesättigt. Wenn diese Sättigung erreicht ist schaffst du es nicht mehr diese Abwärme praktisch lautlos aus dem Gehäuse abzuführen ohne dass andere Komponenten hohe Temperaturen erreichen. Ich lege großen Wert an einen praktisch lautlosen PC, nicht nur in Idle. Und da sind um die max. 250W bei einer Grafikkarte wesentlich angenehmer was Wärmeabführung mit Luft angeht.

Den Quatsch hab ich eh nie verstanden :freak:... Aber deine Sache. Ich hab das Ding um nichts in der Welt zurückgeschickt und war echt froh über die Mehrleistung.
Es waren drei Gründe...

1. Der Upgradedruck war noch nicht hoch genug da alles mit der aktuellen Graka noch schnell genug läuft. Raytracing alleine ist für mich kein Upgradegrund.
2. Der Betriebspunkt von RDNA3 bzw. N31 in diesem Fall störte mich. Dadurch, dass das Ding so extrem durstig ist musste es extrem eingebremst werden innerhalb der V/F-Kurve wodurch die GPU deutlich tiefer innerhalb dieser operieren muss als noch der Vorgänger (eindeutiges Indiz dafür, dass hier im Design was schief gelaufen ist).
3. Selbst mit diesem Nachteil unter Punkt 2 nagelt AMD RDNA3 völlig zu, so dass ich mir als Kunde keinen N31 mit bsw. 250W über das Powerlimit konstruieren kann.

Kurz gefasst... das sind mir zu viele Kompromisse, insbesondere bei den abgerufenen Preisen bei N31.

Auch gut. Dann rechne fünf Prozent bei der 6800 XT obendrauf (oder nimm einfach die Werte der 7800 XT in den aktuellen Benchmarks). Ändert nichts an der Aussage "kann sich sehen lassen". Nvidia schlägt das eigene Topmodell im vergleichbaren Rahmen: +68 Prozent beim Rasterizing, +69 Prozent beim Raytracing (wieder beides UHD). Ich bin sehr gespannt, ob die Folge-Generationen das ebenfalls schaffen.

Das macht es kein Stück besser nur weil Nvidia auch so lahm beim Nachfolger ist. Insbesondere dann mit hirnverbrannten 450W. Mit 300W wären es womöglich nicht mal +50% gewesen.

The_Invisible
2024-03-10, 08:20:49
Ach dargo... Die 450w werden quasi nie ausgenutzt bzw könntest die sogar auf deine 250w festnageln, aber selber schuld wenn man keinen Blick auf Team grün riskiert

1ch0
2024-03-10, 09:04:25
Zu lahm für den Preis auf jeden Fall wenn ne 7900xtx 900€ kostet.

Kommt halt immer darauf an, was man macht. Wenn man Titel wie Cyberpunk RT Overdrive oder Alan Wake 2 mit Pathtracing spielen will, ist eine AMD Karte, egal welche, völlig unbrauchbar. Ist leider die Realität.

Im Großteil aller anderen Games macht die AMD Karte auf jedenfall ne gute Figur. War mit meiner 6900XT vorher ja auch zufrieden. :smile:

Dann gibt es natürlich noch Features wie Nvidia's DLSS und Ray Reconstruction und die generell höhere Verbreitung von CUDA Applications. Wenn man davon Gebrauch machen will, ist man leider zu Nvidia gezwungen.

Und schau dir das Bild an. Geflacker ohne Ende und welches FSR Setting da wohl läuft?

-A-xgBwgcYw

Taigatrommel
2024-03-10, 10:26:10
Ach dargo... Die 450w werden quasi nie ausgenutzt bzw könntest die sogar auf deine 250w festnageln, aber selber schuld wenn man keinen Blick auf Team grün riskiert

Ja das kann ich sogar mit meiner 7900 XTX Nitro+ bestätigen, selbst wenn ich UV einschalte und Leistung auf +15% drehe, sehe ich die ~460W nur bei einzelnen Titeln. Genauer gesagt ist es quasi nur Control, wo die Leistungsaufnahme bei ca. 463W festgenagelt wird. Die Karte kann das sogar kühlen, wird halt entsprechend so laut, bzw. sogar noch einen Tick lauter als die MBA @stock.

Ich kann auch jetzt, fast 15 Monate nach dem Wechsel 6900 XT auf 7900 XTX, den Kauf nicht bereuen, die Leistungssteigerung ist spürbar genug und gerade für 3440x1440 und inzwischen 175 Hz macht die XTX oftmals den entscheidenden Unterschied in punkto Performance aus. Das einzige was mich nach wie vor stört, ist die bei mir sibjektiv gesehen beschissene Treiberstabilität. Mit der RDNA2 gab es quasi nur Abstürze, wenn ich es mit dem UV übertrieben habe, jetzt mit der RDNA3 (trotz sogar zweiter Karte) gibt es auch bei Standardeinstellungen immer mal Probleme. Ist inzwischen zwar deutlich weniger geworden, doch es ist halt kein Vergleich zur quasi rock-stable 6900 XT zwischen 2020 und 2022.

dargo
2024-03-10, 10:57:16
Ach dargo... Die 450w werden quasi nie ausgenutzt bzw könntest die sogar auf deine 250w festnageln, aber selber schuld wenn man keinen Blick auf Team grün riskiert
Schreibs dir endlich hinter die Ohren, dass mir alles was von Nvidia kommt am Allerwertesten vorbei geht. Zumal ich Summen die Lederjacke da für AD102 abruft eh nicht bezahlen würde auch wenn ichs spielend kann. Diese Hardware ist es mir einfach nicht wert. Und hör mir endlich mit euren Märchen auf die 450W werden quasi nie ausgeschöpft. Sie werden ausgeschöpft wenn man die Karte fordert.
https://www.computerbase.de/2024-01/nvidia-geforce-rtx-4080-super-review-test/4/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

Da ist es auch wayne ob es am Ende 400W, 440W oder 450W sind. Mein persönliches Limit ist deutlich drunter.

kmf
2024-03-10, 12:19:23
^^ Also 460W hab ich bei meiner Nitro noch nicht gesehen, 412W war das höchste, was Trixx mir gezeigt hat bei +15% und 3164 Mhz Boost. Am Voltregler spiel ich nimmer, das bringt bei mir in Sachen weniger Verbrauch null, genauso wie das Bios II.

Ich lass die Karte nur noch auf Werkseinstellung laufen, ist vom Lüftergeräusch und der Leistung beste Einstellung. Mein ganzes Rumgefummel zwecks Verbrauchsminderung hat nix gebracht.

Probleme mit der Treiberstabilität kann ich nicht nachvollziehen. Bisher ist da nix aufgetreten.

Hast du mal eine Neuinstallation von Windows ins Auge gefasst?

RoughNeck
2024-03-10, 13:10:20
Ach Leute.
Das Power Limit jeder Hardware kann man spielend ausschöpfen, richtige Software und Einstellung vorausgesetzt. Meine 4090 kann ich spielend ins Power Limit bringen, eine 7900 XT (meine Frau hat eine Nitro von Sapphire) bringt man ebenso spielend ans Limit wenn man denn möchte.

Macht halt keinen Sinn, jeder der FPS Limiter und Einstellungen bedienen kann, wird die Karten nie im Limit sehen.

OCmylife
2024-03-10, 13:37:00
Ach Leute.
Das Power Limit jeder Hardware kann man spielend ausschöpfen, richtige Software und Einstellung vorausgesetzt. Meine 4090 kann ich spielend ins Power Limit bringen, eine 7900 XT (meine Frau hat eine Nitro von Sapphire) bringt man ebenso spielend ans Limit wenn man denn möchte.

Macht halt keinen Sinn, jeder der FPS Limiter und Einstellungen bedienen kann, wird die Karten nie im Limit sehen.

This! Der Framelimiter vom Treiber funktioniert hervorragend und meistens genehmigt sich meine Karte irgendwas zwischen 200 und 300 Watt und das selbst in 4K mit 60 fps. Bei wirklich anspruchsvollen Szenen sehe ich dann selten mal auch die volle Leistungsaufnahme von 406 Watt, die sich die Karte genehmigen kann, aber das ist eher die Ausnahme, als die Regel.

Gestern war mein Kollege auch überrascht, wie leise mein System selbst beim zocken ist. Für ihn sogar unhörbar, ich nehme die gedrosselte Pumpe aber noch wahr. :biggrin:

Was die Treiberstabilität angeht, bin ich aber auch nicht 100% zufrieden. Es passiert trotz Neuinstallation von Windows doch 2 Mal im Monat, dass sich der Treiber zurück setzt und das lustigerweise immer ohne große Last beim Video schauen. Im Spiel ist das noch nicht einmal vorgekommen. Und die Ereignisanzeige von Windows liefert natürlich auch keinerlei Informationen, was da jetzt schief lief. Es sind auch keine WHEA Errors. :confused: Und wenn man dann mal eine Meldung an die Treiberentwickler schicken will, soll man den Fehler reproduzierbar beschreiben. ;D

Tesseract
2024-03-10, 13:56:08
Mit Physik hast du es nicht so oder? Die 300+W an Abwärme müssen aus dem Gehäuse wieder irgendwie raus. So ein Gehäuse ist irgendwann mit Abwärme pro Zeit gesättigt. Wenn diese Sättigung erreicht ist schaffst du es nicht mehr diese Abwärme praktisch lautlos aus dem Gehäuse abzuführen ohne dass andere Komponenten hohe Temperaturen erreichen. Ich lege großen Wert an einen praktisch lautlosen PC, nicht nur in Idle. Und da sind um die max. 250W bei einer Grafikkarte wesentlich angenehmer was Wärmeabführung mit Luft angeht.

das ist absolut kein thema mit echten airflow-cases. ein fractal torrent bläst dir mit den lüftern auf 600rpm auch 1000W problemlos aus dem case.

Und hör mir endlich mit euren Märchen auf die 450W werden quasi nie ausgeschöpft.
das ist kein märchen sondern realität. hier ein paar beispiele mit stock settings ohne UV, alles in 4k:

cyberpunk PT, DLSS-P, FG, RR, ~360W bei ~110fps
RE4 native res, ~360W
talos principle 2, DLAA ohne FG ~350W
hitman 3, max RT ohne upscaling ~400W, mit wesentlich sinnvolleren DLSS-Q und FG ~360W bei >100fps
plaguetale requiem ~400W in native, ~360W mit DLSS-Q bei ~130fps

und sobald man irgendwo mal am framelimiter ansteht ist man schnell mal <300W.
gut möglich dass der verbrauch in ein paar jahren mit moderneren spielen häufiger über 400W liegt aber aktuell ist das definitiv eine seltenheit bzw. beschränkt sich meist auf sehr spezielle fälle, z.B. downscaling von 8k oder settings die man in der praxis nicht fahren würde.

Exxtreme
2024-03-10, 14:32:42
Und hör mir endlich mit euren Märchen auf die 450W werden quasi nie ausgeschöpft. Sie werden ausgeschöpft wenn man die Karte fordert.

Natürlich werden sie erreicht wenn(!) man die Karte fordert. Nur hat man wiederum die Wahl ob man die Karte fordert oder nicht. Eine Wahl, die man mit einer anderen Karte schlicht gar nicht hat.

dargo
2024-03-10, 14:41:32
das ist absolut kein thema mit echten airflow-cases. ein fractal torrent bläst dir mit den lüftern auf 600rpm auch 1000W problemlos aus dem case.

Ich stehe nicht so auf Schweizer-Käse wo du dir das nächste Problem ins Haus holst... hörbare, fiepende Grafikkarten. :tongue: Meine Gehäuse sind gedämmt und nur das nötigste offen. ;)

Tesseract
2024-03-10, 15:36:06
hier fiept unter normalbedingungen nix. das lauteste sind die lüfter und die können unter last deutlich langsamer drehen wenn sie nicht gegen obstruktionen ankämpfen müssen, egal ob GPU, CPU oder gehäuse. das ATX paradigma aus den 90ern mit kleinen lüftern die um 3 ecken luft durch kleine schlitze saugen ist einfach obsolet.

Mannyac
2024-03-10, 20:17:40
Das mit dem Fiepen kann ich auch nicht nachvollziehen.

Meine Kiste ist Wassergekühlt, also anfällig auf sowas. Ich hör nix. Das einzige was ich höre ist mein Datengrab, also eine 2.5" 4TB Harddisk die noch im Gehäuse ist. Und unter hoher last schaltet manchmal der Lüfter vom Netzteil ein. Ansonsten Ruhe.
Ist eine XFX 7900XTX Merch310

gedi
2024-03-10, 22:11:39
Meine Vermutung: Die N3x Generation erfährt dieses Jahr durch AI eine Renaissance!

gedi
2024-03-10, 22:16:01
das ist absolut kein thema mit echten airflow-cases. ein fractal torrent bläst dir mit den lüftern auf 600rpm auch 1000W problemlos aus dem case.


das ist kein märchen sondern realität. hier ein paar beispiele mit stock settings ohne UV, alles in 4k:

cyberpunk PT, DLSS-P, FG, RR, ~360W bei ~110fps
RE4 native res, ~360W
talos principle 2, DLAA ohne FG ~350W
hitman 3, max RT ohne upscaling ~400W, mit wesentlich sinnvolleren DLSS-Q und FG ~360W bei >100fps
plaguetale requiem ~400W in native, ~360W mit DLSS-Q bei ~130fps

und sobald man irgendwo mal am framelimiter ansteht ist man schnell mal <300W.
gut möglich dass der verbrauch in ein paar jahren mit moderneren spielen häufiger über 400W liegt aber aktuell ist das definitiv eine seltenheit bzw. beschränkt sich meist auf sehr spezielle fälle, z.B. downscaling von 8k oder settings die man in der praxis nicht fahren würde.

Wie du mit RT unter 4k bei 360w bleiben willst, bleibt wohl nur dein Geheimnis. F1 23 komplett aufgedreht braucht hier zwischen 400 und 450w!

Tesseract
2024-03-10, 22:28:26
was ist daran geheim wenn die settings da stehen? mach eines der spiele auf und stell es nach. :rolleyes:

dargo
2024-03-11, 09:11:52
Wie ich schon sagte... mir wird es zu albern mit euch über die paar Watt hin und her zu diskutieren im eh schon hirnverbrannten Bereich von um die 400W. Ich brauche auch keine Wattage-Angaben von dir Tesseract was eine RTX 4090 säuft, das sehe ich alles auf YT. Zb. APTR.
https://youtu.be/tBbuPwUHu1A?si=pD0wgI5IReMVKG5p&t=36

Von mir aus nennt es bis zu 450W wenn ich euch dabei besser fühlt.

PS: an dem Video sehe ich auch, dass die Karte im Taktlimit hängt. Ergo nicht verwunderlich, dass die max. 450W hier nicht ausgeschöpft werden.

Edit:
Hier noch ein Beispiel mit Hitman 3 wo es bis zu 440W geht. Ist zwar eine custom 4090, aber in der verlinkten Szene werden die max. 2730Mhz gar nicht erreicht. Ergo kein Taktlimit.
https://youtu.be/S2EqzupS-PY?si=wcjt35854IlDH_tO&t=77

Ich könnte mir aber auch vorstellen, dass der 5800X3D schon minimal hier und da die RTX 4090 bei dir ausbremst bzw. zu kleinen Verschnaufpausen führt wodurch der Verbrauch bei dir etwas kleiner ausfällt. Natürlich nicht im 50-er Bereich oder so sondern bei hohen fps. Eine kleine Streuung bei den Samples würde ich auch nicht unbedingt ausschließen wollen. Sprich... Goldensamples brauchen eventuell etwas weniger Spannung pro Taktstufe was in etwas weniger Verbrauch resultiert.

PS: im Benchmark sieht man sehr gut, dass die MSI custom bei 2805Mhz dicht macht. Ist die Last je nach Szene nicht hoch genug gibts hier auch Taktlimit und kein Powerlimit.

Raff
2024-03-11, 09:33:32
400 Watt ist für 4K-Volllast ein guter (Average-)Richtwert. Über eine breite Spielepalette ist es aber viel weniger, denn nicht alle Systeme laufen mit 4K oder können die GPU voll auslasten. Sogar im bewusst brutalen (für die GPU) PCGH-Parcours sind es über ~250 Messungen nur 360 Watt (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/4/).

MfG
Raff

Exxtreme
2024-03-11, 09:53:14
Naja, das hat auch was mit der Fähigkeit zu tun Entscheidungen treffen zu können. Man kann eine RTX 4090 so abriegeln, dass sie wenig Strom zieht indem man Framelimiter nutzt. Ich nutze den reichlich bei Spielen, die keine 200 fps brauchen um sehr gut zu laufen. Wenn man dazu aber nicht in der Lage ist Entscheidungen zu treffen dann wählt man Produkte, die die Dinge, die man als nicht richtig empfindet gar nicht erst können. Wenn das Produkt das nicht kann dann kann es das halt nicht. Und man ist schön vor sich selbst beschützt.

dargo
2024-03-11, 10:01:03
Wie du mit RT unter 4k bei 360w bleiben willst, bleibt wohl nur dein Geheimnis. F1 23 komplett aufgedreht braucht hier zwischen 400 und 450w!
Kommt auch hin mit einer schnellen CPU wie zb. 7800X3D.
https://youtu.be/uDigt5d8-kE?si=AcWraviKEmg3Phhd&t=460

Naja, das hat auch was mit der Fähigkeit zu tun Entscheidungen treffen zu können. Man kann eine RTX 4090 so abriegeln, dass sie wenig Strom zieht indem man Framelimiter nutzt. Ich nutze den reichlich bei Spielen, die keine 200 fps brauchen um sehr gut zu laufen. Wenn man dazu aber nicht in der Lage ist Entscheidungen zu treffen dann wählt man Produkte, die die Dinge, die man als nicht richtig empfindet gar nicht erst können. Wenn das Produkt das nicht kann dann kann es das halt nicht. Und man ist schön vor sich selbst beschützt.
Sorry, aber dieses Argument ist kompletter Humbug. Nichts weiter als sich den Stromverbrauch schön zu saufen. Wenn ich eh einen Framelimiter benutzen will wofür soll ich dann so viel Geld für eine RTX 4090 ausgeben? Völlig gaga Argument. Framelimit ja, aber knapp unter der max. Refreshrate vom Bildschirm. Wenn mein Bildschirm aber 240Hz/165Hz/144Hz schafft dann limitiere ich doch nicht schon bei 60fps oder so einen bullshit nur damit mein Gewissen zwecks weniger Verbrauch beruhigt ist. :ucrazy: Für einen high-fps Spieler wie mich keine Option. Aber ja... ich brauche jetzt nicht unbedingt 200fps oder sowas. Das wäre die andere Extreme.

Raff
2024-03-11, 10:06:39
Naja, das hat auch was mit der Fähigkeit zu tun Entscheidungen treffen zu können. Man kann eine RTX 4090 so abriegeln, dass sie wenig Strom zieht indem man Framelimiter nutzt. Ich nutze den reichlich bei Spielen, die keine 200 fps brauchen um sehr gut zu laufen. Wenn man dazu aber nicht in der Lage ist Entscheidungen zu treffen dann wählt man Produkte, die die Dinge, die man als nicht richtig empfindet gar nicht erst können. Wenn das Produkt das nicht kann dann kann es das halt nicht. Und man ist schön vor sich selbst beschützt.

Meine Karte braucht selbst unter 4K-Last durchschnittlich nur um die 200 Watt. Hardcore-Undervolting löst alle Probleme - in Kombination mit dem von dir genannten Framelimit ist das so sparsam, dass es fast erschreckend ist. Ich nutze sie zu 99 Prozent der Zeit so. Wir sind aber im falschen Thread für AD102-Lobhudelei. :D

Sorry, aber dieses Argument ist kompletter Humbug. Nichts weiter als sich den Stromverbrauch schön zu saufen. Wenn ich eh einen Framelimiter benutzen will wofür soll ich dann so viel Geld für eine RTX 4090 ausgeben? Völlig gaga Argument. Framelimit ja, aber knapp unter der max. Refreshrate vom Bildschirm. Wenn mein Bildschirm aber 240Hz/165Hz/144Hz schafft dann limitiere ich doch nicht schon bei 60fps oder so einen bullshit. :ucrazy:

Fps-Limit @ Half Refresh Rate ist IMHO ein sehr guter Kompromiss für die allermeisten Spiele -> 72 Fps bei 144 Hertz.

MfG
Raff

dargo
2024-03-11, 10:13:39
Fps-Limit @ Half Refresh Rate ist IMHO ein sehr guter Kompromiss für die allermeisten Spiele -> 72 Fps bei 144 Hertz.

Für mich bestimmt nicht, schon gar nicht wenn ich 1800+€ investieren müsste.

Raff
2024-03-11, 10:19:12
Das Tolle am PC ist, dass du immer, sogar pro Spiel, die Wahl hast. :) Offenbar stehst du dir aber wie eine Mauer im Weg.

MfG
Raff

dargo
2024-03-11, 10:21:10
Das Tolle am PC ist, dass du immer, sogar pro Spiel, die Wahl hast. :) Offenbar stehst du dir aber wie eine Mauer im Weg.

Das ist keine Mauer sondern mein persönlicher Anspruch. ;) Ich sag auch nicht, dass jemand anders diesen teilen muss.

Edit:
Hier ein Beispiel von vielen wo ich mich verdammt wohl fühle.
KqkLVsUfz1c

Wiseman
2024-03-12, 21:00:46
400 Watt ist für 4K-Volllast ein guter (Average-)Richtwert. Über eine breite Spielepalette ist es aber viel weniger, denn nicht alle Systeme laufen mit 4K oder können die GPU voll auslasten. Sogar im bewusst brutalen (für die GPU) PCGH-Parcours sind es über ~250 Messungen nur 360 Watt (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/4/).

MfG
Raff

Raff, im Zusammenhang mit euren PCGH-Parcours hätte ich einen Vorschlag. Mir fällt auf, dass du für die Benchmark-Videos nicht eure RTX 4090, sondern eure 7900XTX benützt. Mein Vorschlag: benütze bitte in Zukunft eure 4090 samt Watt-Anzeige im Overlay, dann könnte ich mir beim Betrachten deines Videos einen Eindruck zum Watt-Verbrauch einer 4090 im brutal-harten PCGH-Parcours verschaffen. Den Watt-Verbrauch einer 7900XTX während eines Benchmarks kenne ich als 7900XTX-User zur Genüge, den eurer RTX 4090 aber nicht.

The_Invisible
2024-03-12, 21:18:36
Das Tolle am PC ist, dass du immer, sogar pro Spiel, die Wahl hast. :) Offenbar stehst du dir aber wie eine Mauer im Weg.

MfG
Raff

Bei dargo sind solche Diskussionen sinnlos sonst würde er auch wissen das selbst eine stark UV 4090 noch allen anderen Karten davonzieht :D

Er redet immer wie wichtig ihm der Verbrauch ist aber blendet den effizientesten Chip dieser Generation (Ada) einfach aus und hofft auf ein RDNA4 Wunder.

@Wiseman
Naja ich als Geforce User will aber schon wissen wie viel die Radeons so ziehen :D

dargo
2024-03-12, 21:29:48
Bei dargo sind solche Diskussionen sinnlos sonst würde er auch wissen das selbst eine stark UV 4090 noch allen anderen Karten davonzieht :D

Breaking News... der fetteste und teuerste Chip einer aktuellen Generation ist undervoltet und eingebremst der effizienteste und schnellste. :facepalm:

basix
2024-03-13, 07:42:57
Fps-Limit @ Half Refresh Rate ist IMHO ein sehr guter Kompromiss für die allermeisten Spiele -> 72 Fps bei 144 Hertz.

70fps wäre für mich in vielen Spielen zu wenig. Aber auch bei 141fps Limit, 4K, aktuellen Spielen und entsprechenden GPU-Tuning liegt man im Schnitt bei 250-280W.

The_Invisible
2024-03-13, 15:37:28
Breaking News... der fetteste und teuerste Chip einer aktuellen Generation ist undervoltet und eingebremst der effizienteste und schnellste. :facepalm:

Zieht sich durch ganz Ada, außerdem kannst die Geforces auch noch richtig UV/PL limitieren anstatt den mickrigen 10% bei RDNA3

lilgefo~
2024-03-13, 15:54:09
Mit Physik hast du es nicht so oder? Die 300+W an Abwärme müssen aus dem Gehäuse wieder irgendwie raus. So ein Gehäuse ist irgendwann mit Abwärme pro Zeit gesättigt. Wenn diese Sättigung erreicht ist schaffst du es nicht mehr diese Abwärme praktisch lautlos aus dem Gehäuse abzuführen ohne dass andere Komponenten hohe Temperaturen erreichen. Ich lege großen Wert an einen praktisch lautlosen PC, nicht nur in Idle. Und da sind um die max. 250W bei einer Grafikkarte wesentlich angenehmer was Wärmeabführung mit Luft angeht.


Um warme Luft aus Gehäusen zu bekommen gibt es einige recht simple Methoden. Das dir die nicht so geläufig sind überrascht einerseits andereseits auch nicht.
Im Gegensatz zu dir hab ich ein High-End System das ich voll ausfahren und dabei leise kühlen kann.
Darüber hinaus sei angemerkt, dass das was du mit deinem Lükusys als leise bezeichnest liegt darüber hinaus über meiner Toleranz was Lüftergeräusche angeht.

Im Endeffekt zeigst du nur, dass dich die Thermik ab 200W vor so unlösbare Kühlprobleme stellt, dass du die Leistung deines Computers reduzieren musst um damit fertig zu werden. Physikkenntnisse wären an der Stelle natürlich hilfreich. Anderseits ist es aber ja auch ok, nicht jeder ist Enthusiast und muss immer das Beste haben. Im unteren Stack gibt es ja genügend Karten, die deutlich geringere Verbräuche haben und es dir damit dann ein Leichtes sein sollte einen halbwegs leisen PC zu bauen.
Nur davon auszugehen, dass deine Limitierungen auch für Andere gelten und sich die GPU-Hersteller nach dem was für dich grad noch kühlbar ist auszurichten ist schon ein bisschen naiv. Passt aber auch wieder ins Bild des Pöbelusers, welchen du hier ja desöfteren und auch schon in diesem Thread auslebst.

gedi
2024-03-13, 19:55:42
Breaking News... der fetteste und teuerste Chip einer aktuellen Generation ist undervoltet und eingebremst der effizienteste und schnellste. :facepalm:

Die Grafikkarte ist echt gut, in jeglicher Beziehung. Die Treiber sind leider nur okay. Beim Gamen rockstable, in YT unter Edge ne Katastrophe!

BTW. Selbst wenn man das PL nicht limitiert und sich den Curve-Krempel nicht antun will, dann landet man beim Rasterizing in 4k bei ~300w bei 30% Vorsprung for einer XTX, welche 363w verbrät. RT möchte ich nicht erwähnen, da es für mich absolut keinen Mehrwert darstellt.

dargo
2024-03-13, 20:10:39
Um warme Luft aus Gehäusen zu bekommen gibt es einige recht simple Methoden.
Ja... die simpelste und kostengünstigste ist keine Heizöfen zu kaufen. :lol: Aber das weiß auch jeder der etwas Ahnung von Physik hat.

gedi
2024-03-13, 21:36:39
Ja... die simpelste und kostengünstigste ist keine Heizöfen zu kaufen. :lol: Aber das weiß auch jeder der etwas Ahnung von Physik hat.

Dann kauf doch eine 4070s und lässt die bei 130w raus. Da ist auch der Hersteller egal und die Kühlung spielt keine Rolle. So schnell/schneller als deine 6800xt, nur mit halbem Verbrauch, bei lediglich 12GB Vram. Ne, dann kauf ne 4070ti_s. Gleiches Szenario, Kosten ~900€ und bei 130w wahrscheinlich selbst im Raster schneller, als deine 6800xt bei 250w!

DrFreaK666
2024-03-13, 22:21:27
jeden Monat versucht man Dargo im Radeon-Thread zu einer Nvidia-Karte zu nerven. Wieso?

Lyka
2024-03-13, 22:24:27
jeden Monat versucht man Dargo im Radeon-Thread zu einer Nvidia-Karte zu nerven. Wieso?


Ist für mich auch nicht verständlich. Masochismus? Die Hoffnung, nach 10 Jahren zu predigen, dass er doch mal eine kauft und dass man sich sowas auf den Grabstein schreiben kann (als erfülltes Lebensziel)?


Auf der anderen Seite: Jede Kritik an einem HW-Anbieter bringt *immer* eine "Kauf doch bei Netto!"-Reaktion. Das ist seit 10.000 Jahren so.

The_Invisible
2024-03-13, 22:28:50
jeden Monat versucht man Dargo im Radeon-Thread zu einer Nvidia-Karte zu nerven. Wieso?

Er ist doch selber schuld weil er immer das Verbrauchsargument bringt und da ist NV nun mal vorn inkl gescheiten UV/PL-Limit Möglichkeiten...

DrFreaK666
2024-03-13, 22:47:22
Deswegen wird man immer wieder vergebens OT - verstehe

dargo
2024-03-14, 06:31:36
Er ist doch selber schuld weil er immer das Verbrauchsargument bringt und da ist NV nun mal vorn inkl gescheiten UV/PL-Limit Möglichkeiten...
Du scheinst damit ein größeres Problem zu haben als ich. :freak: Scheint dich ganz schön zu triggern, dass mir Nvidia am Ars... vorbei geht. ;D

Dann kauf doch eine 4070s und lässt die bei 130w raus.
Auch für dich gerne nochmal... ich kaufe nichts von Nvidia seit vielen Jahren schon. :) Mal davon ab eine 4070S von einer UV 6800XT kommend? Was soll das denn bringen? :| Beim Vram auch noch Downgrade. :ubash: Entweder N48 oder was Vergleichbares von Intel. Und wenn beides nicht überzeugt dann warte ich was RDNA5 oder eben wieder Intel bringt. Aber mal ganz ehrlich... was macht ihr euch den Kopf was ich mir kaufe? :freak: Ich bin auch alt genug meine Entscheidungen selbst zu treffen. ;)

Ne, dann kauf ne 4070ti_s. Gleiches Szenario, Kosten ~900€ und bei 130w wahrscheinlich selbst im Raster schneller, als deine 6800xt bei 250w!
Weck mich bei Faktor 2 einer RX 6800XT, nur nicht im grünen Lager. ;) Und nein... ich brauche auch keine 130W, mein max. Powerbudget liegt höher.

Prinzenrolle
2024-03-14, 07:43:16
Breaking News... der fetteste und teuerste Chip einer aktuellen Generation ist undervoltet und eingebremst der effizienteste und schnellste. :facepalm:

Ich muss bei meiner 4090 nichts ein bremsen. Die läuft undervolted mit einem TDP Limit von 300 Watt kein bisschen langsamer als @stock, eher 2-3% schneller. So wichtig kann dir Effizienz nicht sein, wenn Animositäten gegenüber einer Firma darüber entscheiden welches Produkt man kauft.

Gestern erst wieder Starfield gegen eine 7900XTX gestellt. Der neue Nvidia Treiber scheint einiges gebracht zu haben, rund 30% schneller und ein funktionierendes Upscaling. Ich kann auch nicht verstehen wie man sich FSR in dem momentanen Zustand antun kann. Eine Flimmerparade vom Feinsten in Starfield.

dargo
2024-03-14, 07:44:31
Zu geil... jetzt habe ich die grünen Trolle wieder angelockt. ;D Alleine das ist es mir wert nie mehr eine Geforce zu kaufen, einfach unbezahlbar dieses Triggern. (y)

Prinzenrolle
2024-03-14, 07:58:47
Wenn man ständig irgendetwas falsches vom Stapel lässt muss man damit rechnen korrigiert zu werden.
Ich kaufe das was mich überzeugt, die letzte Radeon die das tat war eine 290X und danach kam nichts mehr.

Was ist überhaupt der Grund keine GeForce zu kaufen?

dargo
2024-03-14, 08:20:37
Ich kaufe das was mich überzeugt, die letzte Radeon die das tat war eine 290X und danach kam nichts mehr.

Dann mach das doch oder versuche ich es dir auszureden?

vinacis_vivids
2024-03-14, 13:32:45
Gibs eigentlich irgendwo RX 7900XTX bei Starfield FSR3-Q + FG gegen RTX 4090 bei DLSS3-Q + FG ?

Der FG-Algorithmus von AMD ist dem von Nvidia weit weit überlegen, wie die 7800XT vs RTX 4070 gezeigt hat:

https://www.computerbase.de/2024-03/amd-fsr-nvidia-dlss-frame-generation-vergleich/#abschnitt_frame_generation_in_starfield

Die 7900XTX dürfte durchgehend schneller sein als die RTX4090 bei FG + SR-Q. Um mal wieder zurück zur 7900XTX zu kommen.

dildo4u
2024-03-14, 13:39:34
Nicht nur Balken gucken sondern den Text lesen DLSS 3 hat bessere Latenz.
Zur Zeit scheint es keine perfekte Lösung zu geben.

Schnitzl
2024-03-14, 13:56:59
Breaking News... der fetteste und teuerste Chip einer aktuellen Generation ist undervoltet und eingebremst der effizienteste und schnellste. :facepalm:Ich muss bei meiner 4090 nichts ein bremsen. Die läuft undervolted mit einem TDP Limit von 300 Watt kein bisschen langsamer als @stock, eher 2-3% schneller. So wichtig kann dir Effizienz nicht sein, wenn Animositäten gegenüber einer Firma darüber entscheiden welches Produkt man kauft.
(...)
Heute Morgen den Kaffee vergessen?

Aber danke dass du Dargo bestätigt hast :D

DrFreaK666
2024-03-14, 15:25:53
Sollte ein Moderator nicht eher dafür sorgen, dass solche Grabenkämpfe unterbunden werden?
Gibt es diese eigentlich auch in Nvidia-Threads?

In der Farbpsychologie gilt Grün als die Farbe der Hoffnung, der Stabilität, der Fruchtbarkeit und auch der Harmonie.
lol

vinacis_vivids
2024-03-14, 15:44:28
Nicht nur Balken gucken sondern den Text lesen DLSS 3 hat bessere Latenz.
Zur Zeit scheint es keine perfekte Lösung zu geben.

Ist leider nur für die 7800XT und so nicht auf die 7900XTX übertragbar, die wahrscheinlich noch bessere Latenzen zeigen kann:

https://i.ibb.co/DL9RTzG/Screenshot-2024-03-14-154141-Starfield-Latenz.png

The_Invisible
2024-03-14, 15:52:18
Sollte ein Moderator nicht eher dafür sorgen, dass solche Grabenkämpfe unterbunden werden?
Gibt es diese eigentlich auch in Nvidia-Threads?


lol

Also wenn man auf Falschaussagen zu Geforces im Radeon Thread nicht mehr reagieren darf kann man das Forum eh gleich schließen, umgekehrt ebenso. Und ja, gibt auch genug Trolle in Nvidia Threads, keine Angst

Prinzenrolle
2024-03-14, 17:33:23
Aber danke dass du Dargo bestätigt hast :D

Wo habe ich ihn denn bestätigt? Die Karte läuft mindestens so schnell wie @stock, eingebremst wurde da gar nichts.
Für mich bestimmt nicht, schon gar nicht wenn ich 1800+€ investieren müsste.

Wiederverkaufswert nicht vergessen.:biggrin:

Achill
2024-03-14, 17:40:50
@Dargo, wenn es irgendwann zu viel wird ... übernimm einfach meine Ignore-List (siehe Sig)

dargo
2024-03-14, 17:48:38
@Dargo, wenn es irgendwann zu viel wird ... übernimm einfach meine Ignore-List (siehe Sig)
Ach... ich sehe das völlig locker. Für einen Lacher sind bestimmte User im 3DC immer wieder gut zu gebrauchen. :D Alles cool. :wink:

RoughNeck
2024-03-14, 20:20:04
So Popcorn ist alle.
Lasst ihn doch mit seiner Karte happy sein. Wenn für ihn Nvidia nicht infrage kommt, dann ist das halt so.
Ich bin mit meiner 4090 happy, meine Frau ist mit ihrer 7900 XT happy. Jeder soll mit seiner Hardware happy sein und fertig.

gedi
2024-03-15, 17:02:31
So Popcorn ist alle.
Lasst ihn doch mit seiner Karte happy sein. Wenn für ihn Nvidia nicht infrage kommt, dann ist das halt so.
Ich bin mit meiner 4090 happy, meine Frau ist mit ihrer 7900 XT happy. Jeder soll mit seiner Hardware happy sein und fertig.

Exakt!

lilgefo~
2024-03-15, 18:12:02
Kommt halt immer darauf an, was man macht. Wenn man Titel wie Cyberpunk RT Overdrive oder Alan Wake 2 mit Pathtracing spielen will, ist eine AMD Karte, egal welche, völlig unbrauchbar. Ist leider die Realität.

Im Großteil aller anderen Games macht die AMD Karte auf jedenfall ne gute Figur. War mit meiner 6900XT vorher ja auch zufrieden. :smile:

Dann gibt es natürlich noch Features wie Nvidia's DLSS und Ray Reconstruction und die generell höhere Verbreitung von CUDA Applications. Wenn man davon Gebrauch machen will, ist man leider zu Nvidia gezwungen.

Und schau dir das Bild an. Geflacker ohne Ende und welches FSR Setting da wohl läuft?

https://youtu.be/-A-xgBwgcYw

Ja, wie zuvor geschrieben. CP ist nen NV Showcase und dafür lohnen sich die 40er Karten auch wobei imo auch ne 4080 zu lahm ist jedenfalls wenn man 4k-Q als Grundlage nimmt. Und ja, in diesen Sonderfällen ist die 7900xtx nicht die erste Wahl. Abseits von den paar Showcases ist sie aber für den Preis einfach sehr gut. Würde man z.B. das exzellent aussehende TLOU eher mit ner 1000€+ 4080 spielen wollen oder mit mehr fps auf einer ~900€ xtx? Easy. Wie halt geschrieben, wer NV Features und SW Benefits will holt sich die 4090. 4080 ist für mich schon nen Edge case und die 7900xtx i.d.R. die bessere Wahl. Wenn man in 1440p spielt ok aber für 4k wäre mir das Ding zu lahm (wenn halt die Features wie RT auch genutzt werden sollen, FG und DLSS UP ist natürlich immer ne Möglichkeit aber da wart ich lieber ne Gen bevor ich so spielen muss). Mit der nächsten Generation an RT Games (bzw. schon jetzt mit AW2 PT, ebenso wie die 4090 aber) säuft die 4080 sowieso komplett ab sowohl wegen VRAM als auch aufgrund der Perf. mit der 7900xtx wird man dann im Rastermodus deutlich besser dastehen, während die 4080 zwar nominal deutlich besser im RT ist aber praktisch ebenfalls nicht flüssige Fraemtimes ausgeben wird. Da muss man ja kein Hellseher für sein.

So Popcorn ist alle.
Lasst ihn doch mit seiner Karte happy sein. Wenn für ihn Nvidia nicht infrage kommt, dann ist das halt so.
Ich bin mit meiner 4090 happy, meine Frau ist mit ihrer 7900 XT happy. Jeder soll mit seiner Hardware happy sein und fertig.

Sagt doch keiner was gegen seine Karte (6800xt, die ja für ihre Zeit und den Preis sehr gut ist/war) nur hat das alles im 7900xtx Thread nix zu suchen. Geht ja nur allgemein darum, dass sowohl n31 als auch ad102 sehr gute Karten für Ihren Preis sind und Dr. D. gegen alles am Strampeln ist weils ihm zuviel Watt braucht und man das angeblich nicht leise Kühlen könnte.

1ch0
2024-03-15, 18:27:30
mit der 7900xtx wird man dann im Rastermodus deutlich besser dastehen, während die 4080 zwar nominal deutlich besser im RT ist aber praktisch ebenfalls nicht flüssige Fraemtimes ausgeben wird. Da muss man ja kein Hellseher für sein.

Bleibt eben abzuwarten obs dann überhaupt noch einen Rastermodus gibt. Avatar ist ja ein erstes Beispiel wo man Raytracing gar nicht erst abschalten kann im Spiel.

Letzten Endes ist nichts sicher. :smile: Und Raster will ich freiwillig nicht mehr spielen.

lilgefo~
2024-03-15, 18:38:15
Bleibt eben abzuwarten obs dann überhaupt noch einen Rastermodus gibt. Avatar ist ja ein erstes Beispiel wo man Raytracing gar nicht erst abschalten kann im Spiel.

Letzten Endes ist nichts sicher. :smile: Und Raster will ich freiwillig nicht mehr spielen.

Ja, da bin ich komplett bei dir. Aber trotzdem kann oder muss man eben anerkennen, dass nicht alle AAA SP Spiele mit heavy RT/PT spielen und wenns um Raster geht kriegt man mit der 7900xtx (und erst Recht darunter) einfach deutlich mehr für den €. Und ja, FSR ist schlechter als DLSS aber es ist auch nicht jeder der PixelPeeper² und RDNA3 ist halt auch deutlich günstiger. Ein Freund von mir hat sich just nen neuen Rechner zusammengebastelt und wollte erst auf eine 4060Ti weil wegen NV und RT undso. Hab ihm dann gezeigt, dass die 4060Ti für den Preis der letzte Müll ist und RT in der Klasse sowieso irrelevant ist und nun holt er sich ne 7900GRE für den selben Preis und hat in Rastergames einfach mal doppelte Perf.

MLID hat ja grad erst Gerüchte/Leaks zur ps5pro mit (vmtl.) RNDA4 geleakt und die RT Performance scheint wohl deutlich höher. Denke bis Rastergames komplett aussterben wird auch AMD auf der Höhe der Zeit sein zumal Avatar mit RT ja auch nicht fürchterlich auf RDNA3 läuft.

dargo
2024-03-15, 18:39:20
Nur Experten hier wieder unterwegs im Thread... Avatar verwendet kein Raster mehr. :facepalm:

vinacis_vivids
2024-03-15, 19:38:36
Hier ist ein FSR3-Q + FG 7900XTX Setup mit Avatar:
bqfgK7P_lxE

1ch0
2024-03-15, 19:48:16
460 Watt. Jesus Christ.

gedi
2024-03-15, 20:02:01
Sollte eine Nitro sein. Tatsächlich eine erstklassige Karte und zudem die Schnellste out of the box. Bisschen seltsam das Taktverhalten, beim einen Treiber langen 1.03v für alles, der Nächste braucht 1.05v, der nächste wieder lediglich 1.03v. Wenn RT nicht aktiv ist, dann ist es easy die Karte bei 3.1g zu betreiben. Mit RT sind es derer lediglich ~2.6g!

RoughNeck
2024-03-15, 21:12:01
Die Nitro ist wirklich eine tolle Karte.
Die Nitro meiner Frau braucht 1.08v um wirklich stabil zu sein, alles unter 1.05V ist wie gedi schon sagt von Treiber oder Software abhängig.

DrFreaK666
2024-03-15, 21:30:16
Nur Experten hier wieder unterwegs im Thread... Avatar verwendet kein Raster mehr. :facepalm:
Laut CB schon
Das fehlende Raytracing macht sich in sämtlichen überprüften Sequenzen bemerkbar. Generell sind die Unterschiede groß und nur selten gering. Und auch bei letzterem macht sich das Fehlen der Strahlen optisch sofort bemerkbar. Entsprechend zeigt sich, dass wer Avatar: Frontiers of Pandora zum Beispiel auf einer GeForce-GTX-1000-Grafikkarte, einer Radeon RX 5000 oder älter spielt, optisch entsprechen große Einbußen in Kauf nehmen muss.
https://i.postimg.cc/KKWsQBYn/35-2160-b8a27b2c.jpg (https://postimg.cc/KKWsQBYn)
https://i.postimg.cc/zyVQhxzJ/34-2160-dc18a232.jpg (https://postimg.cc/zyVQhxzJ)
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_auf_geforce_gtx_rx_5000_und_co__ohne_raytracing_ist_die_pracht_weg_up date

Exxtreme
2024-03-15, 21:35:56
Laut CB schon

https://i.postimg.cc/KKWsQBYn/35-2160-b8a27b2c.jpg (https://postimg.cc/KKWsQBYn)
https://i.postimg.cc/zyVQhxzJ/34-2160-dc18a232.jpg (https://postimg.cc/zyVQhxzJ)
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_auf_geforce_gtx_rx_5000_und_co__ohne_raytracing_ist_die_pracht_weg_up date

Ähhhm, es ist so: jedes Spiel mit Raytracing benutzt zwangsläufig auch Rastersizing. Das muss so sein. Ohne Rastersizing könnte der Monitior gar nichts darstellen.

DrFreaK666
2024-03-15, 21:38:48
Ähhhm, es ist so: jedes Spiel mit Raytracing benutzt zwangsläufig auch Rastersizing. Das muss so sein.

Aha, und wieso antwortest damit nicht anderen, die behaupten bei Avatar gäbe es nur RT?

dargo
2024-03-16, 06:40:19
Laut CB schon

Och bitte... nicht du auch noch. Avatar ist nichts weiter als ein hybrider Ansatz.

GerryB
2024-03-20, 21:46:50
Wie hoch geht denn mit dem neuen Treiber 24.3.1 das OCen der GRE?

BlacKi
2024-03-20, 22:12:03
im gre fred

dildo4u
2024-03-22, 12:04:46
Forbidden West rennt recht nett auf AMD.

1440p

https://i.ibb.co/t39yGvZ/Screenshot-2024-03-22-120354.png (https://ibb.co/25TX9C8)

https://gamegpu.com/rpg/role-playing/horizon-forbidden-west-test-gpu-cpu

dildo4u
2024-03-28, 11:06:00
Erstes Games mit + 90% für 7900XTX vs 6800XT?

https://i.ibb.co/bHvRt29/Screenshot-2024-03-28-110417.png (https://ibb.co/YDdTgys)

https://www.pcgameshardware.de/Dragons-Dogma-2-Spiel-73773/Specials/Review-Test-Benchmarks-Tuning-Tipps-1443565/2/

robbitop
2024-03-28, 16:04:28
Die Frage ist: uArch Vorteil oder einfach weniger Optimierung für legacy uArch? Letzteres macht in der Regel ab einem bestimmten Punkt zT eine ganze Menge aus.

aufkrawall
2024-03-28, 16:16:57
Schon vorstellbar, dass wenn gewisse Optimierungen für RDNA3 geringfügige Anpassungen für RDNA2 erfordern, sie die dafür einfach komplett unterlassen. Gibt nicht mal das neue Video-Scaling (was btw. ganz nett ist) für RDNA2. Hat bestimmt voll den technischen Grund, wenn RIS afair selbst auf Polaris angeboten wird. :freak:

vinacis_vivids
2024-04-07, 17:01:32
Radeon RX 7900M ist mittlerweile auf dem Markt. N31XL Salvage mit 72CU, 64MB IF$, 256bit SI, 16GB VRAM - 576 GB/s. Eigentlich schon seit Ende 2023. Jetzt ist bald mitte 2024 und Deutschland ist im allgemeinen immer noch IT-Steinzeit.

gedi
2024-04-07, 20:44:03
Ähhhm, es ist so: jedes Spiel mit Raytracing benutzt zwangsläufig auch Rastersizing. Das muss so sein. Ohne Rastersizing könnte der Monitior gar nichts darstellen.

Exakt! Wichtig nur wie der Effekt (mehr ist es für den Moment nicht) eingesetzt wird. Ich habe eine 4090 verbaut und ohne Upscaling geht RT max nicht. Für manch Titel geht es gar ohne FG nicht.

Aber: Der optische Vorteil bewegt sich oft nahe 0. Ist für derzeit eine Momentaufnahme, aber für mich stellt RT für den Moment keinen Mehrwert dar.

OCmylife
2024-05-01, 21:20:55
Doppelpost bitte löschen

OCmylife
2024-05-01, 21:23:54
Ich bin den Tipps aus dem overclock.net Forum mal gefolgt und hatte mir über Amazon das Honeywell PTM7950 Set bestellt und wollte mich dann heute mal dem Projekt annehmen und die Noctua NT-H2 gegen das Wärmeleitpad zu tauschen. Leider bin ich daran gescheitert, dass Wärmeleitpad nach dem auftragen auf der GPU von seiner zweiten Folie zu befreien. Das ging dann so weit, dass ich das Pad nur noch in Teilen auf dem Die hatte und schlussendlich den ganzen "Salat" von der GPU entfernt und wieder Paste aufgetragen habe. :rolleyes: Das Pad ist wirklich hauchdünn und zerbröselt schnell. Wie man das dann nochmal wiederverwenden soll, erschließt sich mir nicht so ganz. Wenigstens hat mich das Pad inkl Versand gerade mal 9,32€ gekostet.

Die Temperaturen sind nach dem erneuten sauberen auftragen aber auch etwas besser als zuvor. Sollten sie so bleiben, wäre ich zufrieden.

https://ibb.co/fF40w1y

Da ich das System gerade erst wieder zusammen gebaut habe, ist das Foto natürlich noch nicht aussagekräftig.

Edit: Das Delta zwischen GPU und Hotspot-Temp ist aber ungefähr das selbe, sehe ich gerade.

Update: Ich hatte mir in der Zwischenzeit auch mal Thermalright TFX gegönnt und hatte die Hoffnung, dass sich mit der Paste die Hotspot-Probleme endlich in Luft aufgelöst haben. Zu Beginn sah die Sache auch gut aus und bei 400 Watt hatte ich ein Delta zwischen GPU-Edge und Hotspot von ungefähr 30 Grad. Das dauerte dann wieder ein paar Wochen und das Delta stieg auf 40 Grad + an, wenn ich die Karte default mit 406 Watt betrieb. Dann bin ich dazu übergegangen, die Karte nur noch mit dem Silent-Bios zu betreiben, um mir Zeit zu verschaffen. Bei 350 Watt lag der maximale Hotspot dann "nur" noch bei 80 Grad, was mich angesichts der Wasserkühlung dennoch ärgerte. :mad:

Long story short:
Ich habe mich wieder dazu durchgerungen, dem PTM 7950 eine erneute Chance zu geben, da die Alternative von Thermal Grizzly in Form des Kryosheet elektrisch leitfähig ist und ich keine Lust habe, die Kondensatoren neben der GPU mit Nagellack einzupinseln. Es war wieder schwierig die 2. Folie vom Pad zu entfernen, obwohl ich den Tipp befolgt hatte, das Pad zuvor in den Kühlschrank zu legen, aber diesmal hatte ich Erfolg. Beim zocken mit Framelimit habe ich bei ca 300 Watt jetzt ein Delta von ca 16 Grad. Aber auch maximal kann sich das Delta bei 406 Watt noch sehen lassen.

https://i.ibb.co/6BpS9J2/Remnant-2-PTM-7950.png (https://ibb.co/6BpS9J2)

Sollten die Berichte aus dem Internet stimmen, brauche ich an ein Repaste jetzt nicht mehr zu denken. Auch 465 Watt führten vorhin trotz sommerlicher Außenverhältnisse zu keinen kritischen Hotspot-Temperaturen.

Sollte das jemand nachmachen wollen, ist das Video ganz hilfreich. Bei ihm klappte das entfernen der 2. Folie aber deutlich besser, als bei mir:

https://www.youtube.com/watch?v=TiD22KNPh1A

Ich empfehle aber ein 80*40mm Pad, falls ihr beim ersten Versuch ebenso scheitert, wie ich.

vinacis_vivids
2024-05-02, 11:41:32
Neue Messung mit FSR 2.0 im Jahr 2024:
Z6bBR4lrpd8

https://i.ibb.co/Z8Fhm4K/RX-7900-XTX-RDR2-FSR2-2160p-2024.png

Die 7900XTX ist im low-lvl Vulkan über 80% schneller als die 6800XT und über 70% schneller als die 6900XT.

Duran05
2024-05-02, 15:01:17
Ach man. Aber man vergleicht doch nicht XTX gegen XT.
Ich fände es sinniger die 7900 XT gegen die 6950 XT zu benchen.

Da ist der Unterschied nicht so groß. Viel kommt ja bei diesem Benchmark durch die höhere Rohleistung.
Die 6950 hab ich nun schon öfter für ~480-495 EUR gesehen (gebrauchtmarkt). Da kann die XTX ja nicht ansatzweise mithalten.

Raff
2024-05-03, 10:29:08
Falls noch jemand einen Radeon-Showcase sucht: Update zu Call of Duty MW3 Warzone: 35 Grafikkarten im Fps-Check (https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-3-2023-Spiel-74345/Specials/Warzone-Update-COD-MW3-Benchmarks-1446480/)

7900 XTX vor RTX 4090, 7900 GRE vor RTX 4080S et cetera – gerade in den niedrigen Auflösungen klare AMD-Dominanz.

MfG
Raff

dildo4u
2024-05-03, 10:49:37
Kein Vram Fresser mehr die 8GB Karten sehen ok aus.

vinacis_vivids
2024-05-03, 11:03:06
Falls noch jemand einen Radeon-Showcase sucht: Update zu Call of Duty MW3 Warzone: 35 Grafikkarten im Fps-Check (https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-3-2023-Spiel-74345/Specials/Warzone-Update-COD-MW3-Benchmarks-1446480/)

7900 XTX vor RTX 4090, 7900 GRE vor RTX 4080S et cetera – gerade in den niedrigen Auflösungen klare AMD-Dominanz.

MfG
Raff

Wieso kein AMD-FSR mit dem Wissen, dass RDNA3 fp16 Nutz und die RX 7900 XTX schneller ist als die RTX 4090 ?

DrFreaK666
2024-05-03, 11:12:24
Für was FSR bei 217FPS und besonders in 1080p?

dildo4u
2024-05-03, 11:20:01
Helldivers 2 mit aktuellen Treiber Performance gefixt 7900XTX = 4080S.

https://www.computerbase.de/2024-05/helldivers-2-benchmark-test/#abschnitt_benchmarks_in_full_hd

dildo4u
2024-05-03, 12:56:36
Für was FSR bei 217FPS und besonders in 1080p?
Bis 3.1 sollte man eher XeSS nutzen.

Scheint mir ohne rote Brille das aktuelle Fazit.
Ich habe eine PS5 und FSR wird oft Missbraucht und sieht grottig aus das deckt sich mit den PC Eindrücken.

CbJYtixMUgI

vinacis_vivids
2024-05-03, 13:20:07
Leider komplett falsches Video mit ner RTX3060 getestet. Einfach nur schwach. Warum präsentieren die Amis nicht mal FSR mit ner AMD Karte. Sind die dafür zu blöd?

Exxtreme
2024-05-03, 13:28:58
Leider komplett falsches Video mit ner RTX3060 getestet. Einfach nur schwach. Warum präsentieren die Amis nicht mal FSR mit ner AMD Karte. Sind die dafür zu blöd?

FSR sieht auf jeder Grafikkarte exakt gleich aus.

vinacis_vivids
2024-05-03, 13:41:33
Beweise?

Exxtreme
2024-05-03, 13:45:49
Beweise?

https://letmegooglethat.com/?q=fsr+2+geforce+vs+radeon

vinacis_vivids
2024-05-03, 13:48:44
Also keine Beweise sondern Lügenvideos von Nvidia.

dildo4u
2024-05-03, 13:50:02
Warum sollte Nvidia Videos zu FSR machen?

vinacis_vivids
2024-05-03, 13:56:50
In einem 7900 XTX Thread hat eine RTX3060 nix zu suchen.
Ich könnte hier auch permanent DLSS-Hacks auf AMD RX 7900 XTX posten.

Raff
2024-05-03, 14:05:35
Wie ich sehe, hast du dein großes AMD-Aktiendepot immer noch. Hau wech und erfreu dich am Reichtum! Dann hören diese Quatschdiskussionen auf. :)

MfG
Raff

Exxtreme
2024-05-03, 14:06:48
In einem 7900 XTX Thread hat eine RTX3060 nix zu suchen.

Du hast damit angefangen. Kannst du dich noch dran erinnern?
Leider komplett falsches Video mit ner RTX3060 getestet.

Achill
2024-05-03, 15:23:13
Bitte nicht füttern ... ;)

Ex3cut3r
2024-05-03, 19:06:49
Also keine Beweise sondern Lügenvideos von Nvidia.

;D

Hier AMDs geniales FSR vs XeSS und DLSS

https://s20.directupload.net/images/240503/jyjlmqxa.png

Top Notch diese AMD Tech. :freak:

https://community.amd.com/t5/image/serverpage/image-id/107339iB8A8084050224FCC/image-size/large?v=v2&px=999 https://community.amd.com/t5/image/serverpage/image-id/107343i570BA885F688E1B6/image-size/large?v=v2&px=999

vinacis_vivids
2024-05-03, 19:43:16
Wollt ihr mich verarschen? Wieder ne Nvidia Karte?

robbitop
2024-05-03, 19:51:18
FSR ist HLSL code. Den rechnen alle GPUs gleich aus.

dildo4u
2024-05-03, 20:00:35
Wollt ihr mich verarschen? Wieder ne Nvidia Karte?
AMD hat selber gezeigt wie kaputt FSR wenn dir das als Quelle besser passt.


https://community.amd.com/t5/gaming/amd-fsr-3-1-announced-at-gdc-2024-fsr-3-available-and-upcoming/ba-p/674027

vinacis_vivids
2024-05-17, 10:29:30
Ich weiß nicht was die Presse hier gemessen hat:

Balkenmessung:
https://gamegpu.com/action-/-fps-/-tps/ghost-of-tsushima-director-s-cut-test-gpu-cpu
https://i.ibb.co/Cbjr5KX/Ghost-of-Tsushima-GPU-4-K-Max.png



Die RX 7900XT 20GB ist durchweg ~10fps schneller als die RTX4080S 16GB.


C09DjHtEWOQ

RTX4080S 16GB ~ 65fps nach >15 Minuten

NKGsUNxjWvk

AMD 7900XT 20GB ~ 73fps nach >20 Minuten

Habe leider keine 7900XT 20GB da, aber vllt. kann jemand das nachvollziehen und bestätigen?

Der neue AMD Treiber beschleunigt RDNA3 wahrscheinlich deutlich stärker?

Mit FSR3 + FG ist die 7900XTX > RTX4090 ?

dildo4u
2024-05-17, 11:00:16
Das ist ein Spiel was exklusiv auf AMD Hardware entwickelt wurde wenn es nicht massiv überperformt wäre was faul.

DrFreaK666
2024-05-17, 11:14:35
Ein Test beweist noch gar nichts

Raff
2024-05-17, 11:17:15
Echte Vergleiche sind immer mehr wert und belastbarer als "Irgendein Dude läuft irgendwo mit irgendeiner Config herum".

MfG
Raff

vinacis_vivids
2024-05-17, 11:31:13
15 Minuten und 25 Minuten rumlaufen ist für mich belastbarer als 10 Sekunden-run für den ungläubwürdigen Balken.

dildo4u
2024-05-17, 11:32:38
15 Minuten und 25 Minuten rumlaufen ist für mich belastbarer als 10 Sekunden-run für den ungläubwürdigen Balken.
Erkläre bitte wie ein PS4 Spiel 16GB Vram füllen soll wenn das passiert ist es kaputt.


12GB in 4k DLAA

foMZVzCTJug

12GB auf der 7900XTX

nhXmQ9xSQm4

Raff
2024-05-17, 11:34:04
15 Minuten und 25 Minuten rumlaufen ist für mich belastbarer als 10 Sekunden-run für den ungläubwürdigen Balken.

Mehr Zeit macht die Aussage nicht genauer, wenn man keine Vergleichswerte mit den exakt gleichen Bedingungen hat.

MfG
Raff

Langlay
2024-05-17, 13:59:00
Mehr Zeit macht die Aussage nicht genauer, wenn man keine Vergleichswerte mit den exakt gleichen Bedingungen hat.


Das ist V_V doch völlig egal, Hauptsache AMD steht ganz oben, egal wie.

Duran05
2024-05-17, 17:57:38
Schonmal daran gedacht das neue Treiber die Karte auch erheblich verbessert haben?

Die Nachtests der 7900 XT sehen auch deutlich besser aus wie zu Release.
Einzelne Spiele sind eher egal aber wenn man sich die Verbesserungen im Ganzen ansieht wurde es ziemlich positiv verbessert.

Selbst wenn da immer wieder Kamellen wie AoE4 oder F1 irgendwas dabei sind, daran siehst du doch teilweise den Trend.
Bei neueren Technologien in der Engine ist der Abstand dann eher noch größer geworden.

Der typische Spieler hat dennnoch seine 10-15 Jahre alte Titel in der Bibliothek, Diablo, Starcraft, WoW oder irgendwas in der Richtung. :smile:

Raff
2024-06-26, 10:19:37
X4 beherrscht nun TAA und liebt Radeons: https://www.pcgameshardware.de/X4-Foundations-Spiel-61270/Specials/Timelines-DLC-Update-Vulkan-Tech-Test-Release-1449923/4/

Falls also jemand noch 'nen Radeon-Showcase für Grabenkriege sucht, hier isser. ;) 7900 XTX unweit der RTX 4090, 7900 XT auf dem Niveau der RTX 4080S ... aber 6800 XT weit vor 7800 XT. Wilde, sehr interessante Performance.

MfG
Raff

dargo
2024-06-26, 12:04:22
Gähn... 7900XTX nicht mal 60% vor 6800XT.

dildo4u
2024-06-26, 13:19:13
Nur weil man die API ändert wird eine alte Engine nicht plötzlich zum Skalierung Wunder.

Interessant wäre es wenn sie z.b Mesh Shader integrieren würden um den Polycount zu erhöhen, LOD fällt heute in fast jedem Game negativ auf.

vinacis_vivids
2024-06-26, 19:00:39
Cyberpunk 2077 2024 AMD Radeon RX 7900 XTX 2160p Ultra HD Raytracing Ultra AMD FSR3 Frame Generation

mxPclq-ODI0

Bandit3644
2024-06-27, 09:28:52
https://i.ibb.co/LPYLSrP/2.png (https://ibb.co/X4jhXD4)

vinacis_vivids
2024-06-27, 10:12:24
https://i.ibb.co/LPYLSrP/2.png (https://ibb.co/X4jhXD4)

https://i.ibb.co/bHCVf2f/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-27-06-2024-10-09-01.jpg (https://ibb.co/SQMgLdL)

7900XT: 65fps
7900XTX: 76fps

vinacis_vivids
2024-06-27, 16:13:11
Ghost of Tsushima DIRECTOR'S CUT 2024 AMD Radeon RX 7900 XTX UHD Sehr hoch AMD FSR3 Frame Generation >200fps
Z2wgS5B4TZg

kmf
2024-06-27, 23:29:53
Gähn... 7900XTX nicht mal 60% vor 6800XT.
... aber du weißt - eine Schwalbe macht noch keinen Sommer! :D

vinacis_vivids
2024-06-28, 14:29:23
AMD 7900XTX CP2077 Benchmark FSR3 Ultra Performance Raytracing Ultra >130fps
https://i.ibb.co/RCSFtPc/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-28-06-2024-14-25-15-AMD-FSR3-Frame-Generation-RT-Ultra-Perfo.jpg (https://ibb.co/Xz4Q6pt)

AMD 7900XTX CP2077 Benchmark FSR3 XeSS Ultra Performance Path Tracing HDR UHD >60fps
https://i.ibb.co/jwfwJx8/Cyberpunk-2077-2024-AMD-Radeon-RX-7900-XTX-Path-Tracing-FSR3-P-FG-UHD-HDR-on.png (https://ibb.co/c838Ypy)

OgrEGT
2024-06-30, 20:26:15
Wie läuft bei euch eigentlich A Plague Tale Requiem? Habs gerade erst angefangen... läuft mit 3440x1440 Ultra Quality soweit ganz smooth... ohne RT Shadows... um die 70fps... kein Flimmern...

gedi
2024-06-30, 22:56:54
AMD 7900XTX CP2077 Benchmark FSR3 Ultra Performance Raytracing Ultra >130fps
https://i.ibb.co/RCSFtPc/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-28-06-2024-14-25-15-AMD-FSR3-Frame-Generation-RT-Ultra-Perfo.jpg (https://ibb.co/Xz4Q6pt)

AMD 7900XTX CP2077 Benchmark FSR3 XeSS Ultra Performance Path Tracing HDR UHD >60fps
https://i.ibb.co/jwfwJx8/Cyberpunk-2077-2024-AMD-Radeon-RX-7900-XTX-Path-Tracing-FSR3-P-FG-UHD-HDR-on.png (https://ibb.co/c838Ypy)

Mit PT? Erstaunlich!

gedi
2024-06-30, 23:06:22
... aber du weißt - eine Schwalbe macht noch keinen Sommer! :D

Er zimmert Vergleiche in 1440p mit Ras! Auch eine 4090 wäre in dem Szenario lediglich 60% schneller als eine 6800xt. Dann kommt er immer mit dem seltsamen Vergleich, dass N3x zu viel verbraucht?! Tut sie, aber im Vergleich zu N2x steht sie glänzend da. Er sollte einfach berichten, dass die 6800xt genügend FPS ausspuckt und dass ein Change Nonsens wäre und alle wären zufrieden.

DrFreaK666
2024-07-01, 02:04:36
... und dass ein Change Nonsens wäre und alle wären zufrieden.

Das hat er mehrmals schon erwähnt, bleibt in einigen Kurzzeitgedächtnissen halt nicht hängen

HOT
2024-07-01, 08:58:56
Er zimmert Vergleiche in 1440p mit Ras! Auch eine 4090 wäre in dem Szenario lediglich 60% schneller als eine 6800xt. Dann kommt er immer mit dem seltsamen Vergleich, dass N3x zu viel verbraucht?! Tut sie, aber im Vergleich zu N2x steht sie glänzend da. Er sollte einfach berichten, dass die 6800xt genügend FPS ausspuckt und dass ein Change Nonsens wäre und alle wären zufrieden.
Kann ja nicht sein, sonst würde er nicht immer meckern :D.
Mir wär ne 6800XT auch zu wenig.
Aber anstatt die Leistung zu genießen und die paar W zuviel einfach zu ertragen hat er sie ja zurückgeschickt ;). Ja, RDNA3 war nicht sonderlich energieeffizient, aber wenn man sich den Spielemarkt anschaut, war das Produkt ein ziemlicher Volltreffer... Stattdessen wird er jetzt von RDNA4 enttäuscht werden :D.

Raff
2024-07-01, 09:29:06
Wie läuft bei euch eigentlich A Plague Tale Requiem? Habs gerade erst angefangen... läuft mit 3440x1440 Ultra Quality soweit ganz smooth... ohne RT Shadows... um die 70fps... kein Flimmern...

Fluppt generell ziemlich dufte auf RDNA 3. Hier gibt's eine Tonne aktueller Vergleichswerte, falls du interessiert bist (ist einer von 20 Benchmarks): https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/2/

MfG
Raff

OgrEGT
2024-07-01, 13:12:12
Fluppt generell ziemlich dufte auf RDNA 3. Hier gibt's eine Tonne aktueller Vergleichswerte, falls du interessiert bist (ist einer von 20 Benchmarks): https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/2/

MfG
Raff
Danke Raff :up:
Das Bild im Anhang ist AW2 :D
Habs aber im Link gefunden...
Avg 77fps P1 66fps
Bei mir mit -5% PL etwas weniger aber dafür </=300W :)

RT Shadows würden die fps gut halbieren und sehen für mich auch nicht wirklich besser aus... Grafik ist auch ohne RT Hammer :)

Im Grafikmenu kann ich nur Upscaling Ultra Quality einstellen... ausmachen und nur TAA geht nicht bzw. finde ich nicht die Einstellungen dazu?

Oder muss das hier geändert werden?
APPDATA%\A Plague Tale Requiem\ENGINESETTINGS

kmf
2024-07-01, 16:27:08
Kann ja nicht sein, sonst würde er nicht immer meckern :D.
Mir wär ne 6800XT auch zu wenig.
Aber anstatt die Leistung zu genießen und die paar W zuviel einfach zu ertragen hat er sie ja zurückgeschickt ;). Ja, RDNA3 war nicht sonderlich energieeffizient, aber wenn man sich den Spielemarkt anschaut, war das Produkt ein ziemlicher Volltreffer... Stattdessen wird er jetzt von RDNA4 enttäuscht werden :D.Er hat halt seine spezielle Vorstellung, wie "sein Produkt" beschaffen sein muss/soll. Dagegen ist eigentlich nichts einzuwenden. Nur die Art der Kommunikation ist etwas fragwürdig.
Aber wir kennen ja den kleinen Stichler... xD

Ich bin immer noch happy mit meiner Sapphire RX7900XTX und bereue keinen Cent, den ich für sie ausgegeben hab.

HOT
2024-07-01, 16:44:57
Jo, kann ich auch so sagen. Mal sehen ob sie durch ne 5090 ersetzt wird oder erst bei RDNA5.

dargo
2024-07-01, 17:05:28
Er hat halt seine spezielle Vorstellung, wie "sein Produkt" beschaffen sein muss/soll. Dagegen ist eigentlich nichts einzuwenden.
Korrekt! Ich schaue nicht nur auf schnöde fps, das ist bei mir schon eher zweitrangig bei einer Grafikkarte. Das Gesamtpaket muss überzeugen inkl. bekannten Freiheiten mit MPT, zumindest bei solchen Heizöfen wie N31 ist das bei mir schon Pflicht. Wie ich schon öfter sagte ich habe ein bestimmtes Wohlfühl-Budget beim Powerlimit, danach kommt die Kühlung (diese muss ebenfalls absolut überzeugen) und erst dann reden wir über fps bzw. Mehrleistung zum Vorgänger.

vinacis_vivids
2024-07-02, 20:40:18
Mit PT? Erstaunlich!

Wäre schön wenn du deine 4090 mal im PT +FG + SR performen lässt.

Ich gehe mal von einem Sieg der 7900XTX in CP2077 Path Tracing + Frame Generation + SuperResolution aus, so lange keine äquivalenten Ergebnisse der 4090 hier auftauchen.

OCmylife
2024-07-02, 20:50:34
Er hat halt seine spezielle Vorstellung, wie "sein Produkt" beschaffen sein muss/soll. Dagegen ist eigentlich nichts einzuwenden. Nur die Art der Kommunikation ist etwas fragwürdig.
Aber wir kennen ja den kleinen Stichler... xD

Ich bin immer noch happy mit meiner Sapphire RX7900XTX und bereue keinen Cent, den ich für sie ausgegeben hab.

Ich habe meine Asrock Taichi 7900 XTX wieder ausgebaut. Ich gehe mal von einem Hardwaredefekt aus, da es jedes Mal ein Glücksspiel war, wann der Treiber crasht. Manchmal durfte ich das System 3 Mal neu starten, manchmal fror das System während des Video schauens ein, manchmal auch so im Idle. Lustigerweise nie, wenn die Grafikkarte unter Last stand. Seitdem die 3090 wieder drin ist, habe ich meine Ruhe(ca 2 Wochen). :rolleyes:

The_Invisible
2024-07-02, 21:22:18
Wäre schön wenn du deine 4090 mal im PT +FG + SR performen lässt.

Ich gehe mal von einem Sieg der 7900XTX in CP2077 Path Tracing + Frame Generation + SuperResolution aus, so lange keine äquivalenten Ergebnisse der 4090 hier auftauchen.

In 4k ist die 4090 5x so schnell und die XTX hinter der 4060, klar wird die schneller sein ;D

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

vinacis_vivids
2024-07-02, 22:15:58
Bitte nochmal meinen Betrag lesen und möglichst mit Werten untermauern.

Wiseman
2024-07-03, 00:56:09
Bitte nochmal meinen Betrag lesen und möglichst mit Werten untermauern.

Da kannste lange drauf warten. :biggrin: Die zitieren doch nur stets Raff oder CB.

Na, dann fang ich mal mit meinen Path Tracing Werten aus Cyberpunk 2077 an. Der FSR3 Mod von NEXUSMODS machts bekanntlich möglich. Mein System lief wie immer im Energiespar-Modus (u. a. 7900XTX mit max 312W). Du könntest ja "flat-out" Werte (so mit 460W) beisteuern.

Der Preset Ray Tracing: Overdrive ist der höchste Preset im integrierten Benchmark. Da ist jeglicher Firlefanz also auch Path Tracing drin. Ist leider nur ein fast perfekter Preset, weil nicht ersichtlich ist, welche Qualitätsstufe fürs Upscaling genommen wird. Da steht "Auto" und "Automatisch" kann vieles sein (Quality?, Balanced?, Performance?, Ultra Performance?). Übrigens, auch mein Ingame-Screenshot ist mit dem Preset Ray Tracing: Overdrive gemacht worden.

DrFreaK666
2024-07-03, 08:33:14
Stell doch das Upscaling nachträglich manuell ein

Raff
2024-07-03, 13:24:09
Ist leider nur ein fast perfekter Preset, weil nicht ersichtlich ist, welche Qualitätsstufe fürs Upscaling genommen wird. Da steht "Auto" und "Automatisch" kann vieles sein (Quality?, Balanced?, Performance?, Ultra Performance?).

Hängt von der Zielauflösung ab. Ich kenne die Stufen nicht, aber Full HD ist idR Quality, ab WQHD mit entsprechend höherem Upscaling-Faktor. Das ist nur besseres Raten, insofern verweise ich mal an den vorderen Teil deines Postings, bei dem alles schön transparent ist. :biggrin:

Lass auch gerne mal das hier laufen, es gibt eine Free Version: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Raytracing-GPU-Benchmark-Basemark-Oy-Breaking-Limit-Download-1450793/

MfG
Raff

x-force
2024-07-03, 17:27:36
Lass auch gerne mal das hier laufen, es gibt eine Free Version: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Raytracing-GPU-Benchmark-Basemark-Oy-Breaking-Limit-Download-1450793/


endlich mal ne alternative zum 3dmark!

schön zu sehen, dass meine 4070ti (kein s) @ 3 ghz nativ gleichauf und skaliert nur 1 fps unter der 4070ti super agiert :biggrin:

Wiseman
2024-07-03, 20:37:51
Stell doch das Upscaling nachträglich manuell ein

Könnte ich natürlich machen, solange ich das Ergebnis des integrierten Benchmarks nur für mich nutzen will. Sobald aber mein Ergebnis auf fairer Basis vergleichbar sein soll, darf ich nachträglich nichts am ausgewählten Preset (es gibt 9 Presets) verändern. Im Graphics-Menü gibt es ca. 35 Einstellungsmöglichkeiten, wovon die meisten (ca. 24) gar nicht in der Leistungsübersicht auftauchen. Sobald ich auch nur eine einzige dieser Einstellungen ändere, steht oben in der Leistungsübersicht neben Preset Name Custom und zugleich geht jegliche Transparenz bzw. jegliche Vergleichbarkeit flöten. Wie gesagt, die meisten Settings tauchen im Result-Screen gar nicht auf.

Ich hänge zwei Result-Screenshots an. Beide wurden mit Preset Ray Tracing: Ultra gemacht. 1x Preset-Settings unverändert (avg 100 fps). 1x Preset-Settings verändert/verschlechtert (avg 108 fps).

Darkearth27
2024-07-03, 20:38:47
Bitte nochmal meinen Betrag lesen und möglichst mit Werten untermauern.


Ich bin zwar nicht der erwähnte, aber ich komme deiner Bitte nach den Benchmarks mal nach.

2880p + PT + FG + Ultra Performance DLSS mit der 4090 (zweites Bild)

Das erste Bild ist ebenfalls 2880p + FG + Ultra Performance DLSS allerdings "nur" mit RT Ultra Setting.


Drittes Bild in 2160p mit RT Ultra Preset + FG (FoV auf 90 und Mengendichte auf hoch) restlichen Settings sind alle maxed out (logischerweise SSR nicht).

Viertes Bild in 2160p Ultra RT Preset + FG aber anstelle von DLSS auf Auto mit DLSS auf Ultra Performance.

Letztes Bild auch in 2160p RT Overdrive Preset mit FG aktiv.

DrFreaK666
2024-07-03, 20:48:04
Könnte ich natürlich machen, solange ich das Ergebnis des integrierten Benchmarks nur für mich nutzen will. Sobald aber mein Ergebnis auf fairer Basis vergleichbar sein soll, darf ich nachträglich nichts am ausgewählten Preset (es gibt 9 Presets) verändern. Im Graphics-Menü gibt es ca. 35 Einstellungsmöglichkeiten, wovon die meisten (ca. 24) gar nicht in der Leistungsübersicht auftauchen. Sobald ich auch nur eine einzige dieser Einstellungen ändere, steht oben in der Leistungsübersicht neben Preset Name Custom und zugleich geht jegliche Transparenz bzw. jegliche Vergleichbarkeit flöten. Wie gesagt, die meisten Settings tauchen im Result-Screen gar nicht auf.

Ich hänge zwei Result-Screenshots an. Beide wurden mit Preset Ray Tracing: Ultra gemacht. 1x Preset-Settings unverändert (avg 100 fps). 1x Preset-Settings verändert/verschlechtert (avg 108 fps).

Was hast denn verändert?

Ändert sich da nichts, wenn die Upscaling-Qualität änderst? Muss dann wohl an der Mod liegen
https://i.postimg.cc/0jbnCSBB/grafik.png (https://postimages.org/)

Wiseman
2024-07-03, 21:49:31
Was hast denn verändert?

Ändert sich da nichts, wenn die Upscaling-Qualität änderst? Muss dann wohl an der Mod liegen


Bei dem Bench mit avg 108 fps veränderte ich nur die 24 Menü-Settings, die man auf der Leistungsübersicht nicht sieht.

Die DLSS Quality überprüfte ich übrigens auch schon, so dass also Quality, Balanced, Performance oder Ultra Performance drin stand. Na da stand dann oben bei Preset Name "Custom" und das wollte ich ja nicht. Außerdem drängte sich bei mir wegen der BQ der Verdacht auf, dass die Mod es nicht mag, wenn man DLSS Quality nicht auf "Auto" lässt.

Ich werde dieser Sache nochmals nachgehen, da ich auch einen 5k-Bench mit PT auf Ultra Performance machen möchte.

dargo
2024-07-04, 10:17:16
Ich sehe bei MF eine neue Serie von XFX, nämlich die Mercury Magnetic Air.
https://www.mindfactory.de/product_info.php/24GB-XFX-Radeon-RX-7900-XTX-Mercury-Magnetic-Air-Aktiv-PCIe-4-0-x16--Re_1541878.html

Gibt es schon Tests zum neuen Kühler? Und ist es nicht eher kontraproduktiv mit Magneten bei der feinen Elektronik zu arbeiten?

Edit:
Scheint bei der Kühlleistung nichts besonderes zu sein, wobei 390W schon eine enorme Abwärme sind.
https://youtu.be/M_l_2PF6xfM?si=y1g4Ruot19a8f6k5&t=634

Die einzige Neuigkeit sind hier wohl die Magneten.

][immy
2024-07-04, 10:28:31
Ich sehe bei MF eine neue Serie von XFX, nämlich die Mercury Magnetic Air.
https://www.mindfactory.de/product_info.php/24GB-XFX-Radeon-RX-7900-XTX-Mercury-Magnetic-Air-Aktiv-PCIe-4-0-x16--Re_1541878.html

Gibt es schon Tests zum neuen Kühler? Und ist es nicht eher kontraproduktiv mit Magneten bei der feinen Elektronik zu arbeiten?

Das sollte kein Problem darstellen. Laden per Induktion stört Smartphones ja auch nicht.
Da bräuchte es schon deutlich mehr wums dahinter bis das zum Problem wird.

vinacis_vivids
2024-07-04, 11:05:00
@Darkearth27

AMD FSR3 Frame Generation UP Ray Tracing Ultra: 166fps
https://i.ibb.co/L6BzwxV/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-04-07-2024-AMD-FSR3-Frame-Generation-RX-7900-XTX-UP-RT-Ultra.jpg (https://ibb.co/P4JZpcq)

Die 174fps in deinem System sind wohl von der CPU 7800X3D (+RTX 4090) ggü. den 166fps mit meinem 7950X (+ RX 7900 XTX)

Deine RTX 4090 min. fps sind aber sehr schwach. 94fps vs 148fps mit FSR3 + FG

Verstehe nicht wieso die Polen AMD FSR3 nicht ordentlich implementieren wollen in CP2077.
Man bräuchte noch XESS 1.3 UP Profil für CP2077 (auf der 7900 XTX), das würde DLSS3 (auf der RTX 4090) weit übertreffen.

AMD RX 7900 XTX FSR3-UP + FG + PT: 105fps vs NV RTX 4090 DLSS3-A + FG + PT + RC: 104fps

https://i.ibb.co/JtSw07n/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-04-07-2024-FSR3-Frame-Generation-CP-2077-Path-Tracing-UHD-UP.jpg (https://ibb.co/MSJxWVn)

Ergebnis:
RTX 4090 min fps: ~53 fps
RX 7900 XTX min fps: ~ 93fps +57% Leistung ggü. RTX 4090
Fazit: Ray Reconstruction von Nvidia führt zusätzliches Ruckeln bei den min. fps ein.


AMD RX 7900 XTX FSR3-5K UP + FG + RT: 112fps vs NV RTX 4090 DLSS3-5K UP + FG + RT: 121fps
https://i.ibb.co/7J8FqNh/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-04-07-2024-FSR3-Frame-Generation-CP-2077-Path-Tracing-5-K-UP.jpg (https://ibb.co/27mBTYJ)

Ergebnis:
RTX 4090 min fps: ~ 62 fps
RX 7900 XTX min fps: ~ 102fps +60% Leistung ggü. RTX 4090
Fazit: Ray Reconstruction von Nvidia führt zusätzliches Ruckeln bei den min. fps ein.

Video AMD FSR3 + FG 5k-UP RT-Ultra 7900 XTX: (Performance hit durch RadeonRelive von 112fps auf 110fps in der Aufnahme)

IQYPMb4WTl8

Denniss
2024-07-04, 13:28:12
die XFX Mercury Air war bei Igor auch schon im Test
https://www.igorslab.de/xfx-mercury-radeon-rx-7900-xtx-magair-im-test-luefter-wechsle-dich-und-kuehlung-bis-zum-bodenfrost/

Darkearth27
2024-07-04, 14:29:34
@Darkearth27

Die 174fps in deinem System sind wohl von der CPU 7800X3D (+RTX 4090) ggü. den 166fps mit meinem 7950X (+ RX 7900 XTX)

Deine RTX 4090 min. fps sind aber sehr schwach. 94fps vs 148fps mit FSR3 + FG


Ist ganz normal, Radeons sind im CPU Limit schneller durch den Cache (Sprungvorhersage ist einfach besser), je höher die Auflösung, desto schwächer wird es dann bei den Radeons (DLSS / FSR Ultra Performance = entspricht bei einem Input von 2160p einer Auflösung von 720p).

Entsprechend ist das auch auf die CPU zurückzuführen, da hast du recht.

Was das Ray Reconstruction angeht, das war nur im Overdrive Modus aktiv und dort war auch DLSS auf "Auto" eingstellt, Auto entspricht dem "Balanced" Modus.

Ich mache nun noch einen Run,

Preset Overdrive: (Ray Reconstruction bleibt an) Reflex wird automatisch mit aktiviert und kann nicht deaktiviert werden wenn FG aktiv ist (was auch noch etwas FPS kostet) dazu setze ich die FOV wieder auf 90, Mengendichte auf "Hoch" und DLSS setze ich manuell auf Ultra Performance, der Rest bleibt so eingestellt wie aus dem Overdrive Preset.
Sieht dann zwar absolut scheiße aus, aber da du das oben in deinem Screenshot so hast, bis auf die FoV-Angabe und die Mengendichte, werde ich das zum Vergleichen heranziehen.

Was die Implentierung von FSR3.0 / 3.1 inklusive Frame Generation angeht, da bedarf es dann wohl noch weitere 2 Jahre, war übrigens ein Grund wieso ich meine 6900XT damals gegen die 4090 getauscht habe.

Lange angekündigt, nie etwas passiert und ständig mit Mods arbeiten, die nach jedem Update ebenfalls mit geupdated werden mussten hatte ich kein Bock drauf.

Nachtrag:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88720&d=1720096949
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88721&d=1720096949
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88722&d=1720096949
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88723&d=1720096949


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88724&d=1720096958

Raff
2024-07-04, 15:06:38
Battled euch auch gerne mal The First Descendant (https://www.pcgameshardware.de/The-First-Descendant-Spiel-74383/Specials/Release-Benchmark-Test-Steam-Server-1450877/). Hat zwar keinen integrierten Benchmark, ist aber kostenlos, hat alle Upsampler und zählt zu den fortschrittlichsten Spielen, was UE5-Raytracing angeht.

MfG
Raff

Darkearth27
2024-07-04, 15:16:44
War ja kein Battle er wünschte sich Ergebnisse einer 4090 die ich dann geliefert habe. (inkls details an genutzten settings).

Bleibt halt dennoch schwer vergleichbar wenn einer mit und der andere ohne Mods "arbeitet".

Egal, TFD hatte ich schon in der Technical Testphase ausprobiert, fand das game.. naja mager.
Optisch okay, aber stagnierte auch auf der UE 5.2 iirc ein Update auf 5.4 kam auch nicht und lässt somit viel Potential liegen.

Nun aber genug OT von mir.

vinacis_vivids
2024-07-04, 15:32:29
Das NV-Ray Reconstruction ist wohl kaputt bei DLSS3+FG+Ultra-Performance nehme ich an? Beim FSR3-UP sieht alles sauber aus, auch ohne Ray Reconstruction. Kann verstehen wieso AMD kein Interesse hat irgendwas proprietäres zu bauen, wo die Auflösung nicht klar ist.

Darkearth27
2024-07-04, 15:37:09
RR war schon immer bescheiden bei CP2077, Schlieren, doppelte Schatten (einer statisch der andere beweglich aber wohl angeblich inzwischen gefixed) zusammen mit FG noch schlimmer als ohne.

Der Drop kommt übrigens immer an der gleichen Stelle, nach verlassen der Bar und dem Schwenk in die Gasse, ingame ist dies nicht vorhanden.

Ingame Szenen die wirklich nur eines von beiden Testen (GPU oder CPU) sind halt immer noch besser zum vergleichen mMn.

The_Invisible
2024-07-04, 17:03:57
v_v traut sich halt nicht in 4k+Upscaling-Q testen weil dann seine XTX verreckt, 4k+UP ist natürlich voll super :freak: Aber gut, eigentlich ist jede Sekunde "Diskussion" mit ihm zu schade...

kmf
2024-07-04, 21:32:15
Ich versteh ned, wieso sich hier an einem unausgereiften Feature aufgegeilt wird, welches bei der XTX in Hardware nicht so bedient werden kann wie bei der 4090.
Und immer wieder die persönlichen Sticheleien. ^^

vinacis_vivids
2024-07-04, 22:18:35
v_v traut sich halt nicht in 4k+Upscaling-Q testen weil dann seine XTX verreckt, 4k+UP ist natürlich voll super :freak: Aber gut, eigentlich ist jede Sekunde "Diskussion" mit ihm zu schade...

Wieso soll ich das kaputte Ray Reconstruction von Huang nachtesten, dass es kaputt ist?

Ich habe mir DLSS schon in unterschiedlichen Engines angeschaut per Mod. Kaufen würde ich es nicht. Da ist AMD bei "HPG = High Performance Gaming" einfach besser, flüssiger und schöner mit Ultra-Performance.

Wir können den Kampf gerne im Vega 64 XTX Thread fortführen, gerne gegen die 1080Ti. Ghost of Tsushima, CP2077, The Witcher 3 und Horizon Forbidden West warten schon. Oh wait, die 1080 ist ja der Gegner, am besten mit HDR-On.

Die geilste Erkenntnis ist, dass AMD-FSR3-FG-UP-PT dem NV-DLSS3-FG-UP-PT-RR deutlich überlegen ist, und ich mit der 7900XTX ohne RR deutlich besser dran bin. Sowohl was Fluidität als auch Bildqualität angeht.

Im CP2077 "FSR3 ist better than DLSS3 mod" fehlt nur noch den Schalter für XeSS-UP in Kombination mit AMD-FSR3 FG und DLSS3 kann in die Tonne.

Mir fehlen hier auch die Werte der so hochgelobten RTX4080, der eigentlichen Gegenspielerin der 7900XTX.

Aber mal Spaß bei Seite, wo sind denn deine Werte mit deinem System?

Wiseman
2024-07-04, 23:44:24
Hängt von der Zielauflösung ab. Ich kenne die Stufen nicht, aber Full HD ist idR Quality, ab WQHD mit entsprechend höherem Upscaling-Faktor. Das ist nur besseres Raten, insofern verweise ich mal an den vorderen Teil deines Postings, bei dem alles schön transparent ist. :biggrin:
MfG
Raff

Ich überprüfte es heute ausführlich: "Auto" ist "Performance", in 4k und in 5k, egal ob ich DLSS oder (per Mod) FSR3 auswähle. (Siehe Screenshots)

Wie wärs, wenn du auch den integrierten Benchmark mit deiner 4090 testen würdest? Mit dem Overdrive Preset und DLSS Auto bzw. Performance. Wär doch zeitlich ein Klacks für dich. Würde mich schon interessieren, wo die XTX im Jahr 2024 im Vergleich zur 4090 in diesem viel-besungenen Raytracing-Showcase steht. Als Anreiz hänge ich noch einen Schnappschuss (4k, Overdrive Preset, FSR3 Mod P) aus der Red-Light-Alley an. ;)

Raff
2024-07-04, 23:49:16
Ich wäre am Start, wenn wir nicht in den integrierten Benchmark nehmen, sondern etwas mit mehr Schmackes. Anbei das Savegame für die PCGH-Szene "Dog Days": https://extreme.pcgameshardware.de/attachments/cyberpunk-2077_gpu-savegame-dog-days-zip.1463728/

Das ist diese Szene hier: https://www.youtube.com/watch?v=Gx0SJrZTEds&t=87s

Bock? =)

MfG
Raff

Darkearth27
2024-07-05, 02:10:30
Geht es hier eigentlich noch um die Leistungsfähigkeit der Hardware oder ist das ein "welche Firma bietet bei besser Optik den besseren Upscaler" bzw welcher Modder schafft es FMF in Spiele zu integrieren die eigentlich gar keine FMF Unterstützung bieten?

Ich hab nix dagegen wenn eine Radeon 7900XTX schneller wäre als eine 4090, aber ohne entsprechende Mods und geringerer Bildqualität ist das aktuell einfach nur bei sehr wenigen Titeln der Fall (MW z.B. ist sehr Radeon affin).

Raff
2024-07-05, 09:41:41
Ich hab nix dagegen wenn eine Radeon 7900XTX schneller wäre als eine 4090, aber ohne entsprechende Mods und geringerer Bildqualität ist das aktuell einfach nur bei sehr wenigen Titeln der Fall (MW z.B. ist sehr Radeon affin).

Selbst das muss man konstruieren, mit geringer Last. Sobald die Pixel-Exkremente richtig am Dampfen sind, regelt AD102. Ist ja okay, das Ding ist viel fetter und teurer, alles andere wäre kurios.

MfG
Raff

The_Invisible
2024-07-05, 12:06:25
Frag mich nur was man sich davon erhofft. CP2077 wurde schon bis zum Exzess von allen möglichen Reviewern durchgebencht. Auch bei neuen RT-Benches wie The First Descendant liegt AMD weit zurück. Als bräuchte man 2 Jahre nach Release noch mal die Bestätigung das AMD in RT einfach einiges aufzuholen hat, vor allem dann mit so lustigen Konstruktionen wie UP :freak:

Raff
2024-07-05, 12:19:10
Reviewer können alle nicht testen. Faules Pack, das nicht gute von schlechten Ergebnissen unterscheiden kann und außerdem immer AFMF bei den Benchmarks "vergisst". Elende Jensen-Jünger, vermaledeite.

MfG
Raff

kmf
2024-07-05, 23:37:55
Reviewer können alle nicht testen. Faules Pack, das nicht gute von schlechten Ergebnissen unterscheiden kann und außerdem immer AFMF bei den Benchmarks "vergisst". Elende Jensen-Jünger, vermaledeite.

MfG
Raff
Endlich mal wahre Worte :massa:


:devil:

Gell is nur Späßje =)

vinacis_vivids
2024-07-09, 18:34:28
Neues Futter: Ryzen 9 7950X + Radeon RX 7900 XTX - CP2077


T3HS-llNMN8

00-Schneider
2024-07-28, 10:03:19
Crysis 3 Remastered Ray Tracing High 4K | RX 7900 XTX | R7 5800X 3D
https://youtu.be/qA7jjmcxV-M


Ich habe jetzt schon mehrere Videos auf Youtube gesehen, wo Radeons immer nur mit Raytracing "High" bei C2 und C3 getestet werden. Bei Nvidia wird immer mit "Very High" getestet.

Warum ist das so? Gibts die Option bei Radeon-Karten nicht?

Wie hoch ist der Unterschied bei der Performance bei der 7900XT(X) zwischen RT "High" und "Very High"?

DrFreaK666
2024-07-28, 11:00:20
Wie hoch ist der optische Unterschied?

00-Schneider
2024-07-28, 11:18:37
U.a. ist die Auflösung bei RT-Reflektions höher.

DrFreaK666
2024-07-28, 11:46:52
Aber ist das auch klar ersichtlich ingame?

Ex3cut3r
2024-07-28, 14:13:48
Guckt ihr kein DF? Genau solche Fragen werden dort unter anderem beantwortet.

https://s20.directupload.net/images/240728/7wvln24m.png

Höhere Settings als Medium RT kann man sich IHMO sparen.

Zc7IV5hbhcY

00-Schneider
2024-07-28, 14:20:12
Nichts gegen Alex von DF, aber er hat u.a. auch jahrelang behauptet(k.a. ob immer noch), dass DLSS Performance vollkommen ausreichend ist, wenn man auf 4K upscaled und DLSS Quality keinen wirklichen Mehrwert bietet.

Also immer alles mit einer gewissen Skepsis betrachten, auch bei Experten. Grundsätzlich ist sowieso das Meiste subjektiv.

Bei RT Very High in C2 sieht man feine Strukturen z.b. Zäune in Reflektionen deutlich klarer, während es bei "High" ~unscharf und pixelig wird.

Ex3cut3r
2024-07-28, 15:05:05
Ist doch auch so. Schließlich ist die Render Auflösung bei 4K im P Mode (1080p) höher als Q bei 1440p (960p) natürlich spielt da auch noch die Größe deines Monitors ne Rolle, bzw. die PPi. Bis 32" @ 4K ist P vollkommen gut, bei normalen Sitzabstand. Bei 40" und 55" oder gar 65" (lol) ist P natürlich ein Fliegenschiss bei der mickrigen PPi. Da muss man sich quasi noch weiter weg setzen.