PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6900 XT Review-Thread


Seiten : 1 [2] 3

Langlay
2020-12-18, 17:57:05
Ich habe nen Seasonic Platinum 660W.
Wie würde es da aussehen?

Probieren geht über studieren. Ich hab das Seasonic Prime TX 650W und keine Probleme mit der 6900XT auch mit OC nicht.

bnoob
2020-12-18, 18:33:46
Ich glaube auch, dass mein Focus Plus Gold 650W noch aus der Charge VOR 02/2018 war, die haben da was geändert um die Spikes moderner GPUs besser abfangen zu können nachdem ihnen die Vegas auf die Füße gefallen sind.

Probiers aus. Im Zweifelsfall halt die 6900XT in manchen Spielen auf -10% PT laufen lassen wie ich gerade ;D

Langlay
2020-12-18, 18:48:02
Naja die 6900XT sollte unproblematischer als ne 3080,3090 sein. Erstmal ist der absolute Verbrauch geringer und die Navi21 hat ne ordentliche Eingangsfilterung was die Spikes auch abmildern sollte.

gbm31
2020-12-18, 19:15:36
AMD Driver 20.12.2 mit Unterstützung für das AMD Radeon RX 6000 RGB Tool

https://www.amd.com/de/support/graphics/amd-radeon-6000-series/amd-radeon-6900-series/amd-radeon-rx-6900-xt

Robot
2020-12-19, 01:27:01
Ich habe nen Seasonic Platinum 660W.
Wie würde es da aussehen?

Schwer das vorherzusagen. Kannst es eigentlich nur ausprobieren. Kann gehen oder auch nicht. Hab leider auch kein altes Platinum 660W da nur 860 glaub ich.

Probieren geht über studieren. Ich hab das Seasonic Prime TX 650W und keine Probleme mit der 6900XT auch mit OC nicht.

3900XT ist bei mir auch kein Problem aber RTX 3080 und MÖÖÖÖP OFF.

Naja die 6900XT sollte unproblematischer als ne 3080,3090 sein. Erstmal ist der absolute Verbrauch geringer und die Navi21 hat ne ordentliche Eingangsfilterung was die Spikes auch abmildern sollte.

definitiv, kann ich aus meinen Erfahrungen auch so bestätigen bisher.

gbm31
2020-12-19, 13:18:31
@dargo, Armaq, nazar und Co. - könnt ihr bitte in die RT Threads gehen?

Hier gehts um die 6900XT und in euren Beiträgen halt nur darum (und leider auch nichts neues bei rumkommt).

Ich bin kurz vorm Melden weils echt nervt zwischen euren Beiträgen nach Beiträgen zum Thema zu suchen.

anddill
2020-12-19, 14:43:17
@dargo, Armaq, nazar und Co. - könnt ihr bitte in die RT Threads gehen?

Hier gehts um die 6900XT und in euren Beiträgen halt nur darum (und leider auch nichts neues bei rumkommt).

Ich bin kurz vorm Melden weils echt nervt zwischen euren Beiträgen nach Beiträgen zum Thema zu suchen.

Hab durchgewischt. Gelöscht, da wenig gehaltvolles dabei war, nur immer der Selbe Mist und persönliche Angriffe.

DennisO2
2020-12-20, 03:08:56
Gothic benchen macht aber schon seit Jahren keinen Sinn, weil das alles so BROKEN ist.


Kann ich nicht bestätigen. Spielst du mit dem Communitypatch 1.75? Damit ist das Spiel eigentlich sehr stabil. Einziges Problem ist noch, dass es unter Windows10 seit der Version von vor 2(?) Jahren nicht gerne läuft. Um das zu umgehen kann man die d3d9.dll aus dem 3dvk-Projekt (Vulkan-"Übersetzung") nutzen.


Für Gothic 3 hilft es mit der höchstmöglichen Auflösung mit der brutalstmöglichen .ini zu spielen und im Wattman einen hohen Mindesttakt zu forcen. Klingt kontraproduktiv, ich weiß, aber sonst taktet die Karte ständig runter und die Engine sauft ab.
[...]
Den höchsten Performanceschub bringt die Auslagerung der Texturen auf eine RAM-Disk...


Ich hab seit heute meine 6800 und kann auch das nicht bestätigen. Klar ist die Auslastung sehr gering: Das Spiel hat auf der 5700XT einen Wattmanverbrauch von 30 bis 50W gehabt und jetzt auf der 6800 grob das Doppelte bei doppelten Frameraten (grob 70fps bei gleichen Einstellungen) - eigentlich eine Schande :D . Aber der Minimumtakt hat bei mir gar keine Auswirkungen, egal wie hoch oder tief ich in setze.

RAM-Diskauslagerung ist doch auch eher eine Sache zur Vermeidung von Nachladerucklern. Mit schneller SSD und Communitypatch 1.75 ist das heutzutage auch kein großes Problem mehr, bei den Bildraten in bekanntem Gebiet bringt es nichts mehr.

Klar, macht es Sinn, die INI zu tunen, aber aufpassen: Reißt man alles hoch, kommt es gerne zu abstürzen. Mit dem richtigen Tuning spiele ich aber seit 40 Stunden ohne einen einzigen Absturz.

So, jetzt aber mal zum Benchen:
Mit der FuryX hatte ich traumhafte Bildraten bei extrem hoher Sichtweite (wirklich fast alles am Anschlag), allerdings mit dem originalen DirectX9.
Mit der 5700XT (und dxvk) musste ich hingegen einiges zurückschrauben, damit es schnell lief.
Mit der 6800 (und dxvk) habe ich nun die Regler wieder hochziehen können, wenn auch nicht ganz so hoch wie bei der Fury. Es wäre interessant zu sehen, wie flüssig es auf einer 6900 läuft.

Bei Bedarf stelle ich gerne einen Spielstand und meine Ini zum Testen zur Verfügung.

bnoob
2020-12-20, 19:20:26
So, meine 6900XT wurde heute morgen nicht mehr vom Board erkannt nachdem ich mein Netzteil ausgetauscht hatte (ich weiß leider nicht, ob sie davor noch ging). Alles einmal durchgetauscht und reseated, nichts geht mehr.

Einmal RMA und das beste hoffen und solange mit einer V56 rumkrebsen...

Das ist echt Peak 2020, es ist unglaublich.

@Dennis02 Hatte das zuletzt mit einer VII gespielt (und ja, natürlich mit CP)

aufkrawall
2020-12-20, 19:26:29
So, jetzt aber mal zum Benchen:
Mit der FuryX hatte ich traumhafte Bildraten bei extrem hoher Sichtweite (wirklich fast alles am Anschlag), allerdings mit dem originalen DirectX9.
Mit der 5700XT (und dxvk) musste ich hingegen einiges zurückschrauben, damit es schnell lief.
Mit der 6800 (und dxvk) habe ich nun die Regler wieder hochziehen können, wenn auch nicht ganz so hoch wie bei der Fury. Es wäre interessant zu sehen, wie flüssig es auf einer 6900 läuft.

Der Navi D3D9-Treiber ist für Spiele abseits der Source-Engine leider ziemlich schlecht, warum auch immer. Fast allen Spielen gemein sind komische "Streaming-Einbrüche", wenn man die Kamera-Perspektive schnell ändert.
Da empfiehlt sich Linux als Zweitsystem: In Wine läuft etwa auch Star Craft 2 mit DXVK, um mal ein Beispiel zu nennen, bei dem es unter Windows nicht (mehr) geht. Da hat man auch gleich noch einen anderen Vulkan-Treiber (RADV) und Gallium Nine als alternative D3D9-Implementierung zur Auswahl, die mit Navi weiterhin gewohnt gut funktioniert.

-=Popeye=-
2020-12-20, 20:18:33
So, meine 6900XT wurde heute morgen nicht mehr vom Board erkannt nachdem ich mein Netzteil ausgetauscht hatte (ich weiß leider nicht, ob sie davor noch ging). Alles einmal durchgetauscht und reseated, nichts geht mehr.

Einmal RMA und das beste hoffen und solange mit einer V56 rumkrebsen...

Das ist echt Peak 2020, es ist unglaublich.

@Dennis02 Hatte das zuletzt mit einer VII gespielt (und ja, natürlich mit CP)

Mach mir keine Angst, ich möchte demnächst auch das Netzteil tauschen.

Ex3cut3r
2020-12-20, 21:47:08
Wie zufrieden bist du @ Popeye?

Möchte im nächsten Jahr von einer 2080 auf eine 6800XT oder 6900XT wechseln.

bnoob
2020-12-20, 21:49:52
Mach mir keine Angst, ich möchte demnächst auch das Netzteil tauschen.
Ich kann auch nicht ausschließen dass es am Firmweareupdate für die RGB-Steuerung der 6900XT hing, das war vor dem Runterfahren AUCH :D

Das ist so ärgerlich, mir ist bisher noch NIE was kurz nach Kauf kaputt gegangen, und dann ausgerechnet das

Langlay
2020-12-20, 21:56:07
Das ist so ärgerlich, mir ist bisher noch NIE was kurz nach Kauf kaputt gegangen, und dann ausgerechnet das


Naja besser so als nach 2 Jahren 1 Woche oder so.

Robot
2020-12-21, 04:10:21
So, meine 6900XT wurde heute morgen nicht mehr vom Board erkannt nachdem ich mein Netzteil ausgetauscht hatte (ich weiß leider nicht, ob sie davor noch ging). Alles einmal durchgetauscht und reseated, nichts geht mehr.


WTF? Das neue und alte Netzteil mal alleine laufen lassen ohne PC ob sie noch gehen?

gbm31
2020-12-21, 11:43:35
Ich kann auch nicht ausschließen dass es am Firmweareupdate für die RGB-Steuerung der 6900XT hing, das war vor dem Runterfahren AUCH :D

Das ist so ärgerlich, mir ist bisher noch NIE was kurz nach Kauf kaputt gegangen, und dann ausgerechnet das

Naja besser so als nach 2 Jahren 1 Woche oder so.


Ist trotzdem Scheisse! Bis da Ersatz kommt...

Mit BIOS Flash blind oder mit 2ter Karte ist nichts? Oder postet der PC gar nicht wenn sie steckt?

bnoob
2020-12-21, 12:52:12
Rechner postet nicht wenn sie drinsteckt, mit einer Vega 56 alles paletti

gbm31
2020-12-21, 13:01:09
Rechner postet nicht wenn sie drinsteckt, mit einer Vega 56 alles paletti

Fuck! Das klingt definitiv nach RMA. :-(

bnoob
2020-12-21, 13:27:38
Ja, RMA-Schein ist schon da :/

-=Popeye=-
2020-12-21, 18:29:53
Wie zufrieden bist du @ Popeye?

Möchte im nächsten Jahr von einer 2080 auf eine 6800XT oder 6900XT wechseln.

Bin so ein bisschen beeindruckt von dem Ding, ok ich komme auch von einer GTX 1080 Ti @ OC... da sollte ordentlich was bei rumkommen, was es auch tut.

Der Treiber ist anfangs etwas gewöhnungsbedürftig (also Umstellung) aber nicht so altbacken wie bei nVidia. Den Kühler der Ref. Version fand ich als WaKü-User nicht wirklich störend, hörbar, geht aber in Ordnung.

Und was die Performanz und das OC angeht sieht man ja in den Benchmark Threads.

Also alles in allem gefällt mir diese Karte echt gut... auch wenn ich es so vorher nicht erwartet habe.

Ex3cut3r
2020-12-21, 18:58:58
Schön zu hören. :smile:

Komme von einer ähnlichen Leistungsklasse. Passt.

Raff
2020-12-21, 20:45:13
Also alles in allem gefällt mir diese Karte echt gut... auch wenn ich es so vorher nicht erwartet habe.

Du hast 1.000 Euro investiert, obwohl du nicht erwartest hast, dass sie geil ist? No risk, no fun, eh? :biggrin: War aber ein Stunt mit Sicherheitsnetz, denn die Geilheit ist ja schon x-fach bestätigt.

MfG
Raff

-=Popeye=-
2020-12-21, 21:39:43
Hehe... Mut zum Risiko.:wink: Das die Karte schnell ist war mir bewusst, dass der Treiber auch was taugt dagegen nicht. Nach 20 jahren NV only kann man durchaus beeindruckt sein. :)

[MK2]Mythos
2020-12-21, 21:49:42
Hehe... Mut zum Risiko.:wink: Das die Karte schnell ist war mir bewusst, dass der Treiber auch was taugt dagegen nicht. Nach 20 jahren NV only kann man durchaus beeindruckt sein. :)
Und trotzdem werden die üblichen Verdächtigen auch beim nächsten RDNA3 Launch wieder argumentieren, dass die AMD Treiber ja nichts taugen... ;)

Benutzername
2020-12-21, 22:52:58
Du hast 1.000 Euro investiert, obwohl du nicht erwartest hast, dass sie geil ist? No risk, no fun, eh? :biggrin: War aber ein Stunt mit Sicherheitsnetz, denn die Geilheit ist ja schon x-fach bestätigt.

MfG
Raff


Bei Nichtgefallen kann man sie ja auch für viel Geld auf ebay verkaufen im Moment. Von daher wirklich ein geringes Risiko.

aufkrawall
2020-12-21, 22:57:56
Hoffen wir, dass das gute Treiber-Wetter noch mit dem nächsten Feature-Update anhalten wird. Aber eigentlich dürfte es ja keine Veranlassung geben, alles über den Haufen zu schmeißen. Ich bin auch wirklich positiv überrascht, wie reibungslos die das inkls. DXR + Vk über die Bühne gebracht haben.
Wie im Linux-Thread schon erwähnt, ist der Launch für diese Plattform jedenfalls unzweifelhaft rekordverdächtig gut.

dargo
2020-12-21, 23:01:02
Hehe... Mut zum Risiko.:wink: Das die Karte schnell ist war mir bewusst, dass der Treiber auch was taugt dagegen nicht. Nach 20 jahren NV only kann man durchaus beeindruckt sein. :)
Hehe... freut mich zu hören. Es gibt leider da draußen noch viel zu viele festgefahrere Lederjackenanhänger. :wink: Spielst du eigentlich noch Division 2? Das müsste jetzt mit 150+fps flutschen. :tongue:

Mythos;12544434']Und trotzdem werden die üblichen Verdächtigen auch beim nächsten RDNA3 Launch wieder argumentieren, dass die AMD Treiber ja nichts taugen... ;)
Najo... bei den festgefahrenen Intelanhängern hat es auch etwas gedauert. ;) Geduld... :)

Raff
2020-12-21, 23:07:10
Mythos;12544434']Und trotzdem werden die üblichen Verdächtigen auch beim nächsten RDNA3 Launch wieder argumentieren, dass die AMD Treiber ja nichts taugen... ;)

Dabei fällt das schon seit Jahren in die Kategorie "Bullcrap". Sieht man von den RDNA-1-Startschwierigkeiten ab, läuft da alles prima und ist schön mächtig. Sicher, Kinderkrankheiten wie vergessene Tuning-Profile nerven, aber immerhin darf man im Treiber tunen. Bei Nvidia hat man dagegen die Wahl zwischen einem Panel, das an Windows XP erinnert (leider mit der Schwuppdizität von Vista), und einer im System herumstümpernden Bloatware. Herrje.

Bei mir hat's diesmal auch fast geklappt mit einer Radeon nach vielen Jahren Geforce. Leider fehlte es mal wieder am Timing (nach Ampere, Äonen nach Turing) und den Prioritäten. Nvidia stemmt die "Zukunft" derzeit einfach besser als AMD (Raytracing als nutzbares Next-Gen-Feature).

Najo... bei den festgefahrenen Intelanhängern hat es auch etwas gedauert. ;) Geduld... :)

Das ist sowieso 'ne interessante Sache. Bei Grafikkarten hängt viel "Experience" an Treiber-Software und -Bugs. Aber bei CPUs? Quasi nix. Entsprechend hat es AMD da auch einfacher, Kunden abzuwerben. Einmal installiert und man merkt die Farbe des Siliziums nicht mehr. ;)

MfG
Raff

Prinzenrolle
2020-12-21, 23:17:32
1000 Euro, für eine Karte die in vielen workloads gegen eine 3070 oder 3080 den Kürzeren zieht.
Gerade mit RT und non RT + DLSS Quality.
Nvidia bietet einfach das deutlich bessere PLV. Verkehrte Welt.

gedi
2020-12-21, 23:23:23
Dabei fällt das schon seit Jahren in die Kategorie "Bullcrap". Sieht man von den RDNA-1-Startschwierigkeiten ab, läuft da alles prima und ist schön mächtig. Sicher, Kinderkrankheiten wie vergessene Tuning-Profile nerven, aber immerhin darf man im Treiber tunen. Bei Nvidia hat man dagegen die Wahl zwischen einem Panel, das an Windows XP erinnert (leider mit der Schwuppdizität von Vista), und einer im System herumstümpernden Bloatware. Herrje.

Bei mir hat's diesmal auch fast geklappt mit einer Radeon nach vielen Jahren Geforce. Leider fehlte es mal wieder am Timing (nach Ampere, Äonen nach Turing) und den Prioritäten. Nvidia stemmt die "Zukunft" derzeit einfach besser als AMD (Raytracing als nutzbares Next-Gen-Feature).



Das ist sowieso 'ne interessante Sache. Bei Grafikkarten hängt viel "Experience" an Treiber-Software und -Bugs. Aber bei CPUs? Quasi nix. Entsprechend hat es AMD da auch einfacher, Kunden abzuwerben. Einmal installiert und man merkt die Farbe des Siliziums nicht mehr. ;)

MfG
Raff

Obwohl die Experience im eigentlichen Sinne ja den Sinn darstellt, von Team Grün auf Rot zu wechseln ;D Einen anderen Sinn kann das Ding nicht haben :biggrin:

gedi
2020-12-21, 23:24:05
1000 Euro, für eine Karte die in vielen workloads gegen eine 3070 oder 3080 den Kürzeren zieht.
Gerade mit RT und non RT + DLSS Quality.
Nvidia bietet einfach das deutlich bessere PLV. Verkehrte Welt.

Und nochmal ein Blinder

Langlay
2020-12-21, 23:30:43
1000 Euro, für eine Karte die in vielen workloads gegen eine 3070 oder 3080 den Kürzeren zieht.
Gerade mit RT und non RT + DLSS Quality.
Nvidia bietet einfach das deutlich bessere PLV. Verkehrte Welt.


Ich bin von na Radeon VII auf die 3090 gewechselt und von der 3090 jetzt wieder auf die 6900XT. Und für meine Ansprüche hab ich die bessere Karte.

In den Sachen die ich spiele nehmen sich 3090 und 6900XT beide undervolted kaum was. Die 6900XT verbraucht spürbar weniger Strom. Wobei ja in RT ist die 3090 deutlich schneller. Aber so wirklich ausreichend schnell für High FPS 1440 mit RT ist auch die 3090 nicht, also quasi geschenkt.

DLSS ist sicherlich ne gute Sache und zumindest im Quality Preset gut zu gebrauchen. Aber ich denke/hoffe das AMD dort in Zukunft was vergleichbares hinzaubert.

Sind beides keine schlechten Karten, jede hat ihre Stärken und Schwächen.

dargo
2020-12-21, 23:49:02
Das ist sowieso 'ne interessante Sache. Bei Grafikkarten hängt viel "Experience" an Treiber-Software und -Bugs. Aber bei CPUs? Quasi nix. Entsprechend hat es AMD da auch einfacher, Kunden abzuwerben. Einmal installiert und man merkt die Farbe des Siliziums nicht mehr. ;)

Also wenn ich mir neuere Games so ansehe (die Baustelle @CP77 mal außen vor) dann spricht nicht viel für die Treiber und/oder Hardware vom grünen Team.

Robot
2020-12-22, 00:34:28
Mythos;12544434']Und trotzdem werden die üblichen Verdächtigen auch beim nächsten RDNA3 Launch wieder argumentieren, dass die AMD Treiber ja nichts taugen... ;)

Japp, das ist so schrecklich das Geblubber. Das kommt zu 99 % von Leuten die seit 10 Jahren keine AMD karte hatten aber den Experten raus hängen lassen wollen.

Ganz zu schweigen von dem unerträglichen GeForce Experience Zwangsreg Müll. Wenn man einmal auf AMD war, kommt einem der Nvidia Treiber wie aus 1999 vor.

Gynoug MD
2020-12-22, 01:13:06
Wenn man einmal auf AMD war, kommt einem der Nvidia Treiber wie aus 1999 vor.
+1

Niall
2020-12-22, 12:26:50
Ganz zu schweigen von dem unerträglichen GeForce Experience Zwangsreg Müll. Wenn man einmal auf AMD war, kommt einem der Nvidia Treiber wie aus 1999 vor.
Zwangsreg? GeForce Experience?
Meine 1080ti bekommt immer nur den Treiber und gut is'. :freak:

Schnoesel
2020-12-22, 12:30:32
Japp, das ist so schrecklich das Geblubber. Das kommt zu 99 % von Leuten die seit 10 Jahren keine AMD karte hatten aber den Experten raus hängen lassen wollen.

Ganz zu schweigen von dem unerträglichen GeForce Experience Zwangsreg Müll. Wenn man einmal auf AMD war, kommt einem der Nvidia Treiber wie aus 1999 vor.

Zu Nvidias Treiber hab ich schon was im 3090er Thread geschrieben:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12544763&postcount=1625

Das hatte ich noch nie (weder mit Nvidia noch mit AMD). Und ist scheinbar kein Einzelfall.

Zwangsreg gibts nicht für Geforce Experience kannst dir auch nur den Treiber runterladen aber! du hast dann eben einige Features nicht. Anders bei AMD da bekommst alle! Features ohne Registrierung.

Screemer
2020-12-22, 13:20:19
Zwangsreg? GeForce Experience?
Meine 1080ti bekommt immer nur den Treiber und gut is'. :freak:
und dann kannst du die ganzen ach so tollen features nicht nutzen oder musst auf drittanbieter software setzen? ohh noooez!

Thunder99
2020-12-22, 13:25:06
und dann kannst du die ganzen ach so tollen features nicht nutzen oder musst auf drittanbieter software setzen? ohh noooez!
Wer braucht die Features wenn man nur zoggen möchte? :redface: :cool:

AMD ist mit ihrem Treiber und Möglichkeiten einfach meilenweit vorraus. Daher ist und bleibt Navi21 eine Option für mich im Jahr 2021. RT Leistung mag zwar nicht die Beste sein, aber die Zeit wird es zeigen ob es nachhaltig ein Nachteil sein wird oder nicht (kommt wie schon in einem anderen Thread von dargo gesagt auf die Implementierung an :) )

aufkrawall
2020-12-22, 13:26:25
und dann kannst du die ganzen ach so tollen features nicht nutzen oder musst auf drittanbieter software setzen? ohh noooez!
Na ja, was für tolle Features denn? Den Ansel-Kram? -> zig Spiele haben eigenen Foto-Modus. Und die Video-Aufnahme ist eh Crap vs. obs. Ich hatte die bloatige Spyware jedenfalls nie vermisst.

Aber schon wieder typisch, dass nicht mal WoW Shadowlands ohne Grafikfehler läuft. Mit Nvidia ists definitiv bergab gegangen. War zwar nie so schlimm wie die Navi-Blackscreens, aber da hört man seit einigen Treibern auch gar nichts mehr von und der Kram läuft hier nun einfach. Bei Nvidia ist irgendwie immer irgendwas mit DX12 Spielen etc...

Lurtz
2020-12-22, 14:47:30
Bin nach 15 Jahren AMD auch nicht so geflasht vom Verheißenen Land namens nVidia-Treiber. Bis auf den wirklich praktisch überall greifenden Framelimiter (und VSync-Schalter) habe ich bei AMD nichts vermisst, dafür konnte ich UV im Treiber machen und musste mich dazu nicht mit dem verbuggten Afterburner rumärgern.

Außerdem habe ich regelmäßig das Phänomen, dass manche Spiele sporadisch nicht genug Leistung angefordert kriegen und man dann schon im Menü mit 2 fps rumkrebst (Battlefront II zB). Keine Ahnung ob das an der Installation mit DDU statt Windows-Neuinstallation liegt, Afterburner reinpfuscht oder was auch immer.

Robot
2020-12-23, 00:22:02
Zwangsreg gibts nicht für Geforce Experience kannst dir auch nur den Treiber runterladen aber! du hast dann eben einige Features nicht. Anders bei AMD da bekommst alle! Features ohne Registrierung.

Wie bekomm ich denn GeForce Shadowplay also das Gamplay Record Feature ohne Zwangsreg über Experience? Das geht doch net. GeForce Experience verlangt schon beim Start ne Zwangsanmeldung.

https://www.nvidia.com/de-de/geforce/geforce-experience/shadowplay/

Es läuft immer alles darauf hinaus das man in Experience landet und sich dort dann Zwangsanmelden muss, wenn man irgendein Feature außerhalb des Treibers nutzen will.

Und noch mal zum Treiber, fragt mal "For Honor" Spieler ;) Ich weiß das zufällig weil ich das als Benchmark genutzt habe, und es ist beim Start auf der 3000er Serie sofort gecrashed ist, man konnte es nicht mal starten, auf den 2000er ging es. Mittlerweile gabs aber ein Treiberupdate, hat aber ewig gedauert.

Viel mehr geht mir aber zum Beispiel auf den Keks, wie lange die 1999-GeForce-Konfig zum Laden braucht. Da ist AMD einfach ein Traum gegen! Gerade wenn man öfter mal was umstellt.

Am geilsten an AMD find ich das man im Overlay dann mal eben Browserfenster machen kann und sich nebenbei ne Webseite oder Video anschauen kann. Das echt mega hilfreich, wenn man irgendwo in nem Game fest steckt.

woodsdog
2020-12-23, 09:09:33
können wir mal wieder auf die 6900 XT zurück kommen?

-=Popeye=-
2020-12-23, 20:01:53
Hehe... freut mich zu hören. Es gibt leider da draußen noch viel zu viele festgefahrere Lederjackenanhänger. :wink: Spielst du eigentlich noch Division 2? Das müsste jetzt mit 150+fps flutschen. :tongue:


...

Aktuell wieder... um zu sehen wie es mit DX12 läuft, was mit der Pascal Karte die letzte Zeit nicht so recht wollte. Ich sags mal so... rennt.:biggrin:

Es gibt einige Neuerungen, neue Exos und der neue Event ist auch cool. Was die 150+fps (1440p) angeht, ist möglich es kommt halt aufs Setting an.

-=Popeye=-
2020-12-25, 18:04:50
Die Karte ist einfach nur ein Monster... bis zu 2760 MHz Boost und 303 Watt nur über den Wattman. Nur leider nicht ganz stabil... hier müsste man möglicherweise mit dem MPT nachregeln, wo ich mich noch nicht dran traue.

https://abload.de/thumb/thedivision2_2020_12_xbjg3.jpg (https://abload.de/image.php?img=thedivision2_2020_12_xbjg3.jpg)
O9e9kiNeUcc

herb
2020-12-25, 19:37:53
Die Karte ist einfach nur ein Monster... bis zu 2760 MHz Boost und 303 Watt nur über den Wattman. Nur leider nicht ganz stabil... hier müsste man möglicherweise mit dem MPT nachregeln, wo ich mich noch nicht dran traue.

Mit welchen Settings bekommst Du die auf 2760MHz? Bei mir ist bei 2600 Schluss.

-=Popeye=-
2020-12-25, 19:42:17
Wollte eigentlich gerade den Satzbau ändern aber OK. :)

Ähm... damit.

https://www.hardwareluxx.de/community/attachments/furmark_blabla-png.565839/

herb
2020-12-25, 19:50:31
Besten dank, probier ich mal aus!

-=Popeye=-
2020-12-25, 20:23:58
An den mV muss man aber noch etwas rumspielen damit es nicht immer auf 1175mV peakt.

Ob stabil? Ich weiss es nicht, bin auch noch am frickeln.

mironicus
2021-01-06, 15:52:53
Ich habe heute morgen meine Sapphire RX 6900 XT Nitro+ erhalten. Laut MSI Afterbuner liegt die GPU-Power maximal bei 264 Watt. Ist das nur der Chip-Verbrauch oder die gesamte Karte?

Im Übrigen hat mein 550 Watt-Netztteil bis jetzt keine Probleme, die 6900 zu stemmen. Mit einer Vega 64 hatte es aber auch nie Probleme gehabt, und der Verbrauch der Karten ist ja ähnlich.

gbm31
2021-01-06, 16:21:50
Ich habe heute morgen meine Sapphire RX 6900 XT Nitro+ erhalten. Laut MSI Afterbuner liegt die GPU-Power maximal bei 264 Watt. Ist das nur der Chip-Verbrauch oder die gesamte Karte?...


Chipverbrauch. Kommen noch 30-40W dazu.


Die 6900er rennt mit den default 1175mV permanent ins PT-Limit, selbst wenn du das auf 330W anhebst.


Durch Reduzierung der Spannung via MPT kannst du sie dazu bringen, taktstabil innerhalb der 300W zu bleiben.

Allerdings musst du dich dann von den Rekordtaktraten verabschieden, für nichts gibts nichts. ;-)


https://www.3dmark.com/spy/17129155

horn 12
2021-01-06, 16:24:44
Welches 550 Watt Netzteil besitzt denn
Single Rail oder Multi Rail?

Langsam werd ich auch Nervös mit meiner RX 6800 @2365 Mhz 2100 Memory!
Bezahlt 780 Euro vor 4 Wochen über Ebay ...

mironicus
2021-01-06, 17:37:36
Welches 550 Watt Netzteil besitzt denn
Single Rail oder Multi Rail?

Das hier:
https://geizhals.de/thermaltake-toughpower-dps-g-gold-550w-atx-2-31-tpg-0550d-g-ps-tpg-0550dpcgg-a1157280.html

dargo
2021-01-07, 08:51:56
Dat CPU-Limit. X-D

p7rLSBfZ2cg

Naja... mit Farcry 6 sollte das wieder passen wenn sie den D3D12-Renderer nicht völlig verkacken.

mironicus
2021-01-07, 09:33:29
Es war schon etwas ungewohntes, den Port Royale-Benchmark erstmals auf einer AMD-Grafikkarte sehen zu können. Dafür wird man aber auch meiner Meinung nach mit einer besseren Bildqualität gegenüber NVidia belohnt, denn der DLSS-Mist wird hier ja nicht verwendet. :D

Und interessanterweise sehe ich auch einen Unterschied bei den Farben im Vergleich zu meiner RTX 2080 Ti, angeschlossen an dem gleichen Samsung 4K-Fernseher. Der HDMI 2.0-Ausgang der NVidia-Karte limitiert den Fernseher in seinen Funktionen, zahlreiche Optionen für Bildverbesserungen sind dann nicht mehr verfügbar (im Fernseh-Menü ausgegraut), bei der AMD-Karte lassen sich dagegen alle Optionen nutzen und das trotz der gleichen Auflösung 4K60 mit RGB 4:4:4. Das gleiche konnte ich auch bei der Xbox Series X und PS5 feststellen, bei ihnen sind alle Funktionen des Fernsehers verfügbar.

rm-zocker
2021-01-13, 17:34:09
So meine GTX1070 ist heute endlich verdient in Rente gegangen und gegen eine 6900XT Ref Design ausgetauscht.
Bisher habe ich nur 3DMark Basis in 4K durchlaufen lassen ohne OC.
Sind diese Werte OK?

Raff
2021-01-13, 17:36:52
Jo. Nicht fantastisch, aber im Rahmen der Erwartungen. Aktuelle Referenzwerte: 3DMark-Rangliste 2020: Geforce- und Radeon-Grafikkarten im Benchmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/) (da sinds~18.200 Grafikpunkte)

MfG
Raff

rm-zocker
2021-01-13, 18:23:29
Jo. Nicht fantastisch, aber im Rahmen der Erwartungen. Aktuelle Referenzwerte: 3DMark-Rangliste 2020: Geforce- und Radeon-Grafikkarten im Benchmark (https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/) (da sinds~18.200 Grafikpunkte)

MfG
Raff

So hab den Benchmark nochmals durchlaufen lassen ohne ständiges tabben zum AMD Panel und der zweite Durchlauf schaut besser aus :-)

Raff
2021-01-13, 20:26:29
Prima, beinahe 100 Prozent deckungsgleich. Und jetzt quäl die Dame mal mit ein paar Spielen, sie wird dir gefallen! :)

MfG
Raff

nordic_pegasus
2021-01-14, 08:40:59
welches 6900XT Custom Design kann bezogen auf die Lautheit der Spulen empfohlen werden? Meine 6900XT im Referenz Design @ Wakü-Block ist mir einfach zu laut unter Last. Kann hier jemand im Forum eigene Erfahrungen mit der Merc, Red Devil oder Nitro+ berichten?

dargo
2021-01-14, 08:46:27
welches 6900XT Custom Design kann bezogen auf die Lautheit der Spulen empfohlen werden?
Das wird dir keiner garantieren können da ob eine Graka "singt" sie nicht alleine bestimmt.

-/\-CruNcher-/\-
2021-01-14, 08:46:41
Es war schon etwas ungewohntes, den Port Royale-Benchmark erstmals auf einer AMD-Grafikkarte sehen zu können. Dafür wird man aber auch meiner Meinung nach mit einer besseren Bildqualität gegenüber NVidia belohnt, denn der DLSS-Mist wird hier ja nicht verwendet. :D

Und interessanterweise sehe ich auch einen Unterschied bei den Farben im Vergleich zu meiner RTX 2080 Ti, angeschlossen an dem gleichen Samsung 4K-Fernseher. Der HDMI 2.0-Ausgang der NVidia-Karte limitiert den Fernseher in seinen Funktionen, zahlreiche Optionen für Bildverbesserungen sind dann nicht mehr verfügbar (im Fernseh-Menü ausgegraut), bei der AMD-Karte lassen sich dagegen alle Optionen nutzen und das trotz der gleichen Auflösung 4K60 mit RGB 4:4:4. Das gleiche konnte ich auch bei der Xbox Series X und PS5 feststellen, bei ihnen sind alle Funktionen des Fernsehers verfügbar.

Diese Funktionen willst du aber nicht wirklich als Spieler überhaupt aktiv lassen.
Das mit den Color Balance unterschieden wird immer mal wieder erwähnt aber es gibt darüber keine wirklichen Scientific Facts das ist wie mit den Digitalkameras und deren verschiedene "Realitätsbalance" auch Color Science gennant es wird mehr als Differenzierung genutzt ansonsten wäre ja alles irgendwo gleich das geht ja überhaupt nicht (die Ausgangslage ist da nur etwas anders so gut wie alle Sensoren kommen von Sony) ;)
Aber es kommt anscheinend schon hin das da zwischen Nvidia und AMD Hardware unterschiede auf der Post Compression ebene bestehen und Nvidia hier teils agressiver vorgeht auch was Kontrolle angeht.

Glaube da mittlerweile nicht mehr an Placebo effekten bei den Usern, es sollte mal gründlich ausseinandergenommen werden um endlich Klarheit zu schaffen, viel interessanter als immer nur Pimmelbenchmarks fahren die teils ja auch abhängig von diesen im Verborgenen Low Level geschichten sind.

nordic_pegasus
2021-01-14, 11:58:23
Das wird dir keiner garantieren können da ob eine Graka "singt" sie nicht alleine bestimmt.

eine Garantie erwarte ich auch nicht. Allerdings sind zumindest die Reviews zum Referenz-Design recht eindeutig, dass hier unter Last zirpende Spulen zu erwarten sind.

Es wäre interessant zu lesen, auch wenn es nur anekdotische Erfahrungen sind, welche Karten hingegen erfreulich leise sind. Hier würde mich speziell die XFX Merc interessieren, weil ich diese sehr interessant vom Layout her finde.

Lowkey
2021-01-14, 12:10:09
Die Merc ist mit Luft wiederum so leise, dass es den Sinn der Wakü in Frage stellt. Aber vor diesem Dilemma steht man mit AMD Reference genauso wie mit Nvidia FE.

nordic_pegasus
2021-01-14, 12:57:16
wenn man ein Wakü-Enthusiast ist, dann schnallt man auf alles einen Block, was nicht bei drei auf den Bäumen ist ;-)

horn 12
2021-01-15, 03:28:21
Nun, wie lange hast die Karte
Soll mit der Zeit besser und so gut wie verschwinden...
Mal einen 6 Stunden Benchmark Run laufen lassen und dann sollte dies schon verminderbar sein.

mironicus
2021-01-20, 10:27:00
Ich habe gestern für mehrere Stunden ein Game gezockt, daß meine 6900XT Nitro+ nur zu ca. 150-170 Watt auslastet, da 60 FPS-Cap bei 4K. Jetzt fielen die Lüfter im Schnitt auf unter 600 rpm ab und verweilten dort meistens und die GPU durfte dabei 70 Grad heiß werden. Das fand ich so bemerkenswert, daß ich das einfach mal hier schreiben mußte. :)

anddill
2021-01-20, 10:56:21
welches 6900XT Custom Design kann bezogen auf die Lautheit der Spulen empfohlen werden? Meine 6900XT im Referenz Design @ Wakü-Block ist mir einfach zu laut unter Last. Kann hier jemand im Forum eigene Erfahrungen mit der Merc, Red Devil oder Nitro+ berichten?
Erfahrungsgemäß hilft es in dem Fall wild Netzteile zu tauschen bis Du eins findest das mit der Karte harmoniert.

vinacis_vivids
2021-01-20, 13:33:20
5600X + 6900XT @ 2.6-2.7 Ghz -> Horizon Zero Dawn

Zla622t68MA

r3ptil3
2021-01-23, 13:24:02
Ich brauche eure Inputs:

- könnte meine RTX 3080 mit einer RX 6900 XT tauschen

Soll ich oder nicht? :freak:

Effizienz/Verbrauch, UV Möglichkeiten reizen mich sehr, aber RT ist praktisch unbrauchbar.

Wer würde tauschen?

horn 12
2021-01-23, 13:36:29
RT unbrauchbar?
Mit kommende Treiber auf Niveau einer RTX 3070 wahrscheinlich...

dargo
2021-01-23, 13:36:49
5600X + 6900XT @ 2.6-2.7 Ghz -> Horizon Zero Dawn

https://youtu.be/Zla622t68MA
Pfff... in 1080p nichts besonderes. ;)

vinacis_vivids
2021-01-23, 13:39:49
Ich würde sogar die 3080 gegen die 6800er tauschen :->
Bei 3080 zur 6900XT stellt sich die Frage gar nicht. Wer macht denn sowas? Der muss ja richtig vom grünem Marketing verblendet sein :freak:

vinacis_vivids
2021-01-23, 13:44:57
Pfff... in 1080p nichts besonderes. ;)

Der Takt droppt dann auf 2,45-2,5 Ghz, was ja normal ist bei Luft.

r3ptil3
2021-01-23, 13:47:12
RT, DLSS, Performance gerade in exotischen Titeln teilweise deutlich besser.
Gibt schon ein paar gute Gründe für NV.

Von 3080 auf 6800? Niemals, die 6800 hatte ich auch selber, selbst mit Undervolting bei ca. 230W auf einer 3080, ist diese mehr als deutlich überlegen.

Die einzigen wirklichen Vorteile sind der überlegene VRAM und die Effizienz!

Bin mir mehr als unsicher, auch wenn ich richtig gerne die 6900 hätte.

dargo
2021-01-23, 13:50:57
RT, DLSS, Performance gerade in exotischen Titeln teilweise deutlich besser.
Gibt schon ein paar gute Gründe für NV.

Dann versteht keiner warum dir die Entscheidung die 3080 zu behalten so schwer fällt. ;)

Asaraki
2021-01-23, 13:52:43
Ich brauche eure Inputs:

- könnte meine RTX 3080 mit einer RX 6900 XT tauschen

Soll ich oder nicht? :freak:

Effizienz/Verbrauch, UV Möglichkeiten reizen mich sehr, aber RT ist praktisch unbrauchbar.

Wer würde tauschen?

Ich nicht. Aber ist jetzt auch nicht so, als wäre eine Option davon schlecht. Je nach Modell machst du theoretisch vorwärts, aber in jedem DLSS Game rückwärts :D Wirf ne Münze oder so

RT unbrauchbar?
Mit kommende Treiber auf Niveau einer RTX 3070 wahrscheinlich...

Das bringt dir dann auch genau das : Deine 6900 ist dann so schnell wie eine 3070 mit RT aktiviert. Und damit langsamer als eine 3080. End of story.

r3ptil3
2021-01-23, 13:55:42
Dann versteht keiner warum dir die Entscheidung die 3080 zu behalten so schwer fällt. ;)

Kann ich dir nennen:
- Mit OC gleich mal bei knapp oder über 400W (das merkt man...)
- VRAM könnte mit dem neuen Monitor schneller ein Problem werden als gedacht (3840x1600)
- aus der Vergangenheit konnte AMD durch Treiberoptimierungen ein gutes Performanceplus rausholen
- mit UV ist eine 6900 unerreicht was Effizienz angeht (eine 6900 bei ca. 250W wäre fast perfekt)



Wenn jetzt aber der RT-Part zunimmt, dann bereut man sowas und zwar sehr. ;)

dargo
2021-01-23, 13:58:11
400W? Willst du Eier braten? ;D Ich halte mich da raus, meilenweit von meinen Betriebspunkten entfernt.


Das bringt dir dann auch genau das : Deine 6900 ist dann so schnell wie eine 3070 mit RT aktiviert. Und damit langsamer als eine 3080. End of story.
Blöd nur, dass die 6900XT in manchen Titeln (wo man offenbar für N21 optimiert hat) die 3080 mit RT platt macht. Insofern hat die RT-Story gar nicht erst richtig angefangen.


Wenn jetzt aber der RT-Part zunimmt, dann bereut man sowas und zwar sehr. ;)
Und wenn die Optimierungen in Games für N21 RDNA2 jetzt zunehmen dann bereust du es mit der 3080. Du drehst dich im Kreis.

r3ptil3
2021-01-23, 14:01:33
400W? Willst du Eier braten? ;D ich halte mich da raus, meilenweit von meinen Betriebspunkten entfernt.

Einer der Gründe weshalb man ein beliebtes Custom-Modell holt (erhöhtes PL).

Bei 2100-2140Mhz fallen auch schon 420-430W an.
Ist aber nichts neues, aktuell ist es ja sogar noch angenehm, denn das Büro wird deutlich wärmer, aber da überlegt man sich schon ernsthaft wie sich das dann im Sommer auswirkt.

Daher auch mein Kommentar im 6800 Thread: Die 6800 ist eigentlich die perfekte Karte bei 200W, wenn man alle Faktoren miteinbezieht.

mironicus
2021-01-23, 14:10:09
Ich habe es anders gemacht. Ich habe eine 6900XT gekauft und in einen zweiten Rechner verbaut aber meine 2080 TI behalte ich so das ich am Ende nichts verpasse.

Asaraki
2021-01-24, 12:07:33
400W? Willst du Eier braten? ;D Ich halte mich da raus, meilenweit von meinen Betriebspunkten entfernt.


Blöd nur, dass die 6900XT in manchen Titeln (wo man offenbar für N21 optimiert hat) die 3080 mit RT platt macht. Insofern hat die RT-Story gar nicht erst richtig angefangen.


Und wenn die Optimierungen in Games für N21 RDNA2 jetzt zunehmen dann bereust du es mit der 3080. Du drehst dich im Kreis.

Ja aber wenn du die Entscheidung heute fällen musst, dann ist und bleibt es ein Münzwurf wie oben gesagt. Monetär sollte die 6900XT mehr wert sein, würde sie deshalb eher nehmen, aber ich spiele bestimmt noch 2-3 Wochen CP und da zieht die 3080 halt davon... und danach kommt für mich erstmal nichts in dem eine der Karten relevant wäre und bis zum nächsten Game ist eh wieder alles anders :D

Solche Entscheidungen sind viel zu individuell um sie irgendwie für alle richtig zu beantworten ;-)

Falsch macht man eh nix, ausser man ist Fanboy der einen oder anderen Farbe.

Ich habe es anders gemacht. Ich habe eine 6900XT gekauft und in einen zweiten Rechner verbaut aber meine 2080 TI behalte ich so das ich am Ende nichts verpasse.
Das war mein Plan... eine 6800/6900 holen und die 2080 in den Rechner der Freundin stecken... und dann kriegt man eine 3080 geschenkt und der ganze Plan ist dahin :D Wollte eigentlich sehr gerne wieder mit zwei Systemen sowohl Intel, AMD und nV, AMD haben. Aber was soll's, sind alle schnell :D

dargo
2021-01-24, 12:15:19
Die Cyber-Baustelle ist für mich kein Maßstab. Laut Entwicklern soll das Game erst Q3 2021 fertig sein. Und wer weiß ob dieser Termin auch eingehalten wird nachdem was wir bisher von CDPR bekommen haben.

Asaraki
2021-01-24, 12:25:00
Die Cyber-Baustelle ist für mich kein Maßstab. Laut Entwicklern soll das Game erst Q3 2021 fertig sein. Und wer weiß ob dieser Termin auch eingehalten wird nachdem was wir bisher von CDPR bekommen haben.

Mein Massstab ist immer das Zeugs, was ich spiele. Ich weiss, du redest auch gerne über Spiele, die du weder besitzt noch lange gespielt hast ^^

vinacis_vivids
2021-01-24, 12:36:38
Daher auch mein Kommentar im 6800 Thread: Die 6800 ist eigentlich die perfekte Karte bei 200W, wenn man alle Faktoren miteinbezieht.

Ist zwar ein bissel OT, aber ich hätte gerne den 200W Vergleich zwischen der 3080 und der 6800 gesehen.

Für die gleiche Leistung bei NV muss der gemeine Gamer 500€ mehr blechen :D , da muss die Liebe echt groß sein und der Sachverstand so klein wie das eines ausgestorbenen Stegosaurus. :tongue:

dargo
2021-01-24, 13:17:29
Mein Massstab ist immer das Zeugs, was ich spiele. Ich weiss, du redest auch gerne über Spiele, die du weder besitzt noch lange gespielt hast ^^
Nicht jeder möchte halt unfertige Spiele daddeln. Läuft ja nicht weg. Sowas möchte ich eher vermeiden, bin auch schon damit paar Mal auf die Schnauze geflogen.

Taigatrommel
2021-01-24, 13:53:22
Nicht jeder möchte halt unfertige Spiele daddeln. Läuft ja nicht weg. Sowas möchte ich eher vermeiden, bin auch schon damit paar Mal auf die Schnauze geflogen.
So hat halt jeder seine eigenen Interessen, wäre Cyberpunk 2077 nicht gewesen, würde die 5700 XT noch immer Rechner im Rechner werkeln und die Nachfolgegeneration würde mich, aufgrund der hohen Preise, kaum reizen. Doch das unfertige Spiel hat mir soviel Spaß gemacht wie schon seit Jahren kein anderes Spiel mehr. Alleine dieses (von RT abgesehen) in vollen Details und immerhin durchgehenden 60fps erleben zu können, war für mich die extreme Sprengung meines Grafikkarten-Budgets wert.

Doch das wird hier sehr OT. Ich bin mit meiner Referenz jedenfalls sehr zufrieden, auch wenn das Teil gefühlt schlimmer rasselt als eine Klapperschlange. Habe schon freiwillig die Lüfter auf 65% hochgedreht, denn die Lüfter klingen doch noch immer angenehmer als die Spulen.

dargo
2021-01-24, 13:59:45
So hat halt jeder seine eigenen Interessen...
Genau. :)

btw.
Ist das Spulensingen bei der Referenz echt so fies? Bei meiner XFX RX 6800XT Merc319 höre ich nichts davon. Und die Lüfter können es auch nicht übertönen da sie auf ein praktisch unhörbares Niveau eingestellt sind. Ich fahre aber auch 220W PT. Hast du dein PT erhöht oder sind die Spulen schon bei den Default 255W unangenehm?

Taigatrommel
2021-01-24, 14:28:36
Genau. :)

btw.
Ist das Spulensingen bei der Referenz echt so fies? Bei meiner XFX RX 6800XT Merc319 höre ich nichts davon. Und die Lüfter können es auch nicht übertönen da sie auf ein praktisch unhörbares Niveau eingestellt sind. Ich fahre aber auch 220W PT. Hast du dein PT erhöht oder sind die Spulen schon bei den Default 255W unangenehm?
Die waren schon bei Default so unangenehm, zuerst dachte ich, es wäre ein defekter Lüfter, denn es hört sich eher wie ein leicht schleifender Lüfter oder eine dezent vor sich hinrasselnde AiO Pumpe an. Doch das Geräusch ändert sich in Abhängigkeit der Last und ausgegebenen fps, eine Änderung der Lüftergeschwindigkeit hat keinerlei Auswirkungen. Also zumindest meine Karte ist schon hart am Rande dessen, was sogar ich noch als erträglich empfinde. Das stellt auch locker meine eine Vega 64 Referenz in den Schatten und die schnatterte schon ordentlich, wurde jedoch natürlich jederzeit vom ~2600rpm Radiallüfter übertönt.:freak:

Da ich grob die Hälfte der Zeit mit geschlossenen Kopfhörern spiele, ist es nicht ganz so dramatisch. Doch hätte ich nun ein Silent-System, wäre es ärgerlich: Da hat AMD endlich mal einen guten, bereits von Haus aus recht leisen Referenzkühler und dann ist er wertlos, weil die Karte selbst jegliche Geräuscheinsparung zunichte macht.

dargo
2021-01-24, 14:36:09
Hört sich nicht so toll an. ;(

Wäre mal interessant zu erfahren ob deine Karte in anderen Systemen genauso negativ auffällt. Oft hängt es auch mit den übrigen Komponenten im PC zusammen wie stark das Spulensingen ausgeprägt ist. Du könntest dennoch mal testweise probieren ob die Spulen mit 220W bei dir leiser werden.

PS: du sprichst jetzt aber nicht von Spulengeräuschen bei mehreren Tausend fps in Menüs/Ladescreens sondern ganz normal beim daddeln mit >100fps zum Beispiel oder?

horn 12
2021-01-24, 14:40:32
6900XT
oder
6800XT

Netzteil Bitte ebenso

Nun, da macht Ihr mir Hoffnung :-)

Taigatrommel
2021-01-24, 15:01:25
Wäre mal interessant zu erfahren ob deine Karte in anderen Systemen genauso negativ auffällt. Oft hängt es auch mit den übrigen Komponenten im PC zusammen wie stark das Spulensingen ausgeprägt ist. Du könntest dennoch mal testweise probieren ob die Spulen mit 220W bei dir leiser werden.

PS: du sprichst jetzt aber nicht von Spulengeräuschen bei mehreren Tausend fps in Menüs/Ladescreens sondern ganz normal beim daddeln mit >100fps zum Beispiel oder?
Deswegen habe ich u.A. vom Umtausch abgesehen: Erstmal ist die Karte beim (kleinen) Händler quasi nicht mehr verfügbar, zweitens kann es gut sein, dass die sich in dessen Testsystem nicht auffällig verhält. Mein NT ist nicht auch nicht mehr das allerjüngste und feiert im Herbst den fünften, wenn nicht gar sechsten Geburtstag. Dazu nutze ich gesleevte Kabel von Cable Mod, welche für das BeQuiet! passen, sprich nicht die Originalkabel, das kann ggf. ebenfalls einen Einfluss haben.

Ich werde später mal das Powerlimit auf -15% setzen und ggf. die Spannung nochmal niedriger einstellen. Ich spreche hier tatsächlich von ganz normalen Bildraten, sprich 50-140fps.


6900XT
oder
6800XT

Netzteil Bitte ebenso

Nun, da macht Ihr mir Hoffnung :-)
Bist du nicht mehr mit deiner 6800 zufrieden? Die Entscheidung ist entweder eine Willens- oder eine Geldfrage. Entweder du möchtest unbedingt das dickste, unbeschnittene Modell haben oder aber du guckst nach dem Preis. Ich z.B. wollte mir die 6900 XT wenn überhaupt nur zur UVP bei AMD kaufen, wie das ausging, muss man hier nicht nochmals aufwärmen, da gab es ja genügend User, denen es genauso ging. Zum Zeitpunkt wo ich mich entschieden habe, eine neue Karte zu kaufen, war die 6900 XT für mich "nur" gut 150,-€ teurer als eine 6800 XT. Gleichzeitig wollte ich gerne eine Referenz haben, die Merc (welche damals halbwegs verfügbar war), passt schlicht nicht ohne Bastelei ins Gehäuse. Gleichzeitig hatte ich für die 6900 XT eine 100% Gelegenheit, diese auch zu bekommen. Da biss ich dann in den sauren Apfel und habe halt die 6900er bestellt.

Zumindest hier in Deutschland bekommst du eine 6800 XT neu vielleicht für knapp unter 1050,-€, Media Markt hatte letztens wohl welche für deutlich unter 1000,-€. Eine 6900 XT bekommst du ab ca. 1250,-€. Sprich je nach Verfügbarkeit ist der Aufpreis jetzt gar nicht sooo dramatisch, vor allem wenn man den UVP Aufpreis von eigentlich ~350€ zugrunde legt.

dargo
2021-01-24, 16:02:03
Deswegen habe ich u.A. vom Umtausch abgesehen: Erstmal ist die Karte beim (kleinen) Händler quasi nicht mehr verfügbar, zweitens kann es gut sein, dass die sich in dessen Testsystem nicht auffällig verhält. Mein NT ist nicht auch nicht mehr das allerjüngste und feiert im Herbst den fünften, wenn nicht gar sechsten Geburtstag.
Pfff... soll das ein Witz sein? :tongue: Mein bequiet e9 580W hat schon 8+ Jahre auch dem Buckel und versorgt die Merc319 XT spielend. :wink:

Savay
2021-01-24, 16:18:21
Wohl eher kein Witz...
Mein E11 650W war auch defakto zu klein für mein Setup und die Karte hat unter stark schwankender Last geklackert als wenn nen Lager von einem der Lüfter defekt wäre...und spätestens nen Batch Bilder mit DXO PL4 per DeepPrime zu entwickeln hat, aufgrund des extremen Lastprofils, regelmäßig die OCP getriggert.

Mit dem neuen E11 1000W (bestellt war eigentlich ein 850W) ist nun im wesentlichen Ruhe und es gibt auch keine Abschaltungen mehr!

Hängt halt auch immer davon ab was man sonst noch so dran hängen hat.

mironicus
2021-01-24, 16:39:41
Es gibt halt auch riesige Unterschiede bei Netzteilen. Mein 550 Watt Gold-Netzteil schnurrt mit 400-600 Umdrehungen vor sich hin und wird kaum warm trotz RX 6900-XT als GPU. Ein negatives Beispiel hatte ich mit einem 750 Watt-Netzteil von XFX das bei starker Belastung mit einer 980 Ti manchmal wie ein Orkan hochging.

Letztendlich sollte man nie am Netzteil sparen, da kann man ruhig über 100 Euro ausgeben.

anddill
2021-01-24, 16:43:19
Also meiner Meinung nach hat das nur indirekt was mit dem Alter und der Leistung zu tun. Eher was mit der Auslegung der Ausgangsfilterung und der Kabel. Netzteilwechsel ändert oft das Spulenfiepen massiv, auch wenn mit den Netzteilen selbst alles in Ordnung ist. Und mit anderen Karten harmoniert vielleicht das gerade aussortierte Netzteil wieder.

dargo
2021-01-24, 16:47:50
Es gibt halt auch riesige Unterschiede bei Netzteilen. Mein 550 Watt Gold-Netzteil schnurrt mit 400-600 Umdrehungen vor sich hin und wird kaum warm trotz RX 6900-XT als GPU. Ein negatives Beispiel hatte ich mit einem 750 Watt-Netzteil von XFX das bei starker Belastung mit einer 980 Ti manchmal wie ein Orkan hochging.

Völlig am Thema vorbei. Wüsste jetzt nicht was die Lüftersteuerung vom Netzteil mit dem Thema zu tun haben soll? In deinem Fall hat XFX offenbar eine völlig vermurkste Lüftersteuerung implementiert (super ineffizient kann es ja kaum sein, oder ist das Teil 15+ Jahre alt?). Ich kaufe nie was anderes als bequiet mit um die 90% Effizienz bei 50% Last. Je höher die Effizienz umso weniger Wärmeverluste, um so langsamer muss der Lüfter drehen um Temperatur X zu halten. Und natürlich sollte man sich auch den Lüfterverlauf über die gesamte Lastbandbreite beim Netzteil vor dem Kauf ansehen. Dann gibts auch keine bösen Überraschungen bei der Lautstärke.

horn 12
2021-01-25, 00:37:05
Taigatrommel

Doch, absolut zufrieden mit der 6800.
Kein oder Minimalstes Spulenrasseln aber ansonsten TOP und keine Abstürze odg.
----> Schneller darf es immer gerne sein :-)

Nun, hatte wegen der 6800XT nur zugeschlagen da für 810 Euro gesehen hatte,
damals Ende Nov. 2020 die Non XT für 780 Euro gekauft und würde jene wohl um den Preis weitergeben, falls die XT bleiben sollte.
Dennoch ob das BeQuiet Dark Power PRO 11 zu 650 Watt ausreicht...

Hatte damals Board und VII - innerhalb 8 Tagen defekt, obwohl untervoltet war...
Jedoch gingen viele VII nach einiger Zeit übern Jordan... also sollte es hoffe doch passen zwecks dem NT mit Rest vom System.

nordic_pegasus
2021-01-25, 08:42:38
Netzteilwechsel ändert oft das Spulenfiepen massiv, auch wenn mit den Netzteilen selbst alles in Ordnung ist. Und mit anderen Karten harmoniert vielleicht das gerade aussortierte Netzteil wieder.

dies ist sicherlich korrekt. Ich selbst hatte mal beim Wechsel von Seasonic zu Enermax auf einmal massives Spulenfiepen der GraKa, warum ich dann den Netzteil-Tausch rückgängig gemacht hatte.

Allerdings wird das Referenz-Design von RDNA2, speziell der 6900XT, in allen seriösen Tests angesprochen. Wobei viele Reviewer drauf verweisen, dass es ein allgemeines Problem, welches bei den aktuellen Nvidia GA102 und AMD Navi21 besonders ausgeprägt ist. Ich glaube, eine Referenz 6900XT wird speziell mit Wakü-Block kein Netzteil der Welt lautlos bekommen bezogen auf die Spulen-Fieperei.

Ich verstehe nicht, warum es die Hersteller schaffen, dass NTs und Mainboards nicht (mehr) fiepen, aber bei den GraKa kommt kein Hersteller mit einer Lösung. Wenn man 750€+ Mainboards vertickt mit sauteuren Infineon 16-Phasen VRMs / sehr hochwertigen Spulen, 1000Watt+ 80plus Titanium Netzteile für über 400€, warum bekommen dann nicht Grafikkarten nicht diese Luxus-Behandlung? Ich sehe auf den meisten Graka-Platinen immer diese grauen R15 und R22 (manchmal mit "Magic") Spulen, welche ich nie auf Mainboards sehe.

Ich befürchte das Problem liegt an den sehr geringen Margen bei GraKas, speziell wenn man die Produktion wegen geringer Chip-Lieferungen drosseln muss, dass die Hersteller dann an den Komponenten jeden Cent sparen. Wenn wir jetzt schon bei 1.500€ für eine High-End Karte angekommen sind, dann würde ich gerne noch 100€ drauf legen für ein wirklich hochwertiges PCB und Komponenten. Stattdessen wird nur die RGB-Lichterorgel optimiert.

Redneck
2021-01-25, 09:32:31
Es gibt halt auch riesige Unterschiede bei Netzteilen. Mein 550 Watt Gold-Netzteil schnurrt mit 400-600 Umdrehungen vor sich hin und wird kaum warm trotz RX 6900-XT als GPU. Ein negatives Beispiel hatte ich mit einem 750 Watt-Netzteil von XFX das bei starker Belastung mit einer 980 Ti manchmal wie ein Orkan hochging.

Letztendlich sollte man nie am Netzteil sparen, da kann man ruhig über 100 Euro ausgeben.

Bei mir ebenso.. Seasonig G550..(also die günstig Variante). Kein Spulenfiepen oder Blackscreens oder sonstiges bei der 6900XT. Hatte ich mit der Vega64 aber auch schon nicht. Gut, der Rest des System mit Ryzen 3700 ist auch recht sparsam.
Aktuelle NT Preise sind auch meh

Redneck
2021-01-25, 09:37:53
6900XT
oder
6800XT

Netzteil Bitte ebenso

Nun, da macht Ihr mir Hoffnung :-)

hast du jetzt eine 6800XT oder eine 6800 ?.. wenn du eine XT hast, lohnt die 6900xt mMn nicht. würde dann die 6800xt behalten.
Ich habe die 6900er nur genommen, weil die neuen 6800xt customs gleich oder teurer waren als das , was ich für die 6900er gezahlt habe. Da war für mich die logische konsequenz gleich zur Grossen zu greifen.

Screemer
2021-01-25, 10:08:32
hast du jetzt eine 6800XT oder eine 6800 ?.. wenn du eine XT hast, lohnt die 6900xt mMn nicht. würde dann die 6800xt behalten.
Ich habe die 6900er nur genommen, weil die neuen 6800xt customs gleich oder teurer waren als das , was ich für die 6900er gezahlt habe. Da war für mich die logische konsequenz gleich zur Grossen zu greifen.

Er hat seine non-xt 6800 gegen eine xt getauscht.

gedi
2021-01-25, 12:11:36
Habe mir gerade zum Spaß und aus Langeweile ne Asrock 6900XT PG OC geschossen.

Braucht jemand ne 6800XT@H2O :biggrin:?

dargo
2021-01-25, 12:18:32
:freak:

Naja... wenns schähnn macht. ;)

gedi
2021-01-25, 12:22:34
:freak:

Naja... wenns schähnn macht. ;)

Ich hasse das HO :rolleyes: Anfangs habe ich noch nach einem Hundewelpen gegoogelt,rausgekommen ist so ein Quatsch :freak:

dargo
2021-01-25, 12:24:26
You made my day. ;D

Taigatrommel
2021-01-25, 13:22:39
Taigatrommel

Doch, absolut zufrieden mit der 6800.
Kein oder Minimalstes Spulenrasseln aber ansonsten TOP und keine Abstürze odg.
----> Schneller darf es immer gerne sein :-)

Nun, hatte wegen der 6800XT nur zugeschlagen da für 810 Euro gesehen hatte,
damals Ende Nov. 2020 die Non XT für 780 Euro gekauft und würde jene wohl um den Preis weitergeben, falls die XT bleiben sollte.
Dennoch ob das BeQuiet Dark Power PRO 11 zu 650 Watt ausreicht...
Ich denke schon, dass dieses Netzteil ausreichen sollte. Doch ein weiterer Umstieg 6800 XT -> 6900 XT lohnt sich meines Erachtens nach nur, wenn du eine solche Karte zu einem sehr attraktiven Preis erstehen kannst. Hätte ich eine 6800 XT für 810,-€ bekommen, würde ich mir über die 6900 XT gar keine Gedanken machen. Zumal mit OC der Unterschied ja noch geringer wird, wenn du dann auch noch eine gute 6800 XT erwischt, dann könnte das verglichen mit einer schlechten 6900 XT kaum ein Nachteil sein.

Semmel
2021-01-25, 13:24:15
Ist euch aufgefallen, dass es die Merc 6900 XT in zwei Versionen gibt?

XFX Speedster MERC 319 AMD Radeon RX 6900 XT "Black" RX-69XTACBD9
XFX Speedster MERC 319 AMD Radeon RX 6900 XT "Ultra" RX-69XTACUD9

Einziger Unterschied, den ich erkennen konnte:
Takt Ultra: 1925MHz, Boost: 2105-2340MHz
Takt Black: 1950MHz, Boost: 2135-2365MHz

Bei uns kosten beide gleich viell, international scheint die Black dagegen teurer zu sein.

Bestbuy:
1099,99 vs 1499,99 $:
https://www.bestbuy.com/site/xfx-speedster-merc319-amd-radeon-rx-6900-xt-ultra-16gb-gddr6-pci-express-4-0-gaming-graphics-card-black/6445157.p?skuId=6445157
https://www.bestbuy.com/site/xfx-speedster-merc319-amd-radeon-rx-6900-xt-16gb-gddr6-pci-express-4-0-gaming-graphics-card-black/6449499.p?skuId=6449499

Taigatrommel
2021-01-25, 14:02:53
Wäre mal interessant zu erfahren ob deine Karte in anderen Systemen genauso negativ auffällt. Oft hängt es auch mit den übrigen Komponenten im PC zusammen wie stark das Spulensingen ausgeprägt ist. Du könntest dennoch mal testweise probieren ob die Spulen mit 220W bei dir leiser werden.
Ich habe vorhin mal einen schnellen Test gemacht, Powerlimit -10% (weniger geht im Wattman ja erstmal nicht), Spannung auf ~1080mV und den Takt habe ich per Regler erstmal auf ~2330 MHz begrenzt. Die Karte ist damit tatsächlich etwas leiser.

Ist euch aufgefallen, dass es die Merc 6900 XT in zwei Versionen gibt?

XFX Speedster MERC 319 AMD Radeon RX 6900 XT "Black" RX-69XTACBD9
XFX Speedster MERC 319 AMD Radeon RX 6900 XT "Ultra" RX-69XTACUD9
Ja, das fiel mir letztens bei Mindfactory auf. Wobei ich hier die Namensgebung des Herstellers nicht verstehe: "Ultra" bedeutet doch eigentlich immer, es handele sich um das beste vom besten - mehr geht nicht. Da dachte ich spontan, die Ultra wäre die höhergetaktete Merc. Wieso es bei XFX umgekehrt ist, ist mir schleierhaft. Wobei der Unterschied in der Praxis minimal sein sollte, mit kurzer Anpassung wird auch eine Ultra so schnell wie die Merc sein. Wobei es interessant wäre, ob XFX dem Performance-BIOS der Black ein geringfügig höheres Powerlimit mit auf dem Weg gibt. Den Mehrpreis wird dies wohl kaum wert sein, doch da beide Karten zumindest bei MF gleich viel kosten, kann man direkt zur von Haus aus schneller getakteten greifen.

RoughNeck
2021-01-25, 15:25:26
Bei XFX war Black schon immer besser.

Megamember
2021-01-25, 18:13:02
XFX Speedster MERC 319 AMD Radeon RX 6900 XT "Ultra" RX-69XTACUD9



Gerade gibts die für 1329 im "Angebot" :ugly:

https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6900-XT-MERC319-ULTRA-DDR6-Drei-Luefter-256bit--Reta_1388407.html

Wiseman
2021-01-25, 18:16:13
Die waren schon bei Default so unangenehm, zuerst dachte ich, es wäre ein defekter Lüfter, denn es hört sich eher wie ein leicht schleifender Lüfter oder eine dezent vor sich hinrasselnde AiO Pumpe an. Doch das Geräusch ändert sich in Abhängigkeit der Last und ausgegebenen fps, eine Änderung der Lüftergeschwindigkeit hat keinerlei Auswirkungen. Also zumindest meine Karte ist schon hart am Rande dessen, was sogar ich noch als erträglich empfinde.

Wenn ich das so lese, frage ich mich schon, wie lange du dir das noch antun willst. Deshalb mal ganz vorsichtig angefragt: Wär das keine Option für dich, diese Referenz-Karte zu verkaufen und eine Custom 6800XT zu kaufen? Die 6800XT Nitro+ von Sapphire zum Beispiel, da die Merc319 6800XT nicht in dein Gehäuse reinpasst.

Ich hatte so eine 6800XT Nitro+ und kann dir daher Folgendes erzählen:

Die Nitro+ war nicht nur flüsterleise im Silent-BIOS, sondern gab auch keinerlei unangenehmen Nebengeräusche von sich. Ich hörte nix knattern und nix rattern. Ich hörte nix schleifen und nix pfeifen.

Semmel
2021-01-25, 19:49:56
Gerade gibts die für 1329 im "Angebot" :ugly:

https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6900-XT-MERC319-ULTRA-DDR6-Drei-Luefter-256bit--Reta_1388407.html

Toll und ich hab gestern für 1399€ bestellt. :freak:
Aber immerhin die "bessere" Black, vielleicht ist das ja ein besser selektierter Chip?

Immerhin konnte ich meine für 530€ gekaufte VII für 1000€ verkaufen! :uup:

dargo
2021-01-25, 19:57:20
Toll und ich hab gestern für 1399€ bestellt. :freak:

War höchstens eine Karte.


Aber immerhin die "bessere" Black, vielleicht ist das ja ein besser selektierter Chip?

Gehe ich nicht von aus bei so einem mickrigen Taktunterschied. Eher ein Bios mit anderen Werten um mehr Kohle zu generieren. ;)

Semmel
2021-01-25, 20:01:20
War höchstens eine Karte.


Ist immer noch im Mindstar zu haben:
https://www.mindfactory.de/Highlights/MindStar

Interessant ist, dass von den 50 Stück anscheinend keine einzige verkauft wurde. Werden sie die Karten mittlerweile zu den Preisen vielleicht doch nicht mehr los?



Gehe ich nicht von aus bei so einem mickrigen Taktunterschied. Eher ein Bios mit anderen Werten um mehr Kohle zu generieren. ;)

Wahrscheinlich, aber zum "Normalpreis" kosten beide Varianten bei MF 1399€, also nix mit mehr Kohle. Wobei der eigentliche UVP der beiden Karten nicht bekannt ist. Vielleicht gab es einen Preisunterschied, der durch das hohe Preisniveau nivelliert wurde.

dargo
2021-01-25, 20:12:36
Ok... von Mindstar war nicht die Rede, da hatte ich jetzt nicht geschaut.

vinacis_vivids
2021-01-25, 20:24:11
Ist immer noch im Mindstar zu haben:
https://www.mindfactory.de/Highlights/MindStar

Interessant ist, dass von den 50 Stück anscheinend keine einzige verkauft wurde. Werden sie die Karten mittlerweile zu den Preisen vielleicht doch nicht mehr los?

Naja, es steckt nicht Jedermann in jedem Kinderrechner ne 6900XT rein. :D

High-End GPU`s sind eben doch noch ein Nischenmarkt, vor allem für AMD, weil sie so lange abwesend waren im High-End Markt, wo jeder Hans sich wegen längeren Balken ne Nvidia reingesteckt hat.

Die Roten Hardliner sind bereits zum großen Teil schon bedient oder sie brauchen auch noch Zeit um die alte Generation loszuwerden.

1400€ ist schon absoluter Luxus und wirklich außerhalb vielen Brieftaschen.

Ist ja marketingteschnisch kein Apple ;D

Redneck
2021-01-26, 16:43:04
Naja, es steckt nicht Jedermann in jedem Kinderrechner ne 6900XT rein. :D

High-End GPU`s sind eben doch noch ein Nischenmarkt, vor allem für AMD, weil sie so lange abwesend waren im High-End Markt, wo jeder Hans sich wegen längeren Balken ne Nvidia reingesteckt hat.

Die Roten Hardliner sind bereits zum großen Teil schon bedient oder sie brauchen auch noch Zeit um die alte Generation loszuwerden.

1400€ ist schon absoluter Luxus und wirklich außerhalb vielen Brieftaschen.

Ist ja marketingteschnisch kein Apple ;D

die alten Karten loszuwerden sollte aktuell kein Problem darstellen.. meine Vega hat man mir fast aus den Händen gerissen.

gedi
2021-01-28, 21:36:31
Ich habe die Asrock Phantom Gaming OC nun verbaut:

- Im Vergleich zu einer 6800XT Referenz stock sind es bei der Karte ca. 12% was sie vorne liegt.

- Kühler - Bombe, kühlt 370W-Asic mit einem Delta zwischen 18 und 20°C weg bei Autolüftersteuerung 2200RPM (Port Royal 5x im Loop).

- Mit 281W Asic liegen in etwa max. 1500RPM an, was ich als sehr leise bezeichnen würde.

- OC leider ne Krücke: 2.63G (real 2.59G) ist das Maximum was geht. In der Chiplotterie also Pech gehabt

- Meine 6900XT OCed gegen eine wassergekühlte 6800XT Oced trennen ca. 5 bis max. 7%

- Die RGB-Software von Asrock ist Schrott, ebenso das Übertaktungstool.

In der Summe also eine wirklich brauchbare Karte mit Schwächen, insbesondere die Software betreffend.

Darf trotzdem bleiben :)

Linmoum
2021-01-28, 22:13:19
Auf was beziehst du die ~2.6GHz? Das kommt mir arg komisch vor, gerade mit 370W ASIC.

Langlay
2021-01-28, 22:24:59
Meine 6900XT macht 2725 MHz Zielfrequenz mit das macht so ~2.68 GHz. Mit 320W+15%, ist dann allerdings nicht mehr sonderlich Powerlimitiert.

Semmel
2021-01-28, 22:39:32
Was ist bei der MERC319 eigentlich der Unterschied zwischen den beiden BIOSen?

dargo
2021-01-28, 22:45:11
Was ist bei der MERC319 eigentlich der Unterschied zwischen bden beiden BIOSen?
Nicht viel... das zweite Bios hat Rage "On", ergo 289W anstatt 281W PT.

gedi
2021-01-30, 11:31:46
Habe meine 6900 nun auch UVtet: 1.1VCore und 1.05VSoC per MPT, ziehen darf sie nach wie vor bis zu 320W:

Superposition 4k bei

2.65G 370W (real ca. 350W): 17172P (1.175V)
2.53G 320W (real ca. 285W): 16201P (1.100V)

so lasse ich sie glaube ich rennen, zumal der Lüfter bei 1380 U/min leise ist. Tjunk: 78°C :smile:

Rahl
2021-02-02, 14:08:13
Die 6900XT Referenz hat kein Dualbios? Mir kam vor es gab früher auch Referenz Modelle mit Dualbios. HD 9650/6970 zb.

r3ptil3
2021-02-02, 14:12:28
2.65G 370W (real ca. 350W): 17172P (1.175V)
2.53G 320W (real ca. 285W): 16201P (1.100V)


Wie sieht der Leistungsunterschied da aus?

Ich vermute mal so wenig, dass man dass niemals selber bemerken würde, richtig?

gedi
2021-02-02, 14:49:13
Messbar ja, spürbar nicht. Habe jetzt noch ein wenig von der Uhr genommen. 1.05vcore und vsoc bei 2.45G. Bin nun in absoluten Ausnahmesituationen bei einer Asic-Power von 260W. In SotTR sind es mit RT Mittel nur ~240W in 4k. Größter Vorteil sicherlich, dass nun der Lüfter nur noch mit 1330RPM drehen braucht für ne Tj von 75°C

gbm31
2021-02-02, 15:24:09
Mein aktuelles 24/7 für die Referenzkarte, 230-250W typisch, die Karte läuft dann mit konstantem Takt (~2300MHz) ohne ins Powerlimit zu rennen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74026&stc=1&d=1612275825

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74027&stc=1&d=1612275825

https://www.3dmark.com/spy/17994971
https://www.3dmark.com/pr/842611
https://www.3dmark.com/spy/17994809

Bin umgestiegen weil sich die Karte trotz im MPT eingestellten 963mV öfter mal 1000mV geholt hat. Da gibts evtl wohl irgend einen Notfall-Mechanismus...

gedi
2021-02-03, 20:54:17
Die 6900 ist für sich ein wirklich klasse Stück Hardware. Mit UV denke ich, kommen Dinge wie Kühlung und PCB nicht so wirklich zum Tragen. Habe die SoC etwas höher gesetzt und komme nun immerhin auf rockstable 2.48G (real ~2.43G) bei max. 260W. Zudem fiept die Asrock noch nicht mal bei 1000FPS - die Karte/GPU ist wirklich ein Traum!

Wenn es bei der Asrock ein Manko gibt, dass die Lüfter unter 850RPM den Dienst verweigern und dass die RGB/OC-Software Schrott ^10 ist.

Ansonsten habe ich bei dem Ding wirklich nichts auszusetzen. Ich hatte ja mal ne 3090 Strix OC im Rechner - vom Handling sind dies tatsächlich Welten und beim Verbrauch braucht es noch nicht mal die 3. Dimension ...

r3ptil3
2021-02-03, 21:10:12
Gibt's irgendwo ein Review der Sapphire Nitro OC RX 6900 XT?

r3ptil3
2021-02-09, 01:40:37
Bin über dieses Video gestolpert:
https://www.youtube.com/watch?v=zH7vQmitc_M
https://i.ibb.co/jzrHSbW/rx.jpg


Über 100W Differenz im Verbrauch zwischen der 6900 XT und der RTX 3090. Da fehlen mir schon die Worte, denn das fällt in den Reviews gar nicht so extrem auf.

dargo
2021-02-09, 02:24:36
Radeon ist ASIC. ;) Bei 281W ASIC sind es 320-330W für die ganze Karte.

Szudri
2021-02-09, 08:10:58
Frag mich grad wie in dem Programm die Frametimes gemessen/gerechnet werden...:confused:

vinacis_vivids
2021-02-10, 00:40:34
MSI RX 6900 XT Gaming X Trio

https://www.techpowerup.com/review/msi-radeon-rx-6900-xt-gaming-x-trio/

Die Karte 3x8pin Stromstecker und kann damit bis 525W schlucken :eek:

r3ptil3
2021-02-10, 11:48:53
MSI RX 6900 XT Gaming X Trio

https://www.techpowerup.com/review/msi-radeon-rx-6900-xt-gaming-x-trio/

Die Karte 3x8pin Stromstecker und kann damit bis 525W schlucken :eek:

Deswegen sind die Netzteilempfehlungen wohl nicht ohne Grund.

Selbst bei einer 6800 XT würde ich kein Netzteil unter 750W verwenden.
Kann und wird zwar zu 98% auch mit einem 600W Netzteil laufen, aber wenn dann mal ein Crash passiert, vergeudetet man im schlimmsten Fall Stunden mit der Fehlersuche.

nordic_pegasus
2021-02-10, 11:56:20
MSI RX 6900 XT Gaming X Trio

https://www.techpowerup.com/review/msi-radeon-rx-6900-xt-gaming-x-trio/

Die Karte 3x8pin Stromstecker und kann damit bis 525W schlucken :eek:

der Artikel ist wieder offline, weil zu früh veröffentlicht.

Ich hatte die 6900XT Trio kurz bei mir, habe die Karte aber wieder an MF zurückgeschickt, als ich die 3 Stromstecker gesehen hatte. Denn die Karte nutzt ein anderes PCB als 6800/XT, darum ist die Trio nicht mit dem Alphacool Block kompatibel. Ich hätte die Karte gerne getestet, denn die 3090 Trio/Suprim von MSI bezogen auf die Spulengeräusche absolute Vorzeigeexemplare.

rentex
2021-02-10, 13:03:21
Die Performance und der Verbrauch der Karten kamen nah an die 3090. Heftiges Stück Hardware.

r3ptil3
2021-02-10, 13:09:11
IDLE Verbrauch war auch einiges höher als die Referenz.

Lautstärke hingegen sehr gut: 1700Rpm @ 30DB

nairune
2021-02-10, 13:15:50
Lautstärke hingegen sehr gut: 1700Rpm @ 30DB
Wie kann das stimmen? TPU hat auch die 6800 XT mit praktisch gleichem Kühler getestet, aber da waren 1500RPM 32dBa?
Zudem sind 1700 Umdrehungen sicher nicht "whisper quiet" - habe das ja selbst schon gehört.

r3ptil3
2021-02-12, 12:33:57
Sapphire 6900XT Nitro+ erhalten:

https://s18.directupload.net/images/210212/temp/j7l8cdho.jpg (https://www.directupload.net/file/d/6092/j7l8cdho_jpg.htm)
https://s12.directupload.net/images/210212/temp/mqlsw464.jpg (https://www.directupload.net/file/d/6092/mqlsw464_jpg.htm)
https://s16.directupload.net/images/210212/temp/76wdrze9.jpg (https://www.directupload.net/file/d/6092/76wdrze9_jpg.htm)
https://s12.directupload.net/images/210212/temp/etyneb5y.jpg (https://www.directupload.net/file/d/6092/etyneb5y_jpg.htm)
https://s20.directupload.net/images/210212/temp/hetvs27j.jpg (https://www.directupload.net/file/d/6092/hetvs27j_jpg.htm)
https://s20.directupload.net/images/210212/temp/9hhfcmrb.jpg (https://www.directupload.net/file/d/6092/9hhfcmrb_jpg.htm)
https://s16.directupload.net/images/210212/temp/khc46jdm.jpg (https://www.directupload.net/file/d/6092/khc46jdm_jpg.htm)

Besonders gut, dass man die RGB-Steuerung der Grafikkarte an jede beliebige Mainboard-Software übergeben kann, jedoch ist Sapphire so nett und legt ein entsprechendes 3-PIN A-RGB (female/female) Kabel nicht bei.


Kurzes Feedback zur Karte:

- Spulenfiepen deutlich vorhanden: Je höher der Chiptakt, umso deutlicher das Spulenfiepen.
Wobei es kein übliches Spulenfiepen ist, sondern es klingt so, als ob ein Kabel ganz minimal einen drehenden Lüfter berührt.
Hatte übrigens nach mehreren RTX 3080er, einer 3070, nun das erste Mal Spulenfiepen.

- 3D Mark lief mit 2750Mhz (im Treiber) durch, jedoch sobald man die min. Frequenz auch anhebt auf 2650Mhz, Crash
- mit 2750Mhz (max. Frequenz Mhz im Treiber) etwa 19300 GPU-Punkte in Time Spy, der Takt liegt aber real bei 2450-2500Mhz
- Lüfter sind sehr sehr leise
- die LED-Beleuchtung ist nicht aufdringlich, wirkt hochwertig und sehr angenehm (bspw. um Welten besser als bei einer MSI Trio 3080)

SKYNET
2021-02-15, 23:21:35
Sapphire 6900XT Nitro+ erhalten:

https://s18.directupload.net/images/210212/temp/j7l8cdho.jpg (https://www.directupload.net/file/d/6092/j7l8cdho_jpg.htm)
https://s12.directupload.net/images/210212/temp/mqlsw464.jpg (https://www.directupload.net/file/d/6092/mqlsw464_jpg.htm)
https://s16.directupload.net/images/210212/temp/76wdrze9.jpg (https://www.directupload.net/file/d/6092/76wdrze9_jpg.htm)
https://s12.directupload.net/images/210212/temp/etyneb5y.jpg (https://www.directupload.net/file/d/6092/etyneb5y_jpg.htm)
https://s20.directupload.net/images/210212/temp/hetvs27j.jpg (https://www.directupload.net/file/d/6092/hetvs27j_jpg.htm)
https://s20.directupload.net/images/210212/temp/9hhfcmrb.jpg (https://www.directupload.net/file/d/6092/9hhfcmrb_jpg.htm)
https://s16.directupload.net/images/210212/temp/khc46jdm.jpg (https://www.directupload.net/file/d/6092/khc46jdm_jpg.htm)

Besonders gut, dass man die RGB-Steuerung der Grafikkarte an jede beliebige Mainboard-Software übergeben kann, jedoch ist Sapphire so nett und legt ein entsprechendes 3-PIN A-RGB (female/female) Kabel nicht bei.


Kurzes Feedback zur Karte:

- Spulenfiepen deutlich vorhanden: Je höher der Chiptakt, umso deutlicher das Spulenfiepen.
Wobei es kein übliches Spulenfiepen ist, sondern es klingt so, als ob ein Kabel ganz minimal einen drehenden Lüfter berührt.
Hatte übrigens nach mehreren RTX 3080er, einer 3070, nun das erste Mal Spulenfiepen.

- 3D Mark lief mit 2750Mhz (im Treiber) durch, jedoch sobald man die min. Frequenz auch anhebt auf 2650Mhz, Crash
- mit 2750Mhz (max. Frequenz Mhz im Treiber) etwa 19300 GPU-Punkte in Time Spy, der Takt liegt aber real bei 2450-2500Mhz
- Lüfter sind sehr sehr leise
- die LED-Beleuchtung ist nicht aufdringlich, wirkt hochwertig und sehr angenehm (bspw. um Welten besser als bei einer MSI Trio 3080)


und jetzt kommt die toxic :biggrin:

auf das ding bin ich gespannt, gehe jede wette ein sapphire hat massiv gebinnt und die taktraten an nen neues limit getrieben...

r3ptil3
2021-02-17, 13:07:50
Bilder zur Toxic:

https://cdn.videocardz.com/1/2021/02/SAPPHIRE-Radeon-RX-6900XT-TOXIC-1-1.jpg
https://cdn.videocardz.com/1/2021/02/SAPPHIRE-Radeon-RX-6900XT-TOXIC-2.jpg


Stand gerade noch im Text etwas von 450W Boardpower, wurde aber wieder geändert.

Jedenfalls mit integrierter 360mm AIO, aiaiai.

https://videocardz.com/newz/sapphire-radeon-rx-6900xt-toxic-features-aio-cooling-with-360mm-radiator

SKYNET
2021-02-18, 02:08:29
wenigstens nicht wie bei anderen herstellern die hybridkarten haben, sonen radial-quirl drauf

r3ptil3
2021-02-18, 18:51:54
Igor hat die Toxic schon :D
https://www.youtube.com/watch?v=jBrmhIB79Io

Hardware Unboxed ebenso:
https://www.youtube.com/watch?v=kwafbnYGtw4


Der Aufwand ist für den effektiven Mehrwert aber doch einfach zu gering.

https://i.ibb.co/9Gy0p7S/s.png

Daredevil
2021-02-18, 18:58:40
Das hat Sapphire aber echt Mist gebaut bei der Lautstärke. -.-

dargo
2021-02-18, 19:14:46
Igor hat die Toxic schon :D
https://www.youtube.com/watch?v=jBrmhIB79Io

Riesen Aufwand und dann ist der Kühler (besser gesagt die Pumpe) doch Mist. :facepalm: Natürlich nicht auf die Temperaturen bezogen.

Tarkin
2021-02-18, 20:52:51
Leider eine Fehlkonstruktion

der Aufpreis für diesen billigen Kühler ist eine Frechheit.

-=Popeye=-
2021-02-18, 20:56:01
Alphacool Eisblock Aurora Acryl GPX-A auf der Radeon RX 6900 XT im Test (https://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/55403-alphacool-eisblock-aurora-acryl-gpx-a-auf-der-radeon-rx-6900-xt-im-test.html)

Nicht schön aber effizient.

SKYNET
2021-02-19, 01:22:32
Alphacool Eisblock Aurora Acryl GPX-A auf der Radeon RX 6900 XT im Test (https://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/55403-alphacool-eisblock-aurora-acryl-gpx-a-auf-der-radeon-rx-6900-xt-im-test.html)

Nicht schön aber effizient.


den mit POM deckel und nicht den plasteshice der spröd wird wenn man alk als medium reinfüllt, und alles ist gut.

-=Popeye=-
2021-02-19, 13:44:28
4tU2thydvXw

vinacis_vivids
2021-02-19, 13:44:42
Gigabyte Gaming X RX6900XT mit 3x8pin Stromstecker
Die Komplexität des PCB`s für 525W ist mittlerweile krass :eek:
https://www.techpowerup.com/review/gigabyte-radeon-rx-6900-xt-gaming-oc/
https://abload.de/img/front25bkd2.jpg

r3ptil3
2021-02-19, 13:47:44
Was ich mich gerade Frage: Guru3d, Techpowerup kriegen ihre Custom 6900 XT auf 2.6-2.7Ghz+ - geben die lediglich an was sie im Treiber eingestellt haben? Real erreicht man mit dem normalen Powerlimit nie und nimmer solche Taktraten.

vinacis_vivids
2021-02-19, 13:54:42
Peak-CLK ≠ Durchschnitts-CLK nach 20 min aufheizen.

blaidd
2021-02-19, 14:41:55
Dat CPU-Limit. X-D

https://youtu.be/p7rLSBfZ2cg

Naja... mit Farcry 6 sollte das wieder passen wenn sie den D3D12-Renderer nicht völlig verkacken.

Probier mal Far Cry 4 und schalte dazu dann die ganzen wundervollen Gameworks-Overhead-Effekte an ;)
Hab das letztens nochmal ausgegraben, weil ich irgendwie nochmal Bock drauf hatte... die Lust ist dann aber schnell verflogen.

Da packt es mein Ryzen 9 3900X mit GTX 1080 Ti in krassen Situationen teilweilse nicht mal 50 Fps zu halten... :freak:

Dahingehend ist Far Cry 5 schon richtig fluffig.
Ich bin aber auch mal auf FC6 gespannt und wie das mit einer modernen API laufen wird... AC Valhalla war in der Hinsicht ja schon recht eindrücklich.

aufkrawall
2021-02-19, 14:58:05
Hoffentlich dann auch ein komplettes Rework für die VRAM-Verwaltung, damit die HD-Texturen diesen im Spielverlauf nicht immer weiter zukacken.

Linmoum
2021-02-19, 15:03:15
Was ich mich gerade Frage: Guru3d, Techpowerup kriegen ihre Custom 6900 XT auf 2.6-2.7Ghz+ - geben die lediglich an was sie im Treiber eingestellt haben? Real erreicht man mit dem normalen Powerlimit nie und nimmer solche Taktraten.Ich hab zwar Wakü, aber 2650MHz+ schaff ich auch innerhalb der default TGP und den möglichen +15% PL (u.a. Witcher 3 und TD2 UHD) bei real rund 270W TGP.

Ist logischerweise mit gleichzeitigem UV, wobei das Reviewer aus Zeitgründen vermutlich weniger machen werden. Aber an sich ist das innerhalb der via Wattman vorhandenen Möglichkeiten durchaus machbar.

dargo
2021-02-19, 15:15:43
Ich bin aber auch mal auf FC6 gespannt und wie das mit einer modernen API laufen wird... AC Valhalla war in der Hinsicht ja schon recht eindrücklich.
Ich bin von dem D3D12-Renderer in Valhalla echt begeistert. Schon Wahnsinn wieviel mehr Frames der im Vergleich zu den Vorgängern @D3D11 ausspuckt. Endlich raus aus diesem fiesen CPU-Limit in Gebieten wo viel los ist. Zumindest bei Radeon, bei Geforces klemmt da irgendwie was ganz schön.

r3ptil3
2021-02-19, 17:06:31
Ich hab zwar Wakü, aber 2650MHz+ schaff ich auch innerhalb der default TGP und den möglichen +15% PL (u.a. Witcher 3 und TD2 UHD) bei real rund 270W TGP.

Ist logischerweise mit gleichzeitigem UV, wobei das Reviewer aus Zeitgründen vermutlich weniger machen werden. Aber an sich ist das innerhalb der via Wattman vorhandenen Möglichkeiten durchaus machbar.

Interessant, kannst du TimeSpy laufen lassen und den Link zum Ergebnis hier posten?

Langlay
2021-02-19, 17:11:21
Ich hab zwar Wakü, aber 2650MHz+ schaff ich auch innerhalb der default TGP und den möglichen +15% PL (u.a. Witcher 3 und TD2 UHD) bei real rund 270W TGP.


Das packt meine nicht ~2650MHz realer Takt is bei mir quasi schon volle Lotte und ich brauch die 1.175V bin dann bei >320W TGP.

Und auch mit 20°C Wassertemp geht dort nicht weniger.

Das ist dann volle Lotte :

Timespy : https://www.3dmark.com/spy/18381614

Firestrike : https://www.3dmark.com/fs/24768704


Lustiger Funfakt mit dem Firestrikeergebnis bin ich der schnellste 8 Kerner mit 1x Graka in der
Firestrike Hall of Fame.

SKYNET
2021-02-19, 22:48:52
Probier mal Far Cry 4 und schalte dazu dann die ganzen wundervollen Gameworks-Overhead-Effekte an ;)
Hab das letztens nochmal ausgegraben, weil ich irgendwie nochmal Bock drauf hatte... die Lust ist dann aber schnell verflogen.

Da packt es mein Ryzen 9 3900X mit GTX 1080 Ti in krassen Situationen teilweilse nicht mal 50 Fps zu halten... :freak:

Dahingehend ist Far Cry 5 schon richtig fluffig.
Ich bin aber auch mal auf FC6 gespannt und wie das mit einer modernen API laufen wird... AC Valhalla war in der Hinsicht ja schon recht eindrücklich.

hatte FC4 grad durch, durchweg über 60fps maxed out alles auf on... und die karte lief nur mit 500MHz mehr auf dem speicher, GPU @ stock... CPU "nur" nen 3600

Hoschi75
2021-02-22, 12:18:24
Firestrike : https://www.3dmark.com/fs/24768704


Lustiger Funfakt mit dem Firestrikeergebnis bin ich der schnellste 8 Kerner mit 1x Graka in der
Firestrike Hall of Fame.


Sicher? ;)

https://www.3dmark.com/fs/24738725

rm-zocker
2021-02-28, 16:04:41
Sagt mal, brauche ich für Raytracing in WOW das Addon Shadowlands um diese zu aktivieren?
Wenn ich das Spiel starte ist der Reiter zwar da aber alles Grau hinterlegt und nicht anwählbar.

F5.Nuh
2021-03-04, 10:59:25
Nutzt ihr den Zero Fan Modus? Mir wird die Karte im Leerlauf zu Warm... ich weiß nicht wie gut das über einen längeren Zeitrraum ist. Habe es bei mir deaktiviert, nun dümpelt die Karte bei 40° C

r3ptil3
2021-03-04, 11:48:42
Nutzt ihr den Zero Fan Modus? Mir wird die Karte im Leerlauf zu Warm... ich weiß nicht wie gut das über einen längeren Zeitrraum ist. Habe es bei mir deaktiviert, nun dümpelt die Karte bei 40° C

Die Befürchtung hatte ich auch, aber bei meiner Custom von Sapphire bleiben die Temps durchgehend unter 50°, sprich der Lüfter läuft im Desktop-Betrieb nie an.

Von Gigabyte weiss ich aus der Vergangenheit, dass sie dies nicht so richtig im Griff hatten. Da Sprang der Kühler ab 55° (glaube ich) plötzlich richtig rauf und wieder runter. Dies wiederholte sich fast in gleichen Zeitabständen, extrem nervig.

F5.Nuh
2021-03-04, 12:05:28
Die Befürchtung hatte ich auch, aber bei meiner Custom von Sapphire bleiben die Temps durchgehend unter 50°, sprich der Lüfter läuft im Desktop-Betrieb nie an.

Von Gigabyte weiss ich aus der Vergangenheit, dass sie dies nicht so richtig im Griff hatten. Da Sprang der Kühler ab 55° (glaube ich) plötzlich richtig rauf und wieder runter. Dies wiederholte sich fast in gleichen Zeitabständen, extrem nervig.

Ne gesteuert hat die Referenz das ganz gut aber die Karte war bei ca. 58° - 62°C

Hmm muss wohl meine Gehäuselüftung anpassen. Ist ein "altes" LianLi Vorne zwei 120er und hinten ein 120er. Oben könnte ich noch ein 140er montieren aber das hatte damals zu schlechteren CPU Temps geführt

Szudri
2021-03-04, 12:59:00
Meine Referenz 6900xt hat auf dem Desktop 44°C zur Zeit. Bei Videos geht sie auf 47°C hoch. Junction ist 3 (Desktop) - 6 (Video) Grad höher wie oben angegeben. 58 - 62 scheint mir viel zu hoch.

Edit: Läuft der Speicher evtl. auf max.?
Edit: Okay, hängt vom Video ab... weil dann auch der VRAM auf max läuft... Temp bei Video im Browser: bis 56°C. Junction geht bis 60°C.

F5.Nuh
2021-03-04, 13:26:36
Bin seit heute morgen im Online Unterricht, vielleicht deswegen? :freak:

dargo
2021-03-04, 13:34:42
Ne gesteuert hat die Referenz das ganz gut aber die Karte war bei ca. 58° - 62°C

Hmm muss wohl meine Gehäuselüftung anpassen. Ist ein "altes" LianLi Vorne zwei 120er und hinten ein 120er. Oben könnte ich noch ein 140er montieren aber das hatte damals zu schlechteren CPU Temps geführt
:confused:

Kann ich mir ehrlich gesagt kaum vorstellen. Oder hast du den blasend montiert? Du musst den saugend montieren damit der die warme Luft abtransportiert.

Nutzt ihr den Zero Fan Modus?
Nein... weil ich davon nichts halte. Minimale Drehzahl ist nicht hörbar und senkt die Temps. erheblich.

aufkrawall
2021-03-04, 13:35:21
Immerhin ist das Referenzdesign auch ohne ZF bei niedrigster Drehzahl 530-560rpm lautlos. Hoffe sehr, AMD behält das bei zukünftigen Produkten so bei. Ich habe wirklich keine Lust mehr, mehrere Custom Designs ausprobieren zu müssen.

Achill
2021-03-04, 15:15:27
Nutzt ihr den Zero Fan Modus? Mir wird die Karte im Leerlauf zu Warm... ich weiß nicht wie gut das über einen längeren Zeitrraum ist. Habe es bei mir deaktiviert, nun dümpelt die Karte bei 40° C


[..]
Nein... weil ich davon nichts halte. Minimale Drehzahl ist nicht hörbar und senkt die Temps. erheblich.

Same here, habe auch den ZF via MPT deaktiviert und lasse meine Karte bis 50°C mit minimalen RPMs laufen. Danach darf diese dann ab 60°C mit 50% bis 95°C laufen für das Eco-Profil (~250W PPT) oder für die 300W PPT ab 60°C 55% bis 65% für UV+OC Profil.

r3ptil3
2021-03-07, 00:43:45
Gerade etwas PUBG getestet im Trainingsgelände.
Jeweils an der gleichen Stelle gemessen.

5900X (Curve Optimizer -12, +150Mhz, RAM 3600Mhz (XMP Profil CL16), Sapphire Nitro+ OC 6900 XT

Wattman Einstellungen:
- Leistungsgrenze: +15%
- Voltage: 1100mV
- Coretakt siehe unten
- Rest: unangetastet

PUBG:
3840x1600
alles auf "hoch"
Renderskalierung: 100

(Coretakt, Verbrauch, FPS)

500Mhz, 78W, 47Fps
1000Mhz, 100W, 78Fps
1500Mhz, 120W, 108Fps
2000Mhz, 141W, 132Fps
2500Mhz, 300W, 160Fps

Nightspider
2021-03-07, 06:11:51
Bringt AMDs SAM etwas in PUBG?

Screemer
2021-03-07, 06:19:44
Wie lang habt ihr denn gezockt?!

r3ptil3
2021-03-07, 10:51:28
zu löschen*

Nightspider
2021-03-07, 15:53:48
500Mhz, 78W, 47Fps
1000Mhz, 100W, 78Fps
1500Mhz, 120W, 108Fps
2000Mhz, 141W, 132Fps
2500Mhz, 300W, 160Fps

Mich verwundert es doch etwas, das von 500 auf 1000 Mhz nur 65% mehr Grafikleistung bei rumkommen in 4K.

Gerade bei dem niedrigen Takt hätte ich mit einer annähernd 100% Skaleriung gerechnet.

Sollte ja noch weit weg sein von einem CPU Limit in irgendeiner Art und Weise.

Daredevil
2021-03-07, 16:00:57
Der ganze Saft geht ja nicht nur für die GPU drauf, deswegen nimmt da der Anteil des "Beifangs" zu.

Nightspider
2021-03-07, 16:12:59
Mir gehts um die Grafikleistung (fps).

Wäre jetzt halt wichtig zu wissen ob die 500 bzw. 1000 Mhz Takt konstant anlagen.

r3ptil3
2021-03-07, 16:24:31
Bringt AMDs SAM etwas in PUBG?

Bringt definitiv was, aber in hohen Auflösungen (in meinem Fall 3840x1600) und in Ultra, merkt man sowieso nichts davon (1-2FPS höchstens mehr).

Ändert sich aber sobald man die Settings runterdreht (high, medium...) und ebenso die Auflösung bzw. Renderskalierung. Dann sind je nach Szenario anstatt 300 plötzlich 320 Fps vorhanden.

Bezüglich der Skalierung von 500 auf 1000Mhz: Der Takt lag konstant an, da nur an einer bestimmten Stelle gemessen wurde (keine Messung einer Szene). Real vielleicht anstatt 1000Mhz dann 962 oder sowas, aber eben nicht schwankend - die Taktraten (500, 1000, ...) wurden im Wattman eingestellt.

Daredevil
2021-03-07, 17:27:50
Mir gehts um die Grafikleistung (fps).

Wäre jetzt halt wichtig zu wissen ob die 500 bzw. 1000 Mhz Takt konstant anlagen.
Ach sorry, sollte deinen Post auch mal richtig lesen. :D

bnoob
2021-03-08, 19:30:48
So, meine 6900XT wurde heute morgen nicht mehr vom Board erkannt nachdem ich mein Netzteil ausgetauscht hatte (ich weiß leider nicht, ob sie davor noch ging). Alles einmal durchgetauscht und reseated, nichts geht mehr.

Einmal RMA und das beste hoffen und solange mit einer V56 rumkrebsen...

Das ist echt Peak 2020, es ist unglaublich.
Ach, Update dazu:

Alternate hatte mir die Karte dann nach 6 Wochen oder so als "Funktioniert doch?" zurück gesendet.

Hab sie eingebaut, kein POST, toll.

Dann habe ich mich an irgendwelche exotischen B550 PCIe 4.0 Probleme erinnert und den Slot auf PCIe 3.x gestellt, seitdem postet der Rechner ohne Probleme.

Warum? Keine Ahnung. Er hatte davor schon mit einer 6800 und mit der selben 6900XT ohne Probleme mit PCIe 4.0 gepostet.

Vielleicht ein Mainboardschaden (CPU-Schaden kann ich ausschließen, nachdem ich mir beim Ausbau AUCH NOCH meinen 3900X gehimmelt habe :freak: und durch einen 3700X ersetzt habe), vielleicht ist das Mainboard ab Werk noch mehr Grütze als gedacht (das legendäre AsRock X570M Pro4...)

Hab seitdem hier und da mal Andeutungen über Probleme dieser Art mit Big Navi gesehen, aber im Dezember war ich halt der Einzige.

TL; DR: Vor dem RMA-Prozess mal PCIe auf 3.0 stellen, AUCH auf X570. Wohl dem der mehr als eine GPU rumliegen hat.

aufkrawall
2021-03-08, 20:19:52
Mal Witcher 3 in 4k verglichen: Mit jeweils 2,3GHz eingestellt, ist die 6900 XT 24% schneller als die 6800 (keine Drosselung).

Bambuslooter
2021-03-09, 09:46:18
https://twitter.com/JirayD/status/1368997303495852046?s=09

interessante Erkenntnisse. In Navi stecken wohl gute 20% Potenzial, wenn man leicht optimiert.

JVC
2021-03-09, 15:39:04
Fine Wine ;) :ubeer:

M.f.G. JVC

Raff
2021-03-09, 16:00:14
Und ich ging bis eben davon aus, dass Navi meistens im Wave32-Betrieb läuft, da das für Spiele besser ist - das war immerhin eine der großen Errungenschaften mit RDNA. Hat jemand evtl. bisschen Technik-Beef zu dem Thema?

MfG
Raff

Screemer
2021-03-09, 16:34:12
Aus dem Feed:

Most of the time though it's not the wavefront mode that's the issue. Some of the problems stem from vector register pressure. UE4's RT has a lot of RT passes at 128 VGPR's, which limit the occupancy to 50%. Coincidentally nVidia's hardware offer exactly 128 VGPR's per warp.

Ein Schelm wer böses dabei denkt.

Nightspider
2021-03-09, 16:35:17
Wann kommt RT eigentlich für Cyberstunk bei AMD?

Mal Witcher 3 in 4k verglichen: Mit jeweils 2,3GHz eingestellt, ist die 6900 XT 24% schneller als die 6800 (keine Drosselung).

Hast du beide Karten? 6800 und 6900XT?

Wiseman
2021-03-09, 16:40:36
https://twitter.com/JirayD/status/1368997303495852046?s=09

interessante Erkenntnisse. In Navi stecken wohl gute 20% Potenzial, wenn man leicht optimiert.

Damit jetzt hier einige nicht gleich abheben: das Steigerungspotenzial, von dem der Twitterer spricht, bezieht sich auf AMDs Raytracing in Vulkan. Dort hat der Twitterer für eine 6800XT durch kleine Änderungen am Code eine Steigerung von 19% erzielt. Bemerkenswert. Mal abwarten, wie sich das weiterentwickelt.

dargo
2021-03-09, 16:43:57
Wann kommt RT eigentlich für Cyberstunk bei AMD?

Wenn die Baustelle fertig ist.

Raff
2021-03-09, 16:48:44
Aus dem Feed:

Most of the time though it's not the wavefront mode that's the issue. Some of the problems stem from vector register pressure. UE4's RT has a lot of RT passes at 128 VGPR's, which limit the occupancy to 50%. Coincidentally nVidia's hardware offer exactly 128 VGPR's per warp.

Ein Schelm wer böses dabei denkt.

Hmja. Da Huangs und Sweenys Schergen stark zusammenarbeiten, ist das sicher nur ein Zufall. :ugly: Interessanter Fund. Umso spannender sind die leider noch zu selten anzutreffenden Spiele mit RDNA-2-optimiertem FidelityFX-Raytracing-Stuff.

Wenn die Baustelle fertig ist.

Soon(tm).

MfG
Raff

aufkrawall
2021-03-09, 17:48:29
Hast du beide Karten? 6800 und 6900XT?
Ein näherer Verwandter hat die 6900, ich 6800.
Die 5700 XT hätte es zwar auch noch getan, aber wenn man für lau (oder besser?) upgraden kann.. :redface:

Lurtz
2021-03-09, 21:39:31
Ein näherer Verwandter hat die 6900, ich 6800.
Die 5700 XT hätte es zwar auch noch getan, aber wenn man für lau (oder besser?) upgraden kann.. :redface:
Du hast eine 6800 gekriegt?! :eek: Willst du gegen eine 3070 tauschen? (Just kidding ;D)

aufkrawall
2021-03-10, 13:20:54
Die 6800, die nun in meinen Besitz gewandert ist, war noch von Scalpernate, und die 6900 aus dem AMD-Shop.
Wo ich halt kein Glück hatte, war bei SAM. Das würde dem 6700k mit der 6800 für 1440p sicherlich noch gut Beine machen bzw. die Frametimes verbessern. Zum Kotzen, dass das an einem geringfügigen Bios-Update scheitert. :mad:
Ist notiert, Intel und ASRock...

Lurtz
2021-03-10, 16:18:49
MSI ist da auch nicht besser... Letztes Bios-Update meines Boards Juli 2018. Dabei würde SAM einem 6700k wirklich noch etwas Leben einhauchen.

aufkrawall
2021-03-10, 16:28:11
Da fragt man sich auch, warum einige Entwickler es fertig bringen, mit dem 256MB BAR-Limit gut zurecht zu kommen, während es bei anderen (Valhalla...) völlig absurde Gewinne bzw. Verluste bringt. :freak:
Ich will jetzt diesen Grafikfaihler von Rage 2 nicht zu sehr adeln, aber der Sh*t läuft mit komplett festgepinnten 99% GPU-Last bei 140fps, nur sporadischen Mini-Spikes beim Durchfahren der Spielwelt und ansonsten komplett glatten Frametimes...

mironicus
2021-03-10, 19:46:45
Gibt es eigentlich ein VSR für AMD das höhere Auflösungen als 4K unterstützt? Also auf einen 4K-Fernseher sehe ich bei unoptimierten Spielen schon mal ein störendes Kantenflimmern das man durch VSR wohl etwas smoother hinbekommen könnte. Gibt es da eine Möglichkeit?

F5.Nuh
2021-03-10, 21:52:52
Aktuell Spiele ich Subnautica, ich hatte Anfangs immer die Maximalen FPS und aktuell sind diese nicht so hoch also statt 144 Fps (von mir als Max FPS eingestellt) habe ich nur 100fps...? Und die Belastung ist nicht so hoch. :freak:

Habe es auch mit Standardtakt getestet. Das gleiche Spiel.
Die Auslastung ist bei ca. 75 - 80% bei der GPU.

Ich blicke da nicht mehr durch!

@mironicus

Mein Bildschirm flimmert ab und zu speziell beim laden usw. auch im oberen Bereich.. weiß aber nicht ob es am Bildschirm liegt oder an der GraKa?

w0mbat
2021-03-11, 11:56:11
Der AMD-Treiber ist deutlich effizienter im Vergleich mit dem Nvidia-Treiber.

JLEIJhunaW8

aufkrawall
2021-03-11, 12:37:06
Ja, der DX12-Treiber. Das erzähl ich hier schon seit Monaten anhand der gamegpu-Daten. Aber gut, dass das mal aufgegriffen wird.
Er hat sich halt nur DX12 angeschaut, bei DX11 ist es immer noch umgekehrt und bei Vulkan scheint es, sofern man das anhand der begrenzten Datenlage sagen kann, ein Gleichstand zu sein.
gamegpu kam bei Legion mit dem 7700k auch auf 20% Unterschied zwischen AMD & Nvidia, die würfeln die ganzen Werte also nicht nur aus. ;)

Bei BFV und WoW (und Legion?) scheint RT das Problem auch noch weiter zu verschärfen. Nvidia baut da irgendwie richtigen Mist, irgendwas läuft gewaltig schief. :freak:

dargo
2021-03-11, 12:50:27
Der AMD-Treiber ist deutlich effizienter im Vergleich mit dem Nvidia-Treiber.

https://youtu.be/JLEIJhunaW8
Nichts Neues. ;) Dennoch nett, dass ein bekannter Reviewer das mal aufgreift. :)

DeadMeat
2021-03-11, 13:15:01
Ja, der DX12-Treiber. Das erzähl ich hier schon seit Monaten anhand der gamegpu-Daten. Aber gut, dass das mal aufgegriffen wird.
Er hat sich halt nur DX12 angeschaut, bei DX11 ist es immer noch umgekehrt und bei Vulkan scheint es, sofern man das anhand der begrenzten Datenlage sagen kann, ein Gleichstand zu sein.
gamegpu kam bei Legion mit dem 7700k auch auf 20% Unterschied zwischen AMD & Nvidia, die würfeln die ganzen Werte also nicht nur aus. ;)

Bei BFV und WoW (und Legion?) scheint RT das Problem auch noch weiter zu verschärfen. Nvidia baut da irgendwie richtigen Mist, irgendwas läuft gewaltig schief. :freak:

Das hier steht noch unter dem Video:

Hardware Unboxed
...


As for the video, please note I also tried testing with the Windows 10 Hardware-Accelerated GPU Scheduling feature enabled and it didn't change the results beyond the margin of error.


This GeForce overhead issue wasn’t just seen in Watch Dogs Legion and Horizon Zero Dawn, as far as we can tell this issue will be seen in all DX12 and Vulkan games when CPU limited, likely all DX11 games as well. We’ve tested many more titles such as Rainbow Six Siege, Assassin’s Creed Valhalla, Cyberpunk 2077, Shadow of the Tomb Raider, and more.

Nightspider
2021-03-11, 13:18:52
aufkrawall hast du mal die Scope Performance bei BF4 mit aktueller Hardware getestet, wo Nvidia früher immer viel mehr fps hatte?

dargo
2021-03-11, 13:22:50
Das steht unter dem Video, laut HU scheint es in DX11 auch so.
Da steht "likely" bei DX11, reine Vermutung von HU die nicht den Tatsachen entspricht.

DeadMeat
2021-03-11, 13:26:03
Ich hab auch nur den Zusatz dazu geschrieben nicht gewertet ;) Gehört ja aber zur HU Behauptung dazu.

aufkrawall
2021-03-11, 13:28:33
aufkrawall hast du mal die Scope Performance bei BF4 mit aktueller Hardware getestet, wo Nvidia früher immer viel mehr fps hatte?
Das war im GPU-Limit. :)
Hab ich seitdem allerdings nicht wieder getestet. Bei der CPU-Performance profitiert BF4 von DXVK aber eher null bez. wohl eher negativ. Da ist der AMD D3D11-Treiber also ganz gut dabei.

Nightspider
2021-03-11, 13:34:59
Ich weiß, wäre aber interessant ob sich da auch etwas gedreht hat über die Jahre.

Kriegt man Mantle eigentlich in BF4 noch zum Laufen mit neueren Karten?

aufkrawall
2021-03-11, 13:37:09
Afair fehlt seit Navi der Mantle-Treiber komplett. Mit älteren Karten könnte es noch gehen, aber imho vergossene Milch.
Ist natürlich witizg, dass BF4 mit Mantle kein Shader Compile-Monsterruckeln hatte, während BFV mit DX12 dahingehend immer noch ein völliger Schrotthaufen ist. ;D

Redneck
2021-03-11, 13:50:23
Afair fehlt seit Navi der Mantle-Treiber komplett. Mit älteren Karten könnte es noch gehen, aber imho vergossene Milch.
Ist natürlich witizg, dass BF4 mit Mantle kein Shader Compile-Monsterruckeln hatte, während BFV mit DX12 dahingehend immer noch ein völliger Schrotthaufen ist. ;D
Da sagst Du was.. bin deswegen auf DX11 und das läuft im Spiel recht ordentlich (Kampanie). Was aber immer noch stottert wie Sau sind die Cutscenes. Gibt es dafür eine Lösung (ausser wegdrücken)?

bnoob
2021-03-11, 14:03:39
Gibt es eigentlich ein VSR für AMD das höhere Auflösungen als 4K unterstützt? Also auf einen 4K-Fernseher sehe ich bei unoptimierten Spielen schon mal ein störendes Kantenflimmern das man durch VSR wohl etwas smoother hinbekommen könnte. Gibt es da eine Möglichkeit?
Ja, ich spiele alte Spiele auf meinem 4K-Monitor auf 5120x2880. Ging schon mit der 290X.

soLofox
2021-03-17, 06:37:52
Hat hier vielleicht jemand probiert Wärmeleitpads zwischen PCB Rückseite und Backplate zu legen und kann etwas zur Verbesserung der Kühlung sagen?
Das Pad zwischen GPU Die und Kühler soll ja schon recht gut sein, richtig?

crux2005
2021-03-17, 07:58:50
Ein näherer Verwandter hat die 6900, ich 6800.
Die 5700 XT hätte es zwar auch noch getan, aber wenn man für lau (oder besser?) upgraden kann.. :redface:

Gz!

gamegpu kam bei Legion mit dem 7700k auch auf 20% Unterschied zwischen AMD & Nvidia, die würfeln die ganzen Werte also nicht nur aus. ;)

Nicht? Aber manche hier im Forum (sogar Reviewer bekannter Seiten) haben genau das angedeutet. Skandal! :eek:

Dr.Doom
2021-03-17, 08:28:44
Nicht sicher, ob das in den Thread gehört...

Ich habe gestern die 6900 XT eingebaut und Treiber 21.2.3 installiert.
Meine derzeit installierten moderneren Spiele wie WoW und Horizon Zero Dawn laufen ausgezeichnet, aber bei älteren Spielen zeigt sich schon fast katastrophale Performance.
Das über 15 Jahre Civ4 und das weniger alte Kingdoms of Amalur ruckeln zeitweise mit 30/40FPS, steigen dann wieder gegen 144Hz, um dann wieder auf niedrige FPS einzubrechen.
Das lief "damals" mit Karten (Maxwell 980 Non-Pro und noch früher) ja geschmeidiger...!? :confused:

Ich habe das AMD OSD eingeblendet und sehe bei niedrigen FPS, dass die Taktrate der GPU zeilweise bis zu zweistellig wird, um dann wieder über 2000Hz zu steigen. Die Temperaturen (GPU, Hotspot) sind bei beiden Spielen nichtmal bei 50°C.

Irgendwie scheint mir das Powermanagement der Karte zu aggressiv zu sein. Wenn wenig zu tun ist, gehe ich mal ins Bett.
Wie kann ich der Karte sagen, dass sie sowas unterlassen soll?

(Bei der nV-Maxwell-Karte, die nun ersetzt wurde, kann konnte ich in den Treiber-Einstellungen entscheiden, dass ich keine Energieeinsparung wünsche, sondern irgendwas wie "optimale Leistung" zu bevorzugen ist.)

dargo
2021-03-17, 08:34:57
Bei so alten Schinken wird stellenweise das starke CPU-/API-Limit voll durchschlagen. Wenn die Graka sich langweilig geht der Takt natürlich komplett zurück. Völlig normaleres Powermanagement. Entweder du holst dir eine wesentlich schnellere CPU (Brechstange) oder setze ein FPS-Limit damit du nicht so starke Wechsel hast.

Dr.Doom
2021-03-17, 08:38:54
Mit der Maxwell-Karte hatte ich bei den Spielen durchgehend 144FPS (von Laderucklern mal abgesehen). Selbe CPU (8700k), alles gleich, nur GraKa gewechselt.

dargo
2021-03-17, 08:42:26
Dann war der DX11-Treiber bei Nvidia offenbar wesentlich effizienter. Genaueres kann ich dazu nicht sagen, da ich so alte Schinken nicht spiele. Wobei ich zugeben muss, dass 30-40fps vs. 144fps schon etwas zu hohe Differenz wäre.

PS: du könntest noch versuchen die min. Frequenz der GPU in Wattman von 500Mhz auf bsw. 2000Mhz anzuheben. Damit hebelst du das Powermanagement aus. Große Überraschungen würde ich damit aber jetzt nicht erwarten. Wenn es ein heftiges CPU-Limit gibt (egal ob Treiber-Overhead, zu schwache CPU oder API-Limit) wird die Karte nicht auf wundersame Weise deutlich mehr fps liefern. Sie wird mit der höheren Frequenz nur etwas mehr saufen.

Dr.Doom
2021-03-17, 08:46:50
Na, ich kann mir nciht vorstellen, dass das was mit Effizienz zu tun haben kann, wenn die alten Spiele durchaus auch die 144FPS erreichen (s.o.). Wenn die alten Spiele durchgehend miese Performance zeigen würde, ja, nachvollziehbar, aber sekundenlange Hochs und Tiefs im Wechsel. :confused:

dargo
2021-03-17, 08:51:26
Wenn eine Szene nicht im hohen CPU-Limit liegt wird die Karte logischerweise bis zu 144fps liefern.

Screemer
2021-03-17, 08:55:55
Daran liegt es nicht. Installiert dir Mal clockblocker. Da greifen irgendwelche Mechanismen des Treibers. Das hatte ich schon bei alten Games sowohl mit NV als auch mit AMD. Die Karte taktet aufgrund zu geringer Auslastung runter. Das aber in clockstages die viel zu niedrig sind. Wunder mich, dass das immer noch nicht komplett gefixt ist. Das war schon zu Polaris 480 Zeiten so.

Alternativ kann man in gpu-z den pcie Test starten.

edit: ajo. daredevil war schneller.

Daredevil
2021-03-17, 08:57:10
Lass den PCIe Bandbreiten Test von GPUz im Hintergrund laufen, dann bliebt der Takt der Graka oben und du hast genug fps.
Das ist die Unfähigkeit der Grafikkarte, trotz kleiner Last den Takt oben zu halten, weil sie das nicht als Spiel erkennt. So schwankt das halt wie ein Pingpong hin und her.

Thunder99
2021-03-17, 09:13:00
Kann man nicht mittels Profil vom Spiel im Treiber die Performance auf maximal stellen, wie bei Nvidia?

Screemer
2021-03-17, 09:18:03
Klar. Man kann wie Fargo sagte den min Takt anheben. Kannst du auch für die problematischen Games direkt in-game im osd einstellen. So wird es dann direkt als Gameprofil angelegt.

dargo
2021-03-17, 09:20:11
Lass den PCIe Bandbreiten Test von GPUz im Hintergrund laufen, dann bliebt der Takt der Graka oben und du hast genug fps.
Das ist die Unfähigkeit der Grafikkarte, trotz kleiner Last den Takt oben zu halten, weil sie das nicht als Spiel erkennt. So schwankt das halt wie ein Pingpong hin und her.
Lol... diese ganzen alten Schinken werden dann nicht mehr als Games erkannt? :biggrin: In dem Fall sollte dann also die Änderung der min. Frequenz auch helfen.

Daredevil
2021-03-17, 09:50:45
Kann man nicht mittels Profil vom Spiel im Treiber die Performance auf maximal stellen, wie bei Nvidia?

Das kann man bei Nvidia machen, hat aber auch hier ( bei mir ) keinerlei Auswirkungen gehabt. Wenn die Last so gering ist, das sie nicht als Gamelast erkannt wird, springt der Takt hin und her
1-2 Indie Games sind mir schon unter den Finger gekommen, wo ich den Workarround mit GPUz nutzen musste.
Wenn YouTube mehr Last erzeugt als nen Spiel, dann weiß die Kiste halt nicht, was sie tun soll. ;D

Nightspider
2021-03-17, 13:25:04
Das ist ja aber auch kacke wenn sowas nicht gefixt wird.

Daredevil
2021-03-17, 13:28:00
In der Tat ist das nicht so ganz optimal, aber tritt nicht oft auf.
War letztens ein kostenloses Amazon Game, welches nen 60fps Limit hatte und wo man halt die Auflösung nicht auf 8K setzen konnte. Das sind ja alles Methode, wie man der GPU sagen kann, das sie hier doch was verarbeiten muss. Aber so springt der Kram dann von 10-20fps auf 60fps hin und her und man hat Frametimes aus der Hölle, obwohl das Spiel auf nem Tamagochi laufen würde.

aufkrawall
2021-03-17, 13:42:58
Nochmal: Der DX9-Treiber ist seit Navi Schrott. Schlechte Performance muss rein gar nichts mit den Stromsparmodi zu tun haben.

jorge42
2021-03-17, 14:01:21
wenn es der Speichertakt wäre, müsste man nur einen zweiten Monitor anschließen, dann geht der bei AMD eh wieder ins MAximum :D oder haben die das gefixt? Hab grad keinen zweiten Monitor mehr da, den hat sich mein Sohn gekrallt

aufkrawall
2021-03-17, 14:05:30
Der Speicher taktet auch bei korrekt funktionierendem Runtertakten ohnehin viel aggressiver rauf als GPU-Core.
Eher zu aggressiv, wenn ich mir den Stromverbrauch bei 4k-Video vs. die 5700 XT ansehe.

Daredevil
2021-03-17, 14:21:34
Nochmal: Der DX9-Treiber ist seit Navi Schrott. Schlechte Performance muss rein gar nichts mit den Stromsparmodi zu tun haben.
Kann natürlich auch sein.
Ich habe das selbe Verhalten ja selten auch mit der gleichen Leistungsklasse bei Nvidia, daher kann das schon nahe liegen, dass es hier das gleiche ist.

Mal Allgemein:
Je schneller die Karten werden, desto eher bekommen sie doch bestimmt Probleme, ein Spiel als Spiel zu erkennen, oder? Weil die prozentige Last halt irgendwann verschwindend gering ist.
Im Browser hat man ja keinen Bedarf an einer kontinuierlichen Framerate, im Spiel halt schon. Wenn die GPU das ganze nicht erkennt als Applikation, die Dauerhaft Last benötigt, lässt sie das halt. :redface:

So macht das für mich als Laie irgendwie Sinn, würde auch die Lösung erklären, wenn man ein wenig "richtige" Last dazu schaltet.

aufkrawall
2021-03-17, 14:28:26
Unter Linux ist die Takt-Anpassung von RDNA2 definitiv nicht optimal, mit fps-Limiter werden dann schnell die Frametimes hässlich. Ich konnte das aber unter Windows mit verschiedenen Spielen und fps-Limits eindeutig nicht feststellen. Zum Glück kann man unter Linux aber auch das Taktverhalten schärfer einstellen.

Für D3D9 sollte man nach Möglichkeit immer direkt DXVK nehmen: https://github.com/doitsujin/dxvk/tags
Damit lässt sich auch die backbuffer queue length auf 3 ("Triple Buffering") erzwingen gegen Vsync-Gespacke, oder man nutzt Enhanced Sync via Treiber + Scanline Sync in RTSS mit einem Wert von 1.
Ich hab aber btw. unter Windows auch immer noch das Hardware Cursor + Vsync Ruckel-Problem. Bin mal gespannt, ob die sich jemals von den Linux-Entwicklern erklären lassen, wie man das fixt...

mironicus
2021-03-17, 14:44:22
Nicht sicher, ob das in den Thread gehört...

Ich habe gestern die 6900 XT eingebaut und Treiber 21.2.3 installiert.
Meine derzeit installierten moderneren Spiele wie WoW und Horizon Zero Dawn laufen ausgezeichnet, aber bei älteren Spielen zeigt sich schon fast katastrophale Performance.
Das über 15 Jahre Civ4 und das weniger alte Kingdoms of Amalur ruckeln zeitweise mit 30/40FPS, steigen dann wieder gegen 144Hz, um dann wieder auf niedrige FPS einzubrechen.

Versuch mal folgenden Trick: Geh auf die EXE-Datei und klicke auf "Vollbildoptimierungen deaktivieren" (Kompatibilität). Das sollte praktisch jedes Problem bei AMD-GPUs und älteren Titeln lösen.

Jedes Spiel bei dem ich Performance-Probleme hatte und die ständig in der Performance schwankten (30-60 FPS) liefen dann ohne Probleme in voller Geschwindigkeit.

Was auch mal helfen könnte: Energieeinstellungen auf maximale Geschwindigkeit stellen. Aber meistens half die Einstellung mit den Vollbildoptimierungen.

Auch sinnvoll ist manchmal ein FPS-Limiter wie Rivatuner.

aufkrawall
2021-03-17, 14:48:54
Das sollte praktisch jedes Problem bei AMD-GPUs und älteren Titeln lösen.

Nein, die Frametimes sind bei D3D9 bei so ziemlich allem außer der Source-Engine seit Navi beschissen. Das kommt durch den Treiber und da kann man als User gar nichts fixen (außer auf DXVK auszuweichen).

Edit: Die Vollbildoptimierungen können aber tatsächlich Triple Buffering kaputt machen bzw. ist das schon vorgekommen.

mironicus
2021-03-17, 15:47:17
Da ich momentan zwei Systeme mit einer RTX 2080 Ti und einer RX 6900 XT fahre, kann ich leicht vergleichen um Probleme mit Titeln herauszufinden.

Bei Spielen wie Atelier Firis, Atelier Lulua, Atelier Lydie and Suelle (in diesem Fall alles DX11-Titel) hat "Vollbildoptimierungen deaktivieren" bei AMD immer geholfen. Bzw. habe ich mich gerade noch mal vergewissert und es getestet.

Default laufen die Spiele extrem inkonsitent mit 30 FPS und ab zu auch hoeher. Sind die Vollbildoptimierungen deaktiviert laufen sie mit 60 FPS ohne Probleme. Aber ich muss gleichzeitig auch noch ein Framelimiter aktivieren (die GPU laeuft sonst unter Volllast), und da hilft der AMD-Treiber leider ueberhaupt nicht, obwohl es dort Optionen gibt. Nur mit dem Rivatuner hat das funktioniert.

EDIT: Ich muss mich noch mal korrigieren. Nachdem ich die Spiele direkt in der Radeon-Software registriert habe (exe-Datei als Profil manuell hinzugefuegt), laufen die Spiele alle korrekt mit 60 FPS. Die Deaktivierung der Vollbildoptimierungen sind dann nicht mehr notwendig.

Thunder99
2021-03-17, 19:39:48
Es wäre doch so einfach, wenn das Profil das Spiel X hat, dann einfach auf Game-Takt stellen und gut ist, oder nicht?

aufkrawall
2021-03-17, 19:49:08
Nein, denn das fixt den D3D9-Treiber nicht im Geringsten. ;)

mironicus
2021-03-17, 20:06:29
Das über 15 Jahre Civ4 und das weniger alte Kingdoms of Amalur ruckeln zeitweise mit 30/40FPS, steigen dann wieder gegen 144Hz, um dann wieder auf niedrige FPS einzubrechen.


Zu Kingdoms of Amalur (alte Version) kann ich folgendes sagen: Es laeuft ohne Probleme auf meiner 6900XT. Doch ich kenne das Ruckelproblem. Wenn du ein Xbox Controller per Bluetooth mit dem PC verbunden hast... dann ruckelt das Spiel. Mit dem Original Xbox Wireless Dongle laeuft es normal. Oder halt direkt kabelgebunden.

Das Ruckeln ist bei der Bluetooth-Verbindung aber generell ein Problem, wenn die Verbindung schwaechelt bricht die Framerate total ein. Das kann bei jedem Spiel vorkommen. Ich habe mir fuer ein stressfreies Spielen daher schon vor einiger Zeit einen Controller mit dem Original Xbox Dongle gekauft.

Bei Kingdoms of Amalur ruckelt es aber immer mit der Bluetooth-Verbindung, selbst ohne Empfangsprobleme. Ich kenne aber kein weiteres Spiel, dass dieses Problem hat. Das Remake laeuft dagegen ohne Probleme.

Dr.Doom
2021-03-17, 20:27:20
Hab' mal ein paar Minuten Civ4 gespielt und GPUz nebenher laufen lassen. Die Min-Frequenz habe ich in den AMD-Einstellungen auf 1250Mhz gestellt.
Wie man im Screenshot sieht, ist die Min-Frequenz quasi die Max-Frequenz, da die Frequenz trotzdem ständig auf niedrige dreistellige und auch zweistellige Werte absinkt.

Den Rendertest vom GPUz habe ich auch mal angeworfen, aber dies zeigte keinerlei Auswirkung (egal, in welche Richtung).
Vollbildoptimierungen aus/an ebenso.

https://abload.de/thumb/image15sk5o.jpg (https://abload.de/image.php?img=image15sk5o.jpg)


Amalur:
Ich hab' einen alten XBox360-Controller und einen der ersten USB-Empfänger, noch alles ohne BT. Auch wenn ich mit Maus und Tasta spiele (oder es zumindest versuche *g*), ändert sich nichts.

aufkrawall
2021-03-17, 20:59:49
Wie man im Screenshot sieht, ist die Min-Frequenz quasi die Max-Frequenz, da die Frequenz trotzdem ständig auf niedrige dreistellige und auch zweistellige Werte absinkt.

Ja, das bringt fürs Abfallen in niedrigste Last nichts (und sonst wahrscheinlich auch nichts).

Dr.Doom
2021-03-17, 21:26:40
Hab' mir jetzt erstmal einen Freesync-Monitor bestellt, z.Z. ist noch mein G-Sync-Monitor dran.
Vielleicht wird das Geruckle dann zumindest vom glattgebügelten Verlauf durch die "Sync-ung" (mit LFC) verdeckt...

aufkrawall
2021-03-17, 21:29:04
Nope, das flackert dir höchstens die Augen aus. DXVK oder Tod, ganz einfach.

Semmel
2021-03-17, 21:42:11
Hab' mal ein paar Minuten Civ4 gespielt und GPUz nebenher laufen lassen.

Immer noch der beste Teil der Reihe. :)
Installation läuft gerade, werde das auch mal testen.

Erster Eindruck:
Spiel läuft flüssig, trotz GPU-Takt von nur 500 MHz. (und trotz 4K und 16xMSAA :D)
Kann keine Probleme feststellen.

F5.Nuh
2021-03-17, 22:58:42
Bei mir waren auch Probleme vorhanden. Habe die Radeon Software deinstalliert und neu und sauber erneut Installiert und alles läuft wieder Sahne.

Dr.Doom
2021-03-18, 19:59:54
Hab' nun einen Dell S2721DGFA (sollte lt. Amazon erst am 20.4. kommen, aber ich will nicht meckern, zumindest nicht über den Liefertermin *klick* (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12627957#post12627957))

Ja, was soll ich sagen -- die FPS-Schwankungen sind weiterhin vorhanden, aber es ruckelt nicht mehr. Wenn man bei Civ4 über die Karte scrollt, dann ist das wieder butterweich (von Nachladungen von Grafikkrempel, der noch nicht im Speicher ist, sehe ich ab).

Wäre das Problem mit dem IPS-Mist nicht (siehe Link), wäre ich nun im 7. Himmel, aber so... irgendwas ist ja immer.

aufkrawall
2021-03-27, 23:34:52
Nochmal zum Runtertakten: keine Spikes in BL2 im CPU-Limit ohne weitere Anpassungen (bis auf DXVK):
https://abload.de/thumb/borderlands2_2021_03_v4k6c.png (https://abload.de/image.php?img=borderlands2_2021_03_v4k6c.png)
-> Kann immer noch keinen Fall feststellen, bei dem das Herauftakten unter Windows nicht aggressiv genug wäre.

Dr.Doom
2021-03-28, 11:16:16
Nach dem der Dell S2721DGFA nix taugte (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12627957#post12627957) und zurück ging, und auch der Asus XG27W nix taugte (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12627957#post12627957), bin ich nun wieder mit meinem alten G-Sync-only-Monitor unterwegs (ASUS PG278G).

Das Gezuckle bei Civ4 ist jetzt wieder da, dafür konnte ich Amalur (Re-Reckoning) beruhigen, indem ich Ingame den Framelimiter auf 85Hz (höher ging nicht?!) und AMDs Radeon Chill-Einstellung auf Min=Max=100FPS gestellt habe.
Jetzt ist die 6900XT mit Vollgas im ersten oder zweiten Gang mit angezogener Handbremse unterwegs und die FPS kleben bei kostant 85.
Frequenz schwankt dennoch zwischen 1500 und 2000 Hz herum und der Hotspot bleibt in den unteren 50er Temperaturen [°C].

(BTW: Hatte die Radeon-Software zuerst für verspielte Bloatware gehalten, aber mittlerweile gefällt mir das Ding...)

aufkrawall
2021-04-03, 12:31:35
Nope, das flackert dir höchstens die Augen aus. DXVK oder Tod, ganz einfach.
Um das mal zu unterstreichen:
https://abload.de/thumb/mirrorsedge_2021_04_0rqj35.png (https://abload.de/image.php?img=mirrorsedge_2021_04_0rqj35.png) https://abload.de/thumb/mirrorsedge_2021_04_0w3je2.png (https://abload.de/image.php?img=mirrorsedge_2021_04_0w3je2.png)

Dr.Doom
2021-04-07, 11:21:13
Wohin muss ich sehen, damit ich erkenne, was du mit den Bildern sagen möchtest?
(unwissend/nicht verstehend)


@Karte bzw. eher Radeon Software:
Bei der Lüftersteuerung im "Automatikmodus" kann ich eine maximale Lüfterdrehzahl (bzw. PWM-Prozentzahl) einstellen.
Lege ich damit mehr oder weniger (in)direkt eine Temperaturobergrenze fest, bei deren Erreichen die Karte sich heruntertaktet, wenn's dennoch zu warm wird?

Oder lässt sich direkt ein Temperaturlimit festlegen?
Muss gestehen, diese Einstellung bisher nicht gefunden zu haben (sofern es diese überhaupt gibt *g*).

dargo
2021-04-07, 12:15:00
Wohin muss ich sehen, damit ich erkenne, was du mit den Bildern sagen möchtest?
(unwissend/nicht verstehend)

Nur so eine Idee... Frametimes und Framerate vielleicht? :uponder:

Nightspider
2021-04-07, 12:17:03
Wie viel % kann man in etwa aus einer wassergekühlten 6900xt noch herausholen?

10% oder weniger?

mironicus
2021-04-07, 12:56:10
Wie viel % kann man in etwa aus einer wassergekühlten 6900xt noch herausholen?

10% oder weniger?

Durch reines UV gehen doch schon bestimmt 6-7%. Mit einer kühleren GPU bestimmt noch mehr. :freak:

Dr.Doom
2021-04-07, 15:49:02
Nur so eine Idee... Frametimes und Framerate vielleicht? :uponder:Aso, das "Flackern" hat mich irritiert (Wie soll ich auf einem Bild Flackern sehen?).