PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6900 XT Review-Thread


Seiten : 1 2 [3]

Emil_i_Lönneberga
2021-04-08, 17:56:07
300W, 1100 U/min mit einem 360mm Radiator:

https://www.igorslab.de/wp-content/uploads/2021/04/03-1100-300-Watts.jpg

https://www.igorslab.de/wp-content/uploads/2021/04/Noise-1000-rpm.jpg

https://www.igorslab.de/wp-content/uploads/2021/04/Mounted-Complete-2.jpg

just4FunTA
2021-04-10, 14:27:27
ich habe seit Gestern seit langem mal wieder eine AMD Graka und suche gerade wo ich VRR aktivieren kann. Sollte das nicht unter Einstellungen - > Anzeige sein?

https://abload.de/thumb/amdi8jb7.jpg (https://abload.de/image.php?img=amdi8jb7.jpg)

Tyrann
2021-04-10, 14:52:19
das steht doch: nicht unterstützt

aufkrawall
2021-04-10, 14:55:44
Treiber und Firmware für LG aktuell?

just4FunTA
2021-04-10, 15:33:56
@aufkrawall

ja ist aktuell

das steht doch: nicht unterstützt

ja scheint wohl wirklich so zu sein mit nvidia geht es und amd nicht. :/

also wenn es da kein workaround für gibt wäre das jetzt aber doch ganz schön mies.

Linmoum
2021-04-10, 15:36:17
Scheint beim C9 wohl nicht zu gehen.

So bieten LGs OLED-TVs aus dem Jahr 2020 seit einem frischen Update auch AMD FreeSync. Es ist bereits bestätigt, dass etwa die Microsoft Xbox Series X auf diese Funktion setzen wird. Auch die LG-OLED-Modelle aus dem letzten Jahr, wie die C9, wären rein technisch in der Lage FreeSync zu unterstützen. Eine entsprechende Firmware wolle LG laut eigenen Aussagen aber nicht veröffentlichen.
https://www.4kfilme.de/kein-perfekter-gaming-tv-lg-oled-2019-muessen-ohne-amd-freesync-auskommen/

just4FunTA
2021-04-10, 15:39:28
das freesync interessiert mich nichtmal, ich wollte ja vrr aktivieren das ja angeblich unterstützt wird von graka und tv. Aber offensichtlich ist das irgendeine Pfuschlösung aktuell von LG und nicht das was man von HDMI 2.1 erwartet hat.

aufkrawall
2021-04-10, 15:49:58
Evtl. kann man per Custom EDID (CRU) den TV zu AMDs HDMI 2.0 FreeSync überreden?

Linmoum
2021-04-10, 15:55:01
https://www.reddit.com/r/Amd/comments/g65mw7/working_freesync_mod_for_vrr_displays_tested_on/

Hab auf die schnelle das hier gefunden. Vielleicht funktioniert zumindest das bei dir auch.

just4FunTA
2021-04-10, 20:22:41
zwei Zahlen eingetragen und funktioniert. Also bei dem Aufwand verstehe ich jetzt natürlich warum es nicht von Haus aus unterstützt wird, das kann man LG natürlich nicht zumuten. :freak:

just4FunTA
2021-04-10, 22:57:48
sagt mal warum taktet die GPU so Niedrig bei Crysis Remastered und Crysis 3? Immer nur um die ~1100Mhz und teilweise sackt es sogar ab auf 400mhz. Dementsprechend schlecht sind die FPS.

aufkrawall
2021-04-10, 23:04:29
Der niedrige Takt ist ein Symptom, nicht die Ursache: Crysis 3/KCD/Wolcen/Ryse sind im CPU-Limit mit AMD kaputt und Crysis Remastered ist mit höheren Einstellungen wohl generell Schrott.

just4FunTA
2021-04-10, 23:28:54
hmm bei crysis 2 ist da wohl auch ein fps limit aktiv bei 65fps :x

wtf warum den gerade die Crysis Spiele, das sind doch die Perfekten Spiele um neue Hardware auszuprobieren vor allem da ich die Spiele auch gameplaytechnisch wirklich geliebt habe.

Zuerst der 24hz bug und jetzt das..

Thunder99
2021-04-11, 12:54:59
hmm bei crysis 2 ist da wohl auch ein fps limit aktiv bei 65fps :x

wtf warum den gerade die Crysis Spiele, das sind doch die Perfekten Spiele um neue Hardware auszuprobieren vor allem da ich die Spiele auch gameplaytechnisch wirklich geliebt habe.

Zuerst der 24hz bug und jetzt das..
Crysis Spiele waren mal so. Das Rematered Spiel kommt ja nicht von Crytek sondern von einer anderen Firma die das programmiert hat. Leider extrem "schlecht" :freak:

Workaround für höhere Taktraten ist GPU-Z PCIE-Test aktiveren, soweit ich mitbekommen habe oder was ähnliches was die GPU kaum belastet aber in dem hohen 3D Takt "zwingt"

aufkrawall
2021-04-11, 12:58:30
hmm bei crysis 2 ist da wohl auch ein fps limit aktiv bei 65fps :x

wtf warum den gerade die Crysis Spiele, das sind doch die Perfekten Spiele um neue Hardware auszuprobieren vor allem da ich die Spiele auch gameplaytechnisch wirklich geliebt habe.

Zuerst der 24hz bug und jetzt das..
Crysis 2 (und vermutlich auch teilweise die anderen Crysisse) ist notorisch verbugt bei der Auswahl von Auflösungen/Refresh Raten. Dahingehend ist der AMD-Treiber imho unschuldig.
Bis auf Crysis 3 sollten afaik alle Teile "normal" laufen.

just4FunTA
2021-04-11, 14:01:04
Crysis Spiele waren mal so. Das Rematered Spiel kommt ja nicht von Crytek sondern von einer anderen Firma die das programmiert hat. Leider extrem "schlecht" :freak:

Workaround für höhere Taktraten ist GPU-Z PCIE-Test aktiveren, soweit ich mitbekommen habe oder was ähnliches was die GPU kaum belastet aber in dem hohen 3D Takt "zwingt"
bringt leider auch nichts die fps bleiben um die ~60 - 70..

dildo4u
2021-04-15, 12:11:15
Crysis Spiele waren mal so. Das Rematered Spiel kommt ja nicht von Crytek sondern von einer anderen Firma die das programmiert hat. Leider extrem "schlecht" :freak:

Die PC Version kommt von Crytek.

https://youtu.be/pJZEtcMl0ds

Die Engine wurde immer noch nicht final auf DX12 oder Vulkan umgestellt The Hunt nutzt auch DX11.

Nightspider
2021-04-17, 04:39:21
Also was die Karte in Battlefield 5 raushaut ist echt brutal.

Selbst in 5K (5120*2880) sind es auf Ultra (ohne Raytracing) meist um die 75fps.

In 4480*2520 sind es ~90fps und in 4K (3840*2160) lockere 120fps.

Hab atm die Frequenz im Treiber auf 101% und die Spannung auf 93% und halte meist knapp 2500 Mhz bzw. ganz leicht drunter.

Bringt es was den VRAM zu undervolten/heruntertakten? Geht das überhaupt?

Ich würde gerne dem VRAM paar Watt wegnehmen, denn im Bandbreiten-Limit ist man mit dem Infinity Cache eh nicht.

BF5 sieht einfach so brutal gut aus in 5K und ist sogar spielbar. xD

r3ptil3
2021-06-19, 09:28:40
Habe gar nicht gewusst, dass es auch eine MSI Gaming Z Trio 6900 XT gibt.

Reviews hat's aber gar keine... Hat hier jemand eine?

Daredevil
2021-06-19, 09:31:03
Ah, das ist auch eine mit "Navi 21 XTXH" Chip laut Geizhals, sonst ist wohl alles andere identisch.

r3ptil3
2021-06-19, 10:01:46
Ah, das ist auch eine mit "Navi 21 XTXH" Chip laut Geizhals, sonst ist wohl alles andere identisch.

Interessant... da sollte mal eine grosse Tech-Seite ein grosses umfangreiches Review möglichst aller High-End Custom-Modelle machen, von mir aus auch gegen einen Aufpreis.

ChaosTM
2021-06-19, 10:53:11
Ob Brute Force da viel bringt wage ich zu bezweifeln, ausser einem aus dem Ruder laufender Verbrauch. Mal schauen..

r3ptil3
2021-07-03, 09:09:38
Kurzer Nachtrag bezüglich XTXH Chips:
(Modell/XTXH)

ASROCK Phantom Gaming: nein
ASROCK Formula OC: ja
ASUS Liquid: nein
ASUS Liquid TOP Edition: ja
MSI Gaming X: nein
MSI Gaming Z: ja
Gigabyte (die kommende liquid Variante): ja
Sapphire Nitro+ Special Edition: ja oder doch nein? (widersprüchliche Aussagen hier)
Sapphire Toxic (extreme + limited edition): ja

Vielleicht hat ja jemand Interesse hier aktuelle Infos upzudaten.

fondness
2021-07-17, 14:27:12
PCGH hat die Radeon RX 6900 XT Liquid Cooling getestet:

https://www.pcgameshardware.de/Radeon-RX-6900-XT-LC-Grafikkarte-277614/Tests/6900-XT-LC-Benchmarks-RX-6900-XT-Liquid-Cooling-Test-1375809/

r3ptil3
2021-08-02, 17:25:35
Sapphire Toxic RX 6900 XT Air Cooled
https://media.cdn.sapphiretech.com.cn/-/media/sites/sapphire/pim/product-images/11308_11_rx6900xtac_toxic_16ggddr6/rx6900xt_toxic_aircooler_c02_r_light_800x500.ashx?v=e2d713aaf5a54607add9e5cfc3f9 a8bc

https://www.sapphiretech.com/en/consumer/toxic-radeon-rx-6900-xt-ac-16g-gddr6

Soll höchstwahrscheinlich mit einem XTXH Chip kommen.

Nightspider
2021-08-02, 18:01:55
Hätte gerne mehr Karten mit 18gbps Speicherchips.

r3ptil3
2021-08-06, 14:23:50
Bin ich eigentlich der einzige hier der noch ein derart hohes Interesse an der 6900 XTXH hat?

Ich finde stand heute, genau ein einziges richtiges Review von einem XTXH Modell und zwar das Review der ASRock Formula 6900 XT bei Techpowerup.
Ansonsten gibt's da so gut wie nichts, sehr schade...

vinacis_vivids
2021-08-06, 14:43:27
Naja, ich bin von RX6800 auf 6800XT umgestiegen und die 6900XT reizt mich nicht mehr so. Die paar Prozente mehr machen den Braten einfach nicht Fett. Es wird nur überproportional teuer, aber nicht viel besser.

Bei der 6900XT würde mir wohl eine Sapphire Toxic für 1500€ auch schon reichen. Die XTXH kosten halt 2000€. 500-700€ Aufpreis für ne leicht verbesserte 7nm Selektion ist schon übertrieben.

Ich glaube bei 32GB Speicherbestückung einer 6950XTX würden mehr Leute zugreifen, rein psychologisch gesehen auch wenn man es gar nicht braucht und vollkommen sinnfrei ist.
So sind es sehr gute 16GB, die ja auch die niederen Karten schon haben.

Wobei 18-19.5 GBPS Speicher reizt auch.


Wie auch immer, bei mir ist jetzt demnächst eher ein neuer Monitor dran, der auch 4K@120hz befeuern kann.

Was GPU angeht, dann ist abwarten auf ne N31 - MCM Karte auch ganz angenehm.

r3ptil3
2021-08-24, 20:06:14
MSI Gaming Z 6900 XT im Einsatz:

Läuft default mit ca. 2480-2520Mhz

GPU Temp: 63-64° (TimeSpy Extreme)
GPU Junction: 110°+


Lüfter bläst wie ein Haartrockner bei 60° GPU-Temp, Junction weit über 100°.

Da stimmt offensichtlich was nicht...

Raff
2021-08-24, 20:43:38
Da ist definitiv etwas im Argen, das Delta zwischen Hotspot und dem Rest sollte nicht mehr als 20 °C betragen. Die Lüftersteuerung setzt alles daran, den Kern unter 110 °C zu halten (darüber würde hart gedrosselt). Bitter, dass ständig so teure Karten Probleme haben. :(

MfG
Raff

dargo
2021-08-24, 20:55:50
Ist da wieder so ein Fingerhut zwischen Kühler und GPU? ;D

aufkrawall
2021-08-24, 21:07:06
Es fehlt wohl eher mal wieder eine ganze Ecke WLP irgendwo auf dem Die. Unfassbar blöd...

r3ptil3
2021-08-24, 22:37:23
Zurückschicken oder aufmachen?


Bei den Preisen sollte man sich die Frage eigentlich nicht mal stellen...

gedi
2021-08-24, 22:43:52
Zurückschicken oder aufmachen?


Bei den Preisen sollte man sich die Frage eigentlich nicht mal stellen...

Aufmachen (voher ein Screenshot), Pad runter, WLP drauf und glücklich sein! MSI gehört doch zu den Customers, welche so etwas nicht verbieten :confused:

gedi
2021-08-24, 22:56:23
Also was die Karte in Battlefield 5 raushaut ist echt brutal.

Selbst in 5K (5120*2880) sind es auf Ultra (ohne Raytracing) meist um die 75fps.

In 4480*2520 sind es ~90fps und in 4K (3840*2160) lockere 120fps.

Hab atm die Frequenz im Treiber auf 101% und die Spannung auf 93% und halte meist knapp 2500 Mhz bzw. ganz leicht drunter.

Bringt es was den VRAM zu undervolten/heruntertakten? Geht das überhaupt?

Ich würde gerne dem VRAM paar Watt wegnehmen, denn im Bandbreiten-Limit ist man mit dem Infinity Cache eh nicht.

BF5 sieht einfach so brutal gut aus in 5K und ist sogar spielbar. xD

Geht mit einer der letzten Betas vom MPT.

Lehdro
2021-08-25, 15:39:49
Bin ich eigentlich der einzige hier der noch ein derart hohes Interesse an der 6900 XTXH hat?

Ich finde stand heute, genau ein einziges richtiges Review von einem XTXH Modell und zwar das Review der ASRock Formula 6900 XT bei Techpowerup.
Ansonsten gibt's da so gut wie nichts, sehr schade...
+ das von PCGH zur LC XTXH direkt von AMD

Aber jop, ist mir auch aufgefallen. Dabei sind das derzeit neben den anderen N21 Ablegern die einzigen die noch "sinnvolles", im Sinne von spaßiger Tweakerei + Leistungsgewinn, OC ermöglichen.

Wäre schon interessant zu wissen was da mit den einzelnen Designs geht, gerade mit den XTXH Chips kann man wundervoll OC auf absurd hohe Taktraten machen, siehe das von dir angesprochene Formula Review. Fast 2.9 GHz sind schon nett anzusehen, auch wenn man leider nicht weiß ob man wirklich die realen Taktraten sieht (siehe effective clock @hwinfo64).

vinacis_vivids
2021-08-25, 17:10:23
Hier noch ein review zur ASRock Formula 6900 XT - "XTXH"
https://www.pcgamer.com/asrock-radeon-rx-6900-xt-oc-formulat-review-benchmarks/

Hier ASUS 6900XT Strix OC LC - XTXH
https://www.guru3d.com/articles_pages/asus_radeon_rx_6900_xt_strix_oc_lc_review,32.html

Sapphire Toxic Radeon RX 6900 XT Extreme Edition Limited Edition nur XTX
https://www.kitguru.net/components/graphic-cards/dominic-moass/sapphire-toxic-rx-6900-xt-limited-edition-review/

PowerColor Red Devil Ultimate Radeon RX 6900 XT Review: Speed Demon
https://hothardware.com/reviews/powercolor-red-devil-radeon-rx-6900-xt-review

r3ptil3
2021-08-26, 13:44:07
@vinacis_vivids

Das Kitguru Review beinhaltet eine Limited Edition und keine Extreme Edition.
Somit auch kein XTXH Chip.

pnume
2021-08-26, 16:12:39
Warteschlange im AMD Shop

r3ptil3
2021-08-31, 19:42:15
Austausch für die MSI erhalten:

Sapphire Air Toxic 6900 XT (XTXH)
https://i.ibb.co/Ss7ZB8q/20210831-172724.jpg
https://i.ibb.co/7n97Xvy/20210831-172748.jpg

Irre ich mich oder ist das die erste 6900 XT, bei der man den Speichertakt im Treiber so hoch einstellen kann?

https://i.ibb.co/Jv4jsgZ/mem.png

Raff
2021-08-31, 20:35:21
W00t. Interessant, das sind IIRC die Limits der 6900 XT LC (https://www.pcgameshardware.de/Radeon-RX-6900-XT-LC-Grafikkarte-277614/Tests/6900-XT-LC-Benchmarks-RX-6900-XT-Liquid-Cooling-Test-1375809/). Die hat aber schnelleren Speicher drauf. Deine Karte (lecker, btw) läuft ab Werk aber schon mit 16 GT/s, also knapp 2.000 MHz laut Tools, oder?

MfG
Raff

r3ptil3
2021-08-31, 21:16:06
2000 Mhz default, genau.

Der Kühler der MSI Gaming Z ist jedenfalls schon mal sicher besser, die Sapphire liegt bei Default schon schnell bei über 70°, während die MSI im sehr tiefen 60er Bereich war, schade.
Wenigstens ist die Junction Temp. im relativ normalen Bereich, sprich deutlich besser als bei der MSI.

horn 12
2021-08-31, 22:07:34
und welche ist/ war bitte leiser?

gedi
2021-08-31, 22:12:12
2000 Mhz default, genau.

Der Kühler der MSI Gaming Z ist jedenfalls schon mal sicher besser, die Sapphire liegt bei Default schon schnell bei über 70°, während die MSI im sehr tiefen 60er Bereich war, schade.
Wenigstens ist die Junction Temp. im relativ normalen Bereich, sprich deutlich besser als bei der MSI.

1.1V is the way to go, selbst mit Wakü. Reicht beim Rasterizing für jede 3090(s) und bei RT im Mittel für ne 3080! So richtig cool wird es allerdings bei weniger als 50°C unter Volllast. So denn, einen gescheiten Wakü-Block auf die Karte und glücklich sein!

Raff
2021-08-31, 22:52:43
[...] und bei RT im Mittel für ne 3080! [...]

Nein. Einfach nein. (https://www.pcgameshardware.de/Radeon-RX-6900-XT-LC-Grafikkarte-277614/Tests/6900-XT-LC-Benchmarks-RX-6900-XT-Liquid-Cooling-Test-1375809/2/#a26) Leider. Das muss RDNA 3 richten.

Um eine ordinäre RTX 3080 in dieser bunten Benchmark-Aufstellung (und nicht etwa bei Kirschen wie Resi 8 oder Dirt 5) zu schlagen, bräuchte man einen Navi 21 mit einem linear durchschlagenden Durchschnittstakt um 2,75 GHz und natürlich entsprechend schnellem Speicher.

MfG
Raff

r3ptil3
2021-08-31, 23:52:46
und welche ist/ war bitte leiser?

Der MSI Kühler ist besser.

Werde jedoch bei der Sapphire die Wärmeleitpaste austauschen, bin mir fast sicher, dass da wie bei der Gigabyte Aorus schlampig montiert wurde (nicht angezogene Schrauben, sprich 0 Anpressdruck, miserable Verteilung der WLP und die WLP selber, kommt mir jetzt nicht mit der Viskosität :D, das war noch NIE ein Problem bei mir und ich hatte sicher schon 5-6 3080er, 3070, 3060 und bis auf ASUS, hatten alle GPUs danach merkbar bessere Temps (ASUS hat einen sagenhaften Anpressdruck und gute WLP)).

Ich hatte jedoch bei der MSI ein Problem mit der GPU Junction Temp (120°), GPU Core war bei ca. 60-62°.


Ich werde am Donnerstag das ganze nochmals ausführlich testen.

Ich hatte jetzt im Hauptsystem mehrmals das Problem, dass die Performance sehr komisch war nach einem GPU Wechsel. Erst nach einer frischen Installation hat wieder alles gepasst. Konnte es nicht im Detail anschauen, jedenfalls tippe ich auf eine Treiber, Registry Ursache.

r3ptil3
2021-09-08, 17:10:57
MSI Gaming Z 6900 XT im Einsatz:

Läuft default mit ca. 2480-2520Mhz

GPU Temp: 63-64° (TimeSpy Extreme)
GPU Junction: 110°+


Lüfter bläst wie ein Haartrockner bei 60° GPU-Temp, Junction weit über 100°.

Da stimmt offensichtlich was nicht...

Ich habe heute von Caseking eine Antwort zu dem Fall erhalten.

Caseking meint: Kein Problem, kein Defekt - somit wird auch der Fall als RMA nicht anerkannt.

Könnte wetten da hat einer lediglich kurz die GPU angehängt und du normale GPU-Temperatur überprüft.

gedi
2021-09-08, 23:01:35
Tauschen gegen eine Toxic EE. Nochmals selektiert trotz XTXH. Und da High-ASIC bringt weniger Vcore weniger an Tempc und Leistungsabgabe bei mehr bumms . Hier kannst du dann auch runter von den 360W auf 350W bei 1.106V@ 2850 und ~2176 FT. Dann bist du auch mit RT voll dabei und zwar in etwa so schnell wie eine 3080, ohne den Upsampling-Kram.

r3ptil3
2021-09-08, 23:31:59
Ist bei der Toxic Liquid nicht die Pumpe problematisch in Bezug auf die Laufruhe?

Eigentlich würde ich von dem Liquid-AIO-Zeug am liebsten ganz weg und selbst die CPU mit einem anständigen NH-D15S kühlen.

horn 12
2021-09-19, 12:37:47
https://videocardz.com/newz/xfx-launches-liquid-cooled-radeon-rx-6900-xt-zero-wb-promises-3-ghz-oc-frequency

Weiteres XFX Modell Limited Edition
---> Luft und Wassergekühlt von XFX Hersteller

Werden die Chips immer Besser und erreichen 2,7 bis 2,8 Ghz
Somit nochmals 30% schneller als eine 6800XT Referenz Karte!

dargo
2021-09-19, 12:40:52
Die Fertigung muss wirklich extrem gut sein. Angeblich sollen 3Ghz mit OC erreicht werden können. Und das bei so einer fetten SKU. :freak:

r3ptil3
2021-09-19, 17:40:39
MSI Gaming Z 6900 XT: über 2720Mhz Bildfehler
Default: 2580 Mhz @ 1200mV
Undervolting: 1140mV

Sapphire AIR Toxic 6900 XT: 2670Mhz, darüber ging nix mehr
2580Mhz @ 1200mV
Undervolting: 1155mV

Aber die 2.7Ghz sind sowieso ein Witz, da mit fast 1150mV die Dinger unkühlbar sind bei 400W+.

Kam dann noch zur UVP an eine MSI Gaming X 6900 XT ran und hatte entsprechend sehr tiefe Erwartungen, jedoch gerade der "billigere "XTX Chip überraschte dann etwas:
Default: 2550Mhz @ 1150mV
Undervolting: 1070mV @ 2730Mhz (Treiber)
Zudem bin ich nur bei dem "Billig-Modell" mit 2150Mhz (VRAM)@ Fast Timings bisher ohne Fehler durchgekommen.

Vom XTXH Chip halte ich dementsprechend absolut nichts mehr.
Ich bin überzeugt, dass sämtliche Reviewer nochmals stark selektierte Chips erhalten. 99% der XTXH Chips welche man im Handel kriegt, sind meiner eigenen Erfahrung nach den Preis nicht annähernd Wert.

dargo
2021-09-19, 19:01:52
Als ob der Preis und der Verbrauch da noch irgendeinen juckt. :tongue: Und mal ernsthaft... du vergleichst hier Lüku Grakas mit wassergekühlten Lösungen? :freak:

Fisch
2021-10-03, 09:16:32
Ich bin seit diesem Wochenende auch Besitzer einer 6900 XT, das teuerste Stück Hardware was ich jemals in einem PC hatte.

https://i.ibb.co/zmVFvjh/IMG-20211001-195257-2.jpg (https://ibb.co/zmVFvjh)

Vorerst wird die erstmal eingebremst, da ich sie noch an einem 550W Netzteil betreibe.

Also mit 1000mV maxV und -30% PT läuft sie erstmal ohne Probleme, wenn ich irgendwann mehr Power brauche kommt halt doch ein neues NT.

Raff
2021-11-12, 11:08:38
Passt im Grunde in jeden RX-6000-Thread, aber da gerade das Topmodell regelt: https://www.pcgameshardware.de/Call-of-Duty-Vanguard-Spiel-73441/Specials/CoD-PC-Benchmark-Test-Release-1383082/4/#a1

Call of Duty Vanguard setzt fort, was Cold War einführte: Radeons laufen richtig flott - diesmal sogar immer, da man sie nicht mithilfe von "Nvidia-Raytracing" zusammenstauchen kann.

MfG
Raff

vinacis_vivids
2022-02-08, 11:54:17
Gibs schon ne Übersicht welche 6900XT mit dem XTXH Chip und 18GB/s Speicher ausgestattet ist?

Ich glaube diese gehört dazu: "PowerColor Red Devil Radeon RX 6900 XT Ultimate" mit "XTXH" Chip.
https://thepcenthusiast.com/powercolor-red-devil-radeon-rx-6900-xt-ultimate-review/
https://hothardware.com/reviews/powercolor-red-devil-radeon-rx-6900-xt-review

Aber die sind auch nur mit 16GB/s Speicherchips ausgestattet, wie die Referenz 6900XT.


Die Qualität der kostenlosen Reviews wird immer schlechter. Keines der beiden Reviews hat die Karte wirklich am Kühl-Limit oder Taktlimit ausgetestet.

Die "PowerColor Red Devil Radeon RX 6900 XT Ultimate" wiegt ja 2,4kg - also der Kühler ist schon mal sehr mächtig und potent.

IceKillFX57
2022-02-09, 23:02:46
Woran erkennt man, welche Speicherchips verbaut sind? Also ob's 16GB/s sind oder eben mehr

Ultron
2022-02-09, 23:15:30
MSI Gaming Z 6900 XT: über 2720Mhz Bildfehler
Default: 2580 Mhz @ 1200mV
Undervolting: 1140mV

Sapphire AIR Toxic 6900 XT: 2670Mhz, darüber ging nix mehr
2580Mhz @ 1200mV
Undervolting: 1155mV

Aber die 2.7Ghz sind sowieso ein Witz, da mit fast 1150mV die Dinger unkühlbar sind bei 400W+.

Kam dann noch zur UVP an eine MSI Gaming X 6900 XT ran und hatte entsprechend sehr tiefe Erwartungen, jedoch gerade der "billigere "XTX Chip überraschte dann etwas:
Default: 2550Mhz @ 1150mV
Undervolting: 1070mV @ 2730Mhz (Treiber)
Zudem bin ich nur bei dem "Billig-Modell" mit 2150Mhz (VRAM)@ Fast Timings bisher ohne Fehler durchgekommen.

Vom XTXH Chip halte ich dementsprechend absolut nichts mehr.
Ich bin überzeugt, dass sämtliche Reviewer nochmals stark selektierte Chips erhalten. 99% der XTXH Chips welche man im Handel kriegt, sind meiner eigenen Erfahrung nach den Preis nicht annähernd Wert.

Gibts eigentlich inzwischen ein Tool, wo ich der Karte ganz genau sagen kann, wieviel Spannung sie bei welchem Takt nehmen soll? Ähnlich der Kurve die ich im Afterburner einstellen kann bei nV Karten? Dieses Overclocking im AMD Menü funktioniert bei mir irgendwie nicht, da crasht die Karte schon bei Defaultclock...

vinacis_vivids
2022-02-14, 19:35:31
Woran erkennt man, welche Speicherchips verbaut sind? Also ob's 16GB/s sind oder eben mehr

Die 18GB/s Chips sind wie es aussieht durchgängig für die Refeshes 6x50 vorgesehen. Hab nach einer kurzen Suche keine einzige 6900XT mit 18GB/s gefunden. Alle sind zurzeit 16GB/s.

Raff
2022-02-28, 12:32:11
Wer einen neuen Radeon-Showcase sucht, zitiert künftig immer das hier: https://www.pcgameshardware.de/GRID-Legends-Spiel-73405/Specials/Grid-Legends-Benchmarks-Technical-Review-1389979/ ;)

In Full HD rangiert eine RX 6800 sogar vor einer RTX 3090, welche hier mal wieder nicht aus dem Quark kommt.

MfG
Raff

Daredevil
2022-02-28, 13:19:53
Das ist schon herbe. :D
FPS Spanne zwischen FullHD und 4K

3090: 47fps
3080: 49fps
3070: 44fps

6900xt LC: 70fps
6800xt: 66fps
6800: 57fps

Raff
2022-03-01, 13:05:10
Yep, aber: Neuer Tag, neue Windrichtung! :ulol:

Elex 2 im Technik-Test: Endzeit-Gothic mit katastrophaler Radeon-Performance (https://www.pcgameshardware.de/Elex-2-Spiel-73358/Specials/Test-Release-Systemanforderungen-Benchmark-Review-1389939/)

Bevor hier wieder die üblichen fünf Fruchtliebhaber spawnen: Bitte die ganze Benchmarkseite (https://www.pcgameshardware.de/Elex-2-Spiel-73358/Specials/Test-Release-Systemanforderungen-Benchmark-Review-1389939/3/) von oben bis unten aufmerksam lesen und erst dann den Flammenwerfer auspacken - idealerweise nicht in Richtung der Boten -, danke.

MfG
Raff

DrFreaK666
2022-03-01, 15:01:14
War das bei Piranha Games nicht schon immer so?

VooDoo7mx
2022-03-01, 15:08:44
War das bei Piranha Games nicht schon immer so?

Nein, die letzten Spiele habe ich alle bei Launch gekauft und sie alle liefen sehr sauber.
Elex hatte schon sehr hohe Anforderungen für die Optik mit ein paar reduzierten Settings konnte man aber auch mit älterer Hardware gut zocken.

Bei Elex 2 sind die Anforderungen nochmal enorm gestiegen, ohne dass sich die technische Seite großartig verbessert hat dazu noch viele Technik Bugs und auch schlechte AMD Kompatibilität.

Ich passe auch erst einmal, spiele sowieso gerade nochmal Risen 1 durch. :)

Geldmann3
2022-03-02, 06:56:40
Also ich habe ja eine RX 6900 XT sowie eine RTX 3090, seit Jahren eigentlich jeweils einen AMD und einen Nvidia Rechner und ich werde leider immer unzufriedener mit AMD, vor allem aufgrund des Treibers.

Heute Tomb Raider 2013 gestartet, mit der RTX 3090 absolut problemlos, mit der 6900 XT stürzen alle Tomb Raider Teile jedoch ab, wenn sie sich im exklusiven Vollbild befinden. Zudem habe ich auf Laras Haut mit 4xSSAA leichte Artefakte bei der 6900 XT, die mit der RTX 3090 nicht auftreten. Dachte erst die Karte wäre vllt. defekt, doch es tritt nur dort auf.

Dann fehlt mir eine ernsthafte DLSS-Alternative.
Vermisse ich in vielen Games sehr, da ich es von der RTX 3090 gewohnt bin und dies die Karte auf ein ganz anderes Performance-Level heben kann. Es macht einfach Settings möglich, die ich mit der RX 6900 XT vergessen kann.

Dann VR... Ja VR... Einige VR-Headsets machen Probleme mit AMD, laufen erst gar nicht oder die Motion-Compensation scheint manchmal fehlerhaft zu sein.

Und Downsampling...
Ja mit der RTX 3090 downsample ich ja ganz gerne aus 8K -> 4K oder verwende das DLDSR, was nun auch aus 6k ordentlich herunterrechnen kann.

Die 6900 XT bietet mir hier leider einfach gar nichts.
VSR existiert zwar, jedoch unterstützt es kein 8K und das gebotene 5k ist optisch unbrauchbar, da es schmutzig heruntergerechnet wird.
Da sieht nativ ja teilweise besser aus.
Warum zur Hölle noch immer kein internes 8K?
Mit Nvidia kann ich das seit 2015!

Noch kann ich die AMD-Karte sehr empfehlen.
Ist schon ein tolles Stück Hardware und übertaktet verzeichne ich häufig sogar etwas bessere Performance als mit der RTX 3090.

Aber langsam wirds kritisch für AMDs Featureset.

Eine DLSS-Alternative MUSS her! (FSR ist das definitiv nicht)
Downsampling? Wo ist mein Downsampling?
VR-Support? Ich mache immer mehr in der VR und da ist die RTX 3090 einfach überlegen.

Mein Triple-Monitor-Setup habe ich ja letztes Jahr bereits aufgrund der schlechten Treiberunterstützung durch AMD aufgegeben. Das war mir die Fummelei nicht mehr wert.

Und wenn, ich sage mal, in den nächsten 2 Jahren diese Features nicht auch bei AMD da sind, der VR-Support nicht besser wird, dann sorry, bin ich wohl auch auf dem Zweitrechner weg von AMD. Langsam wirds kritisch.

Vom lahmen Raytracing oder dem fehlenden CUDA Support will ich mal gar nicht reden. Für letzteres kann AMD nichts.

Ich will eigentlich meinen AMD-Rechner behalten, schon allein für Hardware-Tests. Doch AMD hat einiges aufzuholen.
Sorry ist so.

Ich liebe meine RX 6900 XT. (noch)
Merke in letzter Zeit leider immer mehr wie mir wichtige Features von der RTX 3090 fehlen.
Bitte AMD! In den Treiber investieren!

Ich erwarte ja gar nicht, dass sie auf die Schnelle DLSS nachbauen. (Hoffe jedoch, sie sind dran)
Doch wenigstens sowas wie Downsampling oder Kooperation mit VR-Headset-Herstellern, sowie solide Unterstützung auch etwas älterer Spiele wäre nice.

Raff
2022-03-02, 10:30:41
Was, 5K-VSR ist möglicherweise broken? Bisher sah das eigentlich immer besser aus als DSR. Mit der Einführung von DL-DSR ist das natürlich anders, aber was ich hier am UHD-Bildschirm sehe, finde ich eigentlich ziemlich knorke. Hast du ein Beispiel für besonders schlechtes VSR-Downsampling? Die fehlende Flexibilität und Grenze bei 5K stört mich unterdessen auch.

MfG
Raff

Nightspider
2022-03-02, 11:29:32
Als ich 5K VSR getestet habe letztes Jahr sah es durch die Bank deutlich besser aus als 4K.

Ja die 8K Option fehlt mir auch noch aber die wird mit RDNA3 kommen, wenn die Karten sogar nativ 8K in vielen Spielen schaffen würden.

Bei der 3090 zahlt man halt auch gut 50-70% mehr Geld, quasi nur für die Software-Features.

Raff
2022-03-02, 11:31:48
Bei der 3090 zahlt man halt auch gut 50-70% mehr Geld, quasi nur für die Software-Features.

Sag das dem Kollegen, der meine RTX 3090 FE just zur 2020er-UVP bekommen hat. :biggrin: Scalper-Scheiße muss man nicht unterstützen.

MfG
Raff

gbm31
2022-03-02, 11:58:14
Ist wohl gut dass ich grad keine Zeit hab zu zocken...

Geldmann3
2022-03-02, 12:05:23
Was, 5K-VSR ist möglicherweise broken? Bisher sah das eigentlich immer besser aus als DSR. Mit der Einführung von DL-DSR ist das natürlich anders, aber was ich hier am UHD-Bildschirm sehe, finde ich eigentlich ziemlich knorke. Hast du ein Beispiel für besonders schlechtes VSR-Downsampling? Die fehlende Flexibilität und Grenze bei 5K stört mich unterdessen auch.

MfG
Raff

Hier sieht man ganz gut die Flimmerproblematik, die ich vor einiger Zeit noch mit VSR hatte, wenn die interne Auflösung keine vielfache der Ausgabeauflösung war.

9HRVnf7FpFc

(Heute in 4K natürlich nicht mehr ganz so schlimm, wie damals in 1080p)

Bin gerade nicht daheim, kann daher leider nicht testen, ob das Problem noch besteht. Ja, viele Stellen sehen besser aus als nativ, viele neigen jedoch auch zu dem im Video, an den dünnen Linien gezeigten Flimmern. Darunter leidet DLDSR z.b. nicht ansatzweise so stark. Und 4x können DSR und VSR eh beide gut, doch das bietet AMD mit einem 4K Monitor ja gar nicht.

Lehdro
2022-03-02, 14:31:09
Was, 5K-VSR ist möglicherweise broken? Bisher sah das eigentlich immer besser aus als DSR. Mit der Einführung von DL-DSR ist das natürlich anders, aber was ich hier am UHD-Bildschirm sehe, finde ich eigentlich ziemlich knorke. Hast du ein Beispiel für besonders schlechtes VSR-Downsampling? Die fehlende Flexibilität und Grenze bei 5K stört mich unterdessen auch.

MfG
Raff

Habe vor kurzem erst ME:LE mit 5k VSR durchgespielt - keinerlei Auffälligkeiten was das angeht gesehen. Allerdings habe ich einen 1440p Monitor, kann sein das 4k -> 5k komisch aussieht, je nachdem was der Treiber da veranstaltet.


Heute Tomb Raider 2013 gestartet, mit der RTX 3090 absolut problemlos, mit der 6900 XT stürzen alle Tomb Raider Teile jedoch ab, wenn sie sich im exklusiven Vollbild befinden.
Kann ich für RotTR und SotTR nicht bestätigen. Welchen Treiber nutzt du? Irgendwelche potenziell problematischen Overlays an?

Raff
2022-03-02, 14:35:34
Es ist grundsätzlich einfacher, bei geraden Pixel-Ratios geile Bilder zu erzeugen, als bei krummen. 2880p auf 1440p einzudampfen bringt daher mit Ansage ein besseres Ergebnis als 2880p auf 2160p. Dann schaue ich mir das bei Gelegenheit auch mal wieder genauer an, die derzeitigen DL-DSR-Tests sind auch bestenfalls oberflächlich ...

MfG
Raff

Geldmann3
2022-03-02, 15:02:59
Habe vor kurzem erst ME:LE mit 5k VSR durchgespielt - keinerlei Auffälligkeiten was das angeht gesehen. Allerdings habe ich einen 1440p Monitor, kann sein das 4k -> 5k komisch aussieht, je nachdem was der Treiber da veranstaltet.


Kann ich für RotTR und SotTR nicht bestätigen. Welchen Treiber nutzt du? Irgendwelche potenziell problematischen Overlays an?

Muss heute Abend mal schauen welche Treiberversion ich verwende und ggf. updaten. Wollte heute morgen nur schnell ne Runde zocken und habe dann schon ungeplant eine halbe Stunde mit Debugging verbracht.

Habe MSI-Afterburner und den Rivatuner-Statistics-Server installiert, doch hatte ihn dafür extra ausgeschaltet. Denn ich hatte mir echt Sorgen um die 6900 XT gemacht, denn auf Laras Haut sah es exakt wie VRam Fehler aus. Wenn auch nur gaanz kleine, blitzende Artefakte. Doch es tritt in anderen Games nicht auf und in TR 2013 auch dann, wenn ich überall den Takt ganz herunterdrehe. Im Spiel seh' ich es dann auch nicht mehr wirklich, sondern hauptsächlich im Benchmark. Vielleicht sollte ich es mal aufnehmen, dann könnte ich es Frame für Frame betrachten und posten. Wenn es in der Aufnahme dann überhaupt drin ist. Es sieht aus wie das Schattenflimmern, was ich mit der RTX 3090 ebenfalls habe. Jedoch auch dort auf ihrer Haut, wo keine Schatten sind. Ein wenig wie Clipping.

Vielleicht fallen die Dinge, die ich gesehen habe aber auch nur dann auf, wenn man es vorher korrekt auf einer Nvidia-Karte gesehen hat.^^
Es ist echt minimalst und ich sitze 50cm vor einem 55 Zoll OLED.

bnoob
2022-03-02, 17:03:23
Ich zocke sehr viele Spiele auf 5K VSR (native Auflösung 4K) und mir ist keine Änderung in den letzten JAHREN (seit meiner 290X, über V64 und VII zu 6900XT) aufgefallen

Wiseman
2022-03-02, 18:02:02
Heute Shadow of the Tomb Raider gestartet, mit der 6900XT absolut problemlos, wenn es sich im Fullscreen + Exclusive Fullscreen befindet.

DSD512
2022-03-02, 19:50:54
Ich liebe meine RX 6900 XT. (noch)
Merke in letzter Zeit leider immer mehr wie mir wichtige Features von der RTX 3090 fehlen.
Bitte AMD! In den Treiber investieren!

Ich erwarte ja gar nicht, dass sie auf die Schnelle DLSS nachbauen. (Hoffe jedoch, sie sind dran)
Doch wenigstens sowas wie Downsampling oder Kooperation mit VR-Headset-Herstellern, sowie solide Unterstützung auch etwas älterer Spiele wäre nice.

Die Thematik mit TR (Abstürze) hatte ich am Anfang auch.
Das lag daran, dass grundsätzlich die AMD-Karten um einiges sensibler auf GPU/RAM Übertaktung reagieren!
Das hat sehr lange gedauert, bis ich das bei AMD hingebogen habe. Im Gegensatz dazu ist das bei NV ein Kinderspiel!
Man darf hier nicht den Fehler begehen und das mit NV vergleichen!
Geholfen hat hier MorePowerTool. Das Tool ist wirklich mächtig.

Bei NV ist so, du übertaktest zu viel, Game stürzt ab.
OK, Nehme Übertaktung. Fertig.

Bei AMD ... Game läuft, Läuft mal nicht, Läuft, Läuft mal nicht.
OK, jetzt mal Übertaktung überprüfen. LOL.

Grundsätzlich hat AMD die bekannte Schwäche mit DX11-Games.
Das kompensiert man am besten mit Linux und Wine. Da laufen Games zum Teil eh smoother und schneller als mit dem Windows-Müll.
Games die mit DX11 und W11 schwächeln --> Linux Distro Garuda drauf und gut ist.
Da ist schon alles dabei, was man als Gamer benötigt.

Der größte Mist bei AMD ist, wenn der Treiber aufgrund von Übertaktung zurückgesetzt wird, dass man alles wieder neu einstellen muss.
Sowas gibt es bei NV nicht. Da musste ich nach einem Treiber-Reset nie alles neu einstellen.

DLSS\FSR ist für mich persönlich Schwachfuq.
Ist im Grunde nur ein Eingeständnis des Herstellers, dass die Karte(n) nicht die Leistung bringen, die sie bringen soll.
Die zahlende Kundschaft soll aufgrund der Leistungsdefizite der Karten nicht vergrault werden.
Dann halt über proprietäre Lösungen = Kundenbindung = viele $$$$$$$.

Wiseman
2022-03-02, 20:09:24
Heute Tomb Raider in 5k gestartet, mit der 6900XT absolut problemlos.

Lehdro
2022-03-02, 21:08:33
Der größte Mist bei AMD ist, wenn der Treiber aufgrund von Übertaktung zurückgesetzt wird, dass man alles wieder neu einstellen muss.
Sowas gibt es bei NV nicht. Da musste ich nach einem Treiber-Reset nie alles neu einstellen.
Profil abspeichern und bei Bedarf wieder laden.

Geldmann3
2022-03-03, 04:13:13
Hmm, meine 6900 XT scheint nun die Grätsche gemacht zu haben?
Der Rechner lief einen Tag durch, wollte Abends dran, um den Treiber zu prüfen, doch hatte kein Bild mehr.

Bei einem Neustart piept der Rechner 1x lang und 3x kurz, was meist auf VRam-Fehler hindeutet.
(Hmm, wobei einige im Netz ebenfalls diesen Piepcode haben, bei denen geht die Karte dann allerdings wieder in einem anderen Rechner.)

Via TeamViewer komme ich noch drauf, in einer Auflösung von 640x480, kann aber den AMD Treiber nicht mehr installieren. (Error 207)

GPU Z erkennt die Karte noch, mit jedoch unbekannter BIOS-Version und 0Ghz Takt?

Ob es sich lohnt einen BIOS-Flash zu versuchen?

Andere Karten, die ich hier herumliegen habe funktionieren in diesem Rechner, jedoch kann ich die 6900 XT gerade nicht in einem anderem Rechner testen.

r3ptil3
2022-03-03, 11:47:03
Habe gerade Cyberpunk 1.5 etwas getestet mit der Gaming X RX 6900 XT in zwei Konfigurationen:

3840x1600, FSR HQ, alles andere max:

200W PL, 2400Mhz (real 2330Mhz): 80-85 FPS: Verbrauch ingame 160W

350W PL, 2720Mhz (real 2670Mhz): 95-100 FPS: Verbrauch ingame 320W


Für welches Setting entscheidet man sich?

Raff
2022-03-03, 11:51:30
Eins in der Mitte (Tendenz 250 W)! :biggrin:

Wobei, wenn du eh kein Raytracing nutzen willst (obwohl das Spiel ein Showcase ist), dann ist Tor 1 goldrichtig.

MfG
Raff

r3ptil3
2022-03-03, 12:01:40
Achso, richtig, RT war natürlich deaktiviert.

Mir wäre sogar die native Auflösung lieber. FSR HQ ist mit viel Überwindungskraft noch akzeptierbar, aber wenn die Performance ausreichend wäre, wäre dies, das erste was ich sofort deaktivieren würde.

Ohne FSR liegt die Karte selbst mit 2.7Ghz auf gerade mal auf 60 FPS.
Das fühlt sich für mich einfach nicht mehr flüssig an.


Ich muss noch erwähnen: Bei 200W PL ist die Karte und somit das ganze System praktisch nicht hörbar. Meine Umgebaut RX 6900 mit 3x Noctua NF-A12x25 läuft dann mit ca. 800 RPM.

Hingegen braucht das andere Setting mit 2.7Ghz, deutlich mehr RPM und ein leichtes Spulenfiepen kommt hinzu.

Ein 250W Konfig wäre auch eine Idee: Müsste aber wieder viel Testaufwand reinstecken, um die ganzen Werte zu ermitteln (TDC Limits, GFX und SOC Spannung...).

dargo
2022-03-06, 21:15:35
Yep, aber: Neuer Tag, neue Windrichtung! :ulol:

Elex 2 im Technik-Test: Endzeit-Gothic mit katastrophaler Radeon-Performance (https://www.pcgameshardware.de/Elex-2-Spiel-73358/Specials/Test-Release-Systemanforderungen-Benchmark-Review-1389939/)

Testet es mal mit DXVK 1.10 unter Linux.

Performance improvements
Reduced unnecessary worker thread synchronization around resource readbacks for both D3D11 and D3D9. This can significantly increase CPU-bound performance in games like Assassin's Creed: Origins and other titles built on the same engine, with smaller improvements seen in Elex II, God of War, GTA IV and others.

https://github.com/doitsujin/dxvk/releases/tag/v1.10

DSD512
2022-03-08, 00:26:54
Testet es mal mit DXVK 1.10 unter Linux.

https://github.com/doitsujin/dxvk/releases/tag/v1.10

Sollte mittlerweile bekannt sein, dass AMD mit ihren lutschigen DX11 Treibern (z.B. mit Immortals Fenix, AC Odyseey) unter W11 teilweise kein Land sieht.
Dann spielt man entweder mit DXVK-ASYNC unter W11 oder halt mit Lutris/Wine unter Linux.

Wenn interessiert da noch Windows, wenn mit Linux eine gute Alternative vorliegt und zusätzlich erhebliche Fortschritte mit DXVK und VKD3D gemacht wird. Versteh's einer.

Aber gut ... unter Linux muss man sich schon mit der Materie befassen, damit das Ding flutscht.
Für manche schon zuviel des Guten.

dargo
2022-03-08, 08:38:50
Aber gut ... unter Linux muss man sich schon mit der Materie befassen, damit das Ding flutscht.
Für manche schon zuviel des Guten.
Naja... es geht imho. Klar... als Linux komplett neu für mich war musste ich mich da auch erstmal reinfuchsen. Nach und nach kennt man die einzelnen Stellschrauben und dann flutscht es auch. :) Ich sehe da jetzt nicht mehr Aufwand als wenn man zum ersten Mal im Leben mit Windows zu tun hätte. Windows ist halt praktisch jedem in die Wiege gelegt.

vinacis_vivids
2022-04-25, 13:51:00
Vastarmor Launches Radeon RX 6900 XT Alloy Series Cards
https://www.techpowerup.com/294171/vastarmor-launches-radeon-rx-6900-xt-alloy-series-cards

Die Preise sind in China erhöht worden 9999 RMB (1525 USD) bzw. 7999 RMB (1220 USD)

Lehdro
2022-04-25, 15:29:38
Meine Umgebaut RX 6900 mit 3x Noctua NF-A12x25 läuft dann mit ca. 800 RPM
Jetzt bin ich interessiert. Welche RX 6900XT hast du umgebaut und wie genau (Bilder)? Erfahrungsberichte vorhanden mit höheren Settings?

Raff
2022-04-28, 14:31:53
Mal wieder Vollbild-Raytracing (GI mit zwei Bounces) und RDNA 2 kann zumindest Turing plattmachen - Ampere ist aber "next-gen": https://www.pcgameshardware.de/Doom-Classic-Spiel-55785/Specials/Raytracing-Mod-PrBoom-Benchmarks-1393797/ (mit spannenden Werten einer 6900 XT @ 2,75 GHz)

Hoffentlich wird später auch FSR 2.0 implementiert, denn 1.0 sieht eher "meh" aus (entlastet aber schön).

MfG
Raff

r3ptil3
2022-04-28, 15:05:32
Jetzt bin ich interessiert. Welche RX 6900XT hast du umgebaut und wie genau (Bilder)? Erfahrungsberichte vorhanden mit höheren Settings?

Es ist eine MSI Gaming X RX 6900 XT.

Originallüfter + Plastikabdeckung komplett entfernt und stattdessen drei NF-A12x25 Chromax 120mm Lüfter dran.

Seitdem habe ich ein paar "Experimente" durchgeführt mit einem Lian Li Air Mini.

Hier die Gaming X RX 6900 mit zwei P14 Lüftern.
https://i.ibb.co/5h1MsW3/P14.jpg

In der Planung und im Kopf, sah das dann doch etwas besser, als dann real in Umsetzung. Viel zu eng das ganze.
Zudem ist die GPU leider aufgrund der nicht so gut durchdachten Riser-Halterung von Lian Li zu nahe am Seitenfenster.

Bin mittlerweile wieder beim Jonsplus i100 Pro.

Was genau meinst du mit höheren Settings?

Lehdro
2022-04-30, 19:30:12
Es ist eine MSI Gaming X RX 6900 XT.
Ah, okay.

Was genau meinst du mit höheren Settings?
Mehr Saft, also über die 300W hinweg. Aber die Gaming X hat ja schon 340W stock.

Ex3cut3r
2022-04-30, 20:53:14
Das Seitenfenster im Normal Betrieb aber zu? Dürfte für die GPU IMHO zu nah dran sein. Oder täuscht das im Bild?

Ansonsten erstaunlich wie oft du Umbaust, mein PC siehe Sig sieht seit Sommer 2019 genau so aus, wie heute. ^^

gedi
2022-04-30, 21:15:37
Habe heute morgen mal F1-2021 in 4K maxed out RT standard gespielt und trotz Frame-Cap 120 und max. 330W durchgehend 2.75-2.93G gehabt (Setting: 3G GPU und VRAM 2.25G Fast! Trotzdem sah ich da über 300w selten! Im Schnitt mögen es vielleicht 240w gewesen sein. Hier braucht es kein Next-Gen! Die Metrik verstehe ich trotzdem nicht…

r3ptil3
2022-04-30, 23:39:02
Mehr Saft, also über die 300W hinweg. Aber die Gaming X hat ja schon 340W stock.

Also 281W Default + 15% erhöhtes Powerlimit im Treiber = 323W

Getestet habe ich maximal mit 400W Powerlimit @ 2700 Mhz real anliegender Takt (im Treiber sinds 2730).
Mit den Originallüftern auch kühlbar, aber mit über 2500 RPM und das ist für mich keine Lösung.
Mit den drei Noctua NF-A12x25 Lüftern geht das deutlich besser, aber auch hier müssen die Lüfter mit annähernd 2000 RPM drehen. Zwar deutlich leiser, aber ebenfalls keine Option, da für mich weiterhin zu laut.

Gemäss allen grossen Techseiten, hat MSI einen der besten Kühler für die RX 6900, ein "Problem" was aber unzureichend beleuchtet wird (auch klar, da für sowas niemand Zeit hat), ist die die Hotspot-Temp. Die MSI Gaming kann zwar gut übertaktet werden und die GPU-Temp liegt bei 55-65°, jedoch spickt die Hotspot-Temperatur locker auf weit über 100°.

Ich habe gefühlt alle High-End Pasten getestet (Kingpin KPX, Kryonaut Extreme, Alphacool Subzer etc.) inkl. bessere Wärmeleitpads, jedoch geht die Hotspot-Temp trotzdem noch zu weit rauf. Damit meine ich die Differenz zwischen GPU-Temp 1 und Hotspot, liegt im Default-Zustand bei optimaler Optimierung des Kühlers bei 10-15°, mit Powerlimit und OC jedoch weit über 30°. Auf Reddit findet man dazu auch einige Themen.
Ich hatte zudem auch mal eine MSI Gaming Z 6900 XT, da sprang die Hotspot-Temp im Originalzustand auf 120°, GPU Temp ging nicht mal über 60°. Interessant ist hier ja, weil die Gaming Z eine höhere Core-Spannung hat als die Gaming X aufgrund des XTXH Chips. Die Hotspot-Temp reagiert extrem giftig beim MSI Kühler auf die Spannung des Chips.

Mich würde hier sehr interessieren, weshalb MSI eine neue Revision des Kühler für die Gaming X (6800/6900) vor ein paar Wochen rausgebracht hat.

Hier noch ein Bild im ITX Case mit den drei Noctuas:
https://i.ibb.co/XLSty8z/6900.png


@Ex3

Hobbie - wenn ich ehrlich bin, habe ich seit Wochen kein Game auf dem PC gespielt.
Ich mag einfach das zusammenbauen , anpassen und optimieren. Insbesondere die Lautstärke. Wenn ich im IDLE irgandwas höre: verloren. Unter Last ähnlich, da darf man ausser ein sehr tiefes Surren nichts hören.
Ziel ist es irgendwann auch unter maximaler Last, absolut nichts zu hören. Wobei ich da aktuell sehr nah dran bin.

Bestelle mir jetzt Werkzeug um die Kabel des Netzteils selbst zu sleeven und auf die optimale Grösse zuzuschneiden.

Ex3cut3r
2022-04-30, 23:49:47
Ok, sollte kein Vorwurf, find es sogar sehr interessant was du da machst. ^^
Ich wäre/bin persönlich nur zu faul für sowas.

r3ptil3
2022-04-30, 23:56:33
Ok, sollte kein Vorwurf, find es sogar sehr interessant was du da machst. ^^
Ich wäre/bin persönlich nur zu faul für sowas.

Habe ich auch gar nicht als Vorwurf aufgenommen.

dildo4u
2022-05-10, 16:56:39
Gigabyte hat da gut am Kühler geschraubt könnte vermutlich 500 Watt vertragen.

Gz2wV7qYGVM

GerryB
2022-05-10, 17:14:28
Die GB ist wie immer die Kleinste vom Kühler/Lüfter@3x92 her.(500W = no go)
(macht nur Sinn bei kleinen Gehäusen, wo ne ordentliche Große net reinpasst)

https://www.techpowerup.com/review/sapphire-radeon-rx-6950-xt-nitro-pure/34.html

r3ptil3
2022-05-10, 17:18:24
Genau hinschauen, Gigabyte taktet fast 100 Mhz tiefer als bspw. die Sapphire Nitro.

Den besten Kühler hat die Sapphire Nitro (Pure).

gedi
2022-05-10, 18:05:07
Die Sapphire 6950 Pure scheint ne brauchbare Karte zu sein und der neue Treiber scheint auch legit

r3ptil3
2022-05-10, 20:17:45
Sapphire RX 6950 XT Nitro+ Pure

https://media.cdn.sapphiretech.com.cn/-/media/sites/sapphire/pim/product-images/11317_04_rx6950xtpure_nitro_16gddr6/11317_04_rx6950xt_nitro_pure_16gbgddr6_3dp_hdmi_c04_800x500.ashx?v=c5e70796a5054 502976fe547ca9cdc42

https://media.cdn.sapphiretech.com.cn/-/media/sites/sapphire/pim/product-images/11317_04_rx6950xtpure_nitro_16gddr6/11317_04_rx6950xt_nitro_pure_16gbgddr6_3dp_hdmi_c02_800x500.ashx?v=6cabab83edbf4 c7787d2c80e023adf0b

Ein richtiger Brocken.

vinacis_vivids
2022-05-10, 21:54:37
https://abload.de/img/2022-05-1021_35_11-satpjqk.png

GPU-CLK ist bei 2,7-2,8Ghz mit Lükü angekommen. Das ist ziemlich gut für eine Node 7nm. Vllt. sind da 3,0Ghz Wakü drin.

r3ptil3
2022-05-10, 22:09:53
Ist halt praktisch ein XTXH-Chip, da die RX 6950 XT auch mit 1.2V läuft.

In einem geschlossenen Gehäuse macht alles über 2.5Ghz mit 1.2V sowieso keinen Spass.

Die Sapphire Nitro+ Pure wäre dahingehend interessant, um sie auf 2.5-2.6Ghz mit möglichst tiefer Spannung, fast lautlos, zu betreiben.

r3ptil3
2022-05-14, 14:44:30
Der Preis der Sapphire Nitro Pure 6950 XT ist ja wirklich ein Witz.

Sapphire Nitro+ Pure RX 6950 XT: 1500 Euro
Sapphire Nitro+ Gaming OC RX 6950 XT: 1250 Euro

250 Euro Aufpreis für den besseren Kühler?

horn 12
2022-05-14, 15:19:29
Dies geht ja noch :-)

Der einziger Shop welcher eine bereits hat bei uns in Italien:

https://www.yeppon.it/p-sapphire-nitro-amd-radeon-1119078/?utm_source=trovaprezzi&utm_medium=comparatore&utm_term=11317-02-20G&utm_campaign=SAPPHIRE

vinacis_vivids
2022-05-20, 13:07:20
Cherry Picking vom feinsten :eek:
https://www.pcgameshardware.de/Teardown-Spiel-73677/Specials/PC-Game-Test-Benchmark-Voxel-Dynamic-Destruction-1394545/
https://abload.de/img/2022-05-2013_04_06-tegfkzc.png

Hier sieht man mal die wahre Stärke von RDNA 1.0/2.0

Async Compute, Takt, Cache, Compute Shaders usw. im vollem Gange.

Für Dynamische Physik-Spiele ist AMD absolute KING of the Hill :eek:

Raff
2022-05-20, 13:40:33
Yep, absoluter Radeon-Showcase derzeit. Dass Turing und Ampere schlicht "kaputt" sind, ist aber offensichtlich. GTX 1080 Ti vor RTX 3070. :ulol: Aber so kommt das nun mal heraus, auch auf einem AMD-basierten System mit Windows 10.

MfG
Raff

dargo
2022-05-20, 15:29:25
Lol... und das unter OpenGL. :ulol: Hat AMD da neben D3D11 auch bei OpenGL die Handbremse gelöst?

btw.
Dass aber 2022 noch was mit OpenGL released wird hätte ich echt nicht erwartet. :freak:

mironicus
2022-05-22, 12:03:22
Das Spiel Teardown läuft sogar auf dem Steam Deck ziemlich gut.

_e8EyTS_LCA

Raff
2022-05-22, 21:45:00
Mit maximalen Details ist das Ding aber ziemlich gemein. :D Hier ein 30-Minuten-Talk mit vielen Impressionen, was das Spiel so geil macht: https://www.youtube.com/watch?v=YCaXA0nvGZE

MfG
Raff

aufkrawall
2022-06-01, 02:41:04
Laut dem Nutzer reichen 16GB mit RDNA2 in Deathloop nicht aus, er muss die Texturdetails reduzieren X-D :
https://steamcommunity.com/app/1252330/discussions/0/4536825080742722248/#c4536825080754007492
Miese VRAM-Verwaltung des Spiels + ebensolche des Treibers = :uexplode:

Ex3cut3r
2022-06-01, 13:42:14
Das liegt eher an AMDs bzw. RDNA2 miserablen Speicher Management. Die PCGH im Rahmens Raff hat das schon bei FH5 angemerkt damals. Dort haben Sie beobachtet, dass 8GB Geforce wesentlich besser klar kamen, als RDNA2 Karten mit 8GB. ;)

Bei Deathloop z.B. habe ich keine Probleme @ 4K + DLSS Q + Maximale Texturen Details mit 12GB Geforce.

Neben einer einzigartigen Schwäche in RT sind Sie auch noch bescheiden was ihre Speicherverwaltung angeht.

basix
2022-06-02, 00:47:21
Mit maximalen Details ist das Ding aber ziemlich gemein. :D Hier ein 30-Minuten-Talk mit vielen Impressionen, was das Spiel so geil macht: https://www.youtube.com/watch?v=YCaXA0nvGZE

MfG
Raff

Ich habe mir gerade das Video und den Artikel dazu reingezogen. Man merkt, dass ihr begeistert seid :D Interessant auch die Performance-Metriken, wo GCN und RDNA basierte Karten sehr gut abschneiden. Das lässt auf performantes und gutaussehendes RT bei Konsolen hoffen, wenn die HW-RT Beschleunigung nicht alles hergeben kann.

Habe mir Teardown jetzt bei Steam gezogen, so Sachen muss man unterstützen.

Wenn ihr ein Interview mit dem Herrn Gustafsson zustande bringt, hätte ich zwei Fragen von meiner Seite:
- Kann man vom Prinzip her das Voxel-RT mit HW-RT kombinieren? Und wenn ja, was wäre eine denkbare Umsetzung? Ich sehe da z.B. Konsolen im Fokus
- Fragt doch bitte auch, ob zukünftig noch FSR 2.0 Support eingebaut wird? ;)

GrimReaper85
2022-07-07, 09:15:35
Wie gut undervoltt der 6900 XT? Es ist schwer, etwas im Netz zu finden, ich habe nur das gefunden:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12961912#post12961912
Aber ich interessiere mich mehr für 200-220W und vorzugsweise für SOTTR-Ergebnisse bei 1440p Highest, RT Off.

Lohnt es sich bei diesen Watt über 6800 überhaupt? Ich habe bereits die 6800 gekauft, frage mich aber immer noch nach der 6900 XT.
Ich weiß, dass 6600 XT auf 80W und 6800 auf 160W heruntergehen kann, aber ich habe keine Ahnung von 6900 XT. Ich hatte es tatsächlich, aber ich habe nichts unter 270W ausprobiert.

kmf
2022-07-07, 10:43:51
Wie gut undervoltt der 6900 XT? Es ist schwer, etwas im Netz zu finden, ich habe nur das gefunden:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12961912#post12961912
Aber ich interessiere mich mehr für 200-220W und vorzugsweise für SOTTR-Ergebnisse bei 1440p Highest, RT Off.
...Ich kann mir ned vorstellen, dass man mit einer 6900XT so weit runterkommt, ohne dass es zu einer Treiberrücksetzung kommt. Meine ist bei unter 260W mit 1120mV rein per Treibereinstellung. Stromaufnahme bewegt sich bei ~250-255W, Boost liegt bei 2300-2450 Mhz. Mit dem Morepowertool mögen noch ein paar Watt drin sein, ich hab's ned ausprobiert. Bei Reduzierung auf 1100mV und darunter kommt es bei mir beim Starten des Rechners zur Treiberrücksetzung. Eventuell ist mehr Undervolting drin, wenn man den min. und max. Boost reduziert. Ich hab in dieser Richtung ned getestet. Weil dann frag ich wohl zurecht, warum 6900XT?

GrimReaper85
2022-07-07, 11:09:26
Meins funktionierte auch nicht mit 1100 mV, als ich noch ein 760-W-Netzteil hatte, das mit 1200 mV nicht funktionierte.
Aber selbst mit einem 1200-W-Netzteil funktionierte es nicht einmal auf Lager, ständig Treiberfehler, also habe ich es zurückgegeben.

Für Undervolting und Leistungsbegrenzung habe ich MPT verwendet, dort ist es die eigentliche Spannungsobergrenze mit voreingestellter Spannungskurve. Ich glaube, ich habe sogar einige Ergebnisse wie 900 mV.
Radeon Software funktioniert durch tatsächliches Übertakten. Wenn Ihr Bestand also 2574 MHz bei 1200 mV beträgt und Sie 1125 mV einstellen, bedeutet dies tatsächlich, dass die GPU mit 2574 MHz bei nur 1125 mV arbeitet. In Spielen war es eigentlich stabil, aber 3DMark benötigte 1175 mV.

GrimReaper85
2022-07-07, 15:23:01
Ich habe eigentlich genug von meinen Ergebnissen, um zu wissen, dass es sich nicht lohnt, 6900 XT für 220W zu aktuellen Preisen von 630€ für 6800 und 900€ für 6900 XT zu kaufen. Die Leistung fällt beträchtlich von 1000 mV auf 975 mV, 12%. Das niedrigste, was sinnvoll ist, ist 240W.

Bei 220W ist es nicht viel besser als RX 6800, etwa 7%.

SOTTR, 1440p Highest, SMAAT2x
PL 380W - 174 FPS
PL 310W - 173 FPS
PL 270W - 170 FPS
PL 240W - 167 FPS

1150 mV (350W) - 174 FPS
1100 mV (310W) - 172 FPS
1050 mV (280W) - 169 FPS
1025 mV (260W) - 168 FPS
1000 mV (245W) - 165 FPS
975 mV (225W) - 145 FPS

nairune
2022-07-07, 16:58:01
Warum begrenzt du die Spannung, wenn du auf eine bestimmte TBP aus bist?
Setze einfach das Powerlimit auf den passenden Wert und fertig, dann hast du auch nicht so komische Effekte wie plötzlich massiv Leistung zu verlieren.

Mit 190W Powerlimit verliert meine 6900 XT ohne UV ziemlich genau 10% zum Standardsetting. Also immer noch ~20% schneller als eine 6800 non XT. Du hast da irgendwas falsch gemacht bei deinen Tests.

GrimReaper85
2022-07-07, 18:12:09
Leider ist es 5 Monate her, seit ich die RMA-Karte verkauft habe. Dann habe ich eine 3080 12GB gekauft, aber der Sommer ist sehr heiß und ich wollte etwas mit weniger Leistung ausprobieren.

Die Leistungs- oder Spannungsbegrenzung sollte die gleichen Ergebnisse liefern, da keine die Standardspannungskurve ändert, sie begrenzen sie nur an einem bestimmten Punkt.
Aber zumindest bei Nvidia ist UV sicherlich besser, die Leistungsbegrenzung funktioniert nicht gut, die letzten 2 Beiträge, die dies erklären:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13049513#post13049513
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13049620#post13049620

6900 XT ist sowieso teurer. Es ist 20% und nicht 30% schneller. Bei Unterspannung nur 10%. 10% für 43% mehr Geld, ich denke ich habe mit 6800 die richtige Wahl getroffen. Im Winter wäre es aber 20% schneller.

GrimReaper85
2022-07-07, 20:52:49
Du hast recht, Nairune, hier stimmte etwas nicht.
Das 145 FPS Ergebnis hatte nur CPU Render 181 FPS, das 165 FPS Ergebnis hat CPU Render 213 FPS. Außerdem sehe ich auf dem HWiNFO Screenshot, dass die maximale CPU Temperatur nur 63°C beträgt, mit 165 FPS waren es 74°C.
Es gab keinen großen Unterschied bei den GPU Takten, Durchschnitt 1980 vs. 1985 und maximal 2313 vs. 2332.

Ich habe tatsächlich ein gutes Ergebnis, aber das war immer noch mit Radeon Software und nicht mit MPT:
270W, 900 mV, 2200 MHz - 158 FPS und max. 180W ASIC
Stock ist 171 FPS, das heißt ich habe nur 8% verloren.

Ich bekomme 158 FPS auf der Fabrik 3080 12GB 390W. Also 210W weniger für das gleiche Ergebnis.
Ist dies die beste GPU, die es gibt (abgesehen von RT) und ich habe einen Fehler mit 6800 gemacht? Aber immerhin habe ich 270€ gespart.

Dies ist ein weiterer Beweis dafür, dass AMD 7700 XT nicht mit 12-16 GB herstellen konnte, genauso wie Nvidia 4070 nicht mit mehr als 10 GB herstellen konnte. Das würde bedeuten, dass sich höhere Karten nicht sehr gut verkaufen würden. Hier schon gut gesagt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13051299#post13051299

Niall
2022-08-04, 17:25:30
So, ich hab's dann auch mal wieder getan und werde meine wassergekühlte 1080 Ti vom Frühjahr 2017 in Rente schieben.
Hab (verhältnismäßig) günstig eine 6950 XT für 999€ im Referenzdesign geschossen, kommt ein EKWB Kühler drupp und los geht's - mal sehen was da so raus kommt.
Hab Lust auf Cyberpunk, RDR2 und Co. in hübsch ... :D

edit
So, Karte ist drin und unter Wasser. Hab mal eine Stunde lang diverse Benches und Stresstests laufen lassen, Temperaturen scheinen soweit okay für 25°C in der Bude. :D

vinacis_vivids
2022-11-02, 16:11:48
RDNA2 zeigt seine Muskeln:
https://abload.de/thumb/2022-11-0216_08_28-ca8tdqm.png (https://abload.de/image.php?img=2022-11-0216_08_28-ca8tdqm.png)

aceCrasher
2022-11-02, 16:23:30
RDNA2 zeigt seine Muskeln:
https://abload.de/thumb/2022-11-0216_08_28-ca8tdqm.png (https://abload.de/image.php?img=2022-11-0216_08_28-ca8tdqm.png)
"Basic Quality"??? Wie siehts mit Max. aus?

dildo4u
2022-11-02, 16:25:21
Ziemlich schäbig das ohne Quelle zu posten.


https://youtu.be/hZ4JDDCnOi0?t=460

vinacis_vivids
2022-11-02, 16:32:50
Es geht speziell um Gamer und Monitore mit 1440p@240hz. Das habe ich herausgestellt, RDNA2 ist da perfekt für solche schneller Shooter-Zwecke :tongue:

Raff
2022-11-04, 14:59:13
RDNA-2-Showcase Call of Duty Modern Warfare 2 (2022: Der 2022er-Reboot im Technik-Test mit Benchmarks von 23 GPUs (https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-2-2022-Spiel-73720/Specials/Technik-Test-mit-GPU-Benchmarks-1406475/3/)

6950 XT schlägt 3090 Ti. Das lässt für die 7900 XT(X) Gutes erahnen (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/).

MfG
Raff

Dr. Lloyd
2022-11-22, 15:21:34
Das lässt für die 7900 XT(X) Gutes erahnen (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/).
Danke für deine unermüdliche Arbeit! Solltest du den Artikel nochmals aktualisieren wollen, wären im prognostizierten Benchmark zur 7900 XTX die inzwischen finalen Werte der RTX 4080 interessant im Vergleich zu sehen.

Wiseman
2022-11-24, 01:03:38
Danke für deine unermüdliche Arbeit! Solltest du den Artikel nochmals aktualisieren wollen, wären im prognostizierten Benchmark zur 7900 XTX die inzwischen finalen Werte der RTX 4080 interessant im Vergleich zu sehen.

Dieser Bitte schließe ich mich an. Bis zum 13. Dezember ist es noch sooo lange hin. Bitte, Raffie. :biggrin:

pilzsammler2002
2022-12-09, 11:58:23
https://twitter.com/JirayD/status/1601036292380250112?s=20&t=d3es4Jx6n_9x5jXm0u5gGg

Das erklärt die teilweise "miserable" Performance von RDNA2...
Mal schauen wie es mit RDNA3 wird :)

Denniss
2022-12-09, 13:41:01
Hairworks 3.0?

vinacis_vivids
2023-09-03, 13:25:47
RDNA2 zeigt Zähne!
https://www.youtube.com/watch?v=vTNiZhEqaKk
https://abload.de/img/starfield2023hwu1080p4vevu.png

6950XT = RTX4080
72 fps = 72 fps