Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread
Seiten :
1
2
3
4
5
6
7
8
[
9]
10
11
12
13
14
15
RoNsOn Xs
2023-04-03, 11:25:26
Letztens hat sich nach dem Zurückstellen des Primärdisplays auf den Monitor die Refreshrate verändert. Passiert sonst nicht. Habe ich auch nur gemerkt, weil ich die Mausbewegung als nicht "glatt" empfand. 60fps würde ich auch nicht als butterweich bezeichnen. Wenn man allerdings nichts anderes gewohnt ist, bemerkt man das auch nicht sofort.
dargo
2023-04-03, 12:50:26
Ich bin jetzt mal gute 5 Minuten in der Forza Horizon 5 Welt mit einem Profil von 2,5Ghz/1092mV auf 144Hz limitiert gefahren. So ist die Karte natürlich der Oberhammer. :love2: Sooo sparsam muss sie nicht mal bei mir sein. :tongue:
https://abload.de/thumb/cx_2023-04-03_12-46-095ity.png (https://abload.de/image.php?img=cx_2023-04-03_12-46-095ity.png)
Edit:
Noch was für eine bessere Orientierung da ich das Messgerät gerade dran habe. Mit 230W TBP verbraucht der ganze Rechner hier hinter dem Netzteil nur 314W. Das ist heftig. :eek: Also im positiven Sinne. :tongue:
https://abload.de/thumb/unknown_2023.04.03-12vtdh8.jpg (https://abload.de/image.php?img=unknown_2023.04.03-12vtdh8.jpg)
In dieser Szene ist der Verbrauch natürlich jetzt ein wenig geringer da die 2,5Ghz um die 144fps zu halten gar nicht notwendig sind. Sieht man an anliegenden 2,4Ghz.
=Floi=
2023-04-03, 23:06:12
Gerade in einem Rennspiel mit schneller Bewegung sind 144Hz doch besonders wichtig :confused::confused:
Also das 4er ist so gut auf die konsolen optimiert, dass 60fps bei mir perfekt laufen. Wirklich ein perfektes beispiel für solch ein game.
Bei anderen games nehme ich auch mal mehr fps, aber mittlerweile gibt es echt ein paar, welche mit den einstellungen super gut laufen und die karte sparsam bleibt.
OgrEGT
2023-04-04, 06:29:07
AMD Radeon Software Adrenalin 23.4.1
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-4-1
horn 12
2023-04-04, 07:05:24
@Dargo
Dann geht die Karte Hellhound XTX Retour?
dargo
2023-04-04, 08:10:08
Boah... das ist aber auch komplett strange. Was zum Teufel macht der Treiber da indem er die Grafikkarte @Stocksettings einfach weiter nach oben innerhalb des Powerlimits und des Stock max. Boosttaktes boostet obwohl es überhaupt nichts bringt aufgrund von Framelimitierung durch Vsync von 144fps? :facepalm: Das kann doch nur ein Treiberbug bei Teillast sein oder wie seht ihr das? Einen Hardwaredefekt würde ich hier generell ausschließen wollen da eine manuelle max. Boosttakt-Verschiebung nach unten wie zu erwarten den Verbrauch innerhalb der vorgegebenen Spannungskurve senkt.
Stocksettings Silent-Bios:
https://abload.de/thumb/unknown_2023.04.03-082iia8.jpg (https://abload.de/image.php?img=unknown_2023.04.03-082iia8.jpg)
2,5Ghz/1090mV Profil:
https://abload.de/thumb/unknown_2023.04.03-0861cvu.jpg (https://abload.de/image.php?img=unknown_2023.04.03-0861cvu.jpg)
2,5Ghz/1150mV Profil (ergo Stock max. Spannung):
https://abload.de/thumb/unknown_2023.04.03-08wcfsm.jpg (https://abload.de/image.php?img=unknown_2023.04.03-08wcfsm.jpg)
Nur weil ich die Graka nicht unnötig so hoch boosten lasse (fps sind ja gleich) habe ich 73W weniger. Das ist doch komplett verrückt. :crazy: Verschiebe ich die max. Spannung auf 1090mV sind es dann sogar 95W weniger.
Mir hat das gestern keine Ruhe gegeben und ich habe gerade eben noch was ausprobiert um einen User-/ bzw. Bedienungsfehler meinerseits definitiv auszuschließen. Zur Erinnerung... ich "simuliere" Stocksettings die Stock V/F-Kurve mit einem manuellen Eingriff indem ich 2965Mhz und 1150mV wähle weil der Treiber immer wieder bei der Frequenz etwas unterschiedliche Werte verwendet. Jetzt hatte ich den Verdacht, dass die Grafikkarte bei einem manuellen Eingriff gezwungen wird trotz Limitierung durch fps bsw. Vsync weiter nach oben zu boosten. Auch wenn ich so eine Programmierung der Software für bescheuert halten würde. Deshalb habe ich jetzt die V/F-Kurve wirklich bei Standard gelassen, sprich GPU-Tuning deaktiviert. Es ändert sich aber nichts, oder besser gesagt kaum.
Stocksettings mit Silent Bios + 144Hz Limit.
https://abload.de/thumb/unknown_2023.04.04-07iaiak.jpg (https://abload.de/image.php?img=unknown_2023.04.04-07iaiak.jpg)
Vorher mit manuellen Eingriff @2965Mhz/1150mV war der Verbrauch etwas höher aus dem einfachen Grund weil diesmal sich der Treiber entschieden hat (die Gründe dahinter verstehe ich immer noch nicht außer Bugs) ein Profil von 2890Mhz/1150mV zu verwenden.
https://abload.de/thumb/fh5ddftx.jpg (https://abload.de/image.php?img=fh5ddftx.jpg)
Zur Erinnerung... jede Frequenzverschiebung beeinflusst auch die Spannung innerhalb der vorgegebenen Spannungskurve und wenn da plötzlich als max. Boost 2890Mhz anstatt 2965Mhz verwendet werden ist der reale Boost logischerweise geringer, die Spannung ebenfalls und somit auch der Verbrauch.
Edit:
Weitere Verbrauchsreduzierung in Idle mit dem neuen Adrenalin 23.4.1. Das ist schon verdammt nah an RDNA2. :up:
83359
@Dargo
Dann geht die Karte Hellhound XTX Retour?
Ich bin noch unentschlossen.
Der Kühler der Hellhound hat mich dermaßen verzaubert und aus den Socken gehauen, dass ich mich nur ungern von der Karte wieder trennen möchte. Kühlung hat bei mir die höchste Priorität, erst danach kommen solche Sachen wie Abwärme und Performance. Nach dem ersten kleinen Schock über die imho absurde Abwärme von ~350W @Stock sehe ich das alles etwas gelassener seitdem ich die nötigen Stellschrauben kenne um den Durst zu bändigen. Für mich war der Umstieg auf RDNA3 etwas neu da ich hier mit Profilen arbeiten muss wo die Karte ins Taktlimit und nicht Powerlimit läuft. Ich bevorzuge eigentlich Zweiteres da ich bei einem Powerlimit immer einen garantierten Peak an Abwärme habe womit ich besser arbeiten kann. Bei RDNA3 komme ich leider nicht unter ~312W im Peak dank bescheuerten Entscheidungen bei AMD (dabei hätten zumindest mir bereits max. -20% vollkommen gereicht) und so ist man dann halt gezwungen mit Taktlimit zusätzlich zu arbeiten. Mittlerweile gefällt mir die Karte immer mehr wenn man sie minimal einbremst.
Mich ärgert aber etwas, dass ich nicht gleichzeitig die RX 7900XT Hellhound testen kann, die hat nämlich den gleichen Kühler und dort könnte ich als Peak ~283W einstellen, was einfach besser in mein Nutzungsprofil passt. Nur macht so eine RX 7900XT auf der anderen Seite gar keinen Sinn bei 899€ (aktuell sogar 909€) wenn die RX 7900XTX 999€ gekostet hat. Dann lieber die RX 7900XTX noch ein wenig mehr einbremsen. Denn eine RX 7900XT wird niemals bei gleichem Verbrauch so performen wie eine RX 7900XTX auf ähnlichen Verbrauch eingebremst. Dh. die RX 7900XT kann nur über den Preis gewinnen. Und dafür sind die aktuellen Preise einfach zu hoch vs. die 999€ der RX 7900XTX.
Selbst wenn ich die Karte behalte habe ich hier aber noch ein ziemlich blödes Problem. Ich kann bei RDNA3 wie gesagt nicht mehr die Freesync-Range ändern. Und mit 90Hz zu spielen wäre ein deutlicher Spaßdämpfer. Zumal es dann eher 87fps wären um den Vsync-Lag zu minimieren. Also muss ich mir noch zügig einen neuen Monitor mit 40/48-144Hz Freesync kaufen. Und der Monitormarkt ist momentan ziemlich langweilig. Ergo müsste ich da wieder einen größeren Kompromiss eingehen. Wobei... ich glaube laut HWU sind brauchbare 1440p Monitore mittlerweile mit ~300-400€ ziemlich günstig geworden, wäre also als Übergang zu einem richtigen guten Bildschirm in den nächsten 2-3 Jahren jetzt kein Beinbruch.
Edit 2:
Hier der Beweis weil ich gerade den neuen Adrenalin 23.4.1 drauf habe. Diesmal hat sich der Treiber ein Profil von 2990Mhz/1150mV ausgesucht. ;D Dann boostet die Karte halt bis zum Powerlimit.
https://abload.de/thumb/forzahorizon5_2023.04pcfb0.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04pcfb0.jpg) https://abload.de/thumb/fh5_1lwiks.jpg (https://abload.de/image.php?img=fh5_1lwiks.jpg)
Drehe ich das PT mit 115% weiter auf geht der Verbrauch noch höher trotz 144Hz Limit. Der Boost ist hier sogar etwas geringer aufgrund von höherer, real anliegenden Spannung. :facepalm:
https://abload.de/thumb/forzahorizon5_2023.04t5fo7.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04t5fo7.jpg)
Da ist doch der ganze Algorithmus beim Treiber im Eimer sofern Frames limitiert werden und die Stock V/F-Kurve verwendet wird oder stehe ich gerade auf dem Schlauch?
Edit 3:
Um einen Fehler in der Applikation FH5 auszuschließen noch CP77 sich angeschaut. CP77 verhält sich exakt genau so bei 144Hz Limit.
Stock vs. 2,4Ghz/1150mV
https://abload.de/thumb/cyberpunk2077_2023.0498iyt.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.0498iyt.jpg) https://abload.de/thumb/cyberpunk2077_2023.04uedws.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04uedws.jpg)
Werden die Frames stärker limitiert verhält sich die Karte erwartungsgemäß korrekt. :uponder:
Stock vs. 2,4Ghz/1150mV
https://abload.de/thumb/cyberpunk2077_2023.04x3d6d.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04x3d6d.jpg) https://abload.de/thumb/cyberpunk2077_2023.04lrcac.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04lrcac.jpg)
btw.
Interessante Beobachtung beim Adrenalin 23.4.1. Ich habe mir jetzt öfter den Wattman im Wechsel angeschaut und jedes Mal bekomme ich jetzt 2990Mhz/1150mV zu Gesicht. Möglicherweise hat AMD endlich diese Varianz im max. Boost gefixt. Aber dafür ist es imo noch etwas zu früh um das endgültig zu sagen. Ich behalte das mal im Auge.
dargo
2023-04-04, 11:10:54
Verdammt... ich hatte hierbei einen Denkfehler bei den 144Hz. Man kann das nicht einfach auf eine einzelne Szene runterbrechen. Zudem sind Frames nur ein Durchschnitt der Frametimes in einer Sekunde. Nur weil in einer Szene das Profil mit einem 144Hz Limit die gleichen Frames ausspuckt heißt das gar nichts.
Hier mal der Benchmark von CP77 mit 144Hz Limit wo es auch einige Szenen gibt wo die Karte keine 144fps halten kann und genauso gibt es Szenen wo die Karte über 144fps ohne Vsync bzw. Framelimit geht. Also ein guter Mix.
Stocksettings Silent-Bios (2990Mhz/1150mV)
https://abload.de/thumb/cx_2023-04-04_10-56-5hgc9m.png (https://abload.de/image.php?img=cx_2023-04-04_10-56-5hgc9m.png) https://abload.de/thumb/cyberpunk2077_2023.04wvdkb.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04wvdkb.jpg)
2,4Ghz/1150mV
https://abload.de/thumb/cx_2023-04-04_10-57-0yvi0o.png (https://abload.de/image.php?img=cx_2023-04-04_10-57-0yvi0o.png)
2,5Ghz/1150mV
https://abload.de/thumb/cx_2023-04-04_10-57-0bvcrd.png (https://abload.de/image.php?img=cx_2023-04-04_10-57-0bvcrd.png) https://abload.de/thumb/cyberpunk2077_2023.047dcji.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.047dcji.jpg)
2,6Ghz/1150mV
https://abload.de/thumb/cx_2023-04-04_10-57-02ffng.png (https://abload.de/image.php?img=cx_2023-04-04_10-57-02ffng.png)
Man sieht ja sehr schön, dass je weiter ich den Takt innerhalb der Default Spannungskurve anhebe umso näher komme ich bei der Performance an das Stock-Ergebnis und an den Stock-Verbrauch ran. Das 2,6Ghz/1150mV Profil war schon bis auf 0,6avg.fps am Stock-Profil dran. Insofern passt alles. :redface:
Um das mal zu komplettieren jetzt mit UV.
2,7Ghz/1090mV Profil + Cut bei ~312W mit 90% PT
https://abload.de/thumb/cx_2023-04-04_11-22-2wefkb.png (https://abload.de/image.php?img=cx_2023-04-04_11-22-2wefkb.png) https://abload.de/thumb/cyberpunk2077_2023.04axd4g.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04axd4g.jpg)
Soo viel (37W) lässt sich also gar nicht einsparen wenn man nicht auf wenige Prozente Performance vs. Stock verzichten möchte. Mit Speichertuning nicht gerade an der Kotzgrenze (sowas verwende ich nicht) lassen sind sicherlich 1-2% noch rausholen die man dann in weitere Wattage-Einsparung investieren könnte. Das schaue ich mir als nächstes an.
PS: also 5 zusätzliche Wattchen (304W im Schnitt anstatt 309W) lassen sich mit einem Profil von 2,59Ghz/1090mV + Cut bei ~312W mit 90% PT und +100Mhz beim Speicher einsparen. Zumindest mit einem 144fps Limit. Ohne Framelimit kann das wieder anders aussehen.
RoughNeck
2023-04-04, 12:09:51
Hotspot Temp. ist sehr niedrig, selbst mit fast 3GHZ.
Die 1150mV sind Stock?
dargo
2023-04-04, 12:17:28
Die 1150mV sind Stock?
Yes, bei max. Boosttakt wohlgemerkt. :)
Idle kann ich noch mal toppen. ;D
83360
Bei RDNA2 waren es mindestens 7 Wattchen, allerdings ASIC und keine TBP!
btw.
Da fällt mir gerade ein... schnelles Timing bringt bei RDNA3 beim Speicher gar nichts. Zumindest konnte ich bisher keinen Vorteil messen.
Wiseman
2023-04-04, 16:17:47
btw.
Da fällt mir gerade ein... schnelles Timing bringt bei RDNA3 beim Speicher gar nichts. Zumindest konnte ich bisher keinen Vorteil messen.
Schnelles Timing muss man Spiel für Spiel überprüfen. Bei einem bringts was, beim anderen nichts. Ich glaube mich erinnern zu können, dass es in Far Cry 6 etwas bringt.
x-dragon
2023-04-05, 00:17:35
Mal eine kurze Frage, kann man die 7900 XT mit einem 550 Watt-Netzteil (https://geizhals.de/corsair-rmx-series-rm550x-2018-cp-9020177-eu-a1840239.html) mit einem 5800X 3D zusammen nutzen, oder doch besser mit 650+Watt aufrüsten? :redface:
vinacis_vivids
2023-04-05, 00:28:50
Ich habe ein 1000W (Platinum) und ein 1200W (Titanium) Netzteil.
Der Wirkungsgrad ist sehr wichtig, um Strom zu sparen. Sollte generell über 90% sein, besser 93-95% Wirkung bei 50-60% Leistung. Also bei einem 1000W NT ~500-600W Belastung.
OgrEGT
2023-04-05, 01:27:44
Mal eine kurze Frage, kann man die 7900 XT mit einem 550 Watt-Netzteil (https://geizhals.de/corsair-rmx-series-rm550x-2018-cp-9020177-eu-a1840239.html) mit einem 5800X 3D zusammen nutzen, oder doch besser mit 650+Watt aufrüsten? :redface:
Kommt wohl auch darauf an ob es ein hochwertiges Netzteil ist... Du kannst ja mal bei Igorslab.de schauen welche Lastspitzen die 7900XT erzeugt. Unter Last werden da weit mehr als 300W kurzzeitig erzeugt die dein Netzteil zur Abschaltung zwingen könnten... grundsätzlich ist es so wie v_v schon gesagt hat dass man das Netzteil so dimensionieren sollte um in einem ordentlichen Wirkungsgrad zu arbeiten...
gbm31
2023-04-05, 07:40:24
Ich hatte mit meinem Corsair 850W Single Rail keine Probleme mit einer 7900XTX MBA und einem 5800X auf einem X570.
(bis auf dass die Karte wirklich 2 Kabel zum NT haben wollte)
GerryB
2023-04-05, 07:46:56
Die Lastspitzen bei Igor sind ja in der Regel sehr kurz, so das in diesen Bereichen die Kondensatoren wichtig sind.
Es gibt dann nur einen wirklich wichtigen Wert und der ist beim RMX550 seeehr gut.
HoldUpTime = 22ms, soll heißen alle Spitzen <20ms sind verkraftbar.
(solange man net mit PL0...+15 zulange+zuoft die Kondis stresst, ... mit PL-10 sicher ohne Probleme
Wer jetzt vor hat mit 5800x3D+7900xt ständig mit PL+15 zu spielen, sollte vllt. nach nem 750W NT schauen)
https://www.cybenetics.com/d/cybenetics_enO.pdf
btw.
Bei den neuen ATX 3.0 sind die Spitzen dann auch extra aufgeführt.
(bei den älteren NT geht ein Vgl. nur über die HoldUp Time)
dargo
2023-04-05, 08:36:12
Puh... also in 4k + FSR 2.x_Q säuft das Teil schon ordentlich, da hängst du ja praktisch dauerhaft im 312W PT-Limit trotz 2,5Ghz/1090mV Profil. :(
https://abload.de/thumb/godofwar_2023.04.05-0wlefv.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-0wlefv.jpg)
Da hast du bloß 2,4Ghz bei mickrigen 777mV anliegen und das Ding säuft trotzdem wie sonst was. :(
GerryB
2023-04-05, 09:03:15
Bei <2400Mhz geht im Timespy 0.7V.
Bei >2400Mhz muss mindestens 1.1V anliegen um einigermassen stabil zu sein.(x)
meint BigYundol im PCGH-Thread (Er nimmt glaube immer PL-10 für 24/7, falls Das auch nen Einfluss auf das o.g. hat)
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-laberthread.624844/page-132#post-11265882
(x) gehe mal davon aus, das sein Chip etwas schlechter ist als bei @dargo, wo anscheinend bei ca. 1,090+X schon zickige Games funzen
Thunder99
2023-04-05, 09:10:25
Mal eine kurze Frage, kann man die 7900 XT mit einem 550 Watt-Netzteil (https://geizhals.de/corsair-rmx-series-rm550x-2018-cp-9020177-eu-a1840239.html) mit einem 5800X 3D zusammen nutzen, oder doch besser mit 650+Watt aufrüsten? :redface:
Ja, kann man wenn die kombinierte Leistung der 12V Schiene nicht die maximale Verlustleistung von CPU und GPU abzüglich Effizienz die Leistung überschreitet.
Reserven werden wohl kaum vorhanden sein. Besser wäre also auf ein 650W Modell zu gehen wie z.B. das beQuiet Straight Power 11 Platinum 650W
Crazy_Chris
2023-04-05, 09:20:44
Ich betreibe hier genau die Kombi: 5800X3D + 7900XT + Straight Power 11 Platinum 650W. Läuft problemlos. ;)
Laut Igor sind die Lastspitzen schon recht hoch und da das Corsair doch schon relativ alt ist würde mich eine Abschaltung oder Blackscreens bei heftigem Lastwechsel nicht überraschen.
guckst du:
https://www.igorslab.de/amd-radeon-rx-7900xtx-und-rx-7900xt-im-test-ein-riesiger-schritt-nach-vorn-und-ein-kleiner-zur-seite/11/
Der Wirkungsgrad ist sehr wichtig, um Strom zu sparen. Sollte generell über 90% sein, besser 93-95% Wirkung bei 50-60% Leistung. Also bei einem 1000W NT ~500-600W Belastung.
Effizienz ist schön und gut aber dafür kauft man kein neues Netzteil wenn es das alte noch tut. Das rentiert sich nie und nimmer.
Bei modernen Netzteilen ist ausserdem der Wirkungsgrad auch über einen sehr viel größeren Bereich 20% bis 90% Auslastung ähnlich hoch. Sieht man hier z.B:
https://www.computerbase.de/2021-09/550-watt-netzteile-test-be-quiet-cooler-master/3/#abschnitt_effizienz
dargo
2023-04-05, 09:27:27
Bei <2400Mhz geht im Timespy 0.7V.
Bei >2400Mhz muss mindestens 1.1V anliegen um einigermassen stabil zu sein.(x)
meint BigYundol im PCGH-Thread (Er nimmt glaube immer PL-10 für 24/7, falls Das auch nen Einfluss auf das o.g. hat)
Das ergibt überhaupt keinen Sinn was der Typ da schreibt. :freak: Wahrscheinlich meint er bei <2,4Ghz die reale Spannung und bei >2,4Ghz die max. Spannung in der Spannungskurve. Maximale Verwirrung gestiftet. :lol:
The_Invisible
2023-04-05, 09:50:49
Puh... also in 4k + FSR 2.x_Q säuft das Teil schon ordentlich, da hängst du ja praktisch dauerhaft im 312W PT-Limit trotz 2,5Ghz/1090mV Profil. :(
https://abload.de/thumb/godofwar_2023.04.05-0wlefv.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-0wlefv.jpg)
Da hast du bloß 2,4Ghz bei mickrigen 777mV anliegen und das Ding säuft trotzdem wie sonst was. :(
4k ist halt nochmal eine andere Liga wo die GPU nochmal besser ausgelastet wird und niedrigere Taktraten hat.
Meine 4090 schwankt trotz UV und gleichem Takt/Spannung auch so zwischen 280 - 380W je nach Game, schlimmste ist noch immer Q2 RTX. Diese Gen ist es auf beiden Seiten wohl besonders auffällig.
dargo
2023-04-05, 11:48:14
Dass eine RTX 4090 ne Schluckschleuder noch eine bis zwei Stufen über RX 7900XTX ist ist jetzt keine neue Erkenntnis wenn schon der IHV mit max. 450W wirbt. :) Sowas ist für mich völlig indiskutabel. Wäre aber echt übel wenn das die neue Normalität wird bei mit Shadern voll gepumpten Grafikkarten.
btw.
Der gesamte Rechner zieht hier bei einem Cut von 312W an der Graka schon stolze 415W hinter dem NT. :freak: Das System zog mit handoptimierten RX 6800XT im Peak 375W, was eigentlich auch schon nicht gerade wenig ist.
GerryB
2023-04-05, 12:18:40
Die neuen GPU´s lasten die CPU ganz anders aus, wo dann auch ein Teil der Mehrgesamtwatt herkommen.
Ob dann auch noch die Gehäuselü. temp.geregelt etwas höher laufen, NT-Effizienz ... etc.
(da summiert sich dann auch Kleinvieh)
Langlay
2023-04-05, 12:36:13
Dass eine RTX 4090 ne Schluckschleuder noch eine bis zwei Stufen über RX 7900XTX ist ist jetzt keine neue Erkenntnis wenn schon der IHV mit max. 450W wirbt. :) Sowas ist für mich völlig indiskutabel. Wäre aber echt übel wenn das die neue Normalität wird bei mit Shadern voll gepumpten Grafikkarten.
Die 450W zieht die 4090 quasi nie und mit meinem vorläufigen UV (noch nicht 100% auf Stabilität ausgetestet) zieht die Karte unter 300W.
Aber die 4090 ist auch der falsche Vergleich, die 4080 ist zur 7900XTX der bessere Vergleich und die 4080 ist mit UV <250W.
Ist halt nur 400-500€ zu teuer die 4080, sonst wäre es ne super Karte.
dargo
2023-04-05, 12:43:45
@Langlay
Muss ich mir in die Signatur schreiben, dass ich keine Geforces kaufe? :freak: Und hört mir mit den Märchen auf RTX 4090 zieht unter 300W. In jedem Review sieht man was eine RTX 4090 zieht wenn man sie arbeiten und nicht in irgendwelche Limits laufen lässt wo sie verschnaufen darf. NV hat bei der RTX 4090 den Boosttakt auch recht konservativ gewählt, so dass die Graka in ein Taktlimit bei vielen Gaming-Workloads läuft. Wenn ein N31 in ein tieferes Taktlimit läuft säuft der auch weniger. Ada und N31 haben eine völlig unterschiedliche Wahl beim Betriebspunkt. N31 läuft praktisch immer (außer eventuell extrem niedrige Shaderlast wie zb. Origins) in ein Powerlimit weil der max. Boosttakt @Stock so hoch gewählt wurde.
Edit:
Hier hast du ein nettes Beispiel. Lass die RTX 4090 auf bis zu ~3Ghz boosten und schon hast deine 450W voll bzw. sogar einiges drüber.
https://youtu.be/sfGfauscnQ4?t=107
Zudem hat der Typ womöglich noch an der Spannungskurve gedreht, ergo UV. Jedenfalls kann ich mir schwer vorstellen, dass der Typ seine Graka innerhalb der Stock-Spannungskurve betreibt. Das Ding steht afaik unter Wasser, was nochmal paar Wattchen einpart.
The_Invisible
2023-04-05, 13:16:43
Dass eine RTX 4090 ne Schluckschleuder noch eine bis zwei Stufen über RX 7900XTX ist ist jetzt keine neue Erkenntnis wenn schon der IHV mit max. 450W wirbt. :) Sowas ist für mich völlig indiskutabel. Wäre aber echt übel wenn das die neue Normalität wird bei mit Shadern voll gepumpten Grafikkarten.
btw.
Der gesamte Rechner zieht hier bei einem Cut von 312W an der Graka schon stolze 415W hinter dem NT. :freak: Das System zog mit handoptimierten RX 6800XT im Peak 375W, was eigentlich auch schon nicht gerade wenig ist.
380W ist max unter Q2RTX@UHD, bei "normalen" Spielen so 300-320W.
@Langlay
Teste mal Q2RTX@UHD, da musst schon sehr viel UV haben damit die 300W reichen.
Aber ja, die Wattzahlen gehen immer weiter nach oben, würde mich net wundern wenn NV demnächst die >500W austestet. Auf Standard 450W wäre mir das auch zu viel.
Aja sorry den Thread hier zuzuspammen
Langlay
2023-04-05, 13:23:11
@Langlay
Muss ich mir in die Signatur schreiben, dass ich keine Geforces kaufe? :freak: Und hört mir mit den Märchen auf RTX 4090 zieht unter 300W. In jedem Review sieht man was eine RTX 4090 zieht wenn man sie arbeiten und nicht in irgendwelche Limits laufen lässt wo sie verschnaufen darf. NV hat bei der RTX 4090 den Boosttakt auch recht konservativ gewählt, so dass die Graka in einen Taktlimit bei vielen Gaming-Workloads läuft. Wenn ein N31 in ein tieferes Taktlimit läuft säuft der auch weniger. Ada und N31 haben eine völlig unterschiedliche Wahl beim Betriebspunkt. N31 läuft praktisch immer (außer eventuell extrem niedrige Shaderlast wie zb. Origins) in ein Powerlimit weil der max. Boosttakt so hoch gewählt wurde.
Edit:
Hier hast du ein nettes Beispiel. Lass die RTX 4090 auf bis zu ~3Ghz boosten und schon hast deine 450W voll bzw. sogar einiges drüber.
https://youtu.be/sfGfauscnQ4?t=107
Zudem hat der Typ womöglich noch an der Spannungskurve gedreht, ergo UV. Jedenfalls kann ich mir schwer vorstellen, dass der Typ seine Graka innerhalb der Stock-Spannungskurve betreibt. Das Ding steht afaik unter Wasser, was nochmal paar Wattchen einpart.
Mit 450W zieht die Karte quasi nie meinte ich natürlich nicht ne Karte die bis zu Kotzgrenze übertaktet ist.
Am Wochenende wenn ich die Karte ausreichend kennengelernt habe, werde ich mal ein paar Benchmarks posten (Stock vs. UV) mit der 4080/4090.
dargo
2023-04-05, 13:29:55
Och Gottchen, dann nimm halt eine Referenz RTX 4090 von CB wo sie in Doom @4k 432W säuft. Alles mit Stocksettings.
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/3/#abschnitt_leistungsaufnahme_im_detail
Ist jetzt sooo viel besser. :rolleyes: Zumal ich bisher nicht mal weiß ob Doom eine sehr hohe Shaderlast hat. Der Stromverbrauch in einem APTR würde mich mal da interessieren.
btw.
GOW hat offenbar auch eine recht ordentliche Shaderlast. Und das ist kein natives 4k, sondern 4k + FSR2.x_Q. Also 1440p GPU-Last und etwas FSR Overhead (afaik ~2ms).
https://abload.de/thumb/godofwar_2023.04.05-1ozdoq.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-1ozdoq.jpg) https://abload.de/thumb/godofwar_2023.04.05-1biiln.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-1biiln.jpg)
Links 2.4Ghz/1090mV Profil, rechts 2,2Ghz/1090mV Profil. Einfach nur verrückt dieser Durst.
OgrEGT
2023-04-05, 13:52:36
Welche Priorität hast du?
- Maximaler Verbrauch konstant und innerhalb diesem Budget kann sich die Karte bewegen bei variablem Takt und FPS
- Maximaler Takt konstant bei variablem Verbrauch und FPS
- Maximale FPS konstant wegen Freesync bei variablem Verbrauch und Takt
Meiner Meinung nach also für mich persönlich ist die dritte Option die ideale insb wenn zusätzlich das Powerbudget begrenzt wird. Das kann man gut global vorgeben und erreicht dass man so je nach Auflösung und passend zur Leistungsfähigkeit der GPU so konstant wie möglich im Freesync und damit im sparsam(er)en Teillastbereich operiert...
Bei dir ist das Problem mit den 312W... die dir scheinbar zu hoch sind?
dargo
2023-04-05, 14:36:43
Bei dir ist das Problem mit den 312W... die dir scheinbar zu hoch sind?
Erstens das wenn sie dauerhaft anliegen und zweitens ist es für mich aus technischer Sicht ein Schock wie durstig ein voller N31 selbst mit zum Fertigungsprozess relativ niedrigen Frequenzen und der daraus resultierenden niedrigen Voltage bei hoher Shaderlast ist. Mir kann keiner erzählen, dass das so geplant war. Imho tendiere ich jetzt wo ich N31 live erlebe auch dazu zu spekulieren da ist irgendwas broken by Design. Irgendeine ungeplante Leckage oder sowas. Ich hoffe wirklich dem ist so und AMD hat das in "letzter Minute" erkannt wodurch sich N32 dermaßen verzögert, dadurch aber ein besseres Gesamtpaket liefert. Auch hoffe ich, dass wir Ende 2023 einen gefixten Refresh von N31 sehen der nicht mehr so durstig ist. Dann wird AMD zwar sicherlich wieder bei einer RX 7950XTX bei 355W bleiben (nur wird sie bei hoher Shaderlast dann wesentlich höher boosten weil nicht mehr so viel Verbrauch), aber so eine RX 7950XT mit im besten Fall max. 300W (90% PT wären dann 270W) wäre dann schon eher mein Fall.
Sollte das alles normal sein, sprich das gesamte Portfolio von RDNA3 ist zu durstig und zukünftige Generationen kommen wieder mit so hohen Wattagen im High-End dann können die IHVs mich am Ars.. lecken. In dem Fall ist für mich persönlich High-End tot. Gott sei Dank bin ich noch bei 1440p geblieben. Hatte schon mit der RX 7900XTX mit 4k leicht geliebäugelt. Mit FSR2.x_Q dann natürlich.
Exxtreme
2023-04-05, 14:39:21
Kann sein, dass die das per Treiber fixen werden. Steht auch in den Treiber-Informationen drin:
* High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
Möglicherweise hilft das auch in Nicht-Idle-Situationen.
dargo
2023-04-05, 14:48:19
Ich habe hier nichts mit high-Idle Power. Oder sind für dich 10W TBP in Idle bei so einem Boliden jetzt viel? Das ist praktisch der gleiche Wert wie bei N21. Über +/-1W brauchen wir nicht reden.
BlacKi
2023-04-05, 14:58:38
Sollte das alles normal sein, sprich das gesamte Portfolio von RDNA3 ist zu durstig und zukünftige Generationen kommen wieder mit so hohen Wattagen im High-End dann können die IHVs mich am Ars.. lecken. In dem Fall ist für mich persönlich High-End tot.
https://emojings.com/wp-content/uploads/2020/03/Grimacing-Face-1.png
AMD expects GPUs to need 600W of power in 2025
Read more: https://www.tweaktown.com/news/87281/amd-expects-gpus-to-need-600w-of-power-in-2025/index.html
https://static.tweaktown.com/news/8/7/87281_03_amd-expects-gpus-to-need-600w-of-power-in-2025_full.png
dargo
2023-04-05, 15:29:58
Diesen Kernschrott kann AMD behalten. :P
BlacKi
2023-04-05, 15:38:49
niemand zwingt einen. alles optional. einmal durch die hose atmen. es wird weiterhin grafikkarten unter 250w geben und die werden sogar recht günstig sein. mit den fortschritten bei streaming und bildhochrechnungsverfahren bin ich komplett tiefenentspannt was die zukunft bringt.
dargo
2023-04-05, 15:47:02
niemand zwingt einen. alles optional. einmal durch die hose atmen. es wird weiterhin grafikkarten unter 250w geben und die werden sogar recht günstig sein.
Witzbold... was nützt mir das wenn ich im gleichen Powerbudget für Faktor 2 (im besten Fall) bei der Performance bald 4-5 Jahre warten muss? Ganz tolle Entwicklung. :uclap:
Exxtreme
2023-04-05, 16:27:30
Und zurück zum Thema bitte.
btw.
GOW hat offenbar auch eine recht ordentliche Shaderlast. Und das ist kein natives 4k, sondern 4k + FSR2.x_Q. Also 1440p GPU-Last und etwas FSR Overhead (afaik ~2ms).
https://abload.de/thumb/godofwar_2023.04.05-1ozdoq.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-1ozdoq.jpg) https://abload.de/thumb/godofwar_2023.04.05-1biiln.jpg (https://abload.de/image.php?img=godofwar_2023.04.05-1biiln.jpg)
Links 2.4Ghz/1090mV Profil, rechts 2,2Ghz/1090mV Profil. Einfach nur verrückt dieser Durst.
Wenn du wirklich die Spreu vom Weizen trennen möchtest, dann nimm A Plague Tale: Requiem. Mir ist kein anderes Spiel bekannt, das alle GPU-Architekturen gleichermaßen in die Power-Mangel nimmt. :cool:
MfG
Raff
dargo
2023-04-05, 17:54:13
Guckst du hier Raff.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13272334&postcount=1964
Ich hatte nicht umsonst nach dem Verbrauch einer RTX 4090 @4k nativ paar Posts über diesem in APTR gefragt. ;)
Mir ist kein anderes Spiel bekannt, das alle GPU-Architekturen gleichermaßen in die Power-Mangel nimmt. :cool:
Hmm... also mein RDNA2 fühlte sich auch dort puddel wohl.
2bA_6HSqxTg
Das sind nur ca. 100-150Mhz weniger als in sonstigen Spielen bei einem gedrosselten Durst von 226W ASIC. Ist jetzt aber nicht exakt vergleichbar. Das ist nicht nativ 1440p sondern 1800p + FSR2.1_Q. N21 ist aber auch nicht so mit Shadern vollgestopft.
BlacKi
2023-04-05, 18:08:00
Ich hatte nicht umsonst nach dem Verbrauch einer RTX 4090 @4k nativ in APTR gefragt. ;)
https://youtu.be/tBbuPwUHu1A?t=87
aufkrawall
2023-04-05, 18:14:44
Hmm... also mein RDNA2 fühlte sich auch dort puddel wohl.
Die 6700 XT OC zieht hier in dem Spiel um die 200W ASIC, was definitiv überdurchschnittlich ist. Die meisten Spiele sind eher bei ~180W.
dargo
2023-04-05, 18:18:26
@Blacki
Merci... bleibt noch unter 450W also. Das ist aber das was ich meinte... NV lässt die Karte in ein Taktlimit @Stock laufen. Deshalb werden oft die 450W nicht ausgeschöpft. Einfach 100Mhz mehr beim Boost zulassen und schon dürften die voll werden.
Die 6700 XT OC zieht hier in dem Spiel um die 200W ASIC, was definitiv überdurchschnittlich ist. Die meisten Spiele sind eher bei ~180W.
Schon klar, dass es mehr heizt. Sehe ich doch bei meiner RX 6800XT. Du hast halt mehr Verbrauch, ich powerlimitiert etwas weniger Takt als in sonstigen Games. Wobei sich das soo viel gar nicht nimmt vs. bsw. Uncharted.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13257730&postcount=285
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13257895&postcount=288
Allerdings ist das mit Uncharted auch nicht exakt vergleichbar da ich dort 4k + FSR2.x_Q verwendet hatte. Irgendwie fehlt mir gerade ein passender Vergleich mit 1440p, bin nicht zu Hause.
DSD512
2023-04-05, 19:26:06
@Leoni
Ich bin dafür, dass das 3DCenter Forum in dargo-aufkrawall-Forum umbenannt wird. ;D
Oder aufkrawall-dargo-Forum? Da scheiden sich wohl die Geister.
OCmylife
2023-04-05, 21:16:46
@Leoni
Ich bin dafür, dass das 3DCenter Forum in dargo-aufkrawall-Forum umbenannt wird. ;D
Oder aufkrawall-dargo-Forum? Da scheiden sich wohl die Geister.
So oft wie ich mich über dargo seine Engstirnigkeit ärgere, umso mehr respektiere ich seine objektive und unverfälschte Meinung.
Wenn ihm bei AMD was nicht passt, dann gibt er das auch völlig unverblümt wieder, auch wenn ich das anders sehe.
Ob meine Karte nun 280 Watt unter Last braucht und dabei unhörbar ist, oder 380 und aus dem System nicht rauszuhören ist, wäre mir auch in Anbetracht der Strompreise herzlich egal, solange die Temperaturen dabei passen.
Anders sähe das aus, wenn ich sie bei 380 Watt nicht mehr gescheit kühlen könnte und damit hätte ich vor der aktuellen Grafikkarten-generation eigentlich gerechnet. Ich habe ja gemerkt, wie laut die 3090 bei 350 Watt wurde, trotz hoch gelobten Kühler.
Was das Fps-Problem angeht, würde mich das bei 1440P wahrscheinlich auch stören, wenn ich eigentlich die Möglichkeit hätte auch drüber zu gehen und durchgehend flüssige Bildraten hätte. Bei 4K reichen mir 60. Gehe ich mit der Auflösung runter wird das Bild spürbar schlechter.
Was ich momentan an der PS5 so liebe? Die ist auch beim spielen wirklich leise, die Ladezeiten sind traumhaft und auch wenn Du die Konsole angemacht hast, bist Du ruck zuck wieder im Spiel. Kein Warten auf irgendwelche Patches, Treiberupdates, oder sonst was. Liegt vielleicht auch dran, dass ich bisher nur Demon Souls, Last of Us, Ragnarök und Ratched und Clank gespielt habe.
Last of Us auf dem PC kurz nach Release(immerhin ist Steam ja kulant)? Abstürze mit der 3090, auch ohne OC und dass die anderen Spiele sauber laufen. Soll ja mittlerweile gefixt sein. Jetzt ist es mir egal. 😉
@Leoni
Ich bin dafür, dass das 3DCenter Forum in dargo-aufkrawall-Forum umbenannt wird. ;D
Oder aufkrawall-dargo-Forum? Da scheiden sich wohl die Geister.
Persönliche Angriffe bitte unterlassen. Danke.
dargo
2023-04-06, 07:34:14
Yes, bei max. Boosttakt wohlgemerkt. :)
Idle kann ich noch mal toppen. ;D
83360
Bei RDNA2 waren es mindestens 7 Wattchen, allerdings ASIC und keine TBP!
Jetzt auch mit dem Energy Monitor 3000 beim Adrenalin 23.4.1 gegengeprüft. Idleverbrauch vom gesamten Rechner hinter dem NT nun bei 49,xW bis 50,xW. Also zumindest mit meinem 1440p Bildschirm ist der Idleverbrauch nun praktisch identisch zu RDNA2.
btw.
Kann man eigentlich mit VSR den Stromverbrauch in Idle simulieren? Wenn ich nämlich auf 4k und 144Hz dank VSR umstelle sind es 81,xW, also gute 30W mehr. Hier geht dann der Vram von 2xMhz auf 909Mhz hoch.
OgrEGT
2023-04-06, 16:54:35
So... Karte ist da... Also die Größe ist monströs :biggrin:
Meine alte 6800 Nitro war schon nicht klein, aber das toppt es... Sie hätte keinen Millimeter länger sein dürfen und hat genau in mein Gehäuse gepasst... Die Karte wiegt insgesamt ca. 1930g.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83387&stc=1&d=1680791784
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83388&stc=1&d=1680791784
Bei der Karte ist kein Plastik verbaut. Alles ist aus Aluminium inkl Backplate und Kühler Shroud... Das gesamte Material ist mit der Kühlerplatte auf der Paltine verbunden und wird so zur Kühlung verwendet. Die Lüfter können leider nur bis 23% runtergeregelt werden was ca 900rpm entspricht. Das macht aber nichts, da die Karte dauerhaft auch unter Last dabei bleibt und somit unhörbar ist. Was man hört ist leises Spulenrasseln wenn man bei offenem Gehäuse direkt mit dem Ohr rangeht.
Habe die Karte mit Timespy und Superposition 4k ausgelotet und mit RDR2 (alles auf Ultra) auf Stabilität gestestet... BIOS1 Default 355W, BIOS2 Default 312W.
Bin mit UV von 1100mV Default auf 1000mV runter, was dann aber in RDR2 nicht stabil war. Bin dann wieder auf 1050mV hoch.
Meine Wattman Setting sind vorerst wie folgt:
PL-5% BIOS2 -> 298W
GPU Voltage -> 1050mV
GPU max -> 2900MHz
FPSCap 97
Im RDR2 Benchmark lag die Karte mit diesen Einstellungen bei 88FPS Avg... wie gesagt unhörbar bei 900rpm... Hotspot bei 81°C
Zum Vergleich lag meine 6800 davor bei ca 40-50fps Avg.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83389&stc=1&d=1680792704
Taigatrommel
2023-04-06, 18:10:21
Das war ja absolute Maßarbeit;) Scheint ja noch deutlich enger als in meinem Gehäuse zu sein.
dargo
2023-04-06, 18:17:20
@OgrEGT
Kannst du für mich später paar Sachen testen? Ich habe noch etwas Hoffnung, dass der Durst bei der RX 7900XT bei hoher Shaderlast nicht ganz so stark explodiert wie bei der RX 7900XTX weil erstere immerhin 12,5% weniger Shader hat.
Die 312W im sekundären Bios bei dir gefallen mir schon mal gut. Damit ist immerhin ein Peak von 281W über PT machbar. Die min. 900RPM der Lüfter finde ich aber wieder blöd, ob das in Idle wirklich unhörbar ist? Da müsste ich als einziger Weg womöglich auf Zero-Fan ausweichen was ich eher nicht so mag.
OgrEGT
2023-04-06, 18:20:36
@OgrEGT
Kannst du für mich später paar Sachen testen? Ich habe noch etwas Hoffnung, dass der Durst bei der RX 7900XT bei hoher Shaderlast nicht ganz so stark explodiert wie bei der RX 7900XTX weil erstere immerhin 12,5% weniger Shader hat.
Die 312W im sekundären Bios bei dir gefallen mir schon mal gut. Damit ist immerhin ein Peak von 281W über PT machbar. Die min. 900RPM der Lüfter finde ich aber wieder blöd, ob das in Idle wirklich unhörbar ist? Da müsste ich als einziger Weg womöglich auf Zero-Fan ausweichen was ich eher nicht so mag.
Jupp absolut unhörbar.
Spiele habe ich nicht so viele... derzeit installiert:
- Q2RTX
- Farcry 5
- SotTR
- RDR2
- D2R
Cyberpunk und Control hab ich noch, aber derzeit nicht installiert.
Gabs bei der 7900XT eigentlich auch The Last of Us Part I dazu?
Im Karton war nix dabei...
dargo
2023-04-06, 18:24:29
Wie schnell laufen bei dir sonstige Lüfter (welche?) in Idle im System? Sorry für meine penible Frage, aber so kann ich das besser einschätzen. Weil wenn die 900RPM in Idle der Karte wirklich unhörbar sind dann ist das Lüfterdesign extrem gut.
Jupp absolut unhörbar.
Spiele habe ich nicht so viele... derzeit installiert:
- Q2RTX
- Farcry 5
- SotTR
- RDR2
- D2R
SotTR habe ich auch, das dürfte erstmal reichen.
Cyberpunk und Control hab ich nich, aber noch nicht installiert.
Hast du jetzt CP77 oder nicht? Oder nur nicht installiert, was ja kein Hindernis ist. ;) Ansonsten verstehe ich diesen Satz nicht.
Gabs bei der 7900XT eigentlich auch The Last of Us Part I dazu?
Im Karton war nix dabei...
Das musst du über deinen Händler (sofern er an der Aktion teilnimmt) beantragen. Mit dem Code vom Händler beantragst du dann bei AMD das Spiel.
OgrEGT
2023-04-06, 20:25:56
Wie schnell laufen bei dir sonstige Lüfter (welche?) in Idle im System? Sorry für meine penible Frage, aber so kann ich das besser einschätzen. Weil wenn die 900RPM in Idle der Karte wirklich unhörbar sind dann ist das Lüfterdesign extrem gut.
SotTR habe ich auch, das dürfte erstmal reichen.
Hast du jetzt CP77 oder nicht? Oder nur nicht installiert, was ja kein Hindernis ist. ;) Ansonsten verstehe ich diesen Satz nicht.
Das musst du über deinen Händler (sofern er an der Aktion teilnimmt) beantragen. Mit dem Code vom Händler beantragst du dann bei AMD das Spiel.
Ich hab CP77 aber derzeit nicht installiert :)
Meine Gehäuse Lüfter sind alles BQ Silent Wings.
2 120mm laufen mit 730rpm (horizontal zur CPU)
1 120mm und 1 140mm laufen mit 380rpm (Vertikal über GPU)
dargo
2023-04-06, 20:42:47
Ich hab CP77 aber derzeit nicht installiert :)
Eilt nicht so extrem, wir können ja in Ruhe mit SotTR anfangen. :)
Meine Gehäuse Lüfter sind alles BQ Silent Wings.
2 120mm laufen mit 730rpm (horizontal zur CPU)
1 120mm und 1 140mm laufen mit 380rpm (Vertikal über GPU)
Sind das SW3? Und ist es viel Aufwand für dich die beiden 120mm Lüfter in Idle auf max. 400RPM zu bringen und den Grakalüfter neu beurteilen? Den 140mm SW3 habe ich selbst, kenne diesen also. Der läuft bei mir in Idle mit 300RPM und ist damit definitiv unhörbar. Einen 120mm SW3 habe ich auch der in Idle hier mit <400RPM dreht, auch von diesen höre ich damit nichts.
Edit:
Mal ne andere Frage... kriegst du bei dir CapframeX so konfiguriert wie bei mir damit ich alle für mich relevanten Daten innerhalb einer Messung sehe so wie hier?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13273938&postcount=2007
Wiseman
2023-04-06, 23:22:41
btw.
Da fällt mir gerade ein... schnelles Timing bringt bei RDNA3 beim Speicher gar nichts. Zumindest konnte ich bisher keinen Vorteil messen.
Ich habe dir darauf schon mal geantwortet und dabei erwähnt, dass "Schnelles Timing", wenn man es denn nutzen will, bei der Hellhound 7900XTX bei jedem Spiel einzeln gecheckt werden muss. Mal bringt es mehr oder weniger, mal gar nichts. Ich glaubte auch, mich erinnern zu können, dass Schnelles Timing im Spiel Far Cry 6 von Vorteil sein könnte.
Ich habe daher heute Far Cry 6 nochmals gebencht und bin ausnahmsweise beim VRAM OC geradezu waghalsig :biggrin: vorgegangen (Siehe Adrenalin Screenshot). Meine Erinnerung betrog mich nicht. Far Cry 6 scheint ein Paradebeispiel für effektives Einsetzen von Schnellem Timing + VRAM OC zu sein. Ich erzielte damit in 6k zum ersten Mal über 100 fps (Siehe FarCry6 Screenshot).
Falls du Far Cry 6 hast, könntest du eventuell selber Schnelles Timing mit einer RDNA3-Karte checken, egal ob mit 'ner 7900XTX oder 'ner 7900XT.
GerryB
2023-04-06, 23:47:28
... und bin ausnahmsweise beim VRAM OC geradezu waghalsig :biggrin: vorgegangen.
Das passt schon, ne gute Graka mit guter Vramtemp schafft i.d.R. immer 2740...50.
Sehr guter Vram dann auch mal 2800 ohne große Fehlerkorr. und die UVer mit EVC2 können auch bis 2700 noch um 100mV runtergehen.
Ab 150mV weniger gabs dann Punktverluste im Speedway.(bei redF im PCGH-Thread)
Für mehr Vram-OCen ist dann evtl. ne leichte Spannungsanhebung beim SOC hilfreich.(+25mV, meint Er)
OgrEGT
2023-04-07, 00:41:39
Eilt nicht so extrem, wir können ja in Ruhe mit SotTR anfangen. :)
Sind das SW3? Und ist es viel Aufwand für dich die beiden 120mm Lüfter in Idle auf max. 400RPM zu bringen und den Grakalüfter neu beurteilen? Den 140mm SW3 habe ich selbst, kenne diesen also. Der läuft bei mir in Idle mit 300RPM und ist damit definitiv unhörbar. Einen 120mm SW3 habe ich auch der in Idle hier mit <400RPM dreht, auch von diesen höre ich damit nichts.
Edit:
Mal ne andere Frage... kriegst du bei dir CapframeX so konfiguriert wie bei mir damit ich alle für mich relevanten Daten innerhalb einer Messung sehe so wie hier?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13273938&postcount=2007
Ja sind alles SW3.
Die Lüfter laufen jetzt mit ca 400rpm (30%).
Habe die GPU mit Zerofan ein/aus nicht heraushören können.
CPFX:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83393&stc=1&d=1680823744
BTW... Ich bin über Ostern leider nicht zu Hause...
OgrEGT
2023-04-07, 01:56:43
Das musst du über deinen Händler (sofern er an der Aktion teilnimmt) beantragen. Mit dem Code vom Händler beantragst du dann bei AMD das Spiel.
Der Code wird erst 14 Tage später verschickt :)
dargo
2023-04-07, 07:38:51
Ja sind alles SW3.
Die Lüfter laufen jetzt mit ca 400rpm (30%).
Habe die GPU mit Zerofan ein/aus nicht heraushören können.
Super. ich danke dir. (y)
@Wiseman
Ich meinte nicht schnelles Timing + Vram-OC sondern nur schnelles Timing ohne an der Vram Frequenz zu drehen.
Der Code wird erst 14 Tage später verschickt :)
Logisch... wegen FAG. ;)
Edit:
Zwei kleine Infos von mir noch zur RX 7900XTX Hellhound.
1. Das Silent-Bios mit 347W versucht die Karte bei max. ~1000RPM zu halten. Silent-Bios ist hier also wortwörtlich gemeint. Im SotTR Benchmark erreicht die Karte hier dann aber schon einen Hotspot von max. 87°C bei den 347W die dauerhaft mit Stocksettings erreicht werden. Silent-Bios mit 313W (PT 90%) sind es max. 80°C bei den ~1000RPM.
2. Seitdem ich den Adrenalin 23.4.1 drauf habe kam es kein einziges Mal vor, dass mein Bildschirm geteilt wurde. Endlich scheint dieser nervige Bug mit 2568x1440 gefixt zu sein.
Lol... Bug wieder da. Diesmal aber nicht auf dem Desktop sondern nur Ingame, das ist neu. :freak:
Wiseman
2023-04-07, 16:43:19
@Wiseman
Ich meinte nicht schnelles Timing + Vram-OC sondern nur schnelles Timing ohne an der Vram Frequenz zu drehen.
Kein Problem. Soeben Test mit Fast Timing only durchgeführt (Siehe Screenshot).
Zwei Erkenntnisse betreffs Fast Timing mit 'ner Hellhound 7900XTX im Spiel Far Cry 6:
1. In 6k erziele ich mit Fast Timing avg 3% mehr als ohne Fast Timing: 99 fps --> 102 fps
2. VRAM OC kann man sich in Far Cry 6 sparen. Heute erzielte ich mit Fast Timing only exakt die gleichen Ergebnisse wie gestern mit Fast Timing + VRAM OC, nämlich min 85 fps und avg 102 fps.
Crazy_Chris
2023-04-07, 17:33:12
Der Code wird erst 14 Tage später verschickt :)
bei Mindfactory gabs den Voucher sofort. Vermutlich weil ich bei denen noch nie etwas zurückgeschickt habe. :wink:
dargo
2023-04-07, 19:09:53
Irgendwas ist beim Undervolting von N31 merkwürdig.
Wenn ich bsw. ohne Vsync und Framelimit die Spannungskurve auf max. 1093mV anstatt 1150mV verschiebe ist alles gut, am max. Boost verändere ich nichts. Setze ich aber ein Framelimit von 90fps dank Vsync mit 90Hz kackt die Karte ab. Jetzt habe ich mir das öfter mal angeschaut und für mich sieht das so aus als wenn die GPU unter einem Gamingworkload entweder bei <800mV real anliegende Spannung instabil wird oder das Verhältnis von Realtakt und Realspannung ganz unten in der Kurve nicht mehr passt obwohl es in den höheren Frequenzen noch passte. Sofern die Graka für diese 90fps zu schnell ist senkt der Treiber ja automatisch den Takt sowie Spannung innerhalb der neuen Spannungskurve. Kann sich das einer erklären? Das ist irgendwie total bescheuert, weil in solchen Fällen muss ich den max. Boost wieder erhöhen damit der Treiber mir die reale Spannung wieder leicht anhebt um 800+mV zu erreichen. :freak: Nur wenn ich dann ein anderes Game mit einem ganz anderen Workload starte wird womöglich dieses neue Profil mit dem höheren max. Boost wieder instabil weil das Game weniger heizt und die Karte ganz oben boostet. :crazy:
Edit:
Also die Grenze scheint irgendwo eher bei ~780mV zu liegen.
The_Invisible
2023-04-07, 19:36:36
Ja gibts ähnlich bei Nvidia auch. Wenn man normal den Takt anhebt gilt das Offset über die ganze Spannungs/Taktkurve, wobei die höchste Spannungs/Taktstufe am meisten verträgt, da kanns sein das er bei einem "low load" Game einfach mal abkackt während "high load" Games stundenlang stabil laufen. Kanns auch noch in Kombination mit niedriger Temperatur geben da er da nochmal etwas höher boostet.
Da hilft dann nur via Curve nur die oberen Spannungs/Taktstufen anheben oder den OC soweit zu reduzieren das es über alle Stufen stabil läuft.
Da wünsche ich mir das OC vor >15Jahren herbei, 1 Taktstufe und die rannte immer stabil :D
dargo
2023-04-07, 20:01:06
Bitte vergessen was ich oben geschrieben habe... Denkfehler meinerseits. Da gibt es keine Probleme um die ~800mV bzw. ~780mV, siehe Beispiel.
Witcher 3 mit 1440p + FSR2.x_Q mit 90Hz Limit, reale Spannung schon bei 721mV.
https://abload.de/thumb/thewitcher3wildhunt_2yqd7t.jpg (https://abload.de/image.php?img=thewitcher3wildhunt_2yqd7t.jpg)
Einfachste Erklärung... meine UV-Versuche mit 1090mV bzw. 1093mV waren einfach nur scheinstabil. Anderes Game, anderer Workload. Mit 1100mV läufts hier. Man muss einfach eine deutlich breitere Palette an Games mit verschiedenen Workloads durchjagen bis man einigermaßen sagen kann... Profil XYZ ist stabil.
OgrEGT
2023-04-07, 23:03:13
Bitte vergessen was ich oben geschrieben habe... Denkfehler meinerseits. Da gibt es keine Probleme um die ~800mV bzw. ~780mV, siehe Beispiel.
Witcher 3 mit 1440p + FSR2.x_Q mit 90Hz Limit, reale Spannung schon bei 721mV.
https://abload.de/thumb/thewitcher3wildhunt_2yqd7t.jpg (https://abload.de/image.php?img=thewitcher3wildhunt_2yqd7t.jpg)
Einfachste Erklärung... meine UV-Versuche mit 1090mV bzw. 1093mV waren einfach nur scheinstabil. Anderes Game, anderer Workload. Mit 1100mV läufts hier. Man muss einfach eine deutlich breitere Palette an Games mit verschiedenen Workloads durchjagen bis man einigermaßen sagen kann... Profil XYZ ist stabil.
Deine XTX hat 1150mV Default? Bei mir gehen auch nur -50mV ausgehend von 1100mV Default...
dargo
2023-04-08, 07:30:31
Jede 7900XTX hat max. 1150mV als default. ;) Ja... im Vergleich zu der RX 6800XT scheint die Karte eher eine UV-Krücke zu sein. Wobei das schwierig mit N21 vergleichbar ist denn dort konnte ich noch sehr komfortabel mit dem Powerlimit spielen. Diese max. -10% sind einfach ein Witz bei N31. Auch kann ich bei N31 nicht sagen wie die gesamte Spannungskurve innerhalb jeder Taktstufe vs. N21 verläuft. Die könnte ja steiler oder auch flacher verlaufen. Ergo schwer vergleichbar.
btw.
Wie hoch ist bei deiner Nitro+ eigentlich der max. Boost bei den 1100mV @Stock im Treiber?
OgrEGT
2023-04-08, 14:26:13
Jede 7900XTX hat max. 1150mV als default. ;) Ja... im Vergleich zu der RX 6800XT scheint die Karte eher eine UV-Krücke zu sein. Wobei das schwierig mit N21 vergleichbar ist denn dort konnte ich noch sehr komfortabel mit dem Powerlimit spielen. Diese max. -10% sind einfach ein Witz bei N31. Auch kann ich bei N31 nicht sagen wie die gesamte Spannungskurve innerhalb jeder Taktstufe vs. N21 verläuft. Die könnte ja steiler oder auch flacher verlaufen. Ergo schwer vergleichbar.
btw.
Wie hoch ist bei deiner Nitro+ eigentlich der max. Boost bei den 1100mV @Stock im Treiber?
Bin gerade wie gesagt nicht zu Hause aber ich glaube es waren 2820MHz... kann es aber nicht beschwören...
Müsste auch nochmal schauen ob es unterschiedliche Werte je nach BIOS sind...
dargo
2023-04-08, 15:37:18
Bin gerade wie gesagt nicht zu Hause aber ich glaube es waren 2820MHz... kann es aber nicht beschwören...
Hmm... in dem Fall dürfte der Salvage die gleiche V/F-Kurve verwenden, ist nur etwas weniger "ausgemaxed".
Müsste auch nochmal schauen ob es unterschiedliche Werte je nach BIOS sind...
Unwahrscheinlich. Die Biose unterscheiden sind eigentlich nur im PT und je nach AIB in der Lüftersteuerung.
dargo
2023-04-08, 18:39:55
Ich habe noch paar Benchmarks angefertigt damit ich später einen Vergleich zu meiner RX 6800XT habe. Diesmal habe ich mich auf max. 1100mV fixiert, sprich Offset -50mV da die 1090+mV nur scheinstabil waren. Stock V/F-Kurve ist wie gehabt 2965Mhz/1150mV. Es ist schon ziemlich wichtig, dass man die Stock V/F-Kurve wie gesagt manuell setzt damit der Treiber nicht jedes Mal unterschiedlichen max. Boosttakt nach Lust und Laune verwendet. Das kann bis zu 1,x% Unterschied in der Performance ausmachen.
Stocksettings max. 347W PT - 1440p + 4K:
https://abload.de/thumb/cyberpunk2077_2023.04xhczo.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04xhczo.jpg) https://abload.de/thumb/cyberpunk2077_2023.044xdc1.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.044xdc1.jpg) https://abload.de/thumb/forzahorizon5_2023.04nbdi0.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04nbdi0.jpg) https://abload.de/thumb/forzahorizon5_2023.04xfd7g.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04xfd7g.jpg) https://abload.de/thumb/shadowofthetombraiderqqejj.jpg (https://abload.de/image.php?img=shadowofthetombraiderqqejj.jpg) https://abload.de/thumb/shadowofthetombraider67fp4.jpg (https://abload.de/image.php?img=shadowofthetombraider67fp4.jpg)
2965Mhz/1100mV max. 312W PT - 1440p + 4k:
https://abload.de/thumb/cyberpunk2077_2023.04t9f1m.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04t9f1m.jpg) https://abload.de/thumb/cyberpunk2077_2023.04onif6.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04onif6.jpg) https://abload.de/thumb/forzahorizon5_2023.048fdli.jpg (https://abload.de/image.php?img=forzahorizon5_2023.048fdli.jpg) https://abload.de/thumb/forzahorizon5_2023.04e8irx.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04e8irx.jpg) https://abload.de/thumb/shadowofthetombraidery5f54.jpg (https://abload.de/image.php?img=shadowofthetombraidery5f54.jpg) https://abload.de/thumb/shadowofthetombraiderufckq.jpg (https://abload.de/image.php?img=shadowofthetombraiderufckq.jpg)
Man kann also sagen ein Offset von -50mV ist eine ziemliche Punktlandung bei der Performance vs. Stock Spannungskurve bei ~35W weniger.
Randnotiz: in 1440p und 2965Mhz/1100mV erreicht die Karte in vielen Szenen in Forza Horizon 5 aufgrund der niedrigen Shaderlast nicht mal das 312W Powerlimit, sie läuft ins Taktlimit. Erst mit 3100Mhz/1100mV wird dieses Powerlimit durchgehend voll gemacht. Damit boostet das Ding dann mit bis zu 3060Mhz bei den gesetzten max. 312W.
Ja gibts ähnlich bei Nvidia auch. Wenn man normal den Takt anhebt gilt das Offset über die ganze Spannungs/Taktkurve, wobei die höchste Spannungs/Taktstufe am meisten verträgt, da kanns sein das er bei einem "low load" Game einfach mal abkackt während "high load" Games stundenlang stabil laufen. Kanns auch noch in Kombination mit niedriger Temperatur geben da er da nochmal etwas höher boostet.
Da hilft dann nur via Curve nur die oberen Spannungs/Taktstufen anheben oder den OC soweit zu reduzieren das es über alle Stufen stabil läuft.
Da wünsche ich mir das OC vor >15Jahren herbei, 1 Taktstufe und die rannte immer stabil :D
Diese Option gibts bei N31 nicht, dass du die unteren Takt-/Spannungsstufen anders gestalten kannst als die oberen. Da muss man dann einen kleinen Kompromiss eingehen und den allgemeinen Offset anpassen bis es immer passt.
Wiseman
2023-04-08, 20:26:49
Dargo, du könntest in deinen wissenschaftlichen Feldforschungen zu N31 eventuell meine bisherigen Erkenntnisse betreffs Fast Timing in N31 mit einfließen lassen.
Gestern hatte ich im Spiel Far Cry 6 festgestellt, dass Fast Timing On in 6k eine Leistungssteigerung von 3% bringt.
Heute überprüfte ich Forza Horizon 5. Ich wählte dabei die gleichen Ingame-Settings wie du (Siehe Screenshot). Ergebnis für FH5 in 4k: Fast Timing bringt nichts. Mit oder ohne Fast Timing erzielte ich identische Ergebnisse, jedes Mal 94 fps.
Da ich meine Hellhound 7900XTX noch lange nutzen werde, werde ich nach und nach weitere Spiele mit integriertem Benchmark betreffs Nutzen von Fast Timing überprüfen.
dargo
2023-04-08, 20:38:55
Fast Timing und VRAM-OC ist schon eher Spielerei. Je nach Applikation bringt das minimal was bis fast gar nichts.
2965Mhz/1100mV max. 312W PT - 1440p + Fast Timing + 2600Mhz Vram
https://abload.de/thumb/cyberpunk2077_2023.04k0cm9.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04k0cm9.jpg)
Bringt +<1%. 2700Mhz Vram ohne Fast Timing ist übrigens ein halbes Framechen langsamer. Könnten schon Messtoleranzen sein. Bringt eh alles nichts da ich nicht unter 312W komme dank AMD. Mit mehr als -10% PT könnte ich eventuell damit auf 300-305W bei gleicher Performance wie Stock kommen. Wäre mir aber immer noch etwas zu viel.
vinacis_vivids
2023-04-08, 20:46:28
@dargo
Mit 300W kannste die 12288 Shader gar nicht richtig ausfahren..
Vllt. ist die 7900XT besser für dich, hat "nur" 10752 SP und begnügt sich sicher mit ~300W.
dargo
2023-04-08, 21:04:47
@dargo
Mit 300W kannste die 12288 Shader gar nicht richtig ausfahren..
Du brauchst mir nicht bestätigen, dass der volle N31 ein Säufer ist, das weiß ich auch selbst. X-D Wobei ich hier etwas mehr ins Detail gehen muss. Er ist nur ein Säufer bei hoher bis mittlerer Shaderlast.
BlacKi
2023-04-08, 21:11:07
ich behaupte 300w reichen für den effizientesten betriebspunkt. nur sind mir die 300w eigentlich zuviel.
dargo
2023-04-08, 21:27:23
Das Undervolting von N31 ist aber wirklich etwas strange.
CP77 Bench läuft mit unlimitierten Frames 2965Mhz/1060mV max. 312W PT - 1440p + Fast Timing + 2600Mhz Vram
https://abload.de/thumb/cyberpunk2077_2023.0479i4s.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.0479i4s.jpg)
Der Treiber kackt mir dann aber im Menü ab. :D 2965Mhz/1065mV max. 312W PT - 1440p + Fast Timing + 2600Mhz Vram liefen dann auch im Menü noch fehlerfrei. Ich bin mir aber ziemlich sicher, dass wenn ich ein 90Hz Limit setze, dass mir damit der Treiber wieder abkackt. Irgendwie ist das schon etwas merkwürdig, dass die Karte bei weniger Last (Menü) und bei niedrigen Taktstufen instabiler ist als Ingame an sich. Im Benchmark lag der Takt bei ~2,6Ghz (+/-~50Mhz).
ich behaupte 300w reichen für den effizientesten betriebspunkt. nur sind mir die 300w eigentlich zuviel.
Diese Worte könnten von mir stammen. :D Ich nehme also an du magst die 300W Abwärme auch nicht so?
Edit:
Da fällt mir gerade ein... in CP77 muss man etwas aufpassen. Sobald man ins Spiel geht um bissel zu daddeln und wieder zurück ins Menü bekommt man >2% weniger fps im Bechmark. Warum das so ist keine Ahnung. Also am besten immer das Game neu starten und direkt benchen.
BlacKi
2023-04-08, 21:47:55
die 1080ti war schon mit ihren 2ghz@ 300w grenzwertig für mich, sie lag meist darunter. das ist mit den neuen top tier karten anders.
ich hab die 3090 praktisch auch nie ausgefahren wie vivi das wohl denkt.
gerade mit dlss und fsr sehe ich es einfach nichtmehr ein 300w+ zu bezahlen. wenn moores law recht hat, könnte n32 der bringer sein. deutlich weniger verbrauch, bei 7900xt leistung. dann könnte ich mir das vorstellen zu wechseln, trotz des upscaling nachteils das hwub belegt hat.
als ich die 7900xtx bei 0,7xV bei fast 300w gesehen habe, wusste ich das mir das zuviel sein wird. die xt hätte besser gepasst, aber letztendlich ist das nur 12,5% weniger verbrauch. eigentlich immernoch zuviel.
mein plan ist im nächsten halben jahr komplett auf amd zu wechseln. ich passe nur den besten zeitpunkt ab. n31 ist leider nicht der beste zeitpunkt für mich. der wechsel auf die 4070ti von der 7900xtx kommend ist einfach krass. etwas weniger leistung, fast halbem verbrauch. die 3060 war zwar minimal sparsamer, aber hatte weniger als die hälfte der leistung.
jeweils beim optimalen betriebspunkt.
generell weichen die karten extrem ab beim effizientesten punkt vs wie sie in den tests getestet werden. es ist echt schade, das keiner das testet.
dargo
2023-04-08, 22:08:49
2965Mhz/1065mV max. 313W PT - 1440p + Fast Timing + 2600Mhz Vram sind Ingame dann eher ~2,7Ghz.
https://abload.de/thumb/cyberpunk2077_2023.04mmc2k.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04mmc2k.jpg) https://abload.de/thumb/cyberpunk2077_2023.0472emd.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.0472emd.jpg) https://abload.de/thumb/cyberpunk2077_2023.046tcsw.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.046tcsw.jpg)
War dann aber beim längeren rumfahren in der Stadt auch nicht stabil. Egal... kein Bock mehr. Reicht mit dem Blödsinn. :tongue:
wenn moores law recht hat, könnte n32 der bringer sein. deutlich weniger verbrauch, bei 7900xt leistung.
Das wäre natürlich super, ich glaubs aber erst wenn ich es sehe. ;) Sollte es so kommen ist bei N31 definitiv was nicht nach Plan gelaufen.
btw.
Wenn ich bei N32 nichts mehr von zwei Taktdomainen höre dann weiß ich schon was los ist. ;)
=Floi=
2023-04-08, 23:41:55
Ich könntet mal die skalierung von 30,45,60,90,120 fps messen. Wie sparsam die karte mit limiter sein kann.
Lurtz
2023-04-08, 23:45:33
btw.
Wenn ich bei N32 nichts mehr von zwei Taktdomainen höre dann weiß ich schon was los ist. ;)
Was denn? Doch kein Chiplet Design mehr? :confused:
Der_Korken
2023-04-08, 23:58:22
Wohl eher, dass der bei N31 um 200Mhz verringerte Shadertakt für die Theorie der ungeplanten Leckagen spricht und eine Abschaffung dieser Taktdomäne auf einen Hardware-Fix hindeuten würde. Eines der vielen Mysterien der N31-Vorstellung.
dargo
2023-04-09, 07:11:32
Wohl eher, dass der bei N31 um 200Mhz verringerte Shadertakt für die Theorie der ungeplanten Leckagen spricht und eine Abschaffung dieser Taktdomäne auf einen Hardware-Fix hindeuten würde. Eines der vielen Mysterien der N31-Vorstellung.
Korrekt. :)
@Lurtz
Du kannst ein Design welches nicht ganz nach den eigenen Plänen gelungen ist nicht einfach über Bord werfen, viel zu teuer. In solchen Situationen heißt es nach Lösungen zu suchen um das Ding dann doch halbwegs brauchbar zu releasen/gestalten. Ergo Shadertakt runter. Bis N32 bleibt es Spekulation. Wenn N32 weiter so durstig bei hoher Shaderlast sein wird dann ist für mich das RDNA3-Design insgesamt nicht gut gelungen.
Das hier hätte ich von N31 bei mittlerer Shaderlast erwartet. Wobei Front End Clock dann = Shaderclock sein sollte. Bei hoher Shaderlast dann entsprechend 200-300Mhz weniger innerhalb der ~300W.
https://abload.de/thumb/assassinscreedoriginsdpf5f.jpg (https://abload.de/image.php?img=assassinscreedoriginsdpf5f.jpg)
So ähnlich hatten auch die ganzen Leaker/Spekulanten N31 offenbar erwartet.
btw.
Der hohe Durst von N31 bei hoher bis mittlerer Shaderlast hat meiner Einschätzung nach nichts mit dem Chipletdesign zu tun.
Edit:
Hier mal ein schönes Beispiel wo ich mich innerhalb der Default Spannungskurve von AMD bewege.
Niedrige Shaderlast mit 2700Mhz/1150mV Profil. Den max. Boosttakt habe ich tiefer gewählt, AMD lässt ja mit bis zu >2,9Ghz höher boosten.
https://abload.de/thumb/assassinscreedorigins9wevm.jpg (https://abload.de/image.php?img=assassinscreedorigins9wevm.jpg)
Sehr sparsam mit ~250W.
Jetzt das genaue Gegenteil mit hoher Shaderlast. Da muss ich schon 2000Mhz/1150mV als Profil verwenden damit ich einen vergleichbaren Verbrauch bekomme.
https://abload.de/thumb/unknown_2023.04.09-074fcw6.jpg (https://abload.de/image.php?img=unknown_2023.04.09-074fcw6.jpg)
Mit dem Stock Silent-Bios von 347W bist du immer noch von ~2.7Ghz weit entfernt mit schon 100W mehr auf der Uhr.
https://abload.de/thumb/unknown_2023.04.09-0795cal.jpg (https://abload.de/image.php?img=unknown_2023.04.09-0795cal.jpg)
Selbst mit völlig absurden 400W schaffst du die ~2,7Ghz nicht.
https://abload.de/thumb/unknown_2023.04.09-072jf71.jpg (https://abload.de/image.php?img=unknown_2023.04.09-072jf71.jpg)
In allen Szenarien (außer das 2000Mhz/1150mV Profil natürlich) wird das Profil 2700Mhz/1150mV verwendet. Wenn ich das mal grob hochrechne müsstest du irgendwas mit 440-450W bei hoher Shaderlast freigeben damit die ~2,7Ghz erreicht werden. Das ist einfach nur noch krank.
PS: witzige Randnotiz. Im Prinzip hat AMD mit N31 das released womit Nvidia bei RTX 4090 mit der Wattage geworben hat. :ulol: Nur müsste AMD den max. Boost auf 2,6-2,7Ghz begrenzen, ein PT von 450W freigeben dann läuft das Teil auch öfter ins Taktlimit (niedrige und mittlere Shaderlast, gelegentlich auch hohe Shaderlast) und plötzlich finden die SKU alle nicht mehr ganz so durstig. ;D ;D ;D
Achja... und falls jemand meint 250W wäre zu tief bei High-End gegriffen... mag stimmen. Kein Problem... lässt sich ja ohne weiteres auf andere Wattagen skalieren. :)
2330Mhz/1150mV Profil = ~300W
https://abload.de/thumb/unknown_2023.04.09-08owd0o.jpg (https://abload.de/image.php?img=unknown_2023.04.09-08owd0o.jpg)
2520Mhz/1150mV Profil = ~350W
https://abload.de/thumb/unknown_2023.04.09-08hfcit.jpg (https://abload.de/image.php?img=unknown_2023.04.09-08hfcit.jpg)
Interessanterweise gibts dazu ne neue MLID-Erzählung. Er meint, AMD hätte beim Testen von N31 Grafikartefakte gefunden, die bei hohem Takt entstehen und von denen man dachte, dass diese recht leicht per Software zu fixen seien, das ist aber bis kurz vorm geplanten Launch im November nicht passiert. Es gab nen Fix, der aber ist teuer - man muss wohl zusätzliche Berechnungen durchführen, was zu mehr Shaderlast und zu mehr Abwärme führt. Also verzögerte AMD den Launch etwas, das half aber auch nicht. Man wollte dann doch nicht länger warten und launchte den Chip trotzdem noch im letzten Jahr, obwohl der Chip so viel mehr Strom verbraucht, als geplant. Man dachte aber immer noch, dass das per Software zu lösen wäre. Auch die 4 Exklusivtreiber schiebt er darauf.
Wir sehen jetzt, dass das wohl doch nicht funktioniert hat. Das N32 den gleichen Fehler hat halte ich für sehr wahrscheinlich, da das die gleiche Entwicklungsbasis ist. Aber ich denke, dass N32 deshalb so spät kommt, weil man eine neue Rev macht. N33 wird davon unberührt sein, das ist ein anderer Prozess und ein anderes Design.
Also ich wette immer noch, dass wir im Herbst einen kompletten Relaunch sehen werden mit N31B und N32B.
Dass wir einen Hardwarefehler haben bei N31, der per Software nicht effizient fixbar ist, dürfte offensichtlich sein. Ich denke, daran gibts keinen Zweifel mehr. Aus meiner Sicht muss AMD das so machen, da N40 ein sehr komplexes Projekt ist, sodass Verzögerungen nicht unwahrscheinlich sind. Man benötigt bis zu dessen Launch auf jeden Fall ne funktionierende Grafikgeneration.
dargo
2023-04-09, 09:13:23
Na hoffentlich... ein gefixter N31 (eventuell Salvage je nach gewählter Abwärme, sprich Powerlimit) Refresh Ende 2023 wäre wieder für mich interessant. :)
Edit:
Übrigens... ich habe auch einen Verdacht wie das kommt, dass bsw. Wiseman und viele andere Käufer der RX 7900XTX Hellhound kein Spulenfiepen bzw. Spulenrasseln wahrnehmen. Ich habe mir das gestern sehr genau im Benchmark von SotTR angeschaut und angehört. Wiseman spielt auf einem 4k Bildschirm soweit ich weiß. Und wenn die GPU mehr Last bekommt (was ja zwangsläufig mit höheren Auflösungen passiert) ist sie leiser. Wenn ich zb. im SotTR Benchmark mein Gesicht ans Gehäuse klebe und diesen mit 1440p laufen lasse dann höre ich das Spulenkonzert etwas je nach Szene. Die Frames gehen dann aber teilweise schon auf >300fps. Im normalen Sitzabstand zum Rechner geht das wieder unter. Benche ich selbiges mit 4k vernehme ich von den Spulen nahezu nichts mehr selbst wenn mein Gesicht am Gehäuse klebt. Womöglich deshalb so unterschiedliche Meinungen zu den Spulen bei dieser Karte. Das könnte Wiseman eigentlich ganz simpel nachstellen ob ich mit dieser Vermutung richtig liege.
robbitop
2023-04-09, 09:32:03
Das wurde angeblich gecancelt. N32 und N33 sollten das Problem entweder nicht oder in geringerer Ausprägung haben. Das Problem betrifft die taktnormerte Leistung und offenbar nicht den maximalen Takt. Man musste wohl ein paar Leertakte einbauen um die Artefakte zu normieren was Leistung kostet.
Zumindest ist das schlüssig was die Benchmarks von AMD vs die 1 Monat späteren Launchreviews angeht. Zum Launchteitpunkt hat man die Werte mit Artefakten angegeben unter der Annahme dass der Treiberfix kaum Leistung kostet was dann wohl anders kam.
N33 scheint - was man jetzt an Benchmarks gesehen hat - pro Takt schon schneller zu sein als N23 (um einen höheren Grad als Rohleistungsnormiert es N31 vs N21 der Fall war). Und man muss konstatieren, dass die CUs/WGPs von N33 sogar beschnitten sind (keine Registererhöhung und iirc kleinere Caches). N33 und N32 werden ggf spannend weil sie potenziell zeigen könnten was rdna3 wirklich kann.
Das war sicherlich auch im Januar Stand. Ich denke, man wird immer noch die Hoffnung gehegt haben, das doch noch effizienter in Software zu lösen und deswegen dem Projekt ne Absage erteilt haben. Aber wenn der Bug in Software nicht fixbar ist, ändert sich die Situation. Dann kommt AMD eigentlich nicht darum herum, das N31B-Projekt zu starten und mMn wird man genau das auch getan haben, auch wenn N4x sich dadurch etwas verzögert, denn ansonsten ist ja das ganze Produktportfolio im Arsch, wenn N32 dann plötzlich stellenweise gleich schnell oder gar schneller ist als N31.
N32 ist ein etwas anderer Fall, da zum Zeitpunkt des TapeOuts das Problem durch N31 schon bekannt gewesen sein dürfte, N32 wird also direkt eine neue Rev. bekommen haben. Trotzdem verzögert sich das N32-Projekt ja durch die neue Rev. um ca. 1/2 Jahr. Das er um etwa soviel verzögert ist, dürfte unstrittig sein, passt also gut zu meiner Theorie.
"N31B" wird man erst im Januar gestartet haben. Da kannste dann erst mal >= 1/2 Jahr draufrechnen, bis das Ding in Massenproduktion gehen kann, also dann noch mal 1-2 Monate. Das wäre dann August bis September. Wenn N32 dann theoretisch im Mai/Juni soweit ist, müsste man dann den Launch bis September verschieben und solange einfach N2x weiterverkaufen. Das kommt AMD wahrscheinlich sogar gelegen, da man so 7nm weiter nutzen kann. Mit Abverkauf ist das ja auch nicht zu erklären, warum immer noch soviele 6800er beispielsweise verkauft werden, aber die 6900XT beispielsweise ausgelaufen ist, also die meisten Produktklassen gibts noch, manche aber nicht. Ein Abverkauf sieht anders aus. Es dürfte offensichtlich sein, dass AMD fröhlich 7nm N2x weiterproduziert, das macht im Moment ja auch ordentlich Strecke beim Marktanteil, wenn man sich die Mindfactory-Verkäufe anguckt. Die 6700XT geht weg wie geschnitten Brot.
N32 als Notebooklösung ab Sommer wäre aber auch noch denkbar.
N33 ist schlichtweg ein anderes Projekt, anderer Prozess, veränderte Architektur. Der hat den Bug sehr sicher einfach nicht.
OgrEGT
2023-04-09, 10:26:04
Irgendwie ist das schon etwas merkwürdig, dass die Karte bei weniger Last (Menü) und bei niedrigen Taktstufen instabiler ist als Ingame an sich.
Bei Igorslab haben die im Forum die Spannungskurve vermessen. Es handelt sich um eine sigmoide Kurve bei der es vorkommen kann dass sie mit zu viel UV zu weit nach links verschoben bei niedrigen Taktraten eine zu niedrige Spannung hat und nur im Bereich hoher Taktraten dann erst ausreichend hohe Spannung hat.
dargo
2023-04-09, 10:59:06
Das war sicherlich auch im Januar Stand. Ich denke, man wird immer noch die Hoffnung gehegt haben, das doch noch effizienter in Software zu lösen und deswegen dem Projekt ne Absage erteilt haben. Aber wenn der Bug in Software nicht fixbar ist, ändert sich die Situation. Dann kommt AMD eigentlich nicht darum herum, das N31B-Projekt zu starten und mMn wird man genau das auch getan haben, auch wenn N4x sich dadurch etwas verzögert, denn ansonsten ist ja das ganze Produktportfolio im Arsch, wenn N32 dann plötzlich stellenweise gleich schnell oder gar schneller ist als N31.
Das wird denke ich auch mit nach Plan funktionierenden N32 nicht der Fall sein. Realistischer würde ich dann aber einschätzen, dass womöglich ein "gefixter" N32 N31-Salvage-Performance erreicht bei wesentlich weniger Durst, zb. 230-250W. Das würde ebenfalls blöd aussehen im Produktportfolio.
robbitop
2023-04-09, 10:59:13
@HOT
Die Zeiträume für soetwas sind IMO länger als manche es sich vorstellen. Entsprechende Resources sind dann schon anderweitig alloziert und wenn der Fix ziemlich invasiv ist muss unter Umständen auch nochmal bis zum Tapeout richtig Entwicklungszeit investiert werden. Wenn die Entscheidung erst im Januar gefällt worden wäre, wäre das viel zu spät. Plus neuer Maskensatz etc. Lohnt wahrscheinlich nicht mehr -> ist wahrscheinlich sinnvoller RDNA4 fertig zu machen (der ja sicherlich auch nicht mehr weit weg sein kann vom design complete).
dargo
2023-04-09, 11:05:20
@HOT
Die Zeiträume für soetwas sind IMO länger als manche es sich vorstellen. Entsprechende Resources sind dann schon anderweitig alloziert und wenn der Fix ziemlich invasiv ist muss unter Umständen auch nochmal bis zum Tapeout richtig Entwicklungszeit investiert werden. Wenn die Entscheidung erst im Januar gefällt worden wäre, wäre das viel zu spät. Plus neuer Maskensatz etc. Lohnt wahrscheinlich nicht mehr -> ist wahrscheinlich sinnvoller RDNA4 fertig zu machen (der ja sicherlich auch nicht mehr weit weg sein kann vom design complete).
Das klingt bei dir ja so optimistisch mit dem RDNA4 Design complete nicht so weit. :tongue: Das nützt dem Markt aber nichts wenn Massenproduktion dann nochmal 9-12 Monate benötigt. ;)
Bei Igorslab haben die im Forum die Spannungskurve vermessen.
Link bitte. :)
BlacKi
2023-04-09, 11:49:50
@HOT
Die Zeiträume für soetwas sind IMO länger als manche es sich vorstellen. weiß nicht, nv hat auch nicht komplett funktionierende chips auf den markt geworfen, das hat kein halbes jahr gedauert bis neue chips ohne fehler verkauft wurden.
es könnte auch sein, das es jetzt schon, oder in kommenden wochen ein anderer chip verkauft wird, aber die software einfach nicht angepasst wird auf den neuen chip, und dann erst mit dem refresh im herbst ein treiber für die refresh generation ohne die fehlerkorrektur released wird.
dann hätte man die zeit nicht gebraucht, aber macht das aus strategischen gründen.
dargo
2023-04-09, 11:52:04
es könnte auch sein, das es jetzt schon, oder in kommenden wochen ein anderer chip verkauft wird, aber die software einfach nicht angepasst wird auf den neuen chip, und dann erst mit dem refresh im herbst ein treiber für die refresh generation ohne die fehlerkorrektur released wird.
dann hätte man die zeit nicht gebraucht, aber macht das aus strategischen gründen.
Guter Punkt! (y)
robbitop
2023-04-09, 11:52:59
Naja da sind aber auch respins, testchips usw nicht enthalten. Das gilt pro spin.
Und je nach dem wie invasiv das Problem ist muss man ggf noch einiges ändern. Ja wenn alles fertig ist und man alle spins hinter sich hat dauert es ein paar Monate.
vinacis_vivids
2023-04-09, 14:09:11
https://youtu.be/C2dPUizHYAY
@dargo
7900X3D pusht die 7900XTX mehr als der 5800X3D...
Wiseman
2023-04-09, 19:17:44
Fast Timing und VRAM-OC ist schon eher Spielerei. Je nach Applikation bringt das minimal was bis fast gar nichts.
Ich habe inzwischen 5 Games dahingehend überprüft und ich kann deine Aussage unterstreichen: Fast Timing und/oder VRAM-OC bringt je nach Spiel minimal etwas bis fast gar nichts.
FT = Fast Timing, VRAM_OC = 2650Mhz
Far Cry 6:
FT --> + 3%
VRAM_OC --> + 0%
Forza Horizon 5:
FT --> +0%
VRAM_OC --> +0%
AC Valhalla: (Screenshot)
FT --> +0.5%
VRAM_OC --> +3%
Cyberpunk 77: (Screenshot)
FT --> avg +0%, min +10%
VRAM_OC --> avg +1%, min +10%
SotTR: (Screenshot)
FT --> avg +0.5%
VRAM_OC --> avg +2%
dargo
2023-04-09, 20:25:35
https://youtu.be/C2dPUizHYAY
@dargo
7900X3D pusht die 7900XTX mehr als der 5800X3D...
Willst du mich verarschen mit deinen völlig absurden 464W? :| Den Heizstrahler kannst du dir selbst kaufen.
Ex3cut3r
2023-04-09, 22:12:11
Ist das nicht der normale Verbrauch für eine 7900 XTX?
Langlay
2023-04-09, 22:39:03
Ist das nicht der normale Verbrauch für eine 7900 XTX?
355W ist das Stock Powertarget.
Ex3cut3r
2023-04-09, 23:22:11
Danke. Ok, 100W mehr. Macht den Kohl dann auch nicht mehr fett. ^^
x-dragon
2023-04-10, 01:43:52
Ich betreibe hier genau die Kombi: 5800X3D + 7900XT + Straight Power 11 Platinum 650W. Läuft problemlos. ;)
Laut Igor sind die Lastspitzen schon recht hoch und da das Corsair doch schon relativ alt ist würde mich eine Abschaltung oder Blackscreens bei heftigem Lastwechsel nicht überraschen.
... Ja 550 Watt scheint zu wenig zu sein bei meinem System (SSDs, Gehäuselüfter und so vergisst man ja gerne mal :redface:), den Treiber konnte ich noch installieren, danach gabs dann nur noch ein Blackscreen. Werde mal die Tage mit einem stärkeren Netzteil gegentesten. Aber "alt" ist schon gemein ... das Ding hat noch 6 Jahre Garantie :usad:.
OgrEGT
2023-04-10, 01:45:21
Link bitte. :)
https://www.igorslab.de/community/threads/meine-erfahrungen-mit-rdna-3-powercolor-hellhound-7900xt.7453/post-213446
dargo
2023-04-10, 07:12:19
Danke, aber ohne Anmeldung kann ich die Bilder nicht vergrößern.
OgrEGT
2023-04-10, 09:33:16
Bei der 7900XTX sieht man schön wie flach die Kurve bei 1050mV im Bereich von 2700MHz wird, da liegen dann nur noch 800mV an...
-----------------------------------------------
RDNA3
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83422&stc=1&d=1681111942
RDNA2
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83423&stc=1&d=1681111942
dargo
2023-04-10, 10:15:39
Danke nochmal, jetzt kann ich auch was erkennen. :D
Stehe ich gerade auf dem Schlauch? Ich sehe da keinen Unterschied zwischen RDNA3 und RDNA2 im Verlauf der V/F-Kurve. Bis natürlich auf die tatsächlichen Frequenzen die ja logischerweise bei RDNA3 höher sind. Das einzige was ich erkenne ist das Verhalten von RDNA3 in den tieferen Frequenzen unterhalb real anliegenden ~880mV. RDNA2 scheint da irgendwie bei ~880mV dicht zu machen, was ich allerdings nicht selbst geprüft habe. Insofern... ich beziehe mich aktuell nur auf das was ich in der Grafik da sehe. Das könnte dann aber wiederum dieses merkwürdige Verhalten von RDNA3 beim UV in den tieferen Frequenzen erklären, dass das Ding instabil wird was noch in den oberen Frequenzen stabil war.
btw.
Endlich wieder RDNA2 mit keiner absurden Abwärme im System drin und gewohnten 56-144Hz Freesync-Range. =)
83424
Mit der RX 6800XT liegt das gesamte System in Idle bei 48,xW bis 49,xW. Insofern ist ein Kritikpunkt von RDNA3 zumindest in Verbindung mit meinem Bildschirm Geschichte. Dort waren es 49,xW bis 50,xW in Idle hinter dem Netzteil.
Danke. Ok, 100W mehr. Macht den Kohl dann auch nicht mehr fett. ^^
Das default Powertarget der RX 7900XTX Hellhound beträgt im sekundären Bios (Powercolor nennt es Silent-Bios) 347W. Und selbst das ist mir viel zu viel Heizleistung. Wenn du meinst, dass noch ~100W drauf kein Problem sind dann nur zu, ich wünsche dir viel Spaß mit solchen Heizstrahlern. :)
OgrEGT
2023-04-10, 10:34:21
Ich denke dass bei -100mV UV die Kurven bei RDNA2 enger beieinander liegen als bei RDNA3... und bei RDNA3 flacher ansteigen... deshalb steigt die Spannung zu spät und zu leicht an wenn das Offset zu hoch ist... da wird dann auch die Chip-Fee zuschlagen wie wenig Spannung ein Chip benötigt um noch stabil bei Last xyz zu bleiben...
BlacKi
2023-04-10, 11:01:40
Stehe ich gerade auf dem Schlauch? Ich sehe da keinen Unterschied zwischen RDNA3 und RDNA2 im Verlauf der V/F-Kurve. Bis natürlich auf die tatsächlichen Frequenzen die ja logischerweise bei RDNA3 höher sind. hab ich auch erst gedacht, aber die voltage curve bei rdna2 ist, wenn man die kästchenbreite vergleicht ganz unten deutlich größer. was eigentlich ein nachteil vs rdna3 sein sollte.
bei rdna3 ist die curve nicht so sauber, also ist da interpretationsspielraum. aber die 1050 curve ist unten näher bei der 1150 curve als bei rdna2.
generell, aber gerade bei rdna2 1050, sieht die curve viel zu steil aus. die f/curves sollten exponentielle komponenten haben und damit gebogen. siehe nv curves.
The_Invisible
2023-04-10, 11:16:56
Das default Powertarget der RX 7900XTX Hellhound beträgt im sekundären Bios (Powercolor nennt es Silent-Bios) 347W. Und selbst das ist mir viel zu viel Heizleistung. Wenn du meinst, dass noch ~100W drauf kein Problem sind dann nur zu, ich wünsche dir viel Spaß mit solchen Heizstrahlern. :)
Naja, dann bleibt dir in Zukunft wohl nur kleinere Karten zu kaufen die eben nicht so viel Mehrleistung bringen aber wohl auch nicht so viel VRAM & Co mitbringen werden.
Dann doch lieber eine dicke Karte kaufen und die entsprechend runterregeln, bin ja gespannt wer die erste >500W Karte bringt :D
dargo
2023-04-10, 11:50:29
Ich habe meine Benches fertig, Performanceuplift der RX 7900XTX vs. RX 6800XT ist einfach ein Witz. Und wir reden hier sogar vom vollen Topdog neue Gen vs. Salvage alte Gen. X-D Die neue Gen braucht dabei sogar ~60W mehr... 313W TBP vs. 250W TBP. :crazy:
RX 6800XT - 2449Mhz/1062mV, bei 226W ASIC bzw. ~250W TBP abgeriegelt --> 1440p + 4k:
https://abload.de/thumb/cyberpunk2077_2023.04lzdoo.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04lzdoo.jpg) https://abload.de/thumb/cyberpunk2077_2023.04sicu6.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04sicu6.jpg) https://abload.de/thumb/forzahorizon5_2023.04r4d4p.jpg (https://abload.de/image.php?img=forzahorizon5_2023.04r4d4p.jpg) https://abload.de/thumb/forzahorizon5_2023.040wco8.jpg (https://abload.de/image.php?img=forzahorizon5_2023.040wco8.jpg) https://abload.de/thumb/shadowofthetombraiderfgecu.jpg (https://abload.de/image.php?img=shadowofthetombraiderfgecu.jpg) https://abload.de/thumb/shadowofthetombraidergjchg.jpg (https://abload.de/image.php?img=shadowofthetombraidergjchg.jpg)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13277243&postcount=2068
BlacKi
2023-04-10, 12:02:24
wenn man FH rausnimmt, dann klingen +57-63% doch garnicht so verkehrt. dank 25% mehr verbrauch. das wären dann grob +35% technologischer fortschritt. fehlen nur 15% zum designziel.
dargo
2023-04-10, 12:07:07
Dann hast du andere Erwartungen als ich an einem Fullnode Wechsel. ;) Eine RX 6900XT legt nochmal ~9-10% drauf auf meine Karte.
Edit:
Muss mich zum Idleverbrauch leicht korrigieren. Windows musste sich offenbar noch etwas einpedeln. Sind mit der RX 6800XT nun 46,xW bis 47,xW in Idle hinter dem NT. 2 Wattchen gingen noch runter.
vinacis_vivids
2023-04-10, 12:17:09
Die 6800er (220W) ist auch deutlich einfacher zu kühlen als die 6800XT (300W). Habe bei RDNA2 am Ende die 6800XT zurück gegeben, weil die Abwärme einfach zu hoch war, im Sommer. Die 6800er habe ich allerdings hochgezüchtet mit MPT und war leistungsgleich mit der 6800XT (für weniger Geld).
Im Winter ist die Situation ganz anders. Da freue ich mich sogar auf eine höhere Abwärme, weil die GPU beim Gaming als Heizung dient. Gerne auch 475W als Heizquelle mit 3x8Pin Stecker. Die Hellbound ist ja auf 2x8Pin limitiert, also max. 350-375W Leistung.
dargo muss ja nicht so tun, als ginge die Welt unter. Für ~850€ gibs ja die 7900XT mit 320W, -10% sind dann ~290W und Habeck ist zufrieden.
dargo
2023-04-10, 12:22:52
Im Winter ist die Situation ganz anders. Da freue ich mich sogar auf eine höhere Abwärme, weil die GPU beim Gaming als Heizung dient. Gerne auch 475W als Heizquelle mit 3x8Pin Stecker. Die Hellbound ist ja auf 2x8Pin limitiert, also max. 350-375W Leistung.
Kümmere dich mal besser um deine Budde dann brauchst du auch keine Heizung im Winter.
vinacis_vivids
2023-04-10, 12:53:47
Kümmere dich mal besser um deine Budde dann brauchst du auch keine Heizung im Winter.
Bin noch zu jung um dauerhaft sesshaft (mit eigener Bude) zu werden. So mit Mitte 40 gedenke ich langsam an eigene vier Wände.
Also frühestens im Jahr 2030. 😂
Davor wird richtig geheizt mit GPU's. Im Prinzip ist das mit 475W ein Joke.
Im Sommer (6 Monate lang) hänge ich sowieso sehr wenig am PC, als das irgendwie Relevanz hätte.
=Floi=
2023-04-10, 13:03:50
aber zu viel im forum hängst trotzdem.
Mit strom heizen ist ineffizient. Es macht einfach sinn an den FPS zu sparen und weniger energie zu verbrauchen.
dargo
2023-04-10, 13:40:42
Bin noch zu jung um dauerhaft sesshaft (mit eigener Bude) zu werden. So mit Mitte 40 gedenke ich langsam an eigene vier Wände.
Also frühestens im Jahr 2030. 😂
Davor wird richtig geheizt mit GPU's. Im Prinzip ist das mit 475W ein Joke.
Im Sommer (6 Monate lang) hänge ich sowieso sehr wenig am PC, als das irgendwie Relevanz hätte.
Ich frage mich regelmäßig was mit dir nicht stimmt? 300W sind dir bei einer RX 6800XT zu viel Abwärme (im übrigen läuft meine RX 6800XT mit bis zu ~250W falls du das nicht mitbekommen hast) und dann verlinkst du mir so einen Bullshit wie eine RX 7900XTX auf 464W hochgeprügelt. Nimm bitte weniger davon was du auch immer nimmst. Anderen Heizstrahler empfehlen oder schönreden und selbst eine RX 6800 non XT kaufen. :facepalm:
vinacis_vivids
2023-04-10, 13:53:17
Junge, das ist bald 3 Jahre her. Die Dinge haben sich geändert.
dargo
2023-04-10, 14:12:05
Dann hau rein... kaufe dir eine RX 7900XTX mit möglichst hohem PT damit du deine kuscheligen 464W bekommst. Ich wünsche dir noch viel Spaß damit.
BlacKi
2023-04-10, 14:16:18
Dann hau rein... kaufe dir eine RX 7900XTX mit möglichst hohem PT damit du deine kuscheligen 464W bekommst. Ich wünsche dir noch viel Spaß damit.der winter ist vorbei. bald rät er wieder zu sparsameren karten, erst mitte herbst rät er wieder zu 500w karten.
Langlay
2023-04-10, 14:20:47
der winter ist vorbei. bald rät er wieder zu sparsameren karten, erst mitte herbst rät er wieder zu 500w karten.
Dann ist die 4090 die perfekte Karte :freak:
Wenn du 10% der Stockleistung liegen lässt, haste ne Karte die merklich unter 300W braucht, wenn du 10% mehr Leistung als Stock willst, kriegste auch die 500W relativ leicht gesprengt.
dargo
2023-04-10, 14:22:52
der winter ist vorbei. bald rät er wieder zu sparsameren karten, erst mitte herbst rät er wieder zu 500w karten.
;D :uup:
Ich habe mir die eine Szene von APTR gerade angeschaut. Selbst dort ist N31 ein Witz.
Meine RX 6800XT @250W TBP:
https://abload.de/thumb/unknown_2023.04.10-14p0flf.jpg (https://abload.de/image.php?img=unknown_2023.04.10-14p0flf.jpg)
RX 7900XTX mit 347W:
https://abload.de/image.php?img=unknown_2023.04.09-0795cal.jpg
Mit 313W PT und UV würden die selben Frames dabei rauskommen wenn wir schon fair mit UV RX 6800XT vergleichen wollen. Geht auch anders bei 300W TBP.
https://abload.de/image.php?img=unknown_2023.04.09-08owd0o.jpg
Wenn ich das UV bei meiner RX 6800XT rausnehme werden es ebenfalls knapp 69fps bei dann ~300W TBP mit einem PT-Limit von 255W ASIC. Wahrscheinlich minimal drüber bei fps, da ich mich eigentlich beim UV an einem 281W ASIC Profil vom AIB orientiert hatte, aber geschenkt dieses ~1% an Varianz.
Langlay
2023-04-10, 15:18:49
;D :uup:
Ich habe mir die eine Szene von APTR gerade angeschaut. Selbst dort ist N31 ein Witz.
Das ist genau das Problem selbst im Vergleich zu Navi21 sieht Navi31 nicht wirklich gut aus. Gegen was aktuelles von Nvidia wird es halt richtig finster. Imo ist Navi31 ein größerer Schuss in Ofen als Vega10. Vega10 konnte man wenigstens anständig undervolten.
BlacKi
2023-04-10, 15:28:17
wenn wir schon fair mit UV RX 6800XT vergleichen wollen. Geht auch anders bei 300W TBP.
fair? n31 taktet am effizientesten punkt. n21 bei 300w taktet nicht am effizientesten punkt, ist sogar weit entfernt davon.
es würde mich mal interessieren welche karte bei 200 und 250w mehr fps generiert.
dann kommt der full node sprung erst richtig lächerlich vor.
dargo
2023-04-10, 15:40:21
Das ist genau das Problem selbst im Vergleich zu Navi21 sieht Navi31 nicht wirklich gut aus. Gegen was aktuelles von Nvidia wird es halt richtig finster. Imo ist Navi31 ein größerer Schuss in Ofen als Vega10. Vega10 konnte man wenigstens anständig undervolten.
Das ist genau das was mich nur interessiert, Nvidia geht mir am Ars... vorbei. ;) Du tust hier gerade so als wenn es bei Nvidia deutlich besser aussehen würde. Dabei kostet eine RTX 4080 noch wesentlich mehr als 999€ und leistet @4k im Rasterizer genau das was die RX 7900XTX leistet. :ulol:
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_inkl_nextgen
Nur der Durst ist angenehmer. Zumindest bei einer Referenz. Bei den AIBs gehts wieder Richtung ~315-325W.
https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Oder willst du mir jetzt mit einer 1.680€+ RTX 4090 argumentieren? :|
fair? n31 taktet am effizientesten punkt. n21 bei 300w taktet nicht am effizientesten punkt, ist sogar weit entfernt davon.
Euch kann man es aber auch nicht recht machen. Jetzt habe ich schon versucht N31 in ein etwas besseres Licht zu rücken und einige sind immer noch am jammern. ;) Mir ist schon klar was du meinst. Ich wollte einfach nur beide mit UV vergleichen. Also so wie ich solche Karten betreiben würde.
The_Invisible
2023-04-10, 15:42:54
Raytracing wird halt auch nicht weniger, das kannst nicht einfach so ignorieren ;-)
dargo
2023-04-10, 15:46:38
Klar kann ich das ignorieren, das tue ich schon seit 2018. ;D Dieser ganze Raytracing-Bullshit ist doch nur Leistungsverschwendung per exzellence bei den Lederjacken-Modis. RT nehme ich wahrscheinlich frühestens mit der UE5 ernst. Muss sich aber noch beweisen, diese Titel sind gerade erst in Entwicklung.
aufkrawall
2023-04-10, 15:50:52
Raytracing wird halt auch nicht weniger, das kannst nicht einfach so ignorieren ;-)
Ist RT denn aktuell besser/wichtiger als in Control, WD Legion oder meinetwegen noch CP77? Ich sehe in erster Linie völlig verbugte oder ineffiziente Checklisten-Features wie in Hogwarts, auf die ich einfach nur scheißen würde, wenn ich nicht gerade zig GPU-Ressourcen übrig hätte.
Die Chance, dass RT in den "wichtigen" Spielen dieses Jahr wie Starfield oder Redfall gar keine oder keine nennenswerte Rolle spielen wird, erscheint mir nicht sonderlich gering...
DrFreaK666
2023-04-10, 15:54:41
Wahrscheinlich nur RT Shadows oder so. Die Spiele müssen auch auf der Xbox laufen
Schnitzl
2023-04-10, 18:54:07
so, wenn ich nochmal hier löschen muss gibts nicht nur eine Karte sondern full house
horn 12
2023-04-10, 22:59:00
@Dargo
Hast dann die 7900XTX Hellhound Retourniert,
bzw. morgen im Laufe des Tages ?
dargo
2023-04-11, 06:32:45
Ist schon eingepackt und geht diese Woche Retoure. N31 überzeugt mich nicht (Salvage wird dann auch wenig Sinn machen), mal sehen ob Ende 2023 ein gefixter Refresh mit weniger Durst bei hoher bis mittlerer Shaderlast kommt.
GerryB
2023-04-11, 08:41:40
RDNA2
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83423&stc=1&d=1681111942
Die Kurve ist übrigens von ner 6800xt.(ne 6900xt sieht evtl. noch etwas freundlicher aus, siehe Anhang gemessen nur mit Furmark)
() diese Werte sind mit nem GoldenChip@h2o entstanden, net gamestable für normale Chipgüte
Meine RX 6800XT @250W TBP:
Um genauer zu sein, 226W tgp x 1,15 + 5 = ca. 264,9W tbp.
Man müsste sich also etwas Mühe geben, um ein Setting für die 7900xtx zu finden, wo der maxTakt den Verbrauch in der Plage auf 270W begrenzt,
und dann probieren wieweit man mit dem Offset gehen kann.
(im Vgl. zu ner 7900XT müssste ne XTX auch mit <2400MHz in 4k noch mithalten können bei gleichen W)
Für Resis <4k vermute ich mal, das die 7900xtx die Shader net so gut auslasten kann.(ähnlich Ampere)
https://www.computerbase.de/2023-02/atomic-heart-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Da hätten dann die 7900xt und olle 6900 Vorteile.(sieht man schön in AH)
So richtig deutlich wäre es u.U. in 5k.(vllt. spielt dann auch endlich Vram-OCen ne Rolle)
Ist schon eingepackt und geht diese Woche Retoure. N31 überzeugt mich nicht (Salvage wird dann auch wenig Sinn machen), mal sehen ob Ende 2023 ein gefixter Refresh mit weniger Durst bei hoher bis mittlerer Shaderlast kommt.
Irgerndwie ist diese ganze Generation hart ungeil, egal ob NV oder AMD...
Thunder99
2023-04-11, 09:02:09
Wenn man von einer älteren Pre RT Generation kommt nicht, abgesehen vom Preis :usad:
Exxtreme
2023-04-11, 09:14:58
Irgerndwie ist diese ganze Generation hart ungeil, egal ob NV oder AMD...
Finde ich gar nicht so. Der einzige richtig dicke Hund: schlechteres P/L-Verhältnis als die Vorgängergenerationen. Aber gut, wenn der Markt diese Preise hergibt dann gibt ere sie her.
dargo
2023-04-11, 09:27:20
Um genauer zu sein, 226W tgp x 1,15 + 5 = ca. 264,9W tbp.
Was ist das denn wieder für eine komische Formel? :tongue: Den Angaben von Igor nach...
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/4/
komme ich auf 259W TBP @4k bzw. 256W TBP @1440p. Wenn er mit balanced das balanced Bios der XFX mit 281W ASIC meint.
Man müsste sich also etwas Mühe geben, um ein Setting für die 7900xtx zu finden, wo der maxTakt den Verbrauch in der Plage auf 270W begrenzt,
und dann probieren wieweit man mit dem Offset gehen kann.
(im Vgl. zu ner 7900XT müssste ne XTX auch mit <2400MHz in 4k noch mithalten können bei gleichen W)
Du kannst dir gerne die Mühe machen, ich passe. ;) Ich soll also die RX 7900XTX noch stärker einbremsen wenn sie mir eh schon zu wenig Performanceuplift zum gegebenen Preis vs. RX 6800XT liefert? Ihr habt schon echt fantastische Ideen. :lol:
Lurtz
2023-04-11, 09:32:16
Finde ich gar nicht so. Der einzige richtig dicke Hund: schlechteres P/L-Verhältnis als die Vorgängergenerationen. Aber gut, wenn der Markt diese Preise hergibt dann gibt ere sie her.
Die Verkäufe sind doch auf einem all time low. Ich glaube es wird überschätzt wie viel Einfluss der Consumer wirklich noch hat auf den GPU-Markt. nVidia steckt mittlerweile in Datacenter, OEM-Verträgen usw., was interessieren da ein paar unzufriedene Selbstbauer in Hardwareforen. Dann wandern die Chips und Fertigungskapazitäten halt woanders hin. Ein Quasi-Monopol hat man am PC eh, dann kaufen die Kunden eben bei Release obsolote 8 GB GPUs für 500€.
GerryB
2023-04-11, 09:42:15
Was ist das denn wieder für eine komische Formel?
So wird die TBsim bei CFX berechnet und wurde auch mit PCAT-Messungen von Taxxor gegengeprüft.
Du kannst Dir ja im CFX-Overlay die TBsim für Deine 6800xt anzeigen lassen.
dargo
2023-04-11, 09:49:59
Diese Formel gilt aber auch nur für die dort verwendete Karte. Es gibt durchaus effizientere PCBs bzw. Spannungsversorgung wo du diese Formel nicht mehr anwenden kannst. Eine kleine Abweichung wird es also zwangsläufig davon geben je nach AIB und Karte.
Du kannst Dir ja im CFX-Overlay die TBsim für Deine 6800xt anzeigen lassen.
Was soll ich denn mit Schätzwerten von CFX? :tongue: Denn nichts weiter ist es, ein Schätzwert aufgrund von Daten X die bei Y nicht unbedingt passen müssen.
anddill
2023-04-11, 11:37:29
Jungs, reißt Euch endlich mal zusammen!
GerryB
2023-04-11, 12:05:01
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Tests/Qnix-QX2710LED-Test-1125409/
Es gab also schon Versuche mit Overdrive die 120Hz zu schaffen, ... ein User meinte dann im Thread, das Er nur mit nem besseren DP-Kabel
auf >96Hz sprich die 120Hz kam.
Finde ich gar nicht so. Der einzige richtig dicke Hund: schlechteres P/L-Verhältnis als die Vorgängergenerationen. Aber gut, wenn der Markt diese Preise hergibt dann gibt ere sie her.
Bitte? NV bietet durch die Bank zu wenig VRAM, die Preise sind am Mond, AMDs Stromverbrauch ist schlecht, die Preise auch...
Wenn da nicht ein gefixte RDNA3-Refresh kommt oder eine NV Super Serie mit ordentlich VRAM ist das einfach ne verkackte Genereation.
Und die 4080 hat auch zuwenig VRAM. Wenn man sich jetzt anschaut, dass Spiele 14GB belegen mit RT @1440p werden die 16GB auch nicht ewig vorhalten.
Einzig die 4090 ist toll und die ist schwer CPU-lastig... es ist eben nicht so rosig.
Die Verkäufe sind doch auf einem all time low. Ich glaube es wird überschätzt wie viel Einfluss der Consumer wirklich noch hat auf den GPU-Markt. nVidia steckt mittlerweile in Datacenter, OEM-Verträgen usw., was interessieren da ein paar unzufriedene Selbstbauer in Hardwareforen. Dann wandern die Chips und Fertigungskapazitäten halt woanders hin. Ein Quasi-Monopol hat man am PC eh, dann kaufen die Kunden eben bei Release obsolote 8 GB GPUs für 500€.
NV wird alles dafür tun, dass die Preise oben bleiben - selbst wenn das bedeutet, dass man mehr VRAM bringen muss. Wenn BL wirklich monolithisch bleibt, werden die Kosten noch krasser steigen und die Consumer-Preise werden noch krasser werden. 600$ für die 4070 ist unterste Kante für Nv gewesen. Eigentlich sollten 750$ veranschlagt werden. Die werden auf jeden Fall hochpreisig bleiben, damit der Sprung auf BL erträglich bleibt.
Der Fall 4070 zeigt aber auch, dass diese Hochpreisstrategie riskant ist.
Exxtreme
2023-04-11, 13:28:57
Bitte? NV bietet durch die Bank zu wenig VRAM, die Preise sind am Mond, AMDs Stromverbrauch ist schlecht, die Preise auch...
Wenn da nicht ein gefixte RDNA3-Refresh kommt oder eine NV Super Serie mit ordentlich VRAM ist das einfach ne verkackte Genereation.
Und die 4080 hat auch zuwenig VRAM. Wenn man sich jetzt anschaut, dass Spiele 14GB belegen mit RT @1440p werden die 16GB auch nicht ewig vorhalten.
Einzig die 4090 ist toll und die ist schwer CPU-lastig... es ist eben nicht so rosig.
Von AMD erwarte ich nicht, dass da so schnell was "gefixtes" kommt. Es ist so, AMD hat offenbar einen sog. "general purpose"-Ansatz gewählt wie er bei CPUs üblich ist. AMD macht halt sehr vieles per Shader-ALUs weil sie programmierbar sind und damit ist man sehr flexibel. Und billiger herzustellen ist das wohl auch noch. Man büßt aber viel Effizienz ein. Denn programmierbare Einheiten sind viel ineffizienter als spezialisierte.
Das ist eine grundsätzliche Problematik, die man nicht fixen kann. Den "Fix" erwarte ich allerfrühestens mit RDNA4, sollte AMD mehr auf spezialisierte Schaltkreise setzen. Gehen sie aber weiterhin den "Wir machen alles auf den Shader-ALUs"-Weg dann vergiss es.
Und Nvidia hat nicht durch die Bank zu wenig VRAM. Die 24 GB auf der RTX4090 sollten fett reichen.
maximus_hertus
2023-04-11, 13:31:46
Und die 4080 hat auch zuwenig VRAM.
1. Hätte die 4080 den "normalen" x80er Preis (sagen wir Inflationsbereinigt 799 USD), würde es per se schon mal anders bewertet werden.
2. Ich glaube nicht, dass wir weitere, große Sprünge beim VRAM Bedarf sehen werden.
Diese erfolgen meistens 2-3 Jahre nach dem Launch einer neuen Konsolengeneration.
Ca. 2015-2016 der Schritt zu 8GB VRAM
Jetzt der Schritt zu 16GB VRAM. Ggf. gibt es dann "Overdrive" Modi für 32GB.
Der nächste Schritt zu 32+GB wird dann erst mit PS6 und Co. erfolgen (imo).
Natürlich kann es immer einzelne Games geben, die z.B. PC exklusiv sind oder aus welchen Gründen auch immer diese alles auffahren, was irgendwie geht und das nächste Crysis werden wollen. Aber bei der breiten Masse an Spielen wird wohl 16GB der Standard werden (für die nächsten grob 5 Jahre).
Mit RT und Co. dann eher 24GB.
3. nV wird das clever beim Launch der RTX 5000 nutzen. Dank VRAM Mangel und damit (viel) weniger fps werden die Steigerungen viel größer aussehen als sie theoretisch wären.
RTX 4060 8GB -> RTX 5060 12 oder 16GB
RTX 4070 12GB -> RTX 5070 16GB
RTX 4080 16GB -> RTX 5080 20-24GB
Quasi das gleiche Schema wie damals von Kepler zu Maxwell zu Pascal.
Kepler 1-3 GB, Maxwell erhöht als Zwischenschritt auf 2-4 GB (bzw. die 90 der damaligen Zeit, die Kepler Titan und die 980Ti hatten 6GB). Dann PAscal mit breiten 8 GB bzw. 11 GB bi der 80Ti. Das blieb bis zur RTX4000 grob so.
Die 4000 ist wie Maxwell ein Zwischenschritt und mit RTX 5000 hat man dann die VRAM Größen, die dann wieder einige Zeit so bleiben werden.
Das ist natürlich nur meine Vermutung / Speku :)
Wir werden einen riesigen Sprung sehen. Die Konsolenspiele haben grad mal angefangen das Streaming der aktuellen Konsolen wirklich zu optimieren. Das wird noch einen massiven Einfluss haben. Bisher waren die meisten Spiele noch für die PS4 entwickelt, das ändert sich ja erst jetzt. Das ist einfach ne komplette Fehlannahme, dass der VRAM-Verbrauch ab jetzt stagniert. Dann kommt auch noch DirectStorage, was die CPU-Last verringert wird. Dann kann man auf dem PC noch mehr Assets streamen und verballert noch mehr VRAM.
RoNsOn Xs
2023-04-12, 15:52:29
Seit ein paar Tagen bemerke ich eine angestiegende HotSpot-Temp der nun 2,5 Monate alten XFX XTX.
Ging quasi von heut auf morgen. Zuerst ca. 5-6 Grad mehr, zuletzt schon gute 15°C mehr als sonst über den genannten Zeitraum, bei sonst gleichen Anwendungen und Einstellungen.
Drehe ich die Lüfter höher, oder senke das PL, dann ist eine Absenkung zu erkennen, allerdings senken sich auch die anderen Temps. Das erhöhte delta zwischen den Temps bleibt. Seltsam.
Ich spreche hier von (innerhalb der 2,5 Monate) 78 bis 80°C und nun seit ein paar Tagen 95° (alles bei ca. 360w). Zur Einordnung: dabei bleibt der Sensor der GPU bei ansonsten unveränderten 57-60°C.
Werde das weiter beobachten.. stranges Gefühl bleibt.
Taigatrommel
2023-04-12, 16:13:41
Das beobachte ich mit meiner MBA XTX ebenfalls: Während ich die ersten Wochen ja stets eine Junction-Temperature von ca. 77-78°C berichtet habe, ist diese bereits letzten Monat immer mal auf 80-81°C gestiegen und liegt derzeit eher bei 82-84°C.
Ich gehe in meinem Fall von einer doch gefühlt gestiegenen Raumtemperatur aus: Ich wohne in einer Dachwohnung und die ist jetzt nicht wirklich super gedämmt und gerade die Ecke wo der Rechner steht, ist ein gutes Stück von der Heizung entfernt. Jetzt wo auch des öfteren die Sonne aufs Dach knallt, ist es hier gefühlt deutlich angenehmer als noch vor einigen Wochen.
RoNsOn Xs
2023-04-12, 16:31:34
Wobei die MBA ja sowieso schon zur erhöhten Hotspot Temp neigen kann(!) , durch die teils fehlerhafte vapor-chamber. Evtl tritt dieses Problem jetzt bei dir auch nur später auf, wovon du ja zuvor verschont bliebst.
Habe hier aber die xfx und der schon drastische Anstieg innerhalb ein paar Tagen, lässt mich schon sehr rätseln.
Eine räumliche Temperaturveränderung kann ich hier ausschließen. Die Werte sind wie eh und je. Zumal das bei mir auch keine 15+°C erklären würde. :(
Soweit mir in Erinnerung geblieben, nutzt die xfx auch eine VC? Ich werde übermorgen mal auf vertikal umbauen und danach wieder horizontal. Vllt wirkt sich das auf irgendeine Richtung aus.
Mortalvision
2023-04-12, 16:37:27
Beim Review der 4070 kommen sowohl die 6800XT hinsichtlich p/l, als auch die 7900er wegen guter Treiberarbeit ansehnlich weg.
Ich beziehe mich auf das Review bei Linus, Youtube.
Taigatrommel
2023-04-12, 16:38:14
Okay, ich habe irgendwie überlesen, dass es bei dir gleich ein Sprung von 15°C ist. Hier könnte man ja am ehesten noch auf die Wärmeleitpaste tippen - XFX wird ja sicher auch diese komische Pampe verwenden, welche AMD auch auf den Referenzen benutzt.
Man könnte es abseits dessen ja eigentlich nur an gesunkener Lüftergeschwindigkeit erklären, doch das wäre dir ja sicherlich ebenfalls aufgefallen. Hast du mal geschaut, ob wirklich auch alle Lüfter noch einwandfrei funktionieren? Nicht, dass z.B. ein Lüfter ausgestiegen ist.
RoNsOn Xs
2023-04-12, 16:43:29
Lüfterspeed ist ebenso immer im Blick. Guter Tipp, wie viele davon laufen, habe ich mir tatsächlich nicht angesehen. Kann ich erst wieder morgen checken. Schließe ich aus der Ferne jedoch aus, da dann wohlmöglich die anderen temps mit ansteigen würden. RAM und GPU selbst verweilen aber auf normalen, bekannten Werten.
Empfiehlst du eine WLP?
Taigatrommel
2023-04-12, 17:19:48
Naja irgendwo muss die Erhöhung der Temperatur ja herkommen. Wie sieht denn die reguläre GPU Temperatur aus? Wenn man alle anderen Einflüsse wie Umgebungstemperatur, Lüfterfunktion und -geschwindigkeit, sowie generelle Belüftung des Gehäuses ausschließen kann, bleibt ja langsam nur noch die Wärmeleitpaste übrig.
Ich persönlich würde die WLP draufmachen, welche ich auch für meine CPU herumliegen habe, das wäre in meinem Fall die Noctua NT-H2. Ob es da besseres gibt, weiß ich nicht. Ich hätte spontan ja eher zu einem Graphitpad wie dem Carbonaut von Thermal Grizzly tendiert, doch dies scheint die Temperaturen bei RDNA3 doch deutlich zu verschlechtern, zumindest gemäß eines Nutzerberichtes auf Reddit - wobei man dazu sagen muss, dass der User dort eine MBA mit defekter Vapor Chamber genutzt hat.
RoNsOn Xs
2023-04-12, 18:06:05
Schrieb ich bereits, Taiga :D 57-60 Grad, allerdings meist vorn eher die 5. Wie gesagt, an der Temp hat sich nichts verändert. Was mir noch nicht ganz klar ist, was dieser Sensor eigtl wirklich aussagt bzw wo dieser misst.
Zum Pad - kannte ich noch gar nicht. Ein paar Rezensionen durch gelesen: bringt ggü der Paste in den meisten Fällen kaum etwas. Und dieses Pad hat den Nachteil des Preises und das es punktgenau dort verweilen muss bei Montage. Und der Chip der xtx hat ja nun noch gleich 7 Dies. Wenn man das nicht mit einem einzigen Pad abdecken kann, wirds kompliziert. X-( Dennoch danke für den Hinweis, dass es sowas überhaupt gibt. :)
horn 12
2023-04-12, 19:32:26
Dann hast nun die Vapor Chamber Problematik eingeheimst?
Hast ein Delta von 25 bis 30 Celsius...
Obwohl so spät erst eingetreten, sollte gar nicht mehr so sein...
Hast von Senkrecht auf Waagrecht geändert,- die Letzten Tage
Oder öfters gewechselt.
Bei Meiner MBA 7900 XTX mit 2665 Mhz bei 1,050 Volt PL minus 10% habe ich 70/71 Grad GPU
und Hotspot 88 bis 91 Grad. bei 3440 x 1440 @175 Hz bei Alienware3423 SW
Habe aber kaum Lufteintritt und nur einen Phanteks T30 Lüfter am Heck zu 1400 U/min
Taigatrommel
2023-04-12, 19:34:22
Dann hast nun die Vapor Chamber Problematik eingeheimst?
Hast ein Delta von 25 bis 30 Celsius...
Obwohl so spät erst eingetreten, sollte gar nicht mehr so sein...
Hast von Senkrecht auf Waagrecht geändert,- die Letzten Tage
Oder öfters gewechselt.
Das kann bei Ronson ja nicht sein, da er eine XFX Merc hat.
horn 12
2023-04-12, 19:54:39
OK, dachte XFX Referenz MBA Karte.
Ja, dies soll bei XFX nicht ein Einzelfall sein.
RoNsOn Xs
2023-04-12, 20:25:44
Überhaupt keine Settings verändert, wie schon gesagt. Lediglich kamen +16gb RAM aufs Board dazu, was ich aber mal total ausklammere. Werde morgen oder übermorgen mehr sehen.
RoNsOn Xs
2023-04-13, 12:52:10
Nachtrag:
bevor ich die Karte öffnen wollte, hab ich nochmal den Rechner angemacht um die Lüfter zu überprüfen. Diese laufen alle.
Aber das Problem? Es ist weg. Es herrschen wieder normale Temps (knapp unter 80° HS), als wenn nie etwas anders gewesen wäre. Verstehe ich nicht, aber mal schauen ob das Problem zurück kehrt. :confused:
dargo
2023-04-13, 18:20:09
Rückzahlung von MF bereits da, die sind ja extrem schnell. :eek: Paket hatten die erst heute um 11:14 bekommen.
Ex3cut3r
2023-04-13, 18:29:30
Was planst du jetzt eigentlich? Doch mal eine 7900 XT only ausprobieren? Oder bleibst du bei der 6800 XT bis zur nächsten Gen?
horn 12
2023-04-13, 18:37:42
NEUER Treiber erlaubt bis zu - (Minus) 25 Prozent PowerTarget
und erhöht die Performance um 5 - 15%
Ne, mal im Erst da wird sicher noch was kommen,- Zumindest mit dem FSR 3.0 Release.
Dies wird wie damals wohl ein Update des Treibers (Dezember)
... aber warten darf man nimmer lange!
Schnoesel
2023-04-13, 18:42:21
Tach,
endlich konnte ich meine 7900XTX Taichi verbauen (nachdem der Kühlblock über einen Monat gedauert hat bis er geliefert wurde). Leistung ist sogar über meinen Erwartungen, aber die Karte hat schon Spulenfiepen und ist nichts für Leute die über 250FPS gehen wollen (da mein Monitor nur bis 165Hz geht und ich ein FPS cap drin habe ist das für mich kein Problem, da singt sie nicht).
Scheinbar hat sich das Phänomen Spulenfiepen nochmal verstärkt in den letzten Jahren, was man so hört.
PS: Was mich schlicht begeistert sind die Möglichkeiten im Treiber. Was man da nicht alles tweaken kann ist unfassbar und alles bereits im Treiber mit drin. Also da kann sich Nvidia echt mal ein Scheibchen abschneiden.
@horn 12
Neuer Treiber? Einen neueren als den Adrenalin 23.4.1 finde ich nicht.
dargo
2023-04-13, 18:56:57
Was planst du jetzt eigentlich? Doch mal eine 7900 XT only ausprobieren? Oder bleibst du bei der 6800 XT bis zur nächsten Gen?
Ich bleibe bei der RX 6800XT, die liefert noch genug fps für mich @1440p. Habe hier noch kein Spiel angetroffen wo die zu langsam wäre. Mit der RX 7900XTX hatte ich halt mit einem 4k Screen u.U. geliebäugelt. Aber die Idee wird dann auf unbestimmte Zeit verschoben, zumindest die XTX überzeugt mich nicht wirklich. Um ehrlich zu sein ist der Zeitpunkt jetzt für eine neue Graka bei mir eher weniger passend da mich Gaming ab Frühling wenig interessiert. Besser ist Herbst bis Winter für solche Spielereien.
@horn 12
Neuer Treiber? Einen neueren als den Adrenalin 23.4.1 finde ich nicht.
Horni fantasiert wieder rum, einfach ignorieren.
Taigatrommel
2023-04-13, 19:16:51
NEUER Treiber erlaubt bis zu - (Minus) 25 Prozent PowerTarget
und erhöht die Performance um 5 - 15%
Ne, mal im Erst da wird sicher noch was kommen,- Zumindest mit dem FSR 3.0 Release.
Dies wird wie damals wohl ein Update des Treibers (Dezember)
... aber warten darf man nimmer lange!
Das sind alles wieder nur typische Fantasien ohne begründete Fakten auf die Quellen. Auf dieser Basis verkauft man keine Produkte.
AMD hat Hypr RX ja nach wie vor für die 1. Hälfte 2023 angekündigt - um das zu halten, muss man sich ja langsam ranhalten. Sind ja nur noch rund anderthalb Monate. Bei FSR3 muss man vor allem die Spieleunterstützung abwarten, bringt ja nichts, wenn beim Launch dann wieder nur fünf, sechs Spiele unterstützt werden.
aufkrawall
2023-04-13, 19:29:36
Bin sehr froh, dass AMD gerade lieber Fix-Treiber rausgibt, anstatt neue Quatsch-Features einzubauen. Ok, FSR 3 könnte seine Daseinsberechtigung haben, Skepsis ist aber sehr angebracht.
Hätte trotzdem lieber weitere FSR 2-Verbesserungen.
Liebe RDNA-3-Nutzer, schaut bitte mal hier rein: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=614770
RDNA 2 ist natürlich auch gerne gesehen. :)
MfG
Raff
vinacis_vivids
2023-04-15, 00:35:05
https://youtu.be/ujh4Md0XkB8
7900X3D + 7900XTX
RDR@Vulkan UHD >100fps auf dem Top-End Level.
600€ CPU AMD R9 7900X3D 12C/24T
1200€ GPU Sapphire RX 7900XTX 24GB
250€ RAM 64GB DDR5-5600 Kingston
350€ MB So. AM5 X670E ATX Asrock
Summe : Für 2400€ ist schon haltbar für paar Jahre.
Schon ne schöne Maschine. Als Zweit-GPU eine 7900XT für den TV. Die PCIe Lanes geben das ja auch her.
1000W braucht das Ding mit zwei GPUs 7900XTX Eerstkarte und 6800er (schon vorhanden) als Zweitkarte für Multimedia/TV.
Im Prinzip total verschwenderisch.
crux2005
2023-04-15, 00:43:48
Wieso ist bei ihm das Feuer "kaputt"? Wird ganz offensichtlich in einem Kasten gerendert und alles was darüber geht abgeschnitten.
aufkrawall
2023-04-15, 00:58:13
Relativ neue Treiber-Regression, steht unter known issues (betrifft das Feuer offenbar genau so).
dildo4u
2023-04-15, 12:19:31
Bissel Marketing von AMD aber komisch läuft Wichter nicht schlechter als Cyberpunk?(RT nur auf Medium bei CP77)
7nTA22FlQmE
horn 12
2023-04-15, 12:34:07
Endlich mal passiert was bei AMD
Nun das Release Datum von FSR 3.0
und den Performance Boost Treiber und man kommt gut über den Sommer 23 hinweg.
OgrEGT
2023-04-15, 22:12:59
Habe mal bei meiner 7900XT über den TBP Bereich von 280W - 421W 3DMark Timespy laufen lassen.
Im WM habe ich 1050mV bei 3000MHz max GPU Takt hinterlegt. VRAM war Standard ohne FT.
Man sieht schön, wie der max GPU Takt nur wenig steigt, die TBP allerdings umso mehr. Wenn man sich Perf/W als Graphic Score Pts gegenüber der TBP ansieht, dann sinkt diese doch sehr. Da man nicht unter 280W kommt, kann man auch nicht das Maximum ermitteln, welches ggf unter 280W liegt.
Meine Alltagssettings bleiben bei PL-5% BIOS2 bei noch knapp unter 300W, was für mein kleines Case und <1000rpm Fan sehr leise ist. FPS werden bei 97fps gekappt wegen Freesync :cool:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83507&stc=1&d=1681589473
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83508&stc=1&d=1681589473
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83509&stc=1&d=1681589473
BlacKi
2023-04-15, 22:53:09
kannst du mal ein spiel gegenbenchen, das die karte wenig auslastet? also der verbrauch gering ist? timespy lastet die karte sicher gut aus. zb. forza?
OgrEGT
2023-04-15, 23:00:12
kannst du mal ein spiel gegenbenchen, das die karte wenig auslastet? also der verbrauch gering ist? timespy lastet die karte sicher gut aus. zb. forza?
Das Spiel hab ich leider nicht... geht auch SotTR?
Wenn es ein Spiel ist das wenig verbraucht dann sollte die Anhebung der TBP ab einem bestimmten Punkt nicht so viel bringen... die Karte müsste in ein Taktlimit laufen wenn die TBP nicht erreicht werden kann...
=Floi=
2023-04-15, 23:05:03
Spiel mit einstellbarem FPS limit.
OgrEGT
2023-04-15, 23:19:49
Spiel mit einstellbarem FPS limit.
Ich könnte das fps Limit auch über den Treiber einstellen und die max Leistungsaufnahme dazu ermitteln... ich schau mal...
BlacKi
2023-04-15, 23:25:49
Das Spiel hab ich leider nicht... geht auch SotTR?
theoretisch geht jedes spiel, das die shader schlecht auslastet, also takt hoch ist.
dargo
2023-04-16, 08:55:06
@OgrEGT
Bei deinem Test da oben komme ich nicht ganz mit. Wenn ich dich richtig verstehe hast du als Profil 3Ghz/1050mV gewählt und dann mit verschiedenen PTs rumgespielt. Deiner Grafik nach sieht es so aus, dass diese 3Ghz im 3DMark bei ca. 355W erreicht werden. Wieso säuft die Karte bis zu 420W wenn der Boost praktisch gar nicht mehr steigt? :| Wo ist da die Logik? Wenn du da 3,1Ghz/1050mV oder 3,2GHz/1050mV als Profil gewählt hättest würde das ja noch Sinn ergeben, aber dann müsste der Boost weiter nach oben gehen.
Das Spiel hab ich leider nicht... geht auch SotTR?
SotTR hat eher mittlere bis hohe Shaderlast. Assassin’s Creed Origins hat sehr niedrige Shaderlast.
Edit:
Ops... habe die 3Ghz Linie falsch gedeutet, bei 355W sind es 2873Mhz. :redface: Spielt aber keine Rolle denn das was du da ermittelt hast ist teilweise Voodoo. :D
2928Mhz = 28127P
2873Mhz = 27041P
2% mehr Takt ergeben 4% mehr Performance? Du hast die Physik ausgehebelt. :tongue:
2676Mhz = 25971P
2527Mhz = 25142P
~6% mehr Takt ergeben 3,x% mehr Performance. Das sieht schon plausibler aus. ;)
Taigatrommel
2023-04-16, 09:27:18
Nachtrag:
bevor ich die Karte öffnen wollte, hab ich nochmal den Rechner angemacht um die Lüfter zu überprüfen. Diese laufen alle.
Aber das Problem? Es ist weg. Es herrschen wieder normale Temps (knapp unter 80° HS), als wenn nie etwas anders gewesen wäre. Verstehe ich nicht, aber mal schauen ob das Problem zurück kehrt. :confused:
Ich würde das Problem einfach erstmal weiter beobachten, das mache ich bei meiner MBA derzeit ebenfalls. Dort steigen die Hotspot-Temperaturen zwie schon erwähnt ebenfalls, doch es ist halt alles noch absolut im Rahmen. Die Karte aufschrauben und nachschauen kann man ja immer noch.
RoNsOn Xs
2023-04-16, 09:57:45
Sowieso. :)
Habe noch immer normale Temps. Es ist nicht mehr aufgefallen. Habe die Karte mittlerweile vertikal verbaut. Die temps spiegeln sich quasi. Keine Errungenschaft.
OgrEGT
2023-04-16, 11:38:49
Habe nun SotTR getestet mittels des eingebauten Benchmarks. Im Rahmen der TBP die ich über den Treiber einstellen konnte habe ich mit BIOS2 die TBP -10% (278W), 0% (309W) und +15% (355W). Um mit der TBP weiter runter zu kommen, habe ich bei PL-5% ein fps Cap von 60, 97 und 120fps gesetzt und in dem Rahmen mittels GPU-Z die typische TBP in den fordernsten Szenen ermittelt.
Hier sieht man nun auch beo Perf/W dass es ein Maximum irgendwo bei 280W zu geben scheint. Bei meinen 24/7 settings von -5%PL und 97fps Cap verbraucht die Karte so typisch um die 240W.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83514&stc=1&d=1681637849
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83515&stc=1&d=1681637849
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83513&stc=1&d=1681637849
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83516&stc=1&d=1681637849
OgrEGT
2023-04-16, 11:47:46
@OgrEGT
SotTR hat eher mittlere bis hohe Shaderlast. Assassin’s Creed Origins hat sehr niedrige Shaderlast.
Edit:
Ops... habe die 3Ghz Linie falsch gedeutet, bei 355W sind es 2873Mhz. :redface: Spielt aber keine Rolle denn das was du da ermittelt hast ist teilweise Voodoo. :D
2928Mhz = 28127P
2873Mhz = 27041P
2% mehr Takt ergeben 4% mehr Performance? Du hast die Physik ausgehebelt. :tongue:
2676Mhz = 25971P
2527Mhz = 25142P
~6% mehr Takt ergeben 3,x% mehr Performance. Das sieht schon plausibler aus. ;)
Es geht ja nicht darum hier die Mikrometerschraube anzusetzen, sondern es geht um das Ausloten wo das Optimum aus Perf/W, also der Sweetspot ist.
Jetzt auch mit dem Test in SotTR scheint der irgenwo bei 280W zu sein...
Das kann natürlich in anderen Spielen anders aussehen.
Aber ja im Grunde ist es Spielerei... die aber auch Spaß macht :)
dargo
2023-04-16, 11:54:53
Ich wollte nur darauf hinweisen, dass da irgendwo was schief gelaufen ist. Dass eine Applikation mit 2% mehr Takt 4% schneller läuft ist vollkommen unmöglich. :)
btw.
Teste bitte falls möglich das gleiche nochmal mit CP77 Benchmark was du bei SotTR gemacht hast. Dann habe ich einen besseren Vergleich zu der RX 7900XTX. Aber bitte kein Offset bei mV verwenden, nur Stock Voltage und Stock Boostttakt. Bei CP77 nicht vergessen... nicht spielen sondern direkt benchen! Ansonsten bekommt was geringere Werte im Benchmark.
BlacKi
2023-04-16, 11:58:51
Es geht ja nicht darum hier die Mikrometerschraube anzusetzen, sondern es geht um das Ausloten wo das Optimum aus Perf/W, also der Sweetspot ist.
Jetzt auch mit dem Test in SotTR scheint der irgenwo bei 280W zu sein...
Das kann natürlich in anderen Spielen anders aussehen.
Aber ja im Grunde ist es Spielerei... die aber auch Spaß macht :)
der effizienteste punkt ist voltage regler anschlag nach links und max takt 2250-2300mhz.
das ist halt eine alternative kurve und lässt halt keine hohen takte mehr zu, aber ist effizienter.
OgrEGT
2023-04-16, 12:02:22
Ich wollte nur darauf hinweisen, dass da irgendwo was schief gelaufen ist. Dass eine Applikation mit 2% mehr Takt 4% schneller läuft ist vollkommen unmöglich. :)
btw.
Teste bitte falls möglich das gleiche nochmal mit CP77 Benchmark was du bei SotTR gemacht hast. Dann habe ich einen besseren Vergleich zu der RX 7900XTX. Aber bitte kein Offset bei mV verwenden, nur Stock Voltage und Stock Boostttakt. Bei CP77 nicht vergessen... nicht spielen sondern direkt benchen! Ansonsten bekommt was geringere Werte im Benchmark.
CP77 muss ich erst noch installieren :)
Die Spiele heutzutage werden auch immer größer... CP77 fast 70GB... :ugly:
Redneck
2023-04-16, 13:24:38
Endlich mal passiert was bei AMD
Nun das Release Datum von FSR 3.0
und den Performance Boost Treiber und man kommt gut über den Sommer 23 hinweg.
?
Wenn du sowas schreibst, solltest du auch ne Quelle anbieten Horn.
Nirgendwo kann ich ein Datum zu FSR3 finden.. Falls es nur ein Wunsch von dir war, schreibe es doch bitte auch so.
OgrEGT
2023-04-16, 13:26:50
CP77 muss ich erst noch installieren :)
Die Spiele heutzutage werden auch immer größer... CP77 fast 70GB... :ugly:
Welche Grafik Settings sollte ich einstellen?
Pathtracing macht wohl eher keinen Sinn :ulol:
Ich würde alles soweit möglich auf höchste Stufe einstellen...
RT auf Medium oder wo ist da der Sweetspot bzgl Mehrwert und Leistungsabfall?
dargo
2023-04-16, 13:39:46
Einfach ultra preset ohne RT. CA und Grain kannst du natürlich auch deaktivieren falls dich dass stört, spielt aber hierfür keine Rolle.
vinacis_vivids
2023-04-16, 13:55:44
Ich denke FSR 3.0 wird auch sehr häufig dual-issue fp32 + fp16 nutzen und RDNA3 wird sich noch viel deutlicher von RDNA2 absetzen können.
RX 6900XT ~ 46 Tflops fp16
RX 7900XT ~ 103 Tflops fp16
Das sind theoretisch ca. eine Verdopplung der Leistung (bzw. FPS) machbar.
RDNA3 beherrscht auch bf16, womit man fp32 Ergebnisse leicht umwandeln kann und somit viel Bandbreite spart und zugleich beschleunigt.
Fp16-Rate ist insbesondere für RT interessant, die meist fp32-rayshading (CP2077, Control) nutzen, wo auch fp16 völlig genügt. Das beschleunigt die FPS um >100%.
Mit fp16-rayshading bei den Game-Developer ist RDNA2 > Ampere und RDNA3 > Ada.
Mal schauen wie viele Engines diese uArch Vorteile bei AMD-GPUs ausarbeiten können.
Taigatrommel
2023-04-16, 14:24:00
Welche Grafik Settings sollte ich einstellen?
Pathtracing macht wohl eher keinen Sinn :ulol:
Ich würde alles soweit möglich auf höchste Stufe einstellen...
RT auf Medium oder wo ist da der Sweetspot bzgl Mehrwert und Leistungsabfall?
Also sobald du RT wirklich aufdrehen willst, wird FSR2 auch mit einer 7900 XTX zur Pflicht. RT auf "Medium" mit FSR2 Quality ist durchaus spielbar und sieht ganz gut aus. Drehst du die RT Qualität hoch, musst du FSR weiter runterstellen. Anders sieht es aus, wenn du dich nur mit RT Schatten zufrieden gibst, das packt die XTX auch ohne FSR gut, RT an sich, sowie RT Reflektionen ziehen halt letztendlich die Leistung herunter. Kommt natürlich auch auf die Auflösung an, meine Erfahrungen beziehen sich auf 3440x1440. Pathtracing ist in allem über 1080p nur in FSR2 Ultra Performance irgendwie spielbar - doch die gesamte Bildqualität ist dann so schlecht, da reißt es das Pathtracing absolut nicht mehr raus.
vinacis_vivids
2023-04-16, 19:33:46
7950X + 7900XTX @3,2-3,3Ghz
ltyqVgWgFgk
~ 59fps im Raumschiff
13900K + 4090@3,0Ghz
PslqN4oh_pg
~ 58fps im Raumschiff
RX 7900XTX@3,2-3,3Ghz =~= RTX 4090@3,0Ghz bei "Dead Space Remake".
OgrEGT
2023-04-16, 22:14:46
Hier nun die CP77 Tests ohne RT
WM:
1050mV bei 3200MHz max GPU Takt
VRAM Standard ohne FT
FPS Cap bei 97fps macht keinen Sinn, da in großen Teilen diese nicht erreicht werden, und somit die TBP ebenso hoch geht wie bei PL-10 (278W). Desahlb FPSCap bei 75 und 60fps.
Perf/W Optimum liegt auch hier wahrscheinlich zwischen 280 und 300W.
------------------------------------------------------------------------------
3440x1440
Ultra Settings
FSR2 Quality
RT aus
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83528&stc=1&d=1681675912
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83529&stc=1&d=1681675912
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83527&stc=1&d=1681675912
OgrEGT
2023-04-16, 22:18:29
Hier die CP77 Tests mit RT
WM:
1050mV bei 3200MHz max GPU Takt
VRAM Standard ohne FT
FPS Caps machen hier keinen Sinn, da die FPS bereits unter 60fps liegen
Perf/W Optimum deshalb nicht schätzbar.
Würde aber auch hier wenn ich mit RT spiele bei ca 300W bleiben.
------------------------------------------------------------------------------
3440x1440
Ultra Settings
FSR2 Quality
RT Schatten
RT Beleuchtung Mittel
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83531&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83532&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83530&stc=1&d=1681676213
=Floi=
2023-04-17, 00:38:37
Ich denke FSR 3.0 wird auch sehr häufig dual-issue fp32 + fp16 nutzen und RDNA3 wird sich noch viel deutlicher von RDNA2 absetzen können.
RX 6900XT ~ 46 Tflops fp16
RX 7900XT ~ 103 Tflops fp16
Das sind theoretisch ca. eine Verdopplung der Leistung (bzw. FPS) machbar.
fp32 + fp16 :rolleyes:
und dann darunter mit 103tf fp16 only rechnen. Das ist wieder so ein typischer post.
Deine 2x kannst auch ins traumland mitnehmen. Eventuell gibt es 2x, aber irgendwann führt es eher zu BQ verlust.
Schnitzl
2023-04-17, 02:07:32
Hier die CP77 Tests mit RT
WM:
1050mV bei 3200MHz max GPU Takt
VRAM Standard ohne FT
FPS Caps machen hier keinen Sinn, da die FPS bereits unter 60fps liegen
Perf/W Optimum deshalb nicht schätzbar.
Würde aber auch hier wenn ich mit RT spiele bei ca 300W bleiben.
------------------------------------------------------------------------------
3440x1440
Ultra Settings
FSR2 Quality
RT Schatten
RT Beleuchtung Mittel
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83531&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83532&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83530&stc=1&d=1681676213
Danke OgrEGT für deine Mühe! Find ich super :up:
Du hast nicht zufällig eins von den folgenden Spielen? :D
D2R
Sacred 2
Elden Ring
OgrEGT
2023-04-17, 06:05:56
Danke OgrEGT für deine Mühe! Find ich super :up:
Du hast nicht zufällig eins von den folgenden Spielen? :D
D2R
Sacred 2
Elden Ring
D2R hätt ich...
Die Frage wäre wie man das testen kann...
Lurtz
2023-04-17, 21:26:01
Bencht der Müll oder profitieren die Radeons teils echt so extrem von SAM?
FeDR0fUOD-I
Läuft das auf Intel-Boards jetzt eigentlich prinzipiell genauso gut, oder hat man da mit einem Ryzen Vorteile?
vinacis_vivids
2023-04-17, 21:36:39
Schöner Test. Abseits von NV-optimierten Demos ist die RTX4080 so schnell wie die 7900XT.
aufkrawall
2023-04-17, 21:37:36
RDNA3 hat da wohl ein ähnliches Problem wie Intel-GPUs, dass es ohne rBAR nicht mehr richtig läuft (hieß es hier afair zumindest mal?). Aber kann schon generell fett reinhauen auf Radeon, hab in Hitman 3 im GPU-Limit mit der 6700 XT auch +13% in nativen 1440p.
Du solltest mit Intel-CPU die gleichen Gewinne im GPU-Limit haben, aber die Wahrscheinlichkeit für reduzierte Leistung in einigen Spielen im CPU-Limit ist deutlich höher als mit AMD-CPU/Plattform.
Lurtz
2023-04-17, 23:08:58
Hm, unschön. Ich glaube ich kaufe eine Konsole und spiele wieder mit 30 fps ;D
=Floi=
2023-04-17, 23:33:28
Schöner Test. Abseits von NV-optimierten Demos ist die RTX4080 so schnell wie die 7900XT.
hör mit deinen falschinformationen auf.
4080 <--> 7900 XTX
vinacis_vivids
2023-04-18, 01:07:57
Guckt dir das Video nochmal an ;-)
7900XT (N31XL) ~ RTX4080 (AD103)
Schnitzl
2023-04-18, 03:40:24
D2R hätt ich...
Die Frage wäre wie man das testen kann...
Idee:
Schwierigkeitsgrad normal, Akt5 vom wp zu Schenk runterlaufen, mit high level Char.
Merc am Besten weglassen, sobald das Feuer fertig ist ist es auch der Benchmark.
Ist glaube ich eine der fordernsten Stellen im Spiel
CS, Tristram, Travincal haben glaube ich zuviel Variation was die Gegner betrifft.
Redneck
2023-04-18, 11:35:09
Guckt dir das Video nochmal an ;-)
7900XT (N31XL) ~ RTX4080 (AD103)
naja.. er versucht wenigstens ehrlich zu sein...
Bei der 10 games average vergleicht er nur die OC Werte... nicht die Stocks.
Das verzerrt und spiegelt denke ich auch kaum die Wirklichkeit wider.
Dann hat er Werte der XT drin, die auf Basis eines alten Treibers gemacht wurden (weil er ja keine XT mehr hat).
Das paßt irgendwie nicht.
Und es kommt mit keinem Wort die aktuelle VR Schwäche der AMD Treiber für RDNA3 zu Sprache (und wenn man von höherer Raster Leistung spricht, sollte man das schon erwähnen finde ich).
vinacis_vivids
2023-04-18, 12:03:13
naja.. er versucht wenigstens ehrlich zu sein...
Bei der 10 games average vergleicht er nur die OC Werte... nicht die Stocks.
Das verzerrt und spiegelt denke ich auch kaum die Wirklichkeit wider.
Dann hat er Werte der XT drin, die auf Basis eines alten Treibers gemacht wurden (weil er ja keine XT mehr hat).
Das paßt irgendwie nicht.
Und es kommt mit keinem Wort die aktuelle VR Schwäche der AMD Treiber für RDNA3 zu Sprache (und wenn man von höherer Raster Leistung spricht, sollte man das schon erwähnen finde ich).
Ja, das Review ist lückenhaft, weil der keine 7900XT mehr hat.
Allerding ist das ein Duell 850-900€ vs 1300-1400€. Da sind schon paar Tacken unterschied, also ~500€ Aufschlag bei Lederjacke.
Der Dude nutzt bzw. hat gar kein VR, von daher ist es für ein Kurz-Review ok.
Schnoesel
2023-04-18, 19:53:38
Bencht der Müll oder profitieren die Radeons teils echt so extrem von SAM?
Kann von "bringt gar nix" bis zu 30% Mehrleistung schwanken je nach Game.
Keine Ahnung wie es jetzt aussieht aber zu Launch war alles dabei:
https://www.computerbase.de/2021-02/amd-sam-radeon-rx-6800-xt-test/2/
COD hat z.B. extrem profitiert.
vinacis_vivids
2023-04-18, 20:00:02
Leider schon alt der Artikel von 2021.
AMD hat ja den IF$ von N21XTX zu N31XTX geschrumpft , um 25% bzw. Ein Viertel. Das ist recht viel Fläche Einsparung.
Der Verlust an IF$ wurde u.a. durch bessere interne Latenz(en), SAM sowie das breitere SI mehr als ausgeglichen.
Schnoesel
2023-04-18, 20:02:33
Blöd ist nur, dass man SAM aktiv im Bios aktivieren muss (war bei mir zumindest deaktiviert). Wer das nicht weiß hat ggf. erhebliche Einußen.
Taigatrommel
2023-04-18, 20:48:16
Blöd ist nur, dass man SAM aktiv im Bios aktivieren muss (war bei mir zumindest deaktiviert). Wer das nicht weiß hat ggf. erhebliche Einußen.
Zumindest bei meinem Gigabyte X570 ist die Option im BIOS von Haus aus aktiviert, man müsste sie eigenhändig ausschalten.
horn 12
2023-04-18, 20:57:29
AMD hat den Shop komplett NEU aufgebaut :-)
7900XT und 7900XTX Karten kaufbar, die XT über 900 Euro und die XT unter 1100 Euro
Zudem CPU und GPU Separat aufgeführt mit Skontierten Preisen bei den CPU
aber auch heute kein 7950X3D und 7800X3D bei AMD selbst Lagernd!
Taigatrommel
2023-04-18, 21:08:18
AMD hat den Shop komplett NEU aufgebaut :-)
7900XT und 7900XTX Karten kaufbar, die XT über 900 Euro und die XT unter 1100 Euro
Zudem CPU und GPU Separat aufgeführt mit Skontierten Preisen bei den CPU
aber auch heute kein 7950X3D und 7800X3D bei AMD selbst Lagernd!
Die XTX ist bereits wieder ausverkauft. Interessant jedenfalls, dass die XTX Referenzkarte noch immer produziert wird. Zwischendrin konnte man ja fast vermuten, man hätte diese aufgrund der Probleme komplett eingestampft.
Leider schon alt der Artikel von 2021.
AMD hat ja den IF$ von N21XTX zu N31XTX geschrumpft , um 25% bzw. Ein Viertel. Das ist recht viel Fläche Einsparung.
Der Verlust an IF$ wurde u.a. durch bessere interne Latenz(en), SAM sowie das breitere SI mehr als ausgeglichen.
Das Ding hat extrem viel mehr Bandbreite als N21.
Übrigens gibts zu der extrem guten COD-Performance auf N31 ne Theorie, warum das auf Radeons so gut läuft, es scheint auch mit SAM zusammenzuhängen; es liegt offenbar an der Art, wie die Engine lädt und speichert. COD profitiert ja auch extrem von SAM. Ich denke, wie sehen hier keinen AMD-Vorteil, sondern einen NV-Nachteil. Wenn die Geforce den Code schneller geladen bekäme, dürfte sie auch hier schneller sein als die AMD-Karte. Das scheint einfach ne Eigenheit zu sein, keine Optimierungswirkung. Die Spiele sind ja offensichtlich extrem gut optimiert, allein wegen Multiplayer...
Langlay
2023-04-18, 22:23:36
Zumindest bei meinem Gigabyte X570 ist die Option im BIOS von Haus aus aktiviert, man müsste sie eigenhändig ausschalten.
Bei meinem Asus x570 genau andersrum. Ist default off, aber is eine der F-Taste mit rBAR on/off belegt und man muss nicht in 3 Untermenus rumwühlen.
Die XTX ist bereits wieder ausverkauft. Interessant jedenfalls, dass die XTX Referenzkarte noch immer produziert wird. Zwischendrin konnte man ja fast vermuten, man hätte diese aufgrund der Probleme komplett eingestampft.
Nun, man wird jetzt einfach genug Fluid in die Kammer pumpen und gut. :)
MfG
Raff
Bei meinem Asus x570 genau andersrum. Ist default off, aber is eine der F-Taste mit rBAR on/off belegt und man muss nicht in 3 Untermenus rumwühlen.
MSI aktiviert rbar ab AGESA1207 automatisch, genau wie secboot.
dargo
2023-04-19, 09:11:51
Hier die CP77 Tests mit RT
WM:
1050mV bei 3200MHz max GPU Takt
VRAM Standard ohne FT
FPS Caps machen hier keinen Sinn, da die FPS bereits unter 60fps liegen
Perf/W Optimum deshalb nicht schätzbar.
Würde aber auch hier wenn ich mit RT spiele bei ca 300W bleiben.
------------------------------------------------------------------------------
3440x1440
Ultra Settings
FSR2 Quality
RT Schatten
RT Beleuchtung Mittel
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83531&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83532&stc=1&d=1681676213
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83530&stc=1&d=1681676213
Danke.
Ich finde es aber schade, dass du am max. Boost gedreht hast. So kann man kaum noch was davon ableiten. ;( Das Problem ist... du senkst die Vcore mit einem Offset von 50mV und hebst diese wiederum an mit einem höheren Boosttakt. Könntest du den Test nochmal wiederholen? So viel Aufwand ist es mit CP77 nicht. Bitte diesmal ohne RT/Upscaling und mit der Default V/F-Kurve. Also 1100mV und irgendwas um die 2,8+Ghz waren es glaube ich bei der RX 7900XT. Mit diesem max. Boosttakt wirst du dann womöglich bei 355W im Taktlimit landen (PT wird nicht voll ausgeschöpft), aber dann ist das eben so. :)
vinacis_vivids
2023-04-19, 09:58:12
1100mV ist nicht das Optimum bei UV, sondern etwas drunter. 1080mV-1095mV, da macht N31 > 3Ghz je nach Game. Die ~2,8Ghz gehen auch bei 990mV.
CP2077 ist ohnehin ein schlechtes Beispiel, weil rein proprietär auf NV optimiert. Dennoch macht N31 hier 3,1-3,2Ghz max. CP und 2,8-2,9Ghz Shader-CLK.
yiMGXntkCc8
Das Einzige was mich zurück-schreckt im Sommer sind die 464W. Da kann in einem kleinen Zimmer recht gut erhitzen.
@OgrEGT
Wäre schön, wenn du den integrierten Bench mal nachstellen könntest mit deiner guten Nitro+ 7900XT, die ja auch 3x8Pin hat und für 3Ghz quasi prädestiniert ist. Mit Kurvenverlauf wäre toll. :wink:
dargo
2023-04-19, 10:21:55
1100mV ist nicht das Optimum bei UV, sondern etwas drunter. 1080mV-1095mV, da macht N31 > 3Ghz je nach Game. Die ~2,8Ghz gehen auch bei 990mV.
Kannst du jetzt endlich mal mit deinem Getrolle aufhören? Ich spreche von Default V/F-Kurve dann kommt wieder vv mit UV. :hammer: Meine Güte... kann man sich in diesem Forum noch mit normalen Leuten austauschen ohne, dass jedes Mal Fanatiker dazwischen funken?
horn 12
2023-04-19, 17:51:47
Der NEUE Afterburner wurde nun Releast
Wetten dass nochmals auf die Hellhound XT oder gar Nitro XTX umsteigst :-)
Meine XTX MBA bleibt nun Fix, die Gigabyte Gaming/ Aorus wird auch extrem warm beim Hotspot
und so leise ist jene auch nicht.
OgrEGT
2023-04-19, 21:36:17
Danke.
Ich finde es aber schade, dass du am max. Boost gedreht hast. So kann man kaum noch was davon ableiten. ;( Das Problem ist... du senkst die Vcore mit einem Offset von 50mV und hebst diese wiederum an mit einem höheren Boosttakt. Könntest du den Test nochmal wiederholen? So viel Aufwand ist es mit CP77 nicht. Bitte diesmal ohne RT/Upscaling und mit der Default V/F-Kurve. Also 1100mV und irgendwas um die 2,8+Ghz waren es glaube ich bei der RX 7900XT. Mit diesem max. Boosttakt wirst du dann womöglich bei 355W im Taktlimit landen (PT wird nicht voll ausgeschöpft), aber dann ist das eben so. :)
Ich musste den Boosttakt anheben, da ansonsten die TBP nicht ausgeschöpft worden ist. Ich hab erst zu spät gemerkt, dass FSR-Q Standardmäßig an war :redface:
So wie ich das verstanden habe verschiebst Du die Kurve nur mit dem Offset. Der max Boosttakt sollte die Kurve nicht verschieben sondern kappt sie eben entsprechend.
BIOS2 hat Default 2825MHz und 1100mV bei 309W PL0
BIOS1 hat Default 2865MHz und 1100mV bei 368W PL0
Ich schaus mir am Wochenende nochmal an :up:
dargo
2023-04-19, 21:40:30
Ich schaus mir am Wochenende nochmal an :up:
Cool. (y)
OgrEGT
2023-04-19, 21:43:09
1100mV ist nicht das Optimum bei UV, sondern etwas drunter. 1080mV-1095mV, da macht N31 > 3Ghz je nach Game. Die ~2,8Ghz gehen auch bei 990mV.
CP2077 ist ohnehin ein schlechtes Beispiel, weil rein proprietär auf NV optimiert. Dennoch macht N31 hier 3,1-3,2Ghz max. CP und 2,8-2,9Ghz Shader-CLK.
https://youtu.be/yiMGXntkCc8
Das Einzige was mich zurück-schreckt im Sommer sind die 464W. Da kann in einem kleinen Zimmer recht gut erhitzen.
@OgrEGT
Wäre schön, wenn du den integrierten Bench mal nachstellen könntest mit deiner guten Nitro+ 7900XT, die ja auch 3x8Pin hat und für 3Ghz quasi prädestiniert ist. Mit Kurvenverlauf wäre toll. :wink:
Ich habe als Takspitze am Anfang des Benschmarks durchaus auch Taktraten von 3056MHz bei 355W gesehen, die aber nicht gehalten wurden.
Wie gesagt, die XT hat im BIOS1 368W PL0 damit kommt man mit PL+15 auf ca. 423W... Das ist aber fernab in Bezug auf Effizienz was mMn sinnvoll ist und mit Luftkühlung in meinem Gehäsue ohnehin nicht...
Ich mach aber gerne das Gehäuse auf und teste es mal am Wochenende...
Schnitzl
2023-04-20, 01:26:05
Der NEUE Afterburner wurde nun Releast
Wetten dass nochmals auf die Hellhound XT oder gar Nitro XTX umsteigst :-)
(...)
Ich bitte dich nochmal höflich fake news zu unterlassen
Wenn du irgendwas hier behauptest: LINK!
Taigatrommel
2023-04-20, 06:16:28
Es gibt tatsächlich eine neue Version vom A*schbrenner, welcher neben der RTX 40er Serie auch RDNA3 unterstützt. Doch warum das nun dazu führen soll, dass hier irgendwelche User die Grafikkarten wechseln, ist mir rätselhaft. Aus Spaß an der Freude probiere ich das Teil dennoch, mal schauen, wie sich meine Gurkenkarte mit der Software verhält.
https://www.guru3d.com/files-details/msi-afterburner-beta-download.html
r3ptil3
2023-04-20, 14:35:32
Wenn ich eine RX 7900 XTX jetzt kaufen würde, wäre es wohl die folgende:
PowerColor Radeon RX 7900 XTX Hellhound Spectral White review (GURU3D) (https://www.guru3d.com/articles_pages/powercolor_radeon_rx_7900_xtx_hellhound_spectral_white_review,1.html)
https://i.ibb.co/Yk8rM0t/img-1430.jpg
Powercolor bringt nicht nur eine weisse Variante, sondern hat diese gegenüber dem ersten Modell auch verbessert (Lüfterblätter, Kühleranpassungen...).
Die News war anscheinend falsch - identischer Kühler/Lüfterblätter.
dargo
2023-04-20, 21:47:55
Dann greif zu. :tongue:
https://www.mindfactory.de/product_info.php/24GB-PowerColor-Radeon-RX-7900-XTX-Hellbound-Spectral-White-Aktiv-PCIe-_1490138.html
Nein, das ist 'ne andere - Mindfactory verkauft kein Hündchen, sondern eine Hellbound. ;D
MfG
Raff
OpenVMSwartoll
2023-04-21, 20:06:54
Nein, das ist 'ne andere - Mindfactory verkauft kein Hündchen, sondern eine Hellbound. ;D
MfG
Raff
Höllenhunde sind an die Hölle gebunden. 🤪
Das lustige ist, dass das auf der Seite 2x steht :D.
OgrEGT
2023-04-22, 10:08:19
Hier die CP77 Tests ohne RT mit Standrad V/F Kurve
WM:
1100mV bei 2825MHz BIOS2
1100mV bei 2865MHz BIOS1
VRAM Standard ohne FT
In der Tat läuft man so ab 355W ins Taktlimit...
Bei 400W gehts noch ein wenig höher auf so im Schnitt 2931Mhz mit UV1050mV und 3200MHz im WM
------------------------------------------------------------------------------
3440x1440
Ultra Settings
FSR2 Off
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83610&stc=1&d=1682150794
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83609&stc=1&d=1682150794
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83608&stc=1&d=1682150794
dargo
2023-04-22, 10:51:35
Danke dir. (y)
Du erreichst also mit PT 90% (~280W) ~2,5Ghz. Bei 2560x1440 wird die GPU-Last womöglich minimal niedriger sein, ergo ~2,55Ghz würde ich jetzt grob schätzen. Mit UV (etwas Lotterie) dürften ca. 100Mhz dazu kommen. Hmm... keine Ahnung. So richtig gut gefällt mir die RX 7900XT auch nicht. Aber bei den Preisen ist das eh wayne. Da müsste die Nitro+ schon bei 700-750€ liegen damit die Karte bei mir Interesse weckt.
OgrEGT
2023-04-22, 14:35:23
Danke dir. (y)
Du erreichst also mit PT 90% (~280W) ~2,5Ghz. Bei 2560x1440 wird die GPU-Last womöglich minimal niedriger sein, ergo ~2,55Ghz würde ich jetzt grob schätzen. Mit UV (etwas Lotterie) dürften ca. 100Mhz dazu kommen. Hmm... keine Ahnung. So richtig gut gefällt mir die RX 7900XT auch nicht. Aber bei den Preisen ist das eh wayne. Da müsste die Nitro+ schon bei 700-750€ liegen damit die Karte bei mir Interesse weckt.
Jede Anwendung bzw. jedes Spiel verhält sich logischerweise anders. So pauschal wie v_v meint, dass mit voll aufgedrehtem PL +3GHz möglich sind, sieht man auch hier sehr gut, dass dem nicht so ist. Bei BIOS1 mit PL+15 gabs zwar Spitzen mit >3GHz aber nur mit 1050mV und im Durchschnitt eher so 2,9GHz bei >400W (SotTR, CP77, Timespy)...
Interessant war auch, dass mit der Standard V/F Kurve das PL über 355W nicht mehr wirklich ausgelastet wurde. bei möglichen 368W warens nur 348W und bei möglichen 423W warens nur 390W... Da fängt sicher dann der Chip an den Takt zu regeln, da man nahe ans Satndard Taktlimit kommt... Aber auch mit UV 1050mV 3200MHz max GPU-Takt gings zwar auf 2,9GHz aber auch nur mit knapp über 400W...
dargo
2023-04-22, 14:42:34
Jede Anwendung bzw. jedes Spiel verhält sich logischerweise anders. So pauschal wie v_v meint, dass mit voll aufgedrehtem PL +3GHz möglich sind, sieht man auch hier sehr gut, dass dem nicht so ist. Bei BIOS1 mit PL+15 gabs zwar Spitzen mit >3GHz aber nur mit 1050mV und im Durchschnitt eher so 2,9GHz bei >400W (SotTR, CP77, Timespy)...
Natürlich nicht. Die Ergüsse von v_v einfach ignorieren, da sind mehr feuchte Träume bei als Realität. >3Ghz schaffst du nur mit völlig absurden Powerlimits bei mittlerer bis hoher Shaderlast.
OgrEGT
2023-04-22, 15:59:25
Hier die Diablo2 Ressurected Tests
Akt V Kampf zum Schenk
150s CapFrameX Capture
WM:
1050mV bei 2825MHz BIOS2
VRAM Standard ohne FT
------------------------------------------------------------------------------
3440x1440
Ultra / Very High Settings
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83622&stc=1&d=1682171903
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83623&stc=1&d=1682171903
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83621&stc=1&d=1682171903
Jede Anwendung bzw. jedes Spiel verhält sich logischerweise anders. So pauschal wie v_v meint, dass mit voll aufgedrehtem PL +3GHz möglich sind, sieht man auch hier sehr gut, dass dem nicht so ist. Bei BIOS1 mit PL+15 gabs zwar Spitzen mit >3GHz aber nur mit 1050mV und im Durchschnitt eher so 2,9GHz bei >400W (SotTR, CP77, Timespy)...
Interessant war auch, dass mit der Standard V/F Kurve das PL über 355W nicht mehr wirklich ausgelastet wurde. bei möglichen 368W warens nur 348W und bei möglichen 423W warens nur 390W... Da fängt sicher dann der Chip an den Takt zu regeln, da man nahe ans Satndard Taktlimit kommt... Aber auch mit UV 1050mV 3200MHz max GPU-Takt gings zwar auf 2,9GHz aber auch nur mit knapp über 400W...
Die Nitro bei 363w wäre dein Ding gewesen. -10%, 1050mv und 3200 Zieltakt.
Den Vram auf 2776mhz und gut. Rennt hier wir Hölle
OgrEGT
2023-04-22, 23:39:49
Die Nitro bei 363w wäre dein Ding gewesen. -10%, 1050mv und 3200 Zieltakt.
Den Vram auf 2776mhz und gut. Rennt hier wir Hölle
363W ist mir schon ein wenig zu viel...
Ich lass meine kleine Nitro lieber so bei ca. 300W...
1050mV
2825MHz
2500MHz VRAM
PL -5% BIOS2 -> 294W
97fps cap
Des langt für meinen 100Hz Monitor... und liegt so in der Nähe des Sweetspots aus Perf/W...
rm-zocker
2023-04-23, 12:39:51
Lohnt sich eigentlich der Umstieg von eine 6900XT auf die 7900XT/XTX?
Mir kribbelt es in den Fingern und da ich noch 200 Euro Gutscheine von Mindfactory habe noch einmal um so mehr:freak:.
Nur sagt mein Verstand, das ich lieber von 4k auf 1080p runterstellen sollte, als die neue Generation zu kaufen.
Dank für 4k Monitor ist das runter skalieren ohne sichtbaren Verlust möglich.
Auch ein Wechsel ins grüne Lager könnte ich mir vorstellen, aber die gewollte 4080 ist ja noch um einiges teurer.
Taigatrommel
2023-04-23, 13:28:41
Lohnt sich eigentlich der Umstieg von eine 6900XT auf die 7900XT/XTX?
Mir kribbelt es in den Fingern und da ich noch 200 Euro Gutscheine von Mindfactory habe noch einmal um so mehr:freak:.
Nur sagt mein Verstand, das ich lieber von 4k auf 1080p runterstellen sollte, als die neue Generation zu kaufen.
Dank für 4k Monitor ist das runter skalieren ohne sichtbaren Verlust möglich.
Auch ein Wechsel ins grüne Lager könnte ich mir vorstellen, aber die gewollte 4080 ist ja noch um einiges teurer.
Ich kann jetzt nicht von 4k sprechen, aber immerhin von Ultrawide 1440p - das Upgrade lohnt sich schon irgendwo, allerdings ist es jetzt auch kein absolut krasser Unterschied wie z.B. bei mir vorher von 5700 XT auf 6900 XT. In einigen Titeln die mir wichtig sind, sind vor allem die minimum fps wesentlich stabiler und in angenehmeren Bereichen. Wenn du dir aktuellere Benchmarks anschaust, dann scheint es meist ein Leistungsplus von rund 35-50% zu geben. Laut CB soll das Leistungsplus im Schnitt für 4k Raster bei ~43% liegen.
Bei der 4080 hast du halt vor allem im RT Bereich deutliche Zuwächse, auch verglichen mit der XTX.
Aktuell gibt es die XTX Hellhound bei MF ja noch für 999,-€ abzüglich Gutscheinen und dann die 6900 XT vielleicht noch halbwegs gut verkaufen und der Preis des Upgrades kann schon attraktiv erscheinen.
Fritter
2023-04-23, 13:37:07
Danke. Ok, 100W mehr. Macht den Kohl dann auch nicht mehr fett. ^^
Boah wenn das so weiter geht brauch ich einen Mini Reaktor im Keller
Denniss
2023-04-23, 13:52:10
Bei einem guten custommodell der 6900XT würde ich mir eher überlegen die aktuelle Generation zu überspringen. Oder du findest jemanden der sie dir für einen guten Kurs abnimmt.
Langlay
2023-04-23, 16:53:50
Ich kann jetzt nicht von 4k sprechen, aber immerhin von Ultrawide 1440p - das Upgrade lohnt sich schon irgendwo, allerdings ist es jetzt auch kein absolut krasser Unterschied wie z.B. bei mir vorher von 5700 XT auf 6900 XT. In einigen Titeln die mir wichtig sind, sind vor allem die minimum fps wesentlich stabiler und in angenehmeren Bereichen. Wenn du dir aktuellere Benchmarks anschaust, dann scheint es meist ein Leistungsplus von rund 35-50% zu geben. Laut CB soll das Leistungsplus im Schnitt für 4k Raster bei ~43% liegen.
Bei der 4080 hast du halt vor allem im RT Bereich deutliche Zuwächse, auch verglichen mit der XTX.
Das würde ich so unterschrieben. Die 4080 wäre halt die Karte wenn du mehr Raytracing in deinem Leben brauchst und/oder weniger Stromverbrauch.
Von na 6800 zu na 7900XTX, 4080 ist imo ein richtig guter Sprung, von 6900XT zur 7900XTX/4080 ist jetzt aber nicht unbedingt der Riesensprung, kann man imo machen kann man aber auch lassen.
rm-zocker
2023-04-23, 18:44:42
Das würde ich so unterschrieben. Die 4080 wäre halt die Karte wenn du mehr Raytracing in deinem Leben brauchst und/oder weniger Stromverbrauch.
Von na 6800 zu na 7900XTX, 4080 ist imo ein richtig guter Sprung, von 6900XT zur 7900XTX/4080 ist jetzt aber nicht unbedingt der Riesensprung, kann man imo machen kann man aber auch lassen.
Mhhh dann werde ich wohl versuchen stark zu bleiben um keine neue Karte zu kaufen. Ich bin schon neugierig auf Raytracing und schade das AMD da noch den grünen so hinterher läuft.
Mhhh dann werde ich wohl versuchen stark zu bleiben um keine neue Karte zu kaufen. Ich bin schon neugierig auf Raytracing und schade das AMD da noch den grünen so hinterher läuft.
Ich hatte die schnellste 69xxXTX und beim RT kannst du oft die Frames verdoppeln mit einer Nitro+. Und da reichen gar 363w um dieses Ergebnis zu erreichen. Damit braucht se etwas weniger Saft, um immer mehr als 50% schneller zu sein als eine 6900XTX Toxic EE in 4k!
Langlay
2023-04-23, 21:43:38
Ich hatte die schnellste 69xxXTX und beim RT kannst du oft die Frames verdoppeln mit einer Nitro+. Und da reichen gar 363w um dieses Ergebnis zu erreichen. Damit braucht se etwas weniger Saft, um immer mehr als 50% schneller zu sein als eine 6900XTX Toxic EE in 4k!
Wenn es mehrheitlich um Raytracing geht, dann hol dir ne 4080, wenn du dann noch Motivation übrig hast machste noch untervolting und du hast ne 250W Karte die jeder 7900XTX in Raytracing davon rennt.
dargo
2023-04-23, 21:54:43
Gedi ist nicht so der Geforce-Käufer. ;)
Das sind vor allem noch mal 200 Piepen Unterschied, bei den 999€-Angeboten zwischendurch. Und RT geht erstaunlich gut. Du bist locker auf 3090-Niveau, selbst W3 und CP77 kann man damit mit RT spielen, wenn man will. Ich war echt überrascht, wie gut das mit der Karte geht.
rm-zocker
2023-04-23, 22:31:46
Ich hatte die schnellste 69xxXTX und beim RT kannst du oft die Frames verdoppeln mit einer Nitro+. Und da reichen gar 363w um dieses Ergebnis zu erreichen. Damit braucht se etwas weniger Saft, um immer mehr als 50% schneller zu sein als eine 6900XTX Toxic EE in 4k!
Ich habe nur ein Referenz Modell der 6900xt die dazu nicht wirklich OC freudig ist😅
dargo
2023-04-23, 22:32:04
@HOT
Ich nicht. ;) Die Kosten vs. BQ-"Gewinn" stehen bei mir nach wie vor in keinem Verhältnis.
OgrEGT
2023-04-24, 12:25:45
Das sind vor allem noch mal 200 Piepen Unterschied, bei den 999€-Angeboten zwischendurch. Und RT geht erstaunlich gut. Du bist locker auf 3090-Niveau, selbst W3 und CP77 kann man damit mit RT spielen, wenn man will. Ich war echt überrascht, wie gut das mit der Karte geht.
Welche Karte hast du?
Hellhound ;).
Bei 999€ konnt ich nicht mehr widerstehen :D. Die Karte hat echt einen extrem guten Kühler, chapeau Powercolor. Spulenfiepen kann zwar ein Konzert werden (sind ja 30 Spulen), aber ist eher selten und bei >200Hz der Fall.
OgrEGT
2023-04-24, 13:03:12
Glückwunsch!
Wenn mans mit RT nicht übertreiben will sind die RDNA3 Karten voll OK... kommt halt auch darauf an woher man kommt... ich hatte vor der 7900XT die 6800 nonXT und das merkt man schon deutlich...
phoenix887
2023-04-24, 23:14:49
Glückwunsch!
Wenn mans mit RT nicht übertreiben will sind die RDNA3 Karten voll OK... kommt halt auch darauf an woher man kommt... ich hatte vor der 7900XT die 6800 nonXT und das merkt man schon deutlich...
habe eine non XT 6800..... dann weiss ich wo meine Reise hingeht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.