Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
15
gbm31
2023-01-29, 12:10:04
Da wäre es cool wenn es ein Tool gäbe was das Overlay anzeigt und am Ende vom Benchmark die Maxwerte. Also so ähnlich wie beim 3D Mark mit dem Graphen da.
HWInfo+RTSS und in HWInfo die max. Werte anzeigen statt den aktuellen?
Wiseman
2023-01-29, 12:30:39
Default hab ich immer so 390Watt. PL-10 wären so 350.
Prima. Exakt 390W erreiche ich durch PL +8%.
Gratuliere, du bleibst weiterhin Erster. :biggrin: Mit meiner Hellhound XTX komme ich nicht ganz an die 77 fps deiner Merc XTX ran. Siehe Screenshot.
Andererseits warum sollte ich wegen 3 fps mehr (+ 4%) 65 Watt mehr verplempern? Ich bin aber auch ein Energiesparfuchs. ;D
Matrix316
2023-01-29, 12:38:16
Prima. Exakt 390W erreiche ich durch PL +8%.
Gratuliere, du bleibst weiterhin Erster. :biggrin: Mit meiner Hellhound XTX komme ich nicht ganz an die 77 fps deiner Merc XTX ran. Siehe Screenshot.
Andererseits warum sollte ich wegen 3 fps mehr (+ 4%) 65 Watt mehr verplempern? Ich bin aber auch ein Energiesparfuchs. ;D
Probier mal mehr Fan Speed. Dann könntest du mehr FPS bekommen. Die Lüfter bei der Merc sind ja standardmäßig bei 1600 RPM (und ich hab auch schon mehr gesehen im Flight Simulator ;)).
Allerdings hat die Merc ja noch mehr Reserven. Das PT zu erhöhen hab ich noch nicht versucht. Mein NT hat ja nur 750 Watt und die CPU braucht auch a bissie was. :freak: Da dürfte noch Luft nach oben sein in der Performance. :)
Wiseman
2023-01-29, 13:17:58
Probier mal mehr Fan Speed. Dann könntest du mehr FPS bekommen. Die Lüfter bei der Merc sind ja standardmäßig bei 1600 RPM (und ich hab auch schon mehr gesehen im Flight Simulator ;)).
Gut, dass du mich daran erinnerst. Ich bin auch schon mal ins Grübeln dahingehend gekommen, vergaß aber es näher zu überprüfen.
Matrix316
2023-01-29, 19:02:06
Hmm, ich wollte noch mal verifizieren, welche Settings es beim CP Benchmark waren und ich bin jetzt nicht sicher ob FSR wirklich aus war bzw. was genau ist das AMD Fidelity FX? :D Das wird automatisch aktiviert auf Qualität, aber FSR Bildschärfung war auf 0.
Mit denen krieg ich zumindest ~ 77 FPS.
https://abload.de/img/fsrg7elv.jpg (https://abload.de/image.php?img=fsrg7elv.jpg)
EDIT: Ach so FidelityFX Super Resolution
Jaaa Ok. ;)
Wiseman
2023-01-29, 21:26:49
Hmm, ich wollte noch mal verifizieren, welche Settings es beim CP Benchmark waren und ich bin jetzt nicht sicher ob FSR wirklich aus war bzw. was genau ist das AMD Fidelity FX? :D Das wird automatisch aktiviert auf Qualität, aber FSR Bildschärfung war auf 0.
Mit denen krieg ich zumindest ~ 77 FPS.
EDIT: Ach so FidelityFX Super Resolution
Vergiss die FSR Bildschärfung. Die hat nichts mit Performance zu tun. Macht angeblich das Bild knackiger. Und ja, AMDs Upscaling-Methode nennt sich FSR. In diesem Fall die Version FSR 2.1. FSR 3.0 mit "up to 2x" Performance gibt es noch nicht, soll aber in Bälde rauskommen.
Ich kann dich beruhigen. Du hast bisher 100-pro ohne FSR getestet. Ich habe ja bisher auch ohne FSR getestet und wir haben beinahe identische Ergebnisse erzielt.
Dass das Grafik-Menü von CP77 verbuggt ist, hast du ja nun selbst entdeckt. Das geht inzwischen seit 2 Jahren so. Scheint den Machern egal zu sein.
Das Umstellen von FSR Off auf FSR Quality, Balanced, usw. ist eine Wissenschaft für sich. Geh so vor: Wähle oben Preset Ultra, dann taucht automatisch weiter unten FSR Quality auf und oben wird aus Ultra automatisch Custom gemacht. Komischerweise lässt sich diese Änderung vorläufig noch nicht abspeichern. Deshalb würde in einem anschließenden Benchmark bei FSR immer noch Off im Result-Screen stehen. Du musst also irgendwas anderes auch noch verändern, damit du abspeichern kannst. Ich schlage vor, ändere bei FSR die Qualitätsstufe Quality in Balanced um und voila du kannst abspeichern. Jetzt erst wird im Result-Screen korrekt FSR Balanced angegeben. Die Umstellung von FSR Off auf FSR Balanced bringt bei mir eine Steigerung von 33%. (Siehe Screenshot)
Matrix316
2023-01-29, 22:04:39
Ok, Balanced komm ich auf ca. 96,14 FPS
https://abload.de/thumb/cpbalancedw8ftf.jpg (https://abload.de/image.php?img=cpbalancedw8ftf.jpg)
Was mir auffällt, dass die Max FPS viel höher bei mir sind, aber die Min FPS viel niedriger...
EDIT: Ich hab mal das PT auf +15 gesetzt was zu ca. 447W Power Draw geführt hat. Die Lüfter waren im Benchmark Ultra/Balanced gar nicht so viel lauter, die Temps gar nicht so schlecht:
https://abload.de/thumb/4506bdnp.jpg (https://abload.de/image.php?img=4506bdnp.jpg)
Aber die FPS waren sogar weniger mit ~93 als im PT0.
Die Radeons sind schon komisch. ;)
Wiseman
2023-01-30, 02:21:36
Ok, Balanced komm ich auf ca. 96,14 FPS
https://abload.de/thumb/cpbalancedw8ftf.jpg (https://abload.de/image.php?img=cpbalancedw8ftf.jpg)
Was mir auffällt, dass die Max FPS viel höher bei mir sind, aber die Min FPS viel niedriger...
EDIT: Ich hab mal das PT auf +15 gesetzt was zu ca. 447W Power Draw geführt hat. Die Lüfter waren im Benchmark Ultra/Balanced gar nicht so viel lauter, die Temps gar nicht so schlecht:
Aber die FPS waren sogar weniger mit ~93 als im PT0.
Die Radeons sind schon komisch. ;)
Machst du nicht mehrere Runs? Waren bei dir die min fps auch nach einem 2. oder 3. Run immer noch so katastrophal?
Übrigens, Stichwort min fps, ich stellte im Lauf der Jahre fest, dass die min fps in einigen integrierten Benchmarks viel Mist anzeigen, d. h. obwohl es im Spiel selbst nicht ruckelt, mir etwas von 35 fps min oder so erzählen wollen. Immer wenn ich den Verdacht habe, mir werden zu wenig min fps angezeigt, schalte ich zur Kontrolle noch einen zweiten Benchmark dazu, nämlich den vom AB. Der hat bei mir schon in vielen Benchmarks bewiesen, dass er sowohl avg fps als auch min fps korrekt anzeigt. In Cyberpunk ist der Unterschied bei den min fps nicht ganz so dramatisch wie in manch anderen Spielen, aber er ist da. Langer Rede kurzer Sinn, möchtest du nicht mal die Benchmark-Funktion des AB zur Kontrolle dazuschalten?
Frage: Warum greifst du gleich zur Watt-Verbrennungs-Methode, wenn dir etwas nicht ganz geheuer vorkommt? Warum nicht PT 0% belassen und es mal mit einer anderen FSR Qualitätsstufe probieren? Mit FSR Performance oder FSR Ultra Performance? Wenn sich dann immer noch nichts tut, ja dann stimmt in der Tat etwas nicht in deinem System.
Guck mal, was bei mir in 6k + FSR UP rauskommt. Mehr als bei dir in 4k mit 447 Watt.
=Floi=
2023-01-30, 03:26:18
So funktioniert das nicht komfortabel genug da Games unterschiedliche Lasten erzeugen. Aber gut... wenn es keine andere Möglichkeit geben sollte bleibt dann nur das.
Ich hätte auch gerne einen breiteren einstellbereich. Eventuell tut sich dort noch etwas.
Bei vielen games limitiere ich sowieso die fps auf ein spielbares limit und spare dadurch strom. Ich schaffe es damit auch games auf 130-90 watt zu drücken und kann teilweise games mit meiner evga in 1440p passiv zocken. :ugly:
pilzsammler2002
2023-01-30, 10:20:38
Soooo habe mal am WE meine 7900XT durchgebencht.
Hier mal die Ergebnisse:
https://www.3dmark.com/compare/spy/35155437/spy/35149809
"OC" vs Stock
Stock 2845mhz@1100mv (PL =0%)
OC war bei mir 3500MHz@1045mv (PL = +10%)
Denke da geht noch was, Es war zwischen 1090 und 1070mv so nen toter Bereich wo es direkt crashes gab, weiter runter (1060 und weniger) lief es dann wieder trotz mehr MHz
:freak:
dargo
2023-01-30, 10:34:02
Denke da geht noch was, Es war zwischen 1090 und 1070mv so nen toter Bereich wo es direkt crashes gab, weiter runter (1060 und weniger) lief es dann wieder trotz mehr MHz
:freak:
Der Wattman steckt noch in der Beta-Phase wenn das wirklich zutrifft. :D
Matrix316
2023-01-30, 10:36:16
Machst du nicht mehrere Runs? Waren bei dir die min fps auch nach einem 2. oder 3. Run immer noch so katastrophal?
Übrigens, Stichwort min fps, ich stellte im Lauf der Jahre fest, dass die min fps in einigen integrierten Benchmarks viel Mist anzeigen, d. h. obwohl es im Spiel selbst nicht ruckelt, mir etwas von 35 fps min oder so erzählen wollen. Immer wenn ich den Verdacht habe, mir werden zu wenig min fps angezeigt, schalte ich zur Kontrolle noch einen zweiten Benchmark dazu, nämlich den vom AB. Der hat bei mir schon in vielen Benchmarks bewiesen, dass er sowohl avg fps als auch min fps korrekt anzeigt. In Cyberpunk ist der Unterschied bei den min fps nicht ganz so dramatisch wie in manch anderen Spielen, aber er ist da. Langer Rede kurzer Sinn, möchtest du nicht mal die Benchmark-Funktion des AB zur Kontrolle dazuschalten?
Frage: Warum greifst du gleich zur Watt-Verbrennungs-Methode, wenn dir etwas nicht ganz geheuer vorkommt? Warum nicht PT 0% belassen und es mal mit einer anderen FSR Qualitätsstufe probieren? Mit FSR Performance oder FSR Ultra Performance? Wenn sich dann immer noch nichts tut, ja dann stimmt in der Tat etwas nicht in deinem System.
Guck mal, was bei mir in 6k + FSR UP rauskommt. Mehr als bei dir in 4k mit 447 Watt.
Ich wollte nur mal testen was so geht. Klar, wenn ich die Qualität reduziere, bekomm ich auch mehr FPS. :D Ist nur komisch, dass wenn ich mehr Power zulasse, die FPS runter gehen, obwohl die Temps OK sind. Oder ist das dieses interne Throtteln was Jayz2Cents da rausgefunden hat, dass der Speicher dann langsamer läuft oder sowas?
Und was meinst du mit Benchmark-Funktion des AB zur Kontrolle ?
pilzsammler2002
2023-01-30, 11:32:12
Der Wattman steckt noch in der Beta-Phase wenn das wirklich zutrifft. :D
Das ist jetzt schwer zu sagen, dadurch dass ja auch bei mv Reduzierung automatisch durch die Hysterese die MHz reduziert/angepasst werden, kann dass so gewollt bzw. vielfältig Ursachen haben :biggrin:
Wiseman
2023-01-30, 15:03:37
Ich wollte nur mal testen was so geht. Klar, wenn ich die Qualität reduziere, bekomm ich auch mehr FPS. :D Ist nur komisch, dass wenn ich mehr Power zulasse, die FPS runter gehen, obwohl die Temps OK sind. Oder ist das dieses interne Throtteln was Jayz2Cents da rausgefunden hat, dass der Speicher dann langsamer läuft oder sowas?
Deine min fps waren doch bei unserem FSR-Vergleich, wo wir die gleiche Qualitätsstufe Balanced benutzten, so schwach im Vergleich zu meinen (min 25 fps vs min 58 fps). Ja, mein 6k-Bench war von der FSR-Qualitätsstufe schlechter als dein Bench, aber er wurde im Gegensatz zu deinen monströsen 447W in bescheidenen 325W und außerdem nicht in 4k, sondern in 6k gemacht.
Und? Hast du nun weitere Runs gemacht? Wurde es besser mit den min fps?
Siehst du auf meinen Screenshots oben links die orangen Zahlen? Das sind die Werte (min, avg, usw.), die durch die AB-Benchmark-Funktion ausgegeben werden. Den AB-Benchmark lasse ich neben dem integrierten Benchmark mitlaufen. Ich drücke dazu zu Beginn des Benchmarks und am Ende des Benchmarks eine Funktionstaste. Außerdem sehe ich, wie lange der Benchmark dauert. Habe also alles at my finger tips. Mit Kontrolle meine ich, ich kann nun schön mit den Werten vergleichen, die der integrierte Benchmark ausgibt. Die AVG-Werte sind in allen Spielen, die ich bisher testete, so gut wie identisch. Aber die MIN-Werte der integrierten Benchmarks sind oft sowas von daneben! Siehst du ja auch an den mysteriösen min 25 fps aus deinem Cyberpunk-Benchmark.
Btw, ich sehe gerade, dass du 'ne Intel CPU hast. Konntest du SAM aktivieren?
Matrix316
2023-01-30, 15:39:13
Deine min fps waren doch bei unserem FSR-Vergleich, wo wir die gleiche Qualitätsstufe Balanced benutzten, so schwach im Vergleich zu meinen (min 25 fps vs min 58 fps). Ja, mein 6k-Bench war von der FSR-Qualitätsstufe schlechter als dein Bench, aber er wurde im Gegensatz zu deinen monströsen 447W in bescheidenen 325W und außerdem nicht in 4k, sondern in 6k gemacht.
Und? Hast du nun weitere Runs gemacht? Wurde es besser mit den min fps?
Siehst du auf meinen Screenshots oben links die orangen Zahlen? Das sind die Werte (min, avg, usw.), die durch die AB-Benchmark-Funktion ausgegeben werden. Den AB-Benchmark lasse ich neben dem integrierten Benchmark mitlaufen. Ich drücke dazu zu Beginn des Benchmarks und am Ende des Benchmarks eine Funktionstaste. Außerdem sehe ich, wie lange der Benchmark dauert. Habe also alles at my finger tips. Mit Kontrolle meine ich, ich kann nun schön mit den Werten vergleichen, die der integrierte Benchmark ausgibt. Die AVG-Werte sind in allen Spielen, die ich bisher testete, so gut wie identisch. Aber die MIN-Werte der integrierten Benchmarks sind oft sowas von daneben! Siehst du ja auch an den mysteriösen min 25 fps aus deinem Cyberpunk-Benchmark.
Btw, ich sehe gerade, dass du 'ne Intel CPU hast. Konntest du SAM aktivieren?
Resizeable Bar ist aktiviert denke ich. Oder meinst du was anderes mit SAM? Ich kanns erst heute Abend prüfen. Aber was meinst du genau mit AB Benchmark?
RoNsOn Xs
2023-01-30, 17:14:17
Na der AB bietet eine Aufzeichnungsfunktion an, mit der du gegenprüfen kannst, ob die min-fps Werte deckungsgleich sind. Hat evtl sogar der riva statistics server schon integriert... gerade nicht sicher.
Matrix316
2023-01-30, 20:42:31
Deine min fps waren doch bei unserem FSR-Vergleich, wo wir die gleiche Qualitätsstufe Balanced benutzten, so schwach im Vergleich zu meinen (min 25 fps vs min 58 fps). Ja, mein 6k-Bench war von der FSR-Qualitätsstufe schlechter als dein Bench, aber er wurde im Gegensatz zu deinen monströsen 447W in bescheidenen 325W und außerdem nicht in 4k, sondern in 6k gemacht.
Und? Hast du nun weitere Runs gemacht? Wurde es besser mit den min fps?
Siehst du auf meinen Screenshots oben links die orangen Zahlen? Das sind die Werte (min, avg, usw.), die durch die AB-Benchmark-Funktion ausgegeben werden. Den AB-Benchmark lasse ich neben dem integrierten Benchmark mitlaufen. Ich drücke dazu zu Beginn des Benchmarks und am Ende des Benchmarks eine Funktionstaste. Außerdem sehe ich, wie lange der Benchmark dauert. Habe also alles at my finger tips. Mit Kontrolle meine ich, ich kann nun schön mit den Werten vergleichen, die der integrierte Benchmark ausgibt. Die AVG-Werte sind in allen Spielen, die ich bisher testete, so gut wie identisch. Aber die MIN-Werte der integrierten Benchmarks sind oft sowas von daneben! Siehst du ja auch an den mysteriösen min 25 fps aus deinem Cyberpunk-Benchmark.
Btw, ich sehe gerade, dass du 'ne Intel CPU hast. Konntest du SAM aktivieren?
Ich hab jetzt noch mal mit 6K und FSR UP gebencht und kam auf ~ 93 FPS. Bei weiteren zwei Läufen gings auf 92 runter. :ugly:
https://abload.de/thumb/6ksuperhdcjl.jpg (https://abload.de/image.php?img=6ksuperhdcjl.jpg)
Wiseman
2023-01-30, 22:40:41
Ich hab jetzt noch mal mit 6K und FSR UP gebencht und kam auf ~ 93 FPS. Bei weiteren zwei Läufen gings auf 92 runter. :ugly:
https://abload.de/thumb/6ksuperhdcjl.jpg (https://abload.de/image.php?img=6ksuperhdcjl.jpg)
Na also. Geht doch. Ich meine damit die min fps in deinem 6k-Bench.
Mit AB meine ich den AfterBurner. RoNsOn Xs hat es dir inzwischen auch nochmals erklärt. Und btw, RoNsOn Xs, schöner erklärt als ich. :biggrin:
Na der AB bietet eine Aufzeichnungsfunktion an, mit der du gegenprüfen kannst, ob die min-fps Werte deckungsgleich sind.
SAM ist die Abkürzung für Smart Access Memory. Wurde von AMD zusammen mit dem Release der 6000-er Serie zunächst für AMD-CPUs eingeführt. Inzwischen gibt es SAM aber auch für Intel CPUs. Deshalb fragte ich nach. Heißt bei euch wahrscheinlich anders. Die wichtigste Voraussetzung im Mainboard-BIOS hast du bereits erfüllt. Du hast Resizable Bar aktiviert. Es kann sein, dass bei euch noch etwas anderes im Mainboard-BIOS zu aktivieren ist, damit SAM in der Adrenalin Software aktiviert werden kann. Das weiß ich nicht. Ist aber für dich leicht zu überprüfen. Ist deine Adrenalin Software immer noch auf Englisch eingestellt? Geh zu Performance --> Tuning ... Ach, weißt du was, ich hänge einen Screenshot an. Siehst du oben rechts "AMD Smart Access Memory"? Steht da bei dir auch "Enabled"?
Matrix316
2023-01-30, 23:06:04
Ok, heißt Resizable Bar :D
https://abload.de/thumb/rbarbic9e.jpg (https://abload.de/image.php?img=rbarbic9e.jpg)
aufkrawall
2023-01-30, 23:08:53
Der Wattman steckt noch in der Beta-Phase wenn das wirklich zutrifft. :D
Steckt er schon seit RDNA2, denn damit gab es ja nach Karte schon ein ziemlich ähnliches Problem (massiv andere Spannung als in WM eingestellt liegt an). Wo wir wieder bei der Tragik des fehlenden MPT wären...
Wiseman
2023-01-30, 23:18:50
Ok, heißt Resizable Bar :D
https://abload.de/thumb/rbarbic9e.jpg (https://abload.de/image.php?img=rbarbic9e.jpg)
Unglaublich, aber wahr. Ich erkläre mir das mal so: :biggrin:
Bei AMD CPU + AMD GPU: AMD Smart Access Memory
Bei Intel CPU + AMD GPU: Resizable Bar
Hoffentlich bringt SAM bei dir soviel wie bei mir. SAM bringt nicht in allen Spielen etwas, aber in einigen Spielen bis zu 20% Steigerung.
Wenn du das Spiel "Forza Horizon 5" hättest, könntest du die Effektivität von SAM gut überprüfen. Aber du hast ja FH5 nicht. Seufz.
Edit: Oder hast du eventuell "Red Dead Redemption 2"? In diesem Spiel ist der Unterschied zwischen SAM Enabled und SAM Disabled noch krasser und zwar bei den MIN-fps. Ohne Übertreibung, in RDR2 schnellen die MIN-fps dank SAM regelrecht in die Höhe.
Matrix316
2023-01-31, 10:03:35
Unglaublich, aber wahr. Ich erkläre mir das mal so: :biggrin:
Bei AMD CPU + AMD GPU: AMD Smart Access Memory
Bei Intel CPU + AMD GPU: Resizable Bar
Hoffentlich bringt SAM bei dir soviel wie bei mir. SAM bringt nicht in allen Spielen etwas, aber in einigen Spielen bis zu 20% Steigerung.
Wenn du das Spiel "Forza Horizon 5" hättest, könntest du die Effektivität von SAM gut überprüfen. Aber du hast ja FH5 nicht. Seufz.
Edit: Oder hast du eventuell "Red Dead Redemption 2"? In diesem Spiel ist der Unterschied zwischen SAM Enabled und SAM Disabled noch krasser und zwar bei den MIN-fps. Ohne Übertreibung, in RDR2 schnellen die MIN-fps dank SAM regelrecht in die Höhe.
RDR2 hab ich - auf der Playstation. ;)
Ich kanns heute Abend mal in Cyberpunk oder in anderen Benchmarks testen.
Blöde Frage, was für Werte bekommst du im 3D Mark z.B. Time Spy / Ultra oder Speedway oder Port Royal? Ich glaube mit Games zu vergleichen ist immer so eine Sache, da man nie weiß was sonst noch reinspielt, selbst bei festen Benchmarks. Was hast du auch für eine CPU/RAM? Und ist sonst was übertaktet? Dass du teilsmehr FPS in CP hast, ist irgendwie komisch. ;) Es seid denn du hättest einen 7950X oder ähnliches. ;)
RoNsOn Xs
2023-01-31, 17:00:26
Hab mal eure Einstellung mit 4k @FSR-B übernommen.
Stock @350w
https://abload.de/thumb/350w1wfcc.png (https://abload.de/image.php?img=350w1wfcc.png)
Matrix316
2023-01-31, 20:45:08
Okaaay... Ultra HD und FSR Balanced. Ich hab mal ein paar Apps und so die im Hintergrund liefen deaktiviert und jetzt sind die Min FPS schon besser. ;)
https://abload.de/thumb/cp_ultra_balanycze.jpg (https://abload.de/image.php?img=cp_ultra_balanycze.jpg)
EDIT: Soooo, nach dem ich alles mögliche probiert habe und die FPS plötzlich auf 92 FPS runter sind und quasi "all over the place" hab ich mal den Treiber mit DDU runter und dann noch mal neu installiert und tataaa... 99 FPS!
https://abload.de/thumb/cp_ultra_baladefkl.jpg (https://abload.de/image.php?img=cp_ultra_baladefkl.jpg)
Wiseman
2023-01-31, 23:49:41
Okaaay... Ultra HD und FSR Balanced. Ich hab mal ein paar Apps und so die im Hintergrund liefen deaktiviert und jetzt sind die Min FPS schon besser. ;)
https://abload.de/thumb/cp_ultra_balanycze.jpg (https://abload.de/image.php?img=cp_ultra_balanycze.jpg)
EDIT: Soooo, nach dem ich alles mögliche probiert habe und die FPS plötzlich auf 92 FPS runter sind und quasi "all over the place" hab ich mal den Treiber mit DDU runter und dann noch mal neu installiert und tataaa... 99 FPS!
https://abload.de/thumb/cp_ultra_baladefkl.jpg (https://abload.de/image.php?img=cp_ultra_baladefkl.jpg)
Geht das schon wieder los? ;D Ich meine das Benchen von Cyberpunk. Dabei kann ich diesem Spiel nichts abgewinnen.
So, also hier mein Benchmark in 4k, Ultra-Preset und FSR2.1 Balanced. Ich führte 2 Runs durch, damit du siehst, wie inkonsistent die min fps angezeigt werden. 1. Run unter aller Kanone. 2. Run geht so. Und nun vergleich mit den min fps, die mir der AfterBurner anzeigt. Fällt dir was auf? :biggrin:
Vielleicht verstehst du nun besser, warum bei mir in bestimmten Spielen bzw. Benchmarks immer AfterBurner's Benchmark-Funktion mitläuft. Dort sind die min fps konsistent und die sind auch korrekt, denn ich verspürte keinen einzigen Ruckler während des Flyby.
Du wirst dich jetzt zu Recht fragen, mit welchen Settings ich testete. Die Settings für meine XTX findest du in meinem Adrenalin-Screenshot weiter oben. Sind meine 24/7 Einstellungen. Ganz bescheiden: PL -10%. UV 1062 mV. VRAM 2700 Mhz. Dadurch bleibt auch mein Watt-Verbrauch "bescheiden": 325W.
Genauso bescheiden sind meine 24/7 Einstellungen für meine CPU: AMD 5900X per ECO-Mode 65W limitiert und für meinen RAM: der geht immer am Stock.
Wie ich an euren Ergebnissen sehe, kann meine Hellhound XTX (das ist die XTX mit nur 2x8Pin Kabeln im Gegensatz zur Red Devil mit 3x8Pin Kabeln) durchaus mit euren 3x8Pin-Karten mithalten. In richtigen Spielen und in hohen Auflösungen wie 4k oder 6k, versteht sich.
Für Vergleiche in synthetischen Benchmarks wie 3DMark & Co wendest du dich besser an unseren 3g-man gedi.
RoNsOn Xs
2023-02-01, 08:06:15
Hatte gestern noch das PL aufgedreht und kam auf maximal 103,xx FPS im Avg. Nicht berauschend mehr, vor allem nicht lohnend in Hinblick auf die Effizienz. Vllt siehts ohne FSR aber auch anders aus.
vinacis_vivids
2023-02-01, 10:19:10
Asrock TaiChi 7900 XTX
O-LRefQ5IZM
Der Informationsgehalt von solchen Videos lässt sich in einer Zeile zusammenfasse: Paar Balken und so gut wie nichts zu der Karte.
Tangletingle
2023-02-01, 10:49:00
L1 ist jetzt auch niemand der für GPU Reviews bekannt ist. Deren Stärke liegt woanders.
Matrix316
2023-02-01, 11:32:56
Geht das schon wieder los? ;D Ich meine das Benchen von Cyberpunk. Dabei kann ich diesem Spiel nichts abgewinnen.
So, also hier mein Benchmark in 4k, Ultra-Preset und FSR2.1 Balanced. Ich führte 2 Runs durch, damit du siehst, wie inkonsistent die min fps angezeigt werden. 1. Run unter aller Kanone. 2. Run geht so. Und nun vergleich mit den min fps, die mir der AfterBurner anzeigt. Fällt dir was auf? :biggrin:
Vielleicht verstehst du nun besser, warum bei mir in bestimmten Spielen bzw. Benchmarks immer AfterBurner's Benchmark-Funktion mitläuft. Dort sind die min fps konsistent und die sind auch korrekt, denn ich verspürte keinen einzigen Ruckler während des Flyby.
Du wirst dich jetzt zu Recht fragen, mit welchen Settings ich testete. Die Settings für meine XTX findest du in meinem Adrenalin-Screenshot weiter oben. Sind meine 24/7 Einstellungen. Ganz bescheiden: PL -10%. UV 1062 mV. VRAM 2700 Mhz. Dadurch bleibt auch mein Watt-Verbrauch "bescheiden": 325W.
Genauso bescheiden sind meine 24/7 Einstellungen für meine CPU: AMD 5900X per ECO-Mode 65W limitiert und für meinen RAM: der geht immer am Stock.
Wie ich an euren Ergebnissen sehe, kann meine Hellhound XTX (das ist die XTX mit nur 2x8Pin Kabeln im Gegensatz zur Red Devil mit 3x8Pin Kabeln) durchaus mit euren 3x8Pin-Karten mithalten. In richtigen Spielen und in hohen Auflösungen wie 4k oder 6k, versteht sich.
Für Vergleiche in synthetischen Benchmarks wie 3DMark & Co wendest du dich besser an unseren 3g-man gedi.
Ist halt die Frage wie du mit diesen eher bescheidenen konservativen Einstellungen trotzdem so viele FPS bekommst. :D Da kann ja was net stimmen. ;)
In Cyberpunk Ultra HD mit einer 4090 ist ja ein 13900K schneller als ein 7950X
https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/5/#abschnitt_leistung_in_spielen_2160p_rtx_4090
Wiseman
2023-02-01, 13:57:58
Ist halt die Frage wie du mit diesen eher bescheidenen konservativen Einstellungen trotzdem so viele FPS bekommst. :D Da kann ja was net stimmen. ;)
Ich betrachte das jetzt mal als Kompliment für mein System. :biggrin:
Take it easy.
horn 12
2023-02-01, 17:11:22
Kommt Heute der intel arc Konter Treiber von AMD ?
dildo4u
2023-02-01, 17:59:59
Von was redest du ARC ist im Bereich von RDNA2 Modellen.
Ich tippe Mal drauf die neuen 1000€ Karten haben Priorität und eine 6600 läuft schon ziemlich ideal.
horn 12
2023-02-01, 19:12:49
Dies war nur in Betracht der Performance und Verbrauchs Optimierungen gedacht,
da intel die Hausaufgaben mehr als gelöst hat.
Schnitzl
2023-02-01, 19:12:53
So, ich hab mal angefangen mit einer freundlichen email an Sapphire.de wegen des Problems max -10%PT ;D
Ich weiss, die Erfolgsaussichten sind ... vorsichtig gesagt... recht niedrig - evtl. schreiben noch andere wer weiss ^^
Gibts hier im 3DCenter jemand der ein Graka Bios "anpassen" kann?
OgrEGT
2023-02-01, 19:35:54
So, ich hab mal angefangen mit einer freundlichen email an Sapphire.de wegen des Problems max -10%PT ;D
Ich weiss, die Erfolgsaussichten sind ... vorsichtig gesagt... recht niedrig - evtl. schreiben noch andere wer weiss ^^
Gibts hier im 3DCenter jemand der ein Graka Bios "anpassen" kann?
Gibt momentan keine Software zum BIOS Flashen von RDNA3...
MPT Tool Unterstützung auch nicht... in Anbetracht dass es um Enthusiasten Produkte geht eigentlich Mega Meh... auf Techpowerup hab ich irgendwo gelesen dass die einzige Möglichkeit das BIOS zu flashen nur mit einem EEPROM Hardware Tool möglich ist also den BIOS Chip direkt anschließen und programmieren...
dargo
2023-02-02, 07:08:54
Noch ein Review der PowerColor RX 7900 XTX Hellhound aus Polen. Auch hier wird wieder die sehr gute Kühlung gelobt.
9BB_YlBasXU
Edit:
4u7hce_tKjA
Taigatrommel
2023-02-02, 09:56:17
Kommt Heute der intel arc Konter Treiber von AMD ?
AMD ist derzeit ja offenbar nichtmal in der Lage, aktuelle Treiber für die beiden RDNA Vorgängergenerationen herauszubringen, von Vega ganz zu schweigen und bekommt IMHO seit Release auch den Wattman nicht vernünftig auf die Reihe. Es wurde ja eine komplett neue Treibergeneration für Q1 2023 angek0ndigt, da muss man abwarten, wann die mal eintrifft. Ich persönlich muss ehrlich sagen, dass ich da keine großen Erwartungen habe, doch vermutlich bin ich aufgrund meiner persönlichen Erfahrung mit RDNA3 derzeit einfach nur zu enttäuscht und angefressen.
vinacis_vivids
2023-02-02, 11:21:13
??? Was hast du den für Probleme bei RDNA3 ???
Matrix316
2023-02-02, 11:28:15
Noch ein Review der PowerColor RX 7900 XTX Hellhound aus Polen. Auch hier wird wieder die sehr gute Kühlung gelobt.
[...]
Wobei die Lüfter sind glaube ich gar nicht so viel anders wie z.B. bei der XFX Merc. 37,9 dB bei 1470 RPM könnten zu ~ 40 bei 1600 werden. Die laufen halt nur mit geringeren Drehzahlen, weil die Karte von sich aus weniger Strom zieht.
soLofox
2023-02-02, 12:01:32
Homöopathische Dosen für den Deutschen Markt. Kannst gerne erzählen im Review Thread. Ist nach wie vor einer meiner Favoriten die Nitro+ 7900XTX.
Lautstärke, Kühlleistung und UV/OC interessieren mich.
Es gibt in deutscher Sprache kein einziges ordentliches Review zu dieser Karte. Die Verfügbarkeit ist solala, Preise auch noch etwas zu hoch.
Also die Nitro+ XTX ist heute gekommen.
Bilder und Unboxing gibt's ja genug im Internet zu der Karte, das kann ich mir sparen glaube ich :)
Die Karte ist tatsächlich sehr leise unter Last und bleibt dabei überraschend kühl, das ist wirklich mal angenehm.
GPU Temperatur 60°C und HotSpot 78°C nach einer Runde 3DMark TimeSpy und ca. 20 Minuten PUBG.
Spulenfiepen hat die Karte so ab 200fps sehr deutlich, aber es macht ja ohnehin Sinn, die fps zu begrenzen. Bei um die 140fps höre ich kein Spulenfiepen aus dem System.
Nun muss ich mal ein bisschen Undervolting probieren.
Schnitzl
2023-02-02, 12:32:50
Gibts den fps-Limiter eigentlich noch bei AMD?
Wenn ja, ist der im Treibermenü oder im Wattman?
dargo
2023-02-02, 12:34:57
Wobei die Lüfter sind glaube ich gar nicht so viel anders wie z.B. bei der XFX Merc. 37,9 dB bei 1470 RPM könnten zu ~ 40 bei 1600 werden. Die laufen halt nur mit geringeren Drehzahlen, weil die Karte von sich aus weniger Strom zieht.
Da müsstest du schon einen Vergleich mit Wiseman anstellen. Wiseman stellt seine Karte auf das 365W Bios, du auf das 392W und PT entsprechend runter damit beide Karten das gleiche saufen. Ihr habt afaik auch beide CP77 wie die Polen. ;)
https://youtu.be/9BB_YlBasXU?t=167
Lasst das paar Minuten laufen und vergleicht die Temps. und Lüfterdrehzahlen. Bei euch beiden sollte das Gehäuse offen sein da die Polen afaik im offenen Aufbau getestet haben.
btw.
dBA-Angaben zwischen zwei verschiedenen Reviewern kannst du eh in die Tonne kloppen. Äpfel/Orangen Vergleich. ;) Die Polen messen im offenen Aufbau in Abstand X, CB misst im geschlossenen Gehäuse in Abstand Y.
soLofox
2023-02-02, 13:06:06
Gibts den fps-Limiter eigentlich noch bei AMD?
Wenn ja, ist der im Treibermenü oder im Wattman?
Geht im AMD Treiber.
aufkrawall
2023-02-02, 13:09:29
Ist zwar schon etwas her, aber im Test von Battle(non)sense hatte dieser Limiter fast einen gleich hohen Input Lag wie Vsync.
Chill hat weniger Lag, aber geht vermutlich immer noch bei sehr niedriger Last einfach aus.
#amdqualityfeatures
DeadMeat
2023-02-02, 13:13:55
Gibts den fps-Limiter eigentlich noch bei AMD?
Wenn ja, ist der im Treibermenü oder im Wattman?
Radeon Chill hat diese Aufgabe schon seit ein einiger Zeit.
FRTC kann zwar noch freigeschalten werden funktioniert aber wesentlich unzuverlässiger und produziert viel inputlag.
vermutlich immer noch bei sehr niedriger Last einfach aus.
Passiert nicht.
Schnitzl
2023-02-02, 13:30:31
Geht im AMD Treiber.
Danke! auch an DeadMeat :up:
anddill
2023-02-02, 13:50:58
Mit Chill schnippst die Bildrate gerne mal kurz hoch wenn man in einen Menübildschirm geht oä., wird aber immer wieder schnell runtergedreht.
RoNsOn Xs
2023-02-02, 14:12:24
Chill funktioniert oft anfangs nicht wenn das Spiel gestartet wird. Manchmal erst nach einigen Minuten. Passt zum Rest des Treibers. Vllt liegts aber auch am DX11 Spiel.
aufkrawall
2023-02-02, 15:43:36
Wird dann wohl nie gefixt, hatte das schon mit Polaris und RDNA2. Fällt in den meisten Spielen nicht auf, aber eine unnötige Nerv-Quelle in anderen.
Exxtreme
2023-02-02, 15:50:19
Also bei mir funktioniert Chill wie es soll. Ich begrenze bei vielen Spielen die FPS wenn die Spiele selbst keine Option dazu haben. Gut, ich habe noch RDNA1. :(
Lehdro
2023-02-02, 15:54:57
Radeon Chill ist so ziemlich das einzige was ich bei NV vermisse - einfach per Knopfdruck ingame selbst voreingestellte Limits aktivieren/deaktivieren ist schon nett. Hatte damit auch nie Probleme, anders als mit Wattman.
dargo
2023-02-02, 15:56:42
Was habt ihr denn gegen RTSS wenn man schon ein Limit setzen möchte? :)
aufkrawall
2023-02-02, 16:01:27
Und ich sehe persönlich 0 Sinn darin, während des Spielens den Limiter umzustellen. Der Treiber-Limiter ist eh nur ein Notnagel für zumeist alte Schinken. Aber dann darf er schon 100% zuverlässig funktionieren...
OgrEGT
2023-02-02, 19:53:42
Hier gibt es ein paar Infos zur Sapphire Pulse
https://www.reddit.com/r/Amd/comments/10dndcs/cant_find_any_sapphire_7900_xtx_pulse_reviews/
Offenbar hat die Karte nur ein BIOS... damit ist dann auch die TBP klar... läuft wohl auch ganz gut mit 3Ghz und Hotspot unter 80°C... wobei man solchen Angaben nicht immer trauen kann...
dargo
2023-02-02, 20:09:49
Na immerhin etwas. (y)
1. Mindestens 333W mit PT -10% sind also drin. Nicht ganz so toll.
2. Kein zweites Bios, Bios-Switch fehlt auch, gar nicht drauf geachtet. :tongue:
3. In Idle offenbar min. 15% Lüfter mit 578RPM... top. :up:
4. Bei Last 1777RPM an den Lüftern bei 74°C (:ulol:) GPU-Hotspot. RPM eher meh, dafür sehr niedriger Hotspot. Wobei ich die neuen Lüfter gar nicht richtig einschätzen kann. Womöglich sind die bei höheren Drehzahlen dennoch noch sehr leise? Da hilft nur eine Hörprobe.
5. Delta zwischen GPU-Hotspot und Edge nur 16°C bei 362W... sehr guter Wert. Allerdings bin ich mir jetzt nicht mehr sicher ob Furmark für sowas was taugt. Afaik ist die Wärmeverteilung beim Furmark eher besser als in Games innerhalb des GCD.
Wiseman
2023-02-02, 22:49:02
Blöde Frage, was für Werte bekommst du im 3D Mark z.B. Time Spy / Ultra oder Speedway oder Port Royal?
Ich komme mal auf diese Frage zurück. Obwohl ich dir gegenüber zu verstehen gab, dass mich 3DMark & Co. nicht besonders interessieren, habe ich inzwischen trotzdem in den hiesigen 3DMark-Thread reingeschaut. Warum? Na, weil dein Name auftauchte. Hat mich schon interessiert, was du mit deinem Monster-Rig so alles reißt. Und was muss ich da zu meinem Entsetzen lesen?
Das ist interessant. Ich hab untervolted von 1150 auf 1100 und der Takt stieg aber auch die Lüfter von 1600 auf 2400 RPM.
Ich habe auch die Antwort auf deinen Hilferuf gelesen und diese Antwort veranlasste mich, sofort hier reinzuschauen, um da etwas klarzustellen.
Für mein Hundi - du weißt, ich habe 'ne Hellhound XTX - gilt das von dir auf deiner Merc XTX beobachtete Undervolting-Verhalten nicht. Aber sowas von nicht.
Ich undervolte nun seit einigen Wochen (1150mV --> 1062mV), habe aber null Probleme mit dem Lüfter. Egal, wo ich den Max-Fan-Speed hinschiebe, die Lüfter drehen sich so wie es ihnen befohlen wurde. Meine Standard-Einstellung ist 37%, na dann drehen die Lüfter mit ca. 1200 RPM. Kannst du auf jedem meiner Screenshots an Hand meines Adrenalin-Overlays überprüfen. Um 1600 RPM zu erreichen, müsste ich den Max-Fan-Speed auf ca. 50% stellen und um 2400 RPM zu bekommen, müsste ich ihn auf ca. 75% bis 100% stellen. Und nochmals, meine Voltage steht seit Wochen auf 1062mV.
Hast du eventuell eine Niete gezogen mit deiner Merc XTX? Du verbrätst Watt ohne Ende und hast trotzdem weniger fps als ich? Deine Lüfter drehen durch im wahrsten Sinne des Wortes, sobald du undervoltest? Fragen über Fragen. :biggrin:
Einen kleinen Hoffnungsschimmer sehe ich allerdings für dich am Horizont betreffs Undervolting. Vielleicht reagiert deine GPU allergisch auf 1100mV? Also ich musste schon auch einige Voltzahlen durchprobieren, bis ich auf für meine GPU optimale 1062mV kam. Hast du es schon mal mit 1062mV probiert?
Jetzt fällt mir noch etwas ein. Dargo sei Dank, er hat hier mal eine Voltage-Tabelle gepostet und die hänge ich jetzt an. Ist zwar eine etwas angestaubte Tabelle, weil sie einst für Navi10 erstellt wurde, aber was Neueres gibt es wahrscheinlich nicht. Diese Tabelle hat mich z. B. auf die 1062mV gebracht. Vielleicht kann sie dir auch helfen?
RoNsOn Xs
2023-02-03, 07:39:11
Gleiches PT, gleiche max. Mhz + weniger Voltage resultiert bei mir auch in mehr Punkte. Irgendwer hier sagte doch, dass man damit die ganze Curve verschiebt - von daher macht es irgendwie Sinn.
Lüfter bleiben konstant, da sowieso manuell eingestellt. Dies ändert sich dann auch nicht.
OgrEGT
2023-02-03, 08:47:10
Na immerhin etwas. (y)
1. Mindestens 333W mit PT -10% sind also drin. Nicht ganz so toll.
2. Kein zweites Bios, Bios-Switch fehlt auch, gar nicht drauf geachtet. :tongue:
3. In Idle offenbar min. 15% Lüfter mit 578RPM... top. :up:
4. Bei Last 1777RPM an den Lüftern bei 74°C (:ulol:) GPU-Hotspot. RPM eher meh, dafür sehr niedriger Hotspot. Wobei ich die neuen Lüfter gar nicht richtig einschätzen kann. Womöglich sind die bei höheren Drehzahlen dennoch noch sehr leise? Da hilft nur eine Hörprobe.
5. Delta zwischen GPU-Hotspot und Edge nur 16°C bei 362W... sehr guter Wert. Allerdings bin ich mir jetzt nicht mehr sicher ob Furmark für sowas was taugt. Afaik ist die Wärmeverteilung beim Furmark eher besser als in Games innerhalb des GCD.
Die Lüfter sollen gem Produktseite wie ich verstanden hab die gleichen sein wie die auf der Nitro...
Was halt meh ist dass es kein 2. BIOS gibt man also bei der XT nicht unter 300W kommt... ober meh dass es keine MPT oder BIOS Flash Unterstützung gibt...
Ja man kann zwar den Takt begrenzen hat dann aber je nach Anwendung schwankende u.U. auch höhere Leistungsaufnahme als gewünscht... Mit konstanter max Leistungsaufnahme könnte die Karte den je nach Anwendung jeweils max möglichen Takt nutzen...
dargo
2023-02-03, 08:50:36
Die Lüfter sollen gem Produktseite wie ich verstanden hab die gleichen sein wie die auf der Nitro...
Schon klar, aber eben dieses Lüfterdesign kann ich noch bezüglich Lautstärke nicht einschätzen. ;)
nairune
2023-02-03, 09:24:35
Die besten Lüfter bzgl. Laufruhe hatte ich bisher auf der 6900 XT Referenz. Und zwar mit großem Abstand. Es ist echt schade, dass man bis auf ein paar Lautstärkemessungen fast 0 Info zu sowas bekommt. Bei Igor noch, wenn man Glück hat, dass er das Wunschmodell genau untersucht.
Matrix316
2023-02-03, 10:12:37
Ich komme mal auf diese Frage zurück. Obwohl ich dir gegenüber zu verstehen gab, dass mich 3DMark & Co. nicht besonders interessieren, habe ich inzwischen trotzdem in den hiesigen 3DMark-Thread reingeschaut. Warum? Na, weil dein Name auftauchte. Hat mich schon interessiert, was du mit deinem Monster-Rig so alles reißt. Und was muss ich da zu meinem Entsetzen lesen?
Ich habe auch die Antwort auf deinen Hilferuf gelesen und diese Antwort veranlasste mich, sofort hier reinzuschauen, um da etwas klarzustellen.
Für mein Hundi - du weißt, ich habe 'ne Hellhound XTX - gilt das von dir auf deiner Merc XTX beobachtete Undervolting-Verhalten nicht. Aber sowas von nicht.
Ich undervolte nun seit einigen Wochen (1150mV --> 1062mV), habe aber null Probleme mit dem Lüfter. Egal, wo ich den Max-Fan-Speed hinschiebe, die Lüfter drehen sich so wie es ihnen befohlen wurde.[...]
Wenn ich die Lüfter manuell einstelle, bleiben die auch da. Nur im automatischen Modus drehen die hoch.
EDIT: Blöde Frage noch: Hast du Windows 10 oder 11? :) Das könnte vielleicht auch einen Unterschied machen. Ich hab 11 wegen der Intel CPU. Wenn ich noch bei AMD wäre, hätte ich vielleicht auch noch Windows 10.
pilzsammler2002
2023-02-03, 16:15:29
Gleiches PT, gleiche max. Mhz + weniger Voltage resultiert bei mir auch in mehr Punkte. Irgendwer hier sagte doch, dass man damit die ganze Curve verschiebt - von daher macht es irgendwie Sinn.
Lüfter bleiben konstant, da sowieso manuell eingestellt. Dies ändert sich dann auch nicht.
:freak:
Ich hatte das auch schon erwähnt...
Einfach Undervolten sorgt bei gleichem PL für mehr performance
DSD512
2023-02-03, 17:54:50
Zeit für was neues zum testen... (-5 PPT, ansonsten erstmal alles Auto)
ASRock Radeon RX 7900 XTX Phantom Gaming OC 24GB
- Min Fan 1043 rpm. Naaaaja, warum nicht weniger möglich?
+ Leise
Bei Forza 4 klemmt wohl was beim Treiber ... insgesamt schwaches Ergebnis bei den 1% Low.
https://abload.de/img/f4bench1li5l.png (https://abload.de/image.php?img=f4bench1li5l.png)
https://abload.de/img/f4q1d8g.png (https://abload.de/image.php?img=f4q1d8g.png)
Gears 5
https://abload.de/img/g5benchlzftv.png (https://abload.de/image.php?img=g5benchlzftv.png)
SOTTR
https://abload.de/img/sottrbenchw5dwv.png (https://abload.de/image.php?img=sottrbenchw5dwv.png)
horn 12
2023-02-03, 18:46:23
Ein Wechsel von AMD RX 7900XTX MBA lohnt wohl kaum
wenn man eine XTX Sapphire Pulse,
Gigabyte XTX Custom Gaming OC
oder eben die Phantom XTX bekommen würde
für ca. 1150 Euro
PS:
Für unseren @Dargo
So, Sapphire XTX 7900 Pulse ist da und mich Ach und Krach eingebaut.
Superposition 8K Testlauf mit Stocksettings. Der Lüfter wird bisschen zur Turbine. Da war der Referenzkühler der 5700 XT in meiner Erinnerung etwas angenehmer, weil dessen Tonlage tiefer lag.
Die Punktzahl liegt x2.56 höher als das Maximum das ich bei der 5700XT rauskitzeln konnte.
Mein 600W Netzteil scheint bislang gut zurecht zu kommen. schafft mit Stocksettings den 3DMark nich
@edit für Dargo
Was mir bei meiner 7900 XTX Pulse sehr positiv auffällt ist, dass die Störgeräusche auf meinen Boxen viel, viel leiser sind als noch bei der 5700XT. Um die Fps akustisch hören zu können muss ich das Soundsystem nun extrem laut stellen.
Was Spulen angeht höre ich rein gar nichts.
(Mein Gehör ist allerdings nicht so gut und das schlechtere Ohr ist auf der Seite wo der Tower steht)
Die Stock-Lüftereinstellungen sind schlecht gemacht vom AIB, da die Lüfter auf über 2000rpm hochdrehen, obwohl der Hotspot nicht mal 80°C reisst. Das klingt dann neben den Luftgeräuschen so wie ne laute Hummel oder grosse Mücke, die gefühlt 2 Oktaven tiefer und Grössenordnungen lauter sirrt.
Aber die Lüfterkurve lässt sich gut einstellen. Momentan quick und dirty sieht das jetzt bei mir so aus:
Dieser Inhalt steht nur eingeloggten Mitgliedern zur Verfügung.
Damit höre ich sie unter Volllast nur noch leicht aus den sonstigen Geräuschen raus.
Die Karte lasse ich nun aus Prinzip mit -10% PT laufen, das scheint das 600W-Netzteil gut zu verkraften. Ich sondiere derzeit noch etwas das UV/OC aus. Bei Superposition erreichte ich quick und dirty bei -10% PT mehr Performance als in Stocksettings. Allerdings ist das in Superposition stabile Setting bsw. in Time Spy völlig instabil.
PT -10% / GPU 2.55Ghz @ 0.7V / VRAM 2.6Ghz fast timings
Schnitzl
2023-02-03, 20:53:27
Ein Wechsel von AMD RX 7900XTX MBA lohnt wohl kaum
wenn man eine XTX Sapphire Pulse,
Gigabyte XTX Custom Gaming OC
oder eben die Phantom XTX bekommen würde
für ca. 1150 Euro
PS:
Für unseren @Dargo
So, Sapphire XTX 7900 Pulse ist da und mich Ach und Krach eingebaut.
Superposition 8K Testlauf mit Stocksettings. Der Lüfter wird bisschen zur Turbine. Da war der Referenzkühler der 5700 XT in meiner Erinnerung etwas angenehmer, weil dessen Tonlage tiefer lag.
Die Punktzahl liegt x2.56 höher als das Maximum das ich bei der 5700XT rauskitzeln konnte.
Mein 600W Netzteil scheint bislang gut zurecht zu kommen. schafft mit Stocksettings den 3DMark nich
Mal ganz im Ernst Horn:
geizhals sapphire-pulse-radeon-rx-7900-xtx (https://geizhals.de/sapphire-pulse-radeon-rx-7900-xtx-11322-02-20g-a2864040.html?hloc=at&hloc=de)
was steht da?
"TDP/TGP 355W (AMD), 370W (Sapphire)"
Alleine die Grafikkarte hat bis zu 370W und du kommst mit nem 600W Netzteil an - schon sehr sportlich ^^ - was hast du denn für ne CPU?
horn 12
2023-02-03, 21:34:45
Bin nicht ich, nur kopiert worden aus PCGH
PS:
Habe eine AMD 7900 XTX MBA und ein BeQuiet 650 Watt Dark Power Pro und läuft alles tadellos!
Zusammen mit UV der Grafikkarte auf 316 Watt, aber auch komplett Stock Setting und auch einem 5800X3D.
Schnitzl
2023-02-03, 21:48:31
Bin nicht ich, nur kopiert worden aus PCGH
PS:
Habe eine AMD 7900 XTX MBA und ein BeQuiet 650 Watt Dark Power Pro und läuft alles tadellos!
Zusammen mit UV der Grafikkarte auf 316 Watt, aber auch komplett Stock Setting und auch einem 5800X3D.
ah ok, war mir so nicht ersichtlich.
Schade ich hab immer noch Interesse an der XT Pulse, verlink doch mal den PCGH Thread ;)
horn 12
2023-02-04, 01:16:44
Hier:
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-multichipletmodule-laberthread.624844/page-100
Und eine 7900 XTX Hellhound für gute 1100 Euro (Italien)
https://www.techberry.it/schede-video/29891-vga-powercolor-radeon-hellhound-rx-7900-xtx-24gb-gddr6.html
vinacis_vivids
2023-02-07, 10:28:33
Crysis 3 Remastered Ray Tracing High 4K | RX 7900 XTX | R7 5800X 3D
qA7jjmcxV-M
horn 12
2023-02-11, 19:13:19
Bitte wo sieht man die Speichertemperatur der 7900XTX beim Tool Hwinfo
Habe eine AMD Referenz Karte, kann dies sein da man dort keine sieht ?
=Floi=
2023-02-11, 19:55:12
hast du die neueste version?
Doch, ich glaube sogar für jeden chip gesehen zu haben. Die karte zeigt imho viele werte an.
edit
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1409055&page=5&draft=-1&rank=2
Taigatrommel
2023-02-11, 20:00:26
Bitte wo sieht man die Speichertemperatur der 7900XTX beim Tool Hwinfo
Habe eine AMD Referenz Karte, kann dies sein da man dort keine sieht ?
Soweit ich weiß, kannst du diese nur bei einigen Customs auslesen.
OgrEGT
2023-02-12, 07:14:45
Und nun kommt noch der Wundertreiber der vieles fixt und man hat ein Top Karte zu Gutem Preis!
Wann soll der Treiber erscheinen und was genau wird an Verbesserungen erwartet?
OgrEGT
2023-02-12, 07:27:30
77xImYFrJ0Y
Ultrawide 7900xt Pulse Review
...
Eigentlich meint er nur dass die Karte schön leise ist... interessant aber die RT Perf bei UW Resolution...
RoNsOn Xs
2023-02-12, 09:13:31
Speichertemp kann man auch bei der MBA sehen. Die Frage ist wie alt deine hwinfo ist. Seit einigen Versionen geht das problemlos.
GerryB
2023-02-14, 09:18:13
Das Vram-OCen scheint z.T. an der Temp. zu hängen meint ein User im OCN-Thread.
(mal abgesehen von der üblichen Lotterie)
Natürlich ist sein SOC dann auch stabiler@h2o. (Was man sicherlich auch braucht für nen hohen Vramtakt)
OgrEGT
2023-02-15, 06:15:21
Der neue Treiber ist da :up:
https://www.computerbase.de/2023-02/amd-adrenalin-23-2-1-whql-treiber-fuer-radeon-rx-7000-und-rx-6000-liefert-mehr-fps/
dargo
2023-02-20, 17:00:50
ASRock RX 7900 XT Taichi OC Review... kein Spulenfiepen.
dLDyq4YFOSk
Taigatrommel
2023-02-21, 01:07:52
TPU hat ein Review der Asrock Taichi 7900 XTX veröffentlicht:
https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi/
Ich war überrascht, wie "leicht" die Karte ist, sie ist sogar noch etwas leichter als der deutlich kompaktere Kühler der Referenzkarten. Die Karte verfügt ebenfalls über zwei verschiedene BIOS Varianten, einmal Performance und einmal Quiet.
TPU hat leider nur die reguläre GPU Temperatur angegeben (denke ich zumindest mal), anstelle der Junction Temperatur. Bereits im Leistungs-BIOS gehört die Karte zu den leisesten Customs die TPU getestet hat, nur knapp wird sie von der Nitro+ und der TUF geschlagen. Schaltet man auf das leise BIOS um, verbessert sich die Situation schlagartig: Laut dem Tester ist die Taichi nicht nur die mit Abstand leiseste 7900 XTX, sondern auch eine der leisesten Grafikkarten überhaupt, welche man in letzter Zeit getestet hat.
Die Hauptkritikpunkte an der Taichi treffen auf alle XTX zu: Preislich zu nah an der 4080, generell hoher Verbrauch, vergleichsweise bescheidene RT Leistung.
=Floi=
2023-02-21, 01:46:12
Dort hat man ein paar bauteile weggelassen und die wärmeleitpads gehen nicht über die gesamte spannungsversorgung. Einfach schlampig.
horn 12
2023-02-21, 03:27:02
Dafür dass selbst die Nitro OC+ 7900XTX kaum schneller ist und erst um die 8% schneller wird bei 450Watt als die AMD XTX Referenz hast du nix falsch gemacht würde ich sagen.
Bin auch zufrieden mit der MBA Karte und habe nur 14 bis max.18 Kelvin Temperatur Target GPU / Hotspot.
Dafür dass wir die Karte vor nun gut 2 Monaten gekauft haben, kein schlechter Kauf da die Customs immer noch gleich viel kosten als die Referenz,- dafür aber "Nur" Leiser , zudem richtige Klopper aber kaum schneller und mehr Saft ziehen.
Christopher_Blair
2023-02-21, 07:40:20
Schade dass sie nicht den Verbrauch im Quiet Bios Mode der Taichi mit getestet haben. Nur den Performance Verlust, dieser soll ca. 4%. betragen.
Laut den Thermal Analysis Graphen läuft die Karte im Test im Quiet Bios dort mit 0.838V, das Referenz Design 0.835 (entnommen dem im eigenen Test auf der Seite).
Kann man davon ausgehen dass der Verbrauch der Referenz Design sehr ähnlich ist?
dargo
2023-02-21, 07:44:57
TPU hat ein Review der Asrock Taichi 7900 XTX veröffentlicht:
https://www.techpowerup.com/review/asrock-radeon-rx-7900-xtx-taichi/
Mit dem Quiet-Bios ist der Kühler der Hammer. Wie hoch ist der Stromverbrauch beim Quiet-Bios? Konnte dazu nichts finden.
Wattage doesn´t care:
363W maximale Details, kein Upsampler, Sichtweite 100%
https://i.postimg.cc/0KNg6Sj2/2023-02-21.png (https://postimg.cc/0KNg6Sj2)
dargo
2023-02-21, 12:15:26
Wattage doesn´t care:
Nicht immer nur von sich auf andere schließen. :rolleyes: Ich jedenfalls möchte nach Möglichkeit keine Heizung mit deutlich über 300W im Gehäuse haben. :P
btw.
Für mich persönlich kommt aktuell nur eine Hellhound XTX in Frage. Erstens gefallen mir die 320mm, nicht ganz so langer Ziegelstein. Zweitens... und das ist der Hauptgrund, komme ich nur mit dieser custom Karte auf 316W runter. Das ist halt der Nachteil wenn es kein MPT-Support mehr gibt. So bin ich auf die Powerbudgets der AIBs angewiesen. :down: Ansonsten kämen noch die Pulse/Nitro+ und Taichi in Frage. Wobei die Taichi mir mit ihren 345mm auch wieder eigentlich zu lang ist. Ich wollte sowas Langes eigentlich nicht mehr haben, dann lieber kürzer und dafür dicker.
Nicht immer nur von sich auf andere schließen. :rolleyes: Ich jedenfalls möchte nach Möglichkeit keine Heizung mit deutlich über 300W im Gehäuse haben. :P
btw.
Für mich persönlich kommt aktuell nur eine Hellhound XTX in Frage. Erstens gefallen mir die 320mm, nicht ganz so langer Ziegelstein. Zweitens... und das ist der Hauptgrund, komme ich nur mit dieser custom Karte auf 316W runter. Das ist halt der Nachteil wenn es kein MPT-Support mehr gibt. So bin ich auf die Powerbudgets der AIBs angewiesen. :down: Ansonsten kämen noch die Pulse/Nitro+ und Taichi in Frage. Wobei die Taichi mir mit ihren 345mm auch wieder eigentlich zu lang ist. Ich wollte sowas Langes eigentlich nicht mehr haben, dann lieber kürzer und dafür dicker.
Weniger als 363w gehen mit der Nitro nicht.
dargo
2023-02-21, 12:56:12
Ich weiß, deswegen scheidet diese generell bei mir aus. Ist mir aber aktuell eh noch viel zu hoch bepreist. Selbst bei der Pulse komme ich nur auf min. 333W runter. Die Nitro+ wäre (beim vernünftigen Preis) für mich nur interessant mit MPT-Support.
Edit:
Der Test der Taichi XTX von techpowerup ist mir schon wieder ein kleines Rätsel wenn ich das hier so sehe. :freak:
https://youtu.be/eT41jlmQfK4?t=73
Techpowerup kommt auf ~1300RPM beim Lüfter, der User hier auf 2400WPM? WTF? :crazy: In dem Video kommt mir das Delta zwichen Edge und Hotspot bei 404W auch extrem gering vor, da kann doch was nicht stimmen. :uponder:
Schade dass sie nicht den Verbrauch im Quiet Bios Mode der Taichi mit getestet haben. Nur den Performance Verlust, dieser soll ca. 4%. betragen.
Finde ich auch schade. Da aber die GPU nur ein lausiges °C wärmer bei 200RPM weniger wird würde ich schon davon ausgehen, dass das Quiet Bios weniger PT hat. Die Frage ist halt nur wieviel weniger? Vom Takt her (164Mhz weniger) würde ich blind auf grob 360-370W tippen.
Edit:
Werden wohl eher 355W sein, die Referenz erreicht dort auch 2400+Mhz.
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/36.html
Somit endlich wieder eine brauchbare custom XTX. Wenn man schon zwei Biose verwendet dann sollte das eine sich wenigstens an das Powertarget der Referenz halten. :rolleyes:
Ich weiß, deswegen scheidet diese generell bei mir aus. Ist mir aber aktuell eh noch viel zu hoch bepreist. Selbst bei der Pulse komme ich nur auf min. 333W runter. Die Nitro+ wäre (beim vernünftigen Preis) für mich nur interessant mit MPT-Support.
Edit:
Der Test der Taichi XTX von techpowerup ist mir schon wieder ein kleines Rätsel wenn ich das hier so sehe. :freak:
https://youtu.be/eT41jlmQfK4?t=73
Techpowerup kommt auf ~1300RPM beim Lüfter, der User hier auf 2400WPM? WTF? :crazy: In dem Video kommt mir das Delta zwichen Edge und Hotspot bei 404W auch extrem gering vor, da kann doch was nicht stimmen. :uponder:
Finde ich auch schade. Da aber die GPU nur ein lausiges °C wärmer bei 200RPM weniger wird würde ich schon davon ausgehen, dass das Quiet Bios weniger PT hat. Die Frage ist halt nur wieviel weniger? Vom Takt her (164Mhz weniger) würde ich blind auf grob 360-370W tippen.
Edit:
Werden wohl eher 355W sein, die Referenz erreicht dort auch 2400+Mhz.
https://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/36.html
Somit endlich wieder eine brauchbare custom XTX. Wenn man schon zwei Biose verwendet dann sollte das eine sich wenigstens an das Powertarget der Referenz halten. :rolleyes:
Ich probiere es die Tage mal mit dem Silent-Vbios. Keine Ahnung wieviel dort anliegt :confused:
Mit max. 1450rpm (via WM) braucht es ebend kein Silent-Dingsbums, man hört nämlich exakt 0 von der Karte. Und alle Gehäuselüfter laufen hier auf 5v.
GerryB
2023-02-21, 18:37:27
Hast Du eigentlich noch den Toxic-Waterblock für die Nitro passend machen können?
Wenn ja, bitte 1-2 Bilder mit Anleitung posten.
Dant3
2023-02-21, 19:07:19
Mit dem Quiet-Bios ist der Kühler der Hammer. Wie hoch ist der Stromverbrauch beim Quiet-Bios? Konnte dazu nichts finden.
Also, das mag vielleicht die leiseste 7900 XTX sein, aber wenn man die gelistete 6800 XT im Referenzdesign zum vergleich nimmt, die ja angeblich noch leiser sein soll, dann ist das trotzdem noch ziemlich laut. Die Referenz 6800 XT habe ich schon bei einem Kollegen gehört und die war für mein Empfinden immer noch unangenehm laut und setzte sich in einem leisen Gesamtpaket unangenehm vom Rest ab.
dargo
2023-02-21, 19:35:40
Auf reine dBA Angaben gebe ich schon lange nichts mehr. Ich achte auf die Lüfterdrehzahl und ~1100RPM sind verdammt leise. Wobei man hier natürlich zwischen 85, 95 und 100/105mm Lüftern unterscheiden muss. Aber 1100RPM bei 100/105mm Lüftern finde ich auch schon sehr leise.
Wiseman
2023-02-21, 23:11:23
Für mich persönlich kommt aktuell nur eine Hellhound XTX in Frage. Erstens gefallen mir die 320mm, nicht ganz so langer Ziegelstein. Zweitens... und das ist der Hauptgrund, komme ich nur mit dieser custom Karte auf 316W runter.
Du kommst sogar bis auf 312W runter.
Zusätzliche 60+%... sowas müsste es eigentlich durchgehend geben.
Das ist ein Zitat von dir aus einem anderen Thread. +60% im Durchschnitt gegenüber deiner 6800XT bekommst du mit 'ner XTX. Ich habe extra für dich den Leistungsgewinn meiner Hellhound XTX gegenüber einer 6900XT prozentual berechnet. Ich verwendete dazu 10 meiner Spiele. Spiele, die ich zuvor mit meiner 6900XT und nun mit meiner XTX auf dem gleichen System (5900X 65W limitiert, RAM am Stock, GPU jeweils mit -10% PL und UV) getestet hatte.
Ich komme da auf einen Durchschnitt von 52%. Lege 8% für deine 6800XT dazu und du bist bei 60%.
Das immer noch nicht für die 7900-er Serie gefixte Forza Horizon 5 habe ich logischer Weise nicht berücksichtigt. Das Treiberteam wird es halt auf der Prioritätenliste ziemlich weit hinten führen. Spielen kann man es ja trotzdem in der Zwischenzeit. Habe es mit dem 23.2.1 getestet. 98 Min fps und 118 Avg fps in 4k + Extreme-Preset müssten eigentlich auch deinen hohen Ansprüchen genügen.
Andererseits, wenn 2560x1440 weiterhin die Auflösung deiner Wahl sein sollte, dann bräuchtest du als 6800XT-User eigentlich gar nicht über eine 7900 XTX nachdenken. Oder denkst du an einen 4k-Monitor?
dargo
2023-02-22, 07:04:17
Das ist ein Zitat von dir aus einem anderen Thread. +60% im Durchschnitt gegenüber deiner 6800XT bekommst du mit 'ner XTX. Ich habe extra für dich den Leistungsgewinn meiner Hellhound XTX gegenüber einer 6900XT prozentual berechnet. Ich verwendete dazu 10 meiner Spiele. Spiele, die ich zuvor mit meiner 6900XT und nun mit meiner XTX auf dem gleichen System (5900X 65W limitiert, RAM am Stock, GPU jeweils mit -10% PL und UV) getestet hatte.
Ich komme da auf einen Durchschnitt von 52%. Lege 8% für deine 6800XT dazu und du bist bei 60%.
Darum gehts doch nicht, man kann sich auch alles schön rechnen. :) Auf die 6800XT erwarte ich natürlich entsprechend mehr. So ein Upgrade soll sich auch lohnen und im besten Fall + 100% bringen. Die +60% im Schnitt meinte ich auch auf 7900XTX vs. 6900XT bezogen.
GerryB
2023-02-23, 07:30:15
100% mooore Fps wirste evtl. in nem FutureCrap-Game XYZ schaffen, aber bzgl. Effizienz wirds schwierig auch nur 50% zu schaffen.
Die 6800xt ist nahe Sweetspot bei 150Wtgp= 178Wtbp extrem willig:
dargo
2023-02-23, 07:49:57
Schade dass sie nicht den Verbrauch im Quiet Bios Mode der Taichi mit getestet haben. Nur den Performance Verlust, dieser soll ca. 4%. betragen.
Habe hier was gefunden.
https://youtu.be/Jdw0BhgEWr0?t=282
Mit der Taichi XTX kommt man also auf 314W runter, das ist schon mal sehr gut. :up: Was ich auch klasse finde... mit PT -10% + UV ist die Karte immer noch 3% schneller mit 314W als Stock @349W. Klar... bissel Chiplotterie gehört immer dazu beim UV. Aber dieses Beispiel deutet jedenfalls darauf hin, dass die Karte grob bei 270W genauso schnell wäre wie Stock @349W mit UV wenn man denn das Powerlimit weiter reduzieren könnte. Ich verfolge in der Regel beim UV das Ziel gleiche Performance wie Stock bei weniger Verbrauch.
Edit:
Ach verdammt... ist noch zu früh. In dem Beispiel geht es um die 7900XT nicht XTX. An der Kernaussage ändert das aber nichts bezüglich UV.
btw.
Mehr Nerdigkeit geht kaum. :D
JqK7j2Zr77o
Und AMD works. ;)
Edit 2:
Noch ein Review der AORUS RX 7900 XTX ELITE.
3-qaZWmVNRM
Wobei mir die 339W etwas komisch vorkommen, eventuell ASIC Power.
Schnitzl
2023-02-25, 22:39:16
so ich hab jetzt endlich Antwort von Sapphire bekommen, generell wusste ich das leider schon...
Sehr geehrter Herr xxx,
das Power Target lässt sich leider nicht mehr auf 60% einstellen. Es gibt eine Begrenzung durch AMD.
mit freundlichen Grüßen
Ihr Sapphire Team Deutschland
d.h. ich muss jetzt bei AMD weiterstänkern ;D
/EDIT: das warum wäre noch interessant, mal schaun was AMD sagt ^^
OgrEGT
2023-02-26, 00:34:30
so ich hab jetzt endlich Antwort von Sapphire bekommen, generell wusste ich das leider schon...
d.h. ich muss jetzt bei AMD weiterstänkern ;D
/EDIT: das warum wäre noch interessant, mal schaun was AMD sagt ^^
Womit wolltest du das PT auf 60% einstellen? Im WM ging ja immer schon nur 90% und MPT ist keine offizielle Software auf die man sich berufen könnte...
Schnitzl
2023-02-26, 01:29:40
Womit wolltest du das PT auf 60% einstellen? Im WM ging ja immer schon nur 90% und MPT ist keine offizielle Software auf die man sich berufen könnte...
die 3070 läuft mit Afterburner und 60% PT
Da das mit Navi3 nicht geht ist das gerade - für mich- das größte Kaufhindernis
OgrEGT
2023-02-26, 07:31:27
die 3070 läuft mit Afterburner und 60% PT
Da das mit Navi3 nicht geht ist das gerade - für mich- das größte Kaufhindernis
Verstehe... da bin ich voll bei dir... auch dass man keine Möglichkeit mehr hat das BIOS zu ändern... ganz allgemein finde ich die Einschränkungen Enthusiasten Produkte wie Highend GPUs nicht mehr konfigurieren zu können einen Rückschritt und einen großen Fehler da man damit die Userbase verprellt die das Produkt tragen... zudem ist es ein zusätzlicher unnötiger Wettbewerbsnachteil... das hat schon mit RDNA2 angefangen als man die Spannungskurve nicht mehr einstellen konnte... warum nicht bspw. wie bei AMD PBO per Disclaimer mit doppelter Sicherheitsabfrage freischalten und damit den Usern in gewissem Umfang die Freiheit lassen? Es könnte so einfach sein wenn man denn wollte...
GerryB
2023-02-26, 07:53:39
... das hat schon mit RDNA2 angefangen als man die Spannungskurve nicht mehr einstellen konnte...
???
Willst Du ernsthaft mit dem AB an RDNA2 rumfummeln?
Für Sowas gibts das MPT, falls man mehr ändern möchte als das Treiberpaneel erlaubt.
btw.
PL ist eeh sinnlos, Schnitzl soll sich lieber mal in den Games ein Fps-Limit setzen, dann macht der AMD-Treiber/Kurve schon ganz von Alleine
was Sparsames draus. (funktioniert inzwischen besser als beim Launch in den Reviews)
dargo
2023-02-26, 07:58:28
Verstehe... da bin ich voll bei dir... auch dass man keine Möglichkeit mehr hat das BIOS zu ändern... ganz allgemein finde ich die Einschränkungen Enthusiasten Produkte wie Highend GPUs nicht mehr konfigurieren zu können einen Rückschritt und einen großen Fehler da man damit die Userbase verprellt die das Produkt tragen... zudem ist es ein zusätzlicher unnötiger Wettbewerbsnachteil... das hat schon mit RDNA2 angefangen als man die Spannungskurve nicht mehr einstellen konnte...
Hä? Im Wattman kannst du genau das... die V/F Kurve verschieben. Das einzige was fehlt vs. RDNA1 ist die grafische Darstellung.
OgrEGT
2023-02-26, 08:03:35
Hä? Im Wattman kannst du genau das... die V/F Kurve verschieben. Das einzige was fehlt vs. RDNA1 ist die grafische Darstellung.
Ich dachte man konnte die einzelnen Spannungsstufen getrennt voneinander einstellen...
GerryB
2023-02-26, 08:29:31
Beim 6x50 er Refresh haben jetzt die einzelnen Stufen jeweils eigene Kurven.
750,850,950,1050,1200, ... nennt sich per part piecewise
(auf diese Kurven wirkt dann der normale Voltregler im Wattman mit nem Versatz, ... reicht für den Hausgebrauch)
Bei mehr Interesse+KÖNNEN,... mach Dich mal schlau im MPT-Thread bei IL.
https://www.igorslab.de/community/threads/red-bios-editor-und-morepowertool-bios-eintr%C3%A4ge-anpassen-optimieren-und-noch-stabiler-%C3%BCbertakten-navi-unlimited.2415/page-167#post-208448
Für ältere 6x00 gibts das normale piecewise, wo man auch die Volts im LinearDrop verstellen kann. (vermute mal, diese Werte werden dann
der Einfachheit halber mit Fps-Limit genommen statt der Originalkurve)
z.Bsp.
meine 6800nonXT hat default ne minGFX von 793mV, dazu kommen dann die Werte, die man bei LinearDrop einstellen kann.
... ergibt dann in der Summe die geänderten eff.Volt
(bei mir z.Vgl. default vs UVing minGFX725mV+LD =.... siehe Anhang)
SOWEIT gehen aber die Wenigsten. Meist wird nur maxGFX im MPT gecappt.(und bei kleinen Settings etwas weniger minGFX)
Dann muss logischerweise auch der Voltwert im Wattman mit reduziert werden, damit das Offset wieder passt.
Dazu gibts viele Bsp. im Luxx-Effizienzthread:
https://www.hardwareluxx.de/community/threads/radeon-rx-6000-3dmark-time-spy-effizienzliste.1321376/
(Achtung! ... es werden z.T. ältere Treiber genutzt, ... kann mit dem aktuellen Treiber ein mue Anpassung erfordern
und
Natürlich kann net jeder Chip dasselbe Setting = Lotterie)
Ein leicht zu nutzendes Einsparpotential gibts bei den SOC+Vram-Volt. (SOC= Speichercontroller)
Sorry für soviel OT im 7000er Thread!
OgrEGT
2023-02-26, 12:10:14
Vielen Dank!
Wie sieht es bei RDNA3 aus?
Welche Standard Takt- und Voltagestufen sind da hinterlegt? Voltagestufen sind wahrscheinlich noch die die dargo mal als Liste für RDNA1 verlinkt hatte... Aber welche Taktstufen sind diesen zugeordnet?
[MK2]Mythos
2023-02-26, 15:25:34
Hab' jetzt keinen passenden Thread gefunden, aber: Dual RX 6800 schlägt RX7900TX mit 400W TDP. :freak:
Va7EIRzgJvI
dargo
2023-02-26, 15:28:44
Hau bloß ab mit so einem Stutter-Kram. :cool:
Matrix316
2023-02-26, 16:00:34
Mythos;13246934']Hab' jetzt keinen passenden Thread gefunden, aber: Dual RX 6800 schlägt RX7900TX mit 400W TDP. :freak:
Ja gut das ist jetzt keine Kunst. Die könnten auch 2 7900XT oder so auf eine Platine machen und dann würde das auch eine 4090 schlagen. :cool:
Schnitzl
2023-02-26, 17:05:36
Hä? Im Wattman kannst du genau das... die V/F Kurve verschieben. Das einzige was fehlt vs. RDNA1 ist die grafische Darstellung.
also, ich hab mal das hier kurz überfolgen:
https://www.amd.com/de/support/kb/faq/dh-020
sehr schön. Einmal gibts da wohl "auto undervolt" und dann noch "Radeon Chill".
Beides sehr interessant - fehlen nur noch Erfahrungsberichte davon mit 7900-Karten :)
Vielen Dank!
Wie sieht es bei RDNA3 aus?
Welche Standard Takt- und Voltagestufen sind da hinterlegt? Voltagestufen sind wahrscheinlich noch die die dargo mal als Liste für RDNA1 verlinkt hatte... Aber welche Taktstufen sind diesen zugeordnet?
Funktioniert bei RDNA3 komplett anders! Bei RDNA2 und 1 war es ja so, dass 25mv sich aufgeteilt in 6-6-6-7mv Stufen. In RDNA3 kann z.B. 1028 zu 1027mv die GPU instabil machen. Taktstufen scheint es auch keine mehr zu geben.
Was anderes: Ist euch bei AM5 und Agesa 1005c in Verbund mit N31 auch etwas aufgefallen?
GerryB
2023-02-26, 19:27:29
Jein,
man kann bei RDNA2 im MPT bestimmte Hauptspannungen nur um den 6,25mV-Step ändern, aber die Spawas können jetzt real auch feiner regeln, ...
würde denken 1/2x6,25 und 1/4x6,25-Steps. (Das passt dann analog auch zu Gedis Beobachtung bei RDNA3)
Deswegen gibts die Kurven ja als durchgehende Funktionen und net mehr als diskrete Einzelwerte.
(Kurvenwerte a+b+c lustig zusammengemixt, ... ganz anders als bei RDNA1)
Bsp. ist Boosttakt unter Teilllast, wo mein niedrigstes Setting zufällig eff.Volt=841<850-6,25=843,75mV und >850-6,25-6,25=837,5mV läuft.
HWinfo kanns net ganz genau erfassen und rundet leider die Kommastellen auf volle mV auf.(siehe Anhang)
Zurück zu RDNA3, da hat GeChun gerade mal das AutoUV im PCGH-Thread getestet = falls stabil = zu empfehlen.(x)
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna3-mcm-multichipletmodule-laberthread.624844/page-120#post-11242730
(x) so ein simples UVen im Treiberpaneel ist leider net garantiert stabil, da spielt die Chiplotterie mit rein
Emil_i_Lönneberga
2023-03-05, 10:43:18
xxhYzAMNmcQ
aufkrawall
2023-03-05, 15:02:51
Offenbar hat der AMD D3D11-Treiber ab RDNA2 mittlerweile teilweise weniger Overhead als der von Nvidia, Sons of the Forest läuft im CPU-Limit schneller:
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/sons-of-the-forest-test-gpu-cpu
Leider steht auf der Soll-Seite fehlender FRS 2-Support, womit nur das Schrott-TAA bleibt...
Wiseman
2023-03-07, 00:47:19
Das 3DC-Forum quillt bekanntlich über von Nerds und Experten. So, deshalb folgende Frage an die Experten:
Wenn eine neue Generation im Vergleich zur vorherigen Generation bei 23% mehr Watt-Verbrauch 53% mehr Leistung erzielt, ist das "gut" oder "schlecht" oder "geht-so" für die neue Generation?
Ich habe meine Vorgängerkarte 6900XT (253W PL) mit meiner aktuellen Karte 7900 XTX (312W PL) auf dem gleichen System (CPU, RAM, Win11) verglichen. Der Vergleich stammt aus dem Spiel "Rise of the Tomb Raider", jeweils in 6k, VeryHigh Preset, FSR2 Q.
Overall Score: 6900XT 58 fps vs 7900XTX 89 fps
basix
2023-03-07, 04:27:53
Ohne mich als Experten zu sehen, eher als Nerd ;): Ganz klar "geht so". Insbesondere weil man von N7 auf N5 umgestiegen ist.
Gutklassig wäre mMn >50% Energieeffizienz. Und das hat AMD mal für RDNA3 versprochen, im Schnitt über viele Spiele jedoch um ein gutes Stück verfehlt. Insbesondere mit Stock-Settings.
GerryB
2023-03-07, 04:56:20
Apfel+Birnen:
die 6900 zeigt die TGP an, aber die 7900xtx TBP
Rechnet man die 6900 auf TBP um, ist der reale Verbrauch deutlich höher:
251x1,15+6=295W TBP, wenn man den Schnappschuss hernimmt
Weiss jetzt net ob sich die 23% darauf beziehen sollen.
Korrigiert man den Vgl. auf TBP wärens dann 312/295=5,76%
(was schon viel freundlicher klingt)
btw.
Die spürbaren Unterschiede wirds dann auch erst in nextGen-Games so richtig geben, wo die 6900 evtl. mehr "einbricht".
oder
Man nimmt gar ne 6800xt mit gleichem PL zum Vgl., dann siehts z.Bsp in Deathloop (Anhang2) net so gut aus.
Die 6900 ist mit 251Wtgp halt deutlich näher am Sweetspot als ne 6800xt und kommt dadurch bei Effizienzvgl. meist gut weg.
Um in jedem Game nahe min60fps@4k zu schaffen würde man die 6900 OCen müssen und dann wird se auch unwirtschaftlicher.
(in Anhang 1= DeathSpace fehlts doch bei den minFps)
OgrEGT
2023-03-07, 08:38:49
Was auch noch mit berücksichtigt werden muss sind die Mehrzahl an Recheneinheiten und die architektonischen Änderungen die gemacht wurden die viele Transistoren gekostet haben und sich nicht wie erhofft auszahlen... Stichwort Dual Issue CUs und natürlich die Taktraten die unter den Erwartungen liegen...
Interessant wäre es die Leistung pro CU und Takt bzw. Leistungsaufnahme normiert zu betrachten...
GerryB
2023-03-07, 09:51:59
Schmarrn!
Die neue Architektur ist sparsam und geht bis auf wenige Ausnahmen (FH5) wunderbar.
Nur der Speicherkontroller frisst bei 384bit natürlich deutlich mehr Watt, als früher mit 256bit.
(hinzu kommt etwas Mehraufwand für die MCD´s)
Wenn HIER Jemand Theorien aufstellen möchte, dann doch bitte mit Schnappschuss vom HWinfo, wo man die W bei GPU-Kern
vgl. kann und den Mehrverbrauch vom SOC+Vram sieht.(16-->24GB kostet auch nen mue mehr)
Dann könnte man mal schauen wieviel Prozent vom Gesamtverbrauch beim GPU-Kern genutzt werden.
Im Anhang mal ein Bsp. was ein 7900xtx User in Sup8k gemessen hat bei 273W TGP = 325W TBP.
basix
2023-03-07, 14:09:56
Bei eigentlich allen Reviews ist die Steigerung der Energieeffizienz relativ mager und eben ein gutes Stück kleiner als 1.5x. Und dort wird immer die ganze Karte bewertet. Das mit dem "Kernverbrauch" ist sicher interessant, hilft dem Nutzer allerdings nichts hinsichtlich Gesamtverbrauch.
GerryB
2023-03-07, 18:53:05
reine Speku:
Hoffentlich bekommt AMD das teilweise Abschalten in den DeepSleep-States noch besser hin, dann wirds auch mit dem Verbrauch bei MCD+Speicherkontroller+Vram besser, wenn man FPS-Limit nutzt, oder ein Game kaum Bandbreite braucht.
Das wurde ja eigentlich im Vorfeld mit angekündigt.
Ein Review zur Pulse-XT: https://lanoc.org/review/video-cards/8678-sapphire-rx-7900-xt-pulse
dargo
2023-03-10, 15:37:35
Informationsgehalt = Null. Kann den Kühler immer noch nicht richtig einschätzen. :freak:
Edit:
Der drölftausendste Test. :tongue:
lSy9Qy7sw0U
dargo
2023-03-12, 08:51:28
Die PCGH hat sich vier Customs XTX angesehen.
LqyXeuft1dY
Die leiseste Karte ist nach wie vor der Klopper TUF von ASUS. Wobei ich das wieder seltsam finde, dass die PCGH nichts vom Spulenfiepen erwähnt was bei dieser Karte angeblich oft vorkommen soll. Mich überrascht sehr positiv immer noch die Asrock Taichi. Ein imho sehr gutes Gesamtpaket. Mit dem Silent-Bios nur noch 0,7 Sone. (y) Leider vergessen wieviel Wattage im Silent-Bios bei der Taichi noch anliegen.
=Floi=
2023-03-13, 07:34:24
Die TUF kostet 200€ mehr. Das ist es einfach nicht wert.
DrFreaK666
2023-03-13, 07:36:47
... Wobei ich das wieder seltsam finde, dass die PCGH nichts vom Spulenfiepen erwähnt was bei dieser Karte angeblich oft vorkommen soll...
Wer sagt denn dass das oft vorkommt? Ein paar Nerds in einem Nerd-Forum?
und Igor die Pulse: https://www.igorslab.de/sapphire-radeon-rx-7900-xt-20gb-im-test-die-guenstigere-variante-ist-nicht-die-schlechteste-mit-community-verlosung/
dargo
2023-03-13, 10:33:40
Na endlich. (y) Der Kühler überzeugt mich bei 312W aber nicht unbedingt. :cool:
Crazy_Chris
2023-03-17, 09:55:02
Ich habe mir jetzt doch spontan eine RX 7900XT gekauft. Hauptsächlich um gerade Elex 2 vernünftig spielen zu können. ;D
Es wurde eine Sapphire 7900XT im Referenzdesign da die Karte mit einer Länge von nur 27cm perfekt in mein Gehäuse passt. Größere Karten würden auch gehen allerdings ist die Wasserpumpe im Weg und ich habe keine Lust das alles umzubauen.
Performance ist im Vergleich zur alten 5700XT gigantisch. Kingdom Come Deliverence läuft in 1440p@Ultra im Schnitt mit 160fps in der nähe der Mühle. Die alte Karte hatte @Hoch schon Probleme mit 50fps. Elex 2 rennt jetzt auch im Wald mit 100fps. So hatte ich mir das vorgestellt.
Da meine alte 5700XT Red Devil mit Silent BIOS echt unhörbar ist hatte ich erst einige Bedenken was die neue Karte angeht. Da ich allerdings seit einigen Jahren fast nur noch mit Kopfhörer spiele war mir das dann doch nicht mehr so wichtig.
Die 7900XT ist unter Vollast schon hörbar allerdings empfinde ich es noch nicht als störend. Ist ein relativ monotones rauschen ohne das der Lüfter die Drehzahl hektisch ändert. Zum Glück gibt es kein Spulenfiepen, kein Rasseln oder klackern bei 165fps und Volllast.
Ich war bis auf 10cm mit dem Ohr neben der Karte. Also Glück gehabt. :D
https://abload.de/img/7900xt_tempsd0e3c.png
Man liest ja von den Karten bzgl. VR nicht so viel gutes. In den aktuellen Treibern wird dies auch als "issue" aufgeführt. Ich hatte kurz Alyx mit der Reverb G2 angetestet und konnte keine Probleme feststellen. Am Wochenende teste ich noch FS2020 in VR. Das lief ja mit der alten Karte nur auf mittlere/geringe Details. Bin ich drauf gespannt.
Jetzt gibt es wohl keine Ausreden mehr für einen neuen 4k OLED. :whistle:
r3ptil3
2023-03-17, 11:22:19
Sapphire Pulse 7900 XT @ Techpowerup (https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xt-pulse/)
https://i.ibb.co/28NJBPJ/image.png
Für die XT okay, für die XTX wohl zu schwach.
Matrix316
2023-03-17, 11:34:26
[...]
Jetzt gibt es wohl keine Ausreden mehr für einen neuen 4k OLED. :whistle:
Ähhhh.... :D Kommt auf deine Settings an, aber 4K ist noch mal eine andere Hausnummer als 1440p. Eine XTX wäre da vielleicht besser gewesen. :redface:
Crazy_Chris
2023-03-17, 11:45:17
Ähhhh.... :D Kommt auf deine Settings an, aber 4K ist noch mal eine andere Hausnummer als 1440p. Eine XTX wäre da vielleicht besser gewesen. :redface:
Ja wie man's macht, macht man's falsch. :tongue:
gbm31
2023-03-17, 12:13:26
Man liest ja von den Karten bzgl. VR nicht so viel gutes. In den aktuellen Treibern wird dies auch als "issue" aufgeführt. Ich hatte kurz Alyx mit der Reverb G2 angetestet und konnte keine Probleme feststellen. Am Wochenende teste ich noch FS2020 in VR. Das lief ja mit der alten Karte nur auf mittlere/geringe Details. Bin ich drauf gespannt.
Wieviele fps in Alyx. Und flüssiges Gefühl?
Meine 7900XTX hat keine 90 erreicht und ein sehr unstetes Bild geliefert, was Motion Sickness begünstigt. Meine 6900XT fiel nicht unter 90.
Crazy_Chris
2023-03-17, 12:56:13
Ich habe gestern Abend nicht gemessen. Einfach Alyx gestartet, die Details auf Max gestellt (vorher ging nur Hoch) und 15min gespielt. Konnte subjektiv jetzt keinerlei Probleme feststellen. Schaue ich mir am Wochenende aber genauer an. :wink:
OgrEGT
2023-03-17, 17:58:53
Sapphire Pulse 7900 XT @ Techpowerup (https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xt-pulse/)
https://i.ibb.co/28NJBPJ/image.png
Für die XT okay, für die XTX wohl zu schwach.
Mit 1500rpm leiser als die TUF mit 1200rpm... aber mit 82°C Hotspot... ob da noch viel geht unter 1500rpm...
Mit 1500rpm leiser als die TUF mit 1200rpm... aber mit 82°C Hotspot... ob da noch viel geht unter 1500rpm...
82°C Hotspot-sehe da absolut kein Problem. Mit OC schneller als ne 4080 und praktisch gleichauf mit ner XTX-nett!
vinacis_vivids
2023-03-17, 19:41:40
Man bedenke, die XT Pulse hat nur 2x8 Pin Stecker und erreicht die MBA XTX. Die Nitro+ 7900XT hat 3x8 Pin. Dürfte im vollen OC-Modus noch leicht schneller als die MBA 7900XTX sein.
Knapp 3,0 Ghz für die Pulse, vllt. 3,2-3,3Ghz für die Nitro+. Das sind umgerechnet 5376 * 4 * 3,2 ~ 68,8 Tflops fp32. Die MBA XTX hat 6144 * 4 * 2,6 ~ 63,9 Tflops fp32.
Die Modelle mit 3x8Pin sind insgesamt 100-150€ teurer als die 2x8Pin Modelle.
Die Nitro+ 7900XT müsste mal noch richtig getestet werden.
Die N31XT-GPU auf der Pulse 7900XT hat ein 14-Phasen Design. Weiß nicht wie das bei der Nitro+ 7900XT ist...
Die Nitro+ 7900XTX hat auf jeden Fall 17-Phasen Design. Wenn die 17-Phasen auch auf der Nitro+ 7900XT sind, dann ist die Karten den Aufpreis auch wert.
dargo
2023-03-17, 20:33:01
Man bedenke, die XT Pulse hat nur 2x8 Pin Stecker und erreicht die MBA XTX.
Wovon träumst du sonst noch? :lol: Referenz XTX ist 17% vor der Pulse XT. :rolleyes:
vinacis_vivids
2023-03-17, 21:25:37
Bei TimeSpyExtreme GT1 sind es Pulse XT OC 93,3fps vs 94,0fps MBA XTX. Quasi Meßtoleranz 0,7fps.
In Games sehe ich knapp einen Gleichstand. Vllt. 2-4% Vorteil für die XTX@Stock im UHD, je nach Game auch Gleichstand.
GerryB
2023-03-17, 21:44:49
Hotspot ist in dieser Gen net so wichtig fürs UV/OCen solange das Delta OK ist=gute Montage.(x)
eher
Sollte man nach nem Modell schauen, wo der Vram kühler ist.(z.Bsp. MERC)
Ideal sind Modelle wo die Backplate mit genutzt wird.
Vram OCen rentiert sich dann mehr.
(x) Viele Modder haben z.Bsp. Probleme mit LM auf der GPU dann die VramPads ordentlich drauf zu bekommen!
Ne 7900xt Nitro OCen ist kein Problem, wenn man net so auf die Watt schaut.
(sind dann schnell mehr W als bei der XTX)
Alternativ gehts auch per EVC2 mit jedem Modell, wo es net sinnvoll zu flashen geht. (wg. Wegfall von Videoanschlüssen)
(würde denken das auch 2x 8pin dicke für 400W reichen ala der 6900er)
CompEx
2023-03-18, 09:19:22
Bei TimeSpyExtreme GT1 sind es Pulse XT OC 93,3fps vs 94,0fps MBA XTX. Quasi Meßtoleranz 0,7fps.
In Games sehe ich knapp einen Gleichstand. Vllt. 2-4% Vorteil für die XTX@Stock im UHD, je nach Game auch Gleichstand.
Wie schaffst du es, in Games "knapp einen Gleichstand" zu sehen? TPU misst in über 20 Games einen Vorsprung von durchschnittlich 17 % ggü. der MBA XTX in UHD... Hatte Dargo doch schon geschrieben.
LG
CompEx
Taigatrommel
2023-03-18, 11:14:24
v_v hat mal wieder irgendwelche merkwürdigen Fantasien, die hier zum Ausdruck gebracht werden. Da wird sich wieder irgendein Kram zusammengesponnen und ohne nur TPU als Quelle benutzt, deren Ergebnisse ja dann doch teilweise nicht wirklich von anderen Reviews bestätigt werden können. Oder aber hier wird sich nur wieder auf theoretische Leistung bezogen, welche dann krampfhaft auf praktische Spieleleistung umgerechnet wird.
GerryB
2023-03-18, 11:16:28
Er schätzt/hofft, das man mit PL+15 und OCen von GPU+Vram bis auf ca. 4% an die Große rankommt.
auf Grundlage vom OC-Wert, der doch anders/besser ist als die XT@stock, ... wie es dann weiter gänge mit 40W mooore als die XTX
zeigen die TS-Scores der NitroXT@OCen in der HoF.
In 4k wird wohl die XT stark am Vram-OCen hängen! ... da besagt ein Stock-Review net viel.
(grundsätzlich nice, das TPU jetzt net nur Heaven beim OCen anschaut)
() Warum man aber für die XT ein anderes "game" hernimmt als für die XTX@OCen, who knows
horn 12
2023-03-18, 18:25:13
War heute mit meiner Referenz 7900XTX bei 275 bis 285 Watt mit minus 10% Powerlimit Senkung
Dafür habe ich den Maximal Takt bei 2625 hz begrenzt und so liegen zumindest bei Farcry 6 immer 2600 Mhz bei 1750 U/Min an.
Die Wattzahl erreicht aber nimmer die 315/316 Watt wie sonst mit 2,900 bis 3020 Mhz Max Takt.
Da aber vieles noch Buggy, muss dies durch Zweimaliges Wechseln vom Game in das AMD Controll Center gemacht werden und erst dann bleiben die Werte fix.
Bin somit bei meistens 295 bis 303 Watt mit der AMD MBA XTX Karte und 1050 mv.
@Dargo Extra für Dich:
Teils bin ich gar bei 268 bis 280 Watt nun und beim Takt immer um die 2600 bis 2625 Mhz bei knapp 60 bis 70 Watt Minderverbrauch für die XTX Karte.
Dies soll mal eine Custom XTX nachmachen... im AMD Treibermenü liegt bei dieser Generation noch so viel brach,- dies ist so
Er schätzt/hofft, das man mit PL+15 und OCen von GPU+Vram bis auf ca. 4% an die Große rankommt. [...]
Das ist nicht unrealistisch. Eine "aufgerotzte" XT mit ordentlicher Kühlung und hohem Power-Budget kann sich durchaus mit einer warm laufenden XTX ohne OC anlegen. Je härter die MBA-XTX am Powerlimit und der Kühlung hängt, desto größer die Chancen für die Custom-XT-OC. Das Problem dabei ist nur die Effizienz ... und dass man die XTX auch übertakten könnte, wenn man fair wäre. :D Aber gut, es geht wohl einfach darum, ein paar Hundert Euro zu sparen.
MfG
Raff
=Floi=
2023-03-18, 22:12:50
ich finde es schade, dass es keine nachtests mit 6 monate neueren und 12 monate neueren treibern gibt.
BlacKi
2023-03-18, 22:44:37
ich finde es schade, dass es keine nachtests mit 6 monate neueren und 12 monate neueren treibern gibt.
hast du angst, das die performance zu hoch war?
oEZkgy0JuyA
=Floi=
2023-03-19, 00:49:47
durch die treiber gab es ja nochmal steigerungen nd da wäre eine aktualisierung der tests schon nicht verkehrt.
gerade bei so neuen architekturen wie der von AMD
anddill
2023-03-19, 09:46:49
Hardware Unboxed macht öfter solche Vergleiche nach ~6 Monaten, und stellt die Ergebnisse den Launch-Reviews entgegen. Da alle Firmen ihre Treiber ständig optimieren gibt es zwar manchmal leichte Verschiebungen bei einzelnen Spielen, aber die Gesamtverhältnisse ändern sich nicht groß.
horn 12
2023-03-21, 19:10:14
Raja Kuduri velässt intel mit Ende März 2023
Ob ihn AMD wieder mit ins Boot holen sollte!
Disco_STFU
2023-03-21, 19:37:15
Oh je bloss nicht... So eine Luftnummer...
Adam D.
2023-03-22, 06:54:38
Raja Kuduri velässt intel mit Ende März 2023
Ob ihn AMD wieder mit ins Boot holen sollte!
Wenn man mehr als nur Überschriften lesen würde, würde man solche Posts nicht verfassen. Er gründet irgendein Software-Startup, der hat nix mehr mit AMD am Hut.
BlacKi
2023-03-22, 18:48:46
LXORFGhVlkg
OgrEGT
2023-03-23, 06:14:42
AMD Radeon Software Adrenalin 23.3.2
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-3-2
dildo4u
2023-03-25, 11:15:38
5JQ-X0ZfZaA
dargo
2023-03-28, 08:05:34
Welches Powertarget hat das sekundäre Bios der Sapphire RX7900XT Nitro+? Sind das 315W wie bei der Referenz?
dildo4u
2023-03-29, 08:40:27
7900XTX Last of US @ 400 Watt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13269411&postcount=70
OgrEGT
2023-03-30, 06:10:44
Welches Powertarget hat das sekundäre Bios der Sapphire RX7900XT Nitro+? Sind das 315W wie bei der Referenz?
Laut Geizhals ja. Wäre auch analog zur XTX mit 355 und 420W... Reviews zur XT scheint es keine zu geben...
GerryB
2023-03-30, 07:36:53
Das quiet Bios wird vllt. ähnlich der Pulse sein.
https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xt-pulse/37.html
dargo
2023-03-30, 15:37:22
PowerColor RX 7900 XTX Hellhound ist nun eingebaut. Interessanterweise hatte ich diesmal weniger Probleme mit dieser PCIe-Arretierung. Die RX 6800XT ging diesmal relativ problemlos raus, ich hasse diesen Mechanismus bei so großen Ziegelsteinen trotzdem.
Ich muss sagen die Hellhound sieht in echt viel wertiger aus als auf den Bildern im Netz. Optisch (auch wenn mir das eigentlich ziemlich egal ist da kein Fenster im Gehäuse) sieht die in echt spitze aus. (y) In Idle stelle ich zwar keine Weltrekorde auf, es ist aber zum Glück @144Hz und 1440p keine Vollkatastrophe.
https://abload.de/thumb/idletwf16.jpg (https://abload.de/image.php?img=idletwf16.jpg)
Schwankt manchmal etwas zwischen 14W und 17W. Mit 60Hz sind es nur unwesentlich weniger, min. 13W.
Ich stoße mit leichtem Schrecken bei RDNA3 aber gerade auf ein ziemlich blödes Problem. Irgendwas hat AMD im Treiber geändert, so dass ich mit CRU bei meinem ASUS MG279Q die Freesync-Range von 35-90Hz nicht mehr auf 56-144Hz verschieben kann. X-D Das funktioniert nicht mehr. Kennt jemand eine andere Lösung dafür für RDNA3 oder muss ich jetzt tatsächlich wieder zurück in die Steinzeit und mir eine entsprechende Monitor.inf basteln wie vor vielen Jahren zu Anfangszeit von Freesync? Habe nämlich diese ganzen Schritte die man da machen musste alle schon vergessen. :redface:
Mindestdrehzahl der Lüfter bei der Hellhound... völlig lautlos. :up:
https://abload.de/thumb/lufterl2ib0.jpg (https://abload.de/image.php?img=lufterl2ib0.jpg)
Gerade eben die Lüfter mit einer festen Drehzahl von 1170RPM in Idle testweise probegehört... da hörst du ja praktisch nichts. :eek: Hammer! :up::up::up: Selbst 1210RPM lasse ich hier komplett als extremst silent durchgehen.
Meine vorläufige custom Lüftersteuerung.
https://abload.de/thumb/custom_fane2i2o.jpg (https://abload.de/image.php?img=custom_fane2i2o.jpg)
28% = ~500RPM
40% = ~1170RPM
Also der Kühler ist absolute Spitzenklasse. Nach einer guten Aufwärmphase sieht das hier so bei 325W (90% PT vom Default-Bios) aus. Wärmer als 79°C Hotspot wird es nicht bei 1160RPM. :up:
https://abload.de/thumb/acorigins_2023_03_30_wacna.jpg (https://abload.de/image.php?img=acorigins_2023_03_30_wacna.jpg)
Die zusätzlichen 65-70W vs. meine RX 6800XT merke ich am Gehäuse aber schon ganz gut. Die linke Seitenwand ist deutlich wärmer als vorher. Trotz des hohen Verbrauchs von 325W überzeugt die Kühlung definitiv!
Ops... jetzt korrekt mit Wattage.
https://abload.de/thumb/assassinscreedoriginsp9eru.jpg (https://abload.de/image.php?img=assassinscreedoriginsp9eru.jpg)
Durch die höhere Verlustleistung der Graka wird die CPU leider spürbar wärmer.
Zum Vergleich sekundäres Bios mit 90% PT, über 312W lacht der Kühler.
https://abload.de/thumb/assassinscreedoriginszwe07.jpg (https://abload.de/image.php?img=assassinscreedoriginszwe07.jpg)
Wiseman
2023-03-30, 17:35:13
PowerColor RX 7900 XTX Hellhound ist nun eingebaut.
Durch die höhere Verlustleistung der Graka wird die CPU leider spürbar wärmer.
Wie warm wird deine CPU? Meine CPU, du weißt schon, die lahme Ente :biggrin: , wird in 6k bei 325W so 60° bis 62° warm.
dargo
2023-03-30, 17:39:07
Siehe Screens, bei 6k wird die natürlich kühler da die mehr Verschnaufpausen bekommt. ;)
dargo
2023-03-30, 18:59:42
Also das Undervoltingverhalten von N31 ist schon ziemlich strange, aber so langsam komme ich dahinter die Zusammenhänge besser verstehen zu können. :D
horn 12
2023-03-30, 19:26:40
Wieviel Takt schafft dann die HellHound
und wirklich so gut wie kein, oder überhaupt kein Fiepen
Version Axx oder ist deine vielleicht andere Version, überarbeitete Variante der XTX Hellhound?
dargo
2023-03-30, 19:38:35
Horni... mich interessieren keine schnöden GPU-Frequenzen, ich verfolge andere Ziele.
Edit:
Ich versuche jetzt mal meine Beobachtung im Bereich UV von N31 zu schildern. Manche Sachen sind mir noch ein kleines Rätsel, bin aber erst kurze Zeit damit zu Gange. Ich habe mir erstmal einen Referenzpunkt gesucht und habe mich für ein Savegame in HZD entschieden.
Stocksettings im Wattman sind bei meiner Karte 2965Mhz max. Boost und max. 1150mV. Der max. Boost wird auch öfter frei Schnauze angezeigt (wurde hier schon mehrmals früher angesprochen) so, dass ich auch mal 2915Mhz, 2945Mhz etc. sehe. Ergo habe ich mich für einen Bezugspunkt manuell auf 2965Mhz fixiert.
Das hier sind Stocksettings mit 1440p @max. Details. Real anliegende Spannung beträgt hierbei ~900mV.
https://abload.de/thumb/horizonzerodawn_2023.hqfb1.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.hqfb1.jpg)
Ich verwende stets 90% PT vom sekundären Bios, ergo max. ~312W weil mich die hohe Abwärme vom N31 schon ziemlich stört. Keine Ahnung wie manche da mit 350-400W oder gar noch mehr klar kommen, aber jeder wie er mag. Für mich ist das definitiv nichts.
Jetzt ein Wattmansetting mit max. 2965Mhz und max. 1050mV (bitte nie die Werte vom Wattman mit realen Werten sowohl bei Frequenz als auch Spannung verwechseln!). Real anliegende Spannung beträgt hier ~875mV.
https://abload.de/thumb/horizonzerodawn_2023.vbck8.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.vbck8.jpg)
Recht interessant finde ich, dass eine magere Absenkung der Spannung von ca. 25-30mV bereits zusätzliche ~200Mhz beim Boost freimacht. Knapp 8% mehr Frequenz resultieren in 5% mehr Speed. Jetzt habe ich mich versucht nach unten ranzutasten mit folgendem Wattmansetting.
Max. 2550Mhz Boost, max. 1050mV = ~810mV reale Spannung.
https://abload.de/thumb/horizonzerodawn_2023.hcep5.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.hcep5.jpg)
Jetzt komme ich endlich mit dem Verbrauch runter. Eine Absenkung vom max. Boost senkt die reale Spannung ebenfalls erheblich. Oder besser gesagt man rutscht innerhalb der neuen Spannungskurve die mit -100mV gesetzt wurde weiter runter was in noch weniger real anliegenden Spannung resultiert. Mit diesem Setting bin ich also gleich schnell wie Stock, habe dafür aber grob 40-50W weniger Verbrauch. Jetzt bitte sich nicht fest auf die im Screen dargestellten 276W festnageln. Wenn ich da mit dem neuen Setting etwas rumlaufe habe ich 250-270W. Übrigens hatte ich schon gesagt wie geil der Kühler ist? ;D Bei ~260W wird der Hotspot nur noch 67°C kalt bei 960RPM an den Lüftern, das ist echt heftig. X-D Noch weiter runter mit dem Verbrauch zu kommen wird beim vollen N31 allerdings schwierig. Dafür muss man Takt opfern und somit auch etwas Performance. Ich verfolge bei meinen Betriebspunkten immer das Ziel gleiche Performance wie Stock bei weniger Verbrauch. Prinzipiell müsste ich dafür eigentlich die von AMD gesetzten 355W als Stock-Referenzpunkt nehmen. Nur komme ich dann kaum unter 300W mit UV und das wurmst mich sehr. ;( Meine Wohnfühlabwärme bei Grafikkarten ist eher im Bereich von 250-260W.
horn 12
2023-03-30, 19:48:24
Weiss ich ja, wollte nur mal schauen ob dies auch ausloten wolltest...
Aber bist ja auf Effizienz und Leise, unhörbar getrimmt :-)
aufkrawall
2023-03-30, 19:51:18
Irgendwas hat AMD im Treiber geändert, so dass ich mit CRU bei meinem ASUS MG279Q die Freesync-Range von 35-90Hz nicht mehr auf 56-144Hz verschieben kann. X-D Das funktioniert nicht mehr. Kennt jemand eine andere Lösung dafür für RDNA3 oder muss ich jetzt tatsächlich wieder zurück in die Steinzeit und mir eine entsprechende Monitor.inf basteln wie vor vielen Jahren zu Anfangszeit von Freesync? Habe nämlich diese ganzen Schritte die man da machen musste alle schon vergessen. :redface:
Zusätzlich im CTA-861 Extension Block die VRR Range angegeben? CRU kann auch als Monitortreiber .inf speichern, die man mit deaktivierter Signaturprüfung installieren kann.
dargo
2023-03-30, 20:38:31
Zusätzlich im CTA-861 Extension Block die VRR Range angegeben?
Das habe ich versucht, so funktioniert es zumindest nicht.
83298
aufkrawall
2023-03-30, 20:50:14
Auch im Hauptmenü neben dem ausgewählten Monitor unter "Edit" (Range limits v rate und ggf. h rate)? Mit Nvidia reicht das kurioserweise dort.
dargo
2023-03-30, 21:01:54
Auch im Hauptmenü neben dem ausgewählten Monitor unter "Edit" (Range limits v rate und ggf. h rate)? Mit Nvidia reicht das kurioserweise dort.
Ja... so wie du geschrieben hattest. Einmal wie immer und einmal zusätzlich im CTA-861 Extension Block. Das ist echt kacke denn Fummelei um das System wieder auf 56-144Hz zu bringen stand gar nicht auf dem Plan. X-( (no)
btw.
Hier was für Horni. ;)
https://abload.de/thumb/assassinscreedoriginscgf9a.jpg (https://abload.de/image.php?img=assassinscreedoriginscgf9a.jpg)
3Ghz bei 306W. 111elf
[MK2]Mythos
2023-03-30, 21:02:27
@Dargo, hat die Karte denn nun Spulenfiepen? Das war doch die größte Frage bei der Karte.
dargo
2023-03-30, 21:06:57
Mythos;13270911']@Dargo, hat die Karte denn nun Spulenfiepen? Das war doch die größte Frage bei der Karte.
Ist ein komplexes Thema, auf das ich später genauer eingehen werde.
Edit:
Bezüglich Freesync-Range bitte hier alles rein mit Tipps.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13270919#post13270919
horn 12
2023-03-30, 21:27:37
@Dargo
Hast 2560 x 1440 und ich eben 3440 x 1440 21:9 @175 Hz Alienware 3423DW
Dies mit den Watt hatte ich dir ja zumindest geschrieben,- da bin ich voll bei Dir!
und bei mir sieht es ähnlich aus, halt nicht so extrem Leise und auch nicht so Geringe Temperaturen wie bei Deiner XTX Hellhound.
Dafür müsste ich aber das NT tauschen und dies ist in dieser Zeit des Fiepen, kreischender Lüfter nicht so das Wahre.
Sobald die Treiber (nochmals besser) bzw. so funktionieren und auch der Idle Bug vom Tisch ist, oder Zumindest verbessert,-
kann man mit den Karten wirklich nix/ kaum etwas falsch machen.
OgrEGT
2023-03-30, 22:50:59
Wenn ich das richtig verstanden habe dann geht richtiges UV gar nicht da man die Spannungskurve durch Senken der Spannung im Treiber nur nach rechts verschiebt... der Wert für den maximalen Takt kappt die Kurve entsprechend...
https://www.igorslab.de/community/threads/meine-erfahrungen-mit-rdna-3-powercolor-hellhound-7900xt.7453/post-213446
Du musst schauen dass die Kurve so liegt dass die Spannung in dem Bereich des von Dir anvisierten Takts bei Volllast hoch genug liegt dass die Karte stabil bleibt...
BlacKi
2023-03-30, 23:25:57
ich fand das auch etwas verwirrend. wenn man die voltage komplett runter dreht, dann kann man ganz normal den maximalen takt bestimmen.
sobald man aber nur 50mv mehr gibt schmiert das alles ab. man musste dann richtung 0,9v einstellen um 100-200mhz mehr stabil zu bekommen.
die eingestellte voltage lag dann aber auch nicht an.
die software ist eher sowas wie ein glücksautomat, stell irgendwas ein und schau was hinten bei raus kommt.
GerryB
2023-03-31, 02:12:19
1. können moderne Grakas unter Teillast boosten(x)
2. läuft auch unter Vollast ne 7000er genau net anders als bei Dir@4070Ti.
Deine eff. 2444MHz@0,9V lt. der Sig sind gar nix Besonderes.
(x) die Kurve für den Boost zu optimieren erfordert etwas mehr Kennung
als dumb beim Volllasttakt zu cappen
Kann mir net vorstellen das ne 7000@2500MHz(WM) mit 100mV Offset net die eff.2440Mhz@eff.0,9V hält.
Brauchst ja nur die Posts von Wiseman+Dargo verfolgen.
(Offset ist halt kein Abzugswert sondern ne Verschiebung der Kurve und vom Powerlimit mit abhängig, je nachdem ob man auf dem ansteigenden Ast oder auf dem Plateau ist, sind die Volt dann entsprechend)
dargo
2023-03-31, 06:01:12
ich fand das auch etwas verwirrend. wenn man die voltage komplett runter dreht, dann kann man ganz normal den maximalen takt bestimmen.
sobald man aber nur 50mv mehr gibt schmiert das alles ab. man musste dann richtung 0,9v einstellen um 100-200mhz mehr stabil zu bekommen.
die eingestellte voltage lag dann aber auch nicht an.
die software ist eher sowas wie ein glücksautomat, stell irgendwas ein und schau was hinten bei raus kommt.
Da ist gar nichts mit Glücksautomat, man muss nur verstehen was da passiert. :) Und ich hatte das hier nicht aus Spaß fett markiert.
bitte nie die Werte vom Wattman mit realen Werten sowohl bei Frequenz als auch Spannung verwechseln!
btw.
Eine Sache stört mich bei N31 schon ziemlich beim Boostverhalten vs. N21. Wie jedem bekannt ist gibt es unterschiedliche GPU-Workloads in Games. Und ich habe den Eindruck, dass AMD bei N31 unbedingt das volle Powerlimit immer und überall in Games ausschöpfen möchte weil ein hoch taktendes Design. Und ja... RDNA3 ist ein 3+Ghz Design, jetzt sehe ich es selbst. Nur wird man diese 3Ghz nur bei sparsameren Workloads zu Gesicht bekommen. Solche Späße wie 400+W ignoriere ich gleich. Mit mehr PT verschiebt sich logischeweise das Boostverhalten weiter nach oben.
Mal paar Beispiele hier mit Stocksettings bei Takt und Voltage, aber mit max. 312W. In einem HZD oder CP77 taktet die Graka hier mit 2,5Ghz+ bei 1440p. Mit gleichen Settings boostet das Teil in einem AC: O auf 2,9+Ghz um die 312W voll zu machen. Das finde ich persönlich schon ziemlich heftig. Anstatt, dass die GPU bei AC: O ins Taktlimit läuft und damit dann weniger verbraucht wird hier weiter geboostet (logisch bei einem gewählten Betriebspunkt von max. 2965Mhz Boost). Mein N21 verhält sich da etwas anders, was aber auch logisch ist denn ich lasse einen maximalen Boost von 2449Mhz zu (Stock sind es max. 2399Mhz). So läuft die Karte dann ins Taktlimit bei weniger belastenden Workloads und bleibt entsprechend unter meinen max. zugelassenen 226W ASIC bei solchen Workloads.
Man kann natürlich manuell dieses Boostverhalten, dass AMD bei N31 gewählt hat ändern. Einfach als Beispiel... wenn ich stark belastende/heizende Workloads habe wo die Karte @Stock auf 2,5+Ghz boostet stellt man einfach den max. Boost auf 2550Mhz. Somit läuft die Karte bei weniger belastenden Workloads ins Taktlimit und wird sparsamer als 312W. Man muss sich hierbei nur bewusst sein, dass man in diesen Workloads bzw. Games etwas Performance verliert bzw. liegen lässt vs. Stock. Logisch... Karte taktet mit ~400Mhz weniger dann. Auf der anderen Seite wäre mir das dann aber auch ziemlich egal weil der Verlust gering ist und die Frames eh schon weit oben bei 180+fps liegen. Mein Monitor schafft nur max. 144Hz. Ich sags mal so... ich wäre bereit diesen Kompromiss einzugehen. Zumal man dem auch etwas entgegenwirken kann was ich noch gar nicht in Angriff genommen habe. Den Vram etwas pimpen. Heißt durch schnelleres Timing und/oder mehr Speichertakt kann man den fehlenden GPU-Takt wieder etwas kompensieren wen die ca. -3% in diesen laschen Workloads stören (genaueren Wert muss ich noch ermitteln).
Wenn ich das richtig verstanden habe dann geht richtiges UV gar nicht da man die Spannungskurve durch Senken der Spannung im Treiber nur nach rechts verschiebt... der Wert für den maximalen Takt kappt die Kurve entsprechend...
https://www.igorslab.de/community/threads/meine-erfahrungen-mit-rdna-3-powercolor-hellhound-7900xt.7453/post-213446
Du musst schauen dass die Kurve so liegt dass die Spannung in dem Bereich des von Dir anvisierten Takts bei Volllast hoch genug liegt dass die Karte stabil bleibt...
This!
1. können moderne Grakas unter Teillast boosten(x)
2. läuft auch unter Vollast ne 7000er genau net anders als bei Dir@4070Ti.
Deine eff. 2444MHz@0,9V lt. der Sig sind gar nix Besonderes.
Korrekt... das macht die RX 7900XTX schon hier @Stock besser. 2,5+Ghz bis 2,9+Ghz @900mV je nach Workload bei max. 312W. :tongue: Gut... die 4070TI wird weniger verbrauchen. ;)
PS: die reale Voltage bei den 2,9+Ghz muss ich heute noch abchecken. Da hatte ich jetzt nicht drauf geachtet. Die müsste dann ja höher sein als 900mV.
Edit:
Eine Sache nervt hier bei N31 ziemlich. Ich nehme an der Grafiktreiber ist noch nicht reif genug. Der ASUS MG279Q setzt ja zwei Bilder zu einem 2560x1440 zusammen. Und ich habe mit der RX 7900XTX manchmal den Fall, dass ich anstatt 2560x1440 2568x1440 bekomme. Die Bildtrennung sieht man dann in der Mitte vom Bildschirm. Das wäre auf Dauer absolut nervig wenn das bald nicht behoben wird. In der Regel hilft aktuell ein Neustart vom Rechner um das Problem zu beheben.
BlacKi
2023-03-31, 09:36:39
Deine eff. 2444MHz@0,9V lt. der Sig sind gar nix Besonderes.
wo kommt das denn her?:freak:
(Offset ist halt kein Abzugswert sondern ne Verschiebung der Kurve und vom Powerlimit mit abhängig, je nachdem ob man auf dem ansteigenden Ast oder auf dem Plateau ist, sind die Volt dann entsprechend)
danke das du meine worte bestätigst. genau das wollte ich damit sagen:
die software ist eher sowas wie ein glücksautomat, stell irgendwas ein und schau was hinten bei raus kommt. sry, aber das ist anders als alle karten bisher, und du musst ausprobieren, deshalb glücksautomat. man weiß nie wo man rauskommt.
Kann mir net vorstellen das ne 7000@2500MHz(WM) mit 100mV Offset net die eff.2440Mhz@eff.0,9V hält.meine basis war 2230mmhz bei 700mv. das kannst du auch so einstellen, hat auch funktioniert. stellst du 2400mhz ein und denkst du erhöhst auf 800mv, macht dir das offset einen strich durch die rechnung. insta crash. was stellt man dann ein? tja, weiß man nicht. muss man rumprobieren.
bei rdna 3 muss man nicht nur das uv raustesten, sondern auch noch rumtesten bis man die gewünschte voltage bekommt. die neue regelung macht UV doppelt so schwer.
lediglich der effizienteste punkt ist einfach einzustellen.
dargo
2023-03-31, 09:54:46
sry, aber das ist anders als alle karten bisher, und du musst ausprobieren, deshalb glücksautomat. man weiß nie wo man rauskommt.
Ist nur Quatsch. Kannst aber auch nicht wissen wenn du dauernd mit Nvidia unterwegs bist. Im übrigen verhält sich RDNA(X) nicht anders als zb. ein Zen3. ;)
meine basis war 2230mmhz bei 700mv. das kannst du auch so einstellen, hat auch funktioniert. stellst du 2400mhz ein und denkst du erhöhst auf 800mv, macht dir das offset einen strich durch die rechnung. insta crash. was stellt man dann ein? tja, weiß man nicht. muss man rumprobieren.
Das was an realen Spannung für 2400Mhz bei deiner Chipgüte notwendig ist. Ganz einfache Kiste. ;) Und du sollst nicht denken oder raten was du einstellst sondern es prüfen. Der Wattman zeigt es dir sogar on the fly an was du mit den beiden Slidern veränderst bzw. real anlegst. :D
BlacKi
2023-03-31, 09:59:24
warum soll ich das bei nv nicht wissen? ich kann bei nv exakt die werte einstellen solange genug pt da ist. zen3 arbeitet auch mit einem offset, aber manuelles festsetzen von voltage und takt ist manuell möglich, nur nicht zu empfehlen.
GerryB
2023-03-31, 10:22:17
wo kommt das denn her?:freak:
Wow,
Du kennst wohl netmal Deine Sig?
Schon komisch, das Du den 7000ern das OC/UVen erklären willst.
(evtl. biste im 4000er Thread besser aufgehoben)
BlacKi
2023-03-31, 11:06:03
Wow,
Du kennst wohl netmal Deine Sig?
Schon komisch, das Du den 7000ern das OC/UVen erklären willst.
(evtl. biste im 4000er Thread besser aufgehoben)hä???
ich hatte eine 7900xtx und berichtete darüber auch und tue das weiterhin, weil ich hardware enthusiast bin.
komm mal klar...
Rancor
2023-03-31, 11:14:28
Du hattest eine 7900XTX und nun eine 4070TI?.... weird.
dargo
2023-03-31, 11:16:48
Du hattest eine 7900XTX und nun eine 4070TI?.... weird.
:confused:
Was soll denn daran jetzt seltsam sein? Wenn dich A nicht ganz überzeugt suchst du nach einer Alternative und dann wirds halt B oder C oder, oder.
Rancor
2023-03-31, 11:19:14
:confused:
Was soll denn daran jetzt seltsam sein? Wenn dich A nicht ganz überzeugt suchst du nach einer Alternative und dann wirds halt B oder C oder, oder.
Weil eine XTX eine andere Klasse als eine 4070TI ist. Hätte er jetzt ne 4080 geholt, ok.
BlacKi
2023-03-31, 11:25:49
Weil eine XTX eine andere Klasse als eine 4070TI ist. Hätte er jetzt ne 4080 geholt, ok.otperformance pro euro ist bei der 4080 kaputt. genauso war das bei der 7900xt. was jetzt wieder anders ist.
Langlay
2023-03-31, 11:44:15
warum soll ich das bei nv nicht wissen? ich kann bei nv exakt die werte einstellen solange genug pt da ist. zen3 arbeitet auch mit einem offset, aber manuelles festsetzen von voltage und takt ist manuell möglich, nur nicht zu empfehlen.
Ich bin da voll bei dir, der aktuelle Wattman ist Crap. Ich weiss auch nicht wieso man die Version von der Radeon VII nicht beibehalten hat, das war einfach und verständlich. Der aktuelle Wattman ist mehr ne Blackbox die Dinge tun.
Du kannst mit Erfahrung zwar ungefähr erahnen was passiert, aber das kann man definitiv besser lösen. Bei Navi21 war halt toll das du mit dem MPT dann noch regeln konntest. Aber Navi31 ist ja zugeschnürter als Dita von Teese beim Korsett tragen ist halt auch die Sache hinfällig.
dargo
2023-03-31, 11:53:07
Aber Navi31 ist ja zugeschnürter als Dita von Teese beim Korsett tragen ist halt auch die Sache hinfällig.
Ist ein 5800X3D auch vs. non X3D, hast du dir trotzdem geholt. ;) Ich weiß ehrlich gesagt nicht was ihr da für Probleme mit dem Wattman bei RDNA3 seht. Eigentlich ist das super simpel zu verstehen was da passiert. Es wird sogar live angezeigt.
Langlay
2023-03-31, 12:02:18
Ist ein 5800X3D auch vs. non X3D, hast du dir trotzdem geholt. ;)
Der war out of the box damals(1 Woche nach Launch) das schnellste was du kaufen konntest und sparsam. Sind beides Sachen die auf Navi31 nicht zutreffen. Und grundsätzlich bin ich auch eher im Team Rot, aber Navi31 holt mich halt auch nicht wirklich ab, heute ist die 4080 FE für meine Frau gekommen, mit der werd ich am WE mal etwas rumspielen und wenn mir gefällt was ich sehe werd ich mich wohl diesmal auch im Nvidialager umschauen.
dargo
2023-03-31, 12:11:02
Der war out of the box damals(1 Woche nach Launch) das schnellste was du kaufen konntest und sparsam. Sind beides Sachen die auf Navi31 nicht zutreffen.
Sorry, aber ein 5800X3D ist @Stock definitiv nicht sparsam. ;) Oder du hast andere Vorstellungen als ich was sparsame CPUs angeht. Selbst dort bremst mich AMD aus um maximale Effizienz aus dieser CPU rauszuholen im Gegensatz zum non X3D. Und N31 ist das schnellste was AMD momentan hat.
Langlay
2023-03-31, 12:18:23
Sorry, aber ein 5800X3D ist @Stock definitiv nicht sparsam. ;) Oder du hast andere Vorstellungen als ich was sparsame CPUs angeht. Selbst dort bremst mich AMD aus um maximale Effizienz aus dieser CPU rauszuholen im Gegensatz zum non X3D. Und N31 ist das schnellste was AMD momentan hat.
Er war/ist sparsamer als der 5800X und sparsamer als der 12900K(S) im Gaming. In der Leistungsklasse gabs es damals nichts sparsameres.
Und ja Navi31 ist das schnellste was AMD hat, aber das ist halt nicht genug im Vergleich zu 4080/4090. Das einzige was mittlerweile für die 7900XTX spricht ist der Preis im Vergleich zur 4080. Leistungstechnisch und Preistechnisch ist die 4090 allerdings ne eigene Liga.
dargo
2023-03-31, 12:34:17
Er war/ist sparsamer als der 5800X und sparsamer als der 12900K(S) im Gaming. In der Leistungsklasse gabs es damals nichts sparsameres.
Schon klar, ist alles eine subjektive Wahrnehmung der Gegebenheiten. Ich empfinde das halt nur etwas anders. Nur weil B und C noch schlechter als A ist ist A nicht gleich sparsam. :)
BlacKi
2023-03-31, 13:06:00
Ich weiss auch nicht wieso man die Version von der Radeon VII nicht beibehalten hat, das war einfach und verständlich.
ich denke bios und hardware seitig ist das nichtmehr kompatibel. vermutlich gibts auch deshalb kein mpt mehr. offiziell mag zwar amd was dagegenhaben, aber ich denke die ursache warum liegt darin, das man die hw nun anders ansteuert.
man kann nur hoffen, das amd noch updates bringt um die sache zu verbessern. wie gesagt IMHO.
horn 12
2023-03-31, 14:17:05
https://www.youtube.com/watch?v=INaQccsnvEM
Deren Ernst 360 Watt und 2700 U/min bei den 3x 100mm Lüftern :-(
Dies wäre ja Ohrenbetäubend,- und wollte mir gerade die Karte Ordern!
dargo
2023-03-31, 17:20:30
Kann mir einer mal hier was erklären, denn ich finde das schon ziemlich strange.
Fall 1 (Stock):
2965Mhz + 1150mV Wattman = 875mV
https://abload.de/thumb/superpositionbenchmarw1dvh.jpg (https://abload.de/image.php?img=superpositionbenchmarw1dvh.jpg)
Fall 2:
2550Mhz + 1050mV Wattman = 805mV
https://abload.de/thumb/superpositionbenchmarxjdne.jpg (https://abload.de/image.php?img=superpositionbenchmarxjdne.jpg)
Mit 70mV Delta spare ich nur 30 Wattchen ein? Kommt mir sehr merkwürdig vor. Ich hätte bei 70mV Delta wesentlich mehr Einsparung erwartet.
GerryB
2023-03-31, 18:24:21
Du hast eff.100MHz mehr mit 30W weniger.
evtl. würde ich bei Sup auch den Vram ein mue im selben Verhältnis hochziehen, damit das Scaling net verpufft
ansonsten könnte man extra für die Stelle mal Chill=250fps setzen
btw.
280W TBP = 240W TGP vgl. mit der 6800xt
dargo
2023-03-31, 18:36:58
Ich merke gerade, dass es keinen Sinn macht sich auf einzelne Stellen in Workloads zu konzentrieren da der Verbrauch doch ziemlich variabel über eine gesamte Testszene ist sofern man sich nicht dauerhaft im Powerlimit befindet. Viel sinnvoller wäre hier den Durchschnittsverbrauch über Zeit X zu ermitteln. Was wäre dafür das beste Werkzeug? Geht das eigentlich mit CapFrameX sekundengenau zu erfassen?
Edit:
Mit CapFrameX geht das super. :up:
GerryB
2023-03-31, 18:44:44
Bei HWinfo das log.file kannste im GenericLogViewer ja gut vgl., ... sogar Stock vs UVen reinladen.
oder mal den avg. Verbrauch über ne signifikante Stelle von 10...20s vgl.
(im Viewer nur den Bereich rausschneiden; Anfang und Ende kann man ja ganz gut festlegen)
Dadurch das man Takt+Volt mit bekommt, hat man dann wenigstens ne Idee, wie es funzt.
btw.
CFX misst wohl auch die Watt bei Drücken F11, stand da net mal Was von 30s lang... ggf. vordefinieren?
ne Grafik über den W-Verlauf gibts glaube net, da steht nur unter SensorData dann avg.W
(hatte das mal für TBsim probiert)
BlacKi
2023-03-31, 19:57:21
wie kommt es zu 400mhz weniger takt? powerlimitierung?
dargo
2023-03-31, 20:35:41
Du hast eff.100MHz mehr mit 30W weniger.
Mir ist ein Rätsel wo du da effektiv +100Mhz siehst. Bitte nichts hinein fantasieren was nicht da ist. In den Screens sind ca. 50Mhz Unterschied zu sehen. Und eigentlich müsstest du wissen, dass der Takt real etwas schwankt und keine feste Größe ist. Insofern könnten es real über Zeit X sogar weniger als 50Mhz Delta sein. Der Takt ist vergleichbar, +/-50Mhz spielen da überhaupt keine Rolle mehr.
wie kommt es zu 400mhz weniger takt? powerlimitierung?
Wo siehst du denn wieder 400Mhz weniger? :freak: Falls du mich damit überhaupt meinst.
dargo
2023-03-31, 22:13:17
So... jetzt paar mehr Messwerte von mir. Eins vor weg... imho sollte man sich von einzelnen Screenshots mit Verbrauchsangaben etc. verabschieden. Wenn die Graka nicht im Powerlimit hängt variiert der Verbrauch dermaßen, dass eine exakte Erfassung kaum möglich ist. Selbst in einer Szene mit vermeidlich kostanten GPU-Last wo man sich gar nicht bewegt und nur in eine Richtung schaut schwankt der Verbrauch nicht gerade unerheblich. Nach diesen Messungen wird mir auch langsam klar warum man beim N31 im unteren PT-Bereich (bei mir 312W) so wenig überhaupt einsparen kann. Je niedriger das PT umso geringer logischerweise der reale Takt und somit auch die Spannung. Und bei 312W PT bewegt man sich mit N31 schon bei 800+mV. Deshalb habe ich zwei Messungen mit dem Benchmark von CP77 durchgeführt. Einmal PT 90% was ca. 312W bedeutet und einmal mit PT +2% was ca. 354W bedeutet. Letzteres ist damit näher an eine Referenz RX 7900XTX angelehnt.
Stocksettings werden bei mir wie gesagt immer mit 2965Mhz + 1150mV @Wattman durchgeführt. Und ich wiederhole mich gerne nochmal... diese Werte haben nichts mit Realwerten in Gamingworkloads zu tun, außer vielleicht Menüs und so ein Quatsch!
Stock @max. 312W PT:
https://abload.de/thumb/cx_2023-03-31_21-59-3f5evs.png (https://abload.de/image.php?img=cx_2023-03-31_21-59-3f5evs.png) https://abload.de/thumb/cyberpunk2077_2023.03xlcmw.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.03xlcmw.jpg)
UV-Versuch @max. 312W PT:
https://abload.de/thumb/cx_2023-03-31_21-59-4ric52.png (https://abload.de/image.php?img=cx_2023-03-31_21-59-4ric52.png) https://abload.de/thumb/cyberpunk2077_2023.035afkw.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.035afkw.jpg)
Stock @max. 354W PT:
https://abload.de/thumb/cx_2023-03-31_21-59-41eds3.png (https://abload.de/image.php?img=cx_2023-03-31_21-59-41eds3.png) https://abload.de/thumb/cyberpunk2077_2023.03y7fu7.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.03y7fu7.jpg)
UV-Versuch @max. 354W PT:
https://abload.de/thumb/cx_2023-03-31_21-59-4hoch9.png (https://abload.de/image.php?img=cx_2023-03-31_21-59-4hoch9.png) https://abload.de/thumb/cyberpunk2077_2023.037qi71.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.037qi71.jpg)
Bei den Verbrauchswerten, Frequenzen etc. bitte nur die avg. Werte betrachten, der Rest ist irrelevant.
Wie man sehen kann schaffe ich es bei einem Powerlimit von 312W nur 33W einzusparen bei gleicher Performance. Bei einem 354W PT schaffe ich immerhin schon mal 57W einzusparen bei gleicher Performance. man sieht auch ganz gut, dass ich bei 312W als Limit nur 66mV weniger schaffe wo es bei einem 354W Limit schon 99mV weniger sind.
BlacKi
2023-03-31, 23:29:40
Wo siehst du denn wieder 400Mhz weniger? :freak: Falls du mich damit überhaupt meinst.du sagst
Kann mir einer mal hier was erklären, denn ich finde das schon ziemlich strange.
Fall 1 (Stock):
2965Mhz + 1150mV Wattman = 875mV
hast aber nur 2484mhz
https://abload.de/img/superpositionbenchmarw1dvh.jpg
man sieht auch ganz gut, dass ich bei 312W als Limit nur 66mV weniger schaffe wo es bei einem 354W Limit schon 99mV weniger sind.
ich bin schockiert. das erwartbare tritt ein.
pls dont be offended, ich spreche nur aus was alle denken.
GerryB
2023-04-01, 06:04:46
So... jetzt paar mehr Messwerte von mir.
Bei den Verbrauchswerten, Frequenzen etc. bitte nur die avg. Werte betrachten, der Rest ist irrelevant.
@312W= 137fps und @354W =140fps (avg.)
sollte mit beim Verbrauch als W/fps beachtet werden, sprich welches Setting ist sinnvoller/effizienter
die eff.avg. Volt sind nice, ... daher soo cool
Kann es sein, das bei 354W-UV ein mue mehr Vram-Takt erf. wäre, damit 140+fps drin sind?
btw.
Und Was passiert@chill=140fps mit dem avg. Verbrauch?
reicht ja für nen 144Hz-Moni
dargo
2023-04-01, 07:45:27
du sagst
hast aber nur 2484mhz
https://abload.de/img/superpositionbenchmarw1dvh.jpg
Boah blacki... begreife bitte erstmal den Unterschied zwischen Silder-Angaben im Wattman und tatsächlichen Werten im Gameplay wenn eine Radeon mit der Frequenz innerhalb der V/F-Kurve runter geht aus Gründen... zb. wenn sie im Powerlimit landet. Ansonsten wird mir das zu anstrengend mit dir.
Kann es sein, das bei 354W-UV ein mue mehr Vram-Takt erf. wäre, damit 140+fps drin sind?
Das kommt erst später. Erste Beobachtungen haben ergeben, dass +100Mhz Vram ca. 1% mehr Speed bringen was dann natürlich wieder in die GPU investiert werden kann. Sprich bei der GPU dann weniger Takt und somit Spannung. Grob geschätzt würde ich sagen, dass damit dann noch 5-10W Minus mehr drin ist. Schaue ich mir später noch genauer an.
Edit:
Ich bin gestern auf zwei Ungereimheiten gestoßen. Erstens bekomme ich mit gleichen Wattmansettings zwei verschiedene Ergebnisse in Superposition was nicht passieren darf. Wenn das öfter über mehrere Applikationen passiert dann werden diverse Vergleiche schwierig. :freak: Ich kann mir auch nicht erklären woran das liegen kann außer Treiberbug. Wie schon öfter gesagt wähle ich für Stock manuell jedes Mal 2965Mhz und 1150mV im Wattman weil das der Treiber mir öfter als Stock anzeigt. Und damit bekomme sowas hier.
https://abload.de/thumb/superposition_benchma8uibz.png (https://abload.de/image.php?img=superposition_benchma8uibz.png) https://abload.de/thumb/superposition_benchma4wipi.png (https://abload.de/image.php?img=superposition_benchma4wipi.png)
Wir reden hier immerhin von 4% Delta, das ist keine Messtoleranz mehr. Oder ist Superposition so schlecht reproduzierbar? Da bin ich gerade überfragt. Dann lasse ich diese App gleich weg, führt zu nichts.
Als weiteres verstehe ich das hier noch nicht so ganz. Das zweite Profil oben mit 354W PT und UV-Versuch betrug 2600Mhz + 1060mV @Wattman. In CP77 Gameplay konnte ich im Wattman auch 2600Mhz + 1050mV anwenden. Als ich dann aus dem Gameplay rausging gabs im Menü sofort einen Crash mit Treibertimeout. Dann habe ich mir das Menü mit 2600Mhz + 1060mV (was ja noch standhielt) genauer angesehen und bekomme das hier zu Gesicht.
https://abload.de/thumb/cyberpunk2077_2023.03nkir7.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.03nkir7.jpg)
Warum boostet die GPU auf 2666Mhz obwohl ich max. 2600Mhz im Wattman vorgebe? Ist das normal, dass die GPU trotzdem höher boostet wenn der Workload sehr wenig heizt? Da bin ich ebenfalls gerade etwas überfragt. Denn hier vermute ich den Grund für diesen Crash. Aber nur reine Vermutung, dass die Frequenz dann zu hoch für die X reale Spannung ist.
Edit 2:
Ok... der zweite Fall hat sich nun aufgeklärt. Ich bin da einfach schon im Grenzbereich mit den vorgegebenen max. 2,6Ghz + max. 1060mV. Die 1050mV @Wattman crashen nicht im Menü wenn ich ein 300fps Limit setze weil die GPU dann wieder mit dem Limit deutlich unter 2,6Ghz bleibt. Wenn ich aber etwas länger im Gameplay damit verbringe craht CP77 auch. Ergo sind diese 1050mV @Wattman in diesem Profil also zu wenig. Etwas nervig finde ich den Benchmark von CP77 aber auch. So richtig 100% reproduzierbar ist es offenbar nicht oder? Gestern war ich noch mit 2,6GHz + 1060mV bei 140,xfps, heute sind es 139,xfps mit gleichen Settings.
https://abload.de/thumb/cyberpunk2077_2023.04chfbg.jpg (https://abload.de/image.php?img=cyberpunk2077_2023.04chfbg.jpg)
Mit Stock waren es heute ebenfalls 139,xfps. Aber gut... so ein Delta von ~1% scheint dann normale Messtoleranz schon zu sein. Wenn man da ganz penibel messen will sind mehrere Messungen nötig + Schnitt ermitteln.
btw.
Was mich hier auch tierisch aufregt... ich habe immer wieder mal Probleme mit den Overlays von CapFrameX und/oder Afterburner. Sie werden gelegentlich einfach nicht angezeigt. Super nervig, ne Idee woran das liegen kann? Aktuelles Beispiel mit HZD... obwohl der Afterburner samt RTSS + CapframeX gestartet sind bekomme ich von beiden kein Overlay angezeigt. Wechsle ich auf den Desktop und zurück wird mir nur das Overlay vom Afterbruner angezeigt, CFX Overlay will immer noch nicht. Was ein Krampf...
Vergesst das hier... das Problem sitzt vor dem Bildschirm. ;D Erstens sieht es so aus, dass Overlays in HZD verzögert angezeigt werden. Das Overlay kommt nicht sofort sondern erst paar Sekunden später im Menü, also nicht direkt beim Spielstart. Zweitens habe ich vergessen, dass man für ein CFX-Overlay sobald man das entsprechende Häckchen dafür gesetzt hat jenes auch speichern muss damit das auch so bleibt. :uhammer:
dargo
2023-04-01, 09:50:28
Hier noch eine Messung zum Vergleich vs. Cyberpunk 2077 mit dem max. 354W Profil. Was sofort auffällt... HZD heizt weniger als CP77 wodurch natürlich die GPU dann innerhalb der Stock V/F-Kurve höher boostet und vs. meinem max. 2,6Ghz Profil logischerweise dann etwas schneller abschneidet. Dafür ist die Verbrauchsersparnis dann wiederum logischerweise etwas größer. Als kleine Anmerkung... für HZD musste ich das Profil 2,6Ghz/1060mV auf 2,6Ghz/1080mV ändern. Ich vermute der Grund dafür ist, dass das Ding in HZD wieder über 2,6Ghz boostet (max. 2627Mhz kurz vor dem Crash @1060mV im Wattman im Benchmark gesehen) wodurch sich die ganze V/F-Kurve natürlich verändert. Warum das passiert wird mir immer noch nicht ganz klar. Eventuell sind das leichte Überschwinger die man je nach Game bzw. Workload mit einkalkulieren muss. Möglichkeit zwei wäre natürlich auch, dass 2,6Ghz/1060mV in CP77 nur weil der Benchmark damit durchläuft immer noch nicht ganz stabil ist. Für eine endgültige Stabilität bedarf es natürlich einige Wochen Spielzeit querbeet über mehrere Spiele.
Nun zu HZD...
Stock @max. 354W PT:
https://abload.de/thumb/cx_2023-04-01_09-33-3bpig3.png (https://abload.de/image.php?img=cx_2023-04-01_09-33-3bpig3.png) https://abload.de/thumb/horizonzerodawn_2023.u8imz.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.u8imz.jpg)
UV-Versuch @max. 354W PT (2,6Ghz/1080mV):
https://abload.de/thumb/cx_2023-04-01_09-33-33ii2j.png (https://abload.de/image.php?img=cx_2023-04-01_09-33-33ii2j.png) https://abload.de/thumb/horizonzerodawn_2023.xeck6.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.xeck6.jpg)
Hier haben wir nun 71W weniger bei 2,5% Performanceverlust der sich wie gesagt automatisch aus dem höheren Boost mit Stocksettings ergibt weil HZD-Workload weniger heizt und Default V/F-Kurve mehr Boost erlaubt. Übrigens sieht man hier, dass die 7% mehr avg. Takt nur lächerliche 2.5% mehr Performance auf die Straße bringen. Allerdings muss man hier schon langsam aufpassen wegen eventuellen, einschleichenden CPU-Limits. Muss jetzt nicht automatisch schlechtere Takt-/FPS-Skalierung bedeuten.
Edit:
Noch ein kleiner Test falls ich die 198fps erreichen möchte.
UV-Versuch @max. PT 92% (2,8Ghz/1090mV):
https://abload.de/thumb/cx_2023-04-01_12-42-2zsiqx.png (https://abload.de/image.php?img=cx_2023-04-01_12-42-2zsiqx.png) https://abload.de/thumb/horizonzerodawn_2023.2vc7x.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.2vc7x.jpg)
Randnotiz... ein PT von 90% reicht nicht ganz aus um die gleiche Performance wie bei PT von 354W zu erreichen. Dann kommen 197avg.fps bei raus. Ergo habe ich 2% mehr frei gemacht und die 198fps erreichen zu können. Ersparnis von 41W bei gleicher Performance.
Übrigens muss man im dritten Beispiel gar nicht den max. Boost auf 2,8Ghz begrenzen. Den kann man auch auf die Default 2965Mhz lassen. Das Powerlimit von 92% wird den Takt schon etsprechend einbremsen was zum selben Performancewert führt.
horn 12
2023-04-01, 10:00:18
Probiere mal FarCry 6 aus, wie dies so heizt!
Vorausgesetzt du besitzt dieses Game.
dargo
2023-04-01, 10:20:43
Boah... eine Sache nervt hier aber erheblich wenn man sich neue Betriebspunkte basteln will. Aktuell habe ich 2,6Ghz/1080mV @Wattman am laufen. Bin damit in einer Szene von HZD mit Vsync Off weit über 144fps. Mit Vsync Off läuft das Game prima. Setze ich Vsync On direkt Crash. :freak: Dh... das Verhältnis zwischen reale Frequenz und Spannung passt mit Vsync On wiederum nicht wo sich die GPU dann wegen Vsync On runter taktet. Das ist in der Tat ganz schön blöd. :freak:
Edit:
Ok... Entwarnung diesbezüglich. Ich bewege mich einfach hier zu nah am Limit der Stabilität. 2,6Ghz + 1090mV @Wattman passen bisher auch mit Vsync On. Ich empfehle übrigens dringend sich mindestens die Vcore neben der GPU-Frequenz im Overlay einzublenden anstatt sich da mehr oder weniger im Blindflug ohne die reale Vcore sehen zu können zu bewegen. Oder ständig den Wattman dafür aufrufen. So sieht man auch immer die reale Vcore in anderen Frequenzbereichen. Das ist dann besonders hilfreich wenn man einen anderen Betriebspunkt ausloten möchte.
Hier mal folgendes Profil (2,6Ghz, 1090mV, max. Settings @1440p, Vsync On @144Hz, Powerlimit 354W) als Beispiel in Szene X.
https://abload.de/thumb/horizonzerodawn_2023.z5e75.jpg (https://abload.de/image.php?img=horizonzerodawn_2023.z5e75.jpg)
Edit:
Boah... AV1 ist echt heftig auf RDNA3. Schon alleine deswegen brauche ich eigentlich RDNA3. :freak: Gleich gibt es ein Gameplay-Video von mir mit dem oben genannten, neuen Betriebspunkt damit jeder besser sehen kann wie sich das mit den Frequenzen und Spannungen real verhält. Dummerweise habe ich im Treiber vergessen die Aufnahmeauflösung für YT auf 4k zu stellen damit YT die Quelle nicht zu stark komprimiert (sorry also dafür). Auf der anderen Seite muss ich sagen glücklicherweise denn so wurde der Standard verwendet. Heißt hier 1440p Auflösung und nur 30Mbit. Es ist echt heftig wie sauber die Videoaufnahme bei AV1 mit nur 30Mbit ist. :eek: Das ist eine schöne Verbesserung vs. AVC und HEVC bei RDNA2. :up: Dort bin ich immer höher mit der Bitrate gegangen damit das Bild nicht zu sehr zermatscht. Wobei AVC ich schon längst aufgegeben hatte, das war mir teilweise selbst mit 100Mbit zu matschig bei schnellen Bewegungen.
Wichtige Randnotiz fürs Video gleich! Die Videoaufnahme mit Relive und AV1 kostet 6% mehr beim Verbrauch vs. non Recording, bitte dies bei Betrachtungen nicht vergessen.
-9Ognr7glEY
PS: sorry für den zu leisen Ton. Habe vergessen die Raumkorrektur zu deaktivieren die ich bei den Nuberts verwende. Relive nimmt dann zu leise auf wenn die aktiv ist.
Ich bin immer noch fassungslos über die grandiose Kühlperformance der Hellhound, dieser Kühler ist Weltspitze. :eek: :O :massa: Das Ding kommt spielend mit ~300W (TBP) klar bei nahezu Lautlosigkeit im Gameplay. Und dieser Kühler lacht sich schlapp über 250-260W (TBP), also das was ich bei meiner RX 6800XT verwendet habe. Der Hellhound-Kühler steckt den XFX Merc319 Kühler bei den genannten 250-260W auch locker in die Tasche. Der Hotspot scheint mir hier bei N31 rund 10-12°C kühler zu sein als bei N21. Drehzahl der Lüfter ist bei beiden mit ~1160RPM vergleichbar. Und schon der XFX Kühler ist meiner Meinung nach exzellent. Bei der Entwicklung der Kühler gibts also auch einen schönen Fortschritt. :up:
Muss mich gerade bei der Kühlerperformance leicht korrigieren. Der Hellhound-Kühler schneidet sogar noch minimal besser ab als zuerst gedacht. Ich sehe im Video bei den Verbräuchen von ca. 250-260W bei der Hellhound sogar mit der custom Lüftersteuerung nur 900+RPM anliegen. :eek:
GerryB
2023-04-01, 12:59:46
Wow,
260W TBP = 220WTGP bei der alten. Hotspot ist nur wg. dem Delta interessant = Montagequalität.
Wenns überhaupt nen interessanten Wert gibt, dann Vramtemp., vllt. die Lüfterkurve ein bisschen danach ausrichten?
(net das man zu niedrig dreht und der Vram unnötig warm wird, ... und dann in Sup die Scores verfälscht)
Wie gut ist eigentlich Dein Chip bezgl. AutoOC -MHz (der Wert könnte mit vom PL abhängen)
und
ASIC-Leakage?
ein krass guter Chip aus dem OCN-Thread siehe Anhang
(erstaunlicherweise von ner Pulse und net von ner Nitro)
ASIC soll bei den 7000ern ganz anders auf den Leckstrom bezogen sein, d.h. weniger ist sparsamer,
deswegen gibts auch net so hohe Werte >85%, wie noch von RDNA2 gewohnt
dargo
2023-04-01, 13:15:56
Beim Silent-Bios mit +2% PT.
83324
Womit kann ich ASIC-Quality auslesen?
Edit:
Auto-OC scheint PT-Änderungen zu ignorieren, ergo bezieht sich dieser Wert auf Silent-Bios mit 351W,
PS: mit dem Standard-Bios von 365W sind es witzigerweise weniger.... 3003Mhz.
Langlay
2023-04-01, 13:23:57
Womit kann ich ASIC-Quality auslesen?
HWINFO, dort gings zumindest mit Navi21
https://i.imgur.com/VAWkUpJ.jpg
GerryB
2023-04-01, 13:27:10
PS: mit dem Standard-Bios von 365W sind es witzigerweise weniger.... 3003Mhz.
Interessant,
Net das der Treiber quasi 2 Kurven drin hat!?
(standard dann 6mV mehr Offset verkraftet)
Jo, ASIC gibts in HWinfo auch für die 7000er.
dargo
2023-04-01, 13:45:16
So ganz zuverlässig scheint mir dieses Auto-OC im Treiber nicht zu sein, beim weiteren Test spuckt der im Silent-Bios 3048Mhz aus.
ASIC_Q:
83325
GerryB
2023-04-01, 13:47:07
ASIC sieht normal aus
Megamember
2023-04-01, 13:50:28
HWINFO, dort gings zumindest mit Navi21
https://i.imgur.com/VAWkUpJ.jpg
Was ist denn das für ein Menü, das hab ich noch nie gesehen. Ich kann nur Sensoren und Überblick auswählen und die Menüs sehen anders aus.
dargo
2023-04-01, 13:52:06
Achja... der versprochene Screen @Stocksettings in Origins um die real anliegende Spannung dabei zu sehen wo die Karte mit 2,9+Ghz boostet und damit immer noch nicht das Stock Powerlimit voll macht. :D
https://abload.de/thumb/assassinscreedoriginsite89.jpg (https://abload.de/image.php?img=assassinscreedoriginsite89.jpg)
Also die Shader heizen ja hier ja kaum. Kann das FH5 noch toppen? ;D
Was ist denn das für ein Menü, das hab ich noch nie gesehen. Ich kann nur Sensoren und Überblick auswählen und die Menüs sehen anders aus.
Beide Häckchen beim Start weglassen dann siehst du es auch.
btw.
Hier... für die ganzen Trolle (muss lustigerweise gerade an Dural denken :uponder:) die meinten N31 wäre kein 3Ghz Design.
https://abload.de/thumb/assassinscreedorigins8yev4.jpg (https://abload.de/image.php?img=assassinscreedorigins8yev4.jpg)
Wenn man ihn saufen lässt geht das. Und wenn der Workload nicht sehr stark heizt geht das auch noch ohne völlig absurde Powerlimits. Wobei ich persönlich 360W schon als absurd bezeichne. :tongue: Ich beziehe mich dabei allerdings immer auf eine Luftkühlung. Wakü natürlich kein Thema.
Edit:
Werde auch die Spannungskurve versuchen auszuloten...
Welches Tool / Spiel nutzt Du? Timespy oder CP77 mit RT um möglichst viel Last zu erzeugen?
Da gibt es keine allgemeingültige Empfehlung. Wenn du glaubst, dass eine hohe GPU-Last automatisch dafür besser ist dann bist du imo auf dem Holzweg. Ist die GPU-Last hoch oder besser gesagt heizt der Workload stärker bist du automatisch tiefer innerhalb der V/F-Kurve. Das muss jetzt nicht zwangsläufig bedeuten in weniger heizenden Workloads bleibt es dann stabil. Denn da bist du innerhalb der V/F-Kurve wieder weiter oben. Such dir was aus und wenn du dort ein passendes Profil findest testest du es eben in anderen Games. Sollte es dort nicht stabil sein reicht zusätzlich eine Fein-Justierung aus. Ich fand den Benchmark von CP77 nicht verkehrt da er ziemlich gut reproduzierbar ist und nicht ultra lang wo du bei deinen Versuchen einschläfst.
Edit 2:
Das ist auch witzig in Odyssey. Ausnahmnsweise Screenshots wieder da Szene sehr stabil beim Verbrauch. Schwankungen von bis zu 3W sind da irrelevant.
Stock Silent Bios
https://abload.de/thumb/assassinscreedodyssey8ae7c.jpg (https://abload.de/image.php?img=assassinscreedodyssey8ae7c.jpg)
2,6Ghz/1090mV
https://abload.de/thumb/assassinscreedodysseyaxem8.jpg (https://abload.de/image.php?img=assassinscreedodysseyaxem8.jpg)
Wo gehen die 200+Mhz da @Stock hin? ;D Jetzt könnte man meinen ist ein schleichendes CPU-Limit womöglich deshalb boostet die GPU @Stock höher. Nur wofür? An der Performance wird nichts besser und das Ding säuft für nichts mal eben 74 Wattchen mehr. :crazy2:
Lol... in Odyssey bin ich mit dem Profil 2,6Ghz/1080mV oft bei 220-230W TBP, Hotspot dann bei 65°C und Lüfter bei 880RPM. ;D ;D ;D
Und im Flug und CPU-Limit gibts dann <200W. :D Hier gibts eindeutig CPU-Limit da die GPU sich schon runter taktet.
https://abload.de/thumb/assassinscreedodyssey88fku.jpg (https://abload.de/image.php?img=assassinscreedodyssey88fku.jpg)
dargo
2023-04-01, 21:48:26
Holly shit... APTR heizt schon verdammt ordentlich, heftiger Verbrauch mit nur 851mV (2,6Ghz/1090mV Profil).
https://abload.de/thumb/unknown_2023.04.01-21oxflt.jpg (https://abload.de/image.php?img=unknown_2023.04.01-21oxflt.jpg)
Diese extremen Heizunterschiede zwischen den Spielen finde ich bei N31 echt heftig.
Was nur ~100Mhz weniger in einem stark heizendem Game ausmachen, wirklich übel (2,5Ghz/1090mV Profil). :eek:
https://abload.de/thumb/unknown_2023.04.01-21sfi82.jpg (https://abload.de/image.php?img=unknown_2023.04.01-21sfi82.jpg)
Und hier nochmal ~100Mhz weniger (2,4Ghz/1090mV Profil).
https://abload.de/thumb/unknown_2023.04.01-219yf8g.jpg (https://abload.de/image.php?img=unknown_2023.04.01-219yf8g.jpg)
Richtig, richtig übel was N31 säuft wenn die Shader gut ausgelastet werden (N31 legt in APTR recht gut vs. N21 zu). Das muss man sich mal auf der Zunge zergehen lassen. Trotz mickrigen 770mV immer noch sehr hohe 287W. :crazy:
Noch Stocksettings zum Vergleich.
https://abload.de/thumb/unknown_2023.04.01-22afefe.jpg (https://abload.de/image.php?img=unknown_2023.04.01-22afefe.jpg)
Und hier mal was ganz beklopptes. PT +15% und Stock V/F Kurve... knapp über 2,6Ghz fressen hier schon ~400W, einfach nur brutal. X-D
https://abload.de/thumb/unknown_2023.04.01-22hgfty.jpg (https://abload.de/image.php?img=unknown_2023.04.01-22hgfty.jpg)
BlacKi
2023-04-01, 23:11:51
Richtig, richtig übel was N31 säuft wenn die Shader gut ausgelastet werden (N31 legt in APTR recht gut vs. N21 zu). Das muss man sich mal auf der Zunge zergehen lassen. Trotz mickrigen 770mV immer noch sehr hohe 287W. :crazy:
das war auch der hauptgrund für meinen wiederverkauf. selbst bei 700mv sind da bis zu 300w drinn. je nach spiel.
das ist aber auch bei ada so. bf2042 zieht praktisch keinen strom(um die 100w), andere titel wie pubg bis zu 170w am effizientesten punkt.
es ist einfach ratsam mehrere profile anzulegen. insofern haben die nicht optimierer schon einen punkt, das ganze optimieren fällt weg. am effizientesten punkt fehlt allerdings nur maximal 10% performance, das kann man imho ignorieren.
dargo
2023-04-01, 23:27:17
Das ist mir zu viel Gefrickel mit mehreren Profilen. Ich weiß gar nicht was mich mehr ärgert... dass AMD auf die völlig bescheuerte Idee kam max. -10% beim PT zu erlauben wenn man schon MPT-Support sperrt oder der hohe Durst von N31. :uponder: Die max. ~312W sind mir nämlich immer noch etwas zu viel. Mir wären lieber max. 270-280W als Peak.
Puh... selbst Days Gone heizt ganz schön ordentlich bei N31.
2,6Ghz/1090mV
https://abload.de/thumb/daysgone_2023.04.02-0zsfyb.jpg (https://abload.de/image.php?img=daysgone_2023.04.02-0zsfyb.jpg)
Gleicher Schauplatz, andere Blickrichtung mit 2,5Ghz/1090mV Profil.
https://abload.de/thumb/daysgone_2023.04.02-0bff3l.jpg (https://abload.de/image.php?img=daysgone_2023.04.02-0bff3l.jpg)
Der Shaderdurst von N31 ist echt übel. Nee... also N31 und ich werden keine Freunde, dafür ist RDNA2 bei der Effizienz einfach zu gut geworden. Eigentlich sehr schade denn der Hellhound-Kühler ist der absolute Hammer, das dürfte der beste Luftkühler sein, den ich jemals hatte. Der Kühler kann leider nichts dafür, dass eine neue SKU nicht ganz das geworden ist was erwartet wurde. N31 ist meiner Meinung nach viel zu durstig für das was er leistet.
GerryB
2023-04-02, 08:49:42
270Fps
Was hast Du denn für nen Moni?
Interessant wäre für mich nur der Verbrauch mit chill141Fps@144Hz-Moni.
(da dreht dann auch die CPU net so am Rad)
btw.
mit CFX kannste auch mal den InputLag als Schätzung anzeigen lassen
gbm31
2023-04-02, 08:55:12
Ohne entsprechendes PT fehlt dann halt oft die Leistung.
Und dann noch die absolut schwache VR-Vorstellung.
Deswegen hab ich dann schweren Herzens Jensen eine neue Jacke gekauft.
Zwar nicht weniger PT, aber wenigstens gibts dann auch was dafür.
dargo
2023-04-02, 09:00:00
270Fps
Was hast Du denn für nen Moni?
Hast du echt nicht verstanden worum es geht? Es geht nicht darum zu sehen was die Karte verbraucht wenn sie durch Vsync eingebremst wird sondern was sie verbraucht wenn sie freien Lauf innerhalb dem Stock Frequenzbereich hat. Nur weil jetzt ein Game X 270fps liefert heißt das gar nichts. Eigentlich müsste dir das mit dem Beispiel von APTR klar sein. Und zukünftige Games werden logischerweise noch langsamer laufen wenn GPU-Last aufgrund von besserer Grafik steigt.
Ohne entsprechendes PT fehlt dann halt oft die Leistung.
Und dann noch die absolut schwache VR-Vorstellung.
Deswegen hab ich dann schweren Herzens Jensen eine neue Jacke gekauft.
Zwar nicht weniger PT, aber wenigstens gibts dann auch was dafür.
Diese Grafikkartenentwicklung ist einfach nur noch traurig. Nach RDNA2 muss ich schauen was ich an Performanceplus bei ca. 250-260W bekomme und nicht mehr was ich für Preis X bekomme. :facepalm:
GerryB
2023-04-02, 09:09:31
Wenn mans genau nimmt, fehlen net Watt sondern MAXED-Preset schmeckt einfach net jeder Graka.
(gameabhängig gibts da schon deutliche Unterschiede zw. Graka A+B)
Könnte mir vorstellen, das gerade in Forspoken mit ein paar Reglern links ca. 1/3 weniger W
für die selben Fps benötigt werden.
dargo
2023-04-02, 09:18:06
Mythos;13270911']@Dargo, hat die Karte denn nun Spulenfiepen? Das war doch die größte Frage bei der Karte.
Jetzt zu diesem Thema.
Ja... meine RX 7900XTX Hellhound macht Spulengeräusche in meinem System. Ich würde es aber nicht unbedingt Spulenfiepen sondern Spulenrasseln bezeichnen. Und das Konzert ist je nach Workload sehr unterschiedlich. Ich habe den Eindruck, dass die Spulen sich intensiver melden wenn der Workload sehr wenig heizt. Als Beispiel nenne ich da Assassin’s Creed Origins. Durch das sehr niedrige Heizen der Shader boostet das Ding dort auch sehr hoch. Und hier ist das Spulenrasseln am lautesten. Bei einem CP77, HZD, APTR oder Days Gone ist es deutlich leiser. Hier heizen die Workloads auch wesentlich stärker als in Origins. Bei Origins bin ich mir gar nicht sicher ob ich diese Geräusche am Sitzplatz (sitze ca. 30cm rechts vor dem Rechner) wahrnehme oder ich es mir einbilde. Das ist gar nicht so einfach zu beantworten da ich diese Frequenzen kenne wenn ich mit dem Gesicht am Gehäuse klebe. Dann höre ich das gut. Auf dieser kurzen Strecke von ca. 30cm geht es unter. Bei anderen Games nehme ich diese Spulengeräusche am Sitzplatz gar nicht wahr. Für einen besseren Eindruck... mein System ist sehr auf silent getrimmt. Der 120mm CPU-Lüfter darf max. mit 900RPM im Gaming drehen. Der 120mm BQ SW3 hinten darf mit max. 850RPM drehen. Der 140mm BQ SW3 im Deckel darf mit max. 700RPM drehen. Zudem ist der Deckel hinten etwas eine Art Schweizerkäse. 1x 140mm für den BQ Lüfter offen. Ich kann mir also schon vorstellen, dass andere User die ihre sonstigen Lüfter im Gehäuse etwas schneller laufen lassen diese Spulengeräusche gar nicht erst mitbekommen weil die Lüfter diese überdecken. Wenn ich das Gehäuse aufmache und mit meinem Gesicht an der Graka klebe kriege ich das Konzert der Spulen sehr gut mit.
OgrEGT
2023-04-02, 09:24:05
Das ist bei RDNA3 nicht wirklich überraschend nach den Reviews dass die Mehrleistung durch mehr Verbrauch bezahlt wird... die Effizienz ist ähnlich wenn nicht etwas besser als bei RDNA2 aber auf einem höheren Verbrauchsniveau... klarer Perf/W Sieger in dieser Gen ist mMn die 4080...insb bei RT...
Macht mir bspw nichts aus da mein Fokus nicht so sehr auf RT liegt...
Ich hab mich deshalb für die 7900XT entschieden... Leistungsniveau auf Höhe der 3090ti in RZ und 3080-3080ti in RT bei deutlich weniger Verbrauch...
dargo
2023-04-02, 09:40:40
Ich hab mich deshalb für die 7900XT entschieden... Leistungsniveau auf Höhe der 3090ti in RZ und 3080-3080ti in RT bei deutlich weniger Verbrauch...
Wo siehst du da deutlich weniger Verbrauch als bsw. 3080? Über eine völlig bescheuerte 3090TI brauchen wir erst gar nicht reden, damit vergleiche ich noch nicht mal. Es sei denn man möchte sich was schönreden.
OgrEGT
2023-04-02, 10:05:52
Wo siehst du da deutlich weniger Verbrauch als bsw. 3080? Über eine völlig bescheuerte 3090TI brauchen wir erst gar nicht reden, damit vergleiche ich noch nicht mal. Es sei denn man möchte sich was schönreden.
Sorry auf die 3080 nur bzgl. RT Leistung in manchen Games wie CP77... Verbrauch bzgl. 3080ti-3090ti...
Schaust du hier
https://www.guru3d.com/articles_pages/sapphire_radeon_rx_7900_xtx_nitro_review,6.html
robbitop
2023-04-02, 10:09:33
Wer weiß vielleicht ist N31 ja auch besonders/ungeplant leaky. Die hohen Taktraten in (relation zu stock) abseits Powerlimitierung sind schon merkwürdig. Auch, dass die technology slide über rdna3 „design beyond 3 ghz“ sagt und in der Praxis sieht man das bei N31 fast nie auch nur annähernd. N33 soll ja ziemlich effizient (trotz nur einem minor halfnodeshrink) sein. Zu N32 hört und weiß man ja nichts. Es ist aber ungewöhnlich, dass bei einem full node shrink und modernerer uArch praktisch keine Perf/W Steigerung bei rumkommt.
GerryB
2023-04-02, 10:15:09
Erstmal muss die Software(DX12-Games) zur Hardware einigermaßen passen, dann ist die Effizienz auch da.
(ob mal ein älteres DX11 net passt oder DE seeehr auf NV zugeschnitten ist bei CB, besagt net allzuviel)
Falls NV ein mue mehr die CPU@DX12 belastet, wäre die Differenz auch noch zu beachten, sprich bei ner AMD-Graka
CPU+GPU anschauen.
Bei TPU siehts in CP2077 ganz vernünftig aus.
7900xt = 4,8W/Fps
6800xt = 6,5W/Fps
Crazy_Chris
2023-04-02, 10:26:22
Das das rasseln der Spulen bei geringer Wärmelast lauter ist wundert mich nicht da sie sich ja weniger im Spulengehäuse ausdehnen. Deshalb ist es besser die Spulen auch möglichst nicht zu kühlen.
gbm31
2023-04-02, 10:44:01
Diese Grafikkartenentwicklung ist einfach nur noch traurig. Nach RDNA2 muss ich schauen was ich an Performanceplus bei ca. 250-260W bekomme und nicht mehr was ich für Preis X bekomme. :facepalm:
Ich hatte auch gehofft dass es eher wie bei den CPUs läuft, nach den 130W Monstern sowas wie den 5800X3D...
Mittlerweile baust du den PC um die Grafikkarte, bei mir mit dem Endoskelett und ITX sogar sehr bildlich zu sehen mit der riesigen Aorus...
OgrEGT
2023-04-02, 11:03:56
Ich hatte auch gehofft dass es eher wie bei den CPUs läuft, nach den 130W Monstern sowas wie den 5800X3D...
Mittlerweile baust du den PC um die Grafikkarte, bei mir mit dem Endoskelett und ITX sogar sehr bildlich zu sehen mit der riesigen Aorus...
Eigentlich sogar um den Monitor bzw. die gewünschte Bildausgabe herum :) dazu die passende GPU und darum der ganze Rest...
Edgecrusher86
2023-04-02, 11:10:25
Gerade am Beispiel A Plague Tale: Requiem kommen Erinnerungen an eine entfesselte V64 Air in Wolfenstein II hoch. :D
Um die Karte dann auch akustisch annehmbar im Alltag zu nutzen, bedurfte es das volle Programm. UV + Taktreduktion + fps Cap, was dann bei UWQHD in ~ 1,2-1,3 GHz sowie 190 - 230W TGP und ich meine 1800RPM resultierte. Leider war mangels Leistung teils ein 60er Cap nicht drin - aber zumindest 50 (AC:Origins).
So würde ich pers. auch mit N31 vorgehen.
Am oberen Beispiel vielleicht mit 80 fps Cap (mir langen 60 in SP Titeln, aber das ist ja immer subjektiv). Ich denke mal, dann wären 2,0 GHz bei 700mV o.ä. möglich und vielleicht weniger als 240W.
P.S.: Das einzige Spiel, wo ich derzeit mal bis zu 175W sehe ist Wolcen (CryEngine) in 5160x2160 DL-DSR (60 fps) - mangels DLSS - ansonsten liegt das Kärtchen in SP Titeln bei grob 90-140W zu 99%; die DIV Beta (https://abload.de/gallery.php?key=idzh8KgC) war zum Beispiel auch extrem genügsam und lief mit UWQHD60 + DLSS Q sogar oft bei unter 70W; 5160x2160 DL-DSR + DLSS Q war ja leider nur am Freitag möglich (90-118W - auch 60 fps). :D :D :D
Zu schade nur, dass NV einen hier nicht auch bis hinunter zu 700mV setzen lässt, was sicher möglich gewesen wäre in DIV bei ~ 780/5002 MHz in UWQHD + DLSS Q. So blieb es bei zumeist 880mV. Für Hack & Slay langen mir auch seit jeher "nur" 60 fps. Bzw. in dem Fall waren es 59 fps per Ingame-Limiter, da im CP noch 78 fps gesetzt waren...für CoD. ;)
Mobile sieht es da anders aus - 622mV scheinen das untere P8-Limit zu sein; zumindest bei der 4080 Mobile (https://www.notebookcheck.net/Mobile-GeForce-RTX-4080-debut-Razer-Blade-16-Early-2023-laptop-review.689294.0.html#9438296-3). ^^
dargo
2023-04-02, 13:53:46
Bei TPU siehts in CP2077 ganz vernünftig aus.
7900xt = 4,8W/Fps
6800xt = 6,5W/Fps
Ich weiß nicht was du immer mit diesem Unsinn @Watt/fps bezwecken möchtest, und dann nur bei einem einzigen Spiel. Ich hatte schon mal gesagt, dass dies nicht die absolute Abwärme abbildet. Und wenn diese einen stört weil sie zu hoch ist dann nützt ein besserer Wert absolut gar nichts. Als weiteres verbraucht die RX 6800XT dort sicher die Default ~300W. Meine braucht nur 255W TBP handoptimiert. Und ich habe mich bei der Performance während der Optimierung am custom OC-Modell orientiert. Gleiche Performance bei >60W weniger (Ausgangspunkt 319W, also eher an einer 7900XT angelehnt, als an einer 7900XTX). Würde ich mich an der Referenz 6800XT orientieren würde meine RX 6800XT eher bei 240W TBP landen. Sowas kriegst du mit einem vollen N31 einfach nicht hin. Auch fehlt mir der Komfort bei RDNA3 den ich bei RDNA2 im Bereich Optimierung habe. Da hat sich AMD richtig ein Ei damit gelegt. Mir ist klar, dass sowas die Masse da draußen nicht interessiert. Für mich ist die fehlende, freie PT-Wahl ein riesen dicker Spaßbremser.
GerryB
2023-04-02, 18:13:44
Die 270fps Screenshots sind aber auch net praxisnah.
dargo
2023-04-02, 18:20:07
Muss ich jetzt extra für dich auf 4k umstellen? :rolleyes: Die erste Szene hat übrigens 185fps @1440p. Und es wird sicherlich auch Szenen geben die noch etwas tiefer gehen.
gbm31
2023-04-02, 18:22:10
Ne, du sollst aufhören die 7900 schlecht zu finden...
dargo
2023-04-02, 18:35:14
Ne, du sollst aufhören die 7900 schlecht zu finden...
Schon klar. ;)
Im Moment finde ich nur die RX 7900XTX nicht so pralle, passt einfach nicht in mein Abwärme-Budget. Die RX 7900XT wird zwar auch unter meinen Erwartungen performen, dafür bekomme ich die aber wenigstens auf knapp über 280W runter im Peak. Muss nur ein AIB sein der in einem Bios Referenz 315W im Programm hat. Für die aktuellen Preise die da aber dafür abgerufen werden interessiert mich das nicht wirklich. Bei ~700-750€ schon eher für eine gute Custom. Ich behalte meine RX 6800XT (läuft ja eh nichts zu langsam hier) und schaue in Ruhe was noch so bis Ende 2024 bei AMD kommt. Ob Intel so schnell oben aufholen kann ist momentan eher fraglich. So ein Upgrade auf die RX 7900XT wäre vom Performanceuplift noch langweiliger. Aber wenn der Preis, oder besser gesagt Aufpreis gering ausfällt spricht nichts dagegen.
GerryB
2023-04-02, 18:42:22
838€ incl. TLoU ist doch net verkehrt für ne MERC.
Obs da noch schneller runter geht wenn NV für die 4070 soviel Knete haben will!?
Dadurch das Navi32 erst in Q3 kommt, wird Jensen im Midrange sicher erstmal versuchen abzukassieren.
dargo
2023-04-02, 18:43:56
838€ incl. TLoU ist doch net verkehrt für ne MERC.
Dann hol dir eine.
GerryB
2023-04-02, 18:46:40
Ne,
brauch ich momentan net, weil ich kein Problem mit 4k@FSR2-Performance habe.(am 60Hz-Moni@Chill57fps)
Advantage 4k = lineares Upscaling von ner guten 1080p-Basis.(da müssen keine Pixel interpoliert werden)
Erstmal müsste es ganz andere schnelle Monis zu nem vernünftigen Preis geben, dann ...
(im best Case würde mit FSR3+FG aber auch dann noch die 6800nonXT reichen)
Im Featuretest reicht mein 24/7-Setting mit 104Wtgp.
Zur Not kann ich auch mal bis auf 140Wtgp gehen.(siehe TSE, trotz UVen = Stockperf.)
(ältere Games ohne FSR2 kann ich in 1836p, ala TrixxBoost, auch ohne Probleme spielen, mit 1-2 Reglern links)
Das ist halt ne Frage der persönlichen Bereitschaft das Game passend zur Hardware einzustellen, angefangen beim Chill etc.
Selbst die UE5 sieht in der Dune-Demo mit TSR@Performance noch gut genug aus.
dargo
2023-04-02, 18:55:00
Dadurch das Navi32 erst in Q3 kommt, wird Jensen im Midrange sicher erstmal versuchen abzukassieren.
Kommt N32 echt so spät? Dann könnte eventuell doch noch was dran sein, dass AMD N32 paar Monate verschoben hat weil noch rechtzeitig irgendwelche Probleme im Design entdeckt und nachgebessert wurden. Zumindest hoffe ich das. Wäre schön wenn N32 auch bei hoher Shaderlast um die ~2,8-3Ghz macht und nicht wie verrückt dabei säuft. Eventuell hat N31 doch einige Leckagen. Diese Verbrauchsexplosion bei hoher Shaderlast ist schon sehr ungewöhnlich für mein Empfinden. Und die Entscheidung für zwei Taktdomainen ist auch verdächtig.
Im Featuretest reicht mein 24/7-Setting mit 104Wtgp.
Zur Not kann ich auch mal bis auf 140Wtgp gehen.(siehe TSE, trotz UVen = Stockperf.)
(ältere Games ohne FSR2 kann ich in 1836p, ala TrixxBoost, auch ohne Probleme spielen, mit 1-2 Reglern links)
Das ist halt ne Frage der persönlichen Bereitschaft das Game passend zur Hardware einzustellen, angefangen beim Chill etc.
Selbst die UE5 sieht in der Dune-Demo mit TSR@Performance noch gut genug aus.
Diese fps die du da spielst sind mir leider zu niedrig. :)
btw.
Also die RX 7900XTX gefällt mir nur wenn sie bei mittleren bis hohen Shaderlast bei 2,5Ghz gebremst wird. In Kombination mit 1090mV @Wattman ist das Teil dann echt von der Abwärme her in Ordnung. Für solche Games wie Origins und eventuell Odyssey müsste man sich wirklich ein zweites Wattman-Profil erstellen. Zum Beispiel dann 2,8-2,9Ghz/1090mV, auf jeden Fall was wo die Karte im Schnitt ungefähr bei 260-280W landet (ich würde dann trotzdem ein PT von 90% verwenden denn so hat man die Garantie, dass die Karte niemals über ~312W im Peak hinausgeht). Diese Abwärme ist noch sehr angenehm und der Kühler lacht sich darüber eh nur schlapp. Da kannste auch problemlos max. 1000RPM einstellen. Witzige Randnotiz... im Benchmark von SotTR ist Stocksettings nur 1% schneller beim Silent-Bios mit 100% PT als ein 2,5Ghz/1090mV Profil. Letzteres dürfte im Schnitt grob >50W weniger verbrauchen. Ich mache später noch eine genauere Messung.
Weiß eigentlich jemand ob die PT-Angaben von CB zur Hellhound XTX 100% stimmen? CB schreibt die Karte hat im Silent-Bios 351W. Die macht hier bei mir in SotTR beispielsweise exakt bei 347W dicht. Wie genau die Erfassung der Tools wie zb. HWiNFO64 dann aber ist weiß man nicht.
GerryB
2023-04-02, 20:44:48
4k-120Hz+ OLED ist zwar schön, aber net Jeder will nen 42" auf dem Schreibtisch hinstellen.(x)
Wenns denn mal sinnvolle Größen zu nem normalen Preis gibt, dann ...
(x) oder extra umräumen, um so ein Teil an die Wand zu tackern
UWQHD ist für mich auch keine Alternative, weil die zusätzlichen Ränder eher den Focus aufs zentrale Geschehen
behindern.
dargo
2023-04-02, 22:08:03
Wie schon vermutet... FH5 heizt nicht so sehr. 2,9Ghz/1090mV Profil.
https://abload.de/thumb/unknown_2023.04.02-22socay.jpg (https://abload.de/image.php?img=unknown_2023.04.02-22socay.jpg)
Edit:
Noch ein Vergleich.
Stock Silent Bios:
https://abload.de/thumb/unknown_2023.04.02-22dcfhw.jpg (https://abload.de/image.php?img=unknown_2023.04.02-22dcfhw.jpg)
2,9Ghz/1090mV
https://abload.de/thumb/unknown_2023.04.02-22nrd9c.jpg (https://abload.de/image.php?img=unknown_2023.04.02-22nrd9c.jpg)
2,7Ghz/1090mV
https://abload.de/thumb/unknown_2023.04.02-226xiew.jpg (https://abload.de/image.php?img=unknown_2023.04.02-226xiew.jpg)
2,6Ghz/1090mV
https://abload.de/thumb/unknown_2023.04.02-22jfiw5.jpg (https://abload.de/image.php?img=unknown_2023.04.02-22jfiw5.jpg)
2,5Ghz/1090mV
https://abload.de/thumb/unknown_2023.04.02-22z5iaf.jpg (https://abload.de/image.php?img=unknown_2023.04.02-22z5iaf.jpg)
=Floi=
2023-04-03, 00:02:23
Im Moment finde ich nur die RX 7900XTX nicht so pralle, passt einfach nicht in mein Abwärme-Budget.
Dann begrenz die fps!
Wieder total lächerlich.
dargo
2023-04-03, 08:25:06
Boah... das ist aber auch komplett strange. Was zum Teufel macht der Treiber da indem er die Grafikkarte @Stocksettings einfach weiter nach oben innerhalb des Powerlimits und des Stock max. Boosttaktes boostet obwohl es überhaupt nichts bringt aufgrund von Framelimitierung durch Vsync von 144fps? :facepalm: Das kann doch nur ein Treiberbug bei Teillast sein oder wie seht ihr das? Einen Hardwaredefekt würde ich hier generell ausschließen wollen da eine manuelle max. Boosttakt-Verschiebung nach unten wie zu erwarten den Verbrauch innerhalb der vorgegebenen Spannungskurve senkt.
Stocksettings Silent-Bios:
https://abload.de/thumb/unknown_2023.04.03-082iia8.jpg (https://abload.de/image.php?img=unknown_2023.04.03-082iia8.jpg)
2,5Ghz/1090mV Profil:
https://abload.de/thumb/unknown_2023.04.03-0861cvu.jpg (https://abload.de/image.php?img=unknown_2023.04.03-0861cvu.jpg)
2,5Ghz/1150mV Profil (ergo Stock max. Spannung):
https://abload.de/thumb/unknown_2023.04.03-08wcfsm.jpg (https://abload.de/image.php?img=unknown_2023.04.03-08wcfsm.jpg)
Nur weil ich die Graka nicht unnötig so hoch boosten lasse (fps sind ja gleich) habe ich 73W weniger. Das ist doch komplett verrückt. :crazy: Verschiebe ich die max. Spannung auf 1090mV sind es dann sogar 95W weniger.
=Floi=
2023-04-03, 08:31:43
Stell 60fps ein und es läuft butterweich bei wenig watt!
dargo
2023-04-03, 08:37:06
Könntest du bitte wo anders trollen? Danke. Falls du es noch nicht mitbekommen hast... ich bin ein High-FPS-Spieler. Für lächerliche 60Hz macht ein Upgrade von einer RX 6800XT noch weniger Sinn als @144Hz.
=Floi=
2023-04-03, 08:56:16
Das macht absolut null sinn in dem rennspiel. :facepalm:
Da ist die energieeffizienz absolut umsonst. Und dann noch mit posts kommen: "ahh, der lüfter ist so laut" :rolleyes:
dargo
2023-04-03, 09:13:50
Wie ich schon sagte... troll dich woanders.
btw.
Eine wichtige Info für alle die ihren N31 undervolten bzw. ein neues Profil suchen möchten. Ich denke das erspart vielen einige WTFs. Ich spreche da nur aus meinen Beobachtungen mit der RX 7900XTX.
Wenn ihr ein Profil findet welches bei euch stabil ohne Vsync oder Framelimit ist und die Grafikkarte nicht ins Powerlimit läuft und anschließend das gleiche Profil mit Vsync/Framelimit oder eine PT-Begrenzung instabil wird und die Applikation mit einem Treiber-Timeout crasht lässt sich das ganz leicht beheben. Bei mir zb. hat sich rausgestellt, dass die 1090mV im Wattman ohne Vsync/Framelimit und Powerlimit immer passen. Egal welche Frequenz ich als max. Boost im Wattman wähle. Wird die Grafikkarte aber mit einem Vsync/Framelimit oder Powerlimit begrenzt und geht mit ihrem max. Boost deswegen runter scheint die Skalierung bei den unteren Frequenzen zur Spannung nicht mehr ganz zu passen. Offenbar verläuft das dann nicht exakt linear in Bezug auf die Stabilität. In so einem Fall reicht es bei mir die max. Voltage von 1090mV nur minimal anzuheben. 1095mV reichen hier schon aus bzw. 5mV mehr (ergeben bsw. 2,5Ghz real 815mV bei einem 1090mV Setting bekommt man exakt die 5mV drauf, ergo 820mV). Ich denke also irgendwas zwischen 1-5mV mehr wird dieses Problem schon beheben.
Noch eine Kleinigkeit... aus den Beobachtungen würde ich sagen, dass bei N31 die Spannungsstufen feiner abgestimmt sind und eine Stufe nicht mehr 6,25mV beträgt. Sofern die Tools natürlich verlässlich sind.
Edit:
Idle-Verbrauch mit der RX 7900XTX beim gesamten System liegt hier bei 53,xW bis 54,xW hinter dem Netzteil.
GerryB
2023-04-03, 10:08:48
6,25V-Steps sind auch schon bei RDNA2 lediglich im Power-Tab drin/erf.. aber z.Bsp. bei LinearDrop geht auch schon frei Schnauze ala WM.
Praktisch können die mVolt auch 6,25/2 oder sogar 6,25/4-Steps.
Das kann man gut in HWinfo sehen, wo z.Bsp. dann 847mV oder aufgerundet 848mV sein können.
(ist bei den 4000ern übrigens auch so, das net mehr fest 6,25mV/15MHz-Step sein müssen)
Ob die 7000er dann noch freier/filigraner regeln, = schwer zu messen, weil HWinfo rundet.
aceCrasher
2023-04-03, 11:11:57
Das macht absolut null sinn in dem rennspiel. :facepalm:
Da ist die energieeffizienz absolut umsonst. Und dann noch mit posts kommen: "ahh, der lüfter ist so laut" :rolleyes:
Gerade in einem Rennspiel mit schneller Bewegung sind 144Hz doch besonders wichtig :confused::confused:
Crazy_Chris
2023-04-03, 11:18:03
Ich finde sogar das mehr Hz wichtiger sind als 4k. :eek:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.