Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM übertakten - Fragen zu Stabilität und Error correction
gbm31
2018-05-02, 14:42:30
Ich habe im Forum nicht wirklich was dazu gefunden, und ausserhalb ziemlich viel... Halbwissen.
Daher ein neuer Thread.
Anlässlich meines Neukaufs (1070 Ti) habe ich mich nach über 3 jahren ohne Grafikkarten-OC mal wieder rein aus Prinzip (die 5-10% mehr entscheiden nicht über zu langsam oder reicht, sondern sind, wenn wir ehrlich sind, nur fürs Ego) mit der Übertaktung der Grafikkarte auseinandergesetzt.
Da die Ti mehr am Speicher hängt als an der GPU ist speziell dessen Übertaktung interessant.
Aber: angeblich gibt es bei GDDR5 eine Fehlerkorrektur, die lange vor Erreichen von sichtbaren Fehlern wie Texturflackern oder bunten Pixeln, oder gar Freezes, die Übertaktung des Speichers durch Performancerückgang bremsen soll.
Wie macht sich das bemerkbar?
Wie kann man das testen?
Wie verhält es sich dabei? Gibt es eine harte Grenze, ab der die FPS nicht weiter mit dem Takt ansteigen, oder sinkt nur der Anstieg im Verhältnis zur Taktanhebung?
Entspricht das überhaupt den Tatsachen?
Ich finde irgendwie nichts "handfestes" und hoffe, die Fachleute hier können es mir erklären.
BlacKi
2018-05-02, 15:30:06
weil es da nichts handfestes gibt. gilt genauso für den core takt. jeden monat könnte ein neues spiel rauskommen dass das alte OC instabilitäten zu tage bringt.
es gibt empfehlungen welche spiele gut Vram auslasten andere sind core takt sensibel.
ich halte das so, das ich das den max takt/voltage ermittle, und dann ein bis 2 stufen darunter als preset speichere, so hat man etwas reserve wenn mal neue spiele mit anderen anforderungen erscheinen. vram geht bei mir stabil bis +600mhz, aber im preset hab ich 550mhz gespeichert. die letzten mhz sind sowieso die, die am meisten kosten.
gbm31
2018-05-02, 15:43:13
Mit dem Handfesten meine ich natürlich keine Angaben zu Takten, sondern ob es wirklich eine Fehlerkorrektur gibt, wie dieser Mechanismus funktioniert, ob es eine zuverlässige Methode gibt, das zu testen/auszulesen usw.
Jeder schmeisst damit um sich, bisher kenne ich das nur als BUS-Feature von AMD bzw. als ECC bei Profikarten.
Und wie gesagt, viele testen sich die Finger wund und ziehen dann für mich völlig unlogische Schlüsse aus schwankenden Werten.
Sowas meine ich z.B. mit Fakten: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=11&cad=rja&uact=8&ved=0ahUKEwjH7rmooOfaAhWI1hQKHVD-BzA4ChAWCCcwAA&url=https%3A%2F%2Frobinbetz.com%2Fpapers%2Fxsede13_betz_walker_ecc.pdf&usg=AOvVaw1YRdOfZ5jzdu0xcDOxEvWO
Taugt das Tool Video Memory stress Test von raymond.cc was?
Skysnake
2018-05-02, 20:47:28
ECC ist die Möglichkeit Fehler zu korrigieren. Meist kann man einen 2 Bit Fehler erkennen und 1 Bit Fehler korrigieren.
Bei GDDR etc gibt es eine CRC. Die ermöglicht das erkennen von 1 Bit Fehlern. Ist einer erkannt wird nochmal gelesen.
Leider gibt es meist keine Möglichkeit auszulesen wieviel CRC Fehler erkannt wurden.
Sieht man Grafikfehler hat man schon mindestens 2 bit Fehler. Die CRC erkennt die eventuell nicht. Denn eine CRC macht nicht anderes als die Nullen bzw Einsen zu zählen., bzw über entsprechende Codierung hat man im Mittel genau so viele Einsen wie Nullen. Schau einfach mal bei Wikipedia nach CRC
gravitationsfeld
2018-05-02, 20:58:44
Niemand benutzt CRC fuer Speicher-Fehlerpruefung. Das ist allein deshalb schon unsinnig, weil man es nicht parallel berechnen kann. Ist irgend ein Hamming-Code oder aehnliches.
Andi Y
2018-05-02, 20:59:59
Also mit meiner GTX 1060 spiele ich auch viel herum was den Takt betrifft.
Ich dachte die Karte sei stabil. Lief bei BF4, Firestrike Ultra, Superposition, Wolfensten, Doom ohne Probleme. Nur WOT machte zicken. Coretakt gesenkt das bei Last jetzt 2050 anliegen und WOT läuft auch (ohne PT und Spannungserhöhung).
Beim RAM kann ich den Takt erhöhen und es wird schneller, bis es Grafikfehler gibt oder sich der Treiber zurück setzt. Ich merke da nix von Fehlerkorrektur.
Mehr Takt ist bei mir entweder schneller oder Absturz bzw. Grafikfehler.
Zur Zeit bin ich bei +600 Speicher. Also 4608 Mhz.
Ex3cut3r
2018-05-02, 21:58:01
Über +500MHz macht bei meiner 1070 keinen Sinn, weil alles langsamer ist als +500. Also die Fehlerkorrektur tritt bei mir ab +600 an. Außerdem habe ich festgestellt das 1800Mhz Core Takt oder 2000mhz in meiner Spielauflösung von 3440x1440 auch keinen Unterschied macht, wahrscheinlich weil die Einheiten in der relativ hohen Auflösung bereits voll ausgelastet sind. Da bringt das VRAM übertakten etwas mehr.
Ich warte die 3 Monate bis Turing aber definitiv ab, die 1070 kostet jetzt mehr, als ich damals im Juli 2016 für bezahlt habe.
Die 2080 oder 2070 wird dann gekauft, mal sehen.
Skysnake
2018-05-02, 22:06:00
Niemand benutzt CRC fuer Speicher-Fehlerpruefung. Das ist allein deshalb schon unsinnig, weil man es nicht parallel berechnen kann. Ist irgend ein Hamming-Code oder aehnliches.
Parallel ist kein Thema, da man SERDES hat. Kann man also pro bitlane berechnen. Und nur so btw. Im Grenzfall von ein Bit error detection a sind crc und Hamming code equivalent. Also zumindest soweit ich mich erinnere
aufkrawall
2018-05-02, 22:18:57
Es muss nicht die Fehlerkorrektur für nicht mehr steigende Leistung verantwortlich sein, sondern es sind auch steigende Timings mit steigendem Takt möglich. Fällt z.B. beim Mining mit Radeons extrem auf.
gbm31
2018-05-02, 23:52:08
Lasse grade den Unigine Heaven laufen, FHD windowed, die GPU ist gut vorgewärmt mit 2h Witcher, so dass sie von anfänglich 2025 auf konstante 1924 MHz gegangen ist, und ich stelle den Speicher in 50er Schritten von 4350 aufwärts ein.
Mal sehen.
gbm31
2018-05-03, 00:13:36
Ich hab mal was angehängt.
VRAM 4350MHz - 129,0 FPS / 3250 Score
VRAM 4400MHz - 129,8 FPS / 3271 Score
VRAM 4450MHz - 130,7 FPS / 3292 Score
VRAM 4500MHz - 131,4 FPS / 3310 Score
VRAM 4550MHz - 132,1 FPS / 3327 Score
VRAM 4600MHz - 132,7 FPS / 3343 Score
VRAM 4650MHz - 133,7 FPS / 3367 Score
VRAM 4700MHz - 134,2 FPS / 3379 Score
GPU wie gesagt von 2025MHz auf konstante 1924MHz eingependelt, Karte ist "stabil im Voltage Limit.
Sehe da nicht wirklich was von Einknicken wegen irgendeiner Fehlerkorrektur.
Anscheinend fordert der Benchmark den Speicher nicht sonderlich, +700 hab ich jetzt noch nicht oft gesehen.
Mal sehen was Geralt gleich dazu sagt...
Daredevil
2018-05-03, 00:22:10
Diese "Wall" kann ich bei einer GTX1080 und 1080ti bestätigen, also bei GDDR5X, wie es bei einer 1070 aussieht, weiß ich nicht.
Bei ~+500Mhz im Afterburner ist die Leistung ein wenig eingeknickt.
Hübie
2018-05-03, 01:04:56
Niemand benutzt CRC fuer Speicher-Fehlerpruefung. Das ist allein deshalb schon unsinnig, weil man es nicht parallel berechnen kann. Ist irgend ein Hamming-Code oder aehnliches.
Der EDC nutzt CRC. Steht in JESD212, 232A und 250 (GDDR5, 5X & 6).
gnomi
2018-05-03, 11:58:38
Ich konnte bei VRAM Übertaktung auf der GTX 1080 Palit Gamerock Pro auch keine großen Unterschiede feststellen.
Von daher bleibt es vorerst bei der Werkseinstellung. (5255 MHz, was ja auch schon ein wenig über Standard hinausgeht)
Scheint alles ganz gut abgestimmt zu sein, und mein Monitor liefert auch nur 1440P Auflösung, was ja auch etwas Entlastung gegenüber 4K bringt.
gbm31
2018-05-03, 14:40:12
Ich konnte bei VRAM Übertaktung auf der GTX 1080 Palit Gamerock Pro auch keine großen Unterschiede feststellen.
...
Falls ich dich falsch verstehe, sorry, aber die Speicherübertaktung bringt richtig was z.B. im Witcher. Die 1070Ti da noch empfindlicher als die 1070, weil die GPU im Vergleich zur 1080 kaum beschnitten ist.
Die (wenig skalierenden) Werte oben sind vom Unigine, und dienen nur als Stabitest, und um zu sehen, ob die Performance wegen dieser ominösen Fehlerkorrektur bei steigendem Takt irgendwann absinkt - was bisher nicht zu sehen ist.
Übrigens habe ich noch bis 2 Uhr gezockt bei +700MHz ohne Probleme. Ich glaubs immer noch nicht so ganz...
Und trau mich gar nicht so richtig höher zu gehen um zu sehen wann die Grenze erreicht ist. Aber ich muss das trotzdem irgendwann machen.
gbm31
2018-05-03, 15:21:54
Niemand benutzt CRC fuer Speicher-Fehlerpruefung. Das ist allein deshalb schon unsinnig, weil man es nicht parallel berechnen kann. Ist irgend ein Hamming-Code oder aehnliches.
Der EDC nutzt CRC. Steht in JESD212, 232A und 250 (GDDR5, 5X & 6).
Hier steht was dazu: https://www.anandtech.com/show/2841/12
To combat this, GDDR5 memory controllers can perform basic error detection on both reads and writes by implementing a CRC-8 hash function. With this feature enabled, for each 64-bit data burst an 8-bit cyclic redundancy check hash (CRC-8) is transmitted via a set of four dedicated EDC pins. This CRC is then used to check the contents of the data burst, to determine whether any errors were introduced into the data burst during transmission.
The specific CRC function used in GDDR5 can detect 1-bit and 2-bit errors with 100% accuracy, with that accuracy falling with additional erroneous bits. This is due to the fact that the CRC function used can generate collisions, which means that the CRC of an erroneous data burst could match the proper CRC in an unlikely situation. But as the odds decrease for additional errors, the vast majority of errors should be limited to 1-bit and 2-bit errors.
Aber da geht's um AMD - und da kann man die Fehler bzw. den Fehler-Counter vie HWinfo (z.B.) auslesen.
Ist das bei Nvidia auch so?
[EDIT]
Ok, damit: http://www.overclock.net/forum/71-nvidia-drivers-overclocking-software/1612267-any-way-disable-ecc-through-bios-mods-2.html hab ichs jetzt glaub ich kapiert.
Führt wohl kein Weg am Benchen vorbei...
Hübie
2018-05-03, 18:37:02
Ich habe auch neulich erst hier im Forum gelernt, dass einige Profi-Karten ECC im VRAM beherrschen. Wusste ich bis dahin gar nicht. EDC per CRC (performt dann einen erneuten READ/WRITE command) war mir soweit klar und auch ECC auf Cache-Level. Man lernt wohl nie aus. :redface:
GDDR5 IMC und alles darüber nutzt zur Fehlererkennung eben CRC (GDDR5: ATM-8 HEC was iirc Standard für asynchrone Datenübertragungen in ICs ist). Kann aber mit 5X, 6 und HBM schon wieder anders aussehen.
gbm31
2018-05-04, 09:46:46
Unigine Heaven von +150 bis +850 MHz VRAM-Takt.
+750 liegt noch im Trend, +800 fällt deutlich ab, +850 führt zu starkem Stottern der Grafik.
Memory Controller Load laut GPU-Z ist übrigens bei +700 wie bei +150 immer zwischen 55 und 70%.
Werd es wohl bei +700 lassen, wenn es beim Zocken weiterhin keine Probleme gibt. Die Steigerung ist ja nicht unerheblich...
dildo4u
2018-05-04, 09:50:04
Die 1070 Ti ist nicht sonderlich Bandbreiten Limitiert sonst würde sie nicht so dicht an die 1080 kommen.
https://www.computerbase.de/2017-11/geforce-gtx-1070-ti-test/3/#abschnitt_benchmarks_in_2560__1440
gbm31
2018-05-04, 10:10:28
Denn normalerweise könnte man von der GeForce GTX 1070 Ti als Karte mit rein höherer Rechenleistung und aber identischer Speicherbandbreite zur GeForce GTX 1070 eine besonders starke Performance unter FullHD (weniger Bandbreiten-limitiert) und dann eine leicht zurückgehend Performance unter noch höheren Auflösungen (stärker Bandbreiten-limitiert) erwarten.
Allerdings ist exakt das Gegenteil der Fall: Die Performance-Differenzen zwischen GeForce GTX 1070 Ti und GeForce GTX 1070 nehmen mit steigenden Auflösungen sogar leicht zu (zwischen GeForce GTX 1080 und GeForce GTX 1070 Ti trifft dies auch zu, ist dort aber aufgrund der höheren Speicherbandbreite der GeForce GTX 1080 auch so zu erwarten). Der Speicherbandbreiten-Effekt wird sicherlich da sein, ist aber letztlich geringer als der Effekt der teilweisen CPU-Limierung unter der FullHD-Auflösung, selbst wenn für diese Benchmark-Auswertung rein CPU-limitierte Einzeltests weitgehend nicht beachtet wurden. Jener Effekt macht natürlich bestenfalls ein paar Prozentpunkte aus und nur aufgrund der hohen Genauigkeit dieser Auswertung überhaupt nachweisbar.
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1070-ti/launch-analyse-nvidia-geforce-gtx-1070-ti-seite-2
In der Theorie sollte es schon was ausmachen...
[edit]
in der Praxis: popelige Szene unten im Anhang.
ohne OC: 75 FPS
+700: 82 FPS
Hübie
2018-05-04, 13:49:15
Gerade bei modernen Streaming Engines dürfte man öfter was feststellen, das über die Messtoleranz hinaus geht.
gbm31
2018-05-07, 18:23:56
40s Anleitung (9:00 - 9:40): https://youtu.be/UGeGLU8uh9M?t=418
Die restlichen 9:20min kannst du dir natürlich auch noch geben, wenn dich die Hintergrundinfos interessieren.
Sodele.
Irgendwie klappt das mit dem Curve Editor nicht so gut wie erwartet.
Ich habe einfach mal die bereits erfolgreich getestete Kurve aus meinem Übertaktungsprofil genommen.
Die Karte boostet mit diesem Profil kalt auf 2052 bei 1.062V und landet bald warmgefahren auf 1936MHz bei 1,031V, 79° und 3150rpm (nicht mehr wirklich leise, aber erträglich), und läuft nur ins Voltage Limit! Nicht ins Power Limit von 107%!
gbm31
2018-05-07, 18:27:35
Obige Kurve habe ich bei 1V=1936MHz begradigt, damit nicht mehr Spannung anliegt als bis zu diesem Takt benötigt.
Das Power Limit habe ich wieder auf 120% gesetzt um nichts zu beeinflussen. Sonst nichts geändert.
Damit sollte die Karte bis 1936MHz bei leicht reduzierter Spannung kommen, damit Temperaturen und Lüfterdrehzahl leicht sinken.
gbm31
2018-05-07, 18:32:55
Aber: sie verhält sich anders, und zwar so, daß ich es nicht verstehe.
Die Karte boostet bis 1936MHz bei 1V, fällt dann warm schnell auf 1911MHz bei 0.981V und läuft ständig ins Power Limit.
Der Lüfter dreht zwar nur noch mit 3000rpm, was nur wenig leiser ist als vorher, erreicht trotzdem 76°.
Wie man im Graphenfenster sieht, kaum schalte ich wieder ins alte Profil, sind die Takte wieder höher, und die Karte läuft trotzdem nicht ins (niedrigere!) Power Limit.
gbm31
2018-05-07, 18:50:06
Also bisher überzeugt mich die Curve-Geschichte nicht sonderlich...
Kann mir jemand erklären warum die Karte trotz niedrigerer Spannungen und Takte ins (deutlich höher) eingestellte Power Limit läuft?
Emil_i_Lönneberga
2018-05-07, 20:01:15
Kenne ich von meine Karte nicht. Takt stabil, zu 99% ausgelastet, Powerbudget zu 67% ausgenutzt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11609365#post11609365
Die ingame PL Einblendung des Popobrenner soll anscheinend ein Bug sein:
Das zeigt er immer an wenn der curve editor benutzt wurde. Wieso weiss ich nicht, scheint ein bug.
gbm31
2018-05-07, 20:13:12
Hat mir keine Ruhe gelassen, also nochmal alles auf Null und von default an begonnen:
Warm 1924MHz bei 0,993V. Temps ok, hab die Gehäuselüfter leicht höher gedreht, jetzt bleibt die Karte bei 71° und 2800rpm.
gbm31
2018-05-07, 20:25:00
Das sagt GPU-Z dazu: 87,9% TDP. Also 158,22W.
[edit]
Tja, Geralt toppt das wieder mal: 75°, 1911MHz, 96,4 TDP = 173,5W
Emil_i_Lönneberga
2018-05-08, 09:02:14
Tja, Geralt toppt das wieder mal: 75°, 1911MHz, 96,4 TDP = 173,5W
Wie sehen in W3 die Werte bei 1850MHz aus?
gbm31
2018-05-08, 11:07:42
Keine Ahnung, so weit taktet sie nicht runter. Hab gestern noch 3h die letzten Fragezeichen in Touissant bereinigt.
Aber ich hab noch einen Fehler drin: Die jetzige Kurve startet beim Default-Wert ~1450MHz, und ich habe sie linear zum gewünschten Maximaltakt/Spannung gezogen. (Beim Übernehmen schiebt der Editor sich ja die Punkte eh wieder zurecht)
Aber eigentlich kann die Karte mehr, da der Offset, den ich vorher genutzt habe, die ganze Kurve anhebt.
Also verteile ich heute Abend die Werte linear ausgehend vom Default-Wert + vorherigem Offset, also ~1600MHz, zum Wunschtakt.
Und vergleiche vorher/nachher. Wenn ich dran denke... ;-)
Daredevil
2018-05-08, 11:17:54
Wenn du Shift gedrückt hältst, dann verschiebst du die komplette Kurve nach oben.
Wenn du Strg gedrückt hältst, dann änderst du die Kurve vong der Steiligkeit halber.
Das hat mir immer ein wenig geholfen beim Curve Editor. :D
Emil_i_Lönneberga
2018-05-08, 12:39:43
Keine Ahnung, so weit taktet sie nicht runter. Hab gestern noch 3h die letzten Fragezeichen in Touissant bereinigt.
Aber ich hab noch einen Fehler drin: Die jetzige Kurve startet beim Default-Wert ~1450MHz, und ich habe sie linear zum gewünschten Maximaltakt/Spannung gezogen. (Beim Übernehmen schiebt der Editor sich ja die Punkte eh wieder zurecht)
Aber eigentlich kann die Karte mehr, da der Offset, den ich vorher genutzt habe, die ganze Kurve anhebt.
Also verteile ich heute Abend die Werte linear ausgehend vom Default-Wert + vorherigem Offset, also ~1600MHz, zum Wunschtakt.
Und vergleiche vorher/nachher. Wenn ich dran denke... ;-)
Damit ist gemeint, ob du die Karte z.B. bei 1850MHz bei nur 0,9V festnageln kannst und wie dann die Temperatur, Lüfterdrehzahl, TDP ausfallen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63318&stc=1&thumb=1&d=1525716653
Einen FPS Vergleich von deinen 1911MHz zu den 1850MHz wäre auch noch interessant.
gbm31
2018-05-08, 12:56:26
Damit ist gemeint, ob du die Karte z.B. bei 1850MHz bei nur 0,9V festnageln kannst und wie dann die Temperatur, Lüfterdrehzahl, TDP ausfallen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63318&stc=1&thumb=1&d=1525716653
Einen FPS Vergleich von deinen 1911MHz zu den 1850MHz wäre auch noch interessant.
Ahso! :-)
Aber das sind bloß 3,3%... also 80 zu 82 FPS... das fällt wohl unter Messungenauigkeit. Dann eher wie sich das Temperatur-, Lautstärke, und Stromtechnisch auswirkt und ob sich das lohnt.
gbm31
2018-05-08, 17:09:59
Wenn du Shift gedrückt hältst, dann verschiebst du die komplette Kurve nach oben.
Wenn du Strg gedrückt hältst, dann änderst du die Kurve vong der Steiligkeit halber.
Das hat mir immer ein wenig geholfen beim Curve Editor. :D
Du hast recht- ich denke wieder zu kompliziert. (Die Tastenkürzel kenne ich...)
Ich werde die Defaultkurve am 0.993V-Punkt packen und mit Shift auf die 1950 heben, und danach die höheren Spannungen im Takt absenken.
Im Endeffekt ist das das gleiche wie beim ersten Versuch, als ich die per Offset gesetzte Kurve editiert hab, aber da gabs die beschriebenen komischen Effekte.
Naja, vielleicht macht auch hier die Übung den Meister...
gbm31
2018-05-08, 22:32:54
Also:
gbm31
2018-05-08, 22:33:50
Und:
gbm31
2018-05-08, 22:39:03
Mit 0.9V und 1835MHz statt 0.993V und 1911MHz verliere ich (wie vorhergesagt) 2 FPS, habe aber nur 77% TDP statt 97%, 68° statt 74°, und 2530 rpm statt 2974, was deutlich leiser ist.
So lass ichs, wenn es weiterhin stabil läuft.
gbm31
2018-05-08, 23:03:57
Hab die Kurve noch bissle hochgezogen, so daß warm 1860MHz bei 0,900V anliegen.
Die höheren Temps kommen daher weil ich wie blöd im Wald in Skellige rumrenne... :-D
Aber heftig dass 0,093V 31W ausmachen!
Emil_i_Lönneberga
2018-05-09, 08:34:31
Sauberes Ergebnis für deine 1070 Ti mit Referenzkühler, darauf habe ich (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11688360&postcount=5297) abgezielt:up:
Bedeutet, du bist jetzt bei 1860MHz und unverändertem Powerlimit (=100% =180W) im AB bei 80% TDP bei 144W angekommen?
Die Werte sind in W3 Skellige weiterhin stabil?
Welche Widescreen Auflösung und Grafiksettings fährst du eigentlich?
gbm31
2018-05-09, 09:09:50
Sauberes Ergebnis für deine 1070 Ti mit Referenzkühler, darauf habe ich (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11688360&postcount=5297) abgezielt:up:
Bedeutet, du bist jetzt bei 1860MHz und unverändertem Powerlimit (=100% =180W) im AB bei 80% TDP bei 144W angekommen?
Die Werte sind in W3 Skellige weiterhin stabil?
Welche Widescreen Auflösung und Grafiksettings fährst du eigentlich?
Im AB steht das Power Limit auf 120%.
Bedeutet das, daß GPU-Z auch von 120% (216W) TDP ausgeht? Oder nutzt es die Datenbank/BIOS und geht von 100% (180W) aus?
Das müsste ich testen.
Auflösung ist 2560x1080, im Witcher alles auf die höchsten Stufen, zum Testen die Begrenzung auf 60 FPS aus, Einstellungen im Treiber Default, weil frisch installiert.
Hab gestern so noch bis eins gespielt...
[Edit]
Nach dem Thread hier ist die TDP immer die ursprüngliche, die der Treiber meldet.
https://www.techpowerup.com/forums/threads/the-power-consumption-value-in-gpu-z-does-it-scale-differently-when-power-limit-is-increased.224418/
gbm31
2018-05-09, 19:15:46
So, habe es gerade getestet.
Afterburner jeweils 100%, 110%, 120% Power Limit eingestellt, GPU-Z und Afterburner selbst sind beim Heaven immer bei ca 70% Power consumption.
Also wird der Wert wohl vom 100% Wert berechnet, wenn man also das Power Limit ausreizen würde, sollten mehr als 100% Power Consumption angezeigt werden.
Setze ich im Afterburner das Limit auf 100%, hab ich trotz angeblicher ca 70% Nutzung einzelne Power Limit Ausschläge als begrenzenden Faktor...
Emil_i_Lönneberga, danke für deine Tips und Anregungen!
gbm31
2018-05-24, 11:15:24
Update:
Nachdem ich über das Bullzoid Video über die Performance-Einbrüche beim Undervolten gestolpert bin, habe ich gestern abend ein bisschen rumgetestet.
Variante 1: Curve, 1860MHz @ 0.9V
Variante 2: +160MHZ, Power Limit 80%, ergibt warm 1874-1823MHz begrenzt durch das Power Limit.
Heaven (1080p, ultra, extreme, 8x, hängt mehr am Speicher), Superposition (1080p extreme), und Firestrike zeigen keinen Unterschied mit Hang zum Nachteil für die Power Limit Variante.
Temperatur und Lüfterdrehzahlen sprechen klar für die 0.9V-Variante.
Die 0.9V sind bisher stabil, sowohl in den Rennspielen, als auch beim Witcher, wo ich vor Dettlaff noch die letzten Fragezeichen in Skellige beseitige, als auch Elex (bisher allerdings nur kurz angespielt).
Die angepasste (früher hochdrehende) Lüfterkurve konnte ich beim Umzug vom Silverstone µATX-Gehäuse auf das Dimastech Nano wieder durch die leisere original-FE-Lüfterkurve ersetzen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.