PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17

basix
2023-01-25, 22:21:47
Takt / Curve rauf, PL runter.

Ohne PL runter erreicht man nicht extrem viel und ohne höhere Curve lässt man Potential des Chips liegen.

Optional kann man noch den maximalen Chiptakt begrenzen. Ich würde das empfehlen. Bei Lovelace ist das PL mit dieser Massnahme oftmals nicht mehr so entscheidend, da der Chip die Leistungsaufnahme selbstständig begrenzt. Z.B. bei meiner 4090 mit hochgezogener Curve, max. 2.6 GHz und MemOC erreicht man meistens ~95% der Default Performance bei typ. 230...290W in 4K. Bei einigen wenigen Spielen wie Control auch 310W. PL ist hier faktisch egal, da der Chip fast immer beim Maximaltakt und <0.9V arbeitet, ergo immer am effizientesten Arbeitspunkt, den der Chip selbständig in der Leistungsaufnahme begrenzt. Das ist eines der geilsten Eigenschaften von Lovelace ;)

ChaosTM
2023-01-25, 22:26:47
So mache ich es meistens, aber nur faul via Voltage @ max im Nachbrenner und PL down.

Alles andere ist zu viel Arbeit und bringt erfahrungsgemäß genau nix.

gbm31
2023-01-26, 10:49:45
Ich vermute folgender Sachverhalt ist die Ursache:
Mit dem Nvidia-Inspector lässt sich der Crossbar-Takt auslesen und dieser ist bei UV merklich niedriger als im Standard.
...

Das sind eben immerhin 150 Mhz weniger, was sich natürlich schon je nachdem auf die FPS auswirken könnte...


Hmm... Eigentlich steht bei beiden Screenshots das selbe Maximum.

Bei meiner Aorus ist auch der max. Crossbar-Takt niedriger.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82492&stc=1&d=1674726556

Pumpi74
2023-01-26, 12:20:43
@gbm31

das relativiert sich aber wenn man den fps-limiter benutzt.

Cubitus
2023-01-26, 13:15:09
Hmm... Eigentlich steht bei beiden Screenshots das selbe Maximum.

Bei meiner Aorus ist auch der max. Crossbar-Takt niedriger.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82492&stc=1&d=1674726556

Ist das UV oder Senkung des PL?
PL-Senkung nimmt den Crossbar-Takt mit.

Es kann sein dass jeder Hersteller so ein wenig sein eigenes Süppchen mit dem Crossbartakt kocht, deshalb ist er bei dir niedriger.

Falls du meinst bei meinem Screen der MAX-Crossbartakt höher ist, kommt es daher das ich den Inspector beim Switch auf das UV Profil nicht beendet hatte.

gbm31
2023-01-26, 13:30:40
Ist das UV oder Senkung des PL?

...

Falls du meinst bei meinem Screen der MAX-Crossbartakt höher ist, kommt es daher das ich den Inspector beim Switch auf das UV Profil nicht beendet hatte.

UV.

Okay, dann ists klar.

Gibt es konkrete Hinweise auf einen Zusammenhang zwischen Crossbar Takt und FPS?

gbm31
2023-01-26, 13:34:35
Kann es sein dass Micron 24Gbps Chips als 21Gbps Chips labelt?

Ich kann problemlos 1500,25MHz statt 1312,5MHz fahren...
Mehr hab och noch nicht getestet.

Cubitus
2023-01-26, 13:54:32
UV.

Okay, dann ists klar.

Gibt es konkrete Hinweise auf einen Zusammenhang zwischen Crossbar Takt und FPS?

Im Luxx habe ich denselben Post verfasst:
Dort hat jemand bereits mit 3D-Mark getestet, das Ergebnis fiel um bis zu 100 Punkte schlechter aus.

https://www.hardwareluxx.de/community/threads/nvidia-rtx4000-undervolting-sammler.1325830/post-29706897

Ich kam noch nicht dazu, werde aber mal am WE ein paar Games in hohen Auflösungen durch Benches jagen.
Vor allem interessieren mich Benchmarks wo viel RT-Leistung benötigt wird.

Laut meines Verständnisses ist die Crossbar schon auch mit entscheidend:
Wenn der AMA über Crossbar verbunden ist machts schon Sinn:

https://abload.de/thumb/nvidia-ada-lovelace-gh5c6n.jpg (https://abload.de/image.php?img=nvidia-ada-lovelace-gh5c6n.jpg)

Benches von eurer Seite sind natürlich herzlich willkommen :)

hq-hq
2023-01-26, 16:57:34
Kann es sein dass Micron 24Gbps Chips als 21Gbps Chips labelt?

Ich kann problemlos 1500,25MHz statt 1312,5MHz fahren...
Mehr hab och noch nicht getestet.

jupp, hab ich auch gelesen:freak: ( https://www.tomshardware.com/reviews/gigabyte-rtx-4090-gaming-oc-review/2 )

herzlichen Glückwunsch, ein bissl Glück schadet nie

Lowkey
2023-01-26, 17:19:54
Es gab doch irgendwo eine Testprozedur für den Speicher, also ab wann er Leistung verliert?

Sardaukar.nsn
2023-01-26, 17:46:21
4090 Strix im kuriosen Test aus China bei -53°C https://www.tweaktown.com/news/90147/good-news-the-intel-core-i9-13900k-and-nvidia-rtx-4090-are-ice-age-ready/index.html

Video: https://www.bilibili.com/video/BV11Y4y1d7vq/?zw

Das Video im Link ist auch mal ziemlich wild. Hier macht man sich ja immer viele Sorgen, dort wirft das Mädel einfach mal den Schnee ins Netzteil :freak:

BlacKi
2023-01-26, 21:33:15
Mit niedrigerem PL erreiche ich oft bessere Ergebnisse als mit UV.


Aber das ist nur eine 4080er.


bei mir mit der 4070ti nicht. selbst 2500 stock VC bin ich hinters komma gerechnet 0,6% langsamer als mit optimierter VC bei 2500mhz. hab aber nochmal ca 25w weniger verbrauch als stock VC. ca 6% langsamer als komplett stock aber 100w weniger verbrauch^^


also selbst wenn der crossbar takt niedriger sein sollte, großen einfluss auf die perfomance hat das nicht. man bekommt, was man einstellt.

Thunder99
2023-01-26, 22:13:38
4090 Strix im kuriosen Test aus China bei -53°C https://www.tweaktown.com/news/90147/good-news-the-intel-core-i9-13900k-and-nvidia-rtx-4090-are-ice-age-ready/index.html

Video: https://www.bilibili.com/video/BV11Y4y1d7vq/?zw

Das Video im Link ist auch mal ziemlich wild. Hier macht man sich ja immer viele Sorgen, dort wirft das Mädel einfach mal den Schnee ins Netzteil :freak:
Die hat Nerven :freak::freak::freak:

Gynoug MD
2023-01-26, 23:09:14
Habe hier seit ein paar Tagen die Strix im Lian Li Air Mini eingebaut.
Passt, aber Einbau nichts für schwache Nerven, 2mm "Luft", das stocksteife BeQuiet-Kabel musste mehrfach zärtlich gebogen werden, um das Glas-Panel einrasten zu lassen und zusätzlich, um es ohne viele Schnörkel ins NT zu befördern.
Die Karte selbst ist ein Traum und grössentechnisch schon fast eine Karikatur, aber wesentlich hochwertiger und schlichter als auf den Marketing-Bildern.

Unter 4k-Last (CP2077, Metro EE) flüsterleise, alle Temps top, ganz leises Spulenfiepen (erheblich weniger als die 3090FE), enormer Leistungszuwachs auch mit 12700KF-Bremse aka irgendeinen Bottleneck gibt's immer.
Mal gucken, zur Not wird der Wandschrank Enthoo Pro 2 (Breite!) wieder vom Dachboden geholt.

Olliver
2023-01-27, 09:47:19
Ich habe die 4090 FE jetzt zwei Tage im Betrieb, Verarbeitung wie erwartet sehr gut.
Die Lüfter heulen nicht auf, sondern sind sinnvoll geregelt.

Ich habe ein Corsair Premium Kabel dran, mit zwei Typ 4 Steckern auf PCIe 5 für 600 Watt.
Der Adapter ist dagegen eine Strafe.

Fiepsen habe ich mal bei 300+ FPS in einem Menü gehört, normal begrenze ich auf die 120 Hz des Bildschirms.

Ein seltsames Problem ist aufgetreten, die Karte blieb immer auf 2520 MHz 49 Watt und 30% Lüfter, auch bei 0% Belastung.
Treiber neu installieren brachte nichts.

Mit dem nvidiacleantool und Neuinstallation war alles gut, 210Mhz, 16 Watt, 0% Lüfter.

Passiert ist das durch das Firmware update Tool von Nvidia.

Ich habe das ganze nochmal von vorne wiederholt.
Nach dem Firmwaretool, auch wenn es sagt die Firmware ist aktuell, gehen Frequenz, Watt und Lüfter nicht mehr runter, außer mit Frühjahrsputz, reinigen und Neuinstallation, alles wieder normal.
Treiber neu installieren alleine, nützt nichts.

gbm31
2023-01-27, 10:04:25
Es gab doch irgendwo eine Testprozedur für den Speicher, also ab wann er Leistung verliert?

Geht mit jedem Bench, der auf VRAM-OC reagiert. Port Royale oder Speedway spucken ein paar 100P mehr aus damit.

Aber das macht den Kohl nicht wirklich fett, ist eher Kopfsache, nicht nur die GPU anzufassen. 24/7 reichen mir glaub ich 990mV (2790MHz) und 1438MHz VRAM.

Lowkey
2023-01-27, 15:35:57
Jup, es gibt wichtigere Probleme: der Stecker ist zu hoch für mein ITX Gehäuse.

Die Winkelstecker sind vermutlich auch unpassend. (https://store.cablemod.com/12vhpwr-angled-adapter/)

hq-hq
2023-01-27, 16:53:34
meine alte INNO3D FROSTBITE gibts wieder zu kaufen:

https://www.galaxus.de/de/s1/product/inno3d-rtx4090-ichill-frostbite-gddr6x-wk-24-gb-grafikkarte-22660875?shid=949150

Sardaukar.nsn
2023-01-27, 17:09:37
Jup, es gibt wichtigere Probleme: der Stecker ist zu hoch für mein ITX Gehäuse.

Die Winkelstecker sind vermutlich auch unpassend. (https://store.cablemod.com/12vhpwr-angled-adapter/)

Zum Thema Kabel, bei Caseking.de bekommt man jetzt die Cabelmod Adapter auch für die passenden Netzteile wie Corsair oder z.B. Seagate. https://www.caseking.de/CableMod-Pro-ModMesh-12VHPWR-Cable-Extension-Kit-weiss-ZUAD-1342.html?tplview=desktop#search:query=CableMod+12VHPWR+pci&tplview=desktop

Das Modell habe ich hier im Einsatz: https://www.caseking.de/CableMod-RT-Series-Pro-ModMesh-12VHPWR-auf-3x-PCI-e-Kabel-fuer-ASUS-Seasonic-60cm-schwarz-weiss-ZUAD-1395.html?tplview=desktop

r3ptil3
2023-01-29, 18:33:16
MSI Suprim X 4090, 3DMark TimeSpy:

1. Default (2820 Mhz):
GPU Score: 37'340

2. Powerlimit 270W:
GPU Score: 33'353 (https://www.3dmark.com/3dm/88183644?)

3. Powerlimit 270W + UV 900mV@2700 Mhz:
GPU Score: 33'515 (https://www.3dmark.com/3dm/88184128?)


Also stimmt der Hinweis einiger User schon: Man kann sich den Aufwand mit dem Curve-Editor grundsätzlich sparen. Powerlimit rein und fertig.

PS: Die Lüfter der Suprim X liefen mit dem Silent-BIOS permanent mit 860 RPM.

Orbmu2k
2023-01-29, 20:38:16
Also stimmt der Hinweis einiger User schon: Man kann sich den Aufwand mit dem Curve-Editor grundsätzlich sparen. Powerlimit rein und fertig.


Es bringt einen kleinen Vorteil mit UV aber eben sehr gering. Nur hat das nichts mit dem UV oder Curve im speziellen zu tun sondern mit OC generell. Das gleiche Problem hat man auch bei normalem OC. Es bringt nur sehr wenig Zuwachs bei Ada.

Man kann also sagen OC kann man sich sparen und das gilt ebenso für Hersteller OC und Chip Binning. Die Ada Karten skalieren so gut wie gar nicht mit OC. Also ist es auch wurscht wie gut der Chip ist weil man zwar einen hohen GPC Takt damit erreicht dieser aber kaum in zusätzliche Performance umgesetzt wird.

basix
2023-01-29, 21:32:41
Meiner Erfahrung nach kann man mit UV/Curve schon ~15% Energieeffizienz rausholen (30-50W). Basierend auf einem fixen Performance Target. Wie 3DMark darauf reagiert kann ich aber nicht sagen, ich habe mit einigen Games und UE5 Demos getestet.

aufkrawall
2023-01-29, 21:36:51
Mit 270W PT ohne Curve-UV läuft die Karte nur noch mit 2,1GHz in Portal RTX, warum macht man so einen Blödsinn...

gbm31
2023-01-29, 21:38:38
MSI Suprim X 4090, 3DMark TimeSpy:

1. Default (2820 Mhz):
GPU Score: 37'340

2. Powerlimit 270W:
GPU Score: 33'353 (https://www.3dmark.com/3dm/88183644?)

3. Powerlimit 270W + UV 900mV@2700 Mhz:
GPU Score: 33'515 (https://www.3dmark.com/3dm/88184128?)


Also stimmt der Hinweis einiger User schon: Man kann sich den Aufwand mit dem Curve-Editor grundsätzlich sparen. Powerlimit rein und fertig.



Jetzt wärs noch interessant gewesen die Taktkurven zu sehen. Mit UV kann man schnurgerade Verläufe hinbekommen.

lilgefo~
2023-01-29, 21:41:51
Von UV zu sprechen halt ich eh für Quark. Die Curve definiert bei welcher Spannung welcher Takt angliegt. Durchs Verändern der Curve so das Takt xy nicht erst bei xy Volt sondern schon vorher anliegt verschiebt man einfach nur die Kurve die Karte läuft aber sowohl vom Takt als auch von der Spannung im vorgesehenen und vom Hersteller definierten Bereich.

aufkrawall
2023-01-29, 21:47:10
Von UV zu sprechen halt ich eh für Quark. Die Curve definiert bei welcher Spannung welcher Takt angliegt. Durchs Verändern der Curve so das Takt xy nicht erst bei xy Volt sondern schon vorher anliegt verschiebt man einfach nur die Kurve die Karte läuft aber sowohl vom Takt als auch von der Spannung im vorgesehenen und vom Hersteller definierten Bereich.
Natürlich ist es UV, wenn du den Takt für den tieferen Spannungspunkt anhebst. Was muss ich hier wieder lesen? :freak:

lilgefo~
2023-01-29, 21:49:09
Natürlich ist es UV, wenn du den Takt für den tieferen Spannungspunkt anhebst. Was muss ich hier wieder lesen? :freak:

Genau wie du es schreibst. Der Spannungspunkt (und alle anderen der Curve auch) ist fix. Der Takt ist die Variable.

aufkrawall
2023-01-29, 21:52:59
Genau wie du es schreibst. Der Spannungspunkt ist fix. Der Takt ist die Variable.
Die Kerndefinition von UV ist, dass die Spannung begrenzt wird. Dann kannst du trotzdem noch den Taktverlust vermeiden. Wo soll also eine entsprechend bearbeitete Takt-/Spannungskurve kein UV sein? Nur, weil sie "kürzer" ist? Das ist doch so albern...

Maorga
2023-01-29, 22:01:47
Also ich definiere schon etwas als UV, wenn beim gleichen Takt eine geringer Spannung anliegt - was man beim AB machen kann.

aufkrawall
2023-01-29, 22:03:55
Die Definition für OC ist, dass man den den Takt bei gleicher Spannung anhebt. Und genau das passiert hier. Wie beim Regler für den Takt im AB.
Nein, das passiert nicht, wenn man alle Punkte auf der Kurve danach runterzieht. Die GPU läuft bei angehobenem Takt für den Punkt der Zielspannung mit dem gleichen Takt wie vorher (-minimales Clock Stretching). Bei dem Regler in AB geht ohne PT die Spannung gar nicht runter.

Will jetzt auch jemand erzählen, dass im Bios runtergedrehte Spannung für die CPU auch kein UV wäre? Ist nämlich im Ergebnis genau das Gleiche.
Wenn jetzt nicht der Groschen fällt, wie blöd diese Diskussion ist...

basix
2023-01-29, 22:03:57
Prinzipiell ist OC und UV das selbe, da Anhebung der Curve (selbe Spannug bei höherem Takt / tiefere Spannung bei selbem Takt). Da man bei UV den Takt und/oder das Power Limit begrenzt, wird der Takt selten oder nie höher als Default. Dann ist es sinnvoller von UV zu sprechen, da nicht mehr Leistung sondern höhere Energieeffizienz / tieferer Verbrauch das Ziel ist.

Ich nenne es also wie aufkrawall UV. Wenn höhere Performance das Ziel sind: OC.

Die Diskussion ist aber eigentlich eh müssig.

gbm31
2023-01-29, 22:04:27
Von UV zu sprechen halt ich eh für Quark. Die Curve definiert bei welcher Spannung welcher Takt angliegt. Durchs Verändern der Curve so das Takt xy nicht erst bei xy Volt sondern schon vorher anliegt verschiebt man einfach nur die Kurve...

So sieht's aus @lifego. Nicht umsonst macht das angebliche "UV" hier nichts anderes als im AB oder sonstwo den Takt zu erhöhen.
...
Es ist generell Unfug bei einer Kurve von UV zu reden nur weil man den Takt begrenzt. Die Definition für OC ist, dass man den den Takt bei gleicher Spannung anhebt. Und genau das passiert hier. Wie beim Regler für den Takt im AB.

Ihr habt den Curve Editor bzw dessen Sinn nicht ganz erfasst.

Die Kurve so wie ist verschieben kann man einfach über den Takt-Offset.

Man kann aber die Kurve ändern, für UV üblicherweise ab einer gewissen Spannung keinen höheren Takt. Das ist UV.

Und um OC gehts hier nicht (und deine Definition ist trotzdem falsch. Bsp: eine Karte die immer im Power- oder Spannungslimit hängt taktet höher wenn man die Spannung begrenzt)

r3ptil3
2023-01-29, 22:16:04
Jetzt wärs noch interessant gewesen die Taktkurven zu sehen. Mit UV kann man schnurgerade Verläufe hinbekommen.

Meinst du evtl. den Taktverlauf?

Takt-/Spannungskurve sieht so aus mit 900mV/2700 Mhz UV:
https://i.ibb.co/2vQtBJS/image.png


Mit 270W PT ohne Curve-UV läuft die Karte nur noch mit 2,1GHz in Portal RTX, warum macht man so einen Blödsinn...
Von wo kommt denn die Info?

gbm31
2023-01-29, 22:19:58
Meinst du evtl. den Taktverlauf?

Genau. Geht nur mit Screenshot direkt nach dem Bench. Oder ich bin zu blöd das nachträglich zu finden.

Speedway und Port Royale laufen mit meinen Einstellungen schnurgerade mit 2790MHz durch.

basix
2023-01-29, 22:23:16
@bardh:
Portal RTX heizt ganz schön. Da werden 270W nicht reichen, auch bei 0.9V nicht. Takt geht dann runter, da Ada ein relativ hohes unteres Spannungslimit aufweist

aufkrawall
2023-01-29, 22:24:20
Von wo kommt denn die Info?
Von eigenen Tests mit echten Spielen:
https://abload.de/thumb/nvremixbridge_2023_01wofaz.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01wofaz.jpg) https://abload.de/thumb/nvremixbridge_2023_01z5f9j.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01z5f9j.jpg)

Keine Ahnung, wofür man den 3DMurks überhaupt installiert haben sollte. So langweilig, so nichtssagend...

r3ptil3
2023-01-29, 22:49:00
Von eigenen Tests mit echten Spielen:
https://abload.de/thumb/nvremixbridge_2023_01wofaz.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01wofaz.jpg) https://abload.de/thumb/nvremixbridge_2023_01z5f9j.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01z5f9j.jpg)

Keine Ahnung, wofür man den 3DMurks überhaupt installiert haben sollte. So langweilig, so nichtssagend...

Das sieht ja eigentlich ganz gut aus.
35% weniger Verbrauch für 15% weniger Leistung.

Was soll da jetzt deiner Meinung nach "blödsinn" sein?

Ex3cut3r
2023-01-29, 22:49:34
Von eigenen Tests mit echten Spielen:
https://abload.de/thumb/nvremixbridge_2023_01wofaz.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01wofaz.jpg) https://abload.de/thumb/nvremixbridge_2023_01z5f9j.jpg (https://abload.de/image.php?img=nvremixbridge_2023_01z5f9j.jpg)

Keine Ahnung, wofür man den 3DMurks überhaupt installiert haben sollte. So langweilig, so nichtssagend...
Perfekte Bilder, so muss das sein, mit allen Infos ablesbar im RTSS OSD. (y)

Ich habe zwar keine Ada, plane aber später mit einer 4080 Ti. Danke.

Sardaukar.nsn
2023-01-29, 22:56:28
@aufkrawall: Könntest du hier bitte auch mal ein paar echte Fakten liefern?

Undervolting und ist mit dem Ada Lovelace GPUs keine vernünftige Alternative mehr. Das habe aber YouTuber wie Der8auer, oder Optimum Tech auch direkt festgestellt.

Was du da vorschlägst funktioniert nicht und ist instabil. Fixer Takt und Volt ist nicht mehr zeitgemäß. Deine Einstellung mag bei Portal RTX gerade so laufen, ein Quake 2 RTX mit Vulkan Pathtracing wird dir sofort crashen, ein OCCT sowieso. Das nächste Spiel nutzt die Tensor Cores für DLSS3, hält dann deine Custom-Curve stand? Ich bezweifele es.

Was funktioniert, ist eine harte Grenze im Powerlimit. Hier bei etwa 360 Watt. Takt und Spannung passen sich an, ohne zu crashen.

https://i.imgur.com/WAUTZdn.jpg

@aufkrwall: Da du hier so markig und belehrend auftrittst, wirst du doch sicher kein Problem haben deine UV These durch dein OCCT Stress Test zu belegen.

aufkrawall
2023-01-29, 23:02:59
Das sieht ja eigentlich ganz gut aus.
35% weniger Verbrauch für 15% weniger Leistung.

Was soll da jetzt deiner Meinung nach "blödsinn" sein?
Es läuft mit Default-PT in dem Spiel fast 20% schneller als mit der 270W PT-Einstellung. Das soll bei 2000€ nicht völlig inakzeptabel sein? Seltsame Vorstellung...
Mit ~25% Einsparung durch Curve-UV und 1-2% Leistungsverlust drehen die Lüfter mit der Standard-Kurve schon nur noch mit ~1000rpm. Tweakt man seine Karten zur realen Nutzung oder für irgendeinen Fetisch...

@Sardaukar.nsn Du bist bei mir schon länger auf Ignore. Ist ja leider keine harte Ignore-List, aber erinnert mich daran, wessen Meinung imho komplett für die Tonne ist. Fakten gibts von mir genug, von dir nur Geschwurbel (wie auch an anderen Stellen im Forum)...

BlacKi
2023-01-29, 23:14:07
Meinst du evtl. den Taktverlauf?

Takt-/Spannungskurve sieht so aus mit 900mV/2700 Mhz UV:
https://i.ibb.co/2vQtBJS/image.png


boah das ist viel takt für das bisschen voltage. da verweigern hier schon 50% der spiele den dienst.

aufkrawall
2023-01-29, 23:23:40
So mache ich das auch.
Damit passiert nichts anders, als dass die Karte mit den voreingestellten Werten der Taktkurve läuft, die immer ineffizienter sind als handoptimierte. Edit: Bzw. mit ungenauem Offset für die Gesamtkurve. Hatte Tesseract auch schon mal erklärt. Ist aber wohl einfach zu hoch für einige und dann wird zu dummem Aberglauben gegriffen. Ist keine Polemik, sondern genau das, was hier ständig passiert. Einfache Sachverhalte werden von einigen nicht kapiert, von anderen schon...

aufkrawall
2023-01-29, 23:36:15
Gabs schon vor Wochen von mir:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13212027&postcount=2852
PT + OC bringt mehr Takt in Spielen mit geringem Verbrauch und weniger in solchen mit hohem. Curve-UV ohne PT bringt durchgängig gleiche Leistung und Ersparnis in verschiedenen Anwendungen. Daran hat sich mit Lovelace gar nichts verändert. Eher sind stattdessen die Verbrauchsunterschiede zwischen unterschiedlichen Spielen mit Lovelace noch ausgepräger und damit die PT + OC-Methode noch inkonsistenter. Ganz einfaches Logik-Einmaleins für Leute mit IQ >90.

lilgefo~
2023-01-29, 23:37:58
Ihr habt den Curve Editor bzw dessen Sinn nicht ganz erfasst.

Die Kurve so wie ist verschieben kann man einfach über den Takt-Offset.


Ob man die Kurve insgesamt verschiebt oder einzelne Punkte individuell bearbeitet ist für das Argument ja egal.

Bezüglich der Handoptimierung: wird diese händisch pro Booststufe optimiert ist es natürlich am Besten man sollte aber den Nutzen zu Aufwand Ratio nicht ausser Acht lassen. Sofern ich meine Karte nicht immer unlimitiert betreibe müsste man für eine komplett händische Kurve jeden einzelnen Voltagepunkt mit der maximal stabilen Taktfrequenz für eben diesen abgleichen. Und das über alle Games. Viel Spaß damit. Bis man damit fertig ist kann man schon die 5090 vorbestellen. Daher ergibt es schlicht mehr Sinn erstmal über den Offset zu gehen und dann am (selbst gewählten) Voltagelimit (Standard 1,05V) zu experimentieren. Ob die Karte bei allen anderen Spannungspunkten dann 15 oder 30Mhz langsamer läuft als sie könnte ist ja eh egal weil wenn mehr Leistung benötigt würde würde einfach die nächste Booststufe kommen.

Ex3cut3r
2023-01-29, 23:58:21
Gabs schon vor Wochen von mir:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13212027&postcount=2852
PT + OC bringt mehr Takt in Spielen mit geringem Verbrauch und weniger in solchen mit hohem. Curve-UV ohne PT bringt durchgängig gleiche Leistung und Ersparnis in verschiedenen Anwendungen. Daran hat sich mit Lovelace gar nichts verändert. Eher sind stattdessen die Verbrauchsunterschiede zwischen unterschiedlichen Spielen mit Lovelace noch ausgepräger und damit die PT + OC-Methode noch inkonsistenter. Ganz einfaches Logik-Einmaleins für Leute mit IQ >90.

:up: Lass dich nicht unterkriegen von den Baby-Boomern hier, super Belege.

BlacKi
2023-01-30, 00:02:29
Belege bitte. Und nein, dein vorheriges Bild ist keines, da kein OC beim OC 270W und kein Nachweis der Stabilität. Ich glaube da eher Roman als einem pöbelnden Forenuser. Handoptimierung bringt bei Ada nix mehr.rein was die performance bei einigen spielen angeht magst du recht haben. sobald aber die effizienzsteigerung als ziel angestrebt wird, hast du natürlich vorteile mit +offset und voltage cap. du bekommst mehr fps pro watt. das müssen wir hoffentlich nicht diskutieren.


wenn jemand meint, uv dient rein zu leistungsteigerung, der hat UV imho generell nicht verstanden. UV war schon immer ein mittel in erster linie zur effienzsteigerung, und bei ampere dem schluckspecht war dann das powerlimit der gegner. was dann bei der effizienzsteigerung dann in mehr performance mündet, aber nur durch effizienzsteigerung.
das ist bei ada anders, weil ada fast nie ins PT läuft, erst recht nicht mit erweitertem PT.

basix
2023-01-30, 00:07:21
Belege bitte. Und nein, dein vorheriges Bild ist keines, da kein OC beim OC 270W und kein Nachweis der Stabilität. Ich glaube da eher Roman als einem pöbelnden Forenuser. Handoptimierung bringt bei Ada nix mehr.

Handoptimierung bringt immer was. Ist nur die Frage des Aufwands vs. Ertrags. Bei Ada habe ich einiges rumoptimiert und probiert. Ich habe aber ein Optimum für mich gefunden, wo man in <5min die Karte "ausgereizt" hätte: Curve rauf soweit es die Stabilität des Chips zulässt, Spannung wählen (z.B. 0.9V) und Curve oberhalb dieser Spannung flatten. Adäquates Power Limit definieren und max. Speicher OC was geht.

Und den Takt zu begrenzen hilft sehr wohl was. Dadurch vermeidet man, dass der Takt & die Spannung und somit der Verbrauch bei einigen Spielen unnötig raufgeht. Wenn das Powerlimit nämlich nicht ausgereizt wird, bleibt der Takt am Maximum (z.B. 2.6 GHz) und der Verbrauch liegt irgendwo unter dem Power Limit. Die Ada Architektur regelt hier den Verbrauch super schön aus.

Beispiel anhand meiner Karte:
- Curve, 2.6 GHz @ 0.89V (oberhalb = flat), 300W Limit
- Das sind ~300MHz OC bei 0.89V vs. Default Curve

Takt liegt hier immer bei 2.6 GHz ausser die 300W werden gerissen. Dann sinken Spannung und Takt.

Verbräuche @ 4K:
- UE5 City Demo = ~230W
- Witcher 3 Enhanced = ~270W
- Portal RTX = 300W und ~2.55 GHz

Was ist der Vorteil des ganzen?
- Chip läuft mit einer tiefen Spannung und somit immer(!) nahe des Effizienzoptimums
- Schmankerl der Ada-Architektur: Durch interne Regulierung kann der Verbrauch auch deutlich niedriger als das Powerlimit ausfallen, obwohl der maximale Takt erreicht wird
- Unnötig hohe Taktraten bei Niedriglast werden begrenzt

gbm31
2023-01-30, 00:40:18
Was du da vorschlägst funktioniert nicht und ist instabil. Fixer Takt und Volt ist nicht mehr zeitgemäß. Deine Einstellung mag bei Portal RTX gerade so laufen, ein Quake 2 RTX mit Vulkan Pathtracing wird dir sofort crashen, ein OCCT sowieso. Das nächste Spiel nutzt die Tensor Cores für DLSS3, hält dann deine Custom-Curve stand? Ich bezweifele es. ...

https://i.imgur.com/WAUTZdn.jpg



Keine Ahnung was du willst...

Curve UV Settting (PL offen):

Und der lief ne Stunde und nicht nur 1 Minute 17...

https://i.imgur.com/0abL5rF.jpeg


Ob man die Kurve insgesamt verschiebt oder einzelne Punkte individuell bearbeitet ist für das Argument ja egal.

Ist es nicht, egal wie oft du es umformulierst.

gbm31
2023-01-30, 00:44:08
*doppelpost*

Orbmu2k
2023-01-30, 01:21:10
Scheinbar reden hier alle aneinander vorbei. Natürlich ist UV nichts anderes als OC nur dass man zusätzlich noch begrenzt welcher Voltage Step maximal erreicht werden darf.

Ob man nun PT oder UV verwendet um die Leistungsaufnahme zu begrenzen macht bei Ada nur geringe Unterschiede in der tatsächlichen Performance. UV sorgt hauptsächlich für weniger Taktschwankungen.
Die FPS/Watt sind bei UV aber nur noch minimal besser als bei reinem PT.

Der große Knackpunkt bei Ada ist das Clock Offset! Egal ob direkt oder Curve, egal ob UV oder OC es zieht die Subclocks nicht mit und das hat Konsequenzen!

Am Besten man hört einfach auf den "Takt" noch als relevaten Größe für irgendwas herzunehmen nur weil es Jahrzehte so war. Sobald ein Offset im Spiel ist kann man den Takt komplett ignorieren weil sich daraus keine Performance mehr ableiten lässt.

Wenn es um UV / PT geht dann eignet sich sowieso nur FPS/Watt als relevante Größe.

EDIT:

Soweit ich das sehen kann ist das bei Ampere übrigens auch so dass die Subclocks nicht mitskalieren. Aber dort hat das weniger Impact. Vermutlich liegt es zum Teil auch einfach nur an den absoluten Taktraten mit denen hier hantiert wird. Bei Ampere lagen wir bei ~1800 MHz da ist der relative Boost von 200Mhz mehr natürlich höher als wenn man bei Ada`s ~2800Mhz noch 200Mhz draufpackt.

y33H@
2023-01-30, 01:36:01
Welche Subclocks? bin da nicht im Bilde ...

Orbmu2k
2023-01-30, 01:40:38
Welche Subclocks? bin da nicht im Bilde ...

Zumindest Crossbar, System, und Video Engine skalieren beim Clock-Offset nicht mit. Allerdings ist nicht klar ob es da noch andere unsichtbare Domains gibt die relevant sein könnten.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13154370&postcount=1775

gbm31
2023-01-30, 06:14:08
Scheinbar reden hier alle aneinander vorbei.

Moin!

Die Subclocks sind ein komplett anderes Thema.

Ein interessantes, aber darum gings vorhin nicht.

BlacKi
2023-01-30, 09:43:40
Der große Knackpunkt bei Ada ist das Clock Offset! Egal ob direkt oder Curve, egal ob UV oder OC es zieht die Subclocks nicht mit und das hat Konsequenzen!


welche konsequenzen? in performance nicht. 0,6% ist messfehler, aber keine konsequenz.


bitte konkreter werden, damit ich eure tests nachtesten kann. meine tests weisen praktische keine unterschiede auf. ich hab den internen CP2077 test genommen. welche crossbartakte anliegen interessiert mich herzlich wenig, wenn ich die effizienz nochmal um 10-15% steigern kann.

TobiWahnKenobi
2023-01-30, 10:20:41
@aufkrawall: Könntest du hier bitte auch mal ein paar echte Fakten liefern?

Undervolting und ist mit dem Ada Lovelace GPUs keine vernünftige Alternative mehr. Das habe aber YouTuber wie Der8auer, oder Optimum Tech auch direkt festgestellt.

Was du da vorschlägst funktioniert nicht und ist instabil. Fixer Takt und Volt ist nicht mehr zeitgemäß. Deine Einstellung mag bei Portal RTX gerade so laufen, ein Quake 2 RTX mit Vulkan Pathtracing wird dir sofort crashen, ein OCCT sowieso. Das nächste Spiel nutzt die Tensor Cores für DLSS3, hält dann deine Custom-Curve stand? Ich bezweifele es.

Was funktioniert, ist eine harte Grenze im Powerlimit. Hier bei etwa 360 Watt. Takt und Spannung passen sich an, ohne zu crashen.

https://i.imgur.com/WAUTZdn.jpg

@aufkrwall: Da du hier so markig und belehrend auftrittst, wirst du doch sicher kein Problem haben deine UV These durch dein OCCT Stress Test zu belegen.

curve ist für fummler, denen auch rückschläge bei der stabilität nichts ausmachen und das PL global zu reduzieren funktioniert einfach; egal was man macht.. unabhängig von workload, altes oder neues spiel, emulator, whatever..
egal ob GPU oder CPU - aktuelle modelle laufen unter jeder bedingung optimal am limit des technisch möglichen; da muss man gar nicht dran rumfingern; ausser es geht um das rumspielen mit der hardware ansicht; abseits von spielen. der benefit ist gering bis nichtig; der aufwand immens, denn es kostet zeit (=geld) und strom (=noch mehr geld). ich finde im jahr 2023.. in deutschland.. da sollte man den gamingboliden nur hochfahren, wenn man auch spielen will.. ja, ich weiss und sagte es schon - mancheiner will auch nur rumspielen.


(..)

mfg
tobi

Cubitus
2023-01-30, 10:21:57
Ob man nun PT oder UV verwendet um die Leistungsaufnahme zu begrenzen macht bei Ada nur geringe Unterschiede in der tatsächlichen Performance. UV sorgt hauptsächlich für weniger Taktschwankungen.
Die FPS/Watt sind bei UV aber nur noch minimal besser als bei reinem PT.

Der große Knackpunkt bei Ada ist das Clock Offset! Egal ob direkt oder Curve, egal ob UV oder OC es zieht die Subclocks nicht mit und das hat Konsequenzen!

Wenn es um UV / PT geht dann eignet sich sowieso nur FPS/Watt als relevante Größe.



Das habe ich auch festgestellt, mit deinem weiterhin großartigen Tool.
Mir ist die Crossbar aufgefallen, diese zieht nicht mit hoch was bei gleichem Takt und UV zu etwas schlechterer Perfomance führt.

Die Frage ist, wie groß ist das Spektrum und gibt es extreme Ausreißer.
Bei meinem Test waren es ca 2-3 FPS bei Chernobylite und 150 Punkte weniger im 3D Mark.

Hier wären die Magazine oder größere Youtuber gefragt, die Games ordentlich zu testen.

Sobald ein Offset im Spiel ist kann man den Takt komplett ignorieren weil sich daraus keine Performance mehr ableiten lässt.


Wie meinst du das mit dem Offset?
Ich merke nur wie z.b die Curve im Afterburner teilweise je nach spiel einfach so runter taktet, hat dies damit was zu tun?

@All
Wer nur das PT begrenzt hat keine Auswirkungen auf die Crossbar, bzw. Subclocks.

Orbmu2k
2023-01-30, 11:05:08
welche konsequenzen? in performance nicht. 0,6% ist messfehler, aber keine konsequenz.


bitte konkreter werden, damit ich eure tests nachtesten kann. meine tests weisen praktische keine unterschiede auf. ich hab den internen CP2077 test genommen. welche crossbartakte anliegen interessiert mich herzlich wenig, wenn ich die effizienz nochmal um 10-15% steigern kann.

siehe mein link im letzten post.

Target 2415MHz GPC Clock

2415 MHz durch Voltage Lock ohne Offset oder durch PL (Normale Subclocks) -> 93-94FPS
2415 MHz durch UV (+200 Offset, Subclocks skalieren nicht) -> 90 FPS
2220 MHz durch Voltage Lock (als Referenz für die gleichen Subclocks wie beim UV) -> 88FPS

Hier geht es erstmal nicht um die Effizienz sondern nur darum was die Subclocks für einen Impact haben. Das OC/Offset bringt also bei gleichem Takt weniger als die Hälfte an Performance Zuwachs als den gleichen Takt regulär zu haben. Normal sollte man mit +200 wieder auf die 93-94 FPS kommen, schafft aber nur 90.

Testszene, Winkel etc. in Q2RTX ist immer identisch, das Fenster wird nicht angerührt also stabile FPS.

hq-hq
2023-01-30, 11:12:09
Takten Crossbar u. Subdomains bei Karten mit z.B. 2520MHz Boost und 2640MHz Boost (ab Werk) unterschiedlich hoch?


OC auf 3000-3045MHz + 1000 RAM bringt halt so ca. 8% wenn das Powerlimit ausreicht hätte ich gesagt, ... hatte jetzt die 4090 nur ne Woche.


was ich so lesen konnte streuen die Chips ungefähr bei 0.875V von stabilen 2490 bis 2610 MHz

Wuge
2023-01-30, 11:13:24
Das ist wohl so... ich hatte direkt nach dem Eintrudeln der 4090 mal ein paar OC-Skalierungsbenchmarks gemacht. Shader-Clock skalierte mit 30-50% je nach Game, VRAM auch 30-50%. In Summe kam bestenfalls 1,08fache Performance bei 10% Core- und über 10% VRAM-OC zu Stande. Ich hab das dann auch auf den Video-Clock geschoben, der ja hart an der Spannung hängt und nicht mit skaliert.

Orbmu2k
2023-01-30, 11:25:27
Takten Crossbar u. Subdomains bei Karten mit z.B. 2520MHz Boost und 2640MHz Boost (ab Werk) unterschiedlich hoch?


OC auf 3000-3045MHz + 1000 RAM bringt halt so ca. 8% wenn das Powerlimit ausreicht hätte ich gesagt, ... hatte jetzt die 4090 nur ne Woche.


was ich so lesen konnte streuen die Chips ungefähr bei 0.875V von stabilen 2490 bis 2610 MHz

Ich vermute nicht, aber das müsste man mal vergleichen. Was man aber bei den Reviews sehen konnte ist dass sich z.B. selbst eine STRIX nur kaum von den Referenz Karten absetzen konnte.

Lowkey
2023-01-30, 11:39:53
Wenn rBAR und PCI-e 4.0 aktiv sind, dann ist die Serienstreuung bei der Leistung erstaunlich gering. Was bedeutet das für eine zukünftige 4090 TI?

BlacKi
2023-01-30, 11:44:12
siehe mein link im letzten post.

Target 2415MHz GPC Clock

2415 MHz durch Voltage Lock ohne Offset oder durch PL (Normale Subclocks) -> 93-94FPS
2415 MHz durch UV (+200 Offset, Subclocks skalieren nicht) -> 90 FPS
2220 MHz durch Voltage Lock (als Referenz für die gleichen Subclocks wie beim UV) -> 88FPS

Hier geht es erstmal nicht um die Effizienz sondern nur darum was die Subclocks für einen Impact haben. Das OC/Offset bringt also bei gleichem Takt weniger als die Hälfte an Performance Zuwachs als den gleichen Takt regulär zu haben. Normal sollte man mit +200 wieder auf die 93-94 FPS kommen, schafft aber nur 90.

Testszene, Winkel etc. in Q2RTX ist immer identisch, das Fenster wird nicht angerührt also stabile FPS.


ich hab das auch getestet und die crossbar clocks sind bei mit 150-200mhz niedriger bei uv, aber haben keinen negativen performance effekt.


RT ist an

4kWs8EtIo3s

Orbmu2k
2023-01-30, 12:19:18
ich hab das auch getestet und die crossbar clocks sind bei mit 150-200mhz niedriger bei uv, aber haben keinen negativen performance effekt.


RT ist an

https://youtu.be/4kWs8EtIo3s

Deine Testszene ist zu dynamisch (Passanten, Fahrzeuge usw.)
Die Auswirkungen sind bei 80FPS vielleicht 2 FPS, das schwankt deine Szene schon von alleine. Such dir mal eine ruhige Szene und Settings mit höheren FPS um den Unterschied besser zu sehen.

BlacKi
2023-01-30, 12:36:55
ich weiß nicht ob es 1-2 fps kostet, aber selbst wenn, hast du gesehen das hier 15% energie eingespart wird vs worst case 1-2 fps?

ich hab das mehrmals getestet und hin und her geswitched, ich sehe da keine performance unterschiede. 15% weniger verbrauch bei praktisch gleicher performance ist ein no brainer für alle die die effizienz optimieren wollen.

mit niedrigeren taktraten bei -10% performance spart man sogar die hälfte des verbrauchs ein.

der angebliche konsens das UV nichts bringt bei ada ist grundweg falsch.

ChaosTM
2023-01-30, 12:45:01
Wenn rBAR und PCI-e 4.0 aktiv sind, dann ist die Serienstreuung bei der Leistung erstaunlich gering. Was bedeutet das für eine zukünftige 4090 TI?


Das selbe wie für die 3090ti. Wird saufen wie ein Loch bei 10-15% mehr Leistung. Die Effizienz ist dann beim Teufel.

Thunder99
2023-01-30, 13:08:18
Interessant wäre noch zu wissen wie es sich mit Werks OC vs Standard verhält. Skaliert bei Werks OC die Subdomain Sachen mit oder nicht?

Cubitus
2023-01-30, 13:16:57
Interessant wäre noch zu wissen wie es sich mit Werks OC vs Standard verhält. Skaliert bei Werks OC die Subdomain Sachen mit oder nicht?

in der Regel ja.

Orbmu2k
2023-01-30, 13:24:03
ich weiß nicht ob es 1-2 fps kostet, aber selbst wenn, hast du gesehen das hier 15% energie eingespart wird vs worst case 1-2 fps?

ich hab das mehrmals getestet und hin und her geswitched, ich sehe da keine performance unterschiede. 15% weniger verbrauch bei praktisch gleicher performance ist ein no brainer für alle die die effizienz optimieren wollen.

mit niedrigeren taktraten bei -10% performance spart man sogar die hälfte des verbrauchs ein.

der angebliche konsens das UV nichts bringt bei ada ist grundweg falsch.

Es ging um meine Messung und da stand explizit dabei dass es erstmal nicht um Effizienz geht sondern den Impact der Subclocks.

Natürlich bringt UV massiv Effizienz, aber das bringt ein PT auch oder bei hohen FPS reicht sogar ein FPS Limit.

Der einzige Vorteil den man sich bei UV zusätzlich verspricht kommt von dem Clock Offset. Das würde die Effizienz normalerweise weiter steigern im Vergleich zu nur PT. Nur skaliert das Offset nicht so wie der reguläre Takt. Deswegen ist es Augenwischerei wenn man Takt XY mit UV erreicht. Es ist nicht die gleiche Performance wie Takt XY ohne UV. Ja es ist besser als UV ohne Offset. Aber eben nur ca. die Hälfte Zuwachs von dem was normal möglich wäre bei Takt XY.

r3ptil3
2023-01-30, 13:46:09
boah das ist viel takt für das bisschen voltage. da verweigern hier schon 50% der spiele den dienst.

Ist auch richtig - diente nur als grober Vergleich für UV mit gesenktem PL.
Genauso wie die 270W, zufällig gewählt (60% im MSI Afterburner).

Die MSI verhält sich praktisch identisch zur Strix.
2700 Mhz ohne PL crashte im Stresstest.

Aktuell:
2640 Mhz @ 900mV läuft soweit (Stresstest etc.)
Das ist identisch mit der Strix. Da hatte ich ein Spiel mit 99-100% GPU Auslastung über 70h fehlerfrei gezockt.

Bzgl. Taktverlauf mit 900mV @ 2640Mhz: Natürlich durchgehend 2640 Mhz.
350W waren etwa das Maximum was ich messen konnte.

gbm31
2023-01-30, 13:52:55
Default hat meine Aorus auch 2415MHz Crossbar Takt.

Jedoch überwiegt die Grafikleistung, die beim UV mit Curve trotz gesunkener Leistungsaufnahme bei mir rauskommt, der, wenn ich zum Stromsparen das PT senke.

Also ja, finde ich interessant und wüsste gerne a) die Zusammenhänge zwischen den einzelnen Clockdomains und b) wie es besser genutzt werden kann.

Direkter Vergleich, zwar nur 3DMark und Chrome läuft nebenher, aber reicht schon: default, meine Curve, PT Limit, was dem max. PT der Curve entspricht. VRAM immer auf 1438MHz OC.

default:

26375P, 450W TBP

https://i.imgur.com/LJ2su4q.jpeg

curve UV:

26367P (-8P, 99,97% vom default ,Messschwankung), 416W TBP (-34W, 92,5% vom default)

https://i.imgur.com/TVk2PaQ.jpeg

PT Limit auf 416W:

25969P (-406P, 98,5% vom default), 417W TDP (-33W, 95,7% vom default)

https://i.imgur.com/LdbsUO2.jpg

Wo ist jetzt nochmal genau der Nachteil der Curve?

hq-hq
2023-01-30, 14:40:40
Sind alle OC Tools gleichermaßen unfähig den Crossbar Takt mit hochzuziehen wenn man übertaktet? Vielleicht kann es einer ja doch :freak:

Cubitus
2023-01-30, 14:55:47
Sind alle OC Tools gleichermaßen unfähig den Crossbar Takt mit hochzuziehen wenn man übertaktet? Vielleicht kann es einer ja doch :freak:

Glaube das geht nicht, weil die SubClocks in einem geschützten Bereich liegen.
Auch andere Tools bzw. Bios-Updates usw helfen da nicht.

r3ptil3
2023-01-30, 16:14:24
Wo ist jetzt nochmal genau der Nachteil der Curve?

Bin mir nicht sicher, ob du mich meintest:
Curve an sich halte ich nicht für einen Nachteil. Ich wollte mit dem Komment #3020 lediglich bestätigen, dass das was einige früher gegen mein UV kommentiert haben, grob eigentlich zutreffend ist.

1. Option: Wenn man keine Zeit verbraten will, PL rein und absolut 0 sorgen haben bzgl. Stabilität.

2. Option Wenn man ein bisschen Aufwand nicht scheut, PL rein und zusätzlich "Core Clock" raufsetzen (150-200Mhz+). Hier muss man halt schon erstmals testen, ob das stabil ist.

3. Option: Und wenn man testen will bis man müde wird, dann kann man die maximale untere bzw. obere Grenze der Spannung und des Takts ermitteln. Ein PL ist auch hier zusätzlich durchaus zu empfehlen.
Wie Aufkrawall in seiner äusserst sympathischen Art und Weise beschrieben hat, gibt es ja gewisse Szenarien, in dem UV durchschlagen kann. Ein absolutes Muss ist es aber keinesfalls, da geht's am Schluss auch nur um ein paar Prozent, welche man sich durch einen höheren Aufwand an Zeit und Nerven erkaufen muss. Jeder wie er will.

TobiWahnKenobi
2023-01-30, 16:31:52
das blöde an option 3 ist, dass die testerei einfach nur zeit verbrät und unterm strich bestenfalls anzeigt, dass zum testzeitpunkt, einstellung xy in anwendung z stabil lief. übermorgen, wenn das neue tetris kommt und regelmäßig absemmelt, dann ist das neue spiel scheisse und nicht das manuelle verbiegen irgendwelcher einstellungen. ;) immerhin kennt "man" sich ja gut aus, weil man stundenlang auf youtube studiert und mit google verifiziert hat.


(..)

mfg
tobi

gbm31
2023-01-30, 17:06:43
... immerhin kennt "man" sich ja gut aus, weil man stundenlang auf youtube studiert und mit google verifiziert hat.


(..)

mfg
tobi


Was soll das?

aufkrawall
2023-01-30, 17:09:40
Nur muss man bei "Option 2" quasi die ganze Kurve auf Stabilität testen, bei "Option 3" ohne PT nur einen Punkt. Ist bei Bro seit dem zweiten Anlauf mittlerweile seit Monaten stabil. Ist aber auch einfacher zu überprüfen, wenn man nicht nur 3DMark-Tetris "spielt".
Mehr als einen seichten App-Crash gibts auch meist nicht, und nicht wie bei CPUs einen kompletten Reboot. Dieses Gejammer einiger hier ist schon wieder sehr bezeichnend. ;D

gbm31
2023-01-30, 17:14:01
3. Option: Und wenn man testen will bis man müde wird, dann kann man die maximale untere bzw. obere Grenze der Spannung und des Takts ermitteln.

Was ihr immer habt... Einen Nachmittag. Einfach bissle weg bleiben von der Grenze. Mein Profil von der 6900XT musste ich 2 Jahre bis zum Verkauf nicht anpassen.

mike49
2023-01-30, 17:35:09
Der einzige Vorteil den man sich bei UV zusätzlich verspricht kommt von dem Clock Offset. Das würde die Effizienz normalerweise weiter steigern im Vergleich zu nur PT. Nur skaliert das Offset nicht so wie der reguläre Takt. Deswegen ist es Augenwischerei wenn man Takt XY mit UV erreicht. Es ist nicht die gleiche Performance wie Takt XY ohne UV. Ja es ist besser als UV ohne Offset. Aber eben nur ca. die Hälfte Zuwachs von dem was normal möglich wäre bei Takt XY.

:up: Genau so schaut es aus!

Man könnte daher auch sagen, dass jede Karte über ihre individuelle VF-Curve bereits im Auslieferungszustand zum Großteil determiniert ist, da die performance-relevanten Subclocks über die Curve hard-coded verankert sind und man selbst bei vermeintlich größeren UV- bzw. OC-Erfolgen nur ca. die Hälfte des möglichen Performance-Zuwachs sieht.

Ist - wie schon gesagt - immer noch besser als gar nichts, aber auch längst nicht das was man eigentlich erwarten würde.

aufkrawall
2023-01-30, 18:04:14
Es ist nicht die gleiche Performance wie Takt XY ohne UV.
Ich sehe da mit der 4090 aber weniger Leistungsverlust als mit meiner 3060, und selbst mit Pascal ging da schon etwas Leistung flöten.
Es geht hier aber auch real eher um maximalst 5% Verlust (zumindest bis 900mV, falls das eine Rolle spielt), eher weniger. Von daher sehe auch dabei nicht den Sinn der Debatte. Ist nie spürbar, anders als die Vorteile durch UV.

Sardaukar.nsn
2023-01-30, 18:13:51
@bardh: Danke für die Aufzählung, trifft es ganz gut? Ein Punkt der mir noch wichtig ist, aber das muss ja jeder selbst wissen, sind die 3 GHz. Mit Begrenzung des PL erreiche ich in vielen Anwendung bei Teillast oder wenn ich das Framelimit erreiche oft die große Drei im Boost. Ich mags halt ;)

hq-hq
2023-01-30, 18:46:16
jetzt muss nur noch jemand mit ner STRIX OC oder SUPRIM X auf den Crossbar-Takt schauend und jemand mit ner z.B. FE, ob die ca. +120MHz Boost für sich alleine stehen oder nicht

Tesseract
2023-01-30, 20:19:39
crossbar scheint zumindest auf der FE eine eigene curve zu haben und der takt richtet sich allein danach welche spannung gerade anliegt, egal ob diese durch power limit, UV oder +clock zustande kommt. ist klar dass man mit power limit mehr cossbar clock pro core clock hat weil mit PL bei gleichem core clock die spannung höher ist. damit "gewinnt" man aber nix sondern verliert einfach nur core clock auf dem jeweiligen spannungslevel.

Orbmu2k
2023-01-30, 21:01:00
crossbar scheint zumindest auf der FE eine eigene curve zu haben und der takt richtet sich allein danach welche spannung gerade anliegt, egal ob diese durch power limit, UV oder +clock zustande kommt. ist klar dass man mit power limit mehr cossbar clock pro core clock hat weil mit PL bei gleichem core clock die spannung dann höher ist.

Ich bin im Moment allerdings noch sehr vorsichtig ob die Korrelation mit der Crossbar Clock auch tatsächlich Kausalität ist. Tatsache ist aber dass irgendwas in dem Voltage Step hängt was beim Offset nicht mitzieht und daher Leistung liegen bleibt. Was mich aber wundert ist dass zumindest die Subclocks sich bei Ampere exakt identisch verhalten aber zumindest aus der Errinnerung die Leistung besser mit dem Offset skaliert hat.

Mit negativen Offset ist das Verhalten auch nachvollziehbar.

FPS @ CORE / XBAR
81-83 @ 1965 / 1950
85-87 @ 1965 / 2160
85-86 @ 2175 / 1950

hq-hq
2023-01-30, 21:29:22
Dann könnte sich der Crossbar Takt erhöhen wenn man anstelle 1.05V bis 1.093v erlaubt :freak:

gbm31
2023-01-31, 12:57:09
Also wenn ich stumpf z.B. +145MHz auf die GPU gebe (und das PL auf 500W aufmache) bleibt der Crossbartakt auf 2415MHz.

Scheint wirklich an der Spannung zu hängen.

r3ptil3
2023-01-31, 20:13:27
Kann das jemand mit seiner 4090 gegenprüfen?

Der IDLE Verbrauch ist der MSI leider etwas höher, aber dass der Verbrauch nach Nutzung der Netflix-App konstant ca. 10W höher bleibt, scheint merkwürdig zu sein.


Zustand nachdem das System gestartet wurde im Leerlauf (27-28W durchgehend):
https://i.ibb.co/0YyhSVR/1.png


Nachdem für mind. 20 Sekunden Netflix lief und vollständig beendet wurde:
https://i.ibb.co/xYkNx4K/2.jpg

Der Verbrauch geht dann nicht mehr unter 37W im IDLE.

ChaosTM
2023-01-31, 20:24:52
Ich krieg die 4090er erst morgen oder übermorgen, aber die 80er braucht selbst unter 2160p Video Load und 3 Monitoren kaum mehr als dein System unter Idle. Sollte irgendwo bei 8-10 Watt liegen.

Lauft da vielleicht ein Video oder eine Add-Verseuchte Seite im Hintergrund ?

r3ptil3
2023-01-31, 20:27:52
Ich krieg die 4090er erst morgen oder übermorgen, aber die 80er braucht selbst unter 2160p Video Load und 3 Monitoren kaum mehr als dein System unter Idle. Sollte irgendwo bei 8-10 Watt liegen.

Lauft da vielleicht ein Video oder eine Add-Verseuchte Seite im Hintergrund ?

Nein, das System ist komplett frisch installiert ohne eine Add-verseuchte Seite.
Der IDLE Verbrauch ist "normal".
Aber nochmals: Mir geht's nicht um den IDLE Verbrauch an sich, sondern um die Differenz nach dem die Netflix-App mal für ca. 20 Sek. lief.

Thunder99
2023-01-31, 21:41:40
Werte ergeben keinen Sinn
Wo es weniger verbraucht wird mehr von den % der TDP angegeben als umgekehrt.

ChaosTM
2023-01-31, 21:51:24
Nein, das System ist komplett frisch installiert ohne eine Add-verseuchte Seite.
Der IDLE Verbrauch ist "normal".
Aber nochmals: Mir geht's nicht um den IDLE Verbrauch an sich, sondern um die Differenz nach dem die Netflix-App mal für ca. 20 Sek. lief.


Netflix kostet bei mir je nach Auflösung 10-15% GPU Leistung und für ~15 sec nachher liegen noch 15-30% an. Netflix versucht danach nach Hause zu telefonieren, was ich aber unterbinde.

hq-hq
2023-01-31, 23:10:43
die 4090 Frostbite lag dank Ref.PCB nach GPUz bei 11-13Watt Idle

bei der 3090 hat der Treiber ab und zu mal gesponnen und der Idle Verbrauch ist auch höher geblieben

TobiWahnKenobi
2023-01-31, 23:37:46
hier bei mir ist es deutlich stromsparender wenn ich den rechner ausschalte bevor ich netflixe.


(..)

mfg
tobi

Angiesan
2023-02-01, 00:06:28
Nach ein paar Jahren Abstinenz und selbst gewünschter Löschung meines Accounts möchte ich zu dem Thema hier doch gerne etwas beitragen, also hallo again 3DC :smile:

crossbar scheint zumindest auf der FE eine eigene curve zu haben und der takt richtet sich allein danach welche spannung gerade anliegt, egal ob diese durch power limit, UV oder +clock zustande kommt. ist klar dass man mit power limit mehr cossbar clock pro core clock hat weil mit PL bei gleichem core clock die spannung höher ist. damit "gewinnt" man aber nix sondern verliert einfach nur core clock auf dem jeweiligen spannungslevel.

Das ist so nicht ganz richtig, es stimmt, das der Takt der Crossbar unmittelbar mit der Spannung zusammenhängt die uns aktuelle Tools als Corespannung anzeigen. Man kann den Takt der Crossbar aber nur hochhalten indem man eben nicht diese verändert und das wäre nur möglich indem man einfach untertaktet, dann hätte man aber und das ist richtig, nichts bzw. nur wenig gewonnen was die Effizienz betrifft aber je nachdem wie weit man runter geht eben auch verloren was die FPS angeht.

Ich bin im Moment allerdings noch sehr vorsichtig ob die Korrelation mit der Crossbar Clock auch tatsächlich Kausalität ist. Tatsache ist aber dass irgendwas in dem Voltage Step hängt was beim Offset nicht mitzieht und daher Leistung liegen bleibt. Was mich aber wundert ist dass zumindest die Subclocks sich bei Ampere exakt identisch verhalten aber zumindest aus der Errinnerung die Leistung besser mit dem Offset skaliert hat.

Mit negativen Offset ist das Verhalten auch nachvollziehbar.

FPS @ CORE / XBAR
81-83 @ 1965 / 1950
85-87 @ 1965 / 2160
85-86 @ 2175 / 1950

Ja das was Du da festgestellt hast wird schon seit längerem in einer Redaktion einer HW-Seite diskutiert und ich denke da kommt zeitig ein Review drüber mit mehr Tests die das ganze versuchen zu beleuchten.

Dann könnte sich der Crossbar Takt erhöhen wenn man anstelle 1.05V bis 1.093v erlaubt :freak:

Ja mein alter Freund, dass passiert tatsächlich, wenn man ein Modell hat das eine entsprechendes Spannungsoffset zulässt, steigt auch der Takt der Crossbar wie im Übrigen auch der Coretakt, deshalb muss man auch vorsichtig sein wenn man mal gucken will, was kann die Karte bzw. der Chip so und man z.B. ausgelotet hat das 200 MHz mit der Standardspannung noch durchlaufen kann das eben mit +0,05 Volt und dann ca. +60 MHz mehr allein durch die Erhöhung der Spannung schon nicht mehr der Fall sein. :redface:

Hat jetzt mit dem angesprochenem Thema wenig zu tun aber, das mit dem ersten Anlauf deiner 4090 nicht richtig gut gelaufen ist tut mir leid, hoffe Du hast bald so ein Ding funktionierend in deinem System, denn es ist einfach klasse:biggrin:

Also wenn ich stumpf z.B. +145MHz auf die GPU gebe (und das PL auf 500W aufmache) bleibt der Crossbartakt auf 2415MHz.

Scheint wirklich an der Spannung zu hängen.
Siehe oben.

Jetzt aber mal um das etwas verständlicher zu machen:

Es scheint aktuell so zu sein das die Crossbar alleine an der Spannung des Chips hängt. Der minimale Takt dieser, was zumindest meines Wissens nach aktuell alleine das großartige Tool von Orbmu2k auslesen kann, beträgt 1290 MHz.
Weiter scheint die "normale" maximale Taktrate bei 2400 MHz zu liegen, 2415 bei einigen OC Modellen. Der Takt der Crossbar wird also maßgeblich von dem Bios beeinflusst welches auf der Karte aufgespielt ist, eine 4090 FE erreicht ihren maximalen Takt der Crossbar also i.d.R. schon bei 2715-2745 MHz auf dem Core weil da eben dann die 1,05V Spannung anliegen.
Eine MSI 4090 Suprim x erreicht Ihre 2415 MHz auf der Crossbar erst bei 2805-2850 MHz je nach Güte des Chips, soweit so gut.

Wenn man jetzt aber das Thema UV anschaut sieht man, das auf einmal das vermeintlich schnellere Model, die MSI in diesem Fall auf einmal ein Nachteil hat. Das ergibt sich aus dem erweiterten Bereich durch die Werksübertaktung und beträgt in meinem Beispiel mal schlappe 100+ MHz, das Problem haben im Übrigen natürlich alle Werks OC Modelle. Was bedeutet dies in Zahlen? Während die 4090 FE bei einem UV Profil das z.B. bei 0,90 Volt kappt auf der Crossbar in etwa 22xx hat, hat die MSI bei gleichem Takt auf der GPU nur noch 21xx auf der Crossbar, hört sich nicht nach viel an, kann aber ganz schön viel ausmachen :freak:

Die Tests die ich anfangs erwähnt hatte, haben nach ersten Auswertungen gezeigt, dass eine starke Lastverteilung also Rasterization und RT Leistung vermutlich doch nicht unerheblich an der Crossbar hängen. In dem Fall wurde mit 2850 MHz auf den Cores getestet einmal mit UV auf 0,965 Volt und einmal mit 1,05V beide Tests mit 2850 MHz auf der GPU, was der maximale Standard-Boost-Takt der verwendeten RTX 4090 Suprim x darstellt.

In einigen Lastszenarien konnte man da mal locker bis zu 15% FPS Schwund feststellen was die "geringen" Unterschiede in der Taktung der Crossbar zuerst mal überhaupt nicht vermuten lassen aber z.B. bei Cyberpunk und vor allem bei Dying Light2 am Tag gemessen wurden. Es scheint auch noch andere Spiel zu geben die auf UV negativ reagieren, aber schwächer. Eine Vielzahl von Spielen zeigt überhaupt keine merklich oder unter Messungenauigkeiten fallende Veränderung auf.
Bei Cyberpunk muss man im Übrigen mit DLSS testen damit man da was feststellen kann, dafür muss aber auf der anderen Seite selbst ein 13900K schon anständig übertaktet sein um mit DLSS nicht in ein CPU Limit zu laufen, es ließ sich nicht vollständig ausschließen, dass die ermittelten Abweichungswerte nicht noch von einem CPU Limit geschönt sind. Die Vermutung bei Cyberpunk ist, dass die RT Cores in nativer Auflösung der limitierende Faktor sind und einfach keine höheren FPS erzielt werden können. Stand jetzt, wenn ich richtig informiert bin, kann der festgestellte Unterschied nicht alleine dem Takt der Crossbar zugeschrieben werden, es steht im Raum ob es da nicht noch andere Taktdomänen gibt die hier ebenso mit reinspielen können, diese Frage hat ja auch schon Obmu2k sich gestellt.

Das Ganze ist offensichtlich nicht so einfach zu greifen und ich persönlich stelle mir die Frage ob ggf. bei UV auch die RT Cores und Tensorcors einen Taktschwund erfahren, das würde zumindest schon mal in einen Erklärungsversuch für den recht hohen Impakt von 15% enden.

Ehe jetzt jemand weiter fragt, genau Testszenen oder Daten über das weitere Setup des verwendeten Systems liegen mir nicht vor und ich kann somit nichts darüber sagen. Ich finde aber wir können ja mal anfangen selbst zu testen :tongue:

ChaosTM
2023-02-01, 00:10:34
@Angiesan

herzlich willkommen
Ich hab deine Textwand gelesen und .. Jesus Christ ;)

ich mag dich jetzt schon !

Angiesan
2023-02-01, 00:22:37
:biggrin:

BlacKi
2023-02-01, 00:47:54
Das Ganze ist offensichtlich nicht so einfach zu greifen und ich persönlich stelle mir die Frage ob ggf. bei UV auch die RT Cores und Tensorcors einen Taktschwund erfahren, das würde zumindest schon mal in einen Erklärungsversuch für den recht hohen Impakt von 15% enden.


ich wäre dafür, das wir eine liste machen wo die effekte besonders stark zu sehen sind. ich hab in CP2077 mit Rt und dlss (ingame+integ.benchmark) ohne nennenswerte unterschiede getestet.

Orbmu2k
2023-02-01, 03:20:59
Der Takt der Crossbar wird also maßgeblich von dem Bios beeinflusst welches auf der Karte aufgespielt ist, eine 4090 FE erreicht ihren maximalen Takt der Crossbar also i.d.R. schon bei 2715-2745 MHz auf dem Core weil da eben dann die 1,05V Spannung anliegen.
Eine MSI 4090 Suprim x erreicht Ihre 2415 MHz auf der Crossbar erst bei 2805-2850 MHz je nach Güte des Chips, soweit so gut.

Wenn man jetzt aber das Thema UV anschaut sieht man, das auf einmal das vermeintlich schnellere Model, die MSI in diesem Fall auf einmal ein Nachteil hat. Das ergibt sich aus dem erweiterten Bereich durch die Werksübertaktung und beträgt in meinem Beispiel mal schlappe 100+ MHz, das Problem haben im Übrigen natürlich alle Werks OC Modelle. Was bedeutet dies in Zahlen? Während die 4090 FE bei einem UV Profil das z.B. bei 0,90 Volt kappt auf der Crossbar in etwa 22xx hat, hat die MSI bei gleichem Takt auf der GPU nur noch 21xx auf der Crossbar, hört sich nicht nach viel an, kann aber ganz schön viel ausmachen :freak:


Das ist ein wichtiger Aspekt! Zumindest hat man aber die Möglichkeit das zu umgehen indem man das BIOS der jeweiligen Basiskarte flasht.

Stand jetzt, wenn ich richtig informiert bin, kann der festgestellte Unterschied nicht alleine dem Takt der Crossbar zugeschrieben werden, es steht im Raum ob es da nicht noch andere Taktdomänen gibt die hier ebenso mit reinspielen können, diese Frage hat ja auch schon Obmu2k sich gestellt.

Das Ganze ist offensichtlich nicht so einfach zu greifen und ich persönlich stelle mir die Frage ob ggf. bei UV auch die RT Cores und Tensorcors einen Taktschwund erfahren, das würde zumindest schon mal in einen Erklärungsversuch für den recht hohen Impakt von 15% enden.


Die anderen Taktdomains zeigt der Inspector auch an.
Siehe Screenshots
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13154370&postcount=1775

Dennoch muss da noch was anderes sein, da das Taktverhalten bei Ampere identisch ist und scheinbar nicht den gleichen Impact hat.

Angiesan
2023-02-01, 08:27:19
Das ist ein wichtiger Aspekt! Zumindest hat man aber die Möglichkeit das zu umgehen indem man das BIOS der jeweiligen Basiskarte flasht.



Die anderen Taktdomains zeigt der Inspector auch an.
Siehe Screenshots
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13154370&postcount=1775

Dennoch muss da noch was anderes sein, da das Taktverhalten bei Ampere identisch ist und scheinbar nicht den gleichen Impact hat.
Ich habe mich mit dem Thema nicht so stark beschäftigt und weiß auch nicht wirklich wie die GPU aufgebaut ist. Vielleicht hat AD 102 einfach mehr von Vielem aber nicht Allem und braucht dann den Takt, weil es sonst durchschlägt. Ich selbst bin darauf gekommen weil Cubi (ist auch hier aktiv) und ich im RL befreundet sind und wir bis auf das Model der 4090 sehr vergleichbare Systeme haben. Ich habe aber mit weniger Takt auf der GPU deutlich bessere Ergebnisse beim Testen. Wenn wir das oc der CPU angleichen geht seine MSI bis auf 3150 MHZ meine KFA macht bei 3030 ca. zu trotzdem habe ich mehr Pünktchen 😛 das nervt ihn und verwundert mich. Selbst wenn wir den Takt abgleichen und das selbe OC fahren klappt das nicht.
Ich hatte das MSI Bios in Verdacht, das ist es aber nicht im Gegenteil damit habe ich bei der von uns verwendeten HW im Januar die im 3D Mark in 2 Tests für die GPU Platz 1 erreicht und in einem Platz 2.
Und bezüglich Bios flashen damit das Problem der niedrigen Crossbar behoben ist, das geht nicht, das schein in einem Teil des Bios festgeschrieben zu sein der nicht veränderbar ist mit dem aktuellen NVFlash. Der Crossbartakt bei mir und ihm ist beim UV trotz gleichem Bios deutlich unterschiedlich.

Orbmu2k
2023-02-01, 09:47:18
Ich hatte das MSI Bios in Verdacht, das ist es aber nicht im Gegenteil damit habe ich bei der von uns verwendeten HW im Januar die im 3D Mark in 2 Tests für die GPU Platz 1 erreicht und in einem Platz 2.
Und bezüglich Bios flashen damit das Problem der niedrigen Crossbar behoben ist, das geht nicht, das schein in einem Teil des Bios festgeschrieben zu sein der nicht veränderbar ist mit dem aktuellen NVFlash. Der Crossbartakt bei mir und ihm ist beim UV trotz gleichem Bios deutlich unterschiedlich.

Ich hatte jetzt vermutet dass im Herstellerbios ebenfalls nur ein GPC Offset erfolgt mit allen Konsequenzen. Das liesse sich definitv durch ein BIOS Flash beheben, aber wenn es dennoch nicht funktioniert liegt es nicht am BIOS sondern eher an der chipspezifischen VID. Ist auf jedenfall ein spannender Punkt dass man mit einer niedrigeren VID dann sogar Performace Nachteile bekommt obwohl es der bessere Chip ist. Wenn beide ohne Factory OC wären, hätte der schlechtere Chip dann eine höhrere Voltage und höhere Subclocks also mehr Performance.

ChaosTM
2023-02-01, 10:11:00
Meine Inno 3D OC* 4090er ist gerade angekommen.

Leider bin ich 120KM von meinem Hauptrechner entfernt.

*OC ist ein besserer Witz - die Karte hat nur 3x 8 Pin Connections und erlaubt daher maximal 450 Watt, aber dafür frisst das Ding nur 3 Slots

aber ich wollte nie übertakten

Lowkey
2023-02-01, 10:57:15
Welche Inno3D genau ist das? Ich brauch noch eine Referenz für das Gästeklo eines Freundes und 3x8Pin geht nicht.

ChaosTM
2023-02-01, 11:03:20
Wurde bewusst gewählt - wegen "nur" 3 Slots .
OC ist bei der 90er sowieso sinnfrei

Das Ding heißt INNO3D OC , obwohl OC gar nicht geht :D

Radeonfreak
2023-02-01, 11:29:34
Sicher wegen Werks OC von 10 MHZ.

ChaosTM
2023-02-01, 11:35:12
eher 5 ;)

egal, es ist eine 90er

add.: und 1300mhz+ beim Speicher geht immer

Lowkey
2023-02-01, 12:03:12
Was ich nicht verstehe: vom Netzteil ausgehend sind es 3x oder 4x 8Pin. Und die Herstellerkabel nehmen für 600w dann nur 2x 8Pin Anschlüsse auf Seiten des Netzteils wie:

https://www.alternate.de/Seasonic/12VHPWR-PCIe-Adapter-Kabel/html/product/1883315?zanpid=11731_1671034399_d41336b8ab8d213bc21eb52bae12b965


Wie laufen da auf einmal 2x300w über so ein Kabel, was laut Anschlüssen ja nur für 2x150w gedacht ist?

BlacKi
2023-02-01, 12:12:25
die pins netzteilseitig sind anders und sind dafür ausgelegt.

The_Invisible
2023-02-01, 12:25:58
Meine Inno 3D OC* 4090er ist gerade angekommen.

Leider bin ich 120KM von meinem Hauptrechner entfernt.

*OC ist ein besserer Witz - die Karte hat nur 3x 8 Pin Connections und erlaubt daher maximal 450 Watt, aber dafür frisst das Ding nur 3 Slots

aber ich wollte nie übertakten

Kannst dann was schreiben zwecks Lautstärke/Lüfter und Fiepen? 3 Slot wäre nice und wenns in diesen Punkten besser als die FE wäre noch besser.

Thunder99
2023-02-01, 12:55:40
Willkommen zurück Angiesan :)

Spannende Analyse und Diskussion! Eventuell bekommt man von Nvidia eine Aussage, nach offizieller Anfrage, wie es bei Ada nun zusammenhängt und was sich alles geändert hat.

3x 8PIN ist für 450W, 4x für 600W. So hat es Nvidia verdrahtet auch wenn weniger 8Pin langen würde.

Langlay
2023-02-01, 14:13:23
die pins netzteilseitig sind anders und sind dafür ausgelegt.

Es gibt für beide Seiten normale und high current Terminals. Das sind halt ganz normale Molex Teile. Die normalen können mit AWG18 Kabeln 7A pro Pin, die high current können imo 8,5A pro Pin, ebenfalls mit AWG18.


Das ist die Spec von den normalen Terminals :
https://i.imgur.com/mPZ5zyQ.png

Wen das wirklich interressiert -> https://www.molex.com/pdm_docs/ps/PS-45558-001-001.pdf da sollte man fündig werden.


Die PCI-E Spec für die Stecker ist halt Kindergeburtstag mit 4.2A pro Pin.

hq-hq
2023-02-01, 14:41:48
INNO3D verwendet das Ref. PCB unverändert von NVidia und bestückt 14 von 24 möglichen Phasen (770WattAmpere von max 1320WattAmpere [max knapp 850Watt von etwa 1450Watt bei bis zu 1.1V]), damit erklärt sich das max Powerlimit von 450 Watt zumindest im Vergleich zu den anderen Karten, NVidia hat strenge Vorgaben bei der Versorgung. Nach meinem Empfinden war die Frostbite bzgl. Spulen die leiseste Karte seit gaaaanz lang :freak:

Boost FE 2520MHz, INNO3D hat 2550MHz und 2580MHz im Angebot, letztere Karten boosten bis 2835MHz und sollten sich bei 2775MHz einpendeln bei 1.05V

Edit: und sie haben ganz offenbar eine Reparatur- und Servicewerkstatt in Holland, da mir zuletzt angeboten wurde die Karte dorthin einzusenden

gbm31
2023-02-01, 16:29:16
Da mir die Gigabyte Anti Sag Lösung nicht wirklich gefällt, hab ich mir was eigenes ausgedacht und gedruckt.

Angiesan
2023-02-01, 19:29:12
Ich hatte jetzt vermutet dass im Herstellerbios ebenfalls nur ein GPC Offset erfolgt mit allen Konsequenzen. Das liesse sich definitv durch ein BIOS Flash beheben, aber wenn es dennoch nicht funktioniert liegt es nicht am BIOS sondern eher an der chipspezifischen VID. Ist auf jedenfall ein spannender Punkt dass man mit einer niedrigeren VID dann sogar Performace Nachteile bekommt obwohl es der bessere Chip ist. Wenn beide ohne Factory OC wären, hätte der schlechtere Chip dann eine höhrere Voltage und höhere Subclocks also mehr Performance.

Woran das festgemacht ist kann ich wirklich nicht sagen, Fakt ist aber, dass meine KFA mit dem MSI Bios leicht höhere Boosttaktraten fährt wie die MSI von Cubi (alles auf Standard). Das würde meiner Meinung nach ja dagegen sprechen:confused: Auf der anderen Seite komme ich nicht mal im Ansatz an die 3150 MHz. Wenn ich großes Glück habe, läuft mal der Speedway Test mit 3060 durch das ist aber weit weg von stabil. Knapp 3000 MHz bekomme ich Game- und Portroyalstabil , meine GPU skaliert auch fast gegen 0 mit der Spannung maximal ein Offset von 35% was dann in 1,065 Volt endet bringt noch das ein oder andere HZ mehr.

@gbm31, sieht gut und sehr stabil aus :up:

-=Popeye=-
2023-02-01, 19:38:17
Die 1,1 Volt kann man doch über den Afterburner freischalten oder geht das beim Ref. Design nicht.

Angiesan
2023-02-01, 19:48:06
INNO3D verwendet das Ref. PCB unverändert von NVidia und bestückt 14 von 24 möglichen Phasen (770Watt von max 1320Watt), damit erklärt sich das max Powerlimit von 450 Watt und nach meinem Empfinden war die Frostbite bzgl. Spulen die leiseste Karte seit gaaaanz lang :freak:

Boost FE 2520MHz, INNO3D hat 2550MHz und 2580MHz im Angebot, letztere Karten boosten bis 2835MHz und sollten sich bei 2775MHz einpendeln bei 1.05V

Edit: und sie haben ganz offenbar eine Reparatur- und Servicewerkstatt in Holland, da mir zuletzt angeboten wurde die Karte dorthin einzusenden

Klugscheißmode ein, es sind 770A nicht W :-) das sollten dann bei 1,05 Volt 808 Watt sein. bei einem Stecker der Stromversorgung der auf 600 Watt ausgelegt ist mehr wie genug :biggrin: Die Stromversorgung einiger Premiummodelle ist ja eigentlich lächerlich da werden bis zu knapp 1800A ermöglicht was a) nie erreicht wird und b) der Stecker niemals liefern könnte, der hohe Stromverbrauch beim Nichtstun ist dann die Quittung 25-35Watt für ein Bild auf dem Desktop ist nicht wirklich ein guter Wert da gefallen mir die 14 Watt meiner KFA die 18 Phasen a 50A für die GPU verbaut hat wesentlich besser, deine dürfte da eher noch weniger verbrauchen. Der Boost ist im übrigen Top

Angiesan
2023-02-01, 19:53:07
Die 1,1 Volt kann man doch über den Afterburner freischalten oder geht das beim Ref. Design nicht.
Meinst Du mich? Ja das geht die KFA hat das Ref-Design nur bringt die höhere Spannung hier leider nichts mehr die Karte will einfach nicht höher takten sondern verabschiedet sich dann mit einem Absturz. Mit einem Modbios von KFA bzw. Galax kann man mit dem Xtrem Tuner im Übrigen sogar 1,20 Volt einstellen:freak: Das muss man aber überhaupt nicht ausprobieren solange da ein Powerlimit von 510 Watt hinterlegt ist:rolleyes:

hq-hq
2023-02-01, 21:11:20
Klugscheißmode ein, es sind 770A nicht W :-) das sollten dann bei 1,05 Volt 808 Watt sein. bei einem Stecker der Stromversorgung der auf 600 Watt ausgelegt ist mehr wie genug :biggrin: Die Stromversorgung einiger Premiummodelle ist ja eigentlich lächerlich da werden bis zu knapp 1800A ermöglicht was a) nie erreicht wird und b) der Stecker niemals liefern könnte, der hohe Stromverbrauch beim Nichtstun ist dann die Quittung 25-35Watt für ein Bild auf dem Desktop ist nicht wirklich ein guter Wert da gefallen mir die 14 Watt meiner KFA die 18 Phasen a 50A für die GPU verbaut hat wesentlich besser, deine dürfte da eher noch weniger verbrauchen. Der Boost ist im übrigen Top

ja stimmt, ampere nicht watt ^^ hatte die Tabelle vom Luxx noch im Kopf
angeblich sind AOZ5311NQI verbaut und die Spec spricht von 55a continous output current, Galax verbaut 18 - ah okay NCP302150 mit 50a - davon für die GPU und das Bios erlaubt 510w

vielleicht fürchtet man um die thermische Belastung unter worst case

und dann wirds eher um die Stromspitzen gehen, vermutlich alles recht konservativ bemessen

--

warum MSI das Design so aufgeblasen hat ist die Frage, Zotac hatte das frühers auch gemacht und dann ein Spar-Bios geflasht das nur einen Bruchteil freigegeben hat (und beim auszulesenden Powerlimit wurde geschummelt)... wahrscheinlich musste es einfach nochmal mehr sein als bei der FE

r3ptil3
2023-02-01, 21:39:54
Der hohe IDLE Stromverbrauch ist aber jedenfalls nicht das Resultat der überdimensionierten Stromversorgung.

Eine fast identische Strix (verglichen mit der Suprim) verbraucht im IDLE 10-12W.

Und nein die LED Beleuchtung ist es auch nicht.

Radeonfreak
2023-02-01, 21:46:53
Kommt auf die Einstellung des Monitors an. Mit 4K 144 hz hab ich auch permanent 20-25W.

r3ptil3
2023-02-01, 22:02:19
Kommt auf die Einstellung des Monitors an. Mit 4K 144 hz hab ich auch permanent 20-25W.

Gainward?

Mit der Suprim spielts keine Rolle: 1080p@60Hz bis WQHD@165Hz: 26-28W.

Angiesan
2023-02-01, 22:19:49
Der hohe IDLE Stromverbrauch ist aber jedenfalls nicht das Resultat der überdimensionierten Stromversorgung.

Eine fast identische Strix (verglichen mit der Suprim) verbraucht im IDLE 10-12W.

Und nein die LED Beleuchtung ist es auch nicht.

Nein bei meinen 14 W die auch durchaus mal auf 12W runter gehen nur um 1 Sek.später kurz auf 18W zu springen ist bei mir auch noch die LED Bude an.

Was ich so gelesen habe und da muss ich mich in diesem Fall drauf verlassen da ich die ASUS Strix noch nicht hier hatte, soll die in der Region 20 Watt +liegen.

Vielleicht hat ASUS aber auch eine Phasenabschaltung, ich weiß gar nicht ob das technisch möglich ist bei der Gpu, es würde die von Dir mitgeteilten Werte aber glaubhaft machen.

Noch eine Anmerkung, auch im Luxx sind Werte von 6 Watt für eine 4090 FE im Test genannt, das ist schlicht und einfach Quatch, das erreicht man mit keinen Energiespareinstellungen weder über Windows noch über HW sprich PCI ASPM. Da hat man entweder ein veraltete Tools zum Auslesen verwendet oder die GPU Power mit der Board Power verwechselt. :redface:

Ich lasse mich aber gerne eines Besseren belehren, 10-12 Watt Boardpower für so ein "Dickes Ding", Respekt wenn sie das hinbekommen haben.

Orbmu2k
2023-02-01, 22:49:43
Ich lasse mich aber gerne eines Besseren belehren, 10-12 Watt Boardpower für so ein "Dickes Ding", Respekt wenn sie das hinbekommen haben.

Naja so berauschend ist das alles nicht, vorallem heutzutage.

Mein "Gaming Notebook" zieht 5W für alles drum und dran aus der Steckdose im Desktop Idle (externes Display WQHD 120HZ) :D

r3ptil3
2023-02-02, 01:17:39
Die 10-12W gelten für die Strix 4090. Hatte auch irgendwo einen Screenshot von GPU-Z drin.
Die TUF liegt sogar noch 2-3W darunter.

Haben hier auch ein paar User bereits gepostet.

Ich müsste mal wieder das Strommessgerät anschliessen.
War immer schon ein Verfechter den Verbrauch mittels Software zu messen, da das nicht selten auch totaler Blödsinn war.
Darum auch mit grosser Vorsicht zu geniessen und nicht direkt als Tatsache anzunehmen (wie ich die letzten Tage).

gbm31
2023-02-02, 08:51:00
Ich hab einen Workaround gefunden um die RGB Beleuchtung der Gigabytes auszuschalten (minimiert auch den Lüfter-Hochdreh-Effekt).

- Bei Gigabyte das neuste RGB Fusion herunterladen und installieren
- Autostart in den RGB Fusion Einstellungen ausschalten
- In der Aufgabenplanung eine neue Aufgabe erstellen (am Besten an der Aufgabe von RTSS oder Afterburner orientieren, /s nicht vergessen) für "C:\Program Files (x86)\GIGABYTE\RGBFusion\RunLed.exe"

Das kleine Programm schaltet alle RGB der AORUS aus (warum weiss ich nicht, aber egal) und das Display zeigt weiterhin das was man im GCC eingestellt hatte (bei mir GPU Temp, GPU Takt, VRAM Takt im Wechsel, GCC muss auch nicht im Hintergrund laufen)

Lowkey
2023-02-02, 08:55:26
Ich muss da wohl nur den Stecker ziehen :D


Die Wasserkühlerhersteller sind nach Weihnachten die einzige Sparte, die wohl unter mangelndem Umsatz leidet. Bei EKWB gibt es Rabatte, Sales und Dauerwerbung. Aquatuning bietet nun sogar 20% Rabatt auf alle Hausprodukte. Ein Wasserblock für die 4090 mit 20% ist immer noch teuer im Vergleich zu 2017, aber annehmbar. Die angegebenen Lieferzeiten stimmen sowieso in beide Richtungen nicht. Man könnte die Karte mal auf Wasser umstellen...

gbm31
2023-02-02, 09:05:06
Wasser tu ich mir bei dieser Generation sicher nicht an, hatte ja mit der VII und dem 3900X einen custom loop, und mit der 6900XT war schon reiner Luftbetrieb möglich.

Der Aorus Kühler ist so potent daß mit 2500MHz@875mV sogar passiver Betrieb möglich ist (ca 2h TW2 RT und die Lüfter sind nicht angelaufen mit Fanstop und 70° Anlaufgrenze)

Dem 5800X3D ist es egal ob der Fuma2 oder ein Wasserkühler draufsitzt, das "Hauptproblem" ist ja der Wärmeübergang Die->HS.

Cubitus
2023-02-02, 09:10:38
Halten wir fest, zumindest bei der SuprimX wird viel Augenwischerei betrieben.


Die Karte ist zu überdimensioniert ausgelegt, kein 600 Watt Bios --> welches faktisch auch nichts bringen würde.
Hat starkes Spulenfiepen, wenn die Karte warm gespielt ist wird es leicht besser
Zeigt einen schönen hohen Takt, bei manuellem OC, ist aber nur die halbe Wahrheit -->SubClocks-Thematik
Hoher Preis
Hohe Idleverbrauch, 20-30 Watt


Einziger Pluspunkt: Die Lüfterhysterese beim Silent Bios.
Allerdings war bei meiner Karte ab bestimmten Drehzahlen eine Resonanz des Kühlköpers zu hören, musste ich selbst mit Klebeband fixen.

Würde die Karte mit dem heutigen Wissen nicht mehr kaufen und auch nicht weiterempfehlen.

SamLombardo
2023-02-02, 09:25:09
Ich hab einen Workaround gefunden um die RGB Beleuchtung der Gigabytes auszuschalten (minimiert auch den Lüfter-Hochdreh-Effekt).

- Bei Gigabyte das neuste RGB Fusion herunterladen und installieren
- Autostart in den RGB Fusion Einstellungen ausschalten
- In der Aufgabenplanung eine neue Aufgabe erstellen (am Besten an der Aufgabe von RTSS oder Afterburner orientieren, /s nicht vergessen) für "C:\Program Files (x86)\GIGABYTE\RGBFusion\RunLed.exe"

Das kleine Programm schaltet alle RGB der AORUS aus (warum weiss ich nicht, aber egal) und das Display zeigt weiterhin das was man im GCC eingestellt hatte (bei mir GPU Temp, GPU Takt, VRAM Takt im Wechsel, GCC muss auch nicht im Hintergrund laufen)

Klingt gut. Sowas brauch ich auch für die Palit. Mal gucken ob ich was finde.

gbm31
2023-02-02, 09:25:42
Halten wir fest, zumindest bei der SuprimX wird viel Augenwischerei betrieben.

Schade.

- 500W wären schon nett (dann läuft die Karte nicht/kaum ins PL mit default 1050mV), mehr muss wirklich nicht sein.
- Laut Afterburner und nvidia-smi ist meine Aorus bei ~17W idle mit 3440x1440@100Hz und Reverb G2.

Das Subclockthema betrifft ja wohl alle Adas, da kann die Suprim X nix für.

Klingt gut. Sowas brauch ich auch für die Palit. Mal gucken ob ich was finde.

Bei Palit funktioniert die Software!

Im Thundermaster das RGB-Gedöns ausschalten, unten rechts auf den Knopf Standard klicken, die Karte speichert das. Das Tool muss dann nicht laufen und die Karte ist dunkel.

SamLombardo
2023-02-02, 09:36:28
..

SamLombardo
2023-02-02, 09:38:12
Bei Palit funktioniert die Software!

Im Thundermaster das RGB-Gedöns ausschalten, unten rechts auf den Knopf Standard klicken, die Karte speichert das. Das Tool muss dann nicht laufen und die Karte ist dunkel.

Klingt ja klasse, vielen Dank. Probiere ich:)

Lowkey
2023-02-02, 09:39:29
Kann man nicht das RGB Kabel von der Grafikkarten an das Mainboard anschließen und im Mainboard Bios RGB einfach abschalten?

gbm31
2023-02-02, 09:54:53
Kann man nicht das RGB Kabel von der Grafikkarten an das Mainboard anschließen und im Mainboard Bios RGB einfach abschalten?

Kein Stecker da.

https://tpucdn.com/gpu-specs/images/b/9742-pcb-front.jpg (c) TechPowerUP


Soll alles im Gigabyte Control Center laufen, das sucht automatisch alle unterstützten (haha...) Gigabyte RGBfähigen Komponenten und steuert die.

Leider verstehen sich GCC und 4090 trotz Firmware-Update und Programm-Update nicht wirklich... Support ist angeschrieben.

SamLombardo
2023-02-02, 09:56:30
Kann man nicht das RGB Kabel von der Grafikkarten an das Mainboard anschließen und im Mainboard Bios RGB einfach abschalten?
Die RGB der Palit ist glaube ich standardmässig an. Aber stimmt, vielleicht kann man das trotzdem über das Mainboard abschalten, einen Versuch ist es wert. Die Grafikkarte ist ja mit dem MB verbunden.

r3ptil3
2023-02-02, 10:04:42
Kein Stecker da.

https://tpucdn.com/gpu-specs/images/b/9742-pcb-front.jpg (c) TechPowerUP


Soll alles im Gigabyte Control Center laufen, das sucht automatisch alle unterstützten (haha...) Gigabyte RGBfähigen Komponenten und steuert die.

Leider verstehen sich GCC und 4090 trotz Firmware-Update und Programm-Update nicht wirklich... Support ist angeschrieben.

https://www.techpowerup.com/review/gigabyte-geforce-rtx-4090-gaming-oc/images/cooler2.jpg

Kann es auf dem Bild nicht genau erkennen - der kleinste Stecker ist nicht für RGB?

Bspw. auf den MSI-Modellen kann man ohne die GPU überhaupt auszubauen, direkt die RGB-Stecker abziehen.

Edit: Gerade gesehen, der kleinste scheint eigentlich ein typischer Lüfteranschluss zu sein.

SamLombardo
2023-02-02, 10:17:30
Edit: Gerade gesehen, der kleinste scheint eigentlich ein typischer Lüfteranschluss zu sein.
Wofür ist man denn da? Die Lüfter funktionieren doch einfach mit dem Reinstecken der Grafikkarte. Ist dass irgend so ein Steuerungsding über das Mainboard?

Lowkey
2023-02-02, 10:21:45
Ich meinte die Gainward und Palit, wo das RGB Weiterleitkabel dabei ist:

https://youtu.be/ubfRiN1bk6k?t=201

SamLombardo
2023-02-02, 10:33:31
Ich meinte die Gainward und Palit, wo das RGB Weiterleitkabel dabei ist:

https://youtu.be/ubfRiN1bk6k?t=201
Stimmt, hmmm. Ich hatte dieses RGB Kabel gar nicht angeschlossen, weil mich das BlingBling im geschlossenen Gehäuse nicht interessiert. Vielleicht sollte ich mal, wenn das tatsächlich Einfluss auf die Lüfter Lautstärke hat (warum sollte es eigentlich?)...

gbm31
2023-02-02, 10:41:36
Leute, nicht alles durcheinander bringen!

Die Palit hat eine funktionierende Software, einen Speicher für die RGB-Einstellungen, und keine beleuchteten Lüfter!

Damit braucht es kein Kabel oder sonstwas, um die Beleuchtung auszuschalten, und die Beleuchtung hat auch keinen Einfluss auf die Lüfter. Sollte bei der 4090 nicht anders sein als bei der 4080, die ich hatte.


Die Gigabyte hat beleuchtete Lüfter, und sowohl Stromversorgung der Lüfter als auch der RGB laufen über einen Stecker, so daß die Beleuchtung Probleme beim Anlaufen der Lüfter machen kann. Ohne Beleuchtung drehen die nämlich im Genzbereich sauber mit ca. 700rpm los und machen nicht dieses nervige 0-1700-1400rpm Spielchen.

SamLombardo
2023-02-02, 10:45:28
Leute, nicht alles durcheinander bringen!

Die Palit hat eine funktionierende Software, einen Speicher für die RGB-Einstellungen, und keine beleuchteten Lüfter!

Damit braucht es kein Kabel oder sonstwas, um die Beleuchtung auszuschalten, und die Beleuchtung hat auch keinen Einfluss auf die Lüfter. Sollte bei der 4090 nicht anders sein als bei der 4080, die ich hatte.
Ah ok, danke. Was macht denn dann aber dieses zusätzliche kleine RGB Kabel was mit dabei liegt? Hattest du das Palit 4080 angeschlossen? Habe ich nämlich nicht. Ein Fehler? Die RGB Beleuchtung funktioniert auch ohne dieses Kabel. Da würde mich schon mal interessieren was das macht. Muss doch etwas mit der RGB Steuerung über das Mainboard zu tun haben?

Edit: Hab gerade gelesen, dass bei den RTX Palit ein RGB-Sync Kabel dabei ist, welches die RGB Beleuchtung der Karte mit anderen RGB Beleuchtungen im Gehäuse synchronisiert. Möglicherweise ist es das...(?)

gbm31
2023-02-02, 11:17:08
Edit: Hab gerade gelesen, dass bei den RTX Palit ein RGB-Sync Kabel dabei ist, welches die RGB Beleuchtung der Karte mit anderen RGB Beleuchtungen im Gehäuse synchronisiert. Möglicherweise ist es das...(?)


Genau dazu ist das da. Dann sind nämlich die Hersteller der anderen Komponenten egal. Und wenn du Glück hast, ist dann alles via OpenRGB steuerbar.

SamLombardo
2023-02-02, 11:22:09
Genau dazu ist das da. Dann sind nämlich die Hersteller der anderen Komponenten egal. Und wenn du Glück hast, ist dann alles via OpenRGB steuerbar.
Aaaah vielen Dank. Gut zu wissen, dann kann ich das draußen lassen;).

Aber wenn man Beleuchtungsfan mit entsprechenden Gehäusen ist, sicher eine gute Sache.

gbm31
2023-02-02, 11:29:35
Kirmesgedöns...

Wenn ich da an meinen Celeron 600@900 denke... Gelb/orangenes Mainboard, grüne nackte Voodoo2, beiger Chieftec ATX Tower aus Stahlblech, gefühlt 30kg schwer.

SentinelBorg
2023-02-02, 11:44:01
Kirmesgedöns...

Wenn ich da an meinen Celeron 600@900 denke... Gelb/orangenes Mainboard, grüne nackte Voodoo2, beiger Chieftec ATX Tower aus Stahlblech, gefühlt 30kg schwer.
Als jemand der noch so einen Stahltower hat, nicht nur gefühlt ;D

Ansonsten muss ich sagen bin ich mit Gaming OC sehr zufrieden. RGB ist nun dauerhaft aus, Lüfter laufen ruhig, fiept nix und die Leistung ist super. Gestern noch ein Hybrid-Optical HDMI Kabel durch die Wand gezogen plus ein langes USB-Kabel für Funk-Gedöns. So konnte ich jetzt meine Forza Horizon 5 Weeklies schön in 4K HDR @ 120 fps mit Gsync auf meinem 65" LG G1 mit dickem 5.1 Atmos Sound runterspielen. :)

Kennt da btw jemand ein Tool oder PowerShell Script für einfaches umkonfigurieren vom Windows Display Setup? Sprich den G1 aktivieren, als Primary setzen und am besten auch noch den Audio-Output wechseln.

TobiWahnKenobi
2023-02-02, 12:25:57
umschalten mit WIN+P

das audiogerät konfigurierst du einmal in jedem monitorsetup und windows schaltet dann entsprechend mit um wenn du switchst.


(..)

mfg
tobi

Angiesan
2023-02-02, 19:00:24
Die 10-12W gelten für die Strix 4090. Hatte auch irgendwo einen Screenshot von GPU-Z drin.
Die TUF liegt sogar noch 2-3W darunter.

Haben hier auch ein paar User bereits gepostet.

Ich müsste mal wieder das Strommessgerät anschliessen.
War immer schon ein Verfechter den Verbrauch mittels Software zu messen, da das nicht selten auch totaler Blödsinn war.
Darum auch mit grosser Vorsicht zu geniessen und nicht direkt als Tatsache anzunehmen (wie ich die letzten Tage).

Du ich denke wir kommen hier nicht zusammen und möchte auch in der Sache nicht weiter diskutieren, da es offensichtlich nichts bringt, auf die Schnelle mal bei CB und techpowerup nachgeguckt, könnte aber auch noch weitere nachliefern. Kurz um die schlagen alle in die gleich Kerbe und sind keinen Deut besser wie die MSI Suprim x
Bitte schön:

Angiesan
2023-02-02, 19:02:53
Naja so berauschend ist das alles nicht, vorallem heutzutage.

Mein "Gaming Notebook" zieht 5W für alles drum und dran aus der Steckdose im Desktop Idle (externes Display WQHD 120HZ) :D
Jaja zerstöre doch meine Illusion, dass ich sparsame HW verbaut habe.:freak::biggrin:

gbm31
2023-02-02, 20:03:16
Ich hab einen Workaround gefunden um die RGB Beleuchtung der Gigabytes auszuschalten (minimiert auch den Lüfter-Hochdreh-Effekt).

- Bei Gigabyte das neuste RGB Fusion herunterladen und installieren
- Autostart in den RGB Fusion Einstellungen ausschalten
- In der Aufgabenplanung eine neue Aufgabe erstellen (am Besten an der Aufgabe von RTSS oder Afterburner orientieren, /s nicht vergessen) für "C:\Program Files (x86)\GIGABYTE\RGBFusion\RunLed.exe"

Das kleine Programm schaltet alle RGB der AORUS aus (warum weiss ich nicht, aber egal) und das Display zeigt weiterhin das was man im GCC eingestellt hatte (bei mir GPU Temp, GPU Takt, VRAM Takt im Wechsel, GCC muss auch nicht im Hintergrund laufen)

Nachtrag:

Wer RGB Fusion dann nicht ständig im Hintergrund laufen lassen will, kann es mit einer neuen Aufgabe mit verzögertem Start (30s oder 1 Min) mit taskkill automatich wieder beenden. Das RGB bleibt aus bis zum nächsten Start.

Lowkey
2023-02-03, 12:17:19
Was anderes: ich hatte ja mal die Diskussion mit XYZ über die 4090, dass sie eventuell die erste Grafikkarte sei, die alles mit max Details in 4k packt. Da hieß es noch, dass Cyberpunk mit Psycho + RT zu viel sei. Mit dem DLSS Patch gibt es ein Plus von 50% und daher stellt sich nun die Frage, welches Spiel nun das Anspruchsvollste sein könnte?

Cubitus
2023-02-03, 12:57:48
Was anderes: ich hatte ja mal die Diskussion mit XYZ über die 4090, dass sie eventuell die erste Grafikkarte sei, die alles mit max Details in 4k packt. Da hieß es noch, dass Cyberpunk mit Psycho + RT zu viel sei. Mit dem DLSS Patch gibt es ein Plus von 50% und daher stellt sich nun die Frage, welches Spiel nun das Anspruchsvollste sein könnte?

Sobald FG (mit DLSS) zum Einsatz kommt, gibt es aktuell kein Spiel.
ich nutze dabei gerne DLSDR also 5K.

Aber die fördernden Spiele werden dann schon demnächst kommen, spätestens nächstes Jahr wenn die 50er Serie kommt :wink:

r3ptil3
2023-02-03, 21:20:15
Mal ein paar Infos hier, falls es jemandem hilft:

Ich kann die MSI Suprim X 4090 nicht empfehlen.

Dass die Karte knapp 40W im IDLE säuft ist schon bekannt, das Problem dabei aber ist folgendes: Wenn man den Rechner für mehr als eine Stunde nutzt, merkt man durchaus, ob eine GPU 10W oder 40W zieht, ist ja schliesslich auch Energie, welche sich dann im Gehäuse ausbreitet. Das Gehäuse wird deutlich wärmer als mit der Strix 4090 im IDLE und besonders negativ ist, dass die SSD über der Suprim 4090 aufgeheizt wird wie blöd. Locker 10K wärmer als vorher mit der Strix 4090 oder mit einer Suprim 3070.

Klingt zwar für den einen oder anderen wie ein paar kleine Kritikpunkte, aber das kann wirklich nervig werden.

Kurios:
Im MSI Forum argumentiert der Admin damit, dass man auch keinen Sportwagen kauft, wenn man sich den Treibstoff nicht leisten kann (bezüglich der Problematik mit dem hohen IDLE Verbrauch).
Oder dass es ganz normal ist, dass es im Case wärmer wird, wenn die Lüfter der Karte sich im 0db-Modus befinden.

hq-hq
2023-02-03, 22:05:52
okay nach ein paar Versuchen mit der RTX 4090 Gaming OC

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82596&stc=1&d=1675457730

Crossbar liegt bei 1.05V zwischen 2370-2415MHz; bei 1.1V zwischen 2445-2475MHz
mit der Tendenz zum niedrigsten Tak
Sieht so aus, als ob der Corssbar Takt sinkt je länger die Karte läuft, anfänglich sind 2415 und nach einiger Zeit nur noch 2370MHz, Temperatur könnte sein, verhält sich jedoch nicht ganz nachvollziehbar
Vergleich zur Frostbite hab leider nicht



irgendwie will die GPU grade nicht mit 0.875V, bei 0.880V sind es nur noch 2025MHz Crossbar Clock
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82597&stc=1&d=1675458082


Vergleich Frostbite mit Gaming OC ist - trotz halbwegs vergleichbarer GPU Temperaturen die Gaming OC nach GPUz eine Säuferkarte bei 3000MHz

Superpos 4k oder 8k, die Frostbite hatte einen guten ausreichenden Abstand zum 450Watt Powerlimit (~430Watt Verbrauch), die Gaming OC braucht 40-50Watt mehr... zumindest nach GPUz

Bei der Frostbite passen die 3GHz ganz gut das 450Watt Powerlimit, bei der Gaming OC braucht es eher 500Watt damit die GPU nicht drosselt

Bei der Frostbite gingen beim RAM ~ +1200MHz bei der Gaming OC < +850MHz

Spulenfiepen Gaming OC geht gegen Null... und der Standard Luftkühler ist erstaunlich potent wenn das Gehäuse offen bleibt :-D

Idle Frostbite ~12Watt, Gaming OC ~16Watt (nach GPUz)

Sardaukar.nsn
2023-02-03, 22:31:08
Verstehe ich nicht. Wie kann es den ein Problem sein ob eine GPU 10 oder 40 Watt verbraucht und das Gehäuse dies nicht schafft zu kühlen? Was ist denn erst los wenn du mal ne 3-4 Stunden Session Anno 1800 oder anderen Titel mit ~500 Watt Abwärme verballerst?

Eine MSI Suprim kauft man weil diese vermeintlich besser konstruiert ist als billigere *ähem* 4090er wie Inno3D usw. Also Wert legt auf komplexe PCB, viele Bauteile, aufwendiges RGB, 300 Phasen usw. natürlich schleppt man das Geraffel auch im Idle mit sich rum.

-=Popeye=-
2023-02-03, 22:40:18
Das mit dem Crossbar verstehe ich nicht, bei meiner FE und 1,1V sieht es so aus...


... mehr als die abgebildeten 2430MHz habe ich hier noch nicht gesehen.

r3ptil3
2023-02-03, 23:27:21
Verstehe ich nicht. Wie kann es den ein Problem sein ob eine GPU 10 oder 40 Watt verbraucht und das Gehäuse dies nicht schafft zu kühlen? Was ist denn erst los wenn du mal ne 3-4 Stunden Session Anno 1800 oder anderen Titel mit ~500 Watt Abwärme verballerst?

Der Punkt ist ja nicht, dass man es nicht schafft, sondern es man nicht muss im IDLE.
IDLE= Lüfter unhörbar
Unter Last ist die Kühlung nicht ansatzweise ein Problem, aber da nimmt man auch leicht hörbare Lüfter in Kauf.

Fällt halt sofort auf: Meine M.2 war ohne Suprim gerade mal bei ca. 40°, mit der Suprim über 50° nach über einer Stunde.

Eine MSI Suprim kauft man weil diese vermeintlich besser konstruiert ist als billigere *ähem* 4090er wie Inno3D usw. Also Wert legt auf komplexe PCB, viele Bauteile, aufwendiges RGB, 300 Phasen usw. natürlich schleppt man das Geraffel auch im Idle mit sich rum.

Eine Strix hat eine vergleichbaren Ausbau, trotzdem kriegt es ASUS hin vier mal weniger zu verbrauchen im IDLE. Was darin resultiert, dass es im IDLE praktisch nichts zu kühlen gibt. Die Karte bleibt lauwarm, die Suprim hingegen wird schon recht warm im IDLE. Alleine nur das physische antasten, fühlt sich einfach schlecht an, wenn die Karte fürs nichts tun so warm wird. Kommt mir vor wie zurück in die 2000er: 150W+ im IDLE.

Cubitus
2023-02-03, 23:47:37
Kurios:
Im MSI Forum argumentiert der Admin damit, dass man auch keinen Sportwagen kauft, wenn man sich den Treibstoff nicht leisten kann (bezüglich der Problematik mit dem hohen IDLE Verbrauch).
Oder dass es ganz normal ist, dass es im Case wärmer wird, wenn die Lüfter der Karte sich im 0db-Modus befinden.

Die "Anal"logie wäre dazu, ich kauf mir doch keinen Sportwagen den ich dann bis 220 kmh nur abgeriegelt fahre...Aber im Leerlauf aufgrund des Hubraums einfach zu viel säuft :freak:
Dafür ist er dazu noch unverhältnismäßig laut und fiept vor sich hin..

Die super Komponenten der SuprimX bringen nur was, wenn man sich ein 600 Watt Bios oder sogar das HOF Bios auf die Karte flasht.

r3ptil3
2023-02-03, 23:58:36
Die super Komponenten der SuprimX bringen nur was, wenn man sich ein 600 Watt Bios oder sogar das HOF Bios auf die Karte flasht.

Jap, aber zumindest der Kühler ist nicht ohne.
In meinem Fall sogar ein bisschen stärker als der der Strix.

-=Popeye=-
2023-02-04, 00:54:24
Euch ist schon klar das man eine eh schon singende Karte mit mehr Watt nicht leiser bekommt, dass Gegenteil ist der Fall, nur mal so nebenbei. ;)

Meine ASRock RX 6900 XT OCF (welche das beste RDNA2 PCB hat) hatte stock (325W) unter Wasser nur ein kaum wahrnehmbares Spulenrasseln, wenn man allerdings 600W durch die Karte jagt fängt sie an leise zu singen.

Die hier aktuell verbaute 4090 FE @ Wasser ist sogar noch leiser als die fast lautlose ASRock RX 6900 XT OCF und das soll schon was heißen.

Was ich eigentlich damit sagen will ist das sich ASUS und MSI trotz der besseren Komponenten nicht von der FE oder Ref. absetzen können.

hq-hq
2023-02-04, 08:24:56
Das mit dem Crossbar verstehe ich nicht, bei meiner FE und 1,1V sieht es so aus...


... mehr als die abgebildeten 2430MHz habe ich hier noch nicht gesehen.

ja, sieht so aus als ob der Takt nach einiger Zeit von 2475MHz Stufenweise auf 2430MHz abfällt. Wenn er mal soweit abgefallen ist geht er nur noch bis 2445MHz um dann wieder auf 2430MHz abzufallen, bei 1.1V

bei 1.05V bleibt er irgendwann auf 2370-2385MHz

es liegt eher weniger an der Temperatur und Auslastung, OC hat keinen Einfluss und die Voltage legt die Range fest in welcher sich der Takt bewegen kann...

Crossbar Clocks 4090 Gaming OC:

1.100V 2430MHz (+2)/___
1.075V 2400MHz (+2)/(-2)
1.050V 2370MHz (+2)/(-2)
1.025V 2340MHz (+3)/(-2)
1.000V 2295MHz (+3)/(-3)
0.975V 2250MHz (+4)/(-3)
0.950V 2190MHz (+3)/(-4)
0.925V 2145MHz (+4)/(-3)
0.900V 2085MHz (+4)/(-4)
0.875V 2025MHz ___/(-4)
*kurzfristig können die Taktraten um bis zu drei Taktstufen höher liegen

---

zur 4090 Gaming OC

die Karte hat etwas Spulentickern, die Frostbite ein ganz leises Pfeiffen

OC hängt bei der 4090 viel stärker am Speicher OC als ich erwartet hätte

Die GPU schafft bisher ca. 3015-3030MHz mit Raytracing und 3090MHz ohne Raytracing... mit etwas Glück könnten also knapp 3000MHz bei 1.1V drin sein - in Games 24/7 ohne Crash
selbst mit Wasser und Temps um die 45°C würde ich die nicht 24/7 so betreiben

Crossbar real 2430MHz und bis zu 2475MHz Peak möglich bei 1.1V
Stock real 2370-2385MHz und bis zu 2415MHz Peak möglich bei 1.05V

Die Gaming OC ist trotz 600Watt Powerlimit langsamer als die Frostbite weil der Speicher keine +850MHz (Frostbite ca. +1200MHz) verträgt und die Frostbite ihr 450Watt Powerlimit selten ausgereizt hat und die paar MHz über 3GHz eher nix nützen
Nachtrag: die Gaming OC braucht mit 3GHz OC etwa 30-50Watt mehr als die Frostbite bei 3GHz, ein paar Grad Temperaturvorteil hatte die Frostbite

Die Gaming OC ist ein Plastikbomber, man sieht meist eh nur die Backplate aus Metall und die ist OK
Das Lüftergeblinke ist so ziemlich der größte Schwachsinn den ich bisher erlebt hab, meinen Kindern gefällt es aber :up:
Zielgruppe wird also erreicht.

Wenn ich jetzt noch Shoop und die 20€ von Gigabyte bekomme würde sie weniger als 1720€ brutto kosten.

Wenn sie bis Sonntag überlebt werde ich wohl den Wasserblock von Alphacool bestellen mit 20% Rabatt.

EDIT:

Energieverbrauch Gaming OC vs Frostbite mit UV und gleichem Takt/Settings
Frostbite 2535@0.875V [250Watt] https://abload.de/thumb/cyberpunk2077_2023_01oqfe7.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_01oqfe7.jpg)
Gaming OC 2535@0.875V [267Watt] https://abload.de/thumb/cyberpunk2077_2023_020ado1.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_020ado1.jpg)

Cubitus
2023-02-04, 10:47:14
Was ich eigentlich damit sagen will ist das sich ASUS und MSI trotz der besseren Komponenten nicht von der FE oder Ref. absetzen können.

Japp ist komplett sinnlos.

The_Invisible
2023-02-04, 11:03:03
Japp ist komplett sinnlos.

Billigere Karten sind sogar besser da sie weniger fiepen :D

TobiWahnKenobi
2023-02-04, 11:03:50
Euch ist schon klar das man eine eh schon singende Karte mit mehr Watt nicht leiser bekommt, dass Gegenteil ist der Fall, nur mal so nebenbei. ;)

Meine ASRock RX 6900 XT OCF (welche das beste RDNA2 PCB hat) hatte stock (325W) unter Wasser nur ein kaum wahrnehmbares Spulenrasseln, wenn man allerdings 600W durch die Karte jagt fängt sie an leise zu singen.

Die hier aktuell verbaute 4090 FE @ Wasser ist sogar noch leiser als die fast lautlose ASRock RX 6900 XT OCF und das soll schon was heißen.

Was ich eigentlich damit sagen will ist das sich ASUS und MSI trotz der besseren Komponenten nicht von der FE oder Ref. absetzen können.

jupp.. ist wie bei autos.. fahren alle vorwärts und erreichen die erlaubten geschwindigkeiten von 30, 50, 70, 80 und 100 km/h. kein mensch braucht marken. but wait.. mancheiner findet tatsächlich noch andere unterscheidungs merkmale, die entscheidungen begünstigen. bei grafikkarten könnten das z.b. solche nebensächlichkeiten wie ausgänge für endgeräte sein. mir ist total wichtig, dass hinten zwei native hdmi_2.1 schnitten bereitstehen und ei-der-daus das gibts bei asus, aber nicht bei nvidia.. echt krass, dass es noch dinge abseits von verbrauch, frames und geräusch gibt.. klingt seltsam? ist aber so.



(..)

mfg
tobi

Hypadaiper
2023-02-04, 15:49:47
jupp.. ist wie bei autos.. fahren alle vorwärts und erreichen die erlaubten geschwindigkeiten von 30, 50, 70, 80 und 100 km/h. kein mensch braucht marken. but wait.. mancheiner findet tatsächlich noch andere unterscheidungs merkmale, die entscheidungen begünstigen. bei grafikkarten könnten das z.b. solche nebensächlichkeiten wie ausgänge für endgeräte sein. mir ist total wichtig, dass hinten zwei native hdmi_2.1 schnitten bereitstehen und ei-der-daus das gibts bei asus, aber nicht bei nvidia.. echt krass, dass es noch dinge abseits von verbrauch, frames und geräusch gibt.. klingt seltsam? ist aber so.



(..)

mfg
tobi
Stellt doch keiner in Frage...auch wenn es schon eine sehr merkwürdige Anforderung an die GPU ist, 2x nativ HDMI verbaut haben zu MÜSSEN.

Darf man fragen wieso?

Liest sich für mich jetzt eher als müsstest du die Karte auf Teufel komm raus irgendwie rechtfertigen

Angiesan
2023-02-04, 16:01:02
Guckst Du in seine Signatur, könntest DU einen Zusammenhang vermuten :wink:

Hypadaiper
2023-02-04, 16:47:24
Sie muss die Abmaße 348.2x150x72.6mm +-5mm haben, ansonsten taugt sie mir nicht. Versteht doch, dass man auch andere Anforderungen als Leistung und Lautstärke an eine Grafikkarte haben kann !!1elf

So genug beömmelt.
Mag mir einer mal kurz verlinken oder copypaste-Erklären was es mit den DLSS Bibliotheken auf sich hat und warum man die am besten händisch aktualisiert?
Hatte es mal hier gelesen und mir die Seite zum runterladen gespeichert..aber so gar keine Ahnung worauf ich da jetzt achten muss

lilgefo~
2023-02-04, 16:54:00
Stellt doch keiner in Frage...auch wenn es schon eine sehr merkwürdige Anforderung an die GPU ist, 2x nativ HDMI verbaut haben zu MÜSSEN.

Darf man fragen wieso?

Liest sich für mich jetzt eher als müsstest du die Karte auf Teufel komm raus irgendwie rechtfertigen

TV, AVR, VR...
gibt vieles das HDMI benutzt, kann man teils auch anders regeln oder mit DP->HDMI Konvertern regeln aber kann schon sinnvoll sein das man mehr als 1xHDMI zur Verfügung hat

SentinelBorg
2023-02-04, 17:02:10
Mag mir einer mal kurz verlinken oder copypaste-Erklären was es mit den DLSS Bibliotheken auf sich hat und warum man die am besten händisch aktualisiert?
Hatte es mal hier gelesen und mir die Seite zum runterladen gespeichert..aber so gar keine Ahnung worauf ich da jetzt achten muss
Einfach die nvngx_dlss.dll in den Game Ordnern suchen und mit der neusten austauschen. Kann manchmal Vorteile bringen, aber nicht immer.

aufkrawall
2023-02-04, 17:06:06
Fast immer. ;)

Darkearth27
2023-02-04, 18:09:17
Also bei Online Shootern würde ich es lassen (BF2042 lässt ein Austausch der DLL auch nicht zu, wird dann ausgegraut) kann nämlich sein, dass man dann als Cheater eingestuft wird (angeblich soll das bei dem einen oder anderen schon zu einem Bann geführt haben).

aufkrawall
2023-02-04, 18:10:59
Habs in Fortnite, Warzone und Diablo 2R gemacht: Wenn der Start mit der DLL erlaubt wird, passiert mit an Sicherheit grenzender Wahrscheinlichkeit nichts weiter. Dafür ist der Kram ja signiert.

Blase
2023-02-04, 18:29:01
Fast immer. ;)

Ich klinke mich mal hier ein.

Kann ich mir die aktuellste Version einfach irgendwo runter laden? Oder muss ich zufällig eines der aktuellen Spiele haben, die die Version mitbringen? Wenn letzteres - was sind denn die aktuellen Versionen und Spiele? Und dann einfach die jeweilige ältere Version in den jeweiligen Spieleordnern mit dieser ersetzen? Die DLL muss nicht wieder registriert werden (regsvr32), weil identischer Name?

MfG Blase

Hypadaiper
2023-02-04, 18:39:48
Ich klinke mich mal hier ein.

Kann ich mir die aktuellste Version einfach irgendwo runter laden? Oder muss ich zufällig eines der aktuellen Spiele haben, die die Version mitbringen? Wenn letzteres - was sind denn die aktuellen Versionen und Spiele? Und dann einfach die jeweilige ältere Version in den jeweiligen Spieleordnern mit dieser ersetzen? Die DLL muss nicht wieder registriert werden (regsvr32), weil identischer Name?

MfG Blase
Danke fürs Nachhaken....genau das hab ich mich auch gefragt

SentinelBorg
2023-02-04, 18:40:07
Ich klinke mich mal hier ein.

Kann ich mir die aktuellste Version einfach irgendwo runter laden? Oder muss ich zufällig eines der aktuellen Spiele haben, die die Version mitbringen? Wenn letzteres - was sind denn die aktuellen Versionen und Spiele? Und dann einfach die jeweilige ältere Version in den jeweiligen Spieleordnern mit dieser ersetzen? Die DLL muss nicht wieder registriert werden (regsvr32), weil identischer Name?

MfG Blase
Hier gibt es die und ja, die wird quasi immer aus Spielen gezogen (siehe Liste auf der Seite unten): https://www.techpowerup.com/download/nvidia-dlss-dll/

TobiWahnKenobi
2023-02-04, 18:55:18
TV, AVR, VR...
gibt vieles das HDMI benutzt, kann man teils auch anders regeln oder mit DP->HDMI Konvertern regeln aber kann schon sinnvoll sein das man mehr als 1xHDMI zur Verfügung hat

this! adapter machen nur graue haare. da geht auch immer irgendwas nicht. bestimmte tonformate, auflösungswechsel, mischungen aus VRR+HDR, ARC usw.. naja.. und die rift mag grundsätzlich gar keine adapter. das unproblematischste device, das ich mit dp->hdmi-stöpseln betreiben kann, ist mein projektor.


(..)

mfg
tobi

hq-hq
2023-02-04, 21:40:30
wenn jemand die Muße hat bei seiner 4090 mal zu schauen,

das sind die Crossbar Clocks der Gaming OC

Crossbar Clocks 4090 Gaming OC:

Voltage | Clockrate | Taktstufen ↑ / ↓
1.100V | 2430MHz | +2/__
1.075V | 2400MHz | +2/-2
1.050V | 2370MHz | +2/-2
1.025V | 2340MHz | +3/-2
1.000V | 2295MHz | +3/-3
0.975V | 2250MHz | +4/-3
0.950V | 2190MHz | +3/-4
0.925V | 2145MHz | +4/-3
0.900V | 2085MHz | +4/-4
0.875V | 2025MHz | __/-4

*kurzfristig können die Taktraten um bis zu drei Taktstufen höher liegen, je länger die Karte läuft, desto häufiger sehe ich die aufgeschriebenen Taktraten, ganz am Anfang lagen die z.B. bei 1.1V kurz bei 2475MHz, dann bei 2460MHz und zuletzt nur noch kurz bei 2445MHz um dann quasi forever bei 2430MHz zu liegen, jetzt scheint auch kein PC Neustart mehr zu helfen oder super niedrige Temperaturen, evtl. Bios neu flashen oder auf Silent umschalten :biggrin:
auch die Curve ist zickig, mal liegt sie plötzlich 3 Stufen höher als eingestellt, oder wird einfach um viele Stufen ignoriert... nichts was mir bei der Frostbite aufgefallen wäre, evtl. liegts am neuen Treiber

Colin MacLaren
2023-02-04, 23:00:45
Japp ist komplett sinnlos.

Sehe ich nicht so. Im Luxx dominieren klar Suprim, TUF, Strix nund FE auf den vorderen Rängen https://www.hardwareluxx.de/community/threads/offizieller-nvidia-rtx-4090-overclocking-und-modding-thread.1325294/

Linmoum
2023-02-04, 23:15:46
Wie lange geht Superposition? 5 Minuten? Paar-Minuten-Benchmark-Settings sind einfach nur albern. Ein CP2077, W3 Next-Gen, TD2 oder ähnliches laufen lassen und die ganze Tabelle da ist komplett für den Arsch. Ganz davon ab ist OC wie immer völlige Chip-Lotterie.

Aber eins stimmt, dass sich vor allem die TUF/Strix und Suprim hervorheben und absetzen: Nämlich beim Spulenrasseln. Trotz ja angeblich """besserer""" Komponenten.

aceCrasher
2023-02-04, 23:40:53
Aber eins stimmt, dass sich vor allem die TUF/Strix und Suprim hervorheben und absetzen: Nämlich beim Spulenrasseln. Trotz ja angeblich """besserer""" Komponenten.
Was die Leistungsfähigkeit angeht sind deren Wandler schon objektiv besser, dafür halt lauter. Ich weiß was von Beidem ich wähle. Ob das höhere Potential der Wandler bei einer Karte, die kaum mit mehr Power skaliert, überhaupt relevant ist, sei dahingestellt.

r3ptil3
2023-02-04, 23:42:52
Kleines Update bzgl. UV und/oder PL von meiner Seite:

PUBG WQHD, Ultra, 120% Auflösungsskalierung
Suprim 4090 + 13600KF

FPS-Lock 145 FPS + Powerlimit @ 60%, +200Mhz GPU:
https://i.ibb.co/n7Jsdk6/image.png
GPU: 230W

FPS-Lock 145 FPS + Powerlimit @ 60%, -502 GPU:
https://i.ibb.co/zrswQcW/image.png
GPU: 228W

FPS-Lock 145 FPS + Powerlimit @ 60%, UV 900mV@2625 Mhz:
https://i.ibb.co/HgQjB7h/image.png
GPU: 173W

Perfekt arbeitet der FPS-Lock im Treiber also noch nicht.
Spricht jedenfalls in dem Zustand nochmals deutlich für manuelles UV. Wäre jetzt interessant zu schauen, was der Crossbar Takt hier ausmacht.

TobiWahnKenobi
2023-02-05, 00:00:11
interessant finde ich immer, dass viele negative berichterstattung von usern verbreitet wird, die irgendwas irgendwo lesen, hören, aufschnappen, aber aus eigener erfahrung gar nicht mitreden können.

ich hatte ne 3090 strix oc und jetzt ne 4090 tuf oc.. letztere ist völlig unauffällig. erstere hat mich genervt. die habe als mininghure knechten lassen und dann im oktober letztes jahr für 1000€ verkauft. die tuf wohnt sogar erstmals in einem geschlossenen case - das war mit der strix damals undenkbar.

es geht auch gar nicht darum, was ich für mich ausgewählt habe, sondern darum dass ich so unerschöpfliche erfahrung über jahrzehnte mit mannigfaltiger hardware habe, dass ich eine leise von einer lauten karte unterscheiden kann. bei mancheinem denke ich, es ist mimimi, weil er sich mit 2000 EUR so übernommen hat, dass er das gras wachsen hört.

eine karte die quietscht und nervt würde ich gar nicht behalten.. das lautestete was ich je hatte, war eine gtx980 von zotac.. das war nicht benutzbar und ging direkt weiter.. am selben tag. von geräuschen jedweder art bin ich total weit weg.. lüfter an den radiatoren mal ausgeklammert.. die drehen mit etwas unter 1000u.. wie auch die auf der graka. wer das nicht aushält hat komische ansprüche und sollte vllt. lieber irgendwas passives kaufen. oder murmeln.. aber die machen auf harten untergründen ganz andere geräusche.

btw,
der treiber hat die möglichkeit frames zu begrenzen.. ganz global.. das wirkt notfalls immer. stellt man hintergrundfrequenz auf 60 oder 120 und das max-cap auf 200 fps, schon ist ruhe - selbst mit schrottiger hardware und damit lässt sich ganz entspannt spielen. klar, dass es ggf. anders klingt, wenn man das PL auf 600W respektive 133% aufreisst und den ganzen tag nur benchmarks anschaut. die laufen am limit und sind unsynchronisiert; so spielt doch aber heute niemand mit anständigem monitor seine spiele und grad bei der 4090 reicht ein PL von 80% völligst für alles.

https://abload.de/img/2121p7dly.jpg


(..)

mfg
tobi

Linmoum
2023-02-05, 01:33:01
interessant finde ich immer, dass viele negative berichterstattung von usern verbreitet wird, die irgendwas irgendwo lesen, hören, aufschnappen, aber aus eigener erfahrung gar nicht mitreden können.Warum muss man bei jeder Sache etwas besitzen, um "mitreden" zu können? Das Internet ist voll von Leuten, die sich bei besagten MSI/ASUS-Karten über Coilwhine auskotzen. Im deutschsprachigen Raum hat das Luxx einen entsprechend großen Sammler zu dem Thema. Auf den ersten 8 Plätzen, *Trommelwirbel*:

https://i.gyazo.com/a680d8e37de9d1ec893ec1eb0e1920b7.png

Auch bei 200fps oder 120fps ist nicht automatisch Ruhe. Ich hab das vorher selbst bei meiner 6900XT Referenz erlebt. Coilwhine verschwindet nicht per se, weil man Spannung/Leistungsaufnahme senkt oder fps begrenzt. Man reduziert das Ausmaß, ja, aber wenn das im Default-Zustand schon unerträglich und penetrant nervig ist, dann ist das nicht immer ein Allheilmittel, mit dem man unbedingt leben kann, wenn man bei seinem Sample Pech hat. Und in dieser Generation sind es auffallend häufig die genannten Karten von Asus und MSI. Was im Übrigen auch gar nicht heißt, dass jede einzelne Karte einer TUF/Strix oder Suprim da draußen betroffen ist.

myMind
2023-02-05, 09:45:08
..und jetzt ne 4090 tuf oc.. letztere ist völlig unauffällig.
Da hast Du mega Glück gehabt. Ich hatte eine TUF 4090 OC hier und die war nicht zu beruhigen. Weder mit FPS-Cap noch mit Undervolting noch sonstwie.

btw,
der treiber hat die möglichkeit frames zu begrenzen.. ganz global.. das wirkt notfalls immer.
Nope. Tut es nicht. Es wirkt manchmal.

stellt man hintergrundfrequenz auf 60 oder 120 und das max-cap auf 200 fps, schon ist ruhe - selbst mit schrottiger hardware und damit lässt sich ganz entspannt spielen.
Das mag deiner Erfahrung entsprechen, stimmt aber so allgemein schlicht nicht. Jedenfalls nicht für die 4xxx-er Reihe. Ob und wie viel ein FPS-Cap hilft ist je nach Karte und Spiel völlig unterschiedlich.

gbm31
2023-02-05, 10:27:23
Sehe ich nicht so. Im Luxx dominieren klar Suprim, TUF, Strix nund FE auf den vorderen Rängen https://www.hardwareluxx.de/community/threads/offizieller-nvidia-rtx-4090-overclocking-und-modding-thread.1325294/


...sondern darum dass ich so unerschöpfliche erfahrung über jahrzehnte mit mannigfaltiger hardware habe, dass ich eine leise von einer lauten karte unterscheiden kann.
...
mfg
tobi

Amen... :uponder:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82625&stc=1&d=1675589159

Ada Lovelace RTX 4xxx: Coilwhine / Fiep / Rassel Thread (https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/)

TobiWahnKenobi
2023-02-05, 10:49:22
Amen... :uponder:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82625&stc=1&d=1675589159

Ada Lovelace RTX 4xxx: Coilwhine / Fiep / Rassel Thread (https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/)

siehste! das meine ich. man braucht erfahrung, um relativieren zu können, ob eine karte "normale" geräusche macht oder ob sie kaputt klingt.


(..)

mfg
tobi

gbm31
2023-02-05, 10:58:02
siehste! das meine ich. man braucht erfahrung, um relativieren zu können, ob eine karte "normale" geräusche macht oder ob sie kaputt klingt.


(..)

mfg
tobi

Da sind genug bildhafte Beschreibungen und Videos im Thread, da reicht die Erfahrung von 'nem Baum um zu erkennen das ne Asus fast garantiert laut ist.

TobiWahnKenobi
2023-02-05, 11:01:20
https://youtu.be/G3O0lKw5AvQ


meine kann sogar kerzen ausblasen :)


(..)

mfg
tobi

Cubitus
2023-02-05, 11:24:30
Sehe ich nicht so. Im Luxx dominieren klar Suprim, TUF, Strix nund FE auf den vorderen Rängen https://www.hardwareluxx.de/community/threads/offizieller-nvidia-rtx-4090-overclocking-und-modding-thread.1325294/

Klar OC geht mit der Suprim gut, aber nur mit einem anderem Bios.
OutOfTheBox ist die Karte einfach meh..

Bis auf den Kühler der ist gut.

Die Frage ist auch will man sich das antun und oft mit 500 Watt+ unterwegs sein?
Für daily Use sind so hohe Settings nicht geeignet.

Amen... :uponder:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82625&stc=1&d=1675589159

Ada Lovelace RTX 4xxx: Coilwhine / Fiep / Rassel Thread (https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/)

Die SuprimX ist unter Last schon sehr fiepig.

IC3M@N FX
2023-02-05, 12:47:53
Also meine RTX 4090 Gainward Phantom GS ist wirklich sehr leise.

Lehdro
2023-02-05, 15:15:08
PCGH RTX 4090 Test in Ausgabe 01/2023, 6 Modelle getestet, 5 Modelle werden bei Spulenpfeifen/-zirpen mit "Kaum hörbar, >0,1 Sone" bewertet. Eine Karte bekommt folgendes Prädikat: "Überdurchschnittlich (Zirpen/Rasseln bei zweist. FPS)" -> so viel zum FPS Limit als Lösung.

Drei mal darf man raten welche das ist. Asus TUF. :redface:

Linmoum
2023-02-05, 15:56:01
Wahrscheinlich alles auf den US-Markt ausgelegt. Da gelten auch Gehäuse-/Radiatorlüfter mit 1400rpm als leise. Die Amis sind da komplett in ihrer eigenen Welt. ;D

TobiWahnKenobi
2023-02-05, 17:22:04
ich glaube auch durchaus an sowas wie serienstreuung.. zum glück.. denn lt. PCGH ist der höchste OC clock 2,97GHz und meine macht 3.1GHz und der defaulttakt boostet in games auch nicht auf 2.565GHz sondern auf 2.7GHz.. streuung.

es weiss auch niemand was die hersteller in den produktionsprozessen verändern. wann habe ich die TUF gekauft..?! am releasetag.. AFAIR war das der 12.10.22.. 15Uhr.. am tresen bei NBB in hannover. wird sicher erste charge sein.

btw,
die beste note für die TUF 1.39 vs. schlechtestes 4090-modell mit 1.50 - das sind schon echt welten. LOL weiss nicht wer hier je ne schule besucht hat (aufm gym gabs bei mir noch punkte statt noten) aber das ist alles 1-


(..)

mfg
tobi

Sardaukar.nsn
2023-02-05, 19:59:21
@TobiWahnKenobi: Ich konnte am Release Tag auch zwei TUF kaufen, eine OC vom MediaMarkt die ich ungeöffnet wieder im Laden abgegeben habe. Denn ich hab später noch im Asus Shop eine TUF Non-OC zur UVP bekommen. Kurzer Storno Anruf bei MM, aber da war die Karte schon im Versand.

Meine ist leise, aber der Luftkühler war etwas verbogen. Interessiert mich jetzt nicht mehr da Alphacool Wakü Block. Bios/Boost ist das teuflische Galax HOF 666W

TobiWahnKenobi
2023-02-05, 20:10:01
hast du mal testen können, ob beide HDMIs mit dem bios funktionieren? ggf. zeitgleich.


(..)

mfg
tobi

Sardaukar.nsn
2023-02-05, 20:49:20
Der zweite kann nur 1080p/60hz. Für so ein Sensor Screen oder AV-Reciever würde es wohl reichen.
Ich nutze aber nur einen 2.1 HDMI für den LG Oled. Sound kommt über USB.

TobiWahnKenobi
2023-02-05, 21:01:19
wundert mich, dass da mit fremdbios überhaupt was rauskommt.


(..)

mfg
tobi

Lehdro
2023-02-05, 21:08:32
ich glaube auch durchaus an sowas wie serienstreuung.. zum glück..
Mag sein, die Häufung dieser Probleme bei Asus und MSI kommt aber nicht von ungefähr.

denn lt. PCGH ist der höchste OC clock 2,97GHz und meine macht 3.1GHz und der defaulttakt boostet in games auch nicht auf 2.565GHz sondern auf 2.7GHz.. streuung.
Mit was testest du das? Schon beim Timespy Extreme - Test 2 droppen die MHz in der einen Szene deutlich - und das ist noch recht handzahm als Test. PCGH gibt meines Wissens immer das untere Ende der Frequenzen an.

TobiWahnKenobi
2023-02-05, 21:11:47
tetris mit 8bit farbtiefe natürlich

https://www.3dmark.com/spy/33600564

btw,
wie muss man drauf sein, alles testen zu wollen? ich kaufe ne karte, baue sie ein, lasse die "tests" durchlaufen, wedel mir einen von der palme früh im orb weit oben zu sein und dann ist der drops gelutscht. dann wird gespielt.. das mache ich seit oktober.. spielen. mehr juckt mich überhaupt nicht - ich zahle 220€ strom im monat.. benchmarks sind sinnlose energieverschwendung.


(..)

mfg
tobi

Radeonfreak
2023-02-05, 21:11:52
Also meine RTX 4090 Gainward Phantom GS ist wirklich sehr leise.

+1

r3ptil3
2023-02-06, 16:09:56
Antwort vom MSI Support bzgl. IDLE Verbrauch:

"vielen Dank für Ihre Anfrage.
die Strix ist etwas Leistung stärker als die FE daher ist es unwahrscheinlich das Sie unter 21W liegt.
unsere Karte hat mehr Stromwandler was auch im idle versorgt werden müssen daher sind 38W völlig normal. "

Sind da gelangweilte Studenten im Support?

Lowkey
2023-02-06, 16:40:55
Also meine RTX 4090 Gainward Phantom GS ist wirklich sehr leise.

+2

VooDoo7mx
2023-02-06, 21:17:13
Hat denn jemand die günstige Inno3d vom Käsekönig z.b. bekommen und kann berichten?

gbm31
2023-02-06, 22:06:13
Mich juckts ja echt die Aorus Master auseinandernehmen, einen eigenen Shroud drucken und 2-3 120er Noctuas draufschrauben...

Das hier: https://videocardz.com/newz/asus-announces-geforce-rtx-4080-noctua-graphics-card krieg ich locker schöner designed in Fusion360 und in 2 Teilen gedruckt.

Sollten von der ursprünglichen Shroudbefestigung genug nutzbare Löcher da sein...

hq-hq
2023-02-06, 23:39:51
glaub das ist unnötig, den Wasserblock hab ich jetzt auch nur bestellt weil ich keine 350Watt Abwärme der Grafikkarte im Gehäuse mag
-> sind dir die Lüfter zu laut??? Das kann ich mir grad nicht vorstellen...

---

bzgl. Crossbar kann ich in Cyberpunk keinen Unterschied feststellen, vielleicht ein halbes FPS AVG Unterschied zwischen zwischen 2700MHz GPU @ 0.925V (2145MHz Crossbar) oder 1.05V (2370MHz Crossbar), dafür spart man so an die 80Watt

3DMurks Speedway, weil recht hungrig, hab ich ebenfalls ein paar mal laufen gelassen; hier ist der Unterschied zwischen 2700MHz @ 0.925V und 1.05V bis an die +4% zugunsten von 2370MHz Crossbar Clock, bei 0.925V sind es nur noch 2145MHz
-> spart aber ziemlich genau 100Watt (~350Watt VS ~450Watt) ein :biggrin: (2700MHz ist hier mit 0,925V grade noch möglich, 2730MHz ist ihr zu viel)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82644&stc=1&d=1675723002

4090 @ 2700 MHz / 21 Gbps
bei 0.925V sinkt der Crossbar Takt um 225MHz ab (1.050V@2370MHz; 0.925V@2145MHz) = -9,5%

App 2160p 0.925V Watt / FPS 1.050V Watt / FPS FPS-Verlust in %
Speed Way* ~350 Watt / ~95 FPS ~450 Watt / ~98 FPS -3%
Port Royal* ~340 Watt / ~113 FPS ~430 Watt / ~117 FPS -3%
Wolcen ~300 Watt / ~164 FPS ~400 Watt / ~168 FPS -2%
GotG ~340 Watt / ~94 FPS ~440 Watt / ~97 FPS -3%
Cyberpunk ~290 Watt / ~108 FPS ~380 Watt / ~112 FPS -4%
Riftbreaker ~360 Watt / ~232 FPS ~470 Watt / ~239 FPS -3%
FarCry6 ~240 Watt / ~105 FPS ~310 Watt / ~108 FPS -3%


[* Speed Way und Port Royal in 1440p]
okay, im Benchmark von Cyberpunk zeigt sich dann doch ein größerer Verlust... dachte das wär fast 0


---

Offenbar kann Speedway oder Port Royal den Verlust gut abbilden

4090 @ 2580MHz / 21Gbps in 3D Mark Speed Way


Voltage Crossbar Watt FPS △FPS in % △Crossbar in % △Watt in %
1.050V 2370 MHz ~440 Watt 95.0 FPS 0% 0% 0%
0.925V 2145 MHz ~330 Watt 91.7 FPS -3.5% -9.5% -25%
0.875V 2025 MHz ~295 Watt 89.7 FPS -5.6% -14.6% -33%



Speed Way OC Test, Basis 2580 MHz GPU Takt, RAM 21Gbps

Voltage GPU Takt Watt FPS △FPS in % △Takt in %
1.050V 2580 MHz ~440 Watt 95.0 FPS 0% 0%
1.050V 3000 MHz ~465 Watt 100.4 FPS +5,7% +16,3%

gbm31
2023-02-06, 23:56:21
glaub das ist unnötig, den Wasserblock hab ich jetzt auch nur bestellt weil ich keine 350Watt Abwärme der Grafikkarte im Gehäuse mag
-> sind dir die Lüfter zu laut??? Das kann ich mir grad nicht vorstellen...

---

bzgl. Crossbar


Nein, aber 1. nervt die RGB-Geschichte (oder die unfähigen Gigabyte-Programmierer) und 2. angeborener Spiel- und Probiertrieb. :D

---

Interessant, das macht ja teilweise echt was aus theoretisch. In Games dann aber wohl vernachlässigbar...

hq-hq
2023-02-07, 00:05:11
oh ja, stimmt, zum Glück ist mein Gehäuse ohne Scheibe ich seh den Quatsch nicht :biggrin:

klar, das RGB Geblinke ist für die Kinder, nur wer will riskieren, dass die irgendwann mit Schaum vorm Mund vor dem PC am Boden liegen

ich finde die Noctua Lüfter wirklich greislig, doch für die gute Sache solltest du den Umbau dann doch machen

- werd noch ein paar Games - bzgl. Crossbar Clock - die ich grad spiele oder gespielt hab kurz an einer statischen Szene oder internen Benchmark probieren und am Eingangspost drankleben

OgrEGT
2023-02-07, 01:14:19
oh ja, stimmt, zum Glück ist mein Gehäuse ohne Scheibe ich seh den Quatsch nicht :biggrin:

klar, das RGB Geblinke ist für die Kinder, nur wer will riskieren, dass die irgendwann mit Schaum vorm Mund vor dem PC am Boden liegen

ich finde die Noctua Lüfter wirklich greislig, doch für die gute Sache solltest du den Umbau dann doch machen

- werd noch ein paar Games - bzgl. Crossbar Clock - die ich grad spiele oder gespielt hab kurz an einer statischen Szene oder internen Benchmark probieren und am Eingangspost drankleben
Gibt von Noctua ja mittlerweile die Lüfter als Chromax Black :)

hq-hq
2023-02-07, 02:24:17
Gibt von Noctua ja mittlerweile die Lüfter als Chromax Black :)

mit bunten Buffern, war mir nicht bekannt, damit wird Noctua nach gefühlt 18 Jahren kaufbar :freak:

++ für gbm31 3D-Druck-Umbau

SamLombardo
2023-02-07, 07:10:03
glaub das ist unnötig, den Wasserblock hab ich jetzt auch nur bestellt weil ich keine 350Watt Abwärme der Grafikkarte im Gehäuse mag
-> sind dir die Lüfter zu laut??? Das kann ich mir grad nicht vorstellen...

---

bzgl. Crossbar kann ich in Cyberpunk keinen Unterschied feststellen, vielleicht ein halbes FPS AVG Unterschied zwischen zwischen 2700MHz GPU @ 0.925V (2145MHz Crossbar) oder 1.05V (2370MHz Crossbar), dafür spart man so an die 80Watt

3DMurks Speedway, weil recht hungrig, hab ich ebenfalls ein paar mal laufen gelassen; hier ist der Unterschied zwischen 2700MHz @ 0.925V und 1.05V bis an die +4% zugunsten von 2370MHz Crossbar Clock, bei 0.925V sind es nur noch 2145MHz
-> spart aber ziemlich genau 100Watt (~350Watt VS ~450Watt) ein :biggrin: (2700MHz ist hier mit 0,925V grade noch möglich, 2730MHz ist ihr zu viel)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82644&stc=1&d=1675723002

4090 @ 2700 MHz / 21 Gbps
bei 0.925V sinkt der Crossbar Takt um 225MHz ab (1.050V@2370MHz; 0.925V@2145MHz) = -9,5%

App 2160p 0.925V Watt / FPS 1.050V Watt / FPS FPS-Verlust in %
Speed Way ~350 Watt / ~95 FPS ~450 Watt / ~98 FPS -3%
Port Royal ~340 Watt / ~113 FPS ~430 Watt / ~117 FPS -3%
Wolcen ~300 Watt / ~164 FPS ~400 Watt / ~168 FPS -2%
GotG ~340 Watt / ~94 FPS ~440 Watt / ~97 FPS -3%
Cyberpunk ~290 Watt / ~108 FPS ~380 Watt / ~112 FPS -4%
Riftbreaker ~360 Watt / ~232 FPS ~470 Watt / ~239 FPS -3%
FarCry6 ~240 Watt / ~105 FPS ~310 Watt / ~108 FPS -3%


okay, im Benchmark von Cyberpunk zeigt sich dann doch ein größerer Verlust... dachte das wär fast 0


---

Offenbar kann Speedway oder Port Royal den Verlust gut abbilden

4090 @ 2580MHz / 21Gbps in 3D Mark Speed Way


Voltage Crossbar Watt FPS △FPS in % △Crossbar in % △Watt in %
1.050V 2370 MHz ~440 Watt 95.0 FPS 0% 0% 0%
0.925V 2145 MHz ~330 Watt 91.7 FPS -3.5% -9.5% -25%
0.875V 2025 MHz ~295 Watt 89.7 FPS -5.6% -14.6% -33%



Speed Way OC Test, Basis 2580 MHz GPU Takt, RAM 21Gbps

Voltage GPU Takt Watt FPS △FPS in % △Takt in %
1.050V 2580 MHz ~440 Watt 95.0 FPS 0% 0%
1.050V 3000 MHz ~465 Watt 100.4 FPS +5,7% +16,3%


Wirklich sehr interessant, danke fürs Posten. Wie wirst du sie laufen lassen?

Cubitus
2023-02-07, 10:54:53
glaub das ist unnötig, den Wasserblock hab ich jetzt auch nur bestellt weil ich keine 350Watt Abwärme der Grafikkarte im Gehäuse mag
-> sind dir die Lüfter zu laut??? Das kann ich mir grad nicht vorstellen...

---



Tolle Arbeit, danke für die Mühe.

Als Resümee, UV hat enormes Stromspar-Potenzial "mit im Verhältnis geringen Leistungseinbußen", 4 Prozent FPS Verlust bei Cyberpunk, aber 100 Watt Ersparnis ist eben auch ne Ansage.
Zum Glück ist die 4090 ja potent genug, somit fallen die 4 Prozent nicht so krass ins Gewicht.

Scheint aber auch von Spiel zu Spiel individuell zu sein..

gbm31
2023-02-07, 11:05:43
...

Offenbar kann Speedway oder Port Royal den Verlust gut abbilden

4090 @ 2580MHz / 21Gbps in 3D Mark Speed Way


Voltage Crossbar Watt FPS △FPS in % △Crossbar in % △Watt in %
1.050V 2370 MHz ~440 Watt 95.0 FPS 0% 0% 0%
0.925V 2145 MHz ~330 Watt 91.7 FPS -3.5% -9.5% -25%
0.875V 2025 MHz ~295 Watt 89.7 FPS -5.6% -14.6% -33%



Speed Way OC Test, Basis 2580 MHz GPU Takt, RAM 21Gbps

Voltage GPU Takt Watt FPS △FPS in % △Takt in %
1.050V 2580 MHz ~440 Watt 95.0 FPS 0% 0%
1.050V 3000 MHz ~465 Watt 100.4 FPS +5,7% +16,3%


Dito, danke!

---

Wird eher keine black Version - nach noch diverse braune 120er und 140er Noctua aus Waküzeiten im Keller. :-)

Außerdem muss ich erst mal aus den Gigabyte Kombianschlüssen für die Lüfter mit LED schlau werden, und passende Stecker finden. Will die Noctuas über die Graka ansteuern lassen.

hq-hq
2023-02-07, 11:19:01
unter Luft erstmal mit 2505MHz/22.5Gbps und 0.875V, unter Wasser vermutlich 2685MHz/22.5Gbps und 0.925V

das mit dem schlechten RAM ist schade, so gehen der Karte 2% ab...

schätze NVidia verkauft in drei Kategorien:
OC Chips mit OC RAM (Strix, Suprim)
OC Chips mit RAM (Gaming OC, Frostbite)
Chips mit RAM (Windforce...)

gbm31
2023-02-07, 11:49:47
Ich fahr die default 1050mV mit leicht erhöhtem PL (111% -> 499 .5W) kompromislos aus mit 2940MHz. Halt 24/7 mit 100Hz Limiter im Treiber und Gsync (der MAG341CQ ist zwar eigentlich nur Freesync aber G-Sync-kompatibel)

Wegen VR.

Endlich alle Details hoch und trotzdem immer über 90fps (außer der 5800X3D kann nicht mehr, ist aber sehr selten bei großen Starterfeldern zu Beginn wenn noch alle auf einem Haufen sind...)

Emil_i_Lönneberga
2023-02-07, 20:24:12
Watercool für die FE:

https://shop.watercool.de/HEATKILLER-V-PRO-for-RTX-4090-FE-ACRYL-Ni-Bl-aRGB

https://shop.watercool.de/HEATKILLER-V-PRO-for-RTX-4090-FE-ACRYL-Ni-aRGB

Sardaukar.nsn
2023-02-07, 21:12:58
Ist auf jeden Fall schick und wird auch sicher gut funktionieren. Leider nur für die FE und die ist ja auch echt selten bzw. nicht leicht verfügbar.

ChaosTM
2023-02-08, 11:25:53
Wie schon bei der 80er kriegt ich via gesenktem Powertarget und sogar leicht erhöhter Spannung bessere Performance/Watt Ergebnisse als mit purem UV.
Die Speicher meiner Inno3D machen leider schon bei +1100mhz schlapp und die GPU selbst schafft auch nicht ganz 3ghz, so wie die FE 80er.

Was aber egal ist, da ich momentan meist mit 72-75% PT arbeite und dabei im Schnitt nur 3%* verliere bei 100+ Watt Ersparnis. Beim FS2020 sinds gar nur 55%, da der sowieso nur im CPU Limit herumgurkt über dicht besiedeltem Gebiet.

* Genauere Analysen folgen noch wenn ich mal Lust dazu habe

Hypadaiper
2023-02-08, 11:38:55
Wie schon bei der 80er kriegt ich via gesenktem Powertarget und sogar leicht erhöhter Spannung bessere Performance/Watt Ergebnisse als mit purem UV.
Die Speicher meiner Inno3D machen leider schon bei +1100mhz schlapp und die GPU selbst schafft auch nicht ganz 3ghz, so wie die FE 80er.

Was aber egal ist, da ich momentan meist mit 72-75% PT arbeite und dabei im Schnitt nur 3%* verliere bei 100+ Watt Ersparnis. Beim FS2020 sinds gar nur 55%, da der sowieso nur im CPU Limit herumgurkt über dicht besiedeltem Gebiet.

* Genauere Analysen folgen noch wenn ich mal Lust dazu habe

Wenn man sich ans UV traut, was spricht denn dagegen UV plus PT zu fahren ? Gerade wenn man das Powerbudget enger zieht freut man sich doch gleich doppelt über eine effizientere Takt/Leistungskurve. Wenn man dann die gpu zudem in einem für sie effizienten Lastpunkt hält durch begrenzen der Wattage dann hat man doch das beste aus beiden Welten.

Ätznatron
2023-02-08, 11:56:08
Wenn man sich ans UV traut, was spricht denn dagegen UV plus PT zu fahren ? Gerade wenn man das Powerbudget enger zieht freut man sich doch gleich doppelt über eine effizientere Takt/Leistungskurve. Wenn man dann die gpu zudem in einem für sie effizienten Lastpunkt hält durch begrenzen der Wattage dann hat man doch das beste aus beiden Welten.


UV? Geht nicht bei Lovelace.

ChaosTM
2023-02-08, 12:03:21
Wenn man sich ans UV traut, was spricht denn dagegen UV plus PT zu fahren ? Gerade wenn man das Powerbudget enger zieht freut man sich doch gleich doppelt über eine effizientere Takt/Leistungskurve. Wenn man dann die gpu zudem in einem für sie effizienten Lastpunkt hält durch begrenzen der Wattage dann hat man doch das beste aus beiden Welten.


Wenn ich mal mehr Zeit habe. Da ist vielleicht noch was machbar, aber ich bin jetzt schon hoch zufrieden mit der Effizienz.

Hypadaiper
2023-02-08, 12:41:03
Wenn ich mal mehr Zeit habe. Da ist vielleicht noch was machbar, aber ich bin jetzt schon hoch zufrieden mit der Effizienz.
Ich hab meine FE auch mal ein bisschen getweakt. Wenn ich zu komme schreib ich meinen Bericjt mal fertig, aber kommt erst mal auf CB bzw war dafür gedacht als Leseartikel.

Hypadaiper
2023-02-08, 12:42:30
UV? Geht nicht bei Lovelace.

Steh ich aufm Schlauch ? Taktoffset bezogen auf Spannung ist doch möglich? Oder gehts wieder um die Diskussion ob das Oc ist? Dachte die hätten wir durch

Silent_Reader
2023-02-08, 12:56:05
Wenn ich mal mehr Zeit habe. Da ist vielleicht noch was machbar, aber ich bin jetzt schon hoch zufrieden mit der Effizienz.

+1
Konnte irgendwann dem Hypetrain nicht widerstehen und im Dezember ne Gigabyte Windforce erstanden. Die Windforce hat 0 Spulenfiepen, 0 BlingBling und ist angenehm unauffällig im Betrieb, abgesehen von der vermurksten Lüfterkurve. Habe auch nur 3 von 4 Pin8 angeschlossen, reicht völlig aus bei der Power. Bei non RT/VR Games reichen 60-70 PT eigentlich immer, Vram auf +300, Framlimiter auf 141 Hz und gut is. CPU Temp ist höher als GPU (13600k), muss ich jetzt zurück auf WaKü:freak:

hq-hq
2023-02-08, 13:44:19
Steh ich aufm Schlauch ? Taktoffset bezogen auf Spannung ist doch möglich? Oder gehts wieder um die Diskussion ob das Oc ist? Dachte die hätten wir durch

ja schon, also du stehst nicht aufm Schlauch sondern du hast recht es ist möglich, wenn normal bei 2175MHz 0,875V anliegen würden, kann man daraus z.B. 2535MHz bei 0,875V machen die sonst erst bei 0,960V erreicht werden -> 85mV UV
... oder 2700MHz bei 0,925V (normal 1.025V -> 100mV UV)... Curve Editor geht wie frühers

SamLombardo
2023-02-08, 14:38:26
Wie schon bei der 80er kriegt ich via gesenktem Powertarget und sogar leicht erhöhter Spannung bessere Performance/Watt Ergebnisse als mit purem UV.
Die Speicher meiner Inno3D machen leider schon bei +1100mhz schlapp und die GPU selbst schafft auch nicht ganz 3ghz, so wie die FE 80er.

Was aber egal ist, da ich momentan meist mit 72-75% PT arbeite und dabei im Schnitt nur 3%* verliere bei 100+ Watt Ersparnis. Beim FS2020 sinds gar nur 55%, da der sowieso nur im CPU Limit herumgurkt über dicht besiedeltem Gebiet.

* Genauere Analysen folgen noch wenn ich mal Lust dazu habe

Versuch mal den internen Cyberpunk Benchmark wenn du Lust hast. Ich hab nämlich gestern auch noch mal probiert und bleibe beim manuellen UV/OC. Fahre jetzt 2820mhz@0.975v und habe damit im Cyberpunk Benchmark @max mit FG reproduzierbarer bei den min fps ~10fps mehr als mit meinem PT80% Clock +200 Setting. (avg fps 107 vs 106 ungefähr gleich, min fps 82 vs 72). Keine Ahnung wo dieser Unterschied herkommt, vielleicht durch zu aggressives Runtertakten durch das PL...? Dabei zieht die Karte beim Curve UV/OC max 330w, meist darunter, während beim PT80%+200 Setting fast durchgehend 360w gezogen werden.

ChaosTM
2023-02-08, 20:06:26
Der 77er BM stürzt mir komischerweise momentan immer an der exakt selben Stelle ab.
Egal mit wie viel Strom oder über bzw. sogar untertaktet. Mal die neuen Gameready Treiber aufspielen

Hypadaiper
2023-02-08, 20:17:42
Versuch mal den internen Cyberpunk Benchmark wenn du Lust hast. Ich hab nämlich gestern auch noch mal probiert und bleibe beim manuellen UV/OC. Fahre jetzt 2820mhz@0.975v und habe damit im Cyberpunk Benchmark @max mit FG reproduzierbarer bei den min fps ~10fps mehr als mit meinem PT80% Clock +200 Setting. (avg fps 107 vs 106 ungefähr gleich, min fps 82 vs 72). Keine Ahnung wo dieser Unterschied herkommt, vielleicht durch zu aggressives Runtertakten durch das PL...? Dabei zieht die Karte beim Curve UV/OC max 330w, meist darunter, während beim PT80%+200 Setting fast durchgehend 360w gezogen werden.
Mit FG habe ich es noch nicht versucht. Die minFps waren aber sowohl bei reduzierten PT als auch mit UV(2550@0,875) ziemlich identisch. Warum sollten gerade die min fps so stark schwanken bei geringeren pt? Klingt irgendwie nach Treiber.

ChaosTM
2023-02-08, 20:26:53
Jetzt gehts.
fast Konstante 138fps (maximum des Monitors - limitiert via Treiber) mit FG. Irre !

4K Max Psycho - DLSS Quality

Add.: braucht dabei nur 350 Watt. Werde mal den Limiter rausnehmen..
Add2.: war DLSS Auto - hätte mich auch gewundert. @ Quality sinds 114/72 (+140/850) - 430Watt
Add3.: @70% PT sinds immer noch 106/68 - 320 Watt.
60% -> 101/66 - 275 Watt

Der Speicher bleibt natürlich immer übertaktet.
Wo der Sweetspot ca. liegt ist ziemlich offensichtlich.

Jetzt kommt dann UV..

Orbmu2k
2023-02-08, 21:16:59
Offenbar kann Speedway oder Port Royal den Verlust gut abbilden

4090 @ 2580MHz / 21Gbps in 3D Mark Speed Way


Voltage Crossbar Watt FPS △FPS in % △Crossbar in % △Watt in %
1.050V 2370 MHz ~440 Watt 95.0 FPS 0% 0% 0%
0.925V 2145 MHz ~330 Watt 91.7 FPS -3.5% -9.5% -25%
0.875V 2025 MHz ~295 Watt 89.7 FPS -5.6% -14.6% -33%




Du wirfst hier Crossbar und Verbrauch zusammen in einen Topf, aber wozu? Welche Auswirkung die Crossbar isoliert auf den Verbrauch hat kannst du so nicht abbilden und war auch nicht die Frage.

Du reduzierst den Verbrauch in deinen Tests maßgeblich durch das absenken der maximalen Spannung und nur bedingt durch das absenken der Clocks. Deswegen ist es mit UV ja überhaupt möglich (gewesen) die identische oder sogar eine höhere Performance bei viel weniger Verbrauch zu erreichen. Es würde auch ein einfaches Powerlimit zur massiven Effizienzsteigerung mit relativ wenig Performance-Impact ausreichen.

Die Frage bei den Subclocks die an jedem Voltage Entry hängen war eine reine Perfromance Frage. Trotz identischer GPC Clock kann man aufgrund der unterschiedlichen Subclocks nicht das gleiche Perfromance Niveau erreichen, außer man erhöht das GPC Offset deutlich über die Target Clock um den Verlust durch die Subclocks zu kompensieren. Neu ist allerdings wie massiv der Einfluss auf die Gesamtperformance durch diese Subclocks ist.

Diese Frage stellt sich unabhäng davon ob ich UV oder OC mache. Der Perfromance Ertrag skaliert durch das Offset viel geringer als das früher der Fall war. Bei reinem OC gab es natürlich schon immer einen stark abnehmenden Grenzertrag. Das galt aber bei UV bisher aber kaum weil sich das alles im technischen Sweetspot der GPU abspielt.


Versuch mal den internen Cyberpunk Benchmark wenn du Lust hast. Ich hab nämlich gestern auch noch mal probiert und bleibe beim manuellen UV/OC. Fahre jetzt 2820mhz@0.975v und habe damit im Cyberpunk Benchmark @max mit FG reproduzierbarer bei den min fps ~10fps mehr als mit meinem PT80% Clock +200 Setting. (avg fps 107 vs 106 ungefähr gleich, min fps 82 vs 72). Keine Ahnung wo dieser Unterschied herkommt, vielleicht durch zu aggressives Runtertakten durch das PL...? Dabei zieht die Karte beim Curve UV/OC max 330w, meist darunter, während beim PT80%+200 Setting fast durchgehend 360w gezogen werden.

Der Unterschied bei den Min-FPS ist absolut erwartbar. Das PL wechselt ja ständig die Voltage/Clocks um im Limit zu bleiben und wird daher öfter auch mal deutlich unter dein UV Setting fallen. Das UV Setting im Gegenzug bleibt stabil bei Voltage/Clocks aber reisst eben dann in anspruchsvollen Phasen dein Power Target.

hq-hq
2023-02-08, 21:52:32
Du wirfst hier Crossbar und Verbrauch zusammen in einen Topf, aber wozu? Welche Auswirkung die Crossbar isoliert auf den Verbrauch hat kannst du so nicht abbilden und war auch nicht die Frage.

Du reduzierst den Verbrauch in deinen Tests maßgeblich durch das absenken der maximalen Spannung und nur bedingt durch das absenken der Clocks. Deswegen ist es mit UV ja überhaupt möglich (gewesen) die identische oder sogar eine höhere Performance bei viel weniger Verbrauch zu erreichen. Es würde auch ein einfaches Powerlimit zur massiven Effizienzsteigerung mit relativ wenig Performance-Impact ausreichen.

Die Frage bei den Subclocks die an jedem Voltage Entry hängen war eine reine Perfromance Frage. Trotz identischer GPC Clock kann man aufgrund der unterschiedlichen Subclocks nicht das gleiche Perfromance Niveau erreichen, außer man erhöht das GPC Offset deutlich über die Target Clock um den Verlust durch die Subclocks zu kompensieren. Neu ist allerdings wie massiv der Einfluss auf die Gesamtperformance durch diese Subclocks ist.

Diese Frage stellt sich unabhäng davon ob ich UV oder OC mache. Der Perfromance Ertrag skaliert durch das Offset viel geringer als das früher der Fall war. Bei reinem OC gab es natürlich schon immer einen stark abnehmenden Grenzertrag. Das galt aber bei UV bisher aber kaum weil sich das alles im technischen Sweetspot der GPU abspielt.

die Information gibts ja gratis und gern schreibe ich den Verbrauch mit dazu, so kann man mit einer anderen 4090 referenzieren auch wenn sich natürlich andere Parameter wie Lüfterverbrauch etc. etwas unterscheiden

da ich den Crossbar Clock nicht unabhängig von der Spannung steuern kann bleibt die Frage freilich offen

however, mich hat der Verbrauch interessiert und die Performance weil ich noch nicht so ganz wusste wie ich das Ding einstellen soll

btw, wenn man den Global- und Subclock um 20% erhöht sieht es besser aus mit dem FPS Zuwachs, in einem Bench sah es nach >80% von den +20% aus... bei nur einem von beiden Clocks bleibts dann ungefähr bei einem Drittel

Orbmu2k
2023-02-08, 22:09:04
btw, wenn man den Global- und Subclock um 20% erhöht sieht es besser aus mit dem FPS Zuwachs, in einem Bench sah es nach >80% von den +20% aus... bei nur einem von beiden Clocks bleibts dann ungefähr bei einem Drittel

Sorry ich kann dir da nicht folgen. Man kann die Subclocks ja nicht unabhängig von der Voltage erhöhen.

Der Beitrag der Subclocks ist aber eher 50/50.

GPC(b) + SUB(b) = FPS1000
GPC(a) + SUB(a) = FPS900

GPC(b) + SUB(a) = FPS950
GPC(a) + SUB(b) = FPS950

Kann natürlich je nach Spiel oder Anwendung unterschiedlich sein. Ich gehe vom Worst Case aus.

hq-hq
2023-02-08, 22:33:36
für mich sieht es so aus:


GPC(b) + SUB(b) = FPS1000
GPC(a) + SUB(a) = FPS900

GPC(b) + SUB(a) = FPS935
GPC(a) + SUB(b) = FPS935



Bright Memory Infinite Ray Tracing Benchmark

Voltage GPU Crossbar FPS △GPU Takt in % △Crossbar Takt in % △FPS in %
0.875V 2535 MHz 2025 MHz 72 FPS 0% 0% 0%
1.100V 3045 MHz 2430 MHZ 84 FPS +20,1% +20,0% +16,7%


bei Gelegenheit probiere ich das noch bei eins zwei Spielen aus, eins ist keins

Orbmu2k
2023-02-08, 22:50:39
für mich sieht es so aus:


GPC(b) + SUB(b) = FPS1000
GPC(a) + SUB(a) = FPS900

GPC(b) + SUB(a) = FPS935
GPC(a) + SUB(b) = FPS935


Na das geht nicht, du meinst eher:

GPC(b) + SUB(a) = FPS965
GPC(a) + SUB(b) = FPS935



Bright Memory Infinite Ray Tracing Benchmark

Voltage GPU Crossbar FPS △GPU Takt in % △Crossbar Takt in % △FPS in %
0.875V 2535 MHz 2025 MHz 72 FPS 0% 0% 0%
1.100V 3045 MHz 2430 MHZ 84 FPS +20,1% +20,0% +16,7%


bei Gelegenheit probiere ich das noch bei eins zwei Spielen aus, eins ist keins
2535@875mV ist ja schon mit Offset.

Du kannst folgendes testen:

2220/1995@875mV (Stock) = FPS?
2535/2190@960mV (Stock) = FPS?

Die FPS Differenz der Beiden sind 100% des möglichen Ertrags.

2535/1995@875mv (Offset +315) = FPS?
2220/2190@960mV (Offset -315) = FPS?

hq-hq
2023-02-08, 23:17:02
ja genau das fehlt noch, aktuell sieht es für mich so aus

GPC(b) + SUB(b) = FPS1000
GPC(a) + SUB(a) = FPS900

GPC(b) + SUB(a) = FPS934
GPC(a) + SUB(b) = FPS938

geht eigentlich nicht ^^

probier ich noch aus, zwei drei Spiele vielleicht

ChaosTM
2023-02-08, 23:22:22
RDR2 - alles Max - DLSS Quality

~430 Watt -> 120fps
~320 Watt -> 114fps
~270 Watt -> 109fps

Minimum liegt immer bei 35..

hq-hq
2023-02-09, 11:45:33
GotG, 4090 *MHz/21Gbps


GPU Crossbar FPS △GPU Takt in % △Crossbar Takt in % △FPS in %
2025 MHz 2025 MHz 82 0% 0% 0%
2025 MHz 2430 MHz 86 0% +20% +4.9%
2430 MHz 2025 MHz 89 +20% 0% +8.5%
2430 MHz 2430 MHz 93 +20% +20% +13.4%


tja das ist dann eindeutiger als ich erwartet hätte, zumindest in GotG :freak:

GPU Crossbar FPS △GPU Takt in % △Crossbar Takt in % △FPS in %
2430 MHz 2430 MHz 93 0% 0% 0%
2925 MHz 2430 MHz 97 +20,3% 0% +5,4%

gbm31
2023-02-09, 14:02:20
Fast 5%! Oha!

Btw: Gigabyte Support Bullshit Bingo...

Lehdro
2023-02-09, 14:22:31
Gottseidank funktioniert bei mir das Ausschalten des RGB+LCD Gebammel mit GCC bisher absolut problemlos. Muss mal schauen ob es extra Kabel für RGB+LCD gibt, zur Not kann man die dann einfach abziehen.

hq-hq
2023-02-09, 17:24:02
Fast 5%! Oha!

Btw: Gigabyte Support Bullshit Bingo...

Wie nur 0, 1400 oder 3000rpm? ;D

ich dachte eher an +17% wenn global und sub clocks +20% drauflegen und dabei dann einzeln +5% für global und +7% für sub zumindest wenn der Sub-Clock über dem Global-Clock liegt...sauber daneben gelegen :redface:
je weiter der Global-Clock sich vom Sub entfernt, desto ineffizienter wird er,... und wenn beide Taktraten in gleichem Maß ansteigen, hätte ich erwartet, dass das Ergebnis höher liegt als beide einzeln, ähnlich wie wenn der Speichertakt steigt

gbm31
2023-02-13, 13:23:41
Gigabyte-Support-Story follow up:

Es wird konkreter :-)

Lehdro
2023-02-15, 14:07:03
Ich habe gestern nochmal die Lüfter RPM mitloggen lassen: Die Aorus Master fängt, wie schon beschrieben, bei 1400 RPM an - niedriger ist direkt "aus" laut Lüfterkurve. Danach regelt meine aber brav hoch bis die angepeilte Temperatur erreicht wird. Bei ~450W liege ich bei rund 1800 RPM. Darüber, also mit OC, geht es Richtung 2200 RPM. Es gibt also durchaus eine Lüfterkurve, nur fängt die halt erst bei 1400 RPM an...

gbm31
2023-02-15, 14:45:47
Ja, aber bei mir drehen die Lüfter mit GCC-Kurve dann nicht mal 1400 an, sondern gehen auf 1700 und dann wieder runter.

Mit dem AB laufen sie mit ca. 700 an. Drehen aber trotzdem immer mal auf 1700 hoch weil irgendwas Panik schiebt im tollen BIOS...

Lass ich sie permanent bis 60° mit ~900 laufen und ab da linear hoch auf 100% bei 88° dann landen sie übblicherweise bei 1050 bei Vollast und haben dieses Hochgedrehe nicht.

Die Lüfter sind auch nicht mein Hauptproblem, das hab ich ganz gut geregelt.

Ich find die RGB Geschichte viel nerviger. Tut nicht und geht erst nach dem Boot aus der Default-Einstellung

Das war bei Palit mit dem Speicher auf der Karte viel besser, ausgestellt hieß da auch Booten ohne Disco-Bling-Bling.

Lehdro
2023-02-15, 15:24:16
Klingt ordentlich kaputt bei dir. Bei mir geht es wie gesagt mit dem ausschalten ohne Probleme. Gibt es eigentlich einen Stecker für das Display/RGB-Kram den man zur Not ziehen könnte?

gbm31
2023-02-15, 20:19:51
Klingt ordentlich kaputt bei dir. Bei mir geht es wie gesagt mit dem ausschalten ohne Probleme. Gibt es eigentlich einen Stecker für das Display/RGB-Kram den man zur Not ziehen könnte?

Nope, RGB und Lüfterkabel laufen über über dieselben Stecker.

Im Luxx und PCGH Forum sind paar Aorus und Gaming OC User mit genau derselben Problematik.

Auch Regkeys und Appdata Ordner löschen hilft nicht.

ChaosTM
2023-02-15, 20:25:05
Mein Gehäuse ist gsd. zu. Aber der Inno Schriftzuge ist/wäre eher dezent und blinkt nicht blöd herum. Zur Not könnte man den mit dickem, schwarzen Panzerband abkleben..

SentinelBorg
2023-02-16, 01:21:24
Nope, RGB und Lüfterkabel laufen über über dieselben Stecker.

Im Luxx und PCGH Forum sind paar Aorus und Gaming OC User mit genau derselben Problematik.

Auch Regkeys und Appdata Ordner löschen hilft nicht.
Hast du meine Posts zu dem Thema mit der Gaming OC gelesen? Bei mir kam das daher dass Fan 2 mit 30% unruhig bei den RPM lief. Wenn ich die Lüfterkurve stattdessen bei 36% (56% im AB) starten lasse, läuft er ruhig mit um die 740 RPM und das kurze Aufgeheule ist seitdem komplett weg.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13221404&postcount=2993 war der Post. Wobei ich mittlerweile weiss dass Fan 2 der beim Loch ist, während Fan 1 die anderen beiden repräsentiert. Und x5% war nicht ganz stabil, x6% komplett bisher.

gbm31
2023-02-16, 08:52:17
Hast du meine Posts zu dem Thema mit der Gaming OC gelesen?

Hab ich. Meine Kurve geht so:

SamLombardo
2023-02-16, 09:10:12
Hab ich. Meine Kurve geht so:
Ist da auch ein Offset drin, oder geht die tatsächlich auf 50%

gbm31
2023-02-16, 09:26:11
Ist da auch ein Offset drin, oder geht die tatsächlich auf 50%

Nein, ist wie bei dir. die drehen so mit ~700 los und erreichen bei 62° ~1000

SamLombardo
2023-02-16, 09:40:38
Nein, ist wie bei dir. die drehen so mit ~700 los und erreichen bei 62° ~1000
Du meinst wahrscheinlich SentinelBorg, aber danke für die Info ;).

gbm31
2023-02-16, 10:02:56
Du meinst wahrscheinlich SentinelBorg, aber danke für die Info ;).

:weg: Kaffeeeeeee!

La Junta
2023-02-20, 22:27:34
Ich habe heute die PNY RTX4090 VERTO Edition bekommen. Da ich den Waküblock noch nicht habe (sollte am 1.3.23 ankommen) , habe ich die RTX 3080er ausem Kreislauf rausgenommen und die 4090er Luftgekühlt eingebaut .
Die Graka ist einfach nur Top !!! . Alles @ Stock geht die Graka @ ca. 2750MHZ und die Lüfter drehen im geschlossenem Tower mit ca 1300 RPM . MIt 2700MHZ GPU @ 0.925V und +1200MHZ RAM , drehen die Lüfter um die 1K und der Verbrauch in MW2 ist bei ca. 220-250W in 1440P ohne DLSS , bei deutlich mehr FPS verglichen mit der RTX 3080er @ DLSS . Keine Ahnung wie andere 4090er sind , aber die PNY ist wirklich sehr gut und das bei vermeintlich schwachem Design (Referenz Design) . Spulenfiepen hat sie jedoch ziemlich ausgeprägtes , ähnlich meiner alten Gigabyte 3080er Waterforce . Ich bin ziemlich zufrieden damit soweit .
OCing habe ich mal @ 1.05V und 3GHZ und +1200MHZ RAM getestet und schneint zu laufen @ Luft (ca. 45mins. @ MW2 getestet) .

Cubitus
2023-02-21, 15:58:38
Ich habe heute die PNY RTX4090 VERTO Edition bekommen. Da ich den Waküblock noch nicht habe (sollte am 1.3.23 ankommen) , habe ich die RTX 3080er ausem Kreislauf rausgenommen und die 4090er Luftgekühlt eingebaut .
Die Graka ist einfach nur Top !!! . Alles @ Stock geht die Graka @ ca. 2750MHZ und die Lüfter drehen im geschlossenem Tower mit ca 1300 RPM . MIt 2700MHZ GPU @ 0.925V und +1200MHZ RAM , drehen die Lüfter um die 1K und der Verbrauch in MW2 ist bei ca. 220-250W in 1440P ohne DLSS , bei deutlich mehr FPS verglichen mit der RTX 3080er @ DLSS . Keine Ahnung wie andere 4090er sind , aber die PNY ist wirklich sehr gut und das bei vermeintlich schwachem Design (Referenz Design) . Spulenfiepen hat sie jedoch ziemlich ausgeprägtes , ähnlich meiner alten Gigabyte 3080er Waterforce . Ich bin ziemlich zufrieden damit soweit .
OCing habe ich mal @ 1.05V und 3GHZ und +1200MHZ RAM getestet und schneint zu laufen @ Luft (ca. 45mins. @ MW2 getestet) .

Nice, der Chip scheint gut zu sein.
3 GHz bei 1.05 sind super und das UV auch.

Allerdings weisst du erst ob es rockstable ist wenn du mehrere Stunden verschiedene Spiele spielst.