PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17

Radeonfreak
2023-05-25, 20:19:53
Wie schauts denn so mit UV aus?


Da muss ich leider passen. :usad:

RoughNeck
2023-05-25, 20:33:26
Macht nix, werd ich mich morgen damit beschäftigen.

Danke trotzdem.
Weiß nicht wie deine is, meine ist sehr leise was ich bis jetzt so nicht hören durfte.

Radeonfreak
2023-05-25, 20:46:25
Das ist sie. :) Beste Karte die ich je hatte.

Sag mal bescheid was beim UV rauskommt.

Exxtreme
2023-05-25, 22:57:34
Und mit was übertaktet ihr den RAM? Mit MSI Afterburner, oder?

Radeonfreak
2023-05-25, 23:02:36
Ja.

aceCrasher
2023-05-25, 23:20:55
Wie schauts denn so mit UV aus?
UV über den Curve Optimiser ist weniger effektiv als bei der 30er Serie, da der Crossbar Takt an die Spannung gekoppelt ist. Du verlierst also zum Taktverlust überproportial viel Leistung. Die beste Herangehensweise meiner Meinung nach ist erst den maximalem GPU/Mem offset auszuloten und dann das power limit auf den gewünschten Wert zu stellen. So verliert man bei leichter Last weniger Leistung da die Spannung, und damit der Crossbartakt, im Vergleich zu UV per Curve Editor nicht auf einen niedrigen Wert festgenagelt ist. Ich persönlich fahre +140/+1400 (gpu/mem) offset bei 89% power limit. Mem Offset über 1500 sollte man nicht einstellen, da ab diesem Punkt die Timings des Speichers gelockert werden.

RoughNeck
2023-05-25, 23:28:40
Danke für die Info :up:

Sardaukar.nsn
2023-05-25, 23:57:45
UV über den Curve Optimiser ist weniger effektiv als bei der 30er Serie, da der Crossbar Takt an die Spannung gekoppelt ist. Du verlierst also zum Taktverlust überproportial viel Leistung. Die beste Herangehensweise meiner Meinung nach ist erst den maximalem GPU/Mem offset auszuloten und dann das power limit auf den gewünschten Wert zu stellen. So verliert man bei leichter Last weniger Leistung da die Spannung, und damit der Crossbartakt, im Vergleich zu UV per Curve Editor nicht auf einen niedrigen Wert festgenagelt ist. Ich persönlich fahre +140/+1400 (gpu/mem) offset bei 89% power limit. Mem Offset über 1500 sollte man nicht einstellen, da ab diesem Punkt die Timings des Speichers gelockert werden.

Interessant, ich komme zu fast genau der selben Erkenntnis. Mit meiner 3080 10GB habe ich noch klassisch UV mit einer fixen Spannung bzw. Kurve gefahren. Mit Lovelace habe ich bei +150/+1500 und begrenztem Powerlimit auf ~360 Watt die besten Ergebnisse.

Platos
2023-05-26, 02:12:00
Ihr vergesst dabei nur, dass das Powerlimit im einen Spiel vlt. ausreicht, im nächsten aber nicht mehr und dann bricht die Leistung ein.

Dazu kommt noch, dass selbst innerhalb eines Spiels die Last schwanken kann. Das führt dann zu schwankenden Taktraten und das führt zu miesen Frametimes.

Ihr bencht quasi das Spiel, das ihr zum Benchen nutzt. In allen anderen kanns deutlich weniger FPS/Watt geben mit nem Powerlimit.

Aber muss ja jeder selbst wissen.

Langlay
2023-05-26, 03:51:37
Ihr vergesst dabei nur, dass das Powerlimit im einen Spiel vlt. ausreicht, im nächsten aber nicht mehr und dann bricht die Leistung ein.


So groß ist der Unterschied nicht. Wenn du das PT moderat verringerst verlierst du nur sehr wenig Leistung. Ist halt der Kompromis aus Leistung und Stromverbrauch.

Wenns nur um Stromverbrauch geht kommst halt um den Curveeditor nicht rum. Meine FE 2520Mhz @ 875mV liegt in den meisten Spielen bei <300W und und ist halt <10% langsamer als Stock. Und selbst in Furmark zieht die Karte mit den Settings dann "nur" ~350W.

SamLombardo
2023-05-26, 06:22:08
Ihr vergesst dabei nur, dass das Powerlimit im einen Spiel vlt. ausreicht, im nächsten aber nicht mehr und dann bricht die Leistung ein.

Dazu kommt noch, dass selbst innerhalb eines Spiels die Last schwanken kann. Das führt dann zu schwankenden Taktraten und das führt zu miesen Frametimes.

Ihr bencht quasi das Spiel, das ihr zum Benchen nutzt. In allen anderen kanns deutlich weniger FPS/Watt geben mit nem Powerlimit.

Aber muss ja jeder selbst wissen.

Genau deswegen bin ich auch wieder auf Curve UV zurück.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13232337&postcount=3222

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13232666&postcount=3226

ChaosTM
2023-05-26, 06:39:06
Verwende momentan eine Kombination aus beiden. Beim FS2020 fahr ich momentan probeweise mit 25!% PT und FG. Resultiert dank des 5800X3D in 50fps+ auch in früher kritischen Situationen. Doppelbilder gibt es auch bei HUD Einblendungen gsd., nicht mehr.
Bei aufwendigeren Spielen ist es dann eine Kombi aus Curve UV und PT zwischen 70 und 100%. Je nach Spiel.

Lässt sich mit Nachbrenner Presets sehr einfach steuern.

Triniter
2023-05-26, 07:20:24
Ich glaub da muss ich mich auch mal einlesen in die ganze UV und PL Thematik.

The_Invisible
2023-05-26, 07:50:23
Die benötigte Leistungsbandbreite ist bei fix eingestellten UV je nach Game einfach enorm, ich sehe da bei mir bis zu 150w Differenz je nach Game.

Bei Power Viren ist UV aber klar schneller, einfach Mal Q2RTX testen, außer man ist bereit 600W tdp zu fahren...

OgrEGT
2023-05-26, 09:16:30
Ihr immer mit Q2RTX...
Q1 Darkplaces FTW :ulol:

Platos
2023-05-26, 12:48:51
Ich habe halt "nur" ne 4070Ti, aber komme da mit 0.89v auf wunderbare ~170Watt im Normalfall (Bsp: Witcher 3 mit RT, DLSS und Framegen).

Das PL habe ich auf 80%, aber es wurde noch nie erreicht und das ist auch gewollt so. Das ist quasi nur für den "Notfall", weil ich nicht will, dass sich die Karte mehr Strom gönnt. Ist aber wie gesagt so eingestellt, dass selbst 205Watt dann eben noch gehen mit 80%.

Ich habe stundenlang mit Powerlimits und UV rumprobiert und meiner Erfahrung nach ist das eben wie schon gesagt nix anderes als den Stromverbrauch (Powerlimit) auf ein Spiel zu optimieren. Im Nächsten reicht der Strom dann nicht mehr und die FPS fallen in den Keller.

Und wie gesagt, dann gibts auch so Spiele, die schon bei sich selbst enorme Unterschiede im Wattverbrauch haben. Dann ein Powerlimit anzulegen, ist gift. Aber wie schon gesagt: Irgendwann wird halt einfach der Fall kommen, indem die Karte mehr Strom bräuchte, um den Takt zu halten (egal ob nun IM selben Spiel oder in anderen Spielen). Und dann habt ihr halt verkackt.

Und dann gibt es noch einen dritten Punkt, den ich noch nicht erwähnt habe: Seit Tensor und RT gibt es noch mehr einen Grund, Powerlimits zu meiden: Ich habe wie gesagt ca. 170-175W maximal in Spielen (Witcher 3 @ 4k max RT alles bling bling). Ebenfalls habe ich das so in etwa bei Superposition Bench. Auch in anderen Spielen (Cyberpunk habe ich noch nicht getestet).

Ja nun wenn ich jetzt aber AI gedöns mache (AI Upsaling mit Tensor), dann habe ich 200-205W Stromverbrauch (das ist grad so knapp unter meinem 80% Powerlimit).

Ich weiss, AI Upscaling ist kein Gaming, aber was ich damit sagen will: Selbst ein Witcher 3 mit RT und DLSS ist weit entfernt davon, eine Ada Grafikkarte voll auszulasten (man sieht ja nur die GPU Auslastung und nicht Tensor- und Rt Cores).

Also seit dem man auch Tensor- und RT Cores in Spielen nutzt (oder eben nicht), kann sich auch dadurch noch zusätzlich! einen enormen Unterschied im Wattverbrauch von Spiel zu Spiel ergeben. Man sieht ja nur die GPU Last. Nur so als Input.

Und das mit dem schwankenden Wattbedarf gilt übrigens auch für ohne DLSS und RT und gilt nicht nur für Lovelace, selbst für Pascal.

Troyan
2023-05-29, 10:06:05
Dank MSI sind jetzt eigentlich nur noch die am Arsch, die Farbenblind sind, wenn es um den Stromanschluss geht: https://www.youtube.com/watch?v=d1WLq4arovo

RoughNeck
2023-05-29, 10:44:53
Die Kontrollstränge wurden außerdem vor paar Monaten leicht verändert, die etwas weiter rein gewandert, so startet die Karte nur wenn die beiden Kontakt haben. Aber es wird immer wieder welche geben die es schaffen werden Kabel zu beschädigen, der Dummheit sind keine Grenzen gesetzt.

Denniss
2023-05-29, 11:02:15
Die Dummheit liegt eher bei den Designern die keinen sicheren Stecker geschaffen haben. Die Dimensionen sind einfach zu klein für die Menge an Strom die da durchgehen darf. Dazu waren die Spezifikationen anfangs zu lasch so das teils keine sicheren Verbindungen hergestellt wurden.

Triniter
2023-05-29, 11:43:09
Wie schauts denn so mit UV aus?

Meine scheint 2580 MHz bei 0,875V zu schaffen, einen ganz großen Test hab ich noch nicht gemacht. 2610MHz war nicht stabil.

dildo4u
2023-06-04, 13:24:28
Am Ende vom Video hat er ein echtes Matrix PCB.
Und auch die Strix Modelle sollen neue Spannungswandler bekommen um das Spulenfiepen zu reduzieren.


cDtbfzfY4G0

J7cztUKz5zo

r3ptil3
2023-06-06, 16:16:58
Computerbase testet mit einem 7950X3D :wink:

https://i.ibb.co/VBnZ7J5/image.png (https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd)

Verrückt - wird (oder ist)definitiv in die Grafikkartengeschichte eingehen wie die 8800 GTX.

Exxtreme
2023-06-06, 16:30:35
Jau. Das Ding vernichtet alles. Zuerst den Baum und dann alles, was spätestens bei 3 eigentlich auf den Baum gehüpft wäre. Man sieht aber auch wieviel Raum zwischen der RTX 4080 und 4090 ist.

Ex3cut3r
2023-06-06, 16:40:07
Mir fällt eher auf, wie schlecht AMD gerade unterwegs ist. Die 7900XTX kann sich kaum von einer sehr stark kastrierten 4080 absetzen. Und die 7900 XT krebst irgendwo gegen 3080 Ti und 6950 XT rum.

Wo bleibt eigentlich AMD Gegenschlag zur 4070 Ti und 4070 non Ti? Ins Wasser gefallen? :freak:

Raff
2023-06-06, 16:49:06
Computerbase testet mit einem 7950X3D :wink:

Aber am Stock. Damit ist der auch nicht schneller als ein Wald-und-Wiesen-13900KS oder ein stattlich geprügelter Alter Lake. ;)

MfG
Raff

Exxtreme
2023-06-06, 16:53:55
Wo bleibt eigentlich AMD Gegenschlag zur 4070 Ti und 4070 non Ti? Ins Wasser gefallen? :freak:

Der Gegenschlag zur 4070 Ti ist wohl die 7900 XT. Ähnlich schnell und etwas billiger. Wobei man bei diesen Diablo 4 UHD-Benchmarks wohl bissl aufpassen muss. Wenn das stimmt, dass das Spiel Texturen weglässt wenn es einen Speichermangel gibt dann läuft das Spiel auf Grafikkarten mit wenig VRAM zu schnell weil was weggelassen wird.

dildo4u
2023-06-06, 16:58:06
Auch die 7600 ist langsamer als das RDNA2 Gegenstück da scheint es noch zu klemmen.
Dafür kann man es mit 16GB RDNA2 ohne Probleme maxen was Texturen angeht.

Troyan
2023-06-06, 17:04:43
Sieht wie ein Bandbreitenbenchmark aus.

Kann jemand sagen, was die 4090 Stock in 4K an Strom zieht?

Raff
2023-06-06, 17:13:05
Sieht wie ein Bandbreitenbenchmark aus.

Kann jemand sagen, was die 4090 Stock in 4K an Strom zieht?

Circa 420 Watt. Nicht auffällig.

MfG
Raff

Langlay
2023-06-06, 17:16:04
Kann jemand sagen, was die 4090 Stock in 4K an Strom zieht?

Kommt starkt auf Spiel an, aber so ~380W kannste Stock einplanen, die heavy Hitter gehen so auf ~420W.

r3ptil3
2023-06-06, 17:41:38
j2AX1ERJ2tE

Mit wenigen Klicks wäre die auf weit unter 300W bei nicht mal 10% Performanceverlust.

Troyan
2023-06-06, 17:48:47
Cool, danke.

Was ist das? 80% effizienter als die 3090TI bei 35% höheren Takt? :eek:

The_Invisible
2023-06-07, 08:33:44
https://youtu.be/j2AX1ERJ2tE

Mit wenigen Klicks wäre die auf weit unter 300W bei nicht mal 10% Performanceverlust.

Ist auch so, hier so 200-230W mit 4k/144/max/DLAA+FG... Schon arg mit welcher Leichtigkeit die so >1Mrd Pixel pro Sekunde raushaut :D

ChaosTM
2023-06-07, 08:43:07
Das ist das schöne an der Linda GPU. Ist mit 300 Watt kaum langsamer als mit 450..

add.: messbar natürlich, spürbar - nope

Raff
2023-06-07, 09:18:12
Interessant, wie hartnäckig sich das Gerücht hält. Die RTX 4090 ist natürlich keine Zauberkarte, die Leistung ohne Energiezufuhr bringt. Die oft geringe Differenz zwischen Standard-Powerlimit und manueller Drossel kommt schlicht daher, dass die Karte in den seltensten Fällen voll ausgelastet wird und somit nur selten am Powerlimit arbeitet. Gibt man der Karte etwas zu tun, das ihre Kräfte wirklich erfordert, bricht die Leistung mit 300 Watt (oder irgendeinen anderen kleinen Zahl) natürlich massiv ein - es sei denn, man reduziert auch die Spannung manuell.

"Spielt" zur Verschaulichung einfach mal Furmark. Einmal mit 450 Watt, einmal mit 300 Watt, einmal mit ULV-Kurve. Das ist keineswegs praxisnah, aber sehr anschaulich. Würden alle Transistoren der Wunder-GPU AD102 ohne Power-Drossel gleichzeitig schalten, gäb's einen kurzen Knall und Gestank - weil die Energie eben doch gebraucht wird. ;) Versteht mich nicht falsch, gegenüber jeder Ampere-GPU ist Ada massiv effizienter, unter jeder Last, aber die Behauptung, dass sie mit "handelsüblichen" Powerlimits nicht einbricht, trifft nur auf leichte = unterfordernde Workloads zu.

MfG
Raff

Thunder99
2023-06-07, 09:55:33
Kann ich so bestätigen bei einer 4080 :). Am Beispiel PT runter und Takt Hoch ist die Performance fast wie Default. Bekommt die Karte aber richtig was zu tun bricht der Takt ein auf Basis Takt oder ggf sogar darunter. Gesehen in Gears 5 auf 4K Downsampling auf 1440p.

VooDoo7mx
2023-06-07, 10:15:58
Der Gegenschlag zur 4070 Ti ist wohl die 7900 XT. Ähnlich schnell und etwas billiger. Wobei man bei diesen Diablo 4 UHD-Benchmarks wohl bissl aufpassen muss. Wenn das stimmt, dass das Spiel Texturen weglässt wenn es einen Speichermangel gibt dann läuft das Spiel auf Grafikkarten mit wenig VRAM zu schnell weil was weggelassen wird.

Selbst wenn es wirklich der Fall wäre und niedriger aufgelöste Texturen geladen werden: Texturen kosten keine Rechenleistung, nur Speicher.

Mir fällt eher auf, wie schlecht AMD gerade unterwegs ist. Die 7900XTX kann sich kaum von einer sehr stark kastrierten 4080 absetzen. Und die 7900 XT krebst irgendwo gegen 3080 Ti und 6950 XT rum.

Wo bleibt eigentlich AMD Gegenschlag zur 4070 Ti und 4070 non Ti? Ins Wasser gefallen? :freak:

Eine 4080 ist nicht stark kastriert. Es sind nur etwa 5% der SM deaktiviert und der Speicher untertaktet. Auf der 4080 wird untertakteter 24Gbps GDDR6X verbaut.
Im Gegensatz zur Vorgängergeneration haben 4080 und 4090 nicht den selben Chip verbaut. Tatsächlich ist eine 4090 stärker kastriert als eine 4080.

Jedoch würde wohl eine spekulative 4080Ti oder 4080 Super wo alle 80SM des GA103 aktiv sind und ggf der Speicher mit den vollen 24Gbps läuft, wohl auch eine 7900XTX wohl überall schlagen. Von RT ganz zu schweigen. Wenn man bei dem Diablo 4 Benchmark da nochmal 5% auf die 4080 draufpackt ist sie dann von der 7900XTX.

Cool, danke.

Was ist das? 80% effizienter als die 3090TI bei 35% höheren Takt? :eek:

Also meine per curve undervoltete 4090 macht die gleiche Arbeit wie meine undervoltete 3080Ti bei ca 50-60% des Stromverbrauchs der 3080Ti. Also kommt deine Rechnung in etwa hin.

Circa 420 Watt. Nicht auffällig.

Wenn die 4090 bei Diablo 4 default 420W zieht, ist das schon dahin auffällig, dass das Spiel die Karte sehr gut auslasten kann und die Treiber schon sehr gut laufen. Sieht man ja auch an dem Performancevorteil.
Viele Speieln ziehen ja nicht mal 350W, da langweilt sich eine 4090 nur.

gbm31
2023-06-07, 10:22:15
...dass sie mit "handelsüblichen" Powerlimits nicht einbricht, trifft nur auf leichte = unterfordernde Workloads zu.

MfG
Raff

Sag ich schon die ganze Zeit, aber hier weiss man es ja immer besser.

Deswegen läuft meine bei default 1050mV und leichter Ausnutzung des erreichbaren Takts und nimmt sich halt was sie in der jeweiligen Situation braucht.

Wozu hab ich sie denn sonst?

Exxtreme
2023-06-07, 10:25:17
Selbst wenn es wirklich der Fall wäre und niedriger aufgelöste Texturen geladen werden: Texturen kosten keine Rechenleistung, nur Speicher.


Wenn keine Texturen gerendert werden weil sie nicht da sind dann entlastet das die TMUs der Grafikkarte. Und Speicherbandbreite vom VRAM zum Grafikchip entlastet das wohl auch. Und grad die Grafikkarten, die stark beim VRAM beschnitten sind, haben gleichzeitig einen stark beschnittenen Speicherbus.

Cubitus
2023-06-07, 10:47:01
Hab ohne FG mit normalen UV-Profil schon um die ~280 Watt bei 4K+HDR+DLAA, 2620 Mhz@0,88 mV. bei 165 FPS
Halte mir die Option aber offen FG einzusetzen, könnte jetzt ein Ultra UV Profil einstellen, extra für Diablo. Oder ich drehe einfach das PL runter, quick and dirty. Schon schön, so eine 4090 :D

The_Invisible
2023-06-07, 11:35:26
Interessant, wie hartnäckig sich das Gerücht hält. Die RTX 4090 ist natürlich keine Zauberkarte, die Leistung ohne Energiezufuhr bringt. Die oft geringe Differenz zwischen Standard-Powerlimit und manueller Drossel kommt schlicht daher, dass die Karte in den seltensten Fällen voll ausgelastet wird und somit nur selten am Powerlimit arbeitet. Gibt man der Karte etwas zu tun, das ihre Kräfte wirklich erfordert, bricht die Leistung mit 300 Watt (oder irgendeinen anderen kleinen Zahl) natürlich massiv ein - es sei denn, man reduziert auch die Spannung manuell.

"Spielt" zur Verschaulichung einfach mal Furmark. Einmal mit 450 Watt, einmal mit 300 Watt, einmal mit ULV-Kurve. Das ist keineswegs praxisnah, aber sehr anschaulich. Würden alle Transistoren der Wunder-GPU AD102 ohne Power-Drossel gleichzeitig schalten, gäb's einen kurzen Knall und Gestank - weil die Energie eben doch gebraucht wird. ;) Versteht mich nicht falsch, gegenüber jeder Ampere-GPU ist Ada massiv effizienter, unter jeder Last, aber die Behauptung, dass sie mit "handelsüblichen" Powerlimits nicht einbricht, trifft nur auf leichte = unterfordernde Workloads zu.

MfG
Raff

Ja eh, ich nenne da mal wieder Q2RTX weils so einfach geht, da sieht man schön wie der Takt runtergeht. Auch sieht man schön wie viel UV bringt.

Aber wie schon gesagt, so eine 4090 ist einfach schön, (fast) Power ohne Ende und selbst mit starker Drosselung ist sie noch immer die schnellste Karte.

Langlay
2023-06-07, 13:48:42
"Spielt" zur Verschaulichung einfach mal Furmark. Einmal mit 450 Watt, einmal mit 300 Watt, einmal mit ULV-Kurve. Das ist keineswegs praxisnah, aber sehr anschaulich. Würden alle Transistoren der Wunder-GPU AD102 ohne Power-Drossel gleichzeitig schalten, gäb's einen kurzen Knall und Gestank - weil die Energie eben doch gebraucht wird. ;) Versteht mich nicht falsch, gegenüber jeder Ampere-GPU ist Ada massiv effizienter, unter jeder Last, aber die Behauptung, dass sie mit "handelsüblichen" Powerlimits nicht einbricht, trifft nur auf leichte = unterfordernde Workloads zu.


Wenn man bereit ist etwas (<10%) Leistung liegen zu lassen, kann die 4090 schon sehr sparsam sein im Vergleich zur Leistung.

Mit 2520Mhz @ 875mV zieht meine 4090 ~350W in Furmark und 320W in Q2RTX. Und im Vergleich zu den anderen Karten auf dem Markt ist das schon ne Hausnummer.

Die AMD Navi31 Karten kann man total vergessen und die kleineren Nvidia Karten leiden halt darunter das man die Spannnung nicht so tief absenken kann wie bei der 4090. Bei der 4090 kommste halt auf 0,87 V runter bei der z.b. 4080 gehts nur auf 0,94 V runter.


In 99% der Spiele bin ich mit <=300W unterwegs was für die Leistung schon mehr als akzeptabel ist.

Cubitus
2023-06-07, 15:26:22
Die AMD Navi31 Karten kann man total vergessen und die kleineren Nvidia Karten leiden halt darunter das man die Spannnung nicht so tief absenken kann wie bei der 4090. Bei der 4090 kommste halt auf 0,87 V runter bei der z.b. 4080 gehts nur auf 0,94 V runter.

In 99% der Spiele bin ich mit <=300W unterwegs was für die Leistung schon mehr als akzeptabel ist.

Den saufenden AMD Karten würde FG echt gut tun, aber naja ;D

DrFreaK666
2023-06-07, 16:26:25
Den saufenden AMD Karten würde FG echt gut tun, aber naja ;D

Oder den RTX3000 Karten, aber naja ;D

Ex3cut3r
2023-06-07, 16:58:52
Meiner HD 2900 XT mit satten 512MB VRAM auch. Endlich Crysis 1 flüssig zocken! :rolleyes:

Wake
2023-06-07, 20:15:50
Ze Zeagle has landed, I repeat ze Ziegel has landed!
https://i.imgur.com/49aIB0L.png
Einbaupic reiche ich in den nächsten Tagen nach wenn mein Cablemod-Adapter sich blicken lässt.

Hab mir eine der "Volks"4090er geholt, mal sehen wie sie sich so schlägt.
Ersten Erfahrungen im Netz sollen die PNYs ja leise+kühl sein und auch kein allzu auffälliges Spulenpfeifen aufweisen.
Die simple Shroud ist zwar nur aus Plastik aber mir gefällt das black Brick-Design, außerdem wohl recht leicht abmontierbar für den Fall dass man in Zukunft ein paar A12x25er samt Splitter- und Adapterkabel drauf fixieren möchte.
Fan- und RGB-Kabel (letzteres wird abgesteckt) sind auch gut zugänglich von oben und nicht erst unter dem Kühler vergraben.
Mitgeliefertes anti sag-bracket ist wohl dasselbe was schon bei meinem Lian Li dabei war also spar ich mir den Einbau (doppelt wäre zwar prinzipiell möglich aber nervig für die SSD-Slots und womöglich müssten die Mainboard-Kühlbleche weichen wenn man die mittleren Löcher benützt).

rentex
2023-06-07, 22:14:50
@Wake Have fun with the ziegel :-D

Sunrise
2023-06-07, 23:06:34
…die kleineren Nvidia Karten leiden halt darunter das man die Spannnung nicht so tief absenken kann wie bei der 4090. Bei der 4090 kommste halt auf 0,87 V runter bei der z.b. 4080 gehts nur auf 0,94 V runter.
The more you buy, the more you save

basix
2023-06-08, 10:48:07
Auch 0.88V bei der 4090 sind schade. Wieso nicht 0.8V?

The_Invisible
2023-06-08, 10:56:33
Vielleicht gehts nicht wegen Crossbar-Takt? Wusste ich aber auch net das die 4080 nicht weiter runter geht, ein Grund mehr für die 4090 ; )

r3ptil3
2023-06-08, 11:01:33
Was mich brennend interessieren würde, ist die leicht angepasste neue Version der Strix, welche Spulenfiepen eliminieren soll.

Wenn die wirklich 0 Spulenfiepen hätte, würde ich sofort meine Suprim X 4090 ersetzen.

The_Invisible
2023-06-08, 11:25:13
Mal sehen obs stimmt oder nur Marketing, MSI bewirbt das ja auch seit Release (https://www.msi.com/Graphics-Card/GeForce-RTX-4090-SUPRIM-X-24G) und gehört zu den schlimmsten bei spulenfiepen :D

Exxtreme
2023-06-09, 10:40:12
Wenn die wirklich 0 Spulenfiepen hätte, würde ich sofort meine Suprim X 4090 ersetzen.

Du wirst wohl nie 100% Spulenfiepen wegbekommen. Bzw. kein Spulenfiepen ist nur dann möglich wenn es keine Spulen gibt. Die Frage ist immer nur unter welchen Bedingungen es auftritt und wie laut es ist. Hat man eine Grafikkarte oder Hauptplatine mit Spulenfiepen dann würde ich eventuell eine gute Gehäusedämmung in Betracht ziehen.

00-Schneider
2023-06-09, 10:58:38
Meine 4090 hat auch leichtes Spulenfiepen. Aber das ist nicht hörbar, da die Lüfter allein schon lauter sind. Und die Lüfter sind wiederum nicht hörbar weil der Ambientsound/Musik bei jedem Game schon lauter ist.

Eigentlich ist die Diskussion um Spulenfiepen und Lüfterlautstärke eine reine Phantomdiskussion beim Gaming.

Radeonfreak
2023-06-09, 11:18:45
Hab ich auch noch nie gehört. aus den genannten Gründen und weil ich sowieso ein 100fps Cap hab. So vong Stromsparungsheizgründen her.

Linmoum
2023-06-09, 11:19:04
Es gibt genug Karten, die hörst du auch aus mehreren Metern Entfernung noch, selbst mit Kopfhörern. Wobei die meisten Leute wahrscheinlich deutlich näher als das an ihrem Rechner sitzen.

Wer unempfindlich gegen solche Störgeräusche ist, okay. Gibt ja auch genug Leute, die ihre Lüfter mit 1000rpm laufen lassen und das als "silent" betiteln. Jeder, wie er meint.

r3ptil3
2023-06-09, 12:03:35
Es gibt aber bspw. von Der8auer einige gute Tests dazu.
Bspw. kritisiert er deutlich hörbares Spulenfiepen und bei einigen Modellen (Gigabyte RTX 4080 Maste glaube ich), sagt er, dass kein Spulenfiepen vorhanden ist.

Das was die MSI Suprim X 4090 hier hat, ist nicht schön. UV + FPS-Cap. und trotzdem hörbar und das Gehäuse steht 1.2m weit weg.
Das Spulenrasseln übertönt alle Lüfter meines Systems, wobei diese auch mit ca. 700-900 RPM laufen, also wirklich sehr leise sind unter Last.

Exxtreme
2023-06-09, 12:10:14
Ich habe die Gainward Phantom RTX 4090 und sie singt leicht wenn ich den FF14 Endwalker-Benchmark laufen lassen. Ansonsten ist es ein sehr leises Piepen. Die Lüfter sind da lauter und wenn ich die Kopfhörer anziehe dann ist es eh' egal. :)

Ansonsten gibt es hier eine große Übersicht:
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

r3ptil3
2023-06-09, 12:26:18
Zotac Airo + Gigabyte Gaming 4090 scheinen ja fast kein Spulenrasseln zu haben.

@Wake

Kannst du berichten wie sich die PNY schlägt bei 100% GPU Auslastung?

The_Invisible
2023-06-09, 13:12:20
Meine 4090 hat auch leichtes Spulenfiepen. Aber das ist nicht hörbar, da die Lüfter allein schon lauter sind. Und die Lüfter sind wiederum nicht hörbar weil der Ambientsound/Musik bei jedem Game schon lauter ist.

Eigentlich ist die Diskussion um Spulenfiepen und Lüfterlautstärke eine reine Phantomdiskussion beim Gaming.

Kommt draufan, es gibt schon "leise" Games wo man alles hört, vor allem Abends und wie ich kein Freund von Kopfhörern ist. Aber wie schon mal gesagt, mein Handynetzteil neben dem PC fiept lauter und stört, muss ich immer ausstecken wenn nicht benötigt :D

VooDoo7mx
2023-06-09, 15:01:28
Nach 2 Wochen Gigabyte Gaming OC 4090 kann ich sagen, dass ich bei der Karte keinerlei Spulrenrasseln, -fiepen oder ähnliches höre. Und ich bin bei sowas sehr empfindlich.

Auch die Lüfter machen keinerlei ratternde oder klackernde Geräusche.

Nutze nie Kopfhörer und der PC ist vielleicht ein Meter von meinen Ohr. Gehäuse ist nicht gedämmt.

Ich hab jedoch bisher nur 450W max getestet. Und hab auch immer V Sync an. Also keine Spielemenus mit 4000fps. :ugly:
Real bin ich jedoch bei maximal 320W mit 0,875V 2505MHz. So gut wie immer jedoch auch da deutlich weniger. Mit etwas Glück kommt morgen mein Be Quiet Kabel, dann teste ich auch mal die 600W. :ugly:

Die Lüfter die leider erst mit 900rpm anlaufen sind damit die lautesten im PC. Beim Spielen stört das überhaupt nicht und im Office Betrieb sind sie aus.

Exxtreme
2023-06-09, 23:04:48
Zur Info, es gibt ein potentielles Problem mit Grafikkarten von Gigabyte. Es kann passieren, dass Teile der Platine anbrechen können. Wenn es eine Leitung in der Platine erwischt dann war's das. Gigabyte gibt anscheinend auch keine Garantie.

JFgsL5NFn_Y

wb5tlHJHVBs

Linmoum
2023-06-09, 23:33:54
Sieht mir stark nach der Folge von zu viel GPU Sagging aus. Was aufgrund der konkreten Position dieser Risse auch naheliegend erscheint und vermutlich - auf kurz oder lang - jede GPU betreffen kann. Deswegen empfehle ich jedem, bei dem ich sehe, dass die GPU stark durchhängt, auch entsprechende Gegenmaßnahmen.

Aber das gehört auch eher in den/die Ampere-Thead(s), denn es geht um 3000er-GPUs und nicht Ada.

Exxtreme
2023-06-09, 23:35:31
Aber das gehört auch eher in den/die Ampere-Thead(s), denn es geht um 3000er-GPUs und nicht Ada.

Laut JayZ betrifft es auch Ada. Deshalb habe ich es hier gepostet.

Ansonsten bei Gigabyte peinlichst drauf achten, dass man die Kühlerstütze nutzt.

Wake
2023-06-09, 23:44:10
Zotac Airo + Gigabyte Gaming 4090 scheinen ja fast kein Spulenrasseln zu haben.

@Wake

Kannst du berichten wie sich die PNY schlägt bei 100% GPU Auslastung?

Ich bin jetzt erstmal nur in Witcher 3 in 5K + alles max. inkl. RT rumgelaufen, da war das Spulenrasseln mittelstark.
Meine 3060 Ti FE war zwar etwas leiser aber auch hörbar.

Bemerkbar aus dem Gehäuse ja, aber eben Spulenrasseln/-surren/-brummen (wie man es auch nennen mag) und nicht - was ich viel schlimmer finde - so ein singender Pfeifton dabei der sich je nach Last ändert.

Da ich zu 99% mit dickem over-ear Headset game, hört man unter der Muschel selbst bei Ton aus gar nichts(!) davon - wenn die CPU-Last steigt ist das Windgeräusch der Noctuas (alle 13x A12x25er zusammen) da deutlicher zu hören. Sobald Sound drauf ist nimmt man aber auch davon nichts mehr wahr.
Falls ich wirklich mal am TV (der noch nicht aufgebaut ist, da sich die Monitorarm-Lieferung verspätet) was schaue und dann über dessen Boxen Sound ausgeben lasse, schätze ich mal nicht dass da etwas surren wird bei der niedrigen Last bzw. da es eh HW-Decode ist.

Einbaupic:
https://i.imgur.com/GmTRl9y.png
Hat mit dem B-Adapter mehr als genug Platz im O11XL, der NH-D14 ist da näher am Glas dran.
Bei der Adaptermontage bin ich erst etwas stutzig geworden, da es komplett eingesteckt schon arg eng bemessen ist mit der Plastikshroud (aber war ja auf der Kompatibilitätsliste) - Kontaktängste darf man hier nicht haben ;). Außerdem sind die Toleranzen wohl so gering, dass man schon ordentlich drücken muss um das Kabel von be quiet! unten dranzuhängen.

Um aus den alten Schriften des Internets zu zitieren:
"I would berry my 12VHPWR-cable so far inside your receptacle who ever could pull it out would be crowned king arthur"
Gesagt getan, mit der Wut von tausend Sonnen an allen Enden des Kabels und des Adapters rumgedrückt bis die Finger taub waren.
In HWiNFO ist beim "GPU PCIe +12V Input Voltage"-Minimum alles im grünen Bereich, einen Alert für <11.750 hab ich der Vorsorge halber trotzdem erstellt.

Achja, da das PNY-Logo im selben Weiß wie der POST code des Mainboards erstrahlt, sonst keine Faxen macht und auch ohne Licht im Zimmer nicht stört werd ichs evtl. einfach anlassen erstmal.

Edit:
Ist das eigentlich normal, dass der GPU-Z Rendertest (der ?-Button neben Bus Interface) bei einer 4090er nur kurz auf 4.0 und dann auf 2.0 zurückspringt?
Dachte schon, ich hätte die Daumenschrauben an der Slotblende oder das Anti sag-Bracket etwas zu fest angezogen aber in Witcher 3 ist alles durchgehend auf 4.0.
3DMark PCI Express feature test war mit 26.83 GB/s ohne Aussetzer auch unauffällig.

Ex3cut3r
2023-06-10, 11:43:00
OZhqmh3TkI8

Die GPU erinnert mich aber irgendwie an die DELL OEM Ampere GPUs.

basix
2023-06-10, 17:38:26
Sieht mir stark nach der Folge von zu viel GPU Sagging aus. Was aufgrund der konkreten Position dieser Risse auch naheliegend erscheint und vermutlich - auf kurz oder lang - jede GPU betreffen kann. Deswegen empfehle ich jedem, bei dem ich sehe, dass die GPU stark durchhängt, auch entsprechende Gegenmaßnahmen.

Aber das gehört auch eher in den/die Ampere-Thead(s), denn es geht um 3000er-GPUs und nicht Ada.

Im Video vergleicht er eine 4090 von Gigabyte und ASUS. Die Gigabyte biegt deutlich stärker durch. Bei ASUS ist es einfach geschickter gemacht, da sie den Kühler fest mit der Slotblende verschraubt haben, nahe beim PCIe-Slot Key eine Stütze / Distanzbolzen haben und die Ausfräsung bei Key schmaler ist. Dadurch vermeidet man das zu starke Durchbiegen an dieser Stelle. Gigabyte macht hier gleich 3 Fehler auf einmal. Ist man da noch etwas unsanft am Werk bei Ein- und Ausbau ist eine Bruchstelle wesentlich wahrscheinlicher als bei der ASUS Karte.

Eine Stütze / Unterlage würde ich dennoch verwenden. Wird bei den meisten Karten ja eh mitgeliefert. Und sonst reicht es, etwas anders zu unterlegen was das Durchbiegen begrenzt.

Linmoum
2023-06-10, 18:03:41
Der Vergleich von Jay spielt für die ganzen aufgetretenen Fälle (s. anderes Video) aber keine Rolle. ;) Das sind alles Ampere-Karten. Ob da jetzt bei den aktuellen Ada-Karten auch irgendwas passieren kann oder wird, ist reine Spekulation. Genauso, wie die tatsächliche Ursache dafür (sofern Gigabyte das nicht schon längst weiß).

Zumal dieser Vergleich von Jay eh relativ sinnfrei ist. Da hätte er von allen Herstellern Customs (also auch andere von GB) zum Vergleich nehmen sollen um zu sehen, wie das abseits von diesen zwei einzelnen aussieht.

aufkrawall
2023-06-10, 18:34:57
Der Vergleich von Jay spielt für die ganzen aufgetretenen Fälle (s. anderes Video) aber keine Rolle. ;) Das sind alles Ampere-Karten. Ob da jetzt bei den aktuellen Ada-Karten auch irgendwas passieren kann oder wird, ist reine Spekulation. Genauso, wie die tatsächliche Ursache dafür (sofern Gigabyte das nicht schon längst weiß).

Dass das PCB zu weich für die mechanische Spannung ist, sieht ein Blinder...

basix
2023-06-10, 19:56:11
@Limonum:
Nicht unwahrscheinlich, dass bereits bei Ampere die Gigabyte Karten ähnliche Designausgestaltungen hatten. Einen mit dem Kühler verschraubten Distanzbolzen sehe ich nämlich auf keinen der Bilder von Louis Rossman. Das ist eine gute und effektive Variante, die Duchbiegung diekt am Slot bei schweren Karten zu vermeiden: Hebelgesetz. Noch besser: Die tragende Struktur sind Kühler und Slotblech und nicht das PCB. 1-mal-1 von Elektronik Design: PCB darf nicht als mechanische Stütze betrachtet werden. Ab einem gewissen Gewicht sind immer andere tragende Konstruktionselemente notwendig. Beim Gigabyte vs. Asus Design der 4090 sieht man vom Schiff aus welche in dieser Hinsicht besser ausgelegt ist. Anscheinend bereits seit Ampere ein Problem ;)

Das PCB Material wird bei Asus und Gigabyte sehr ähnlich sein und die PCB Dicke ist vergleichbar. Dort sehe ich keine Probleme. Nur ein nicht optimales mechanisches Design.

Dass Gigabyte die Karten nicht unter Garantie laufen lässt verstehe ich. Eine solche mechanische Beschädigung ist nicht normal. Dennoch sollte Gigabyte dem vorbeugen, inbesondere bei 2kg+ GPUs. Und Gigabyte wird das Problem sicher bereits aufgefallen sein, leider nur keine Massnahmen getroffen.

r3ptil3
2023-06-11, 23:20:11
MSI Suprim X RTX 4090 IDLE Verbrauch: 28W

ASUS Strix RTX 4090 OC:
https://i.ibb.co/LSd43nm/Strix-4090.jpg

Wieso klappt das bei ASUS so gut?

gbm31
2023-06-11, 23:33:00
... macht mir jetzt nicht wirklich Angst...

Exxtreme
2023-06-12, 00:06:07
MSI Suprim X RTX 4090 IDLE Verbrauch: 28W

ASUS Strix RTX 4090 OC:
https://i.ibb.co/LSd43nm/Strix-4090.jpg

Wieso klappt das bei ASUS so gut?

Hast du eventuell andere Auflösungen fahren?

r3ptil3
2023-06-12, 00:11:21
Hast du eventuell andere Auflösungen fahren?

Alles identisch, nichts geändert, ausser:

MSI Suprim X 4090 raus, ASUS Strix RTX 4090 OC rein, Geforce-Treiber neu installiert - fertig.

WQHD, 165Hz, 10 Bit


War aber bei der ersten Strix aus Oktober 2022 genau so (tiefer IDLE Verbrauch meine ich). Habe mich dann wochenlang geärgert über die MSI.
MSI Support angeschrieben, Antwort: Ganz normal, kann man nichts ändern. Das MSI Forum war noch eine Stufe frecher und meinte, dass man keine High-End-GPU kauft und dann erwartet, dass der IDLE-Verbrauch gering ist. Argumente bzgl. anderen Herstellern (ASUS etc.) wurden als lächerlich deklassiert.

Exxtreme
2023-06-12, 00:37:41
Ich kann mir gut vorstellen, dass das eventuell ein Auslesefehler ist. Externe Tools sind da nicht immer sehr zuverlässig. Bei AMD muss man auch das AMD-eigene Controlpanel für sowas nutzen.

r3ptil3
2023-06-12, 00:52:22
Wurde aber durch zahlreiche Reviews auch bestätigt.

Exxtreme
2023-06-12, 01:00:44
Also in dem Review sind's mehr:
https://www.techpowerup.com/review/asus-geforce-rtx-4090-strix-oc/39.html

Ist echt interessant. :)

r3ptil3
2023-06-12, 01:12:03
Achso, die Strix, nein, das wurde durch ein BIOS Update, ein paar Wochen nach dem Test, gefixt. Schau mal was die Suprim in dem Test säuft.

Thunder99
2023-06-12, 09:06:34
Bei der Inno3D habe ich Mal mehr mal weniger IDLE Verbrauch. Ggf auch bei MSI? Zwar bei der 4080 aber eventuell vergleichbar :)

gedi
2023-06-12, 18:22:14
Wenn jemand mit einem AM5-System unterwegs ist, dann einfach den Hybrid-Modus fahren. Dann säuft eure GPU im IDLE zwischen 4 und 9w Boardpower.

La Junta
2023-06-12, 18:51:01
Hmm , ich sehe bei der PNY zwischen 5W und 10W Idle Verbrauch bei 1440P 270HZ 10 bit .

Lehdro
2023-06-13, 11:29:28
Was sagt denn HWinfo64 dazu? AIDA erzählt öfter mal Quatsch.

La Junta
2023-06-13, 12:32:46
Was sagt denn HWinfo64 dazu? AIDA erzählt öfter mal Quatsch.
Hwinfo64 sagt zwischen 8.6W und 12.5W.

r3ptil3
2023-06-13, 12:43:46
Hwinfo sagt bei der Suprim auch zwischen 26-29W.
Strix: 8-12W

Lehdro
2023-06-13, 13:13:17
Davon kann ich bei mir mit zwei Monitoren nur träumen. Eiert eher so um die 20W rum...

r3ptil3
2023-06-13, 17:21:25
Davon kann ich bei mir mit zwei Monitoren nur träumen. Eiert eher so um die 20W rum...

Immer noch gut - die Suprim war bei mir mit 2 Monitoren (4K 120Hz, WQHD 165Hz) bei 40-42W.

The_Invisible
2023-06-13, 17:24:48
Davon kann ich bei mir mit zwei Monitoren nur träumen. Eiert eher so um die 20W rum...

Bei 2 Monitoren ist auch nochmal 10W mehr, bin bei 4k/144+1440p/60 auch bei so 20W, können AMD Nutzer nur träumen davon :D

Radeonfreak
2023-06-13, 17:54:56
4K, HDR, 144 HZ so um die 20 bis 25 Watt.

Daredevil
2023-06-13, 18:19:34
Ich hatte 4 2080ti Karten in meinem Gehäuse und jede hat eine andere Idle Watt Angabe angezeigt, ob die nun wirklich unterschiedlich sind oder nicht, ist bei den wenigen Watt schwer zu messen mit meinem billo Messgerät, aber das wird am Ende wohl wirklich die "wahre" Zahl zeigen. Dort hat Asus aber auch meist sehr positiv abgeschnitten.

Mach dass denn technologisch Sinn, dass manche Hersteller Komponenten verbauen, die nahezu den Idle Verbrauch halbieren?

VooDoo7mx
2023-06-15, 13:51:52
Meine Gigabyte Gaming 4090 verbraucht im idle bei UHD 60Hz so 10-12W
Das tatsächlich genau das selbe, was meine vorherige MSI Suprim 3080TI gebraucht hat.
Demnächst wird wohl ein 144Hz UHD Monitor angeschafft mal sehen wie es da aussieht.

Auch wenn ein höherer idle Verbrauch ärgerlich ist, macht das wohl im Gesamtkonzert des Desktop PCs doch so gut wie gar nichts aus.
Wenn man einen wirklich Energieeffizienten Computer will, sollte man sich auf keinen Fall einen ausgewachsenen Desktop PC holen und schon gar nicht einen mit einer 4090.
Nur den PC anmachen um eine Internetseite anzusteuern oder die Steuer zu machen ist eigentlich reinste Energieverschwendung.

Der M1 Pro in meinen Macbook Pro verbraucht insgesamt mit iGPU im idle 0,1W!
Bei solchen Verbrauchswerten ist doch eigentlich jede Diskussion überflüssig ob der Desktop PC im Idle jetzt 70 oder 80W zieht...

ChaosTM
2023-06-15, 14:16:27
2x 4k 138/120 + 4k Video. 25-35 Watt. Bei der 4080er wars gerade mal die Hälfte, aber Auslesefehler können immer passieren. Hab bisher nur mit GPU-Z getestet. An HW Info hab ich nicht gedacht..

Ex3cut3r
2023-06-15, 17:27:29
Das tatsächlich genau das selbe, was meine vorherige MSI Suprim 3080TI gebraucht hat.


WTF? Komme mit einer ASUS TUF 3080 Ti nie im Leben auf solche Werte.

4K, 144HZ, 10-Bit, VRR ON ~ 33W

4K, 60HZ, 10-Bit, VRR ON ~ 21W

Wake
2023-06-16, 08:35:17
Mal nachgeschaut bei der PNY 4090 Verto TF:
1440p, 144Hz, 10-Bit, VRR ~12W
1440p, 144Hz, 10-Bit, VRR + 4K, 120Hz, 12-Bit, VRR ~20W

Beim Browsen usw. bleibt der OLED eh aus, muss ja nicht immer ADD-mäßig ein Video nebenher laufen :wink:.

Platos
2023-06-16, 12:01:02
WTF? Komme mit einer ASUS TUF 3080 Ti nie im Leben auf solche Werte.

4K, 144HZ, 10-Bit, VRR ON ~ 33W

4K, 60HZ, 10-Bit, VRR ON ~ 21W

Vlt. wäre ja der nvidia inspector mit multi display powersaver etwas für dich (der bringts auch ohne mehrere Monitore).

Raff
2023-06-16, 12:04:52
Achtung, damit kann's Blackscreens regnen - schmerzhafte Erfahrung in den letzten Wochen. :ugly:

MfG
Raff

Ex3cut3r
2023-06-16, 12:18:59
Mache ich nicht. Ob nun 30W oder 15W oder 20W ist mir völlig wumpe. :biggrin:

Nur merkwürdig finde ich es schon. Habe nur einen Monitor, ein 32" Dingens mit 144HZ, 10-Bit und VRR.

The_Invisible
2023-06-16, 12:40:14
OT: Bringen die 10Bit Ausgabe eigentlich irgendwas? Windows ist ja immer auf 8bit, können Games das übersteuern?

Ex3cut3r
2023-06-16, 13:04:51
Nö bei SDR bringt es gar nichts. :biggrin:

Ich bilde mir damit ein, das Farb Gradienten etwas smoother sind, als mit 8-Bit. Im klartext weniger Banding.

r3ptil3
2023-06-16, 13:05:54
Ist doch unabhängig vom Game/Anwendung.

Und was meinst du mit Windows immer auf 8bit?
Muss man im Nvidia Controlpanel umstellen, dann ist das überall (Desktop, Games...) permanent auf 10bit.

Den Unterschied kann man feststellen, wenn du den Monitor (ganz egal in welcher Anwendung) hochauflösend und sehr scharf fotografierst und dann 1:1 mit mit einem Bild mit 8bit Wiedergabe vergleichst (am einfachsten das Windows Hintergrundbild).

Weichere Farbverläufe usw. sind dann erkennbar.

Edit: Nicht vergessen, wir reden hier meistens von 8bit + FRC.

The_Invisible
2023-06-16, 13:46:09
Windows rendert intern trotzdem nur in 8bit pro Farbe (sieht man im Nvidia-Panel bei Desktop-Farbtiefe) nur die Ausgabe zum Monitor ist 10bit was allein ja aber nicht wirklich hilft.

Games rendern intern ja mit einer höheren Farbgenauigkeit, da könnte es sich schon auszahlen, siehe auch: https://learn.microsoft.com/en-us/windows/win32/direct3darticles/high-dynamic-range

Anscheinend sind aber immer Anpassungen nötig, hätte mir nur gedacht bei Games wird automatisch mit höherer Bittiefe ausgegeben

aceCrasher
2023-06-16, 14:28:30
https://videocardz.com/newz/zotac-launches-38-cm-long-geforce-rtx-4090-pgf-graphics-card

38cm :freak:

Wake
2023-06-16, 15:06:40
Also ich hätt bis 44,6 cm Platz :freak:.
Scheitert da schneller an der Breite weil 15,4+2,1 cm (90° adapter) = zu fett :eek:.

Nicht wenige Modelle versenken die 12VHPWR-Buchse aber eh grundsätzlich zu weit nach innen, sodass man dann an Kühler/Shroud nicht mehr vorbeikommt.

r3ptil3
2023-06-17, 14:47:53
Windows rendert intern trotzdem nur in 8bit pro Farbe (sieht man im Nvidia-Panel bei Desktop-Farbtiefe) nur die Ausgabe zum Monitor ist 10bit was allein ja aber nicht wirklich hilft.

Games rendern intern ja mit einer höheren Farbgenauigkeit, da könnte es sich schon auszahlen, siehe auch: https://learn.microsoft.com/en-us/windows/win32/direct3darticles/high-dynamic-range

Anscheinend sind aber immer Anpassungen nötig, hätte mir nur gedacht bei Games wird automatisch mit höherer Bittiefe ausgegeben

Wo steht das denn mit den 8 Bit?

https://i.ibb.co/yyVZ4jn/image.png

https://i.ibb.co/bsrpLQX/image.png

Langlay
2023-06-18, 15:54:00
So das Ersatz 12VHPWR Kabel ist Gestern bei mir angenommen. Und naja diesmal funktioniert das Kabel aber es sollte eigentlich ein 90° abgewinkelten Stecker haben und geliefert bekommen hab ich ein geraden Stecker. Hab jetzt nochmal den Cablemod Support angeschrieben, sie würden mir nochmal ein 3. Kabel schicken oder ich nehm 10$ Nachlass.
Hab mich dann für die 10$ Nachlass entschieden, das Kabel funzt und meine CPU Temps sind, dadurch das der 4x PCI-E zu 12VHPWR Adapter nicht mehr den halben Innenraum von einem ITX Case ausfüllt, 5-8K tiefer als vorher. Und ich muss nicht nochmal 2-3 Wochen auf den nächsten Versuch warten.

Raff
2023-06-19, 17:19:16
Gibt's eigentlich etwas Neues zur Crossbar-Frequenz? Lässt sich diese gezielt steuern, oder ist das weiter nur indirekt möglich? Hat das mal jemand gezielt durchgetestet? :)

MfG
Raff

Ex3cut3r
2023-06-19, 18:10:16
Wo steht das denn mit den 8 Bit?

https://i.ibb.co/yyVZ4jn/image.png

https://i.ibb.co/bsrpLQX/image.png

Ändert trotzdem nichts daran, dass Windoof im SDR Mode nur 8-Bit darstellen kann.

The_Invisible
2023-06-19, 19:22:58
Wo steht das denn mit den 8 Bit?

https://i.ibb.co/yyVZ4jn/image.png

https://i.ibb.co/bsrpLQX/image.png

4x8bit pro farbkanal/alpha = 32bit, RGB + alpha...

TobiWahnKenobi
2023-06-19, 20:27:05
https://abload.de/img/unbenanntjef7t.png?9f81b21b55cbd4c3d6035bcd6fddce8d

wo zaubert sich windows eigentlich den helligkeitshöchstwert her? die 1499nits sind selbst bei meinem OLED dezente 50% zu hoch angesetzt.


(..)

mfg
tobi

RoughNeck
2023-06-20, 15:53:18
Gibt's eigentlich etwas Neues zur Crossbar-Frequenz? Lässt sich diese gezielt steuern, oder ist das weiter nur indirekt möglich? Hat das mal jemand gezielt durchgetestet? :)

MfG
Raff

Ist denn der Takt der Crossbar irgendwo ersichtlich?

Langlay
2023-06-20, 16:06:43
Ist denn der Takt der Crossbar irgendwo ersichtlich?

Im Nvidia Inspektor kannste dir den Crossbartakt anzeigen lassen.

https://abload.de/img/2023_06_20_16_05_08_fddz8.png

Radeonfreak
2023-06-20, 22:12:46
https://abload.de/img/unbenanntjef7t.png?9f81b21b55cbd4c3d6035bcd6fddce8d

wo zaubert sich windows eigentlich den helligkeitshöchstwert her? die 1499nits sind selbst bei meinem OLED dezente 50% zu hoch angesetzt.


(..)

mfg
tobi

Passt eigentlich bei mir.

https://abload.de/img/screenshot2023-06-202ouebj.png

HDR mit der Windows HDR Kalibrierung eingestellt? Da standen bei mir auch mal höhere Werte drin, der übernimmt dann irgendwie was man einstellt, nicht was der Monitor wirklich hat. Dächt ich.

The_Invisible
2023-06-21, 08:49:18
Gibt's eigentlich etwas Neues zur Crossbar-Frequenz? Lässt sich diese gezielt steuern, oder ist das weiter nur indirekt möglich? Hat das mal jemand gezielt durchgetestet? :)

MfG
Raff

Wär ja für PCGH was das mal durchzutesten, irgendwie findet man da sehr wenig dazu. Vor allem ab welchen Voltage und wie viel das gesenkt wird und wie viel Leistung das kostet.

basix
2023-06-21, 10:07:39
Wäre interessant ja. Schliesse mich dieser Petition an :)

Angiesan
2023-06-23, 11:45:44
Gibt's eigentlich etwas Neues zur Crossbar-Frequenz? Lässt sich diese gezielt steuern, oder ist das weiter nur indirekt möglich? Hat das mal jemand gezielt durchgetestet? :)

MfG
Raff

Ich glaube TPU hatte sich mal damit beschäftigt aber einen Test nie online gestellt.

Aus eigener Erfahrung es gibt einige Spiele die reagieren auf einen gesenkten Takt der CB. Wenn man den Takt der Kerne auf x fixiert z.B. auf 2700 MHz und dann per curveditor mit den Spannungen spielt was den CB Takt beeinflusst kann man die Unterschiede ganz gut sehen. Es gibt ein paar Spiele die reagieren recht heftig darauf (ca.5%).

Das werden aber die Hersteller von OC Karten nicht gerne sehen, diese verlieren i.d.R. bei einem PT von 450 W bei hohen Auflösungen stärker an Takt wie Standard-Modelle und damit fällt auch der Takt der CB. Ein Musterbeispiel ist z.B. die MSI RTX 4090 Suprime X, trotz höherem Takt der Kerne nicht selten weniger Leistung oder gleiche Performance wie eine Referenz, weil sie einfach nicht die 2850 MHz (des hier vorhandenen Exemplars) die sie bei geringer Last erreicht, bei hoher Auflösung und Last halten kann mit ihrem 450W PT. Die geht dann hier schon mal auf 2760MHz runter. Im Vergleich ein absolut identisches System, mit einer KFA2K 1C OC möglicher Takt 2760MHz Takt in Spielen 2745 und in sehr seltenen Fällen 2730. Die KFA2K ist eigentlich immer schneller oder zumindest nicht langsamer und dies kann man auch bei 3d Mark vermessen ;-) auch wenn das kein Spiel ist. Das geht soweit, dass für identische Punkte das max. mögliche PT des silentbios der MSI herhalten muss um das aufzufangen oder alternativ eine manuelle Übertaktung von ca. 75Hz zu dem eh schon vorhandenem höheren OC der MSI erfolgen muss damit man dann einen Performance Gleichstand erreicht :eek:.

Wenn man dann den Versuch wagt und das MSI BIOS auf die KFA2K flasht hat man bei der auf einmal den gleichen Effekt:freak:, sprich sehr vergleichbare Punkte oder FPS dafür gehen dann die Lüfter aber auch bis 800rpm runter wo mit dem Standard Bios der KFA nur 1000 rpm möglich sind. Bei geringerer Last ist die MSI aber geringfügig schneller, nur dafür kauft man ja keine RTX 4090.

Ich habe das Testen irgendwann aufgegeben, da die Unterschiede im normalen Alltag zu gering sind als das man da von wirklichen Unterschieden reden kann, empfehle aber jedem eine einfache Karte zu kaufen, und nicht das Topmodell, das ist bei der RTX 4090 eher eine Mogelpackung solange man nicht mit max. PT und hohem manuellem OC unterwegs sein will. Aber selbst da steht der MSI ihr mickriges max. PT von 520W im Wege. Meine persönlichen Bestleistungen beim Testen sind bis auf den 3D Mark Speedway da der nur Bandbreite braucht und die MSI im Speicher OC etwas besser ist wie die KFA, alle mit der KFA entstanden und das mit zum Teil 100 MHz weniger Coretakt:freak: aber einem PT von 510W.

Meine Meinung spare Dir die Mühe, Freunde wirst Du damit eh keine finden.

Triniter
2023-06-27, 07:33:34
Vielleicht auch hier interessant, hab es bisher nur im HWLuxx Forum gepostet gehabt:

So ich muss das Thema Bildschirmflackern mit der 4090 nochmal hoch holen.
Hatte ja vor ein paar Seiten geschrieben das ich in bestimmten Programmen Probleme hatte das die Helligkeit über den ganzen Montior quasi flackert. Es hat definitiv was mit der Framerate zu tun und ich hab es jetzt bis auf Lightroom beseitigen können. In "normalen" Windows-Anwendungen trat es nie auf, also in keinem Office Tool usw. aber in Lightroom, Davinci Resolve und noch ein paar anderen, und zwar immer dann wenn man mit der Maus über Bedienelemente gescrollt ist. Gestern hab ich zufällig noch den Afterburner mitsamt dem Overlay angehabt. Interessanterweise aktiviert sich die Ausgabe vom Riva Tuner bei Lightroom und Davinci Resolve. Dabei ist mir aufgefallen das beim Navigieren, vor allem in Lightroom die Framerate enorm springt wenn ich über die Menüpunkte meine Maus bewege die das Flackern auslösen. Hab dann mal ein wenig herumgespielt und was geholfen war war tatsächlich die Framerate auf die Framerate des Monitors zu begrenzen. Ich weiß jetzt nicht ob es da im Treiber ein Problem mit G-Sync gibt oder allgemein ein Problem mit dem Setting der Framerates in Windows wenn gewisse Programme laufen aber bis auf das Preset-Menü in Lightroom flackert die Helligkeit jetzt nicht mehr. Heute Abend teste ich noch ob es ganz weg ist wenn ich G-Sync in Windows deaktiviere.

Linmoum
2023-06-27, 08:48:33
Ja, ist VRR-Flickering. Verschwindet ohne G-Sync.

Exxtreme
2023-06-27, 08:50:46
Soll angeblich im aktuellen Treiber gefixt sein:

* When using multiple monitors which support adaptive sync, users may see random flicker on certain displays when G-SYNC is enabled after updating to driver 535.98 [4138119]

Aber einige Leute haben es offenbar immer noch.

Triniter
2023-06-27, 08:51:54
Soll angeblich im aktuellen Treiber gefixt sein:

* When using multiple monitors which support adaptive sync, users may see random flicker on certain displays when G-SYNC is enabled after updating to driver 535.98 [4138119]

Aber einige Leute haben es offenbar immer noch.
Jepp, den Treiber hab ich drauf und es hat nichts geholfen.

Slipknot79
2023-06-27, 11:41:39
Das Flickern ist immer noch da, klar. Das wird auch nie gefixed werden, warum auch? Afaik gibt es das Flickern schon seit es VRR gibt, nur sah man es nie. Mit OLEDs ist es dann sichtbar geworden. Ein Bug der seit dunno, 8 Jahren? besteht, wird sicher nicht "plötzlich" gefixed.

Triniter
2023-06-27, 12:37:09
Das Flickern ist immer noch da, klar. Das wird auch nie gefixed werden, warum auch? Afaik gibt es das Flickern schon seit es VRR gibt, nur sah man es nie. Mit OLEDs ist es dann sichtbar geworden. Ein Bug der seit dunno, 8 Jahren? besteht, wird sicher nicht "plötzlich" gefixed.
Nur das ich keinen OLED hab. Muss heute Abend mal schauen ob ich im Treiber versehentlich VRR bei Vollbild und Fenstermodus aktiv hab.

Triniter
2023-06-27, 16:42:52
Und Update:
Es liegt definitiv an VRR. Im Treiber war es aber nur für Vollbild aktiviert nicht für Applikationen die im Fenster laufen. Evtl. gibt es hier einen bug der dem Schalter aktuell nicht korrekt auswertet

Ex3cut3r
2023-06-27, 18:55:46
Die Empfehlung von Nvidia lautet seit Windows 10- G-Sync/VRR nur für den Vollbildmodus zu aktiveren. Die Option "Fenster und Vollbildmodus aktivieren" hat das letzte mal bei Windows 8.1 richtig funktioniert.

Vollbild beutetet ab Windows 10 und genauer gesagt ab WDDM 2.0 das Vollbild im klassichen Sinn gar nicht geht. Außer das Spiel bietet einen exklusiven Vollbild Modus an, sind aber die wenigsten. Tomb Raider Reihen und Spider-Man Reihe fallen mir da spontan ein, beides Nixxes Spiele.

aufkrawall
2023-06-27, 19:12:33
Und Update:
Es liegt definitiv an VRR. Im Treiber war es aber nur für Vollbild aktiviert nicht für Applikationen die im Fenster laufen. Evtl. gibt es hier einen bug der dem Schalter aktuell nicht korrekt auswertet
VRR im Profil fürs Programm deaktivieren.

Triniter
2023-06-27, 19:23:26
Die Empfehlung von Nvidia lautet seit Windows 10- G-Sync/VRR nur für den Vollbildmodus zu aktiveren. Die Option "Fenster und Vollbildmodus aktivieren" hat das letzte mal bei Windows 8.1 richtig funktioniert.

Vollbild beutetet ab Windows 10 und genauer gesagt ab WDDM 2.0 das Vollbild im klassichen Sinn gar nicht geht. Außer das Spiel bietet einen exklusiven Vollbild Modus an, sind aber die wenigsten. Tomb Raider Reihen und Spider-Man Reihe fallen mir da spontan ein, beides Nixxes Spiele.

Die Option war ja auf Im Vollbildmodus aktiviert. Deshalb wundert es mich warum die Applikationen da so reagiert haben. Egal, Fehler gefunden, liegt zum Glück nicht an einer defekten Karte, damit kann ich arbeiten.

gbm31
2023-08-09, 20:30:55
Neues von der Gigabyte Front:

Es gab Updates im GCC zum VGA-Modul und RGB Fusion. Jetzt lässt sich das RGB-Gebimmel steuern (Farben usw) und ausschalten.

Allerdings wird das kleine Display, mit dem ich mir Infos zu GPU-Takt usw. hab anzeigen lassen, auch ausgeschaltet. Aber immerhin.

Das RGB bleibt auch beim Booten aus, ohne das GCC laufen muss. Wird also auch auf der Karte gespeichert.

Es gab wieder Updates - jetzt funktioniert das kleine Display an der Seite wie gewünscht:

Alle LED aus (Lüfter, seitlich, Backplate), das kleine LCD rotiert in Wunschfarbe (weiss) GPU Clock, Fan Speed, VRAM Clock, GPU Temp

:smile:

Nach nur 8 Monaten...

Troyan
2023-08-11, 08:54:45
Nur GameGPU und daher mit vorsicht, aber so eine moderne nVidia-GPU ist doch was tolles: https://gamegpu.com/action-/-fps-/-tps/ratchet-clank-rift-apart-v1-808-test-gpu-cpu

Beeindruckend, was so eine Ampere und Lovelace-GPU kann, wenn man alle Transistoren verwendet.

gnomi
2023-08-11, 11:52:22
Finde eher witzig, dass eine 2080TI in Full HD doppelt so schnell ist wie eine 2080S.
3080TI auf 4090 doppelt so schnell in 4K ist eher normal.

Na ja. Das Spiel ist schon alt und läuft auf jeder PS5 zu 550€. Für mich überhaupt kein Gradmesser oder sonderlich spannend.
Es straft eben alte Hardware entsprechend eingestellt.
Ja, technisch spannend. Aber irgendwo auch vernachlässigbar.
In Witcher 3 neuste Version und mit RT kann man sich auch so ein Spezialfall angucken, wo schon drei Jahre alte Hardware nichts mehr zu lachen hat.
Wäre das jetzt spielerisch der neuste Scheiß. Okay.
Aber geht schon fast Richtung Tech Demo oder nur noch für eine elitäre Zielgruppe. Ob die Hersteller so ihre überteuerten Karten super verkaufen werden wir sehen...

Rancor
2023-08-11, 13:19:18
Hier stand Müll

dildo4u
2023-08-11, 13:22:04
Finde eher witzig, dass eine 2080TI in Full HD doppelt so schnell ist wie eine 2080S.
3080TI auf 4090 doppelt so schnell in 4K ist eher normal.

Die PC Version ist eh murks da Direct Storge Schluckauf hat da muss noch einiges gefixt werden.

Erst Medium Textur fixt die letzten Aussetzer.

https://youtu.be/XCOdZ_1_9EA

Troyan
2023-08-11, 13:25:47
Finde eher witzig, dass eine 2080TI in Full HD doppelt so schnell ist wie eine 2080S.
3080TI auf 4090 doppelt so schnell in 4K ist eher normal.


8GB sollten nicht mehr reichen in 1080p mit Raytracing. Spiel benötigt ja schon ohne 10GB...

TurricanM3
2023-08-11, 14:19:03
Man kriegt die 4090 nach wie vor nicht unter 875mV richtig?

Ich hatte sie damals einfach 875@2400 gesetzt und fertig. Ich spiele sowieso nur ein Spiel und das lastet die Karte die meiste Zeit nicht mal zur Hälfte aus. Selbst mit 1600MHz merke ich keinen Unterschied und die Auslastung wird nur unwesentlich höher.

Patrick0809
2023-08-21, 10:43:38
Hab auch mal ein paar Fragen.
(Wollte mir aber nicht alle Seiten durchlesen und schauen ob es darüber schon was gibt)

Bezüglich dem 12VHPWR Stecker bei 4080 und 4090:

1. Soweit ich weiß sind die 12VHPWR nur geschmolzen, wenn die nicht komplett eingesteckt waren? Gibts dazu offizielle Infos, hab nix gefunden. Was meint ihr was das Problem ist?
2. Ist dieses Problem auch bei Wakü 4090 aufgetreten?
3. Ist das Problem jemals bei einer 4080 aufgetreten? Müsste es da nicht eine gewisse Wattmenge drüberziehen, bis es schmelzen kann?



lg, Patrick

Exxtreme
2023-08-21, 11:08:47
Also die bisherigen Fälle, wo das bekannt ist, waren wohl auf einen nicht richtig eingesteckten Stecker zurückzuführen, ja. Eine WaKü wird darauf keinerlei Einfluss haben. Denn eine WaKü senkt den Stromverbrauch nicht. Und bei einer RTX 4080 ist mir nichts bekannt, dass das aufgetreten ist.

Denniss
2023-08-21, 11:14:20
Passierte gerne bei Asus 4090 mit der verdrehten Buchse.
Nicht richtig gesteckt, durch Designfehler des Stecksystems nicht bemerkt das nicht richtig gesteckt oder durch Zug verkantet und leicht rausgerutscht.
Neuerdings kommen viele Karten mit den verkürzten Sense-Kontakten auf den Markt, da sollte sowas nicht mehr (hoffentlich) auftreten.

Patrick0809
2023-08-21, 13:12:59
Super danke für die Infos :smile:

Troyan
2023-08-21, 13:20:20
Es passiert weiterhin, wenn der Stecke während der Zeit sich (leicht) löst. Daher sollte man auf jedenfall auch genug Platz zur Seitenwand haben, dass der Stecker nicht eingequetscht wird.

Patrick0809
2023-08-21, 14:49:39
Das heißt, ich würde alles einfach einstecken und dann nochmal den Stecker richtig hart reinstecken und schauen das er komplett bündig dran ist?

Seitlich sollte genug Platz sein. Phanteks Enthoo Primo :biggrin:

Troyan
2023-08-21, 14:58:38
Ja, sauber rein, Kabel genug länge lassen, dass kein Druck auf dem Stecker ist und überprüfen, dass die Seitenwand nicht auf das Kabel drückt.

Sollte dann sicher sein. So läuft meine Gigabyte 4090 im Evolve X seit 10 Monaten.

Exxtreme
2023-08-21, 15:18:53
Das heißt, ich würde alles einfach einstecken und dann nochmal den Stecker richtig hart reinstecken und schauen das er komplett bündig dran ist?

Seitlich sollte genug Platz sein. Phanteks Enthoo Primo :biggrin:

Ja, einstecken bis es klickt und man das Kabel auch mit mehr Kraft nicht mehr weiter einstecken kann. Und dann dem Kabel seitlich Luft lassen. Und es gibt für den Stecker einen abwärtskompatiblen Nachfolger. Der schaltet schneller ab wenn der Stecker nicht richtig drin steckt. Das müsste in den aktuellen Karten verbaut sein.

Und was die verschmorrten Stecker angeht, angeblich waren es damals 50 Fälle von über 125.000 verkauften Karten. Ja, ist ärgerlich aber es sind dann doch nicht so viele Leute an diesem Stecker gescheitert. Im Internet kocht sowas trotzdem extrem schnell hoch.

CoolhandX
2023-08-21, 17:11:27
Habe mir, da meine anderen Kabel sowieso weiß sind, von Corsair das GPU Kabel in weiß gekauft. 2x 8pin auf den Graka Stecker und passend zum Corsair Netzteil. Um einiges besser als der klobige NVidia Stecker und vor allem viel flexibler und der Stecker sitzt bombenfest in der Graka.

EDIT:
So nachdem nun alles eingebaut ist und die Karte läuft muss ich sagen, bin total geflasht.
Damals der Sprung von einer 980ti auf die 2080 war schon toll. Danach auf die 6800XT und dem neuen System war ich mehr als enttäuscht, erst mit der 3080ti gings wieder aufwärts. Aber der Sprung jetzt ist mal ne ganz andere Liga.
Da ich jemand bin, der in 4k und immer nach Möglichkeit mit Allem auf Max und RT spielen möchte (bin da echt ne Grafikhure), ist diese Karte der Wahnsinn, sogar gegenüber der 3080ti in allen Belangen besser.
Interessant ist, dass das ganze System besser läuft und mit Besser meine ich jetzt nicht nur schneller, sondern das ganze drum herum. Vorher mit 3 Monitoren im Idle nicht unter 120W, egal was ich versucht habe (im 35-40W Bereich war nur möglich mit einem Monitor).
Nun, mit 3 Monitoren, wobei auf zwei dann auch noch ein Vodeo läuft und auf dem dritten AIDAExtreme, 20-26W im idle. Der Verbrauch ist um Längen besser, auch in Spielen und das bei den FPS. Vorher mit allem Max waren es immer entweder um die 60 FPS, knapp drüber oder so um die 70-80, was auch ok war aber je nach Situation hart an der Grenze.
Nun egal wo, stellenweise 50%-100% mehr. Dazu ist das ganze System leiser und auch kühler. Wo ich z.B. bei Baldurs Gate 3 auch immer mal Spikes an der CPU hatte, dass die Temps hoch gingen, nix mehr. Undervolting oder das ändern der max TDP bin ich noch nicht angegangen, aber gerade bei der max TDP kann man ja auch noch einiges machen wie ich gelesen habe.

Hatte ja einiges erwartet, aber nicht in dem positiven Ausmaß. Da kann ich dann auch beruhigt bei meinem 5800X3D bleiben. Toller Nebeneffekt, mein Gehäuse (ich liebe große Gehäuse) sieht nicht mehr so leer aus bei diesem riesen Teil :D Freu mich jetzt noch mehr auf Starfield :rolleyes:

TobiWahnKenobi
2023-09-07, 16:54:29
RTX 4090 und kabel von cablemod nach ein paar monaten missachtung und nutzung.. die leichteste berührung löst am NT die schutzschaltung aus.. zum glück.

https://www.youtube.com/shorts/OX6Sgo4HzvM


(..)

mfg
tobi

dildo4u
2023-09-09, 13:12:40
MSI 4090/4080 "Slim" Serie.

https://videocardz.com/newz/msi-launches-geforce-rtx-4090-4080-gaming-slim-series-now-only-three-slot-thick

Platos
2023-09-09, 13:55:39
MSI 4090/4080 "Slim" Serie.

https://videocardz.com/newz/msi-launches-geforce-rtx-4090-4080-gaming-slim-series-now-only-three-slot-thick

:D

Könnte ein Aprilscherz sein xD

Hypadaiper
2023-09-09, 20:28:17
Hab hier mal mit meiner 4090 einen Vergleich zu PT vs manuellen uv erstellt:

https://www.computerbase.de/forum/threads/gpu-verstehen-und-optimal-nutzen.2159596/

Vielleicht hilft es ja dem ein oder anderen bei der Frage was man macht.

Sardaukar.nsn
2023-09-09, 20:30:01
Die meisten Kühlkörper sind auch überdimensioniert für die 4090. Ursprünglich war ja mal 600 Watt TDP geplant. https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/

Hypadaiper
2023-09-09, 20:45:43
Wenn man die 4090 so wie ich betreibt reichen für die 250W auch locker 2 Slot 😂

The_Invisible
2023-09-09, 21:09:57
Der Kühler kann nie zu groß sein, am liebsten würde ich sie passiv betreiben ; )

Hypadaiper
2023-09-09, 21:23:55
Denk ich mir auch. Ich hab den Platz im Gehäuse, also warum mir Luft verschwenden statt mit Alu

Radeonfreak
2023-09-09, 22:06:11
Der Kühler kann nie zu groß sein

Seh ich auch so. Hatte noch nie so ne leise Karte. Eben weil der Kühler so groß ist.

basix
2023-09-10, 11:11:59
Hab hier mal mit meiner 4090 einen Vergleich zu PT vs manuellen uv erstellt:

https://www.computerbase.de/forum/threads/gpu-verstehen-und-optimal-nutzen.2159596/

Vielleicht hilft es ja dem ein oder anderen bei der Frage was man macht.

Nice! Schöner Artikel, danke :)

Und hoffentlich wird damit jedem klar, dass eine Reduktion des Power Limits auch bei Ada nicht das Optimum ist. Es funktioniert gut (siehe auch deinen Artikel), aber niemals so gut wie manuelles OC/UV.

Höchste Effizienz ohne allzu grossen Leistungsverlust (=man spürt den Leistungsverlust nicht):
- Manuelles OC/UV und fixe Taktobergrenze definieren (z.B. 2.6 GHz bei 0.89V)
- Power Limit 65...72% (ein paar einzelne Powerviren kann man damit abfangen, oder dass die Karte in Menüs grundlos voll aufdreht was mit Ada aber weniger ein Problem ist, bei dessen Vorgängern schon)
- FPS Limiter bei 118fps / 142fps (je nach Monitor Refreshrate)

Mache ich schon seit der GTX 780 so. Sweetspot aller Karten (780, 980 Ti, 2080 Ti, 4090) liegt typ. bei 60...70% der Default TDP. Ada hat jetzt noch obedrauf gelegt, dass der Verbrauch bei Teillast zusätzlich stark sinkt. UE5 Demos mit Epic Settings dümpeln auch in 4K meistens bei ~250W rum. Erst bei Cinematic Settings landet man bei 270...300W.

Der Verbrauch liegt bei mir wegen 4K etwas höher als bei dir mit 3440x1440p, da verschiebt sich der "Sweetspot" ein bisschen.

Wenn man die 4090 so wie ich betreibt reichen für die 250W auch locker 2 Slot ��
Der Kühler kann nie zu groß sein, am liebsten würde ich sie passiv betreiben ; )
Ich finde die jetzige Grösse zusammen mit der geringen Leistungsaufname genial. Ist alles flüsterleise und bleibt kühl. Passiv würde ich allerdings nie machen. Auch wenn der Luftstrom noch so klein ist hilft das, lokale Hotspots zu eliminieren. Bei ~1000rpm auf den Lüftern hört man nichts aus dem Gehäuse.

robbitop
2023-09-10, 11:28:50
Der letzte Vorteil der custom Waküs. Ich kann die GPU hochprügeln wie ich will. Sie bleibt kühl und leise. Ich kriege meine GPU kaum über 60C. Und man hört nix.
Bei CPUs ist das leider vorbei wegen der hohen Energiedichte und des schlechten Wärmeübergangs.

Hypadaiper
2023-09-10, 21:15:42
Nice! Schöner Artikel, danke :)

Und hoffentlich wird damit jedem klar, dass eine Reduktion des Power Limits auch bei Ada nicht das Optimum ist. Es funktioniert gut (siehe auch deinen Artikel), aber niemals so gut wie manuelles OC/UV.

Höchste Effizienz ohne allzu grossen Leistungsverlust (=man spürt den Leistungsverlust nicht):
- Manuelles OC/UV und fixe Taktobergrenze definieren (z.B. 2.6 GHz bei 0.89V)
- Power Limit 65...72% (ein paar einzelne Powerviren kann man damit abfangen, oder dass die Karte in Menüs grundlos voll aufdreht was mit Ada aber weniger ein Problem ist, bei dessen Vorgängern schon)
- FPS Limiter bei 118fps / 142fps (je nach Monitor Refreshrate)



Vielen Dank für das Lob.
Bedeutet mir viel von dir 😀

Und schön dass sich unsere Zahlen in etwa decken.
Im Luxx habe ich jetzt schon mehrere Monate immer kopfschüttelnd mitgelesen wenn behauptet wurde das PT den gleichen Effekt hat woe Manuelles UV. Leider hatte ich nichts wirklich stichhaltiges zur Hand. Nun aber schon 😅

wolik
2023-09-10, 21:57:21
Hab hier mal mit meiner 4090 einen Vergleich zu PT vs manuellen uv erstellt:

https://www.computerbase.de/forum/threads/gpu-verstehen-und-optimal-nutzen.2159596/

Vielleicht hilft es ja dem ein oder anderen bei der Frage was man macht.

"Was macht eine GPU aus?

X = FPS / Power"

Du hast die Grafikqualität / Immersion vergessen. Die FPS können immer gleich sein. Für mich manchmal auch 30 fps. Um die Grafikqualität / Immersion voranzubringen.
Und manche GPU kann RTX/ FG und manche nicht...

Hypadaiper
2023-09-10, 22:07:05
Gebe ich dir prinzipiell recht. Aber das ist natürlich auch Spielabhängig. Siehe starfield, hier stimmt die gebotene Grafik kaum mit der dafür nötigen Leistung überein.
Das ganze kann ich insofern ignorieren, weil ich keine Grafikkarten untereinander vergleiche, sondern nur wie sich eine Grafikkarte in einem bestimmten Setting verhält.

Soll ja auch keine GÖU Kaufberatung werden.

Vielleicht schreibe ich aber die Passage noch mal um. Den im Grunde gehört es schon zum Leistungsumfang einer GPU dazu, wenn auch nicht untersucht hier.

Sardaukar.nsn
2023-09-10, 23:00:48
Vielen Dank für das Lob.
Bedeutet mir viel von dir 😀

Und schön dass sich unsere Zahlen in etwa decken.
Im Luxx habe ich jetzt schon mehrere Monate immer kopfschüttelnd mitgelesen wenn behauptet wurde das PT den gleichen Effekt hat woe Manuelles UV. Leider hatte ich nichts wirklich stichhaltiges zur Hand. Nun aber schon 😅

Seit dem ersten Review vom Bauer irgendwann im Oktober 2022 ist doch schon klar das der Sweetspot der 4090er Karten irgendwo bei 350 Watt liegt.

https://i.imgur.com/xCd4HEn.jpg

Hypadaiper
2023-09-10, 23:04:58
Seit dem ersten Review vom Bauer irgendwann im Oktober 2022 ist doch schon klar das der Sweetspot der 4090er Karten irgendwo bei 350 Watt liegt.

https://i.imgur.com/xCd4HEn.jpg

Also mein sweetspot liegt unter 250W. 350W wären ja knapp 100% PT. Da sind wir weit von sweetspot entfernt.

robbitop
2023-09-11, 09:26:53
Auf dem Diagramm sieht man, dass der Sweetspot bei 234 W bei der getesteten Karte liegt. (man müsste bei 234W noch ein paar mehr Samples nehmen, um zu erkennen wo denn wirklich der Wendepunt liegt - sind zu wenige in dem Diagramm). Danach sinkt der Gradient zwischen Performance und Leistungsaufnahme. Es skaliert zwar noch aber schlechter.

Aber Highendkarte für 1500 EUR+ - da sollte doch auf die Stromkosten beim Gaming "gesch*ssen" sein, oder? :) (mal ehrlich wie viel zockt man als erwachsener, berufstätiger Mensch schon? Das sind doch Peanuts)
Mit Framelimiter könnte ggf. auch ein effektiver Weg sein, die Effizienz zu erhöhen. Dann spart auch die CPU noch Strom.

Hypadaiper
2023-09-11, 09:34:31
Strom verballern bedeutet aber auch Lautstärke. Bei 350W oder gar mehr ist nichts mehr mit leise. Weder mit der FE noch Customs. Ruhe (ohne WaKü gefrickel)habe ich erst dann wenn ich Richtung 250W gehe. Mache ich das stumpf übers PowerTarget verliere ich ordentlich Leistung. Mache ich das mittels uv ist diesee Verlust halbiert.

robbitop
2023-09-11, 10:06:31
Tjo hat die Wakü doch noch ordentliche Vorteile. Ja man muss beim Upgraden etwas mehr Zeit investieren - aber alle 2 Jahre die paar Minuten was solls. Dafür wird man mit überlegener Kühlung belohnt.

The_Invisible
2023-09-11, 10:46:37
Strom verballern bedeutet aber auch Lautstärke. Bei 350W oder gar mehr ist nichts mehr mit leise. Weder mit der FE noch Customs. Ruhe (ohne WaKü gefrickel)habe ich erst dann wenn ich Richtung 250W gehe. Mache ich das stumpf übers PowerTarget verliere ich ordentlich Leistung. Mache ich das mittels uv ist diesee Verlust halbiert.

Also meine 4090 geht erst bei so 330W über 30% Lüfter wobei ich sie bis so 40% quasi nicht wahrnehme. Problem ist aber eher die Abwärme für mich, die hat man auch bei einer Wakü.

Bei Vollast CPU/GPU wären das so 600W Abwärme, das merkt man schon gut wenn man nicht gerade ein 30m² Büro daheim hat. Aber ja, die paar Stunden Volllast sind da egal, so lange sie im idle nicht zu viel säuft.

Hypadaiper
2023-09-11, 11:25:06
Das versuche ich in meinem Artikel ja auch zu beschreiben.
Manch einer will die letzten paar Prozent aus der 4090, der andere will es leise und wieder andere halt keinen 1KW Heizlüfter neben sich im Zimmer.

Wobei ich ja noch von einer Wakü Träume die am Frischwasser von Haus hängt 😅 leise und Wärme geht woanders hin. Nur mit dem Kalk habe ich noch nicht gelöst

robbitop
2023-09-11, 11:34:49
Als wenn jetzt +/-100 W (optimiert vs unoptimiert) den riesen Unterschied machen würden in der Temperatur - zumal der Unterschied ja nur bei Last - also beim Zocken anliegt. Der große Gaming PC mit allen Komponenten und Perepherie und was sonst alles läuft. Plus die eigene Abwärme. Da kommen ja etliche hundert Watt zusammen.
Und ganz ehrlich: wie oft hat man hohe Temperaturen in Deutschland, dass das ein Problem ist? Und wenn man die hat -> ist stundenlanges Zocken tagsüber wo es warm (und sonnig ist) da die beste Wahl?
Wenn die Antwort immer noch ja ist -> Klimaanlage für's Büro/Zockzimmer kaufen. Kostet mittlerweile nicht mehr viel.

RoughNeck
2023-09-11, 11:52:14
Ich für meinen Teil möchte einen möglichst leisen Rechner haben unabhängig von den herrschenden Temperaturen und das geht mittlerweile auch mit Luftkühlung dank der überdimensionierten GPU Kühler bei der 4090.

Banshee18
2023-09-11, 12:52:09
Also meine 4090 kann richtig, richtig laut werden, wenn man ihr freien Lauf lässt, größer Kühler hin oder her.
Probiert z.B. mal Metro Exodus mit Downsampling und ohne V-Sync bzw. 240Hz, falls möglich.

aufkrawall
2023-09-11, 12:55:07
Das sind ~500W auf 600mm². Die 2080 Ti hatte 140mm² mehr, da kann man bei der 4090 unter Luft keine Wunder erwarten. Über 400W kippt es dann halt recht schnell bei LK.

Blase
2023-09-11, 16:23:52
Hab hier mal mit meiner 4090 einen Vergleich zu PT vs manuellen uv erstellt:

https://www.computerbase.de/forum/threads/gpu-verstehen-und-optimal-nutzen.2159596/

Vielleicht hilft es ja dem ein oder anderen bei der Frage was man macht.

Schöner Post. Deckt sich mit meinen Erfahrungen, die ich seinerzeit nach dem Kauf der 4090 gemacht habe. Ich hatte für mich beschlossen, dass 70% PT aber letztlich - der Einfachheit halber - für mich ausreichend sind. Das ist dann neben dem "voll aufgedrehten" Profil mein Standard Profil, wenn es ums Zocken geht :up:

Vielleicht werden die karten bei der 5000er Serie wieder neu gemischt :tongue:

MfG Blase

Hypadaiper
2023-09-11, 17:11:41
Schöner Post. Deckt sich mit meinen Erfahrungen, die ich seinerzeit nach dem Kauf der 4090 gemacht habe. Ich hatte für mich beschlossen, dass 70% PT aber letztlich - der Einfachheit halber - für mich ausreichend sind. Das ist dann neben dem "voll aufgedrehten" Profil mein Standard Profil, wenn es ums Zocken geht :up:

Vielleicht werden die karten bei der 5000er Serie wieder neu gemischt :tongue:

MfG Blase
Danke :)

Ähnlich bei mir. Hatte lange Zeit das PT drin bevor ich meine UV Settings ausgelotet hatte. War aber am Ende doch überrascht, dass der Verbrauchsunterschied spürbar ist.
Der Tenor hier und im Luxx war ja oft, dass es faktisch keinen Unterschied macht. Leistungstechnisch sind beide Methoden aber annähernd gleich

The_Invisible
2023-09-11, 17:32:02
Schöner Post. Deckt sich mit meinen Erfahrungen, die ich seinerzeit nach dem Kauf der 4090 gemacht habe. Ich hatte für mich beschlossen, dass 70% PT aber letztlich - der Einfachheit halber - für mich ausreichend sind. Das ist dann neben dem "voll aufgedrehten" Profil mein Standard Profil, wenn es ums Zocken geht :up:

Vielleicht werden die karten bei der 5000er Serie wieder neu gemischt :tongue:

MfG Blase

Ja rein PT geht natürlich am einfachsten, aber gerade bei so Powerviren wie zb Q2 RTX geht da die Taktrate schon sehr runter, da kannst mit Curve meist so 200Mhz bei gleichen Verbrauch rausholen oder eben bei gleicher Taktrate den Verbrauch massiv reduzieren.

basix
2023-09-11, 17:47:20
Bei tiefen Settings um die niedrigste Spannung (0.88V -> 2.5...2.6 GHz) sind typischerweise um die +300 MHz drin. Also PT 70% und +250MHz sind meistens Safe und ohne grosses Curve Gefrickel mit wenigen Mausklicks machbar.

Den Takt aber auf eine Obergrenze definieren (gesamten Bereich >0.9V im Curve Editor via Shift + Linke Maus markieren, irgendeinen Punkt im ausgewählten Bereich mit linker Maustaste anklicken und runterziehen, Settings applizieren), denn bei 2.8 GHz Boost klappt +300MHz nicht mehr ;)

Das ganze dauert knapp 1 Minute inkl. VRAM OC und Profil erstellen und sind nochmals +5% Performance und effizienterer Betriebspunkt.

Hypadaiper
2023-09-11, 18:16:04
Bei tiefen Settings um die niedrigste Spannung (0.88V -> 2.5...2.6 GHz) sind typischerweise um die +300 MHz drin. Also PT 70% und +250MHz sind meistens Safe und ohne grosses Curve Gefrickel mit wenigen Mausklicks machbar.

Den Takt aber auf eine Obergrenze definieren (gesamten Bereich >0.9V im Curve Editor via Shift + Linke Maus markieren, irgendeinen Punkt im ausgewählten Bereich mit linker Maustaste anklicken und runterziehen, Settings applizieren), denn bei 2.8 GHz Boost klappt +300MHz nicht mehr ;)

Das ganze dauert knapp 1 Minute inkl. VRAM OC und Profil erstellen und sind nochmals +5% Performance und effizienterer Betriebspunkt.

Also quasi die Quintessenz aus meinem Beitrag 😅
Mit deinem edit versteh ich aber den ersten Absatz nicht ganz.
Welches curve gefrickel meinst du ?

basix
2023-09-11, 18:18:57
Die Curve noch händisch für jeden Betriebspunkt optimieren, wie man es früherTM gemacht hat ;) Ich würde einfachheitshalber den Core Clock Slider nehmen und nur noch die Taktobergrenze im Curve Editor begrenzen. Fertig. Sobald man das macht, ist das händische Optimieren der Curve-Punkte unterhalb der Taktobergrenze nicht mehr nötig. Vor allem, wenn man das Limit um die Minimalspannung von 0.88V setzt.

Hypadaiper
2023-09-11, 18:27:24
Ach du kacke..das tut man sich freiwillig an ? Beer da bleib ich auch lieber bei der Taktgrenze.

00-Schneider
2023-09-11, 19:19:38
Die 4090 bekommt man auch noch mit 20 Jahre alten Games gut ausgelastet. 50% bei Morrowind mit Grafikmods:

https://abload.de/img/morrowind_2023_09_11_3sdlr.jpg

The_Invisible
2023-09-11, 19:32:43
Bei tiefen Settings um die niedrigste Spannung (0.88V -> 2.5...2.6 GHz) sind typischerweise um die +300 MHz drin. Also PT 70% und +250MHz sind meistens Safe und ohne grosses Curve Gefrickel mit wenigen Mausklicks machbar.

Den Takt aber auf eine Obergrenze definieren (gesamten Bereich >0.9V im Curve Editor via Shift + Linke Maus markieren, irgendeinen Punkt im ausgewählten Bereich mit linker Maustaste anklicken und runterziehen, Settings applizieren), denn bei 2.8 GHz Boost klappt +300MHz nicht mehr ;)

Das ganze dauert knapp 1 Minute inkl. VRAM OC und Profil erstellen und sind nochmals +5% Performance und effizienterer Betriebspunkt.

Kommt draufan auf was man gehen will, mit CurveUV und offenen PT hat man immer die gleiche Taktrate anliegen, der Verbrauch kann zudem je nach Game nach unten/oben schwanken.

@00-Schneider
Nett, 4GB VRAM, zu dieser Zeit war die Geforce 4 4600 mit 128MB VRAM gerade aktuell :D

Hypadaiper
2023-09-11, 19:59:44
Kommt draufan auf was man gehen will, mit CurveUV und offenen PT hat man immer die gleiche Taktrate anliegen, der Verbrauch kann zudem je nach Game nach unten/oben schwanken.

Welchen Vorteil hat man durch einen konstanten Takt ? Also vorausgesetzt die frametimes sind schon gut

Langlay
2023-09-11, 20:22:54
Welchen Vorteil hat man durch einen konstanten Takt ? Also vorausgesetzt die frametimes sind schon gut


Potenziell den optimalen Stromverbrauch.

Du lotest halt die minimale stabile Spannung für den Takt aus und hast daher die maximale Effizienz (für den entsprechenden Takt) und der Takt liegt halt auch immer an solange das PT nicht limitiert.

boxleitnerb
2023-09-11, 20:39:20
Ich muss gestehen, ich hab seit Kepler den Sinn des Boost nicht verstanden. Dort, wo Spielraum für mehr Takt da ist, ist die Last vielleicht nicht maximal - da braucht man ihn ggf. weniger. Und da, wo die Karte schon am Limit ist, bekommt man nicht mehr Takt. Sinn? Im Mittel bekommt man sicher mehr Performance, aber vielleicht nicht unbedingt da, wo es wirklich zählt/nötig wäre.
Für 120+ fps vielleicht, aber sonst?

Meiner Meinung nach war das bei Nvidia damals nur umgesetzt, um sich möglichst weit vor Tahiti zu platzieren und mehr Kohle für den kleinen Chip nehmen zu können. AMD hat es mitgemacht und der Rest ist Geschichte.

TheCounter
2023-09-12, 15:02:03
Ich hab meine MSI 4090 Gaming X Trio nun wieder zurückgeschickt, denn das Spulenfiepen war wirklich extrem. So eine abartig laute Karte hatte ich die letzten 25 Jahre nicht.

Habe nun eine Inno3D 4090 iChill Frostbite Pro bestellt, die sollen ja angeblich recht selten lautes Spulenfiepen haben.

Exxtreme
2023-09-12, 15:27:21
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

Da ist MSI leider sehr weit oben mit dabei was Spulenfiepen angeht. Meine Gainward 4090 Phantom Non-GS fiept nur in ganz wenigen Situationen und das auch nicht sehr laut.

Langlay
2023-09-12, 16:34:31
Meine 4090 FE fiept stock auch ganz gut, aber mit UV (2520MHz@875mV) isse schon deutlich leiser und dann stört es auch nimmer. Allerdings ist mein Kopf auch ca 30-40cm neben dem Case.

Aquaschaf
2023-09-12, 16:53:11
Ich muss gestehen, ich hab seit Kepler den Sinn des Boost nicht verstanden. Dort, wo Spielraum für mehr Takt da ist, ist die Last vielleicht nicht maximal - da braucht man ihn ggf. weniger. Und da, wo die Karte schon am Limit ist, bekommt man nicht mehr Takt. Sinn? Im Mittel bekommt man sicher mehr Performance, aber vielleicht nicht unbedingt da, wo es wirklich zählt/nötig wäre.
Für 120+ fps vielleicht, aber sonst?

Meiner Meinung nach war das bei Nvidia damals nur umgesetzt, um sich möglichst weit vor Tahiti zu platzieren und mehr Kohle für den kleinen Chip nehmen zu können. AMD hat es mitgemacht und der Rest ist Geschichte.

Wenn nicht alle Einheiten ausgelastet werden können ist z.B. eventuell mehr Spielraum für Takt, was dann hilft diese Arbeit schneller zu erledigen, das bringt schon etwas.

boxleitnerb
2023-09-12, 17:31:18
Wenn nicht alle Einheiten ausgelastet werden können ist z.B. eventuell mehr Spielraum für Takt, was dann hilft diese Arbeit schneller zu erledigen, das bringt schon etwas.

Aber wann? Wozu braucht es mehr Takt bei nicht maximaler Auslastung?

Aquaschaf
2023-09-12, 18:28:12
Aber wann? Wozu braucht es mehr Takt bei nicht maximaler Auslastung?

Die GPU gat ja ganz viele Ausführungseinheiten, und es ist nicht die ganze Zeit genug Arbeit da die parallel abgearbeitet werden kann. In solchen Situationen hilft mehr Takt, weil dann die Cores die was zu tun haben schneller fertig sind, und gleichzeitig ist in so einer Situation wahrscheinlich mehr Spielraum für Takt, weil der Part der GPU der warten muss weniger Strom zieht und weniger Wärme produziert.

Oder die GPU wartet öfters auf die CPU, und kann dann wenn sie nicht wartet kurz auf einem höheren Takt laufen als sie auf Dauer vom Power- und Temperatur-Budget halten könnte. Das bringt dann auch was.

Man kann es sich grob wie bei einer Multicore-CPU vorstellen, die wäre ohne Boost auch langsamer und/oder würde für die gleiche Performance viel mehr Strom ziehen.

Sardaukar.nsn
2023-09-12, 18:47:37
Meine ASUS TUF darf auch bis 3 GHz boosten, maximal aber nur 360 Watt verbrauchen. Volt und Takt regelt die Karte stabil alleine. Wenn irgendwo Spielraum vorhanden ist, geht es in den boost.

Gerade mal getestet mit aktueller CP2077 Version. Leider sehe die Screenshots mit HDR immer so blass aus, aber hier geht es ja eher im die Daten: https://i.imgur.com/C8FZwdy.jpg

TheCounter
2023-09-12, 19:51:18
Meine 4090 FE fiept stock auch ganz gut, aber mit UV (2520MHz@875mV) isse schon deutlich leiser und dann stört es auch nimmer. Allerdings ist mein Kopf auch ca 30-40cm neben dem Case.


Ich hatte die MSI auch @ ~2500 / 875mV, aber sie war trotzdem so laut, dass sich das Fiepen auch während des Spielens deutlich gehört habe (Geschlossenes Gehäuse, 2 Meter entfernt).

Blase
2023-09-12, 21:07:08
Die 4090 bekommt man auch noch mit 20 Jahre alten Games gut ausgelastet. 50% bei Morrowind mit Grafikmods

FPS Cap? Ohne dann doch sicherlich noch mehr, oder?

MfG Blase

Tesseract
2023-09-12, 23:40:58
Ich muss gestehen, ich hab seit Kepler den Sinn des Boost nicht verstanden. Dort, wo Spielraum für mehr Takt da ist, ist die Last vielleicht nicht maximal - da braucht man ihn ggf. weniger. Und da, wo die Karte schon am Limit ist, bekommt man nicht mehr Takt. Sinn?

was ist daran unklar? die clock-voltage-kurve gibt indirekt für jeden verbrauchswert den maximal (mit sicherheitspuffer) möglichen takt an. ist das power target 250W hat der chip den höchsten takt mit dem die karte unter 250W bleibt, soll der chip nicht über 70°C haben läuft er mit dem höchsten takt mit dem er unter 70°C bleibt usw.

boxleitnerb
2023-09-13, 02:59:28
was ist daran unklar? die clock-voltage-kurve gibt indirekt für jeden verbrauchswert den maximal (mit sicherheitspuffer) möglichen takt an. ist das power target 250W hat der chip den höchsten takt mit dem die karte unter 250W bleibt, soll der chip nicht über 70°C haben läuft er mit dem höchsten takt mit dem er unter 70°C bleibt usw.

Alles klar. Ich zweifle eher an, dass der Boost genau dann die Performance bringt, wenn sie am dringendsten gebraucht wird. Ein zeitlicher Vergleich mit fordernden und nicht so fordernden Szenen im Benchmark wäre aufschlussreich.

Wieso hat man es nicht schon vor Kepler gemacht? Ich fand den Zeitpunkt der Einführung immer schon suspekt. In Reviews waren die avg Balken länger, aber gab es verglichen mit konstantem Takt in den Szenen mit den niedrigsten fps auch mehr Performance oder war die Karte da eher auf Basistakt?
Vielleicht ist das durch die Vielzahl an Ausführungseinheiten und Lastzuständen auch komplexer als ich denke.

Tesseract
2023-09-13, 13:16:33
Ich zweifle eher an, dass der Boost genau dann die Performance bringt, wenn sie am dringendsten gebraucht wird.
der boost bringt immer maximale performance unter einhaltung der limits (die dem schutz der hardware bzw. einhaltung der spezifikation dienen) und ist eigentlich kein boost sondern ein dynamischer throttle der so wenig throttelt wie genau zu diesem zeitpunkt unbedingt nötig. den "basistakt" gibt es in der realität nicht, der ist juristische absicherung.

ältere mechanismen versuchen im prinzip das gleiche zu machen, sind dabei aber einfach nur viel "dümmer", verlieren beim throttle viel mehr performance, sind ab werk taktmäßig stärker beschnitten usw.


Wieso hat man es nicht schon vor Kepler gemacht?
normale weiterentwicklung. die alte variante ist simpler, die neue ist besser. genauso könntest du fragen warum das bei CPUs erst ab Zen 2 existiert und nicht schon früher.

00-Schneider
2023-09-13, 20:06:18
FPS Cap? Ohne dann doch sicherlich noch mehr, oder?

MfG Blase


Jep, der Shot war mit Cap.

Aber ansonsten bist du eh häufig im CPU-Limit in dem Game:

https://abload.de/img/morrowind_2023_09_13_lmi73.jpg

Durch den Graphics Extender wird zwar mehr als ein Thread genutzt, aber das Game ist halt im Ursprung Singlethreaded.

gedi
2023-09-13, 21:22:15
Ändert trotzdem nichts daran, dass Windoof im SDR Mode nur 8-Bit darstellen kann.

Die haben es noch immer nicht in den Griff bekommen :freak:

TheCounter
2023-09-15, 07:49:59
Gestern kam meine Inno3d 4090 iChill Frostbite Pro. Ich muss schon sagen, das 1 Slot Design mit der Carbon-Abdeckung ist echt sexy :eek:

Kann sie leider erst am Sonntag einbauen und testen.

Megamember
2023-09-16, 12:06:13
Hat jemand die 4090 Suprim X und kann was zur Lüfterlautstärke sagen.
Meine geht im Gaming Profil, ohne UV im geschlossenen Gehäuse durchaus mal an udn über die 2000U/min und ich finde die macht da schon ziemlich Lärm, ähnlich meiner Gigabyte 3090. Temps im kleinen/mittleren 70er Bereich. Allgemein ist der Lüfter ab ~1600U/min sehr nervig.
Jetzt seh ich auf yt reviews und les in diversen Tests das der Lüfter allgemein extrem leise sein soll, auch mit 2000. Das kann ich so garnicht bestätigen, wie sieht das bei euch aus.

TheCounter
2023-09-17, 15:17:55
Hab den Inno3d nun verbaut und bin überglücklich, dass diese kein Spulenfiepen hat! Nach der MSI war ich da wirklich besorgt.

Läuft super das Teil :up:

Alan Wake 2 und Phantom Liberty können kommen :D

aufkrawall
2023-09-17, 16:20:04
Meine geht im Gaming Profil, ohne UV im geschlossenen Gehäuse durchaus mal an udn über die 2000U/min und ich finde die macht da schon ziemlich Lärm
Klingt schlecht, bei offenem Gehäuse sollte die bei 500W ca. 1400rpm für 78°C abliefern.
Ich find die Lüfter aber auch nervig (Geheule), typisch MSI halt.

Gynoug MD
2023-09-19, 13:33:04
Hat jemand die 4090 Suprim X und kann was zur Lüfterlautstärke sagen.
Meine geht im Gaming Profil, ohne UV im geschlossenen Gehäuse durchaus mal an udn über die 2000U/min und ich finde die macht da schon ziemlich Lärm, ähnlich meiner Gigabyte 3090. Temps im kleinen/mittleren 70er Bereich. Allgemein ist der Lüfter ab ~1600U/min sehr nervig.
Jetzt seh ich auf yt reviews und les in diversen Tests das der Lüfter allgemein extrem leise sein soll, auch mit 2000. Das kann ich so garnicht bestätigen, wie sieht das bei euch aus.
Direkte Frischluft mit Boden- und Frontlüftern?
Ohne schmoren sie gerne im eigenen Saft.

Lowkey
2023-09-19, 15:30:08
Da gefühlt jeder zweite 3Dcler eine 4090 hat, denkt sie Asus: Wir brauchen wieder einen Enthusiasten Markt:

https://www.techpowerup.com/review/asus-geforce-rtx-4090-matrix-platinum/

Die Auslesemöglichkeiten von Strom und Temp sind interessant.

Megamember
2023-09-19, 20:35:23
Da gefühlt jeder zweite 3Dcler eine 4090 hat, denkt sie Asus: Wir brauchen wieder einen Enthusiasten Markt:

https://www.techpowerup.com/review/asus-geforce-rtx-4090-matrix-platinum/

Die Auslesemöglichkeiten von Strom und Temp sind interessant.

Kostet nur 4000$ !!!!, Schnapper.:ulol: Asus hat den Arsch offen.


eT765FI8Jqg

Sardaukar.nsn
2023-09-19, 21:15:25
Spezielle Zielgruppe. Aber ist auch nicht schneller als eine Asus TUF non-oc. ~3 GHz werden wohl alle schaffen.

Megamember
2023-10-03, 17:20:33
Hat jemand die 4090 Suprim X und kann was zur Lüfterlautstärke sagen.
Meine geht im Gaming Profil, ohne UV im geschlossenen Gehäuse durchaus mal an udn über die 2000U/min und ich finde die macht da schon ziemlich Lärm, ähnlich meiner Gigabyte 3090. Temps im kleinen/mittleren 70er Bereich. Allgemein ist der Lüfter ab ~1600U/min sehr nervig.
Jetzt seh ich auf yt reviews und les in diversen Tests das der Lüfter allgemein extrem leise sein soll, auch mit 2000. Das kann ich so garnicht bestätigen, wie sieht das bei euch aus.

Konnte mich nichtmehr beherschen und hab die Paste gewechselt. Unterschied wie Tag und Nacht. Paste hatte auch eher die Konsistenz als wäre sie schon 10 Jahre draufgewesen komischerweise, bröselige Kruste. Jetzt so gut wie nie über 65 Grad und quasi lautlos. Bei einem 2000€ Premiumprodukt schon irgendwie traurig.

Cubitus
2023-10-03, 17:31:32
Konnte mich nichtmehr beherschen und hab die Paste gewechselt. Unterschied wie Tag und Nacht. Paste hatte auch eher die Konsistenz als wäre sie schon 10 Jahre draufgewesen komischerweise, bröselige Kruste. Jetzt so gut wie nie über 65 Grad und quasi lautlos. Bei einem 2000€ Premiumprodukt schon irgendwie traurig.

Welche Paste hast genommen?
Überlege mir auch andere Paste und dann das Galax-Bios 666 Watt drauf zu bügeln, damit die Karte mal der HW entsprechend ausgelastet wird. :biggrin:

In CP, PL wären die 3,1 Ghz schon nice ^^

Megamember
2023-10-03, 17:35:47
Wollte erst die MX6 von Arctic nehmen aber die war fast leer. Hab dann Noctua NT-H1 genommen.

Sardaukar.nsn
2023-10-03, 17:51:29
Ne Idee wäre noch ein Graphen Pad, das soll ja mit der Zeit nicht altern.

fAxjjDX1qDA

Cubitus
2023-10-03, 17:53:40
Danke :)

Ich schau mal was ich noch so rumliegen habe.

Ansonsten für die CP-Fans unter uns, will die Karte iwie haben :freak:

yh3OzL9ZeKc

Megamember
2023-10-09, 20:17:00
Kann mal jemand mit 4090 Suprim X checken ob er der Stelle auch so ein sehr dickes PAd hat? Das sieht mir irgendwie nicht korrekt aus. Die Spulen dahinter sind dieselbe Höhe + Abstand zum Kühler und haben schmalere Pads.

https://abload.de/thumb/20231009_200829prd0j.jpg (https://abload.de/image.php?img=20231009_200829prd0j.jpg)

Das PCB sieht auch nicht wirklich gerade aus oder hab ich Paranoia?

https://abload.de/thumb/20231009_20093977egv.jpg (https://abload.de/image.php?img=20231009_20093977egv.jpg)

Hab die Paste gewechselt aber das sah auch vorher genau so aus.

Raff
2023-10-26, 15:10:24
4090-Besitzer sollten sich diese Werte auf der Zunge zergehen lassen: https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/

Es tut beim Kauf sehr weh, aber bei solchen Dingen weicht der Schmerz purer Freude. Ich hoffe so sehr, dass RDNA 4 endlich dedizierte Hardware-Einheiten für RT erhält, damit das nicht so einseitig ist.

MfG
Raff

Exxtreme
2023-10-26, 15:31:45
Von Nvidia gibt es einen Day-0-Treiber für das Spiel:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=616658

lilgefo~
2023-10-26, 16:13:35
[...]
Es tut beim Kauf sehr weh, aber bei solchen Dingen weicht der Schmerz purer Freude. [...]
MfG
Raff

Eher andersrum.^^

00-Schneider
2023-10-28, 13:18:49
Wäre es eine kühne Behauptung zu sagen, dass die 4090 mit PT eigentlich nur eine ~1440p-Karte ist?

HOT
2023-10-28, 13:53:30
4090-Besitzer sollten sich diese Werte auf der Zunge zergehen lassen: https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/

Es tut beim Kauf sehr weh, aber bei solchen Dingen weicht der Schmerz purer Freude. Ich hoffe so sehr, dass RDNA 4 endlich dedizierte Hardware-Einheiten für RT erhält, damit das nicht so einseitig ist.

MfG
Raff

Jippiiee 30 FPS mit ner 4090 :freak:. Ich glaub ich warte auf BW/RDNA5. Dann spiel ich das Ding dann noch mal, vorher reicht mir Raster.

The_Invisible
2023-10-28, 13:58:07
4090-Besitzer sollten sich diese Werte auf der Zunge zergehen lassen: https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/

Es tut beim Kauf sehr weh, aber bei solchen Dingen weicht der Schmerz purer Freude. Ich hoffe so sehr, dass RDNA 4 endlich dedizierte Hardware-Einheiten für RT erhält, damit das nicht so einseitig ist.

MfG
Raff

Mal wieder ein Spiel wo die 4090 >40% vor der 4080 liegt bzw Ampere gut geschlagen wird, mehr als doppelte perf vs 3090ti, da zahlt sich das Upgrade schon aus

Troyan
2023-10-28, 14:42:00
Wäre es eine kühne Behauptung zu sagen, dass die 4090 mit PT eigentlich nur eine ~1440p-Karte ist?

Ja, weil mehr als 60 FPS eigentllich nur in 1080p erreichbar ist. ;D

Exxtreme
2023-10-28, 15:02:42
Jippiiee 30 FPS mit ner 4090 :freak:. Ich glaub ich warte auf BW/RDNA5. Dann spiel ich das Ding dann noch mal, vorher reicht mir Raster.

Joa. Ist auch der Grund warum ich geschrieben habe, dass es mindestens Faktor 5 der jetzigen RTX 4090 an Leistung braucht für brauchbares RT. Das Rumgeeiere, was man derzeit hat, ist mit bilinearer Filterung vergleichbar. Besser als keine bilineare Filterung, aber weit davon entfernt gut zu sein.

gnomi
2023-10-28, 15:17:32
Für 5X 4090 Performance braucht nvidia wahrscheinlich 3 Generationen.
Könnte bis Ende des Jahrzehnts dauern.
Ich finde diesen Weg über DLSS und FG schon soweit gut.
Problem habe ich eher mit vierstelligen GPU Preisen ab 80er Serie.

myMind
2023-10-28, 18:08:22
Jippiiee 30 FPS mit ner 4090 :freak:. Ich glaub ich warte auf BW/RDNA5. Dann spiel ich das Ding dann noch mal, vorher reicht mir Raster.
Um das in Relation zu setzen: Unbedingt "Alan Wake 2 PC - Rasterisation Optimised Settings Breakdown - Is It Really THAT Demanding? (https://www.youtube.com/watch?v=QrXoDon6fXs)" von Digital Foundry dazu schauen. Tolles Video. Ich finde es immer wieder klasse, wie Alex die PS5-Einstellungen herausarbeitet und auf Windows überträgt. Da bist du mit der RTX 3070 analog auf dem PC schon im 80er FPS-Bereich, während die PS5 60 FPS liefert. Das ist die eine gute Baseline und das Spiel sieht schon ganz gut aus.

Mit Alan Wake 2 kann man jede GPU in die Knie zwingen, aber man muss das ja nicht tun. Und das schöne ist, wenn man eine schnelle GPU hat, dann bekommt man für die eingesetzte Leistung bei dem Spiel auch was zurück.

The_Invisible
2023-10-28, 19:05:40
Joa. Ist auch der Grund warum ich geschrieben habe, dass es mindestens Faktor 5 der jetzigen RTX 4090 an Leistung braucht für brauchbares RT. Das Rumgeeiere, was man derzeit hat, ist mit bilinearer Filterung vergleichbar. Besser als keine bilineare Filterung, aber weit davon entfernt gut zu sein.

Trotzdem war es auch damals "geil" es einzuschalten, genauso wie 16xAF usw die 4090 ist die Mainstreamkarte der nächsten Gen und die Releaseabstände werden anscheinend immer größer.
Heute wird nur mehr gejammert über jedes neue Features was nicht perfekt ist, das ist der Unterschied...

Sardaukar.nsn
2023-10-28, 19:26:59
Für 5X 4090 Performance braucht nvidia wahrscheinlich 3 Generationen.
Könnte bis Ende des Jahrzehnts dauern.
Ich finde diesen Weg über DLSS und FG schon soweit gut.

Vielleicht auch weniger und dann reden wir auch erstmal nur über Rohleistung. Das ist die 4090 schon gut aufgestellt. Zu meiner Vorgänger 3080 10GB sind das +120% Rohleistung. https://www.3dmark.com/compare/spy/29595315/spy/33420218

Hatte ich bei dem Kauf damals noch nicht auf dem Schirm, aber wie du schon ganz richtig schreibst hat sich DLSS in den letzten Jahren von einem Gimmick zum einem echten Game-Changer entwickelt. Zusammen mit FG kann die Rohleistung ja vervielfacht werden. Ich glaube bei CP2077 mit Pathtracing werden nur noch 1/8 der Pixel klassisch gerendert. Das könnte eine recht langlebige Karte werden.

Gebraucht gibt es auch nichts wirklich zum Schnäppchen. Im Gegenteil, denn dank der China Sanktionen ziehen die Preise wieder mächtig an. https://videocardz.com/newz/geforce-rtx-4090-price-doubles-in-china-amid-us-export-ban#:~:text=The%20RTX%204090%20was%20initially,have%20even%20reported%20prices%2 0quadrupling.

Was auch schon hier auf dem Markt erkennbar ist https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/Preise-zeigen-nach-oben-1432359/

gnomi
2023-10-28, 20:47:19
Habe nochmal geguckt, da wir ja alle Werte quasi jetzt schon haben mit einem Spiel wie Alan Wake 2. :up:
FG klammere ich mal aus, da unfairer Vergleich und keine echten fps.
Trotzdem wird das zum guten Ton in Zukunft gehören.
Wegen VRAM habe ich es mal bei WQHD belassen.

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/

Benchmark PCGH WQHD PT Upsampling
2080 TI
11,6
3080
18,3
4090
54,4

4090 gegenüber der 2080TI 4,69X
4090 gegenüber 3080 2,97X

Benchmark PCGH WQHD RT Upsampling
2080 TI
25,5
3080
38,7
4090
78,9

4090 gegenüber der 2080TI 3,09X
4090 gegenüber 3080 2,04X

Benchmark PCGH WQHD Raster + Upsampling
2080 TI
37,4
3080
54,8
4090
103,5

4090 gegenüber der 2080TI 2,77X
4090 gegenüber 3080 1,89X

Also hier hat es die 4090 mit PT tatsächlich nach 5 Jahren in zwei Generationen knapp geschafft. Und dann kann man mit 54 fps auch noch FG anstellen. Glückwunsch.
So betrachtet ist die Karte revolutionär und ihr Geld wert.

Andererseits FG gibt es jetzt in einer Version von AMD.
Und Alan Wake 2 ist lediglich ein Spiel und auch auf PS5/2080 Raster gut erlebbar oder mit Ampere mit RT LOW eine Stufe hübscher.
Dass wir für diese Techniken ein Vielfaches der Leistung plus Tricks benötigen und auf einmal derbe zahlen sollen, stimmt genauso.

redpanther
2023-10-28, 21:13:48
Du vergleichst halt X080er mit der 4090? Das ist nicht korrekt.

Bis wir eine Graka haben die x5 Schneller in PT ist als die 4090, wird noch sehr viel Zeit vergehen sage ich.

gnomi
2023-10-28, 21:47:15
Ansichtssache.
Das sind ja nur Bezeichnungen.
Ich kann vergleichen, was ich mag. ;)
Von 2080 TI auf 4090 sind zwei Generationen schnellste Karte at Launch.
Plus ein Jahr bis Release Alan Wake 2.
3090 wäre besser gewesen als 3080. Fehlt aber im Benchmark.
Dann hätten sogar die Preissteigerungen von Generation zu Generation halbwegs gepasst unter normal kaufbaren Bedingungen.

DrFreaK666
2023-10-28, 22:30:23
... Da bist du mit der RTX 3070 analog auf dem PC schon im 80er FPS-Bereich, während die PS5 60 FPS liefert...

Ja gut. Wie viel die PS5 ohne FPS Lock bieten würde, wissen wir nicht

gnomi
2023-10-29, 07:20:25
Nicht durchgängig, jedoch beispielhaft.
Bei Digital Foundry haben sie dazu eine fordernde Szene im Wald verglichen, wo die PS5 im Performance Modus unter diese 60 fps fällt. (ab Minute 10)

https://www.youtube.com/watch?v=QrXoDon6fXs

58 zu 83 fps entspricht Faktor 1,43X selbst in diesen niedrigen Performance Konsolen Settings.

Es werden auch akribisch die Einstellungen und Auswirkungen beschrieben.
Zudem kann man sich ansehen, wie nicht mehr unterstützte GPU's wie 1080TI und 5700XT hier gegen eine noch unterstütze 2080 wegen technischer Neuheiten keine Chance haben und nicht mehr sauber laufen.
Bei dem Spiel trennt sich die Spreu vom Weizen, wenn man an den Einstellungen dreht...

dildo4u
2023-10-29, 08:20:33
Ja gut. Wie viel die PS5 ohne FPS Lock bieten würde, wissen wir nicht

Die PS5 dropt unter 60fps im Wald da spielt der FPS Lock keine Rolle.

Das Game rennt überdurchschnittlich gut auf der 3070 eher 6800 Level.
Das erklärt den großen Abstand zu PS5 Performance.

https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/6.html

basix
2023-10-29, 09:56:07
Du vergleichst halt X080er mit der 4090? Das ist nicht korrekt.

Bis wir eine Graka haben die x5 Schneller in PT ist als die 4090, wird noch sehr viel Zeit vergehen sage ich.

Ich warte auf den Release von RTXGI 2.0, welches Neural Radiance Caching (NRC) Support mitbringen wird. Und dann vermutlich bald in RTXDI integriert werden wird (=CP2077 / Alan Wake 2 Pathtracing).
https://www.youtube.com/watch?v=Hta4g_evres
https://www.youtube.com/watch?v=8WEcE-mRoik

-> 5x sind allein durch NRC möglich, weil man die Anzahl Rays bei gleichbleibender Qualität massiv reduzieren könnte

VooDoo7mx
2023-10-29, 11:12:38
Du vergleichst halt X080er mit der 4090? Das ist nicht korrekt.


Der Vergleich zwischen 3080 und 4090 ist korrekter als die meisten annehmen. Man darf nicht vergessen, dass die 4090 immer noch ein relativ stark beschnittener AD102 im Vergleich zur 3090 ist.

3080 10GB = 81% GA102
3080 12GB = 83% GA102
3080Ti = 95% GA102
3090 = 98% GA102
3090Ti = 100% GA102

4090 = 89% AD102

DrFreaK666
2023-10-29, 11:55:00
Ich warte auf den Release von RTXGI 2.0...

Proprietäres Zeugs?

basix
2023-10-29, 11:58:19
Proprietäres Zeugs ist bereits in den Pahtracing Algorithmen von CP2077 und AW2 drin ;)

Wie blöd, wenn diese zwei Titel mit einem Patch plötzlich auf schwächeren GPUs und Radeons laufen könnten. Darf ja nicht sein ;)

Ausserdem:
All diese Algorithmen sind öffentlich. Via Papers und Vorträgen von Nvidia. Jeder kann sie nachbauen, wenn man Zeit und Geld investieren will.

DrFreaK666
2023-10-29, 12:10:03
Meinte wegen dem RTX

basix
2023-10-29, 12:14:03
Pathtracing in CP2077 & (soweit ich weiss auch) AW2 = RTXDI SDK (https://github.com/NVIDIAGameWorks/RTXDI) = RTXDI (ReSTIR) + RTXGI v1.2.12 (ReSTIR) + DLSS + NRD v3.3.1 -> Das ist dein proprietäres Zeugs

Mit RTXGI v2.0 kommt noch NRC dazu, was dann also auch ins RTXDI SDK reinkommen wird.

DrFreaK666
2023-10-29, 16:57:43
ok

aufkrawall
2023-10-30, 14:03:30
Mal wieder Skalierungsprobleme: Anders als 7900 XTX vs. XT, kann sich die 4090 bei den 1% low kaum von der 4080 absetzen:
https://abload.de/img/gnzte4g.png (https://abload.de/image.php?img=gnzte4g.png)
https://youtu.be/l4DX6mUY78s?t=483

Holundermann
2023-10-30, 15:04:39
Mal wieder Skalierungsprobleme: Anders als 7900 XTX vs. XT, kann sich die 4090 bei den 1% low kaum von der 4080 absetzen:
https://abload.de/img/gnzte4g.png (https://abload.de/image.php?img=gnzte4g.png)
https://youtu.be/l4DX6mUY78s?t=483

Deutet wohl eher auf die unbestrittenen skalierungsprobleme von cities skylines hin...

Wenn die es schaffen die CPU bottlenecks zu lösen wird die 4090 schon ordentlich skalieren denke ich.

Linmoum
2023-10-30, 15:04:44
CS2 ist in der Hinsicht allerdings offensichtlich ein ganz schlechtes Beispiel, deswegen hat beispielsweise CB auch komplett auf solche Messungen verzichtet:

Für Cities: Skylines II verzichtet die Redaktion auf die Perzentil-FPS-Angaben, weil die andauernden, aber immer verschiedenen und damit nicht reproduzierbaren Haker diese Messung bzw. die daraus abzuleitenden Ergebnisse ad absurdum führen.

Exxtreme
2023-10-30, 15:10:44
Wobei das schon auffällig ist, dass die Radeons sehr gut mit ihrer theoretischen Leistung skalieren, die Geforces aber nicht. Hier schlägt wohl die hohe CPU-Belastung der Treiber zu und das Spiel wird viel CPU-limitierter als es eigentlich sein müsste. Irgendwie scheint hier Nvidia aber keinen Handlungsbedarf zu sehen.

redpanther
2023-10-30, 15:16:34
Ist der 12700kf denn eine Adäquater Partner für eine XTX/4090?

Raff
2023-10-30, 15:40:02
CS2 ist in der Hinsicht allerdings offensichtlich ein ganz schlechtes Beispiel, deswegen hat beispielsweise CB auch komplett auf solche Messungen verzichtet:

Das ist seit dem jüngsten Patch vorbei, die Mega-Sync-Ruckler sind weg (https://www.pcgameshardware.de/Cities-Skylines-2-Spiel-74219/Specials/Benchmarks-Review-Technik-Test-1432196/).

Da fällt mir ein, da wollte ich ja noch einige Werte nachtragen. :ugly:

MfG
Raff

aufkrawall
2023-10-30, 16:06:23
CS2 ist in der Hinsicht allerdings offensichtlich ein ganz schlechtes Beispiel, deswegen hat beispielsweise CB auch komplett auf solche Messungen verzichtet:
Deshalb sind die 0.1% low auch nicht reproduzierbar, die 1% sind es in dem Test aber. So groß sind die relativen Unterschiede zu den Gesamt-avg auch nicht.

DrFreaK666
2023-10-30, 16:48:04
...Irgendwie scheint hier Nvidia aber keinen Handlungsbedarf zu sehen.

Frame Generation wirds schon richten :ugly:

Gymnopédies
2023-10-30, 18:04:45
Ich schätze eher..... das wird dann in der RTX² 5xxx Serie als neues Feature beworben. ^^

VooDoo7mx
2023-10-30, 21:22:45
Ist der 12700kf denn eine Adäquater Partner für eine XTX/4090?

Nein denn unter einen 13900K oder 7950X springt eine 4090 gar nicht erst an.

TheCounter
2023-11-04, 15:22:40
Was ist denn aktuell bei den 4090ern los? Wieso steigen die so krass im Preis? Meine ist in den letzten 2 Monaten um 400€ gestiegen.

Die Ultra kostet sogar plötzlich 4500€ ;D

DrFreaK666
2023-11-04, 15:33:41
Sooo viel teurer sind sie nicht geworden, oder? Was war der günstigste Preis vor Kurzem? 1699? Aktuel 1819€

dildo4u
2023-11-04, 15:40:33
Was ist denn aktuell bei den 4090ern los? Wieso steigen die so krass im Preis? Meine ist in den letzten 2 Monaten um 400€ gestiegen.

Die Ultra kostet sogar plötzlich 4500€ ;D

China Bann tritt in Effekt vorher wird was geht dort hingeleitet.

https://videocardz.com/newz/nvidia-rushes-geforce-rtx-4090-shipments-to-china-before-us-export-bans-takes-effect-on-november-17

Taigatrommel
2023-11-04, 15:54:27
Sooo viel teurer sind sie nicht geworden, oder? Was war der günstigste Preis vor Kurzem? 1699? Aktuel 1819€

Es gab noch im Sommer hin und wieder Angebote für 1500-1550€, keine Einzelstücke sondern wirkliche Angebote. Jetzt sehen wir Preise über 1800€, eher um die 1900€. Es ist schon eine deutliche Steigerung.

Ich denke profitieren kann derzeit die 4080, deren Preis weiterhin zwischen 1200 und rund 1350€ liegt. Der Aufpreis zum Flaggschiff ist inzwischen doch nicht gerade ohne, wenn man jetzt nicht gerade die beiden FE miteinander vergleicht.

DrFreaK666
2023-11-04, 15:56:01
Da können wir ungefähr abschätzen wo 4080 Super landen wird. Denke nicht beim aktuelle 4080-Preis

ImmortalMonk
2023-11-04, 17:41:58
China Bann tritt in Effekt vorher wird was geht dort hingeleitet.

https://videocardz.com/newz/nvidia-rushes-geforce-rtx-4090-shipments-to-china-before-us-export-bans-takes-effect-on-november-17


Demnach müssten die 4090er demnächst ja wieder sehr deutlich im Preis fallen.

aufkrawall
2023-11-04, 18:13:34
Nicht, wenn nur so wenige nachkommen, dass das Angebot sehr knapp bleibt.

Nightmare09
2023-11-06, 16:02:16
China Bann tritt in Effekt vorher wird was geht dort hingeleitet.

https://videocardz.com/newz/nvidia-rushes-geforce-rtx-4090-shipments-to-china-before-us-export-bans-takes-effect-on-november-17

Da habe ich mir je genau den falschen Zeitpunkt ausgesucht, um nach einer 4090 zu suchen. Ich habe mich schon gewundert, warum in allen gängigen Preissuchmaschinen die Preisentwicklung teilweise steil aufwärts geht. Ich bin gespannt wie sich die Lage nach dem 16.11 darstellt und ob nicht die Nachfrage vor Weihnachten die Preise auf diesem Nivea halten wird.

ImmortalMonk
2023-11-07, 09:40:02
Da habe ich mir je genau den falschen Zeitpunkt ausgesucht, um nach einer 4090 zu suchen. Ich habe mich schon gewundert, warum in allen gängigen Preissuchmaschinen die Preisentwicklung teilweise steil aufwärts geht. Ich bin gespannt wie sich die Lage nach dem 16.11 darstellt und ob nicht die Nachfrage vor Weihnachten die Preise auf diesem Nivea halten wird.


Man sieht ja, dass die Preise der anderen 4000er Karten relativ stabil sind. Es wird sicher einige Wochen benötigen, bis sich das wieder einpendelt mit der 4090. Das hier nun auf Dauer das Angebot durch Nvidia verknappt wird, denke ich eher nicht. Sicher, Nvidia nutzt viele Produktionskapazitäten für KI Chips, aber die gehen ja dann zukünftig auch nicht mehr nach China.

Exxtreme
2023-11-07, 09:43:15
Die Preise werden womöglich so schnell nicht sinken. Wir könnten wieder so eine Scalper-Situation bekommen wie zum Mining-Boom. Und Nvidia hat die Produktion der Ada-Chips auch eingestellt. Wenn die jetzt starten dann dauert das etliche Wochen bis die ersten Chips wieder herauskommen.