Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
[
11]
12
13
14
15
16
17
BlacKi
2022-12-09, 20:59:51
sonst wären die y kabel mit 2x 8 pin nicht innerhalb der spec.
Emil_i_Lönneberga
2022-12-10, 18:40:18
Weitere Bilder zum dünnen ES 4090 Kühler:
https://www.hardwareluxx.de/community/threads/nvidia-ada-lovelace-40xx-wasserk%C3%BChler.1323682/page-29#post-29610311
r3ptil3
2022-12-10, 18:55:12
Musste aufgrund eines Defekts vom ASUS SFX-L Loki (ATX 3.0 Netzteil) auf ein Corsair SF750 (ATX 2.4) umsteigen (inkl. Corsair Original-12VHPWR Anschluss). Was ich gleich von der ersten Minute bemerkt habe, ist das deutlich geringere Spulenfiepen. Reagiert zwar gleich, sprich bei hohen FPS bspw. höheres Spulenfiepen, aber mind. um die Hälfte leiser als mit dem ASUS Loki.
Hab jetzt nochmals mehrmals nachgetestet, weil ich dem ersten (akustischen) Eindruck nicht so recht glauben wollte, aber es ist Tatsache.
Das ASUS hat übrigens nach ca. 15 Minuten ingame (keine 300W Last), plötzlich den Lüfter hochgedreht und nicht mehr runtergeregelt (auch im IDLE nicht).
Sardaukar.nsn
2022-12-11, 09:37:40
@Emil: Den Kühler finde ich auch super spannend.
Im Overclock.net Forum ist man sehr angetan vom Galax HOF VBios mit teuflischen 666 Watt.
https://www.overclock.net/threads/official-nvidia-rtx-4090-owners-club.1800847/page-357
Habe ich mir mal auf mein Silent-Bios der Asus TUF geflash und mit OCCT kurz geschaut ob es auch wirksam ist. Holy...
https://i.imgur.com/Zo04S3D.gif
Performance ist top. Über 21k GPU Score im TSE hatte ich bisher nicht: https://www.3dmark.com/3dm/84810360?
Radeonfreak
2022-12-11, 09:39:22
Glüht die Seitenwand schon? :freak:
Sardaukar.nsn
2022-12-11, 09:47:37
Die geht ja eh nicht zu weil die TUF so dick ist. Wird dann erst mit dem Wasserkühler besser.
Das Bios gibt es hier: https://www.techpowerup.com/vgabios/252087/252087
Im Vergleich mit dem Silent Bios der TUF
https://i.imgur.com/Won5AW3.jpg
https://i.imgur.com/wStn2kV.jpg
BlacKi
2022-12-11, 11:17:21
merkwürdig, der 16pin stecker müsste doch einiger leute nach schon mehrmals abgefackelt sein^^
robbitop
2022-12-11, 11:33:33
Tja die PCIe Stecker sind dafür konstruktionsbedingt nicht besonders anfällig. Auch wenn etwas Überlast drauf kommt.
Ben Carter
2022-12-12, 07:46:15
hier wird die aktuell beste version ausgemacht.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13171238#post13171238
download auch hier
https://www.techpowerup.com/download/nvidia-dlss-dll/
Danke sehr, funktioniert wirklich gut. Habe jetzt auch auf RTX Psycho umgestellt und lieg nun bei 75 fps im Schnitt. 65min, 90 max. Die DLSS Artefakte sind geringer geworden.
dargo
2022-12-12, 08:37:53
Die RTX 4090 von "der8auer" wurde von KrisFix wieder repariert.
chZoMC0QA38
Edit:
Ich hätte erst das Video zu Ende schauen sollen. Die Karte funktioniert bei ihm doch nicht, bei KrisFix war alles I.O. Also auf ein Neues. :D
-Scud-
2022-12-12, 08:44:08
KrisFix
Klasse Kanal. :eek:
Sehr informative Videos.
seaFs
2022-12-12, 12:44:44
Die RTX 4090 von "der8auer" wurde von KrisFix wieder repariert.
https://youtu.be/chZoMC0QA38
Edit:
Ich hätte erst das Video zu Ende schauen sollen. Die Karte funktioniert bei ihm doch nicht, bei KrisFix war alles I.O. Also auf ein Neues. :D
Mal völlig unabhängig vom Interessanten Inhalt von KrisFix... eine viertel Stunde, nur um zu sagen, dass die Karte doch nicht funktioniert? Und dann auch nur ergebnisloses Raten ins Blaue ohne konstruktiven Ansatz. Wer tut sich sowas freiwillig dauerhaft an?
Linmoum
2022-12-12, 13:02:16
Also wer auch mit Wakü plant muss ggf. damit rechnen, dass sein bisheriges VRAM-OC instabil wird. Der Micron scheint sehr niedrigere Temperaturen irgendwie nicht zu mögen. Ich musste von +1600MHz auf +1400MHz runter, damit der Rechner nicht mehr freezt bzw. es in Spielen nicht zu Grafikfehlern kommt.
Wir reden hier von 3x°C beim Speicher, im Idle sind es auch teilweise sogar nur 2x°C.
Lowkey
2022-12-12, 13:07:12
Krass ... dabei schwärmen die Leute schon von besseren WLPads auf dem Speicher.
Ja, für mich ist das Video auch uninteressant. Prio Nummer 1 wäre ein UV Guide für GPU und CPU. Nur selbst für mein MSI gibt es da fast nichts (MSI überspringt quasi den 700er Chipsatz).
Niall
2022-12-12, 13:10:07
(...)Wir reden hier von 3x°C beim Speicher, im Idle sind es auch teilweise sogar nur 2x°C.
Das ist schon echt schräg, eine Generation vorher konntest Du auf den Modulen Eier braten, jetzt hängt der bei einem max.-delta zu Wasser von 10°C. :freak:
Linmoum
2022-12-12, 13:18:31
Ich werde die Tage noch mal genauer schauen. Es ist aber definitiv instabil, da ich die vorherigen +1600MHz via Afterburner nur anwenden muss und der Rechner dann instant crasht. Im Idle sofort, wenn noch irgendwas im Hintergrund läuft und der Speicher ein paar Grad mehr hat, sind's noch ein paar Sekunden länger.
Mit +1500MHz war das Problem zwar weg, allerdings gibt's damit bunte Grafik in Spielen. Das hat sich bisher erst bei +1400MHz auch erledigt.
TobiWahnKenobi
2022-12-12, 13:30:16
und da rätst du temperatur statt PCB (ver)spannung? gewagt. sucht den fehler nie bei euren umbauten - ihr seid zu gut.
(..)
mfg
tobi
Linmoum
2022-12-12, 13:41:33
Inwiefern soll der Fehler beim Umbau liegen? Ich bin auch davon ab nicht der einzige damit, siehe u.a.
https://www.overclock.net/threads/official-nvidia-rtx-4090-owners-club.1800847/page-335#post-29086620
https://www.overclock.net/threads/official-nvidia-rtx-4090-owners-club.1800847/page-336#post-29086946
Speicher wird zu kalt und instabil. Ich merke das ja selbst, mit ein paar Grad mehr bei Hintetgrundlast schmiert der Rechner reproduzierbar nicht sofort ab, sondern braucht noch ein paar Sekunden länger. Das liegt definitiv an den Temperaturen der Chips.
Exxtreme
2022-12-12, 13:46:52
und da rätst du temperatur statt PCB (ver)spannung? gewagt. sucht den fehler nie bei euren umbauten - ihr seid zu gut.
(..)
mfg
tobi
Nein, das kann schon sein, dass es bei zu kalten Chips zu Instabilitäten kommen kann. Der Strom fliesst nunmal schneller durch kalte Leitungen. Was aber heftiger reinhaut sind Kondensatoren. Die sind z.T. stark temperaturabhängig.
https://de.wikipedia.org/wiki/Kondensator_(Elektrotechnik)#Temperaturabh%C3%A4ngigkeit
Edit: Und DRAM basiert prinzipiell auf einem Kondensator. :)
https://de.wikipedia.org/wiki/Dynamic_Random_Access_Memory
Niall
2022-12-12, 14:18:57
und da rätst du temperatur statt PCB (ver)spannung?
In OC-Foren gehen Leute sogar soweit, auf dem Speicher 'schlechtere' Pads zu nutzen damit er nicht so kalt läuft. ;)
Troyan
2022-12-12, 16:07:27
https://cdn.sweclockers.com/artikel/diagram/28210?key=cd87b44b1310abc479e7b5885689afbd
https://www.sweclockers.com/test/35327-amd-radeon-rx-7900-xtx-och-rx-7900-xt-lag-rod-slar-tillbaka-med-rdna-3/8
Wenn nochmal jemand fragt, wieso die 4090 die einzige Karte ist, die es verdient hat über 1000€ gekauft zu werden.
DrFreaK666
2022-12-12, 16:29:27
Weil es mit der 4080 unspielbar ruckelig ist :ugly:
dildo4u
2022-12-12, 17:02:58
Schätze mal Ultra ist Nvidia Spec hier sind sie deutlich dichter beisammen mit Very High RT.
https://youtu.be/Yq6Yp2Zxnkk?t=195
Wie die Masse der AAA Games wird man wegen den Konsolen oft eine passende Stufe für diese AMD Karten haben.
Troyan
2022-12-12, 17:04:31
Natürlich Ultra. Wieso sollte man in 4K nicht mit "4K" zocken?!
Lurtz
2022-12-12, 21:21:28
nVidia wird die fehlende Konkurrenzfähigkeit von AMD was RT angeht gnadenlos ausnutzen in den nächsten Monaten/Jahren. Ampere-Besitzer werden davon aber genauso wenig haben. Naja, zumindest ab 3080 ist es zumindest theoretisch noch spielbar.
ChaosTM
2022-12-12, 21:29:12
NVs Marketing arbeitet perfekt. RT wird von vielen (fanb..) immer noch maßlos überschätzt.
Und das kommt von einem zukünftigen 4090 Besitzer. Sollte aber eine FE sein. Ich brauch den 2. PCIe 8/16er Schlitz wenn geht.
add.: Vielleicht mach ich auch wieder auf Wasser..
Timbaloo
2022-12-12, 21:50:06
nVidia wird die fehlende Konkurrenzfähigkeit von AMD was RT angeht gnadenlos ausnutzen in den nächsten Monaten/Jahren. Ampere-Besitzer werden davon aber genauso wenig haben. Naja, zumindest ab 3080 ist es zumindest theoretisch noch spielbar.
Wenn intel clever ist, dann werden sie sich bei RTRT gut ins Zeug legen, nicht weil sie damit auf absehbare Zeit NV vom Thron stürzen können, aber AMDs Schwäche auf dem Gebiet halt wunderbar ausnutzen können. Wird spannend werden.
Lawmachine79
2022-12-12, 23:08:27
Wenn intel clever ist, dann werden sie sich bei RTRT gut ins Zeug legen, nicht weil sie damit auf absehbare Zeit NV vom Thron stürzen können, aber AMDs Schwäche auf dem Gebiet halt wunderbar ausnutzen können. Wird spannend werden.
Dafür muss Intel von der Performance her in ein höheres Marktsegment rücken.
Slipknot79
2022-12-12, 23:19:26
In OC-Foren gehen Leute sogar soweit, auf dem Speicher 'schlechtere' Pads zu nutzen damit er nicht so kalt läuft. ;)
Ich habe einfach die Folie, die beim pad dabei war, wieder auf das pad geballert. (und Luftblasen zwischen pad und Folie rausgedrückt)
Hatte vorher temps um die 36-40°C unter Last. Mit Folie sind es nun 58°C.
Ich habe mit dem cold memory bug auch die Stabilität, die ich noch unter Luft hatte, verloren.
Nun passt es wieder.
Hier nen Stabilitätsrun mit +1600MHz unter Wasser und mit Folienmod. Vorher waren nicht mal +1500MHz stabil, darunter habe ich dann auch nicht moar getestet. Sofort Wakü wieder zerlegt und Folie platziert.
https://www.hardwareluxx.de/community/attachments/1670874573945-png.827430/
Hier ein error run mit +1700MHz
https://www.hardwareluxx.de/community/attachments/1670875838347-png.827440/
Auch +1650Mz sind eigentlich instabil:
https://www.hardwareluxx.de/community/attachments/1670883476556-png.827484/
Werde aber bei +1650MHz bleiben, ich gehe davon aus, dass die Spiele stabil bleiben werden.
Und wenn nicht, dann weiß ich was zu tun ist. (y)
Es ist nur ein error in über 2h run.
https://www.hardwareluxx.de/community/attachments/img_20221210_173130_optimized-jpg.826669/
https://www.hardwareluxx.de/community/attachments/img_20221210_191612_optimized-jpg.826671/
(Luftblasen sind bereits von alleine raus)
Aus aktuellem Anlass: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613400
Wie läuft The Callisto Protocol auf euren Adas so?
MfG
Raff
Troyan
2022-12-12, 23:22:56
Computerbase hat getestet: https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/4/#abschnitt_rdna_3_in_aktuellen_neuerscheinungen
Man sieht, es haben nicht nur 150 Sony-Leute mitgeholfen...
DrFreaK666
2022-12-12, 23:29:52
The Callisto Protocol wurde auf deren RDNA3 Reveal als AMD-optimiertes Spiel angekündigt
Computerbase hat getestet: https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/4/#abschnitt_rdna_3_in_aktuellen_neuerscheinungen
Man sieht, es haben nicht nur 150 Sony-Leute mitgeholfen...
Aber ich wollte doch eure Werte mit Optimierung und so. :D
The Callisto Protocol wurde auf deren RDNA3 Reveal als AMD-optimiertes Spiel angekündigt
Das ist die Unreal Engine 4. Deutlich modifiziert, aber dennoch - damit lief Raytracing noch nie performant. "AMD-optimiert" ist da vor allem die Tatsache, dass es neben TAA(U) nur FSR 2 gibt. Kein DLSS, kein XeSS.
MfG
Raff
DrFreaK666
2022-12-13, 00:06:41
... "AMD-optimiert" ist da vor allem die Tatsache, dass es neben TAA(U) nur FSR 2 gibt. Kein DLSS, kein XeSS.
MfG
Raff
Die Entwickler haben die Engine ja nicht einfach genommen und andere Upscaler entfernt. Dafür benötigt man AMD nicht.
Laut einem Entwickler wurde die Engine was Schatten und Reflexionen angeht modifiziert. Und das Video gibt es nicht zufällig bei AMD ;)
Troyan
2022-12-13, 01:34:54
Aber ich wollte doch eure Werte mit Optimierung und so. :D
Naja, die einzige Optimierung ist das Deaktivieren von Raytracing. Dann läuft die 4090 mit >100FPS. :eek: :cool:
Ben Carter
2022-12-13, 08:51:35
Ich hatte gestern ein wenig Zeit zum rumspielen. Zwar sind mit der Inno3D einige Limits gesetzt, da das PT von 450W meistens eh nicht ausgenutzt wird, ist etwas Potential da.
Im Grunde habe ich nur den Takt von GPU und Speicher angehoben. Brachte mehr als herumspielen mit dem Curve Editor. Getestet habe ich einfach nur mit Timespy Extreme:
Stock: 16530 Punkte
+260 MHz GPU, 400 MHz Mem: 16300 Punkte
+200 MHz GPU, 400 MHz Mem: 16580 Punkte
+150 MHz GPU, 300 MHz Mem: 17000 Punkte (+400 Mem ist in Spielen teils gecrasht)
+100 MHz GPU, 300 MHz Mem: 16700 Punkte
Ich hab jeden Test zweimal gemacht und kam auf +/- 5 Punkte zum gleichen Ergebnis. GPU lief immer so zwischen 2850 und 2980 MHz. Zumeist im Voltage-Limit.
In Cyberpunk bei 4k, HDR, DLSS Q, alles max. ging es im Spiel, ruhige Szene (nicht Benchmark) von ca. 80 fps auf 85 fps mit +150/300 MHz. Verbrauch von 380W auf 420W.
Sardaukar.nsn
2022-12-13, 09:39:19
@Ben Carter
Den TSE Score halte ich für etwas gering, würde noch mal prüfen ob da irgendwas im System bremst. Wie hoch ist denn der GPU Score? Der sollte auch bei dir die 20k erreichen können. Bei mir mit dem Galax Bios noch etwas mehr, aber ist nur akademisch da die Karten dann richtig anfangen zu saufen... https://www.3dmark.com/3dm/84810360?
Um den Speicher OC zu testen empfehle ich dieses Programm. Sehr anspruchsvoll und der Speicher wird auch ziemlich warm. Der einfache Durchlauf ist 5min... https://github.com//GpuZelenograd/memtest_vulkan/releases/
mironicus
2022-12-13, 10:05:31
Ich bin ja immer wieder begeistert, wie wenig Strom die 4090 zieht wenn man sie "nur" mit 4K60 FPS betreibt. Metro Exodus EE mit höchsten Einstellungen, Raytracing, DLSS Quality und die Karte wird nur zu 20-30% ausgelastet. :)
Ben Carter
2022-12-13, 10:37:34
@Ben Carter
Den TSE Score halte ich für etwas gering, würde noch mal prüfen ob da irgendwas im System bremst. Wie hoch ist denn der GPU Score? Der sollte auch bei dir die 20k erreichen können. Bei mir mit dem Galax Bios noch etwas mehr, aber ist nur akademisch da die Karten dann richtig anfangen zu saufen... https://www.3dmark.com/3dm/84810360?
Um den Speicher OC zu testen empfehle ich dieses Programm. Sehr anspruchsvoll und der Speicher wird auch ziemlich warm. Der einfache Durchlauf ist 5min... https://github.com//GpuZelenograd/memtest_vulkan/releases/
Hier ist der Link: https://www.3dmark.com/3dm/84888431
GPU Score ist 19 536
Das Tool werde ich am Wochenende mal austesten. Bis dahin bin ich leider nicht mehr daheim :)
lg
Thomas Gräf
2022-12-15, 00:44:49
Hab da mal ne Frage an die Experten unter Euch.
Is mein "Corsair HX Series Platinum HX850i ATX 2.4" fähig die 4x8pin der 4090 zu speisen? :naughty:
Hier mal der GZ Link...
https://geizhals.de/corsair-hx-series-hx850-80-plus-platinum-850w-atx-2-4-cp-9020138-a1558736.html?hloc=at&hloc=de
Danke!
Slipknot79
2022-12-15, 00:57:48
Hab da mal ne Frage an die Experten unter Euch.
Is mein "Corsair HX Series Platinum HX850i ATX 2.4" fähig die 4x8pin der 4090 zu speisen? :naughty:
Hier mal der GZ Link...
https://geizhals.de/corsair-hx-series-hx850-80-plus-platinum-850w-atx-2-4-cp-9020138-a1558736.html?hloc=at&hloc=de
Danke!
Locker, sogar wenn du eine 4090 auf 600W prügeln kannst, habe das HX850. Ich verwende sogar 2x300W vom Netzteil weg. (y)
Thomas Gräf
2022-12-15, 01:24:05
Ok danke, puhh habsch wohl Schwein gehabt.
Dieses 12vhpwr auf 2x8pin is ausverkauft, hab nur noch sowas gefunden..
https://www.amazon.de/Fasgear-Verlängerungskabel-16-poliger-3x8-polige-gesleevtes/dp/B0B7MGTY56
Ok zur Zeit hab ich ja die 2x8pin für ne 2080wakü, die kommen ran, und dannoch zusätzlich 2x8pin von Netzteil, es hat ja 5x8pin Anschlüsse.
Aber, sind die jetzt alle gleichwertig?
Da Du auch so ein Corsair hast, was hat es eigentlich mit diesem "Single/Multi-12V-Schienen-Modus umschaltbar" auf sich?
Muß ich dann umschalten um soviel 8pin zu füttern?
Troyan
2022-12-15, 13:49:43
Der Uber+ Modus in The Witcher 3 NG erhöht ja massiv das Geometrielevel. In 1440p ist die 4090 91% (73%) und in 4K 88% (70%) schneller als die 3090 (TI): https://www.purepc.pl/wiedzmin-3-dziki-gon-next-gen-test-wydajnosci-kart-graficznych-potworne-wymagania-sprzetowe-z-ray-tracingiem?page=0,14
Hier schlägt die hohe Taktrate und die breitere Architektur mal richtig durch.
Denniss
2022-12-15, 14:09:26
Bitte Finger weg von schwindeligen Adaptern auf Amazon/IBähh/Alibabbel
hq-hq
2022-12-15, 14:35:44
bzgl. GDDR6X RAM
glaub TomsHardware hat mal geschrieben sie hätten einige Karten gehabt wo umgelabelter Gbps 24 RAM verbaut wäre
gibts denn jemanden der so nebenbei +3000 beim RAM schafft :freak:
zu niedrige Temps beim GDDR Speicher :biggrin: Schutzfolie wieder drauf damits wärmer wird ;D :ubeer:
In OC-Foren gehen Leute sogar soweit, auf dem Speicher 'schlechtere' Pads zu nutzen damit er nicht so kalt läuft. ;)
Bringt aber nicht so viel. Ich hab die Folie auf den Pads gelassen aber Idle (und da liegt das Problem zum Großteil) ist der VRAM trotzdem kalt.
bzgl. GDDR6X RAM
glaub TomsHardware hat mal geschrieben sie hätten einige Karten gehabt wo umgelabelter Gbps 24 RAM verbaut wäre
Sind doch eh die gleichen Chips, evtl. gebinnt. Die 4090 wird im BIOS andere Memory Timings haben, daran scheitert dann der +3.000 Versuch ;)
BlacKi
2022-12-15, 17:46:32
das galax ausversehen die 4090ti beworben hat, ist hier noch nicht erwähnt worden. vl steht die doch näher vor dem release als mancher denkt.
Linmoum
2022-12-15, 17:53:41
Tippfehler, das Banner hat ja trotzdem ganz regulär zur Produktseite der 4090 geführt.
Slipknot79
2022-12-15, 18:40:47
Ok danke, puhh habsch wohl Schwein gehabt.
Dieses 12vhpwr auf 2x8pin is ausverkauft, hab nur noch sowas gefunden..
https://www.amazon.de/Fasgear-Verlängerungskabel-16-poliger-3x8-polige-gesleevtes/dp/B0B7MGTY56
Da Du auch so ein Corsair hast, was hat es eigentlich mit diesem "Single/Multi-12V-Schienen-Modus umschaltbar" auf sich?
Muß ich dann umschalten um soviel 8pin zu füttern?
Aktuell ist die Premiumversion des Corsairkabels in deren Shop verfügbar, außer in schwarz/schwarz, das ich gerne hätte :rolleyes:, also heißt es noch warten.
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/Premium-Individually-Sleeved-Type-4-12VHPWR-Cable/p/CP-8920332
Du kannst mit dem Schalter zw. Singlerail und Multirail umschalten. Das Netzteil hatte bereits mit meiner 2080Ti abgeschaltet und ich wusste zunächst nicht warum und suchte überall nur nicht beim Netzteil, weil wie können 850W zu wenig sein, bis ich mal den Schalter probierte. Auf Single umgeschaltet, seit dem hat das Teil nie wieder abgeschaltet. Auch nicht mit der 4090 die ich bereits mit 540W betrieben habe.
Es hat einfach auf Multi irgendwo zu wenig Saft auf einer Leitung.
BlacKi
2022-12-15, 18:55:56
Tippfehler, das Banner hat ja trotzdem ganz regulär zur Produktseite der 4090 geführt.sicher:biggrin:
Thomas Gräf
2022-12-15, 20:17:27
Aktuell ist die Premiumversion des Corsairkabels in deren Shop verfügbar, außer in schwarz/schwarz, das ich gerne hätte :rolleyes:, also heißt es noch warten.
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/Premium-Individually-Sleeved-Type-4-12VHPWR-Cable/p/CP-8920332
Du kannst mit dem Schalter zw. Singlerail und Multirail umschalten. Das Netzteil hatte bereits mit meiner 2080Ti abgeschaltet und ich wusste zunächst nicht warum und suchte überall nur nicht beim Netzteil, weil wie können 850W zu wenig sein, bis ich mal den Schalter probierte. Auf Single umgeschaltet, seit dem hat das Teil nie wieder abgeschaltet. Auch nicht mit der 4090 die ich bereits mit 540W betrieben habe.
Es hat einfach auf Multi irgendwo zu wenig Saft auf einer Leitung.
Aha alles klar, danke. Kabel bestellt. :smile:
Cherubim
2022-12-16, 07:02:02
gibts denn jemanden der so nebenbei +3000 beim RAM schafft :freak:
zu niedrige Temps beim GDDR Speicher :biggrin: Schutzfolie wieder drauf damits wärmer wird ;D :ubeer:
Gibt auch Ram-schläfer wie meine. Max +1300 drin, danach gibt es Fehler.
Wegen des Problems mit dem kalten Ram musste ich auf +1200 runter, da ich sonst bei Teillasten Probleme bekam.
Bei 7 days to die, 1440p window mode, 1/2 VSync (72FPS) verbraucht die Karte zwischen 80W und 110W, da wird nix warm.
Lawmachine79
2022-12-16, 08:06:29
Hab da mal ne Frage an die Experten unter Euch.
Is mein "Corsair HX Series Platinum HX850i ATX 2.4" fähig die 4x8pin der 4090 zu speisen? :naughty:
Hier mal der GZ Link...
https://geizhals.de/corsair-hx-series-hx850-80-plus-platinum-850w-atx-2-4-cp-9020138-a1558736.html?hloc=at&hloc=de
Danke!
Genau das mache ich mit dem gleichen Netzteil einer Nummer kleiner, dem HX750i. Klappt problemlos.
mironicus
2022-12-16, 08:46:08
Gibt es per Software eigentlich die Möglichkeit, den unterschiedlichen Powerstates auch eine unterschiedliche Speichergeschwindigkeit zuzuwiesen?
Sardaukar.nsn
2022-12-16, 08:51:47
Umbau auf 1-Slot mit Alphacool Enterprise Cooler (https://www.alphacool.com/shop/grafikkarten-wasserkuehler/nvidia-fullsize/30379/alphacool-es-geforce-rtx-4090-reference-design-mit-backplate)
https://i.imgur.com/enADz1S.jpg
https://i.imgur.com/i9WPOjc.jpg
https://i.imgur.com/eskC7Zr.jpg
https://i.imgur.com/ErrsMG8.jpg
Thomas Gräf
2022-12-16, 11:46:55
Sehr schickes Teil.
Kannste Dir auch in die Jacke stecken, haste immer 2000euro bei. :biggrin:
Bei mir wirds ja ne FE da kommt denn der normale von AC.
Lowkey
2022-12-16, 11:52:26
Hält auch im Winter warm. Warum habe ich nie auch nur eine Karte für die ES Serie von AC? Die Anschlüsse hinten machen so viele Kombos möglich. Der Powerstecker auf der Karte ist aber auch noch ein Problem.
Sardaukar.nsn
2022-12-16, 12:01:33
Sehr schickes Teil.
Kannste Dir auch in die Jacke stecken, haste immer 2000euro bei. :biggrin:
Bei mir wirds ja ne FE da kommt denn der normale von AC.
Mein Wasserblock für die TUF ist ja noch im Zulauf, aber den 1-Slot fand ich einfach spannend.
Für de FE gibt es auch eine neue Serie "Core" mit Metal Terminal und etwas aufwändigerer Backplate welche die Karte umschließt. https://www.hartware.de/2022/12/15/new-core-cooler-for-geforce-rtx-4090-gpu/
@Lowkey: Dafür wird es bald einen 90° (hoffentlich nicht Temperatur) Stecker geben: https://www.computerbase.de/2022-10/cablemod-12vhpwr-adapter-geforce-rtx-4000/
Thomas Gräf
2022-12-16, 13:21:32
Der Core kommt ev in 2-3 Wochen schreiben sie.
Naja ich möcht ja schon nächste Woche alles fertig basteln.
Wer weiß dieser Core bringt die 4090 wohlmöglich noch zum vereisen.
Die wissen noch gar nichts vom cold bug und das dann der RAM sauer wird? ;)
Ben Carter
2022-12-17, 10:44:01
Das mit dem Speicher ist wirklich spannend. Im Bereich von +400-600 MHz gibt es Probleme bis hin sogar, dass der PC mal komplett abstürzte. Darüber hinaus läuft es dann. Bin jetzt bei +1700 MHz.
memtest lief mal 30min ohne Fehler.
Somit komme ich dann auch mal über 20.000 GPU Score bei TSE
https://www.3dmark.com/spy/33620461
lg Ben
Radeonfreak
2022-12-17, 10:48:05
Hab seit 2 Monaten +500, ohne Probleme.
Vielleicht entschärft sich ja was bei höherem Takt? :confused:
Niall
2022-12-17, 10:48:28
Die wissen noch gar nichts vom cold bug und das dann der RAM sauer wird? ;)
Naja es ist ja kein Bug wenn der Speicher bei spezifizierten Taktraten einwandfrei läuft.
Das "Problem" taucht ja nur bei starkem OC auf. ... wenn man es denn überhaupt als Problem betiteln kann. :freak:
Hab seit 2 Monaten +500, ohne Probleme.
Vielleicht entschärft sich ja was bei höherem Takt? :confused:
Nee, es liegt an der Temperatur plus ein bisschen Lotterie.
Je kälter der Speicher, desto meh das OC.
BlacKi
2022-12-17, 11:44:54
das gabs aber schonmal, das speicher mit oc ab einem wert andere timings anlegt.
Sardaukar.nsn
2022-12-17, 13:44:18
@Ben Carter meine TUF läuft hier auch mit +1700. Bin gespannt wie lange noch, wenn der Wasserkühler kommt.
Ansonsten habe ich mal einen Vergleich zur Vorgänger Karte gezogen. Maximal ausgequetschte MSI Suprim 3080 10GB
Time Spy Extreme +120%
https://www.3dmark.com/compare/spy/29595315/spy/33420218
Port Royal +124%
https://www.3dmark.com/compare/pr/709029/pr/1958110#
Zusammen mit DLSS 3...
2-4x faster :freak:
PR vs. 7900 XTX hier aus dem 3DC
https://www.3dmark.com/compare/pr/1958457/pr/1958110
Banshee18
2022-12-19, 21:52:37
Hat jemand damit Erfahrung, wie viel Platz eine RTX4090 zum "Atmen" braucht? Hab eine Gainward Phantom bestellt, die 3,5 Slots hoch sein soll. Da wäre noch ein halber Slot Platz zu meiner Soundblaster ZxR, auf die ich eigentlich nicht verzichten will.
Thunder99
2022-12-20, 13:47:28
Wäre schon zu wenig aus meiner Sicht. Brauchst eine kleinere Karte oder andere Lösung.
Würde auch nicht die Soundkarte verzichteten.
Finde einfach die Karten verbrauchen zu viel weshalb die Kühler so groß sind.
BlacKi
2022-12-20, 14:05:53
ist das keine pcie x1 karte? die kannst du doch überall hinsetzen?
SamLombardo
2022-12-20, 14:14:31
Hat jemand damit Erfahrung, wie viel Platz eine RTX4090 zum "Atmen" braucht? Hab eine Gainward Phantom bestellt, die 3,5 Slots hoch sein soll. Da wäre noch ein halber Slot Platz zu meiner Soundblaster ZxR, auf die ich eigentlich nicht verzichten will.
Hatte das selbe Problem. Habe eine USB Soundkarte gekauft. Man muss Prioritäten setzen ;D:freak:
Edit: der Soundblaster G6 ist aber Top, da gibt's echt nix. Meiner vorherigen Audigy RX deutlich überlegen. (Was ja auch sein möchte nach den Jahren. Ich war trotzdem überrascht.)
r3ptil3
2022-12-20, 15:41:26
https://cdn.mos.cms.futurecdn.net/P4bUaaiJFCxF2YNWLf32Ai-970-80.png.webp
https://cdn.mos.cms.futurecdn.net/FTXJz9fuJcDHnnZiYLq4Ei-970-80.png.webp
Die Strix zieht weniger als die FE? :confused:
https://www.tomshardware.com/reviews/colorful-rtx-4090-vulcan-oc-review-the-kitchen-sink/4
Bin sowieso immer noch total überrascht vom Verbrauch der Strix 4090.
Mit ein bisschen UV (2700 Mhz / 925mV), verbraucht die Karte nicht nur weniger, sondern bleibt auch praktisch unhörbar bei unter 60°.
Mit dem FPS-Limiter (120 FPS) auf WQHD bin ich nicht selten bei weit unter 200W (GPU). Und bei voller Auslastung bin ich eher überrascht wenn ich mal über 320W sehe.
Banshee18
2022-12-20, 17:11:06
ist das keine pcie x1 karte? die kannst du doch überall hinsetzen?
Die sitzt ja ganz unten.
Danke für die Vorschläge.
BlacKi
2022-12-20, 17:11:32
Mit dem FPS-Limiter (120 FPS) auf WQHD bin ich nicht selten bei weit unter 200W (GPU). Und bei voller Auslastung bin ich eher überrascht wenn ich mal über 320W sehe.
WQHD jo
Banshee18
2022-12-20, 17:26:38
Hatte das selbe Problem. Habe eine USB Soundkarte gekauft. Man muss Prioritäten setzen ;D:freak:
Hat du ausprobiert, ob es geht mit den Temperaturen?
Werde die Karte eh untervolten.
Lowkey
2022-12-20, 17:31:29
Die Strix zieht weniger als die FE? :confused:
Bin sowieso immer noch total überrascht vom Verbrauch der Strix 4090.
Mit ein bisschen UV (2700 Mhz / 925mV), verbraucht die Karte nicht nur weniger, sondern bleibt auch praktisch unhörbar bei unter 60°.
Mit dem FPS-Limiter (120 FPS) auf WQHD bin ich nicht selten bei weit unter 200W (GPU). Und bei voller Auslastung bin ich eher überrascht wenn ich mal über 320W sehe.
Ach das ist die Serienstreuung. Siehe die ganzen OC Werte in den Foren. Eine brauchbare Karte hat kein Lüftergeräusche oder ein Schleifen, kein massives Fiepen bei kleinster Last und geht grob auf 3000mhz mit Standardspannung und normalem 450w Powerlimit. Das könnte de facto nun jedes Kartenmodell. Und dann schwankt auch der Verbrauch wie in dem Fall um 4%.
Eine Asus kostet halt mehr wegen dem Namen. Eine FE kostet weniger, weil Promotion. Daraus lernen wir: auf den Preis achten (lol) und dann Glück haben.
Und das mit der Soundblaster wird auch nicht stören. Der Kühler ist mit UV älteren Grafikkarten überlegen und es hängt eher noch vom Gehäuse ab. Dennoch sind USB Soundkarten mittlerweile ausgereift. Meine SB X7 ist wieder am PC.
SamLombardo
2022-12-20, 19:05:31
Hat du ausprobiert, ob es geht mit den Temperaturen?
Werde die Karte eh untervolten.
Nee das hatte ich vorsorglich gemacht, hatte nachgemessen und da die Soundkarte wäre 1 cm vor den Lüftern gewesen. Jetzt im Nachhinein wäre es sicher doch gegangen, die Karte wird kaum über 60 Grad warm. Wenn es mit dem Soundblaster sagen wir 70 Grad geworden wäre, hätte es genau so funktioniert. Aber wie gesagt alles Spekulation, getestet hab ich es nicht.
Thunder99
2022-12-21, 12:41:43
@Banshee18
Wenn ich recht überlege dann wird es wohl kaum was ausmachen, da in der Tat der Kühler massiv ist und dadurch die etwas schlechtere Luftzirkulation damit kaum ins Gewicht fällt.
Würde daher einfach probieren :)
BlacKi
2022-12-21, 12:46:47
Die sitzt ja ganz unten.
dann hast du doch massiv platz, wenn die karte im x16 slot sitzt. oder betreibst du die im x8 slot? ne, ist angeblich ein 3.0 x16 slot. merkwürdige kombi. naja 4.0 x8 und 3.0 x16 nehmen sich nichts, aber was hast du denn darüber verbaut?
dargo
2022-12-21, 12:48:57
https://cdn.mos.cms.futurecdn.net/P4bUaaiJFCxF2YNWLf32Ai-970-80.png.webp
https://cdn.mos.cms.futurecdn.net/FTXJz9fuJcDHnnZiYLq4Ei-970-80.png.webp
Die Strix zieht weniger als die FE? :confused:
Was überrascht dich jetzt so sehr daran? Offensichtlich effizientere Spannungsversorgung auf dem Custom-PCB verbaut.
BlacKi
2022-12-21, 13:04:31
Was überrascht dich jetzt so sehr daran? Offensichtlich effizientere Spannungsversorgung auf dem Custom-PCB verbaut.wunder pwm? einsparungen von ca 15% auf die komplette karte? also verbrauchen die 30-40% weniger als normal? obwohl der ausbau auf der strix größer ist, was die effizienz eher schrumpfen lässt?
ich glaub eher an eine andere voltage curve + binning.
gabs das nicht mal bei der 2080ti, wo es günstige und hochwertigere chips zu unterschiedlichen preisen gab?
dargo
2022-12-21, 13:16:40
Was für 15%? Die Strix ist knapp 9% effizienter als die FE.
BlacKi
2022-12-21, 13:35:33
hast recht. dann wären die VRM trotzdem 29% effizienter. halt ich für humbug.
dargo
2022-12-21, 13:51:04
Eventuell ist da TH ein Fehler unterlaufen oder größere Streuung innerhalb der Serie. Hier ist die Strix nicht effizienter als die FE.
https://www.pcgamer.com/asus-rog-strix-geforce-rtx-4090-oc/
https://www.techpowerup.com/review/asus-geforce-rtx-4090-strix-oc/39.html
mironicus
2022-12-21, 19:58:18
Lego's Builder Journey mit Raytracing bringt auch eine RTX 4090 an ihre Grenzen. Mit maximalen Details und DLSS Quality werden 60 FPS nicht immer ganz durchgehend erreicht. Mit DLSS Balanced dagegen schon. Das Spiel gibt es gerade kostenlos im Epic Store.
https://store.epicgames.com/de/p/lego-builders-journey
BlacKi
2022-12-21, 20:05:18
das hat RT? XD
Linmoum
2022-12-21, 20:15:07
Ist bei Raff sogar teil des RT-Parcours. :tongue:
https://i.gyazo.com/8ee5fd90b6e843b02b22b0bc85b245a9.png
Tesseract
2022-12-21, 20:17:54
ich glaub eher an eine andere voltage curve + binning.
die FE haben in der regel eine viel konservativere curve die ~5-7% unter der maximaltaktrate liegt. bei den customs und da besonders bei den "OC"-modellen ist der spielraum eher die hälfte oder noch weniger. dementsprechend ist im power limit die effizienz höher. besserer VRM kommt bei einigen (aber auch nicht allen) customs auch noch dazu. das ist seit mindestens pascal so.
-=Popeye=-
2022-12-22, 00:14:16
Ist bei Raff sogar teil des RT-Parcours. :tongue:
https://i.gyazo.com/8ee5fd90b6e843b02b22b0bc85b245a9.png
Da stellt sich mir die Frage wie ER das gemessen hat, mit RTSS only Overlay startet diese Spiel mit meiner RX 6900 XT nicht einmal. Wenn ich dieses ausschalte kann man es starten und spielen.
aceCrasher
2022-12-22, 09:43:06
Da stellt sich mir die Frage wie ER das gemessen hat, mit RTSS only Overlay startet diese Spiel mit meiner RX 6900 XT nicht einmal. Wenn ich dieses ausschalte kann man es starten und spielen.
Kann ich so bestätigen, das Spiel läuft bei mir auf einer NV Karte auch nicht so lange RTSS offen ist.
denjudge
2022-12-22, 17:59:00
Läuft hier problemlos mit ner 3070 und RTSS Overlay. Steamversion allerdings.
Emil_i_Lönneberga
2022-12-24, 08:17:26
WC Ente nun auch mit einem Kühler für die FE:
https://shop.watercool.de/HEATKILLER-V-PRO-for-RTX-4090-FE-ACRYL-Ni-aRGB
https://shop.watercool.de/media/image/product/2754/lg/heatkiller-v-pro-for-rtx-4090-fe-acryl-ni-argb.jpg
https://shop.watercool.de/media/image/product/2754/lg/heatkiller-v-pro-for-rtx-4090-fe-acryl-ni-argb~2.jpg
Niall
2022-12-24, 09:06:08
Schade dass man nicht mehr sieht und die Verfügbarkeit erst Ende Januar ist. Das kauft man ja quasi blind. :freak:
Emil_i_Lönneberga
2022-12-24, 09:44:55
Die Position des Sichtfensters auf die Kühlerstruktur ist in der Zeichnung dargestellt und wie die sichtbare Struktur aussieht, haben sie als Bild veröffentlicht. Der Rest ist von einer Streichholzschachtel eingepackt. In etwa so, wie man es von EK seit Ampere her kennt
https://www.ekwb.com/shop/ek-quantum-vector-fe-rtx-3080-full-metal-black-se
https://www.ekwb.com/shop/ek-quantum-vector-fe-rtx-3090-d-rgb-black-special-edition
https://www.ekwb.com/shop/ek-quantum-vector-fe-rtx-3090-ti-d-rgb-silver-special-edition
mironicus
2022-12-24, 11:50:19
Falscher Thread, korrigiert.
Banshee18
2022-12-24, 12:00:30
Meine Gainward Phantom ist da und eingebaut. Es ist doch noch genug Platz zu meiner Soundblaster ZxR, hab mich da in der Größe vertan. Nach ersten Tests ist sie so schön leise wie meine Sapphire Nitro+ 6800 und bisher hab ich kein Spulenfiepen vernommen. Die Performance ist einfach brachial, das letzte Mal, dass eine Grafikkarte so schnell war, war meine Radeon 9500@9700. Nur den Preis sollte man besser nicht vergleichen.
Ungewohnt ist erstmal das unscharfe Bild in Spielen. Bei der Radeon war immer die standardmäßige Bildschärfung aktiviert.
Lowkey
2022-12-24, 13:01:37
Dann schnapp dir mal den 3Dmark oder Heaven und teste ob es die legendäre 3Ghz Edition ist. Mit Performance Bios bei 100% PL ohne Spannungszugabe und ohne Memory-OC testen.
Bestimmte Szenen in bestimmten Spielen provozieren ein Spulenfiepen (oder nicht). Ich suche noch...
Radeonfreak
2022-12-24, 13:04:30
Es gibt eine legendäre 3Ghz Edition? :uconf:
Lowkey
2022-12-24, 13:06:43
Haha ... natürlich nicht, aber es gibt doch Karten die ohne 600w Bios und ohne Spannungserhöhung auf 3000mhz takten.
Radeonfreak
2022-12-24, 13:07:54
Also ich komm leider nur auf 2925 MHZ bei 111% Powertarget. :usad:
TurricanM3
2022-12-24, 22:56:22
Weihnachtsbaum war dieses Jahr unnötig
https://abload.de/img/134141410feuw.jpg (https://abload.de/image.php?img=134141410feuw.jpg)
Du hast dir die Palit 4090 geholt? Ich hab dem Ding kurz vor Weihnachten auch eine Chance gegeben, die Karte werkelt gerade im Rechner. Bin aber sehr enttäuscht von dem Ding.
Optisch und haptisch ist die Palit um Welten hinter meiner MSI 3090 Ti Suprim X ... das ist überhaupt kein Vergleich. Auch sonst wirkt die Palit hart auf sparsam getrimmt, keine Schutzabdeckungen für die PCIe Pins und DP/HDMI Ports und die Verpackung wirkt auch nur zweckmäßig. Für 2049 EUR ist das ehrlich gesagt ein schlechter Witz.
Die Lüfter machen bei bestimmten Geschwindigkeiten komische Geräusche, dafür ist die Kühlleistung voll in Ordnung. Allerdings kann die Karte auch nicht wirklich aus den Vollen schöpfen weil nur 3x Adapter und PT ist gelocked bei 100%. Spulenfiepen und rasseln kann ich keines vernehmen, dahingehend ist die Karte unauffällig (ist meine 3090 Ti Suprim X aber auch).
Werde die Karte heute im Laufe des Tages wieder ausbauen und nach Weihnachten zurückschicken und weiter bei der 3090 Ti bleiben. Über die Optik und Haptik bin ich echt sehr enttäuscht - fast schon entsetzt. Damit mein ich nicht die Kaleidoskop-Optik mit dem RGB, sondern die gesamte Karte an sich. Die Karte sieht so gar nicht nach 2000+ EUR aus :(
Sardaukar.nsn
2022-12-25, 08:47:37
Ich finde die Gamerock vom Design super. Könnte mir aber vorstellen das Turrican eh einen Wasserkühler verbaut. Das Powerlimit hat sich ja auch nicht als Problem heraus gestellt, selbst ich betreibe meine Karte im 24/7 Setting deutlich unterhalb der 450W. Zur Not kann man das Palit Bios aber auch noch flashen.
Ich finde die Gamerock vom Design super.
Das von Palit "Kaleidoskop" getaufte Design ist auch in Ordnung. Wenn du schon mal eine Suprim X in den Händen hattest, siehst du aber sofort wie billig die Palit optisch und haptisch wirkt. Das PCB ist auch eines der schlechtesten btw:
9I7U4kdc0V4
ChaosTM
2022-12-25, 14:44:38
Gibts mittlerweile eigentlich AIB Versionen, die mit 3 Slots auskommen ?
BlacKi
2022-12-25, 18:20:10
geizhals ist dein freund
https://geizhals.de/?cat=gra16_512&xf=1481_2%7E1481_3%7E9816_03+05+17+-+RTX+4090
ChaosTM
2022-12-25, 18:23:55
ich war faul, ja..
vad4r
2022-12-25, 19:34:35
Ich hab mittlerweile meinen PC wieder zusammen, neues Gehäuse + 4090.
Ein ASUS ROG Thor Platinum II 1000W Netzteil hatte ich auch bestellt, entgegen der Beschreibung bei Geizhals und auf der Asus Seite zu dem Netzteil, ist kein PCIE Kabel 16-pin dabei, daher geht das wieder zurück und ich warte auf ordentliche ATX 3.0 Netzteile.
Aktuell habe ich mein Seagate Prime TX 650W mit dem Grafikkarte beiliegenden 4fach PCI-e Adapter laufen.
Wie stelle ich die Karte nun ein, das ich das Netzteil nicht überlaste, einfach mit dem Afterburner das Power Target auf 70%, was wäre eure Empfehlung?
Radeonfreak
2022-12-25, 19:43:41
Ein ASUS ROG Thor Platinum II 1000W Netzteil hatte ich auch bestellt, entgegen der Beschreibung bei Geizhals und auf der Asus Seite zu dem Netzteil, ist kein PCIE Kabel 16-pin dabei, daher geht das wieder zurück
Wenn keins dabei ist hättest du auch kostenlos eins vom Asus Support bekommen.
aceCrasher
2022-12-25, 19:52:21
Gibts mittlerweile eigentlich AIB Versionen, die mit 3 Slots auskommen ?
Ich hab selbst die Inno3D 4090 iChill, die hat einen 3 Slot Kühler - ist auch nicht übermäßig breit. Vom Kühler bin ich sehr überzeugt, Spulenfiepen ist auch absolut im Rahmen. Nur das auf 100% gelockte BIOS ist natürlich suboptimal.
Blase
2022-12-25, 19:55:48
Wie stelle ich die Karte nun ein, das ich das Netzteil nicht überlaste, einfach mit dem Afterburner das Power Target auf 70%, was wäre eure Empfehlung?
Ich fahre meine 4090 mit nem 600er Netzteil. Und ja, ich habe mein 24/7 Setup genau so eingestellt: Powerlimit auf 70 Prozent und gut ist...
EDIT: Ich fahre 70 Prozent PT nicht, weil ich es aufgrund des Netzteil müsste, sondern weil ich damit eine erhebliche Reduzierung der Leistungsaufnahme bekomme und nur minimale Einbußen bezüglich der Performance habe. Ein besserer Sweetspot sozusagen :up:
MfG Blase
vad4r
2022-12-25, 19:57:38
Wenn keins dabei ist hättest du auch kostenlos eins vom Asus Support bekommen.
Danke für den Hinweis. Hatte danach geschaut, nichts gefunden und auch den Support schon angeschrieben, letztendlich möchte ich aber dann doch lieber ein Netzteil kaufen, welches schon mit 16 pin Ausgang kommt.
Lowkey
2022-12-25, 20:09:01
Ich suche gerade nach dem Kabel für das Corsair SF600 und angeblich läuft auch eine 4090 damit. Laut den Tests steht auf dem Netzteil zwar 600w drauf, aber es leistet bis zu 800w. Insofern kann die 4090 auch ohne Reduzierung des PLs mit 650w einwandfrei laufen. Meine Karte zickt ja nicht ansatzweise herum wie die 6800XT, 6900XT, 3080 oder 3090. Irgendwas läuft da mit der 4090 deutlich besser.
r3ptil3
2022-12-25, 20:34:56
Ich suche gerade nach dem Kabel für das Corsair SF600 und angeblich läuft auch eine 4090 damit. Laut den Tests steht auf dem Netzteil zwar 600w drauf, aber es leistet bis zu 800w. Insofern kann die 4090 auch ohne Reduzierung des PLs mit 650w einwandfrei laufen. Meine Karte zickt ja nicht ansatzweise herum wie die 6800XT, 6900XT, 3080 oder 3090. Irgendwas läuft da mit der 4090 deutlich besser.
Ein SF600 sollte auf keinen Fall über 600W auch nicht knapp darunter laufen. Das ist wie wenn du dein Auto regelmässig in den roten Drehzahlbreich jagst. Hält es aus ja, aber ist alles andere als gut.
Das was du meinst mit den 800W sind die Spitzenlasten, welche abgefangen werden müssen. Kenne jetzt die ATX 2.4 Specs nicht auswendig.
Die RTX 4090 lief bei mir mit dem SF750 ohne Probleme, ja, aber der Gesamtverbrauch lag nicht annähernd bei 500W.
Ich empfehle dir ebenso dein SF600 nicht über 500W zu betreiben.
Mit UV und einer sparsamen CPU sollte das also locker klappen.
Mit Kabel meinst du das Corsair 12VHPWR auf 2x8 PIN? Ja, das klappt problemlos.
BlacKi
2022-12-26, 01:10:23
Wie stelle ich die Karte nun ein, das ich das Netzteil nicht überlaste, einfach mit dem Afterburner das Power Target auf 70%, was wäre eure Empfehlung?
ich denke, das wird das einfachste sein.
ChaosTM
2022-12-26, 01:15:22
Ich fahre meine 4090 mit nem 600er Netzteil. Und ja, ich habe mein 24/7 Setup genau so eingestellt: Powerlimit auf 70 Prozent und gut ist...
EDIT: Ich fahre 70 Prozent PT nicht, weil ich es aufgrund des Netzteil müsste, sondern weil ich damit eine erhebliche Reduzierung der Leistungsaufnahme bekomme und nur minimale Einbußen bezüglich der Performance habe. Ein besserer Sweetspot sozusagen :up:
MfG Blase
Darauf hoffe ich auch . die 4080er stresst mein Netzteil nicht mal annähernd.
Meistens deutlich unter der alten 1080ti
add.: ich fahr die 4080er auch meistens mit 75%.. verliert nur 4-6% gegenüber Stock
Thomas Gräf
2022-12-26, 11:48:57
Wollt mich auch mal wieder melden. Hab mir eine FE aus der Bucht gefischt, nachdem ich zweimal überboten wurde. ;)
Das mit den Corsair 2xPeitschen Kabel hat super geklappt! Nochmal danke für den Link.
Wobei mein mitgeliefertes original 4x8 Stromkabel auch einen sehr wertigen Eindruck macht!
Passt auch super hat kein rumkanten oder hackeln beim reinstecken und lässt sich wie jedes andere Sleeve Kabel auch normal vorbiegen, da muss der IGOR damals wirklich ein Beta Kabelschrott erwischt haben.
Nun, nach anfänglichen Probblemen anderer Natur, ich hatte den gleichen Mist wie die Kollegen im Lux beim surfen und YT Vids einfrieren und blauen Bildschirm, hab ich DDU mit der Option "ausschalten für Einbau neuer Graka" beendet.
Zuvor im WIN das Gerät als solches entfernt. Beim Neustart dann im nV install Fenster unten das Häckchen "keine Einstellungen übenehmen" gesetzt.
Da hat install gleichmal viel länger gebraucht.
Ab da lief alles wie geschmiert. Naja hatte vorher ne 2080 drin und dachte wird schon gehen, doch die 4090 war über die Lüftersteuerung im AB nicht ansprechbar, da fiel mir der Groschen...bisl aufgeregt war ich auch. ;)
Jetzt zur FE, ich verbaue seit Dos Zeiten Hardware und die 4090FE ist in meinen Augen ein pures Stück Qualität.
Tolles Lüftersystem, ich gebe dafür 100 von 100 Punkten. Es ist ein wirklich angenehn leises und effektives System.
Die Karte hat null Spulenrasseln oder sonstiges gepiepe, sehr sehr stabiles PCB und astreine Schrauben und Gewinde.
Hmm da jetzt den Alphacool Block draufzubauen kostet schon Überwindung.
Tja und dann is da noch diese Wucht an Power, mein lieblings Benchmak ist Superpositon (Unigine) in 8k optimized Einstellung.
Das isja soo der Hammer auf einem 4k Oled anzusehen!
Total superflüssig, nirgendwo ein Hackler oder iwas von flimmern, alles glasklar und wie zum anfassen.
Puh diese 4090 ist die schnellste Graka meines Lebens. ;) Da kommt iwie nochmal so ein Voodoo 3dfx feeling von damals auf...
Noch zwei Details zu der Palit 4090, die vielleicht für den einen oder anderen interessant sind:
- Bei Multi-Monitor (in meinem Fall 3 Monitore) braucht die Palit mehr Saft als die 3090 Ti Suprim X. Die Suprim ist bei 28-30 Watt, die Palit 4090 bei 41-44 Watt.
- Beim OC ist die Palit eine Krücke vor dem Herren. Selbst mit 1v war die Karte nicht zu stabilen 2,8 GHz zu überreden. Getestet wurde per Custom Port Royale im Loop bei voll aufgedrehten Details.
Als Stabilitätstest mache ich 20 Loops im Port Royale, nach dem 8. Loop hat die Palit die weiße Flagge gehisst.
Edgecrusher86
2022-12-26, 15:10:23
Das ist krass...die 2,8 GHz laufen hier mit 935mV (getestet in CP 2077 @ 5160 DL-DSR + DLSS Q); da hatte ich ausnahmsweise mal Glück mit der Silikonlotterie - idR ist das nicht so der Fall. Die 3090 Trinity war auch nicht so pralle...da gingen idR "nur" + 1xx MHz Offset zum UV; + 200 MHz nur im tiefen Bereich, die 4090 macht + 200 - 300MHz(+) (tiefe Taktraten).
Ja, die 4090 FE hätte ich auch gerne geholt - aufgrund der sehr positiven Erfahrungen mit der 1080 Ti FE (die wertigste Referenz-Karte in meinem Besitz bis dahin), aber leider wurde mal wieder nichts draus. Dafür benötigt man dann mehr Geduld. :)
ChaosTM
2022-12-26, 17:09:34
Noch zwei Details zu der Palit 4090, die vielleicht für den einen oder anderen interessant sind:
- Bei Multi-Monitor (in meinem Fall 3 Monitore) braucht die Palit mehr Saft als die 3090 Ti Suprim X. Die Suprim ist bei 28-30 Watt, die Palit 4090 bei 41-44 Watt.
- Beim OC ist die Palit eine Krücke vor dem Herren. Selbst mit 1v war die Karte nicht zu stabilen 2,8 GHz zu überreden. Getestet wurde per Custom Port Royale im Loop bei voll aufgedrehten Details.
Als Stabilitätstest mache ich 20 Loops im Port Royale, nach dem 8. Loop hat die Palit die weiße Flagge gehisst.
44 Watt im Dual betrieb ist schon etwas viel. Meine Mini Ada bracht da nur 23W inklusive einem 4k Video, welches auf dem TV ausgegeben wird. Konnte es fast nicht glauben aber 3 Tools haben es bestätigt. Möglicherweise lesen aber die Sensoren falsch aus..
Möglicherweise lesen aber die Sensoren falsch aus..
Vielleicht. Kann ich nicht mehr testen, die Karte ist schon verpackt und geht morgen zurück.
Meine Wunschkarte wäre die 4090 Suprim X, der Aufpreis gegenüber der FE ist diesmal aber enorm und die Erfahrungsberichte hinsichtlich Spulenfiepen und Rasseln im Luxx schrecken leider auch eher ab. Möchte auch nicht damit anfangen Karten zu bestellen und dann ständig zurückzuschicken, bei den Wert der Karten bekomme ich sonst ein schlechtes Gewissen gegenüber den Händlern :frown:
Bleibe auf unbestimmte Zeit erst mal weiter bei der 3090 Ti Suprim X. Durch UV hält sich auch die Leistungsaufnahme in Grenzen, optisch und haptisch ist die zudem einfach super schön. Ich schau sie mir gerne an :redface: :freak:
SentinelBorg
2022-12-28, 06:30:11
Palit und Gainward sind ja quasi die gleichen Karten oder?
SamLombardo
2022-12-28, 08:09:24
Palit und Gainward sind ja quasi die gleichen Karten oder?
Sie haben das selbe "Spar" PCB. Ob das für Nicht-Overclocker irgendwann ne Rolle spielt....keine Ahnung.
Ansonsten läuft meine Palit weiterhin exzellent. Die Karte hab ich auch unter größter Belastung noch nicht über 65 Grad bekommen, Hotspot maximal 71, meistens sind es unter 60 Grad beim Spielen. Die Lüfter laufen im Betrieb unauffällig (höre ich am stärksten beim Hochfahren des PC, keine Ahnung was die da treiben;)), im Betrieb laufen sie sowohl bei niedrigen als auch bei höheren Drehzahlen wirklich schön ruhig. Das BlingBling Design finde ich jetzt auch nicht sooo super, ich hab die LED Beleuchtung zB gar nicht angeschlossen. Das Aussehen einer Grafikkarte ist mir aber ziemlich egal, da ich ein geschlossenes Gehäuse habe. Die Leistung muss stimmen, und das tut sie bei der Palit. Es ist es jedes mal wieder von neuem beeindruckend was die an FPS ausspuckt. Brachial.
Wenn sie jetzt noch ohne Mucken bis zur nächsten Generation ihren Dienst tut, bis jetzt sehe ich nicht warum sie das nicht machen sollte, dann würde ich sie als eine der besten Grafikkarten die ich jemals hatte bezeichnen. "Billighersteller" hin oder her.
IC3M@N FX
2022-12-28, 13:45:12
So ich konnte es nicht mehr aushalten ich hab mir für 1780€ die 1 x Gainward GeForce RTX 4090 Phantom GS, Grafikkarte bestellt dank Gutschein konnte ich den Preis bisschen drücken, meine RTX 3090 wird für 750€ verkauft Käufer hab ich schon gefunden jetzt tut es nicht mehr ganz so extrem weh.
Mein Setup ist:
Intel 12900K @5,2GHz
32GB RAM DDR 6600
MSI PRO z690 A WIFI DDR5
be quiet! Straight P11 Platinum 1000 Watt 80 Plus Platinum.
Meine Frage reicht mein Netzteil und worauf muss ich achten wollte jetzt nicht 100 Seiten durchlesen 😂 Sry
dildo4u
2022-12-28, 13:58:46
Die neue Nvidia Karten haben weniger Lastspitzen sollte problemlos laufen.
Exxtreme
2022-12-28, 13:59:40
Ein 1000 W Netzteil sollte vollkommen reichen.
SamLombardo
2022-12-28, 14:01:00
Na dann viel Vergnügen. Mit Sicherheit reicht dein Netzteil, ich selbst hatte mit meinem 850w nie Probleme und hier im Forum sind manche mit 600w unterwegs. Mit ein bisschen UV geht selbst das:).
Edit: Bevor ich die Antwort hier auf dem Handy getippt habe, stehen da schon zwei;)
IC3M@N FX
2022-12-28, 14:10:19
Dankeschön an alle ich hab es hauptsächlich für VR geholt und RT ohne Kompromisse, ich hab zwar noch ein 34Zoll UWUHD Screen aber Cyperpunk mit VR Mod 😍
r3ptil3
2022-12-28, 14:10:26
Ein 1000 W Netzteil sollte vollkommen reichen.
Ab ATX 2.4 sind auch 750W absolut problemlos, selbst 650W reichen meistens aus, aber empfehlen würde ich unter 750W nicht.
Logischerweise vorausgesetzt man nutzt die RTX 4090 nicht mit 600W PL und einem 13900k (mit OC sowieso nicht).
Lowkey
2022-12-28, 14:11:02
1. Kein Y-8PIN Stecker nehmen (4 Separate Kabel vom Netzteil, bei BQ gab es mal eine Guide welche Ausgänge besser seien).
2. Bios flashen mit dem Hersteller Tool (Gainward HP) (http://www.gainward.com/main/vgapro.php?id=1162&tab=dl&lang=de) Ich weiss nun nicht ob man beide Biose (Performance und Silent) mit dem Tool separat flashen muss.
3. Silent Bios der Karte nehmen.
Ich habe die Stunde durchgehalten und das Buildzoid Video angeschaut.
Offenbar geht die Geschichte so:
Nvidia will 4090 mit 600w machen. Dann stellen sie fest, dass die Chips besser sind als gedacht und mit 600w nicht mehr viel bringen. Dennoch ist das FE PCB fertig und auf 600w ausgelegt. Das darf ja ruhig was kosten.
Palit/Gainward hat nun dank höherer Preise seitens Nvidia das Problem, dass die Gewinnmarge winzig ausfällt. Sie entwickeln also kein neues PCB, sondern basteln eine Lösung mit günstigen VRMs und reduzieren zusätzlich die Anzahl an Bauteilen, die viel Strom ziehen und heiß werden können. Dann nehmen sie den ursprünglichen 600w Kühler.
Nvidia segnet die Konstruktion ab.
Nimmt man nun nur das PCB wie Buildzoid, dann ist die Karte ein dickes Fail, da sie mehr als die FE kostet und weniger Qualität bietet. Die Karte ist im Gegensatz zur FE nicht auf 600w ausgelegt. Dennoch sitzt auf der Karte ein 600w Kühler und gleicht das Defizit aus. Solange der Spiele die Karte nicht auf ein 600w Bios flashed und den ganzen Tag mit max OC spielt, gibt es wohl auch kein Problem mit der Haltbarkeit der Karte.
Das komische an der Sache ist nun, dass die billige Karte weniger Spulenfiepen hat als sämtliche FE/Strix oder Suprim (siehe HWLUXX Liste). Der Leistungszuwachs mit 600w und 3000+ Mhz ist sehr schwach und ist mit um die 5% auch nicht spürbar.
Cubitus
2022-12-28, 14:11:33
Jetzt zur FE, ich verbaue seit Dos Zeiten Hardware und die 4090FE ist in meinen Augen ein pures Stück Qualität.
Tolles Lüftersystem, ich gebe dafür 100 von 100 Punkten. Es ist ein wirklich angenehn leises und effektives System.
Die Karte hat null Spulenrasseln oder sonstiges gepiepe, sehr sehr stabiles PCB und astreine Schrauben und Gewinde.
Hmm da jetzt den Alphacool Block draufzubauen kostet schon Überwindung.
Tja und dann is da noch diese Wucht an Power, mein lieblings Benchmak ist Superpositon (Unigine) in 8k optimized Einstellung.
Das isja soo der Hammer auf einem 4k Oled anzusehen!
Total superflüssig, nirgendwo ein Hackler oder iwas von flimmern, alles glasklar und wie zum anfassen.
Puh diese 4090 ist die schnellste Graka meines Lebens. ;) Da kommt iwie nochmal so ein Voodoo 3dfx feeling von damals auf...
Glückwunsch, als ich sagte das eine FE mit einem Iphone vergleichbar ist, zog ich die Lacher auf mich ;D
Aber das Ding ist halt absolut wertig, wie aus einem Guss.
Alles andere als ein Billo-Plastikbomber. Nvidia hat auch auf dem PCB der FE nur hochwertige Komponenten verbaut..
Ist halt schwer so eine Karte zu bekommen.
1. Kein Y-8PIN Stecker nehmen (4 Separate Kabel vom Netzteil, bei BQ gab es mal eine Guide welche Ausgänge besser seien).
Das von BQ selbst vertriebene 12VHPWR 600W Kabel hat nur 2 Stecker fürs Netzteil...
Lowkey
2022-12-28, 16:25:35
Alle Kabel für den direkten Anschluss haben nur zwei Anschlüsse am Netzteil. Der mitgelieferte Adapter will 4x 8PIN bei der GS.
mike49
2022-12-28, 18:35:21
Jetzt zur FE, ich verbaue seit Dos Zeiten Hardware und die 4090FE ist in meinen Augen ein pures Stück Qualität.
Tolles Lüftersystem, ich gebe dafür 100 von 100 Punkten. Es ist ein wirklich angenehn leises und effektives System.
Die Karte hat null Spulenrasseln oder sonstiges gepiepe, sehr sehr stabiles PCB und astreine Schrauben und Gewinde.
Kann ich soweit alles bestätigen. Meine 4090 FE macht ebenfalls einen extrem wertigen Eindruck und lässt kaum Wünsche offen: Perfekte Verarbeitung, sehr leise, kein Spulenfiepen, brachiale Leistung und sogar noch einiges an OC-Spielraum (Speicher geht locker +1.700).
Einziger Wermutstropfen: Die Lüfter lassen sich nur noch bis auf 1.100 U/min runter regeln. Bei der 3090 FE gingen die noch bis auf 800 U/min runter.
Olliver
2022-12-28, 20:35:45
Ja, grummel.
Ich wollte auch eine 4090FE weil ich die 3090FE sehr gut fand/finde Leistung, Lautstärke, Design und Verarbeitung.
Nur unter 2200€ habe ich nichts gesehen, anscheinend kaufen Scalper bei NBB alles weg um dann in der Bucht Geld damit zu machen.
Jetzt habe ich für 2K eine Gigabyte Gaming OC bestellt, schön ist die ja nicht, aber ich habe mit Gigabyte nie schlechte Erfahrungen gemacht und auch nichts schlechtes über diese Karte gelesen.
Die FE Karten sind für mein Auge die einzigen mit wirklichem Design, sonst sehe ich nur Türschweller und Kotflügelverbreiterungen.
Wie oft habt ihr bei NBB 4090 FE Karten gesehen?
Lowkey
2022-12-28, 21:14:10
Man munkelt, dass es in der zweiten Januarwoche wieder zum Drop kommen wird. Der Wochentag und die Unzeit sind wie immer nicht klar.
Olliver
2022-12-28, 22:04:55
Leider kann ich während der Arbeit nicht das Netz im Auge behalten, ich weiß nicht mehr wie lange ich vor zwei Jahren gewartet habe bis die FE vorrätig war, aber es hat auch gedauert.
Ich schaue mir die Gigabyte mal an, einen guten Kühler und 600 Watt Powerlimit hat sie ja, wenn man das braucht.
Wenn in zwei Wochen etwas gedropt wird, ist es wahrscheinlich schneller weg, als ich zum Piep sagen Luft holen kann.
ChaosTM
2022-12-28, 22:24:37
Kann zwar nur für die kleine Ada sprechen, aber die FE schlägt alles was ich bisher hatte (Gainward, Palit, Asus TUF) ziemlich klar bez. Temp, Performance und UV.
r3ptil3
2022-12-28, 23:30:44
Kann zwar nur für die kleine Ada sprechen, aber die FE schlägt alles was ich bisher hatte (Gainward, Palit, Asus TUF) ziemlich klar bez. Temp, Performance und UV.
Beste auch in UV? Ergebnisse bitte!
ChaosTM
2022-12-28, 23:42:11
Ich werds probieren und genauer dokumentieren, wenn ich Zeit hab.
Momentan mag ich Kojimas Brainfuck zu sehr.
Ich verwende PT Reduktion grundsätzlich lieber, weils mir bei ähnlichem Stromverbrauch meist bessere Ergebnisse liefert.
Bei 77 konnte ich minimal weiter runter gehen. I keep you informed.
Tesseract
2022-12-28, 23:52:21
Na dann viel Vergnügen. Mit Sicherheit reicht dein Netzteil, ich selbst hatte mit meinem 850w nie Probleme und hier im Forum sind manche mit 600w unterwegs. Mit ein bisschen UV geht selbst das:)
habe mich mental darauf vorbereitet das 700W-netzteil tauschen zu müssen, ich bekomme das aber nicht mal mit 600W power limit mit furmark+prime95 getrippt. in der praxis mit angepasster curve mit 2700MHz bei 950mV und weniger synthetischer CPU-last braucht das system eher die hälfte davon.
Lawmachine79
2022-12-28, 23:54:27
habe mich mental darauf vorbereitet das 700W-netzteil tauschen zu müssen, ich bekomme das aber nicht mal mit 600W power limit mit furmark+prime95 getrippt. in der praxis mit angepasster curve mit 2700MHz bei 950mV und weniger synthetischer CPU-last braucht das system eher die hälfte davon.
Tja während in Villariba noch nach Hotspots gesucht wird, wird in Villabajo schon mit Undervolting@4k@120fps@RT gezockt.
ChaosTM
2022-12-29, 00:14:44
habe mich mental darauf vorbereitet das 700W-netzteil tauschen zu müssen, ich bekomme das aber nicht mal mit 600W power limit mit furmark+prime95 getrippt. in der praxis mit angepasster curve mit 2700MHz bei 950mV und weniger synthetischer CPU-last braucht das system eher die hälfte davon.
Das macht mir Hoffnung, auch mit meinem alten, aber Platinum-Guten 600W beQuiet die 90er betreiben zu können. Übertakten will ich sicher nicht. Eher UV/PT Reduktion
Mit der 80er und OC`s bis zum Anschlag mit CPU und GPU hab ich keine Probleme
Das macht mir Hoffnung, auch mit meinem alten, aber Platinum-Guten 600W beQuiet die 90er betreiben zu können. Übertakten will ich sicher nicht. Eher UV/PT Reduktion
Mit der 80er und OC`s bis zum Anschlag mit CPU und GPU hab ich keine Probleme
Ich glaube bei den bei den modularen BQ NTs dürften die Anschlüsse am NT in den letzten Jahren gleich geblieben sein. Wenn das 600er nicht reicht, kannst Du wahrscheinlich ein stärkeres BQ NT kaufen und das NT einfach austauschen, ohne den ganzen Rechner gleich neu verkabeln zu müssen.
IC3M@N FX
2022-12-29, 12:01:56
Ich hab richtig Glück gehabt ich hab noch das Kabel 12V von Be Quiet bekommen passend zu meinen Netzteil von meinen Computerhändler um die Ecke für die RTX 4090.
Die ist fast überall ausverkauft, die Penner machen aber gut Geld damit 29€ ist schon recht happig für ein Kabel...auch wenn es zum Vergleich der Grafikkarte nur Peanuts sind.
Was für RIESEN Ding 😳 zum Vergleich meiner RTX 3090
https://i.ibb.co/Nr5R61n/PXL-20221229-133157983.jpg
So ich hab es auch jetzt eingebaut auf zum benchen 😚
https://i.ibb.co/V97sWqX/PXL-20221229-151157840.jpg
Lehdro
2022-12-30, 18:09:02
Bin auch schwach geworden und habe mir eine Gigabyte Aorus Master gekauft. Das Ding ist sowas von ein Klopper, unfassbar. Dagegen wirkt die 6900XT wie ein Kärtchen:
https://abload.de/thumb/pxl_20221229_11370306klebx.jpg (https://abload.de/image.php?img=pxl_20221229_11370306klebx.jpg) https://abload.de/thumb/pxl_20221229_11371400x5ect.jpg (https://abload.de/image.php?img=pxl_20221229_11371400x5ect.jpg) https://abload.de/thumb/pxl_20221229_113739111wfi6.jpg (https://abload.de/image.php?img=pxl_20221229_113739111wfi6.jpg)
Aber immerhin habe ich das bekommen was ich wollte:
- kein Spulenfiepen (außer bei sehr hohen dreistelligen FPS)
- kein Spulenrasseln
- extrem potenter Kühler
-> recht leise stock, aber viel Potenzial zum tunen der Lautstärke
- keine Kompormisse beim Powerlimit
Erste Eindrücke vom Wechsel auf NV zurück: Im idle verbraucht die Karte trotz Abschaltung des RGB/OLED Kirmes 15W mehr als die 6900XT mit meiner Multimonitor Konfiguration (1440p @ 75 Hz + 1440p @ 240 Hz). Der Verbrauch ist ähnlich dynamisch wie bei der 6900XT, FPS Limits werden sehr gut mit Verbrauchsrückgängen belohnt. Das NVCP fühlt sich immer noch an wie Steinzeit, aber es funktioniert ja grundsätzlich, wenn auch unresponsiv. Naja, wenn man erst einmal alles grundlegend eingestellt hat, braucht man es auch kaum noch. Fand den AMD Treiber trotzdem besser, da alles an einem Fleck zu finden ist und es auch etwas aufgeräumter wirkt - vielleicht eine Geschmackssache. Ans Tuning muss ich mich noch machen, aber zocken geht erst einmal vor.
IC3M@N FX
2022-12-30, 20:33:30
Die Karte ist auch brachial von der Leistung! Da kommt erstmal keine Grafikkarte von AMD auch nur annährend ran, wenn dann mit der nächsten Gen ich bezweifele das eine RX 7950 XTX da ran kommt.
Das ist das erste mal wo ich wirklich ein Unterschied zwischen Tag und Nacht sehe 70-80% Performance Plus!
Das letzte mal das ich sowas gesehen hab war damals beim Wechsel von meiner 7800 GT zu 8800 GTX mit Unified Shader Architektur, das regelrecht die alte Gen + AMD alte/neue Gen zersägt hat.
Es fühlt sich wirklich nach einer kompletten neuen Gen an als wäre das eine komplett neue Chip Architektur.
Radeonfreak
2022-12-30, 20:36:06
Ich hab richtig Glück gehabt ich hab noch das Kabel 12V von Be Quiet bekommen passend zu meinen Netzteil von meinen Computerhändler um die Ecke für die RTX 4090.
Die ist fast überall ausverkauft, die Penner machen aber gut Geld damit 29€ ist schon recht happig für ein Kabel...auch wenn es zum Vergleich der Grafikkarte nur Peanuts sind.
Was für RIESEN Ding 😳 zum Vergleich meiner RTX 3090
https://i.ibb.co/Nr5R61n/PXL-20221229-133157983.jpg
So ich hab es auch jetzt eingebaut auf zum benchen 😚
https://i.ibb.co/V97sWqX/PXL-20221229-151157840.jpg
Willkommen im Phantom Club :usweet:
r3ptil3
2022-12-30, 20:38:02
https://abload.de/thumb/pxl_20221229_11370306klebx.jpg (https://abload.de/image.php?img=pxl_20221229_11370306klebx.jpg) https://abload.de/thumb/pxl_20221229_11371400x5ect.jpg (https://abload.de/image.php?img=pxl_20221229_11371400x5ect.jpg) https://abload.de/thumb/pxl_20221229_113739111wfi6.jpg (https://abload.de/image.php?img=pxl_20221229_113739111wfi6.jpg)
Wenn ich mich nicht irre, ist das die grösste Custom-RTX 4090 oder?
In welchem Gehäuse findet das schöne Stück denn Platz?
Und funktioniert jetzt die Steuerung des kleinen LCD Panels?
IC3M@N FX
2022-12-30, 20:57:07
Willkommen im Phantom Club :usweet:
Haha :biggrin: verdammt Kacke jetzt limitiert meine 12900K ;D selbst bei 5,2 GHz ich hab bei 3D Mark Time Spy 32-33K
Allein die GPU hat bei mir 37K Grafik Score aber die CPU kann die brachiale Leistung nicht stemmen, aber ich werde mir die 13900K nicht kaufen für 10-15% mehr Performance werde ich keine 650€ hinblättern, ich warte auf die 14XXX Reihe.
r3ptil3
2022-12-30, 21:04:20
Würde ich auf keinen Fall machen.
Mein 5800X3D hat gerade mal einen CPU Score von 13k, sagt also rein gar nichts aus.
BlacKi
2022-12-30, 21:05:03
ja, ist aber nichts neues. viele 3dmark benches ziehen die cpu leistung mit rein. da muss dann schon für die gesammtpunktzahl ein cpu monster her, am besten mit 16 oder mehr kernen und mit oc versteht sich.
das hat aber nichts mit gaming zu tun. deshalb kann man 3dmurks auch getrost ignorieren, bis auf den gpu score vl.
IC3M@N FX
2022-12-30, 21:16:28
Stimmt schon ich werde erst überhaupt ein Upgrade in Erwägung ziehen wenn ich einen totalen Mehrwert hab von 40-50% mehr Performance.
Wahrscheinlich wird es in 2 Jahren sein wenn die Intel 15XXX Reihe kommt.
Banshee18
2022-12-30, 21:16:43
habe mich mental darauf vorbereitet das 700W-netzteil tauschen zu müssen, ich bekomme das aber nicht mal mit 600W power limit mit furmark+prime95 getrippt. in der praxis mit angepasster curve mit 2700MHz bei 950mV und weniger synthetischer CPU-last braucht das system eher die hälfte davon.
Hab mir jetz auch mal den Rivatuner geladen, komme aber auf die Schnelle noch nicht so richtig so richtig mit der Nutzung klar.
Hab jetzt erstmal die komplette Kurve mit gedrückter Alt-Taste so weit hochgezogen, bis der Punkt bei 950mV bei 2700MhZ ist. Alle Punkte dahinter schiebe ich jetzt auch auf 2700MhZ. Muss ich da jeden Punkt einzeln Pi mal Daumen verschieben, oder gibts da einen Trick?
D.H., dass die Karte im unteren Lastbereich übertaktet ist, aber bei 950mV und 2700MhZ abriegelt?
Ist das vom Prinzip so richtig?
Thunder99
2022-12-30, 21:26:16
Stimmt schon ich werde erst überhaupt ein Upgrade in Erwägung ziehen wenn ich einen totalen Mehrwert hab von 40-50% mehr Performance.
Wahrscheinlich wird es in 2 Jahren sein wenn die Intel 15XXX Reihe kommt.
Oder einfach den AMD Zen 4 oder 5 X3D :wink:
Radeonfreak
2022-12-30, 21:29:33
Haha :biggrin: verdammt Kacke jetzt limitiert meine 12900K ;D selbst bei 5,2 GHz ich hab bei 3D Mark Time Spy 32-33K
Allein die GPU hat bei mir 37K Grafik Score aber die CPU kann die brachiale Leistung nicht stemmen, aber ich werde mir die 13900K nicht kaufen für 10-15% mehr Performance werde ich keine 650€ hinblättern, ich warte auf die 14XXX Reihe.
Bei der Karte limitiert so ziemlich jede CPU. :freak:
Lehdro
2022-12-30, 21:30:45
Wenn ich mich nicht irre, ist das die grösste Custom-RTX 4090 oder?
Scheint so, jo. Top wäre wenn die Plastikshroud noch aus Metall wäre, ist sie aber nur teilweise.
In welchem Gehäuse findet das schöne Stück denn Platz?
https://abload.de/thumb/pxl_20221229_12090064ufeom.jpg (https://abload.de/image.php?img=pxl_20221229_12090064ufeom.jpg)
Ist ein Thermaltake Core X9 (vor Jahren für meine Custom Wakü gekauft), die Karte verdeckt jetzt sogar einen Noctua NH-D15.
Und funktioniert jetzt die Steuerung des kleinen LCD Panels?
Funktioniert, an, aus und auch verschiedene GIFs. Bleibt bei mir aber aus, sehe ich eh nicht und der ganze Klimbim + LEDs "kostet" fast 15W im Idle.
BlacKi
2022-12-30, 21:32:51
Bei der Karte limitiert so ziemlich jede CPU. :freak:1440p und darunter sowieso.
aber es ist ja auch eine 4k karte.
-=Popeye=-
2022-12-30, 21:59:19
Ab UWQHD (3440x1440) limitiert die CPU hier eher selten...
https://abload.de/thumb/cyberpunk2077_2022_1qxexw.jpeg (https://abload.de/image.php?img=cyberpunk2077_2022_1qxexw.jpeg)
... die GPU ist mit PT 63% gedeckelt, was ungefähr 285 Watt entspricht. Der Takt wurde hier auf +180 GPU und +500 RAM gestellt und im Spiel selbst Ultra Settings und DLSS Quality gewählt.
edit: fast vergessen RT Ultra ist auch eingeschaltet
BlacKi
2022-12-30, 22:13:59
danke für die bestätigung meiner annahme.
Tesseract
2022-12-30, 23:19:24
Hab mir jetz auch mal den Rivatuner geladen, komme aber auf die Schnelle noch nicht so richtig so richtig mit der Nutzung klar.
Hab jetzt erstmal die komplette Kurve mit gedrückter Alt-Taste so weit hochgezogen, bis der Punkt bei 950mV bei 2700MhZ ist. Alle Punkte dahinter schiebe ich jetzt auch auf 2700MhZ. Muss ich da jeden Punkt einzeln Pi mal Daumen verschieben, oder gibts da einen Trick?
D.H., dass die Karte im unteren Lastbereich übertaktet ist, aber bei 950mV und 2700MhZ abriegelt?
Ist das vom Prinzip so richtig?
meinst du afterburner? nein, du musst nicht jeden einzeln schieben. mit shift alle hinter 950mV auswählen und dann weit nach unten ziehen, beim übernehmen setzt die software die punte automatisch so dass die kurve monoton steigend ist.
y33H@
2022-12-30, 23:47:30
1440p und darunter sowieso.DL-DSR ^^
-=Popeye=-
2022-12-31, 00:15:06
Ist auch nicht zwingend nötig, da man das Teil auch schon je nach Spiel in UWQHD ausgelastet bekommt.
Slipknot79
2022-12-31, 00:33:25
Weiß ned wo das Problem ist bei UWQHD, einfach DLDSR 2,25x reinballern und schon hat man nen dickes GPU limit und vorallem ein ordentliches Bild, selbst mit DLSS wird da nix unscharf. (y)
-=Popeye=-
2022-12-31, 00:43:00
Meine Aussage war das man die Karte in UWQHD auch ohne DLSS oder sonstigen Graka Features ausgelastet bekommt.
Slipknot79
2022-12-31, 01:16:17
War ned auf dich bezogen meine Aussage, ging an die Zweifler. (y)
-=Popeye=-
2022-12-31, 03:43:02
bitte löschen
Ex3cut3r
2022-12-31, 09:21:52
Morgen Leute,
weiß jemand welche RTX 4090 in ein Lian Li o11 Dynamic passt? (siehe Sig)
Falls keine passen sollte, kann ich mir so ein Vertical GPU Mount besorgen natürlich in einer PCIe 4.0 Version. Wäre wohl billiger als ein komplett neues Gehäuse. :freak: :biggrin:
Rolsch
2022-12-31, 09:31:24
https://lian-li.com/lian-li-pc-case-4090-compatible-list/
Laut dieser Liste sollten alle irgendwie möglich sein.
Ex3cut3r
2022-12-31, 09:35:11
Fantastischer Link. Hilft. Danke. :up:
So wie ich das sehe, sagt Lian Li selber, das wird nur was mit einem dünneren Kabel.
https://abload.de/img/screenshot2022-12-3107qcde.png
Ich glaube, ich werde mir einfach ein Vertical GPU Mount besorgen. Dann habe ich überhaupt keine Probleme mit der Seitenwand.
Rolsch
2022-12-31, 09:44:51
Ich glaube, ich werde mir einfach ein Vertical GPU Mount besorgen. Dann habe ich überhaupt keine Probleme mit der Seitenwand.
Dann habe ich noch was für dich:
WEwXNZfIN-0
Ex3cut3r
2022-12-31, 09:53:10
Jap. Danke.
Guten Rutsch.
IC3M@N FX
2022-12-31, 14:12:42
Ich hab jetzt durch Afterburner meine Gainward RTX 4090 Phantom GS optimiert.
Boost Clock Default von Gainward 2610 MHz hab ich auf 900mv runter optimieren können es saugt noch knapp 250 Watt.
Die Performance Einstellung hab ich auf 2850 MHz drücken können bei 1025mv 330 Watt.
Beide Einstellung hab ich 3DMark Loop Stress Test jeweils 2 Mal hintereinander gemacht.
Cubitus
2022-12-31, 17:30:26
Morgen Leute,
weiß jemand welche RTX 4090 in ein Lian Li o11 Dynamic passt? (siehe Sig)
Falls keine passen sollte, kann ich mir so ein Vertical GPU Mount besorgen natürlich in einer PCIe 4.0 Version. Wäre wohl billiger als ein komplett neues Gehäuse. :freak: :biggrin:
Soso, welcome Back im Grafikkarten Game :)
Gute Entscheidung 👍
Gebe dir ein Tipp, Spulenfiepen kaufst am besten eine KFA die Dinger Boosten ordentlich und sehen halbwegs gut aus. Haben so gut wie kein spulenfiepen und auch gute Lüfter am Start. Finger weg von den msi oder den Asus Karten..
Ex3cut3r
2023-01-01, 00:51:35
Frohes Neues.
Meinst du wirklich, dass bei einem Globalen FPS Cap von 141FPS mit VRR (4K, 144HZ Monitor) so eine große Rolle spielt? :uponder:
Lehdro
2023-01-01, 16:48:08
Im idle verbraucht die Karte trotz Abschaltung des RGB/OLED Kirmes 15W mehr als die 6900XT mit meiner Multimonitor Konfiguration (1440p @ 75 Hz + 1440p @ 240 Hz).
Problem hat sich von alleine gelöst, habe nun laut HWinfo zwischen 15-20W im Idle. Nach einem Treiberreset wegen zu opportunistischem OC hat sich der hohe Verbrauch in Luft aufgelöst, bleibt auch verschwunden nach mehreren Restarts, obwohl es tagelang vorher so war. :freak:
ChaosTM
2023-01-01, 17:04:04
Hätte mich auch gewundert. Ich brauch bei 2 Monitoren + 2160p Netflix Stream mit MPC-HC/madVR in Hardware decodiert nur 20-25 Watt.
Gynoug MD
2023-01-01, 17:18:47
Fantastischer Link. Hilft. Danke. :up:
So wie ich das sehe, sagt Lian Li selber, das wird nur was mit einem dünneren Kabel.
https://abload.de/img/screenshot2022-12-3107qcde.png
Auch von mir danke für den Link, hab mal für mein Air Mini geschaut, aber generell ist nicht ersichtlich, ob sich die Angaben inkl. der Verwendung von Frontlüftern verstehen.
Noch ein Grund mehr auf ne 4090FE zu warten bis 20XX.
:biggrin:
aufkrawall
2023-01-01, 17:24:10
Meinst du wirklich, dass bei einem Globalen FPS Cap von 141FPS mit VRR (4K, 144HZ Monitor) so eine große Rolle spielt? :uponder:
Find die Warnung vor Asus übertrieben, mit vernünftigem Netzteil (ala Seasonic Platinum) und UV spielt das spätestens mit Kopfhörern imho keine Rolle mehr.
Die TUF-Kacke läuft viel zu gut, als dass ich noch mal riskieren würde, mit etwas anderem baden zu gehen. Wobei man natürlich immer Pech haben kann...
Edit: Mal zum Vergleich: PS5 kann auch sehr deutlich wahrnehmbar surren, bei gleichzeitig wesentlich höherer Lüfterlautstärke.
Linmoum
2023-01-01, 17:33:20
Diesen Netzteil-Mythos hab ich schon so oft gelesen aber noch nie nachvollziehen bzw. nachstellen können. Egal ob be quiet, Seasonic oder Corsair.
Ich nehme aber unabhängig davon auch lieber ggf. ein paar Grad mehr in Kauf, bevor ich mir irgendein Spulenfiepen oder -rasseln antue. Gibt einfach nichts schlimmeres und 24/7 mit Kopfhörern kommt für mich auch nicht in Frage. Zumal selbst das auch nicht immer hilft, wenn man da wirklich einen Kreischer erwischt hat.
Da bringt mirr der beste/leiseste Kühler wenig, wenn die Karte dann aber trotzdem mit einer penetrant nervenden Geräuschkulisse auf sich aufmerksam macht.
Am Ende muss man wahrscheinlich trotzdem selbst probieren, aber das Feedback vor allem zu Asus und MSI ist diese Gen bislang schon recht eindeutig in der Hinsicht.
aufkrawall
2023-01-01, 17:38:55
Diesen Netzteil-Mythos hab ich schon so oft gelesen aber noch nie nachvollziehen bzw. nachstellen können. Egal ob be quiet, Seasonic oder Corsair.
Gibt aber Berichte, dass es nach NT-Tausch leiser wurde.
Gleiches trifft auf die Nutzungsdauer zu. Nach 2-3 Wochen nimmt es mitunter deutlich ab. Selbst meine 170W 3060 war da anfangs leicht nervig. Ist jetzt ohne UV leiser als mit UV zu Beginn. :cool:
Sardaukar.nsn
2023-01-01, 18:47:44
Frohes Neues.
Meinst du wirklich, dass bei einem Globalen FPS Cap von 141FPS mit VRR (4K, 144HZ Monitor) so eine große Rolle spielt? :uponder:
Kann ich zumindest absolut verneinen. Anbei mal zwei Szenarien von meiner Asus TUF. Praxisgerechtes FPS cap kurz unter 120hz (LG C2 Bildschrim) einmal mit empfehlenswerten 350W und 1000rpm sowie 450W bei 1400rpm.
https://imgur.com/a/FY4LT1b
Cubitus
2023-01-01, 21:34:54
Frohes Neues.
Meinst du wirklich, dass bei einem Globalen FPS Cap von 141FPS mit VRR (4K, 144HZ Monitor) so eine große Rolle spielt? :uponder:
Es gibt leider dieses Jahr vok msi und Asus nix gutes zu berichten. Hab selber ne msi im UV.. und die spulen sind leider deutlich hörbar egal ob UV oder ein seasonic Netzteil, wo ich ein gutes platinum habe..
Gigabyte sollten auch noch leise sein sowie eben das von mir genannte..
Im luxx gibt's nen spulenfiep thread lohnt sich anzuschauen
Ich kann dir guten Gewissens die kfa empfehlen, ein Freund hat die auch und die ist unhörbar von den spulen, und leuchtet schön..
Vorallem liefert die karte eine sehr gute Leistung
Ex3cut3r
2023-01-01, 23:23:31
Danke, schaue ich mir mal an. Ich tendiere, stand jetzt, genau wie bei Ampere zur ASUS TUF.
Hat ja nicht lange gedauert doch deine Meinung zu ändern und dir eine 4090 zu holen ;D
ChaosTM
2023-01-01, 23:47:02
Kluge Leute passen ihre Meinungen den Gegebenheiten an.
Fanboys limitieren sich selbst..
Kluge Leute passen ihre Meinungen den Gegebenheiten an.
Fanboys limitieren sich selbst..
Du wolltest eher sagen, Fanboys kaufen immer die neueste Karte von Nvidia - koste es was es wolle.
ChaosTM
2023-01-02, 01:57:54
Kommt immer darauf an welche Ansprüche man stellt und was man gewillt ist auszugeben.
Will man das beste, egal zu welchem Preis, ist das momentan NV, ja.
Aber das ist auch nur ein Teilaspekt. Wenn Firmen scheiße bauen, sollte man sie nicht um jeden Preis verteidigen.
Ex3cut3r
2023-01-02, 02:02:37
Hat ja nicht lange gedauert doch deine Meinung zu ändern und dir eine 4090 zu holen ;D
Naja, ich habe seit zwei Monaten einen 4K Monitor, woher hatte ich einen 1440p Monitor. Etwas mehr Wumms wäre nicht übel, aber ich bin mir noch nicht 100% sicher ob es ein Kauf wird. Momentan kann ich auch Optimized Settings von DF nutzen, wenn verfügbar und DLSS B oder P sehen auf 4K mit 2.5.1 DLSS Dll gut aus, und ich kann fast immer meine 144HZ ausreizen.
Aber, dieses Jahr scheint ziemlich anspruchsvoll zu werden, was AAA Titel angeht. Brauche daher etwas mehr Power. Aber man könnte eigentlich noch warten. Das mache ich vermutlich auch noch und hoffe, auf etwas niedrige Preise, auch wenn die Hoffnung da eher klein ist. ^^
Eine 4080 Ti mit 20GB und etwas weniger Shader, aber 50-70% von einer 3080 Ti aus, wurden mir auch locker reichen. Wenn die Scheiße doch bloß nicht immer so teuer wäre. Das wird leider immer mehr zum Luxusgut, mittlerweile hat man schon ein schlechtes Gewissen.
Cubitus
2023-01-02, 07:53:08
Danke, schaue ich mir mal an. Ich tendiere, stand jetzt, genau wie bei Ampere zur ASUS TUF
https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/
Schau mal hier..
Die Asus schneiden nicht so gut ab ..
Grün ist soweit fein..
KFA ist übrigens Galaxy welche auch die HOF produzieren
gbm31
2023-01-02, 09:45:10
Du wolltest eher sagen, Fanboys kaufen immer die neueste Karte von Nvidia - koste es was es wolle.
Was ein Blödsinn!
Ich bin ziemlich AMD biased (Sig., die Radeon VII war 2 Jahre im Rechner..), manche würden das als Fanboy bezeichnen, und hab unbesehen eine XTX am Releasetag bestellt.
Nach einer Woche harter Lektionen hat dann das Hirn anders entschieden, nach best for my usecase. Und da es nur Rot oder Grün im anvisierten Leistungsbereich gibt...
Linmoum
2023-01-02, 09:52:47
Ich find die Aussage auch amüsant und albern. Die 4090 ist meine 2. Nvidia-Karte nach der 2080 seit 2008. Alles andere waren ausnahmslos Radeons.
Ich bin in der Lage, mir meine Meinung anhand von Reviews und dem tatsächlichen Gesamtpaket einer Karte zu bilden und dann zu entscheiden. Egal, was vorher noch war.
Dieser beißhafte Fanboy-Reflex ist echt so eine Standardkeule, die permanent geschwungen wird.
gbm31
2023-01-02, 10:02:31
Meine letzten NV vor der 4080 waren 970 und 1070Ti. Davor eine GTX570. Sonst AMD bzw Ati alle 1-2 Jahre neu...
BTT
IC3M@N FX
2023-01-02, 11:46:30
Meine erste ordentliche Grafikkarte war eine Geforce FX 5900 XT, ich hatte damals 180€ bezahlt beim Saturn.
Obwohl ich nie eine Radeon Grafikkarte hatte, haben mir die Treiber & Control Center von ATI nie wirklich gefallen. Ich fand/finde irgendwie überladen daher ich hatte auch nie in Erwägung gezogen damals eine ATI (AMD) Grafikkarte zu kaufen, obwohl die Radeon 9700/9800 Pro die GeForce FX Serie in den Grund und Boden gestampft hat.
Ich weiß auch nicht warum aber ich bin immer wieder bei Nvidia gelandet, ich war aber auch nie unglücklich darüber.
Lowkey
2023-01-02, 12:12:55
Sehe ich auch so. Das Control Menu von Nivida gefällt besser.
DrFreaK666
2023-01-02, 12:23:18
Sehe ich auch so. Das Control Menu von Nivida gefällt besser.
Hast wahrscheinlich auch noch Win98 installiert, damit der Look einheitlich ist :D
Meiner Meinung nach könnte NV hier mal was Neues bieten
Lowkey
2023-01-02, 12:26:19
Ja da kommt irgendwann etwas, denn ein Teil der 3D Features sind ohne Funktion oder haben ihren Sinn verloren.
DaHansman
2023-01-02, 12:54:14
Ich find es ganz praktisch. Seit Jahren weiß man wo was hinterlegt ist. Die grafischen Overlays mit den großen Buttons gefallen mir nicht so gut. :)
dosenfisch24
2023-01-02, 12:54:39
Bin nach der GTX 280 zum ersten mal zurück bei Nvidia und ganz ehrlich, das Treiber Interface kommt mir vor wie aus der Win 2000 Steinzeit. Die Karte wird dadurch allerdings nicht schlechter. In den meisten Fällen läuft das Teil mit UV bei 975 mV schneller als stock und abseits von RT auch meist sparsamer als meine alte 6900 XT.
Die Fanboy-Aussage war nicht mal gezielt an jemanden gerichtet, schon interessant wer sich angesprochen fühlt ;D
Naja, ich habe seit zwei Monaten einen 4K Monitor, woher hatte ich einen 1440p Monitor.
Habe seit Jahren einen 32:9 Monitor mit 5120x1440, das ist vom Pixelcount nur leicht unter 4K. Kenne also das "Problem". Mein einziger Grenzfall war bisher Dying Light 2, bei dem Spiel musste ich sogar DLSS auf Balanced stellen um auf 60 FPS zu kommen mit RT. Alles in allem ist DL2 mit RT trotz vieler Schwächen ein ansehnlicher Titel, es braucht trotzdem unverhältnismäßig viel Leistung wenn ich mir Metro Exodus EE anschaue und wie gut das performt.
Aber, dieses Jahr scheint ziemlich anspruchsvoll zu werden, was AAA Titel angeht.
Hängt immer etwas von der eigenen Sichtweise ab. Ich sehe bis auf The Day Before nichts was was die GPUs zum Durchglühen bringen könnte. Mit Stalker 2 rechne ich dieses Jahr durch den Ukraine Krieg nicht, das wird sicher erst 2024 was. Ein weiterer Kandidat war eine Weile Forspoken, nach der sehr schwachen PS5 Demo rechne ich aber nur noch mit einem unoptimierten Haufen Müll der Durchschnittgrafik liefert.
Wenn die Scheiße doch bloß nicht immer so teuer wäre. Das wird leider immer mehr zum Luxusgut, mittlerweile hat man schon ein schlechtes Gewissen.
Ich finde es eher erschreckend was für einen Abfall die Boardpartner dem potentiellen Kunden andrehen wollen trotz 2000 EUR+. In der Preisklasse erwarte ich das beste von bestem, doch dann gibt es Unternehmen wie Palit, Inno3D, PNY usw. die einem den Bodensatz für viel zu viel Geld verkaufen wollen. Ruhigen Gewissens kaufbar sind nur vereinzelte Karten von Asus, MSI, Gigabyte, Zotac und die FE.
r3ptil3
2023-01-02, 14:12:24
Ich finde es eher erschreckend was für einen Abfall die Boardpartner dem potentiellen Kunden andrehen wollen trotz 2000 EUR+. In der Preisklasse erwarte ich das beste von bestem, doch dann gibt es Unternehmen wie Palit, Inno3D, PNY usw. die einem den Bodensatz für viel zu viel Geld verkaufen wollen. Ruhigen Gewissens kaufbar sind nur vereinzelte Karten von Asus, MSI, Gigabyte, Zotac und die FE.
Ich kenne die Details nicht, aber ich vermute die AIBs haben es selbst bei einer RTX 4090 keine leicht Aufgabe den break-even zu erreichen.
Während ASUS für ihre Strix Modelle locker 300-400 Euro Aufschlag verlangen kann, müssen diese genannten AIBs oben, eben 300-400 Euro tiefer liegen, um überhaupt genügend Stückzahlen abzusetzen. Da der Gewinn pro Karte selbst bei einer 4090 wohl winzig ist (für die AIBs), werden gerade die unbekannteren Hersteller bei den Komponenten sparen müssen.
Führt dann für den Endkunden dazu, dass man trotzdem 1800 Euro für eine Grafikkarte bezahlt, aber ausser dem Chip selber, man teilweise minderwertige Qualität bekommt.
SamLombardo
2023-01-02, 14:26:51
Atma hat irgendwie schlechte Erfahrungen mit der Gamerock gemacht, deswegen sein wiederkehrendes Abhaten hier. Fair enough wie man so schön sagt. Man darf aber auch nicht unterschlagen, dass es genau so User gibt, die die Gamerock einer Asus bewusst vorgezogen haben wegen nicht vorhandenem Spulenfiepen. Etwa im Hardwareluxx 4090 Thread finden sich da einige. Es gibt Tests der Custom Modelle in denen die Gamerock als Sieger hervor ging in Punkto Kühlung, Lautstärke...usw. Lange Rede kurzer Sinn, wenn man sich am Design nicht stört und nicht Hardcore Overclocker ist macht man auch mit den "Billig"modellen sehr wahrscheinlich nichts falsch.
Rancor
2023-01-02, 14:49:38
Hat ja nicht lange gedauert doch deine Meinung zu ändern und dir eine 4090 zu holen ;D
Hast du was andere erwartet? Ist doch beinahe die gleiche Story wie vor der 3080 und 3080TI
Lehdro
2023-01-02, 14:55:30
Spart ein PNY denn so sehr an Komponenten wenn sie eine sehr leise Kühlung, keinerlei Spulenfiepen (extrem hohe dreistelliger Werte mal außen vor) anbieten? Das ist doch genau das was die meisten eigentlich haben wollen. Das einzige was man sich da spart ist der Spielraum mit der TDP nach oben. Wenn ich das nicht haben wollen würde, wäre das meine Karte geworden, zumal sie vor 2 Wochen preislich sogar sehr attraktiv war. Was ist denn die Alternative?
FE? Kriegt man sehr schwer, da zeitlich/mengenmäßig begrenzt. Kein Bock auf das Gewarte bei NBB.
Asus, viel Spaß beim Tinnitus.
MSI, siehe ASUS, das Ventus Modell ist zudem tatsächlich Abfall. Die Suprim X wird dafür sogar bei der TDP begrenzt und hat sehr hohe Speichertemperaturen - für den Preis ein absolutes Unding.
Gigabyte als Windforce/Gaming OC? Macht ihrem Namen alle Ehre, viel zu Laut ab Werk.
Palit - kommt bei den Tests immer gut weg.
inno3D - eigentlich eine gute Karte, aber die Kühlung ist zu aggressiv eingestellt.
Ich sehe das wie SamLombardo, wenn man nicht irgendwelche "Luxus"-Eigenschaften wünscht, macht man bei den 4090er eigentlich gar nichts falsch eine günstigere zu kaufen, da sie technisch teilweise sogar überlegen sind, Stichwort Spulenfiepen. Willst du eine Luxuskarte UND alle Spielereien, verbieten sich MSI und Asus durch die eben genannte Thematik sowieso von alleine. Was dann bleibt? Ich sag ja die Gigabyte Aorus Master, die kann alles und hat kein Spulenfiepen/Rasseln, extrem potente Kühlung, Limit erst bei 600W, den LED Klimbim kann man dauerhaft abschalten. Nur den Preis muss man halt zahlen wollen.
The_Invisible
2023-01-02, 14:57:22
Naja, ich habe seit zwei Monaten einen 4K Monitor, woher hatte ich einen 1440p Monitor. Etwas mehr Wumms wäre nicht übel, aber ich bin mir noch nicht 100% sicher ob es ein Kauf wird. Momentan kann ich auch Optimized Settings von DF nutzen, wenn verfügbar und DLSS B oder P sehen auf 4K mit 2.5.1 DLSS Dll gut aus, und ich kann fast immer meine 144HZ ausreizen.
Aber, dieses Jahr scheint ziemlich anspruchsvoll zu werden, was AAA Titel angeht. Brauche daher etwas mehr Power. Aber man könnte eigentlich noch warten. Das mache ich vermutlich auch noch und hoffe, auf etwas niedrige Preise, auch wenn die Hoffnung da eher klein ist. ^^
Eine 4080 Ti mit 20GB und etwas weniger Shader, aber 50-70% von einer 3080 Ti aus, wurden mir auch locker reichen. Wenn die Scheiße doch bloß nicht immer so teuer wäre. Das wird leider immer mehr zum Luxusgut, mittlerweile hat man schon ein schlechtes Gewissen.
Stehe vor dem selben Problem, eine 4080 ist eigentlich zu "unsexy" von Big Ampere ausgehend, eine 4080 Ti die nur ein paar % langsamer wäre als die 4090 wie bei Ampere wäre halt nett, kostet aber auch sicher so >1,6k EUR.
Das Preise gesenkt werden glaub ich kaum nach dem AMD Release, das müsste jetzt schon passiert sein, außer die Verkäufe bleiben aus.
Sonst habe ich soweit keinen Aufrüstdruck, CP2077 ist durch, W3 läuft für mich auch ganz okay und dieses Jahr ist soweit nur mal Hogwarts Legacy für mich interessant, da es DLSS bietet aber auch sicher kein Problem.
Ex3cut3r
2023-01-02, 14:58:31
Hast du was andere erwartet? Ist doch beinahe die gleiche Story wie vor der 3080 und 3080TI
Was genau meinst du? Habe die 3080 Ti nun genau über 1 Jahr im PC.
https://abload.de/thumb/imagedrdj2.jpg (https://abload.de/image.php?img=imagedrdj2.jpg)
Könntest du das Problem mit deiner 6800XT und dem Hitzeproblem jetzt eigentlich lösen? Oder kocht Sie immer noch ständig vor sich hin? :biggrin:
Cubitus
2023-01-02, 15:00:13
Stimme Sam zu. Eher wird man bei den teuren Modellen über den Tisch gezogen. Alle Karten, wirklich alle sind völlig ausreichend dimensioniert.
Bei der Gamerock hat ein bekannterer YouTuber das pcb angeprangert.
Die Surpime und die Strix sind überdimensioniert, ohne zweiten Stromstärker macht das vrm Design keinen Sinn. Im Gegenteil diese Karten sind ineffizient.
Okay ich kann bei meiner MSI auf 3105 MHz ohne Probleme gehen, aber das Powerlimit sucked, also wird der Takt auch nicht immer gehalten.
Und dann diese surrenden Spulen, hab den pc auf dem Tisch stehen und man hört es stellenweise deutlich. Wenn die Karte warm gelaufen ist, klingt es besser.
Schaut mal den Thread im Luxx. Ist interessant was die Vrms für absurde Leistung bereitstellen können.
https://www.hardwareluxx.de/community/threads/geforce-rtx-4090-vrm-pcb-wasserblock-liste.1325105/
Ist auch das ein oder andere Bild des Pcbs drin
Die gamerock hat wohl bei manchen eine Bananenform und brummt mit den Lüftern, liegt aber an der serienstreuung. Mit der Karte kann man durchaus zufrieden sein.
Und was nützen mir teure VRMs wenn diese laut as fuck sind und unnötig Energie im Idle verbraten.. das einzige was ich ohne schlechtes Gewissen machen könnte 600 Watt bios drauflashen und die Karte prügeln bis zum geht nicht mehr, das vrm Design hat es nicht anders verdient.. aber wegen den paar Prozentpunkten 600 Watt verbrauchen eh nein..
UV und Effizienz ist der way To Go und da kann ich singende Spulen nicht gebrauchen.
Ganz ehrlich für meinen usecase hätte es vermutlich auch eine manli getan.. xD
Edgecrusher86
2023-01-02, 15:03:09
Ich gehe von 1650-1750€ für eine RTX 4080 Ti FE aus und grob 200-300€ mehr für die Customs; sprich man wird auch schnell bei um die 2000€ liegen. Günstiger sehe ich das Modell nicht wirklich ausgehend von RTX 4080 und RTX 4090. Eventuell bekommt die Ti ja 108SP spendiert (13824SP FP32), was dann grob 84% der RTX 4090 entspräche - das Ganze dann auch bei 450W TGP.
The_Invisible
2023-01-02, 15:07:53
Ich gehe von 1650-1750€ für eine RTX 4080 Ti FE aus und grob 200€ mehr für die Customs.
Dann wäre man aber schon im 4090 Bereich, eine Manli gibts schon für 1,9k
Ansonsten schon beängstigend was man für den hohen Preis als Kunde aushalten muss, spulenfiepen und Co geht mal gar nicht bei dem Preis aber anscheinend rentiert sich es bzw werden es viele gar nicht bemerken
gbm31
2023-01-02, 15:12:38
Die Fanboy-Aussage war nicht mal gezielt an jemanden gerichtet, schon interessant wer sich angesprochen fühlt ;D
Ich fühle mich nicht angesprochen, da du Exe gemeint hast, ich finde einfach deine Aussage dämlich! Jetzt verstanden?
Edgecrusher86
2023-01-02, 15:55:11
Nun ja, im Mittel sind es doch eher 2100-2300€ für anständige 4090er, also 1900-2000€ sehe ich schon für die kleine Ti.
Lehdro
2023-01-02, 16:14:09
Nun ja, im Mittel sind es doch eher 2100-2300€ für anständige 4090er, also 1900-2000€ sehe ich schon für die kleine Ti.
Ist halt Quatsch wenn es die solide Gamerock 4090 schon für 2050€ gibt. Wer soll das kaufen?
Rancor
2023-01-02, 16:20:06
Was genau meinst du? Habe die 3080 Ti nun genau über 1 Jahr im PC.
https://abload.de/thumb/imagedrdj2.jpg (https://abload.de/image.php?img=imagedrdj2.jpg)
Könntest du das Problem mit deiner 6800XT und dem Hitzeproblem jetzt eigentlich lösen? Oder kocht Sie immer noch ständig vor sich hin? :biggrin:
Sie kocht, aber läuft. Ich kann damit leben.
Edgecrusher86
2023-01-02, 16:48:55
Ist halt Quatsch wenn es die solide Gamerock 4090 schon für 2050€ gibt. Wer soll das kaufen?
Wird sicher Abnehmer geben, die dann sagen...ok, 300€ günstiger als eine 4090 TUF, GB, MSI und dergleichen.
Sardaukar.nsn
2023-01-02, 17:33:30
Problem bei den Ti Versionen ist halt der relativ späte Zeitpunkt wenn diese am Markt erscheinen. Dies führt tendentiell zu einer kürzeren Nutzung, spätestens mit erscheinen der 5xxx Generation sind diese dann wieder Alteisen.
Bei Ampere hatte ich auch am Anfang gewartet, dann gab es kaum Karten und sehr hohe Preise. Jetzt mit Ada habe ich mich gleich im Oktober festgelegt und werde das Modell ruhigen Gewissens zwei Jahr nutzen und dann sicher für deutlich über 1000€ loswerden können.
The_Invisible
2023-01-02, 17:44:09
Die 4080 Ti sollte eigentlich bis Sommer kommen, dann hat man immer noch gute 1,5 Jahre Nutzzeit bis die neue Gen kommt, war bei meiner 3080 Ti ja auch so.
Die Frage ist eher warum sie überhaupt eine 4080 Ti bringen sollen wenn so gesehen eh die 4080 für AMD reicht. Da würde eine 4090 Ti mehr Sinn machen, dann nimmt man die nicht so gammeligen Chips die für die Workstation Karten nicht reichen und haut nochmal 500 EUR drauf :D
IC3M@N FX
2023-01-02, 17:55:21
Dadurch das die RX 7XXX Serie nicht wirklich Konkurrenzfähig sind zumindest in Highend Bereich, wird nVidia ein Teufel tun und die eine TI Version der jeweiligen 4090 & 4080 vorzeitig rausholen.
nVidia wird den Board Partnern überlassen, OC Versionen rauszubringen um weiter einen Abstand rauszuholen gegenüber ATI (AMD).
Die TI Versionen der RTX 3080/90 sind meiner Meinung nach immer noch sehr aktuell und konkurrenzfähig, hätte ich z.b eine RTX 3090 TI gehabt hätte ich 100% nicht gewechselt auf RTX 4090 da bin ich mir sicher.
Mit moderater Übertaktung und gleichzeitigem Undervolting kommt man relativ nah an einer RTX 4080 ran, und bei zukünftigen Spielen wenn Sony und Microsoft endlich die PS4/Xbox One kappen wird, hat man sogar den Vorteil gegenüber der RTX 4080 bei Bandbreite & Speicher intensiven Games gerade bei 4K & UWQHD Auflösung wird man es merken denk ich.
Wenn man heute für 700-800€ eine RTX 3090 TI bekommen würde, würde ich definitiv es einer RTX 4070 TI & RTX 4080 vorziehen die Grafikkarte wird gut altern da bin ich mir sicher!
Ex3cut3r
2023-01-02, 19:45:27
Die Frage ist eher warum sie überhaupt eine 4080 Ti bringen sollen wenn so gesehen eh die 4080 für AMD reicht.
Weil es immer Chips gibt, die teil defekt sind, und deshalb es zu einer 4090 nicht schaffen, die "verscherbelt" man dann zur 4080 Ti. Und fertig. ;)
-=Popeye=-
2023-01-02, 23:22:29
Wieso nicht einfach die aktuell preiswerteste kaufen, diese Manli (wenn man mit dem Design leben kann) scheint auch nicht so verkehrt zu sein.
https://geizhals.de/manli-geforce-rtx-4090-gallardo-n67540900m35300-a2829611.html?hloc=at&hloc=de
jjvIma-AxT8
edit:
Von meiner 4090 FE war unter Luft schon nicht viel zuhören (puh Glück gehabt) und jetzt unter Wasser ist Sie sogar lautlos. :crazy::love2:
DaHansman
2023-01-03, 08:52:56
Die Manli erinnert mich immer an eine Waffe aus alten Shootern von früher. Ich komme aber iwie nicht drauf.
An sich finde ich es mal schön, dass andere Designs ausprobiert werden. Die ist ja auch komplett aus Metall.
Iwie ist sie aber auch nicht so meins. :D
Weil es immer Chips gibt, die teil defekt sind, und deshalb es zu einer 4090 nicht schaffen, die "verscherbelt" man dann zur 4080 Ti. Und fertig. ;)
Ja aber das sind dann schon ziemliche Krüppel. Im Prinzip ist bei der 4090 schon so viel deaktiviert, dass für eine noch stärker beschnittene Version nur noch welche mit defektem Speicherinterface und/oder beschissenen elektrischen Eigenschaften (Takt:Verrbauch) infrage kommen.
IC3M@N FX
2023-01-03, 12:25:52
Ich hab eine weitere Optimierung gemacht bei meiner RTX 4090, ich komme jetzt auf 2640 MHz bei 910mv bei einen Verbrauch von knapp 260 Watt.
Ich konnte so knapp 100 Watt einsparen bei 4% Leistungsverlust aber dafür -30% weniger Verbrauch beim Chip, ich könnte jetzt den Speichertakt ein bisschen erhöhen um es zu kompensieren aber es ist auch so in Ordnung.
Bei einem Default Takt ohne Optimierung in Form von Undervolting komme ich auf 2760 MHz Boost Takt bei 360 Watt Verbrauch beim Chip.
Ich wollte so nah wie möglich zum Default Boost Takt gehen bei gleichzeitig weniger Verbrauch.
Wie kommt das, dass Nvidia so großzügig ist bei der GPU Spannung? Sie muss ja nicht wie ich bis zum äußersten gehen, aber da ist ja extrem viel Luft nach oben.
Sie könnten locker 60-80 Watt bei jeder RTX 4090 senken selbst bei den schlechteren Chips wären 60-80 Watt drin ohne das Leistung verloren geht oder der Chip instabil wird.
aufkrawall
2023-01-03, 12:35:25
Kann man nur mutmaßen bez. Gütestreueung etc. Ist jedenfalls mindestens schon so, seitdem Curve-UV geht (Pascal) und war auch bei Samsungs Billig-Prozess für Ampere nicht anders gewesen:
https://abload.de/thumb/kena-win64-shipping_2h3ijf.png (https://abload.de/image.php?img=kena-win64-shipping_2h3ijf.png) https://abload.de/thumb/kena-win64-shipping_22fdzv.png (https://abload.de/image.php?img=kena-win64-shipping_22fdzv.png)
Hab auch noch keinen Ausreißer gesehen, der sich kacke UVen ließe, bei mindestens einem halben Dutzend Karten über die Jahre.
Mit dem Shift + Auswähl-Trick "skippt" er auch das UV nicht mehr bei ganz tieferen Temperaturen, echt super easy einzurichten. D3D12 RT +ggf. DLSS scheint auch sehr schnell Crahes zu triggern, falls es nicht stabil ist. Schon der Knaller, wie gut das seit mittlerweile Ewigkeiten geht.
IC3M@N FX
2023-01-03, 13:01:07
Aber 80-100 Watt Ersparnis ist schon eine Hausnummer, so sieht es bei AMD dadurch sogar doppelt bitter aus.
Man hat so einen ähnlichen Verbrauch wie eine Radeon 7900 XTX bei gleichzeitig 30-35% mehr Leistung!
aceCrasher
2023-01-03, 14:31:52
Ich finde es eher erschreckend was für einen Abfall die Boardpartner dem potentiellen Kunden andrehen wollen trotz 2000 EUR+. In der Preisklasse erwarte ich das beste von bestem, doch dann gibt es Unternehmen wie Palit, Inno3D, PNY usw. die einem den Bodensatz für viel zu viel Geld verkaufen wollen.
Ich find es eher erschreckend wie schlecht du informiert bist. Die Kühler von den von dir genannten Herstellern sind alle in Ordnung, die Platinen auch. Lustigerweise fiepen die billigsten Karten mit den Referenzboards (oder ähnlichen) sogar am wenigsten - sieht man ja schön am HWL Thread.
Ruhigen Gewissens kaufbar sind nur vereinzelte Karten von Asus, MSI, Gigabyte, Zotac und die FE.
Am besten sollten sich Alle etwas seriöses kaufen, eine 4-Slot Gigabyte 4090 Gaming zum Beispiel, richtig massives Teil. Die kühlt dann zwar schlechter (https://www.kitguru.net/wp-content/uploads/2022/10/noise-normalised-GPU-4-768x768.png) als die "billigen" 3-Slot Karten @40db, aber naja. :rolleyes:
Oder vielleicht doch eine Suprim? Der Kühler ist tatsächlich super, bringt aber gar nichts wenn sich 90% der Nutzer (https://www.hardwareluxx.de/community/threads/ada-lovelace-rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/) über störendes Spulenfiepen beschweren, der schlechteste Wert aller 4090 Modelle. Dafür entspannen die Spannungswandler dann halt 20C oder so kühler als bei anderen Karten. Die Kombination aus stärkster Platine + ~510W MAX Bios ist auch... fragwürdig?
Ich verstehe diese Vorurteile gegenüber bestimmten Herstellern wirklich nicht. Ich habe zuvor noch eine Karte der von dir genannten Hersteller besessen, bin also nicht voreingenommen. Mit meiner Inno3D 4090 iChill X3 bin ich absolut zufrieden. Kaum Spulenfiepen, sehr guter Kühler (vorallem manuell eingestellt) und kompakt für eine 4090. Einzig das Single-Bios nervt ein wenig.
Ich find es eher erschreckend wie schlecht du informiert bist. Die Kühler von den von dir genannten Herstellern sind alle in Ordnung, die Platinen auch. Lustigerweise fiepen die billigsten Karten mit den Referenzboards (oder ähnlichen) sogar am wenigsten - sieht man ja schön am HWL Thread.
Ich bin informiert, keine Sorge. Referenz (sofern Nvidia eine liefert) ist die FE. Mir geht es zudem nicht nur um die Kühler sondern primär das PCB. Und was die Hersteller dem potentiellen Kunden hier verkaufen ist ehrlich gesagt eine Frechheit bei dem Preis. Ausgehend von der FE wird besonders bei Palit, Inno3D und Gainward auf deutlich weniger Phasen, weniger/schlechtere Kondensatoren und billigere Wandler sowie Controller gesetzt.
Das hat aktuell so kurz nach dem Launch erst mal keine Auswirkungen, doch wie sieht es in 2 Jahren aus? Durch die billigeren und in der Anzahl reduzierten Komponenten werden die vorhandenen stärker beansprucht und laufen womöglich noch mit höheren Temperaturen. Hättest du Bock darauf, dass deine 2000 EUR+ Karte nach dem Ende der Garantie das Zeitliche segnet? Ich jedenfalls nicht.
Oder vielleicht doch eine Suprim? Der Kühler ist tatsächlich super, bringt aber gar nichts wenn sich 90% der Nutzer über störendes Spulenfiepen beschweren, der schlechteste Wert aller 4090 Modelle. Dafür entspannen die Spannungswandler dann halt 20C oder so kühler als bei anderen Karten.
Mir ist die Liste im Luxx bekannt, ebenso die verstärkt auftretenden Meldungen bei der Suprim X und Strix. Wie immer melden sich die Leute mit Problemen am lautesten zu Wort, versucht man das auf die Gesamtzahl an verkauften Suprim und Strix Karten hochzurechnen ist es aber wohl kein grundsätzliches Problem. Als Basis nehme ich die Zahlen von Mindfactory, sonst veröffentlicht leider kein Händler genaue Angaben.
Spulenfiepen ist eine komplexe Angelegenheit, so richtig geklärt sind die Ursachen bis heute nicht. Klar ist nur, dass neben der Grafikkarte auch das NT eine tragende Rolle spielt. Das PCB meiner 3090 Ti Suprim X ist nahezu identisch mit der 4090 Suprim X. Bis auf 2 Phasen weniger ist alles gleich, die verwendeten Phasen, Controller usw.
Ob du es glaubst oder nicht, meine Karte ist komplett unauffällig was Spulenfiepen/Rasseln angeht. Ich höre weder bei 100 noch bei 800+ FPS irgendwas. Eine Garantie für eine unauffällige 4090 Suprim X ist das selbstverständlich nicht, die Chancen stehen jedoch gut.
Abschließend noch ein paar Worte was Optik und Haptik angeht. Wenn ich 2000 EUR+ für eine Grafikkarte ausgebe, erwarte ich Premium bis ins kleinste Detail. Doch das gibt es eben bei den Billigheimern von Palit, Inno3D & Co. nicht. Das fängt bei der Verpackung an und hört bei der Optik und Haptik der Karte auf. Wenn du ein Apple Produkt kaufst, erwartest du auch von Anfang bis Ende Premium, warum bei derart teuren Grafikkarten dann aber nur relativiert und mit den Schultern gezuckt wird, kann ich bei bestem Willen nicht nachvollziehen. Ich hatte bisher nur die Palit 4090 hier und ausgehend von der 3090 Ti Suprim X ist das Teil ein Schlag ins Gesicht bei den angesprochenen Punkten (Verpackung, Optik, Haptik). Das PCB der Palit 4090 ist auch mal eben 1-2 Klassen schlechter als das der 3090 Ti Suprim X.
Wenn du und offenbar einige andere hier damit zufrieden sind über 2000 EUR für eine Grafikkarte auszugeben, die nach Plastikbomber aussieht und nur so nach Rotstift schreit, bitte. Ich erwarte für mein Geld eine entsprechende Gegenleistung.
Sardaukar.nsn
2023-01-03, 19:52:39
Ich bin informiert, keine Sorge...
Dann müsstest du aber auch wissen das die Leute mit den "einfachen" 4090 sehr zufrieden sind. Die Karten sind leise, haben wenig Probleme mit Spulenfiepen oder Rasseln.
War bei Ampere die Suprim noch das Maß der Dinge, ich hatte selber eine. Sieht es bei Ada aktuell richtig mies aus. Eigentlich muss man sagen das alle Custom Karten mit den im nachhinein sinnlos aufgebohrten Spannungswandlern große Probleme mit ihren vielen Bauteilen haben.
Das Nvidia Referenz PCB war schon ein sehr guter Wurf. Natürlich kann man das 450 Watt Powerlimit kritisieren, aber real laufen die Teile eh am besten mit max. 350 Watt.
Viel Kritik ist bei dir halt das subjektive Look&Feel. Immer schwierig das einzusortieren. Es gibt ja auch die Strix-oder-nix Leute die großen Wert auf Marke und Label setzten. Da muss die Strix halt weiß sein, der Rest ist egal. Aber soll halt jeder glücklich werden, so wie er mag ;)
Cubitus
2023-01-03, 19:59:56
Dann müsstest du aber auch wissen das die Leute mit den "einfachen" 4090 sehr zufrieden sind. Die Karten sind leise, haben wenig Probleme mit Spulenfiepen oder Rasseln.
War bei Ampere die Suprim noch das Maß der Dinge, ich hatte selber eine. Sieht es bei Ada aktuell richtig mies aus. Eigentlich muss man sagen das alle Custom Karten mit den im nachhinein sinnlos aufgebohrten Spannungswandlern große Probleme mit ihren vielen Bauteilen haben.
Suprim haben durch die Bank spulenfiepen.
Kannst überall lesen, msi Forum, Reddit, Luxx oder CB
Hab selber eine und leise ist die nicht. Es ist für mich okay durch uv ist es ein wenig besser geworden zudem nutze ich Kopfhörer und streame nicht, würde mir die Karte aber nicht wieder kaufen
Die Leistung passt bei der Karte, 2805 MHZ bei 0.96 mv und +1300 MHz RAM.
Will mir jetzt deswegen auch keine neue Karte holen und alles erneut aufwendig auf Stabilität testen.
Siliconlotterrie zieht da mehr. Da würde auch eine schlichtere 4090 ausreichen
Sardaukar.nsn
2023-01-03, 20:05:55
@Cubitus: Deswegen habe ich ja gerade die Suprim angesprochen. Ich hatte zwei Jahre ein 3080 die perfekt war. Mit der 4xxx Generation hat sich das Blatt aber 180° gedreht und diese Karten gehören mit Abstand zu den Lautesten. Bzw. die Kunden sind oft sehr unzufrieden damit.
Cubitus
2023-01-03, 20:13:11
@Cubitus: Deswegen habe ich ja gerade die Suprim angesprochen. Ich hatte zwei Jahre ein 3080 die perfekt war. Mit der 4xxx Generation hat sich das Blatt aber 180° gedreht und diese Karten gehören mit Abstand zu den Lautesten. Bzw. die Kunden sind oft sehr unzufrieden damit.
Absolut, auch aufgrund der positiven 3080/3090 Berichte dachte ich die suprim wäre eine gute Alternative zur FE.
Aber joa das ist nix diese Generation
Lawmachine79
2023-01-03, 20:29:28
und diese Karten gehören mit Abstand zu den Lautesten.
Naja, dafür sind es aber auch die teuersten Karten.
hq-hq
2023-01-03, 20:41:17
gabs denn irgendwo mal die RTX 4090 iChill Frostbite zu kaufen? eigentlich hätte ich gern wieder die FE aber dann muss ich wieder umbauen
Lowkey
2023-01-03, 20:59:00
RTX 4090 iChill Frostbite hat wohl kein hohes PT und daher gab es Proteste.
hq-hq
2023-01-03, 21:33:57
RTX 4090 iChill Frostbite hat wohl kein hohes PT und daher gab es Proteste.
sag bloß das Bauer Video hat das Marketing ruiniert und es werden keine zu uns geschickt ^_^
aceCrasher
2023-01-03, 22:07:41
Ich bin informiert, keine Sorge. Referenz (sofern Nvidia eine liefert) ist die FE. Mir geht es zudem nicht nur um die Kühler sondern primär das PCB. Und was die Hersteller dem potentiellen Kunden hier verkaufen ist ehrlich gesagt eine Frechheit bei dem Preis. Ausgehend von der FE wird besonders bei Palit, Inno3D und Gainward auf deutlich weniger Phasen, weniger/schlechtere Kondensatoren und billigere Wandler sowie Controller gesetzt.
Die Frage die man sich hier stellen sollte ist: Ist das Referenz-PCB scheiße, oder sind die Suprim und Strix PCBs sinnloser Overkill? Ich wiederhole nochmal, die 4090 skaliert nicht wirklich über 450W, spätestens nach 500W tut sich gar nichts mehr. Und für 450W ist das Ref-Pcb mit seinen 14x 55A Phasen völlig ausreichend. Als eine Frechheit empfinde ich für 2000€ eine pfeifende Grafikkarte im Rechner zu haben.
Das hat aktuell so kurz nach dem Launch erst mal keine Auswirkungen, doch wie sieht es in 2 Jahren aus? Durch die billigeren und in der Anzahl reduzierten Komponenten werden die vorhandenen stärker beansprucht und laufen womöglich noch mit höheren Temperaturen. Hättest du Bock darauf, dass deine 2000 EUR+ Karte nach dem Ende der Garantie das Zeitliche segnet? Ich jedenfalls nicht.
Falls du hier von der Belastung der Spannungsversorgung redest: Da musst du dir keine Sorgen machen. Gehen wir bei 450W @1.0V aus (mehr Spannung als real meistens anliegt) ist eine einzelne Phase mit ~32A belastet, wobei sie etwa ~3.25W Hitze ausstößt (laut AOZ Dokument). 3.25W sind bei zusätzlicher Kühlung durch die Baseplate völlig unproblematisch. So wie du dass schreibst müsste eigentlich jede zweite Karte innerhalb von kürzester Zeit verrecken, die allermeisten VRMs sind viel härter auf Kante genäht als das 4090 Referenz PCB es ist.
Mir ist die Liste im Luxx bekannt, ebenso die verstärkt auftretenden Meldungen bei der Suprim X und Strix. Wie immer melden sich die Leute mit Problemen am lautesten zu Wort, versucht man das auf die Gesamtzahl an verkauften Suprim und Strix Karten hochzurechnen ist es aber wohl kein grundsätzliches Problem. Als Basis nehme ich die Zahlen von Mindfactory, sonst veröffentlicht leider kein Händler genaue Angaben.
Ist aber schon seltsam dass von 22 Suprim Nutzern 20 meinen dass das Fiepen sie stört, findest du nicht? Mir kommt es nämlich so vor als würden die meisten 4090 Suprims fiepen, nicht nur ein kleiner Prozentsatz. Wieso sollten sich sonst deiner Logik nach all die Nutzer anderer Karten, die nicht fiepen, im HWL Thread melden?
r3ptil3
2023-01-04, 17:52:28
Wie erklärt sich eigentlich eine knapp 500 Euro hohe Preisdifferenz zwischen einer Gigabyte Windforce RTX 4090 und einer ASUS Strix OC RTX 4090?
Gleicher Shop natürlich, aber ist sowieso fast überall ähnlich.
Sardaukar.nsn
2023-01-04, 19:26:29
Nach dem EVGA weg ist und die Suprim auch nicht mehr so toll ist, bleibt eigentlich nur die Strix als "top dog". In weiß gerne auch noch mal ein paar Scheine mehr.
DaHansman
2023-01-05, 07:31:04
Ich denke auch das das der Name macht. Der "Asus" Preisaufschlag ist schon krass. Wenn man das dann auf die FE runter bricht, sind das dann ja nochmal paar Euro mehr.
Lehdro
2023-01-05, 08:20:40
Nach dem EVGA weg ist und die Suprim auch nicht mehr so toll ist, bleibt eigentlich nur die Strix als "top dog". In weiß gerne auch noch mal ein paar Scheine mehr.
Die Strix fiept aber auch.
Es bleibt nur die Gigabyte Aorus Master.
Also ich bin mit meiner Trinity OC nach nun paar Wochen voll zufrieden.
Wird auch die Referenzplatine sein.Pfiept nicht und rattert nicht.
Ich lass die auf 70% laufen und hab die Lüfterkurve angepasst.
Ätznatron
2023-01-05, 09:13:54
Also ich bin mit meiner Trinity OC nach nun paar Wochen voll zufrieden.
Wird auch die Referenzplatine sein.Pfiept nicht und rattert nicht.
Ich lass die auf 70% laufen und hab die Lüfterkurve angepasst.
Auf 70 %? Anpassung?
Ja, so soll es sein beim "Halo"-Produkt.
Sardaukar.nsn
2023-01-05, 09:32:24
75% müsste max. ca. 350 Watt sein. Also genau im Sweetspot :up:
In dem Bereich ist die Effizienz FPS/W am höchsten. Trifft aber auch für die anderen Ada Karten zu: https://i.imgur.com/wCnm9WG.jpg
aceCrasher
2023-01-05, 12:13:41
Auf 70 %? Anpassung?
Ja, so soll es sein beim "Halo"-Produkt.
Das Tolle an der 4090 ist, dass sie selbst mit 70% PL noch jeder anderen Karte meilenweit überlegen ist.
Cubitus
2023-01-05, 17:55:13
Ich habe jetzt 3 UV Settings, alle rockstable.
Speicher bei jedem Setting +1300 Mhz
Zwei Öko-Settings
2610@0,89 mv
2700@0,92 mv
Beides mit den Ziel die Karte bei Vollauslastung unter 300 Watt zu halten.
Spiele ja mit DL-DSR und da läuft die 4090 oft bei 99 Prozent.
Öko-Setting 1 wird genommen,
wenn die Karte locker die 100 FPS schafft und auch hält, max ~280 Watt, oder die Frames so absurd hoch sind (FG) das locker dieses Setting ausreicht.
Öko-Setting 2 wird genommen wenn das Spiel nicht immer die 100 FPS erreicht,
aber trotzdem noch gut spielbar und flüssig ist und die Min FPS etwas höher sein sollen.
max ~280-305 Watt
Zuwachs ca 5 FPS gegenüber Setting 1
Ein Performance UV Setting mit Stock Takt: 2805 Mhz@0,96 mv
max ~350 Watt bis 400 Watt --> Wenn Leistung sein muss
Zuwachs gegenüber Setting 2 ca 5-6 FPS
Zwischen Öko Setting 1 und Perf-Setting liegen ~10 FPS
Getestet mit Witcher 3 und Chernobylite und Port Royal mit Max Config bei 3440*1440
Jorgenichtson
2023-01-05, 19:04:16
Sehr aufschlussreich. Danke dir!
Colin MacLaren
2023-01-06, 11:36:25
Hab mal Overwatch 2 probiert, alle Regler nach rechts.
Unlimitiert: ca 430fps und 430W Verbrauch laut Afterburner - trotz undervolting.
Gsync @ 118fps: 80W Verbrauch @4K :freak:
Lowkey
2023-01-06, 11:37:15
Wo bleibt dein Mini-Review der Manli?
Cubitus
2023-01-06, 13:17:50
Hab mal Overwatch 2 probiert, alle Regler nach rechts.
Unlimitiert: ca 430fps und 430W Verbrauch laut Afterburner - trotz undervolting.
Gsync @ 118fps: 80W Verbrauch @4K :freak:
Bei UV lässt sich die Standard-Taktung problemlos weit unter 1 Volt betreiben.
Müsstest mal etwas ausprobieren.
Zusätzlich natürlich FPS-Limiter rein oder DLSS auf Qualität.
Drückt ebenfalls den Verbrauch.
mike49
2023-01-06, 15:57:37
Unlimitiert: ca 430fps und 430W Verbrauch laut Afterburner - trotz undervolting.
In dem Fall hilft das UV nur um höhere Taktstufen zu halten ohne ins Powerlimit zu laufen.
Am effektivsten Stromsparen tut man immer noch mit FPS-Limiter. Habe ich global auf 118fps stehen, mehr brauchts nicht.
dargo
2023-01-06, 16:31:46
Weiß eigentlich einer warum die 4090FE im Furmark bei ca. 450W (offizielle Angabe von NV) nicht dicht macht? Die säuft da fast 500W.
https://youtu.be/N-FMPbm5CNM?t=1062
Bei der 4080FE passt es mit 320W noch, die Karte bleibt knapp drunter.
Tesseract
2023-01-06, 17:13:25
meine macht bei ~446W board power dicht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.