Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
11
12
13
14
15
16
17
Linmoum
2022-10-24, 00:13:25
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-397#post-29506896
Da hatte auch mal jemand ein paar Karten getestet. :D Den Eindruck zu Gigabyte kann ich definitiv bestätigen (wenn es auch die Gaming OC bei mir und nicht Master ist, aber die Master hat nur mehr Phasen, PCB ist sonst gleich, passen auch dieselben Blöcke für beide) und Asus/MSI scheinen dieses Mal wirklich die Krawallmacher zu sein. Gerade bei MSI kurios, werben sie doch extra mit ihren tollen Spulen. :D
Jorgenichtson
2022-10-24, 00:15:30
Gerade bei MSI kurios, werben sie doch extra mit ihren tollen Spulen. :D
Ja eben!
r3ptil3
2022-10-24, 00:18:29
@Linmoun
Du meinst du die ASUS TUF und nicht die Strix, richtig?
Linmoum
2022-10-24, 00:30:09
Sowohl als auch, von der liest man auch im Luxx ähnliches, wie er es ja auch am Ende bei der Strix selbst noch schreibt.
Jorgenichtson
2022-10-24, 00:31:26
Zur ASUS TUF OC wurde in einem Review auch ein dezentes Spulenfiepen erwähnt (evtl. gibt's seitens der User hier andere Eindrücke). Bzgl. Strix habe ich noch nichts derartiges gelesen.
Edit: Okay Strix also auch siehe Link von Linmoum: https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-397#post-29506896
Spulenfiepen Hardwareluxx: 81085
Sardaukar.nsn
2022-10-24, 07:02:30
Es scheint aber auch Karten zu geben die okay sind. Meine Asus TUF non-oc am 850W Seasonic macht keine Geräusche. Dabei bin ich mit der externen 0-db Wasserkühlung sehr kritisch in der Hinsicht.
Ein Freund berichtete mit zufrieden das seine Strix die leiseste Strix seit drei Generationen ist.
Cherubim
2022-10-24, 07:45:13
Ich bin mal gespannt, ob es einen Wasserblock geben wird, der in mein Gehäuse passt oder ob ich wechseln muss.
Niall
2022-10-24, 08:04:49
Ich bin mal gespannt, ob es einen Wasserblock geben wird, der in mein Gehäuse passt oder ob ich wechseln muss.
Du meinst optisch? Größentechnisch sollte doch jeder WB deutlich schlanker sein als die Luftkühl-Trümmer. :D
Cherubim
2022-10-24, 09:03:57
Ich meine in der Tiefe.
Die Tuf passt jetzt schon gerade so (mit ungesundem Biegeradius am Stecker) in das O11 XL.
Da ist nicht viel Platz zur Seitenwand für Schlauchfittings.
und die Karte per Riser hinzustellen geht auch nicht, da ich eine 10G NIC und eine Soundkarte installiert habe.
Ich bin mal gespannt, ob es einen Wasserblock geben wird, der in mein Gehäuse passt oder ob ich wechseln muss.
Watercool hat gerade wieder Renderings von einem Block mit Anschlüssen auf der Block Oberseite präsentiert.
Allerdings nur FE bis jetzt.
https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/post-29506479
Niall
2022-10-24, 09:16:53
Ich meine in der Tiefe.
Die Tuf passt jetzt schon gerade so (mit ungesundem Biegeradius am Stecker) in das O11 XL.
Da ist nicht viel Platz zur Seitenwand für Schlauchfittings.
und die Karte per Riser hinzustellen geht auch nicht, da ich eine 10G NIC und eine Soundkarte installiert habe.
Ah verstehe. Ich drück' die Daumen. :D
Sardaukar.nsn
2022-10-24, 09:18:23
Ich meine in der Tiefe.
Die Tuf passt jetzt schon gerade so (mit ungesundem Biegeradius am Stecker) in das O11 XL.
Das sind die Maße des Bykski Block für die 4090 TUF/Strix. https://i.imgur.com/B6lRrQ8.jpg
Kannst dier ja mal eine Schablone bauen. Kein Spaß, hab ich auch schon mal gemacht vor einem Wakü Umbau.
Deutscher Shop für den Block: https://ezmodding.com/de/waterblocks/GPU/ASUS/N-AS4090STRIX-X
Die haben leider ein riesiges Terminal :-(
Das von EKBW ist kürzer. Aber wie gesagt … Watercool :-)
Cubitus
2022-10-24, 09:30:05
Bzgl Spulenfiepen
im Luxx wird auch eine Liste erarbeitet: Keine Gigabyte dabei :)
https://www.hardwareluxx.de/community/threads/rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/
Sardaukar.nsn
2022-10-24, 09:31:30
Ja, an der kurzen Seite raus wäre echt schön. Alphacool hat ja leider noch nichts für die TUF/Strix angekündigt, da wäre ich schon noch interessiert.
Dort gibt es ein kurzes Terminal https://www.alphacool.com/shop/grafikkarten-wasserkuehler/zubehoer-ersatzteile/27116/alphacool-eisblock-aurora-terminal-flat-straight-acetal?c=20538
Auch sehr geil, leider nur für die Referenz bzw. Inno Karten: https://www.alphacool.com/shop/grafikkarten-wasserkuehler/nvidia-fullsize/30379/alphacool-es-geforce-rtx-4090-reference-design-mit-backplate
Cherubim
2022-10-24, 09:52:32
Super!
Dann hoffen wir mal, das es auch für die Asus Versionen kommt.
Das ist ja kein seltenes Problem.
arcanum
2022-10-24, 14:15:02
Nutze ein 750W Netzteil. Selbst mit OC kein Thema. Aber 600W :freak:
da müsste man die 4090 schon auf 300w limitieren, damit man einigermaßen auf der sicheren seite ist. mit 600W hat man wahrscheinlich max ~500w kombiniert auf den 12v rails. 600W auf 12v die man in der regel mit einem guten 750w netzteil erreicht sind mMn das minimum sofern man keine TDP-offene intel cpu betreibt. ich werde die 4090 wahrscheinlich miit meinem be quiet 750w mit max. 350w betreiben da der sweet spot der 4090 bei aktuellen spielen bei 300-330w zu liegen scheint, ich aber auch mit UV keine starke taktabsenkung in kaufen nehmen will wenn die TDP mal doch limitiert.
am ende kann man ja mit einfachen mitteln sehen was der rechner aus der wand saugt. bei 600w würde ich z.b. nicht über 500w aus der wand gehen, dann hat man mit ~25% ausreichend puffer damit das NT nicht so schnell altert.
bevor kommentare zu leistungsspitzen kommen: die scheinen seit der 3090ti geschichte zu sein und bei der 4090 gab es auch keine auffälligkeiten.
[MK2]Mythos
2022-10-24, 14:26:12
Eine sehr interessante Analyse des wegschmelzenden 12VHPWR Connectors. Wer um himmels willen hat gedacht, dass dieser Schrott eine gute Idee wäre? :freak:
kRkjUtH4nIE
r3ptil3
2022-10-24, 14:31:04
Hat irgendjemand eine RTX 4090 mit einem ATX 3.0 Netzteil im Einsatz?
FastAndy
2022-10-24, 14:34:50
ja ich
werde aber wieder mein altes einbauen, weil ich nicht weiß ob die karte nicht deshalb summt
Mythos;13147957']Wer um himmels willen hat gedacht, dass dieser Schrott eine gute Idee wäre? :freak:[/URL]naja youtube ist viel clickbetteln und es wird viel unnötig dramatisiert. es gibt doch diesen deutschen youtube spinner (Ignatz oder wie der heißt), der sich gerne wichtig macht und doch auch ein drama aus den 3090 FE speichertemperaturen gemacht hat (und was weiß ich noch allem). daraufhin haben doch zig leute die karten zerlegt und irgendwas rumgebastelt. so ein unnötiger schwachsinn
keine einzige karte ist hopps gegangen in den 2 jahren, aber seine lemminge glauben ihm halt
r3ptil3
2022-10-24, 14:35:59
ja ich
Welches?
FastAndy
2022-10-24, 14:40:58
asus thor irgendwas 1600watt
r3ptil3
2022-10-24, 14:45:58
asus thor irgendwas 1600watt
Ist aber kein ATX 3.0 Netzteil.
Dural
2022-10-24, 14:48:24
Ist das wirklich ein 600Watt Kabel?
Es fehlen zwei Pins beim kleinen Stecker, laufen die 4090 damit nicht automatisch auf 450Watt fix?
FastAndy
2022-10-24, 14:49:58
Ist aber kein ATX 3.0 Netzteil.
wie nicht? ich hab das doch extra deshalb gekauft. oder verwechsele ich das gerade mit pcie 5? :confused:
https://www.caseking.de/asus-rog-thor-1600t-gaming-80-plus-titanium-netzteil-modular-pcie-5.0-modular-pcie-5.0-modular-neas-015.html
Linmoum
2022-10-24, 14:52:36
Du verwechselst das. ATX 3.0 sind aktuell bislang nur diese gelistet:
https://geizhals.de/?cat=gehps&xf=19420_3.0&sort=p&hloc=at&hloc=de&v=e
dreas
2022-10-24, 14:54:21
Das Review aus der Praxis, wers noch nich kennt.
sC9fo2ZIbmE
r3ptil3
2022-10-24, 14:55:15
Du verwechselst das. ATX 3.0 sind aktuell bislang nur diese gelistet:
https://geizhals.de/?cat=gehps&xf=19420_3.0&sort=p&hloc=at&hloc=de&v=e
Da fehlt noch das erste ATX 3.0 Netzteil von ASUS:
ASUS SFX-L Loki (750-1000W)
Auf dieses warte ich und sollte die nächsten Tage geliefert werden.
Radeonfreak
2022-10-24, 15:33:46
Ist das wirklich ein 600Watt Kabel?
Es fehlen zwei Pins beim kleinen Stecker, laufen die 4090 damit nicht automatisch auf 450Watt fix?
Nein. Bis 600 Watt.
Dural
2022-10-24, 20:01:28
Also bei mir waren 3x pci-e 8pin fix 450w, eine erhöhung war nicht möglich.
Ich habe das auf ein zubehör Kabel weiter vorne bezogen, dort fehlen beim 4 Pin Daten Stecker zwei Kabel, wie will die Grafikkarte so erkennen das 600watt möglich sind?
Radeonfreak
2022-10-24, 20:07:33
Hab ja auch so ein Kabel mit 2 PCIE Steckern.
Siehe
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13143599&postcount=1071.
Bin ja kein Elektriker aber es geht ganz locker flockig mehr als 450 Watt. Bis 600 Laut Asus Support und ich hab selbst schon über 500 Watt gemessen.
Das Netzteil kann das und das kabel auch. Feine Sache.
Dural
2022-10-24, 20:09:25
Und man kann über 450watt einstellen?
Radeonfreak
2022-10-24, 20:10:02
Wie einstellen? Die Grafikkarte saugt das halt.
BiG OnE
2022-10-24, 20:59:51
@Dural
Man kann mit 2 Kabel 4 Zustände darstellen:
2 Kabel auf High/nicht angeschlossen = 150W
Linke Kabel auf Masse = 300W
Rechte Kabel auf Masse = 450W
Beide Kabel auf Masse = 600W
Ex3cut3r
2022-10-24, 22:06:22
Wasn Schrott. ;D
kRkjUtH4nIE
RoNsOn Xs
2022-10-24, 22:33:16
Hier noch einer:
https://www.reddit.com/r/nvidia/comments/yc6g3u/comment/itmjt9d/?utm_source=reddit&utm_medium=web2x&context=3
NV is doing well. Weiß man schon was AMD verwenden wird?
anorakker
2022-10-24, 23:05:33
Es ist im Design der Stecker auch überhaupt nicht vorgesehen, dass da soviel Kabel Sleeve und Schrumpfschlauch dran hängt. Das macht die ganze Konstruktion unnötig steif und anfällig auf ungleichmässige Krafteintragungen.
Leider ist das Design auf Kante genäht, verstehen tu ich den Unsinn bei unsinnigen 2-3kg Metallkühler an der Stelle auch nicht wirklich.
RoNsOn Xs
2022-10-24, 23:20:38
Man ließt vermehrt von Bananenkarten im luxx. Hier noch gar nicht. Rückblickend wird NV mit den gesamten Problematiken dieser Gen, zumindest aber mit dieser Karte, der Spott gesichert sein.
r3ptil3
2022-10-24, 23:32:40
Man ließt vermehrt von Bananenkarten im luxx. Hier noch gar nicht. Rückblickend wird NV mit den gesamten Problematiken dieser Gen, zumindest aber mit dieser Karte, der Spott gesichert sein.
Nur so nebenbei: Das Spulenrasseln, fiepen etc. gab es schon immer.
Ex3cut3r
2022-10-24, 23:33:47
Wer kam eigentlich auf die Maximal 600W durch so einen kleinen Stecker zu jagen? Wundert mich das so ein Brandherd in DE zugelassen wurde. Jetzt muss man halt aufpassen wie stark gekrümmt das Kabel beim Einbau ist, und dann beten.
Gut das AMD anscheinend einfach 3x8Pin vebaut. Alt, aber das hat sich bewährt, warum immer das Rad neu erfinden @ Nvidia? Wir wissen das ihr euren Idol Apple nacheifert.
why_me
2022-10-24, 23:34:58
@Dural
Man kann mit 2 Kabel 4 Zustände darstellen:
2 Kabel auf High/nicht angeschlossen = 150W
Linke Kabel auf Masse = 300W
Rechte Kabel auf Masse = 450W
Beide Kabel auf Masse = 600W
Oder man schnappt sich einen Lötkolben und etwas draht und zieht beide Sense Pins auf der Grafikkarte gegen masse. Verstehe den Sinn dieser 450W Adapter auch nicht wirklich. Die sind doch auch nur dazu da, dass die anderen Karten mit 600W teurer verkauft werden könne.
Ob man den 12 Pin Stecker wirklich so auslasten sollte, dass muss jeder selbst wissen. Die kontakte des 12 Pin steckers bei 600W sind deutlich näher am Limit als die Kontakte der dann "überlasteten" drei 8 Pin stecker
RoNsOn Xs
2022-10-24, 23:38:29
Nur so nebenbei: Das Spulenrasseln, fiepen etc. gab es schon immer.
Cole Whine, Steckerproblematik, Bananenkarten hat summa summarum schon ein bitteres Nebengeschmäckle. Und das sage ich als schon immer NV-Besitzer.
Nach jahrzehntelanger Erfahrung hätten Sie das definitiv besser hin bekommen können. Am Ende steht kein nonplus-ultra Produkt für selbigen Preis.
r3ptil3
2022-10-24, 23:42:57
Wer kam eigentlich auf die Maximal 600W durch so einen kleinen Stecker zu jagen? Wundert mich das so ein Brandherd in DE zugelassen wurde. Jetzt muss man halt aufpassen wie stark gekrümmt das Kabel beim Einbau ist, und dann beten.
Gut das AMD anscheinend einfach 3x8Pin vebaut. Alt, aber das hat sich bewährt, warum immer das Rad neu erfinden @ Nvidia? Wir wissen das ihr euren Idol Apple nacheifert.
https://m.media-amazon.com/images/I/711935oOo0L._AC_SL1500_.jpg
Spring
2022-10-25, 00:58:47
https://m.media-amazon.com/images/I/711935oOo0L._AC_SL1500_.jpg
War der FX 5900 Vergleich doch nicht so falsch.
Performance ist da, aber dafür fackeln ggf die Stecker ab.
Für den Preis schon ätzend.
Man ließt vermehrt von Bananenkarten im luxx. Hier noch gar nicht. Rückblickend wird NV mit den gesamten Problematiken dieser Gen, zumindest aber mit dieser Karte, der Spott gesichert sein.
Bin gespannt als was die "4080 12GB" dann demnächst auftaucht. Die Designs/Produktion der Kühler werden sie wohl kaum wegwerfen.
Sardaukar.nsn
2022-10-25, 06:43:23
Man ließt vermehrt von Bananenkarten im luxx. Hier noch gar nicht. Rückblickend wird NV mit den gesamten Problematiken dieser Gen, zumindest aber mit dieser Karte, der Spott gesichert sein.
Da meine TUF ja ansonsten schnell und still ist, nenne ich sie liebevoll Silent Banana. https://imgur.com/a/YAxFJ0f
http://pa1.narvii.com/6445/bf983bec815a9377a8122bf50a9d004e3e7e2620_00.gif
Piefkee
2022-10-25, 07:26:40
https://m.media-amazon.com/images/I/711935oOo0L._AC_SL1500_.jpg
Du hast einfach keine Ahnung…
SamLombardo
2022-10-25, 07:36:32
Hier noch einer:
https://www.reddit.com/r/nvidia/comments/yc6g3u/comment/itmjt9d/?utm_source=reddit&utm_medium=web2x&context=3
NV is doing well. Weiß man schon was AMD verwenden wird?
Würde erstmal schauen. Im Moment gibt es nur diesen einen(!) reddit post, und auf den beziehen sich auch alle Videos. Ob es ein verbreitetes Problem oder ein Einzelfall von defekter Hardware ist, werden wir demnächst sehen.
[MK2]Mythos
2022-10-25, 08:08:49
Ich würde begrüßen wenn Leute wie Igor, oder 8auer die Karte Volllast laufen lassen würden, den Stecker mit einer Wärmebildkamera erfassen und dann verschiedene abknickungen testen würden.
Wie breit muss ein Gehäuse eigentlich sein wenn man die Karte horizontal mit vorschriftskonformer Stecker/Kabelpositionierung betreiben will?
qu3x^
2022-10-25, 08:49:20
Hier noch einer:
https://www.reddit.com/r/nvidia/comments/yc6g3u/comment/itmjt9d/?utm_source=reddit&utm_medium=web2x&context=3
NV is doing well. Weiß man schon was AMD verwenden wird?
2x 8Pin wenn die Leaks stimmen sollen nur die "420"W sind sehr fishy an dem leak.
Rolsch
2022-10-25, 08:53:38
Im BQ Pure Base 500 passt alles ohne biegen und knicken rein und das ist 23cm breit.
BlacKi
2022-10-25, 09:36:57
Gut das AMD anscheinend einfach 3x8Pin vebaut. Alt, aber das hat sich bewährt, warum immer das Rad neu erfinden @ Nvidia? Wir wissen das ihr euren Idol Apple nacheifert.
der neue stecker ist nicht auf nvidias mist gewachsen. sie haben das pci sig konsortium beauftragt, einen stecker zu standardisieren der 600w abkann.
und dieser stecker ist dabei rausgekommen.
ob die adapter vom pci sig geprüft wurden kann ich dir nicht sagen.
um 600w mit den alten 8pin kabeln zu ermöglichen, bräuchtest du 4x 8 pin kabel. das ruiniert den luftstrom und der ist wichtig um 600w abführen zu können.
r3ptil3
2022-10-25, 09:45:16
Du hast einfach keine Ahnung…
Jungchen das war ein Witz.
Linmoum
2022-10-25, 09:46:30
Mit 3x8pin hätte man problemlos Karten mit 500W bringen können. Reicht bei Ada völlig, wie man mittlerweile weiß. Die 4090 zieht ja ootb oftmals nur 3xxW.
Das wird gerade hinsichtlich der unbedarften Nutzer bestimmt noch richtig lustig...
RoNsOn Xs
2022-10-25, 10:26:33
Mal schauen was die User über die kommenden Jahre berichten werden.
Matrix316
2022-10-25, 10:31:27
Wer kommt auf die Idee drei dicke Stecker mit einem kleinen dünneren zu ersetzen, der dazu noch mehr Watt aushalten muss? :ugly:
Die Frage ist, ob das mit einem neuen Netzteil und speziellem Kabel dann besser wird.
Tangletingle
2022-10-25, 10:34:59
Oder man schnappt sich einen Lötkolben und etwas draht und zieht beide Sense Pins auf der Grafikkarte gegen masse.
Da reicht auch ne gebogene Büroklammer die man in den Stecker drückt...
Cubitus
2022-10-25, 10:46:17
Joa das passiert wenn fette Karten in ein kleines Gehäuse gepresst werden.. mehr warnhinweise wären nötig gewesen. Nichtsdestotrotz weiß man jetzt Bescheid.. bei wie vielen verkauften karten ist es jetzt vorgekommen? Zwei bis 3 Fälle die im Netz kursieren.. Hab mir von kabel mod den Stecker bestellt.. werde beim Einbau dann drauf achten den nicht so zu knicken.. bzw hab die dickere Variante bestellt da ich mir noch dachte je dicker desto besser..
Der neue Stecker ist an sich schon eine gute Sache da platzsparender..
Linmoum
2022-10-25, 10:58:42
Wissen denn auch die Bescheid, die nicht in Nerd-Foren rumhängen?
Davon ab ist z.B. das O11D XL sicherlich kein Mini-Gehäuse, aber die Seite geht ohne knicken des Steckers schon vor den 35mm definitiv nicht mehr zu.
why_me
2022-10-25, 11:04:31
2-3 die bekannt sind, in 2 Wochen.
Gerade in höhere Widerstand im Stecker verschlechtert sich mit der Zeit durch steigende Temperaturen immer weiter. Kann also noch spannend werden, die nächsten paar Monate.
unl34shed
2022-10-25, 11:14:35
der neue stecker ist nicht auf nvidias mist gewachsen. sie haben das pci sig konsortium beauftragt, einen stecker zu standardisieren der 600w abkann.
Du meinst die PCI SIG bei der Nvidia auch Member ist? Würde mich wundern, wenn sie nicht die treibende Kraft hinter dem neuen Stecker waren. Haben mit der 30er Serie ja vorgelegt.
und dieser stecker ist dabei rausgekommen.
ob die adapter vom pci sig geprüft wurden kann ich dir nicht sagen.
Das Problem ist nicht der Adapter, sondern der MicroFit Stecker, der am Rand der Spezifikation betrieben wird und das bereits mit dem größt möglichen Kabelquerschnitt. Beim alten MiniFit hatte man viel mehr Reserven (100%).
Hinzu kommt noch die kürzere Form, was den Stecker mechanisch auch weniger stabil macht.
Den 4fachen Strom über einen kleineren Stecker jagen ist halt irgendwie idiotisch.
um 600w mit den alten 8pin kabeln zu ermöglichen, bräuchtest du 4x 8 pin kabel. das ruiniert den luftstrom und der ist wichtig um 600w abführen zu können.
Man hätte auch einfach einen 12 pin MiniFit nehmen können, das hätte für bis zu 780W* (10+2 Sense Pins) gereicht, also 600W + Reserven, wäre mechanisch nicht so anfällig, hätte dickere Kabel ermöglicht und wäre dabei kaum größer ausgefallen, vor allem wenn man bei 600W eh einen 4 Slot kühler verbaut ist die Größe sowas von egal.
*Mit den 4 Zusatzpins wie beim 12VHWR und allen anderen als Power Pins wären es sogar 936W
vinacis_vivids
2022-10-25, 13:29:01
THE LAST OF US 4K RPCS3 PS3 Emulator | RTX 4090 | i9 13900K 5.8GHz
B82nIJOljNc
Sehr teure PS3-Emulation mit der 4090.
SamLombardo
2022-10-25, 14:12:21
Ich habe jetzt schon mehrfach gelesen, dass manche ein gesenktes Powerlimit sagen wir von 80% mit einem Overclocking zum Beispiel +200 gpu und +1000 Ram kombinieren und damit am besten fahren. Das wäre dann, wenn stabil, von der Wirkung ähnlich wie UV, weil die Karte einen erhöhten Takt mit einer begrenzten Leistungsaufnahme erreicht, aber ohne die Nachteile des Curve Undervolting. Was ist denn davon zu halten? hat so was schon mal jemand probiert?
Piefkee
2022-10-25, 14:14:34
https://twitter.com/hms1193/status/1584873126131036162?s=20&t=RUBsdFDpGgoY5HOlFgo63g
https://pbs.twimg.com/media/Ff6ZslEWIAALEul?format=jpg&name=large
Und hier die nächste....
Blöde Frage, ist die Karte (das PCB) so hoch, dass es beim ATX Case recht nah an die Scheibe ansteht?
Würde ja bedeuten, dass alle die ihre GPU normal mounten ihr Kabel abbiegen müssen?
Troyan
2022-10-25, 14:17:01
Hängt von der Karte ab. Palit scheint die "schmalste" Custom-Karte zu sein.
Sardaukar.nsn
2022-10-25, 14:18:17
Ich habe jetzt schon mehrfach gelesen, dass manche ein gesenktes Powerlimit sagen wir von 80% mit einem Overclocking zum Beispiel +200 gpu und +1000 Ram kombinieren und damit am besten fahren. Das wäre dann, wenn stabil, von der Wirkung ähnlich wie UV, weil die Karte einen erhöhten Takt mit einer begrenzten Leistungsaufnahme erreicht, aber ohne die Nachteile des Curve Undervolting. Was ist denn davon zu halten? hat so was schon mal jemand probiert?
Genau so verfahre ich mit meiner 4090 TUF. +230 gpu, +1300 mem, 1.1v, bei 75% Powertarget. Volle Leistung wie out-of-the-box, bei wenig Last Boost bis 3 GHz und maximal 340 Watt.
Piefkee
2022-10-25, 14:19:13
Hängt von der Karte ab. Palit scheint die "schmalste" Custom-Karte zu sein.
Ah ok, bin mal gespannt wie es hier weitergeht.
Tritt dass in US vermehrt auf gibts Recall.
Oliver_M.D
2022-10-25, 14:34:21
Ist es eigentlich normal das Custom Lüfter Kurven bei 30% Minimum starten?? https://i.imgur.com/YOZyIQB.png
Ist das üblich bei der 4090, oder hat das nur die ZOTAC Trinity? Meine Palit 1070 hatte das Problem nicht.
Die Lüfter alleine können erstaunlich nervig seien, zumal die Lüfter schon bei 45c anlaufen, im Desktop betrieb..
SamLombardo
2022-10-25, 14:38:54
Genau so verfahre ich mit meiner 4090 TUF. +230 gpu, +1300 mem, 1.1v, bei 75% Powertarget. Volle Leistung wie out-of-the-box, bei wenig Last Boost bis 3 GHz und maximal 340 Watt.
Aah interessant. Wie ist denn das, ist die hohe Voltzahl von 1,1 irgendwie schädlich, wenn man doch im Gegenzug eine deutlich geringere Wattzahl am Ende hat?
....Das versuche ich heute Abend auch mal. mal sehen wie es sich gegen mein Curve Undervolting schlägt.
mironicus
2022-10-25, 14:46:47
Hängt von der Karte ab. Palit scheint die "schmalste" Custom-Karte zu sein.
Wieder mal ein Vorteil für die Gainward/Palit-Besitzer. Die Karte ist nur 142 mm breit. Mein Pure Base 500 DX kann CPU-Kühler bis zu 190 mm Höhe beherbergen. Das Strom-Kabel der RTX 4090 wird durch die Glas-Gehäuseplatte nicht zugedrückt oder verbogen, es ist ausreichend Platz da. :cool:
Troyan
2022-10-25, 14:48:07
Ah ok, bin mal gespannt wie es hier weitergeht.
Tritt dass in US vermehrt auf gibts Recall.
Naja, den Adapter müssten die ersetzen. Wobei ich nicht weiß, wie man es besser machen könnte.
Der Adapter ist ja nur temporäre Lösung bis es Netzteile gibt. Hätte kein Bock ewig vier PCIe-Kabel da dranhängen zu lassen...
Linmoum
2022-10-25, 14:54:23
Wenn man den Adapter ersetzt wird nicht plötzlich ein neues Kabel daraus. Der Stecker bleibt derselbe.
Die Frage ist zum einen, ob dieses kleine Ding bei nahezu 600W realistisch betrachtet überhaupt... geeignet ist und zum anderen, ob wirklich kleinste Biegungen/Knicke schon solche Probleme hervorrufen. Wie gesagt, dann sind native ATX3.0 Netzteile auch irrelevant dafür, der Stecker bleibt derselbe.
Dann braucht es eher grundsätzliche Lösungen wie den 90° Adapter von CableMod.
Ex3cut3r
2022-10-25, 14:55:52
Wer kommt auf die Idee drei dicke Stecker mit einem kleinen dünneren zu ersetzen, der dazu noch mehr Watt aushalten muss? :ugly:
Die Frage ist, ob das mit einem neuen Netzteil und speziellem Kabel dann besser wird.
Tja, gute Frage, frag mal den Ingenieur der diesen Mist entwickelt hat. ;) ;D
unl34shed
2022-10-25, 15:20:05
Naja, den Adapter müssten die ersetzen. Wobei ich nicht weiß, wie man es besser machen könnte.
Der Adapter ist ja nur temporäre Lösung bis es Netzteile gibt. Hätte kein Bock ewig vier PCIe-Kabel da dranhängen zu lassen...
Der 12VHPWR an der Grafikkarte brennt durch, nicht die alten 8pin Stecker. Und das beschädigt sowohl den Adapter, als auch die Grafikkarte.
Die richtigen Kabel nutzen genau den gleichen Molex MicroFit Stecker mit gleich dicken Kabeln (dickere Kabel gehen nicht), also was soll sich dadurch großartig ändern?
Rolsch
2022-10-25, 15:25:30
Man wird vielleicht auf Anfrage von Nvidia einen Winkelstecker umsonst bekommen. (wenn man nachweisen kann das die Bude abgebrannt ist.)
MiamiNice
2022-10-25, 15:28:58
Wenn man den Adapter ersetzt wird nicht plötzlich ein neues Kabel daraus. Der Stecker bleibt derselbe.
Die Frage ist zum einen, ob dieses kleine Ding bei nahezu 600W realistisch betrachtet überhaupt... geeignet ist und zum anderen, ob wirklich kleinste Biegungen/Knicke schon solche Probleme hervorrufen. Wie gesagt, dann sind native ATX3.0 Netzteile auch irrelevant dafür, der Stecker bleibt derselbe.
Dann braucht es eher grundsätzliche Lösungen wie den 90° Adapter von CableMod.
Der Stecker sollte das generell ab können, ist ja spezifiziert. Es schient sich ja "nur" durch Abnutzung oder Winkelkräften der Wiederstand zu erhöhen, was natürlich zu Hitze führt und diese lässt die Kabel schmelzen und damit kommt es zum Kurzen.
Also muss man nur Verhindern das der Widerstand steigt. Ergo ist man mit einem 90° Kabel, am besten direkt von Netzteil, auf der sicheren Seite.
Das ist kein Problem des Steckers, es ist ein Platzproblem, welches niemand bei der Konzeption bedacht hat.
why_me
2022-10-25, 15:49:39
Wie soll man eine 4090 eigentlich ohne das kabel seitlich zu knicken vernünftig einbauen können? Der 12 Pin Stecker auf der Karte ist ja vor der hinteren Kante des Mainboards -> man muss das Kabel immer ein Paar Centimeter nach hinten knicken und übt somit immer eine Seitliche Kraft auf die Pins des Steckers aus.
Ein 12, 14 oder sogar 16 Pin Stecker mit den größeren Mini Fit Steckern hätte doch auch nicht weh getan, oder?
Wie konnte jemand nur glauben, dass es eine gute Idee ist, die vierfache Leistung bei in etwa der gleicher Größe wie ein 8Pin Stecker zu übertragen.
Hätte ja niemand ahnen könne, dass die Temperaturen in einem PC Gehäuse deutlich steigen, wenn dort eine 450+W Karte werkelt und das die kleineren Stecker fragiler sind, als die großen.... so etwas gab es ja noch nie...
Tangletingle
2022-10-25, 16:06:35
Ne neue Revision des 8-pin mit weniger Sensepins hätte es auch getan. Der hätte gesamt genau so viele Pins nur deutlich dickere und der Stecker wäre deutlich weniger anfällig für Scheerkräfte.
Aber die Leute die von Anfang an neuen 12VHPWR Stecker kritisch gesehen haben waren ja alle nur Panikmacher.
w0mbat
2022-10-25, 16:10:33
War der PCI-SIG wohl schon lange bekannt...
Tangletingle
2022-10-25, 16:20:54
War der PCI-SIG wohl schon lange bekannt...
Lol
Linmoum
2022-10-25, 16:21:26
Und lustigerweise hatte auch noch Nvidia das der PCI-Sig gemeldet.
Troyan
2022-10-25, 18:02:06
Be Quiet scheint wohl an das Stromkabel nochmal ranzumüssen: https://twitter.com/aschilling/status/1584919236736081923?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1584919 236736081923%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=
/edit: Das 600W Kabel von Asus ist deutlich verstärkt worden und macht einen viel stabileren Eindruck als das 450W Ding...
ChaosTM
2022-10-25, 18:05:39
600 Watt ist jetzt nicht soo viel. Da haben manche Adapter/Netzteil Hersteller wohl ein paar Cent sparen wollen.
Hat irgendjemand eine RTX 4090 mit einem ATX 3.0 Netzteil im Einsatz?
Ich habe eine 4090 Trinity OC mit dem Gigabyte UD1000GM im Einsatz.
https://abload.de/image.php?img=img_20221025_162357toewz.jpg
r3ptil3
2022-10-25, 18:31:55
Ich habe eine 4090 Trinity OC mit dem Gigabyte UD1000GM im Einsatz.
https://abload.de/image.php?img=img_20221025_162357toewz.jpg
Ist aber nur ein ATX 2.31, oder?
Seasonic TX-1300/1600 sind bspw. ATX 2.53, also erfüllen die schon deutlich strafferen Kritierien.
Niall
2022-10-25, 18:32:40
Bin echt gespannt wie sich das Thema in den nächsten Tagen und Wochen entwickelt und ob es Einzelschicksale bleiben.
Cubitus
2022-10-25, 18:45:00
Bin echt gespannt wie sich das Thema in den nächsten Tagen und Wochen entwickelt und ob es Einzelschicksale bleiben.
Werde erstmal nur den beiliegenden Adapter verwenden.
Im Falle bei einer RMA ich mir nicht nachsagen lassen muss ich habe inkompatible Kabel verwendet..
Niall
2022-10-25, 18:47:50
Werde erstmal nur den beiliegenden Adapter verwenden.
Im Falle bei einer RMA ich mir nicht nachsagen lassen muss ich habe inkompatible Kabel verwendet..
Nachvollziehbar.
Sollte dieses Problem häufiger auftreten wäre dies bei einem min. 2000€ High-End Elektroartikel natürlich ein Armutszeugnis. :freak:
Radeonfreak
2022-10-25, 18:52:39
/edit: Das 600W Kabel von Asus ist deutlich verstärkt worden und macht einen viel stabileren Eindruck als das 450W Ding...
Hast du es jetzt?
Gynoug MD
2022-10-25, 18:56:10
Dann braucht es eher grundsätzliche Lösungen wie den 90° Adapter von CableMod.
Auch wenn es (bis jetzt) noch Einzelfälle sind:
Einfaches Aussitzen bis zur Karten-Revision 2.0, vielleicht wieder mit angewinkeltem Stecker.
:ucoffee:
Für 2000-2500€ hab ich einfach keinen Bock auf Schmorbraten.
Troyan
2022-10-25, 18:58:58
Hast du es jetzt?
Ja, kam heute an. :eek:
Baue morgen das Netzteil um.
Radeonfreak
2022-10-25, 19:00:08
Ja, kam heute an. :eek:
Baue morgen das Netzteil um.
:uup:
Rolsch
2022-10-25, 19:00:12
Es sind bis jetzt 2 oder 3 User? Wenn es wirklich ein Problem gibt müssten sich ja schon bald hunderte melden.
Linmoum
2022-10-25, 19:08:47
Samsung hat damals sogar die später erschienenen "sicheren" Austauschgeräte zurückgerufen. ;)
Die Frage ist nicht, wie viele Leute das Problem tatsächlich schon betrifft, sondern nur ob es real genug ist, um nachhaltig schwere Schäden anrichten zu können.
Ist aber nur ein ATX 2.31, oder?
Seasonic TX-1300/1600 sind bspw. ATX 2.53, also erfüllen die schon deutlich strafferen Kritierien.
Wenn der 16-pin 12VHPWR connector verbaut ist müsste es ja ATX 3.0 sein.
Aber naja.Hauptsache der Kabelsalat ist weg.
qu3x^
2022-10-25, 19:17:23
RDNA3 wird keinen 12HPVR whatever verwenden (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/#update-2022-10-25T17:41)
Troyan
2022-10-25, 19:20:24
Problem ist ja nicht der Anschluss, sondern die Stecker vom Kabel. Der Adapter ist eine Notlösung und wenn die Kabelsteckverbindungen nicht sauber gefertigt sind, kann nVidia ja nichts dafür.
Sardaukar.nsn
2022-10-25, 19:24:37
Ich denke auch das die Karten oft zu breit für normale Gehäuse sind. Wenn man denn versucht die Seitenwand zu schließen, wird das Stromkabel ungesund gequetscht bzw. gebogen.
Seasonic hat einen 90-Grad gewinkelten Stecker gezeigt, der sicher viele Probleme lösen könnte.
https://i.imgur.com/AXiF07b.jpg
Quelle https://t.bilibili.com/720886294898540663
Ex3cut3r
2022-10-25, 19:31:17
RDNA3 wird keinen 12HPVR whatever verwenden (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/#update-2022-10-25T17:41)
Wunderbar, da spart man sich eine menge Stress, brandgefahr, und kosten, da man keine neue Kabel/Adapter oder gleich ein neues 1200W PCIe 5 NT braucht. ;D
ChaosTM
2022-10-25, 19:42:46
Problem ist ja nicht der Anschluss, sondern die Stecker vom Kabel. Der Adapter ist eine Notlösung und wenn die Kabelsteckverbindungen nicht sauber gefertigt sind, kann nVidia ja nichts dafür.
Wenn der Anschluss Richtung Gehäuse geht ist das leider sehr wohl ein (Biege) Problem und bei schlechten Kabeln kanns halt warm werden. Lässt sich aber mit minimal mehr Aufwand verhindern.
T-Stücke wurden schon erfunden..
konkretor
2022-10-25, 19:48:41
Linus trollt etwas :D
https://twitter.com/LinusTech/status/1584963436127129609?s=20&t=TnprZFfheIxvPtsLTCXtQg
Linmoum
2022-10-25, 19:49:13
Der Adapter ist sehr wohl ein Problem von Nvidia. Die PCI-SIG hat zudem eindeutig auf mögliche Probleme nach deren Beobachtungen hingewiesen.
Ein noch größeres Problem wird es dann, wenn es auch mehr und mehr die Kabel der Netzteilhersteller betrifft, die nicht von Haus aus schon gewinkelt sind. Was auch keinen Unterschied zu dem Adapter machen dürfte außer, dass man halt weniger Kabelsalat hat.
Im schlimmsten Fall muss man eine riesige Rückrufaktion starten, im besten Fall nur ein gewinkeltes Kabel verwenden. Wäre wahrscheinlich die eleganteste Lösung, auch, wenn selbst das natürlich unheimlicher Aufwand für Nvidia wäre, das allen Käufern zur Verfügung zu stellen. Dauern würde es wahrscheinlich auch.
DaHansman
2022-10-25, 19:49:52
Macht iwie immer mehr Sinn kein Early Adopter mehr zu sein. Erst investiert man dann in neues Gehäuse und Netzteil und dann brennt es ab.
Ich kann mir aber auch gut vorstellen, dass es ein Anwenderfehler ist. Oder zu lange im Menü von The New World. :D
Troyan
2022-10-25, 19:56:36
Linus trollt etwas :D
https://twitter.com/LinusTech/status/1584963436127129609?s=20&t=TnprZFfheIxvPtsLTCXtQg
Voll cool. Hier mal 3090 mit geschmolzenen PIN: https://www.reddit.com/r/buildapc/comments/scj9dg/graphics_card_8_pin_connector_melted_how_to/
Hier bei einer RX580:https://www.reddit.com/r/gpumining/comments/m503zo/gpu_8pin_melted_inside_gpu_is_there_an_easy_way/
Hier von Cablemod: https://www.overclock.net/threads/cablemod-pci-e-cable-connector-melted-in-my-rtx3090.1795455/
ChaosTM
2022-10-25, 19:57:14
yU4CFhtS95Q
Geht auch mit einem 550W Netzteil - Kind of ;)
r3ptil3
2022-10-25, 19:58:24
RDNA3 wird keinen 12HPVR whatever verwenden (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-schmelzende-stromkabel/#update-2022-10-25T17:41)
Schade, Kabelsalat für eine weitere Generation.
Das einzige Problem ist ja anscheinend nur der Adapter. Wären die Netzteile bzw. die nativen Stromstecker frühzeitig bei den Kunden gewesen, hätte auch niemand den beigelegten Adapter genutzt.
Darum habe ich mein TX-1000 schon im Frühling verkauft.
ChaosTM
2022-10-25, 20:14:33
Warum nicht gleich sowas.. Jesus
CableMod Global Store > CableMod 12VHPWR Right Angle Adapter
https://store.cablemod.com/cablemod-12vhpwr-right-angle-adapter/
Hätte halt ein paar Cents mehr gekostet. So Dumm !
Linmoum
2022-10-25, 20:17:41
Noch mal: Ob Adapter oder nicht ist völlig Wumpe, denn dadurch ist der Stecker kein anderer. Dass die Berichte mit Adapter jetzt kommen ist logisch, da es bisher kaum Kabel von Netzteil-/Drittherstellern in nennenswerten Mengen gibt. Die kommen erst noch.
Das einzige, was hier wirklich Abhilfe schaffen dürfte, ist ein nativer 90° Stecker, wie ihn z.B. Seasonic oder auch CableMod anbieten werden.
why_me
2022-10-25, 20:18:57
Seasonic hat einen 90-Grad gewinkelten Stecker gezeigt, der sicher viele Probleme lösen könnte.
https://i.imgur.com/AXiF07b.jpg
Quelle https://t.bilibili.com/720886294898540663
Wie löst man den eigentlich wieder? Der hebel dafür ist ja unterhalb des Steckers. Stell ich mir irgendwie sehr fummelig vor.
ChaosTM
2022-10-25, 20:21:17
Sag ich ja. Warum nicht gleich solche Kabeln in NTs anbieten und gute T-Adapter sind sicher um Welten besser als das gebogene Klump.
Das Lösen ist einfach. Meine 1080ti ist mit solchen Kabeln angebunden.
add.: das ausbauen ist trotzdem schwer, weil der Noctua DH-14 den Mechanismus zum entriegeln blockiert :)
Ex3cut3r
2022-10-25, 20:33:16
So oft baut man Privat User die Graka ja nicht Komplet aus. Ich sehe da auch große Probleme für Tester wie Raff und Co. die ständig die Graka aus und reinbauen. Das Kabel dort zu verbiegen ist nochmal höher als beim Privat User.
Richtig schöne Kacke, dieser neue Anschluss stand jetzt, aber die werden das garantiert nicht so lassen können.
ChaosTM
2022-10-25, 20:35:29
Ist halt immer die Frage WO man biegt. Direkt am Ansatz der Pins ist ned so gscheit..
Radeonfreak
2022-10-25, 20:36:09
Ich denke trotzdem hier wird ne Menge hyperventiliert und übertrieben. Ich mach mir jedenfalls keine Sorgen mit meinem Kabel.
Linmoum
2022-10-25, 20:46:47
Ich halte das ehrlich gesagt alles andere als für hyperventilieren, wenn ich sowas von der PCI-SIG direkt sehe - im Übrigen auf Hinweis von Nvidia selbst.
https://pbs.twimg.com/media/Ff51wkxaYAE-fRY?format=jpg&name=900x900
Wenn du die >35mm bei deinem Kabel einhalten kannst, würde ich mir vermutlich auch keine Gedanken machen. Aber das ist bei gefühlten 95% aller Gehäuse schlicht unmöglich, wenn man die Seite wieder zu machen will.
Slipknot79
2022-10-25, 21:21:37
Biegeradius:
https://www.hardwareluxx.de/community/attachments/1666713493203-png.807536/ https://www.hardwareluxx.de/community/attachments/1666724040428-png.807619/
Alles qool hier mit den Temps. Nach 1h mit ca 545W konstant. (y)
SamLombardo
2022-10-25, 21:36:03
Biegeradius:
https://www.hardwareluxx.de/community/attachments/1666713493203-png.807536/ https://www.hardwareluxx.de/community/attachments/1666724040428-png.807619/
Alles qool hier mit den Temps. Nach 1h mit ca 545W konstant. (y)
Möglicherweise ist mit dem horizontalen Biegen, wie du es hast und wahrscheinlich die allermeisten user alles OK. Das was man bisher hörte waren alles vertikale Bieger. Aber auch nur so als Idee... wer weiß.
ChaosTM
2022-10-25, 21:37:45
Es gibt bisher nur 2 oder 3 Berichte bezüglich abbrennen .. sollten sich die berichte mehren - call me/us
Rolsch
2022-10-25, 21:40:29
Brennen tut da eh nichts. Es schmilzt und stinkt.
Tangletingle
2022-10-25, 21:45:10
Voll cool. Hier mal 3090 mit geschmolzenen PIN: https://www.reddit.com/r/buildapc/comments/scj9dg/graphics_card_8_pin_connector_melted_how_to/
Hier bei einer RX580:https://www.reddit.com/r/gpumining/comments/m503zo/gpu_8pin_melted_inside_gpu_is_there_an_easy_way/
Hier von Cablemod: https://www.overclock.net/threads/cablemod-pci-e-cable-connector-melted-in-my-rtx3090.1795455/
Du hast die nicht Mal die Zeit genommen um zu checken warum die Stecker abgebrannt sind. Respekt. Bei einem deiner Beispiele war z.b. das pinout durch cablemod falsch ;D
Es gibt bisher nur 2 oder 3 Berichte bezüglich abbrennen .. sollten sich die berichte mehren - call me/us
Es sind zwar deutlich mehr aber wer will das schon wissen...
Sardaukar.nsn
2022-10-25, 21:51:08
Generationen Wechsel... Wasser oder Luft?
https://i.imgur.com/1MelddM.jpg
Si|encer
2022-10-25, 21:55:02
Bin echt gespannt wie sich das Thema in den nächsten Tagen und Wochen entwickelt und ob es Einzelschicksale bleiben.
In der MSFS Gruppe auf Facebook habe ich auch schon von einer Person gelesen das angeblich die Karte durchgeschmorrt ist. Er ist zurück zu seiner 3090TI und hat die Karte auf Garantie eingeschickt.
War allerdings kein Bild dabei, und war auch englischsprachig. Also das scheint Global ein Problem zu sein.
Bin auch mal gespannt ob das jetzt wesentlich vermehrt nach einiger Zeit auftritt
Gibt auch ein Artikel bei der Gamestar (https://www.gamestar.de/artikel/rtx-4090-verschmortes-stromkabel,3385958.html)
TobiWahnKenobi
2022-10-25, 22:26:27
sicher ist sicher - ich habe meine alte 3090 strix auch für schlechte zeiten an die seite gestellt.
das gefühl dass hier irgendas mit der 4090 nicht richtig funzt habe ich aber nicht.. verhält sich unauffällig.
(..)
mfg
tobi
Linmoum
2022-10-26, 01:41:21
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514912
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514918
Tjo, im Luxx womöglich Fall Nummer 4.
Troyan
2022-10-26, 01:52:11
Laut dem läuft Warzone nichtmal mit 400W, sind eher 300W. Also kann die Stromaufnahme nicht die Ursache sein: https://www.youtube.com/watch?v=cjFWpdRjlDE
Kriegsgeier
2022-10-26, 06:25:34
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514912
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514918
Tjo, im Luxx womöglich Fall Nummer 4.
Nun ja: jeder hat heutzutage ein Smartphone zur Hand und er geht schlafen ohne einen Foto zu machen? Ich glaube dem Fall irgendwie nicht!
SamLombardo
2022-10-26, 07:22:19
https://twitter.com/JayzTwoCents/status/1585023620887490560?cxt=HHwWgMDRubulkf8rAAAA
Interessant. Mal dranbleiben.
Niall
2022-10-26, 07:34:57
Was ich zusätzlich interessant finde ist die Tatsache, dass die Karten so breit sind und bei gefühlt 70% aller Gehäuse gewisse Platzprobleme zur Seitenwand auftauchen. Manta Manta ick hör Dir trapsen. :D
Cherubim
2022-10-26, 07:39:25
gefühlt 70% aller Gehäuse gewisse Platzprobleme zur Seitenwand auftauchen.
Eher deutlich mehr.
Das Problem wäre deutlich geringer, wenn die Anschlüsse angewinkelt wären wie bei den 3080/3090er FE's.
SamLombardo
2022-10-26, 08:04:10
Laut dem läuft Warzone nichtmal mit 400W, sind eher 300W. Also kann die Stromaufnahme nicht die Ursache sein: https://www.youtube.com/watch?v=cjFWpdRjlDE
Müsste man noch mal sehen was das genau ist , der redet von Warzone 2. Das ist noch gar nicht released, und soweit ich weiß gibt es da keine vorab Möglichkeit zum Spielen. Vielleicht meint er auch Modern Warfare 2...? Mal sehen, ob neue Infos heute kommen.
Cherubim
2022-10-26, 08:30:59
Genau so verfahre ich mit meiner 4090 TUF. +230 gpu, +1300 mem, 1.1v, bei 75% Powertarget. Volle Leistung wie out-of-the-box, bei wenig Last Boost bis 3 GHz und maximal 340 Watt.
Habs einfach mal (nahezu) blind nachgemacht:
+200 GPU, +1000 Ram und PT 75%
347 Punkte weniger in TimeSpy Extreme (16 907 vs 16560). Also quasi egal.
In CP2077 konnte ich bis auf einen reduzierten Verbrauch (um 330W) keine wirklichen Performanceunterschiede feststellen, so zwischen 70 und 80 FPS bei meinen Settings.
Ich denke, da lohnt es sich die Grenzen meiner Karte noch genauer auszuloten.
SamLombardo
2022-10-26, 09:05:16
Wie viele 4090 werden denn schon verkauft worden sein, was meint ihr? Schon mehr als 100k?
Dural
2022-10-26, 09:49:39
Ich halte das alles für einen ziemlichen quatsch.
Ich habe die Temperatur des Steckers mehrfach überprüft, und der wurde kaum warm, mit einer 520Watt Grafikkarte. (Offenes Gehäuse mit Lüfter) Und die Statistik ist ziemlich eindeutig, es sind nur ganz wenige Fälle bekannt. Diese kann man locker in die typische 1% RMA Quote rechnen. Gut möglich das die Kabel sowie so beschädigt waren, oder nicht richtig im Stecker drin wahren etc. Wenn jetzt im Internet duzende wenn nicht sogar hunderte Berichte erscheinen, erst dann würde ich von einen Problem sprechen.
Wie schon erwähnt hat der 12Pin die gleichen Eigenschaften wie die 6/8Pin davor: Auch das abknicken war nicht gut, so wie die 40 Steckvorgänge gegeben.
Linmoum
2022-10-26, 09:56:33
Wenige Fälle sind scheiß egal, oder meinst du, Hersteller rufen fehlerhafte Produkte erst dann zurück, wenn es hunderte nachgewiesene Fälle gibt? Dann könnten viele Unternehmen gerade in den USA direkt Insolvenz anmelden.
Es reicht schon ein einzelner bekannter Fall aus, wenn sich dieser dann auch beim Hersteller nachstellen lässt und man zu dem Schluss kommt, dass es ein Risiko gibt.
Die Beobachtungen der PCI-SIG sind davon ab eindeutig und wurden auch hier schon durchgekaut.
Asaraki
2022-10-26, 10:00:06
Die Quote ist schon von Bedeutung. Wenn das bei 99‘999 von 100k kein Problem ist, dann ist es kein Riesending.
Ist jetzt ja kein Herzschrittmacher ^^
Linmoum
2022-10-26, 10:03:18
Die Quote ist unbedeutend, wenn es ein generelles Risiko gibt.
Wir reden hier immerhin von Kabelbränden. Die sind alles andere als lustig und im schlimmsten Fall... Nunja.
Asaraki
2022-10-26, 10:06:15
Welches du aber mit einer Quote belegen würdest ;-)
Aber ist ja egal… muss nächste Woche mal fragen ob die bei nV schon panisch rumrennen :D
Ich meine nur, dass du halt immer paar Spasten hast die ihre HW mit Füßen treten. Wenn der Stecker aus Prinzip überhitz, dann wundert mich halt die tiefe Anzahl Fälle, die bisher bekannt sind
Bin aber nicht unglücklich keine im Rechner zu haben, brauch auch keinen verbrannten PC :D
Si|encer
2022-10-26, 10:28:59
Das Thema ist zumindest so große das selbst Linus Witze drüber macht. :D
Und die Memes werden jetzt das Internet überschwemmen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81119&stc=1&d=1666772924
aufkrawall
2022-10-26, 10:36:21
Das Thema ist zumindest so große das selbst Linus Witze drüber macht. :D
Ach, der springt doch eh auf jeden BS-Train auf.
Was aber nicht heißt, dass dieses Thema nun Quatsch wäre. Auf jeden Fall mal wieder ein komplett vermeidbarer Griff ins Klo, Elektrotechnik made in the US...
dargo
2022-10-26, 10:38:27
Das Thema ist zumindest so große das selbst Linus Witze drüber macht. :D
Und die Memes werden jetzt das Internet überschwemmen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81119&stc=1&d=1666772924
;D ;D ;D
Ach, der springt doch eh auf jeden BS-Train auf.
Ich halte das Thema schon für (brand)gefährlich. Vorsicht... Wortspiel. :D Wird dann interessant sein was deine Versicherung dazu sagt wenn dir deswegen deine Budde abfackelt.
OpenVMSwartoll
2022-10-26, 10:44:59
Naja, ist halt etwas, was erst mal Aufmerksamkeit weckt. Bei so nem Prestigeobjekt und der damit verbundenen Gefahr auch verständlich.
Bin gespannt, was sich ergibt. Bisher noch Einzelfälle, aber lange sind die Karten nicht auf dem Markt, längere Erkenntnisse liegen noch nicht vor. Zudem existierten ja Warnungen.
r3ptil3
2022-10-26, 10:47:07
Lustig wie einige hier regelrecht Freude verspüren bei den Problemen.
Funfact: Kein einziger davon besitzt oder erwägt den Kauf einer 4090.
dargo
2022-10-26, 10:49:56
Funfact: Kein einziger davon besitzt oder erwägt den Kauf einer 4090.
Natürlich nicht, meine Budde ist zum Abfackeln auch viel zu wertvoll. ;)
arcanum
2022-10-26, 10:55:49
habe meine karte jetzt endlich eingebaut, allerdings muss das gehäuse offen bleiben da ich sonst das be quiet 12VHPWR-kabel stark unter spannung setzen muss. die FE ist ja relativ schmal im vergleich zu anderen karten aber trotzdem reichen 24 cm gehäusebreite nicht aus, um das kabel "gemütlich" zu verlegen. dafür fehlen noch mindestens 3cm. bei diesem aufbau zeigt der billige IR temperaturmesser nach wenigen minuten volllast ~36° an der steckeroberseite.
UV hat sich beim testen tatsächlich als kontraproduktiv erwiesen. ich hatte 0,97v als cut-off spannung +140 mhz und der sustained gpu takt liegt bei 350w tdp bei time spy extreme im 28xx mhz bereich. bei normaler voltage curve +140 mhz und 350w tdp sind es nur 27xx mhz average mit starken schwankungen aber time spy extreme zeigt hier trotzdem minimal mehr punkte an.
ansonsten war die FE die richtige wahl - die karte sieht absolut edel aus und die lautstärke ist auch vertretbar. coil whine konnte ich bei ~140 fps nicht raushören. mehr brauche ich nicht, da die karte ohnehin am oled mit 117fps betrieben wird.
Linmoum
2022-10-26, 10:56:23
Lustig wie einige hier regelrecht Freude verspüren bei den Problemen.
Funfact: Kein einziger davon besitzt oder erwägt den Kauf einer 4090.Also ich habe eine 4090. ;)
RoNsOn Xs
2022-10-26, 10:59:21
Ich halte das alles für einen ziemlichen quatsch.
Wie schon erwähnt hat der 12Pin die gleichen Eigenschaften wie die 6/8Pin davor: Auch das abknicken war nicht gut, so wie die 40 Steckvorgänge gegeben.
https://extreme.pcgameshardware.de/threads/amd-stellt-klar-radeon-rx-7000-ohne-12vhpwr-stecker.625714/#post-11138852
Fakt, oder Quatsch? Wenn ja, wer?
r3ptil3
2022-10-26, 10:59:23
Also ich habe eine 4090. ;)
Ja und freust du dich darüber oder was? 😅
Ich kritisiere auch am liebsten Produkte, die ich selber gekauft habe, aber verspüre keine Freude oder jegliche Emotionen daran.
Si|encer
2022-10-26, 11:00:18
Lustig wie einige hier regelrecht Freude verspüren bei den Problemen.
Funfact: Kein einziger davon besitzt oder erwägt den Kauf einer 4090.
Ich freue mich nicht darüber, aber finde die Memes lustig.
Wenn man im Hinterhof von reddit dann mal ein Bild findet mag das ja nicht so Wild sein. Aber das sich das häufigt kann man doch wirklich nicht bestreiten.
Und wenn dann auch noch große Youtuber sich des Themas annehmen, könnte da schon was sein.
Hat es sowas in der Vergangenheit schon mal gegeben ? (Ich weiß es nicht)
Disclaimer: Ich habe seit Ewigkeiten nVidia in meinen Rechnern.
Dural
2022-10-26, 11:06:56
Das mit dem umknicken ist halt wohl schon ein Problem, nicht nur auf das Abbrennen von Grafikkarte und Kabel bezogen. Wenn das Kabel an der Seitenwand ankommt hat man schon eine gewisse Kraft die auf das Kabel-Stecker und natürlich Grafikkarte wirkt. Die Grafikkarten sind sehr gross, viele Gehäuse sind nicht dafür ausgelegt.
Die beste Lösung wäre ein Winkelstecker, würde ergonomisch so wie so viel besser passen, wieso da noch keiner auf die Idee gekommen ist?!
unl34shed
2022-10-26, 11:07:06
https://extreme.pcgameshardware.de/threads/amd-stellt-klar-radeon-rx-7000-ohne-12vhpwr-stecker.625714/#post-11138852
Fakt, oder Quatsch? Wenn ja, wer?
Quatsch, weil bei höheren Temperaturen, die zwangsläufig im Gehäuse herrschen, der erlaubte Strom herabgestuft wird. Auch ist fraglich warum man nur das Rating des Kabels aber nicht der Stecker nutzt, da hat der neue Stecker null Reserven. Hast du an einem Pin schlechteren Kontakt fließt zwangsläufig mehr Strom über die anderen Pins (Parallelschaltung) was sie überlastet.
Dural
2022-10-26, 11:14:52
Ist ja bei den alten 6-8Pin genau so. Die werden sicherlich etwas mehr Spielraum haben, aber sonst ist es ja gleich.
Die 3090Ti ist seit längerer Zeit auf den Mark, und zieht sogar etwas mehr Strom als eine 4090 stock. Probleme sind mir gar keine bekannt.
Asaraki
2022-10-26, 11:17:13
Ja und freust du dich darüber oder was? 😅
Ich kritisiere auch am liebsten Produkte, die ich selber gekauft habe, aber verspüre keine Freude oder jegliche Emotionen daran.
Was können wir dafür, dass du keine Freude oder jegliche Emotionen verspürst ^^ dude es geht um Chips auf bisschen PCB, da kann man es auch mal lustig haben, wenn jemand (scheinbar) schlechte Arbeit abliefert
Bin ich froh muss ich das nicht so ernst nehmen wie du… reagierst ja als würde man deine persönliche Arbeit kritisieren.
Und mich interessiert es halt, da ich mir potentiell noch eine hole ^^
Dural
2022-10-26, 11:18:45
Gerade gesehen, das gibt es ja sogar von Seasonic, Winkelstecker:
Linmoum
2022-10-26, 11:19:30
Vergleich mal die Position des Anschlusses bei Ampere und aktuell der 4090. Bei den Ampere-FEs ist der abgewinkelt platziert, wodurch großes Biegen von Kabeln schon deutlich reduzierter ist.
Zumal die Customs damals weiterhin ihre 2x/3x 8pin genutzt haben, den 12VHPWR gab es ausschließlich bei den FE. Jetzt überall.
Dural
2022-10-26, 11:22:33
Nein, die 3090Ti hatte immer den 12Pin.
Bei meiner Asus exakt in der gleichen Position wie bei den 4090 Karten, der einzige Unterschied ist das die 4 Steuerpins fehlen.
Linmoum
2022-10-26, 11:28:29
Ok, die 3090Ti war so irrelevant und unnötig, dass ich mich mit deren Anschlüssen gar nicht mehr befasst habe. ;D
Ich würde aber behaupten, dass schon jetzt ein vielfaches an 4090ern im Vergleich zur 3090Ti verkauft wurden. Ist denn der Adapter auch 1:1 derselbe?
Dural
2022-10-26, 11:33:45
Nein, bei der 3090Ti lag ein 12Pin zu 3x 8Pin dazu.
Ich finde den 12Pin super, war längst überfällig.
arcanum
2022-10-26, 11:42:34
stimmt, bei den ersten ampere-karten war der 12-pin anschluss diagonal ausgerichtet. wahrscheinlich wussten man schon damals über die problematik. nur komisch, dass man diese lösung komplett verworfen hat.
SamLombardo
2022-10-26, 11:46:25
Mal was anderes, ich hatte noch nie eine GPU mit Dual Bios, wie läuft denn das? Die Gamerock 4090 hat wohl ein Performance Bios und ein Silent Bios. Gibts da irgendwo an der Karte einen Schalter an dem ich das umschalte? Oder läuft das softwaremäßig? Ich hatte die einfach eingebaut ohne mir darüber Gedanken zu machen, da sollte @stock das Performance Bios aktiv sein, oder?
Radeonfreak
2022-10-26, 11:50:13
Ich schließe mich der Frage an.
Ja sollte Performance sein, bei meiner Gainward auch, obwohl ich noch nie Lüfterdrehzahlen über 30 Prozent gesehen habe.
BlacKi
2022-10-26, 11:51:21
We tried very hard to get a connector to fail today. They are actually quite robust (the NVIDIA version) so it has to be a defect related issue. Video soon
https://twitter.com/JayzTwoCents/status/1585023620887490560?cxt=HHwWgMDRubulkf8rAAAA
jayz2cents bekommt den stecker nicht zum failen. video kommt.
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514912
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-437#post-29514918
Tjo, im Luxx womöglich Fall Nummer 4.da hat sich jemand einen scherz erlaubt und es mit dem warzone 2 titel kenntlich gemacht. warzone 2 kommt erst am 16. nov.
Troyan
2022-10-26, 11:59:30
Mal was anderes, ich hatte noch nie eine GPU mit Dual Bios, wie läuft denn das? Die Gamerock 4090 hat wohl ein Performance Bios und ein Silent Bios. Gibts da irgendwo an der Karte einen Schalter an dem ich das umschalte? Oder läuft das softwaremäßig? Ich hatte die einfach eingebaut ohne mir darüber Gedanken zu machen, da sollte @stock das Performance Bios aktiv sein, oder?
PC herunterfahren und dann umswitchen. Hier gibt es ein Bild vom Switch der Palit: https://www.techpowerup.com/review/palit-geforce-rtx-4090-gamerock-oc/3.html
Bei mir ist der Schalter neben dem Stromstecker.
Schalter umlegen, Reset oder Anschalten. Los gehts.
why_me
2022-10-26, 12:01:21
@Blacki: Warte doch erstmal ab, er wollte sich heute doch noch einmal mit Details melden.
Vielleicht hat er sich ja auch einfach verschrieben, oder es gibt eine Warzone 2 beta? Wir wissen es nicht.
Warum es also klein reden? Bringt das irgendwas?
BlacKi
2022-10-26, 12:04:29
@Blacki: Warte doch erstmal ab, er wollte sich heute doch noch einmal mit Details melden.
Vielleicht hat er sich ja auch einfach verschrieben, oder es gibt eine Warzone 2 beta? Wir wissen es nicht.
Warum es also klein reden? Bringt das irgendwas?ich weiß nicht warum du die sache rumdrehst. lin hats als 4. fall hingestellt. was er (noch) nicht ist.
SamLombardo
2022-10-26, 12:04:45
PC herunterfahren und dann umswitchen. Hier gibt es ein Bild vom Switch der Palit: https://www.techpowerup.com/review/palit-geforce-rtx-4090-gamerock-oc/3.html
Ah da ist der, danke.
Ist da werksseitig das Performance- oder das Silentbios aktiv?
FastAndy
2022-10-26, 12:12:07
Lustig wie einige hier regelrecht Freude verspüren bei den Problemen.
Funfact: Kein einziger davon besitzt oder erwägt den Kauf einer 4090.ist halt typisch in unserer neidgesellschaft und erst recht anonym im internet. aber so ist das halt, ich lass mir die freude von so frustrierten menschen nicht nehmen :smile:
why_me
2022-10-26, 12:12:31
ich weiß nicht warum du die sache rumdrehst. lin hats als 4. fall hingestellt. was er (noch) nicht ist.
Er hat geschrieben "womöglich 4. Fall". Es also selbst nicht als 100% Fakt hingestellt.
Du hast daraufhin gleich unterstellt, dass sich der besagt User nur einen Scherz erlaubt haben muss, weil kann ja nicht sein... :rolleyes:
BlacKi
2022-10-26, 12:16:10
dass sich der besagt User nur einen Scherz erlaubt haben muss, weil kann ja nicht sein... :rolleyes:glaub ich tatsächlich nicht.
Blase
2022-10-26, 12:16:23
Ah da ist der, danke.
Ist da werksseitig das Performance- oder das Silentbios aktiv?
Steht doch beim Bild ;):
This BIOS switch lets you toggle from the default performance BIOS to the quiet BIOS, which runs a more relaxed fan curve.
Wusste ich vorher aber auch nicht...
MfG Blase
SamLombardo
2022-10-26, 12:18:16
Steht doch beim Bild ;):
Wusste ich vorher aber auch nicht...
MfG Blase
Ah jetzt ja:D. Besten Dank. Dann muss ich nichts ändern, das performance Bios soll es sein.
Blase
2022-10-26, 12:43:06
Hörst du deine Gamerock eigentlich? Also ich kaum. Wüsste entsprechend gar nicht, warum ich auf das Silent Bios wechseln sollte. Generell wollte ich eigentlich ne FE oder ne TUF. Aber weil es beides nicht gab, habe ich mich zu einem Spontankauf der Gamerock hinreißen lassen. Rückblickend eine gute Entscheidung, wie ich finde :up:
MfG Blase
Rolsch
2022-10-26, 12:53:36
Mal was anderes, ich hatte noch nie eine GPU mit Dual Bios, wie läuft denn das? Die Gamerock 4090 hat wohl ein Performance Bios und ein Silent Bios. Gibts da irgendwo an der Karte einen Schalter an dem ich das umschalte? Oder läuft das softwaremäßig? Ich hatte die einfach eingebaut ohne mir darüber Gedanken zu machen, da sollte @stock das Performance Bios aktiv sein, oder?
Bei der Zotac gibts ein rotes oder grünes Licht am Stromstecker, das leuchtet je nach Bios. Beim Einschalten blinkt die Karte rot oder grün je nach Bios. Und man kann auch im Zotac Softwaretool das Bios umschalten. Vielleicht ist das ja bei anderen Karten ähnlich gelöst.
Sardaukar.nsn
2022-10-26, 12:56:53
Habs einfach mal (nahezu) blind nachgemacht:
+200 GPU, +1000 Ram und PT 75%
347 Punkte weniger in TimeSpy Extreme (16 907 vs 16560). Also quasi egal.
In CP2077 konnte ich bis auf einen reduzierten Verbrauch (um 330W) keine wirklichen Performanceunterschiede feststellen, so zwischen 70 und 80 FPS bei meinen Settings.
Ich denke, da lohnt es sich die Grenzen meiner Karte noch genauer auszuloten.
Klingt gut. Ich habe bei mir auch erst geschaut was mit OC aus der Karte rauszuholen ist und dann halt das Powerlimit gesetzt.
Vom Bauer und Optimum PC gibt es auch Videos dazu die in diese Richtung gehen.
SamLombardo
2022-10-26, 12:59:27
Hörst du deine Gamerock eigentlich? Also ich kaum. Wüsste entsprechend gar nicht, warum ich auf das Silent Bios wechseln sollte. Generell wollte ich eigentlich ne FE oder ne TUF. Aber weil es beides nicht gab, habe ich mich zu einem Spontankauf der Gamerock hinreißen lassen. Rückblickend eine gute Entscheidung, wie ich finde :up:
MfG Blase
Geht mir so ziemlich genau so. Ich wollte eigentlich auch eine FE und habe die Gamerock genommen, weil die zum UVP verfügbar war. War erst etwas skeptisch...völlig zu unrecht. Ich höre die Karte unter Last nur, wenn ich mich darauf konzentriere, mit Kopfhörer in Games dann sowieso nicht. Auch kein Spulenfiepen. Ist wirklich schön ruhig. Und kühl, selbst bei Cyberpunk, MSFS oder Requiem höchstens 63 Grad (Hotspot 69) - wirklich Maxima, fast immer deutlich darunter - und damit nochmal deutlich besser als meine MSI3080ti (die auch bei Weitem kein Hitzkopf war). Wenn sie jetzt noch bis zur nächsten Generation durchhält (:D), dann würde ich sie - rein von diesen Eigenschaften abseits der Leistung- als eine der besten Karten, die ich jemals hatte bezeichnen.
Blase
2022-10-26, 13:59:02
[...]Auch kein Spulenfiepen. Ist wirklich schön ruhig. Und kühl, [...]
Hier auch bisher überhaupt kein Spulenfiepen. Wundert mich, scheint es doch sehr viele Hersteller und Karten zu betreffen.
Und auch bezüglich Temperatur bin ich sehr zufrieden. Ich habe immerhin ein gedämmtes Gehäuse, dessen primärer Einsatzzweck jetzt nicht wirklich die Temperaturen sind. Aber das scheint zu passen.
Und mit über 2.8 GHz ist die Karte im Default Zustand sogar noch eine der schnelleren. Ich wüsste wirklich nicht, was es an dieser Karte zu meckern gibt - und das zum UVP :up:
MfG Blase
SamLombardo
2022-10-26, 14:37:35
Und mit über 2.8 GHz ist die Karte im Default Zustand sogar noch eine der schnelleren. Ich wüsste wirklich nicht, was es an dieser Karte zu meckern gibt - und das zum UVP :up:
Ui nicht schlecht 2800 Default. Meine macht Default nur ~2700. Hast du die "Normale" mit dem Dreier Kabel oder die OC mit dem Vierer?
Blase
2022-10-26, 15:14:36
Ui nicht schlecht 2800 Default. Meine macht Default nur ~2700. Hast du die "Normale" mit dem Dreier Kabel oder die OC mit dem Vierer?
Habe die "OC" Version. Laut Palit HP geht der Boost auf bis zu 2610 MHz statt 2520 MHz der NON OC. Aber diese Werte sind ja ohnehin nur grobe Richtwerte, oder? :freak:
Und an dem Adapterkabel zur GPU hängen alle 4 Kabel von meinem 600er Netzteil (2 Ausgänge an der PSU).
Ich habe mich bisher ausschließlich mit UV und geringerem Powertarget der Karte beschäftigt. Mal sehen, ob ich die Tage auch zum OC der Karte komme. Wobei mein NT dann wohl spätestens hier Grenzen setzen sollte :tongue:
EDIT: Sehe grade: Palit empfiehlt mindestens ein 1000er Netzteil :D
MfG Blase
SamLombardo
2022-10-26, 15:30:40
Ah danke. Das erklärt wohl die 100mhz Unterschied. Was das mit der 1000w Netzteil Empfehlung soll ist mir auch ein Rätsel. Ich hab ein 850er und bisher ist alles tiptop. Klopf auf Holz;).
Troyan
2022-10-26, 16:10:54
Galaxy hat ein bisschen getestet: https://twitter.com/hms1193/status/1585257428291325958
Wenn der Stecker nicht richtig eingesteckt wurde, dann kann er sich deutlich stärker erwärmen (über 100°C).
arcanum
2022-10-26, 16:11:49
einfach schauen was das NT kombiniert an leistung hat. dachte mein 750w be quiet hätte nur 600w aber tatsächlich sind es kombiniert 744w wenn man die korrekten anschlüsse nutzt. aus der wand zieht der rechner "nur" 500w wenn ich die karte auf 350w limitiere. in der praxis sollte ein gutes 750w netzteil ohne 300w cpu auch vollkommen ausreichen.
Sardaukar.nsn
2022-10-26, 17:57:28
@Gamerock 4090. Freut mich für euch. Damals hatte ich eine Palit 1080 Ti die wunderbar lief. Für die Gamerock ist auch ein Alphacool Wasserkühler zu bekommen, falls das mal von Interesse sein sollte... https://docs.google.com/spreadsheets/d/1wnYSbLlCJatoYBxF2rsjFU5DgBC3_S9pk5wUXBX3Btk/edit#gid=0
SamLombardo
2022-10-26, 18:29:41
@Gamerock 4090. Freut mich für euch. Damals hatte ich eine Palit 1080 Ti die wunderbar lief. Für die Gamerock ist auch ein Alphacool Wasserkühler zu bekommen, falls das mal von Interesse sein sollte... https://docs.google.com/spreadsheets/d/1wnYSbLlCJatoYBxF2rsjFU5DgBC3_S9pk5wUXBX3Btk/edit#gid=0
Danke dir:). @Wasserkühlung...vielleicht irgendwann. Aber gut zu wissen.
ChaosTM
2022-10-26, 18:41:08
RT(X)RT is eines der Marketing Konzepte, die NV am Leben erhalten.
Ohne würden die fetten Grakas nutzlos sein..
weil Konsolen ähnliche SOCs die Dinger obsolet machen würden..
Innerhalb von ein paar Jahren
Did I say hat out loud ? sorry
Godmode
2022-10-26, 18:57:21
Das betrifft jetzt nicht den neuen 12VHPWR Stecker, aber ich hatte gerade das Problem mit dem alten Stecker, aber Netzteilseitig. Eine RTX 3090 hing am anderen Ende des Kabels mit je 2x8 Pin PCIe. Wenn die Karte auf Volllast ging, ging der Rechner plötzlich aus. Nach genauer Untersuchung stellte sich heraus, das 3 Pins verschmort sind. Das Netzteil ist immer noch mein altes LEPA 1600W. Ich habe keine Ahnung wie das zustande kam. Der Stecker war auf Anschlag eingesteckt. Ich habe die Karte immer über 2 Stränge vom Netzteil versorgt, habe aber aus Faulheit bei Umbauarbeiten auf einen Strang gewechselt, was dann wohl zuviel war für den Stecker.
https://abload.de/img/img_0796bre7x.jpg
Exxtreme
2022-10-26, 19:01:22
Die Ausfallrate wäre trotzdem interessant. Wenn das 4 von 1000 ist dann ist das ärgerlich aber nicht wirklich relevant. Sind das aber 200 von 1000 dann sieht die Sache anders aus.
TurricanM3
2022-10-26, 19:45:01
@Godmode
Evtl. die Buchsen ausgeleiert oder nicht richtig drin gewesen?
Ich hatte auch schon verschmorte Stecker in meiner 20+ jährigen PC Laufbahn. Das letzte mal am 24pin MB (Dark Hero+ 5950X OC). Hab mich gewundert warum die Kiste manchmal einfach ausging, der Stecker hats dann erklärt. :biggrin:
https://abload.de/img/20221026_193338q4ibp.jpg (https://abload.de/image.php?img=20221026_193338q4ibp.jpg)
Aber in 99,9% Fällen geht alles gut.
Mache mir da bei der 4090 keinen Kopf.
Linmoum
2022-10-26, 21:14:11
Morgen kommt von mir die Entmystifizierung des Feuerdrachens :)
Um nicht ins Click-Bait zu verfallen, muss man erst mal ermitteln und testen. Aber das Ding morgen wird ein Kracher. NV ist allerdings bereits vorgewarnt, ich bin ja fair :)
https://www.igorslab.de/community/threads/entmystifiziert-so-funktioniert-nvidias-4-fach-adapter-f%C3%BCr-den-12vhpwr-anschluss-der-geforce-rtx-4090-wirklich.7097/page-5#post-187956
Oh oh, Igor legt morgen los. :D Das klingt wenig erheiternd. Solange es wenigstens nur kein grundsätzliches Problem gibt und nur die Adapter scheiße sind.
Slipknot79
2022-10-26, 22:03:50
Hier auch bisher überhaupt kein Spulenfiepen. Wundert mich, scheint es doch sehr viele Hersteller und Karten zu betreffen.
Auffallend scheint zu sein, dass gerade die teuren Modelle wie Strix, Suprim, usw diese Probleme haben. Die billigen (auch meine FE) haben keine Probleme mit Spulenfappen oder Lüfterrasseln/Schleifen/Klackern.
Hatte vorher auch eine Palit RTX 2080Ti, auch da kein Thema mit Spulenfappen.
Die billigen Chinakracher sehen Shice aus, Powertargets eher eingeschränkt, aber sie machen wenigens keinen Radau.
So nebenbei können die teuren Modelle nicht mal eine Tendenz zu besser oc-baren GPUs nachweisen. 800 Phasen, aber Kack-GPU.
Dann eben gleich nen Chinakracher checken.
Vorher konnte man für den Aufpreis einer Strix nen Block auf die billigere Karte schnallen und erhielt MOAR fps als eine Suprim.
Heute bekommt man für den Aufpreis ne komplette Wakü. (y)
-----------------------
Alles qool hier. Ich hatte hier schon meine "lebensbedrohliche Situation" mit nem Lüfterstecker, 2x80mm Lüfter hingen dran. (y)
Der Bonus ist statistisch nun aufgebraucht, keine Steckerflammenwerfer der 4090 FE zu erwarten. :redface:
https://abload.de/img/screenshot2022-10-26251ekr.jpg
Ich hab gerade meinen alten Threadripper in Rente geschickt und einen 13900K eingebaut.
Alter was für ein UNTERSCHIED in Teilen von meinem UseCase.
Hätte ich nicht mit gerechnet.
https://abload.de/thumb/ds_2022_10_25_04_06_0goivx.jpg (https://abload.de/image.php?img=ds_2022_10_25_04_06_0goivx.jpg) https://abload.de/thumb/ds_2022_10_27_01_44_0dtfs5.jpg (https://abload.de/image.php?img=ds_2022_10_27_01_44_0dtfs5.jpg) https://abload.de/thumb/farcry6_2022_10_25_02xyd6o.jpg (https://abload.de/image.php?img=farcry6_2022_10_25_02xyd6o.jpg) https://abload.de/thumb/farcry6_2022_10_27_01pvi3s.jpg (https://abload.de/image.php?img=farcry6_2022_10_27_01pvi3s.jpg) https://abload.de/thumb/anno1800_2022_10_25_0d2iik.jpg (https://abload.de/image.php?img=anno1800_2022_10_25_0d2iik.jpg) https://abload.de/thumb/anno1800_2022_10_27_0y0dnw.jpg (https://abload.de/image.php?img=anno1800_2022_10_27_0y0dnw.jpg) https://abload.de/thumb/shipbreaker_2022_10_293d65.jpg (https://abload.de/image.php?img=shipbreaker_2022_10_293d65.jpg) https://abload.de/thumb/shipbreaker_2022_10_220dmf.jpg (https://abload.de/image.php?img=shipbreaker_2022_10_220dmf.jpg)
War man vorher im GPU-Limit tut sich natürlich nicht viel. Aber teilweise gehen auch die Min-FPS unglaublich weit hoch.
Orbmu2k
2022-10-26, 23:41:46
Für alle ASUS Karten gibts Firmware Updates.
Version 1
2022/10/24 10.58 MBytes
BIOS Update Tool
Update VBIOS to improve compatibility
Name: RTX4090_V1.exe
Size: 11094864 bytes (10 MiB)
SHA256: 2DD739A97EE40FF46220B3EA9DAB5CD94251CCF5AC04D0C5D6F08207EDE86B3E
https://dlcdnets.asus.com/pub/ASUS/Graphic%20Card/NVIDIA/BIOSUPDATE_TOOL/RTX4090/RTX4090_V1.exe
Vorher: 95.02.18.00.35
Nachher: 95.02.18.80.94
Powerlimit Range Minimum hat sich geändert von 2% auf 33%.
EDIT:
Gigabyte hat jetzt auch ein F2 Update für die 4090, mit den selben vagen "Increase compatibility." :)
BlacKi
2022-10-27, 00:50:33
wie ich es mir schon fast dachte. nix.
_z58lEnnX1k
er hat sogar einen zerlegt, sieht ziemlich solide aus.
er vermutet defekte adapter.
Tangletingle
2022-10-27, 00:56:50
Jay hat einfach genau 0 technischen Sachverstand. Der soll das lieber anderen überlassen.
Linmoum
2022-10-27, 00:59:10
wie ich es mir schon fast dachte. nix.Ich traue dann doch massiv mehr Igors technischem Sachverstand als dem von Jayz. Video kommt ja von ihm nachher und er hat ja schon angedeutet, dass das mehr ist. Und auch Jayz schon zerrissen für seinen... Befund.
r3ptil3
2022-10-27, 01:52:00
wie ich es mir schon fast dachte. nix.
https://youtu.be/_z58lEnnX1k
er hat sogar einen zerlegt, sieht ziemlich solide aus.
er vermutet defekte adapter.
Solche Praxistests finde ich super, jedoch wird da eine entscheidende Tatsache außer Acht gelassen: Eine Seitentür, welche in einem (zu) engen Gehäuse, relativ stark und permanent auf den betroffenen Stecker drückt.
konkretor
2022-10-27, 05:52:55
Noch nicht gelesen, für die Frühaufsteher
https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/
Rolsch
2022-10-27, 06:17:43
Noch nicht gelesen, für die Frühaufsteher
https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/
Kein Rauch um Nichts. Liest sich eher wie eine Be Quiet Werbung. Und klar kann man ein Kabel kaputt biegen aber wer macht das schon.
Linmoum
2022-10-27, 06:22:27
Erstmal gut, dass das kein grundlegendes Problem ist.
Für Nvidia kann man jetzt aber nur tunlichst hoffen, dass da mit dem Adapter bei niemandem etwas ernsthaftes passiert. Was für ein (PR-)Desaster und dass Dritte jetzt wieder etwas aufdecken müssen, für das Hersteller zu unfähig sind bzw. waren.
Auf jeden Fall viel Spaß beim austauschen aller Adapter, sowohl bei den bisherigen Besitzern als auch den Karten, die noch auf sämtlichen Wegen in den Handel unterwegs sind. ;D Das wird richtig lustig.
Cherubim
2022-10-27, 06:45:41
Für alle ASUS Karten gibts Firmware Updates.
Version 1
2022/10/24 10.58 MBytes
BIOS Update Tool
Update VBIOS to improve compatibility
Name: RTX4090_V1.exe
Size: 11094864 bytes (10 MiB)
SHA256: 2DD739A97EE40FF46220B3EA9DAB5CD94251CCF5AC04D0C5D6F08207EDE86B3E
https://dlcdnets.asus.com/pub/ASUS/Graphic%20Card/NVIDIA/BIOSUPDATE_TOOL/RTX4090/RTX4090_V1.exe
Vorher: 95.02.18.00.35
Nachher: 95.02.18.80.94
Powerlimit Range Minimum hat sich geändert von 2% auf 33%.
Gibt bei mir die Meldung "Get current version is null" und beendet sich dann.
user77
2022-10-27, 07:44:52
Kein Rauch um Nichts. Liest sich eher wie eine Be Quiet Werbung. Und klar kann man ein Kabel kaputt biegen aber wer macht das schon.
Sorry aber das ist Murks:
https://www.igorslab.de/wp-content/uploads/2022/10/nVidia1.jpg
[MK2]Mythos
2022-10-27, 07:57:47
Kein Rauch um Nichts. Liest sich eher wie eine Be Quiet Werbung. Und klar kann man ein Kabel kaputt biegen aber wer macht das schon.
Wat? Der ganze Adapter/Stecker ist in der Form absoluter Pfusch und hätte so nie in die Auslieferung gehen dürfen.
basix
2022-10-27, 08:26:54
Zeugs so zusammenzulöten sieht nach Quick & Dirty Laborarbeit und nicht nach industriell und in höheren Volumen hergestellten Produkten. Durch das ausgehärtete Lot wird das Kabel an den Enden sehr steif und wenn das wirklich nur so eine dünne Folie ist, kann die schon bei relativ geringen mechanischen Belastungen reissen. Durch die sehr steifen und dicken Kabel maximal suboptimal. Auch eingegossen hillft da nicht komplett. Wären es irgendwie geklemmte Litzen ohne Lötzinn, wäre es wohl weniger heikel (aber der nominelle Kontaktwiderstand wäre etwas höher)
Naja, der Be Quiet Stecker ist schon seit einer Weile bestellt. Dauert aber noch was.
Das Problem sind die Kontakte ;). Die sind dünn wie papier und brechen daher schnell.
Absoluter Murks. Da muss man echt "vorsicht Lebensgefahr!" dranschreiben. Die Dinger müssten in der EU verboten werden.
unl34shed
2022-10-27, 09:32:15
Das man so was nicht lötet ist eigentlich E-Technik Grundlage, bzw. wenn Löten, dann nur mit Zugentlastung und genug Spiel in der Leitung. Zinn zieht in die Litze und man hat relativ große Hebelkräfte.
Igors Test ist aber auch nur so lala, was den original Stecker angeht. Zumindest fehlt hier einiges an Dokumentation. Die 4090 scheint auch die Suprim Liquid zu sein, da wird die Hitze der Karte auch weit weg vom Stecker gebracht, das dürfte auch für niedrigere Temperaturen sorgen.
Hinzu kommen das die Messungen sehen nach einem offenen Benchtop aus und da hat er schon 60C gemessen, also mehr als 35K über Ambient, bei 600W sogar 45K. Im Gehäuse, gerade mit schlechtem Airflow sollten die Temperaturen nochmal höher ausfallen. Bei höheren Temperaturen könnte das Plastik bereits leicht nachgeben, was den Kontakt weiter verschlechtern könnte (Teufelskreis).
E:
Und das Kabel biegen, wenn es noch nicht verbaut ist, werden wir alle so machen, gerade auf der Netzteilseite, wenn die Kabel hinter dem Netzteil verstaut werden...
dreas
2022-10-27, 09:36:12
Stellt sich die Frage warum nicht gleich ein gewinkelter Adapter beigelegt wurde.
Man kann jedem nur empfehlen: Wenn 2k € für ne Grafikkarte ausgebt, kauft euch gefälligst ein Netzteil mit nativem Kabel, das muss drin sein!
Cubitus
2022-10-27, 09:39:51
Mythos;13150459']Wat? Der ganze Adapter/Stecker ist in der Form absoluter Pfusch und hätte so nie in die Auslieferung gehen dürfen.
Japp ist leider so.
um auf Nummer sicher zu gehen.
Griffel weg von der Erhöhung des Power-Limits,
oder bei 4 Stecker einen ausstecken.
Undervolting oder Reduzierung des PL ist das Gebot der Stunde.
Bei der 3090 hab ich UV benutzt, um mehr Leistung rauszubekommen.
Bei der 4090 muss ich es benutzen damit mir die Bude nicht abfackelt :freak:
Oookay :freak:
unl34shed
2022-10-27, 09:43:33
Man kann jedem nur empfehlen: Wenn 2k € für ne Grafikkarte ausgebt, kauft euch gefälligst ein Netzteil mit nativem Kabel, das muss drin sein!
Hat Nvidia nicht die Garantie ausgeschlossen, wenn man den Adapter nicht nutzt? Gut hier in Europa wird das nicht stand halten, hat aber trotzdem ein Geschmäckle.
Linmoum
2022-10-27, 09:44:44
Auf Nummer sicher gehen kann man nur, wenn man den Adapter komplett weglässt. ;) Du weißt ja nicht, wie es innen schon aussieht, selbst mit reduziertem PT und/oder UV wäre mir das doch zu riskant.
Mich schockiert aber wirklich, dass sich da bei Nvidia scheinbar niemand den Adapter mal komplett angeschaut hat. Das darf niemals durch die QS gehen und da sitzen bestimmt genug Leute, die mindestens ähnlich viel Expertise wie Igor haben. Die bekomme doch nicht einfach nur einen Adapter mit "hier, könnt ihr nutzen" zur Verfügung gestellt. Da muss man doch wissen, wie genau der aufgebaut ist.
Niall
2022-10-27, 09:48:44
Man kann jedem nur empfehlen: Wenn 2k € für ne Grafikkarte ausgebt, kauft euch gefälligst ein Netzteil mit nativem Kabel, das muss drin sein!
Sehe ich nicht so, wenn ein Hersteller einen Artikel so anbietet, dass ich ihn theoretisch problemlos "as is" nutzen können muss und kann, bin ja nun nicht wirklich Ich als Kunde in der Pflicht mir über solche Dinge Gedanken machen zu müssen. :freak: Das wäre so als würde ich ein Auto kaufen, bei welchem ich erstmal die Betriebsstoffe austauschen müsste, weil der Hersteller billigen Rotz reingekippt hat, der den Motor nach 5000 km zerlegt, oder die Bremse nicht mehr funktioniert.
NVIDIA hat ja selbst in den FAQs geschrieben, dass man kein neues PSU benötigt (https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/501736/geforce-rtx-40-series-power-specifications/)
Cubitus
2022-10-27, 09:57:10
Bei Nvidia gehts aktuell nicht nur im Adapter heiß her.
https://www.igorslab.de/adapter-gate-nvidia-brieft-heute-frueh-alle-boardpartner-und-macht-schaeden-zur-absoluten-chef-sache/
:popcorn:
SamLombardo
2022-10-27, 10:05:42
Wäre es eigentlich möglich, dass es mit den 450W Karten mit dem Dreier Kabel sicherer ist? Man müsste doch nur 3 Leitungen auf 6 Kontakte aufteilen antatt 4. Was meint Ihr?
mironicus
2022-10-27, 10:08:40
Da muß aber schnellstmöglich ein Ersatzkabel geliefert werden, am besten über die Händler an die Kunden die bereits eine RTX 4090 gekauft haben.
Nazar
2022-10-27, 10:09:58
Noch nicht gelesen, für die Frühaufsteher
https://www.igorslab.de/adapter-des-grauens-analysiert-nvidias-brandheisser-12vhpwr-adapter-mit-eingebauter-sollbruchstelle/
Sehr interessant, aber den Schwarzen Peter alleine dem Adapter-Hersteller zuzuschieben, ist schon sehr billig. Es wird so getan, als ob nVidia das Opfer sei. Es gibt Verträge, die die Qualität der Bauteile im Detail festlegt und die Bauteile werden in der Regel sporadisch überprüft. Dass nVidia nichts von dem Problem gewusst haben soll, halte ich für extrem unwahrscheinlich, und falls doch, für bedenklich.
Lässt B-quiete seine neuen 12vhpwr Adapterkabel nicht auch in China produzieren?
Stellt sich die Frage warum nicht gleich ein gewinkelter Adapter beigelegt wurde.
Wenn man Igors Bericht gelesen hat, stellt sich die Frage nicht. Das Problem ist der Aufbau des Adapters, den es so nicht geben dürfte. Das Verlöten auf so dünnen Folien und das ohne Zugentlastung widerspricht den elektrotechnischen Spezifikationen. Selbst wenn der Stecker abgewinkelt daherkäme, würde er das Problem nicht beseitigen. Das simple ziehen am Stecker kann schon zu einem Kontaktbruch führen, weil die Lötkontakte viel zu dünn sind.
Das Kabel ist lebensgefährlich und müsste sofort vom Markt genommen werden. Eventuell ein Grund dafür, dass derzeit Lieferschwierigkeiten für die 4090 vorhanden sind?
Das wird teuer.
Kriegsgeier
2022-10-27, 10:12:28
Es geht ja eher darum, dass diese relativ dicke Litzen auf ängstem Raum verlötet werden müssen und nicht gekrimmpt!
Eigentlich wäre eine Verzinnung + gut gemachte Krimmpung wesentlich bessere Lösung. Dafür braucht man aber halt einen größeren Stecker! Solche wie man "früher" hatte ;)
Ach ja: ein richtiger Krimmpkontakt hat auch eine Zugentlastung mitintergriert: es ist immer eine Art Doppelkrimmpung: eine Stelle zum elektrischen Kontakt und eine Isolationskrimmpung.
Dural
2022-10-27, 10:19:15
Und noch eine weitere Theorie :freak:
Wenn alle Adapter dieses Problem haben, wäre die Fehlerquelle schon lange deutlich höher.
Für mich nach wie vor ein 1% RMA Problem. Gut möglich das der ein oder andere Adapter fehlerhaft ist, aber ja brennen sollte es nie :rolleyes:
Niall
2022-10-27, 10:19:55
aber ja brennen sollte es nie :rolleyes:
Ja dann is' ja gut. :freak::D
Cubitus
2022-10-27, 10:28:47
Wäre es eigentlich möglich, dass es mit den 450W Karten mit dem Dreier Kabel sicherer ist? Man müsste doch nur 3 Leitungen auf 6 Kontakte aufteilen antatt 4. Was meint Ihr?
Jein, du hast halt bei ner Beschädigung Lastspitzen bei 450 Watt die sich z.b auf zwei funktionierenden Adern mit insgesamt 300 Watt aufteilen müssten.
Prinzipiell besser ist aber schon jetzt nicht unbedingt 500 Watt+
durch die Kabel zu jagen, was ja mit dem 3-Zack nicht geht.
Würde einfach hergehen und UV betreiben, dann bist schon eher auf der sicheren Seite.
Und noch eine weitere Theorie :freak:
Wenn alle Adapter dieses Problem haben, wäre die Fehlerquelle schon lange deutlich höher.
Für mich nach wie vor ein 1% RMA Problem. Gut möglich das der ein oder andere Adapter fehlerhaft ist, aber ja brennen sollte es nie :rolleyes:
Sollten alle Adapter so derart schlecht produziert sein, wovon ich ausgehe, dann ist das definitiv ein großes Problem.
Für den Hersteller ist das ein schwer kalkulierbares Risiko, Nvidia reagiert ja auch schon, müssen Sie bevor wirklich was Schlimmeres passiert.
Dural
2022-10-27, 10:31:12
Gerade den Artikel von Igor durch geschaut :freak:
Das ist wirklich eine interessante Theorie, dumm nur das der Adapter vom abnicken direkt beim Stecker mit einem Überzug geschützt ist... :rolleyes:
Das wird jetzt massiv aufgepusht für ein paar Klicks ;D
[MK2]Mythos
2022-10-27, 10:33:20
Gerade den Artikel von Igor durch geschaut :freak:
Das ist wirklich eine interessante Theorie, dumm nur das der Adapter vom abnicken direkt beim Stecker mit einem Überzug geschützt ist... :rolleyes:
Das wird jetzt massiv aufgepusht für ein paar Klicks ;D
Vielleicht sollte Nvidia einfach auf dich hören und nichts tun. Scheint ja alles in Ordnung zu sein wenn du das abnickst.
Kriegsgeier
2022-10-27, 10:33:36
dieser Plastiküberguss soll die Zugentlastung sein?
Cubitus
2022-10-27, 10:35:53
Gerade den Artikel von Igor durch geschaut :freak:
Das ist wirklich eine interessante Theorie, dumm nur das der Adapter vom abnicken direkt beim Stecker mit einem Überzug geschützt ist... :rolleyes:
Das wird jetzt massiv aufgepusht für ein paar Klicks ;D
Naja wie Die dinger verlötet sind, ist doch eindeutig.
Die Adapter sind pfusch.
Obwohl ich Nvidia ja durchaus schätze, sowas geht gar nicht und wäre auch vermeidbar gewesen, wenn man besser hingeschaut hätte.
Rolsch
2022-10-27, 10:36:04
Offizielle Reaktionen der Hersteller
Nvidia hat sich uns gegenüber inzwischen geäußert, wenn auch nur sehr knapp. Man kennt den Fall demnach und steht mit dem betreffenden Reddit-Nutzer in Kontakt, um weitere Informationen zu erhalten. Im übersetzen Wortlaut lautet die offizielle Antwort folgendermaßen:
"Wir untersuchen die Berichte. Wir stehen mit dem ersten Eigentümer in Kontakt und werden den anderen für weitere Informationen kontaktieren."
Die Karte hatte bisher also offenbar mehr als einen Besitzer.
Corsair gibt an, dass sie die Probleme in den eigenen Tests nicht nachvollziehen konnten. Man habe in "hunderten von Stunden" unter "angemessener Last" kein Verhalten dieser Art beobachten können, weder mit 12VHPWR-Adapter noch mit nativem Anschluss. Die im Bild unten zu sehende Biegung des Kabels im ersten bekannt gewordenen Fall schätzt Corsair auf den ersten Blick auf Basis der eigenen Tests als unproblematisch ein, allerdings mit dem Hinweis versehen, dass man individuelle Fälle nur mit der genauen Hardware wirklich testen und beurteilen könne.
https://www.gamestar.de/artikel/rtx-4090-verschmortes-stromkabel,3385958.html
Tief durchatmen und Feuerlöscher wieder abstellen.
Dural
2022-10-27, 10:37:59
Das ist keine Zugentlastung, das ist ein Schutz das eben gerade keinen Druck auf die Kontakte/Lötstellen und Kabel direkt vor dem Stecker abfängt.
Das hat jeder gute Stecker, ich halte seine Begründung (mal wieder) für ziemlichen Schwachsinn.
Und noch einmal, wenn es ein allgemeines Problem wäre, wäre das Internat voll mit Rückmeldungen.
Linmoum
2022-10-27, 10:38:28
Gerade den Artikel von Igor durch geschaut :freak:
Das ist wirklich eine interessante Theorie, dumm nur das der Adapter vom abnicken direkt beim Stecker mit einem Überzug geschützt ist... :rolleyes:
Das wird jetzt massiv aufgepusht für ein paar Klicks ;D
Igor spricht von Konstruktionsfehler und dass das Ding so eigentlich nie hätte in Umlauf geraten dürfen.
Dural spricht von aufgepusht für Klicks und halb so wild.
Nvidia reagiert schlagartig und kontaktiert die betreffenden AiB ob des Adapters umgehend.
Wer hier wohl recht hat? Bestimmt Dural. Logisch, wer sonst.
Mal ganz davon ab, dass man auf Igors Foto schon sieht, dass das einfach Pfusch ist.
@Rolsch
Was du verlinkst ist schon längst überholt, die Aussage kam vor Igors Erkenntnissen.
Ätznatron
2022-10-27, 10:40:58
Es gibt keine Entwarnung.
Mittlerweile ist die Angelegenheit offensichtlich zur Chefsache bei nVidia (https://www.igorslab.de/adapter-gate-nvidia-brieft-heute-frueh-alle-boardpartner-und-macht-schaeden-zur-absoluten-chef-sache/) erklärt worden.
So ernst wird sie also von den Verantwortlichen selbst genommen.
Möglicherweise gibt es also zeitnahe eine Lösung, denn wer möchte schon gerne in der Nähe eines potentiellen Brandsatzes sitzen?
Rolsch
2022-10-27, 10:41:06
@Rolsch
Was du verlinkst ist schon längst überholt, die Aussage kam vor Igors Erkenntnissen.
Was nichts an den Ergebnissen ändert.
Niall
2022-10-27, 10:41:39
Offizielle Reaktionen der Hersteller
Nvidia hat sich uns gegenüber inzwischen geäußert, wenn auch nur sehr knapp. Man kennt den Fall demnach und steht mit dem betreffenden Reddit-Nutzer in Kontakt, um weitere Informationen zu erhalten. Im übersetzen Wortlaut lautet die offizielle Antwort folgendermaßen:
"Wir untersuchen die Berichte. Wir stehen mit dem ersten Eigentümer in Kontakt und werden den anderen für weitere Informationen kontaktieren."
Die Karte hatte bisher also offenbar mehr als einen Besitzer.
Corsair gibt an, dass sie die Probleme in den eigenen Tests nicht nachvollziehen konnten. Man habe in "hunderten von Stunden" unter "angemessener Last" kein Verhalten dieser Art beobachten können, weder mit 12VHPWR-Adapter noch mit nativem Anschluss. Die im Bild unten zu sehende Biegung des Kabels im ersten bekannt gewordenen Fall schätzt Corsair auf den ersten Blick auf Basis der eigenen Tests als unproblematisch ein, allerdings mit dem Hinweis versehen, dass man individuelle Fälle nur mit der genauen Hardware wirklich testen und beurteilen könne.
https://www.gamestar.de/artikel/rtx-4090-verschmortes-stromkabel,3385958.html
Tief durchatmen und Feuerlöscher wieder abstellen.
Die Reaktion und Info ist "alt". ;)
Linmoum
2022-10-27, 10:43:31
Was nichts an den Ergebnissen ändert.Doch. Oder hast du Igors Artikel nicht gelesen? Nvidia hat schon umgehend reagiert, das ist keine Lapalie und wird ja offenkundig auch von Nvidia nach den Erkenntnissen nicht als solche gesehen.
Rolsch
2022-10-27, 10:47:54
Doch. Oder hast du Igors Artikel nicht gelesen? Nvidia hat schon umgehend reagiert, das ist keine Lapalie und wird ja offenkundig auch von Nvidia nach den Erkenntnissen nicht als solche gesehen.
Natürlich muss sich das Nvidia anschauen und wird vielleicht auf Anfrage ein anderes Kabel rausrücken. Aber sonst sehe ich da nichts kommen. Rückruf und Lebensgefahr kann ich gerade nicht erkennen.
Dural
2022-10-27, 10:48:06
Igor spricht von Konstruktionsfehler und dass das Ding so eigentlich nie hätte in Umlauf geraten dürfen.
Dural spricht von aufgepusht für Klicks und halb so wild.
Nvidia reagiert schlagartig und kontaktiert die betreffenden AiB ob des Adapters umgehend.
Wer hier wohl recht hat? Bestimmt Dural. Logisch, wer sonst.
Mal ganz davon ab, dass man auf Igors Foto schon sieht, dass das einfach Pfusch ist.
Solche Adapter sind immer ein "Fehler", natürlich ist ein durchgängiges Kabel ohne Adapter zeug die deutlich schönere und bessere Lösung.
Ich habe den Adapter ja, und der Knickschutz ist sehr massiv, da muss man mit richtig viel Kraft auf das Kabel wirken damit er dort "knickt" ich halte es für praktisch ausgeschlossen das man das in einem PC erreicht, ausser man provoziert es massiv.
SamLombardo
2022-10-27, 10:49:52
Jein, du hast halt bei ner Beschädigung Lastspitzen bei 450 Watt die sich z.b auf zwei funktionierenden Adern mit insgesamt 300 Watt aufteilen müssten.
Das stimmt. Allerdings sprach Igor ja davon, dass bei den 4er Kabeln, mit 1,2,2,1 Verteilung (4 Leistungen auf 6 Kontakte) die 1er Außen die instabilen sind. Wenn man nun beim Dreizack eine 2,2,2 Verteilung (3 auf 6) hätte, könnte das stabiler sein. Soweit die Idee, man weiß ja noch nicht mal ob die Verteilung wirklich so ist beim Dreier.
Bis dahin ist Undervolting mit Sicherheit nicht die schlechteste Idee.
why_me
2022-10-27, 10:50:19
Nvidia hat sich uns gegenüber inzwischen geäußert, wenn auch nur sehr knapp. Man kennt den Fall demnach und steht mit dem betreffenden Reddit-Nutzer in Kontakt, um weitere Informationen zu erhalten. Im übersetzen Wortlaut lautet die offizielle Antwort folgendermaßen:
"Wir untersuchen die Berichte. Wir stehen mit dem ersten Eigentümer in Kontakt und werden den anderen für weitere Informationen kontaktieren."
Die Karte hatte bisher also offenbar mehr als einen Besitzer.
Wie kommt man eigentlich auf so einen quatsch? Das ist doch eindeutig, dass es sich da um die andere Person mit verschmortem Stecker handelt....
OpenVMSwartoll
2022-10-27, 10:50:40
@Rolsch und Dural: Es schmerzt, Eure kognitive Dissonanz so klar zu sehen.
BTT: Riecht nach "BWLer wollten zwei Cent sparen".
Aber gut, wenn Leute wie Igor Klarheit in die Problematik bringen. Und dass das kein Spaß ist, ist ja offenkundig, auch wenn jemand seine nutzlosen 2cent dazugeben musste.
Gut ist: Das Problem ist früh aufgefallen, zwar nach Marktstart, aber bevor das erste Haus brannte.
Rolsch
2022-10-27, 10:52:50
Wie kommt man eigentlich auf so einen quatsch? Das ist doch eindeutig, dass es sich da um die andere Person mit verschmortem Stecker handelt....
Da musste die Gamestar fragen. :biggrin:
Piefkee
2022-10-27, 10:55:10
Das ist keine Zugentlastung, das ist ein Schutz das eben gerade keinen Druck auf die Kontakte/Lötstellen und Kabel direkt vor dem Stecker abfängt.
Das hat jeder gute Stecker, ich halte seine Begründung (mal wieder) für ziemlichen Schwachsinn.
Und noch einmal, wenn es ein allgemeines Problem wäre, wäre das Internat voll mit Rückmeldungen.
Ich habe beruf mich solchen Steckern und Co zu tun.
Lötverbindungen auf Kontakten ist eigentlich verboten. Deswegen "Crimp" man auch jedes Kabel welches sich nur irgendwie biegen kann. Du wirst in keinen Auto oder was weiß ich eine Lötverbindung von 2 Litzen vor einen Steckkontakt finden, weil man das schon vor 30 Jahren gewusst hat.
Kabel(Litzen) werden nicht gelötet, weil das nicht hält..
nordic_pegasus
2022-10-27, 10:56:38
Gerade den Artikel von Igor durch geschaut :freak:
Das ist wirklich eine interessante Theorie, dumm nur das der Adapter vom abnicken direkt beim Stecker mit einem Überzug geschützt ist... :rolleyes:
Das wird jetzt massiv aufgepusht für ein paar Klicks ;D
wenn man die Höhe von 4090er Karten anschaut und den Restabstand zur Gehäusewand bei normalen Gehäusen, kommen halt recht enge Biegeradien automatisch. Ferner ist der Aufbau des Adapters mit nur jeweils 2 Leitungen von jedem 8pin PCIe zum 12+2pin recht abenteuerlich gelöst. Da werden also jeweils die 3x 12V / Masse Leitungen eines jeden 8pin PCIe Steckers zusammengelötet und als 1x 12V / Masse rausgeführt. Auf der anderen Seite werden dann die 4x 12V / Masse dann auf 6x 12V / Masse aufgeteilt mittels Lötbrücken. Wobei 12pin Stecker die Leitungen auch noch zueinander überbrückt sind. Ich bin kein Elektro-Ingenieur, aber für mich ist das nicht sonderlich sauber gelöst. Es gibt auch gute Gründe, warum man die Terminals sonst bei allen Kabeln crimpt statt lötet.
Letztlich ist der ATX 3.0 / PCIe gen5 Stecker eine wundersame Angelegenheit. Wir haben vorher 8pin Stecker mit 3x 12V Leitungen, welche maximal 150 Watt übertragen durften. Also 50 Watt pro 12V Leitung. Jetzt haben wir 600 Watt bei 6x 12V, also 100 Watt pro Leitung. Aber gleichzeitig wird der Stecker kleiner, wodurch der verwendbare Leitungsquerschnitt und die Kontaktfläche der Terminals kleiner wird. Also doppelte Ampere auf kleinerer Fläche.
Ich kenne die Geschichte dieses 12+2pin Steckers nicht vollständig. Aber letztlich hat doch Nvidia bei der 3090 die Beta-Version ohne Sense-Pins verwendet. Vielleicht hat sogar Nvidia das Layout samt Rastermaß definiert, damit man einen schlanken Stecker an den Ampere FE Karten haben konnte. Wobei aber kaum ein Netzteil den 12(+2) Stecker bislang nativ unterstützt, darum hat man dann diese unsäglichen Adapter baumeln.
Es ist faszinierend, dass sowohl Intel bei Arc als auch AMD bei RDNA3 den Stecker ignoriert. Falls die Gerüchte um die ursprünglich geplanten 600 Watt plus Monster bei Ada stimmen sollten (also noch damals mit Samsung Chips statt TSMC), wäre eine Eskalation mit 8pin PCIe Stecker eigentlich nur bei Nvidia erforderlich gewesen. Jetzt hat der Markt eine halbgare Lösung für ein Problem, dass Nvidia doch noch umschiffen konnte.
Der 6 / 6+2 PCIe Stecker sollte ja abgelöst werden, weil es zuviele Bastellösungen mit Adaptern von sogar 4pin Molex auf PCIe gab. Jetzt haben wir einen neuen Stecker und dieser wird direkt zum Start von Nvidia durch diesen Adapter verhunzt. Aus meiner Sicht hätte man ausschließlich Netzteile mit nativen Lösungen erlauben dürfen.
Kriegsgeier
2022-10-27, 10:57:30
so weit sind wir schon: ein 5V Molex Stecker aus 1980ger Jahren ist besser als die Neuerfindung aus 2022...
Krimpen ist bei Schaltlitze immer noch besser als löten. Man wollte natürlich den Übergangswiderstand damit niedriger halten als bei einem gekrimpten Kontakt aber die Ausführung ist leider ein Murks, sorry...
Ein Stecker MUSS ein Schutz gegen Knicken haben inkl. einer Zugentlastung.
dass Krimpen bei solch einem Miniaturstecker nicht möglich gewesen ist war wahrscheinlich von Anfang an klar
Troyan
2022-10-27, 11:05:34
Ich kenne die Geschichte dieses 12+2pin Steckers nicht vollständig. Aber letztlich hat doch Nvidia bei der 3090 die Beta-Version ohne Sense-Pins verwendet. Vielleicht hat sogar Nvidia das Layout samt Rastermaß definiert, damit man einen schlanken Stecker an den Ampere FE Karten haben konnte. Wobei aber kaum ein Netzteil den 12(+2) Stecker bislang nativ unterstützt, darum hat man dann diese unsäglichen Adapter baumeln.
Es ist faszinierend, dass sowohl Intel bei Arc als auch AMD bei RDNA3 den Stecker ignoriert. Falls die Gerüchte um die ursprünglich geplanten 600 Watt plus Monster bei Ada stimmen sollten (also noch damals mit Samsung Chips statt TSMC), wäre eine Eskalation mit 8pin PCIe Stecker eigentlich nur bei Nvidia erforderlich gewesen. Jetzt hat der Markt eine halbgare Lösung für ein Problem, dass Nvidia doch noch umschiffen konnte.
Natürlich ignoriert man den Adaptern, wenn der Kunde noch kein Netzteil mit Anschluss hat. Das ist eben die Krux an der Sache. Der Adapter ist eine Lösung für ältere Netzteile.
why_me
2022-10-27, 11:07:27
Das man so was nicht lötet ist eigentlich E-Technik Grundlage, bzw. wenn Löten, dann nur mit Zugentlastung und genug Spiel in der Leitung. Zinn zieht in die Litze und man hat relativ große Hebelkräfte.
Igors Test ist aber auch nur so lala, was den original Stecker angeht. Zumindest fehlt hier einiges an Dokumentation. Die 4090 scheint auch die Suprim Liquid zu sein, da wird die Hitze der Karte auch weit weg vom Stecker gebracht, das dürfte auch für niedrigere Temperaturen sorgen.
Hinzu kommen das die Messungen sehen nach einem offenen Benchtop aus und da hat er schon 60C gemessen, also mehr als 35K über Ambient, bei 600W sogar 45K. Im Gehäuse, gerade mit schlechtem Airflow sollten die Temperaturen nochmal höher ausfallen. Bei höheren Temperaturen könnte das Plastik bereits leicht nachgeben, was den Kontakt weiter verschlechtern könnte (Teufelskreis).
Das sehe ich genauso. Der offene Aufbau ist zwar nett zum Messen, man sollte die Umgebungstemperaturen innerhalb eines Gehäuses nicht ignorieren.
In den Kommentaren unter seinem Artikel redet er die Umgebungstemperatur im Gehäuse dann aber klein und das die Temperatur im Stecker dadurch nicht steigen soll. Das macht doch überhaupt keinen Sinn. :confused:
Man kann das Delta ja außerhalb des Gehäuses messen, muss es aber dann auf die Umgebungstemperatur innerhalb des Gehäuses drauf rechnen.
Durch den großen Kühlkörper der 4090er Karten dürften die auch bei hohen Temperaturen im Gehäuse eher nicht throtteln. Und 400+W heizen so ein Gehäuse ja auch mehr...
@Rolsch Klar kommt das von Gamestar, aber wie kommen die da drauf? Wollte dir da nichts unterstellen.
Ätznatron
2022-10-27, 11:43:50
Gut ist: Das Problem ist früh aufgefallen, zwar nach Marktstart, aber bevor das erste Haus brannte.
Hm, zumindest ist so ein Fall bisher nicht öffentlich bekannt geworden.
Ganz ausschließen könnte man ihn aber nicht.
unl34shed
2022-10-27, 11:52:09
In den Kommentaren unter seinem Artikel redet er die Umgebungstemperatur im Gehäuse dann aber klein und das die Temperatur im Stecker dadurch nicht steigen soll. Das macht doch überhaupt keinen Sinn. :confused:
Ja, da hätte ich ihm mehr zu getraut...
why_me
2022-10-27, 12:09:00
Die Kommentare werden ja immer schlimmer.
Daredevil
2022-10-27, 12:27:05
Igors Einleitung ist super. :D
"In jedem Karton von dieser Karte liegt diese kleine Zündschnur".
Troyan
2022-10-27, 12:31:06
Igor mal wieder. Mag seine Videos, aber manchmal ist das nur strange. Ampere schon vergessen: https://www.igorslab.de/was-wirklich-hinter-den-abstuerzen-und-instabilitaeten-der-geforce-rtx-3080-und-rtx-3090-stecken-koennte-investigativ/
Am Ende fixte es ein Treiber. Nix Hardwareproblem.
Niemand weiß, ob der Adapter einzig problematisch ist. Jedenfalls der eine Typ hatte keinen 4090 Adapter verwendet.
Blase
2022-10-27, 12:40:49
[...]Bzgl. deiner Nachfrage: Meine Karte geht stock gerade mal über 2700MHz. Deine macht da fast 100MHz mehr. Daher die Aussage bzgl. Silicon Luck. Allerdings sind OC ohne Mehrspannung über 2900 MHZ drin. Wie schaut's bei dir aus? Natürlich nur sofern du Zeit und Lust hast das nachzutesten.
Habe mal ein wenig an den Taktschrauben gedreht. Selbst wenn ich drüber gehe, pendelt sich die Karte nach kürzester Zeit bei exakt 2895 MHz Chiptakt ein. Das allerdings bei default Spannung und default Power Limit. Gleichzeitig bekomme ich +1300MHz auf den Speicher. Getestet mit dem Timespy, dem Horizon Benchmark und Ingame CP - brachte jeweils Verbesserungen im einstelligen Prozentbereich. Also kann man mitnehmen, aber muss man nicht zwingend.
Aufgrund meines 600er Netzteils - und weil ich letztlich ohnehin überwiegend beim Setting "70 Prozent PT" bleibe - habe ich aber weder versucht, das PT zu erhöhen, noch die Spannung über 1.05V zu treiben.
Der Leistungsverlust bei 70 Prozent PT ist, soweit ich das sehen kann, minimal und steht einer deutlichen Reduzierung der Verlustleistung gegenüber. Für mich ein guter Kompromiss - selbst wenn ich den wohl aufgrund meines lütten NTs gar nicht eingehen bräuchte (wie ursprünglich "befürchtet") :tongue:
Damit sind die "Tests" für mich und meine Karte abgeschlossen und mein Sweetspot gefunden. Läuft so gut, dass ich den Gedanken, zeitnah auch den ganzen Unterbau samt CPU zu wechseln, so langsam wieder verwerfe :freak:
MfG Blase
pilzsammler2002
2022-10-27, 12:46:25
Igor mal wieder. Mag seine Videos, aber manchmal ist das nur strange.
Wenn es nur ein "Hirngespinst" wäre, würde Nvidia selber das nicht zur Chefsache machen :freak:
Troyan
2022-10-27, 12:47:36
Wenn es nur ein "Hirngespinst" wäre, würde Nvidia selber das nicht zur Chefsache machen :freak:
Klar, so wie es Chefsache war, dass Lovelace bei Samsung produziert werden sollte und deswegen die ganzen Kühler auf 600W ausgelegt wären? :eek:
Nicht alles glauben, was im Internet steht.
OpenVMSwartoll
2022-10-27, 12:51:55
Klar, so wie es Chefsache war, dass Lovelace bei Samsung produziert werden sollte und deswegen die ganzen Kühler auf 600W ausgelegt wären? :eek:
Nicht alles glauben, was im Internet steht.
Gaslighting? Keine gute Taktik.
Fakten sind ja nun verfügbar, Lösung wird wohl schnell gefunden.
Troyan
2022-10-27, 13:00:12
Trollo, Igor hat auch bei Ampere Schlussfolgerungen getroffen, die nicht gestimmt haben.
Nur weil der Adapter diesen Ist-Zustand hat, muss er nicht schuld sein an den aufgetreten Problem.
Asaraki
2022-10-27, 13:01:39
Die Leute mögen halt Skandale ^^
So schlimm kann’s nichts sein, wenn hier noch keiner in die Luft geflogen ist ^^
Linmoum
2022-10-27, 13:19:47
Die Leute mögen keine minderwertige Qualität - gerade bei einem solch teuren Produkt - und das Risiko eines verschmorten Kabels als Folge.
Hat nichts mit Skandal mögen zu tun. Fakten liegen auf dem Tisch. Der Adapter ist Pfusch und hätte so schlicht nicht in Umlauf gebracht werden dürfen.
Edit: https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-4090-faq-kein-marktplatz-handeln-sperre.1323338/page-464#post-29518526
Da hat jemand mal die Ummantelung des Adapters aufgeschnitten. Das wird echt immer besser.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.