PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

AffenJack
2022-09-25, 19:13:44
Wer redet von Grafik "reduzieren"?!
RT ist bestenfalls ein Goodie und in Summe immer noch genauso wenig ein wirkliches Argument, wie seinerzeit die vollkommen absurden Tesselation-Faktoren die nV den Spieleherstellern aufgezwungen hat. :freak:

Da können wir in 4-5 Jahren nochmal drüber diskutieren, dann ist das aber sicher genauso wenig Thema wie heutzutage noch über die Leistung der Tess Einheit gefaselt wird.


Weil es nichts anderes ist, als Grafik reduzieren. Sonst kannst du genauso sagen alles über 8GB Ram ist ja nur Goodie, wen interessieren schließlich Ultra Texturen, reduziert die Grafik in vielen Fällen auch nicht. Genauso viele andere Grafikeinstellungen.

RT ist trotz noch bescheidener Installbase weit über den Goodiestatus hinweg. Bei grafisch anspruchsvollen Spielen dürfte der Anteil bei Neureleases mittlerweile schon bei einem Drittel liegen und sobald nicht mehr auf die Last-Gen Konsolen Rücksicht genommen wird, wirst du schnell bei mehr als 50% landen. Und für den Rest (also nicht grafisch anspruchsvoll) brauchst du auch keine High-End Grafikkarte.

Tesseract
2022-09-25, 19:15:44
Danke, aber ich habe sowohl eine RT fähige GPU, als auch eine Handvoll Games damit...inkl. CP2077.

CP2077 ist kein besonders gutes beispiel für RT weil es drangetackert ist wie bei fast allen anderen spielen bisher. RT wird dann interessant wenn es ein reiner RT-workflow ist bei dem man einen großteil aller bei rasterisierung manuell plazierten sekundärlichtquellen und sonstigen balast einsparen kann. bisher wurde das, soweit ich weiß, nur für metro exodus EE als "testlauf" gemacht.

why_me
2022-09-25, 19:16:07
Drei Jahre alt:
https://imgsli.com/MTI3MTc1
https://imgsli.com/MTI3MTc2

Warum sind die ganzen Metallobjekte im Schatten so hell bei RT? Muss das so, damit es der Realität entspricht? Ich glaube nicht.
Da ist eingeuditg ein Schattenwurf und das Metall sticht mit seiner helligkeit störend aus den Bildern hervor.

Troyan
2022-09-25, 19:18:36
Warum sind die ganzen Metallobjekte im Schatten so hell bei RT? Muss das so, damit es der Realität entspricht? Ich glaube nicht.
Da ist eingeuditg ein Schattenwurf und das Metall sticht mit seiner helligkeit störend aus den Bildern hervor.

Nennt sich Raytracing. Er möglicht eine genauere Lichtverfolgung und -berechnung. Wikipedia hilft dir weiter.

/edit: Und hättest du irgendwie Ahnung, wäre dir aufgefallen, dass die SSR nur den unteren Teil des Bodens widerspiegeln. Der obere Teil ist komplett falsch.

Und nein, die SSRs sind nicht das Bild, was der Entwickler will. Auch wenn du das bestimmt auch gleich als nächstes anführen willst.

Savay
2022-09-25, 19:19:47
RT ist trotz noch bescheidener Installbase weit über den Goodiestatus hinweg.

Tut mir leid...aber sehe ich absolut nicht so!

Die Spiele die es haben sehen in 9/10 Fällen nicht wirklich schlechter aus ohne RT, sondern höchstens anders.
Das gilt selbst für sowas wie CP2077, da die Qualität oft zudem extrem schwankt und auch für eine wesentlich konsistentere minimal Implementation wie in WoW mit den paar RT Schatten ist der Mehrwert eigentlich recht überschaubar.

Einen spielerischen Mehrwert sehe ich bisher nicht und auch noch nicht eine relevante Anzahl an Spielen die RT wirklich voraussetzen.

Ergo:
Es ist und bleibt momentan noch ein Goodie, nicht mehr, nicht weniger. :comfort2:

CP2077 ist kein besonders gutes beispiel für RT weil es drangetackert ist wie bei fast allen anderen spielen bisher.

Eben...dazu braucht es aber noch 1-2 Gens und viel mehr RT Leistung bereits ab der Mittelklasse. Denn wenn ein N21 angeblich zu langsam ist, ist es auch eine 3060 bis 3070.
Zudem müssen die Entwickler m.E. auch noch ein wenig Lernen wie man es als Best-Practice implementiert, da es nicht selten einfach plakativ und überzogen wirkt.

why_me
2022-09-25, 19:22:56
Nennt sich Raytracing. Er möglicht eine genauere Lichtverfolgung und -berechnung.

Du warst also noch nicht an der Frischen Luft und hast dir das mal in der realität angeschaut, wie es dir Gestern von Nazar empfohlen wurde.
Da kannst du auch noch so oft schreiben, dass es realistischer aussehen soll, das kann es keine Frage. Tut es aber in deinen Beispielen nicht.
Oder willst du mir ernsthaft sagen, dass das real aussehen soll?

Sardaukar.nsn
2022-09-25, 19:25:11
Jensen Huang und die Leute im Management leben mittlerweile ganz klar in Ihrer eigenen Welt, mag ja sein, dass für Sie diese Preise ein Witz sind, wenn aber 96% der Menschen in einen Industrie Staat das als zu teuer empfinden, dann spricht sowas einfach nur Bände.

https://abload.de/img/unbenannt16idq.png

Ist die fehlende Mittelklasse nicht damit begründet das noch reichlich Ampere Bestand vorhanden ist der erstmal aus dem Lager muss?

Troyan
2022-09-25, 19:25:42
Du warst also noch nicht an der Frischen Luft und hast dir das mal in der realität angeschaut, wie es dir Gestern von Nazar empfohlen wurde.
Da kannst du auch noch so oft schreiben, dass es realistischer aussehen soll, das kann es keine Frage. Tut es aber in deinen Beispielen nicht.
Oder willst du mir ernsthaft sagen, dass das real aussehen soll?

Du hast irgendwie nicht gepeilt, dass der ENTWICKLER es so will. Deswegen hat er dort auch SSRs plaziert. :eek:

Sage ich ja: Du hast absolut keine Ahnung, über was du redest. Schlage den Begriff "künstlerische Freiheit" nach.

Zossel
2022-09-25, 19:29:32
Ein neues Format wäre wirklich angebracht, ohne (oder mit möglichst wenig) Altlasten.
Eine größere Platine mit quadratischerem Format für größere Lüfter? Hohe Towerkühler und Push-Pull-Lüfter?

Ich werfe noch mal meine Idee mit einem Slot für GPUs auf der derzeitigen MB-Rückseite in den Raum, das MB wird hochkant in der Mitte eingebaut. Auf die eine Seite kommt die CPU+PCIe, auf die andere Seite GPU+Netzteil. In die Gehäuse-Front kann dann ein ziemlich großer Lüfter verbaut werden um alle Komponenten zu belüften.
Die Bauform der GPU-Platinen kann gleich beiden, lediglich die Kühler für die GPU würden sich ändern. Und die MBs könnten mit wenig Aufwand in beiden Varianten angeboten werden.


Verbindung zum Mainboard über kurze Kabel? Wegfall von Spannungen unter 12V - oder gleich alles auf 20V?

48 Volt braucht noch keinen besonderen Schutz vor Berührung, und bei 0,6 kW wären das 12,5 Ampere, das kann auch von Laien befummelt und befrickelt werden.

aufkrawall
2022-09-25, 19:31:26
Einen spielerischen Mehrwert sehe ich bisher nicht

Dann siehst du wohl schlecht, DL2 ist mit RT massiv gruseliger als ohne.

Tesseract
2022-09-25, 19:31:39
Eben...dazu braucht es aber noch 1-2 Gens und viel mehr RT Leistung bereits ab der Mittelklasse.

es braucht nicht "viel mehr RT-leistung", metro läuft sogar auf den konsolen halbwegs brauchbar damit. es ist nur eine frage der software bzw. des workflow und das argument mit dem "lernen" war zum launch von turing definitiv ein punkt aber das ist auch schon wieder 4 jahre her. spiele mit guten implementierungen werden kommen, auch schon diese generation.

AffenJack
2022-09-25, 19:32:01
Tut mir leid...aber sehe ich absolut nicht so!

Die Spiele die es haben sehen in 9/10 Fällen nicht wirklich schlechter aus ohne RT, sondern höchstens anders.
Das gilt selbst für sowas wie CP2077, da die Qualität oft zudem extrem schwankt und auch für eine wesentlich konsistentere minimal Implementation wie in WoW mit den paar RT Schatten ist der Mehrwert eigentlich recht überschaubar.

Einen spielerischen Mehrwert sehe ich bisher nicht und auch noch nicht eine relevante Anzahl an Spielen die RT wirklich voraussetzen.

Ergo:
Es ist und bleibt momentan noch ein Goodie, nicht mehr, nicht weniger. :comfort2:


Wie gesagt, dann sollten Grafikeinstellungen über High für dich ebenso ein Goodie sein, denn in vielen Fällen ist der Unterschied RT zu Non-RT stärker als High zu Ultra. Oft würden die Leute nichtmal Medium zu Ultra unterscheiden können. Daher sollten wir alles über Medium als irrelevant betrachten.

Zossel
2022-09-25, 19:32:51
Vorsicht übrigens dass es euch die Kabel mit dem PCIe Gen 5 Adapter nicht wegschmoren. Das könnte nämlich richtig teuer werden.

https://abload.de/img/jayztwocents-seriousl5ae6y.png

"Cables with low cycles" -> gefährlicher Vollschrott.

why_me
2022-09-25, 19:33:57
Du hast irgendwie nicht gepeilt, dass der ENTWICKLER es so will. Deswegen hat er dort auch SSRs plaziert. :eek:

Sage ich ja: Du hast absolut keine Ahnung, über was du redest. Schlage den Begriff "künstlerische Freiheit" nach.

Du laberst wirres Zeug. Wo kommen jetzt wieder SSRs her, dachte es geht hier um RT?

Aber mal wieder Typisch von dir. Du weichst der Frage aus, Unterstellst wieder irgend etwas, das nicht gesagt wurde und wirst wieder persöhnlich...
Du bist hier doch schon lange genug dabei, verhalte dich endlich mal deinem Alter entsprechend und fang an anständig zu diskutieren oder lass es einfach bleiben. Vielleicht sind Foren auch einfach nichts für dich, nur mal so als Gedanke :wave:

Tesseract
2022-09-25, 19:38:19
bitte mit den persönlichen attacken zurückhalten

Troyan
2022-09-25, 19:42:28
Du laberst wirres Zeug. Wo kommen jetzt wieder SSRs her, dachte es geht hier um RT?

;D:eek::freak:
Du hast echt keine Ahnung, oder? Ich meine, das hier ist für dich "Realität"
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80634&stc=1&d=1664127688

Du hast keine Ahnung. Daher sind jede Diskussionen mir dir und anderen in einem Forum, was sich "3DCenter" nennt, sinnlos. Und nun frage einfach noch mal "wo kommen jetzt wieder SSRs her". ;D

why_me
2022-09-25, 19:46:00
Troyan, bitte lern lesen. Wo habe ich das behauptet? Bitte, zeig mir einen Quote.

Savay
2022-09-25, 19:51:35
Dann siehst du wohl schlecht, DL2 ist mit RT massiv gruseliger als ohne.

Zu einem DL2 kann ich naturgemäß nichts sagen, wenn ich den Titel noch nicht habe, zumal ich nicht genug Freizeit habe um jeden nur denkbares Spiel zu zocken.

Aber ein einzelnes Spiel macht eh noch keinen Sommer....oder so. :tongue:
Das spielerische Potenzial streite ich zudem ja gar nicht ab.
Wird halt nur meistens noch nicht genutzt.

Eben weil es meist als "Addon" auf den RZ Part gestülpt wird.

es braucht nicht "viel mehr RT-leistung",

Weiter vorne war noch das Killerargument von Trollian, dass nen N21 viel zu lahm wäre. :wink:
Damit ist auch jede 3060 bis 3070 komplett untauglich und und RT demzufolge grundsätzlich nur was für ne xx90er Karte.

Das heißt aber im Umkehrschluss, dass die (echte) Mittelklasse mindestens auf 3090 Niveau landen muss, damit man damit überhaupt was anfangen kann. :freak:

Darum ging es, nicht darum das es theoretisch sogar besser implementierbar wäre als bei den meisten bisher etablierten RT Titeln und Umsetzungen :wink:
Wobei da sicher die Frage des Marktpotenzials ist. (Ähnlich VR btw.)

Wie gesagt, dann sollten Grafikeinstellungen über High für dich ebenso ein Goodie sein,

Reden wir hier von so Späßen wie "Insane" statt Ultra und sinnlos VRAM und Leistung für kaum sichtbare Unterschiede verbraten werden?!
Und ja natürlich ist das dann Optional und ein Goodie.

Und ja, RT sieht meist anders aus...aber mMn in Summe(!) eben noch nicht zwingend wirklich so viel besser, dass es Alternativlos ist.
Davon abgesehen überzeugt mich RT bisher aufgrund der leider oft noch fehlenden Konsistenz nicht vollends.

Deal with it!

Kannst das gerne anders sehen, aber für mich ist es in Summe eindeutig noch ein Goodie, was sich natürlich ändern kann, wenn bis Ende des Jahres plötzlich 20 Titel erscheinen bei denen es Perfekt und ein absolutes Must-Have ist.
Ist zwar unwahrscheinlich, aber nicht unmöglich.

Troyan
2022-09-25, 19:55:00
Troyan, bitte lern lesen. Wo habe ich das behauptet? Bitte, zeig mir einen Quote.

Warum sind die ganzen Metallobjekte im Schatten so hell bei RT? Muss das so, damit es der Realität entspricht? Ich glaube nicht.
Da ist eingeuditg ein Schattenwurf und das Metall sticht mit seiner helligkeit störend aus den Bildern hervor.

Was SSRs sind: https://lettier.github.io/3d-game-shaders-for-beginners/screen-space-reflection.html

FastAndy
2022-09-25, 19:55:58
Sehe ich z.B. anders. Die Preise und was man bekommt z.B. RTX 4080 12GB, total kastriert im Chip. Und die Preise wie gesagt, kann ich jetzt schon bewerten, und die sind eine Katastrophe IMHO.
wen kümmern irgendwelche spezifikationen, mit denen sich vll 5% der Hardware Freakz auseinander setzen? Wenn eine "kastrierte" Karte Kreise um einen alten Vollausbau dreht, dann ist mir persönlich das komplett wumpe, ich greife trotzdem zur 4090, auch wenn sie nicht der vollausbau oder was auch immer ist. Die denkweise kann ich nicht nachvollziehen

Du gehörst in Deutschland als Single mit einem Monatseinkommen von 3700€ Netto oder mehr zu den oberen 10% der Verdiener. Das Lovelace LineUp ist vermutlich im Moment tatsächlich nur für die oberen ~20% gemacht. Und natürlich für die Hardcore Nerds für die Geld beim Thema Hardware nebensächlich ist.

so sieht es aus, wer sich darüber aufregt, dem kann man nicht mehr helfen.
ich glaube manche können einfach nicht damit umgehen, dass sie sich etwas nicht leisten können (oder wollen) und werden dann grantig. dabei würde JEDER genauso handeln wie nv, wenn er in der situation wäre. wozu sollten die geld verschenken?
Jeder der hier über die Preise meckert, verkauft seine hardware doch auch nicht unter marktwert. :wink:

In paar Monaten sehen wir dann ja wie krass die Karte ankommt. Oder ob Jensen doch zurückrudert und Preise senken muss wg der Konkurrenz.

Selbst wenn die preise fallen, war der schritt zuerst hoch anzusetzen höchstwahrscheinlich trotzdem schlauer aus wirtschaftlicher sicht.

Jensen Huang und die Leute im Management leben mittlerweile ganz klar in Ihrer eigenen Welt, mag ja sein, dass für Sie diese Preise ein Witz sind, wenn aber 96% der Menschen in einen Industrie Staat das als zu teuer empfinden, dann spricht sowas einfach nur Bände.

https://abload.de/img/unbenannt16idq.png

lass sie doch, geht dich nüchtern betrachtet nichts an (so hart das evtl klingt).
Soll NV etwa preise nach einer umfrage der masse kalkulieren oder darauf hören was manch ein ahnungsloser user ohne interna im internet denkt?
Ich verstehe echt nicht wie man so denken kann, wird man doch nie glücklich mit.

Ex3cut3r
2022-09-25, 19:56:00
Zu einem DL2 kann ich naturgemäß nichts sagen, wenn ich den Titel noch nicht habe, zumal ich nicht genug Freizeit habe um jeden nur denkbares Spiel zu zocken.


Der Unterschied in DL2 ist wirklich immens, dadurch wird es quasi ein Next Gen Spiel was die Beleuchtung angeht.
Die Raster Only Implementierung ist im direkten Vergleich einfach nur lausig schlecht.

https://imgsli.com/MTI3MTky

why_me
2022-09-25, 19:57:46
@Troyan: Wo schreibe ich da von SSRs? Ich frage doch speziell nach dem RT Bild. :confused:

aufkrawall
2022-09-25, 20:00:42
Zu einem DL2 kann ich naturgemäß nichts sagen, wenn ich den Titel noch nicht habe, zumal ich nicht genug Freizeit habe um jeden nur denkbares Spiel zu zocken.

Aber ein einzelnes Spiel macht eh noch keinen Sommer....oder so. :tongue:
Das potenzial streite ich zudem ja gar nicht ab.

Es gibt bestimmt >10 Spiele, in denen sich RT lohnt. Ich mach das selbst mit der 3060 in der Mehrzahl der Spiele an, in denen vorhanden. Von altem Scheiß wie BF5 etc. mal abgesehen.
Ich würde es selbst in Fortnite für Reflexionen aktivieren, wäre es nicht nur ein lieblos zu 100% unoptimiertes Nvidia-Werbe-Checklistenfeature. Man kann damit tatsächlich Gegner um Ecken sehen. :freak:

Cyberfries
2022-09-25, 20:13:42
Auf die eine Seite kommt die CPU+PCIe, auf die andere Seite GPU+Netzteil. In die Gehäuse-Front kann dann ein ziemlich großer Lüfter verbaut werden um alle Komponenten zu belüften.

Also quasi xBox Series X?
Nur einen gemeinsamer Lüfter und mögliches Aufheizen der Rückseiten halte bei Eigenbau-Systemen für problematisch.

Ich dachte eher an einen Block nach nVidias DGX Vorbild neben oder auf dem Mainboard,
(was bei daneben nichtmal zwingend neue Mainboards verlangt)
Eine Grafikkarte wäre weiterhin ein abgeschlossenes Konstrukt mit eigenem Kühler, was für Laien von Vorteil wäre.

48 Volt ... bei 0,6 kW wären das 12,5 Ampere, das kann auch von Laien befummelt und befrickelt werden.

USB erlaubt mittlerweile auch bis zu 48V / 240W, meines Wissens nach ohne durchschmorende Kabel.
Insofern: Ich wäre dabei.

Du hast echt keine Ahnung, oder? Ich meine, das hier ist für dich "Realität"

Leider ist beides nicht "Realität", beide Bilder haben Fehler.
Die Reflexion des Eimers ist klar besser, doch Wasserspender oder Tischbeine im anderen Bild sehen merkwürdig aus.
Beides klar zu hell, der Wasserspender wirkt nicht als würde er auf dem Boden stehen sondern schweben

Troyan
2022-09-25, 20:26:19
Leider ist beides nicht "Realität", beide Bilder haben Fehler.
Die Reflexion des Eimers ist klar besser, doch Wasserspender oder Tischbeine im anderen Bild sehen merkwürdig aus.
Beides klar zu hell, der Wasserspender wirkt nicht als würde er auf dem Boden stehen sondern schweben

Geh 20 jahre zurück. Sah auch nicht besser aus. :cool:
Diskussionen über "richtig" ist irgendwie strange, wenn die Hardware noch nicht annährend soweit ist.

Jedoch ist Control ein Spiel, wo man die massiven Fails und die fehlenden grafischen Effekte sieht, wenn der Entwickler sich nicht zurückhält. Hier eindrucksvoll, was eigentlich nicht mit SSRs umgesetzt werden sollte:
https://imgsli.com/MTI3MTk4

Aber ohne SSRs wären das auch nur langweilige Texturen.

Thunder99
2022-09-25, 20:42:20
Was mich überrascht hat ist, dass die Kühler alle 3,xx sind, egal welche TDP. Klar wird eine 4080 12GB und 16GB leiser sein als eine 3080 FE aber dennoch schade.
Untervolten kann ja man die Karten daher kann auch ein kleiner Kühler auch leise sein.

Btw, der Name vom AD104 Karte kann man getrost vergessen. Am Ende zählt welche Performance die Karte hat zu welchem Preis im Vergleich zu den vorherigen Generation.

MiamiNice
2022-09-25, 21:11:14
Macht Spaß zu lesen:

Grüne Sonntagsgedanken: Ein doppeltes Lottchen aus den 80ern und dahinschmelzende Stecker | Glosse
https://www.igorslab.de/gruene-sonntagsgedanken-ein-doppeltes-lottchen-und-schmelzende-stecker/

Ex3cut3r
2022-09-25, 21:24:17
Bei CB gibts jetzt auch einen Artikel.

Hoffentlich kostet das kein Menschenleben im schlimmsten fall, großer Gefahrenherd wenn man mich fragt. Oder man holt sich natürlich gleich ein neues 1200W NT mit PCIe 5 nativen Stecker.

https://www.computerbase.de/2022-09/12vhpwr-stecker-ueberlasteter-steckverbinder-auch-ohne-adapter-moeglich/

unl34shed
2022-09-25, 21:32:15
Die nativen PCIe5 Netzteile haben das gleiche Problem doch auch, da das Problem vom Stecker usgeht.
Bei den modularen Netzteilen, die ich bis jetzt gesehen habe sogar doppelt, da am Netzteil nochmal ein 12+4Pin sitzt. Wenn du da beim Einbau des Netzteils noch kräfte auf den Stecker ausübst, bekommst du da vermutlich auch schnell Kontaktprobleme. 1,2kW werden ja nicht die kürzesten Netzteile sein und das könnte in so manchen Case eng werden.

DrFreaK666
2022-09-25, 21:32:48
Heißt gar nichts, laut Umfragen wollen auch noch 80% Maske tragen.

lol, "58 Prozent unterstützen eine Maskenpflicht im Fernverkehr der Bahn und im Flugverkehr. Beim Einkaufen wollen nur noch 46 Prozent eine Maske tragen"

(58%+46%)*0,77=ca.80%

Oder wie kommst du auf diese Zahl?

Vielleicht solltest du Umfragen in Zukunft besser studieren ;)

Ex3cut3r
2022-09-25, 21:35:50
Die nativen PCIe5 Netzteile haben das gleiche Problem doch auch, da das Problem vom Stecker usgeht.
Bei den modularen Netzteilen, die ich bis jetzt gesehen habe sogar doppelt, da am Netzteil nochmal ein 12+4Pin sitzt. Wenn du da beim Einbau des Netzteils noch kräfte auf den Stecker ausübst, bekommst du da vermutlich auch schnell Kontaktprobleme. 1,2kW werden ja nicht die kürzesten Netzteile sein und das könnte in so manchen Case eng werden.

Also bezahlst du 2200€ für eine Custom 4090 und musst dann beten, dass dir deine Wohnung nicht abfackelt? :freak:

Genialer Shit.

basix
2022-09-25, 21:36:03
48 Volt braucht noch keinen besonderen Schutz vor Berührung, und bei 0,6 kW wären das 12,5 Ampere, das kann auch von Laien befummelt und befrickelt werden.

Ich glaube, 24V wären für den DAU besser ;) Dann wären wir bei 600W wieder bei 25A, wie schon bei 12V und 300W.

Und man muss auch wissen, dass MOSFETs mit steigender Spannung teurer werden. Ergo würden die VRMs auf der GPU mit 48V teurer werden.

DrFreaK666
2022-09-25, 21:36:34
Geh 20 jahre zurück. Sah auch nicht besser aus. :cool:
Diskussionen über "richtig" ist irgendwie strange, wenn die Hardware noch nicht annährend soweit ist.

Jedoch ist Control ein Spiel, wo man die massiven Fails und die fehlenden grafischen Effekte sieht, wenn der Entwickler sich nicht zurückhält. Hier eindrucksvoll, was eigentlich nicht mit SSRs umgesetzt werden sollte:
https://imgsli.com/MTI3MTk4

Aber ohne SSRs wären das auch nur langweilige Texturen.

Das hätte man sicher intelligenter lösen können. Alte Games haben auch Spiegel, in denen sich die Figur spiegelt

Neurosphere
2022-09-25, 21:37:27
Die nativen PCIe5 Netzteile haben das gleiche Problem doch auch, da das Problem vom Stecker usgeht.
Bei den modularen Netzteilen, die ich bis jetzt gesehen habe sogar doppelt, da am Netzteil nochmal ein 12+4Pin sitzt. Wenn du da beim Einbau des Netzteils noch kräfte auf den Stecker ausübst, bekommst du da vermutlich auch schnell Kontaktprobleme. 1,2kW werden ja nicht die kürzesten Netzteile sein und das könnte in so manchen Case eng werden.

Ich kann mir eigentlich nicht vorstellen das die das für ATX 3.0 so freigegeben haben und dann tauchen so offensichtliche Probleme sogar mit dem regulären Stecker auf. Ich glaube das sich da derzeit nicht ganz in der Spezifikation bewegt wird, mit den Kabelpeitschen sowieso nicht.

aufkrawall
2022-09-25, 21:45:50
Das hätte man sicher intelligenter lösen können. Alte Games haben auch Spiegel, in denen sich die Figur spiegelt
Die Mirrors in alten Spielen waren die dümmstmögliche Lösung, und du erzählst einen von "intelligenter". ;D

Daredevil
2022-09-25, 21:49:00
1,2kW werden ja nicht die kürzesten Netzteile sein und das könnte in so manchen Case eng werden.
Die haben eine normale Größe, also zumindest mein 4 Jahre altes Seasonic 1300w Gold NT.

Dorn
2022-09-25, 21:52:07
Ich kann mir eigentlich nicht vorstellen das die das für ATX 3.0 so freigegeben haben und dann tauchen so offensichtliche Probleme sogar mit dem regulären Stecker auf. Ich glaube das sich da derzeit nicht ganz in der Spezifikation bewegt wird, mit den Kabelpeitschen sowieso nicht.

...und dazu kommt maximal 30 mal den Stecker rein raus dann wegwerfen! Hardware Tester können gleich mal ein Abo abschließen. Hey und Achtung nicht zu viel biegen!

nvidia empfiehlt bei offenen Gehäuse zu spielen und die Nase immer mal wieder drüber halten, so oder so ähnlich. Bzw. in Zukunft muss ein Elektriker die Grafikkarte anschließen ansonsten zahlt die Versicherung nix...Böse Witze sorry... ich spiel mal ne Runde Nintendo Switch welche 7 Watt verbraucht^^....

Nazar
2022-09-25, 22:30:30
Du hast irgendwie nicht gepeilt, dass der ENTWICKLER es so will. Deswegen hat er dort auch SSRs plaziert. :eek:

Sage ich ja: Du hast absolut keine Ahnung, über was du redest. Schlage den Begriff "künstlerische Freiheit" nach.

Und so schnell gehen die Argumente der RT Fans aus, sodass sie sogar bereit sind den (RT)Spiegel zu übersehen, mit dem sie sich gerade unterhalten. :freak:
Du bist doch gar nicht in der Lage das Gelesene zu verarbeiten, ansonsten würdest du dir nicht ständig selber ein Bein stellen. :rolleyes:

Du führst SSR auf, obwohl du vorher darauf hingewiesen wurdest, dass das in diesem super tollen Pfützen-Spiel komplett weggelassen wurde, vermutlich, um RT noch mehr "glänzen" zu lassen, wie in fast allen mir bekannte Spielen auch? :eek:
Aber das "Beste" kommt ja erst noch, gell? :freak:
Die RT-Fans reden ständig von "mehr Realismus" dank RT, dann zeigen die Zweifler (der Kosten-Nutzen) auf, dass das so nicht stimmt und schwups kommen in 99,99% aller Fälle die "Freien Künstler" ans Tageslicht.
Dann ist es egal, dass Londoner Straßen fast nur noch aus Pfützen bestehen, oder sich Personen in Glasflächen spiegeln, die eine helle Hintergrundbeleuchtung aufweisen, dass Reflexionen sich in Farbe und Klarheit nicht mehr von den Objekten im Hintergrund unterschieden lassen, sodass man den Eindruck einer Raum- u. Zeitverschiebung hat. Es ist dann vollkommen Egal, dass direktes Licht durch 2 Fenster mit der Größe 2x1 Meter fällt, aber schon 2 Zentimeter nach dem Schattenriss, nicht mal mehr die Schuhe des NPC zu erkennen sind, dass die Schatten der Blätter eines üppig beblätterten Laubbaums aussehen, als würden diese durch ein dreckige aber durchsichtigen Plastikfolie erzeugt, währenddessen der Schatten eines Brückenteils daneben, in lichtlose Tiefe eintaucht.
Aber, als ob das noch nicht genug ist, setzt man eines drauf und lässt komplette Gebäude zu Schwimmbädern werden. Es funkelt und glitzert, dass die Schneekönigin ihre "helle" Freude gehabt hätte.
Selbst in der Wüste haben Pfützen, seit RTX, Einzug erhalten.
Man mag fast zu der Meinung kommen, dass es gar nicht um RTX geht, sondern um Pfützen!? Oder, was würde RTX nur ohne Pfützen machen? ;D
Ich weiß es; extrem dunkle und mega unrealistische Schattenwelten erschaffen!
RT ist an sich nicht schlecht, nur für das, was es kostet und besonders für das was es im Gegenzug besser machen kann als gut optimierte RZ Spiele, viel zu Leistungshungrig.
Man schaue sich die Spiele an, welche die RT-Fans als ihre "Prunkstücke" für "künstlerische Freiheit" hervorholen und dann schaue man bitte auf so alte Spiele TW3. Kein RT und trotzdem eins Spiel was mit vielen Mods immer noch für Staunen sorg, was so alles ohne RT immer noch möglich ist, und das ohne die ständigen staunenden Blicke, wenn RT mal wieder für einen seiner Inselaugenblicke gesorgt hat, die einem immer wieder aus der Immersion herausholen und für staunende Blicke sorgen, weil es eben !!nicht!! besser aussieht, sondern "nur" anders und den homogenen Gesamteindruck des Spiels total zerstört.
Wie viele Jahre müsste man derzeit warten, um ein Spiel wie TW3 in RT ohne solche RT-Inselmomente und ohne ein !!Bildqualitätsverschlechterungsprogramm!! erleben zu dürfen? 5 oder doch besser 10?
Wenn man der Entwicklung der RT-Performance alle zwei Jahre verfolgt, scheint man an einem Punkt angekommen zu sein, wo eine potenzielle Abnahme der Leistungssteigerung vorhanden ist. Nicht ohne Grund stürzt sich nV wohl auf ein Bildverschlechterungsprogramm, um den Patienten "RT" am Leben zu erhalten. Wie lange wird das noch funktionieren, wenn Softwarelösungen, wie Lumen, mit deutlich weniger Leistungsverbrauch schon ähnliche oder teilweise bessere Ergebnisse erzielen können, als es das derzeitige RT (begründet alleine auf die mangelhafte Leistungsfähigkeit der aktuellen und auch zukünftigen GPUs) auch nur im Ansatz vermag.
In Bezug auf eine homogene Darstellung kann RT schon jetzt nicht mehr mithalten und benötigt, um überhaupt noch irgendwie als Marketinggag herhalten zu können, ein !!Bildverschlechterungsprogramm!! :eek:
Und hier schließt sich dann der Kreis.
RTX ist immer noch nicht in der Lage, auf den schnellsten GPUs, in Spielen, mit höchsten Qualitätseinstellungen und !!ohne!! ein !!Bildqualitätsverschlechterungsprogramm!!, eine FPS Leistung zu zeigen, die ein 2 Jahre altes Spiel wirklich durchgehend flüssig spielbar macht.
Und dann kommen all die "ungekauften" Online-Magz. ins Spiel, die DLSS, also dieses !!Bildverschlechterungsprogramm!!, allen Ernstes als den neuen geilen Scheiß vorstellen. Bewegungsartefakte wurden über Jahre verschwiegen, genauso wie Textur-Veränderung oder noch schlimmer, dass das Bild künstlich unscharf gemacht wird.
Man braucht fast einen Doktortitel, um ein RTX Spiel wieder genügend Schärfe zu verpassen, um es wieder einigermaßen genießen zu können. :rolleyes:
Ja, geiler Scheiß, man bekommt RTX, benötigt ein Tool damit es dann wieder schnell genug läuft, stellt fest, dass die BQ aber ganz schön leidet und muss dann das Bild erneut modden, damit man es wieder einigermaßen genießen kann.
Und dann kommst du mit "künstlerischer Freiheit", weil SSR, ein Standard, nicht genutzt wurde, um RTX zu pushen? ;D
RTX = voll geil und soooooo einfach
Und dann wollen die Fans von RTX allen Ernstes Diskussionen über "mehr Realismus" und "bessere Bildqualität" anstoßen.
Leute, der Kaiser ist einfach nur nackt und wird es mindestens noch eine Dekade bleiben. :wink:

basix
2022-09-25, 22:41:49
Lumen verwendet HW-RT und legt damit in der Qualität einiges zu. Ist HW-RT nötig? Nein. Macht es aber schneller.

DrFreaK666
2022-09-25, 23:03:33
Die Mirrors in alten Spielen waren die dümmstmögliche Lösung, und du erzählst einen von "intelligenter". ;D

Besser als die komischen Grafikfehler.
Ist das immer so oder worst case?

aufkrawall
2022-09-25, 23:12:46
Besser als die komischen Grafikfehler.

Ist das immer so oder worst case?
Klassische Mirrors sind in komplexen Szenen Performance-Alpträume, mehr als einer gleichzeitig mit geringer Sichtweite und Render-Komplexität sind kaum möglich.
Ist, anders als RT, nicht skalier- und optimierbar. Es muss aber skalierbar sein, wenn auch andere Oberflächen als perfekte Spiegel sich glaubhaft verhalten sollen.
In Hitman 2 gab es das ja und hat die Performance mitunter gekeult, sobald die selektiv spiegelnden vertikalen Flächen in der Szene auftauchten. Wenn man RT auf eine ähnlich kleine Fläche beschränken würde, würd das einen Bruchteil der Leistung kosten, mitunter selbst auf RDNA2. Das beschissene RT in Hitman 3 ist natürlich kein überzeugender Gegenentwurf, das ist klar.

wolik
2022-09-25, 23:15:19
Alle Jahre wieder... RT Diskussion. Natürlich in Ada Thread. Wo sonst.

Radeonfreak
2022-09-25, 23:17:43
Was mich bei der Steckerproblematik wundert, es ist doch der selbe Stecker der auf der 3090 Ti verwendet wird und da ist ja bis jetzt auch nichts abgefackelt?

Aber ich denke wenn der nur 1 Mal reingesteckt wird und nicht übelst geknickt wird wohl nichts fackeln. Und ich hab ja einen original Stecker Adapter beim Netzteil dabei, im Notfall haftet dann der Hersteller oder? :freak:

Troyan
2022-09-25, 23:17:52
Das hätte man sicher intelligenter lösen können. Alte Games haben auch Spiegel, in denen sich die Figur spiegelt

Das funktioniert nur für plane Oberflächen und kostet richtig viel Leistung. Auch ist es nicht möglich "transparente" Spiegelungen zu realisieren - also die spiegelnde Oberfläche bleibt durchsichtig: https://imgsli.com/MTI3MjIw

Was mich bei der Steckerproblematik wundert, es ist doch der selbe Stecker der auf der 3090 Ti verwendet wird und da ist ja bis jetzt auch nichts abgefackelt?

Aber ich denke wenn der nur 1 Mal reingesteckt wird und nicht übelst geknickt wird wohl nichts fackeln. Und ich hab ja einen original Stecker Adapter beim Netzteil dabei, im Notfall haftet dann der Hersteller oder? :freak:

Die Problematik gibt es auch beim aktuellen 8PIN-Anschluss: https://www.reddit.com/r/nvidia/comments/xm8e3b/jayztwocents_more_bad_news_for_nvidias_40_series/

Ex3cut3r
2022-09-25, 23:23:31
Was mich bei der Steckerproblematik wundert, es ist doch der selbe Stecker der auf der 3090 Ti verwendet wird und da ist ja bis jetzt auch nichts abgefackelt?

Aber ich denke wenn der nur 1 Mal reingesteckt wird und nicht übelst geknickt wird wohl nichts fackeln. Und ich hab ja einen original Stecker Adapter beim Netzteil dabei, im Notfall haftet dann der Hersteller oder? :freak:

Die Custom von der 4090 werden Richtung 600W gehen. Die Customs bei der 3090 Ti sind nur bis 450W gegangen. :biggrin:
150W mehr sind mehr als man denkt. ^^

Radeonfreak
2022-09-25, 23:26:05
Naja, ich hab eh nicht vor "erstmal" über 450 Watt zu verbraten.:freak:

monstar-x
2022-09-25, 23:31:34
Und so schnell gehen die Argumente der RT Fans aus, sodass sie sogar bereit sind den (RT)Spiegel zu übersehen, mit dem sie sich gerade unterhalten. :freak:
Du bist doch gar nicht in der Lage das Gelesene zu verarbeiten, ansonsten würdest du dir nicht ständig selber ein Bein stellen. :rolleyes:
Leute, der Kaiser ist einfach nur nackt und wird es mindestens noch eine Dekade bleiben. :wink:

Ich verstehe nicht wieso ihr alle immer noch mit ihm (Troyan) diskutiert, er kennt doch nur seine Meinung (plus die von Nvidia) und ist dabei Lernresistent wie eh und je.
Seit 100 Seiten immer der selbe leier, genau das selbe wie damals im 2020 Amper Thread.

Es ist so leider so mühselig den Thread zu lesen und sich die wichtigen Infos raus zu ziehen :-(

FastAndy
2022-09-25, 23:41:12
Die diskussionen sind schon seit den letzten min. 3 gens die gleichen. Allen voran wieder der klassiker "viel zu teuer". :whistle:

Freestaler
2022-09-25, 23:42:45
@Nazar, danke für deine Worte. Balsam.

DrFreaK666
2022-09-26, 00:15:13
...
Es ist so leider so mühselig den Thread zu lesen und sich die wichtigen Infos raus zu ziehen :-(

Wichtige Infos wird es sowieso erst beim Fall des NDAs geben

FastAndy
2022-09-26, 00:23:58
Die computerbase umfragen sind ja der knaller. X-D Die formulierungen sind ja kaum beeinflussend. Naja was solls, das klientel da fühlt sich dadurch wohl wichtig, anderen sinn ergibt das ja nicht.

davidzo
2022-09-26, 00:33:22
Bei CB gibts jetzt auch einen Artikel.

Hoffentlich kostet das kein Menschenleben im schlimmsten fall, großer Gefahrenherd wenn man mich fragt. Oder man holt sich natürlich gleich ein neues 1200W NT mit PCIe 5 nativen Stecker.

https://www.computerbase.de/2022-09/12vhpwr-stecker-ueberlasteter-steckverbinder-auch-ohne-adapter-moeglich/

Told u so @Troyan und den anderen Jubelpersern.

12VHPWR mag ja in der Theorie gut funktionieren, aber der Adapter ist ne scheiß Idee. Schmelzende Stecker im Kabel sind ein riesen Problem, denn wo soll die Wärme den abgeführt werden bei isolierten kabeln und Steckergehäusen rund um die Crimpkontakte?

Die Boardbuchsen mögen 9.2A pro Pin ja ab können, aber wenn schon Biegeradien oder vermehrte Steckzyklen das ganze zum Wackeln bringen können, dann ist 12V HPWR imo DOA. Höchste Zeit dass die PCIe Sig das untersucht.

Und das Testszenario der PCIe Sig war sogar unter Idealbedingungen mit 14AWG und 16AWG Kabel, mit zum Teil verlöteten Kontakten. AWG14 übersteigt sogar das was die normalen Molex Crimpkontakte eigentlich unterstützen. Die meisten ATX kabel sind nur AWG18 oder AWG17. Selbst AWG16 ist schon schwer zu verarbeiten, und schwer zu biegen erst recht gesleeved.

Troyan
2022-09-26, 00:56:54
Und welche Lösung hast du? Die "Power Connectors" sind der limitierende Faktor: https://cdn.wccftech.com/wp-content/uploads/2022/09/Molex-Mini-Fit-Power-Connector.png

Daredevil
2022-09-26, 01:10:14
Wenn du so fragst:
Die Lösung, dass der Strom aus dem Mainboard kommt und man nicht im Jahre 2022 Kabel an ein PCB ansteckt, als wäre das ein 486er.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/mac-pro-internal-800x929.jpg

Will am Ende aber sicherlich niemand zahlen. :D
Si ein fragiler Anschluss ist natürlich ein Witz, der hat sich bei der 3090 FE schon wie Spielzeug angefühlt.

crux2005
2022-09-26, 01:12:28
Wenn du so fragst:
Die Lösung, dass der Strom aus dem Mainboard kommt und man nicht im Jahre 2022 Kabel an ein PCB ansteckt, als wäre das ein 486er.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/mac-pro-internal-800x929.jpg

Will am Ende aber sicherlich niemand zahlen. :D

Bei größeren (Fläche) MBs wäre das in der Summe MB + PSU gar nicht mal viel teurer.

Aber das wollen die PSU Hersteller nicht hören. ;) Die würden wahrscheinlich ihre Margen nicht kompromittieren wollen.

davidzo
2022-09-26, 01:19:11
Und welche Lösung hast du? Die "Power Connectors" sind der limitierende Faktor: https://cdn.wccftech.com/wp-content/uploads/2022/09/Molex-Mini-Fit-Power-Connector.png

Es wäre sinnvoller gewesen bei den alten 4,2mm Mini Fit Steckverbindern zu bleiben und dort die Qualitätsstandards zu erhöhen anstatt auf RM3,0 zu wechseln, die ein neues Nadelöhr darstellen.
RM3,0 Stecker sind aus vielerlei Hinsicht schlechter:
- Schlechtere mechanische Belastbarkeit, also Biegung und Zugfestigkeit der crimpkontakte am Kabel. Durch die Kleinere Kontaktgröße auch mehr Stecker-wear am Crimpkontakt
- PCB Trace Width wird bei RM3,0 zum Problem, hier reicht double thickness (70oz/in) schon nicht mehr aus um adäquaten Leitungswiderstand zu liefern.
- Nur max 9A pro Pin statt 13A
- Schlechter mit dickeren Kabelstärken zu verarbeiten (max. AWG16), besser wäre AWG14 was aber nur mit den alten RM4.2 Steckern geht

Es wäre sinnvoller gewesen einen neuen 10, 12 oder 14pin Stecker mit RM4.2 aufzulegen der vertauschsicher zu den alten Steckern kodiert ist und Weniger Redundante Sense-Leitungen hat als 3x 8Pin und dafür mehr für tatsächliche Current.
Hier hätte man dann auch vergoldete Kupferkontakte sowie AWG14 Kabel mit gewissen Maximallängen vorschreiben können und könnte somit die vollen 13A pro Pin abrufen.

Der 12V HPWR Stecker ist total auf Kante genäht, aus Ingenieurssicht eine katastrophale Entscheidung, zumal völlig ohne Not getroffen. Denn der Platzbedarf der Stecker ist nun wirklich das Letzte was bei Desktop GPUs den Formfaktor bestimmt. Das wird einem besonders deutlich wenn man die Größe der neuen RTX4000 Karten sieht.

DrFreaK666
2022-09-26, 03:51:50
Die computerbase umfragen sind ja der knaller. X-D Die formulierungen sind ja kaum beeinflussend. Naja was solls, das klientel da fühlt sich dadurch wohl wichtig, anderen sinn ergibt das ja nicht.

Bei den letzten zwei Fragen habe ich "Ergebnisse anzeigen" angeklickt, da keine der Antworten für mich gepasst hat

nordic_pegasus
2022-09-26, 06:47:14
Es wäre sinnvoller gewesen bei den alten 4,2mm Mini Fit Steckverbindern zu bleiben und dort die Qualitätsstandards zu erhöhen anstatt auf RM3,0 zu wechseln, die ein neues Nadelöhr darstellen.

Es wäre Sinnvoller gewesen einen neuen 10, 12 oder 14pin Stecker mit RM4.2 aufzulegen der Vertauschsicher zu den alten Steckern kodiert ist und Weniger Redundante Sense-Leitungen hat als 3x 8Pin und dafür mehr für tatsächliche Current.


sehe ich genauso. Die Pins zu verkleinern war keine gute Idee. Die Situation erinnert mich an den internen USB 3.0 Stecker. Dank kleinerem Lochabstand / Pins werden noch heute zahllose Boards beim Verkabeln beschädigt.

Warum hat man nicht einfach analog Workstation-GPUs den EPS Stecker genommen? 8pins bei 4x12V und 4xMasse ist doch top. Da hätten doch in den meisten Fällen 1 EPS Stecker, maximal 2 für die großen Biester von Nvidia ausgereicht. Man hätte auch einfach nur ein paar EPS-Kabel als Ergänzung auf den Markt bringen müssen, wäre deutlich nachhaltiger gewesen als dieser 12+4pin Mini-Format BS.

Freestaler
2022-09-26, 07:32:21
12VHPWR scheint wohl nicht die grösste Engineersleistung seit der Erfindung des Rades zu sein. Jedoch will ich auch nicht so recht an direkt brennende Kinderzimmer glauben. Sicher wird es den einen oder anderen geben der die Kartenstecker hunderte Male betätigt. Der hat aber heute bereits Probleme und wird sich zu helfen wissen.
Scheint mir gerade eine änliche Übertreibung wie die 580x dazumal. Ja, die Norm wird überschritten, direkt abfackeln ist aber dann doch noch einige sicherheitsreserven später.

4090 werden deshalb sicher nicht hops gehen.

OgrEGT
2022-09-26, 08:17:32
(...)
Der 12V HPWR Stecker ist total auf Kante genäht, aus Ingenieurssicht eine Katastrophale Entscheidung, zumal völlig ohne Not getroffen. Denn der Platzbedarf der Stecker ist nun wirklich das Letzte was bei Desktop GPUs den Formfaktor bestimmt. Das wird einem besonders deutlich wenn man die Größe der neuen RTX4000 Karten sieht.

Die PCBs der Boardpartner wären sicherlich groß genug... NVs FE in der derzeitigen Form wohl eher nicht?

Dural
2022-09-26, 09:19:38
Ich habe eine 3090Ti mit Adapter und die Stecker werden bei starker Belastung nicht mal warm. Und ich hätte auch noch nie was anderes gehört oder gesehen.

Wie so ein Kabel angeblich deutlich höher belastet wird und die zwei anderen kaum verstehe ich auch nicht wirklich. Eventuell verteilt es die Last bei noch mehr Belastung sowie so auf die anderen zwei Kabel auf. Das solche Stecker nur für 30x ausgelegt sind, ist jetzt wirklich nichts neues. In 99% der Fälle wird das Kabel genau 1x gesteckt.

Ich glaube mal wieder viel tamtam um nichts.

GrimReaper85
2022-09-26, 09:20:51
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/12-pin-GPU-Power-Cable/p/CP-8920274

Wäre dieses Kabel für 4080 16GB geeignet? Laut Nvidia braucht man 3x 8-Pin für 16GB und 2x 8-Pin für 12GB.
Kabel ist schöner als Adapter, deshalb möchte ich den mitgelieferten Adapter nicht verwenden.

Dural
2022-09-26, 09:24:44
Klar geht das, wie so auch nicht.

Hier tuen einige so als ob man aus einem 8-Pin nicht 200-300Watt ziehen könnte :rolleyes:

Das selbst die NT Hersteller solche Kabel verkaufen zeigt doch das es geht.

BlacKi
2022-09-26, 09:44:45
12VHPWR scheint wohl nicht die grösste Engineersleistung seit der Erfindung des Rades zu sein. Jedoch will ich auch nicht so recht an direkt brennende Kinderzimmer glauben. Sicher wird es den einen oder anderen geben der die Kartenstecker hunderte Male betätigt. Der hat aber heute bereits Probleme und wird sich zu helfen wissen.
Scheint mir gerade eine änliche Übertreibung wie die 580x dazumal. Ja, die Norm wird überschritten, direkt abfackeln ist aber dann doch noch einige sicherheitsreserven später.

4090 werden deshalb sicher nicht hops gehen.+1 und auch nicht die kabel. die 450w werden sicher nicht das problem sein, auch nicht mit den adaptern. ich würde halt OC mit den adaptern verbieten, oder besser technisch limitieren. und wie schon gesagt, bei 800w powerlimit braucht man sowieso 2 von den steckern. anders wären 800w auch nicht möglich.

wieviele 8pin stecker braucht man für 800w? 6x? der neue stecker ist zukünftig alternativlos.

why_me
2022-09-26, 10:08:29
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/12-pin-GPU-Power-Cable/p/CP-8920274

Wäre dieses Kabel für 4080 16GB geeignet? Laut Nvidia braucht man 3x 8-Pin für 16GB und 2x 8-Pin für 12GB.
Kabel ist schöner als Adapter, deshalb möchte ich den mitgelieferten Adapter nicht verwenden.

Nein, ist es nicht. Es ist der 12 Polige Stecker und nicht der 12+4 Polige vom ATX3.0 Standard.

So weit mir bekannt, passen die nicht zusammen (andere Anordnung der runden/eckigen pins). Aber falls sie doch passen sollten und sich Nvidia an die ATX3 Spec hält, dann hast du auch kein Problem mit abrauchenden Kabeln, weil sich die Karte nur maximal 150W genehmigen darf.

Das ganze ist doch ein totaler Abfuck. Weil Nvidia mit der 30er Gen nicht auf einen Standard warten konnte und aus irgendeinem unerklärlichen Grund den 12 Pin Stecker einführen musste (Lizenz kosten an Nvidia bei verwendung?), gibt es jetzt dieses Wildwuchs.
Das dann auch noch der ATX3.0 Standard den gleichen, mMn. viel zu kleinen Stecker verwenden muss, macht das ganze nicht wirklich besser.

Dural
2022-09-26, 10:18:06
Die sind doch kompatibel?

why_me
2022-09-26, 10:23:07
Oh, hatte irgendwo gelesen, dass sie das nicht wären. :confused:

Gerade nochmal nachgeschaut und scheinst recht zu haben, die passen -> Karte darf maximal 150W mit dem Corsair Stecker ziehen

Radeonfreak
2022-09-26, 10:26:22
Hier steht bis 600Watt.

https://www.caseking.de/silverstone-2x-8-pin-eps-zu-12-pin-gpu-kabel-fuer-modulare-netzteile-nest-167.html

why_me
2022-09-26, 10:30:34
Auf einer 30er Serie ja, die 40er haben ATX3.0 Standard, und wenn sich Nvidia an den Standard hällt, dann bestimmen die zwei der 4 zustätzlichen Pins, wieviel sich die Karte genehmigen darf.

Nur blöderweise ist beide offen maximal 150W :wave:

E:
https://edc.intel.com/content/www/us/en/design/products-and-solutions/processors-and-chipsets/alder-lake-s/atx12vo-12v-only-desktop-power-supply-design-guide/2.0/sense1-sense0-required/

MiamiNice
2022-09-26, 10:34:59
Ich finde das irgendwie pfui. Entweder das NT hat den nötigen Anschluss oder mein NT Hersteller bietet es zum nachrüsten, für mein NT, an. Ansonsten würde ich neu kaufen. Schönes Sea Sonic mit 1200 Watt.
Bei dem Strom der durch die Kiste wandert besser keine halben Sachen machen.

why_me
2022-09-26, 10:37:49
Die Kabel wird es schon geben, brauchen aber den 12+4 Pin stecker und nicht den 12 Pin Stecker wie noch bei den 30er Karten.

Die wenigsten werden das allerdings wissen.

Hab oben noch mal den Standard zu den Sense Leitungen angehängt

Radeonfreak
2022-09-26, 10:39:51
Naja, ich bekomm ja meinen 12+4 Stecker direkt von Asus (ist unterwegs) und Adapter liegen ja sicherlich bei jeder Graka dabei.

why_me
2022-09-26, 10:44:36
Die Adapter sehen aber beschissen aus, weshalb die Leute solche Kabel kaufen werden und sich dann wundern, warum es nicht geht. Bzw die Kabel schon von ihre 30er Karte haben.

nordic_pegasus
2022-09-26, 10:47:42
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/12-pin-GPU-Power-Cable/p/CP-8920274

Wäre dieses Kabel für 4080 16GB geeignet? Laut Nvidia braucht man 3x 8-Pin für 16GB und 2x 8-Pin für 12GB.
Kabel ist schöner als Adapter, deshalb möchte ich den mitgelieferten Adapter nicht verwenden.

bei Corsair brauchst Du das hier:
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284

das ist das neue 12+4 ATX 3.0 / PCIe gen5 Kabel für Corsair Typ 4 Netzteile.

davidzo
2022-09-26, 10:57:20
Wenn du so fragst:
Die Lösung, dass der Strom aus dem Mainboard kommt und man nicht im Jahre 2022 Kabel an ein PCB ansteckt, als wäre das ein 486er.
https://cdn.arstechnica.net/wp-content/uploads/2019/06/mac-pro-internal-800x929.jpg

Will am Ende aber sicherlich niemand zahlen. :D
Si ein fragiler Anschluss ist natürlich ein Witz, der hat sich bei der 3090 FE schon wie Spielzeug angefühlt.

Daran dachte ich seit meinem ersten PC als Kind (P1 133mhz, 16mb EDO) dass das wohl bald kommen würde: Das mainboard wird über einen Edge Connector an der Oberseite ins Netzteil gesteckt. Dann verlaufen die Power Traces einmal vertikal entlang des Mobos, stehen also jedem Slot zur Verfügung.
Bei aktuellen Currents denke ich mittlerweile dass es besser wäre zusätzlich gestanzte Kupfer rails auf dem mainboard aufzulöten. Das würde auch das Routing vereinfachen weil man dadrunter easy weiter routen könnte. Diese massiven Rails bekommen dann eine Kunststoffabdeckung mit Steckergehäusen an jeder PCIe Karte und fertig.
Und für Festplatten dachte ich würde es bald einen Riser geben der in standardisiert positionierte IDE-Anschlüsse geht und eine Backplate aufnimmt so dass man die HDDs von vorne in jedes Case einschieben kann.

Aber nee, der ATX Standard ist nach wie vor die letzte Grütze.


Sicher wird es den einen oder anderen geben der die Kartenstecker hunderte Male betätigt. Der hat aber heute bereits Probleme und wird sich zu helfen wissen.
Scheint mir gerade eine änliche Übertreibung wie die 580x dazumal. Ja, die Norm wird überschritten, direkt abfackeln ist aber dann doch noch einige sicherheitsreserven später.

4090 werden deshalb sicher nicht hops gehen.
Ne, in den meisten fällen wird das Netzteil einen Kabelbrand verursachen und dann wegen Kurzschluss abschalten. Aber eben nicht bei 300 oder 400Watt, sondern erst bei 500-600Watt bzw. OC. Für die Titan könnte man daher auf 2x 12VHPWR gehen um eine 600W Belastung des Kabels, also ohne Reserven, zu vermeiden.
Ja, die GPU sollte bei sowas nicht draufgehen, geschmolzene Plastikreste erzeugen wohl kaum irgendwelche shorts.


Ich habe eine 3090Ti mit Adapter und die Stecker werden bei starker Belastung nicht mal warm. Und ich hätte auch noch nie was anderes gehört oder gesehen.
... Das solche Stecker nur für 30x ausgelegt sind, ist jetzt wirklich nichts neues. In 99% der Fälle wird das Kabel genau 1x gesteckt.


Ja, mit 450Watt sind Reserven vorhanden, erst recht mit 350Watt wie das bei den meisten Usern hier laufen wird. Mit 600Watt sind die Reserven aber gleich 0. Wo ist also die tolle Zukunftsfähigkeit des 12Pin HPWR Steckers geblieben wenn die Reserven jetzt gerade noch so reichen?
Wie die Tests der PCIe Sig zeigen tritt das ja nicht nach Jahren auf, sondern nach 25-30h Betrieb schon. Das ist keine halbe Ewigkeit wenn du mich fragst.
Und ich baue meinen PC schon des öfteren mal um, teste Lüfter oder baue andere GPUs im PCIe Slot. Bei einem Mini-ITX System muss die GPU praktisch immer raus wenn man dran arbeiten will. Da sind 30mal stecken gar nichts, da komme ich beinahe schon beim initialen kabel verlegen dran. Und erst recht die 3cm Biegeradius - lächerlich denn es gibt fast keine Biegung die nicht unter R=3cm wäre in einem Mini ITX Case.



Klar geht das, wie so auch nicht.

Hier tuen einige so als ob man aus einem 8-Pin nicht 200-300Watt ziehen könnte :rolleyes:

Das selbst die NT Hersteller solche Kabel verkaufen zeigt doch das es geht.

Können sie. Ein gutes 8Pin Kabel mit vergoldeten Kupferkontakten, 15AWG
schafft 468Watt (13A pro Pin, 3x pins). Zum Beispiel mit der exzellenten MDPCX AWG15 Litze: https://www.cable-sleeving.com/15awg-hookup-wire-black

Das Problem ist dass bei 12VHPWR praktisch nur AWG17 möglich ist:

The maximum outer diameter of your wire for the power crimp terminals can not exceed 2.7 mm, including the crimp terminal material on top of your wire insulation! The signal / side band crimp terminals are used with 23-AWG or 26-AWG wire (see gallery image for crimping technique tips).

For the power wires, we recommend wire with a maximum outer diameter of 2.0 mm or less, for example a very high quality 17 AWG wire. A 16 AWG wire, as recommended in the PCIe 5 specs, will often result in imperfect crimps, which is a potential risk for your hardware. 18 AWG would be too far away from original specs in terms of electrical capacities and shouldn't be used if you don't want to risk your hardware.


Die empfohlenen AWG16 sind praktisch out of Spec. Laut Molex, dem Erfinder dieser Stecker erlauben die Crimpterminals nur AWG18. MDPCX hat bei ihrer Highend-Litze die Kabelisolierung so dünn dass AWG17 möglich sind. Ich weiß echt nicht wie Nvidia Ingenieure auf AWG16 gekommen sind. Das muss mit non- standard Crimp Terminals und Gehäusen von Drittherstellern passiert sein (AMP?). Amphenol und TE raten die gleichen Stecker wie Molex manchmal etwas höher, sowohl was kabelquerschnitt und current capability angeht. Nützt aber nichts wenn es in der Praxis lauter defekte Crimps erzeugt und bei erhöhter Umgebungstemperatur anfängt zu schmelzen.

Btw, die ersten 1-3 Steckzyklen kommen schon während der Produktion auf den Stecker, da alle auf Verpolung, Isolierung und Innenwiderstand gestestet werden.

basix
2022-09-26, 11:29:45
Der 12V HPWR Stecker ist total auf Kante genäht, aus Ingenieurssicht eine katastrophale Entscheidung, zumal völlig ohne Not getroffen.

12VHPWR scheint wohl nicht die grösste Engineersleistung seit der Erfindung des Rades zu sein. ...

Ich denke, da werden genug fähige Ingenieure bei der Auslegung des Steckers beteiligt gewesen sein. Ist immerhin ein Industriestandard. Limitationen bei der Technik gibt es immer.

Und habt ihr die Folien der PCIe-SIG überhaupt angeschaut? Nach 10-30h gab es erste Verschmorungen. Wer um Himmelswillen belastet seine Karten dauerhaft für diese Zeit mit 600W? Bei einer 3-4h Gaming-Session am Abend oder sobald man zwischendurch 5-10min Pause macht oder ins Game Menü wechselt / Spielladezeiten abwartet, wird dieses Problem also nie auftreten (Abkühlung der Teile). Sobald man nur 350W oder 450W anlegt, wird sich das Thema auch deutlich entschärfen (I2R -> 34% resp. 58% der Selbserwärmung an den Steckern verglichen zu 600W). Nur die wenigsten werden ihre GPU mit 600W betreiben, auch mit PCIe 5.0 Stecker.

Da ist aus meiner Sicht das Thema Adapter-Stecker deutlich heikler.

- PCB Trace Width wird bei RM3,0 zum Problem, hier reicht double thickness (70oz/in) schon nicht mehr aus um adäquaten Leitungswiderstand zu liefern.

Bei 10-14 Layern kann man auf mehreren Layern die Spannung abgreifen. Und man routet möglichst schnell auf eine Plane oder alternativ verbreiterte Leiterbahnen. Dünne Breite ist nur ganz nah am Stecker ein Thema, aber die kann man recht zügig verbreitern. Die dünnen Leiterbahnen sind also sehr kurz, was deren Impedanz extrem gering hält (und entsprechend auch deren lokale Erwärmung)

- Nur max 9A pro Pin statt 13A

Was die Erwärmung von einzelnen schlechten elektrischen Übergängen deutlich reduziert, da nur ~50% der Verlustleistung auftreten (I2R).

Meridian12
2022-09-26, 11:29:53
Die letzten 2 Seiten zeigen gut, was für ein Murks dieser immer mehr Watt Schwachsinn ist.

Mal sehen ob sich AMD in den Schwachsinn massiv einreiht oder es noch im einigermaßen erträglichen Bereich managt.

Edgecrusher86
2022-09-26, 11:36:11
Was ich mich frage - warum schafft es eigentlich kein Hersteller, gescheite NTs mit 2-3x 12VHPWR zu bringen? Mit 1x wird man in Zukunft nicht glücklich werden, wenn es immer die Enthusiasten-Klasse sein soll. Da geb ich Brief und Siegel drauf.
Mein nächstes NT für den Großen wäre jedenfalls 1600-2000W(+). Sicher ist sicher. ;)

basix
2022-09-26, 11:37:06
What, willst du 1200W auf die GPU geben? :freak: SLI und Co. sind eh tot.

Edgecrusher86
2022-09-26, 11:37:53
Wer redet von SLI? :biggrin:

Nun ja, der nächste Schritt wird wohl erstmal 600-800W sein, falls dieser nicht schon zum Ende dieser Generation für eine obligatorische "4090 Ti mit 48GB" in Kraft tritt, dann aber bei einer 5090er. :D

why_me
2022-09-26, 11:42:46
Und habt ihr die Folien der PCIe-SIG überhaupt angeschaut? Nach 10-30h gab es erste Verschmorungen. Wer um Himmelswillen belastet seine Karten dauerhaft für diese Zeit mit 600W? Bei einer 3-4h Gaming-Session am Abend oder sobald man zwischendurch 5-10min Pause macht oder ins Game Menü wechselt / Spielladezeiten abwartet, wird dieses Problem also nie auftreten (Abkühlung der Teile).

Wie wurde bei PCIe-Sig getestet? Offener Aufbau, In einem PC oder Klimaschrank? Nach den Folien war es ein Offener Aufbau bei 26C

Gerade in einem PC können die Umgebungstemperaturen deutlich nach oben gehen, vorallem mit einer 450-600W Karte die ihre Abwärme im Gehäuse verteilt. Wenn dann der Luftstrom nicht passt, werden aus den 10-30h ganz schnell nur noch Minuten ;)

Edgecrusher86
2022-09-26, 11:45:26
Vielleicht erlangt der Corsair 500mm Fan ja Marktreife - ein Problem weniger. :D

https://abload.de/img/screenshot2022-09-2613gfya.png

monstar-x
2022-09-26, 11:52:46
Vielleicht erlangt der Corsair 500mm Fan ja Marktreife - ein Problem weniger. :D

https://abload.de/img/screenshot2022-09-2613gfya.png

Viel bringt der doch nicht, außer Verwirbelung im Gehäuse.

unl34shed
2022-09-26, 11:53:23
Gerade in einem PC können die Umgebungstemperaturen deutlich nach oben gehen, vorallem mit einer 450-600W Karte die ihre Abwärme im Gehäuse verteilt. Wenn dann der Luftstrom nicht passt, werden aus den 10-30h ganz schnell nur noch Minuten ;)

Vor allem warum sollte das Problem nicht auch nach 20x2h Spielen auftreten? Die Stecker werden sich sicher nicht nach dem Ausschalten nennenswert Erholen.

basix
2022-09-26, 11:53:35
Wie wurde bei PCIe-Sig getestet? Offener Aufbau, In einem PC oder Klimaschrank? Nach den Folien war es ein Offener Aufbau bei 26C

Gerade in einem PC können die Umgebungstemperaturen deutlich nach oben gehen, vorallem mit einer 450-600W Karte die ihre Abwärme im Gehäuse verteilt. Wenn dann der Luftstrom nicht passt, werden aus den 10-30h ganz schnell nur noch Minuten ;)

Ist mir alles auch bewusst. Optimal wäre, wenn man dauerhaft 600W bei 80°C im Gehäuse betreiben könnte. Ist solch ein Overengineering aber nötig? Wer eine 600W Karte in ein enges und schlecht belüftetes Gehäuse steckt, dem ist eh nicht mehr zu helfen. Ist bei 300W schon nicht sinnvoll.

Und Luftstrom sollte nur ein untergeordnetes Thema sein. Den gibt es beim offenen Aufbau so auch nicht (nur Konvektion). Beim Stecker zählt vor allem die Wärmeableitung übers PCB der Grafikkarte (welches in diesem Fall bei 600W auch im offenen Aufbau ziemlich warm sein müsste). Und genau deswegen halte ich die Adapter-Geschichte für heikler: Die Wärmeableitung übers PCB existiert nicht. Hier ist dann Luftstrom und die Wärme im Gehäuse deutlich entscheidender.

Vor allem warum sollte das Problem nicht auch nach 20x2h Spielen auftreten? Die Stecker werden sich sicher nicht nach dem Ausschalten nennenswert Erholen.
Die Stecker gehen ja nicht kaputt in Form von 600W * x Stunden. Ab einem gewissen Zeitpunkt werden die Stecker so heiss, dass sie anfangen zu degradieren. Solange dies nicht erreicht wird und wenn die zwischendrin wieder abkühlen, ist das Problem einfach nicht da. In einem schlecht belüfteten Gehäuse kann es sicher schon <10h passieren. Aber wer sich diesen Brüllwürfel antun will (siehe Computerbase Tests mit den 450W der 3090 Ti), ich weiss auch nicht...

Zum Klarstellen:
Ich sage nicht, dass die Situation ideal ist. Aber sie wird momentan heisser gegessen, als sie wirklich ist.

why_me
2022-09-26, 11:58:01
Hast du dir die Folien der PCIe-SIG überhaupt angeschaut? :P :biggrin:

Die Stecker am Netzteil sind verschmort und ist idr. deutlich weniger Luftstrom vorhanden und auch kein riesiger Kühlköper um die Wärme abzuführen.

basix
2022-09-26, 12:01:26
Hast du dir die Folien der PCIe-SIG überhaupt angeschaut? :P :biggrin:

Die Stecker am Netzteil sind verschmort und ist idr. deutlich weniger Luftstrom vorhanden und auch kein riesiger Kühlköper um die Wärme abzuführen.

Das mit dem Netzteil habe ich übersehen. Danke fürs darauf hinweisen ;)

Hier gilt aber das gleiche: Ableitung der Wärme übers PSU. Auch das hat einen Lüfter für die Kühlung ;) Ist also eine Frage, wie das PSU gebaut ist und ob die Anschlüsse in irgendeinerweise eine gute thermische Ableitung / Kühlung aufweisen. Etwas für die kommenden PSU Tests ;)

Und wenn es am Netzteil schlimmer ist: Ich glaube, den stecke ich 1-2 im Leben des PSU ein und nachher nur noch den auf der Seite der GPU. Das Thema mit 30 Steckzyklen sollte hier eigentlich nie auftreten. Biegeradien sind vermutlich direkt am PSU auch weniger ein Problem (je nach Gehäuse).

Edit:
Ach ja, bei den meisten Gehäusen saugt das PSU die Raumluft an und ist am Boden montiert. Die warme Gehäuseluft ist somit ebenfalls weniger problematisch.

Edgecrusher86
2022-09-26, 12:02:57
Viel bringt der doch nicht, außer Verwirbelung im Gehäuse.

Naja, ich würde ihn dann auch eher auf der anderen Seite an bringen - Rückseite offen. ;)
Gut, in Front sowas und am Heck wäre natürlich besser....aber ein entsprechendes Case man erst konstruieren. :D

why_me
2022-09-26, 12:09:38
Ach ja, bei den meisten Gehäusen saugt das PSU die Raumluft an und ist am Boden montiert. Die warme Gehäuseluft ist somit ebenfalls weniger problematisch.

In der GPU, der Stecker hängt aber daneben und da ist deutlich weniger Luftstrom und auch beim Kabelmanagement stopft man ja gerne die Kabel unten ins PSU fach, was dann am Stecker wackelt bzw druck ausübt.

Aber gut, wie du sagst, Tests müssen es zeigen.

BlacKi
2022-09-26, 12:16:13
die kabel sind thermisch isoliert, als ob da ein luftstrom etwas tun würde. die adapter sind ein fail, weil sie die wärme nicht in die gpu oder richtung netzteil bei 600w abgeben können. einfach streichen, sollen die leute ihre netzteile kabel in ordnung bringen.

Sardaukar.nsn
2022-09-26, 12:21:03
Ich finde das irgendwie pfui. Entweder das NT hat den nötigen Anschluss oder mein NT Hersteller bietet es zum nachrüsten, für mein NT, an. Ansonsten würde ich neu kaufen. Schönes Sea Sonic mit 1200 Watt.
Bei dem Strom der durch die Kiste wandert besser keine halben Sachen machen.

Ich habe gestern noch mit dem Seasonic Support geschrieben. Es wird für die modularen ATX 2.x Netzteile im Bestand wohl ein passendes 12VHPWR Kabel geben. So wie es z.B. Corsair ja auch schon vorgestellt hat. https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#

https://i.imgur.com/KPvqtZW.jpg

Bis dahin muss wohl erstmal der beiliegende Adapter reichen.

MiamiNice
2022-09-26, 12:22:51
Unter 1300 kaufe ich gar nichts mehr. Habe schon ein Auge auf die neuen Seasonics geworfen, die noch in diesem Jahr auf den Markt kommen (was anderes kann man eh nicht mehr mit ruhigem Gewissen kaufen). Wenn dann die 800 Watt Karten kommen muss man auch für deren Lastspitzen gerüstet sein ;D:freak:

Ich habe gestern noch mit dem Seasonic Support geschrieben. Es wird für die modularen ATX 2.x Netzteile im Bestand wohl ein passendes 12VHPWR Kabel geben. So wie es z.B. Corsair ja auch schon vorgestellt hat. https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#

https://i.imgur.com/KPvqtZW.jpg

Bis dahin muss wohl erstmal der beiliegende Adapter reichen.

Ich wünsche Dir Glück und keinen Brand :)

r3ptil3
2022-09-26, 12:25:24
Ich finde das ASUS Loki SFX-L interessant.
Werden in den nächsten 2-3 Wochen ausgeliefert.
Vorerst aber nur 750, 850 und 1000W (alle Platinum).

Das 1200W Titanium-Modell ist noch nicht mal gelistet.

ATX 3.0 und PCIE 5.0 natürlich inklusive.

davidzo
2022-09-26, 12:25:58
Und habt ihr die Folien der PCIe-SIG überhaupt angeschaut? Nach 10-30h gab es erste Verschmorungen. Wer um Himmelswillen belastet seine Karten dauerhaft für diese Zeit mit 600W?

Nach 10-30h war der Stecker so weit geschmolzen dass es zu einem katastrophalen Fehler kam. Die Degenerierung/verkleben von Stecker und Receptacle, angeschmolzene Kabelisolierung etc. dürfte deutlich früher eingesetzt haben.


Die Stecker gehen ja nicht kaputt in Form von 600W * x Stunden. Ab einem gewissen Zeitpunkt werden die Stecker so heiss, dass sie anfangen zu degradieren. Solange dies nicht erreicht wird und wenn die zwischendrin wieder abkühlen, ist das Problem einfach nicht da.

Da liegst du aber Falsch. Ich kann dir garantieren dass die Stecker innerhalb von Minuten ihre Maximaltemperatur erreichen und in weniger als 1h das Gehäuse auch seine Dauertemperatur erreicht. Ab da fängt der Stecker an zu verschmelzen. Der Aufheizzyklus dauert ganz sicher keine 30h, dafür hat so ein steckergehäuse einfach zu wenig Wärmekapazität. Du kannst davon ausgehen dass der Stecker in 9 von 10h Testzyklus dieselbe Innentemperatur hatte.
Nach 10-30h sieht das halt so aus wie es aussieht. Das heißt der Thermoplast wird weich und verklebt bzw. deformiert sich. Schlimmer noch beginnt der sich auch chemisch zu zerlegen, was die Verkohlungsrückstände auf den Fotos zeigen. Eine offene Flamme ist nur durch die chemischen Brandhemmer in dem schwarzen Spezialkonststoff und die Selbstabschaltung des PSU verhindert worden.

Ich habe schon einige ältere ATX PSUs mit den weißen reinen Nylon Steckern gesehen die verkohlte Kontakte hatten oder sogar gebrannt haben. Das geht schnell etwa bei einem 12V P4-Stecker wo einer der beiden Crimpkontakte einen schlechten übergangswiderstand hat (fehlerhafter crimp oder zu viele mating cycles).


Was die Erwärmung von einzelnen schlechten elektrischen Übergängen deutlich reduziert, da nur ~50% der Verlustleistung auftreten (I2R).
Merkst du schon selber, oder?
Ein Pin mit doppeltem Querschnitt und anderthalbfacher Länge, wie bei Mini-Fit wird sicher auch bei 13A nicht den höheren Übergangswiderstand haben im vergleich zu einem 9A Micro Fit Pin.
Klar sind 9A bei gleicher Übergangsfläche besser als 13A Belastung. Allerdings haben die 4.2mm Stecker nunmal eben fast die doppelte Übergangsfläche.

Wer redet von SLI? :biggrin:

Nun ja, der nächste Schritt wird wohl erstmal 600-800W sein, falls dieser nicht schon zum Ende dieser Generation für eine obligatorische "4090 Ti mit 48GB" in Kraft tritt, dann aber bei einer 5090er. :D

Sehe ich auch so. Schon für Partnerkarten der 4090 sollte man mit 600W planen wenn die FE ohne OC schon bei 450W liegt.
Und die ti/ Titan wird auch ohne OC schon an den 600W kratzen die man dem Stecker lieber nicht zumuten sollte.


Aber gut, wie du sagst, Tests müssen es zeigen.

Bin ich der einzige hier der Brandschutz nicht durch Langzeittests im eigenen Haus verifizieren möchte?

Edgecrusher86
2022-09-26, 12:26:23
Aha, wenigstens ein Hersteller hat schon was....aber die anderen müssen schleunigst nachziehen. ;)

https://geizhals.de/thermaltake-toughpower-gf3-1650w-atx-3-0-ps-tpd-1650fnfage-4-a2807726.html
Thermaltake ToughPower GF3 1650W ATX 3.0


2x 12VHPWR
+12V 137.5A


Jetzt wie gesagt sowas noch mit 3x vom richtigen Hersteller und man hat für die nächsten Jahre ausgesorgt - das dürfte dann auch für solche Späße wie eine 6090 Ti HoF OC LAB ausreichend sein. :D

Ich war hier mit Corsair und Enermax über all die Jahre auch immer zufrieden.

Sardaukar.nsn
2022-09-26, 12:37:56
Ich wünsche Dir Glück und keinen Brand :)

Hab ja genug kaltes Wasser im PC, was könnte da schon schief gehen ;D

@bardh: Das SFL-X habe ich gesehen und finde ich spannend. Der 4090 Wasserblock (https://www.alphacool.com/media/image/ac/d3/14/Alphacool_Eisblock_Aurora_Acryl_GPX-N_RTX_4090_Founders_Edition_mit_Backplate_1023221_06.jpg) ist ja sehr kompakt, könnte in ein SFF Case passen. Kühlung ist hier ja eh extern. Die Idee fände ich auf jeden Fall reizvoll.

why_me
2022-09-26, 12:38:49
Bin ich der einzige hier der Brandschutz nicht durch Langzeittests im eigenen Haus verifizieren möchte?

Nein, mir war nur die Diskussion leid. Weil irgendwie leicht OT aber irgendwie auch nicht. Und das alles ein theoretisches Problem ist. Klar kann es schief gehen, ein freund der kleinen Kontakte bei der Leistung bin ich als Etechniker auch nicht. Aber irgendwas werden sich die Milliarden unternehmen schon dabei gedacht haben, die wollen die dinger ja auch in den USA verkaufen, wo so etwas schnell sehr teuer werden kann.

Dachte aber auch eher an Tests der Redaktionen mit Wärmebild Kamere etc. Und auch unter realbedingungen im Gehäuse und nicht auf einem Testbench. Wobei, testet überhaupt noch eine Redaktion wirklich im Gehäuse?

Dural
2022-09-26, 12:46:20
Das Kabel ist ja durchgebrannt weil es stark geknickt war, nach 10h+

Das solche Steckverbindungen durchbrennen können ist nichts abnormales, viel mehr ist es einer der häufigsten rma fehler bei netzteilen. Gerade als die ersten modularen NT auf den markt kamen war das sehr häufig, heute haben sie es besser im griff

Thunder99
2022-09-26, 12:52:21
Die Leistungsaufnahme hat seinen Tribut an Material und Kosten ;)

Alles ab 300W ist schon extrem viel und Karten bis zu 600W zu betreiben muss echt die ganz große Keule rausholen bei der Kühlung von der Karte und Infrastruktur.

Kleinere Stecker sind insgesamt zu begrüßen um es kompakter zu machen. Aber die Anforderungen an das Material steigt da natürlich. Wenn ich wechseln sollte muss ich leider mein 500W Netzteil in Rente schicken :(

why_me
2022-09-26, 12:58:34
Aber wäre ein 12 Pin Stecker im großen Rastermaß so schlimm? Der wäre 50% größer und durch die größeren Pins stabiler.
Da würden sicherlich irgendwelche Spezialisten auf die Idee kommen und 2x6 Pins rein zu stecken. Mit viel Gewallt würden die sicherlich auch passen, auch wenn die Stecker inkompatibel gemacht würden.

Ailuros
2022-09-26, 13:03:36
Die Leistungsaufnahme hat seinen Tribut an Material und Kosten ;)

Alles ab 300W ist schon extrem viel und Karten bis zu 600W zu betreiben muss echt die ganz große Keule rausholen bei der Kühlung von der Karte und Infrastruktur.

Kleinere Stecker sind insgesamt zu begrüßen um es kompakter zu machen. Aber die Anforderungen an das Material steigt da natürlich. Wenn ich wechseln sollte muss ich leider mein 500W Netzteil in Rente schicken :(

OT zum letzten Satz: ist das 500W PSU >ein paar Jahre alt, waere es so oder so empfehlenswert eine so teure GPU an ein neues PSU zu haengen. Wenn schon denn schon: wieso stellt NV nicht auch ihre eigenen dedizierte GPU Netzteile her? GPU mit privat-Stecker ;)

Windi
2022-09-26, 13:09:33
Wie ist das eigentlich bei den kleineren Grafikkarten?
Zieht eine 300 Watt Grafikkarte dann den Strom nur noch über die Hälfte der Adern und Pins und hat damit dann dieselben Probleme?

Cubitus
2022-09-26, 13:13:31
Werds trotzdem erstmal mit meinem 850er Seasonic Platinum Netzteil versuchen, denke nicht, dass die Karte 4090 (FE) im Hersteller-Preset 600 Watt schlucken wird.
Zudem wird UV das einzig Vernünftige sein.

why_me
2022-09-26, 13:14:33
Da wird nicht gezielt über eine Ader strom gezogen, die sind alle parallel und beim Netzteil und der GPU sind die Pins verbunden.
Es werden nur mehrere Adern verwendet, weil man sonst zu Dicke Kabel und zu große Kontakte benötigen würde. 600W@12V sind immerhin 50A, dafür bräuchte man etwas mehr als eine 6mm² Leitung, die verlegt man nicht mehr so einfach im Gehäuse.

basix
2022-09-26, 13:26:42
Dachte aber auch eher an Tests der Redaktionen mit Wärmebild Kamere etc. Und auch unter realbedingungen im Gehäuse und nicht auf einem Testbench. Wobei, testet überhaupt noch eine Redaktion wirklich im Gehäuse?

Das wird spannend, ja.

CB und PCGH testen im Gehäuse.

Wuge
2022-09-26, 13:44:03
Wenn schon denn schon: wieso stellt NV nicht auch ihre eigenen dedizierte GPU Netzteile her? GPU mit privat-Stecker ;)

pfff, wenn dann schon direkt verlöten.

Exxtreme
2022-09-26, 14:00:43
Wenn schon denn schon: wieso stellt NV nicht auch ihre eigenen dedizierte GPU Netzteile her? GPU mit privat-Stecker ;)

Du meinst Geforce Volts? ;)

Troyan
2022-09-26, 14:15:44
https://i.redd.it/mdjka6om27q91.png
https://www.nvidia.com/en-us/geforce/technologies/8k/

basix
2022-09-26, 14:23:21
pfff, wenn dann schon direkt verlöten.

Verlötet? 230V Anschluss ;)

basix
2022-09-26, 14:24:46
https://i.redd.it/mdjka6om27q91.png
https://www.nvidia.com/en-us/geforce/technologies/8k/

Referenzwerte einer 3090? Bin zu faul zum raussuchen :)

Exxtreme
2022-09-26, 14:27:47
Referenzwerte einer 3090? Bin zu faul zum raussuchen :)

Zumal das DLSS ist. Und DLSS ist kein 8k. Das ist eine niedrigere Auflösung hochskaliert.

mr coffee
2022-09-26, 14:29:03
Nicht alle Spiele sind mit DLSS.

Troyan
2022-09-26, 14:29:37
Zumal das DLSS ist. Und DLSS ist kein 8k. Das ist eine niedrigere Auflösung hochskaliert.

Äh, Basis ist ohne DLSS.

why_me
2022-09-26, 14:30:01
Das einzige interessante daran ist das FH5 DLSS bekommt. War nach der implementierung von TAA der nächste logische Schritt. Mal schauen, ob es dann auch FSR2 gibt.

Linmoum
2022-09-26, 14:31:00
Referenzwerte einer 3090? Bin zu faul zum raussuchen :)Jo, die fehlen leider komplett. Aber wenn man die 3090(Ti) (ob mit oder ohne DLSS) gegenüber stellt, sieht das sicherlich wieder weniger beeindruckend für die 4090 aus. ;)

Exxtreme
2022-09-26, 14:31:52
Äh, Basis ist ohne DLSS.
Ja. Aber da schafft diese Grafikkarte bei etlichen Spielen kaum mehr als 40 fps.

Meridian12
2022-09-26, 14:33:42
Highest Performance Mode bei DLSS?? ALso maximal hochskaliert??

why_me
2022-09-26, 14:35:18
Jo, die fehlen leider komplett. Aber wenn man die 3090(Ti) (ob mit oder ohne DLSS) gegenüber stellt, sieht das sicherlich wieder weniger beeindruckend für die 4090 aus. ;)

Außer im Flight Simulator mit DLSS3 :biggrin:

Troyan
2022-09-26, 14:38:30
Highest Performance Mode bei DLSS?? ALso maximal hochskaliert??

Ultra-Performance -> 1440p->8K.

dildo4u
2022-09-26, 14:41:03
Die RTX Performance ist gigantisch wenn Fornite die selben fps hat wie Flight Sim, viele wissen das nicht aber Fortnite RTX hat mit die hösten Anforderungen überhaupt.

ChaosTM
2022-09-26, 14:47:29
Das heißt RTRT :D

Troyan
2022-09-26, 14:49:39
Die RTX Performance ist gigantisch wenn Fornite die selben fps hat wie Flight Sim, viele wissen das nicht aber Fortnite RTX hat mit die hösten Anforderungen überhaupt.

Wenn nVidia alle Effekte eingestellt hat, ja. Nachdem hier wäre die 4090 in 8K leicht langsamer als eine 3090 in 4K: https://www.youtube.com/watch?v=xzzvpc9DPWs

Lehdro
2022-09-26, 14:57:53
https://i.redd.it/mdjka6om27q91.png
https://www.nvidia.com/en-us/geforce/technologies/8k/
Bezeichnend dass die extra explizit HDMI 2.1 hernehmen. DP 2.0 nicht zu verbauen halte ich technisch einfach nur für Stümperei - es gibt schlichtweg keinen Grund es nicht zu verbauen, besonders wenn man schon seit Jahren mit 8K wirbt. :rolleyes:

Dural
2022-09-26, 15:48:22
Also mir machen die Werte doch Angst, zeichnet sich doch ab das die GPUs bei "Standard" Einstellungen wohl kaum ausgelastet werden und wohl auch nicht viel schneller sind.

Naja wenigsten haben die Fanboys ihre Freude, ich freue mich schon auf die Vergleiche...

Aber hey, ist schon Geil in 2K ohne RT bisschen mehr FPS zu haben :freak:

TobiWahnKenobi
2022-09-26, 15:49:42
ich verstehe, dass der hersteller diesen rotz schreiben muss.. aber gibt es echt noch user, die sich davon anfixen lassen? wird zeit dass spielzeug den selben stromdeckel verpasst bekommt, wie anno dazumal die staubsauger.


(..)

mfg
tobi

Dural
2022-09-26, 15:53:32
....und Dyson mit der EU vor den Richter ging und RECHT bekommen hat, seitdem gibt es keine Energielabel mehr auf Staubsauger ;)

Gerade bei den Staubsauger hat sich was Leistungsaufnahme anbelangt kaum was getan, früher hatten die Modelle mit 2200Watt real so um die 1200-1500Watt. Heute haben sie im Boost 1200Watt.

Der Trend auf Akku Sauger macht die ganze Geschichte sowie so ziemlich lachhaft.

Viel Leerlauf wie man es von der EU kennt.

Thunder99
2022-09-26, 16:28:45
OT zum letzten Satz: ist das 500W PSU >ein paar Jahre alt, waere es so oder so empfehlenswert eine so teure GPU an ein neues PSU zu haengen. Wenn schon denn schon: wieso stellt NV nicht auch ihre eigenen dedizierte GPU Netzteile her? GPU mit privat-Stecker ;)
Kommt sicher, keine Sorge :)
Aber wollte es hier nochmal nennen, dass ich eine 250W und 65W CPU erfolgreich mit einem 500W Netzteil betreibe :)

Um weniger TDP zu haben muss man bei der Leistung Abstriche machen wie auch bei der VRAM Menge. Alles unter 12GB will ich aber nicht kaufen und als Beispiel ist eine 3060 mir zu wach bzw besser gegenüber einer 1080Ti :)

Edgecrusher86
2022-09-26, 17:00:28
Ja, schade, dass kein DP2.0 verbaut wird. Die andere Sache ist aber bestimmt die, dass es vermutlich erst in zwei Jahren Marktrelevanz hat, sprich genug Geräte vorgestellt werden bzw. sind.

basix
2022-09-26, 17:04:41
....und Dyson mit der EU vor den Richter ging und RECHT bekommen hat, seitdem gibt es keine Energielabel mehr auf Staubsauger ;)

Gerade bei den Staubsauger hat sich was Leistungsaufnahme anbelangt kaum was getan, früher hatten die Modelle mit 2200Watt real so um die 1200-1500Watt. Heute haben sie im Boost 1200Watt.

Der Trend auf Akku Sauger macht die ganze Geschichte sowie so ziemlich lachhaft.

Viel Leerlauf wie man es von der EU kennt.


Energielabel für Staubsauger sind auch dämlich. Oder wie lange benutzt du den pro Woche? Dafür saugt das Ding dann nicht richtig und muss 2-3x drüberfahren, bis es aufgesaugt wird, was in Wattstunden natürlich ein riesen Vorteil ist?! :freak:

Troyan
2022-09-26, 17:05:32
DP2.0 ist doch irrelevant. DSC schafft das selbe und die meisten Monitore werden DP1.4 mit DSC und HDMI 2.1 unterstützen. Und für mehr reicht doch auch nicht die Rechenleistung - selbst 4K mit 144Hz ist mit einer 4090 nicht immer und überall drin.

Meridian12
2022-09-26, 17:06:04
Wann gibt es denn jetzt die ersten richtigen Tests?

Der ganze NVIDIA Vorstellungskram kann man doch vergessen.

Im Prinzip wurden die Karten vorgestellt und keiner (ausser NVIDIA) weiß, was die Karten wirklich leisten.
Ist irgendwie absolut lächerlich.

Cyberfries
2022-09-26, 17:20:51
....und Dyson mit der EU vor den Richter ging und RECHT bekommen hat, seitdem gibt es keine Energielabel mehr auf Staubsauger

Das eine hat nichts mit dem anderen zu tun.
Eine maximale Leistungsaufnahme von 900 W gibt es weiterhin, davon ist aber die Saugleistung unberührt.
Das Energielabel sollte die Effizienz durch Vergleich von Saugleistung und Leistungsaufnahme zeigen
und wurde abgeschafft weil beutellose Staubsauger benachteiligt wurden.

Dass den Stromverbrauch sinnlos nach oben zu treiben nicht in gleichem Maß zu Mehrleistung führt,
sollte in diesem Forum bekannt sein.

Troyan
2022-09-26, 17:22:04
Wann gibt es denn jetzt die ersten richtigen Tests?

Der ganze NVIDIA Vorstellungskram kann man doch vergessen.

Im Prinzip wurden die Karten vorgestellt und keiner (ausser NVIDIA) weiß, was die Karten wirklich leisten.
Ist irgendwie absolut lächerlich.

Du könntest in Hong Kong vorbeifahren: https://videocardz.com/newz/gigabyte-rtx-4090-already-on-sale-in-hong-kong-two-weeks-before-launch

Laut dem Text haben und bekommen Reviewer diese Woche die Testsamples. Test gibt es frühsten nächste Woche mit Glück. Glaube nicht, dass nVidia die so lange zurückhält. Wird ja dann links und rechts geleakt werden.

davidzo
2022-09-26, 17:51:07
https://i.redd.it/mdjka6om27q91.png
https://www.nvidia.com/en-us/geforce/technologies/8k/

Schade dass das nur mit Fernsehern geht und man sich zwischen 50Hz (8bit per Channel) ohne input lag und high refresh rate mit DSC Kompression und ordentlichem inputlag entscheiden muss.

nee, dann lieber 4K 10bit + 120Hz ohne Kompression and einem reinen Monitor ohne Ferbsehertypischem input lag.

Selbst die 2CU IGP im neuen Ryzen 7000 kann DP2.0 mit UHBR, ebenso die rembrandt CPUs von anfang des Jahres, sowie natürlich alle kommenden RDNA3 GPUs.

Troyan
2022-09-26, 18:02:32
DSC hat überhaupt keinen Input-Lag. Siehe den neuen Samsung 4K 240Hz Monitor: https://tftcentral.co.uk/reviews/samsung-odyssey-neo-g8#Lag

r3ptil3
2022-09-26, 18:17:19
Da hat schon jemand eine RTX 4090 kaufen können:

https://cdn.videocardz.com/1/2022/09/GIGABYTE-RTX4090-WINDFORCE-6.jpg

https://cdn.videocardz.com/1/2022/09/GIGABYTE-RTX4090-WINDFORCE-4.jpg

https://videocardz.com/newz/gigabyte-rtx-4090-already-on-sale-in-hong-kong-two-weeks-before-launch


Dieses Wochenende dürfte es vielleicht eine kleine Flut an Leaks geben, da die Reviewer bis dahin schon einige RTX 4090 Karten bekommen haben.

Niall
2022-09-26, 18:33:14
Was' ein Trümmer. :freak:

Sardaukar.nsn
2022-09-26, 18:39:35
Ich habe heute kurze mit Eddy von Alphacool geschrieben, die haben beim Test des ihres neuen Wasserkühler bis zu 800W abgeführt. Also da wird noch was oberhalb der 4090 kommen.

Zudem Witcher 3 mit DLSS 3 und Raytracing-Remaster? The Witcher 3: DLSS 3 für RTX 4000 kommt wohl mit Next-Gen-Version (https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/News/DLSS-3-Raytracing-RTX-4000-1404118/)

dargo
2022-09-26, 18:44:37
Was' ein Trümmer. :freak:
:D

Einerseits ist die große Öffnung hinten für die Graka von Vorteil. Auf der anderen Seite wird sich die CPU darüber aber gar nicht freuen.

ChaosTM
2022-09-26, 18:46:22
Gar kein Lüfter hinten wie bei ASUS ?
Enttäuschend bzw gut. Könnte daher ins System passen.

crux2005
2022-09-26, 18:46:25
Die sind doch kompatibel?

Nein, weil er keine 600W liefern wird.

Zudem Witcher 3 mit DLSS 3 und Raytracing-Remaster? The Witcher 3: DLSS 3 für RTX 4000 kommt wohl mit Next-Gen-Version (https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/News/DLSS-3-Raytracing-RTX-4000-1404118/)

Alles andere macht auch keinen Sinn.

Ich befürchte das schlimmste. Die werden die NG Version mit dem gleichen "Overdrive" RT "zumüllen" damit nur die 4090 ~60 FPS mit DLSS3
Perf in 4K schafft.

Sardaukar.nsn
2022-09-26, 19:09:35
Alles andere macht auch keinen Sinn.

Ich befürchte ja das schlimmste. Die werden die NG Version mit dem gleichen "Overdrive" RT "zumüllen" damit nur die 4090 ~60 FPS mit DLSS3
Perf in 4K schafft.

Das ist zu befürchten. Vielleicht dann im Bundle mit der richtigen 4080 Ti? Aber erst nachdem AMD sein Pulver verschossen hat. Die Lücke zwischen 4090 und 4080 16GB ist dann doch zu auffällig groß.

r3ptil3
2022-09-26, 19:13:18
Gar kein Lüfter hinten wie bei ASUS ?


Kannst du das präzisieren?

Die Strix hat doch drei Lüfter.
https://i.ibb.co/gwsxTz5/image.png

Ex3cut3r
2022-09-26, 19:14:06
Das ist zu befürchten. Vielleicht dann im Bundle mit der richtigen 4080 Ti? Aber erst nachdem AMD sein Pulver verschossen hat. Die Lücke zwischen 4090 und 4080 16GB ist dann doch zu auffällig groß.
Das stimmt. In einem Jahr erwarte ich eine 4080 Ti mit 20GB und 320 Bit SI. Sowie 12.420 Shaders.

crux2005
2022-09-26, 19:18:54
Kannst du das präzisieren?

Die Strix hat doch drei Lüfter.
https://i.ibb.co/gwsxTz5/image.png

Würde mich auch interessieren.

Anhand seiner Aussage glaubt er der hintere Teil hat einen Lüfter:

https://abload.de/img/pdqpdi6.png

Sardaukar.nsn
2022-09-26, 19:20:13
Ich glaube das war eine Galax/KFA Karte die auf der Rückseite noch einen großen Lüfter hatte.

TheCounter
2022-09-26, 19:20:31
Ohne WaKü würde ich mir so ein Teil niemals ins Gehäuse bauen. Bald bauen wir die anderen Komponenten in das Gehäuse der Graka, statt anders herum ;D

Sardaukar.nsn
2022-09-26, 19:22:08
Das stimmt. In einem Jahr erwarte ich eine 4080 Ti mit 20GB und 320 Bit SI. Sowie 12.420 Shaders.

Aber diese späten Releases von 4090 bzw. 4080 Ti sind doch Käse, da man dann ein Jahr weniger die aktuelle Tech hat. Die wenigsten rüsten zwei mal in einer Generation die GPU auf.

why_me
2022-09-26, 19:22:37
Eine AIO kann doch auch kaum noch teurer sein, als diese ganzen Metallklötze.

Sardaukar.nsn
2022-09-26, 19:25:40
Eine AIO kann doch auch kaum noch teurer sein, als diese ganzen Metallklötze.

Wobei ich so ein 450-600W Teil nicht mit einem 240er Radiator (z.B. Suprim Liquid) empfehlen würde.

Ex3cut3r
2022-09-26, 19:27:18
Aber diese späten Releases von 4090 bzw. 4080 Ti sind doch Käse, da man dann ein Jahr weniger die aktuelle Tech hat. Die wenigsten rüsten zwei mal in einer Generation die GPU auf.
Jein. Da liegst du natürlich im Grunde richtig. Allerdings gabs auch hier recht viele Leute die von einer 3090 auf die 3090 Ti gewechselt sind. :freak:

Sardaukar.nsn
2022-09-26, 19:39:51
Hm, es gab in der Ampere Generation aber auch, ich sag mal, ungewöhnliche Umstände am Markt . Ich hoffe einfach das in Zukunft der Mining Faktor rausfällt man trotz der hohen Preise wieder zu einem normalen Markt mit guter Verfügbarkeit und mit der Zeit fallenden Preisen kommt.

Meridian12
2022-09-26, 19:51:32
Bei den Backsteinen müssten doch manche Hersteller direkt mit Aquacomputer oder Watercool zusammenarbeiten um nur Platinen für deren Wasserkühler zu bauen.

Denn nur für einen Wakükühler braucht man ja keine 36 Zentimeter Platine.

Ex3cut3r
2022-09-26, 20:08:10
Hm, es gab in der Ampere Generation aber auch, ich sag mal, ungewöhnliche Umstände am Markt . Ich hoffe einfach das in Zukunft der Mining Faktor rausfällt man trotz der hohen Preise wieder zu einem normalen Markt mit guter Verfügbarkeit und mit der Zeit fallenden Preisen kommt.

Das wünsche ich mir auch, wenn AMD wieder konkurrenzfähig ist mit RDNA3 erwarte ich das auch, da Mining wie du ja richtig sagt, ausfällt. Trotzdem werde ich sehr sehr wahrscheinlich RDNA3 und Ada auslassen.

crux2005
2022-09-26, 20:10:50
Ich glaube das war eine Galax/KFA Karte die auf der Rückseite noch einen großen Lüfter hatte.

Richtig.

Die ASUS hat da keinen Lüfter.

Das wünsche ich mir auch, wenn AMD wieder konkurrenzfähig ist mit RDNA3 erwarte ich das auch, da Mining wie du ja richtig sagt, ausfällt.

Hoffe ich auch. Noch ein wenig FSR verbessern, deutlich mehr verbreiten und es gibt IMHO keinen Grund eine GeForce zu bevorzugen.

Wobei mein G-sync Monitor mich natürlich limitiert. :(

Sardaukar.nsn
2022-09-26, 20:16:53
Bei den Backsteinen müssten doch manche Hersteller direkt mit Aquacomputer oder Watercool zusammenarbeiten um nur Platinen für deren Wasserkühler zu bauen.

Denn nur für einen Wakükühler braucht man ja keine 36 Zentimeter Platine.

Das Reference PCB der 4090 ist keine 20cm lang. Darum bietet Alphacool ja diesen kompakten Kühler an. https://www.alphacool.com/detail/index/sArticle/30435

Wen das Thema ernsthaft interessiert kann ich das Video von Digital Foundry empfehlen. Dabei gehen sie auf viele Reaktion der letzten Woche ein.

lqPF6WJIed8

robbitop
2022-09-26, 20:18:03
DP2.0 ist doch irrelevant. DSC schafft das selbe und die meisten Monitore werden DP1.4 mit DSC und HDMI 2.1 unterstützen. Und für mehr reicht doch auch nicht die Rechenleistung - selbst 4K mit 144Hz ist mit einer 4090 nicht immer und überall drin.
DP2.0 unterstützt auch DSC und schafft entsprechend mehr.

Sardaukar.nsn
2022-09-26, 20:22:53
Trotzdem werde ich sehr sehr wahrscheinlich RDNA3 und Ada auslassen.

Kann ich auch sehr gut nachvollziehen. Mit deiner Karte bist ja auch hervorragend aufgestellt. Ich bin damals von der 1080 Ti auch erst auf die 3080 gewechselt obwohl sich das mit den -1GB Ram schon komisch angefühlt hat. War halt knapp +100% und DLSS hat sich im Laufe der Zeit echt gut entwickelt.

Ex3cut3r
2022-09-26, 20:25:27
Kann ich auch sehr gut nachvollziehen. Mit deiner Karte bist ja auch hervorragend aufgestellt. Ich bin damals von der 1080 Ti auch erst auf die 3080 gewechselt obwohl sich das mit den -1GB Ram schon komisch angefühlt hat. War halt knapp +100% und DLSS hat sich im Laufe der Zeit echt gut entwickelt.

Jap. Schönes Upgrade damals.
Richtig.
Hoffe ich auch. Noch ein wenig FSR verbessern, deutlich mehr verbreiten und es gibt IMHO keinen Grund eine GeForce zu bevorzugen.

Wobei mein G-sync Monitor mich natürlich limitiert. :(

Richtiges G-Sync mit Modul? Wie alt genau?

EDIT: Das Acer Ding von 2015? Dann kacke, das läuft tatsächlich nur mit Geforce Karten, bei neueren Monitoren ist jetzt auch das G-Sync Modul mit AMD Karten "nutzbar" Also ich glaube er schaltet einfach auf Freesync/VRR.

crux2005
2022-09-26, 20:29:20
Jap. Schönes Upgrade damals.

Richtiges G-Sync mit Modul? Wie alt genau?

EDIT: Das Acer Ding von 2015? Dann kacke, das läuft tatsächlich nur mit Geforce Karten, bei neueren Monitoren ist jetzt auch das G-Sync Modul mit AMD Karten nutzbar.

Ja, mein Acer ist von ~Anfang 2015. Wollte upgraden. Aber für neue GraKa brauche ich auch ein neues Netzteil. Dazu Monitor. Wäre zu viel auf einmal.

Das ich von B550+5800X am liebsten wechseln würde kommt noch dazu.

Ex3cut3r
2022-09-26, 20:30:08
Ja, mein Acer ist von ~Anfang 2015. Wollte eh Upgraden. Aber brauche auch ein neues Netzteil. Dazu Monitor und GraKa. Wäre zu viel auf einmal.

Das ich von B550+5800X auch am liebsten wechseln würde kommt noch dazu.
Kann ich verstehen. Wenn man grade viel HW braucht, wird das richtig teuer.

r3ptil3
2022-09-26, 20:57:04
Da Zen4 für mich eine absolute Enttäuschung ist, gönne ich mir vielleicht die RTX 4090.

Bin aber irgendwie noch sehr skeptisch, wie eine Custom-Karte am Schluss rauskommt. Bei 400W+ lasse ich jedenfalls eine solche Karte auf keinen Fall laufen.

Noch skeptischer bin ich beim Navi 31 Chip. Hier vermute ich eine erstaunlich grosse Lücke zur 4090.

horn 12
2022-09-26, 21:00:53
Ja, lässt es nicht gut rüberkommen
Hoffe das RDNA 3 nun zum Trotz des schwachen ZEN 4 Release richtig Zündet!
Aber Hoffnung habe ich seit Heute nur mehr geringe!

Sardaukar.nsn
2022-09-26, 21:36:45
Das ich von B550+5800X am liebsten wechseln würde kommt noch dazu.

Das ist auch mein Unterbau, aber was ich heute an Reviews gesehen habe haut mich nicht vom Hocker. Die große Revolution findet meiner Meinung nach eh bei den Displays statt. Stichwort: 42 Zoll OLED inzwischen unter 1000€

Thunder99
2022-09-26, 22:03:00
Das stimmt. In einem Jahr erwarte ich eine 4080 Ti mit 20GB und 320 Bit SI. Sowie 12.420 Shaders.
Bei wahrscheinlich 400W ;D :(

Radeonfreak
2022-09-26, 22:22:26
Naja, ich bekomm ja meinen 12+4 Stecker direkt von Asus (ist unterwegs) und Adapter liegen ja sicherlich bei jeder Graka dabei.

Da isser.

https://abload.de/img/img_20220926_221954wkiio.jpg

M4xw0lf
2022-09-26, 22:24:15
Da isser.

https://abload.de/img/img_20220926_221954wkiio.jpg
Gratuliere zur neuen Bleibe!

(wenn die alte dann abgefackelt ist :freak:)

Thunder99
2022-09-26, 22:38:41
Schön aufs Routing achten :freak:

iamthebear
2022-09-26, 23:06:46
Ich habe mir einmal den Die Shot von Locuza geschnappt und einmal sehr laienhaft einmal einige Teile von AD102 ausgemessen und mit GH100, GA102 und Navi21 verglichen.

Name|Die Size gesamt|1 GPC/SE|Alle GPCs/SEs|L2 Gesamt|L2/MB|SI Gesamt|SI/32Bit|GCD Teil|MCD Teil
AD102|608mm²|25,17mm²|302,03mm²|121,34mm²|1,264mm²|65,94mm²|5,495mm²|420,72mm²|1 87,28mm²
GH100|814mm²|49,45mm²|346,16mm²|125,53mm²|2,092mm²
GA102|628mm²|51,35mm²|359,50mm²|34,78mm²|5,796mm²|77,86mm²|6,489mm²|515,36mm²|11 2,64mm²
Navi21|520mm²|57,71mm²|230,85mm²|60,01mm²|0,626mm²|46,22mm²|5,778mm²|413,68mm²|1 06,32mm²


Nun sieht man:
.) Die Größe des SI pro 32Bit ist bei allen ca. gleich groß (GH100 habe ich auf Grund von HBM erst mal außen vor gelassen
.) Der L2 ist bei AD102 trotz N4 nur halb so kopakt wie der IF$ bei Navi21 trotz vergleichbarer Größe, wird jedoch voraussichtlich deutlich mehr Bandbreite bieten.
.) AD102 ist wenn man vom L2 bzw. dem kleineren SI absieht in etwa so groß wie Navi21.
.) Navi31 hat 6x40mm² MCDs mit SI+IF$. Vergleicht man das mit den 187mm² von AD102, so sieht es so aus als wäre AD102 hier hingegen wieder deutlich effizienter. Die Frage ist warum. Ist der Verlust bei der Inter Die Kommunikation tatsächlich so groß und eher mehr eine Verzweiflungsaktion von AMD da man nicht genug N5 Kapazität bekommen hat? Machen die MCDs vielleicht doch noch etwas mehr als nur SI+IF$? Oder liegt Angstronomics bei der L2 Größe daneben und es sind in Wahrheit doch 192MB?
Eine andere Möglichkeit ist jedoch, dass der IF$ von Navi21 in Wahrheit deutlich größer ist als eingezeichnet und vieles von dem, was in den Die Shots als "Infinity Fabric" beschriftet ist in Wahrheit der Ansteuerung des Cache dient.
.) Betrachtet man den GCD Teil, so sind sowohl AD102 als auch Navi21 um ca. 40% größer als Navi31. Da gibt mir etwas zu denken. Hier sieht Navi31 eher mehr wie ein AD103 Konkurrent bzw. eher ein Navi22 Nachfolger aus. Ich habe da so meine Zweifel, ob N31 hier auch nur annähernd an AD102 herankommt
.) Vergleicht man AD102 vs. GA102 so ist ein GA102 GPC ca. so groß wie 2 AD102 GPCs. Das trifft zwar für GH100 vs. AD102 auch zu, jedoch ist hier bei GH100 ja auch jede Menge FP64 und Tensor Power dabei, weshalb sich das schlecht vergleichen lässt.

GrimReaper85
2022-09-27, 07:53:06
bei Corsair brauchst Du das hier:
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284

das ist das neue 12+4 ATX 3.0 / PCIe gen5 Kabel für Corsair Typ 4 Netzteile.
600W durch 2x 8-Pin, das ist Wahnsinn.

Hier heißt es 288 W pro 8-pin Stecker:
https://www.gpuminingresources.com/p/psu-cables.html

Ich habe einmal danach gegoogelt und Corsair sagt 150W über einen 8-pin und kein Daisy-Chaining, ein Stecker, ein Kabel.
Aber das ist natürlich Bullshit, zB 3080 390W kann man ohne Problem 2 Kabel und 3x 8-pin verlegen.

OK, also ein anderes Kabel kaufen, wenn sich herausstellt, dass AMD Karten Mist sind.
Trotzdem sollten der mitgelieferte 3-pin Adapter und 3 separate Kabel sowieso die bessere Wahl sein. Wenn 4080 16GB jedoch etwa 350W betragen, sind 2x 8-pin mehr als ausreichend. 4090 werde ich so schnell nicht kaufen.

iamthebear
2022-09-27, 08:16:32
Das was die PCI Sig angibt sind eben die Mindestanforderungen an die Kabel.
Wenn ein Hersteller nun ein Set aus PSU + Adapterkabel anbietet und dieses für in Summe 600W auslegt, dann ist das doch seine Sache. Aber das darf man dann eben nur mit seinen Kabeln machen und nicht irgendwelche 30 Cent Billigkabeln aus der Ramschkiste verwenden.
Zur Karte hin gibt der Standard ja die 600W her.

ChaosTM
2022-09-27, 08:20:58
3x 8 Pin + PCI sollte 600 Watt schaffen ;)

Wenn auch ziemlich "warm"

NOT

Dural
2022-09-27, 09:40:10
600W durch 2x 8-Pin, das ist Wahnsinn.

Hier heißt es 288 W pro 8-pin Stecker:
https://www.gpuminingresources.com/p/psu-cables.html



2x 288 = 576 + 75 PCI-E = 651Watt


Wenn man die Kabel und Stecker dafür auslegt ist das überhaupt kein Problem. Gehen langsam die Argumente aus?

Und wo rauchen reihenweise die 3090Ti mit ihren 450Watt ab, konnte mir noch keiner zeigen. Jaja 600Watt, Fakt die 4090 hat aktuell auch 450Watt.

Und ganz ehrlich, wer eine Karte für 2k+ kauft dürfte auch das nötige Kleingeld für ein neues NT für 300.- haben, erst recht wenn er auf die Karte 600Watt zulässt :rolleyes:

Platos
2022-09-27, 09:54:44
Das Argument ist ganz einfach: Es ist nicht als solches Spezifiziert. Alles andere spielt keine Rolle.

Übrigens: Gerade bei nicht "smarten" Netzteilen kann es vorkommen, dass wenn man solche Adapter nutzt, dann der ganze Strom über einen Port geleitet wird, weil das Netzteil das nicht kann.

Sehr gefährlich...

Netzteil neukaufen ist keine Option und auch nicht die Aufgabe eines Grafikkartenkäufer. Es kann nicht sein, dass da potentielle Brandgefahren sind.

Dural wieder mal als Nvidia PR-Mensch unterwegs.

Thunder99
2022-09-27, 09:59:25
Der Nutzer ist in der Verantwortung das richtige PSU zu besitzen um die Karte zu betreiben. Wenn es ab raucht, da es nicht dafür ausgelegt ist, ist es nicht der Fehler vom Hersteller des PSU.

nordic_pegasus
2022-09-27, 09:59:25
man kann über die Leistungsaufnahme der aktuellen Nvidia Karten geteilter Meinung sein. Ich verstehe an dem neuen ATX 3.0 / PCIe gen5 Kabel/Stecker nicht, warum die einzelnen Pins kleiner werden mussten. Darum passen Adern dicker 17 AWG nur schwer in die Litzen, welche dann wiederum in den Stecker passen. Mit dem alten Standard waren 16AWG überhaupt kein Problem.

Vorher hatte man einen 8pin PCIe mit 3x12V, 3xMasse und 2xSense. Damit hatte man bei 2x 8pin Steckern insgesamt 6x12V mit maximal 150Watt pro Kabel, also insgesamt 300Watt.

Jetzt hat man bei einem 12+4 ATX3.0/PCIe5 Kabel auch wieder 6x12V, aber maximal 600Watt.

Es ist also die zulässige Stromstärke um den Faktor 2 gestiegen, gleichzeitig passen nicht mehr hochwertige Adern in die Stecker. Unabhängig von der kolportierten schlechteren mechanischen Stabilität des kleineren Steckers ist es elektisch ein Rückschritt, den ich nicht nachvollziehen kann.

Wie ich bereits geschrieben hatte, wäre aus meiner Sicht ein Schritt zu 8pin EPS Steckern (analog Workstation/Server Karten) der smartere Weg gewesen. Die Stecker sind ausgereift und kompatibel zu allen Netzteilen der letzten Jahre. Mit 2x 8pin EPS hätte man 8x12V gehabt, was zusammen mit 16 AWG Adern deutlich mehr Leistung bei gleichem Platzbedarf wie der neue PCIe5 Stecker bedeutet hätte.

DavChrFen
2022-09-27, 10:19:05
Ich kapiere insbesondere nicht, warum die Hersteller nicht auch Karten mit 3x 8pin PCIe oder 4x 8pin PCIe anbieten. Ich meine, wenn man teils schon ein eigenes PCB macht. Das wäre mal ein offensichtliches Kaufargument gewesen, wie einer der Hersteller hervorstechen hätte können.

Troyan
2022-09-27, 10:25:47
PCI-SIG warned of potential overcurrent/overpower risk with 12VHPWR connectors using non-ATX 3.0 PSU & Gen 5 adapter plugs. Why did PCI-SIG issue the warning and how does this affect NVIDIA’s new products?


It does not affect NVIDIA’s new products. During early development and testing we identified a potential issue with a prototype connector manufactured from a sole supplier. As a PCI-SIG member, we informed the supplier, asked them to fix it (which they did), and shared our findings to help suppliers who are implementing the new standard. The PCI-SIG was passing along those learnings to other suppliers.


Why is there only a 30 cycle lifetime on these new PCIe Gen 5 connectors?


The 30 cycle spec is the same as it’s been for the last 20+ years on existing PCIe/ATX 8pin connectors, and has not changed with the PCIe Gen5 connectors or power adapters.


Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?


Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec.


What’s a ‘smart’ power adapter?


The adapter has an active circuit that detects and reports the power capacity to the graphics card based on the number of 8-pin connectors plugged in. This enables the RTX 4090 to increase the power headroom for overclocking when 4x 8-pin connectors are used versus 3x 8-pin connectors.
https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/501736/geforce-rtx-40-series-power-specifications/

Ich kapiere insbesondere nicht, warum die Hersteller nicht auch Karten mit 3x 8pin PCIe oder 4x 8pin PCIe anbieten. Ich meine, wenn man teils schon ein eigenes PCB macht. Das wäre mal ein offensichtliches Kaufargument gewesen, wie einer der Hersteller hervorstechen hätte können.

Wozu? Der neue Stecker ist nicht schlechter und man führt nur ein Kabel zur Karte.

Thunder99
2022-09-27, 10:45:34
Finde auch den neuen Stecker besser als 3x8PIN, aber die Belastungen aufs Material darf man nicht unterschätzen.

Wäre eine 4080 16GB auch mit 2x8PIN zu betreiben? 2x 150W + 75W sollten ja genug sein ohne OC

Dural
2022-09-27, 10:53:19
Wie ich von Anfang an gesagt habe, viel Theater um rein gar nichts (!!!)

NV bringt mal wieder eine Sinnvolle Erneuerung gegenüber den gefühlt 20 Jahren alten und völlig veralteten PCI-E Stecker System und alle sind nur am rummotzen.

Ich werde sobald gute Netzteile auf dem Markt sind schleunigst wechseln. So ein kleines 12-Pin Kabel sieht 1000x besser aus als drei oder sogar vier 8-Pin PCI-E Kabel.

Aber zuerst muss wohl noch der 13900K und die 4080 auf den Markt kommen...

Ex3cut3r
2022-09-27, 10:58:26
Da isser.

https://abload.de/img/img_20220926_221954wkiio.jpg

Was ist das? Schon klar, Adapter für 12VHPWR-Stecker. Aber wieso nur 2x8 Pin? Das reicht doch niemals für den 600W Stecker. :confused:

2x8Pin nur ~ 300W

Sardaukar.nsn
2022-09-27, 11:23:41
Die 8pin Stecker welche ins modulare Netzteil kommen sind wohl für 300W ausgelegt.

Radeonfreak
2022-09-27, 11:31:51
So ist das.

BlacKi
2022-09-27, 11:39:58
Was ist das? Schon klar, Adapter für 12VHPWR-Stecker. Aber wieso nur 2x8 Pin? Das reicht doch niemals für den 600W Stecker. :confused:

2x8Pin nur ~ 300W


laut spec schon. du kennst doch die y kabel aus dem netzteil, die 2x6(+2)pin haben?


die kabel können das ab, nur die stecker hin zu gpu hin können 150w. die stecker hin zum netzteil können aber 300w, weil es andere sind.

nordic_pegasus
2022-09-27, 11:50:09
Was ist das? Schon klar, Adapter für 12VHPWR-Stecker. Aber wieso nur 2x8 Pin? Das reicht doch niemals für den 600W Stecker. :confused:

2x8Pin nur ~ 300W

die 150 Watt pro PCIe 8pin Kabel sind im Zusammenhang mit dem Mindest-Leitungsquerschnitt zu betrachten, welcher zulässig sind (18 AWG?).

Ein gutes Netzteil hat mindestens 17 AWG, wenn nicht sogar 16 AWG. Bei dem Querschnitt sind problemlos 300 Watt pro Kabel bzw. 100 Watt pro 12V-Ader möglich.

Es gibt ja leider auch diese Daisy-Chain 2x8pin PCIe Kabel bei vielen Netzteilen. Hier müssen dann die Adern sowieso auf das doppelte ausgelegt sein.

@Dural
Natürlich ist ein neuer Standard, welcher diese 6/8pin PCIe und Daisy-Chain Kabel ablöst eine gute Sache. Aber dennoch sollte der neue Standard elektrisch kein Rückschritt sein. Nils von MDPC-X weist ja darauf hin, dass 17 AWG nur mit Tricks verwendet werden kann, 16 AWG wohl gar nicht.

Wuge
2022-09-27, 12:16:11
Ach Leut, man kann auch ne 3090 mit 500W+ Powerlimit an ein einzelnes Kabel vom NT hängen und es wird nicht mal warm. Allein dass es Y-Kabel bzw. Daisy Chain gibt, die 2x 150W an einem Strang auf den 8 PIN-NT-Anschluss bringen zeigt doch, dass 300W an so nem 8 PIN Anschluss kein Problem sind.

Troyan
2022-09-27, 12:26:11
Von MSI:
https://pbs.twimg.com/media/FdMBPNeaAAEmiZJ?format=jpg&name=medium

Der 5.10 kann eigentlich nur die 4090 sein...

Sardaukar.nsn
2022-09-27, 12:30:18
Vorbestellung angeblich noch heute bei NBB möglich: https://www.notebooksbilliger.de/pc+hardware/grafikkarten/nvidia/geforce+rtx+4000+serie+nvidia

HOT
2022-09-27, 12:32:05
Evtl ist 5.10. die Intel 770.

why_me
2022-09-27, 12:43:53
Ach Leut, man kann auch ne 3090 mit 500W+ Powerlimit an ein einzelnes Kabel vom NT hängen und es wird nicht mal warm. Allein dass es Y-Kabel bzw. Daisy Chain gibt, die 2x 150W an einem Strang auf den 8 PIN-NT-Anschluss bringen zeigt doch, dass 300W an so nem 8 PIN Anschluss kein Problem sind.

Dass das Kabel bei über 13A nicht warm werden soll, glaube ich nicht. ;)

Es geht ja auch nicht um die Kabel, sondern um die Stecker. Durch den Übergangswiderstand der Steckverbindung, erwärmen sich die Kontakte. Die Kontakte selbst sind im Plastik des Gehäuses und bei den Adaptern dann auch noch in Schrumpfschlauch eingepackt, was alles isoliert. Dann sind die Stecker nicht umbedingt in einem Luftstrom etc.
Das mag bei neuen Kontakten erstmal kein Problem sein, aber die Kontakte leier mit der Zeit aus (stecken/ziehen, Kabelmanagement etc) und der Widerstand steigt -> mehr Hitze. Irgendwann werden die Kontakte dann so warm, dass das Plastikgehäuse schmilzt etc.

@iamthebear: Deine Tabelle könntest du im anderen Thread posten, ist ja mehr RDNA3 speku.

Ex3cut3r
2022-09-27, 12:46:52
die 150 Watt pro PCIe 8pin Kabel sind im Zusammenhang mit dem Mindest-Leitungsquerschnitt zu betrachten, welcher zulässig sind (18 AWG?).

Ein gutes Netzteil hat mindestens 17 AWG, wenn nicht sogar 16 AWG. Bei dem Querschnitt sind problemlos 300 Watt pro Kabel bzw. 100 Watt pro 12V-Ader möglich.

Es gibt ja leider auch diese Daisy-Chain 2x8pin PCIe Kabel bei vielen Netzteilen. Hier müssen dann die Adern sowieso auf das doppelte ausgelegt sein.

@Dural
Natürlich ist ein neuer Standard, welcher diese 6/8pin PCIe und Daisy-Chain Kabel ablöst eine gute Sache. Aber dennoch sollte der neue Standard elektrisch kein Rückschritt sein. Nils von MDPC-X weist ja darauf hin, dass 17 AWG nur mit Tricks verwendet werden kann, 16 AWG wohl gar nicht.

Also wenn ich bei meiner 3080 Ti (375W) mit Daisy Chain Kabel nur eines auf 2xPin verteile, geht der PC beim Zocken aus. Mit 2 getrennten Kabel alles paletti. Von daher nein, Pig-Tails Kabel können auch nicht zaubern, bzw. überhitzen wenn nur eines solches Kabel für 2 PCIe Büchsen benutzt wird.

So sollte man es immer machen: Die Standard Konfig aus dem Bild führt bei mir wie gesagt zum PC Shutdown. Und jetzt soll so ein PCIe 5 Adapter mit normalen 2x8 Pin 450W oder gar 600W übers Kabels beim PC Start raushauen? Na dann, fröhliches gelingen.Eigentlich bräuchte man 3x8Pin dafür, nicht 2xmal.

https://www.computerbase.de/forum/attachments/seasonic-png.1259437/

M4xw0lf
2022-09-27, 12:51:36
Also wenn ich bei meiner 3080 Ti (375W) mit Daisy Chain Kabel nur eines auf 2xPin verteile, geht der PC beim Zocken aus. Mit 2 getrennten Kabel alles paletti. Von daher nein, Pig-Tails Kabel können auch nicht zaubern, bzw. überhitzen wenn nur eines solches Kabel für 2 PCIe Büchsen benutzt wird.

So sollte man es immer machen:

https://www.computerbase.de/forum/attachments/seasonic-png.1259437/
Du wirst halt die OCP/OPP deines Multirail-Netzteils triggern. Heißt nicht, dass dein Kabel davon schon heiß wird, aber auch um sowas zu verhindern gibt es ja diese Schutzschaltungen.

Sardaukar.nsn
2022-09-27, 12:53:48
Strix 2,5k https://www.proshop.de/Grafikkarte/ASUS-GeForce-RTX-4090-ROG-STRIX-OC-24GB-GDDR6X-RAM-Grafikkarte/3106488?utm_source=awin&utm_medium=&utm_campaign=143466&awc=18501_1664275619_7ccb1f8a20b4f11a60df3182e1b31592

Ex3cut3r
2022-09-27, 12:56:44
Du wirst halt die OCP/OPP deines Multirail-Netzteils triggern. Heißt nicht, dass dein Kabel davon schon heiß wird, aber auch um sowas zu verhindern gibt es ja diese Schutzschaltungen.

Ich habe Single Rail, ein Corsair Dingens mit 750W, keine 2 Jahre alt. Mit 5700X der beim zocken 50-70W frisst. Ich bezweifle es stark. Ein Pigtail Kabel für 2 PCIe Büchsen reicht einfach nicht aus.

Radeonfreak
2022-09-27, 13:00:08
So, Antwort von Asus Support (hatte noch mal explizit nachgefragt)

Guten Tag Frau xxxx,

sowohl das Netzteil als auch das Kabel sind für 600W ausgelegt.

Wie es allerdings im Betrieb mit Adaptern ist, wenn man das 16 PIN Kabel nicht hat oder nicht verwendet, kann ich Ihnen nicht garantieren.

Ex3cut3r
2022-09-27, 13:01:34
Welches NT hast du eigentlich RF?
Wie alt ist es?

Radeonfreak
2022-09-27, 13:01:57
ASUS ROG Thor Platinum II 1000W

2 Wochen alt.

Ex3cut3r
2022-09-27, 13:02:15
Ok. Wird wohl reichen. :freak:

Sardaukar.nsn
2022-09-27, 13:30:06
CP2077 Special Edition zu gewinnen: https://videocardz.com/newz/nvidia-and-cd-projekt-red-are-giving-away-geforce-rtx-4090-gpus-with-custom-cyberpunk-2077-backplate

https://cdn.videocardz.com/1/2022/09/RTX4090-CB-custom2.jpg

Cyberpunk scheint aktuell auch echt ein Comeback zu erleben. Ob das mit der Anime Serie zu tun hat? https://www.gamestar.de/artikel/cyberpunk-2077-steam-spielerzahlen,3384613.html#entwickler-bedanken-sich

Troyan
2022-09-27, 13:31:58
Netflix hat über 200 Millionen Abonnenten. Selbe Spiel wie mit "The Witcher".

Triniter
2022-09-27, 13:44:17
CP2077 Special Edition zu gewinnen: https://videocardz.com/newz/nvidia-and-cd-projekt-red-are-giving-away-geforce-rtx-4090-gpus-with-custom-cyberpunk-2077-backplate

https://cdn.videocardz.com/1/2022/09/RTX4090-CB-custom2.jpg

Cyberpunk scheint aktuell auch echt ein Comeback zu erleben. Ob das mit der Anime Serie zu tun hat? https://www.gamestar.de/artikel/cyberpunk-2077-steam-spielerzahlen,3384613.html#entwickler-bedanken-sich
Das Ding ist halt sowas von ein Ziegelstein. Brutal.

Gibt es eigentlich schon Aussagen ob es bei den Karten Poweradapter mitgeliefert werden? Bei Bequiet gibt es noch keine Adapter, wie gesagt, nicht das ich es notwendig hätte upzugraden aber nachdem jemand im Freundeskreis interesse an meiner 3090 bekundet hat bin ich ins Grübeln gekommen. Das 1000W Bequiet Dark Power 10 sollte ja schon ausreichend sein im Ernstfall.

Sardaukar.nsn
2022-09-27, 13:47:01
Ja, jeder 4090 liegt so ein 4-in-1 Adapter bei. Ist natürlich schäbig wie die Nacht aber wird wohl funktionieren.

https://i.imgur.com/a9tHVLu.png

Eleganter ist ein passendes modulares Kabel wie Radeonfreak schon von Asus bekommen hat. Der Seasonic support hat mir auch geschrieben das sowas bald verfügbar ist.

FastAndy
2022-09-27, 13:47:50
Wie ich von Anfang an gesagt habe, viel Theater um rein gar nichts (!!!)

NV bringt mal wieder eine Sinnvolle Erneuerung gegenüber den gefühlt 20 Jahren alten und völlig veralteten PCI-E Stecker System und alle sind nur am rummotzen.

Wilkommen in Foren, wo sich jeder zweite als Experte sieht und alles besser weiß als die Ingenieure :wave2:

Troyan
2022-09-27, 13:58:45
Tja, schaut euch mal die Reaktion der Leute im Hot4 Thread an. Niemand hat Probleme mit miserablen Updates, wenn es AMD ist.
Beispiel anhand des 7600X gegenüber 5600X:
Selber Preis, +30% Leistung und +60%(!) Stromaufnahme

Hier die RTX4080 12 GB gegenüber der 3080 12GB ($899):
Selber Preis, +20%+ Leistung und -19% Stromaufnahme

Ein 7600X müsste also ein 7200X (geht AMD soweit runter?^^) und $150 kosten.

r3ptil3
2022-09-27, 14:03:14
Hot4 Thread

hahaha


Aussagen darin wie "beste Ryzen Generation" werden mir lange im Gedächtnis bleiben.

Exxtreme
2022-09-27, 14:10:47
Ich finde das Update jetzt nicht miserabel. Es ist eine an allen Ecken verbesserte Version des Vorgängers. Und wenn man bedenkt wie ausgequetscht x86 eigentlich ist, ist das OK für mich. Wer einen X3D hat, für den lohnt sich ein Update nicht. Der kann womöglich auf den Nachfolger des X3D warten. Kann sein, dass da noch viel mehr drin ist was Spiele angeht. Und man kann diese CPU auch sehr stromsparend betreiben mit einigen Kompromissen, ja.

HisN
2022-09-27, 14:28:55
Bei NBB sind einige Karten gelistet.
Inkl. Vorbestellen-Button.
https://abload.de/img/16642804275082efkx.png (https://abload.de/image.php?img=16642804275082efkx.png)
Leider geht der Button noch nicht^^

Edgecrusher86
2022-09-27, 14:42:20
Bis 2300€ jetzt schon für die dicken Bomber zur Vorbestellung (hatte ich ja erwartet) - naja, ich warte dieses Mal einfach entspannt auf die FE, egal, ob es zwei Monate länger dauert - nur zum Weihnachtsurlaub wäre schön. :)

Dural
2022-09-27, 14:46:47
Naja AMD hatte jetzt nie wirklich druck, sie wussten schlicht das sie dahinter sind. Ob sie jetzt 5% mehr oder weniger Leistung hatten war schlicht egal. Dank vielen Kernen konnten sie sich auf die Multithread Performance verlassen, die in der Praxis zwar fast immer irrelevant ist aber das ist ein anderes Thema.

Jetzt sieht es anders aus, bei den CPUs ist Intel wieder stark am kommen und AMD muss alles aus ihren CPUs Rausprügeln.

Genau das gleiche bei den GPUs, NV verwendet seit Jahren mal wieder einen Top aktuellen Prozess, dieser muss mit der Wunsch-Marge halt auch finanziert werden und AMD wird auch bei Navi ein mehr Verbrauch in kaufnehmen müssen.

robbitop
2022-09-27, 14:51:11
Tja, schaut euch mal die Reaktion der Leute im Hot4 Thread an. Niemand hat Probleme mit miserablen Updates, wenn es AMD ist.
Beispiel anhand des 7600X gegenüber 5600X:
Selber Preis, +30% Leistung und +60%(!) Stromaufnahme

Hier die RTX4080 12 GB gegenüber der 3080 12GB ($899):
Selber Preis, +20%+ Leistung und -19% Stromaufnahme

Ein 7600X müsste also ein 7200X (geht AMD soweit runter?^^) und $150 kosten.
Also in Spielen scheint Zen 4 grob das Gleiche wie der jeweilige Zen 3 pendant zu verbrauchen. Verbrauch als AVG über den vollen Parcours:

7950X: 118 W ~+4%
5950X: 113 W
12900KS: 168W +48%

7700X: 72W ~ +3%
5800X3D: 70 W
Alderlake scheint deutlich mehr zu verbrauchen. Und Raptorlake soll ja nochmal mehr verbrauchen...
https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk


Da die TDP konfigurierbar ist, kann man auch einen effizienteren Betriebspunkt für MT Workloads wählen. Hier braucht der 7950X nur 65W um auf die Performance vom 5950X und vom 12900K zu kommen.

Es ist wirklich nur der Betriebspunkt - die uArch ist durchaus auch sehr effizient. Je niedriger der Betriebspunkt desto größer der Abstand zum 12900K.

Verbrauch in Synthies/Powervirus Applications:
7950X: 196 W
12900K: 241 W

Raptorlake wird wohl noch einen oben drauf legen.

FastAndy
2022-09-27, 14:53:36
Bei NBB sind einige Karten gelistet.
Inkl. Vorbestellen-Button.
https://abload.de/img/16642804275082efkx.png (https://abload.de/image.php?img=16642804275082efkx.png)
Leider geht der Button noch nicht^^

Leider keine Asus Stricks bei. Ich kann aber nichts bestellen da? Hast du mal rausgefunden wie es geht, oder wird das noch freigeschaltet heute?

Dural
2022-09-27, 14:57:30
Habe gestern das Video von Igor angeschaut, und da sagt er das die 7000er in Spielen etwas mehr als die 5000er verbrauchen. Haben aber halt auch etwas mehr Leistung.

Für Spiele ist aktuell nach wie vor Intel oder der 5800X3D besser.

Ex3cut3r
2022-09-27, 15:00:32
Bis 2300€ jetzt schon für die dicken Bomber zur Vorbestellung (hatte ich ja erwartet) - naja, ich warte dieses Mal einfach entspannt auf die FE, egal, ob es zwei Monate länger dauert - nur zum Weihnachtsurlaub wäre schön. :)

Willst du das echt noch mit deinem Haswell befeuern? :freak:

why_me
2022-09-27, 15:04:47
Bei PCGH sind die minFPS bei den 7000ern in etwa gleich wie die des 5800X3D (Ausreißer gibts es in beide Richtungen). Und darauf kommt es doch eher an beim zocken. CPU Limitiert sind nur eine Hand voll spiele, die von den höheren MaxFPS des 5800X3D profitieren würden.

Aber das wird hier langsam OT, findet ihr nicht?

BiG OnE
2022-09-27, 15:04:58
Der Seasonic support hat mir auch geschrieben das sowas bald verfügbar ist.
Sag bitte Bescheid wenn Du eine Rückmeldung erhältst.

Sardaukar.nsn
2022-09-27, 15:07:56
@BiG OnE: Gerne, kein Problem.

Geht das schon wieder los. Immerhin besser als wenn jeder F5 smasht.

PrUF7-5P5Dk

HisN
2022-09-27, 15:11:38
Leider keine Asus Stricks bei. Ich kann aber nichts bestellen da? Hast du mal rausgefunden wie es geht, oder wird das noch freigeschaltet heute?

Die ist bei Proshop.de gelistet.
2.5k Juhu.

https://abload.de/img/strixqoe93.png (https://abload.de/image.php?img=strixqoe93.png)

Und der Button wird irgendwann ne Funktion bekommen. Wer weiß wann^^

Ex3cut3r
2022-09-27, 15:12:41
Jap. :freak:

EDIT: Bild rausgenommen, da HISN das gleiche Bild hat.

Sardaukar.nsn
2022-09-27, 15:18:58
Die ist bei Proshop.de gelistet.
2.5k Juhu.


Vielleicht noch ein passendes Mainboard dazu? :freak:
https://www.amazon.de/ASUS-CROSSHAIR-X670E-Mainboard-Speicher/dp/B0BF576T27/ref=sr_1_2?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3948UPKJ9ML8H&keywords=Ryzen%2B7000&qid=1664274149&qu=eyJxc2MiOiIzLjE3IiwicXNhIjoiMi4zMiIsInFzcCI6IjAuMDAifQ%3D%3D&sprefix=ryzen%2B7000%2Caps%2C96&sr=8-2&th=1

just4FunTA
2022-09-27, 15:19:03
Die ist bei Proshop.de gelistet.
2.5k Juhu.

https://abload.de/img/strixqoe93.png (https://abload.de/image.php?img=strixqoe93.png)

Und der Button wird irgendwann ne Funktion bekommen. Wer weiß wann^^

Also bei 2.5k ist mir der button egal.

Ex3cut3r
2022-09-27, 15:19:30
Vielleicht noch ein passendes Mainboard dazu? :freak:
https://www.amazon.de/ASUS-CROSSHAIR-X670E-Mainboard-Speicher/dp/B0BF576T27/ref=sr_1_2?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3948UPKJ9ML8H&keywords=Ryzen%2B7000&qid=1664274149&qu=eyJxc2MiOiIzLjE3IiwicXNhIjoiMi4zMiIsInFzcCI6IjAuMDAifQ%3D%3D&sprefix=ryzen%2B7000%2Caps%2C96&sr=8-2&th=1

Alter Schwede. :biggrin:

HisN
2022-09-27, 15:23:00
Also bei 2.5k ist mir der button egal.
Same here. Unter 2k hab ich tatsächlich draufgedrückt^^

Triniter
2022-09-27, 15:33:40
Die ist bei Proshop.de gelistet.
2.5k Juhu.

https://abload.de/img/strixqoe93.png (https://abload.de/image.php?img=strixqoe93.png)

Und der Button wird irgendwann ne Funktion bekommen. Wer weiß wann^^
Die MSI mit AIO ist niedriger eingepreist. Und ja, ich hab grad mein Case abgemessen ob es passen würde :freak:

Triniter
2022-09-27, 15:57:36
Sehr geehrter,

herzlichen Dank, dass Sie mit dem be quiet! Service Kontakt aufgenommen haben.

Da unsere Netzteile die zusätzlichen 4 Sense-Leitungen aktuell nicht unterstützen, bieten wir aktuell lediglich ein 12 Pin Kabel an welches die neuen Grafikkarten mit Spannung versorgen kann.

Dieses Kabel kann, was für die 3000er & 4000er Serie angeht, genutzt werden kann.

Bedauerlicherweise können wir Ihnen aktuell noch nicht mitteilen, mit welcher Karte der 4000er Serie dieses DUAL 12 Pin Kabel kompatibel ist.

Die technischen Spezifikationen der Karten wurden zwar bereits bekannt gegeben, allerdings haben wir die Karten physisch noch nicht vorliegen um zu prüfen, welche Serie der Karten mit dem 12 Pin DUAL Kabel nutzbar ist.

Wir werden allerdings ein Kabel in absehbarer Zeit anbieten können, was alle Serien der 4000er Serie unterstützen wird.

Wir bitten Sie daher noch um etwas Geduld, da dieses Thema noch etwas frisch ist.

Vielen Dank.

Mit freundlichen Grüßen
be quiet! - Service

Das sagt be quiet zur Netzteil Thematik.

FastAndy
2022-09-27, 16:57:37
Bei computerbild...base wollen laut umfrage wohl schon über 500 eine 4090 kaufen. Und das ist ja nur ein bruchteil. Man kann nur hoffen, das die Stückzahlen hoch genug sind und man nicht für seine wunschkarte wieder den halben tag online sein muss für wochen. :(

DrFreaK666
2022-09-27, 16:58:50
Kannst sie ja schon wenige Stunden später bei ebay für 4000€ kaufen XD

Sardaukar.nsn
2022-09-27, 17:06:42
@FastAndy

Aber auch viele die 4080 16GB, finde ich eigentlich noch erstaunlicher.

https://i.imgur.com/V46WeQ1.png

Quelle: https://www.computerbase.de/2022-09/nvidia-geforce-rtx-4090-4080-ada-lovelace-voting/

MiamiNice
2022-09-27, 17:11:14
So viel dazu das die Karten zu teuer sind und NV die nicht los bekommt ;D

Cyberfries
2022-09-27, 17:13:57
Bei computerbild...base wollen laut umfrage wohl schon über 500 eine 4090 kaufen.

7% von 4500 sind rund 300, keine 500.

Aber auch viele die 4080 16GB, finde ich eigentlich noch erstaunlicher.

Auffallend ist, dass laut Frage darüber nur 7% eine 4000er kaufen wollen, aber hier dann 11,8% 4090 und 10,8% 4080.
Da werden auch viele Kaufunwillige eine Tendenz abgegeben haben, damit zeigt sich immerhin dass die 4070 mehrheitlich abgelehnt wird.
Da spielt wohl trotz Umbenennung immer noch ein gefühltes "Mittelklasse" mit rein. Oder es liegt am Speicher.

Effizienz 7700X gegen 5700X in Spielen:

Die Architektur ist ordentlich, nur das Endprodukt angesichts des gewählten Betriebspunkts nicht.
Aber Ryzen gehört hier nicht wirklich her.

Hatstick
2022-09-27, 17:18:51
Was kommt an Menge dann auf eine RTX 4070?
Gehen da 10GB bzgl. dem Speicherinterface?

why_me
2022-09-27, 17:23:43
Aber dann gibts doch keinen Platz mehr für eine 4070ti. 11GB gehen zwar, aber dann nur wie bei der 970, ob Nvidia das noch einmal machen wird?

Keine Ahnung, wie sich Nvidia die Staffelung vorstellt. Außer natürlich:
4080 16GB
4080 12GB
4080 10GB
4080 8GB
4080 6GB
4080 4GB

Meridian12
2022-09-27, 17:26:23
Bei computerbild...base wollen laut umfrage wohl schon über 500 eine 4090 kaufen. Und das ist ja nur ein bruchteil. Man kann nur hoffen, das die Stückzahlen hoch genug sind und man nicht für seine wunschkarte wieder den halben tag online sein muss für wochen. :(


Und ich will mir einen Ferrari kaufen und Helene Fischer knattern.

Wunsch ist vorhanden. Möglichkeiten leider nicht :frown:

Sprich, diese 300 oder 500 haben noch lange,lange die Karte nicht gekauft.

Sardaukar.nsn
2022-09-27, 17:27:10
So viel dazu das die Karten zu teuer sind und NV die nicht los bekommt ;D

Nachdem ich mal gesehen habe für welche Preise Gaming-Laptops (eh ein Unding) im Aldi Onlineshop gekauft werden wundert mich gar nichts mehr.

Thunderburne
2022-09-27, 17:56:30
So viel dazu das die Karten zu teuer sind und NV die nicht los bekommt ;D
Findest du das sind gerade mal ca.500 RTX4090 und ca.500 RTX4080
Finde das jetzt nicht gerade viel!
Wer weis wieviel von denen aus Spaß mit gestimmt haben.

Im CB sind ja fast alle vertreten aus PCGH aus HWLuXX und auch hier aus dem 3D!

Meridian12
2022-09-27, 17:59:07
Findest du das sind gerade mal 500 4090 und 500 4080 ca.
Finde das jetzt nicht gerade viel!
Im CB laufen ja fast alle vertreten aus PCGH aus HWLuXX und auch von hier teils Leute dabei!


Interessanter sind da die Mindfactory Verkäufe.

Wäre natürlich auch gut zu wissen, für wieviele Verkäufe in D MF ungefähr steht bei dieser teuren PC Hardware.

Wenn zB 20%,könnte man ja grob sagen,wieviele in D verkauft wurden.

Von der 3090 haben sie in 2 Jahren (denke die Anzeige läuft zu Beginn an) mit 7 verschiedenen Herstellern knapp 2800-2900 normale 3090 Karten verkauft. Keine Ahnung welche Herstelle rnoch dabei waren,die jetzt nicht mehr dort angeboten werden und aus der Liste raus sind (Asus ist nicht dabei), aber für 2 Jahre ist das jetzt nicht überwältigend.

Aber schwer auf Deutschland umzumünzen.

Thunderburne
2022-09-27, 18:05:32
Interessanter sind da die Mindfactory Verkäufe.

Wäre natürlich auch gut zu wissen, für wieviele Verkäufe in D MF ungefähr steht bei dieser teuren PC Hardware.

Wenn zB 20%,könnte man ja grob sagen,wieviele in D verkauft wurden.
Klar wird es da ein Klientel geben die das bezahlen können aber es wird noch viel viel mehr geben die es nicht können so meine Meinung.
Es wird einen kurzen harten Run auf die Karten geben von denen wo die Kohle noch locker sitzt ...denke mal Spätestens nach Weinachten eventuell auch früher wird es sehr interessant werden!
Ich hab aus dem Verkauf der 3080Ti und etwas Geld oben drauf knapp 1700 zusammen das werde ich Nvidia aber nicht für eine 4080 16Gb rein schieben werde aber auch nicht noch mehr drauf legen für die 4090!
AMD kommt ja auch noch und wen die es auch versemmeln dann bleibt mir erstmal GOD of War auf der PS5 und Calisto Protokoll um das noch etwas länger auszusitzen!

The_Invisible
2022-09-27, 18:28:24
Da hat schon jemand eine RTX 4090 kaufen können:

https://cdn.videocardz.com/1/2022/09/GIGABYTE-RTX4090-WINDFORCE-6.jpg

https://cdn.videocardz.com/1/2022/09/GIGABYTE-RTX4090-WINDFORCE-4.jpg

https://videocardz.com/newz/gigabyte-rtx-4090-already-on-sale-in-hong-kong-two-weeks-before-launch


Dieses Wochenende dürfte es vielleicht eine kleine Flut an Leaks geben, da die Reviewer bis dahin schon einige RTX 4090 Karten bekommen haben.

Ja schon toll als Briefbeschwerer bis es Treiber gibt :D

unl34shed
2022-09-27, 18:56:47
Was kommt an Menge dann auf eine RTX 4070?
Gehen da 10GB bzgl. dem Speicherinterface?

Die "4070" hat doch 16GB und wird als 4080 verkauft.

r3ptil3
2022-09-27, 18:58:07
Die "4070" hat doch 16GB und wird als 4080 verkauft.

12Gb

unl34shed
2022-09-27, 19:00:09
Ne die 4080 12GB ist Leistungsmäßig eher eine 4060 Ti

Thunder99
2022-09-27, 19:01:45
Was mich an den internen Nvidia Benchmarks wundert warum die 4080 12GB so schwach ist in manchen Titeln (ohne RT/DLSS) gegenüber der 3080Ti und 3090Ti, obwohl sie mehr theoretische Rechenpower hat und die Auslastung anscheinend verbessert worden ist :confused:

Ex3cut3r
2022-09-27, 19:03:20
Was mich an den internen Nvidia Benchmarks wundert warum die 4080 12GB so schwach ist in manchen Titeln (ohne RT/DLSS) gegenüber der 3080Ti und 3090Ti, obwohl sie mehr theoretische Rechenpower hat und die Auslastung anscheinend verbessert worden ist :confused:

Vermutlich weil die Raster Leistung bei den kleineren Karten nicht wirklich doll ist um mit den großem GA102 Chip mitzuhalten. Vielleicht wird durch neuere Treiber über die Zeit ein Gleichstand erreicht. Vor allem wenn man Ampere ab jetzt im Treiber Support etwas schleifen lässt. ^^

Nazar
2022-09-27, 19:03:38
Tja, schaut euch mal die Reaktion der Leute im Hot4 Thread an. Niemand hat Probleme mit miserablen Updates, wenn es AMD ist.
Beispiel anhand des 7600X gegenüber 5600X:
Selber Preis, +30% Leistung und +60%(!) Stromaufnahme

Hier die RTX4080 12 GB gegenüber der 3080 12GB ($899):
Selber Preis, +20%+ Leistung und -19% Stromaufnahme

Ein 7600X müsste also ein 7200X (geht AMD soweit runter?^^) und $150 kosten.

Woran erkennt man, dass dem Gegenüber die Argumente ausgehen? Indem er, um den Qualitätsverlust des Marktführers zu rechtfertigen, versucht, mit ollen Kamellen aus der Geschichte zu glänzen: "Oh, schaut mal, wie die Loser von damals doch alles für so toll gefunden haben, und wenn das !!neue! Produkt, jetzt !!4 Mal!! so teuer ist, aber dafür nun auf demselben Niveau des steinalten Produkts ist, dann beschweren sich diese Honks auch noch! Die regen sich allen Ernstes ob eines Rückschritts bei gleichzeitiger Preiserhöhung auf, was für Pfeifen. ;D"

Deine Beiträge zu lesen, ist in etwa so, als ob die Mutter meines Enkels dessen Kritzeleien mit Picassos Anfängen vergleicht. Einfach nur erheiternd, wie einfach manche Menschen ihre Welt zu gestalten wissen. Aber Hauptsache, man ist glücklich. :wink:

why_me
2022-09-27, 19:05:53
Wenn Intel den A770 mit 400mm²@6nm + 16GB GDDR6 RAM für 329$ verkaufen kann, dann muss Intel die GPUs entweder mit riesigem Verlust verkaufen oder irgendetwas stimmt nicht in der Argumentation von Nvidia und ein paar hier anwesender das die Produktionskosten so stark gestiegen sein sollen.

Ja 6nm vs 5nm, der Chip ist aber nur ein ganz kleiner Teil der GPU, das kann also nicht die Diferenz von >500$ ausmachen...

The_Invisible
2022-09-27, 19:09:47
Was mich an den internen Nvidia Benchmarks wundert warum die 4080 12GB so schwach ist in manchen Titeln (ohne RT/DLSS) gegenüber der 3080Ti und 3090Ti, obwohl sie mehr theoretische Rechenpower hat und die Auslastung anscheinend verbessert worden ist :confused:

Dafür halt ein schmales Speicherinterface, 192bit vs 384bit, fast die Hälfte Bandbreite nur. Bin ja gespannt wie die Karten in höheren Auflösungen skalieren. Eine 4080 mit 192bit ist wirklich komisch :D

unl34shed
2022-09-27, 19:13:19
Aber die sollen den L2 Cache doch vervielfacht haben, damit das Memory IF nicht zum Flaschenhals werden sollte. Zumindest bei RDNA2 klappt das.

Gott1337
2022-09-27, 19:13:51
Wenn Intel den A770 mit 400mm²@6nm + 16GB GDDR6 RAM für 329$ verkaufen kann, dann muss Intel die GPUs entweder mit riesigem Verlust verkaufen oder irgendetwas stimmt nicht in der Argumentation von Nvidia und ein paar hier anwesender das die Produktionskosten so stark gestiegen sein sollen.

Ja 6nm vs 5nm, der Chip ist aber nur ein ganz kleiner Teil der GPU, das kann also nicht die Diferenz von >500$ ausmachen...
die 8 GB version kostet 329, desweiteren ist es nicht GDDR6X. 6nm ist ein 7nm derivat und daher deutlich günstiger. Intel will desweiteren kein Gewinn mit der GPU verzeichnen sondern Marktanteile gewinnen. haben ja auch ordentlich Verlust gemacht in der GPU Sparte. AMD und Intel können und haben ihre GPU Sparten Quersubventioniert, was Nvidia nicht kann.

Dennoch sind die 80er Karten um 2-300$ zu teuer.

Nazar
2022-09-27, 19:16:32
So viel dazu das die Karten zu teuer sind und NV die nicht los bekommt ;D

Klar, weil wir alle wissen, dass jeder, der die Absicht hat einen Porsche GT3 RS zu kaufen, das auch tun wird. ;)
Selbst viele Leute, die das könnten, tun das nicht, da sie alle eine "höhere Gewalt" im Nacken haben, was dann auch ab und zu ganz gut ist. ;)

Sollte diese Zahl prozentual ähnlich hoch sein, wie bei anderen Luxusgütern, muss man von den Aussagen zu den 4090 mindestens 60% abziehen, um auf einen glaubhaften Wert zu kommen. Die "höhere Gewalt" sollte man nie unterschätzen. ;)

Troyan
2022-09-27, 19:31:35
Dafür halt ein schmales Speicherinterface, 192bit vs 384bit, fast die Hälfte Bandbreite nur. Bin ja gespannt wie die Karten in höheren Auflösungen skalieren. Eine 4080 mit 192bit ist wirklich komisch :D

Jap. RTX4080 12GB entspricht einer 3090TI mit halber Bandbreite und mehr L2 Cache.

crux2005
2022-09-27, 19:34:53
Wenn Intel den A770 mit 400mm²@6nm + 16GB GDDR6 RAM für 329$ verkaufen kann

Es ist ein Abverkauf. Sie machen keine Profit.