PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17

unl34shed
2022-10-30, 15:52:21
Wenn es also unterschiedliche "Qualitäten" der Lötung gibt, ist es letztlich ein Glücksspiel, wie gefährdet die eigene Karte ist?

Glücksspiel war es schon immer, eher hat GN Igors Vermutung, dass es durch den gelöteten Anschluss kommt widerlegt. Schlauer als vorher sind wir nicht wirklich.

Linmoum
2022-10-30, 15:57:08
20°C dT sind nicht perfekt, aber okay wenn die Karte einmal durchgeheizt ist. Mir kam die Durchflussgeschichte eher seltsam vor, vielleicht hat die einzelne D5 mit MoRa, Schnellverschlüssen und Co eben doch nicht genug Durchfluss gebracht?!Selbst bei länger andauernder Last sind 20K nicht wirklich toll. Da Alphacool bei Ampere schon ein relativ gutes Delta hatte und die Finnendicke noch mal um 50% verringert wurde bei den Ada-Kühlern, kann es eigentlich nicht am Kühler liegen.

SamLombardo
2022-10-30, 16:00:19
Was mache ich denn dann mit meinem XFX? Bis da ein speziell angepasstes Kabel kommt, kann ich wohl lange warten. Einen Ersatz für das Adapterkabel, das netzteilunabhängig ist, gibt es wohl nicht?

Habe mir jetzt bei Cablemod diese Extensions bestellt

https://eustore.cablemod.com/product-category/pro-series/12vhpwr-pci-e-cable-extension/

Wenn ich das richtig verstanden habe, kann ich die anstelle des Adapters nutzen? oder?

Niall
2022-10-30, 16:12:41
Selbst bei länger andauernder Last sind 20K nicht wirklich toll. Da Alphacool bei Ampere schon ein relativ gutes Delta hatte und die Finnendicke noch mal um 50% verringert wurde bei den Ada-Kühlern, kann es eigentlich nicht am Kühler liegen.

Also ich komme mit meiner 6950XT und EK Block auch auf ein dT von um 15°C. Ich schrieb ja, optimal sind 20°C dT nicht, aber auch nicht schrecklich. Vielleicht stimmte da wirklich was mit dem Durchfluss nicht oder so. Oder halt wirklich "Bad Mount" oÄ.

Habe mir jetzt bei Cablemod diese Extensions bestellt

https://eustore.cablemod.com/product-category/pro-series/12vhpwr-pci-e-cable-extension/

Wenn ich das richtig verstanden habe, kann ich die anstelle des Adapters nutzen? oder?

Sieht so aus, ja. Geht allerdings "nur" auf 3x 8-Pin PCI-E, keine Ahnung ob es das Power Limit damit auf 450W reduziert oder wie das Kabel "verschaltet" ist.

OpenVMSwartoll
2022-10-30, 16:33:04
Glücksspiel war es schon immer, eher hat GN Igors Vermutung, dass es durch den gelöteten Anschluss kommt widerlegt. Schlauer als vorher sind wir nicht wirklich.

Nein, die Anschlüsse nicht zu crimpen ohne Zugentlastung ist immer noch Mist. Die mechanische Belastung bei den dicken Kabeln ist nicht unmittelbar das Problem bei Steve.

Aber die Qualität von Steves Kabeln ist besser als das von Igor und BQ.

P.S.: Wann hat es eigentlich angefangen, dass Menschen, die sich mit IT beschäftigen, nur schwarz oder weiß kennen? Wenn der Fehler in einem Szenario auftritt, in einem anderen nicht, ist er immer noch existent. Er ist nur schwerer zu reproduzieren.

BiG OnE
2022-10-30, 17:08:10
Kommt ganz gut weg, nur das 450 Watt Power Limit passt irgendwie nicht. Wird aber wohl in der Praxis kaum relevant sein.
Doch das passt ganz gut, Du musst dir bloß die Platine angucken, von den 24 möglichen Phasen sind nur 14 bestückt, diese Karte kann elektrisch einfach nicht mehr als 450W liefern.
Ich habe mich anfangs auch für diese Karte interessiert, eine 4090 mit einem Fullcover Wasserkühlen, hätte ich sofort in meinem Kreislauf einbinden können. Als ich dann die Platine der luftgekühlten Version gesehen habe, die ebenfalls so sparsam bestückt, ist mein Interesse sofort erloschen.

SamLombardo
2022-10-30, 17:23:45
Sieht so aus, ja. Geht allerdings "nur" auf 3x 8-Pin PCI-E, keine Ahnung ob es das Power Limit damit auf 450W reduziert oder wie das Kabel "verschaltet" ist.
Danke!. Ich hab mit meiner Palit nicht oc sowieso nur den Dreizack insofern wäre das kein Problem. Aber gut zu wissen dass das als Ersatz geht.

hq-hq
2022-10-30, 17:28:34
Doch das passt ganz gut, Du musst dir bloß die Platine angucken, von den 24 möglichen Phasen sind nur 14 bestückt, diese Karte kann elektrisch einfach nicht mehr als 450W liefern.
Ich habe mich anfangs auch für diese Karte interessiert, eine 4090 mit einem Fullcover Wasserkühlen, hätte ich sofort in meinem Kreislauf einbinden können. Als ich dann die Platine der luftgekühlten Version gesehen habe, die ebenfalls so sparsam bestückt, ist mein Interesse sofort erloschen.

leider wahr, dachte auch die wär praktisch einfach alte raus neue rein... aber die Spar-Bestückung mag ich dann auch net wenn ich soviel Kohle ausgebe für ne Grafikkarte :freak:

unl34shed
2022-10-30, 17:47:46
Nein, die Anschlüsse nicht zu crimpen ohne Zugentlastung ist immer noch Mist. Die mechanische Belastung bei den dicken Kabeln ist nicht unmittelbar das Problem bei Steve.

Dem widerspreche ich in keinster Weise, wie du vielleicht an meinen letzten Posts sehen kannst, der gelötete Adapter ist Pfusch und entgegen jeglicher E-Technik Grundlagen designed worden.
Ich sehe tendenziell nur nicht, dass das zu besagtem Fehlerbild mit verschmorten Pins führt. GN hat den Stecker gezielt massakriert und konnte Igors Vermutung nicht nachstellen. Ist Igor deswegen zu 100% widerlegt? Sicher nicht, tendenziell scheint es aber nicht die Ursache des Problems zu sein. Scheiße ist es trotzdem.

P.S.: Wann hat es eigentlich angefangen, dass Menschen, die sich mit IT beschäftigen, nur schwarz oder weiß kennen? Wenn der Fehler in einem Szenario auftritt, in einem anderen nicht, ist er immer noch existent. Er ist nur schwerer zu reproduzieren.

Kein Plan wo mein Post binär sein soll :confused:

Badesalz
2022-10-30, 19:03:39
Auf Steve ist halt Verlass. Vielleicht hört diese Adapterpanik damit endlich auf.DURCH WAS DENN? Man muss ja erst Drehmel schwingen um festzustellen, ob man jenes wie bei Igor oder jenes wie bei Nexus hat.
Oder lässt sich das äußerlich feststellen?

Linmoum
2022-10-30, 19:26:51
Gamersnexus hat auch ein Video: https://www.youtube.com/watch?v=EIKjZ1djp8c&feature=emb_logo

Die haben fünf Adapter und alle fünf sind anders gelötet als der von Igor und Pauls Hardware.https://www.reddit.com/r/nvidia/comments/yhjdd8/dissected_the_adapter_that_came_with_gigabyte/

Hier ist ein Adapter mit 300V (wie bei GN), aber gelötet wie der von Igor mit 150V.

Also gibt es da draußen (mindestens) drei verschiedene Versionen des Adapters. Wtf einfach nur.

Sardaukar.nsn
2022-10-30, 22:05:51
Die Inno Karte basiert ja auf dem Referenz Design von Nvidia und die Platine kommt wahrscheinlich direkt von denen. Sieht mir aber auch ziemlich nach Rotstift aus. Kann natürlich mit dem ehemals viel höher gedachten Powertarget zusammenhängen. Also ursprünglich hat man 600 Watt angenommen und auch viel mehr Phasen usw. benötigt. Die Luftkühler sind ja alle überdimensioniert weil man von mehr Watt ausging.

Das 20er Delta Chip zu Wasser finde ich auch komisch. Meine 3080 Suprim mit Alphacool Wasserblock hatte 16-18°C. Das war okay, aber im Vergleich auch nicht so mega. Optimus schaffte angeblich unter 10°C.

Ich denke das die Inno3D Karte ganz vernünftig zusammengebaut wurde und vor Roman ja auch intern getestet wurde. Vielleicht lässt sich Ada mit 4mn Sturktur aber auch nicht so gut kühlen wie Ampere. Bei den CPUs ist das ja schon länger ein Thema das selbst die dickste Wasserkühlung oft nicht wirklich den Chip runterkühlen kann da die Energiedichte so hoch geworden ist.

Slipknot79
2022-10-30, 22:38:23
Als er sagte, dass die Wassertemperatur bei 26°C liegt, war ich irgendwie irritiert. Das ist schon ziemlich schlecht bei einer GPU-Temperatur von ~46°C.

Keine Ahnung, ob die finalen Samples da besser sind, aber macht die Inno in der Form irgendwie wenig attraktiv.

Habe mir das Video nicht angschaut. Delta von 20°C können bei entsprechenden Watt plausibel sein. Dann knallts eben sofort rauf.

-----------------

Hoite mal Doom (1993) mit raytracing probiert. Mit der 2080Ti (mit OC) hatte ich 30fps, mit der 4090 (ohne OC) habe ich ca 71fps. (y)

Troyan
2022-10-31, 10:26:51
Ist immernoch beeindruckend, was nVidia bzgl. Teillast gemacht hat. Hier mal der Vergleich zwischen AC:Valhalla und Control mit 600W Powerlimit in 3440x1440:
Vallhalla: 300W - 98% Auslastung
Control: <=500W - 100% Auslastung - egal ob mit oder ohne Raytracing

Die 4090 taktet in Valhalla nicht runter. Und trotzdem ist der Stromverbrauch fast 200W niedriger als in Control

/edit: Kitguru hat mehrere Custom-Karten getestet: https://www.kitguru.net/components/graphic-cards/dominic-moass/gigabyte-rtx-4090-gaming-oc-review/10/

Ich bin auch von meiner Palit auf die Gigabyte gewechselt. Wollte dann doch ein 600W Powerlimit haben... Naja, war so eine semi gute Entscheidung. :D
Die Palit hat den besseren Kühler. Ist mir als erstes aufgefallen, dass die Gigabyte wärmer wurde. Dafür ist das Spulenfiepen bei der Gigabyte deutlich leiser.

aceCrasher
2022-10-31, 12:28:56
Das 20er Delta Chip zu Wasser finde ich auch komisch. Meine 3080 Suprim mit Alphacool Wasserblock hatte 16-18°C. Das war okay, aber im Vergleich auch nicht so mega. Optimus schaffte angeblich unter 10°C.

Weißt du zufällig ob man die Optimus Blöcke auch irgendwo bei einem europäischen Händler bekommt?

Badesalz
2022-10-31, 13:09:20
Also gibt es da draußen (mindestens) drei verschiedene Versionen des Adapters. Wtf einfach nur.Wallossek sagt 4. Und er will sein erstes Video nicht auf sich sitzen lassen :wink:

https://www.youtube.com/watch?v=9WFil6J5CpA

Tangletingle
2022-10-31, 13:28:25
Wallossek sagt 4. Und er will sein erstes Video nicht auf sich sitzen lassen :wink:

https://www.youtube.com/watch?v=9WFil6J5CpA
10 Minuten? 10 MINUTEN 1!!1??1

Slipknot79
2022-10-31, 13:39:28
Also die 4090 FE sieht so horny aus im Rechner. Ich tu mir schwer da auf Wakü wechseln zu wollen. :mad: Was aber sein muss, muss sein. :redface:

@Troyan, hättest nen 600W BIOS auf die Palit geballert?

Chrisch
2022-10-31, 13:44:22
Das 20er Delta Chip zu Wasser finde ich auch komisch. Meine 3080 Suprim mit Alphacool Wasserblock hatte 16-18°C. Das war okay, aber im Vergleich auch nicht so mega. Optimus schaffte angeblich unter 10°C.
Hm, wenn ich deren Post richtig verstehe kommen die auf ein Delta von 19°C bei der 4090 (515W)

https://abload.de/img/delta409071duf.png
https://twitter.com/Optimus_WC/status/1584950589393293312

Die 9°C beziehen sich doch auf die 203W der 3090 wenn ich das richtig verstehe?!

unl34shed
2022-10-31, 13:44:29
Wallossek sagt 4. Und er will sein erstes Video nicht auf sich sitzen lassen :wink:

https://www.youtube.com/watch?v=9WFil6J5CpA

Nur hat die Theorie einen Haken, wenn die äußeren Pins verbogen werden, steigt deren Widerstand und da sie im Stecker kurzgeschlossen sind fließt dadurch über diese Pins weniger Strom. Es entsteht weniger Hitze und dadurch müssten nach meinem Verständnis eigentlich die mittleren Pins überlastet werden.


Und es hat mal wieder den Beigeschmack, der User ist schuld, nicht der Verwendete Stecker/Adapter.

Troyan
2022-10-31, 14:07:02
@Troyan, hättest nen 600W BIOS auf die Palit geballert?

Im nachhinein wahrscheinlich sinnvoller gewesen. :rolleyes:

Asaraki
2022-10-31, 14:36:15
Hm, wenn ich deren Post richtig verstehe kommen die auf ein Delta von 19°C bei der 4090 (515W)

https://abload.de/img/delta409071duf.png
https://twitter.com/Optimus_WC/status/1584950589393293312

Die 9°C beziehen sich doch auf die 203W der 3090 wenn ich das richtig verstehe?!

Exakt so würde ich das auch lesen, ja. Also so meinen sie es ausser sie haben selber zahlen verdreht

Rolsch
2022-10-31, 14:43:35
PCGH hat jetzt auch adaptert:
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Specials/12VHPWR-Adapter-Defekte-1406241/3/

Badesalz
2022-10-31, 15:22:59
@Rolsch
Und wie sie das haben :D O-Ton des Fazits: Wir schnallen das auch nicht so wirklich. Wenn du bei dir keine Schmelzstellen sehen kannst, sorg dich nicht unnötig vorab :ulol:

Wow :rolleyes: Da haben sie wohl einen echten Experten drangesetzt :uup:

Und es hat mal wieder den Beigeschmack, der User ist schuld, nicht der Verwendete Stecker/Adapter.Nein, den hat es nicht. Er zeigt ja wie man es wohl meist macht, WEIL das Ding eben so behämmert gemacht ist.

Orbmu2k
2022-10-31, 15:31:38
Also die Displayclock ist nicht die relevante Domain für die schlechte Skalierung von UV. Betroffen sind aber definitv SYS, XBAR und MSD.

Hier mal ein Vergleich:
OL: 925 lock stock @ 2415 Mhz
OR: 925 power limit @ 2415 MHz
UL: 875 lock OC @ 2415 Mhz
UR: 875 lock stock @ 2220 MHz

https://cdn.discordapp.com/attachments/546778130757582848/1036649548266864670/unknown.png

Emil_i_Lönneberga
2022-10-31, 15:35:30
Hm, wenn ich deren Post richtig verstehe kommen die auf ein Delta von 19°C bei der 4090 (515W)

https://abload.de/img/delta409071duf.png
https://twitter.com/Optimus_WC/status/1584950589393293312

Die 9°C beziehen sich doch auf die 203W der 3090 wenn ich das richtig verstehe?!

Bei einem Vergleich der 3090 FTW und 450W sieht das, rein auf dem Chip bezogen, so aus:

https://www.hardwareluxx.de/community/threads/rtx-30x0-wasserk%C3%BChlervergleich-gpu-block-comparison.1286430/page-25#post-29272802

https://www.hardwareluxx.de/community/attachments/delta-gpu-bei-3-durchflusswerten-im-vergleich-png.765681/


Was nicht verwundert, da der Optimus für die 4090 Strix und TUF, wie schon bei der 3090, wieder auf die Feinstruktur eines CPU-Wasserkühlers zurückgreifen kann. Natürlich werden wieder alle Blöcke ausreichend gut kühlen, ein erster Test einer 4090 Referenzplatine mit 170€ Wasserblock bei 400W wurde schon genannt. (https://www.youtube.com/watch?v=ywP6m2G64HY) Aber dass sich ein Optimus wieder um wenige Grad für einen deutlich höheren Kaufpreis bei der Chiptemperatur absetzten wird, ist zu erwarten.

https://optimuspc.com/products/absolute-strix-tuf-4090-gpu-waterblock

https://i.shgcdn.com/452c25bc-9790-445c-a942-783cf9846d8f/-/format/auto/-/preview/3000x3000/-/quality/lighter/

Blase
2022-10-31, 15:38:52
[...]@Troyan, hättest nen 600W BIOS auf die Palit geballert?

Im nachhinein wahrscheinlich sinnvoller gewesen. :rolleyes:

Geht das denn? Gibt es Tests dazu online? Einfach von einem anderen Hersteller nehmen, der seine Karte mit 600W freigibt?

Mit meinem 600er Netzteil aktuell zwar ohnehin nur graue Theorie, aber wäre ja nice to know :tongue:

MfG Blase

r3ptil3
2022-10-31, 16:28:55
Den Adapter würde ich nach den ganzen Berichten jetzt am liebsten gar nicht nutzen. Corsair kann kein Kabel liefern, das ASUS ATX 3.0 NT kommt frühestens in zwei Wochen.

Ein Gebastel mit Adapter und offener Seitenwand reizt mich überhaupt nicht.
So sehr auf eine Strix 4090 gesucht und gewartet und jetzt kann man sie nicht nutzen.

Inquisitor
2022-10-31, 16:40:06
Wobei die letzten Tests und Versuche von GN und PCGH ja scheinbar erstmal etwas beruhigen... Wenn die es auch mit roher Gewalt nicht schaffen, den Fehler zu reproduzieren, kann man zumindest zuversichtlich sein, dass es nicht zwangsläufig früher oder später bei jedem abraucht. :freak:

Sardaukar.nsn
2022-10-31, 17:52:31
Weißt du zufällig ob man die Optimus Blöcke auch irgendwo bei einem europäischen Händler bekommt?

Ja, direkt bei Caseking.de ich hatte Optimus direkt angeschrieben und bekam promt die Antwort das sie hier direkt über Händler verkaufen wollen.

@Chrisch: Interessant die Aussage über das Wasser-Chip Delta von 19°C. Im Bauer Video war es mit dem Alphacool Kühler 20°C aber bei deutlich weniger Watt. Vielleicht liegt es auch an der höheren Energiedichte durch den 4nm (?) Fertigungsprozess das sich Ada schlechter kühlen lässt.

Aber selbst 100% bzw. 450 Watt Power Limit macht bei der 4090 wenig Sinn. Ich könnte mir vorstellen das meine TUF auch unter Wasser mit 70-80% Power Limit und OC auf Chip und Ram läuft.

basix
2022-10-31, 18:16:16
Also die Displayclock ist nicht die relevante Domain für die schlechte Skalierung von UV. Betroffen sind aber definitv SYS, XBAR und MSD.

Hier mal ein Vergleich:
OL: 925 lock stock @ 2415 Mhz
OR: 925 power limit @ 2415 MHz
UL: 875 lock OC @ 2415 Mhz
UR: 875 lock stock @ 2220 MHz

https://cdn.discordapp.com/attachments/546778130757582848/1036649548266864670/unknown.png


Wäre nice, wenn man wüsste woran es liegt. Und dann noch, dass man diesen Clock ebenfalls übertakten kann ;)

Woklbokl
2022-10-31, 18:59:14
Also die Displayclock ist nicht die relevante Domain für die schlechte Skalierung von UV. Betroffen sind aber definitv SYS, XBAR und MSD.

Hier mal ein Vergleich:
OL: 925 lock stock @ 2415 Mhz
OR: 925 power limit @ 2415 MHz
UL: 875 lock OC @ 2415 Mhz
UR: 875 lock stock @ 2220 MHz

https://cdn.discordapp.com/attachments/546778130757582848/1036649548266864670/unknown.png


Gibt es eine Möglichkeit die Clocks auch entsprechend anzuheben?
Außerdem: was sehen meine Augen da? Nvidia Inspector 1.9.8.3? :eek:

Badesalz
2022-10-31, 19:13:04
Wobei die letzten Tests und Versuche von GN und PCGH ja scheinbar erstmal etwas beruhigen... Dafür musst du aber erstmal forschen welche der 4 bei dir beilag.

Gibt es dazu schon ein Wiki irgendwo? :cool:

Linmoum
2022-10-31, 19:14:31
Dafür musst du das Teil zerlegen, von außen siehst du nur ob 150V/300V.

OC_Burner
2022-10-31, 19:53:43
Also die Displayclock ist nicht die relevante Domain für die schlechte Skalierung von UV. Betroffen sind aber definitv SYS, XBAR und MSD.

Hier mal ein Vergleich:
OL: 925 lock stock @ 2415 Mhz
OR: 925 power limit @ 2415 MHz
UL: 875 lock OC @ 2415 Mhz
UR: 875 lock stock @ 2220 MHz


Wie sieht denn das Ganze bei UV und erhöhtem Powertarget aus? Vermutlich kleben die Taktraten weiterhin bei 2415MHz fest!?

Gibt es eine Möglichkeit die Clocks auch entsprechend anzuheben? Nur per BiosEditor aber da hat Nvidia vor geraumer Zeit ein Riegel vorgeschoben. Vielleicht kommen ja die Boardhersteller von selber drauf und veröffentlichen mal unbeabsichtigt ein inoffizielles Test-Bios.

Außerdem: was sehen meine Augen da? Nvidia Inspector 1.9.8.3? :eek:

Scheint so, die Clockdomains sehen sonst auch immer anders aus.

TobiWahnKenobi
2022-10-31, 21:12:01
soderle.. habe jetzt auch mal ein bisschen temperatur gemessen.. halbe stunde last aufm stecker.. 39°C da sollte ausser butter und eis nix schmelzen..

das leistungsmessgerät hinter der PSU hatte PEAKs von knapp 800W; eigene rekorde habe ich aber keine mehr brechen können; mein i9 ist zu alt für extremsport.


(..)

mfg
tobi

Orbmu2k
2022-10-31, 22:14:02
Wäre nice, wenn man wüsste woran es liegt. Und dann noch, dass man diesen Clock ebenfalls übertakten kann ;)
Gibt es eine Möglichkeit die Clocks auch entsprechend anzuheben?

Leider nein, mich wundert es aber dass der Treiber das hier nicht selbst macht. Das gleiche Problem gilt ja auch für normales OC. Vielleicht ist es auch nur ein Bug und so gar nicht beabsichtigt? :confused:

Wie sieht denn das Ganze bei UV und erhöhtem Powertarget aus? Vermutlich kleben die Taktraten weiterhin bei 2415MHz fest!?

Nur per BiosEditor aber da hat Nvidia vor geraumer Zeit ein Riegel vorgeschoben. Vielleicht kommen ja die Boardhersteller von selber drauf und veröffentlichen mal unbeabsichtigt ein inoffizielles Test-Bios.



Scheint so, die Clockdomains sehen sonst auch immer anders aus.

Der ist ja beim UV noch weit (100W) vom Powerlimit weg, ich hab ja bewusst versucht die gleiche GPC Clock zu erreichen. ;-)

Edgecrusher86
2022-11-01, 09:44:45
Es ist doch immer wieder erstaunlich, was gerade mit Hilfe DLSS und einem fps cap möglich ist (ich habe zus. per Inspector je -1000 MHz Offset gesetzt und das PT auf 10% gesenkt).


CoD BO:CW - UWQHD (DLSS Q) max. Settings - RT off - sub 70W und passiv stellenweise bei 2xx - 3xx MHz auf dem Core! [Peaks so bei 80W herum]
https://steamuserimages-a.akamaihd.net/ugc/1911241622508361878/8C965186CDF1608D7E9C925F4C9B19BFFF46D413/

Gut, 60 fps im MP ist nicht so optimal - ich sag mal so - das sinnvolle Minimum; 80 - 100 fps (mehr geht ja hier nicht mit G-SYNC) dann deutlich runder. :D

anorakker
2022-11-01, 10:14:17
Ist das ein Screenshot aus DukeNukem Forever? Oder ist das sogar noch Grafik von vor der Jahrtausendwende?

SamLombardo
2022-11-01, 10:18:25
Ich habe am Wochenende auf irgendeiner englischsprachigen Techseite was gelesen, hab leider keinen Link parat, der meinte, dass Undervolting per Curve doch die bessere Option wäre. Ein Grund wäre angeblich, dass die Beschränkung des Powerlimit die RT und Tensorcores zu stark beschneiden würde - was bei Undervolting nicht so der Fall wäre. Das würde man bei klassischen Benchmarks ala 3Dmark nicht merken, wohl aber bei Anwendungen die diese Techniken nutzen. Was meint ihr, Quatsch oder was dran?

Blase
2022-11-01, 10:36:16
Naja, du kannst dir ja einfach im Afterburner zwei Profile anlegen - und dann einfach in einem der möglichen Titel testen.

Ich für meinen Teil spiele vorerst nicht mehr an der Karte rum - sondern widme mich dem, weswegen ich die Karte überhaupt gekauft habe :)

Das werden im Laufe der Zeit schon andere heraus finden. Und bis dahin steht, egal auf welchem Wege, der Karte so oder so mehr als genügend Leistung zur Verfügung...

MfG Blase

TobiWahnKenobi
2022-11-01, 10:43:52
eben. das geld haben wir verbrannt um mit der karte zu zocken und nicht um künstlich wackelbetrieb einzubauen. ggü. einer reduzierung des powerlimits ist es nämlich genau das, was man sich mit kurvengefummel einhandelt. beschäftigungstherapie und potenzielle fehlerquelle.


(..)

mfg
tobi

Asaraki
2022-11-01, 10:57:44
eben. das geld haben wir verbrannt um mit der karte zu zocken und nicht um künstlich wackelbetrieb einzubauen. ggü. einer reduzierung des powerlimits ist es nämlich genau das, was man sich mit kurvengefummel einhandelt. beschäftigungstherapie und potenzielle fehlerquelle.


(..)

mfg
tobi

Ist doch wie bei den Autos.
Einer geht damit auf die Rennstrecke und nutzt das Auto/Moto wofür es gebaut wurde
Einer steht damit nur vor der Eisdiele und erzählt wie toll sein UV/OC ist, hat aber noch nie ne Rennstrecke gesehen
Einer schraubt nur daran rum und kann dir erzählen wieso Teil Y so toll ist gegenüber dem Vorgänger

Haben aber alle ihren Spass dran ;-)

The_Invisible
2022-11-01, 11:08:01
UV ist auch nicht so mein Ding (jedenfalls mit der Curve Spielerei, wenns da sowas einbauen wie die AMD CO dann gerne), da denkt man sich es läuft stabil und dann kackt die Karte doch auf einmal irgendwo ab wo man es nicht brauchen konnte :D

Mäh, der Autovergleich wieder: Kenne keinen Sportwagenfahrer der seine Karre auf Verbrauch optimiert, eher umgkehrt :D

Orbmu2k
2022-11-01, 11:14:35
Ich habe am Wochenende auf irgendeiner englischsprachigen Techseite was gelesen, hab leider keinen Link parat, der meinte, dass Undervolting per Curve doch die bessere Option wäre. Ein Grund wäre angeblich, dass die Beschränkung des Powerlimit die RT und Tensorcores zu stark beschneiden würde - was bei Undervolting nicht so der Fall wäre. Das würde man bei klassischen Benchmarks ala 3Dmark nicht merken, wohl aber bei Anwendungen die diese Techniken nutzen. Was meint ihr, Quatsch oder was dran?

UV ist auch immernoch die besser Option da es ja bei UV hauptsächlich um Perf/Watt geht. Da steht UV trotz schlechter Skalierung des OC am Ende besser da als nur mit Powerlimit. Man gewinnt eben durch das Low Voltage OC weniger als mit Ampere z.B.. Das was die meisten Leute irritiert ist eben dass die angezeigte GPC Clock nicht mehr 1:1 vergleichbar ist wenn es um Performance geht. Nur weil man die gleiche Clock hat wie z.B. mit PL hat man noch nicht die gleiche Performance, aber man verbraucht auch weniger.

Am Ende ist man mit UV @ Watt X aber ein bischen schneller als mit PL @ Watt X.

Was aber gerne vergessen wird ist eben normales OC. Man kann dann Clocks von 3100+ feiern wie man will, die Performancegewinne sind minimal.

mironicus
2022-11-01, 11:16:15
Hier ist jemand der meint, daß man für die RTX 4090 im Zusammenhang mit dem Adapter tatsächlich mindestens ein 1200 Watt-Netzteil braucht, damit die Stromanschlüsse am Adapter nicht anfangen zu schmoren.

nZcyhcPVxUM

SamLombardo
2022-11-01, 11:29:50
Hier ist jemand der meint, daß man für die RTX 4090 im Zusammenhang mit dem Adapter tatsächlich mindestens ein 1200 Watt-Netzteil braucht, damit die Stromanschlüsse am Adapter nicht anfangen zu schmoren.

https://youtu.be/nZcyhcPVxUM
Der ist natürlich ziemlich schwer zu verstehen mit seinem Akzent, aber sagt er nicht explizit, das Schmelzen kein Problem wäre (in seinem Beispiel mit dem 750w Netzteil), sondern allerhöchstens sein System Reboot? Oder hab ich das nicht richtig verstanden?

Cubitus
2022-11-01, 11:41:52
UV ist auch immernoch die besser Option da es ja bei UV hauptsächlich um Perf/Watt geht. Da steht UV trotz schlechter Skalierung des OC am Ende besser da als nur mit Powerlimit. Man gewinnt eben durch das Low Voltage OC weniger als mit Ampere z.B.. Das was die meisten Leute irritiert ist eben dass die angezeigte GPC Clock nicht mehr 1:1 vergleichbar ist wenn es um Performance geht. Nur weil man die gleiche Clock hat wie z.B. mit PL hat man noch nicht die gleiche Performance, aber man verbraucht auch weniger.

Am Ende ist man mit UV @ Watt X aber ein bischen schneller als mit PL @ Watt X.

Was aber gerne vergessen wird ist eben normales OC. Man kann dann Clocks von 3100+ feiern wie man will, die Performancegewinne sind minimal.

Genau dafür ist der Stromverbrauch exorbitant hoch.

Edgecrusher86
2022-11-01, 11:54:35
Ist das ein Screenshot aus DukeNukem Forever? Oder ist das sogar noch Grafik von vor der Jahrtausendwende?

Das Spiel ist eigentlich ganz hübsch - das war nur eine unscheinbare Stelle. Auch die obige Map hat einige tolle. :D

https://abload.de/thumb/blackopscoldwar_2022_c8exy.png (https://abload.de/image.php?img=blackopscoldwar_2022_c8exy.png)


Was allerdings Jahrtausendwende imho ist -> BF2042. Vor allem BF1 ist um Welten hübscher - vom Gameplay ganz zu schweigen.

https://abload.de/thumb/bf1_2022_10_23_19_09_ihfoz.png (https://abload.de/image.php?img=bf1_2022_10_23_19_09_ihfoz.png)

UWQHD + 200% Scaling.

Sardaukar.nsn
2022-11-01, 12:08:08
Für den Spulen Thread im Luxx habe ich mal meine ASUS TUF aufgenommen. Fiepen kann ich schon provozieren, z.B. bei 3D Mark im Feature Test und 1200 fps. Im Alltag mit framecap bei 118 fps (Display kann 120) ist eigentlich kaum noch was zu hören.
https://imgur.com/a/ihol8lX

Hier noch die Lautstärke bei 75% Power Limit (340 Watt) und OC mit 450 Watt.
https://imgur.com/a/FY4LT1b

nordic_pegasus
2022-11-01, 12:09:58
Hier ist jemand der meint, daß man für die RTX 4090 im Zusammenhang mit dem Adapter tatsächlich mindestens ein 1200 Watt-Netzteil braucht, damit die Stromanschlüsse am Adapter nicht anfangen zu schmoren.

https://youtu.be/nZcyhcPVxUM


dieser jemand ist Aris. Der hat lange Zeit für tomshardware geschrieben, ist jetzt selbstständig mit HWBusters und stecks auch hinter Cybenetics, dem besseren Nachfolger der 80plus Zertifikate. Der ist auch ein Buddy von Igor Wallosek.

Und Aris hat in dem Video nur darauf hingewiesen, dass laut ATX 3.0 Spezifikation für ein 12+2pin Kabel, welches die Sense-Pins für 600W freigibt, mindestens ein 1200W ATX 3.0 Netzteil zu verwenden ist. Er verweist als extremes Gegenbeispiel auf ein Thermaltake 750W ATX 3.0 Netzteil, welchem ein 600W Kabel beiligt.

Er sagt auch explizit, dass nicht die Kabel das Problem sind, sondern die Kombination mit einem zu schwachen Netzteil.

Edgecrusher86
2022-11-01, 12:14:31
Für den Spulen Thread im Luxx habe ich mal meine ASUS TUF aufgenommen. Fiepen kann ich schon provozieren, z.B. bei 3D Mark im Feature Test und 1200 fps. Im Alltag mit framecap bei 118 fps (Display kann 120) ist eigentlich kaum noch was zu hören.
https://imgur.com/a/ihol8lX

Hier noch die Lautstärke bei 75% Power Limit (340 Watt) und OC mit 450 Watt.
https://imgur.com/a/FY4LT1b

Ja, selbst die Reduktion auf 70% PT halbiert schon das Spulenfiepen gegenüber 100% - gesehen bei 220-240 fps im MAFIA Def. Edition Hauptmenü (270/280W zu 400W). Bei 120 fps kann ich mir schon vorstellen, dass quasi nichts mehr stört. :cool:

SamLombardo
2022-11-01, 12:39:49
UV ist auch immernoch die besser Option da es ja bei UV hauptsächlich um Perf/Watt geht. Da steht UV trotz schlechter Skalierung des OC am Ende besser da als nur mit Powerlimit. Man gewinnt eben durch das Low Voltage OC weniger als mit Ampere z.B.. Das was die meisten Leute irritiert ist eben dass die angezeigte GPC Clock nicht mehr 1:1 vergleichbar ist wenn es um Performance geht. Nur weil man die gleiche Clock hat wie z.B. mit PL hat man noch nicht die gleiche Performance, aber man verbraucht auch weniger.

Am Ende ist man mit UV @ Watt X aber ein bischen schneller als mit PL @ Watt X.

Was aber gerne vergessen wird ist eben normales OC. Man kann dann Clocks von 3100+ feiern wie man will, die Performancegewinne sind minimal.

Danke Orbmu2k für die Einschätzung.

Edgecrusher86
2022-11-01, 13:33:42
:usex:

https://abload.de/img/galax-rtx4090-hof-1e7i94.jpg

https://abload.de/img/galax-rtx4090-hof-2noc77.jpg

Endlich mal eine Karte mit zukunftsfähiger Stromversorgung, wo schon einmal der ganze Rotz an Billig-NTs aussortiert werden darf. :biggrin:

Badesalz
2022-11-01, 14:10:07
War das nicht eh schon seit Anbeginn der Zeit so, daß Spulenfiepen mit den FPS einherging? Und zwar, wenn man in etwa 140fps durchbrach? (damals). Das konnte auch damals passieren. Z.B. wenn die Menüs nicht gelockt waren.
Kann mich noch ganz schlecht an etwas erinnern wo ich mal mit eienr RX470 sowas hatte. Das war in einem Menü und es fiepte deutlich. Aber nur da. Da knallte das im Gegensatz zu 60fps im Spiel selbst, mit 200fps zum Monitor.

Angesichts der überbordernden Power sollte das Design so eines Teils aber bis wenigstens 144Hz/FPS "fiepfest" sein. Immerhin ist das Ding ja genau dafür gebaut.

BiG OnE
2022-11-01, 14:29:25
Wow, die Galax Karte hat sogar Jumper um die Shunt Widerstände zu überbrücken.

ChaosTM
2022-11-01, 14:37:11
GALAX GeForce RTX 4090 HOF is the first Ada GPU with dual 16-pin power connectors (https://videocardz.com/newz/galax-geforce-rtx-4090-hof-is-the-first-ada-gpu-with-dual-16-pin-power-connectors)

More Power

upsi -- gabs schon :)

Asaraki
2022-11-01, 15:00:27
GALAX GeForce RTX 4090 HOF is the first Ada GPU with dual 16-pin power connectors (https://videocardz.com/newz/galax-geforce-rtx-4090-hof-is-the-first-ada-gpu-with-dual-16-pin-power-connectors)

More Power

upsi -- gabs schon :)

Dual NT incoming!? :D Das nächste Lian O11 Max sieht dann aus wie ein kleines Kraftwerk?

Sardaukar.nsn
2022-11-01, 15:10:27
Dual NT incoming!? :D Das nächste Lian O11 Max sieht dann aus wie ein kleines Kraftwerk?

https://www.thermaltake.com/media/catalog/product/cache/cc8b24283b13da6bc2ff91682c03b54b/p/s/ps-tpd-1650fnfagx-4_05.jpg

https://www.thermaltake.com/toughpower-gf3-1650w-gold-tt-premium-edition.html
Sogar verfügbar... https://geizhals.de/thermaltake-toughpower-gf3-1650w-atx-3-0-ps-tpd-1650fnfage-4-a2807726.html

TobiWahnKenobi
2022-11-01, 16:47:15
uiii.. das wird ja noch megaspannend.. in die 12VHPWR buchsen im NT muss man ja auch stecker stecken.. ^^ da werden bestimmt viele fluchen.. brutzel hier.. schmor da.. naja, kriegen die paketdienste und RMA abteilungen was zu tun.


(..)

mfg
tobi

arcanum
2022-11-01, 16:47:22
Er sagt auch explizit, dass nicht die Kabel das Problem sind, sondern die Kombination mit einem zu schwachen Netzteil.

atx 3.0/intel schreiben ein 1100w NT in kombination mit einem 600w kabel vor. scheinbar legen aber alle hersteller ein 600w kabel bei, selbst bei 750w modellen. laut spec brauchen die netzteile den puffer um noch andere komponenten zu betreiben. der worst case laut ihm ist, dass der rechner ausgehen kann (überlastschutz) wenn nicht genug leistung zur verfügung steht. auf kabelbrand o.ä. geht er gar nicht ein bzw. zieht keine verbindung zu unterdimensionierten netzteilen. an sich ein überflüssiges video außer um zu erfahren, welche leistung die ATX 3.0 spec vorschreibt in kombination mit 12vhpwr 300/450/600w und wie die sense pins verkabelt sind.

hq-hq
2022-11-01, 17:19:05
atx 3.0/intel schreiben ein 1100w NT in kombination mit einem 600w kabel vor. scheinbar legen aber alle hersteller ein 600w kabel bei, selbst bei 750w modellen. laut spec brauchen die netzteile den puffer um noch andere komponenten zu betreiben. der worst case laut ihm ist, dass der rechner ausgehen kann (überlastschutz) wenn nicht genug leistung zur verfügung steht. auf kabelbrand o.ä. geht er gar nicht ein bzw. zieht keine verbindung zu unterdimensionierten netzteilen. an sich ein überflüssiges video außer um zu erfahren, welche leistung die ATX 3.0 spec vorschreibt in kombination mit 12vhpwr 300/450/600w und wie die sense pins verkabelt sind.

ja hab mich grad auch gewundert, letztlich geht es beim Verschmoren/Schmelzen um die Übergangswiderstände der Pins, da ist es Wurst ob es ein 850W oder 1200W NT ist

r3ptil3
2022-11-01, 18:50:09
Proshop hat heute die ersten ATX 3.0 Netzteile ausgeliefert.
Der erste Shop überhaupt in Europa, wenn ich richtig liege.

Sind noch ein paar lagernd:
https://www.proshop.de/Netzteile/ASUS-ROG-Loki-SFX-L-850-Platinum-Netzteile-850-Watt-120-mm-80-Plus-Platinium/3104076

Und nicht vergessen:
Ein Netzteil was die ATX 3.0 Standards erfüllt, kann mit einem deutlich leistungsstärkerem ATX 2.53 Netzteil verglichen werden und selbst ATX 2.53 können viele Netzteile nicht einhalten.

x5
2022-11-01, 20:42:30
Keine Ahnung ob mein 1000w Gigabyte ATX 3.0 ist.
Es war aber auch ein 600w Kabel dabei.
Funktioniert ohne Probleme mit der Zotac auf default bisher.

basix
2022-11-01, 20:54:29
uiii.. das wird ja noch megaspannend.. in die 12VHPWR buchsen im NT muss man ja auch stecker stecken.. ^^ da werden bestimmt viele fluchen.. brutzel hier.. schmor da.. naja, kriegen die paketdienste und RMA abteilungen was zu tun.

Wenn es am Adapter oder wie vorhin geschrieben auch an zu schwachen Netzteilen liegt: Wird hier beides nicht der Fall sein.

TobiWahnKenobi
2022-11-01, 21:23:49
na hoffentlich hast du recht. nicht dass es an am ende doch an mondphasen oder sonnenwinden liegt.

btw,
ich habe grad versucht mein cablemodkabel wieder abzubestellen. aber ging nicht. keine lust mehr auf andere kabel. wenn hier was kaputtgeht, muss ich es nur mit asus ausfechten; hält den aufwand gering. alles andere ist mir zu tricky. psu von corsair, kabel von cablemod, graka von asus..


(..)

mfg
tobi

nordic_pegasus
2022-11-01, 22:05:30
atx 3.0/intel schreiben ein 1100w NT in kombination mit einem 600w kabel vor. scheinbar legen aber alle hersteller ein 600w kabel bei, selbst bei 750w modellen. laut spec brauchen die netzteile den puffer um noch andere komponenten zu betreiben. der worst case laut ihm ist, dass der rechner ausgehen kann (überlastschutz) wenn nicht genug leistung zur verfügung steht. auf kabelbrand o.ä. geht er gar nicht ein bzw. zieht keine verbindung zu unterdimensionierten netzteilen. an sich ein überflüssiges video außer um zu erfahren, welche leistung die ATX 3.0 spec vorschreibt in kombination mit 12vhpwr 300/450/600w und wie die sense pins verkabelt sind.

Der PCIe 6pin und 6+2pin Stecker wurden ja verpönt, weil es die Y-Kabel von fast allen Netzteilhersteller gibt. Ferner gibt es abenteuerlich Adapter von 4pin Molex / SATA zu PCIe. Dies alles sollte mit dem neuen Stecker unmöglich sein.

Jetzt fangen die Netzteilhersteller wieder an und packen bei 750W Netzteilen ein 12VHPWR Kabel bei, welches die Sense-Codierung für 600W hat. Oder auch direkt 2x600W 12VHPWR bei 1650W Nennleistung. Wenn man 1200W für 2 GPUs hat, sind 450W für den Rest doch eher mau.

Die Addon 12VHPWR-Kabel, welche Seasonic, Corsair und BeQuiet unter die Leute bringt, können auch an völlig unterdimensionierten Netzteilen betrieben werden. Hier ist dann aber im Zweifel der Kunde schuld. Es wäre gut gewesen, wenn die Kabel nur unter Angabe des vorhandenen PSU mit Validierung durch Rechnung oder Seriennummer rausgehen würden.

Damit sind die letztlich guten Ziele des neuen Kabels von Anfang an wieder nur Schall und Rauch.

Troyan
2022-11-01, 22:58:16
Kitguru hat heute auch noch die 4090 TUF getestet: https://www.kitguru.net/components/graphic-cards/dominic-moass/asus-rtx-4090-tuf-gaming-oc-review/10/

Am Ende kann man wohl sagen: Die beste Luftkühlung hat die "kleinste" Karte. Manchmal ist weniger wohl doch mehr.

SamLombardo
2022-11-02, 07:35:13
Kitguru hat heute auch noch die 4090 TUF getestet: https://www.kitguru.net/components/graphic-cards/dominic-moass/asus-rtx-4090-tuf-gaming-oc-review/10/

Am Ende kann man wohl sagen: Die beste Luftkühlung hat die "kleinste" Karte. Manchmal ist weniger wohl doch mehr.
Ui nicht schlecht die Gamerock.

ChaosTM
2022-11-02, 07:55:42
Punkto Geräuschentwicklung sind eigentlich alle sehr gut und kaufbar.
Das großzügig dimensionierte Kühlsystem ist ein Segen wenn man genug Platz hat.

Freestaler
2022-11-02, 08:12:07
@nordic_pegasus, einerseits sind deine Erwartung unrealistisch (NT Besitznachweiss) andererseits finde ich bedenklich, dass du weniger Vielfalt willst. Es wird durchaus viele Szenarienn geben, in dem 1650w atx 3.0 easy mit 2x 600 gpu und system schlau laufen. Das sind immerhin 450w für CPU, Mainbaord und RGB. Auch 750w mit 600w ist okay. Selbst schuld, wenn man 900w braucht aber 750 einbaut.

Edgecrusher86
2022-11-02, 08:24:35
Punkto Geräuschentwicklung sind eigentlich alle sehr gut und kaufbar.
Das großzügig dimensionierte Kühlsystem ist ein Segen wenn man genug Platz hat.

Das kann ich direkt unterschreiben - es ist schon lustig, dass man mal ältere oder nicht so hungrige Titel mit fps cap zum Teil passiv spielen kann. Von mir aus dürfen die Karten später auch gerne 45cm und 5 Slots haben - zumindest so lange es auch kompakte Mittelklasse Modelle zus. gibt - ich habe ja auch noch ein kleines Case.
Wenn das PCB dann maximal 30cm lang ist, können Leute, wo es nicht mehr passt ja auf Wasser umbauen - ich muss das nicht mehr, auch wenn ich es jederzeit könnte. :wink:

Lawmachine79
2022-11-02, 10:04:48
Gibt es schon 4090er mit vorinstalliertem Wasserkühler (kein AIO)? In Geizhals finde ich keine.

Linmoum
2022-11-02, 10:09:26
Angekündigt ja lieferbar nein.

Wuge
2022-11-02, 12:18:50
Jap, inno3D bringt eine (RefPCB + Alphacool Block). Wurde kürzlich vom Bauern gereviewed.

r3ptil3
2022-11-02, 13:47:26
High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

https://www.computerbase.de/2022-11/rtx-4090-i9-13900k-7950x-gaming-benchmarks/

Danke Computerbase und ebenso PCGH!
Das sind einfach tolle Tests. :love2:

aufkrawall
2022-11-02, 14:03:12
Die Szene in Plague Tale ist mal lol, das geht auf einem 5800X3D stellenweise auf 70fps runter.

Linmoum
2022-11-02, 14:07:48
Ist mir bei deren GPU-Benches dazu auch schon aufgefallen.

Da sollte die 4090 in UHD nativ mit max. Settings bei 77fps liegen, ich war schon nach 2 Sekunden im Spiel beim Blick runter ins Tal bei 6xfps...

w0mbat
2022-11-02, 14:56:20
Jetzt ist der Unterschied ja noch größer geworden. Wieso sind CB & PCGH die einzigen, die diese Unterschiede messen? Liegt es an der Spiele bzw. Szenenauswahl? CP2077 in 720p mit DLSS an?
Ich zweifle die Ergebnisse gar nicht an, aber ist halt schon sehr seltsam.

Ich würde gerne mal einen Vergleich bei DDR5-6000 und dann den 13900K noch zusätzlich mit DDR5-7200 sehen.

dildo4u
2022-11-02, 15:01:42
Speicher ist langsamer als die von AMD empfohlen DDR5 6000 und der 8 Core performt oft besser da nur ein CCD.

Gibt Games die komplett kaputt auf Multi Chip Designs sind.

https://youtu.be/I7-2ArdYvfA?t=740

r3ptil3
2022-11-02, 15:02:23
Bei gewissen Titeln muss man halt genauer hinschauen, ein Cyberpunk oder Spider Man RM eignet sich m.M.n. nicht unbedingt, um die CPU-Performance zu messen, da speziell die AMD-CPUs auch innerhalb der eigenen Reihen merkwürdig performen (Entry und High-End Modelle viel zu nahe beieinander).

Die CCD/Latenz Thematik kommt noch hinzu, wie der obere Kommentar erwähnt.

Troyan
2022-11-02, 15:05:23
Speicher ist langsamer als die von AMD empfohlen DDR5 6000 und der 8 Core performt oft besser da nur ein CCD.

Gibt Games die komplett kaputt auf Multi Chip Designs sind.

https://youtu.be/I7-2ArdYvfA?t=740

Dann sollen die halten zwei Zen4 Prozessoren kaufen: Einen 8er für Spiele und den 16er für MT-Anwendungen. ;D

wolik
2022-11-02, 15:18:02
High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

https://www.computerbase.de/2022-11/rtx-4090-i9-13900k-7950x-gaming-benchmarks/

Danke Computerbase und ebenso PCGH!
Das sind einfach tolle Tests. :love2:

Ich :redface:, welche mit 60 Vsync (4K x 2,25 DLDSR) spielt... :confused:
60 FPS / Vsync. Gutes Bild. Stromverbrauch für Gesamte System (65" inkl.) 350 Watt.
Wieso zum Teufel soll ich, Zitat." dass man mit Zen 3 oder Alder Lake nicht immer alles aus der Grafikkarte quetschen kann." soll ich aus meinem 24/7 Spiel PC was "rausquetschen"
Was für ein Quatsch.

aceCrasher
2022-11-02, 15:23:20
Ich :redface:, welche mit 60 Vsync (4K x 2,25 DLDSR) spielt... :confused:
60 FPS / Vsync. Gutes Bild. Stromverbrauch für Gesamte System (65" inkl.) 350 Watt.
Wieso zum Teufel soll ich, Zitat." dass man mit Zen 3 oder Alder Lake nicht immer alles aus der Grafikkarte quetschen kann." soll ich aus meinem 24/7 Spiel PC was "rausquetschen"
Was für ein Quatsch.
Für Leute mit 1440p 240/360Hz Monitoren hat das Relevanz.

MiamiNice
2022-11-02, 15:42:07
High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

https://www.computerbase.de/2022-11/rtx-4090-i9-13900k-7950x-gaming-benchmarks/

Danke Computerbase und ebenso PCGH!
Das sind einfach tolle Tests. :love2:
Speicher ist langsamer als die von AMD empfohlen DDR5 6000 und der 8 Core performt oft besser da nur ein CCD.

Gibt Games die komplett kaputt auf Multi Chip Designs sind.

https://youtu.be/I7-2ArdYvfA?t=740

Bei den Intels ist auch deutlich langsamerer Speicher drin als gehen würde. 5600er ist gerade mal Spezifikation. Was meinst wie das mit 8000er Speicher ausschaut?

BTW: 5200er ist für Ryzen 7000 die Spec

https://www.computerbase.de/2022-09/amd-ryzen-7000-ddr5-speicherspezifikationen/

dildo4u
2022-11-02, 15:49:46
Deshalb kommt ja das 3D Model damit man ebend nicht Unsinnige Preise für Ram ausgeben muss.
DDR5 ist noch komplett am Anfang und alles was man jetzt kauft sollte schnell veraltet sein.

BlacKi
2022-11-02, 16:37:00
Für Leute mit 1440p 240/360Hz Monitoren hat das Relevanz.das hat doch auch schon in 4k auswirkungen. sonst würden der abstand messtoleranz haben. es liegt also cpu limit vor. gut für 60hz ist das egal. aber wer in 60hz vsync spielt, der ist sowieso schmerzbefreit.

Niall
2022-11-02, 16:51:58
aber wer in 60hz vsync spielt, der ist sowieso schmerzbefreit.

Weil? :freak:

teezaken
2022-11-02, 20:11:50
Bin mit meiner RTX 4090 Suprim relativ zufrieden (ist auch keine Top GPU vom Die her aber mittelmaß), aber leider keine 2x HDMI 2.1... aber seien wir doch ehrlich bis ich das brauche gibts eh ne neue Gen. xD
Habe noch ne Strix in Anflug und ehrlich gesagt keine lust wegen 5 Grad die Karte nochmal auszutauschen, denke ich stornier diese, es sei denn einer von euch will die mir abkaufen für den Preis den ich für die Suprim bezahlt hatte.

VooDoo7mx
2022-11-02, 22:15:32
Der Unterschied zwischen einer guten und schlechten RTX4090 sind doch bestenfalls ob die 2900 oder 3000MHz bei 1,1V macht.
Meiner Meinung nach absolut vernachlässigbar.

teezaken
2022-11-02, 22:24:32
Der Unterschied zwischen einer guten und schlechten RTX4090 sind doch bestenfalls ob die 2900 oder 3000MHz bei 1,1V macht.
Meiner Meinung nach absolut vernachlässigbar.
Da geb ich dir schon recht. Habe ja nix anderes behauptet. Mehr als 3000MHz schafft sie schon. Aber fahre eh UV. bin bei 2640MHz bei 900mV.

Cherubim
2022-11-03, 06:26:49
Nach etwa zwei Wochen kann ich berichten, dass die Tuf leiser geworden ist. Ich kann sie immer noch hören, keine Frage, aber es ist besser/anders geworden.

Undervolt/OC habe ich noch nicht weiter verfeinert, immer noch 75/+200/+1000. Läuft so auch recht gut.

Sardaukar.nsn
2022-11-03, 06:49:35
Auf meine ASUS TUF werde ich wohl 1-2 Wochen verzichten müssen.

https://www.alphacool.com/shopware.php?sViewport=ticket&sFid=141

Ich habe die Bestätigung bekommen das meine TUF am Alphacool Send it in and get one cooler for free Programm teilnimmt. Die ging also gestern in den Versand nach Braunschweig, wird dort vermessen und auf dem 3D Abdruck meiner Karte wird eine Wasserkühler-Line für alle ASUS 4090 TUF und Strix produziert.

Klar habe ich jetzt etwas Aufwand mit Verzicht der Grafikkarte, aber dafür die ungewöhnliche Chance einen wirklich perfekt passenden Kühler zu bekommen. Ob es auch der Beste sein wird sei mal dahin gestellt, bei der Aktion geht mir als Wakü-Enthusiast auf jeden Fall das Herz auf.

Kriegsgeier
2022-11-03, 07:43:29
Also, ich hätte meine neugekaufte Karte nicht für eine Ausmessung abgegeben. Wäre mir zu viele Posttransporte für eine Graka, die ich 2-3 Jahre sorglos nutzen möchte.
Aber dennoch cool, dass du es gemacht hast! gewinn für die Allgemeinheit!

Rolsch
2022-11-03, 08:03:59
Könne die sich nicht einfach eine Karte kaufen? Soviel verschiedene Modelle gibts ja auch nicht.

user77
2022-11-03, 08:18:46
Auf meine ASUS TUF werde ich wohl 1-2 Wochen verzichten müssen.

ja, first world problems... :freak:

Lawmachine79
2022-11-03, 09:24:27
Nach etwa zwei Wochen kann ich berichten, dass die Tuf leiser geworden ist. Ich kann sie immer noch hören, keine Frage, aber es ist besser/anders geworden.

Undervolt/OC habe ich noch nicht weiter verfeinert, immer noch 75/+200/+1000. Läuft so auch recht gut.
Vielleicht bist Du einfach nur abgestumpft.

Asaraki
2022-11-03, 09:40:52
Vielleicht bist Du einfach nur abgestumpft.

Trainiert. :-) klingt besser

Das menschliche Ohr(also das Hirn ^^) fängt schon nach 20 Minuten (iirc) an Geräusche permanent auszublenden / abzuschwächen, wenn sie keine Relevanz haben

Ist auch gut so, sonst hätten wir alle Reizüberflutung ^^

Cherubim
2022-11-03, 09:57:27
Das war meine erste Vermutung, habe aber mit einem kurzen Handyvideo verglichen, das ich an Tag 1 gemacht hatte und das Geräusch hat sich verändert.

Schwer zu beschreiben, das zirpen/rasseln ist geblieben, das quitschen/zwitschern ist weniger geworden.

Edit:
Mag sein, meine Tastatur höre ich auch noch 2 Jahren noch leise surren.

Asaraki
2022-11-03, 10:29:58
Das war meine erste Vermutung, habe aber mit einem kurzen Handyvideo verglichen, das ich an Tag 1 gemacht hatte und das Geräusch hat sich verändert.

Schwer zu beschreiben, das zirpen/rasseln ist geblieben, das quitschen/zwitschern ist weniger geworden.

Edit:
Mag sein, meine Tastatur höre ich auch noch 2 Jahren noch leise surren.

Vermutlich wie oft eine Konbination aus allem. Aber Lüfter können sich schon auch einlaufen und dann etwas leiser werden, wobei das Gegenteil häufiger ist ^^

Anyway ist doch super :-)

Cherubim
2022-11-03, 11:54:06
Jetzt das elendige warten auf die Wasserblöcke.

@Sardaukar.nsn
Wenns also nicht passt, ist deine Karte einfach falsch ;D

Wuge
2022-11-03, 12:14:36
Auf meine ASUS TUF werde ich wohl 1-2 Wochen verzichten müssen.

https://www.alphacool.com/shopware.php?sViewport=ticket&sFid=141

Ich habe die Bestätigung bekommen das meine TUF am Alphacool Send it in and get one cooler for free Programm teilnimmt. Die ging also gestern in den Versand nach Braunschweig, wird dort vermessen und auf dem 3D Abdruck meiner Karte wird eine Wasserkühler-Line für alle ASUS 4090 TUF und Strix produziert.

Sehr cool! Und ich hab heut früh noch angefragt, ob sie einen Block für ASUS machen ;) Jetzt bleibt nur noch abzuwarten wie breit der wird, wenn unter 155mm ab Slot, dann werd ich meine Beschaffung auf TUF/Strixx konzentrieren da 2 HDMI und Dual-Slot-Blende ab Werk :)

Meridian12
2022-11-03, 12:31:02
Bei der Inno Frostbite finde ich es ja so genial,dass man da ne 20cm Karte hat. Kein Backstein, der nach eigenem Komplett Mini PC aussieht :D

Will deswegen auch keine Wakükühler,der quasi die Gesamtlänge der Grafikkarte abdeckt.

@Sardaukar willst du diesen AIO Mist benutzen als Wakü??Denn auf dem Bild ist das ja dabei?

Sardaukar.nsn
2022-11-03, 13:23:51
@Meridian12: Ich werde mir wohl was aussuchen können wenn die Kühler fertig sind. An einer AIO habe ich kein Interesse.
Die PCB sind ja wohl alle recht kurz, die meisten Wakü Karten werden sehr kurz werden.

Loeschzwerg
2022-11-03, 20:01:24
GeForce RTX 4090 mit Radiallüfter aufgetaucht:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59825-blower-design-geforce-rtx-4090-mit-radiall%C3%BCfter-aufgetaucht.html

450W und 2-Slot mit Blower :freak:

Sardaukar.nsn
2022-11-03, 20:56:19
Die professionellen Karten laufen in der Regel ohne RGB und im Sweetspot so um die 300 Watt. Das kann man schon mit Blower machen...

http://www.cgchannel.com/2022/09/nvidia-unveils-next-gen-rtx-6000-workstation-gpu/

Loeschzwerg
2022-11-03, 21:23:02
Weiß ich, aber schau dir doch den Flyer in der News an 😉

BlacKi
2022-11-03, 22:35:48
wird die 4090ti jetzt abgeblasen?

Linmoum
2022-11-03, 22:38:21
Muss jetzt erstmal wieder meinen Wakü-Block restornieren. ;D Wollte vorsichtshalber doch noch heute erst mal abwarten, aber das hat sich jetzt ja völlig erledigt.

Daredevil
2022-11-03, 22:40:06
wird die 4090ti jetzt abgeblasen?
AMD hat erstmal ne Preis der Ti um 500-1000$ erhöht vor ner Stunde. :usad:

Troyan
2022-11-03, 22:49:03
wird die 4090ti jetzt abgeblasen?

Die 4090 gleich mit. :cool:

Schon irre, dass die Karte für $1599 das beste Produkt am Markt ist...

ChaosTM
2022-11-03, 23:19:30
8k/165 oder 4k/480 ?

geht das mit NV :)

HisN
2022-11-03, 23:33:36
Was hat das mit NV zu tun?
Man kann sich doch ausrechnen was das an Bandbreite braucht, und ob so viel vorhanden ist.

https://www.4kfilme.de/welche-hdmi-bandbreite-4k-8k-120hz-10-bit-444-chroma/#vergleichstabelle

Ich bin ganz froh das kein DP2.1 vorhanden ist, nachher komme ich nur in Versuchung wenn erste Monitore/Glotzen auftauchen.

Troyan
2022-11-03, 23:36:29
Die AMD Karte kann das ja selbst nicht erreichen. Was bringt es mir einen solchen 4K Monitor zu haben und dann mit 100 FPS spielen zu dürfen? Mit Raytracing krebst man zwischen 30 und 60 FPS rum...

r3ptil3
2022-11-03, 23:41:19
AMD hat erstmal ne Preis der Ti um 500-1000$ erhöht vor ner Stunde. :usad:

Der Ti? Nachdem die Reviews der XTX draußen sind, könnte ich mir gut vorstellen, dass die Preise der RTX 4080/4090 wieder das Niveau der Mining-Hochphase erreichen.

Troyan
2022-11-03, 23:54:39
In Doom Eternal mit Raytracing schafft die 4090 über 300FPS in 1440p: https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160

Die AMD Karte, die uns tolle 800Hz verspricht, nicht so. Zeigt einfach, dass DP2.1 vollkommen irrelevant ist, wenn man nicht die Leistung schafft.

HisN
2022-11-04, 01:05:33
Dafür haben uns die Entwickler die Regler gegeben.

Troyan
2022-11-04, 01:14:05
Ja, 1000€ ausgeben und dann die Qualität senken, um etwas von DP2.1 zu haben. Ich bin froh, dass ich mit meiner 4090 in 3440x1440 an die 170Hz rankommen, wenn ich Raytracing nutze.

Lyka
2022-11-04, 01:31:43
Ist doch super, damit hast du es allen gezeigt (y) :)

(also falls du das wirklich nutzt, ich meine, ein Sportwagen in der Garage bleibt zwar ein Sportwagen, aber halt teuer)

Troyan
2022-11-04, 01:39:17
Warum hätte ich mir sonst eine 4090 kaufen sollen? Um mit artefaktbehafter Grafik zu spielen?

Der Sinn von Aufrüstung ist auch immer bessere Bildqualität.

vinacis_vivids
2022-11-04, 05:12:12
4k@480hz@12bit - DAS ist deutlich bessere Bildqualität 😉
Freue mich auch auf 8K@165hz@12bit. Mal schauen welcher FreeSync Monitor es wird. Bei RT einfach FSR 3.0 einschalten und gut ist 😁

wolik
2022-11-04, 07:25:31
Gut, dass es den 7900XTX-Thread gibt! Ich werde dort sofort posten, wie zufrieden ich mit dem 4090 bin.

MSABK
2022-11-04, 08:20:26
Der Ti? Nachdem die Reviews der XTX draußen sind, könnte ich mir gut vorstellen, dass die Preise der RTX 4080/4090 wieder das Niveau der Mining-Hochphase erreichen.

Warum sollten die Preise der 4090 steigen? Die 7900XTX ist ja nicht das Konkurrenzprodukt der 4090. Ersteres kostet wahrscheinlich un die 1250€ und letzteres kostet un die 2300€. Da sind Welten dazwischen.

Cubitus
2022-11-04, 09:00:18
Warum sollten die Preise der 4090 steigen? Die 7900XTX ist ja nicht das Konkurrenzprodukt der 4090. Ersteres kostet wahrscheinlich un die 1250€ und letzteres kostet un die 2300€. Da sind Welten dazwischen.

Eher wird der Preis der kommenden 4070 angepasst werden müssen.
Evtl muss auch die 4080 reduziert werden..

Wird unserem Jensen nicht schmecken :)

Einen Preisverfall bei der 4090 wird es erst mit der, vielleicht kommenden, 4090TI in einem Jahr geben.

HOT
2022-11-04, 10:22:20
Je nachdem wie die Rezession voranschreitet wird NV recht fix ne 4080Ti brauchen, wenn sie viele AD102 produziert haben, dann setzt auch hier ein Preisverfall sein.

Dural
2022-11-04, 10:32:00
Also ich würde sofort eine 4090 kaufen, wenn das so wie so geplant war.

Ich befürchte ja fast das es nach Gestern einen Preiserhöhung geben wird :freak:

An eine 4090Ti muss man jetzt nicht mal mehr denken.

Troyan
2022-11-04, 10:33:51
Ja, AMD ist die beste Werbung für die 4090. 60% teurer, 80% Mehrleistung. Und wer will macht die Karte auch einfach doppelt so effizient.

Ist wie mit Zen4. War auch beste Werbung für Raptor-Lake.

DrFreaK666
2022-11-04, 10:40:03
Ja, AMD ist die beste Werbung für die 4090. 60% teurer, 80% Mehrleistung. Und wer will macht die Karte auch einfach doppelt so effizient.

Ist wie mit Zen4. War auch beste Werbung für Raptor-Lake.

Wenn man ein neues Netzteil und/oder Gehäuse benötigt, dann wird es nochmal teurer

Troyan
2022-11-04, 10:58:47
Es wird niemand eine 7900XTX mit 700W betreiben. Und die Custom-Karten werden kaum kleiner werden. Und wer eine 355W Karte in einem Minigehäuse betreibt, wird kaum viel Spaß damit haben.

Das sind alles doch nur ausreden, um von der schlechten Leistung abzulenken. Die Preise von nVidia und AMD sind abseits der 4090 einfach absurd. Und das sagt so einiges über den Markt aus.

DrFreaK666
2022-11-04, 11:12:26
Eine RX6600 für 265€ find ich nicht absurd :D

Meridian12
2022-11-04, 11:21:20
Die 4090 gleich mit. :cool:

Schon irre, dass die Karte für $1599 das beste Produkt am Markt ist...

Das mit Abstand teuerste Produkt ist das beste Produkt ist für dich irre?

Ich würde mal sagen, ist in den meisten Fällen so, dass das teuerste Produkt das Beste ist.

Und wenn du Preis Leistungsverhältnis meinst, da dürfte die 7900XTX wohl vor der 4090 liegen. Die 4090 ist schliesslich 60% teurer als die 7900XTX und wohl 20% schneller (aber genaueres wissen wir bei den ersten Vergleichstests)

Linmoum
2022-11-04, 12:02:59
Die 4090 wird in RT deutlich schneller als die +60% der UVP-Differenz sein.

In der Hinsicht ist die teuerste GPU die mit dem besten P/L-Verhältnis. Das ist schon irre.

dildo4u
2022-11-04, 12:12:33
Die 4090 wird in RT deutlich schneller als die +60% der UVP-Differenz sein.

In der Hinsicht ist die teuerste GPU die mit dem besten P/L-Verhältnis. Das ist schon irre.
Laut dem ist 6950XT bei 37% der 4090 RT Leistung, da sollte man erwarten das die 7900XTX deutlich über 50% kommt.

https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3

Troyan
2022-11-04, 12:15:08
Du musst einzelne Spiele betrachten. AMD gibt in Doom Eternal 1,6x zur 6950XT an. Laut Computerbase ist die 4090 in 4K 2,98x schneller. Damit wäre die 4090 in 4K über 1,8x schneller als die 7900XTX.

dildo4u
2022-11-04, 12:23:00
Macht kein Sinn Cherry Picking pro Lovelace zu betreiben wer weiß wann Nvidia billige 4nm GPU liefern kann, alles was die nästen Jahre kommt sollte Ampere als Basis haben die 3060 setzt sich grad erst bei Steam durch.

Lawmachine79
2022-11-04, 12:37:21
Mal eine andere Frage. ATIs AI-Lösung (mir fällt der Name nicht ein) konnte den Abstand zu DLSS 2.0 verkürzen. Wie sieht es denn mit DLSS 3.0 aus? Hat NV damit den Abstand wieder vergrößert?

Daredevil
2022-11-04, 12:39:05
Vermutlich ja, Nvidia hat diese Generation die Rohperformance fast links liegen lassen und massiv in RT und DLSS bzw. die dazu zuständigen Einheiten investiert und damit ihre Stärke weiter ausgebaut.

AMD kopiert mal wieder Features von Nvidia und im besten Falle kommen sie wie FSR nah dran, im schlechtesten Falle ist es unbrauchbar.
Da DLSS3 ja schon sehr kompromissbehaftet scheint, ist es imho ausgeschlossen, das AMD auch annähernd was gleiches hinbekommt.

dildo4u
2022-11-04, 12:40:13
Mal eine andere Frage. ATIs AI-Lösung (mir fällt der Name nicht ein) konnte den Abstand zu DLSS 2.0 verkürzen. Wie sieht es denn mit DLSS 3.0 aus? Hat NV damit den Abstand wieder vergrößert?
AMD hat gestern FSR3 angekündigt wie das ausgeht wird man erst 2023 sehen.

https://youtu.be/kN_hDw7GrYA?t=1829

Cubitus
2022-11-04, 13:15:26
Vermutlich ja, Nvidia hat diese Generation die Rohperformance fast links liegen lassen und massiv in RT und DLSS bzw. die dazu zuständigen Einheiten investiert und damit ihre Stärke weiter ausgebaut.

AMD kopiert mal wieder Features von Nvidia und im besten Falle kommen sie wie FSR nah dran, im schlechtesten Falle ist es unbrauchbar.
Da DLSS3 ja schon sehr kompromissbehaftet scheint, ist es imho ausgeschlossen, das AMD auch annähernd was gleiches hinbekommt.

Nvidias Monolith hat doch brachiale Rohperfomance schon allein durch den Transitor-Count. Aber Nvidia hat eben die Techniken verfeinert, so gesehen ist die 4090 die starke Karte für Professionals und die stärkste für Gamer.

Daredevil
2022-11-04, 13:21:51
Ja, anhand des transistor Counts ist die Rohperformance aber eher mies, die Transistoren wurden halt für andere Zwecke genutzt, wie DLSS3 Beschleunigung und massiv bessere RT Leistung.
Eigentlich hätte AMD zumindest bei der allgemeinen Performance aufschließen müssen als USP, ich bin mir aber sicher in dem ein oder anderen Spiel wird die 4090 auch geschlagen, nur halt nicht in der Qualität von DLSS und schon gar nicht in RT.

Troyan
2022-11-04, 13:27:42
Ja, anhand des transistor Counts ist die Rohperformance aber eher mies, die Transistoren wurden halt für andere Zwecke genutzt, wie DLSS3 Beschleunigung und massiv bessere RT Leistung.
Eigentlich hätte AMD zumindest bei der allgemeinen Performance aufschließen müssen als USP, ich bin mir aber sicher in dem ein oder anderen Spiel wird die 4090 auch geschlagen, nur halt nicht in der Qualität von DLSS und schon gar nicht in RT.

Die 4090 ist fast doppelt so schnell als die 3090, AMD liegt irgendwo bei 60% zur 6900XT. Lovelace ist ein viel größerer Schritt als RDNA3.

Daredevil
2022-11-04, 14:03:11
Das habe ich auch nicht behauptet, trotzdem könnte bei Nvidia der Raster Schritt höher sein, genauso wie bei AMD auch der RT Schritt größer sein könnte, es sind aber schlicht zwei verschiedene Ziele verfolgt worden.

Nvidia:
KI Upsampling > RT > Performance ( Scheiß auf Strom und Kosten )

AMD:
Performance > KI Upsampling > RT ( Unter 1000$ und um die 300w )

In der Performance wird AMD Nvidia im gleichen Preisbereich schlagen
Im Upsampling ist AMD 0-1 Generation hinter Nvidia
Im Raytracing ist AMD 1-2 Generationen hinter Nvidia

Wichtig ist aber, das AMD irgendwo mithalten kann. Hätte AMD 20-30% Rohperformance für 20-30% mehr RT Leistung geopfert, wäre eine noch unausgewogene Karte rausgekommen.
Nvidia konnte sich erlauben, die Performance ein wenig schleifen zu lassen, um den Vorsprung DLSS+RT noch weiter auszubauen, weil sie die Performance mit dem Holzhammer und 450w Max +1600$ nach oben getrieben haben. Die Frage ist, wie sich nun ihre 4080 anstellt.

Troyan
2022-11-04, 14:09:46
nVidia hat die Rasterizing-Leistung bei der 4090 gegenüber der 3090TI verdoppelt:
Doppelte Rechenleistung, doppelte Rasterizerleistung, doppelte Geometrieleistung, doppelter Pixeloutput.

Warum du keine Verdopplung in Spielen siehst, liegt einfach daran, dass eben die pure Leistung nicht limitiert. Z.B. fehlt es der 4090 an Bandbreite. Die ist nämlich identisch zur 3090TI. Der L2-Cache hilft, aber ist eben auch kein Wunderding. Dann hast du APIs, die nicht optimiert sind, Workloads, die skalieren etc.

Schau dir doch einfachmal Frame-Generation an: Per DL kann eine 4090 50% schneller ein Frame generieren als per Rasterizing und Compute. Irgendwann kommt man an einen Punkt, wo pure Leistung nicht mehr wirklich umgesetzt werden kann und andere Wege gefunden werden müssen.

Daredevil
2022-11-04, 14:14:11
Wenn die theoretische Leistung verdoppelt wird, sie praktisch aber nicht ankommt, ist meinem Monitor das egal, weil er auf FPS wartet.

Troyan
2022-11-04, 14:18:35
Und das ist ein Problem. Rasterizing ist stark limitiert und wird immer ineffizienter, je mehr durch damit erledigen willst. Das führt zu schlechter Auslastung, ineffizienten Designs, APIs etc.

Raytracing skaliert viel besser. Mehr Raytracing, heißt auch viel bessere Skalierung in der Zukunft.

Meridian12
2022-11-04, 14:36:51
Die 4090 wird in RT deutlich schneller als die +60% der UVP-Differenz sein.

In der Hinsicht ist die teuerste GPU die mit dem besten P/L-Verhältnis. Das ist schon irre.


Tschuldigung, RT interessiert mich absolut null. Der Maßstab ist Rastering Auflösung und nicht irgenmdwelche Sondersachen.

Linmoum
2022-11-04, 14:46:41
Der Maßstab bei einer vierstellig kostenden Grafikkarte Ende 2022 ist für dich also nicht die bestmögliche Grafik? Skurril.

Warum dann derart viel Geld ausgeben?

Slipknot79
2022-11-04, 14:47:18
Wenn man ein neues Netzteil und/oder Gehäuse benötigt, dann wird es nochmal teurer


Lisa will aber 8k Monitore verkaufen. (y)

aufkrawall
2022-11-04, 14:48:12
@Linmoum Sind deine komischen Stabilitätsprobleme eigentlich weg?

Linmoum
2022-11-04, 15:18:07
Mit dem Hotfix-Treiber hatte ich bisher noch kein Problem. Den regulären hatte ich aufgrund der MW2 Probleme geskippt.

Ich werd übers Wochenende noch schauen, wenn ich wieder länger als sonst nach der Arbeit am Rechner bin.

War halt wirklich primär bei Videos/Streams, daher hatte ich das auch erstmal unterlassen.

aufkrawall
2022-11-04, 15:20:03
Ok. Bei Bro immer noch alles unauffällig mit der TUF und 522er Treiber. Seit ca. einer Woche auch mit 5800X3D.

TobiWahnKenobi
2022-11-04, 15:20:22
aktuelle displayausgänge neben hdmi-2.1 hätte ich jetzt an der 4090 auch nicht schlecht gefunden.. benutze dp zwar für nix (darum auch immer karten mit 2x HDMI) aber haben ist besser als brauchen. schade dass wir so einen wumms wie mit der 4090 nie wieder erleben werden.


(..)

mfg
tobi

BigKid
2022-11-04, 15:25:44
Kann ich den Hersteller deiner Glaskugel erfragen?

DrFreaK666
2022-11-04, 16:23:56
Lisa will aber 8k Monitore verkaufen. (y)

Das habe ich eher als Seitenhieb verstanden, weil NV da hinterher hinkt. Denke in naher Zukunft ist das noch eher unwichtig

unl34shed
2022-11-04, 17:03:26
https://twitter.com/VideoCardz/status/1588462665676083200?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1588462 665676083200%7Ctwgr%5E50f9850d4ebe1ab791b1c4b11e7178e839260169%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-geforce-rtx-4090-reviews.63008%2Fpage-25

Und das erste 12VHPWR Kabel ist abgeraucht, mal schauen, wie viele folgen...

DrFreaK666
2022-11-04, 17:06:07
Hat sich inzwischen mal NV dazu geäußert?

Inquisitor
2022-11-04, 17:13:25
eieiei, von einem MSI Netzteil? Von denen sollte man ja Qualität am Stecker erwarten... Nachher stellt sichs doch als Konzeptionelles Problem der Schnittstelle raus, dann gibts wohl nen riesen Rückruf der Karten... eieiei

arcanum
2022-11-04, 17:35:04
Der Maßstab bei einer vierstellig kostenden Grafikkarte Ende 2022 ist für dich also nicht die bestmögliche Grafik? Skurril.

Warum dann derart viel Geld ausgeben?

+1

eine 7900XTX für 12xx€ wäre ganz nett, aber kein grund für mich nur wegen der raster performance so viel geld auszugeben. ausgehend von einer 3090 hätte ich die generation komplett übersprungen, wenn eine 7900XTX das non-plus-ultra darstellen würde. die 4090 ist klar überteuert aber die 7900XTX ist auch kein schnapper. wenn ich schon so viel geld aus dem fenster werfe, dann will ich auch keine kompromisse eingehen. für preis/leistung holt man sich eh eine konsole und hat weniger ärger mit dem ganzen softwareschrott.

dargo
2022-11-04, 17:48:50
Hat sich inzwischen mal NV dazu geäußert?
NV soll sich zu abgerauchten Kabeln der NT-Hersteller äußern? :freak:

unl34shed
2022-11-04, 17:57:19
Das nicht unbedingt, auch wenn ihre GPU beteiligt ist. Aber vielleicht mal zu ihren Adaptern und Grafikkarten die im Zusammenspiel abrauchen.

Meridian12
2022-11-04, 18:39:47
NV soll sich zu abgerauchten Kabeln der NT-Hersteller äußern? :freak:

Sind alle Kabel von allen Herstellern scheisse und die Karte ist perfekt und fehlerfrei in der Hinsicht??

Glaube ich eher nicht.

dildo4u
2022-11-04, 18:42:19
Ich dachte der neue Stecker kommt von Intel, der 12 Pin war Nvidias.

https://www.google.com/amp/s/www.techpowerup.com/292563/intel-atx-3-0-16-pin-power-connector-for-pcie-gen5-is-smart-has-four-power-delivery-variants%3famp

unl34shed
2022-11-04, 18:48:37
Der neue Stecker kommt von der PCI-SIG, die Spec hat Intel in den ATX Standard aufgenommen.
In der PCI-SIG ist Nvidia ein Mitglied und die Vermutung liegt nahe, dass sie das gepusht haben um es zu standardisieren.

r3ptil3
2022-11-04, 22:15:02
ASUS ATX 3.0 Netzteil heute erhalten und nach der Vorstellung gestern, wird die Strix nun definitiv in Einsatz genommen. Dachte zwischenzeitlich schon , ob da vlt. doch eine Überraschung kommt.

Die Mesh-Kabel inkl. natives 12VHPWR in der Verpackung sehen sehr hochwertig aus, seltsamerweise hatte die Verpackung des Kabelbündels einen Riss und genau da war auch das 12VHPWR Kabel... vielleicht wollte ASUS nochmals sichergehen und hat das 12VHPWR Kabel nochmals angeschaut. :D

Übrigens bzgl. ausgelieferter Stückzahlen der RTX 4090:
100'000 Stück sinds anscheinend bisher.

https://wccftech.com/nvidia-has-shipped-100000-ad102-ada-gpus-for-geforce-rtx-4090-graphics-card-so-far/

FastAndy
2022-11-04, 23:11:52
100k? Sehr stark und das sind noch viel zu wenige um die nachfrage zu bedienen. Davon können andere nur träumen, gerade bei den preisen.:up:

BlacKi
2022-11-05, 00:05:34
jetzt mal im ernst. kommt die 4090ti erst wieder paar monate vor next gen, like last gen? es gibt genau 0 druck.

Cubitus
2022-11-05, 00:27:16
jetzt mal im ernst. kommt die 4090ti erst wieder paar monate vor next gen, like last gen? es gibt genau 0 druck.

Die TI kommt wenn die jetzige Genration am Auslaufen ist, frühstens in einem Jahr spätestens ein halbes Jahr vor der 50er Serie.

r3ptil3
2022-11-05, 01:04:32
Denke ich auch, wenn überhaupt. Die Ausgangslage ist dieses Mal doch ein bisschen anders.

RTX 3090: 1499$
RTX 3080: 699$
10% Leistungsunterschied


RTX 4090: 1599$
RTX 4080: 1199$
mind. 30% Leistungsunterschied

RX 7900 XT: etwa gleichauf mit der RTX 4080 16Gb
RX 7900 XTX: 10% über der RTX 4080 16Gb

Da brauchts gar keine RTX 4090 Ti mehr.

Weshalb die RTX 4080 12Gb gestrichen wurde, wurde gestern nebenbei auch beantwortet.

horn 12
2022-11-05, 01:50:49
Von AMD oder Nvidia beantwortet?
Denke dass man sich nicht die Blöse geben wollte, 12 GB zu 20 GB
und womöglich wäre AMD doch schneller als die 4080 12GB Karte.

Die Treiber sind denke ich das Problem bei AMD´s 7900-er Serie, denn oftmals kann jene mit 4090 gar mithalten,- und dann auch nur Gleichauf mit 3090 TI oder knapp darüber.
Dies glaube ich ist die Achillesferse der Neuen AMD Grafikkarte und dies weiss AMD nur zu gut.

The_Invisible
2022-11-05, 08:05:17
Denke ich auch, wenn überhaupt. Die Ausgangslage ist dieses Mal doch ein bisschen anders.

RTX 3090: 1499$
RTX 3080: 699$
10% Leistungsunterschied


RTX 4090: 1599$
RTX 4080: 1199$
mind. 30% Leistungsunterschied

RX 7900 XT: etwa gleichauf mit der RTX 4080 16Gb
RX 7900 XTX: 10% über der RTX 4080 16Gb

Da brauchts gar keine RTX 4090 Ti mehr.

Weshalb die RTX 4080 12Gb gestrichen wurde, wurde gestern nebenbei auch beantwortet.

Hoffe die 4080 ti ist viel näher an der 4090 dran

Inquisitor
2022-11-05, 08:53:12
Ja, die Lücke zwischen 80 und 90 ist diesmal zu groß. War sonst immer 80er klasse käufer wegen preis leistung,aber das passt diesmal bei der 80er nicht richtig, deswegen ists die 90 geworden.

Sardaukar.nsn
2022-11-05, 09:01:40
Bei mir ganz ähnlich, noch 1080ti und 3080 ist es jetzt die 90er geworden.

Ersten Wasserkühlungen scheinen auch gut zu funktionieren. Hier mal EKWB Umbau einer FE: https://www.reddit.com/r/watercooling/comments/yml8vz/very_impressed_with_my_4090_ekwb_fe_block/

dargo
2022-11-05, 09:42:48
Denke ich auch, wenn überhaupt. Die Ausgangslage ist dieses Mal doch ein bisschen anders.

RTX 3090: 1499$
RTX 3080: 699$
10% Leistungsunterschied

Sind eher 14% @4k.
https://www.igorslab.de/kfa2-geforce-rtx-3080-ti-sg12gb-im-test-zurueckhaltende-optik-aber-solide-leistung-und-im-vergleich-sogar-etwas-guenstiger/4/


RTX 4090: 1599$
RTX 4080: 1199$
mind. 30% Leistungsunterschied

Weiß man noch gar nicht genau. Zudem waren die 699$ der 3080 eher was fürs Papier. Die kostet selbst heute noch 800€+ (Customs). :freak: Und nicht vergessen... die 3080 hat nur magere 10GB vs. 24GB der 3090. Bei Ada sieht es anders aus mit 16GB vs. 24GB.

Sardaukar.nsn
2022-11-05, 10:48:09
Die Galax 4090 HOF ist scheinbar noch mal 14% schneller als meine ASUS 4090 TUF.

Vergleich im Port Royal: https://www.3dmark.com/compare/pr/1845605/pr/1815697#

Sind aber auch andere Taktraten und Temperaturen im Spiel ;)

basix
2022-11-05, 14:10:23
LN2? ;)

Radeonfreak
2022-11-05, 14:13:08
Oder offener Benchtable in der Antarktis.

Troyan
2022-11-05, 14:17:29
Ja, 3,7GHz mit LN2: https://videocardz.com/newz/galax-geforce-rtx-4090-has-been-overclocked-to-3-7-ghz-with-ln2

Wuge
2022-11-05, 18:25:50
Falls es wen interessiert, 3090 2.1 Ghz, 22GBps vs. 4090 3 Ghz, 24 Gbps skaliert in extrem hohen Auflösungen (VR, 2x5880x4380 Pixel) etwa mit Faktor 1,6 und die 4090 hängt hart am Speicher.
Core OC skaliert sehr schwach (2% Performance aus 6% Takt), Speicher verhätlnissmäßig stark (5% aus 14% Takt). Leider immer noch zu langsam.

Wenn gibts jetzt endlich den vollen AD102 mit 24 Gbps Speicher?

BlacKi
2022-11-05, 18:44:49
Falls es wen interessiert, 3090 2.1 Ghz, 22GBps vs. 4090 3 Ghz, 24 Gbps skaliert in extrem hohen Auflösungen (VR, 2x5880x4380 Pixel) etwa mit Faktor 1,6 und die 4090 hängt hart am Speicher.
Core OC skaliert sehr schwach (2% Performance aus 6% Takt), Speicher verhätlnissmäßig stark (5% aus 14% Takt). Leider immer noch zu langsam.

Wenn gibts jetzt endlich den vollen AD102 mit 24 Gbps Speicher?kannst du das ausführen? welche spiele?


wenn das stimmt, dann könnte der volle cache (+33%) mit der 4090ti und etwas schnellerem vram gut skalieren.

Rolsch
2022-11-05, 19:13:51
Was ist so halbwegs safe beim Speicher OC? 10% auf 1450Mhz laufen bis jetzt problemlos, was sagen denn da die Profis? Und ja bei VR scheint Speicher OC zu helfen, der Performance Headroom hüpft gleich um 5% nach oben.

Cubitus
2022-11-05, 19:27:21
Was ist so halbwegs safe beim Speicher OC? 10% auf 1450Mhz laufen bis jetzt problemlos, was sagen denn da die Profis? Und ja bei VR scheint Speicher OC zu helfen, der Performance Headroom hüpft gleich um 5% nach oben.

Halbwegs Safe sind hier +1000 Mhz, kann meine Suprim bis +1500 Mhz jagen.

BlacKi
2022-11-05, 20:43:28
wieviel coreclock kann man reduzieren um mit mem oc, core underclocking auszugleichen? und wieviel strom wird eingespart?

Cubitus
2022-11-05, 21:33:25
wieviel coreclock kann man reduzieren um mit mem oc, core underclocking auszugleichen? und wieviel strom wird eingespart?

Ich kann mit den +1000 Mhz ca 3 FPS ausgleichen.
Mit 2600 Mhz hab ich gegenüber dem Standard 2800 Mhz
so ca 3 FPS Verlust. :wink:

Wenn ich die Karte mit 3105 Mhz laufen lasse sind es ca 3-10 FPS
da sind wir dann aber bei ~500 Watt

Einsparung mit UV ca 100-200 Watt zum Standard je nach dem..
RAM OC kostet quasi kein Strom

Raff
2022-11-05, 22:52:38
Moin!

Ich bitte die 4090-Besitzer hier um ein paar kompetent durchgeführte Vergleichswerte der Unity-Enemies-Demo. Hier meine RTX 3090 Ti als leichte Beute ;): https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13159941&postcount=11

Benchvorgang wie bei CB vorgeschlagen (Start ab dem ersten "echten" Bild, 60 Sekunden Dauer). Die Zusendungen/Charts bei CB sehen nicht koscher aus, viel zu hohe Werte.

MfG
Raff

Lehdro
2022-11-05, 23:35:10
Falls es wen interessiert, 3090 2.1 Ghz, 22GBps vs. 4090 3 Ghz, 24 Gbps skaliert in extrem hohen Auflösungen (VR, 2x5880x4380 Pixel) etwa mit Faktor 1,6 und die 4090 hängt hart am Speicher.
Core OC skaliert sehr schwach (2% Performance aus 6% Takt), Speicher verhätlnissmäßig stark (5% aus 14% Takt). Leider immer noch zu langsam.

Core und Memory skalieren laut deinen Zahlen fast genau gleich. :rolleyes:

Linmoum
2022-11-06, 00:14:07
Moin!

Ich bitte die 4090-Besitzer hier um ein paar kompetent durchgeführte Vergleichswerte der Unity-Enemies-Demo. Hier meine RTX 3090 Ti als leichte Beute ;): https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13159941&postcount=11

Benchvorgang wie bei CB vorgeschlagen (Start ab dem ersten "echten" Bild, 60 Sekunden Dauer). Die Zusendungen/Charts bei CB sehen nicht koscher aus, viel zu hohe Werte.

MfG
Raff
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13159997&postcount=13

Gerne. :)

BlacKi
2022-11-06, 01:07:33
Ich kann mit den +1000 Mhz ca 3 FPS ausgleichen.
Mit 2600 Mhz hab ich gegenüber dem Standard 2800 Mhz
so ca 3 FPS Verlust. :wink:

Wenn ich die Karte mit 3105 Mhz laufen lasse sind es ca 3-10 FPS
da sind wir dann aber bei ~500 Watt

Einsparung mit UV ca 100-200 Watt zum Standard je nach dem..
RAM OC kostet quasi kein Strom
uv ist klar.



aber kannst du mal powertarget auf 300w limitieren und dann mal ohne ram oc und mal mit ram oc testen ? was ist schneller bei 300w, ram oc oder stock.

Troyan
2022-11-06, 10:07:03
In 3440x1440p mit 170Hz benötigt meine Gigabyte 4090 ca. 11W ohne LED und Lüfter beim Idlen nach dem Aufwachen aus Standby. Finde ich ziemlich beeindruckend.

basix
2022-11-06, 13:04:43
Kann mit der 4090 nun auch 144Hz fahren. Finde ich geil. Bei der 2080 Ti nur 120Hz, darüber ist der Verbrauch stark angestiegen, da der Speicher hochgetaktet hat.

Emil_i_Lönneberga
2022-11-06, 16:27:13
Ergebnisse der 4090 Fe mit EKWB FE Block und wassergekühlter Backplate, bei 280W und 380W:

https://www.hardwareluxx.de/community/threads/nvidia-ada-lovelace-40xx-wasserk%C3%BChler.1323682/page-10#post-29538527

Temps passen und vom optischen Eindruck sieht die Kombi einfach stark aus. Das gezackte V-Design bleibt sichtbar, zusammen mit dem vollgepackten PCB-Ende aus Spulen und Kondensatoren und am Ende der schwarze Acetalabschluss mit Vector 2 Schriftzug und EKWB Logo. Dazu die ~11m dicke Kupferplatte, die bei allen PCB Platinen der Founders Edition wegen der hohen Kondensatoren nötig ist, ermöglicht seitlich neben der Finnenstruktur dieses Treppendesign in der Kanalstruktur. Dieses Mal hat es EKWB echt gut getroffen.

HisN
2022-11-06, 18:08:27
Ab nächster Woche sind die Phanteks-Kühler für die 4090 bei Caseking zu haben.
Find die ganz cool, weil die Terminals nicht über die Graka-Seite ragen, wo es bei vielen schon Probleme mit dem Gehäusedeckel gibt.
Problematisch finde ich das Acryl-Terminal. Da hätte ich mir schon eher Delrin/Acetal oder so gewünscht.
Aber hey .. solange Watercool nicht ausm Sack kommt^^

https://www.caseking.de/phanteks-glacier-g40-rtx-4080-90-wasserblock-inkl.-backplate-fuer-asus-d-rgb-chrome-wach-797.html

Godmode
2022-11-06, 20:02:15
Ergebnisse der 4090 Fe mit EKWB FE Block und wassergekühlter Backplate, bei 280W und 380W:

https://www.hardwareluxx.de/community/threads/nvidia-ada-lovelace-40xx-wasserk%C3%BChler.1323682/page-10#post-29538527


Das ganze jetzt bitte nochmal mit 600W. Gibts schon Tests ob das auch FPS oder nur heiße Luft bringt? ;D

Wuge
2022-11-06, 21:16:58
kannst du das ausführen? welche spiele?


wenn das stimmt, dann könnte der volle cache (+33%) mit der 4090ti und etwas schnellerem vram gut skalieren.

Flight Simulator 2020 und DCS World. DCS zum Beispiel skaliert in manchen Szenarien überhaupt nicht mehr mit dem Core. 51 FPS, egal ob 2820 Mhz oder 3 Ghz. Ziehe ich den Speicher von 21 Gbps auf 24 Gbps hoch, boom 54 FPS.

Core und Memory skalieren laut deinen Zahlen fast genau gleich. :rolleyes:

Ja und das ist frappierend. Hat die Karte genug Bandbreite, skaliert Coreclock zu 70-90% und Speicher fast gar nicht.

HisN
2022-11-06, 21:58:09
Das ganze jetzt bitte nochmal mit 600W. Gibts schon Tests ob das auch FPS oder nur heiße Luft bringt? ;D

Naja, nach unseren Erfahrungen bringt jeder Temperatur-Schritt auch automatisch einen Takt-Schritt Verbesserung. Kommst Du also jetzt von über 50 auf unter 50°, bekommst Du 15Mhz Takt dazu, oder Du verlierst den Takt nicht, weil die Graka nicht wärmer wird. So oder so. Das ist seit einigen Graka-Generationen so, und kann man auch bei der 4090 beobachten.

Kann man ja erforschen wo die Schritte bei der 4090 liegen.
Aber da geht auf jeden Fall was.

Edgecrusher86
2022-11-07, 08:55:13
Also wenn Wasser, dann Optimus. Die paar Taler mehr machen den Kohl auch nicht fett - ich würde mit 600-700€ rechnen komplett mit Porto/Zoll. ;)

Aber Wasser würde ich hier nur verbauen, wenn der Platz nicht schicken würde im Case - bei den Trümmern ist es komplett unnötig im Grunde.
Es sei denn, man spielt vielleicht immer bei 500-600W, dann mag es leiser sein...wenn die Spulen nicht rein grätschen, was ich eher glaube! :D

BlacKi
2022-11-07, 09:03:11
Flight Simulator 2020 und DCS World. DCS zum Beispiel skaliert in manchen Szenarien überhaupt nicht mehr mit dem Core. 51 FPS, egal ob 2820 Mhz oder 3 Ghz. Ziehe ich den Speicher von 21 Gbps auf 24 Gbps hoch, boom 54 FPS.danke, das ist echter content. warum macht das keiner auf youtube?


kannst gern mehr solcher beobachtungen posten.

mich würde das verhalten bei einem 200w limit interessieren. scaliert das dann genauso? und wie groß ist der unterschied?

Lawmachine79
2022-11-07, 11:45:28
Hey Leute, was für Erkenntnisse gibt es bzgl. Coil Whine/Rasseln? Ist das schlimmer geworden als bei der 3090? Habe eine 3090FE und das war für mich noch im Rahmen.

Gibt es Erkenntnisse, die diesem Thread entgegenstehen?
https://www.hardwareluxx.de/community/threads/rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

Das würde für mich heissen, Zotac nehmen, wenn man eine gewisse Wahrscheinlichkeit will, dass keine Geräuschquellen. Wobei man dann natürlich auf Byksky angewiesen ist, da Customdesign und nur Byksky bisher was für Zotac hat.

Rolsch
2022-11-07, 11:49:17
Hey Leute, was für Erkenntnisse gibt es bzgl. Coil Whine/Rasseln? Ist das schlimmer geworden als bei der 3090? Habe eine 3090FE und das war für mich noch im Rahmen.

Gibt es Erkenntnisse, die diesem Thread entgegenstehen?
https://www.hardwareluxx.de/community/threads/rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/

Das würde für mich heissen, Zotac nehmen, wenn man eine gewisse Wahrscheinlichkeit will, dass keine Geräuschquellen. Wobei man dann natürlich auf Byksky angewiesen ist, da Customdesign und nur Byksky bisher was für Zotac hat.
Also meine Zotac fiept und rasselt nicht. Meine Ohren sind allerdings nicht mehr die Jüngsten. Ist ein feines Kärtchen.

Troyan
2022-11-07, 11:49:25
Die Karten nehmen 100W mehr - also ist die Belastung auch höher.

Hatte die Palit hier und man hat es gehört. War deutlich, aber noch im Rahmen. Die Gigabyte Gaming ist deutlich leiser, aber weiterhin leicht wahrnehmbar.

Sardaukar.nsn
2022-11-07, 11:55:18
Meine ASUS TUF ist recht leise bei normalen FPS. Spulenfiepen kann man aber provozieren mit 1200 FPS im 3Dmark Test. Hier hatte ich zwei Videos verlinkt: https://www.hardwareluxx.de/community/threads/rtx-4xxx-coilwhine-fiep-rassel-thread.1324904/page-8#post-29529016

Lawmachine79
2022-11-07, 12:04:14
Die Karten nehmen 100W mehr - also ist die Belastung auch höher.

Hatte die Palit hier und man hat es gehört. War deutlich, aber noch im Rahmen. Die Gigabyte Gaming ist deutlich leiser, aber weiterhin leicht wahrnehmbar.
Bezieht sich das auf meinen Kommentar? Also dass leise Karten tendenziell mehr verbraten? Wenn ich das Powertarget runtersetze, heisst das im Umkehrschluss, dass die Wahrscheinlichkeit für "Lärm" steigt?

Troyan
2022-11-07, 12:08:34
Spulenfiepen ist die Konequenz aus hoher Belastung: Entweder hohen Frames (200FPS+) oder hoher Verbrauch hohen Frames (~100FPS).

Am Ende spielt auch das Netzteil eine Rolle. Kann niemand sagen, wie sich eine Karte bei einem verhälft.

Wuge
2022-11-07, 12:34:19
danke, das ist echter content. warum macht das keiner auf youtube?


kannst gern mehr solcher beobachtungen posten.

mich würde das verhalten bei einem 200w limit interessieren. scaliert das dann genauso? und wie groß ist der unterschied?

Danke & gerne. Aktuell stürzt die Karte immerzu ab.

DCS hat sich 380W genehmigt unter Vollast und 1.1V. PL Limitieren hab ich noch nicht ausprobiert.

PS: ist ne Zotac Airo und hat null VRM Geräusche im Normalbetrieb. Habs noch nicht mit 500FPS provoziert, weil mich das auch eigentlich nicht interessiert.

HisN
2022-11-07, 14:55:12
Hey Leute, was für Erkenntnisse gibt es bzgl. Coil Whine/Rasseln? Ist das schlimmer geworden als bei der 3090? Habe eine 3090FE und das war für mich noch im Rahmen.


Eine Woche 24/7 F@H und das Geräusch wird deutlich geringer.

MiamiNice
2022-11-07, 15:13:51
F@H nutzt Spulen ab und zerstört eure GPUs :uban::freak::biggrin:

r3ptil3
2022-11-07, 15:57:16
Ist das geil mit der Strix, 2775 Mhz durchgehend ohne einen einzigen Schwenker bei gerade mal 55° :D
... und fast unhörbar. Score war bei 37'400. Muss aber erwähnen, dass mein Win11 (22h2) meinen 5800X3D nur als 6C/12T erkennt (hatte davor den 5600 drin). Neuinstallation später.


UV nur kurz mal angefangen bei 2400 Mhz @ 850mV:
https://i.ibb.co/8dGLSyr/3dm.png
https://i.ibb.co/x2BK0wB/Temp.png

Verbrauch lag im Schnitt bei 240-250W.


Achja bezüglich Spulenfiepen:

- vorhanden, aber nicht störend, das war früher mit einigen RX 6900 XTs viel schlimmer
- mit UV ist die Karte praktisch lautlos
- Spulenfiepen hängt aber mit den FPS ab, bei 400 FPS+ wird das Spulenfiepen höher


Edit:

2500 Mhz @ 850mV scheint auch zu gehen. Ziel eigentlich schon erfüllt. Jetzt gehts mit der Spannung noch weiter runter.

Kriegsgeier
2022-11-07, 18:35:26
da bin ich mit meiner 3090 ganz schön neidisch :(

r3ptil3
2022-11-07, 19:15:22
Gefällt mir definitiv:

2685 mhz @ 900mV , in dem Test nicht mal 300W
Man achte auf die Temps (47° :D, man hört nix) und es handelt sich dabei um ein vollständig geschlossenes Gehäuse mit Lüftern @ max. 700 Rpm.

https://i.ibb.co/Nx5dRvx/image.png
https://i.ibb.co/0DTLjYY/image.png


Edit:
TimeSpy Extreme kratzt doch gelegentlich an der 300W Marke:
https://i.ibb.co/xhJ2GXD/image.png

mironicus
2022-11-07, 20:25:24
Kennt jemand den Unterschied zwischen der TUF 4090 und der OC-Version? Die OC-Version ist nämlich 250 Euro teurer. Bei der Strix 4090 gibt es auch zwei Versionen und da beträgt der Preisunterschied nur 13 Euro im Asus Webshop.

Bei dem Preisunterschied bei der TUF sollte es theoretisch Unterschiede bei der Platine und den Bauteilen geben.

Wuge
2022-11-07, 20:34:45
Hardware identisch, BIOS halt ein anderes. ASUS hat keine Lust Karten für 1949 EUR zu verkaufen, müssen se aber. Also gibts für die Pflicht die normale TUF und in Wirklichkeit und Menge wird die OC Variante verkauft.

Linmoum
2022-11-07, 20:50:48
@bardh

Probier mal The Division 2, da musste ich ein gutes Stück mit der Spannung hoch, damit es stabil läuft. IMO einer der Worst Cases, wenn man OC/UV auf Spielestabilität testen will. Wenn man da keine Probleme hat, ist man nahezu sicher.

r3ptil3
2022-11-07, 20:55:33
@bardh

Probier mal The Division 2, da musste ich ein gutes Stück mit der Spannung hoch, damit es stabil läuft. IMO einer der Worst Cases, wenn man OC/UV auf Spielestabilität testen will. Wenn man da keine Probleme hat, ist man nahezu sicher.

Interessant, danke für den Hinweis.
Muss mal schauen ob ich das Spiel irgendwo schon habe.

Ist da ein Benchmark integriert?

Ist der 3D Mark Time Spy Extreme Stresstest mit 19 Durchgängen also nicht ganz so verlässlich?

HisN
2022-11-07, 21:13:51
Division 2 hat einen internen Bench.

Sardaukar.nsn
2022-11-07, 21:14:36
Hardware identisch, BIOS halt ein anderes. ASUS hat keine Lust Karten für 1949 EUR zu verkaufen, müssen se aber. Also gibts für die Pflicht die normale TUF und in Wirklichkeit und Menge wird die OC Variante verkauft.

Ich habe ja eine TUF Non-OC die aus dem Asus Webshop kam. Die läuft genau so gut/schlecht wie eine TUF OC oder Strix. Boost mit OC leicht über 3GHz und Ram +1500mhz wie eigentlich alle 4090er.
So im freien Handel habe ich aber noch keine gesehen. Könnte mir auch vorstellen das die Stückzahlen sehr gering sind.

EDIT sehe gerade das heute wohl was verfügbar war: https://www.hardwareluxx.de/community/threads/rtx-4090-gpu-verf%C3%BCgbarkeitshinweise.1324038/page-26#post-29543857

dargo
2022-11-08, 07:03:26
tYzJf71WUcM

Niall
2022-11-08, 07:43:44
Kann das Video gerade nicht ansehen, aber hieß es nicht das EVGA die RTX 4XXX Serie schon gar nicht mehr fährt? :confused:

dildo4u
2022-11-08, 07:45:09
Kann das Video gerade nicht ansehen, aber hieß es nicht das EVGA die RTX 4XXX Serie schon gar nicht mehr fährt? :confused:
Das sind Engineering Samples.
Die Karten waren geplant und man hat die Entscheidung sich zu verabschieden relativ spät getroffen.

Badesalz
2022-11-08, 08:13:57
Da hat uns der Wallossek aber schön einen vom Pferd erzählt...
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/16-Pin-Stromadapter-Schmilzt-Natives-ATX-3-0-Netzteil-1406768/

Nun ist 08.11.2022. Hat Nvidia wirklich noch NICHTS dazu gesagt?? :|

Rolsch
2022-11-08, 08:19:40
Da hat uns der Wallossek aber schön einen vom Pferd erzählt...
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/16-Pin-Stromadapter-Schmilzt-Natives-ATX-3-0-Netzteil-1406768/

Nun ist 08.11.2022. Hat Nvidia wirklich noch NICHTS dazu gesagt?? :|
Nein. Scheinen auch nur bestimmte MSI/Asus/Gigabyte Designs betroffen zu sein. Die Karten von PC-Partner (Zotac, Innotec..) tauchen laut Reddit Liste gar nicht auf.


https://www.reddit.com/r/nvidia/comments/ydh1mh/16_pins_adapter_megathread/

Niall
2022-11-08, 08:29:18
Das sind Engineering Samples.
Die Karten waren geplant und man hat die Entscheidung sich zu verabschieden relativ spät getroffen.


Dank' Dir!

Badesalz
2022-11-08, 08:38:41
Nein. Scheinen auch nur bestimmte MSI/Asus/Gigabyte Designs betroffen zu sein. Die Karten von PC-Partner (Zotac, Innotec..) tauchen laut Reddit Liste gar nicht auf.Es müsste sich doch langsam klären an was das nun liegt :confused: Das wird doch nicht ein Mysterium bleiben bis die RT50 raus sind?

Jetzt soll das weder an den Adaptern noch an Netzteilen liegen, sondern an den (manchen) Grakas selbst?

Niall
2022-11-08, 08:41:58
Da hat uns der Wallossek aber schön einen vom Pferd erzählt...

Warum? Die NV-Adapter sind konstruktiv mit der Löt-Geschichte doch unterirdisch - egal in welcher Ausführung - da sind sich doch alle einig. :confused:
Nur weil die Kabel, oder das Kabel auch wegschmort, sind die Adapter ja nicht besser. :freak:

Viel schlimmer finde ich, dass ich NV noch immer nicht dazu geäußert hat.

unl34shed
2022-11-08, 08:42:11
Nutzen die Karten mit dem Fehler das Referenz Layout oder ist das eher bei PC-Partner der Fall? Gibt es da einen Zusammenhang?

Crazy_Chris
2022-11-08, 08:42:40
Da hat uns der Wallossek aber schön einen vom Pferd erzählt...
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/16-Pin-Stromadapter-Schmilzt-Natives-ATX-3-0-Netzteil-1406768/

Nun ist 08.11.2022. Hat Nvidia wirklich noch NICHTS dazu gesagt?? :|

Warum? Er hatte doch mit seiner Analyse vollkommen recht. Wer sagt denn das einige der "nativen" Stecker nicht auch so schlampig verarbeitet sind. Pfusch bei so hoher Stromstärke kann nunmal leicht zu Schäden führen.

Rolsch
2022-11-08, 08:47:55
Irgendwo hab ich gelesen dass PC Partner(China) ein eigenes Design hat das in Südkorea entwickelt wurde.
Nvidia mit Referenddesign tauch ja in der Liste auch nicht auf.
Zusammnhang zwischen Asus/Gigabyte/MSI Design wäre interessant, alles Taiwanesische Firmen oder?

unl34shed
2022-11-08, 09:02:22
Die FE ist nicht das Referenzdesign, es gibt von Nvidia ein rechteckiges PCB, das als Referenz dient.

mironicus
2022-11-08, 09:26:46
Wie ist eigentlich der "Board Power Draw" bei eurer RTX 4090 beim Nichtstun?

Ich habe gestern das neueste Bios-Update für die Asus TUF 4090 installiert. Beim Nichtstun sinkt der Verbrauch auf unter 10 Watt. Zumindest zeigt mir das GPU-Z unter "Board Power Draw" an. Teilweise fällt der Verbrauch sogar auf 8 Watt.

Bei Computerbase beträgt der Idle-Verbrauch der TUF noch 24 Watt.

Rolsch
2022-11-08, 09:30:40
Wie ist eigentlich der "Board Power Draw" bei eurer RTX 4090 beim Nichtstun?

Zotac Board Power Draw = 13 Watt idle. (Mit HAGS enabled, ka ob das was ausmacht.)

Radeonfreak
2022-11-08, 09:34:32
15.5W

MiamiNice
2022-11-08, 09:45:31
:crazy:

Cubitus
2022-11-08, 10:24:55
meine Suprim nimmt sich 20-25 Watt.

Troyan
2022-11-08, 10:29:38
Wie ist eigentlich der "Board Power Draw" bei eurer RTX 4090 beim Nichtstun?

Ich habe gestern das neueste Bios-Update für die Asus TUF 4090 installiert. Beim Nichtstun sinkt der Verbrauch auf unter 10 Watt. Zumindest zeigt mir das GPU-Z unter "Board Power Draw" an. Teilweise fällt der Verbrauch sogar auf 8 Watt.

Bei Computerbase beträgt der Idle-Verbrauch der TUF noch 24 Watt.

Auflösung? Hz? Je höher die Auflösung und je höher die Hz, umso höher der Verbrauch. Oh und LED-Beleuchtung. Machte bei der Palit 5W+ aus. :eek:

Slipknot79
2022-11-08, 11:47:00
Die FE ballert hier mit ca. 19W, 2 Monitore on, 144Hz+60Hz.

ChaosTM
2022-11-08, 12:09:39
Dual Monitor kosten meist vergleichsweise viel. 20 Watt für 2 ist noch im Rahmen für so ein dickes Ding :)

r3ptil3
2022-11-08, 12:11:47
Wie ist eigentlich der "Board Power Draw" bei eurer RTX 4090 beim Nichtstun?

Ich habe gestern das neueste Bios-Update für die Asus TUF 4090 installiert. Beim Nichtstun sinkt der Verbrauch auf unter 10 Watt. Zumindest zeigt mir das GPU-Z unter "Board Power Draw" an. Teilweise fällt der Verbrauch sogar auf 8 Watt.

Bei Computerbase beträgt der Idle-Verbrauch der TUF noch 24 Watt.

Hab auch das BIOS-Update auf der Strix gemacht:

Tiefster Wert: 10.7 Watt
Sobald man da was am Desktop macht, springt der Verbrauch auf 15-20W.

mironicus
2022-11-08, 12:14:49
Ich habe per HDMI ein 4K60-Display angeschlossen (genau wie beim Computerbase-Test) und alle LEDs sind aus, daher wohl auch die 8 Watt. :)

MiamiNice
2022-11-08, 12:17:12
Oh und LED-Beleuchtung. Machte bei der Palit 5W+ aus. :eek:

Aber wenn Du die LED Dinger abschaltest hat die Karte doch nur noch um 20% Leistung. Kannst Du doch nicht machen, Junge ;D

ChaosTM
2022-11-08, 12:18:32
Wenn die LEDs 2-3 Watt brauchen ist das schon sehr hoch angesetzt. Selbst wenn der ganze PC ein Christbaum ist, kommst kaum über 10.

MiamiNice
2022-11-08, 12:22:19
Ik, die Lüfter nuckeln deutlich mehr an der TDP als LEDs. Aber über Kirmes Kisten kann man sich so schön lustig machen :smile:

ChaosTM
2022-11-08, 12:28:02
Geschmäcker sind verschieden. Bei einem Geschlossenen Gehäuse ist der Sinn halt eher begrenzt.
Kann schon sehr nett ausschauen, zb in Verbindung mit einer "echten" Wakü und leuchtenden Röhren. :)

r3ptil3
2022-11-08, 12:32:37
Finde ich auch, gut platzierte und relativ dezente LEDs können wirklich schick sein.

Hier kommt meiner Meinung nach nichts an das Kühlerdesign/LEDs der Strix RTX 3080/3090 ran, auch wenn vielleicht relativ stark.

https://dlcdnwebimgs.asus.com/files/media/E0ED1B22-2AF0-40D6-AE12-3D981D5D774D/img/img_front.png

MiamiNice
2022-11-08, 12:57:01
Ich war froh als der Block für die 3090 Strix endlich da war und ich die Kiddy Beleuchtung runter reißen konnte. In der Wohnung habe ich auch LEDs, ganze Wohnung farblich per Sprache steuerbar, aber Leute, das ist nen PC. Der muss Leistung bringen. Für Stimmung gibt es Hue und tausend andere Dinge, die auch viel geiler leuchten. Ein PC der leuchtet lenkt maximal vom Spiel ab, wenn er auf dem Tisch steht. Wenn er unter dem Tisch steht wird es noch sinnloser da das RGB an der TDP nuckelt und man nicht mal etwas davon sieht :biggrin:

Sorry, aber jemand der seinen PC beleuchtet, hat irgendwo bzw. irgendwann mal den Knall nicht gehört. Eventuell hat er auch nach dem PC nicht mehr genug Moos über um sich über eine richtige Raumbeleuchtung Gedanken machen zu können, ich weiß es nicht. In dem Fall würde ich aber empfehlen den PC bissel kleiner zu kaufen - ist nur ein Hobby, darin lebt man nicht :D

PS: Ganz verrückt empfinde ich Posts über Idle Verbräuche von 8 Watt 50 - während die Reklametafeln auf den GPUs volle Kanne strahlen. Da wären auch 7 Watt 50 ohne RGB drin - aber dann leuchtet die Kiste halt nicht mehr. Da hört es aber mit dem Strom sparen auf ;)

Cubitus
2022-11-08, 13:10:43
PS: Ganz verrückt empfinde ich Posts über Idle Verbräuche von 8 Watt 50 - während die Reklametafeln auf den GPUs volle Kanne strahlen. Da wären auch 7 Watt 50 ohne RGB drin - aber dann leuchtet die Kiste halt nicht mehr. Da hört es aber mit dem Strom sparen auf ;)

Ist halt Geschmacksache, ich muss sagen ich spiele mit RGB Unterstützung.
Plaque Tale, Metro, Devision oder Chernobylite z.B nutzen großartige Effekte was noch bisschen mehr an immersion gibt.

Lüfter, GPU(Bracket) Tastatur und die LED-Ständer hinterm Monitor runden eben die Szene ab.
Im Desktop hast dann ne Kirmes-Bude. Farben machen glücklich, ist wissenschaftlich erwiesen ;D

Verbrauch bei LED ist gegenüber dem was GPUs und CPUs schlucken zu vernachlässigen.

Edgecrusher86
2022-11-08, 13:30:40
Es ist immer wieder erstaunlich, wie effizient Ada arbeiten kann - hier am Praxisbeispiel Assetto Corsa @ 5160x2160 DL-DSR 4xMS + Ultra @ 58 fps Ca => 115W @ -500/500 MHz Offset:

https://abload.de/img/acs_2022_11_08_12_41_9xfak.png

Cubitus
2022-11-08, 13:35:18
Es ist immer wieder erstaunlich, wie effizient Ada arbeiten kann - hier am Praxisbeispiel Assetto Corsa @ 5160x2160 DL-DSR 4xMS + Ultra @ 58 fps Ca => 115W @ -500/500 MHz Offset:

https://abload.de/img/acs_2022_11_08_12_41_9xfak.png

Joa warte mal ab wenn die AMD-Möhren kommen.
Reichen auch unter 300 Watt aus um eine "effiziente" AMD Karte mit unter 300 Watt ziemlich blöd dar stehen zu lassen ;D

r3ptil3
2022-11-08, 13:48:53
Ich war froh als der Block für die 3090 Strix endlich da war und ich die Kiddy Beleuchtung runter reißen konnte. In der Wohnung habe ich auch LEDs, ganze Wohnung farblich per Sprache steuerbar, aber Leute, das ist nen PC. Der muss Leistung bringen. Für Stimmung gibt es Hue und tausend andere Dinge, die auch viel geiler leuchten. Ein PC der leuchtet lenkt maximal vom Spiel ab, wenn er auf dem Tisch steht. Wenn er unter dem Tisch steht wird es noch sinnloser da das RGB an der TDP nuckelt und man nicht mal etwas davon sieht :biggrin:

Sorry, aber jemand der seinen PC beleuchtet, hat irgendwo bzw. irgendwann mal den Knall nicht gehört. Eventuell hat er auch nach dem PC nicht mehr genug Moos über um sich über eine richtige Raumbeleuchtung Gedanken machen zu können, ich weiß es nicht. In dem Fall würde ich aber empfehlen den PC bissel kleiner zu kaufen - ist nur ein Hobby, darin lebt man nicht :D



Habe ich bis etwa 2018 genau so gesehen, alles was irgendwie leuchtete, sofort versucht alles auszuschalten. Die letzten Jahre jedoch habe ich Gefallen gefunden an der Beleuchtung im PC.

Ist also alles sowieso Ansichtssache, da gibts kein richtig oder falsch, auch wenn man gerade von seiner Meinung überzeugt ist.

SamLombardo
2022-11-08, 13:52:44
Ich habe bei meiner Palit das Disco BlingBling gar nicht erst angeschlossen. Habe eh ein geschlossenes Gehäuse, insofern.....

Megamember
2022-11-08, 16:39:22
EVGA hat Jay ihren Prototyp 4090 geschickt:

PZ1Kf9PaTr4

mit Stromstecker an der korrekten Stelle! Warum machen die anderen Hersteller sowas nicht?

Troyan
2022-11-08, 16:44:01
Weil die dafür kürzere Karten bauen müssten.

Megamember
2022-11-08, 16:50:58
Weil die dafür kürzere Karten bauen müssten.

Was ja scheinbar problemlos möglich ist.