PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17

FastAndy
2022-10-13, 13:08:16
Mindfactory hat innerhalb 30 min 600 suprime X 4090 verkauft. Wo sind eigentlich die leute, die meinten die karten seien ja so VIEL zu teuer;D

PHuV
2022-10-13, 13:09:39
Mindfactory hat innerhalb 30 min 600 suprime X 4090 verkauft. Wo sind eigentlich die leute, die meinten die karten seien ja so VIEL zu teuer;D
Woher hast Du die Zahlen?

MiamiNice
2022-10-13, 13:09:49
Mindfactory hat innerhalb 30 min 600 suprime X 4090 verkauft. Wo sind eigentlich die leute, die meinten die karten seien ja so VIEL zu teuer;D

Die suchen gerade nach günstigen AM5 Boards ;)

dreas
2022-10-13, 13:14:46
Wo sind eigentlich die leute, die meinten die karten seien ja so VIEL zu teuer;D

Hier.
Ein paar Fans machen nicht den Gesamtmarkt aus.
Der Erfolg wird sich an den Mittelklassekarten 4060-4080 ablesen lassen.

Schaun mer mal was Team rot bietet.

Kriegsgeier
2022-10-13, 13:14:49
Aha:
"13.10.2022 um 11:41 Uhr von Oliver Jäger - Ein Leaker aus China behauptet, dass in der zweiten Dezemberhälfte dieses Jahres zwei Grafikkarten der neuen RDNA-3-GPU-Architektur von AMD veröffentlicht werden. Es handele sich dabei um zwei Flaggschiffe, die aber in puncto Raytracing und Rasterisierung gegen Ada-Lovelace zurückstecken müssen."

Quelle: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-RDNA-3-Release-Leak-1405210/

FastAndy
2022-10-13, 13:19:13
Telefonat mit MF:smile:

Hier.
Ein paar Fans machen nicht den Gesamtmarkt aus.darum geht's nicht sondern das NV alles richtig gemacht hat für den launch.
gab ja einige stimmen die meinten, keiner kauft eine 2k karte, viel zu teuer, nv verschätzt sich, die haben keine ahnung vom markt blablablub:smile:
es wurden zig tausende karten verkauft, die karte ist mega eingeschlagen und mal wieder ein beweis, wie falsch einige "experten" in foren so liegen. hat mit der realen welt nicht viel gemein;)

PHuV
2022-10-13, 13:21:42
Aha:
"13.10.2022 um 11:41 Uhr von Oliver Jäger - Ein Leaker aus China behauptet, dass in der zweiten Dezemberhälfte dieses Jahres zwei Grafikkarten der neuen RDNA-3-GPU-Architektur von AMD veröffentlicht werden. Es handele sich dabei um zwei Flaggschiffe, die aber in puncto Raytracing und Rasterisierung gegen Ada-Lovelace zurückstecken müssen."

Quelle: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-RDNA-3-Release-Leak-1405210/

Igor hat es ja auch schon angedeutet:
https://www.igorslab.de/nvidia-gefo...herkommt-und-warum-die-karten-so-riesig-sind/
Ich maße mir nicht an, AMDs nächste Generation wirklich einschätzen zu können, aber nach allen vorliegenden Informationen dürfte es mit den älteren Nodes kaum möglich sein, die angestrebte Leistungsaufnahme zu schaffen UND die Performance so zu steigern, wie es NVIDIA dank TSMC vielleicht geschafft haben könnte.
Telefonat mit MF:smile:

darum geht's nicht sondern das NV alles richtig gemacht hat für den launch.
gab ja einige stimmen die meinten, keiner kauft eine 2k karte, viel zu teuer, nv verschätzt sich, die haben keine ahnung vom markt blablablub:smile:
es wurden zig tausende karten verkauft, die karte ist mega eingeschlagen und mal wieder ein beweis, wie falsch einige "experten" in foren so liegen. hat mit der realen welt nicht viel gemein;)
Eben. Ich bin ja seit Jahren schon immer einer der ersten seit der Voodoo, und jedesmal bei fast jedem Release immer das gleiche Spiel. Ich bin ja mehr in einem anderen Forum unterwegs, wo ich schon mehrfach (wie bei Ampere) prognostizierte, daß die Dinger weggehen wie warme Semmeln, und ich hatte Recht. Das es bei Ampere dann so schlimm wurde, war aufgrund des ganzen Mining Hypes nicht abzusehen. Und wie man es nun mit Ada und der 4090 sehen kann, die Karte scheint es den Leuten wert zu sein.

Gestern waren aber bei Caseking nur 7 Leute wartend gesessen, bei Ampere und der 3090 waren es damals 13.

BTW habe ich heute bei NBB endlich eine 3060 TI FE bekommen. Oh Wunder, nach 2 Jahren, die ist für mein Anwendungsrechner gedacht, so daß ich die 960 2GB endlich ausmustern kann. Die 3090 FE wird dann in Sohnemanns PC verbaut.

MiamiNice
2022-10-13, 13:23:30
Aha:
"13.10.2022 um 11:41 Uhr von Oliver Jäger - Ein Leaker aus China behauptet, dass in der zweiten Dezemberhälfte dieses Jahres zwei Grafikkarten der neuen RDNA-3-GPU-Architektur von AMD veröffentlicht werden. Es handele sich dabei um zwei Flaggschiffe, die aber in puncto Raytracing und Rasterisierung gegen Ada-Lovelace zurückstecken müssen."

Quelle: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-RDNA-3-Release-Leak-1405210/

Wie kann es den zwei Flagschiffe geben?

Dr.Doom
2022-10-13, 13:30:23
Mindfactory hat innerhalb 30 min 600 suprime X 4090 verkauft. Wo sind eigentlich die leute, die meinten die karten seien ja so VIEL zu teuer;D
Die sind bei Ebay und betrachten die Preise, weil sie keine Karte im normalen Laden abbekommen haben. ;)

Niall
2022-10-13, 13:53:01
MF hat noch Gigabyte Karten für 2,4k€ ihr Verrückten. ;)

VooDoo7mx
2022-10-13, 14:34:02
Nur hat mich damals meine 8800Ultra 2007 nur 578 EUR (danke Amazon History :D) gekostet, das wären heutzutage gerade mal etwas unter 750 EUR.

Sorry aber das istabsolut lächerlich was du hier vergleichst.

Der NV40 war mit 287mm² ein lächerlich kleiner Chip und heutzutage bestenfalls mit einer RTX3060 vergleichbar. Selbst der AD104 der 4080 12GB ist gigantisch dagegen.

Zusätzlich haben sie die Waferkosten bei TSMC zu 2004 wohl pro mm² verzigfacht würde mich nicht wundern wenn es das 10fach von 2004 oder noch mehr ist.

Desweiteren ist das Platinendesign, Platinenlagen, Bauteile für Strom und Spannungsversorgung auch deutlich hochwertiget und zig mal komplexer als bei jeder Grafikkarte aus diesen Zeitraum.

Der kühlkörper einer 6800 ist lächerlich billig undf simpel ggü. einer aktuellen Grafikkarte. Von Materialkosten brauch man gar nicht erst anfangen.

Dann kommt noch der schwache Euro dazu. Zum Launch der 6800 Ultra war der Kurs bei $1,20 je Euro, heute sind wir bei $0,97
2004 war auch die Mehrwertsteuer geringer als heute.

Zusätzlich weltweit enorm gestiegene Kosten für Produktion und Transport.

unl34shed
2022-10-13, 14:42:56
Der NV40 war mit 287mm² ein lächerlich kleiner Chip und heutzutage bestenfalls mit einer RTX3060 vergleichbar. Selbst der AD104 der 4080 12GB ist gigantisch dagegen.

Ja, mit 295mm² ganze 8mm² größer... gigantisch

E: wie man das mit GA106 vergleichen kann, der mit 276mm² sogar 11mm² kleiner als NV40 ist. NV40 ist nach der gleiche Metrik also gigantisch....

Badesalz
2022-10-13, 14:46:32
4090: 83TFLOPs
8800GTX: 0,356 TFLOPs.

DIe 4090 hat 233x mehr Rechenleistung für den 3,3x Preis.

PS3 hat theoretisch 0,192 TFLOPs erreicht. PS5 liegt bei 10 TFLOPs.

Sieht identisch aus...Kannst du bitte die Rechnung nochmal ausschreiben? Ich kam voll durcheinander.

aufkrawall
2022-10-13, 15:08:59
Paar Worte zur TUF nach ein paar Minuten Eindruck: Lautstärke und Temps quasi genau wie 3060 TUF, 1000rpm <60°C bei 900mV -100MHz (noch nicht getestet, ob auch Stock Clocks damit stabil wären). Leider auch Spulenfiepen wie gewohnt, ohne UV schon arg fies. Wurd bei der 3060 aber mit der Zeit noch leiser. Der Verbrauch ist ein Knüller, ca. 100W weniger (~340W Dying Light 2 RT) als die 3080 mit der gleichen Spannung bei mehr als doppelter Performance. :eek: Zum Klang der Lüfter kann ich noch nicht viel sagen, weil das Spulenfiepen lauter ist. :freak: Aber vermutlich laufen die genauso astrein wie bei der 3060.
Dying Light 2 läuft quasi als einziges Spiel mit dem Ryzen 5500 in 4k im GPU-Limit, sogar mit Quality Upsampling bei ~120fps. ;D

Lurtz
2022-10-13, 15:18:17
Warum kauft eigentlich dein Bruder die ganze tolle Hardware und du nur die Billo-Varianten? :D

Cubitus
2022-10-13, 15:20:22
Aha:
"13.10.2022 um 11:41 Uhr von Oliver Jäger - Ein Leaker aus China behauptet, dass in der zweiten Dezemberhälfte dieses Jahres zwei Grafikkarten der neuen RDNA-3-GPU-Architektur von AMD veröffentlicht werden. Es handele sich dabei um zwei Flaggschiffe, die aber in puncto Raytracing und Rasterisierung gegen Ada-Lovelace zurückstecken müssen."

Quelle: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-RDNA-3-Release-Leak-1405210/


Ich hab die letzen Wochen schon gesagt:

Die neue Nvidia Gen wird in 4k am CPU Limit nukeln.. --> da wurde gelacht

Ich hab gesagt das die Karte brutal effizient sein wird --> da wurde gelacht und abgewunken
Nee achwas 600 Watt und bla 3 GHz bei 450 so ein Heizofen

Als ich dann sagte das Nvidia mit der kleinen 104er und den 103 den Rahmen um AMDs Hals zieht wurde ich als Fanboy abgetan..

Komm mir langsam vor wie Cassandra aus der griechischen Mythologie xD

Nvidia weiß schon ziemlich genau was AMD bringen wird und haben sich dementsprechend positioniert.. siehe 4080 12GB

BigKid
2022-10-13, 15:40:39
Ich denke wir sehen hier einfach den Abstiegssaufschrei eines Teils der Mittelschicht…
Die Spaltung der Gesellschaft schreitet weiter voran und die Firmen überlegen sich wo sie sich plazieren wollen… und alle wollen ins high end… Lieber dicke Marge und kleinere Stückzahlen…
Vernünftige Mittelklasse-Ware wird rar - Entweder billig Schrott (mit hübscherer Bemahlung als noch billiger Schrott) oder Sauteuer - dazwischen sehe ich immer weniger Produkte…
Stört mich das ? Massiv ! Verstehe ich jeden der jetzt Aufschreit: Ja…
Die Spaltung der Gesellschaft geht immer weiter und breitet sich halt langsam in alle Bereiche des Lebens aus…
Aber ganz ehrlich: Solange selbst die die schreien nach wie vor die Mär vom ewigen Wachstum brav kapitalismusgläubig schlucken… warum soll ich mir da nicht mal was leisten solange ich noch kann?
Habe vor ein paar Jahren mit nem Jobwechsel ins Ausland alles richtig gemacht und Glück gehabt… Kann sich jederzeiz ändern…

Daredevil
2022-10-13, 16:07:46
Ich glaube es geht einfach darum, dass manche hier manche Empörung breittreten und Sätze fallen wie "Wer soll sich das denn leisten????", während andere hier mehrere Bestellen und schauen, welche von den Karten die schnellste ist. Nur weil man selber persönlich nicht in der Lage ist, 2k für ne GPU ins Universum zu pumpen, heißt das nicht, dass andere dafür nicht sparen müssen. Der Tellerrand ist eine wunderbare Sache, wo man gerne mal drüber schauen kann.

Vor nicht mal einem Jahr war der Preis für ne 3090 Standard bei 2k+, da ist diese künstliche Empörung einfach kindisch. Da gebe ich PhuV schon recht. In einem Porsche Thread will man nicht alle 2-3 Posts lesen, dass ein Golf auf der Autobahn auch nur 100 fahren kann, in einem Luxusuhren Thread interessiert es niemandem, das deine 90er Swatch auch die Zeit richtig anzeigt und in einem REVIEW THREAD sind Preisfragen schlicht irrelevant.

Jeremy Fragrance hat hier den passenden Tipp für alle, die sich "ohnmächtig" fühlen wegen der Preise einer Karte, die sie nicht benötigen, weil sie kein Geld für einen Bildschirm haben, den diese Karte überhaupt ausreizt.
XMHGavpND8o

GaLiGrü

aufkrawall
2022-10-13, 16:10:52
Warum kauft eigentlich dein Bruder die ganze tolle Hardware und du nur die Billo-Varianten? :D
Tja, für so etwas hockt man dann wohl auf der Firma und fadet away. :redface:

Lyka
2022-10-13, 16:13:43
Wenn ihr Preisphilosophien und persönliche Finanzen diskutieren wollt, macht dazu einen eigenen Thread. Das ist der REVIEW-THREAD.

Niall
2022-10-13, 16:22:51
Kann es sein dass es noch nicht einen Wasserkühler lieferbar gibt? Das wäre ja nix für mich hier mindestens einen Monat überbrücken zu müssen und den Mo-Ra der CPU zu überlassen. :D

Lehdro
2022-10-13, 16:26:29
Generell kann der ganze "Ich habe Karte xyz gekauft"-Spam hier auch raus.

Hier mal etwas relevantes:
CB hat den neuen Treiber für die RTX 3000er getestet. (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_der_geforce_52225_beschleunigt_die_geforce_rtx_3000_deutlich_update)
Die RTX 4090 und die RTX 3090 Ti rücken etwas näher zusammen
In 3.840 × 2.160 kann die GeForce RTX 3090 Ti mit dem GeForce 522.25 bei den AVG-FPS im Durchschnitt um 4 Prozent zulegen, bei den Perzentil-FPS sind es ebenso 4 Prozent. Damit reduziert sich der Vorsprung der GeForce RTX 4090 bei dieser Messreihe von 65 sowie 60 Prozent auf 60 und 54 Prozent.

Bei den Raytracing-Spielen gibt es ein Leistungsplus von 2 und 5 Prozent. Damit reduziert sich die Differenz zwischen den zwei Flaggschiff-Modelle von 69 sowie 70 Prozent auf 65 sowie 62 Prozent.

Alex1973
2022-10-13, 16:31:13
Ja die Karte ist sehr teuer, ich würde diesen Preis persönlich nie zahlen, aber jemand muss die Entwicklung solcher Technologie sowieso finanzieren. Ohne viel Geld wäre NVIDIA mit viel langsameren Produkten unterwegs und Fortschritt wäre deutlich langsamer, wie schon heute das daruaf hinaus läuft.
Aber in paar Jahren kriegt man diese Leistung für paar hundert Euro hinterher geworfen. Dann schlage ich zu und verkaufe meine Xbox series x.

fondness
2022-10-13, 16:35:27
Generell kann der ganze "Ich habe Karte xyz gekauft"-Spam hier auch raus.

Hier mal etwas relevantes:
CB hat den neuen Treiber für die RTX 3000er getestet. (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_der_geforce_52225_beschleunigt_die_geforce_rtx_3000_deutlich_update)

Maketingtechnisch auch nicht ungeschickt gemacht, zum Launch noch deutliche Performaceverbesserungen mit dem Treiber zu bringen. Bedeutet aber natürlich, dass das Leistungsplus kleiner ist als bei den Reviews gemessen.

arcanum
2022-10-13, 16:49:45
Generell kann der ganze "Ich habe Karte xyz gekauft"-Spam hier auch raus.

Hier mal etwas relevantes:
CB hat den neuen Treiber für die RTX 3000er getestet. (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_der_geforce_52225_beschleunigt_die_geforce_rtx_3000_deutlich_update)

Maketingtechnisch auch nicht ungeschickt gemacht, zum Launch noch deutliche Performaceverbesserungen mit dem Treiber zu bringen. Bedeutet aber natürlich, dass das Leistungsplus kleiner ist als bei den Reviews gemessen.

das ist wohl eindeutig kalkül und da bereits fleißig tests mit den neuen treibern rausgehauen werden, gab es da mit großer sicherheit auch vorgaben von nvidia bzw. wurde zeitlich alles so eingefädelt, dass genau dieser bessere ersteindruck entsteht - ich glaube nämlich nicht, dass die optimierungen die zu dem boost führen sich zwischen ampere und ada unterscheiden. zumindest mit der 4090 hat man gut geliefert aber subjektiv sind deren praktiken nur noch unlauter.

Linmoum
2022-10-13, 16:52:49
Weiß immer noch nicht, wo ich morgen anfangen soll. Gibt so viel zum nachholen und das jetzt absolut sauber und flüssig in UHD/5K und max. Settings und das zu 95% sogar mit RT. Und für den Fall der Fälle dann ggf. noch DLSS.

Weiß nicht, wann ich zuletzt so begeistert war. Kann auch sein, dass ich seit 5 Jahren UHD-Monitore/TVs nutze und jetzt zum ersten Mal der Punkt gekommen ist, wo ich keine Abstriche bei der Performance mehr machen muss. ;D

gbm31
2022-10-13, 17:05:14
Wurde hier nach VR Benches gefragt?
https://babeltechreviews.com/rtx-4090-performance-45-games-vr-pro-apps-benchmarked/4/

Danke! Nur mit der Index aber sie testen die G2 nach. Geht ordentlich was.

Wobei DLSS3 in VR echt kontraproduktiv ist, der selbe Scheiss wie ASW, Motion Reprojection und wie sie die Krücke auch sonst noch nennen.

Alex1973
2022-10-13, 17:11:28
Weiß immer noch nicht, wo ich morgen anfangen soll. Gibt so viel zum nachholen und das jetzt absolut sauber und flüssig in UHD/5K und max. Settings und das zu 95% sogar mit RT. Und für den Fall der Fälle dann ggf. noch DLSS.

Weiß nicht, wann ich zuletzt so begeistert war. Kann auch sein, dass ich seit 5 Jahren UHD-Monitore/TVs nutze und jetzt zum ersten Mal der Punkt gekommen ist, wo ich keine Abstriche bei der Performance mehr machen muss. ;D

Ich hab mir vor Jahren die Leistung einer RTX 2080 Ti für etwa 250 Euro gekauft, das fühlt sich fast so wie Freibier an und das ist auch ein sehr geiles Gefühl.;D Flugsi
FS 2020 in 4k bei xbox Game Pass geht gut.

Thunderburne
2022-10-13, 17:14:17
Heute die Aorus Master geschossen bin Total happy.

Inquisitor
2022-10-13, 17:35:41
Heute also die MSI bei Alternate geholt und jetzt eingebaut.

Was für ein BROCKEN :biggrin:... (Die alte 3080 wirkt winzig dagegen.)

Mit der Stützblech drunter blockiert das ging quasi alle Slots des PCs^^ Bis ich erst mal kapiert habe, wo und wie das Blech angebracht werden muss. Ist keine Anleitung dabei... Finde ich aber smarter als die vertikalen Ständer, zumindest wenn man sonst eh keine Karten einbauen möchte.

Die Leistung ist brachial... FS 2020 VR mit 1,5facher Renderauflösung der Quest 2 und allem auf Ultra/max packt die Karte fast schon flüssig^^ Die 3080 hat sich da totgeruckelt bei diesen Settings.

Troyan
2022-10-13, 17:36:37
Habe die Palit eingebaut. Karte sieht top aus. Diese komische Glasdingverzierzeug macht in echt einen super Eindruck.

Lüfter sind bei 30% hörbar. Jedoch ist der Kühler so groß, dass die Karte wohl kaum über 50°C beim Idlen kommen sollte. Gerade Speed Way laufen lassen - 450W und die Karte nimmt es eher gemählich auf.

Ersteindruck: Top. Für UVP - auch so absurd es bei 1950€ klingt - echt nicht schlecht. Dazu der 4x8 PinAdapter mit allen vier Sensoren und 3 Jahre Garantie über dne Händler.

/edit:
AC:Valhalla in 3440x1440:
3090@375: 111FPS bei 366W
4080@450: 164FPS bei 285W

92% effizienter. Okay. :O

MiamiNice
2022-10-13, 17:55:26
Weiß immer noch nicht, wo ich morgen anfangen soll. Gibt so viel zum nachholen und das jetzt absolut sauber und flüssig in UHD/5K und max. Settings und das zu 95% sogar mit RT. Und für den Fall der Fälle dann ggf. noch DLSS.


Ich würde mit CP und/oder Horizon Zero Dawn beginnen.

Korvaun
2022-10-13, 17:57:44
Der neue Treiber macht jetzt bei der 4090 nicht den großen Unterschied.. anders siehts dann nächsten Monat bei den 4080ern aus. Da können nen paar % bessere Ergebnisse der 3er Serie doch problematisch werden ;)

Ex3cut3r
2022-10-13, 18:10:46
Heute also die MSI bei Alternate geholt und jetzt eingebaut.

Was für ein BROCKEN :biggrin:... (Die alte 3080 wirkt winzig dagegen.)

Mit der Stützblech drunter blockiert das ging quasi alle Slots des PCs^^ Bis ich erst mal kapiert habe, wo und wie das Blech angebracht werden muss. Ist keine Anleitung dabei... Finde ich aber smarter als die vertikalen Ständer, zumindest wenn man sonst eh keine Karten einbauen möchte.

Die Leistung ist brachial... FS 2020 VR mit 1,5facher Renderauflösung der Quest 2 und allem auf Ultra/max packt die Karte fast schon flüssig^^ Die 3080 hat sich da totgeruckelt bei diesen Settings.

Kannst du das Seitenteil/Fenster überhaupt noch schließen mit den Adapter Misch Masch? :eek:

Inquisitor
2022-10-13, 18:18:36
Kannst du das Seitenteil/Fenster überhaupt noch schließen mit den Adapter Misch Masch? :eek:

Ja doch, in der Tat geht das noch :D

Ex3cut3r
2022-10-13, 18:19:24
Ok. Dann täuscht die Perspektive. ^^

Linmoum
2022-10-13, 18:28:45
Ich würde mit CP und/oder Horizon Zero Dawn beginnen.Stehen definitiv beide auch auf der Liste. Neben gefühlten 20 anderen Spielen. :D

Hab so viel, was ich entweder bewusst ausgelassen (viel mit RT in UHD) oder nach kurzem Anspielen wieder weggelegt habe. Wahrscheinlich bräuchte ich 3 Monate Urlaub, um das alles aufholen zu können. ;D

Megamember
2022-10-13, 18:30:47
Hmm, kann ich jetzt bei den Ergebnissen nur mit den Schultern zucken. Ist stark keine Frage aber wofür? Wenns wenigstens mal ne Reihe geiler Spiele gäbe wo die Leistung auch voll benötigt wird. Mir fallen da jetzt nur MFS und Cyberpunk ein wo ich im Gegensatz zu meiner 3090 "vielleicht" ein paar Vorteile hätte. Läuft aber auch so super.
Allein bei dieser hässlichen Grösse der Karten und dem möglichen Problem mit dem neuen Stromkabel krieg ich Bauchschmerzen. Die 3090 bleibt noch ne ganze Weile drin. Leistung hab ich noch nie vermisst, hat Power ohne Ende und ich spiel ausschliesslich 4K.

sChRaNzA
2022-10-13, 18:34:54
Hmm, kann ich jetzt bei den Ergebnissen nur mit den Schultern zucken. Ist stark keine Frage aber wofür? Wenns wenigstens mal ne Reihe geiler Spiele gäbe wo die Leistung auch voll benötigt wird. Mir fallen da jetzt nur MFS und Cyberpunk ein wo ich im Gegensatz zu meiner 3090 "vielleicht" ein paar Vorteile hätte. Läuft aber auch so super.
Allein bei dieser hässlichen Grösse der Karten und dem möglichen Problem mit dem neuen Stromkabel krieg ich Bauchschmerzen. Die 3090 bleibt noch ne ganze Weile drin. Leistung hab ich noch nie vermisst, hat Power ohne Ende und ich spiel ausschliesslich 4K.

Die passenden Spiele fehlen in der Tat (noch).

Ex3cut3r
2022-10-13, 18:38:52
Sehe ich teilweise ähnlich. Dazu sind dann auch "neue" Spiele oftmals nur Remaster, die irgendwo vor 10 Jahren schon gezockt habe. Und brauchen relativ wenig Grafikpower. Seit COVID lassen "richtige" neue AAA Titeln auf sich warten.

SamLombardo
2022-10-13, 18:45:48
Habe die Palit eingebaut. Karte sieht top aus. Diese komische Glasdingverzierzeug macht in echt einen super Eindruck.

Lüfter sind bei 30% hörbar. Jedoch ist der Kühler so groß, dass die Karte wohl kaum über 50°C beim Idlen kommen sollte. Gerade Speed Way laufen lassen - 450W und die Karte nimmt es eher gemählich auf.

Ersteindruck: Top. Für UVP - auch so absurd es bei 1950€ klingt - echt nicht schlecht. Dazu der 4x8 PinAdapter mit allen vier Sensoren und 3 Jahre Garantie über dne Händler.

/edit:
AC:Valhalla in 3440x1440:
3090@375: 111FPS bei 366W
4080@450: 164FPS bei 285W

92% effizienter. Okay. :O

Klingt klasse. Viel Spaß!

Was ist denn eigentlich der Unterschied zwischen der "normalen" Palit und der OC? Hab dazu irgendwie nix gefunden.

Lehdro
2022-10-13, 19:26:31
GkUAGMYg5Lw
tldr:

DLSS 3.0 ist quasi useless wenn:

- viele UI Elemente eingeblendet sind
- Kameraschwenks/Änderungen massiv sind
- die FPS selbst mit DLSS 3.0 unter 120 bleiben (man sollte also 60 fps ohne DLSS 3.0 anpeilen)
- man (viel) Wert auf Latency legt (dann DLSS 2.x + Reflex nehmen)

DLSS 3.0 hat zudem derzeit eine schlechtere Bildquali als DLSS 2.x.

Rolsch
2022-10-13, 19:35:35
Danke! Nur mit der Index aber sie testen die G2 nach. Geht ordentlich was.

Wobei DLSS3 in VR echt kontraproduktiv ist, der selbe Scheiss wie ASW, Motion Reprojection und wie sie die Krücke auch sonst noch nennen.

Hab jetzt ein wenig im MSFS Forum gelesen und selber FSR2 im Flight Sim Beta Update 11 getestet. Von FSR2 mit VR krieg ich Zustände (Ok ist Beta) aber auch DLSS soll nicht der Bringer bei VR sein. Kann das jemand bestätigen?

Prinzenrolle
2022-10-13, 19:59:35
d wer nicht will, läßt es, ganz einfach! Mir geht diese Pseudoempörung von einigen Harzern hier echt auf den Sack!

Hab gerade mal 2000 euro netto mit der 30h Woche, habe aber in meiner Bude kaum Ausgaben, 150 Euro Hausgeld.

Sofort bestellt das Ding.🤗
Tut Mal nicht so als ob man dafür so viel Geld ausgeben müsste.

Niall
2022-10-13, 20:01:18
Was ist denn hiervon zu halten? Quatsch?

Nvidia RTX 4090 Ti Reportedly Cancelled Due to GPU Melting Power Supplies (https://gamerant.com/nvidia-rtx-4090-ti-cancelled-gpu-melting-pc-power-supplies/)

mr coffee
2022-10-13, 20:03:11
Warum bitte denn sollte die Karte schmelzen? Das kann doch nur Quatsch sein.

Lyka
2022-10-13, 20:09:00
passt eher in den ADA-Thread.

The source claimed that the RTX Titan Ada has a 600W to 700W TDP. Furthermore, this GPU model relied on a full AD102 configuration that features a twin 16 pin power connector.

Sardaukar.nsn
2022-10-13, 20:09:49
Klingt klasse. Viel Spaß!

Was ist denn eigentlich der Unterschied zwischen der "normalen" Palit und der OC? Hab dazu irgendwie nix gefunden.

Von diesen OC-Modellen halte ich herzlich wenig. Da gibt es ein leicht anders Bios mit etwas Werksübertaktung. Viel Hokuspokus und Geldmacherei für exakt die gleiche Hardware.

Zur Palit, mir gefällt die sogar. Hatte damals eine Jetstream 1080 Ti, dann Bios flash auf Super Jetstream und zum Schluss auf Gamerock. Geht alles aber die +Mhz kannst du auch einfach im Afterburner einstellen. Ansonsten tolle Karte und die viel Freude mit der Gamerock.

Prinzenrolle
2022-10-13, 20:13:48
The source claimed that the RTX Titan Ada has a 600W to 700W TDP.

Nö, nach meinem Stand gerade mal 500 Watt.

Troyan
2022-10-13, 20:14:11
Klingt klasse. Viel Spaß!

Was ist denn eigentlich der Unterschied zwischen der "normalen" Palit und der OC? Hab dazu irgendwie nix gefunden.

100MHz mehr - Rest ist identisch. Da die Karte für UVP angeboten wurde, habe ich die NonOC Bestellung storniert.

Nervig ist nur das 500W Limit. Da hätte Palit ein bisschen aggressiver sein können.

Edgecrusher86
2022-10-13, 20:15:03
YT: Don't Undervolt the RTX 4090. (https://www.youtube.com/watch?v=XrZNSTmOstI)

:confused:

Interessant...

The_Invisible
2022-10-13, 20:15:33
Was kann man eigentlich davon halten das man die 4090 nicht undervolten soll sondern nur das powerlimit ändern: https://www.reddit.com/r/nvidia/comments/y2yqxe/dont_undervolt_the_rtx_4090/

Anscheinend auch vom der8auer so gekommen :confused:

Edit: Mist, zwei Dumme ein Gedanke :D

horn 12
2022-10-13, 20:22:35
Habe die Palit eingebaut. Karte sieht top aus. Diese komische Glasdingverzierzeug macht in echt einen super Eindruck.

Lüfter sind bei 30% hörbar. Jedoch ist der Kühler so groß, dass die Karte wohl kaum über 50°C beim Idlen kommen sollte. Gerade Speed Way laufen lassen - 450W und die Karte nimmt es eher gemählich auf.

Ersteindruck: Top. Für UVP - auch so absurd es bei 1950€ klingt - echt nicht schlecht. Dazu der 4x8 PinAdapter mit allen vier Sensoren und 3 Jahre Garantie über dne Händler.

/edit:
AC:Valhalla in 3440x1440:
3090@375: 111FPS bei 366W
4080@450: 164FPS bei 285W

92% effizienter. Okay. :O


Also UltraWide mit 3440 x 1440
und hast nicht auch den Dell Alienware 3423DW

Die 4090 lässt ja vor Allem in 4K die Muskeln spielen, also wechselst in absehbarer Zeit dann erneut auf Ultra HD - aber eben dann Kein Oled mehr?

Troyan
2022-10-13, 20:29:34
Also UltraWide mit 3440 x 1440
und hast nicht auch den Dell Alienware 3423DW

Die 4090 lässt ja vor Allem in 4K die Muskeln spielen, also wechselst in absehbarer Zeit dann erneut auf Ultra HD - aber eben dann Kein Oled mehr?

Bin zufrieden. Gibt dann eben Downsampling, Raytracing und 175Hz. Und ganz nebenbei ist der Stromverbrauch noch niedriger als bei der 3090.

Der Punkt mit Teillastbetrieb ist sowieso das beste an der Karte.

horn 12
2022-10-13, 20:38:22
Wie meinst bitte Downsampling
Was stellst da ein und welche Auflösung fährst dann schlussendlich?

Troyan
2022-10-13, 21:23:26
Hab Spider-Man mit 4587x1920 (Faktor 1,78) mit DLAA und FG gezockt. Der Alienware QD-Qled benötigt mehr Hz bei HDR. :eek: :cool:

FG funktioniert ziemlich gut. Bildfehler sehe ich kaum beim normalen Sitzabstand. Die bessere Bewegtbilddarstellung ist sofort sichtbar, wenn es von 60FPS auf 120FPS springt. Latenz ist für mich nicht spürbar. Würde auch strange sein, da ich Spider-Man ohne Reflex schon gespielt habe und die Latenz somit höher war seit dem Release.

horn 12
2022-10-13, 21:43:55
Möchte da God of War Probieren auf einer 6800XT
Möglich mit FRS 2.1

VooDoo7mx
2022-10-13, 21:58:02
YT: Don't Undervolt the RTX 4090. (https://www.youtube.com/watch?v=XrZNSTmOstI)

:confused:

Interessant...

Ist nicht wirklich interessant, sondern zu erwarten, wenn man es so macht wie der Honk in dem Video.

nVidia GPUs haben 2 Clock Domains und wenn man die Kurve falsch einstellt, läuft eine Domain mit weniger Takt und schlechterer Leistung als Ergebnis.
Das hatte ich bei Pascal schon mit Hilfe eines anderen Users schon vor 6 Jahren rausgefunden und hier dokumentiert. (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892)

Damit es korrekt funktioniert:
1. Zuerst wird GPU Offset erhöht, das geht über die gesamte Taktkurve, der Kurvenverlauf bleibt gleich, nur mit mehr Takt.
2. Man markiert alle Spannungspunkte nach der gewünschten Zielspannung und zieht diese herunter, und übernimmt dies.
3. Somit bleibt der Kurvenverlauf gleich, also wird nicht steiler das ist wichtig für die Clock Domains. Nur ab der Zielspannung bleibt die Kurve waagerecht.

Linmoum
2022-10-13, 21:59:49
Zumal @Raff die 4090 ja auch @875mV hat laufen lassen via UV. Man sollte halt schon wissen, was man tut. Aber random Youtuber halt...

https://www.pcgameshardware.de/screenshots/1280x1024/2022/10/Nvidia-Geforce-RTX-4090-Founders-Edition_Uncervolting-Test_Metro-Exodus-Enhanced-Edition_Optimiert-350-Watt-pcgh.jpg

basix
2022-10-13, 22:12:14
Ich mache auch kein UV im eigentlichen Sinne. Ich mache OC via Curve Editor und reduziere dann das Power Limit. Das, zusammen mit einem Frame Limiter, ist mMn die effektivste Massnahme um die Effizienz zu erhöhen. Chip-Margins der V-f Kurve ausreizen und Power Limit auf gewünschten Wert setzen (Temperatur, Lautstärke). Die Karte boostet dabei ganz normal.

Mancko
2022-10-13, 23:14:42
Wer die Kohle hat, soll sich die Karte kaufen, no problem with that.
Allerdings das nv solche Zombies wie die 4080 12 GB schafft oder (unabhängig von der Inflation) noch einen Deppenaufschlag reinmacht, darf man ja wohl noch kritisieren ohne sich was vom Bildungsstand oder Verdienst anzuhören zu müssen.

Ist trotzdem anstrengend. Sich selber bei der Jobbewerbung oberhalb seiner Skills und Leistungsfähigkeit zu verkaufen gegenüber dem Arbeitgeber machen ja auch viele ohne mit der Wimper zu zucken. Kann sich jeder mal selber prüfen ob er dazu gehört oder nicht. Insbesondere aktuell bei der hohen Nachfrage nach Fachkräften machen das sehr viele und kommen damit durch. Warum soll es bei Firmen anders sein.

Es ist müßig sich daran abzuarbeiten. Die Produkte werden davon nicht billiger. Wenn die Produkte signifikant bzw. spürbar günstiger werden sollen, dann hilft nur eins. Zinsen rauf, saftige Rezession her und zurück zum normalen Kaufmannsverhalten wo klar sein muss, dass es im Kapitalismus immer Risiken geben muss und keinen Bail Out über die Druckerpresse geben darf, weder für Unternehmer und Arbeitsgeber noch für Arbeitnehmer. Das erzeugt erstmal mehr Arbeitslosigkeit und Leistungsdruck und damit dann eben auch in der Folge erstmal sinkender Nachfrage. Die Preise sinken dann sehr schnell wirst sehen.

Edgecrusher86
2022-10-13, 23:35:30
Gut, vielleicht auch was falsch gemacht bei UV - sofern sich da jetzt nichts vom Presse-Treiber zum Launchtreiber geändert hätte. ;)
Ich mache immer den Voltage-Lock und zieh das Offset hoch - schnell und easy (ggf. noch PT und Lüfter anpassen).
Morgen Nachmittag schaue ich es mir mal selber an. :)

Troyan
2022-10-14, 00:13:37
Übertaktungsrun in Speedway zwischen meiner 4090 und 3090:
4090@500W: 10.512
3090@375W: 5.412

94% mehr Leistung. :cool:

Mit einem höheren Powerlimit wäre wahrscheinlich auch 2x drin.

Raff
2022-10-14, 00:17:41
Übertaktungsrun in Speedway zwischen meiner 4090 und 3090:
4090@500W: 10.512
3090@375W: 5.412

94% mehr Leistung. :cool:

Mit einem höheren Powerlimit wäre wahrscheinlich auch 2x drin.

Ich habe im Speed Way mit vergleichbarem Optimierungsaufwand +70 Prozent zwischen GA102-350 und AD102-300 (FE vs. FE) erreicht: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13137929&postcount=1416

Lass mal UHD laufen, das knüppelt härter und du kriegst deine +100 %. :D

MfG
Raff

=Floi=
2022-10-14, 04:44:29
60 fps benchmarks als vergleich wäre hier mal sehenswert. Das sollte bei 60-80watt in 4k möglich sein!

Sardaukar.nsn
2022-10-14, 06:50:03
4090 = beste Öko Karte für LoL

607 FPS, 690 Mhz, 64 Watt

https://i.imgur.com/gIfuLxe.jpg

Vsync 144 FPS, 480 Mhz, 47 Watt

https://i.imgur.com/y2O7JR1.jpg

Edgecrusher86
2022-10-14, 06:57:08
Hihi. DOOM Eternal samt RT geht bestimmt auch mit deutlich unter 100W @ 4K(60) per DLSS. :D

E: Welche Auflösung fährst du? LoL läuft passiv nehme ich an? LOL ;D

E2: Albern, dass 4K nicht Standard im Speedway ist....Ein neuer 3DM muss auf den meisten Systemen zuckeln, dann ist es ein guter 3DM. :freak:
Naja, mal eingetütet für 3,99€ das Upgrade.

Dural
2022-10-14, 09:20:12
Also ich bin etwas enttäuscht von der Karte.

Die 3GHz laufen nur durch prügeln der Karte, zieht dabei 520Watt.

Meine Benchsettings: 3045MHz GPU und 1450MHz Speicher bei 1,085Volt GPU Spannung, wie gesagt ca. 520Watt. Jedes MHz mehr führt sofort zum Absturz.

Mit 450Watt waren die 3GHz überhaupt nicht zu erreichen. Der Speicher scheint bei den MSI etwas schlechter zu gehen als bei anderen Karten.

Das einzige wirklich krasse ist der Kühler, unglaublich wie leise der ist, die ASUS 3090Ti ist deutlich lauter.

Der neue 3DMark Bench ist es cool.

3090Ti stock
https://www.3dmark.com/sw/9829

4090 max
https://www.3dmark.com/sw/11065

Daredevil
2022-10-14, 09:24:16
Dann prügel den Lüfter doch mal hoch. Je kühler, desto geringerer verbrauch, desto mehr boosted die Karte.

Dural
2022-10-14, 09:28:51
Ich bin am PT Limit (115%) ich kann jedenfalls nicht mehr einstellen :(

Lüfter auf 80% fix hatte ich die besten Resultate. Die Kühler sind so gut das ich bei den Benchmarks nie über 56°C GPU Temperatur kam.

Edit:
Mir kommt gerade in den Sinn das auf der Karte ein Schalter ist, hat der auch Einfluss auf die max PT? (MSI)

Edgecrusher86
2022-10-14, 09:35:21
Wie sieht es mit UV aus? Raff konnte ja 2,6 GHz mit 875mV fahren....aber ja, ich gehe davon aus, dass man dann ab 3 GHz viel mehr benötigen wird - 10xx mV bestimmt.

E: 8:58 - Kärtchen im Zustellfahrzeug und paar Tage Urlaub dazu. Guter Start in das WE! :biggrin:

Ich werde wohl auch eine Abload-Galerie erstellen, für Interessierte - nach und nach mit Updates versehen.
3440x1440, 5160x2160, 6880x2880, 10320x4320 und 13760x5760 will ich testen - wie bei der 3090er auch damals.
Man muss ja was machen gegen das CPU-Limit. :D

E: Norrmal sollte das nur die Lüfterkurve beeinflussen - das BIOS.

115% max PT? Das wäre in der Tat grob 520W; leicht darunter.
Naja - auch so...Meckern auf hohen 1st World-Problems-Level im Grunde. ;)

Cubitus
2022-10-14, 09:41:37
Ich bin am PT Limit (115%) ich kann jedenfalls nicht mehr einstellen :(

Lüfter auf 80% fix hatte ich die besten Resultate. Die Kühler sind so gut das ich bei den Benchmarks nie über 56°C GPU Temperatur kam.

Edit:
Mir kommt gerade in den Sinn das auf der Karte ein Schalter ist, hat der auch Einfluss auf die max PT? (MSI)

Bei der Suprim geht "noch" nicht mehr als 520 Watt.

Raff
2022-10-14, 09:45:06
Wie sieht es mit UV aus? Raff konnte ja 2,6 GHz mit 875mV fahren....aber ja, ich gehe davon aus, dass man dann ab 3 GHz viel mehr benötigen wird - 10xx mV bestimmt.

Jo, gute Schätzung: Für den 3DMark Speed Way brauchte die mir vorliegende FE 1,025 Volt für den Standard-Run (WQHD) und 1,05 Volt für 4K + NVENC-Capturing (HEVC). Da kommt man mittels Curve auch nicht über 3 GHz - zumindest weiß ich nicht, wie man die Y-Skala erhöhen kann. Ihr? :)

E: 8:58 - Kärtchen im Zustellfahrzeug und paar Tage Urlaub dazu. Guter Start in das WE! :biggrin:

Ich werde wohl auch eine Abload-Galerie erstellen, für Interessierte - nach und nach mit Updates versehen.
3440x1440, 5160x2160, 6880x2880, 10320x4320 und 13760x5760 will ich testen - wie bei der 3090er auch damals.
Man muss ja was machen gegen das CPU-Limit. :D

Klingt wie ein Test-Fest. Ich wünsche dir und allen anderen viel Spaß! Werdet ihr gewiss haben. =) :up:

MfG
Raff

Dural
2022-10-14, 09:47:31
Ich glaube die Karte geht zurück, ich will eine Ti.

Die 12% mehr Einheiten tut der Karte sicherlich gut. 100Watt mehr Verbrauch für 8% mehr Leistung wie bei meiner 4090 finde ich maximal Sinnlos. Da nehme ich lieber mehr Einheiten + Cache und eventuell besserer Speicher :D

Raff
2022-10-14, 09:49:01
Gute Idee! Wenn du mir direkt eine Ti mitbringen könntest, wäre das prima. Dafür würde ich meine Reserven direkt liquide machen. Jemand Interesse an einer sehr geschonten RTX 3090 Ti? :biggrin:

MfG
Raff

Dural
2022-10-14, 09:50:16
2023 ;(

Troyan
2022-10-14, 09:53:20
Naja, knapp 3000MHz sind doch top. Ohne hohes Powerlimit ist es sowieso nur sekundär interessant, wie hoch man kommt.

Inquisitor
2022-10-14, 09:54:53
Btw. läuft die 4090 von MSI wohl rockstable in Kombination mit meinen restlichen Komponenten (5800x u.a.) mit meinem beQuiet 750w Netzteil bisher. Ich denke die 850w Empfehlung ist mit viel Reserve und auch für qualitativ vielleicht nicht ganz so potente NoName Bomber gegeben worden. Mit dem Strommessgerät messe ich für das gesamt System inkl. 2 Stück 27 Zoll Monitore (!) nie mehr als ca. 700 Watt Leistungsaufnahme.

Daredevil
2022-10-14, 09:55:21
Also ist die Custom Kühllösung selbst mit diesen Bomber an Kühlern noch "unterfordert" bzw. "zu gut"?
Wahnsinn, da bekommt man echt Vorfreude auf eine 4090ti oder sonstwas. :D

Troyan
2022-10-14, 09:56:09
850W reichen maximal. Mein Asus Thor mit Oled hat mir mit 12600K knapp 640W angezeigt.

Ansonsten gibt es auch keine Probleme mit meinem Z690 vom letzten Jahr mit einem Bios-Update von Januar. Muss ein Wunder sein.

Cubitus
2022-10-14, 09:56:26
Ich glaube die Karte geht zurück, ich will eine Ti.

Die 12% mehr Einheiten tut der Karte sicherlich gut. 100Watt mehr Verbrauch für 8% mehr Leistung wie bei meiner 4090 finde ich maximal Sinnlos. Da nehme ich lieber mehr Einheiten + Cache und eventuell besserer Speicher :D

Verstehe dein Problem nicht, warte doch bis die TI draußen ist.
Dann kannst die jetzige immer noch zu nem guten Preis verkaufen.

So werde ich es machen :biggrin:

Ich hab mich bei dem Gedanken auch verabschiedet bei ADA 102 auf den Takt zu schauen.
Die Karte ist doch schnell genug ob jetzt unbedingt 3Ghz+ sein müssen, ist fraglich.
Das Problem ist doch eher der Voltage Cap und nicht das PT..

Klassisches UV, OC scheint bei der Karte wenig Sinn zu machen.
Maximal PT hoch oder runter, thats it.

Wird ziemlich entspannt werden nur benschen keine Kurven tarieren, Doug Hefferland bringt mir nachher meine Suprim :)

Hab seit gestern noch ne Gamerock 4090 hier un ausgepackt rumliegen :freak:

Raff
2022-10-14, 09:56:44
Btw. läuft die 4090 von MSI wohl rockstable in Kombination mit meinen restlichen Komponenten (5800x u.a.) mit meinem beQuiet 750w Netzteil bisher. Ich denke die 850w Empfehlung ist mit viel Reserve und auch für qualitativ vielleicht nicht ganz so potente NoName Bomber gegeben worden. Mit dem Strommessgerät messe ich für das gesamt System inkl. 2 Stück 27 Zoll Monitore (!) nie mehr als ca. 700 Watt Leistungsaufnahme.

Jo, die 850 Watt sind die "Play it safe"-Angabe: Netzteil-Armageddon dank RTX 4090? Praxistests mit aktuellen Netzteilen von 650 bis 1.650 Watt (https://www.pcgameshardware.de/Netzteil-Hardware-219902/Specials/RTX-4090-Praxis-Test-650-750-850-1000-Watt-12VHPWR-rtx-3090-1405093/)

[...] Klassisches UV, OC scheint bei der Karte wenig Sinn zu machen. [...]

Da ich das jetzt schon mehrfach gehört habe: Woher kommt der Schmarrn eigentlich?

Natürlich lohnt sich klassisches Undervolting. Immer dann, wenn man im Powerlimit agiert. Das passiert mit einem 600-Watt-Budget nicht, aber bis 500 eben doch, wenn man die Karte richtig rannimmt -> Optimalspannung für den jeweiligen Takt reinzimmern und über die großartige Effizienz freuen. Das ist bei einem ab Werk bereits effizienten Chip wie AD102 zwar weniger effektiv und lohnenswert als bei GA102, aber trotzdem. Meine Vermutung ist, dass da jemand WQHD getestet hat, wo die Karte Däumchen dreht, und man daher zu dem Schluss kam, dass man nicht undervolten muss. Wiederhole das in 5K/6K/8K und staune. :ulol:

MfG
Raff

Cubitus
2022-10-14, 10:03:08
Jo, die 850 Watt sind die "Play it safe"-Angabe: Netzteil-Armageddon dank RTX 4090? Praxistests mit aktuellen Netzteilen von 650 bis 1.650 Watt (https://www.pcgameshardware.de/Netzteil-Hardware-219902/Specials/RTX-4090-Praxis-Test-650-750-850-1000-Watt-12VHPWR-rtx-3090-1405093/)



Da ich das jetzt schon mehrfach gehört habe: Woher kommt der Schmarrn eigentlich?

MfG
Raff

Von Ihm
XrZNSTmOstI

Wobei ich bei diesem Video schon sehe das der Verbrauch massiv zurückgeht wenn die Voltage geringer ist.


Natürlich lohnt sich klassisches Undervolting. Immer dann, wenn man im Powerlimit agiert. Das passiert mit einem 600-Watt-Budget nicht, aber bis 500 eben doch, wenn man die Karte richtig rannimmt -> Optimalspannung für den jeweiligen Takt reinzimmern und über die großartige Effizienz freuen. Das ist bei einem ab Werk bereits effizienten Chip wie AD102 zwar weniger effektiv und lohnenswert als bei GA102, aber trotzdem. Meine Vermutung ist, dass da jemand WQHD getestet hat, wo die Karte Däumchen dreht, und man daher zu dem Schluss kam, dass man nicht undervolten muss. Wiederhole das in 5K/6K/8K und staune. :ulol:

MfG
Raff

Ich werde meine Karte schon mit hoher (RT) Last versuchen zu füttern :)
Quake RTX, Serious Sam RTX, der neuste 3DMark und Marbles im Oniverse liegen bereit.

Klassisches Downsampling werde ich auch testen :)

The_Invisible
2022-10-14, 10:14:09
4090 = beste Öko Karte für LoL

607 FPS, 690 Mhz, 64 Watt

https://i.imgur.com/gIfuLxe.jpg

Vsync 144 FPS, 480 Mhz, 47 Watt

https://i.imgur.com/y2O7JR1.jpg

Das ging mit dicken Amperes auch schon gut, je nach Setting sogar ganz passiv.

Die 4090er ist halt nochmal dicker in Leistung und Kühlkörper, wobei so eine Karte für LoL schon eine Schande ist :D

r3ptil3
2022-10-14, 10:14:54
Hat hier jemand eine Suprim RTX 4090?
Wenn ja, wäre es möglich den IDLE Verbrauch mit geringer oder deaktivierter LED Beleuchtung zu messen?

In den Reviews ist der IDLE Verbrauch ziemlich schlecht.

Wäre für mich ansonsten die richtige Karte.

Sardaukar.nsn
2022-10-14, 10:53:51
Ich bin am PT Limit (115%) ich kann jedenfalls nicht mehr einstellen :(

Die Suprim Liquid mit der 240er AiO hat ein 530 Watt Powerlimit. Das könnte man vielleicht versuchen zu flashen.

Geldmann3
2022-10-14, 10:56:33
Oh Gott habe heute eine RTX 4090 ZOTAC GAMING TRINITY OC erhalten.

Die Packung mit der Grafikkarte war offen und der Innere Karton beschädigt. Karte sieht i.o. aus. Bin schockiert, bei dem Preis.

Komme erst morgen zum Testen, hoffe, das Ding läuft...

Bei der Paketannahme habe ich es nicht gesehen, da der äußere, neutrale Karton unbeschädigt war.

Ideen, wie ich die Karte morgen schnell auf Herz und Nieren prüfen kann?

Troyan
2022-10-14, 11:01:07
3DMark Speed Way und Timespy bringen die Karten auf 450W+. Sollte also genug Last anliegen, um zu überprüfen, ob alles funktioniert.

Sardaukar.nsn
2022-10-14, 11:02:03
@Geldmann3 Klingt nicht so toll. Welcher Händler liefert denn solche Karten aus?

@Topic: Wieviel Hitze verträgt eigentlich so ne Strix? https://i.imgur.com/FP6KPwN.jpg

Geldmann3
2022-10-14, 11:18:06
@Geldmann3 Klingt nicht so toll. Welcher Händler liefert denn solche Karten aus?

Es war Alternate.

Aus Gründen, möchte ich sie jetzt allerdings eher nicht zurückschicken, wenn sie geht. Werde da aber natürlich genauer hinschauen.

Rolsch
2022-10-14, 11:22:03
Meine Zotac von Alternate kommt auch gleich. Schau mer mal wie die aussieht.

Sardaukar.nsn
2022-10-14, 11:25:44
@Geldmann3 Dann würde ich den neuen 3Dmark Speedway zum testen nehmen, 4k. Der lastet die Karte komplett aus.

wolik
2022-10-14, 11:43:18
4090 sollte stark von VRAM OC profitieren.
Wie übertaktet Ihr?
Ich mache das immer mit Haven. In Fenster ausführen und VRAM-Takt erhöhen.
Irgendwelche anderen Vorschläge?

Geldmann3
2022-10-14, 11:48:26
Meine Zotac von Alternate kommt auch gleich. Schau mer mal wie die aussieht.

Da wäre ich etwas gespannt, vielleicht wurden da ja alle Kartons geöffnet, um das 600 Watt durch das 450 Watt BIOS zu ersetzen. ;)

Denke aber, mein Karton ist einfach hart irgendwo runtergefallen.

Troyan
2022-10-14, 11:54:05
4090 sollte stark von VRAM OC profitieren.
Wie übertaktet Ihr?
Ich mache das immer mit Haven. In Fenster ausführen und VRAM-Takt erhöhen.
Irgendwelche anderen Vorschläge?

Einfach spielen. Gestern ein bisschen getestet - Speed Way läuft, F1 22 und Shadow the Tomb Raider sind mit den selben Einstellungen abgebrochen.

Rolsch
2022-10-14, 12:46:31
Da wäre ich etwas gespannt, vielleicht wurden da ja alle Kartons geöffnet, um das 600 Watt durch das 450 Watt BIOS zu ersetzen. ;)

Denke aber, mein Karton ist einfach hart irgendwo runtergefallen.

Außenkarton OK, der von der Karte hat auch leichte Beschädigung. Ist wohl schon im Lager was umgefallen. Aber da sehe ich kein Problem hier.

https://1drv.ms/u/s!AtPmTqLV8iL2iLkaiXNt7mnnf5X93g?e=oZiqSL

misterh
2022-10-14, 12:50:38
Würde mal einer von Euch mein Benchmark laufen lassen mit 4090?

Wäre interessant wie die abschneidet im Vergleich zu 3090 aus Rangliste (https://www.hardwareluxx.de/community/threads/11-10-2022-12900ks-added-amd-nvidia-intel-mrh-opencl-benchmark-rankliste.1302003/)

Geldmann3
2022-10-14, 12:57:43
Außenkarton OK, der von der Karte hat auch leichte Beschädigung. Ist wohl schon im Lager was umgefallen. Aber da sehe ich kein Problem hier.

https://1drv.ms/u/s!AtPmTqLV8iL2iLkaiXNt7mnnf5X93g?e=oZiqSL

War er denn auf beiden Seiten zugeklebt? Weil bei mir eine Seite des Kartons offen war.

https://i.ibb.co/n0dh4d0/image.png

So sah es dann von innen aus:

https://i.ibb.co/CH1t9cn/image.png

Könnte schon sein, dass es irgendwie einen Schlag auf eine Ecke gab, was dann auch den Karton geöffnet hat.
Doch dachte, der Kleber verhindert sowas. Das muss dann ja schon ein ordentlicher Fall gewesen sein.
Zumal beim Transport ja nochmal ein Außenkarton mit Füllmaterial drum rum war.

An der Karte scheint äußerlich alles okay, zum praktischen Testen komme ich wohl leider erst morgen.

Linmoum
2022-10-14, 12:59:15
Na mal schauen heute Abend, wie meine Gigabyte von Alternate aussieht. :D

BigKid
2022-10-14, 15:46:13
Heute kam die Gamerock 3090 OC von Alternate...
Umverpackung und OVP 100% ok...

Leider bin ich mir nicht sicher ob ich die Karte behalte denn: Ich kann die Spulen teilweise gaanz leise hören... zB wenn ich den OC Scanner laufen lasse... Ausserdem höre ich die Lüfter schon auf niedrigster Stufe raus... nicht dass sie Laut wären sondern weil ich das Geräusch irgendwie raushören kann und es mich auf Dauer nerven könnte - es klingt nämlich nach Spulenfiepen - IST aber in dem Fall definitiv keins Sondern der Lüfter... Im 3Dmark habe noch kein echtes Fiepen bemerkt...

Gut... Ansonsten ein paar Versuche mit UV gemacht weil mein altes provisorisches Seasonic X 750 Watt unter Last zum Radaubruder in der Bude wird...

3Dmark Speedway:
@default: 9580 Punkte @ ~2750Hz / @org Kurve / Mem+250 / ~420 Watt
@UV1: 9500 Punkte @2715 Hz / ~975mV / Mem +250 / ~380 Watt
@UV2: 9300 Punkte @2490 Hz / ~900mV / Mem +250 / ~320 Watt
@UV3: 8600 Punkte @2250 Hz / ~850mv / Mem +250 / ~280 Watt
Beim UV dir Kurve einfach flach ab der genannten Voltzahl… Hält dann die Frequenz quasi durchgehend im Speedway Test…

Alles Pie mal Daumen und eventuell nicht ganz Rock stable (kein Absturz bisher) - aber es zeigt wo die Reise hingehen kann...

Das Ding ist echt unglaublich... 900 Punkte weniger... Das sind 10% ... Aber dafür 1/3 (33%) weniger Verbrauch...
UV2 würde vermutlich mein Alltagssetting...

TobiWahnKenobi
2022-10-14, 16:01:29
3.1GHz avg. sehen schon sehr gut aus..

https://abload.de/img/232323r6ihn.jpg

https://abload.de/thumb/3dmarkspeedway_2022_13adu7.jpg (https://abload.de/image.php?img=3dmarkspeedway_2022_13adu7.jpg)


(..)

mfg
tobi

Troyan
2022-10-14, 16:01:57
Naja, Spulenfiepen ist heute eigentlich standard. Die Karte ist z.B. leiser als meine Asus TUF 3090...
Der Lüfter - ja. Aber im Idlen sollte die aus sein. Und beim Spielen wird es sowieso generell lauter als das minimale surren der Lüfter.

Rolsch
2022-10-14, 16:16:07
War er denn auf beiden Seiten zugeklebt? Weil bei mir eine Seite des Kartons offen war.

Zu war er. Allerdings ging das runde Klebedings auffällig leicht ab.

Egal, ich hab sie eingebaut und der Klotz läuft bis jetzt ohne Macken. Denke bei Dir wird auch alles gut sein, ist ja gut verpackt die Karte.

BigKid
2022-10-14, 16:24:27
Naja, Spulenfiepen ist heute eigentlich standard. Die Karte ist z.B. leiser als meine Asus TUF 3090...
Der Lüfter - ja. Aber im Idlen sollte die aus sein. Und beim Spielen wird es sowieso generell lauter als das minimale surren der Lüfter.
Spulenfiepen aber nur in bestimmten Szenarien ... Sollte es zB nur beim OC Scanner oder in irgendwelchen 2D Menüs passieren - Schwamm drüber... Aber wenns in Games hörbar wird dann fliegt sie... Deswegen sind bei mir auch schon Gaming Notebooks zurück... Geht auch anders....
Allerdings KÖNNTE es auch das Netzteil sein, denn ich hab schonmal die Erfahrung gemacht, dass es mit dem Wechsel des Netzteils weg war... Entweder kann das NT das irgendwie begünstigen oder es ist sogar das NT...

Troyan
2022-10-14, 16:27:06
Ich höre beim Idlen kein Fiepen. Karte ist einfach leise. In Spielen ist es vorhanden, aber wird dann irgendwann von den Lüfter überdeckt. Im Vergleich zu meiner 3090 ist deutlich leiser. Die hat schon 100FPS und 375W angefangen...

BigKid
2022-10-14, 16:35:29
Ich höre beim Idlen kein Fiepen. Karte ist einfach leise. In Spielen ist es vorhanden, aber wird dann irgendwann von den Lüfter überdeckt. Im Vergleich zu meiner 3090 ist deutlich leiser. Die hat schon 100FPS und 375W angefangen...
Ne Idlen nicht... Nur beim OC Scanner bisher... Ich hör aber die Lüfter einfach raus, was mir bei der 3090 Gamerock nicht passiert ist, und das ist einfach Schade... Da hab ich sie beim Anlaufen kurz gehört und dann ist das im "Rauschen" untergegangen - ist auch glaube ich weniger die Laustärke sondern die Art des Surrens... *seufz*... Ich bin da aber auch recht empfindlich... Das weiss ich... Ich fürchte ich muss mich diesmal auf die Jagd nach ner Strix (auch wenn ich die hässlich finde) oder ner Supreme machen...

mironicus
2022-10-14, 16:43:29
Meine Gainward Phantom RTX 4090 GS ist eingebaut. Das ist auf jeden Fall einer der schöneren 4090-Karten. Ich mußte vor dem Einbau ein zusätzliches PCI-Express-Kabel ans modulare 1200 Watt-Netzteil anschließen. Außerdem habe dann ich noch nebenbei eine neue PCI 4.0-SSD eingebaut.

25477 Punkte bei Port Royale - normale Leistung im Vergleich zu offiziellen Tests. Die Karte ist dabei ziemlich leise.

Sehr schön auch - da ich nur in 4K60 spiele der insgesamt stark reduzierte Stromverbrauch im Vergleich zur RX6900XT. Einige Spiele die nie ganz flüssig liefen (davon gibt es tatsächlich nicht gerade wenige) verbrauchen bei konstanten 60 FPS dabei nur 120-170 Watt anstatt wie vorher 240-300 Watt.

Wer also ein Argument braucht... hey das ist Teil ist effizient und hat noch ganz viel Reserven. :)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80905&stc=1&d=1665758515

BigKid
2022-10-14, 16:47:35
Das ist definitiv ne Gamerock 4090 mit anderem "Deckel" :-)
Selbst der Anschluss für den Sync der LEDS mit dem Mobo ist da... Kühlkörper etc... alles was ich sehen kann ist 1:1 ... Ausser eben dem Deckel...

Crazy_Chris
2022-10-14, 16:53:04
Lag keine GPU Krücke dabei?

Oliver_M.D
2022-10-14, 17:13:07
4090 = beste Öko Karte für LoL
607 FPS, 690 Mhz, 64 Watt
Vsync 144 FPS, 480 Mhz, 47 WattSehr schön auch - da ich nur in 4K60 spiele der insgesamt stark reduzierte Stromverbrauch im Vergleich zur RX6900XT. Einige Spiele die nie ganz flüssig liefen (davon gibt es tatsächlich nicht gerade wenige) verbrauchen bei konstanten 60 FPS dabei nur 120-170 Watt anstatt wie vorher 240-300 Watt.Echt Wahnsinn wie verdammt effizient das teil zu seien scheint.
Wären nicht die preise wäre ich verleitet mir eine zu kaufen, obwohl ich nur 1440p120 benutze.;D

Crazy_Chris
2022-10-14, 17:21:29
Echt Wahnsinn wie verdammt effizient das teil zu seien scheint.
Wären nicht die preise wäre ich verleitet mir eine zu kaufen, obwohl ich nur 1440p120 benutze.;D

Ja, dass ist für mich auch eine der großen Überraschungen. :eek: Für 1440P wird es vermutlich aber auch ein 4060Ti o.ä. tun.


Sehr schön auch - da ich nur in 4K60 spiele der insgesamt stark reduzierte Stromverbrauch im Vergleich zur RX6900XT.

Ich bin vor 2-3 Jahren übrigens von 4k60 wieder zurück auf 1440P@144Hz gewechselt da ich das Spieleerlebnis als deutlich angenehmer empfinde. Kommt aber vermutlich auf die Spiele an die man so spielt. Mit 4K60 langweilt sich die 4090 ja fast. ;)

just4FunTA
2022-10-14, 17:29:05
Ja, dass ist für mich auch eine der großen Überraschungen. :eek: Für 1440P wird es vermutlich aber auch ein 4060Ti o.ä. tun.



Ich bin vor 2-3 Jahren übrigens von 4k60 wieder zurück auf 1440P@144Hz gewechselt da ich das Spieleerlebnis als deutlich angenehmer empfinde. Kommt aber vermutlich auf die Spiele an die man so spielt. Mit 4K60 langweilt sich die 4090 ja fast. ;)

da gibt es ja noch 4k@120Hz ;)

Oliver_M.D
2022-10-14, 17:43:08
Für 1440P wird es vermutlich aber auch ein 4060Ti o.ä. tun.Hatte lange geplant mir eine 4080 zu kaufen und damit meine 1070 zu ersetzen, aber eine 4090 wäre sicherlich auch ganz lustig.:D

Troyan
2022-10-14, 17:54:40
Der riesige Vorteil der 4090 ist, wenn die Karte nicht ausgelastet wird, dann sinkt der Verbrauch massiv. So extrem habe ich das noch nie gesehen. Selbst in nicht CPU-limitierenden Szenarien ist geht der Verbrauch massiv runter. Macht sie also zur perfekten 1440p Karte, wo man hohe Frames mit bester Effizienz kombinieren kann.

TobiWahnKenobi
2022-10-14, 18:11:10
ja, das ist wirklich krass geil an dieser graka.. denkt man ja zuerst gar nicht dran, wenn man von 600W hört und sieht was für klopper das sind.. übrigens kann sie auch anders.. ich habe gestern schon PEAKs von 900W auf meinem leistungsmessgerät gehabt.



(..)

mfg
tobi

Troyan
2022-10-14, 18:18:18
Würde mal einer von Euch mein Benchmark laufen lassen mit 4090?

Wäre interessant wie die abschneidet im Vergleich zu 3090 aus Rangliste (https://www.hardwareluxx.de/community/threads/11-10-2022-12900ks-added-amd-nvidia-intel-mrh-opencl-benchmark-rankliste.1302003/)

Siehe Spoiler.



14.10.2022 - 18.17.49

OS : Microsoft Windows 10 Pro ( Version : 10.0.19044 )
MOTHERBOARD : ASUSTeK COMPUTER INC. PRIME Z690-A ( BIOS Version : 0811 )
MEMORY : 32768 MB - Team Group Inc TEAMGROUP-UD5-4800 @ 5200
GPU : NVIDIA GeForce RTX 4090 ( CU : 128 | VRAM : 24563 MB | VERSION : 522.25 )

TIME : 15s ( DEFAULT )

SETTINGS : EXTREME

HDR ( 4096, 4096 )
LOADTIME : 3052 ms
TIME ( BEST TIME ) : 40,41 s

BICUBIC ( 16384, 16384 )
LOADTIME : 147 ms
TIME ( BEST TIME ) : 26,77 s

TEXTURE ( 16384, 16384 )
LOADTIME : 1801 ms
TIME ( BEST TIME ) : 25,1 s

PI ( 134.217.728 )
LOADTIME : 9 ms
TIME ( BEST TIME ) : 16,12 s

ASYNC COMPUTE ( 8192, 8192 )
LOADTIME : 1723 ms
TIME ( BEST TIME ) : 19,53 s

MEMORY R-W-C ( 8192, 8192 )
LOADTIME : 134 ms
TIME ( BEST TIME ) : 42,53 s

Badesalz
2022-10-14, 18:26:04
Der riesige Vorteil der 4090 ist, wenn die Karte nicht ausgelastet wird, dann sinkt der Verbrauch massiv. So extrem habe ich das noch nie gesehen. Selbst in nicht CPU-limitierenden Szenarien ist geht der Verbrauch massiv runter. Macht sie also zur perfekten 1440p Karte, wo man hohe Frames mit bester Effizienz kombinieren kann.Ist das so eine Art Leak :freak: oder gibt es auch feste Beispiele mit festen Zahlen dazu?

Mir fehlt da aber eh der Glaube, daß es einen Markt für 2k€ Grakas gibt um 1440/120 zu fahren...

aufkrawall
2022-10-14, 18:36:02
Der riesige Vorteil der 4090 ist, wenn die Karte nicht ausgelastet wird, dann sinkt der Verbrauch massiv. So extrem habe ich das noch nie gesehen. Selbst in nicht CPU-limitierenden Szenarien ist geht der Verbrauch massiv runter. Macht sie also zur perfekten 1440p Karte, wo man hohe Frames mit bester Effizienz kombinieren kann.
Wen interessiert die Effizienz um der Effizienz willen? Wenn einen die Abwärme stört, ist man eh nicht die Zielgruppe für Highend.
Aber ja, ist schon heftig. Selbst im kompletten GPU-Limit in 4k sind es mit 0,9V häufig nur ~280W Gesamtkarte.

misterh
2022-10-14, 18:53:14
Siehe Spoiler.



14.10.2022 - 18.17.49

OS : Microsoft Windows 10 Pro ( Version : 10.0.19044 )
MOTHERBOARD : ASUSTeK COMPUTER INC. PRIME Z690-A ( BIOS Version : 0811 )
MEMORY : 32768 MB - Team Group Inc TEAMGROUP-UD5-4800 @ 5200
GPU : NVIDIA GeForce RTX 4090 ( CU : 128 | VRAM : 24563 MB | VERSION : 522.25 )

TIME : 15s ( DEFAULT )

SETTINGS : EXTREME

HDR ( 4096, 4096 )
LOADTIME : 3052 ms
TIME ( BEST TIME ) : 40,41 s

BICUBIC ( 16384, 16384 )
LOADTIME : 147 ms
TIME ( BEST TIME ) : 26,77 s

TEXTURE ( 16384, 16384 )
LOADTIME : 1801 ms
TIME ( BEST TIME ) : 25,1 s

PI ( 134.217.728 )
LOADTIME : 9 ms
TIME ( BEST TIME ) : 16,12 s

ASYNC COMPUTE ( 8192, 8192 )
LOADTIME : 1723 ms
TIME ( BEST TIME ) : 19,53 s

MEMORY R-W-C ( 8192, 8192 )
LOADTIME : 134 ms
TIME ( BEST TIME ) : 42,53 s



Danke dir.

nur 2 von 6 kommt so wie erwartet, rest eher enttäuschend von vergleich her?

The_Invisible
2022-10-14, 18:53:16
1440p sind einer 4090 halt auch nicht wirklich würdig, da gehört schon mindestens in UHD/>120Hz gespielt ;)

Ex3cut3r
2022-10-14, 18:57:33
Aber ja, ist schon heftig. Selbst im kompletten GPU-Limit in 4k sind es mit 0,9V häufig nur ~280W Gesamtkarte.

Heißt das nicht eher das die Karte ein Auslastungsproblem hat?

Ich rede hier nicht vom CPU Limit, sondern ein Architektur bedingtes Problem.

why_me
2022-10-14, 19:00:47
Treiberoverhead?
Keine Ahnung, wie es aktuell ist, aber Nvidia ist ja immer doch noch bei einem SW-scheduler, oder?

Atma
2022-10-14, 19:01:10
Sehr schön auch - da ich nur in 4K60 spiele der insgesamt stark reduzierte Stromverbrauch im Vergleich zur RX6900XT. Einige Spiele die nie ganz flüssig liefen (davon gibt es tatsächlich nicht gerade wenige) verbrauchen bei konstanten 60 FPS dabei nur 120-170 Watt anstatt wie vorher 240-300 Watt.

Wer also ein Argument braucht... hey das ist Teil ist effizient und hat noch ganz viel Reserven. :)
Irgendwie seltsam, dass RTX 4090 Käufer so sehr auf die Leistungsaufnahme schielen. Man möchte meinen wer 2000+ EUR für eine Grafikkarte ausgibt, der hat auch das nötige Kleingeld für den Strom. Abgesehen davon bescheißt du dich mit deiner Rechnung selber, denn die 4090 ist erst mal eine Zusatzausgabe. Für den Preis der 4090 könntest du deine "alte" 6900XT mehrere Jahrzehnte betreiben und hättest trotzdem noch Geld gespart.

basix
2022-10-14, 19:02:05
Der riesige Vorteil der 4090 ist, wenn die Karte nicht ausgelastet wird, dann sinkt der Verbrauch massiv. So extrem habe ich das noch nie gesehen. Selbst in nicht CPU-limitierenden Szenarien ist geht der Verbrauch massiv runter.

Das ist in der Tat ein geiles Verhalten. Ada versucht anscheinend im bestmöglichen Bereich zu arbeiten. Das habe ich so noch nie bei einer GPU gesehen. Erinnert mich irgendwie an das Verhalten mit Framelimiter, obwohl kein Framelimiter anliegt.

An was das nun liegen könnte? Ich vermute, dass die GPU intern mehrere Auslastungs-Zähler hat. z.B. Frontend, ALUs, RT-Cores, ... und wenn einer davon das Bottleneck wird, reduziert die GPU automatisch den "effektiven" Takt auf den restlichen Chipteilen. Sehr nice :)

Was ich etwas schade finde: Video-Clock hängt an der Chip-Spannung und kann Stand heute nicht manuell OCed werden. Das führt dazu, dass man bei reduzierter TDP und auf der GPU evtl. 0.9V die Leistung leicht reduziert. Diese Leistungsreduktion hat dieser Typ auf YT bemerkt, allerdings von UV abgeraten :freak: Ich meine, die Energieffizienz steigt immer noch enorm.

Was der Video-Clock genau ist, weiss ich nicht. Ich vermute aber, dass der L2$ auf dieser Takt-Domäne hängt. Wenn ich nämlich den VRAM-Takt anhebe, kann ich dem Leistungsverlust aufgrund reduziertem Video-Clock zum grössten Teil kompensieren. Ein AD102 Vollausbau könnte sich hier dementsprechend anders verhalten.

Bitte Nvidia (oder ASUS, MSI, ...) erstellt ein Tool, wo man den Video-Clock auch anpassen kann ;)

Was ebenfalls speziell ist: Die GPU-Spannung beträgt minimal 0.87V. Das limitiert die untere Grenze für UV oder TDP Senkung. Schade, 0.8V würde den unteren Anschlag nochmals gut senken. Bei meiner Karte (ASUS TUF) ist es am idealsten, wenn man >2.5 GHz bleibt (bei 270W TBP). Ansonsten lässt man Leistung liegen. Mit manuellem OC kann man die GPU allerdings nochmals ~1.33x effizienter bekommen, als sie es Stock ist.

Nichtsdestotrotz: Geiles Stück Technik :D Zu teuer, aber nach 4 Jahren auf der 2080 Ti war etwas neues langsam überfällig ;)

Heißt das nicht eher das die Karte ein Auslastungsproblem hat?

Ich rede hier nicht vom CPU Limit, sondern ein Architektur bedingtes Problem.
Ich vermute etwas ähnliches: Irgendwas in der GPU stellt ein Bottleneck dar. Die GPU-Telemetrie merkt das und reduziert and anderen Orten den effektiven Takt (Clock Gaps einfügen). Für die Effizienz der GPU genial. Allerdings kann aufgrund des Bottlenecks nicht die maximal mögliche Leistung entfaltet werden.

Crazy_Chris
2022-10-14, 19:04:55
Irgendwie seltsam, dass RTX 4090 Käufer so sehr auf die Leistungsaufnahme schielen. Man möchte meinen wer 2000+ EUR für eine Grafikkarte ausgibt, der hat auch das nötige Kleingeld für den Strom. Abgesehen davon bescheißt du dich mit deiner Rechnung selber, denn die 4090 ist erst mal eine Zusatzausgabe. Für den Preis der 4090 könntest du deine "alte" 6900XT mehrere Jahrzehnte betreiben und hättest trotzdem noch Geld gespart.

Ich glaube da geht es mehr darum das sich die Karte so sehr leise kühlen lässt.

Ex3cut3r
2022-10-14, 19:05:07
Treiberoverhead?
Keine Ahnung, wie es aktuell ist, aber Nvidia ist ja immer doch noch bei einem SW-scheduler, oder?

Ja, SW-Scheuduler. Meinst du darin liegt es?

Nvidia könnte die Bremse im neusten Treiber für viele DX12 Spiele etwas lockern, allerdings auch erst sehr spät, und will man dann jedes Mal einen erheblichen Softwareaufwand betreiben?

BigKid
2022-10-14, 19:09:02
Ich glaube da geht es mehr darum das sich die Karte so sehr leise kühlen lässt.
Das auch…
Aber auch darum nicht unnötig viel Strom zu verbraten…
Nur weil man es sich leisten kann heisst das doch nicht dass man es sich leisten muss oder will… bei mir isses beides… leise und akzeptabler verbrauch bei nicht wirklich spürbarem leistungverlust…

why_me
2022-10-14, 19:09:35
Ja, SW-Scheuduler. Meinst du darin liegt es?

Nvidia könnte die Bremse im neusten Treiber für viele DX12 Spiele etwas lockern, allerdings auch erst sehr spät, und will man dann jedes Mal einen erheblichen Softwareaufwand betreiben?

Ist nur eine Vermutung, aber soviel Rechenleistung wie AD102 hat, ist es schon irgendwie komisch, dass sie diese nicht auf die Straße bringen kann.

Trotz mehr als doppelt so viel TFLOPs kommen gerade einmal ~60% mehr FPS im vergleich zur 3090 an.

Ex3cut3r
2022-10-14, 19:10:41
Ist nur eine Vermutung, aber soviel Rechenleistung wie AD102 hat, ist es schon irgendwie komisch, dass sie diese nicht auf die Straße bringen kann.

Trotz mehr als doppelt so viel TFLOPs kommen gerade einmal ~60% mehr FPS im vergleich zur 3090 an.

;) Deswegen benutzen viele Radeonaner auch den Begriff Lumpfpumpe.


Ich vermute etwas ähnliches: Irgendwas in der GPU stellt ein Bottleneck dar. Die GPU-Telemetrie merkt das und reduziert and anderen Orten den effektiven Takt (Clock Gaps einfügen). Für die Effizienz der GPU genial. Allerdings kann aufgrund des Bottlenecks nicht die maximal mögliche Leistung entfaltet werden.

Jap, daraus wird es wohl hinauslaufen.

Edgecrusher86
2022-10-14, 19:18:29
So, war doch ein bissl mehr Arbeit, als ich dachte - vorne Stütze verbaut, die ich für die 3090 kaufte, aber nicht brauchte bei nur 1,3kg. Nun ist das doch leicht mehr. Zum Glück ist das gesamte Board samt I/O auf einem MoBo-Tray-Schlitten, sodass ich es grob 2cm hinten heraus ziehen konnte, um die beiden I/O Schrauben zu befestigen. Ansonsten wäre wohl entweder eine zweite Stütze, oder aber etwas Aufbohren am Rahmen des CaseLABS nötig gewesen, weil das I/O so tief sitzt und die Überbreite des PCBs und Kühlers etwas stört. Der Kabelstrang passt auch noch rein, sodass ich die Türe wieder montieren und schließen konnte. Dann erstmal 1024x768 max. in Win gehabt und einen überbreiten Huang gesehen - nun ist alles wieder scharf. Was ein mächtiger Klopper - 2,35kg gewogen. :D :D :D

Desktop schon einmal in scharf:
https://abload.de/img/desktop9fdj3.png

TobiWahnKenobi
2022-10-14, 19:18:33
Ist nur eine Vermutung, aber soviel Rechenleistung wie AD102 hat, ist es schon irgendwie komisch, dass sie diese nicht auf die Straße bringen kann.

Trotz mehr als doppelt so viel TFLOPs kommen gerade einmal ~60% mehr FPS im vergleich zur 3090 an.

es sind eher 80% mehr FPS von 3090 strix oc auf 4090 tuf oc. (https://abload.de/img/tsedic84.jpg)


(..)

mfg
tobi

aufkrawall
2022-10-14, 19:22:02
Heißt das nicht eher das die Karte ein Auslastungsproblem hat?

Ich rede hier nicht vom CPU Limit, sondern ein Architektur bedingtes Problem.
Das würd ich nicht so nennen, wenn die Performance vs. eine 3080 halt trotzdem ~2x ist.

why_me
2022-10-14, 19:23:15
Einigen wir uns auf 70%, hatte eigenltich oben die ti gemeint, sorry. Die ti ist bei CB im schnitt 60% schneller, bei hohen Auflösungen.

Ex3cut3r
2022-10-14, 19:32:06
Das würd ich nicht so nennen, wenn die Performance vs. eine 3080 halt trotzdem ~2x ist.

Ja, aber wie viel besser könnte Sie eigentlich sein? Wenn die "Bremse" halt nicht wäre.
Beim Nachfolger muss Nvidia die Architektur endlich mal komplett umkrempeln. Seit Turing ist da wenig Weiterentwicklung, und das Spiel mit der "Luftpumpe" ist ziemlich teuer.

So, war doch ein bissl mehr Arbeit, als ich dachte - vorne Stütze verbaut, die ich für die 3090 kaufte, aber nicht brauchte bei nur 1,3kg. Nun ist das doch leicht mehr. Zum Glück ist das gesamte Board samt I/O auf einem MoBo-Tray-Schlitten, sodass ich es grob 2cm hinten heraus ziehen konnte, um die beiden I/O Schrauben zu befestigen. Ansonsten wäre wohl entweder eine zweite Stütze, oder aber etwas Aufbohren am Rahmen des CaseLABS nötig gewesen, weil das I/O so tief sitzt und die Überbreite des PCBs und Kühlers etwas stört. Der Kabelstrang passt auch noch rein, sodass ich die Türe wieder montieren und schließen konnte. Dann erstmal 1024x768 max. in Win gehabt und einen überbreiten Huang gesehen - nun ist alles wieder scharf. Was ein mächtiger Klopper - 2,35kg gewogen. :D :D :D

Desktop schon einmal in scharf:
https://abload.de/img/desktop9fdj3.png

Wieso kann deine (veraltete) Plattform PCIe 4.0? Ist die GPU, sry.

Ich an deiner Stelle hätte, die 3090 behalten, und mir eine neue, CPU, RAM, Board gekauft, hättest damit ein runderes Spielerlebnis gehabt, als mit der 4090 im CPU Limit. Aber musst du wissen.

why_me
2022-10-14, 19:38:15
Da steht doch 4.0@3.0x16 im GPUz

wolik
2022-10-14, 19:40:57
So. 4090 TUF (non OC) Meine ersten Eindrücke. 225/1000. läuft stabil mit 3GHz. Karte sehr hochwertig und schwer. Org. Stromanschluss (ich habe ATX 3.0 Netzteil von TT 1350) geht verdammt hart in Karten Stromanschluss.
Spiele, die keine DLSS-Leistung unterstützen... naja. WD2 z.B. Alles andere Control, HZD und andere wahre Monster.
CP2077 v 1.6 ich finde keinen DLSS 3.0 Schalter?

Radeonfreak
2022-10-14, 19:48:47
So, Gainward Phantom RTX 4090 GS eingebaut. jetzt Testen.

dildo4u
2022-10-14, 19:54:22
So. 4090 TUF (non OC) Meine ersten Eindrücke. 225/1000. läuft stabil mit 3GHz. Karte sehr hochwertig und schwer. Org. Stromanschluss (ich habe ATX 3.0 Netzteil von TT 1350) geht verdammt hart in Karten Stromanschluss.
Spiele, die keine DLSS-Leistung unterstützen... naja. WD2 z.B. Alles andere Control, HZD und andere wahre Monster.
CP2077 v 1.6 ich finde keinen DLSS 3.0 Schalter?

Cyberpunk hat DLSS3 nur für Hardware Tester.
Offiziell kommt später.

Linmoum
2022-10-14, 19:56:09
Die Karten sind ja noch richtig frisch, meine ist aus KW 38. In der Woche hat Lederjacke die Karte erst angekündigt. :D

rentex
2022-10-14, 20:04:03
Höre ich da Beschwerden über das effiziente Verhalten der 4090?
Wie man es macht, passt es nicht...glaubt man ja alles nicht ;-D

ChaosTM
2022-10-14, 20:06:10
Höre ich da Beschwerden über das effiziente Verhalten der 4090?
Wie man es macht, passt es nicht...glaubt man ja alles nicht ;-D


da musst du was falsch verstanden haben. Gabs schon viele Seiten lang nicht..

Das Namensschema ist einfach OFF

ChaosTM
2022-10-14, 21:16:44
https://www.kitguru.net/components/graphic-cards/dominic-moass/inno3d-rtx-4090-x3-oc-review/

Inno 3D.. schön leise, aber kein Dual Bios und leichte Einschränkungen bei der MAXpower.

basix
2022-10-14, 21:21:30
Was ebenfalls speziell ist: Die GPU-Spannung beträgt minimal 0.87V. Das limitiert die untere Grenze für UV oder TDP Senkung. Schade, 0.8V würde den unteren Anschlag nochmals gut senken. Bei meiner Karte (ASUS TUF) ist es am idealsten, wenn man >2.5 GHz bleibt (bei 270W TBP). Ansonsten lässt man Leistung liegen. Mit manuellem OC kann man die GPU allerdings nochmals ~1.33x effizienter bekommen, als sie es Stock ist.

Das Thema mit den 0.87V stört mich ein bisschen. Gibt gewisse Fälle, wo 270W dann zuwenig sind und die Karte deutlich Leistung verliert. Grund: Der Chip verringert die Spannung nicht weiter und kann nur noch über Taktsenkung im Power Limit bleiben. In Control @ 5K sind es 38 vs. 45fps zwischen 270W und 300W TBP. Bei 3DMark Speedway @ 5K Sind es ~3750 vs. ~4300 Punkte.

Sind allerdings die einzigen zwei Fälle, wo ich das bis jetzt gesehen habe. Auch Cyberpunk und die UE5 Demos verhalten sich nicht so. Stellt man die Auflösung auf 4K zurück oder wenn man allgemein die Last verringert (reduzierte Details), reduziert sich der Effekt deutlich, da genug Power Budget frei.

Habe jetzt ein zweites Setting mit 300W gemacht für entsprechende Spiele. Wenn ~0.8V als untere Grenze gehen würden, wäre alles tip top ;) Turing ging auf 0.73V runter und auch Ampere auf ein Turing ähnliches Niveau. Ada scheint sich hier anders zu verhalten.

Sonst bin ich aber ziemlich zufrieden. 2.63 GHz bei 0.9V, +1000 MHz auf dem VRAM und TGP auf 270W limitiert. Rennt typischerweise zwischen 2.45...2.63 GHz (4K, 5K, mit und ohne DLSS) und somit bei ~90...95% der Stock-Performance. Bei Spielen mit geringem Power Draw (UE5 City Demo ist so ein Beispiel) ist man sogar fast auf 100%, Speicher-OC sei Dank.

TobiWahnKenobi
2022-10-14, 21:23:54
https://www.youtube.com/watch?v=G3O0lKw5AvQ

:tongue:


(..)

mfg
tobi

wolik
2022-10-14, 21:30:00
https://www.youtube.com/watch?v=G3O0lKw5AvQ

:tongue:


(..)

mfg
tobi

Für paar Tests ich habe auch Lüfter auf 100% laufen lassen. Mein Gott!!! Wie stark sind die!

Sardaukar.nsn
2022-10-14, 21:32:25
Passt hier wohl besser. Vertikal passt sie nicht ohne Weiteres in ein Fractal Design Meshify 2. Der Kühler ist zu dick und kollidiert knapp hinten mit dem Gehäuse. Ich konnte den PciE Riser lockern und die Karte im Slot verdrahten, dann gings. Aber schon ziemlich Redneck.

Die Konstruktion mit Y-Kabeln und Adaptern macht auch einen abenteuerlichen Eindruck, aber funktioniert. Ein paar Schnappschüsse: https://imgur.com/a/rx5FiYr

TUF non-OC komplett Stock out of the box (Boost auf 2715 Mhz)
Timespy GPU-Score 35195 https://www.3dmark.com/3dm/80990659?
Speed Way 9727

Badesalz
2022-10-14, 21:41:44
Passt hier wohl besser. Vertikal passt sie nicht ohne Weiteres in ein Fractal Design Meshify 2.:ulol: Hammer...

Ja, ok. Es ist halt so. Eine 4090 steckt man auch nicht in einen PC. Man steckt den PC auf eine 4090.

TobiWahnKenobi
2022-10-14, 21:47:44
jetzt zahlt es sich aus, wenn einem funktionalität vor optik geht respektive in der vergangenheit ging.. mein x71 ist hässlich wie die nacht, aber hat platz.. luft.. volumen.. zahlt sich schon seit jahren immer wieder irgendwie aus.. nur dass man damals für vier slots noch zwei grakas verwendet hat :)


(..)

mfg
tobi

Rolsch
2022-10-14, 21:50:31
Hier die Zotac Trinity OC out of the box:
Timespy GPU-Score 36 414 https://www.3dmark.com/3dm/80994509

Einbau war leichter als gedacht, die 36cm Karte hat in das BQ 500 Case gerade reingepasst.

Hatte schon lang keine Nvidia mehr, das Control Panel ist ja wohl wie zu Geforce4 Zeiten. Vermisse die geile AMD Oberfläche.

Die Karte ist natürlich über jeden Zweifel erhaben, finde sie leise, Spulenfiepen hör ich auch nicht und im MSFS gehts jetzt in VR so richtig ab. Bin sehr zufrieden.

Linmoum
2022-10-14, 21:57:14
Wow. Ich hatte noch nie eine GPU mit derartig wenig Spulenfiepen/-rasseln wie diese Gigabyte. Wahnsinn.

Selbst bei 100fps+ und 420W+ ist das bei offenem Seitenfenster derart vernachlässigbar, dass das bei geschlossenem Gehäuse komplett irrelevant sein wird. Meine 6900XT hingegen vorher war dagegen richtig übel.

Badesalz
2022-10-14, 22:08:25
jetzt zahlt es sich aus, wenn einem funktionalität vor optik geht respektive in der vergangenheit ging.. mein x71 ist hässlich wie die nacht, aber hat platz.. luft.. volumen.. zahlt sich schon seit jahren immer wieder irgendwie aus..Meinst du jetzt das Thermaltake Core? Denn wenn: Warum ist das hässlich? Der optische Eindruck ist wohl eher... stark neutral :tongue:

und im MSFS gehts jetzt in VR so richtig ab. Bin sehr zufrieden.Du bist bisher auch der einzige wo man sagen könnte so ein Ding macht da auch wirklich Sinn :)

Lurtz
2022-10-14, 22:08:38
Der riesige Vorteil der 4090 ist, wenn die Karte nicht ausgelastet wird, dann sinkt der Verbrauch massiv. So extrem habe ich das noch nie gesehen. Selbst in nicht CPU-limitierenden Szenarien ist geht der Verbrauch massiv runter. Macht sie also zur perfekten 1440p Karte, wo man hohe Frames mit bester Effizienz kombinieren kann.
Wie lange muss man die Karte betreiben, um den Aufpreis bei den Stromkosten wieder rausgeholt zu haben?

ChaosTM
2022-10-14, 22:10:22
@ 1440p macht die Karte genau keinen Sinn

TobiWahnKenobi
2022-10-14, 22:18:44
Meinst du jetzt das Thermaltake Core? Denn wenn: Warum ist das hässlich? Der optische Eindruck ist wohl eher... stark neutral :tongue:

Du bist bisher auch der einzige wo man sagen könnte so ein Ding macht da auch wirklich Sinn :)

das da habe ich: https://de.thermaltake.com/core-x71-tempered-glass-edition.html

ich fand es nie hübsch, aber es funktionert schon ur-lange echt gut.



(..)

mfg
tobi

Cubitus
2022-10-14, 22:22:23
Das ist in der Tat ein geiles Verhalten. Ada versucht anscheinend im bestmöglichen Bereich zu arbeiten. Das habe ich so noch nie bei einer GPU gesehen. Erinnert mich irgendwie an das Verhalten mit Framelimiter, obwohl kein Framelimiter anliegt.


Aber auch mit manueller Drosselung, CP volle ROTZ mit DLSS Qualität und PT auf 40 Prozent 170 Watt :freak: bei 60 FPS und aalglatten Framtimes..

Neue Öko Karte ;D

ChaosTM
2022-10-14, 22:23:48
CPU Limit ?

VooDoo7mx
2022-10-14, 22:28:27
Aber auch mit manueller Drosselung, CP volle ROTZ mit DLSS Qualität und PT auf 40 Prozent 170 Watt :freak: bei 60 FPS und aalglatten Framtimes..

Neue Öko Karte ;D

Erinnert sich jemand hier an diese ganzen Gerüchte, welche wiederum von irgendwelchen Twitter Spassten verbreitet wurden, bzgl. Stromaufnahme und die daraus dann hier hysterisch und hyperventiliert geführten Diskussionen?
Da war bis 850W die Rede...

crux2005
2022-10-14, 22:28:42
Vertikal passt sie nicht ohne Weiteres in ein Fractal Design Meshify 2. Der Kühler ist zu dick und kollidiert knapp hinten mit dem Gehäuse. Ich konnte den PciE Riser lockern und die Karte im Slot verdrahten, dann gings. Aber schon ziemlich Redneck.

Die Konstruktion mit Y-Kabeln und Adaptern macht auch einen abenteuerlichen Eindruck, aber funktioniert. Ein paar Schnappschüsse: https://imgur.com/a/rx5FiYr

Wieso vertikal verbauen? :freak:

Die Lüfter sind dafür nicht gemacht und dazu können sie nicht genug Luft ansaugen weil die Seitenwand sie abwürgt.

Cubitus
2022-10-14, 22:31:07
CPU Limit ?

Nöö einfach gedrosselt per Hand Weil für konstante 60 FPS nur 40 Prozent PT gebraucht werden.

Natürlich spielt auch das CPU Limit mit, das habe ich übrigens auch im Standard mit 100 FPS

Cubitus
2022-10-14, 22:33:39
Erinnert sich jemand hier an diese ganzen Gerüchte, welche wiederum von irgendwelchen Twitter Spassten verbreitet wurden, bzgl. Stromaufnahme und die daraus dann hier hysterisch und hyperventiliert geführten Diskussionen?
Da war bis 850W die Rede...

Japp und von rauchenden Netzteilen usw.. :)

Sardaukar.nsn
2022-10-14, 23:31:10
Ist für mich ja erst ein paar Stunden mit der neuen Grafikkarte. Wohlgemerkt das "günstigste" Modell ASUS TUF non-oc aus dem eigenen Shop für 1949€.

Kollege hat das Top Modell Strix OC und es stellt sich gerade heraus, die beiden Karten sind gleich schnell und knacken problemlos die 3-Ghz Schallmauer.

https://i.imgur.com/lpqDnph.jpg

Aus der Hüfte: Speed Way https://www.3dmark.com/3dm/80996019?

https://i.imgur.com/NUFUibF.jpg

Wohin geht die Reise? Ich würde es gern testen, aber selbst der Afterburner limitiert hier aktuell. https://i.imgur.com/FjzVtGa.jpg

Absolut krankes Stück Hardware diese 4090. Sprengt bisher fast jeden Rahmen. Leider auch vom Preis :/

ChaosTM
2022-10-14, 23:40:11
Ja, das Ding ist fucking fast ;)

oder unglaublich effizient, je nach bedarf.. Grandiose Karte - abseits des preise ;)

Um das volle Potential zu entfalten braust du aber eine entsprechende CPU .. derzeitige High End CPUs sind zu langsam - Egal ob 7950 oder der kommende Raptor.

Linmoum
2022-10-14, 23:47:31
So, den Block bei EK für meine Gigabyte gerade bestellt. Estimated 25.11.

Mal schauen, der Block für meine 6900XT kam damals glaube ich sogar über eine Woche früher als ursprünglich angegeben. Vielleicht klappt's ja diesmal wieder mit DHL Express. Die paar Euro waren mir dann jetzt am Ende auch egal. ;D

horn 12
2022-10-15, 00:14:55
Der 7800X3D von AMD kommt 12 November für 879 Dollar auf den Markt!
Muss man auch Geld verdienen :-)

Lyka
2022-10-15, 00:16:18
Der 7800X3D von AMD kommt 12 November für 879 Dollar auf den Markt!
Muss man auch Geld verdienen :-)


ich hätte gerne die Lottozahlen für morgen :eek: Oder du hast einen Link zum Preis der Hardware verfügbar :O

ChaosTM
2022-10-15, 00:17:28
Die 7950er zerstört alles was mit 100% CPU Last zu tun hat. Das rechnet sich für "Arbeiter"

horn 12
2022-10-15, 00:17:39
Immer Alles
AMD kann doch nicht tatenlos zusehen wie ihr NV das Geld in den Rachen steckt...
Ne so ein weiter X3D hätte es in sich und wird wohl Frühjahr 23 kommen.

ChaosTM
2022-10-15, 00:22:28
ich hätte gerne die Lottozahlen für morgen :eek: Oder du hast einen Link zum Preis der Hardware verfügbar :O




Man hat zumindest 2 der 6? Lottozahlen.

Der 3d wird ziemlich sicher unglaublich schnell, aber nur für Gamer..

Troyan
2022-10-15, 00:59:06
Alles in 3440x1440 heute ausprobiert:
Battlefield 5 mit Raytracing@Ultra in Rotterdam: >100FPS (CPU limitierend)
Control mit DLSS Quality und Raytracing: >100 FPS (meisten CPU limitierend und Karte läuft mit 65% und 300 bis 350W)
Cyberpunk mit Psycho: 60 FPS und mit DLSS Quality 90FPS+ (CPU limitierend)

Kann mich noch daran errinnern, wie zäh das alles mit der 2080 TI. Control in 4K nur mit DLSS Performance spielbar, Battlefield war 1440p mit Low um auf 100FPS zu kommen. Cyberpunk war mit der 3090 richtig hart und nur mit DLSS Performance wirklich spielbar.

Und das beste: Lovelace wird ja noch nichtmal 100% genutzt. SER hat einiges an Potential.

ChaosTM
2022-10-15, 01:05:37
1440p interessiert die 4090er nur am Rande. ..

Cubitus
2022-10-15, 01:39:07
Alles in 3440x1440 heute ausprobiert:
Battlefield 5 mit Raytracing@Ultra in Rotterdam: >100FPS (CPU limitierend)
Control mit DLSS Quality und Raytracing: >100 FPS (meisten CPU limitierend und Karte läuft mit 65% und 300 bis 350W)
Cyberpunk mit Psycho: 60 FPS und mit DLSS Quality 90FPS+ (CPU limitierend)

Kann mich noch daran errinnern, wie zäh das alles mit der 2080 TI. Control in 4K nur mit DLSS Performance spielbar, Battlefield war 1440p mit Low um auf 100FPS zu kommen. Cyberpunk war mit der 3090 richtig hart und nur mit DLSS Performance wirklich spielbar.

Und das beste: Lovelace wird ja noch nichtmal 100% genutzt. SER hat einiges an Potential.

Joa PT Limit senken und sparen, denkt an die Umwelt xD

Ich bin immer noch richtig geflasht von der Karte

BlacKi
2022-10-15, 02:10:37
1440p interessiert die 4090er nur am Rande. ..same with dlss3.0

Oliver_M.D
2022-10-15, 02:26:43
Alles in 3440x1440 heute ausprobiert:Wäre noch interessant zu wissen wie niedrig du das PT setzen musst damit wieder in GPU limit bist, oder wie sich der verbrauch dadurch verändert.

ChaosTM
2022-10-15, 03:52:47
fork you.,.

Die karte interessiert sich nur für 2160p +

just4FunTA
2022-10-15, 06:24:23
E4NL1JfPiIo

Thunderburne
2022-10-15, 06:41:41
Hi Leute ,wie bekomme ich hier am einfachsten Bilder rein ohne sie komprimieren zu müssen so direkt so zum anschauen?
Möchte heute Abend hier ein Paar Bilder vom 1000D mit der Aorus Master posten wen sie den ankommt!
Irgendwie ist das hier anders im 3D oder ich raf es nur nicht !

just4FunTA
2022-10-15, 06:54:49
du musst die bilder wo anders hochladen wie zum Beispiel auf:

www.abload.de

www.imgbb.com

und dann kannst die Bilder hier reinposten.



[img]http://www.Webseite.de/Deinbild.jpg[/ img]

Thunderburne
2022-10-15, 07:01:50
du musst die bilder wo anders hochladen wie zum Beispiel auf:

www.abload.de

www.imgbb.com

und dann kannst die Bilder hier reinposten.



[img]http://www.Webseite.de/Deinbild.jpg[/ img]


Danke!

Sardaukar.nsn
2022-10-15, 07:28:19
Hi Leute ,wie bekomme ich hier am einfachsten Bilder rein ohne sie komprimieren zu müssen so direkt so zum anschauen?
Möchte heute Abend hier ein Paar Bilder vom 1000D mit der Aorus Master posten wen sie den ankommt!...

Geil, ich bin gespannt auf das Teil. Ist glaube ich diesmal der größte Brocken.

Ansonsten aktuell #57 und viele bekannte Namen auch aus dem Luxx dabei https://www.3dmark.com/hall-of-fame-2/speed+way+3dmark+score+performance+preset/version+1.0

Edgecrusher86
2022-10-15, 07:29:10
Ist für mich ja erst ein paar Stunden mit der neuen Grafikkarte. Wohlgemerkt das "günstigste" Modell ASUS TUF non-oc aus dem eigenen Shop für 1949€.

Kollege hat das Top Modell Strix OC und es stellt sich gerade heraus, die beiden Karten sind gleich schnell und knacken problemlos die 3-Ghz Schallmauer.

https://i.imgur.com/lpqDnph.jpg

Aus der Hüfte: Speed Way https://www.3dmark.com/3dm/80996019?

https://i.imgur.com/NUFUibF.jpg

Wohin geht die Reise? Ich würde es gern testen, aber selbst der Afterburner limitiert hier aktuell. https://i.imgur.com/FjzVtGa.jpg

Absolut krankes Stück Hardware diese 4090. Sprengt bisher fast jeden Rahmen. Leider auch vom Preis :/


Herzlichen Glückwunsch - ja, die TUF OC war doch "leicht" überteuert - aber ich mag ungern warten. Ein Bekannter hatte dann Mittwoch Abend kurz nach mir bei der TUF OC zugeschlagen. Also normal sollte ASUS da 50-100€ mehr verlangen als bei der non - für + 45 MHz Boost als einziger Unterschied. So ist das doch vorsichtig ausgedrückt etwas dreist, als Aufpreis ein Low-End Modell aufzurufen.
Das Böse ist aber - es funktioniert. :freak:


Ja, absoluter Wahnsinn die Karte - selbst schon @ Stock. :D


QII RTX etwa läuft 2,5x bis knapp 3x so schnell wie eine ~ 1,8 GHz RTX 3090; sprich wie etwa die RTX 3090 50er fps abliefert, haut die 4090er mal locker flockig 124-141 fps heraus. Der Hardcore-Test war dann 6880x2880 DSR -> ca. 39 fps vs. 14 fps, also mit etwas Mehrtakt ist wohl 3x GA102 kein Problem. :biggrin:
Im Umkehrschluss kann man z.B. dieselben fps wie Ampere bei solchen lustigen Settings wie 210 oder 495 MHz Core / 10250 MHz Mem erreichen - Ende 50er fps in 3440x1440 max bei - Anschnallen: 152-155W statt 370-380W wie per 3090! :D:D:D


Control @ DLSS habe ich auch mal als Effizienztest genutzt. Einfach nur geladen und verglichen von einer Ladestation ohne Action. Die Ergebnisse waren jedenfalls sehr bemerkenswert.

3440x1440 @ DLSS Q (960p) @ 80Hz/fps -> 125-133W [~ 1305/10502 MHz @ ~ 875mV]
3440x1440 @ DLSS Q (960p) @ 60Hz/fps -> 95-98W [~ 1065/5002 MHz @ ~ 875mV]
3440x1440 @ DLSS Q (960p) @ 50Hz/fps -> 87-90W [~ 945/5002 MHz @ ~ 875mV]
3440x1440 @ DLSS B (835p) @ 50Hz/fps -> 78-80W [~ 825/5002 MHz @ ~ 865mV]
3440x1440 @ DLSS P (720p) @ 50Hz/fps -> 73-75W [~ 780/5002 MHz @ ~ 870mV]

Die letzten beiden Settings liefen dann jedenfalls noch passiv an - mal später schauen, wann die Lüfter anspringen - habe nur kurz das Material auf Bild festgehalten. :D

E: Die rote LED beim 16er PWR vor dem Booten oder im Standby ist wohl normal oder? Geht dann aus, sobald man an schaltet.
Habe mal gesucht - im ASUS Forum hatte jemand das auch bemerkt und sich gefragt, ob das normal ist. Hm, ich hätte dann eher eine grüne LED genommen oder so.
Jedenfalls habe ich alle vier 8er angeschlossen. Vielleicht geht die zweite LED ja an, wenn man weniger eingestöpselt hat. Hm. ;)



https://www.bildhost.com/
Bietet zum Beispiel die Möglichkeit bis 100MB Pics hochzuladen - das sollte ja schicken - außer, wenn man bis 16K hoch geht - dann kann es z.B. als .png schon einmal bis 300MB groß sein. :D

Die AORUS MASTER -> herzlichen Glückwunsch! Was wiegt denn das gute Stück? Unter oder über 3kg? :D
Die hätte ich auch gerne geholt - so ein Mist, dass NBB nicht funzte am Mittwoch nach 15:00 - konnte sie nicht in den Warenkorb packen als "sofort vergübar"....:(
Auf jeden Fall ist die Karte erst einmal der Kaiser der Karten, das steht fest. :biggrin:

Ich habe zwar nur Bilder mit meinem alten Mix 2 gemacht, aber nun ja - ich will die mal auf den PC übertragen. Die TUF OC beeindruckte mich dann schon sehr live - so etwas man in der Hand gehalten zu haben alleine....krank. ;D
Dagegen war die ZOTAC Trinity eine Midrange-Karte, auch maßlich und bezüglich Gewicht (etwas über 1kg Differenz!).


Krasse fps die Matrix Demo - mit DLSS 2/3 sollte dann ja 5/6K EPIC gut spielbar laufen. Muss ich mal laden und dann 6880x2880 wählen (4.00x DSR; mal schauen ob da später nicht auch DL-DSR für kommt - wäre fein) ^^

Rolsch
2022-10-15, 07:32:06
Tja wer sich frägt ob ein Be Quiet Straight Power 11 750 Watt reicht für eine 4090 dem muss ich sagen genau dieses Netzteil macht heute morgen beim einschalten nur noch 1x Klack. Gestern Abend ganz normal runtergefahren aber die Anstrengung mit der 4090 war wohl zuviel. :(
Mit der 6900xt gehts auch nicht mehr also werd ich ein neues holen.
Hab weder was übertaktet nur 3Dmark und MSFS, am 450 Watt Limit habe ich eigentlich nie gekratzt. Das Netzteil war eigentlich noch nicht so alt, gekauft März 2021.

dildo4u
2022-10-15, 07:33:51
3D Mark ist dafür Designt die Karte zu maxen, Games haben deutlich mehr CPU Last da musste dich anstrengen das Limit zu erreichen.

Sardaukar.nsn
2022-10-15, 07:50:56
@Edgecrusher86: Sehr gut! Quake 2 RTX hat bei meiner 3080 auch immer am meisten Watt gezogen und die niedrigsten boost. Teste ich unbedingt gleich mal.

Dann kommt New World :freak:

@Rolsch Klingt nicht gut, hattest du noch noch Garantie auf dem Netzteil?

Thunderburne
2022-10-15, 07:55:41
Geil, ich bin gespannt auf das Teil. Ist glaube ich diesmal der größte Brocken.

Ansonsten aktuell #57 und viele bekannte Namen auch aus dem Luxx dabei https://www.3dmark.com/hall-of-fame-2/speed+way+3dmark+score+performance+preset/version+1.0

Jo ich hab mir gedacht wen so viel Geld dann aber auch bitte die größte Karte😊
Hab aber schon gesehen von Ek kommt im November ein Wasserkühler !
Mal schauen wie die Lukü sich schlägt

Rolsch
2022-10-15, 07:57:23
@Rolsch Klingt nicht gut, hattest du noch noch Garantie auf dem Netzteil?
Ja müssten 2 Jahre sein bei CSL. Hole jetzt aber erstmal ein stärkeres BQ mit denselben Kabeln, keine Lust alles neu zu verkabeln.

Thunderburne
2022-10-15, 08:03:24
@Edgecrusher86: Sehr gut! Quake 2 RTX hat bei meiner 3080 auch immer am meisten Watt gezogen und die niedrigsten boost. Teste ich unbedingt gleich mal.

Dann kommt New World :freak:

@Rolsch Klingt nicht gut, hattest du noch noch Garantie auf dem Netzteil?

Jo New World hat auch gut rein gehauen beim Powertarget der 3080Ti .
Bin mal gespannt wieviel die 4090 da lutscht.

just4FunTA
2022-10-15, 08:06:05
Tja wer sich frägt ob ein Be Quiet Straight Power 11 750 Watt reicht für eine 4090 dem muss ich sagen genau dieses Netzteil macht heute morgen beim einschalten nur noch 1x Klack. Gestern Abend ganz normal runtergefahren aber die Anstrengung mit der 4090 war wohl zuviel. :(
Mit der 6900xt gehts auch nicht mehr also werd ich ein neues holen.
Hab weder was übertaktet nur 3Dmark und MSFS, am 450 Watt Limit habe ich eigentlich nie gekratzt. Das Netzteil war eigentlich noch nicht so alt, gekauft März 2021.

Mein Bequiet 850W hat auch vor kurzem den Geist aufgegeben, gekauft April 2021. Allerdings schon mit der 6900XT, gewechselt habe ich nicht. Ging manchmal unter Last einfach aus und lies sich dann erst wieder einschalten wenn ich das Kabel gezogen habe, danach ging es wieder eine weile usw..

aufkrawall
2022-10-15, 08:21:50
3D Mark ist dafür Designt die Karte zu maxen, Games haben deutlich mehr CPU Last da musste dich anstrengen das Limit zu erreichen.
Ist mit Dying Light 2 kein Problem. Aber das scheint auch eher die Ausnahme zu sein. Da fragt man sich, was andere Entwickler machen.

Sardaukar.nsn
2022-10-15, 08:25:38
Jo New World hat auch gut rein gehauen beim Powertarget der 3080Ti .
Bin mal gespannt wieviel die 4090 da lutscht.

Bei New World gab es auch noch ganz andere Probleme :eek: https://www.pcwelt.de/article/1198091/amazons-new-world-zerstoerte-24-rtx-3090-evga-erklaert-den-grund.html

dildo4u
2022-10-15, 08:31:50
Ist mit Dying Light 2 kein Problem. Aber das scheint auch eher die Ausnahme zu sein. Da fragt man sich, was andere Entwickler machen.
Einfach keiner baut für High-End PC, das Ziel sind zur Zeit maximal 3060 oder PS5 Performance.
Kann gut sein das wenn Cross-Gen Zu Ende ist die 120fps Modi verschwinden und wir wieder bei 60fps sind.

Thunderburne
2022-10-15, 08:39:37
Bei New World gab es auch noch ganz andere Probleme :eek: https://www.pcwelt.de/article/1198091/amazons-new-world-zerstoerte-24-rtx-3090-evga-erklaert-den-grund.html
Das war damals nur Panik mache!
Gibt immer ein Paar Karten die nicht richtig gut montiert bzw. wo Komponenten auf dem PCB nicht sauber verlötet oder Qualitativ nicht in Ordnung waren.

Ich hab mit meiner 3080Ti FE keine Probleme gehabt bei 400W und New World wie viele andere auch!
Gruß

TobiWahnKenobi
2022-10-15, 08:45:55
Geil, ich bin gespannt auf das Teil. Ist glaube ich diesmal der größte Brocken.

Ansonsten aktuell #57 und viele bekannte Namen auch aus dem Luxx dabei https://www.3dmark.com/hall-of-fame-2/speed+way+3dmark+score+performance+preset/version+1.0

danke für die momentaufnahme.. wenn man jetzt wo viele ihre bestellten karten bekommen nicht fleissig weiterbencht, geht das abrutschen los. ich bin schon von platz 17 auf 23..


(..)

mfg
tobi

SamLombardo
2022-10-15, 08:55:44
Ui na da bin ich mal gespannt ob mein xfx 850w Black Edition Probleme macht. Klingt ja nicht mehr ganz so beruhigend was man hier so von Netzteilerfahrungen liest.oh oh.

Edgecrusher86
2022-10-15, 09:02:22
Tja wer sich frägt ob ein Be Quiet Straight Power 11 750 Watt reicht für eine 4090 dem muss ich sagen genau dieses Netzteil macht heute morgen beim einschalten nur noch 1x Klack. Gestern Abend ganz normal runtergefahren aber die Anstrengung mit der 4090 war wohl zuviel. :(
Mit der 6900xt gehts auch nicht mehr also werd ich ein neues holen.
Hab weder was übertaktet nur 3Dmark und MSFS, am 450 Watt Limit habe ich eigentlich nie gekratzt. Das Netzteil war eigentlich noch nicht so alt, gekauft März 2021.

Mein NT ist 9 Jahre und zuckt nicht einmal - hatte ich schon mit 660W+ belastet im Maxwell X OC SLI damals mit Custom BIOS. :freak:


Tipp von mir: Hole dir einfach ein anständiges NT mit 100A auf +12V [1200W-Klasse] - dann ist Ruhe im Karton und die nächsten Generationen dürfen auch kommen.
Das sind einmal grob 200€ oder mehr je Hersteller und Modell - gut investiertes Geld. Meine 4090 hängt nun an vier Rails a 30A, wie sich das gehört. ;)

TobiWahnKenobi
2022-10-15, 09:18:34
ich schrieb es ja schon - ich konnte schon gesamtpeak von 900W messen. kommt halt auch sehr darauf an, wie weit das grundsystem über seinem limit läuft. und gerade für benchmarks am ersten tag, fährt man ja vllt. auch einstellungen, die nicht so ganz dem 24/7 betrieb entsprechen. mit 850W PSU wäre das jedenfalls zu sehr auf kante genäht, obwohl ich damals mit dem 850i (corsair) ja auch peaks von über 1000W (SLi) messen konnte und das NT ist nicht ausgestiegen. das war anno knips aber der moment, das 850W gegen eines mit 1.2KW zu tauschen.


(..)

mfg
tobi

aufkrawall
2022-10-15, 09:29:45
Die Karten sind komplett harmlos gegen die GA102-Custom-Riege. Wenn ein NT damit Probleme hat, würd ich es einfach mal als kacke bezeichnen. Glaube kaum, dass gescheite Seasonic-Modelle ab ~650W irgendwelche Probleme haben.

Si|encer
2022-10-15, 09:30:38
Also meine 3090TI mit 5900X läuft ohne Mucken mit einem BQ Straight Premium 850 (angeschlossen an 3 Rails). Habe schon häufiger 470 Watt bei der 3090 mit GTA V beobachten können.

Da sollte man eigentlich für die 4090 kein 1200 Watt Netzteil brauchen. :freak:

Aber gut, wenn man ohnehin ein neues Netzteil kauft, dann machen die 50 € mehr oder weniger auch nichts mehr aus. ;D

why_me
2022-10-15, 09:31:58
Hat eigentlich schon jemand am Speicher rumgespielt, wie sich VRAM OC/UC auf die Benchmarks durchschlägt?

Edgecrusher86
2022-10-15, 09:35:50
Die Karten sind komplett harmlos gegen die GA102-Custom-Riege. Wenn ein NT damit Probleme hat, würd ich es einfach mal als kacke bezeichnen. Glaube kaum, dass gescheite Seasonic-Modelle ab ~650W irgendwelche Probleme haben.

ASUS hatte ja bei der 90 Strix OC 960W Peak gemessen - eingestellt war das 480W PT. Also ja, kann man so sagen. :D :D :D
Jetzt sind wir bei Ach und Krach 620W Peaks - wenn professionell 100% load kommt - hatte ja Igor bei der maximierten FE gemessen.

Niall
2022-10-15, 09:39:29
Werde mein nunmehr 8-Jahre altes Corsair 750 HXi in Rente schicken und habe bereits ein 2022er 1000 HXi hier liegen. Better safe than sorry und ich wollte eh mal peu a peu ein paar Dinge auffrischen. :D

aufkrawall
2022-10-15, 09:56:53
Werde mein nunmehr 8-Jahre altes Corsair 750 HXi in Rente schicken und habe bereits ein 2022er 1000 HXi hier liegen. Better safe than sorry und ich wollte eh mal peu a peu ein paar Dinge auffrischen. :D
Kann man machen. Würd ich aber nicht generell empfehlen, wenn Seasonic zumindest auf die höherpreisigen Geräte 12 Jahre Garantie gibt. Der Kram ist insbesondere bei wenig intensiver Belastung dafür gemacht, ewig zu halten.

Linmoum
2022-10-15, 09:58:36
Gibt's irgendwelche Standard-Treibereinstellungen bei NV, die man setzen sollte? Meine letzte ist schon wieder 'ne Weile her.

TobiWahnKenobi
2022-10-15, 10:01:20
was meint ihr, ist das too much?


https://abload.de/img/4090_led_modww46fpd.jpg
RTX 4090 wasserwaage & LED mod

@treiber
standardeinstellungen laden, gsync und dsr einschalten, modus für geringe latenz auf ultra, fertig.
mancheiner checkt noch mit CRU ob es eine 4096er auflösung im EDID gibt und entfernt diese.


(..)

mfg
tobi

why_me
2022-10-15, 10:04:27
Ist das RGB? Wenn nein, dann bringt das doch garkeine FPS und kann weg. :rolleyes:

PS: Die Karte hängt schief :biggrin:

CompEx
2022-10-15, 10:05:26
https://www.kitguru.net/components/graphic-cards/dominic-moass/inno3d-rtx-4090-x3-oc-review/

Inno 3D.. schön leise, aber kein Dual Bios und leichte Einschränkungen bei der MAXpower.

Bei Luxx war die INNO lauter und heißer als die FE. Liegt vermutlich an den verschiedenen Gehäusen bei den Tests.

LG
CompEx

aufkrawall
2022-10-15, 10:06:21
Gibt's irgendwelche Standard-Treibereinstellungen bei NV, die man setzen sollte? Meine letzte ist schon wieder 'ne Weile her.
HQ-Texturfilterung, Ultra Low Latency (betrifft aber D3D12 und Vulkan nicht) mindestens on, wenn nicht ultra. Ggf. auch per Spiel-Profil das Takt-Management auf maximale Performance setzen, wenn die GPU nicht hoch ausgelastet ist. Global erzwungene 16x anisotrope Filterung macht unterm Strich auch imho Sinn. In Spielen generell Reflex nutzen. VRR ggf. nur für exklusiven Vollbild aktivieren. Das wars im Grunde.

Edit: Shader Cache-Maximalgröße kann man noch anheben.

Troyan
2022-10-15, 10:12:59
Wäre noch interessant zu wissen wie niedrig du das PT setzen musst damit wieder in GPU limit bist, oder wie sich der verbrauch dadurch verändert.

200W: https://ibb.co/6110pNT

Tiefer mit Powerlimit bringt nichts, da dann der Takt immer zwischen 1300MHz und 2200MHz springt. :cool:

Ist so sauber spielbar, da ich im CPU-Limit hänge.

robbitop
2022-10-15, 10:13:07
Sieht aus wie bei einem geistig 14 Jährigen. Bling bling. X-D
————————————

Nvidia canclet die 4080 12 GB. Weil sie einen falschen Namen hat:
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4080-12gb-canceld/

Hat der Shitstorm ja wenigstens ein bisschen geholfen. Aber man kann es ja mal probieren :D
Und genau das wird NV vermutlich weiter tun - sich so nah ran tasten bis es nicht mehr geht.
Irgendwann ist der 107 Chip dran als 80 Karte X-D - sukzessive einfach die Lemminge da ran gewöhnen

RoNsOn Xs
2022-10-15, 10:14:54
VRR ggf. nur für exklusiven Vollbild aktivieren. Das wars im Grunde.
So mach ichs auch schon jahrelang.
Warum allerdings das letzte ggf? Gründe?

aufkrawall
2022-10-15, 10:21:17
So mach ichs auch schon jahrelang.
Warum allerdings das letzte ggf? Gründe?
Einige Anwendungen triggern so etwa VRR im Fenstermodus, womit dann der HW-Cursor auf dem Desktop nur noch mit stark reduzierter Aktualisierungsrate läuft. Andere User in anderen Foren berichten auch schon mal schwerere Probleme, die ich aber so bislang noch nicht nachvollziehen konnte.
Mit Win 11 22H2 braucht man aber im Grunde gar kein VRR mehr für borderless, weil borderless zu Vollbild "promotet" werden kann. Oder man nutzt ReShade, und kann damit etwa für Cities Skylines, und sicherlich auch andere Unity-Spiele, Vollbild erzwingen. VRR im Vollbildmodus der Streaming-Apps wie Prime geht auch ohne borderless VRR im Treiber.

RoNsOn Xs
2022-10-15, 10:26:23
Okay, danke für die Erklärung. Mir war bis dato noch nichts negatives aufgefallen. Lass ichs mal immer an.

Edgecrusher86
2022-10-15, 10:27:29
So, dann wollen wir mal die Galerie starten mit dem Spar-Jensen:

https://abload.de/img/12ed3i.png
Nicht wundern - ist ein Schrankspiegel, darum Glitches außen. :D


https://abload.de/img/img_20221014_1657483uigi.jpg https://abload.de/img/img_20221014_170625tlcx0.jpg

https://abload.de/img/img_20221014_1706565dd3y.jpg https://abload.de/img/img_20221014_17070528d99.jpg

https://abload.de/img/img_20221014_165800pcdoq.jpg https://abload.de/img/img_20221014_165808fidvj.jpg

https://abload.de/img/img_20221014_1658174pea0.jpg https://abload.de/img/img_20221014_165823w6e3s.jpg

https://abload.de/img/img_20221014_1703308wcw2.jpg



https://abload.de/img/img_20221014_1658465afsg.jpg

TobiWahnKenobi
2022-10-15, 10:28:22
@VRR
wenn ich z.b. im vollbild mit VRR kein bild bekomme (passiert hier reproduzierbar wenn ich fürs OLED DP1.4->HDMI2.1 adapter verwende), dann kommt es ohne das zweite häkchen im CP mit ALT+ENTER wieder.

AFAIR läuft auch kodi standardmäßig im vollbild-fenster und die bildwiederholfrequenz wird jeweils passend zum file gewählt.
da brauchts kein VRR.

das sind die einzigen "gründe", die mich bisher angesprungen haben, wenn ich VRR auf vollbild beschränke.


(..)

mfg
tobi

why_me
2022-10-15, 11:17:59
Könnte mal jemand aida64 auf seiner 4090 laufen lassen?

Radeonfreak
2022-10-15, 11:22:09
Könnte mal jemand aida64 auf seiner 4090 laufen lassen?

Bitte

https://abload.de/img/gpgpujjdto.png

why_me
2022-10-15, 11:23:08
danke

Sardaukar.nsn
2022-10-15, 11:39:05
Hat eigentlich schon jemand am Speicher rumgespielt, wie sich VRAM OC/UC auf die Benchmarks durchschlägt?

Meine TUF lässt sich gut takten. Beim Vram bekomme ich Score steigerungen in 3Dmark Speed Way bis +1500 Mhz danach gehts wieder runter. Müsste die 4090 nicht eigentlich sogar ECC Ram haben?`

Ein nerviger Bug noch in Cyberpunk 2077. Seit dem Wechsel der Grafikkarte speichert er keine Einstellungen mehr und will auch nicht über 60 FPS hinaus. Hab gefühlt schon alles ausprobiert, vielleicht hat ja hier noch jemand ne Idee?

https://i.imgur.com/79VkKo7.jpg

Ansonsten ist Quake 2 RTX mal wieder komisch mit dem Vulkan Renderer. Läuft wie Grüze und heizt wie keine anderes Stück Software.

https://i.imgur.com/tx79BgE.jpg

Badesalz
2022-10-15, 11:42:51
Erinnert sich jemand hier an diese ganzen Gerüchte, welche wiederum von irgendwelchen Twitter Spassten verbreitet wurden, bzgl. Stromaufnahme und die daraus dann hier hysterisch und hyperventiliert geführten Diskussionen?
Da war bis 850W die Rede...Verbraucht Ada eigentlich mehr oder weniger, wenn der quality regression mod gefahren wird?

TobiWahnKenobi
2022-10-15, 11:43:10
ECC musst du im treiber
aktivieren und es schmälert die
bandbreite wohl um 10%


(..)

mfg
tobi

Cubitus
2022-10-15, 11:55:12
So, dann wollen wir mal die Galerie starten mit dem Spar-Jensen:

https://abload.de/img/12ed3i.png
Nicht wundern - ist ein Schrankspiegel, darum Glitches außen. :D


https://abload.de/img/img_20221014_1657483uigi.jpghttps://abload.de/img/img_20221014_170625tlcx0.jpg

https://abload.de/img/img_20221014_1706565dd3y.jpg

https://abload.de/img/img_20221014_17070528d99.jpg

https://abload.de/img/img_20221014_165800pcdoq.jpg

https://abload.de/img/img_20221014_165808fidvj.jpg

https://abload.de/img/img_20221014_1658174pea0.jpg

https://abload.de/img/img_20221014_165823w6e3s.jpg

https://abload.de/img/img_20221014_1703308wcw2.jpg



https://abload.de/img/img_20221014_1658465afsg.jpg

Du weißt schon "Jacken" und 3DC stehen in einem speziellen Verhältnis :D
Glückwunsch echt schöne Karte :)

Cubitus
2022-10-15, 12:01:28
Meine TUF lässt sich gut takten. Beim Vram bekomme ich Score steigerungen in 3Dmark Speed Way bis +1500 Mhz danach gehts wieder runter. Müsste die 4090 nicht eigentlich sogar ECC Ram haben?`

Ein nerviger Bug noch in Cyberpunk 2077. Seit dem Wechsel der Grafikkarte speichert er keine Einstellungen mehr und will auch nicht über 60 FPS hinaus. Hab gefühlt schon alles ausprobiert, vielleicht hat ja hier noch jemand ne Idee?

https://i.imgur.com/79VkKo7.jpg

Ansonsten ist Quake 2 RTX mal wieder komisch mit dem Vulkan Renderer. Läuft wie Grüze und heizt wie keine anderes Stück Software.

https://i.imgur.com/tx79BgE.jpg

kann sein das bei dir das Scaling hochgesetzt wurde druck mal bindestrich taste neben dem Punkt :)

Edgecrusher86
2022-10-15, 12:04:45
Du weißt schon "Jacken" und 3DC stehen in einem speziellen Verhältnis :D
Glückwunsch echt schöne Karte :)

Das interessiert mich nicht - ich zieh' an, was mir gefällt. Danke sehr - ja, die richtig lustigen Bilder kommen noch.

Außerdem ist es doch wie immer - erst jammert alles, dann haben mindestens 70% der Nerds innerhhalb der ersten Wochen neue HW verbaut. ;)

Edgecrusher86
2022-10-15, 12:19:50
Hm, hat irgendjemand zufällig die Telefonnummer von Jensen? Ich bräuchte die RTX 5090 - dringend. :D

https://abload.de/thumb/unrealgame_2022_10_15esc0o.jpg (https://abload.de/image.php?img=unrealgame_2022_10_15esc0o.jpg)

Einen Tag alt und schon unter 30 fps. :mad:

Der Dev. nennt das auch noch RTX 4080 Preset - lol, dann hätte ich wohl 20 fps max gehabt. :freak
Gut, mit einem 13900K wären es wohl 98-99% Usage und evtl. knapp 30 fps gewesen. ^^

Na mal sehen, ist ja dort nur TSR am Start noch - DLSS 2 würde locker nochmals 5-10 fps bringen.


E:

https://abload.de/thumb/unrealgame_2022_10_15jvepn.jpg (https://abload.de/image.php?img=unrealgame_2022_10_15jvepn.jpg)

Typisch UE - so wenig CPU Load, dass alles verhungert und diese bei teilweise 2,4-3,0 GHz herum dümpelt. Dann ist auch klar, dass man teils nur 90% load sieht. :D
SMT off und das Ganze ist ein wenig besser...aber immer noch zuviele Freds für konstant 4,0 GHz. :D

Das erinnert mich an RDR2 - da werden auch nur 4T richtig hoch ausgelastet - bis gleich also....;D

Badesalz
2022-10-15, 12:21:20
Sieht aus wie bei einem geistig 14 Jährigen. Bling bling. X-DLeute... Zu 99% meint er die Neigung und die "rosé Schlange" :tongue: diente nur als Gag um die Wasserwage zu beleuchten. Was los mit euch? :wink:

Nvidia canclet die 4080 12 GB. Weil sie einen falschen Namen hat:
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4080-12gb-canceld/

Hat der Shitstorm ja wenigstens ein bisschen geholfen. Aber man kann es ja mal probieren :DBist du sicher, daß man nicht eher endlich rausfand, daß sie von N33 verhauen wird? DAS wäre doch erst der reale Imageverlust, wenn eine "4080" einer 7700 unterliegt :wink:

aufkrawall
2022-10-15, 12:24:25
Einen Tag alt und schon unter 30 fps. :mad:

Ja, in Oblivion mit Treiber-HBAO+ und 4x4OGSSAA waren es in 4k auch nur ~45fps im Gras. Die Karte ist schon seit 2006 veraltet. :freak:

Cubitus
2022-10-15, 12:34:49
Außerdem ist es doch wie immer - erst jammert alles, dann haben mindestens 70% der Nerds innerhhalb der ersten Wochen neue HW verbaut. ;)

So ist es :)

Was für einen Bench lässt laufen der so Perfomance zieht?

Ich hatte gerade wieder ein AHA Erlebnis bei Metro Exodus mit RTX.
Hab meine Frames ja gelockt 100 FPS weil mein Monitor eh nur 100HZ kann.
3440*1440p

Die 4090 langweilt sich, selbst mit DLSS aus... Aber das Spiel läuft dermaßen Flüssig, Framtimes wie ne Nadel..
Verbrauch liegt so bei 350 Watt Mache ich DLSS auf Qualität, was ja auch wirklich gut aussieht, dann sinkt der Verbrauch auf 225-250 Watt.. Karte langweilt sich noch mehr.

Nun sind wir an den Punkt angekommen, wo DLSS nicht mehr wegen den FPS eingesetzt wird, sondern als Öko-Option.. Wie geil ist das denn :freak:

Cyberpunk war noch am lustigsten gelockt auf 60 FPS, DLSS Qualität und 177 Watt Stromverbrauch xD
Bin mal gespannt wie es sich mit DLSS 3 verhält, also ich brauch eigl bei CP nicht schneller als 60.. 100FPS sind aber auch nice..

Ich finds so geil das man sich diesen Luxus einfach so gönnen kann.. Leistung ist zweitrangig, es geht einfach um die Effizienz
Jedes bisherige Spiel was ich der Karte zu fressen gab hat kein Leistungsproblem mehr..

Sardaukar.nsn
2022-10-15, 12:37:57
@Cubitus: Danke, es war das Scaling. 200%, also doch keine 8K GPU ;)

Edgecrusher86
2022-10-15, 12:39:52
So ist es :)

Was für einen Bench lässt laufen der so Perfomance zieht?

Ich hatte gerade wieder ein AHA Erlebnis bei Metro Exodus mit RTX.
Hab meine Frames ja gelockt 100 FPS weil mein Monitor eh nur 100HZ kann.
3440*1440p

Die 4090 langweilt sich, selbst mit DLSS aus... Aber das Spiel läuft dermaßen Flüssig, Framtimes wie ne Nadel..
Verbrauch liegt so bei 350 Watt Mache ich DLSS auf Qualität, was ja auch wirklich gut aussieht, dann sinkt der Verbrauch auf 225-250 Watt.. Karte langweilt sich noch mehr.

Nun sind wir an den Punkt angekommen, wo DLSS nicht mehr wegen den FPS eingesetzt wird, sondern als Öko-Option.. Wie geil ist das denn :freak:

Cyberpunk war noch am lustigsten gelockt auf 60 FPS, DLSS Qualität und 177 Watt Stromverbrauch xD
Bin mal gespannt wie es sich mit DLSS 3 verhält, also ich brauch eigl bei CP nicht schneller als 60.. 100FPS sind aber auch nice..

Ich finds so geil das man sich diesen Luxus einfach so gönnen kann.. Leistung ist zweitrangig, es geht einfach um die Effizienz
Jedes bisherige Spiel was ich der Karte zu fressen gab hat kein Leistungsproblem mehr..


Dieser hier - alles maximiert, also ÜBER RTX 4080 Preset:

MWCF4DemoUE5.zip (https://drive.google.com/file/d/1ykfgOaLeMqvhuXHi3peE8PVfMCS_lGaV/view)

So, gleich mal mit besserer CPU-Load wiederkommen...4T; hat was von RDR2. ^^


DLSS 2.xx habe ich schon immer as Öko genutzt gehabt. SP-Games langen mir mit 50-60 fps. MP wird mit 80-100 fps gespielt (letzteres ja hier das Maximum an OC für den Moni).

Crazy_Chris
2022-10-15, 12:41:57
Einen Tag alt und schon unter 30 fps. :mad:



Was ist das? Da fehlt ja nicht mehr viel bis zum Fotorealismus. :freak:

Edit: schon gesehen. Gleich mal auf meiner 5700XT ausprobieren. ;D

Cubitus
2022-10-15, 12:43:33
@Cubitus: Danke, es war das Scaling. 200%, also doch keine 8K GPU ;)

Gerne :)

Quake RTX läuft bei mir mit 100 FPS sowas von gut..
3440*1440.. damit haben sich die 2080, und die 3090er schon noch ordentlich abgemüht..

Dieser hier - alles maximiert, also ÜBER RTX 4080 Preset:

MWCF4DemoUE5.zip (https://drive.google.com/file/d/1ykfgOaLeMqvhuXHi3peE8PVfMCS_lGaV/view)

So, gleich mal mit besserer CPU-Load wiederkommen...4T; hat was von RDR2. ^^


Danke :)

Edgecrusher86
2022-10-15, 12:45:25
Was ist das? Da fehlt ja nicht mehr viel bis zum Fotorealismus. :freak:

Edit: schon gesehen. Gleich mal auf meiner 5700XT ausprobieren. ;D

Die Demos kommen hier her:
https://www.youtube.com/c/MAWIUnitedGmbH

Ja, schon krass - hier und dort noch feinere Assets verwendet und man sieht mit etwas Abstand und Highres wohl kaum einen Unterschied. Ich würde das später gerne ma in 8K60 an einem OLED sehen - sicher ein Erlebnis, haha. :)

Edgecrusher86
2022-10-15, 12:47:45
Quake RTX läuft bei mir mit 100 FPS sowas von gut..
3440*1440.. damit haben sich die 2080, und die 3090er schon noch ordentlich abgemüht..




Danke :)

Bitte! :cool:

Ja, QII RTX kann man auch im Öko-Modus fahren, bei einem niedrigeren fps Target - PT herunter und staunen, wenn man gute zweistellige fps bei wenigen hundert MHz auf dem Core sieht. :D

Edgecrusher86
2022-10-15, 12:52:07
Ja, in Oblivion mit Treiber-HBAO+ und 4x4OGSSAA waren es in 4k auch nur ~45fps im Gras. Die Karte ist schon seit 2006 veraltet. :freak:

Ja, Max Payne 3 von 2012 muss ich später auch mal wieder anwerfen, um die 4090 zu versenken. Ich schätze mal, dass für 16K+8xMS locker 64GB VRAM nötig sein dürften. Unterhalb einer RTX 6090 hätte man damit aber eh keine Freude bezügich Rohleistung; das kommt ja auch noch hinzu.
Jensen, der Geizkragen wird der aber bestimmt nur 48GB spendieren, pfui. Vielleicht regelt es dann eine RTX 7090. :freak:

E: Oh je, das Triplet. ;D

Linmoum
2022-10-15, 12:57:21
2700MHz@1050mV@435W = 74fps (Stock)

https://abload.de/img/witcher3_2022_10_15_162f84.jpg
2700MHz@940mv@352W = 72 fps

https://abload.de/img/witcher3_2022_10_15_1qecsr.jpg
2610MHz@885mV@306W = 70fps

https://abload.de/img/witcher3_2022_10_15_1evfwx.jpg
2325MHz@68%PT@304W = 69fps
https://abload.de/img/witcher3_2022_10_15_192edy.jpg

Also UV selbst scheint tatsächlich irgendwie... merkwürdig zu sein. Trotz ~12% höherem Takt mit manuellem UV im Vergleich zu stumpfem absenken des PT auf einen identischen Verbrauchswert hab ich nur ~1,5% (oder in Worten: eins) fps mehr.

Badesalz
2022-10-15, 13:03:06
Die 4090 langweilt sich, selbst mit DLSS aus... Aber das Spiel läuft dermaßen Flüssig, Framtimes wie ne Nadel..
Verbrauch liegt so bei 350 Watt Mache ich DLSS auf Qualität, was ja auch wirklich gut aussieht, dann sinkt der Verbrauch auf 225-250 Watt.. Karte langweilt sich noch mehr.Danke. Postet sonst kaum jemand sowas. Da weiß man auch wo die Effizienz herkommt. Die Karte rendert zwar nicht mehr so wirklich, macht dabei aber trotzdem FPS :uup:

Nun sind wir an den Punkt angekommen, wo DLSS nicht mehr wegen den FPS eingesetzt wird, sondern als Öko-Option.. Wie geil ist das denn :freak:Für Blinde :wink:
Die Idee an sich ist aber nicht neu
https://www.umweltbundesamt.de/presse/pressemitteilungen/fleischersatz-auf-pflanzenbasis-bester-umweltbilanz

Mearest
2022-10-15, 13:15:49
Meine AsusTuf4090 vom Asus-Shoop ist gerade schon angekomme (Ganz ohne Express - Gestern bestellt).

Die Karte passt wunderbar in das Meshify s2. Aber das (Adapter) Kabel dürfte nicht noch weiter raus gehen. So ist es Perfekt, das Kabel berührt zwar die Seitenwand, aber es wird nichts eingeengt. Die Seitenwand ging ganz geschmeidig ohne Druck zu :). Die Stütze habe ich natürlich auch rein gemacht.
Von der Länge her ist das Meshify 2 überhaupt kein Problem.

https://i.ibb.co/fMG7r8Y/PXL-20221015-110002421.jpg (https://ibb.co/fMG7r8Y)

Da es ein geschlossenes Case und man eh nichts sieht, lebe ich mit den Kabeln erstmal so.
Habe das SilentBios eingestellt, Power Limit auf 80%. Auf dem Oled (120HZ VRR HDR) z.B. verbrauche ich gerade mal 400-562 Watt Gesamt PC last. (Messgerät an der Steckdose)


Mit Silent Bios auch schöne leise alles ohne das ich wie bei der alten Karte erstmal den Curve Optimizer und die Lüfterkurve bemüht habe :).

Mal später trotzdem gucken wie das mit Curve Undervolding klappt.
Ich habe für mich in meinem Spiele Betrieb erstmal getestet. 600 Watt Gesamtlast habe ich bei mir noch nicht gesehen, habe aber auch "nur" den 5800X der ist auch Undervoltet :).

5800X
32GB 3600RAM
RTX ASUS TUF 4090
Sonst hängt bei mir nicht viel am PC. Eine M2 SSD und 2 normale SSDs noch.
Ein XBOX Wireless-Dingens noch, wenn das zählt.

Edit: Die Stütze ist nicht mehr wie auf dem Bild, die ist nun mehr Mittig. Wie auf dem Zettel der dabei ist:)

Janni555
2022-10-15, 13:22:50
also im Nachbarforum haben mind. 10 Leute Probleme mit einem Klackern der Lüfter bei Palit/Gainward
die MSI und Asus fiepen bei einigen...

ich finde, dass so nicht ein Spitzen und spitzenmässig teures Produkt sein sollte. Das schreckt mich echt ab.

Troyan
2022-10-15, 13:26:40
Naja, was heißt klackern. Die Lüfter bei Palit/Gainward sind bei 30% (start) leicht hörbar. Spulenfiepen ist heutzutage Standard und lässt sich nicht 100% unterbinden.

Badesalz
2022-10-15, 13:30:09
"Stand der Technik" :tongue:

Linmoum
2022-10-15, 13:37:04
Es gibt aber wirklich abartiges Spulenfiepen und wenn ich mir die Berichte und auch Videos dazu anhöre, die die Leute im Luxx posten, dann ist das teilweise schon wirklich übel. Vor allem bei MSI und der Suprim, aber auch bei Asus und der Strix/TUF. Wobei Asus wohl auch schon bei Ampere in der Hinsicht nicht ganz leise gewesen sein soll. Die Häufigkeit ist dann schon auffällig.

Meine Gigabyte kann ich auch mit max. Last und Voltage laufen lassen und ich höre bei offenem Gehäuse nahezu Null. Erst, wenn ich auf ~20cm mit dem Ohr rangehe. Bei geschlossenem Gehäuse dringt gar nichts wahrnehmbares mehr nach außen, selbst unter maximal möglicher Last und lautlosen Lüftern. Das hatte ich bisher in der Form wirklich noch nie und begeistert mich immer noch. Das war früher auch immer ein entscheidender Grund für maximales UV, aber das brauch ich dieses Mal deswegen nicht mehr machen. Das Ding ist auch mit 500W ruhig.

basix
2022-10-15, 13:37:42
Hm, hat irgendjemand zufällig die Telefonnummer von Jensen? Ich bräuchte die RTX 5090 - dringend. :D

https://abload.de/thumb/unrealgame_2022_10_15esc0o.jpg (https://abload.de/image.php?img=unrealgame_2022_10_15esc0o.jpg)

Einen Tag alt und schon unter 30 fps. :mad:

Naja, Very High sieht fast gleich aus und bietet 2x fps ;)

Also UV selbst scheint tatsächlich irgendwie... merkwürdig zu sein. Trotz ~12% höherem Takt mit manuellem UV im Vergleich zu stumpfem absenken des PT auf einen identischen Verbrauchswert hab ich nur ~1,5% (oder in Worten: eins) fps mehr.

Liegt am Video Clock, habe ich hier beschrieben:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13138822#post13138822

Der Video Clock hängt direkt an der GPU-Spannung und kann (Stand heute) nicht verändert werden. Ich vermute, dass der L2$ und evtl. auch das Fabric zwischen den SMs an dem Takt hängen. Ich hoffe man kann den Takt in Zukunft ebenfalls OCen (z.B. zusätzlicher Slider im MSI Afterburner). Mit HW-Info kannst du GPU-Clock, Video Clock und "effective Clock" sehen.

Probier mal, den Speichertakt zu erhöhen, Power Limit kannst du gleich lassen. +1000 MHz sollten in etwa +5% Performance bringen. Obwohl durhc den höheren VRAM-Takt der Verbrauch nach oben geht und somit der GPU Takt leicht dropt, kompensiert es den Penalty des geringeren Video Clocks.

Es gibt aber wirklich abartiges Spulenfiepen und wenn ich mir die Berichte und auch Videos dazu anhöre, die die Leute im Luxx posten, dann ist das teilweise schon wirklich übel. Vor allem bei MSI und der Suprim, aber auch bei Asus und der Strix/TUF. Wobei Asus wohl auch schon bei Ampere in der Hinsicht nicht ganz leise gewesen sein soll. Die Häufigkeit ist dann schon auffällig.
Meine TUF fiept deutlich stärker als die 2080 Ti davor (du hat gar nicht gefiept). Die hört man deutlich aus dem Gehäuse. Ein Frame Limiter hilft gegen Fiepen in Menüs.

Ich spiele allerdings immer öfters mit Kopfhöreren, dann erübrigt sich das mit dem Fiepen.

Cubitus
2022-10-15, 13:47:28
Beim UV kommt es drauf an, es kann schon viel bringen..

Beispiel Cyberpunk, hab da einfach Raffs Werte übernommen.
Läuft ohne Probleme auch bei meiner Suprim

875 mV bei 2600 Mhz PT unverändert

https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/

Bild1- 3440*1440p gelockt auf 100 FPS, Alles maxx out, DLSS Qualität, GPU Stock ~ 352 Watt

https://abload.de/thumb/cyberpunk2077screenshmndji.png (https://abload.de/image.php?img=cyberpunk2077screenshmndji.png)

Bild 2 mit UV
https://abload.de/thumb/cyberpunk2077screensh6seyg.png (https://abload.de/image.php?img=cyberpunk2077screensh6seyg.png)

Praktisch kein Leistungsverlust, dafür aber 248 Watt das ist schon enorm :eek:

Dennoch das Verhalten von UV sollte genauer untersucht werden, die einen Nerds sagen ja und die anderen nein.
Bin bei Raff, es bringt definitiv etwas..

basix
2022-10-15, 13:52:02
Meinen empirischen Tests zu Folge, kann man mit OC + PL Limit Begrenzung (effektiv UV) in etwa 1.33x Energieeffizienz aus dem Chip rausholen. Verglichen mit reinem PL-Slider schieben. Mit einer Lower Boundary bei 0.87V, da die Chipspannung nicht mehr weiter runtergeht. Deswegen: Schauen, dass der Chip sich bei 0.87...0.90V bewegt, wird die höchste Energieffizienz bringen. Bei Heavy RT muss man zum Teil aber das Power Limit +10% nach oben korrigieren, sonnst verliert man Leistung (wegen dem 0.87V Minimum, wo dann nur noch der Clock runtergehen kann um im Power Limit zu bleiben). Da der Video-Clock direkt an der GPU-Spannung hängt, resultiert das OC aber nicht in einem linearen Leistungsplus. Bei 0.9V auf der GPU ist der Video Clock geringer als mit den nominellen 1.05V. Mit VRAM-OC kann man dem aber entgegenwirken. Ein Power Limit im Bereich 270...300W inkl. OV/UV ist der Sweetspot der 4090.

So, das sind meine Erfahrungen in der Übersicht ;)

Ich limitiere den GPU Takt ausserdem auf 2.64 GHz. Bei Games mit wenig Last, bleibt der Chip dann bei ~0.9V und den max. 2.64 GHz. Und durch die neuen Ada-Verhaltensweisen reduziert sich durch die niedrige Last dann der Verbrauch automatisch, wenn die Karte nicht mehr FPS liefern kann/muss.

P.S:
Die ~2.6 Ghz bei 0.88V sind so wie es aussieht bei den meisten Karten das UV/OC Limit.

BlacKi
2022-10-15, 13:53:44
P.S:
Die ~2.6 Ghz bei 0.88V sind so wie es aussieht bei den meisten Karten das UV/OC Limit.


kann man weiter runter wenn man den speicher untertaktet?

0,88v ist alles andere als sparsam.

Edgecrusher86
2022-10-15, 13:55:49
Ach, die Karte ist doch sehr sparsam bei vergleichshweise hohen Spannungen. ;-)

DII Res.: 3440x1440 - DLSS Q - maxed out - 60 fps Cap:

https://abload.de/thumb/d2r_2022_10_15_13_08_b8fky.png (https://abload.de/image.php?img=d2r_2022_10_15_13_08_b8fky.png) https://abload.de/thumb/d2r_2022_10_15_13_10_pxcx2.png (https://abload.de/image.php?img=d2r_2022_10_15_13_10_pxcx2.png)

So sparsam gar, dass die Lüfter ausbleiben. ;D
Zu schade nur, dass ich das PT effektiv nicht weiter herunter ziehen kann - bei der Auslastung wäre sicherlich der halbe Verbrauch möglich gewesen für den Chip zumindest. ^^

basix
2022-10-15, 13:57:29
kann man weiter runter wenn man den speicher untertaktet?

0,88v ist alles andere als sparsam.

Nein. 0.87V ist das Limit. Ich hätte gerne auch 0.8V oder gar 0.75V ;) Der Chip hat aber Hard Limits von 0.87...1.05V. Das ist der Bereich, wo sich jede 4090 drin bewegen darf. Das limitiert dann das tiefste sinnvolle Power Limit auf ~270W.

Speicher runtertakten bringt da nichts (bei mir geht via MSI Afterburner eh nur -500 MHz). Evtl. kann das ASUS Tool mehr?

HisN
2022-10-15, 14:01:50
Ich muss leichte Gewalt anwenden um die TUF in mein Lian Li PC08 zu bekommen.
Tiefer dürfte die Karte nicht sein.
Aber passt und die Scheibe wird schön warm im Betrieb^^

https://abload.de/img/img_02217gihe.jpg (https://abload.de/image.php?img=img_02217gihe.jpg)

Edgecrusher86
2022-10-15, 14:03:10
Naja, Very High sieht fast gleich aus und bietet 2x fps ;)



Liegt am Video Clock, habe ich hier beschrieben:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13138822#post13138822

Der Video Clock hängt direkt an der GPU-Spannung und kann (Stand heute) nicht verändert werden. Ich vermute, dass der L2$ und evtl. auch das Fabric zwischen den SMs an dem Takt hängen. Ich hoffe man kann den Takt in Zukunft ebenfalls OCen (z.B. zusätzlicher Slider im MSI Afterburner). Mit HW-Info kannst du GPU-Clock, Video Clock und "effective Clock" sehen.

Probier mal, den Speichertakt zu erhöhen, Power Limit kannst du gleich lassen. +1000 MHz sollten in etwa +5% Performance bringen. Obwohl durhc den höheren VRAM-Takt der Verbrauch nach oben geht und somit der GPU Takt leicht dropt, kompensiert es den Penalty des geringeren Video Clocks.


Meine TUF fiept deutlich stärker als die 2080 Ti davor (du hat gar nicht gefiept). Die hört man deutlich aus dem Gehäuse. Ein Frame Limiter hilft gegen Fiepen in Menüs.

Ich spiele allerdings immer öfters mit Kopfhöreren, dann erübrigt sich das mit dem Fiepen.

Das ist aber nicht RTX 4090 like, Settings herunter schrauben! :nono:

Ja, meine fiept auch sehr stark, vor allem bei z.B. dreistelligen fps - etwa MAFIA Definitive bei 240 fps und 400W im Menü ist es sehr stark. Alleine das PT auf 60% herunter ziehen (220 fps+ dann), reduziert das Ganze schon einmal auf die Hälfte. Naja, so spiele ich ja normal nicht - das dient alles nur zum wissenschaftlichen Auswerten der Karte.
Ich habe aufgrund dieser Tatsache dann wieder auf das Performance-BIOS geswitcht - dann hört man wenigstens die Lüfter auch minimal und nicht nur die Spulen bei 200+ fps; 1200rpm ist einfach zu wenig. ;D

Edgecrusher86
2022-10-15, 14:05:46
Ich muss leichte Gewalt anwenden um die TUF in mein Lian Li PC08 zu bekommen.
Tiefer dürfte die Karte nicht sein.
Aber passt und die Scheibe wird schön warm im Betrieb^^


https://abload.de/thumb/io-1befestigungsrf2b.jpg (https://abload.de/image.php?img=io-1befestigungsrf2b.jpg) https://abload.de/thumb/io-2doneolftj.jpg (https://abload.de/image.php?img=io-2doneolftj.jpg)

Ich musste mein kompettes MoBo hinten 2cm heraus ziehen per Tray-Griff, um die beiden Schrauben an der I/O Blende befestigen zu können.
Zum Glück waren alle Schläuche und Kabel lang genug für diese Aktion. Danach ging es wieder rein in die gute Stube. :freak:


Die für Ampere geholte upHere-Stütze erfüllt nun auch endlich ihren Zweck. :D


E: Mal ein paar Paradebilder, haha:

https://abload.de/img/img-20221014-wa00704ud1o.jpghttps://abload.de/img/img-20221014-wa0071lwfhe.jpg
https://abload.de/img/img-20221014-wa0076ziesr.jpghttps://abload.de/img/img-20221014-wa007922dr3.jpg
https://abload.de/img/img-20221014-wa0082s4csz.jpghttps://abload.de/img/img-20221014-wa0099rweuo.jpg
https://abload.de/img/img-20221014-wa0073a5fz5.jpg

https://abload.de/img/img-20221014-wa0101hfdtn.jpg
https://abload.de/img/img-20221014-wa010304egt.jpg
https://abload.de/img/img-20221014-wa0121yfc3y.jpg

Endlich mal eine Karte, die nicht gleich in der Versenkungen innen verschwindet - das Ganze darf ruhig noch größer werden in Zukunft. :D

Cubitus
2022-10-15, 14:10:46
Meinen empirischen Tests zu Folge, kann man mit OC + PL Limit Begrenzung (effektiv UV) in etwa 1.33x Energieeffizienz aus dem Chip rausholen. Verglichen mit reinem PL-Slider schieben. Mit einer Lower Boundary bei 0.87V, da die Chipspannung nicht mehr weiter runtergeht. Deswegen: Schauen, dass der Chip sich bei 0.87...0.90V bewegt, wird die höchste Energieffizienz bringen. Bei Heavy RT muss man zum Teil aber das Power Limit +10% nach oben korrigieren, sonnst verliert man Leistung (wegen dem 0.87V Minimum, wo dann nur noch der Clock runtergehen kann um im Power Limit zu bleiben). Da der Video-Clock direkt an der GPU-Spannung hängt, resultiert das OC aber nicht in einem linearen Leistungsplus. Bei 0.9V auf der GPU ist der Video Clock geringer als mit den nominellen 1.05V. Mit VRAM-OC kann man dem aber entgegenwirken. Ein Power Limit im Bereich 270...300W inkl. OV/UV ist der Sweetspot der 4090.

So, das sind meine Erfahrungen in der Übersicht ;)

Ich limitiere den GPU Takt ausserdem auf 2.64 GHz. Bei Games mit wenig Last, bleibt der Chip dann bei ~0.9V und den max. 2.64 GHz. Und durch die neuen Ada-Verhaltensweisen reduziert sich durch die niedrige Last dann der Verbrauch automatisch, wenn die Karte nicht mehr FPS liefern kann/muss.

P.S:
Die ~2.6 Ghz bei 0.88V sind so wie es aussieht bei den meisten Karten das UV/OC Limit.

hmm liest sich gut.. bin da aufjedenfall bei dir das sich die Karte zischen 0.87...0.90V ordentlich sparsam verhält.

Meine Karte schafft 865 mV bei 2600 Mhz.. :cool:
865 Mv scheinen auch der Idle Wert zu sein :freak:

Müsste ich weiter austesten ob die 865 mV wirklich stabil sind.
Die 875 Mhz scheinen aber ein guter Kompromiss zu sein.

Hab zudem die Vermutung das ich ein gutes Modell erwischt habe, beim OC komme ich auf 3130 Mhz :eek: