Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread
Seiten :
1
2
3
[
4]
5
6
7
8
9
10
11
12
13
14
15
16
17
Edgecrusher86
2022-10-15, 14:23:45
hmm liest sich gut.. bin da aufjedenfall bei dir das sich die Karte zischen 0.87...0.90V ordentlich sparsam verhält.
Meine Karte schafft 865 mV bei 2600 Mhz.. :cool:
865 Mv scheinen auch der Idle Wert zu sein :freak:
Müsste ich weiter austesten ob die 865 mV wirklich stabil sind.
Die 875 Mhz scheinen aber ein guter Kompromiss zu sein.
Hab zudem die Vermutung das ich ein gutes Modell erwischt habe, beim OC komme ich auf 3130 Mhz :eek:
Ja, tiefer als 865mV kommt man nie - aber das schwankt auch.
Manchmal ist es auch 880mV etwa.
2600 MHz @ 865mV? Sehr nett. 3130 MHz auch, wobei es ja derweil gar nicht wirklich nötig ist. :)
Linmoum
2022-10-15, 14:33:43
Muss ich mit Hersteller-Software OCen oder gibt's schon 'ne aktuelle Version vom AB, wo ich beim Curve Editor mehr als 3GHz einstellen kann? So hängt meine Karte bei 2985MHz fest, das lief aber immerhin schon 30min stabil im Witcher bei ~510W. ;D
Es gibt eine aktuelle Beta vom Afterburner im Guru 3D. Die ist etwa 30 Tage alt und Unwinder hat eigentlich nur die Spannungs-Steuerung geändert, so dass Du die 100mv oben draufhauen kannst.
Man kann wohl die Werte auch über 3Ghz ziehen (obwohl ich das noch nicht versucht habe).
Linmoum
2022-10-15, 15:13:52
Über 3GHz krieg ich das definitiv nicht. Aber gut, ist jetzt auch nicht so unfassbar eilig, unter Luft will ich da eh nichts groß OC-mäßiges veranstalten. Dafür bin ich viel zu sehr Silent-Fetischist. Das kommt dann erst nächsten Monat unter Wasser.
~2.6GHz bei rund 300W reichen mir für den Moment, so kann ich die Lüfter bei 7x°C nur mit 898rpm und damit wirklich lautlos laufen lassen.
r3ptil3
2022-10-15, 15:19:03
Das erhöhte Powerlimit ist genau so unsinnig wie OC bei der RTX 4090.
Das einzige sinnvolle ist UV bei gleichbleibender Leistung.
Ex3cut3r
2022-10-15, 15:20:17
Herzlichen Glückwunsch - ja, die TUF OC war doch "leicht" überteuert - aber ich mag ungern warten. Ein Bekannter hatte dann Mittwoch Abend kurz nach mir bei der TUF OC zugeschlagen. Also normal sollte ASUS da 50-100€ mehr verlangen als bei der non - für + 45 MHz Boost als einziger Unterschied. So ist das doch vorsichtig ausgedrückt etwas dreist, als Aufpreis ein Low-End Modell aufzurufen.
Das Böse ist aber - es funktioniert. :freak:
Kannst du mal Bilder mit GPU Auslastung posten? Wurde mich echt interessieren wie stark der Haswell die 4090 ausbremst.
Kannst du mal Bilder mit GPU Auslastung posten? Wurde mich echt interessieren wie stark der Haswell die 4090 ausbremst.
Hat man doch selbst in der Hand.
Selbst in einem CPU-Mörder wie Anno bekommt man eine 4090 mit den Reglern an der richtigen Stelle auf 100% Last.
https://abload.de/img/anno1800_2022_10_14_2bjcui.png (https://abload.de/image.php?img=anno1800_2022_10_14_2bjcui.png)
Alex1973
2022-10-15, 15:42:16
Was ich nicht verstehe ist, warum 4080 12 GB langsamer ist als 3090 Ti.
Sie hat 36 Milliarden Transistoren und 30% mehr Takt. Taktbereinigt wären es 46 Milliarden Transistoren gegen 28 bei 3090 Ti also 18 mehr. Dazu hat 4080 49.152 KB L2-Cache gegen 6.144 KB der Ti.
Wofür hat NVIDIA so viele Transistoren verschwendet? Ich kann das noch nicht einordnen. Eigentlich wäre AD104 ein guter Chip zum aufrüsten mit einem geschätzen Stromverbrauch in Spielen 200-250 Watt.
Was ich nicht verstehe ist, warum 4080 12 GB langsamer ist als 3090 Ti.
Einfach erklärt: Bei Ada gibt es seitens der Architektur und abgesehen von den neuen RT- und Tensor Cores keinen Fortschritt. Ada ist ein aufgeblasener Ampere, nicht mehr und nicht weniger.
Stell dir eine 3090 Ti mit 3 GHz vor wie es bei der 4090 möglich ist, der Vorsprung wäre für Ada nur noch hauchdünn.
MiamiNice
2022-10-15, 15:49:05
was meint ihr, ist das too much?
Alles was im PC leuchtet, ist too much. Was keine FPS bringt, hat keine Daseinsberechtigung und nuckelt, im schlimmsten Fall, an der TDP.
Zum Beispiel so was sinnloses wie Lüfter oder LEDs ;)
Alex1973
2022-10-15, 16:04:29
Kannst du mal Bilder mit GPU Auslastung posten? Wurde mich echt interessieren wie stark der Haswell die 4090 ausbremst.
Einfach erklärt: Bei Ada gibt es seitens der Architektur und abgesehen von den neuen RT- und Tensor Cores keinen Fortschritt. Ada ist ein aufgeblasener Ampere, nicht mehr und nicht weniger.
Stell dir eine 3090 Ti mit 3 GHz vor wie es bei der 4090 möglich ist, der Vorsprung wäre für Ada nur noch hauchdünn.
Ja aber die 4080 hat weniger RT-Kerne und Tensor-Kerne alt 3090 Ti und trotzdem so viel mehr Transistoren.
Alex1973
2022-10-15, 16:05:49
Einfach erklärt: Bei Ada gibt es seitens der Architektur und abgesehen von den neuen RT- und Tensor Cores keinen Fortschritt. Ada ist ein aufgeblasener Ampere, nicht mehr und nicht weniger.
Stell dir eine 3090 Ti mit 3 GHz vor wie es bei der 4090 möglich ist, der Vorsprung wäre für Ada nur noch hauchdünn.
Ja aber die 4080 hat weniger RT-Kerne und Tensor-Kerne alt 3090 Ti und trotzdem so viel mehr Transistoren.
Oliver_M.D
2022-10-15, 16:07:49
Tiefer mit Powerlimit bringt nichts, da dann der Takt immer zwischen 1300MHz und 2200MHz springt. :cool:Hätte ich mir eigentlich denken müssen, wollte ursprünglich auch ums undervolten bitten, aber trotzdem gut zu wissen. Danke für die mühe!
Control @ DLSS habe ich auch mal als Effizienztest genutzt. Einfach nur geladen und verglichen von einer Ladestation ohne Action. Die Ergebnisse waren jedenfalls sehr bemerkenswert."4090 ist nicht für 1440" hin oder her, für mich bleiben diese Tests wahnsinnig faszinierend und geil anzuschauen;D
Alex1973
2022-10-15, 16:24:24
Einfach erklärt: Bei Ada gibt es seitens der Architektur und abgesehen von den neuen RT- und Tensor Cores keinen Fortschritt. Ada ist ein aufgeblasener Ampere, nicht mehr und nicht weniger.
Stell dir eine 3090 Ti mit 3 GHz vor wie es bei der 4090 möglich ist, der Vorsprung wäre für Ada nur noch hauchdünn.
Das heißt also, dass bei 4090 20-30 Milliarden Transistoren dazugekommen sind nur für neue RT und Tensor-Architektur ? Denn ansonsten wäre die Karte mit insgesamt nur 50 vieleicht 55 Milliarden Transistoren bestückt.
Das heißt also, dass bei 4090 20-30 Milliarden Transistoren dazugekommen sind nur für neue RT und Tensor-Architektur ?
Wofür wie viele Transistoren genutzt werden kann dir nur Nvidia sagen ;)
Troyan
2022-10-15, 16:36:00
Hätte ich mir eigentlich denken müssen, wollte ursprünglich auch ums undervolten bitten, aber trotzdem gut zu wissen. Danke für die mühe!
"4090 ist nicht für 1440" hin oder her, für mich bleiben diese Tests wahnsinnig faszinierend und geil anzuschauen;D
Also 1440p - egal ob 16:9 oder 21:9 - sind bestimmt nicht zu wenig für eine 4090. Control mit Raytracing ohne DLSS läuft zwischen 100 und 120FPS in 3440x1440p und 500W 4090. Ist ein ziemlicher Stromfresser. :eek::cool:
Oliver_M.D
2022-10-15, 16:49:48
Control mit Raytracing ohne DLSS läuft zwischen 100 und 120FPS in 3440x1440p und 500W 4090. Ist ein ziemlicher Stromfresser.Jetzt ist die frage was passiert wenn undervolted wird, dazu dann noch DLSS-Q/B und ein 120 FPS target
Evil Ash
2022-10-15, 16:53:59
3090 Cyberpunk 60 fps 350 Watt
4090 Cyberpunk 75 fps 140 Watt
??? Krass.
mironicus
2022-10-15, 17:04:52
Der OC-Scanner empfiehlt mir GPU +135 und Speicher +200 bei unverändertem 100% PT.
Welche Werte habt ihr nach dem Scan?
VooDoo7mx
2022-10-15, 17:11:57
Hat man doch selbst in der Hand.
Selbst in einem CPU-Mörder wie Anno bekommt man eine 4090 mit den Reglern an der richtigen Stelle auf 100% Last.
https://abload.de/img/anno1800_2022_10_14_2bjcui.png (https://abload.de/image.php?img=anno1800_2022_10_14_2bjcui.png)
Wenn die 4090 bei 2,9GHz und 1,05V 355W zieht, ist die Karte definitiv nicht ausgelastet.
Einfach erklärt: Bei Ada gibt es seitens der Architektur und abgesehen von den neuen RT- und Tensor Cores keinen Fortschritt. Ada ist ein aufgeblasener Ampere, nicht mehr und nicht weniger.
Stell dir eine 3090 Ti mit 3 GHz vor wie es bei der 4090 möglich ist, der Vorsprung wäre für Ada nur noch hauchdünn.
Bist du Ingenieur bei nVidia?
Wie willst du das als außenstehender überhaupt das in irgendeiner Art und Weise bewerten können?
Ich sage nämlich du schreibst hier Schwachsinn.
Ich sage nämlich du schreibst hier Schwachsinn.
Das Ada Whitepaper anschauen und lernen du Schlaumeier.
Dural
2022-10-15, 17:48:55
NV wird auch viele Transistoren für den Takt aufgewendet haben, Takt ist nicht gratis.
Orbmu2k
2022-10-15, 18:41:07
Über 3GHz krieg ich das definitiv nicht. Aber gut, ist jetzt auch nicht so unfassbar eilig, unter Luft will ich da eh nichts groß OC-mäßiges veranstalten. Dafür bin ich viel zu sehr Silent-Fetischist. Das kommt dann erst nächsten Monat unter Wasser.
~2.6GHz bei rund 300W reichen mir für den Moment, so kann ich die Lüfter bei 7x°C nur mit 898rpm und damit wirklich lautlos laufen lassen.
Du könntest es mit dem Inspector versuchen. Der legt die komplette VF Curve offen. Ist allerdings keine Fancy UI sondern Console. :-P
nvidiaInspector.exe -dumpVoltagePoints:0
Geldmann3
2022-10-15, 19:59:51
Habe etwas Komisches mit der RTX 4090 festgestellt...
Wenn ich in den Taskmanager schaue, habe ich immer zwischen 95 und 100% GPU usage, doch die Temperatur liegt bei 42 Grad. Auch der MSI Afterburner ist von fast 100%iger GPU Auslastung überzeugt, obwohl nichts läuft.
Schaue ich in den Taskmanager, gehen 99% davon in ,,3D".
https://i.ibb.co/4Zqcrkw/image.png
Könnte auch das BIOS meines Boards sein, denn ich sehe in GPU Z auch, dass die GPU immer bei PCIe 4.0 16x bleibt.
Soll ja ein bekanntes Problem sein.
Doch ich dachte, das bezieht sich nur auf Raptor Lake Boards.
Geldmann3
2022-10-15, 20:18:48
Der GPU-Takt sinkt auch nie unter 2535MHz. Es sei denn, ich untertakte die GPU manuell.
Sorry, habe mich aus Versehen selbst zitiert.
Wollte den Beitrag eben eigentlich bearbeiten.
aufkrawall
2022-10-15, 20:28:31
Wenn ich in den Taskmanager schaue, habe ich immer zwischen 95 und 100% GPU usage, doch die Temperatur liegt bei 42 Grad. Auch der MSI Afterburner ist von fast 100%iger GPU Auslastung überzeugt, obwohl nichts läuft.
Liegt an HAGS + neuem Treiber.
Geldmann3
2022-10-15, 20:38:44
Und die GPU-Usage in Games kann ich so nicht mehr messen?
Ich meine, das zeigt ja immer fast 100% an...
Edgecrusher86
2022-10-15, 20:49:54
Ich wusste es => Weniger Threads + UE5 Techdemo = mehr Load = Mehrtakt = mehr fps. :wink:
https://abload.de/thumb/unrealgame_2022_10_154mc0j.jpg (https://abload.de/image.php?img=unrealgame_2022_10_154mc0j.jpg) https://abload.de/thumb/unrealgame_2022_10_15bqd0y.jpg (https://abload.de/image.php?img=unrealgame_2022_10_15bqd0y.jpg) https://abload.de/thumb/unrealgame_2022_10_15bnejh.jpg (https://abload.de/image.php?img=unrealgame_2022_10_15bnejh.jpg)
macht grob mal eben + 40% fps herum, nur weil die CPU so taktet, wie sie eigentlich sollte - aber selbst mit nur 4T habe ich stellenweise kurz 25% usage gesehen. Katastrophe. :mad::freak:;D
E: Also die UE3 war echt prima bei DCs bzw. QCs, aber seit der UE4 - Katastrophe. Highres 4K(+) teils 5-10% CPU-Load habe ich schon auf YT gesehen auf den AMD R9 Hexas - 4T der so auf 3,6 GHz und der Rest bei 2-3 GHz oder so. ^^
Rolsch
2022-10-15, 21:09:46
Und die GPU-Usage in Games kann ich so nicht mehr messen?
Ich meine, das zeigt ja immer fast 100% an...
Da stimmt doch was nicht. Hast ja auch 6GB Speicher Verbrauch. Schau mal bei den Prozessen wer das sein könnte.
Inquisitor
2022-10-15, 21:28:52
Wie war bei euren custom modellen die schalterstellung des dual bios schalters? Bei meiner msi stand er interessanterwwise ab werk auf silent.
Rolsch
2022-10-15, 21:31:45
Wie war bei euren custom modellen die schalterstellung des dual bios schalters? Bei meiner msi stand er interessanterwwise ab werk auf silent.
Zotac steht auf Ampflify. Man kann aber auch über das Tool auf Quiet wechseln.
Geldmann3
2022-10-15, 21:57:54
Da stimmt doch was nicht. Hast ja auch 6GB Speicher Verbrauch. Schau mal bei den Prozessen wer das sein könnte.
Wenn ich in die Prozesse schaue, verbraucht der ,,Desktopfenster-Manager" 50 - 90% GPU.
https://i.ibb.co/3dgHRhg/image.png
Jetzt habe ich nur noch 2,4GB Vram Verbrauch.
Sardaukar.nsn
2022-10-15, 21:58:44
Wie war bei euren custom modellen die schalterstellung des dual bios schalters? Bei meiner msi stand er interessanterwwise ab werk auf silent.
Asus TUF non-oc stand, bzw. steht auf Performance. Aber krawallig finde ich die Lüfter überhaupt nicht.
Ex3cut3r
2022-10-15, 22:44:43
Wenn ich in die Prozesse schaue, verbraucht der ,,Desktopfenster-Manager" 50 - 90% GPU.
https://i.ibb.co/3dgHRhg/image.png
Jetzt habe ich nur noch 2,4GB Vram Verbrauch.
Ist hier das gleiche mit einer 3080 Ti, liegt wie Krawall sagt an neuen Treiber in Verbindung mit HAGS ON. Ich habe einfach den alten Reinstalled. Mit einer 4090 bleibt dir wohl nur übrig HAGS zu deaktivieren. Ein älterer Treiber geht ja nicht. :uup:
Rolsch
2022-10-15, 23:26:29
Ist hier das gleiche mit einer 3080 Ti, liegt wie Krawall sagt an neuen Treiber in Verbindung mit HAGS ON. Ich habe einfach den alten Reinstalled. Mit einer 4090 bleibt dir wohl nur übrig HAGS zu deaktivieren. Ein älterer Treiber geht ja nicht. :uup:
Hab die Hardwarebeschleunigte GPU Planung mal angemacht, bei mir ist das aber nicht so schlimm.
Geldmann3
2022-10-15, 23:39:52
Beruhigend zu hören, dass ich da nicht der Einzige bin.
Was ist eigentlich der normale Verbrauch im Idle laut MSI-Afterbuner? Denn meiner zeigt 70 Watt an. Was ja nicht soo verwunderlich ist, wenn der Desktopfenster-Manager die GPU fast vollständig auslastet. Womit auch immer.
Radeonfreak
2022-10-15, 23:44:08
20-30 Watt hab ich hier. Hab auch keine Probleme mit Hags.
Megamember
2022-10-16, 00:01:10
DLSS3 für alle?
https://wccftech.com/nvidia-dlss-3-frame-generation-lock-reportedly-bypassed-rtx-2070-gets-double-the-fps/
Evil Ash
2022-10-16, 00:18:04
Im Idle so 11 Watt (Board Power Draw).
https://i.imgur.com/EnLJKcU.jpg
Edgecrusher86
2022-10-16, 00:35:27
Asus TUF non-oc stand, bzw. steht auf Performance. Aber krawallig finde ich die Lüfter überhaupt nicht.
Ja, OC dito, aber wegen dem Spulenfiepen, was zumindest ab 200+ fps im Menü enorm ist, bin ich wieder zurück auf das Performance-BIOS. 1200RPM war so silent, dass man die Spulen nochmals mehr hört. 1600RPM nimmt er sich ja nur, wenn lange 4xx W geballert wird, ansonsten weniger.
Meine zeigt per Inspector 14-17W Minimum an im P8 bei UWQHD 80Hz. Kann hier und da aber kurzfristig auch auf 40-60+ W hoch schnellen, etwa wenn man das snipping Tool ausführt. Geht dann aber ratz fatz wieder zurück in den P8. Sparsamer als meine alte 3090 Trinity auf jeden Fall (19-25W P8).
Ja, tiefer als 865mV kommt man nie - aber das schwankt auch.
Manchmal ist es auch 880mV etwa.
Oha, das hatte ich befürchtet, aber bisher keine Zeit für Quantifizierung. Die RTX 4090 erbt also die mit der RTX 3090 Ti eingeführte Sperre bzw. Schwelle. Was passiert, wenn ihr 0,7xx Volt forcieren wollt? Fallback auf einen höheren Wert?
MfG
Raff
BlacKi
2022-10-16, 00:58:05
Oha, das hatte ich befürchtet, aber bisher keine Zeit für Quantifizierung. Die RTX 4090 erbt also die mit der RTX 3090 Ti eingeführte Sperre bzw. Schwelle. Was passiert, wenn ihr 0,7xx Volt forcieren wollt? Fallback auf einen höheren Wert?
MfG
Raffmein problem damit ist eigentlich nvidias problem. ich kann damit maximal die 12gb ad104 kaufen, weil sonst der verbrauch zu heftig ist. ausgerechnet die haben sie geunlaunched. damage has been done...
Im Idle so 11 Watt (Board Power Draw).
https://i.imgur.com/EnLJKcU.jpg
sieht gut aus.
Wenn eine RTX 4090 @ ~0,87 Volt (Minimalspannung) im schlimmsten Gaming-Fall 350 Watt zieht, wird man eine RTX 4080 unter die 300-Watt-Marke drücken können. :)
MfG
Raff
dildo4u
2022-10-16, 06:01:52
F1 22 RT ist erstaunlich brutal sieht so aus als wenn die 4080 schon DLSS bräuchte.
WMhqqNo9qpk
Edgecrusher86
2022-10-16, 08:44:35
Oha, das hatte ich befürchtet, aber bisher keine Zeit für Quantifizierung. Die RTX 4090 erbt also die mit der RTX 3090 Ti eingeführte Sperre bzw. Schwelle. Was passiert, wenn ihr 0,7xx Volt forcieren wollt? Fallback auf einen höheren Wert?
MfG
Raff
Das hier passiert - Offset kann man auch runter gehen, wie bekloppt - weniger Takt will er nicht. Schade, aber da der Cip auch mit "relativ hoher VCore" so effizient bei hohen Taktraten, als auch niedrigen im Vergleich zu Ampere arbeiten kann auch nur halb so ärgerlich.
https://abload.de/img/novoltagelockgmfi9.png
Sieht man nicht so gut, aber ganz links bei 700mV ist die gelbe gestrichelte Linie des "Locks, der nun unterhallb P8-Voltage keiner mehr ist".
Bei 879mV sieht man dann die NV-Sperre - rot gestricheltes Fadenkreuz - überschneidet sich beim Takt unten von 645 MHz. ;)
P.S.: Gegen die Hickups im Idle bei ein wenig Load wie Java dürfte man auch noch etwas machen - ich denke mal, es würde 3x ausreichend sein, wenn man maximal kurz in den P5-State gehen würde (beim Single-Moni zumindest).
950mV+ P0 muss sichher nicht sein, auch wenn wieder sehr flott herunter getaktet wird.
Scheint gut zu laufen - Meister Orb's grüner Daumen :massa::
https://abload.de/img/mdps48frd.png
Bis 40% GPU Load im P8 habe ich damit eben gesehen (EPIC Launcher DL im Hintergrund und Snipping Tool-Nutzung).
BigKid
2022-10-16, 09:05:45
Ich frag hier auch nochmal in die Runde an die anderen Gamerock RTX4090 Besitzer: Habt ihr auch so ein fieses leises "Rattern" / Surren der Lüfter über den gesammten Drehzahlbereich ? Es erinnert fast an Spulenfiepen - scheint aber keins zu sein, da es definitv an die Lüfter gekoppelt ist... Da ich mit der Karte ansonsten sehr zufrieden bin (Temps, echtes Spulenfiepen bisher nur im OC Scanner bemerkt) frage ich mich ob Sinn macht die nochmal auszutauschen... Oder ob ich zu nem anderen Hersteller greifen muss...
Es ist weniger die Lautstärke sondern die Art des Geräusches - ich hörs einfach raus und das nervt zumal mein restliches Setup schon drauf ausgelegt ist eher leise zu sein...
(Und auch hier nochmal: Falls jemand eventuell ne Strix oder Supreme abzugeben hat zum EK (zB weil er Sicherheitshalber zwei bestellt hat) würde mir helfen... Ich konnte meine andere Karte leider stornieren und habs auch gemacht sobald die Versandbestätigung der ersten kam...)
Sardaukar.nsn
2022-10-16, 09:23:48
@BigKid Schade mit den Gamerock Lüftern. Bevor du umtauschst würde ich die Lüfter aber unbedingt noch 1-2 Stunden auf 100% laufen lassen und dann noch mal hinhören. In Vergangenheit hat sicher das manchmal von selbst erledigt.
Troyan
2022-10-16, 09:25:01
Das scheint aktuell einfach bei jeder Palit/Gainward Karte zu sein. Aber in Spielen höre ich nichts, da die Karte dann sowieso die Lüfter schneller drehen muss und beim Idlen geht die Karte innerhalb von einer Minute in den FanStop-Modus.
BigKid
2022-10-16, 09:26:25
@BigKid Schade mit den Gamerock Lüftern. Bevor du umtauschst würde ich die Lüfter aber unbedingt noch 1-2 Stunden auf 100% laufen lassen und dann noch mal hinhören. In Vergangenheit hat sicher das manchmal von selbst erledigt.
Hab sie die Nacht von Gestern auf Heute mit 100% durchlaufen lassen... Leider hats nichts gebracht...
Wird auch nicht leiser wenn die Drehzahl hochgeht... Es ist wirklich fast mehr ein schnelles klackern... Und auch wenn der Lüfter hochdreht wird nicht besser... Ich hab das Gefühl als würde das dann einfach schneller ohne dass Tonhöhe wirklich viel steigt...
Und ich hörs einfach raus... Und dadurch höre ich es selbst mit (nicht Noisecanceling) Kopfhöhrern manchmal noch wenn im Spiel grade nicht viel geht...
r3ptil3
2022-10-16, 09:30:17
Wie hiess es schon bei RTX 30? Strix oder nix. Gilt wohl auch hier.
Ich gehe davon aus dass ich die Strix kommende Woche abholen kann.
Hat jemand ein Review von der Gigabyte Master gesehen? (Nicht sowas wie vom Bauer, das ist kein Review)
MiamiNice
2022-10-16, 09:31:00
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.
Troyan
2022-10-16, 09:32:13
Ohne Volt-Mod wirst du keine 600W schaffen. Soweit ich sehe ist maximal bei 550W schluss. Mit 500W läuft Control bei ~2850MHz.
BigKid
2022-10-16, 09:33:29
Wie hiess es schon bei RTX 30? Strix oder nix. Gilt wohl auch hier.
Ich gehe davon aus dass ich die Strix kommende Woche abholen kann.
Hat jemand ein Review von der Gigabyte Master gesehen? (Nicht sowas wie vom Bauer, das ist kein Review)
Das kann ich so nicht bestätigen, die Gamerock 3090 ist super leise... Eine unterschätzte Karte... Daher hatte ich gehofft die 4090 Gamerock wäre auch so gut...
Ich will die 4090 Gamerock hier auch nicht schlecht machen... Sie ist nicht Laut... Mich nervt nur die Art des Geräusches und ich glaub da bin ich empfindlicher als andere...
r3ptil3
2022-10-16, 09:38:13
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.
Ansichtssache - mir geht's um eine lautlose Karte bei 0 Performanceverlust und ironischerweise sind wir genau mit diesen 400W Karten näher dran als je zuvor (top high-end).
600W bringt bei einer 4090 genau so viel, wie 6Ghz+ bei einem 12900k bei über 350W. Sprich es ist eigentlich nicht der Rede Wert, da es nur Nachteile mit sich bringt.
horn 12
2022-10-16, 09:39:31
Oh Mann, nun wird das Große Tauschen und bis eine Karte "endlich passt" losgehen.
Habe selbst den Dell AlienWare 3423DW und auch da ist nicht alles perfekt, aber doch noch recht Leise und annehmbar,
ABER 4090-er Karten um 1949 bis um die 2250 Euro tauschen und jene gehen an den Nächstkäufer ist nicht die Feine Art.
Edgecrusher86
2022-10-16, 09:39:54
Bringin' sexy back:
https://abload.de/img/bringinsexybackqpdnt.png
Kamala Harris and Donald Trump Zoom Meeting: Do Not Come, I’m Gonna Come! (https://www.youtube.com/watch?v=qAs9laxC-rs)
Oh!!! :tongue:
UK Prime Minister Boris Johnson Watching Kamala Harris Do Not Come Trump I'm Gonna Come (https://www.youtube.com/watch?v=8GbVhSmi8yQ)
Yes!!! Fantastic! He did score! He did score! ;D
:usex:
r3ptil3
2022-10-16, 09:42:00
Oh Mann, nun wird das Große Tauschen und bis eine Karte "endlich passt" losgehen.
Habe selbst den Dell AlienWare 3423DW und auch da ist nicht alles perfekt, aber doch noch recht Leise und annehmbar,
ABER 4090-er Karten um 1949 bis um die 2250 Euro tauschen und jene gehen an den Nächstkäufer ist nicht die Feine Art.
Bei einer 2k+ Karte kann ich jeden einzelnen Käufer verstehen, da erwartet man schliesslich keinen Kompromiss.
Wie meinst du das mit dem AW34: Hörst du den Lüfter oder wie? Wieso hast du nicht auf das neue Modell DWF gewartet?
horn 12
2022-10-16, 09:53:35
Weil ich den Monitor bereits im Mai 2022 bestellt hatte
und schlussendlich ein Gutes Exemplar erwischt habe.
Zudem zum Preis von 1028 Euro erhalten
und die FreeSync Version ist abgespeckt, Farblich aber Besser!
aber der Preis wohl mindestens 1200 bis 1250 Euro.
Der angeführte Release Preis zu 1099 Dollar sind nur in den USA und dort kann ab Dienstag bestellt werden.
Der Dollar/ Euro Preis war zu Release des Alienware 3423DW komplett ein anderer als Aktuell.
https://de.statista.com/statistik/daten/studie/176827/umfrage/monatliche-waehrungsentwicklung-des-euro/
Edgecrusher86
2022-10-16, 09:53:45
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.
Kommt noch, siehe letztes Pic.
5760p Gaming auf RTX 4090. :eek: :ucrazy4: :ujump:
Absurd finde ich eigentlich sinnlos den Backofen anzuwerfen, gerade im Sommer, aber manche Leute mögen ja bekanntlich Saunen.
440W waren jedenfalls schon merklich zu spüren bei offener Casetür - als ich raus bin, gab es gleich eine richtig kühle Brise. :D
E: Sneek Peak:
https://abload.de/img/och7cfu.png
eben kurz 1500 mem gehabt
aber das mochte er wohl net
schnell B2D
😄
Inquisitor
2022-10-16, 09:59:32
Naja, kleine heizlüfter ausm baumarkt gehen auch ab 1000 watt los. Mein pc 'leistet' jetzt mit bildschirm auch schon bis zu 750 watt. Da kannst du einen kleinen raum auch im tiefen winter schon komplett mit heizen :D
dildo4u
2022-10-16, 10:25:26
Mehr 4k/5K DLSS RT Werte von Raff.
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-Raytracing-Benchmarks-1405125/
Badesalz
2022-10-16, 10:40:16
Mehr 4k/5K DLSS RT Werte von Raff.
"Nicht nur, dass aufgrund der KI-Aufwertungen diverse Details besser herausgearbeitet werden,"
Und dann diese Screenshots... :usweet: Den Typen kann man auch nicht mehr ernstnehmen. Einfach nur ein Einheizer von vielen.
"Nicht nur, dass aufgrund der KI-Aufwertungen diverse Details besser herausgearbeitet werden,"
Und dann diese Screenshots... :usweet: Den Typen kann man auch nicht mehr ernstnehmen. Einfach nur ein Einheizer von vielen.
Ernstgemeinte Frage: Hast du schon mal über einen Termin beim Augenarzt nachgedacht? Dann musst du deinen Frust auch nicht an anderen auslassen. :)
MfG
Raff
r3ptil3
2022-10-16, 10:56:31
Gibts von PCGH einen Vergleich mit Raptor Lake und Zen4 auf Basis der RTX 4090?
dildo4u
2022-10-16, 11:01:23
Gibts von PCGH einen Vergleich mit Raptor Lake und Zen4 auf Basis der RTX 4090?
Intels NDA ist doch noch nicht abgelaufen kommt aber bestimmt.
Linmoum
2022-10-16, 11:02:04
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.Absurd ist es eher, so viel mit Lukü durchjagen zu wollen. Fliegen mir die Ohren weg und die anderen Komponenten im Gehäuse sterben den Hitzetod.
Sowas macht man erst unter Wasser, wenn die Abwärme nicht im Gehäuse landet und man Ruhe hat. ;)
Edgecrusher86
2022-10-16, 11:09:34
5/6K? Pfff....ich brauche nun aber eine RTX 7090 - hätte gerne die 60+ fps gesehen hier. :D
https://abload.de/img/screenshot2022-10-161bwc0r.jpg
Interessant ist aber, dass Ada viel weniger VRAM benötigt, als Ampere.
16,8GB zu 21,4GB sind's allocated. 16,8GB dedic. sind es und 21,4GB allocated bei der Alten - aber vermutlich dennoch sub 21GB all. bei der Ada.
8 zu 13 fps das Ergebnis bei der fast gleichen Stelle.
https://abload.de/img/screenshot2022-10-161d0c6q.jpg
6880x2880 ist btw. fluffig in der Stadt (habe 60-84 fps gesehen) - immerhin sind noch grob 50 fps Überland drin mit OC; in 5160x2160 stehen die 99 fps. :D
https://abload.de/thumb/mafiadefinitiveeditios3is8.jpg (https://abload.de/image.php?img=mafiadefinitiveeditios3is8.jpg) https://abload.de/thumb/mafiadefinitiveeditio71cup.jpg (https://abload.de/image.php?img=mafiadefinitiveeditio71cup.jpg)
r3ptil3
2022-10-16, 11:20:12
Intels NDA ist doch noch nicht abgelaufen kommt aber bestimmt.
Jop, ab Donnerstag meine ich.
Dürfte wohl gerade mit einer RTX 4090 für die CPUs ganz interessant werden. Sensationell wäre auch DDR5 6800+ C34 für Intel und DDR5 6000 CL30 für AMD.
Edgecrusher86
2022-10-16, 11:42:08
Die GPU bräuchte den 13900KS sofort. Aber auch nur, wenn die 6.0 GHz @ P-Cores gehalten werden, sonst nicht.
Inquisitor
2022-10-16, 11:49:21
Habe jetzt nochmal Radiator/Lüfter umgebaut. In dem Compact Gehäuse ist das mit der 4090 Millimeterarbeit :D was für ein Trümmer :D Der mittlere Lüfter des Radiators musste jetzt nach vorn direkt hinter die Frontblende wandern. Hat jetzt gerade noch 5mm Freiraum nach vorn bis zur Blende um Luft zu ziehen. Nicht ideal, aber anders gehts nicht :D
BigKid
2022-10-16, 11:55:57
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.
Hab hier von noch keinem gelesen der das wegen der Stromkosten tut...
Aber man muss auch nicht unnütz Strom verbraten... Ich brauche um mich Wohlzufühlen nunmal nur 60 fps weil ich einfach älter bin... Also warum bitte soll ich mehr Lärm, mehr Stromverbrauch und im Sommer mehr Hitze ertragen als nötig...
Zu den Zeiten an denen ich am meisten zocken kann (WE, Tagsüber) kommt der Strom eh aus unserer PV - da sind mir die Stromkosten aber auch sowas von egal...
Cubitus
2022-10-16, 11:58:12
Nutzt hier eigentlich irgendjemand ne 4090 wie man sie halt benutzt? Hat es schon jemand geschafft da, sagen wir, 600 Watt durchzujagen? Ich lese bisher nur Leute die eine kastrierte Karte noch weiter kastrieren um 50€ Stromkosten im Jahr zu sparen. Bei Anschaffungswerten jenseits von 2k.
Total absurd.
Eh ja hab damit rumgespielt um komme damit an das PL von der Karte, 520W
Vom Board der Karte würde mehr gehen.
https://www.3dmark.com/3dm/81005358
3.135 MHz Core Takt
3.110 MHz Durschnittliche Taktfrequenz im Bench
aufkrawall
2022-10-16, 11:58:31
Die Stromkosten sind doch selbst in DE völlig unerheblich. Wenn man das alles hochrechnet und in Relation zu Haushaltsgeräten setzt, sind das immer lächerliche Kosten.
Ich würd aber nur schon deswegen UV machen, um das Spulenfiepen zu reduzieren und die Lebensdauer aller involvierten Komponenten (auch NT, Kabel/Stecker...) zu verlängern.
Cubitus
2022-10-16, 12:02:14
Die Stromkosten sind doch selbst in DE völlig unerheblich. Wenn man das alles hochrechnet und in Relation zu Haushaltsgeräten setzt, sind das immer lächerliche Kosten.
Ich würd aber nur schon deswegen UV machen, um das Spulenfiepen zu reduzieren und die Lebensdauer aller involvierten Komponenten (auch NT, Kabel/Stecker...) zu verlängern.
Genau was damit auch deutlich erträglicher wird.
und
Ansichtssache - mir geht's um eine lautlose Karte bei 0 Performanceverlust und ironischerweise sind wir genau mit diesen 400W Karten näher dran als je zuvor (top high-end).
600W bringt bei einer 4090 genau so viel, wie 6Ghz+ bei einem 12900k bei über 350W. Sprich es ist eigentlich nicht der Rede Wert, da es nur Nachteile mit sich bringt.
Genau so ist es, bzw. hab In DL2 mehr FPS als mit der 3090
Kappe die bei 100 (Hz) FPS, weil mein Monitor eh nicht mehr kann..
3090 mit UV, 350-375 Watt
4090 mit UV 175-220 Watt ca..
ohne FPS Cap, wären es 140-190 FPS so um die 220-260 Watt.. was auch noch okay wäre..
Das Schöne an der 4090 ist einfach, Sie kann extrem hohe Leistung abliefern, Sie kann aber auch extrem genügsam sein.
Somit hast du es selbst in der Hand wie du diese Karte einsetzten möchtest, praktisch kaum Leistungsverlust bei UV aber deutlich leiser, kühler und weniger Verbrauch.
Die neuen SPiele mit UE5 werden fördern, die 4090 steht dazu bereit..
Troyan
2022-10-16, 12:11:29
Eh ja hab damit rumgespielt um komme damit an das PL von der Karte, 520W
Vom Board der Karte würde mehr gehen.
https://www.3dmark.com/3dm/81005358
3.135 MHz Core Takt
3.110 MHz Durschnittliche Taktfrequenz im Bench
Hast du Control? Welcher Takt liegt mit Raytracing?
Lawmachine79
2022-10-16, 12:13:06
Wie sieht es denn mit Mining aus? Hat sich dieser Verknappungsfaktor erledigt?
Rolsch
2022-10-16, 12:14:23
Wie sieht es denn mit Mining aus? Hat sich dieser Verknappungsfaktor erledigt?
Ja
Badesalz
2022-10-16, 13:43:47
Ernstgemeinte Frage: Hast du schon mal über einen Termin beim Augenarzt nachgedacht? Dann musst du deinen Frust auch nicht an anderen auslassen. :)Wenn du dem Protagonisten nur auf den Schädel guckst, dann wirst du auch nichts anderes sehen. Ich mach viel Bildanalytik wo auch zwangsweise einiges an Bildbearbeitung anfällt (und da geht es nicht drum der Braut auf den RAWs von der Hochzeit die Pickel wegzuwischen) -> Mich kannst du mit dem Gamergaga nicht zu Selbsthypnose treiben :wink:
Keineswegs ist TAA was affengeiles diesbezüglich (bin auch nicht so ein Freund davon), aber die Prosa was ihr wegen Quali zu DLSS3 liefert, die habt ihr anfänglich in ziemlich ähnlichen Wortlauf auch schon zu DLSS1.0 geliefert.
Danach, als NV Pressemeldungen zu v2 geliefert hat, war 1.0 plötzlich das wovon ich gleich direkt sprach. Da durftet ihr euch das endlich trauen :tongue:
Ich freu mich schon MEGA auf die PR-Show mit dem DLSS3-Blindtest. Dieser... Augenöffner =) wird richtig fetzen :rolleyes:
Edgecrusher86
2022-10-16, 13:54:58
Eh ja hab damit rumgespielt um komme damit an das PL von der Karte, 520W
Vom Board der Karte würde mehr gehen.
https://www.3dmark.com/3dm/81005358
3.135 MHz Core Takt
3.110 MHz Durschnittliche Taktfrequenz im Bench
Das muss man echt nicht verstehen, dass MSI da nicht die 600W heraus gibt - immerhin haben wir doch 26 + 4 Wandler verbaut bei deiner SUPRIM X - selbst mit je 70A gar [theor. 1820A GPU, 280A VRAM]. :freak:
1. MSI SUPRIM X (LIQUID) - Vcore: 26x70A MPS mem:4x70A MPS
2. ASUS STRIX - Vcore 24x70A Onsemi, mem 4x70A Onsemi
3. FOUNDERS EDITION - Vcore: 20x70A MPS mem:3x70A MPS
4. Colorful Vulcan OC-V - Vcore: 24x55A Alpha&Omega, mem 4x55A
5. GB MASTER (WATERFORCE) - Vishay 24x50A, mem: 4x50A Vishay
6. MSI TRIO X - Vcore: 18x70A MPS mem:4x70A MPS
7. ASUS TUF Vcore: 18x70A Infineon, mem: 4x50A Vishay
8. GB GAMING OC Vcore: 20x50A Vishay, mem 4x50A Vishay
Nicht schlecht - die TUF schlagen somit ja selbst die mächtige GB AORUS MASTER -> 1260A GPU zu 1200A GPU [1000A GPU bei der GB Gaming OC].
dildo4u
2022-10-16, 14:02:24
Laut dem kommt die Karte schnell ans Power Limit wenn man die Spannung erhöht.
Er testet nur in 1080p daher vermutlich nur 490 Watt.
lyZqR41QTi0
Meridian12
2022-10-16, 14:06:03
Wirklich eine beeindruckende Karte. Falls ich dir mir holen sollte, würde ich das Powerlimit auf 350 W setzen und fertig.
Dazu Framelimit auf 90. Mehr brauche ich nicht für VR.
Da ich alter Sacke nichtmal 60 Frames brauche für flüssig (40 reicht mir völlig), werde ich dann eh erst zur 80xxer Generation wieder aufrüsten müssen :D
MiamiNice
2022-10-16, 14:08:52
Laut dem kommt die Karte schnell ans Power Limit wenn man die Spannung erhöht.
Er testet nur in 1080p daher vermutlich nur 490 Watt.
https://youtu.be/lyZqR41QTi0
Das habe ich auch gesehen. Das wird der Grund sein warum so viele Karten schon offen waren und warum der Kühler 200 Watt mehr kann, als die Karte erzeugt.
Die richtige 4090 bzw. 4090TI wird sicher DIE Karte.
Geldmann3
2022-10-16, 15:18:34
Wenn ich HAGS deaktiviere, wird das Problem mit der ständigen GPU Auslastung bei mir tatsächlich behoben.
Auch die Leistungsaufnahme sinkt so im Idle von 70 auf 15 Watt.
Eine ganz komische Sache, die ich gerade beobachte ist, dass die RTX 4090 langsamer in AI-Image-Generation ist, als die RTX 3090.
Kann die Karten wechseln und bekomme reproduzierbar dasselbe Ergebnis. Die RTX 3090 ist etwa 21% schneller in Stable Diffusion.
Dabei hatte ich mich besonders dafür auch auf einen Boost gefreut.
Der Verschwörungstheoretiker in mir vermutet hier eine Art Mining Bremse.
Meine RTX 3090 war ja noch ohne LH.
Könnte allerdings natürlich alles Mögliche sein. Fehlende Optimierung zum Beispiel.
The_Invisible
2022-10-16, 15:57:05
Miningbremse glaub ich kaum, man hat ja gerade diese beim letzten Treiber bei allen LHR Karten entfernt.
Hat HAGS überhaupt schon mal was gebracht außer Probleme :D
aufkrawall
2022-10-16, 15:59:28
Hat HAGS überhaupt schon mal was gebracht außer Probleme :D
Ist eine Voraussetzung von FG von DLSS 3. Von daher würde ich deine Frage vorerst mit "nein" beantworten. :freak:
Meridian12
2022-10-16, 16:04:56
Was ich mich immer Frage ist, ob man strengenommen enttäuscht sein muss von der 4090 bezüglich ihrer Rohdaten Zur Endleistung.
Die 70% Mehrleistung zur 3090ti sind ja eigentlich gigantisch.Aber von den Rohdaten her haben wir ja fast 150% als bei der 3090ti.
Diese Daten auf dem Papier werden ja eher "mässig" umgesetzt in Mehrperformance.
Oder wie seht ihr das?
aufkrawall
2022-10-16, 16:22:36
Die "Rohleistung" wird man in CP mit Overdrive-RT sehen können. Das ist halt, worauf NV den Fokus legt. Ansonsten gibt es die Metriken Leistung, Die-Size und Stromverbrauch, die relevanter sind.
SamLombardo
2022-10-16, 16:42:41
Wenn ich HAGS deaktiviere, wird das Problem mit der ständigen GPU Auslastung bei mir tatsächlich behoben.
Ist das ein bekannter Bug für die 4090 derzeit? Gibt es 4090 user die nicht betroffen sind?
Badesalz
2022-10-16, 17:25:15
Diese Daten auf dem Papier werden ja eher "mässig" umgesetzt in Mehrperformance.
Oder wie seht ihr das?Joa. Wenn man sich nur die grauen Balken anschaut (was man ja sollte) passiert da nicht soviel mehr. So wirklich dick hat sich nur RT gesteigert. Wie aufkrawall es sagt:
Wenn du 2k€ bezahlt hast und richtig Leistung sehen willst musst du auf 2 Spieleversionen warten oder die Metriken-Leistung in Excel festhalten, ausdrucken, einrahmen und dann über dem Bildschirm an die Wand nageln.
Edgecrusher86
2022-10-16, 17:39:14
https://abload.de/img/mdps8kytf6dwo.jpg
8K YT @ forced P8 - bis zu 99% GPU-Load, aber es rennt - bei unter 30W.
statt 2,5+ GHz Peaks
nun 0,645 GHz Peaks
:)
Troyan
2022-10-16, 18:09:42
Ist das ein bekannter Bug für die 4090 derzeit? Gibt es 4090 user die nicht betroffen sind?
Kein Plan bei Windows 11, aber bei Windows 10 geht die 4090 in den Idle Modus mit HAGS.
Geldmann3
2022-10-16, 18:42:05
Kein Plan bei Windows 11, aber bei Windows 10 geht die 4090 in den Idle Modus mit HAGS.
Meine RTX 4090, unter Windows 11, geht auch ohne Hags nicht unter 2,5Ghz. Was aber keine Nachteile zu haben scheint, da ihr Verbrauch auf 15 Watt sinkt.
SamLombardo
2022-10-16, 18:47:18
Ah ok danke. Meine sollte nun endlich morgen eintreffen. Bin gespannt;).
The_Invisible
2022-10-16, 19:10:37
Hier übrigens wieder das Thema mit UV und das man damit Leistung verlieren soll obwohl gleicher Takt @der8auer: https://youtu.be/lyZqR41QTi0?t=877
Rolsch
2022-10-16, 19:14:45
Meine RTX 4090, unter Windows 11, geht auch ohne Hags nicht unter 2,5Ghz. Was aber keine Nachteile zu haben scheint, da ihr Verbrauch auf 15 Watt sinkt.
Was haste denn davor drin gehabt? Falls AMD mal AMD Uninstall Utility laufen lassen oder halt vergleichbares bei Nvidia.
Geldmann3
2022-10-16, 19:32:58
Was haste denn davor drin gehabt? Falls AMD mal AMD Uninstall Utility laufen lassen oder halt vergleichbares bei Nvidia.
War eine RTX 3090.
Rolsch
2022-10-16, 20:02:45
Wow, VLC Fehler beim Video schauen, sowas hatte ich mit AMD noch nie. Nvidia Treiber sind überschätzt. :(
Restarting TDR occurred on GPUID:600
Sardaukar.nsn
2022-10-16, 20:31:43
Auf der Suche nach den Alltags-Settings für die 4090 teste ich gerade und bin doch sehr überrascht. Klassisches Undervolting mit Custom-Kurve wie bei Ampere scheint bei Ada nicht wirklich zielführend. Deutlich interessanter finde ich eine Reduktion des Power Limit (z.B. auf 75%) mit gleichzeitigem Overclock und auch Overvolt auf 1.1v.
Anbei einige Beispiele auf einem LG C2 wo das 4K 120FPS Limit fast ausgereizt wird: https://imgur.com/a/A8k8jYP
Verbrauch liegt stets zwischen 330-350 Watt und die Asus TUF regelt die Lüfter auf sehr ruhige 1000-1200rpm. Auch im Benchmark liegt die Leistung dann über den Stock Werten, aber mit einem Verbrauch von maximal 350 Watt. https://www.3dmark.com/3dm/81150314?
Cubitus
2022-10-16, 20:43:25
Auf der Suche nach den Alltags-Settings für die 4090 teste ich gerade und bin doch sehr überrascht. Klassisches Undervolting mit Custom-Kurve wie bei Ampere scheint bei Ada nicht wirklich zielführend. Deutlich interessanter finde ich eine Reduktion des Power Limit (z.B. auf 75%) mit gleichzeitigem Overclock und auch Overvolt auf 1.1v.
Anbei einige Beispiele auf einem LG C2 wo das 4K 120FPS Limit fast ausgereizt wird: https://imgur.com/a/A8k8jYP
Verbrauch liegt stets zwischen 330-350 Watt und die Asus TUF regelt die Lüfter auf sehr ruhige 1000-1200rpm. Auch im Benchmark liegt die Leistung dann über den Stock Werten, aber mit einem Verbrauch von maximal 350 Watt. https://www.3dmark.com/3dm/81150314?
Was meinst du mit nicht zielführend?
Sardaukar.nsn
2022-10-16, 21:06:20
Achso, ich brauche die Karte für ein 4k 120hz Display. Dies würde ich gerne möglichst effizient erreichen.
Ist das ein bekannter Bug für die 4090 derzeit? Gibt es 4090 user die nicht betroffen sind?
https://abload.de/img/hagsyndx8.jpg (https://abload.de/image.php?img=hagsyndx8.jpg)
Sardaukar.nsn
2022-10-16, 21:41:58
Geht scheinbar in die gleiche Richtung...
XrZNSTmOstI
aufkrawall
2022-10-16, 21:48:01
Trine 4 verliert mit UV bei Bro um die 2-3% Performance, bei 80W weniger. Viel Rauch Lärm um fast nichts?
basix
2022-10-16, 21:52:42
Auf der Suche nach den Alltags-Settings für die 4090 teste ich gerade und bin doch sehr überrascht. Klassisches Undervolting mit Custom-Kurve wie bei Ampere scheint bei Ada nicht wirklich zielführend. Deutlich interessanter finde ich eine Reduktion des Power Limit (z.B. auf 75%) mit gleichzeitigem Overclock und auch Overvolt auf 1.1v.
OC + reduziertes Power Limit ist bei mir schon seit der GTX 780 the way to go.
Wie du angeblich 1.1V overvolt hinbekommen haben willst und das zudem noch die Effizienz steigern soll, erschliesst sich mir nicht.
aufkrawall
2022-10-16, 21:57:35
OC + reduziertes Power Limit ist bei mir schon seit der GTX 780 the way to go.
Und wie soll das funktionieren, wenn man den Takt prozentual kaum stabil anheben kann?
Möchte arg bezweifeln, dass dabei mehr rumkommt als bei gescheitem Curve-UV.
basix
2022-10-16, 21:59:28
Ist ja genau das selbe. Und natürlich via Curve ;) Nur mit reduziertem Power Limit ;) Und grundsätzlich ist OC / UV das selbe. Man reizt die Chipreserven aus. Mit reduziertem PL erzielt man dann effektiv das "UV"
Gibt aber anscheinend viele, die das Power Limit unangetastet lassen oder die Karte auf einem fixen Takt festtackern. Ich lasse dem GPU-Boost freien Lauf, aber halt mit reduziertem PL und Taktobergrenze.
Meine Beispiele, mit jeweils Custom Curve und oberem Clock Limit:
- GTX780 ~100% Perf. @ 65% PL
- 980 Ti ~95% Perf. @ 65% PL
- 2080 Ti ~90% Perf. @ 60% PL
- 4090 ~95% Perf @ 63% PL
Edit:
Hier die 4090 Curve
The_Invisible
2022-10-16, 22:47:12
Geht scheinbar in die gleiche Richtung...
https://youtu.be/XrZNSTmOstI
Das hat ja auch oben der8auer verlinkt, und wenn er es sagt ist es normal nicht nur heiße Luft bei diesem Thema, wär halt interessant wenn das wer nachtestet.
Oliver_M.D
2022-10-16, 23:01:47
Was ist eigentlich das kleinste PL bei der 4090, um die 50%~ wie bei meiner 1070?
Mir ist bewusst wie bescheuert das ist, aber ich bin neugierig wie niedrig man die 4090 mit UV und/oder PL bekommen kann.
Ich würde spaßeshalber zum Beispiel gerne wissen wie die sich bei 225~W verhält ;D
Edgecrusher86
2022-10-16, 23:22:23
2% PT kannst du setzen....aber praktisch kann man sagen, da ja die Mindest-Spannung 865mV beträgt, effektiv nicht unter 15-20% gehen...70-80W TGP grob. :D
Btw.: Habe gerade CoD BO:CW MP gespielt - 3440x1440 + DLSS Q + Max. Raster Settings (RT off also) + 80Hz G-SYNC => Mindesttemperatur auf Nuketown -> 37 Grad GPU @ 1000RPM bei grob 95-100W Verbrauch...Taktraten bei 875mV während des Spielens von 10xx bis 20xx MHz gesehen mit Boost. Haha
Sehr schade, dass man nicht auch 7xx mV fahren kann bei solchen Fällen, dann wäre bestimmt locker 30-40W weniger möglich gewesen. ;D
Auf jeden Fall hatte ich die höchste Temperatur im Menü mit 60er Lock -> 56 Grad...passiv...bevor dann die Lüfter mit 1000RPM angefahren sind und das auch so gehalten haben durchgehend.
CP 2077 in 3440 mit DLSS Q + RT Ultra war dann auch ganz nett...mal 3090 UV Setting gefahren spaßeshalber -> 50er Cap => 140-145W herum....die Karte lag bei 43-44 Grad...meine wassergekühlte CPU bei 44-47 Grad (50-60% Load @ 16T). :freak:;D;D;D
Die RTX 3090 Trinity lag @ 13xx MHz @ 725-737mV UV hier bei etwa 145-155W und sub 50 Grad. ^^
Nazar
2022-10-16, 23:22:31
Ernstgemeinte Frage: Hast du schon mal über einen Termin beim Augenarzt nachgedacht? Dann musst du deinen Frust auch nicht an anderen auslassen. :)
MfG
Raff
E: Hierum geht es: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-Raytracing-Benchmarks-1405125/
Hast du dir die eigenen Screenshots je angesehen?
Alleine bei den Wagen (Spiderman), sieht man sofort die Matschepampe, den BQ-Verlust, noch schlimmer wird es dann bei den Bäumen.
Ich bin mir immer noch nicht sicher, ob du einfach nur ein Hardcore-Fan oder von nVidia gekauft bist.
Sollte beides nicht zutreffen, würde ich die einen Besuch beim Augenarzt dringend empfehlen. ;)
Ist das ein bekannter Bug für die 4090 derzeit? Gibt es 4090 user die nicht betroffen sind?
Trifft bei allen nVidia GPU zu. Hat nichts mit der neusten Version zu tun. Auch ist es von Spiel zu Spiel verschieden.
Es scheint aber so, dass ein Ausschalten von HAGS keine negativen Auswirkungen hat, zumindest nicht bei der 3090.
MorPheuZ
2022-10-16, 23:27:08
Das ist schon fast eine Vergewaltigung :freak:
Oliver_M.D
2022-10-16, 23:37:38
2% PT kannst du setzen....aber praktisch kann man sagen, da ja die Mindest-Spannung 865mV beträgt, effektiv nicht unter 15-20% gehen...70-80W TGP grob. :D2%? Afterburner lässt mich gerade mal 49% bei meiner 1070 einstellen.:freak: bei grob 95-100W Verbrauch...Taktraten bei 875mV während des Spielens von 10xx bis 20xx MHz gesehen mit Boost. HahaSo was wollte ich lesen, großen dank für die mühe mein lieber! Dann werden die träume meinen 1440p120 Monitor mit einer 100-200w 4090 zu betreiben wohl doch war.:D
CP 2077 in 3440 mit DLSS Q + RT Ultra war dann auch ganz nett...mal 3090 UV Setting gefahren spaßeshalber -> 50er Cap => 140-145W herum....die Karte lag bei 43-44 Grad
Die RTX 3090 Trinity lag @ 13xx MHz @ 725-737mV UV hier bei etwa 145-155W und sub 50 Grad. ^^Was für ein bescheuerter, aber auch verdammt geiler spaß das ganze;D
Edgecrusher86
2022-10-16, 23:39:54
https://abload.de/img/screenshot2022-10-162y8f1v.jpg
Gern geschehen - leider nur mit Kartoffel-Cam abfotografiert. :)
Die Taktrate lag fröhlich zwischen 1080 - 2000 MHz hin und her im Boost und ca. 80% GPU usage bei den tiefsten Taktraten.
Ersteres würde dann wohl langen für volle Lotte. ;)
E: Ja, das hätte ich eh getestet, da ich dort halt mit der gebremsten 3090er dank DLSS Q bei deutlich unter 200W unterwegs war.
Meine Frage war hier halt, ob die Karte so etwas vielleicht gar mit unter 100W schafft. Ich denke mal bei knapp 100% Load und theor. 7xx mV wären wohl auch 75W drin gewesen für 80 fps. :D
Ja, WQHD120 sollte machbar sein, gerade mit DLSS - bei 100-200W TGP - 33% weniger Pixel wie hier. ;)
https://abload.de/img/nvinspectorl2cjk.png
Die tiefsten Sparwerte waren jedenfalls ca. 70-75W grob bei UWQHD60 + DLSS - je Titel auch Q (DII Res.) oder ein Control mit 50er Cap und DLSS P. 80W mit DLSS Q waren es iirc und um die 90W mit 60 fps und DLSS Q. :freak:
E: Ja, zuvor ging auch nicht wirklich unter 50% PT - bei Ampere etwa war dies auch der Fall.
Vermutlich hatte sich NV überlegt, dass 225W Minimum PT doch ein wenig hoch ist, wo die Karte stock doch idR "nur" 370-430W zieht je Titel und Setting.
Wenn du dem Protagonisten nur auf den Schädel guckst, dann wirst du auch nichts anderes sehen. Ich mach viel Bildanalytik wo auch zwangsweise einiges an Bildbearbeitung anfällt (und da geht es nicht drum der Braut auf den RAWs von der Hochzeit die Pickel wegzuwischen) -> Mich kannst du mit dem Gamergaga nicht zu Selbsthypnose treiben :wink:
E: Hierum geht es: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-Raytracing-Benchmarks-1405125/
Hast du dir die eigenen Screenshots je angesehen?
Alleine bei den Wagen (Spiderman), sieht man sofort die Matschepampe, den BQ-Verlust, noch schlimmer wird es dann bei den Bäumen.
Ich bin mir immer noch nicht sicher, ob du einfach nur ein Hardcore-Fan oder von nVidia gekauft bist.
Sollte beides nicht zutreffen, würde ich die einen Besuch beim Augenarzt dringend empfehlen. ;)
Ich bin mir bei euch beiden nicht sicher, ob sachliche Diskussionsversuche fruchtbar sind, aber ich versuche es trotzdem. :) Es ist Wochenende und ich habe schon 12 Stunden nicht mehr gearbeitet ...
Vorweg: Ich habe nirgends gesagt, dass DLSS alles andere wegrockt. Die Diskussion, was gute Grafik ausmacht, ist uralt. Über den Stil kann man immer streiten, aber es gibt Dinge, die man objektiv bewerten kann, beispielsweise Bildglättung, Detailabbildung und Ruhe in Bewegung. Letzteres sieht man auf Screenshots nicht, also müssen wir nicht darüber diskutieren (Spoiler: DLSS ist ruhiger). Wir können aber über alles andere reden. Die Beispiele in Spider-Man Remastered und Ghostwire Tokyo zeigen stets 2160p mit TAA im Vergleich mit 1670p und DLSS. Wie im (vermutlich von euch ignorierten) Text rund um die Bilder erläutert, ist die Einstellung DL-DSR plus DLSS Balanced das "Spar-Profil", welches die Bildrate signifikant erhöhen kann - und dennoch erzielt es bei vielen Bildteilen das bessere Ergebnis. Und dabei sieht man hier nicht mal die Errungenschaften von DL-DSR, dafür müsste man die Shots via Geforce Experience anfertigen, aber das nur am Rande ...
Bei Spider-Man kann man sich über die Reduktion der Raytracing-Reflexionsauflösung aufregen, welche aber sowohl erwähnt als auch erklärt wird. Das betrifft jedes Upscaling, sodass gilt: Weniger Pixel gleich weniger Feinheiten bei Raytracing-Effekten. Eine andere Auffälligkeit betrifft die Tiefenschärfe, die vermutlich auflösungsabhängig gesetzt wird, weshalb ein Bild mit niedrigerer räumlicher Auflösung diesbezüglich einem mit höherer Auflösung zurücksteht. Was von euch und anderen jedoch ignoriert wird, sind die ganz klar besseren Dinge, allen voran die Abbildung von Feinheiten. Die Vegetation sieht beim DLSS-Shot massiv besser aus. Ja, ich meine die pixelfeinen Verästelungen, welche beim TAA-Shot untergehen. Mit DLSS wird offenbar ein negativeres Texture-LOD gesetzt, das wegen des Pixel-Recyclings trotzdem kein Undersampling verursacht. Oder man sieht sich die generelle Glättung an, welche weniger Aliasing (Jaggies) als mit TAA bei höherer Auflösung zeigt. Ja, die Schatten der Vegetation sind beim DLSS-Shot blasser. Das als Killer-Argument anzuführen, ist meiner Meinung nach aber völlig übertrieben, wo große Teile des Rests (bis auf die Raytracing-Reflexionen) detaillierter sind. Ähnlich sieht es bei Ghostwire aus. Das Bild ist voller künstlicher Artefakte, wie Chromatic Aberration, aber das ist ein Stilmittel. DLSS erzielt erneut eine bessere Detailabbildung (Bäume, Gitter, Feinheiten eben) trotz geringerer Pixelmenge. Und wie gesagt, das alles geschieht bei signifikant besserer Bildrate, sichtbar in den Benchmarks.
Merke: Scharfe Kontraste sind nicht automatisch besser. Das lässt mich wieder Anekdoten aus der 3D-beschleunigten Urzeit hervorholen. Etwa aus dem Jahr 2000: 3dfx' SGSSAA mache das Bild unscharf, sagte man. Das Jahr 2005 war auch interessant: Das bis zur Unkenntlichkeit "optimierte" AF der Geforce 6 und 7 wurde von einigen Leuten tatsächlich für gut befunden, weil es so schön scharf ist. Gerade im Stand stellte es Details dar, die bei der Konkurrenz (und nachfolgenden Geforce 8) nicht zu sehen waren. Doof dabei: Diese "Details" waren und sind schlicht Aliasing, die in Bewegung einen augenzerschneidenden Effekt haben.
Lange Rede, kurzer Sinn: Ich mache das schon ein paar Jahr(zehnt)e und erzähle nicht einfach irgendeinen Unsinn, weil mir langweilig ist. Wer ein Problem mit meiner "Geile Technik rockt, Technikfeindlichkeit und Bremserei suckt"-Einstellung hat, grundsätzlich gegen Upscaling oder Nvidia-Produkte ist, oder einfach keinen Bedarf an weiterführenden Artikeln hat, kann gerne so verfahren - allerdings ändert das nichts daran, dass es mehr gibt und auch weiter von mir thematisiert wird. :)
MfG
Raff
Oliver_M.D
2022-10-17, 00:10:30
E: Ja, das hätte ich eh getestetMag sein, bin dir aber trotzdem zum dank verpflichtet! Verzeiht mir wenn ich wie ein Idiot klinge, bin einfach nur so erstaunt über die Ergebnisse.
Ursprünglich hatte ich geplant mir eine 4080 zu kaufen, aber der Thread und deine Beiträge haben mich von der 90 mehr als überzeugt.
Jetzt muss ich nur noch auf einen bezahlbaren preis warten.:freak:Vermutlich hatte sich NV überlegt, dass 225W Minimum PT doch ein wenig hoch ist, wo die Karte stock doch idR "nur" 370-430W zieht je Titel und Setting.Mir soll es recht sein, mehr low-wattage Spaß für mich
Edgecrusher86
2022-10-17, 00:40:53
Ja, die 3090 war schon mit Tuning sehr effizient, aber das ist nochmals ein anderes Level. Sehr schade, dass dann das Minimum doch recht hoch ist. Da wäre noch deutlich mehr möglich gewesen.
Gerne geschehen. :-)
Ja, eine dicke Karte mit ordentlich Leistungsreserven ist immer besser, als ein kleines Modell auf Kante.
Linmoum
2022-10-17, 02:16:05
"I can't believe Nvidia approved this". :D Buildzoid legt wieder los.
9I7U4kdc0V4
Edgecrusher86
2022-10-17, 08:22:10
Mag sein, bin dir aber trotzdem zum dank verpflichtet! Verzeiht mir wenn ich wie ein Idiot klinge, bin einfach nur so erstaunt über die Ergebnisse.
Ursprünglich hatte ich geplant mir eine 4080 zu kaufen, aber der Thread und deine Beiträge haben mich von der 90 mehr als überzeugt.
Jetzt muss ich nur noch auf einen bezahlbaren preis warten.:freak:Mir soll es recht sein, mehr low-wattage Spaß für mich
Wenn du magst, kann ich ja auch mal 1440p120 testen, was da so geht - kein Problem. :cool:
Ich schaue mal, hehe. :)
CP 2077:
https://abload.de/thumb/cyberpunk2077_2022_10oaii6.png (https://abload.de/image.php?img=cyberpunk2077_2022_10oaii6.png) https://abload.de/thumb/cyberpunk2077_2022_10mddxj.png (https://abload.de/image.php?img=cyberpunk2077_2022_10mddxj.png)
Ich bin hier leider stark CPU-Limitiert - WQHD + Max. Settings inkl. Psycho + RT Ultra + DLSS Q -> 84 fps Peak @ 2730/10502 MHz @ 920mV @ ~ 70-80% GPU-Load.
Bei dir sollte da einiges mehr gehen mit dem 9900KF Richtung 100+ fps. :)
35W herum im Pausenmenü bei WQHD120 @ 645 MHz P8 - Herrlich öko. :D
Galerie: ASUS TUF GAMING GeForce RTX 4090 OC Edition 24GB (https://abload.de/gallery.php?key=dXkrqdjj)
https://abload.de/img/screenshot2022-10-170o2ecz.jpg
Nur durch den FireFox + Snipping-Tool. Das muss nun echt nicht sein -> MDPS in den Autostart + Thresholds. :)
E: So ist das viel schöner:
https://abload.de/img/desk-nvinspectormonit8rc6q.jpg
P.S.: Gestern habe ich UV mit höheren Taktraten getestet in CP 2077 - lustigerweise war es dann so, dass ich erst 5160x2160 Psycho RT nativ (nur DL-DSR) an hatte - das hat zwar mehr PT gefressen, aber sobald DLSS Q ins Spiel kam, war zuletzt ein sicher geglaubtes Setting instabil -> Game Crash. :D
Ja, 30-40W weniger, aber gleich weg wegen den TC denke ich. ;)
Dann habe ich mal auf RT Ultra herunter geschraubt. Zu laufen scheinen jedenfalls....
~ 2300 MHz @ 865-880mV
~ 2400 MHz @ 865 - 880mV
~ 2500 MHz @ 865 - 880 mV
~ 2610 MHz @ 865 - 880mV [+330 MHz Offset! Hrhr]
~ 2700 MHz @ 920 mV
~ 2800 MHz @ 950 mV
Unter 2300 MHz spart dann natürlich kaum noch etwas ein - wohl maximal 5W - bei 1000 MHz weniger, aber halt ebenso 865 - 880mV!
Differenz von 2300 MHz zu 2800 MHz herum -> 5-7 fps bei 90W im Verbrauch!
Richtig anspruchslose Titel müsste man dann z.B. per MDPS P8-Lock spielen, sofern man ohne Standard-Boost unterwegs wäre. ;)
E2: Sehr nett - MDPS Threshold + MSI AB UV Profil laden = eine gute Kombination. Läuft wie es soll....gut, wenn das MSI AB-Profil geladen ist, nimmt er den höchsten P8-Clock als Minimum, aber dann reden wir in UWQHD halt von grob 18-19W statt 14-17W. Vollkommen ok. :)
https://abload.de/img/screenshot2022-10-1706cf8d.jpg
SamLombardo
2022-10-17, 09:01:40
"I can't believe Nvidia approved this". :D Buildzoid legt wieder los.
https://youtu.be/9I7U4kdc0V4
Das klingt ja ziemlich übel. Wie findet ihr das denn? Ist das ein Problem für "normale Nutzung" ohne OC? Noch habe ich die Möglichkeit die Palit nicht zu nehmen, ungeöffnet zurückzuschicken. Ich hab jetzt gelesen, die Gainward hat genau das selbe PCB (sowie wohl auch noch andere?). Was sind denn die Auswirkungen dieser Spar PCBs, gehen die schneller kaputt? Oder ist es nur, dass sie sich nicht so gut übertakten lassen?
Meine Gamerock sollte heute kommen. Was würdet ihr machen?
Sardaukar.nsn
2022-10-17, 09:05:45
Ich würde mich erstmal nicht verrückt machen lassen. Einbauen und auf Geräusche testen würde ich auf jeden Fall. Mit Palit/Gainward hatte ich in der Vergangenheit sehr gute Erfahrung, hatten auch bei mir immer sehr leise bzw. lautlose Spulen.
@Edgecrusher86: Sehr interessant. Danke! War auch bei der 3080 mein Ansatz.
Ich teste aktuell mit einem fixen Powerlimit (75% bzw. 350 Watt) und lasse Takt und Spannung nach belieben hin und her springen. Damit bin ich z.B. bei Speed Way gleich schnell wie out-of-the-box. Aber habe knapp 25% weniger Verbrauch in der Spitze. Die TUF ist dann natürlich auch extrem leise. https://www.3dmark.com/3dm/81150314?
https://i.imgur.com/FjIIh7Z.jpeg
BigKid
2022-10-17, 09:11:29
Das klingt ja ziemlich übel. Wie findet ihr das denn? Ist das ein Problem für "normale Nutzung" ohne OC? Noch habe ich die Möglichkeit die Palit nicht zu nehmen, ungeöffnet zurückzuschicken. Ich hab jetzt gelesen, die Gainward hat genau das selbe PCB (sowie wohl auch noch andere?). Was sind denn die Auswirkungen dieser Spar PCBs, gehen die schneller kaputt? Oder ist es nur, dass sie sich nicht so gut übertakten lassen?
Meine Gamerock sollte heute kommen. Was würdet ihr machen?
Meine 3090 Gamerock war super...
Meine 4090 jetzt hat ein gaaanz leises Lüftergeräusch, dass mich von der Frequenz her nervt weil ich es leider Raushöre aus dem restlichen Gesäusel... Es ist nicht die Lautstärke - es ist die Art des Geräuches... Was die Gamerock aber bisher wirklich nur im OC Scanner (und da auch nur sehr sehr sanft) gezeigt hat war Spulenfiepen... Nicht in 3DMark und auch in Games bisher nicht...
Bekommt von euch jemand weniger als 0,875V eingestellt?
https://abload.de/img/16659899330636lcnz.png (https://abload.de/image.php?img=16659899330636lcnz.png)
Slipknot79
2022-10-17, 09:43:38
Das klingt ja ziemlich übel. Wie findet ihr das denn? Ist das ein Problem für "normale Nutzung" ohne OC? Noch habe ich die Möglichkeit die Palit nicht zu nehmen, ungeöffnet zurückzuschicken. Ich hab jetzt gelesen, die Gainward hat genau das selbe PCB (sowie wohl auch noch andere?). Was sind denn die Auswirkungen dieser Spar PCBs, gehen die schneller kaputt? Oder ist es nur, dass sie sich nicht so gut übertakten lassen?
Meine Gamerock sollte heute kommen. Was würdet ihr machen?
Behalten. Die Gamerock ist keine Karte für extreme-OC, das ist das was das Video aussagt.
Möchtest du löten, LN drauf- und +600W durchballern, dann hol dir ne Strix oder sowas.
Für 99,999999999999999999999% der Gamer reicht die Gamerock mit ihren "billigen" Spannungswandlern usw. Scheinbar undervolten sogar die meisten ihre 4090, "richtiges" OC (+30% usw) ist schon seit Jahren tot.
SamLombardo
2022-10-17, 09:51:51
Danke euch. Denke, so werd ich es machen.
BigKid
2022-10-17, 09:53:45
Danke euch. Denke, so werd ich es machen.
Wäre dir und anderen Besitzern einer Gamerock Karte dankbar für die Rückmeldung ob sie auch dieses Surren haben...
SamLombardo
2022-10-17, 10:01:44
Wäre dir und anderen Besitzern einer Gamerock Karte dankbar für die Rückmeldung ob sie auch dieses Surren haben...
Gern
Badesalz
2022-10-17, 10:06:53
@Raff
Ich weiß nicht, ob das mit der Länge oder der Dauer ;) den Ausschlag geben kann. Als ich mich das erste Mal mit der s.g. Grafik eines Komputersystems auseinandersetzte, warst du noch viel zu jung für einen C64. Das Thema können wir also entspannt wie getrost ad acta legen.
Ja, wenn man 3/4 des Bildes hinter eine zarte Mattscheibe legt werden die Schwenks ruhiger. Das lässt sich im RL genauso beobachten. Z.B. wenn draußen der Wind die Baumkronen bewegt und man das durch ein geschlossenes Fenster im Bad beobachtet. Mir scheint das eher eine Frage des Geschmacks zu sein als "Geile Technik" vs. "Technikfeindlichkeit". So eine Prosa stellt einem sowieso vor sehr schwierigen Aufgaben. Die zweitgenannte in einem Forum wie diesem zu suchen ist in etwa wie in einem Outdoor-Forum nach Couch-Potatos zu suchen. Kann man mal versuchen... Immerhin lässt sich das ggf. als Kampfmittel einsetzen um Leute abzustempeln (?) toi toi toi
Das Verschmieren der Kanten (Gitterzäune vor hellen Hintergründen & co.) bringt mehr Ruhe in die Bewegung. Das stimmt schon. Leider beschränkt sich das eben nicht auf derartige Objekte, sondern haut überall in der Grafik rein. Und das überall sehe ich primär. Das sieht dann so aus wie das hier und sowas kann niemals "geile Technik" sein (auch wenns hier DLSS2 ist und Burke das Video eher positiv gestaltet ).
https://youtu.be/zUVhfD3jpFE?t=1117
PS:
Gibts hier nicht einen Thread für DLSS?
Edgecrusher86
2022-10-17, 10:32:23
Bekommt von euch jemand weniger als 0,875V eingestellt?
Das liegt am harten Limit - manchmal geht auch 865mV, aber nie weniger.
Ich habe aber auch schon 880mV gesehen für P8 als Minimum. ;)
Timbaloo
2022-10-17, 10:33:13
@Raff
Ich weiß nicht, ob das mit der Länge oder der Dauer ;) den Ausschlag geben kann. Als ich mich das erste Mal mit der s.g. Grafik eines Komputersystems auseinandersetzte, warst du noch viel zu jung für einen C64. Das Thema können wir also entspannt wie getrost ad acta legen.
Was machst du denn beruflich? Was ist deine Ausbildung? Bei raff wissen wir es.
FastAndy
2022-10-17, 10:37:31
I trust Raff:)
Cubitus
2022-10-17, 10:39:55
Das liegt am harten Limit - manchmal geht auch 865mV, aber nie weniger.
Ich habe aber auch schon 880mV gesehen für P8 als Minimum. ;)
Joa 865 mV ist die Idle Spannung :freak:
Geht aber hier auch im UV bei 2600 Mhz..
Danke für das ausbaldowern in deinem anderen Post :)
BigKid
2022-10-17, 10:52:31
@Raff
Ich weiß nicht, ob das mit der Länge oder der Dauer ;) den Ausschlag geben kann. Als ich mich das erste Mal mit der s.g. Grafik eines Komputersystems auseinandersetzte, warst du noch viel zu jung für einen C64. Das Thema können wir also entspannt wie getrost ad acta legen.
Ja, wenn man 3/4 des Bildes hinter eine zarte Mattscheibe legt werden die Schwenks ruhiger. Das lässt sich im RL genauso beobachten. Z.B. wenn draußen der Wind die Baumkronen bewegt und man das durch ein geschlossenes Fenster im Bad beobachtet. Mir scheint das eher eine Frage des Geschmacks zu sein als "Geile Technik" vs. "Technikfeindlichkeit". So eine Prosa stellt einem sowieso vor sehr schwierigen Aufgaben. Die zweitgenannte in einem Forum wie diesem zu suchen ist in etwa wie in einem Outdoor-Forum nach Couch-Potatos zu suchen. Kann man mal versuchen... Immerhin lässt sich das ggf. als Kampfmittel einsetzen um Leute abzustempeln (?) toi toi toi
Das Verschmieren der Kanten (Gitterzäune vor hellen Hintergründen & co.) bringt mehr Ruhe in die Bewegung. Das stimmt schon. Leider beschränkt sich das eben nicht auf derartige Objekte, sondern haut überall in der Grafik rein. Und das überall sehe ich primär. Das sieht dann so aus wie das hier und sowas kann niemals "geile Technik" sein (auch wenns hier DLSS2 ist und Burke das Video eher positiv gestaltet ).
https://youtu.be/zUVhfD3jpFE?t=1117
PS:
Gibts hier nicht einen Thread für DLSS?
Ich finde es geht in erster Linie um einen respektvollen Umgang miteinander. Da wäre bei beiden noch potential nach oben auch wenn die letzten Posts überm Schnitt liegen :-)
Und der Rest sind dann persönliche Vorlieben. DLSS hat vor und Nachteile. Un je nach den eigenen Vorlieben oder dem Einsatzgebiet nimmt man diese nun in Kauf oder nicht...
Als "Journalist" sollte man immer versuchen die eigenen Vorlieben/Meinungen und Fakten klar zu trennen und zu nennen. Er muss seine Meinung auch äußern - das ist Teil des Mehrwerts den ein Journalist liefert.
Meiner Ansicht nach tut Raff das. Ich kann nicht erkennen, dass Raff hier blind ist gegenüber Artfakten etc. sondern, dass er die Technik an sich als richtigen Weg ansieht und die Vorteile als überwiegend betrachtet...
So ich hab mir mal die ganzen Customs angeschaut auf TPU. Das ist ja ein Müll teilweise elektronisch, das ist noch schlimmer als bei der 3090 damals. Gibt fast bei allen keine effizienten SPS und low-end-VRM-Controller. Das funktioniert natürlich, aber effizient ist das alles nicht. Viele verlieren bis zu 20W an die ineffizienten Elektronikkomponenten. Wenn man schon so ein Ding kauft, würde ich die FE vorziehen, die ist wirklich gut designt. Viele Customs sind brutal downgecostet und dafür designt die Garantiezeit zu überstehen.
https://youtu.be/9I7U4kdc0V4
BigKid
2022-10-17, 11:26:30
So ich hab mir mal die ganzen Customs angeschaut auf TPU. Das ist ja ein Müll teilweise elektronisch, das ist noch schlimmer als bei der 3090 damals. Gibt fast bei allen keine effizienten SPS und low-end-VRM-Controller. Das funktioniert natürlich, aber effizient ist das alles nicht. Viele verlieren bis zu 20W an die ineffizienten Elektronikkomponenten. Wenn man schon so ein Ding kauft, würde ich die FE vorziehen, die ist wirklich gut designt. Viele Customs sind brutal downgecostet und dafür designt die Garantiezeit zu überstehen.
https://youtu.be/9I7U4kdc0V4
Welche nicht ?
Edgecrusher86
2022-10-17, 12:25:06
Joa 865 mV ist die Idle Spannung :freak:
Geht aber hier auch im UV bei 2600 Mhz..
Danke für das ausbaldowern in deinem anderen Post :)
Ja, ich habe auch zweimal geschaut...330 MHz Offset und es läuft bei 2610 MHz - wie der Duracel-Hase! :freak:;D
Gern geschehen. :)
Nazar
2022-10-17, 12:33:16
Ich bin mir bei euch beiden nicht sicher, ob sachliche Diskussionsversuche fruchtbar sind, aber ich versuche es trotzdem. :) Es ist Wochenende und ich habe schon 12 Stunden nicht mehr gearbeitet ...
Vorweg: Ich habe nirgends gesagt, dass DLSS alles andere wegrockt. Die Diskussion, was gute Grafik ausmacht, ist uralt. Über den Stil kann man immer streiten, aber es gibt Dinge, die man objektiv bewerten kann, beispielsweise Bildglättung, Detailabbildung und Ruhe in Bewegung. Letzteres sieht man auf Screenshots nicht, also müssen wir nicht darüber diskutieren (Spoiler: DLSS ist ruhiger). Wir können aber über alles andere reden. Die Beispiele in Spider-Man Remastered und Ghostwire Tokyo zeigen stets 2160p mit TAA im Vergleich mit 1670p und DLSS. Wie im (vermutlich von euch ignorierten) Text rund um die Bilder erläutert, ist die Einstellung DL-DSR plus DLSS Balanced das "Spar-Profil", welches die Bildrate signifikant erhöhen kann - und dennoch erzielt es bei vielen Bildteilen das bessere Ergebnis. Und dabei sieht man hier nicht mal die Errungenschaften von DL-DSR, dafür müsste man die Shots via Geforce Experience anfertigen, aber das nur am Rande ...
Bei Spider-Man kann man sich über die Reduktion der Raytracing-Reflexionsauflösung aufregen, welche aber sowohl erwähnt als auch erklärt wird. Das betrifft jedes Upscaling, sodass gilt: Weniger Pixel gleich weniger Feinheiten bei Raytracing-Effekten. Eine andere Auffälligkeit betrifft die Tiefenschärfe, die vermutlich auflösungsabhängig gesetzt wird, weshalb ein Bild mit niedrigerer räumlicher Auflösung diesbezüglich einem mit höherer Auflösung zurücksteht. Was von euch und anderen jedoch ignoriert wird, sind die ganz klar besseren Dinge, allen voran die Abbildung von Feinheiten. Die Vegetation sieht beim DLSS-Shot massiv besser aus. Ja, ich meine die pixelfeinen Verästelungen, welche beim TAA-Shot untergehen. Mit DLSS wird offenbar ein negativeres Texture-LOD gesetzt, das wegen des Pixel-Recyclings trotzdem kein Undersampling verursacht. Oder man sieht sich die generelle Glättung an, welche weniger Aliasing (Jaggies) als mit TAA bei höherer Auflösung zeigt. Ja, die Schatten der Vegetation sind beim DLSS-Shot blasser. Das als Killer-Argument anzuführen, ist meiner Meinung nach aber völlig übertrieben, wo große Teile des Rests (bis auf die Raytracing-Reflexionen) detaillierter sind. Ähnlich sieht es bei Ghostwire aus. Das Bild ist voller künstlicher Artefakte, wie Chromatic Aberration, aber das ist ein Stilmittel. DLSS erzielt erneut eine bessere Detailabbildung (Bäume, Gitter, Feinheiten eben) trotz geringerer Pixelmenge. Und wie gesagt, das alles geschieht bei signifikant besserer Bildrate, sichtbar in den Benchmarks.
Merke: Scharfe Kontraste sind nicht automatisch besser. Das lässt mich wieder Anekdoten aus der 3D-beschleunigten Urzeit hervorholen. Etwa aus dem Jahr 2000: 3dfx' SGSSAA mache das Bild unscharf, sagte man. Das Jahr 2005 war auch interessant: Das bis zur Unkenntlichkeit "optimierte" AF der Geforce 6 und 7 wurde von einigen Leuten tatsächlich für gut befunden, weil es so schön scharf ist. Gerade im Stand stellte es Details dar, die bei der Konkurrenz (und nachfolgenden Geforce 8) nicht zu sehen waren. Doof dabei: Diese "Details" waren und sind schlicht Aliasing, die in Bewegung einen augenzerschneidenden Effekt haben.
Lange Rede, kurzer Sinn: Ich mache das schon ein paar Jahr(zehnt)e und erzähle nicht einfach irgendeinen Unsinn, weil mir langweilig ist. Wer ein Problem mit meiner "Geile Technik rockt, Technikfeindlichkeit und Bremserei suckt"-Einstellung hat, grundsätzlich gegen Upscaling oder Nvidia-Produkte ist, oder einfach keinen Bedarf an weiterführenden Artikeln hat, kann gerne so verfahren - allerdings ändert das nichts daran, dass es mehr gibt und auch weiter von mir thematisiert wird. :)
MfG
Raff
Ich diskutiere sehr gerne sachlich. Liegt in meinem Beruf begründet. ;)
Was ich aber überhaupt nicht mag ist, wenn man mir Dinge zu verkaufen versucht, die so nicht vorhanden sind.
Erst einmal zu den Bildvergleichen bei Spiderman. Du möchtest mir also ernsthaft verkaufen, dass dir im Vergleichsbild weder das stärkere Blurr (Gebäude hinten rechts extrem stark zu sehen), noch die Artefakte (Spiderman am Gebäude in der Spiegelung vom Fuß weg) aufgefallen sind?
Ich kann mir das nur schwer vorstellen, weshalb ich auch meine Anmerkungen machte. Du kannst meinetwegen behaupten, was du möchtest, aber dann musst du dir auch gefallen lassen, dass bei solch offensichtlich Falschbehauptungen, diese angemerkt werden, insbesondere dann, wenn du anderen, die nicht deiner "Ansicht" sind, einen Besuch beim Augenarzt empfiehlst (Karma?).
RTRT ist eine tolle Sache und wird irgendwann die Zukunft sein.
DLSS ist, und wird vermutlich bis auf Weiteres, ein Bildverschlechterungsprogramm bleiben.
RT ist derzeit eine Insellösung, die RZ zwingend voraussetzt, wenn die Spiele nicht gerade aus der Steinzeit stammen.
RT soll die Bildqualität verbessern, indem es realistischere Beleuchtungs- und Schatteneffekte ermöglicht.
Vielen Spielern fällt nicht auf, ob RT aktiviert ist oder nicht und es ist nicht selten, dass RT-Effekte als !!störend/falsch!! vom Spieler wahrgenommen werden. Was nicht heißt, dass sie nicht realistischer sind, aber da ein RT Spiel als Grundlage ein Spiel mit überwiegend RZ-basierenden Effekten hat, wirken RT Effekte oft deplatziert oder übertrieben.
Dieser Effekt wird verstärkt, da es sich bei den RT-Effekten oft um Insellösungen handelt.
Das größte Problem ist die ungenügende Performance von RT, selbst wenn nur wenige Rays und noch weniger Bumps genutzt werden.
Selbst mit DLSS kann man diesem Problem leider nicht Herr werden.
So wirken Beleuchtungsszenen unnatürlich dunkel und müssen nachträglich durch RZ-Effekte aufgehübscht werden (Metro Exodus Version 1 und 2).
Somit benötigt RT auch noch extrem viel Programmieraufwand und die Mängel von RT/Performance zu kaschieren.
Dann ist es auch so, dass selbst die moderneren Spiele immer noch keine richtigen Materialdefinitionen aufweisen, weshalb die Schatten, und Reflexionen einiger Objekte total an der Realität vorbeigehen.
Zum Schluss wird dann DLSS benötigt, um Spiele überhaupt, selbst auf den schnellsten GPUs, gut spielbar zu machen. Und ab diesem Zeitpunkt fängt die Katze an, sich selbst zu verprügeln.
Wir haben ein BQ Verbesserungsprogramm: RT. Und wir haben ein Bildverschlechterungsprogramm: DLSS.
Schade nur, dass RT ohne DLSS nicht wirklich gut spielbar ist und schon gar nicht für den Massenmarkt. ;)
Wem zu Hölle möchte man das nun als eine Bildverbesserung für ein komplettes Spiel verkaufen?
RT ist ohne DLSS nicht wirklich spielbar.
RT selber bietet meiste nur Insellösungen an, die oft störend oder deplatziert wirken, weshalb das Spiel in der Gänze nicht mehr rund wirkt.
Die derzeitigen RT Effekte (siehe Spiderman) sind allesamt falsch/übertrieben.
Also was für einen Sinn soll das derzeitige RT haben, wenn es sich selber konterkariert?
Da jetzige RT funktioniert in etwa so gut, wie ein AA und AF, das je nach Situation (wenn der Entwickler meint, es würde hier einen deutlich sichtbaren Effekt haben) an oder ausgeschaltet wird.
Z.B. AA und AF an, nur wenn man in Räumen ist, ansonsten aus. Oder wenn die Objektzahl X nicht höher als Y ist.
Man darf RT gut finden, aber man sollte es tunlichst vermeiden das derzeitige RT auch nur irgendwie mit einer Art Bildverbesserung, bzw. realistischer hinzustellen, als das was RZ derzeit bietet, denn ein Spiel besteht eben aus mehr als aus Insellösungen und sollte in sich stimmig sein. So können über das komplette Spiel gesehen, RZ-Effekte als deutlich realistischer wahrgenommen werden, als einzelne übertriebene (Spiegel/Pfützen) Effekte oder falsche Schatteneffekte oder Beleuchtungen, die so in der Realität gar nicht vorkommen.
In diesem Fall bedeutet weniger Realismus, über das gesamte Spiel gesehen, ein deutliches Plus für das Empfinden der Spieler.
Ich kenne 100derte Spieler, die AA und AF vermissen würden, ich kenne aber keinen einzigen Spieler, der je bemerkte, sich daran gestört hat, dass RT gar nicht aktiviert war. ;)
BlacKi
2022-10-17, 12:33:58
idle nicht unter 0,865v wenn ich das richtig verstanden habe?
Edgecrusher86
2022-10-17, 12:39:08
Japp, leider. Load könnte man unter Teilllast in ganz andere Effizienzdimensionen stoßen mit 7xx mV Minimum. Ich schätze, dass grob 1,7 GHz @ 725-765mV sicherlich machbar wäre, wie gehabt mit Ampere - zum Beispiel.
Der P8 würde bestimmt auch mit unter 700mV laufen (210-645/405MHz). :)
Bsp. hier: WQHD120 @ P8 MDPS @ CP 2077 Pausenmenü. :D
https://abload.de/thumb/cyberpunk2077_2022_10oaii6.png (https://abload.de/image.php?img=cyberpunk2077_2022_10oaii6.png)
51% Load und 36,5W TGP! ^^
Edgecrusher86
2022-10-17, 13:20:17
RTRT ist eine tolle Sache und wird irgendwann die Zukunft sein.
DLSS ist, und wird vermutlich bis auf Weiteres, ein Bildverschlechterungsprogramm bleiben.
Damit machst du es dir aber etwas zu leicht - das ist mir zu "allgemein gültig". ;)
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1362383&page=2&draft=-1&rank=1
Ähnliches sieht man z.B. auch in DOOM ETERNAL oder MARVEL'S AVENGERS bei weit entfernten Leitungen/Stahlseilen oder Treppen. Mit ingame TAA werden einfach viele Details geschluckt durch das Alais.
Aber ja, ab und an kann es auch Artefakte/Smearing geben - das ist mir auch bewusst. :wink:
Ab 960p aufwärts ist es aber ganz ordentlich - in 1440p erst Recht (4K DLSS Q) - im Großen und Ganzen.
mahoni
2022-10-17, 14:38:03
Ich habe meine ASUS TUF wieder zurück geschickt. Das war kein Fiepen, das war Gekreische, auch mit Frame-Limiter und UV. Im Desktop Betrieb war auch ständig ein hoher Ton zu hören, ist nicht das Netzteil. Mit der alten Karte ist das nicht so. Naja, ansonsten finde ich die 4090 schon gut, aber so nicht. Ich warte mal bis mehr Leute eine haben und dann nach Erfahrungsberichte über eine "ruhige" Karten entscheiden. Lüfter Rauschen darf sein, aber kein Gekreische.
Edgecrusher86
2022-10-17, 14:41:42
Hm, also mich stört es höchstens bei dreistelligen fps - richtig laut war es aber erst oberhalb 200 fps und 400W mit Quiet-BIOS. Aber so spiele ich ja nicht. Insofern ist alles gut.
Was ich allerdings sofort nach dem Menü-Test in MAFIA Def. gemacht habe: Wieder vom Quiet- auf das Performance-BIOS umgestellt. Maximal 1200RPM sind einfach zu wenig, wenn die Spulen zirpen. :D
Im Desktop ist meine schön leise - auch beim Gaming bis 1xx fps. In der Praxis habe ich eh nur maximal 100Hz (G-SYNC). :)
Was gleich enorm geholfen hatte im Extremfall -> PT auf 60% senken -> 220 statt 240 fps in MAFIA (270W statt 400W) => Spulenfiepen gleich um die Hälfte reduziert!
mahoni
2022-10-17, 14:43:59
War bei mir auch mit UV (Hatte Power Limit 70 probiert und Curve auf 925) und Frame Limit auf 80FPS. Dann hat sich die Lautstärke auch je nach Blickrichtung geändert. Leise war es aber nie.
Edgecrusher86
2022-10-17, 14:48:14
So krass wie du es beschreibst, kenne ich das nur von der RX VEGA 64 Air. Da gab es auch im Browser beim Scrollen oder oberhalb 40 fps massives Spulenfiepen inkl. UV!
Linmoum
2022-10-17, 14:52:14
Meine Referenz 6900XT hatte sich auch schon bei 60fps und 300W bemerkbar gemacht. Das sind nicht immer nur zwangsläufig hohe fps und extremer Verbrauch, wo Spulenfiepen auftritt. UV hilft dagegen nicht, weil man den Verbrauch, sondern die Spannung senkt.
Das ist aber häufig auch schlicht Lotterie, wobei die vielen (negativen) Erfahrungsberichte vor allem bei TUF/Strix und Suprim IMO schon ungewöhnlich sind.
Ich würde das nach der Erfahrung mit meiner 6900XT aber wohl auch nicht mehr hinnehmen, wenn die Karte selbst bei geschlossenem Gehäuse noch aufdringlich nervt. Das geht auch leise.
Mittlerweile bin ich deswegen auch froh, doch keine TUF gekriegt zu haben. Meine sehr leise Gigabyte selbst bei maximalen 1.1V will ich echt nicht eintauschen. Für mich ist Spulenfiepen schlimmer als ein Chip, wo ich beim OC 50MHz weniger schaffe oder beim UV 10mV höher gehen muss.
Oliver_M.D
2022-10-17, 16:42:22
Ich bin hier leider stark CPU-Limitiert - WQHD + Max. Settings inkl. Psycho + RT Ultra + DLSS Q -> 84 fps Peak @ 2730/10502 MHz @ 920mV @ ~ 70-80% GPU-Load.
Bei dir sollte da einiges mehr gehen mit dem 9900KF Richtung 100+ fps.:DDann brauche ich mir wohl keine sorgen zu machen, dazu ist es mir momentan nicht so wichtig ob RT auf Ultra, High oder Off steht.;)
[Der rest von Beitrag]Du darfst ruhig mal pause machen, möchte mich nicht alle paar Stunden bei dir bedanken müssen. Ich sollte mir mal die Beiträge für später speichern;D
aufkrawall
2022-10-17, 16:46:12
Im Desktop Betrieb war auch ständig ein hoher Ton zu hören, ist nicht das Netzteil.
Ist bei Bro nicht so, lautlos auf dem Desktop (4k 144Hz) mit Seasonic 850W Platin. Scheint auch schon unter Last etwas weniger geworden zu sein, stört mit UV kaum noch.
Cubitus
2022-10-17, 16:49:54
Ist bei Bro nicht so, lautlos auf dem Desktop (4k 144Hz) mit Seasonic 850W Platin. Scheint auch schon unter Last etwas weniger geworden zu sein, stört mit UV kaum noch.
Hab dasselbe Netzteil und kann ich nur so bestätigen, im idle lautlos und mit UV auf ein minium dezimiert, sodass es nicht mehr auffällt und mein tower steht rechts auf dem Schreibtisch
basix
2022-10-17, 17:21:47
Meine TUF ist im Idle / Browsing auch lautlos. Aber sobald 3D-Last anliegt, ist das Fiepen deutlich zu hören. Mit PL-Begrenzung und Framelimiter kann man es reduzieren, aber hörbar ist es immer.
Meine vorherige 2080 Ti von Palit war in jeder Lebenslage lautlos, was Spulenfieben anging.
r3ptil3
2022-10-17, 17:27:50
Meine TUF ist im Idle / Browsing auch lautlos. Aber sobald 3D-Last anliegt, ist das Fiepen deutlich zu hören. Mit PL-Begrenzung und Framelimiter kann man es reduzieren, aber hörbar ist es immer.
Meine vorherige 2080 Ti von Palit war in jeder Lebenslage lautlos, was Spulenfieben anging.
"be quiet! Straight Power E10 700W CM" - ist das richtig?
Blase
2022-10-17, 17:55:16
So, das Experiment kann beginnen :freak:
Ich habe mir eine Palit Game Rock 4090 in mein System getan:
i7-8700K
Enermax 600 Watt Netzteil
Ich bin also sicherlich oft auch in 4K CPU limitiert - und die 600 Watt sind zumindest theoretisch zu wenig Saft.
Ich habe die Karte eingebaut und ohne irgendetwas einzustellen einfach mal den 3dMark laufen lassen und in einige Spiele - u.a. Cyberpunk - reingeschaut. Bisher läuft alles stabil. Und zumindest laut GPU Auslastung im Afterburner sieht es soweit gut aus.
Das "Feintuning" kommt dann heute später am Abend, bzw. morgen im Laufe des Tages. Ich wollte mich ohnehin mit dem Thema Undervolting der Karte beschäftigen. Dazu muss ich mich in das Thema aber noch richtig rein lesen.
Wüsste gerne, wie ich mich hier im Vergleich zu anderen einordne. Außerhalb des CPU Limits müsste ich ja auf Augenhöhe sein.
Mein Werdegang könnte also für Leute interessant werden, die, wie ich, eine etwas betagtere CPU haben, oder nicht gleich in ein neues Netzteil investieren wollen :redface:
MfG Blase
BigKid
2022-10-17, 17:58:50
So, das Experiment kann beginnen :freak:
Ich habe mir eine Palit Game Rock 4090 in mein System getan:
Wie ist das bei dir mit den Lüftern ?
Ich habe schon bei der untersten Drehzahl ein Geräusch das mich einfach von der Art her sehr nervt, wird auch bei höheren Drehzahlen nicht besser... Ist so eine Art surren...
mironicus
2022-10-17, 17:59:27
Die Gainward 4090 hat zumindest recht wenig Spulenfiepen (kaum hörbar), vielleicht liegt das an den billigeren Spannungswandlern. :D
Der Speicher läßt sich +1500 MHz übertakten, und GPU gingen +250 MHz. Wenn man Power auf 70% stellt inkl. Übertaktung hat man vielleicht 5% weniger Performance.
Blase
2022-10-17, 18:05:31
Wie ist das bei dir mit den Lüftern ?
Ich habe schon bei der untersten Drehzahl ein Geräusch das mich einfach von der Art her sehr nervt, wird auch bei höheren Drehzahlen nicht besser... Ist so eine Art surren...
Kann ich (bisher) nicht bestätigen. Ich höre einen Lüfter, ja. Aber ich würde das nicht als störend einstufen. Vielleicht wenn die Karte wärmer wird und die Lüfter weiter hoch drehen. Habe bisher ja kaum eine Stunde mit einigen Tests und Spielen verbracht.
MfG Blase
Linmoum
2022-10-17, 18:11:36
Also Witcher 3 mit Ini-Tweaks und div. Grafik/Texture-Mods ist in 6K echt eine Offenbarung und das läuft trotzdem noch mit 50fps+ - Kenner wissen, dass gerade Ini-Tweaks für Schatten und Gras die Performance noch gut drücken (können). ;) Die 6900XT ist mit diesem Gerüst gerade Mal so im 3xfps-Bereich gewesen. Wohlgemerkt in UHD.
Wahnsinn. Mag für viele nicht entscheidend sein, weil es ja "nur" Auflösung ist, aber das ist für mich wirklich ein Gamechanger. Komplett neues Spiel. Ich werd mit der 4090 noch mehr Spiele in 6K ausgraben und genießen. Tolle Karte, muss man neidlos anerkennen und dabei trotzdem unglaublich effizient. Egal ob Extrem-Auflösungen oder RT.
mironicus
2022-10-17, 18:17:40
Wie ist das bei dir mit den Lüftern ?
Ich habe schon bei der untersten Drehzahl ein Geräusch das mich einfach von der Art her sehr nervt, wird auch bei höheren Drehzahlen nicht besser... Ist so eine Art surren...
Stell die Lüfter doch mal manuell auf 100% und laß sie 1-2 Stunden am Stück drehen. Man sollte nichts unversucht lassen, bevor man die Karte frustriert zurückschickt. Den Bios-Schalter auf S stellen hat bei mir schon mal etwas gebracht.
basix
2022-10-17, 18:36:13
"be quiet! Straight Power E10 700W CM" - ist das richtig?
Jepp. Hält auch 450W auf der GPU aus, läuft stabil. Ich betreibe die 4090 aber bei 270...300W. Bei der 2080 Ti hat es auch bei 300W nicht gezirpt.
Aber dennoch gute Frage, ob das Netzteil zirpt. Bei der 2080 Ti hatte ich nur 1x 12p PCIe Connector am PSU angeschlossen (be quiet PSU Eigenheit). Neu sind es beide 12p Stecker (2x 12p auf 4x 6+2p).
Cubitus
2022-10-17, 19:19:55
Nochmal zum Vergleich wie effektiv UV ist..
3DMark-Speedway im Standard
9913 Punkte ~430 Watt
3DMark-Speedway mit UV 875mV und 2600 Mhz
9248 Punkte ~310 Watt
Was ist nun besser hmmm :D
Radeonfreak
2022-10-17, 19:22:42
10058 Punkte :frown:
RoNsOn Xs
2022-10-17, 19:24:44
So, das Experiment kann beginnen :freak:
Ich habe mir eine Palit Game Rock 4090 in mein System getan:
i7-8700K
Enermax 600 Watt Netzteil
Ich bin also sicherlich oft auch in 4K CPU limitiert - und die 600 Watt sind zumindest theoretisch zu wenig Saft.
Ich habe die Karte eingebaut und ohne irgendetwas einzustellen einfach mal den 3dMark laufen lassen und in einige Spiele - u.a. Cyberpunk - reingeschaut. Bisher läuft alles stabil. Und zumindest laut GPU Auslastung im Afterburner sieht es soweit gut aus.
Das "Feintuning" kommt dann heute später am Abend, bzw. morgen im Laufe des Tages. Ich wollte mich ohnehin mit dem Thema Undervolting der Karte beschäftigen. Dazu muss ich mich in das Thema aber noch richtig rein lesen.
Wüsste gerne, wie ich mich hier im Vergleich zu anderen einordne. Außerhalb des CPU Limits müsste ich ja auf Augenhöhe sein.
Mein Werdegang könnte also für Leute interessant werden, die, wie ich, eine etwas betagtere CPU haben, oder nicht gleich in ein neues Netzteil investieren wollen :redface:
MfG Blase
Ja, gib bitte stets Infos und ein paar Benches raus im richtigen Unterforum. Hab die selbe CPU und es würde mich nur aus Jux mal interessieren wie das performt. :)
Cubitus
2022-10-17, 19:31:47
10058 Punkte :frown:
Bei Speedway im Standard oder mit OC Profil?
Also ich sags mal so, die Karte hämmert auch mit UV so viel an Leistung raus, das man dies im Spiel nicht merkt aber am Strom schon.
Radeonfreak
2022-10-17, 19:34:36
OC ;)
Dural
2022-10-17, 19:46:27
Eine 4090 @ 520watt ;)
https://www.3dmark.com/sw/17697
3090ti @ 480watt
https://www.3dmark.com/sw/22208
basix
2022-10-17, 21:01:54
"be quiet! Straight Power E10 700W CM" - ist das richtig?
Jepp. Hält auch 450W auf der GPU aus, läuft stabil. Ich betreibe die 4090 aber bei 270...300W. Bei der 2080 Ti hat es auch bei 300W nicht gezirpt.
Aber dennoch gute Frage, ob das Netzteil zirpt. Bei der 2080 Ti hatte ich nur 1x 12p PCIe Connector am PSU angeschlossen (be quiet PSU Eigenheit). Neu sind es beide 12p Stecker (2x 12p auf 4x 6+2p).
Es ist die GPU, die zirpt. Habe einen Hörtest gemacht. Vom Netzteil höre ich nichts (oder geht unter dem GPU gezirpe unter).
Edit:
Nochmal zum Vergleich wie effektiv UV ist..
3DMark-Speedway im Standard
9913 Punkte ~430 Watt
3DMark-Speedway im Standard
9248 Punkte ~310 Watt
Was ist nun besser hmmm :D
Tipp: Mach +1000 MHz Speicher OC. Dein 310W Score wird ~250 Punkte steigen ;) Ich habe bei ~315W ziemlich genau 9500 Punkte. Ohne Speicher-OC ~9250. Beides mit 70% Power Limit.
Liegt daran, dass die reduzierte Spannung den Video-Clock senkt. Mit Speicher-OC kann man dem Leistungsverlust entgegenwirken. Der GPU-Clock wird im Schnitt zwar etwas tiefer sein, die Performance ist dennoch höher.
Dural
2022-10-17, 21:20:34
Haha gerade im Speed Way festgestellt das die 4090 satte 185% schneller als eine 6900xt ist. Eigentlich müsste man AMD in Grund und Boden klagen für ihre RT Bewerbung, bodenlose Frechheit bei dieser Hardware das Wort RT überhaupt irgend wo hinzuschreiben, schlicht unbrauchbar.
https://www.3dmark.com/sw/28724
Nazar
2022-10-17, 21:30:06
Haha gerade im Speed Way festgestellt das die 4090 satte 185% schneller als eine 6900xt ist. Eigentlich müsste man AMD in Grund und Boden klagen für ihre RT Bewerbung, bodenlose Frechheit bei dieser Hardware das Wort RT überhaupt irgend wo hinzuschreiben, schlicht unbrauchbar.
https://www.3dmark.com/sw/28724
Noch deutlich kann man nicht mehr sagen: "Ich bin ein Hardcore nVidia Fanboy, denn nichts ist mir zu schade, um meinen Ruf zu ruinieren!" ;)
Als ob jemals irgendwer behauptet hätte, dass AMD in Bereich RT Land sieht!
Erzähl uns allen noch mehr "Neuigkeiten", die selbst in China den Sack Reis unberührt lassen. :freak:
Edgecrusher86
2022-10-17, 22:01:32
TW3 (Vanilla):
6880x2880:
https://abload.de/thumb/screenshot2022-10-172dgfmu.jpg (https://abload.de/image.php?img=screenshot2022-10-172dgfmu.jpg)
80 fps
5160x2160 - 132 fps
3440x1440 - 210 fps
Wir brauchen das Remaster. ;)
Badesalz
2022-10-17, 22:09:37
Als "Journalist" sollte man immer versuchen die eigenen Vorlieben/Meinungen und Fakten klar zu trennen und zu nennen. Er muss seine Meinung auch äußern - das ist Teil des Mehrwerts den ein Journalist liefert.
Meiner Ansicht nach tut Raff das. Ich kann nicht erkennen, dass Raff hier blind ist gegenüber Artfakten etc. sondern, dass er die Technik an sich als richtigen Weg ansieht und die Vorteile als überwiegend betrachtet...Raff macht was er soll. Das liegt nicht daran, daß er ein schlechter Mensch ist oder die Sehstärke 11% beträgt. Er hat sich entschieden diesen Weg zu gehen. Das ist nichts was ich akzeptieren muss oder nicht muss, weil das seine sache ist. Und er ist hiermit eh nur stellvertretend für solche Schreiberkolonen genannt. Das ist alles überhaupt kein Thema. Ich würde nichtmal im PCGH-Forum auf die Idee kommen da was vom Zaun zu reißen und auch nicht unter den Artikeln in den Kommentaren. Ich sehe das als nicht mein Bier.
Auf 3DC dagegen ist das aber anders :wink: Wenn man sich hier gerne aus dem Fenster lehnen möchte, dann muss man auch mit dem Fahrtwind rechnen.
Hier ist damit aber Sense. Es gibt ja einen Thread über die Mattscheibe. Man verzeiht.
PS:
Wer nochmal war Timbaloo, daß er Raff direkt unter die Achseln :tongue: greifen möchte und dabei in "wir" redet? Ich hab seinen Textbaustein erstmal wegen der Inhaltsleere ignoriert :confused:
dreas
2022-10-17, 22:14:41
Ich mag Raff und finde es toll das er Teil der Community hier ist.
FastAndy
2022-10-17, 22:25:40
Ich mag Raff und finde es toll das er Teil der Community hier ist.
Geht mir genauso. Sein kollege (der dlss experte) aus dem 4090 video ist mir auch sehr sympatisch. Die hobbynörgler sind meist nur mit sich selbst unzufrieden. Nehmt es bitte nicht persönlich und macht bloß weiter so.:)
Badesalz
2022-10-17, 22:34:17
Wahnsinn. Mag für viele nicht entscheidend sein, weil es ja "nur" Auflösung ist, aber das ist für mich wirklich ein Gamechanger. Komplett neues Spiel.Mach doch auch mal paar vorher/nachher Shots. Das ist ja hier wie bei einer Filmbesprechung...
Die hobbynörgler sind meist nur mit sich selbst unzufrieden.Wenn das so wäre würde ich schnell wieder die Schnute halten, da ich das umgehend mit einer oberfetten Graka kompensiert hätte.
Also Witcher 3 mit Ini-Tweaks und div. Grafik/Texture-Mods ist in 6K echt eine Offenbarung und das läuft trotzdem noch mit 50fps+ - Kenner wissen, dass gerade Ini-Tweaks für Schatten und Gras die Performance noch gut drücken (können). ;) Die 6900XT ist mit diesem Gerüst gerade Mal so im 3xfps-Bereich gewesen. Wohlgemerkt in UHD.
Wahnsinn. Mag für viele nicht entscheidend sein, weil es ja "nur" Auflösung ist, aber das ist für mich wirklich ein Gamechanger. Komplett neues Spiel. Ich werd mit der 4090 noch mehr Spiele in 6K ausgraben und genießen. Tolle Karte, muss man neidlos anerkennen und dabei trotzdem unglaublich effizient. Egal ob Extrem-Auflösungen oder RT.
Was heißt hier "nur Auflösung"? :D Das Anti-Aliasing ist das einzige Ärgernis in The Witcher 3 - und die Supersampling-Keule schafft nun mal sehr gut Abhilfe. Ich habe es auf der RTX 3090 am Ende übrigens in 5K via DL-DSR plus Treiber-FXAA gespielt. Ja, pervers, aber die dosierbare Schärfung des DL-DSR und die Glättung des FXAA macht das Spiel am Ende knackig, glatt und flimmerfrei. In 6K natürlich noch etwas mehr als in 5K. :cool: Also wer's - wie Linmoun und ich - gerne mal in maximaler "Ada Quality" spielen will, ohne den Look umzukrempeln:
- HD Reworked Project 12 (https://www.nexusmods.com/witcher3/mods/1021/) installieren,
- PCGH Config (https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-the-witcher-3-gpu.602287/page-2#post-10718196) draufpacken und das Preset "Wicked" wählen ("Rebalanced" ist aber cleverer),
- DLDSR einschalten und erst mal mit Standard-Schärfe/Glättung probieren,
- 16:1 HQ-AF und FXAA über Treiber forcieren (profilbasiert), dann nochmal die Schärfe und Ingame-AA checken.
Have fun! :up:
MfG
Raff
Rolsch
2022-10-17, 22:43:46
Falls sich Zotac Besitzer über die Rote Warnlampe beim Stromstecker sorgen, das ist nur der BIOS Indicator, Rot=Laut, Grün=Leise.
wolik
2022-10-17, 23:04:45
@Raff
Ich weiß nicht, ob das mit der Länge oder der Dauer ;) den Ausschlag geben kann. Als ich mich das erste Mal mit der s.g. Grafik eines Komputersystems auseinandersetzte, warst du noch viel zu jung für einen C64. Das Thema können wir also entspannt wie getrost ad acta legen.
Gabs bei C64 auch 3D Grafik?:confused:
Für mich 3D hat mit Voodoo (Turok / Unreal) gestartet.
Ja, ich war auch ein begeisterter ATF-Pilot, nur 3Dfx gab uns echte 3D-Welten.
Wenn es um DLDSR geht, sollte man sich immer RDR2, HZD, Dead Stranding, Anno 1800, SC anschauen.
Da liegen Welten zwischen 4K und 4Kx2.25.
DLDSR 4Kx2.25 ist von 8K kaum zu unterscheiden.
Und mit 4090 kann man HZD in 8K spielen, auch ohne DLSS :eek:
Ich bitte auf den Ton zu achten, dieses Forum hat schon genug Leute mit Kompetenz verlassen.
BigKid
2022-10-17, 23:05:12
Stell die Lüfter doch mal manuell auf 100% und laß sie 1-2 Stunden am Stück drehen. Man sollte nichts unversucht lassen, bevor man die Karte frustriert zurückschickt. Den Bios-Schalter auf S stellen hat bei mir schon mal etwas gebracht.
Hab die Lüfter bereits eine Nacht auf 100% durchlaufen lassen - hat nicht geholfen… Muss mir leider ne zweite Karte zum Vergleich holen… Hoffe ich bekomme innert 14 Tagen ne Suprim oder ne weitere Gamerock zu nem normalen Preis…
Silent Bios bringt nix… Es ist wie gesagt nicht die Drehzahl sondern es stört schon wenn er nur läuft…
Linmoum
2022-10-17, 23:11:15
@Raff
Ich hatte mir ja eigentlich vorgenommen, in UHD mit maximal aufgemotzter Config zu spielen. Da scheiterte die 6900XT wie gesagt ja schon im Worst Case deutlich an der 40fps-Marke. Aber nachdem ich dann festgestellt hatte, dass das mit der 4090 bei 2.25x DL-DSR sogar mit >50fps läuft (Skellige Forest als Indikator), hab ich den ursprünglichen Plan dann doch ganz schnell über Bord geworfen. :D
Wobei Config dann aber auch nicht komplett ausgereizt ist. CascadeShadowMapSize (CSMS) oberhalb von 4096 kostet ca. 10-15% fps, das ist dann doch too much. Aber ansonsten? Ich bin gerade wirklich begeistert und voller Freude wie ein kleines Kind.
Wenn ich jetzt wüsste, ob die Next-Gen-Version tatsächlich noch in diesem Jahr kommt, wie groß der Performance-Impact (auch mit DLSS2) dann tatsächlich ist und ob das Bild dann immer noch trotzdem dieselbe Ruhe hat wie mit 2.25x DL-DSR. Natives UHD sieht dagegen echt wie Müll aus. ;D
Auch, wenn im Voraus ja viel an Leistungszuwachs kolportiert wurde. Gerne sogar mehr als es dann real geworden ist. Aber irgendwie hätte ich trotzdem nicht gedacht, dass sowas mit solch gut spielbaren fps bei einer solchen Bildqualität jetzt möglich ist. Hach, das werden tolle nächste Monate über den Winter mit der 4090, wenn es ruhig(er) ist und man mehr Zeit hat. So viel "altes", was man allein in hohen Auflösungen nachholen/wieder spielen/genießen kann bzw. neues, was man dann auch in UHD inkl. RT (+ggf. DLSS2) vollumfänglich in voller Pracht genießen kann.
mironicus
2022-10-17, 23:11:52
Ich habe gerade Elden Ring ausprobiert, in 4K mit 60 FPS locked und maximalen Details. Da verbraucht die gesamte Karte fast 200 Watt (bei 2,95 GHz GPU-Takt), die GPU-Temperatur geht nicht höher als 48 Grad bei geringster Lüfterdrehzahl. Und sobald man das Spiel verlässt gehen nach 1-2 Sekunden sofort die Lüfter wieder aus weil die GPU-Temperatur wieder auf unter 40 Grad gefallen ist. :)
FastAndy
2022-10-18, 00:05:38
Eben mal eine runde assetto corsair gefahren. Ist ein widescreen monitor dran
wie gut das läuft, unfassbar im gegensatz zur 3090
Die 4090 ist die geilste karte die ich je hatte :heart:
Wer hier nicht zuschlägt ist selbst schuld
mironicus
2022-10-18, 01:32:33
A Plague Tale: Requiem haut aber richtig rein, da braucht man bei 4K60 FPS schon 300 Watt bei maximalen Details. Und das ganz ohne Raytracing, das ist noch nicht verfügbar in der Version.
Oliver_M.D
2022-10-18, 02:12:48
6880x2880 - 80 fps
5160x2160 - 132 fps
3440x1440 - 210 fpsMeine 1070 schafft gerade mal 1440p50. Mir schon klar das 8 Jahre und eine performance klasse dazwischen liegen, aber trotzdem etwas krank.:freak:
Die 4090 ist die geilste karte die ich je hatte :heart: Wer hier nicht zuschlägt ist selbst schuld
Das kommt ausgerechnet von jemandem, der ein Bild seiner 4090 im Kofferraum des eigenen Ferraris macht. Es sei dir gegönnt, versteh mich nicht falsch. Als RTX 4090 Besitzer ist man aber in einer ziemlich exklusiven Bubble, für die Mehrheit der Leute ist diese Karte unerreichbar.
Edgecrusher86
2022-10-18, 06:08:38
WOW - Habe den RED DEAD REDEMPTION II - Benchmark gerade durchgejagt in 5160x2160 DL-DSR + DLSS Q @ MAXED OUT! [VULKAN]
https://abload.de/img/screenshot2022-10-180pgeux.jpg
Läuft....:ubeer:
Eben mal eine runde assetto corsair gefahren. Ist ein widescreen monitor dran
wie gut das läuft, unfassbar im gegensatz zur 3090
Die 4090 ist die geilste karte die ich je hatte :heart:
Wer hier nicht zuschlägt ist selbst schuld
Corsa ;-)
Hört auf den Boss! Ein gutes Investment, das sich auf Jahre auszahlt. Punkt. :biggrin:
Assetto steht auch noch an hier - habe Bock auf 6,3l V12 @ 9250RPM. :D
E: Gestern habe ich die Höchstemperatur gesehen -> Chernobylite 5160x2160 DX12 + RT ULTRA => 68 Grad / 1151RPM Peak! [grob 33-38 fps im Schnitt gehabt - MIT DLSS Q].
Interessanterweise läuft DX12 viel smoother - es gibt im Gegensatz zu DX11 so gut wie gar keine Hickups mehr - hätte ich so echt nicht erwartet. Zumindest Nativ rennt es ja gut. :)
=> Verknüpfung der .exe (erstellen) -> Eigenschaften -> Ziel -> -dx12 adden! // alternativ Startparameter ändern in Steam (ich habe es auf GOG). ;)
Meine 1070 schafft gerade mal 1440p50. Mir schon klar das 8 Jahre und eine performance klasse dazwischen liegen, aber trotzdem etwas krank.:freak:
Krank, kann man so sagen, ja. :)
Niall
2022-10-18, 07:39:54
Wer hier nicht zuschlägt ist selbst schuld
... oder kann sie sich schlicht finanziell nicht leisten, Ruhig mal aus der Blase heraus denken. Für 2000€ kauft sich manche(r) zähneknirschend ein Auto und muss dafür noch sparen. ;)
wolik
2022-10-18, 08:45:21
Wieder einige sinnlose Beiträge zu Ausgaben und Einnahmen.
Ach.. 3DC ,was aus dir geworden...
Edgecrusher86
2022-10-18, 08:51:43
Hier ist halt der RTX 4090 Sammelthread. Man kann davon ausgehen, dass sich quasi Jeder, der hier mitliest im Grunde eine Karte leisten kann - zumindest, wenn man ab und an etwas auf die Seite legt.
Es ist ein teures Hobby, wenn man Highend-HW mag - war es aber schon immer. Gut die Tendenz ist schon nicht so schön, aber nun ja - niemand wird gezwungen, immer das Neuste zu haben.
Mit so einer RTX 4090 etwa kann man auch im Grunde locker 3-5 Jahre gut fahren - gerade inkl. DLSS. Ada wird mindestens so gut altern wie Big Pascal. ;)
Man kann es ja zum Beispiel auch so halten wie ich - damals gut und teuer eingekauft - und seit Jahren steht im Grunde nur ein GPU-Wechsel an. :D
Okay, das ist nun die letzte Karte für den guten alten 2011-3er Sockel, aber ich kann mich echt nicht beschweren, was er heute noch ab liefert. :)
Niall
2022-10-18, 09:00:25
Wieder einige sinnlose Beiträge zu Ausgaben und Einnahmen.
Ach.. 3DC ,was aus dir geworden...
Sinnloser als Dein "Mimimi"? Wohl kaum.
Hier ist halt der RTX 4090 Sammelthread. Man kann davon ausgehen, dass sich quasi Jeder, der hier mitliest im Grunde eine Karte leisten kann - zumindest, wenn man ab und an etwas auf die Seite legt.
Es ist ein teures Hobby, wenn man Highend-HW mag - war es aber schon immer. Gut die Tendenz ist schon nicht so schön, aber nun ja - niemand wird gezwungen, immer das Neuste zu haben.
Mit so einer RTX 4090 etwa kann man auch im Grunde locker 3-5 Jahre gut fahren - gerade inkl. DLSS. Ada wird locker so gut altern wie Big Pascal. ;)
Man kann es ja zum Beispiel auch so halten wie ich - damals gut und teuer eingekauft - und seit Jahren steht im Grunde nur ein GPU-Wechsel an. :D
Okay, das ist nun die letzte Karte für den guten alten 2011-3er Sockel, aber ich kann mich echt nicht beschweren, was er heute noch ab liefert. :)
Ist ja alles prima, schiele doch selbst zu Ada und könnte sie mir entspannt "leisten". Trotzdem haben derlei Aussagen etwas arg Gschmäckle und lassen es wirken, als die Bepreisung völlig normal und aus dem 'Taschengeld' zu zahlen.
Edgecrusher86
2022-10-18, 09:04:03
Taschengeld sicher bei den allermeisten nicht wirklich - das ist schon ein gehobener Urlaub, dicker TV, ältererer Gebrauchtwagen oder ordentlicher Monatslohn. Da zähle ich mich auch dazu - es ist für mich keine Portokassen-Karte. ;)
Nun ja, wenn man ansonsten keine oder kaum teure Hobbies hat, geht das schon - oder man kauft halt gebraucht - etwa eine immer noch sehr gute RTX 3090 ab 800€ oder ähnliches. :)
Früher war es für Enthusiasten auch nicht wirklich günstiger. 2017 etwa habe ich 1678€ gelöhnt für GTX 1080 Ti FE SLI samt HB-Bridge.
Es soll auch einige User gegeben haben, die früher 3/4-way gefahren haben...da waren wir auch schon zu Fermi-Zeiten bei grob 2000€ - nur luftgekühlt! :cool:
3x 8800 Ultra etwa lagen je nach Modell bei bis zu 2100€ oder gar darüber. Noch viel eher: Eine GF2 Ultra kostete 1200-1600DM - letzeres entspräche heute easy 2500€, denke ich.
Ich persönlich hatte immer "nur" 2-way SLI oder eine Dual-GPU-Karte - das war für mich der "sinnvolle Wahnsinn".
Ich denke, den meisten Enthusiasten geht es einfach nur darum, jetzige und kommende Titel in bestmöglicher Qualität zu genießen - am besten dann im Hier und Jetzt in der Form, wie sie erst eine Performance-Karte der darauf folgenden Generation zu leisten im Stande wäre.
Da ist es auch nur legitim und recht, wenn man bereit ist, deutlich mehr als der Rest der PC-Gamer zu löhnen. Andere Leute kaufen sich vielleicht Felgen für 2000-5000€ oder so etwas. ;)
Rolsch
2022-10-18, 09:10:03
Ist ja alles prima, schiele doch selbst zu Ada und könnte sie mir entspannt "leisten". Trotzdem haben derlei Aussagen etwas arg Gschmäckle und lassen es wirken, als die Bepreisung völlig normal und aus dem 'Taschengeld' zu zahlen.
Die Karte ist halt wegen des TSMC 4nm Prozesses so ein Sprung und wird daher lange halten. Die nächste Generation wird wieder weniger spektakuläre Zuwächse bieten. Daher kann man eine 4090 schon als langfristiges Invest sehen.
Mit den Preisen waren wir halt bis vor dem Mining sehr verwöhnt. Ich kann mich auch noch an Zeiten erinnern wo ein sehr guter PC locker 5000DM gekostet hat, da musste man auch lange drauf sparen. So billig wie früher wird es nicht mehr werden.
Blase
2022-10-18, 09:13:05
Gibt es einen guten UV-Guide für die 4090? Meine aufgeschnappt zu haben, dass die Karte, trotz identischem Takt, Leistung verliert? Wenn man sie nicht richtig undervolted?
Habe zwar bisher keinerlei Probleme mit meinem 600er Netzteil und der Karte, wollte aber von Anfang an sie so "sparsam" wie möglich betreiben, bei geringstmöglichen Performance Verlust.
Ja, gib bitte stets Infos und ein paar Benches raus im richtigen Unterforum. Hab die selbe CPU und es würde mich nur aus Jux mal interessieren wie das performt. :)
Interessiert dich etwas bestimmtes?
MfG Blase
NikLaw
2022-10-18, 09:23:38
Laut der8auer soll UV so gut wie nichts bringen, sondern nur das Power Target zu senken sei sinnvoll. Damit kann man aber wohl bei geringem Leistungsverlust bis zu 140 W sparen...
https://www.youtube.com/watch?v=RnmyrYSZENE
Linmoum
2022-10-18, 09:28:22
UV bringt natürlich trotzdem was und wenn man im Gegenzug den Speicher übertaktet kann man den minimalen Leistungsverlust vs. PT senken auch kompensieren.
Ich hab generell aber das Gefühl, dass die Frametimes insgesamt etwas glatter sind bei manuellem UV.
Edgecrusher86
2022-10-18, 09:33:37
Bang4BuckPC Gamer: A Plague Tale Requiem Ultra Settings DLSS 3 Quality 4K | RTX 4090 | i9 12900K 5.3GHz (https://www.youtube.com/watch?v=xaBi2clO9jc)
Ich habe gleich mal nach einem Video samt 2.25x DL-DSR erbeten - das dürften mit DLSS 3 Quality locker 60 fps sein. Sehr kranke fps in "4K"...
Undervolting schau ich mir noch einmal etwas genauer an. Ich habe seit Pascal immer einen Voltage-Lock vorgenommen (STRG + L) und dann den Offset des Voltage-Points hochgezogen - entweder im Editor oder MSI AB Hauptfenster.
Gegebenfalls noch PT/Lüftersteuerung angepasst, übernommen und evtl. auch als Profil abgespeichert, wenn es stable lief.
UV + Offset ermöglicht ein paar fps mehr, als nur alleine das PT zu regulieren auf jedenfall. Es gehen ja noch bis zu + 3xx MHz Offset je nach Taktrate...klar, wenn sehr hoch, dann nimmt dieser Wert natürlich drastisch ab.
Was man aber sagen muss, ist dass der Chip kaum mit der Taktrate skaliert. 500 MHz Differenz etwa sind gerade einmal so 5-7 fps - gemessen in CP 2077 (2,3 vs. 2,8 GHz) - aber der Verbrauch um 90W höher ausfällt (UV vs. UV! - 950mV* war nötig für 2,8 GHz - 920mV für 2,6 GHz).
Der VRAM blieb dabei jeweils unangetastet. ;)
* bzw. habe ich einfach mal so auf die Schnelle eingestellt...eventuell wären auch 5-15mV o.ä. weniger nötig gewesen.
Sweepi
2022-10-18, 09:38:58
Thanks in advance for you're work.
"you're" ist kurz fuer "you are"
Du meinst "your".
Dr.Doom
2022-10-18, 09:49:18
"you're" ist kurz fuer "you are"
Du meinst "your".Your (https://youtu.be/41cJUliIuH0?t=20)
Edgecrusher86
2022-10-18, 10:01:50
"you're" ist kurz fuer "you are"
Du meinst "your".
Ei jo. Fixed. :redface: :freak:
Zurück zum UV - scheint sich alles nicht viel zu nehmen, ob nun PT gesenkt oder was festgenagelt bezüglich fps - allerdings ist es so, dass die Taktdomäne #6 "MSDec" bein Voltage Lock + Offset nicht mitzieht.
Leider musste ich eben neu laden, ergo war das dann doch nicht ganz 100% die gleiche Höhe. :-/
Als Beispiel diente mir hier Crysis Remastered - Windowed in 1200p + CIRC - eine bisschen GPU-lastigere Szene - UV/Offset vs. PT senken.
Standard Boost + PT 100% => 2760 MHz GPU / 2130 MHz #6 / 1045mV / 287,6W / 157 fps
https://abload.de/thumb/1soea2.png (https://abload.de/image.php?img=1soea2.png)
UV/Offset + PT 100% => 2790 MHz GPU / 1965 MHz #6 / 935mV / 231,2W / 159 fps
https://abload.de/thumb/2wuiia.png (https://abload.de/image.php?img=2wuiia.png)
Standard Boost + PT 63% => 2760 MHz GPU / 2130 MHz #6 / 1045mV / 266,4W / 151 fps
https://abload.de/thumb/3c4ii8.png (https://abload.de/image.php?img=3c4ii8.png)
Leider nicht 100% vergleichbar hier nach Neu-Laden - sorry.
Fazit: Alles in Allem scheint UV/Offset besser zu gehen, als nur das PT zu senken! ;)
RoNsOn Xs
2022-10-18, 11:13:51
Interessiert dich etwas bestimmtes?
MfG Blase
Abhängig davon was du so an Games hast. Aber schau mal Richtung Benchmark-Thread. Denke HZD, SoTR, TimeSpy, FC5/6, Guardians... :smile:
Matrix316
2022-10-18, 11:25:42
Die Karte ist halt wegen des TSMC 4nm Prozesses so ein Sprung und wird daher lange halten. Die nächste Generation wird wieder weniger spektakuläre Zuwächse bieten. Daher kann man eine 4090 schon als langfristiges Invest sehen.
Mit den Preisen waren wir halt bis vor dem Mining sehr verwöhnt. Ich kann mich auch noch an Zeiten erinnern wo ein sehr guter PC locker 5000DM gekostet hat, da musste man auch lange drauf sparen. So billig wie früher wird es nicht mehr werden.
Warum eigentlich nicht? Mining ist quasi vorbei und die kommen trotzdem mit Mining Preisen?
Mal zum Vergleich:
780 TI ~650 Euro
980 TI ~750 Euro
1080 TI ~750 Euro Startpreis... Mining... plötzlich um 1200 Euro
2080 TI ~1200 Euro
3090 ~ 1500 Euro
4090 ~ 2000 Euro
Von 650 auf 2000 innerhalb weniger Jahre für die teuerste Gaming GPU ist schon irgendwie etwas steil der Sprung und sollte so nicht sein.
Jaja die Titans gab es früher. Die erste sollte wahnsinnige 1000 Euro kosten. Wer bezahlt so viel für eine Karte? :freak: Die war aber auch nie als Gaming Geforce gedacht, oder?
Rolsch
2022-10-18, 11:36:28
Warum eigentlich nicht? Mining ist quasi vorbei und die kommen trotzdem mit Mining Preisen?
Mal zum Vergleich:
780 TI ~650 Euro
980 TI ~750 Euro
1080 TI ~750 Euro Startpreis... Mining... plötzlich um 1200 Euro
2080 TI ~1200 Euro
3090 ~ 1500 Euro
4090 ~ 2000 Euro
Von 650 auf 2000 innerhalb weniger Jahre für die teuerste Gaming GPU ist schon irgendwie etwas steil der Sprung und sollte so nicht sein.
Jaja die Titans gab es früher. Die erste sollte wahnsinnige 1000 Euro kosten. Wer bezahlt so viel für eine Karte? :freak: Die war aber auch nie als Gaming Geforce gedacht, oder?
So eine 4090 Karte kostet halt auch in der Herstellng viel mehr als die alten Karten. Selbst wenn Nvidia wollte wären Preise unter 500€ vermutlich gar nicht möglich.
Edgecrusher86
2022-10-18, 11:38:55
Warum eigentlich nicht? Mining ist quasi vorbei und die kommen trotzdem mit Mining Preisen?
Mal zum Vergleich:
780 TI ~650 Euro
980 TI ~750 Euro
1080 TI ~750 Euro Startpreis... Mining... plötzlich um 1200 Euro
2080 TI ~1200 Euro
3090 ~ 1500 Euro
4090 ~ 2000 Euro
Von 650 auf 2000 innerhalb weniger Jahre für die teuerste Gaming GPU ist schon irgendwie etwas steil der Sprung und sollte so nicht sein.
Jaja die Titans gab es früher. Die erste sollte wahnsinnige 1000 Euro kosten. Wer bezahlt so viel für eine Karte? :freak: Die war aber auch nie als Gaming Geforce gedacht, oder?
Gefixed. 1080 Ti FE -> 819€ Launchpreis. Selbst die 1080 FE lag schon bei 789€ zum Start - Rückblickend ein mieses P/L-Verhältnis gegenüber der Ti, aber auch acht Monate dazwischen. ;)
Niall
2022-10-18, 11:49:57
Mir kann niemand erzählen dass diese Preisentwicklung nicht zu großen Teilen einfach auf der Tatsache beruht, dass man nach dem Miningmist schlicht wusste, was Enthusiasten und Pros bereit sind für High-End zu zahlen und diese nun lustig weiter melkt.
Natürlich ist alles teurer geworden, gar keine Frage, man darf aber nicht vergessen, dass Hardware auch damals nicht zum Selbstkostenpreis verramscht wurde sondern bereits Gewinne einfuhr.
r3ptil3
2022-10-18, 11:55:58
Mir kann niemand erzählen dass diese Preisentwicklung nicht zu großen Teilen einfach auf der Tatsache beruht, dass man nach dem Miningmist schlicht wusste, was Enthusiasten und Pros bereit sind für High-End zu zahlen und diese nun lustig weiter melkt.
Natürlich ist alles teurer geworden, gar keine Frage, man darf aber nicht vergessen, dass Hardware auch damals nicht zum Selbstkostenpreis verramscht wurde sondern bereits Gewinne einfuhr.
Es ist praktisch Fakt und wird durch die Kundschaft auch bestätigt.
Gestern bekam ein Händler in der CH über 50 RTX 4090 Karten, eine Stunde später ausverkauft und das an einem Morgen. Und so nebenbei: Es waren nicht die beliebten Strix und Suprim Modelle, sondern mehrheitlich Zotacs und ein paar TUF-Modelle.
VooDoo7mx
2022-10-18, 12:00:20
Wie so oft wird wieder der miese Euro Kurs vergessen. Der sorgt auch für ordentliche Teuerungen.
Und bei den ganzen jammern über die Preise: unsere Politikdarsteller sind weiterhin dabei das ganze Land abzuwirtschaften und abzuwracken. Der Euro wird wohl noch mehr an Wert verlieren.
Vielleicht wird der ein oder andere sich in einigen Monaten noch ärgern, dass er sich keine 4090 für 2K gekauft hat, als er noch die Gelegenheit dazu hatte. ;)
Niall
2022-10-18, 12:05:48
Und nur um es nochmal in aller Deutlichkeit zu schreiben: Ich halte die RTX 4090 für eine tolle Karte, die Bepreisung wird sich jedoch wieder auf den kompletten Markt , also auch alles was "darunter" kommt niederschlagen, was am Ende dann eben nicht mehr nur irgendwelche Uber-Enthusiasten treffen wird.
VooDoo7mx
2022-10-18, 12:23:15
Und nur um es nochmal in aller Deutlichkeit zu schreiben: Ich halte die RTX 4090 für eine tolle Karte, die Bepreisung wird sich jedoch wieder auf den kompletten Markt , also auch alles was "darunter" kommt niederschlagen, was am Ende dann eben nicht mehr nur irgendwelche Uber-Enthusiasten treffen wird.
Brauchst du ein Taschentuch?
Wer nicht über Enthusiast ist kann sich auch eine Grafikkarte der letzten Generation kaufen oder am prall gefüllten Gebrauchtmarkt bedienen.
Eine 3050 gibt es ab 300eu eine 6600 ab 285eu.
Für jeden Preisbeutel kann man was zum zocken bekommen. Und wenn man ganz hartgesotten ist, kann man auch auf IGP zocken.
Nirgendwo ist es gesetzlich verankert, dass dir Hersteller X verpflichtet ist dir ein Produkt Y zu einen von dir gewünschten Preis anzubieten.
Wenn dir das Angebot nicht gefällt, dann kauf einfach nicht.
Niall
2022-10-18, 12:24:22
Brauchst du ein Taschentuch?
Geht schon. ;)
FastAndy
2022-10-18, 12:28:27
es ist schon super schlau sich über preise von unnötigem spielzeug aufzuregen.
Niemand braucht eine 4090 grafikkarte. so einfach ist das
r3ptil3
2022-10-18, 12:30:11
es ist schon super schlau sich über preise von unnötigem spielzeug aufzuregen.
Niemand braucht eine 4090 grafikkarte. so einfach ist das
Sagt derjenige der am Launchtag durchgedreht ist, weil er darum bangte keine Karte zu kriegen. :D
FastAndy
2022-10-18, 12:34:43
haha, bei mir lags am anstehenden einbau am WE, hätte sonst lange warten müssen
über preise oder was auch immer rumheulen wirst mich nicht sehen, entspricht nicht meinem naturell
verschwende meine lebensenergie nicht mit sachen die mich nicht weiterbringen
Edgecrusher86
2022-10-18, 12:45:13
verschwende meine lebensenergie nicht mit sachen die mich nicht weiterbringen
Besser ist das. ;)
CRYSIS REM. CIRC - ein paar Bilder schnell - Stock die Karte wieder einmal:
5160x2160 SMT2X + DLSS Q
https://steamuserimages-a.akamaihd.net/ugc/1932632675600622189/8D7F90BD6B6D740F615FA2BA8A72CE0D3155B7B6/
https://steamuserimages-a.akamaihd.net/ugc/1932632675600623941/A6F0436692A922254EBD9F51CE43B268BE7DAAD3/
6880x2880 SMT2X + DLSS Q
https://steamuserimages-a.akamaihd.net/ugc/1932632675600630223/07AF2BF328DD2239273C7C5BBE2B0489AFA53938/
https://steamuserimages-a.akamaihd.net/ugc/1932632675600631707/8246A899BA5DC7B9D84FAD95462E4673EA1E18FA/
"Nativ" brauche ich gar nicht nutzen unterhalb 6880x2880, da CPU-Limit. DLSS Q haut aber schon in 5160x2160 ein paar fps mehr raus. :)
Matrix316
2022-10-18, 13:09:21
Gefixed. 1080 Ti FE -> 819€ Launchpreis. Selbst die 1080 FE lag schon bei 789€ zum Start - Rückblickend ein mieses P/L-Verhältnis gegenüber der Ti, aber auch acht Monate dazwischen. ;)
Damals waren die FE noch teurer als die anderen. Ich hab für meine Gigabyte 1080 TI nur ca. 750 766,94 (bei Amazon sogar) bezahlt. https://geizhals.de/gigabyte-aorus-geforce-gtx-1080-ti-11g-gv-n108taorus-11gd-a1602148.html
aufkrawall
2022-10-18, 13:35:05
Zum Thema UV:
That's just plain wrong guess made by Optimum Tech, who created that video. Video clock is just ONE of multiple internal asynchronously clocked GPU domains, there are dozens of them which you never see (which includes separate host clocks, hub clocks, bus clocks, pwm clocks, piexl clock etc etc). Video clock displayed by HwInfo is MSD domain clock, it is media decoding/encoding engine. Its' clocking doesn't match with main GPU clock, it doesn't affect 3D performance, it cannot and will not be adjusted by user independently.
"Effective" GPU clock (which is actually averaged PLL clock during polling period) is the only thing you should focus at in terms of 3D performance, as it is initially intended to show effects of target clock jittering/throttling.
https://forums.guru3d.com/threads/msi-ab-rtss-development-news-thread.412822/page-186#post-6062185
Offenbar ist der typische YTer ziemlich überfordert mit dem Curve Editor /plot twist.
r3ptil3
2022-10-18, 13:41:49
Konnte irgendjemand eine Gigabyte Aorus Master RTX 4090 ergattern?
Beim Video von DerBauer hatte ich das Gefühl, dass die Karte noch nicht ganz fertig wirkte. Das Kabel, welches an einem Lüfterblatt festgeklebt wurde, keine angepasste RGB-Software, seltsame WLP...
Ich würde aber fast vermuten, dass der Kühler noch besser als bei der Strix ist.
55° in Cyberpunk 4K, wobei nicht absolute max. Settings:
https://www.youtube.com/watch?v=yMpQnBvJTWY
Edgecrusher86
2022-10-18, 13:56:42
Damals waren die FE noch teurer als die anderen. Ich hab für meine Gigabyte 1080 TI nur ca. 750 766,94 (bei Amazon sogar) bezahlt. https://geizhals.de/gigabyte-aorus-geforce-gtx-1080-ti-11g-gv-n108taorus-11gd-a1602148.html
Stimmt - ist schon was her, hast recht - da gab es ja noch günstigere Karten unterhalb der FE. :redface:
Konnte irgendjemand eine Gigabyte Aorus Master RTX 4090 ergattern?
Beim Video von DerBauer hatte ich das Gefühl, dass die Karte noch nicht ganz fertig wirkte. Das Kabel, welches an einem Lüfterblatt festgeklebt wurde, keine angepasste RGB-Software, seltsame WLP...
Ich würde aber fast vermuten, dass der Kühler noch besser als bei der Strix ist.
55° in Cyberpunk 4K, wobei nicht absolute max. Settings:
https://www.youtube.com/watch?v=yMpQnBvJTWY
Thunderburne hat wohl eine MASTER bekommen und wollte eigentlich auch Fotos uppen. Hm....
The_Invisible
2022-10-18, 14:17:05
Laut der8auer soll UV so gut wie nichts bringen, sondern nur das Power Target zu senken sei sinnvoll. Damit kann man aber wohl bei geringem Leistungsverlust bis zu 140 W sparen...
https://www.youtube.com/watch?v=RnmyrYSZENE
Hab ich auch schon 2 mal gepostet, leider keiner wirklich drauf eingegangen und getestet :D
Edgecrusher86
2022-10-18, 14:24:20
Hab ich auch schon 2 mal gepostet, leider keiner wirklich drauf eingegangen und getestet :D
...
Habe die Überschrift ein klein wenig ergänzt und vergrößert. Und ja, das ist EINE Seite zuvor. :biggrin: :freak:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13142260#post13142260
Oliver_M.D
2022-10-18, 15:30:43
Jemand Erfahrung mit ZOTAC, oder deren "Trinity" Karten? Alternate hat ab und zu welche, ich habe aber keinerlei Erfahrung mit Zotac.
BigKid
2022-10-18, 15:31:05
es ist schon super schlau sich über preise von unnötigem spielzeug aufzuregen.
Niemand braucht eine 4090 grafikkarte. so einfach ist das
Das lässt sich vom schnellen hohen Ross aus leicht sagen. Als der, der nicht verzichten muss ist es leicht solche Sprüche zu klopfen. Aber als jemand der sich bisher eine XX80 oder 90 Karte leisten konnte und nun nicht mehr kann... würde ich mich auch ärgern...
Es ist einfach Wucher/Gierig... Und das ist nunmal eine Sünde... Punkt... Und weil Sünde nun doof/antiquiert klingt:
Nicht dass ich jetzt besonders gläubig wäre aber man merkt den 10 Geboten zB an, dass der Hauptzweck ist das Miteinander zu regeln... die sollten viel mehr Beachtung finden wenn du mich fragst... so rein vom Geist/der Idee dahinter...
Denn DAS ist einfach Krass:
Listenpreis $1499 (RTX3090) -> $1599 (RTX4090)
Straßenpreis (ab) 1080€ -> 2300€
Euro/Dollar 1.20 -> 1.0 ...
Also noe... der Kurs reicht für eine Preissteigerung von 20% (und mit 1,2 habe ich den höchsten Eurostand genommen... eigentlich sinds keine 20%) - der Rest ist reine Gier ... Denn auch der Listenpreis gibt nicht soviel her... Ich habe manchmal den Eindruck man versucht die Inflation in Deutschland hochzutreiben auf allen Kanälen...
Asaraki
2022-10-18, 15:42:05
Quatsch, bisher war highend einfach sehr günstig. Jetzt ist es das nicht mehr. Wer schlecht schläft weil die schnellste Grafikkarte ausser seines Budgets ist, der hatte noch nie ein teures Hobby ^^
On topic : sehr geile Karte irgendwie, aber hab mein Angebot erstmal ausgeschlagen (USD UVP), aber wenn ich dann VR habe muss ich mir das lineup nochmal anschauen *sabber* ^^
aufkrawall
2022-10-18, 15:59:37
Quatsch, bisher war highend einfach sehr günstig.
Abgehobenes Gewäsch.
Rolsch
2022-10-18, 16:01:44
Jemand Erfahrung mit ZOTAC, oder deren "Trinity" Karten? Alternate hat ab und zu welche, ich habe aber keinerlei Erfahrung mit Zotac.
Die 4090 Trinitys haben mit 5 (3+2) Jahren die längste Garantie. Richtig große geile Karte. Kann man schon kaufen. Ich würds wieder machen.
BigKid
2022-10-18, 16:06:15
Die 4090 Trinitys haben mit 5 (3+2) Jahren die längste Garantie. Richtig große geile Karte. Kann man schon kaufen. Ich würds wieder machen.
Ich hab Zotac in der Vergangenheit 2 mal ne Chance gegeben… beide male so Laut dass ich sie direkt wieder zurückgesendet habe - ist das mittlerweile besser geworden?
Troyan
2022-10-18, 16:07:25
Laut Techpowerup eine der lautesten Custom-Karten: https://www.techpowerup.com/review/zotac-geforce-rtx-4090-amp-extreme-airo/38.html
Rolsch
2022-10-18, 16:09:49
Ich hab Zotac in der Vergangenheit 2 mal ne Chance gegeben… beide male so Laut dass ich sie direkt wieder zurückgesendet habe - ist das mittlerweile besser geworden?
Ich find die Karte leise aber das beurteil jeder anders. Erstaunlich ist dass der Lüfter wegen des riesigen Kühlers bei Spielende sofort stoppt. Die Kühler der 4090 Karten sind vermutlich überdimensioniert, dem Zotac "Icestorm" sieht man das auch an.
Rolsch
2022-10-18, 16:13:04
Laut Techpowerup eine der lautesten Custom-Karten: https://www.techpowerup.com/review/zotac-geforce-rtx-4090-amp-extreme-airo/38.html
Bei Hardwareluxx siehts wieder anders aus:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/59672-gigabyte,-inno3d-und-msi-drei-custom-modelle-der-geforce-rtx-4090-im-test.html?start=6
Aber laut finde ich die Karte definitiv nicht.
BigKid
2022-10-18, 16:17:48
Laut Techpowerup eine der lautesten Custom-Karten: https://www.techpowerup.com/review/zotac-geforce-rtx-4090-amp-extreme-airo/38.html
Jau - wenn man das Silent Bios anlegt siehts wieder anders aus - wobei es dann zwar eine der leiseren Karten ist aber auch eine det heissesten… 82 Grad auf den Rams finde ich schon heftig…
Also Zotac immernoch mehr schein als sein so wie es aussieht…
Godmode
2022-10-18, 16:19:43
Jemand Erfahrung mit ZOTAC, oder deren "Trinity" Karten? Alternate hat ab und zu welche, ich habe aber keinerlei Erfahrung mit Zotac.
Ich habe die 3090er Trinity von Zotac, und würde diese nicht mehr kaufen. Ich kann jetzt aber zur 4090 von Zotac nichts gutes/schlechtes sagen, weil das könnte ja ein anderer Kühler sein.
Rolsch
2022-10-18, 16:21:24
Jau - wenn man das Silent Bios anlegt siehts wieder anders aus - wobei es dann zwar eine der leiseren Karten ist aber auch eine det heissesten… 82 Grad auf den Rams finde ich schon heftig…
Also Zotac immernoch mehr schein als sein so wie es aussieht…
Haste denn hardwareluxx Test auch gelesen? Da ist es genau umgekeht, da ist Zotac einer der kühlsten und leisesten mit 70 Grad Speichertemperatur.
Asaraki
2022-10-18, 16:21:54
Abgehobenes Gewäsch.
Realität. Ein high end pc kostet dich weniger als die meisten technischen hobbies, auch bei den heutigen Preisen noch.
Ich hab noch nie verstanden woher dieser Anspruch kommt, jeder müsse sich das Beste leisten können. Ihr trinkt nicht den besten wein, fahrt nicht das teuerste Auto, tragt die teuersten Kleider, wohnt im teuersten Haus, fliegt Businessklasse… aber die beste Karte der Welt, die hat gefälligst für nen Appel und n Ei zu haben zu sein.
Nene, abgehoben bist wenn dann nur du.
FastAndy
2022-10-18, 16:22:50
Quatsch, bisher war highend einfach sehr günstig. Jetzt ist es das nicht mehr. Wer schlecht schläft weil die schnellste Grafikkarte ausser seines Budgets ist, der hatte noch nie ein teures Hobby ^^
Man kann doch einfach die alte Karte behalten oder was kleineres kaufen, oder sich ein anderes Hobby suchen wenn einem das so stinkt. Die preise dieses mal waren eher noch zu niedrig.Wäre auch zu mehr weggegangen. Gerade die Founders Edition ist ja nicht zu bekommen. Es gibt offenbar genug leute die die Preise nicht so unfair/gierig sehen wie manch Geizhälse. letztere müssen das akzeptieren, denen bleibt nichts anderes übrig.
Ich sage für die 5000er Serie höhere Preise voraus.:smile:
BigKid
2022-10-18, 16:25:53
Realität. Ein high end pc kostet dich weniger als die meisten technischen hobbies, auch bei den heutigen Preisen noch.
Ich hab noch nie verstanden woher dieser Anspruch kommt, jeder müsse sich das Beste leisten können. Ihr trinkt nicht den besten wein, fahrt nicht das teuerste Auto, tragt die teuersten Kleider, wohnt im teuersten Haus, fliegt Businessklasse… aber die beste Karte der Welt, die hat gefälligst für nen Appel und n Ei zu haben zu sein.
Nene, abgehoben bist wenn dann nur du.
Jetzt müssen wir bald ins PoWi …
Es ist einfach so dass die Spaltung der Gesellschaft immer weiter fortschreitet und der Spalt halt auch immer weiter hoch wandert…
zB betrachte ich auch kritisch dass MS 2 Versionen seiner Konsole rausgebracht hat… spaltet einfach weiter und macht es möglich oben noch mehr abzuschöpfen und unten noch billigeren Mist zu verkaufen… profitieren davon tun nur ganz wenige…
FastAndy
2022-10-18, 16:26:25
Ich hab noch nie verstanden woher dieser Anspruch kommt, jeder müsse sich das Beste leisten können. Ihr trinkt nicht den besten wein, fahrt nicht das teuerste Auto, tragt die teuersten Kleider, wohnt im teuersten Haus, fliegt Businessklasse… aber die beste Karte der Welt, die hat gefälligst für nen Appel und n Ei zu haben zu sein.
Danke für den Beitrag, das bringt es exakt auf den Punkt! Habe leider auch den Eindruck jeder meint Anspruch auf eine 4090 zu haben oder preise zu diktieren. Tschuldigt, aber einfach lächerlich sowas.
Wenn der Bäcker sich alles leisten könnte, gäbe es morgen keine Brötchen mehr.
MiamiNice
2022-10-18, 16:30:26
Wenn der Bäcker sich alles leisten könnte, gäbe es morgen keine Brötchen mehr.
Wie bitte?
€: Könnt ihr derartige Diskussionen bitte auslagern?
vinacis_vivids
2022-10-18, 16:34:35
Denn DAS ist einfach Krass:
Listenpreis $1499 (RTX3090) -> $1599 (RTX4090)
Straßenpreis (ab) 1080€ -> 2300€
Euro/Dollar 1.20 -> 1.0 ...
Also noe... der Kurs reicht für eine Preissteigerung von 20% (und mit 1,2 habe ich den höchsten Eurostand genommen... eigentlich sinds keine 20%) - der Rest ist reine Gier ... Denn auch der Listenpreis gibt nicht soviel her... Ich habe manchmal den Eindruck man versucht die Inflation in Deutschland hochzutreiben auf allen Kanälen...
2300€ für ne GPU mit nur 608mm² ist schon überteuert. Ich gehe fest davon aus, dass AMD aufschließt und der Preis dadurch nach unten geht.
Andererseits ist das jetzt eben der Marktpreis für ein kurzeitiges Monopolprodukt ohne Konkurrenz im Tech-Bereich.
Sehr viele Leute schmeißen TSMC mit Geld zu und das ist eben das Ergebnis.
Matrix316
2022-10-18, 16:37:23
Also im Review Thread sollte man auch die Preis diskutieren können. Wo sonst?
Es geht ja nicht drum, dass sich nicht jeder High End leisten kann.
Es geht eher drum, dass früher (vor ca. 5-10 Jahren) High End Grafikkarten eben deutlich günstiger waren und es sich viel mehr leisten konnten.
Es gab immer Leute denen schon 500 Euro zu viel waren und sind. Ging mir im Studium auch so. Jetzt verdien ich Geld, aber bin zu geizig für. :D (wobei, vielleicht werde ich doch schwach, man weiß es nicht ;)).
Technik sollte nicht teurer werden, nur weil sie schneller ist. Sonst muss man bald 5000 für eine 90er Karte bezahlen. Und mir ist auch die Die Größe völlig egal. Materialkosten wird nicht mehr sein wie ein paar hundert Euro. Was soll da so teuer sein an einem Stück Platine mit ein paar Chips drauf? Wir haben ja 2022 und nicht 1972.
Man weiß halt nie, wann es zuende ist. Kann schnell gehen, wenn bald die Lichter ausgehen, oder, schlimmer, Dr. Evil (https://www.businessinsider.de/politik/welt/kriegserfahren-in-syrien-und-tschetschenien-das-ist-russlands-neuer-armee-general-in-der-ukraine-der-putin-zum-sieg-verhelfen-soll-a/) die Atomwaffen aus dem Keller holt.
MfG
Raff
Troyan
2022-10-18, 16:40:08
Und was will man hier diskutieren? Jeder sieht den Preis. Durch den Euro kannst du mal 20% abziehen. Dann wäre man bei 1600€. Das sind 400€ mehr als eine Titan XP oder 2080TI gekostet haben. Gegenüber der 2080TI erhält man fast 4x mehr Leistung mit Raytracing und 13GB mehr Speicher.
Macht die Karte nicht super duper Preis/Leistung-Sieger verdächtig, aber es liegt einfach noch im Rahmen.
Oliver_M.D
2022-10-18, 16:46:16
Die 4090 Trinitys haben mit 5 (3+2) Jahren die längste Garantie. Richtig große geile Karte. Kann man schon kaufen. Ich würds wieder machen.Wie funktioniert die Garantie dann eigentlich, zwei Jahre über den Händler und der rest über Zotac?
Ich habe die 3090er Trinity von Zotac, und würde diese nicht mehr kaufen.Laut Techpowerup eine der lautesten Custom-Karten: https://www.techpowerup.com/review/zotac-geforce-rtx-4090-amp-extreme-airo/38.html
Bei Hardwareluxx siehts wieder anders aus: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/59672-gigabyte,-inno3d-und-msi-drei-custom-modelle-der-geforce-rtx-4090-im-test.html?start=6Erinnert mich bis jetzt alles an meine Palit 1070 JetStream, von daher sehe momentan keine Probleme.:D
BigKid
2022-10-18, 16:47:09
Technik sollte nicht teurer werden, nur weil sie schneller ist. Sonst muss man bald 5000 für eine 90er Karte bezahlen. Und mir ist auch die Die Größe völlig egal. Materialkosten wird nicht mehr sein wie ein paar hundert Euro. Was soll da so teuer sein an einem Stück Platine mit ein paar Chips drauf? Wir haben ja 2022 und nicht 1972.
Genau das ist des Pudels Kern... Mit der gleichen Begründung könnte man bei den Kameras argumentieren, dass ja eine Kamera von heute 100 Trillionen mehr Pixel hat... Oder ein Monitor... oder eine CPU von heute so unendlich viel mehr Leistung hat... Muti-Threaded... Gott sei Dank gab es bisher keinen Minung Boom auf CPUs und die CPU Hersteller haben noch nicht so extrem Blut geleckt...Das ist alles nur Augenwischerei...
Rolsch
2022-10-18, 16:49:25
Wie funktioniert die Garantie dann eigentlich, zwei Jahre über den Händler und der rest über Zotac?
3 Jahre normale Garantie +2 Jahre Garantieverlängerung wenn man sich registriert. Vermutlich dann über Zotac direkt.
https://www.zotac.com/de/page/product-warranty-policy
Oliver_M.D
2022-10-18, 16:52:46
3 Jahre normale Garantie +2 Jahre Garantieverlängerung wenn man sich registriert. Vermutlich dann über Zotac direkt.Danke dir! Habe normalerweise nicht viel mit Garantie am Hut, daher die dumme frage.
BigKid
2022-10-18, 16:55:33
3 Jahre normale Garantie +2 Jahre Garantieverlängerung wenn man sich registriert. Vermutlich dann über Zotac direkt.
https://www.zotac.com/de/page/product-warranty-policy
Schon nach 2 Jahren... 2 Jahre ist bei nicht gewerblichen Kunden zumindest der Verkäufer in der Pflicht... das ist Vorgschrieben in der EU... alles darüber hinaus sind freiwillige Zusagen der Hersteller (die dann aber bei Kauf auf nicht so leicht nachträglich geändert werden können)... Also meines Wissens nach nach 2 Jahren Abwicklung über den Hersteller... Das ist immer wieder Theme irgendwo ... Siehe auch Unterschied Gewährleistung und Garantie sowie Beweislastumkehr nach 6 Monaten...
arcanum
2022-10-18, 17:05:35
scheint heute sehr viele drops (auch FE war dabei) zu geben, zumindest im hwluxx thread melden sich viele käufer. wenn die early adopters erst mal geschröpft wurden, fallen die preise auch mit der nachfrage.
aufkrawall
2022-10-18, 17:09:01
Nene, abgehoben bist wenn dann nur du.
Deswegen war es mir auch ein Bedürfnis, hier mitzuteilen, ich könnte mir die Karte leisten, wenn ich denn wollte. Aber ich verzichte lieber, weil ich so bescheiden wie wohlhabend bin. Ups, das warst ja du...
Die Posts mit 4090 auf dem Beifahrersitz sind wenigstens ehrlich.
(Mal gucken, ob du es dir verkneifen kannst, da jetzt noch weiter drauf einzugehen. Ich tippe, es wird dir arg unter den Nägeln brennen, weil du es offenbar bitter nötig hast...)
BlacKi
2022-10-18, 17:15:10
Genau das ist des Pudels Kern... Mit der gleichen Begründung könnte man bei den Kameras argumentieren, dass ja eine Kamera von heute 100 Trillionen mehr Pixel hat... Oder ein Monitor... oder eine CPU von heute so unendlich viel mehr Leistung hat... Muti-Threaded... Gott sei Dank gab es bisher keinen Minung Boom auf CPUs und die CPU Hersteller haben noch nicht so extrem Blut geleckt...Das ist alles nur Augenwischerei...die preisfindung liegt allein bei NV. war schon immer so und wird immer so sein. welchen preis nv festlegt lesen sie an der kundenbereitschaft ab wieviel geld ausgegeben wird. die scheint sehr hoch zu sein.
du musst es der gesellschaft vorwerfen solche karten zu kaufen. die hardewarekosten sind davon komplett abgekoppelt, die spielen garkeine rolle, wie hoch der preis gehen kann, höchstens wie tief sie gehen können.
aufkrawall
2022-10-18, 17:17:37
Das Problem ist auch weniger der Preis der 4090, sondern der der <=4080 + deren Performance. Ein komplett kaputter Markt durch ein Duopol, Vorwürfe an den Konsumenten sind da verfehlt.
Aber das rafft die Elfenbeinturm-Fraktion nicht, die sich eh eine 4090 leisten kann und der es offenbar egal ist, was der Pöbel darunter abbekommt...
Matrix316
2022-10-18, 17:19:13
Ist ja nicht nur die 4090. Was wird die 4080 16 GB in real kosten? 1800? 2000? Was wird eine 4070 kosten? 1300? 1500? Wo soll das enden? Das sich keiner mehr Karten leisten kann?
Dadurch, dass man aus der Titan eine 3090 gemacht hat, hat man einfach das ganze Preisgefüge kaputt gemacht. Vorher hat nie jemand eine x80 mit einer Titan vergleichen weil die ist ja eh nicht für Gamer und hat so viel VRAM, das braucht doch eh kein Mensch. :ugly:
Das ist so wie bei den Smartphones wo man durch die Einteilung in Pro/Ultra und Non Pro die non-Pro/Ultra Modelle abgespeckt hat und wenn man alles will muss man einen deutlichen Aufpreis bezahlen. Früher hatte man ALLES mit der "normalen" Version bekommen. Ein iPhone war früher ein iPhone, ein Galaxy S war ein Galaxy S. Aber das ist wirklich OT. ;)
BlacKi
2022-10-18, 17:20:02
@krawall
eher die alten ampere karten. ich glaube nicht, das jemand jetzt zur konkurenz geht, wenn er normalerweise nv kauft.
Ist ja nicht nur die 4090. Was wird die 4080 16 GB in real kosten? 1800? 2000? Was wird eine 4070 kosten? 1300? 1500? Wo soll das enden? Das sich keiner mehr Karten leisten kann?es waren glaub ich 1470€, wer für basis modelle mehr ausgibt, ist selber schuld. ich sehe nach wie vor die käufer in der schuld. und die können sich das anscheinend leisten.
BigKid
2022-10-18, 17:21:35
die preisfindung liegt allein bei NV. war schon immer so und wird immer so sein. welchen preis nv festlegt lesen sie an der kundenbereitschaft ab wieviel geld ausgegeben wird. die scheint sehr hoch zu sein.
du musst es der gesellschaft vorwerfen solche karten zu kaufen. die hardewarekosten sind davon komplett abgekoppelt, die spielen garkeine rolle, wie hoch der preis gehen kann, höchstens wie tief sie gehen können.
Man macht es sich aus meiner Sicht zu einfach wenn man das nur auf den Konsumenten abwältzt und es gibt Bereiche wo das auch nicht geht (zB Treibstoffpreise) und natürlich weckt es Begehrlichkeiten bei anderen Branchen… Trotzdem ist es aus meiner Sicht verwerflich… Genauso wie du (fast) niemals erleben wirst das ein Hersteller diese Gewinnsteigerungen (mit denen er die Inflation anheizt) auch nur Ansatzweise an seine Angestellten weitergeben wird (die von der Inflation aber sehr wohl betroffen sind)…
Niall
2022-10-18, 17:24:51
Das Problem ist auch weniger der Preis der 4090, sondern der der <=4080 + deren Performance. Ein komplett kaputter Markt durch ein Duopol, Vorwürfe an den Konsumenten sind da verfehlt.
Aber das rafft die Elfenbeinturm-Fraktion nicht, die sich eh eine 4090 leisten kann und der es offenbar egal ist, was der Pöbel darunter abbekommt...
Das ist meine Rede seit ein paar Seiten.
TobiWahnKenobi
2022-10-18, 17:29:08
ich schwurble eher nicht in bereiche, die mich nichts angehen.. etwa die finanzen oder habseligkeiten anderer menschen, aber es ist erstaunlich, wie wenig sich die leute damit abfinden möchten, dass wir im hier und jetzt leben und damit klarkommen müssen. pups egal ob es sprit, heizung, ein liter milch oder öl oder ein stück butter oder halt ne grafikkarte betrifft. ist das die hoffnung auf erlösung per blitz vom himmel oder ein wunderhafter knall ohne ursprung und plötzlich ist es wieder wie neulich? *hust* leben heisst veränderung und man muss sich anpassen (nicht anpissen; ausser man kriegt anständig patte dafür). wenn der 1000€ job nicht mehr genügt, dann muss man halt in den apfel beissen und sich was anderes suchen oder was für nebenbei.. es wird nicht mehr wie letztes jahr.. nicht wie vor 10 jahren und wir kriegen auch keine mauer zurück, wie vor 30 jahren.. achso, und man muss immer aus dem heute das beste machen - morgen kann alles schon vorbei sein. in der vergangenheit rumhängen bringt nicht vorwärts.
(..)
mfg
tobi
Asaraki
2022-10-18, 17:30:30
Deswegen war es mir auch ein Bedürfnis, hier mitzuteilen, ich könnte mir die Karte leisten, wenn ich denn wollte. Aber ich verzichte lieber, weil ich so bescheiden wie wohlhabend bin. Ups, das warst ja du...
Die Posts mit 4090 auf dem Beifahrersitz sind wenigstens ehrlich.
(Mal gucken, ob du es dir verkneifen kannst, da jetzt noch weiter drauf einzugehen. Ich tippe, es wird dir arg unter den Nägeln brennen, weil du es offenbar bitter nötig hast...)
Du projizierst da einfach irgendwas hin... ich könnte die 4090 günstiger als die meisten hier kriegen und kaufe sie trotzdem nicht, weil ich das viel zu teuer finde für ein Stück Hardware. Davon kann ich mir so viel anderes Zeugs kaufen, das kommt aus Prinzip schon nicht in Frage. Für das Geld einer 4090 kann ich mir 1-2 geile Gitarren kaufen, die ihrerseits keinen Wertverlust haben. Also lieber ne Gitarre jetzt und dann eine 4080 wenn sie noch die Hälfte kostet.
Der Unterschied zwischen dir und mir ist lediglich, dass ich damit kein Problem habe mir nicht einfach so die grösste Karte zu kaufen. Früher hab ich das auch öfter gemacht weil die halt absolut gesehen gar nicht so teuer waren. Freunde von mir haben mehr für ihr Fahrrad ausgegeben als ich für den ganzen Computer. Oder Paragliden, RC-Cars, Modellbau oder Warhammer... kostet alles schnell mehr als jedes Jahr die schnellste GPU.
So gesehen war es halt bisher quasi unabhängig deines Verdiensts jedem möglich sich die dicke GPU anzusparen - etwas das es in praktisch keinem vergleichbaren Hobby gibt und dass es auch nie wieder geben wird. Das ist jetzt Vergangenheit. Deal with it ;-)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.