Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
The_Invisible
2022-01-02, 15:47:36
Mir gehen die 500W Verbrauch bei fordernden Games auch irgendwie am Ar***, das kleine Büro heizt sich merklich auf obwohl Winter ist und die Heizung aus ist. Frau hat am Anfang gemeint ich soll die Heizung zurückdrehen ;D
Glaub werde jetzt doch mal ein wenig Zeit in UV investieren...
Slipknot79
2022-01-02, 16:30:05
>1000€ GPU einbauen und dann an der Verkabelung/Netzteil sparen, genau mein Humor.
Kann nix dazu beitragen, hat 980EUR gekostet. Hast Pech gehabt. (y)
Ex3cut3r
2022-01-02, 18:29:50
3090 für 980€? Glückwunsch, da hast du ja ein feines Schnäppchen geschossen.
BlacKi
2022-01-02, 18:33:52
schau mal in seine signatur...
Daredevil
2022-01-02, 21:41:46
Das ist ne Karte für Miami :D
GeForce RTX 3090 Ti: EVGA K|NGP|N mit zwei 16-Pin-Steckern für bis zu 1.275 Watt
https://www.computerbase.de/2022-01/geforce-rtx-3090-ti-evga-k-ngp-n-bietet-zweimal-12-pin-stecker-fuer-1.275-watt/
Ex3cut3r
2022-01-02, 22:03:39
1.275 Watt? Meinen die das wirklich ernst? Selbst diese AIO dadrauf sollte dafür nicht ausreichen. Da muss man doch mit Flüssigen Stickstoff ran?
;D
Slipknot79
2022-01-02, 22:29:54
3090 für 980€? Glückwunsch, da hast du ja ein feines Schnäppchen geschossen.
Yea habe keine 3090, hat zu wenig Leistungsplus im Vgl zur 2080 Ti, ich steige erst ab +100% um (y). Bittet die 30er Generation nicht, so hat Lederjacke eben Pech gehabt, außerdem macht er es sich dank DLSS und G-Sync noch schwerer mich zum Umstieg zu bewegen. :redface:
Es ging ya um die NT Abschaltautomatik, da spielt ja die Graka keine Rolle. K fast keine Rolle, wenn man von den 400-500W Peaks absieht. ^^
Das einzige Problem an den vielen Watts sind eigentlich nur die begrenzenden Haussicherungen :mad:.
Was ged durch son Teil durch? 16A x 230V = 3,68kW... K etwas Luft ist noch, Abzug für den Kühlschrank+PC. Sagen wir 3000W für ne Graka sind locker drin. Da geht noch was (y). MOAR!
Alles cool, wird sicher Mods für Haussicherungen geben. (y)
BlacKi
2022-01-02, 23:01:09
Es ging ya um die NT Abschaltautomatik, da spielt ja die Graka keine Rolle. K fast keine Rolle, wenn man von den 400-500W Peaks absieht. ^^
das ist doch der punkt. ich hab ne 2070s mit 314w bios gehabt, und eine 1080ti mit 300w. keine hat es geschafft mein netzteil zu triggern ausser die ampere serie. 400w dauerlast konnte ich mit meiner 3090 laufen lassen, sofern die peaks nicht hoch waren. ampere ist ein NT ausknipser. laut igor sind die peaks bei der radeon zwar niedriger, aber nicht wirklich viel. die grafikkarten der letzten generationen tragen massiv dazu bei. das man neue netzteile braucht.
Slipknot79
2022-01-03, 01:01:09
Ist die Frage, wenn ich die 2080Ti um 80W oce, ob die Peaks dann auch um 80W höher sind und somit halbwegs eine Vergleichbarkeit möglich ist? Oo
BlacKi
2022-01-03, 02:24:26
das powerlimit hat mit den peaks wenig zu tun. stock voltage curve und 200w powerlimit haben das system zum ausschalten gezwungen. mit angepasster voltage curve bei 1800mhz und 0,775v waren auch 400w stabil ohne netzteil ausschalter.
die peaks skalieren mit der voltage, nicht mit dem powerlimit. das powerlimit ist nicht schnell genug um die peaks abzuwürgen.
Troyan
2022-01-03, 10:49:21
das ist doch der punkt. ich hab ne 2070s mit 314w bios gehabt, und eine 1080ti mit 300w. keine hat es geschafft mein netzteil zu triggern ausser die ampere serie. 400w dauerlast konnte ich mit meiner 3090 laufen lassen, sofern die peaks nicht hoch waren. ampere ist ein NT ausknipser. laut igor sind die peaks bei der radeon zwar niedriger, aber nicht wirklich viel. die grafikkarten der letzten generationen tragen massiv dazu bei. das man neue netzteile braucht.
Dein Netzteil wird getriggert, weil das System nunmal mehr Strom benötigt. 3090 mit 375W ist mehr als doppelt so schnell als eine 2070s mit 314W.
Mein Seasonic Focus 750W hatte keine Probleme mit meiner 3090. :cool:
BlacKi
2022-01-03, 11:02:37
wie gesagt, selbst mit reduziertem powerlimit auf 200w wurde das netzteil getriggert. mal davon abgesehen, das die rendergeschwindigkeit nichts damit zu tun hat.
Troyan
2022-01-03, 11:04:00
Dann ist/war dein Netzteil schlecht. Ich bin vom Focus 650W auf 750W gewechselt und hatte nie Probleme. Mein i9-9900 hat unter Volllast auch 150W gezogen. Bei 650W gab es auch Abschaltungen.
Linmoum
2022-01-03, 11:30:59
Es gibt pauschal kein zu schlechtes Netzteil. Manche Netzteile riegeln schlicht deutlich strikter (und früher) ab als andere, wo dann u.U. sogar gerne mal die eigentlichen Specs aus diesem Grund überfahren werden.
Ein Netzteil, das früher abschaltet, ist nicht grundsätzlich schlecht. Hier kann auch das Gegenteil der Fall sein.
BlacKi
2022-01-03, 11:33:29
du verstehst einfach nicht das boostverhalten. wenn die karte nur kurz 1.025v geboostet hat für nur einstellige ms, dann hat das schon die schutzschaltung getriggert. und das kommt vor, bei egal welchem powerlimit. das war mit der 2070s und 1080ti nie so heftig. ampere liegt einfach was peaks angeht massiv über allen anderen generationen. powerlimit unabhängig.
The_Invisible
2022-01-03, 11:54:34
Das einzige Problem an den vielen Watts sind eigentlich nur die begrenzenden Haussicherungen :mad:.
Was ged durch son Teil durch? 16A x 230V = 3,68kW... K etwas Luft ist noch, Abzug für den Kühlschrank+PC. Sagen wir 3000W für ne Graka sind locker drin. Da geht noch was (y). MOAR!
Alles cool, wird sicher Mods für Haussicherungen geben. (y)
Gibt eh mehrere Stromkreise bzw. im Notfall einfach eigene Leitung direkt zum Trafo legen lassen ;D
TobiWahnKenobi
2022-01-04, 15:08:01
WOW - die neue 3090Ti bekommt die werte einer ROG strix OC verpasst? 450W PL und 1.86GHz GPU-takt.. amazing!!
(..)
mfg
tobi
aufkrawall
2022-01-04, 15:14:31
Ach, so übertrieben ist das gar nicht. Die 3080 Suprim saugt in Hitman 3 4k ohne UV schon durchgängig >400W bzw. läuft ins maximale Powertarget in der Region. Mit mehr Shadern, Speicher und größerem Interface kann man da bestimmt noch 50-100W draufrechnen. Ist schon witzig, wie Nvidias Ego gekränkt ist, obwohl AMD kaum Stückzahl liefern kann...
ChaosTM
2022-01-04, 15:16:26
Effizienzwunder Incoming! :D
Vor ein paar Jahren hätte ich da noch ohne nachzudenken zugeschlagen.
Werde wirklich alt..
aufkrawall
2022-01-04, 15:28:49
Ist für mich sogar kein Grund, so eine Karte komplett auszuschließen. Allerdings hätte ich diesen Malus auch gerne im Preis berücksichtigt, so wie früher etwa bei manchen GCN-Karten. Die UVP der 3080 hätte auch schon 500€ sein müssen.
Daredevil
2022-01-04, 15:33:19
Stromverbrauch ist immer noch kein Grund, diese Karte auszuschließen.
Die dickere Karte kann in der Regel immer am effizientesten betrieben werden, weil man nicht gezwungen ist, diese TDP zu fahren.
Also ist es am Ende eine Frage des Geldes, aber nicht des Stromverbrauches.
Wer konsequent beim Gaming der Umwelt was gutes tun möchte, kauft eine rx6900xtx oder eine 3090ti. Alle Karten darunter haben eine schlechtere Perf/Watt Leistung.
ChaosTM
2022-01-04, 15:40:56
Die 3070er lag da immer vorne iirc knapp gefolgt von der 6800er.
aufkrawall
2022-01-04, 15:51:16
Wer konsequent beim Gaming der Umwelt was gutes tun möchte, kauft eine rx6900xtx oder eine 3090ti. Alle Karten darunter haben eine schlechtere Perf/Watt Leistung.
Nicht wirklich. Kannst wahrscheinlich alle RDNA2-Karten bei 2,3GHz @ 0,9V betreiben. Da werden die kleineren Karten nicht so viel schlechter bei der Effizienz sein als die großen. Bei Ampere ist das wegen GDDR6X ganz anders, da muss man schon deutlich mit dem Takt runter. Und niemand will die Umwelt schonen, sondern möglichst geringe Abwärme, Lüfterrauschen und Spulenrasseln bei möglichst wenig Leistungsverlust. Ich bezahl doch nicht so viel Kohle, nur um dann 10% oder mehr Performance wegzuschmeißen...
Daredevil
2022-01-04, 17:03:10
Haste mal Daten zu RDNA2? Weil sonst hilft deine Aussage nicht. :c
Geht los! RTX On!
6KoscQVKpAQ
Gleich mal im Intro den Satz "What are you waiting for?" reingesch(m)issen.
Viele sicher auf niedrigere GPU-Preise ;).
aufkrawall
2022-01-04, 17:14:56
Haste mal Daten zu RDNA2? Weil sonst hilft deine Aussage nicht. :c
Ja: Kannst die 6900 XT bei kaum bis gar nicht messbarem Leistungsverlust auf ~250W TBP bekommen.
Wenn du Glück hast und mit Big Ampere 1,7GHz bei 0,7V für einen ähnlichen Verbrauch gehen, ist da schon ~10% Performance gegenüber dem Takt-Maximum futsch. Die Effizienz von GDDR6X-Ampere ist einfach kacke, kann man nicht anders sagen.
Anders als bei RDNA2, gab es seit Release wohl auch kaum Performancesteigerungen via Treiber für Ampere. Dürfte mit aktuellen Treibern und rBAR komplett untergehen in etwa FH5...
dargo
2022-01-04, 17:15:09
Ach, so übertrieben ist das gar nicht. Die 3080 Suprim saugt in Hitman 3 4k ohne UV schon durchgängig >400W bzw. läuft ins maximale Powertarget in der Region. Mit mehr Shadern, Speicher und größerem Interface kann man da bestimmt noch 50-100W draufrechnen. Ist schon witzig, wie Nvidias Ego gekränkt ist, obwohl AMD kaum Stückzahl liefern kann...
Weiß zwar nicht wie es aktuell so global ausschaut. Wenn ich aber GH so überfliege sind die Händlerlager voll mit RDNA2.
Daredevil
2022-01-04, 17:18:42
Gleich mal im Intro den Satz "What are you waiting for?" reingesch(m)issen.
Viele sicher auf niedrigere GPU-Preise ;).
AMD hat doch ne 199$ GPU rausgehauen.
Und Nvidia schmeißt jetzt bestimmt ne 1799$-1999$ auf den Markt, da freut sich Reddit. ;D
@aufkrawall
Hast du denn Daten?
Also bei min Spannung und Mintakt Benchmarks machen und weiter rauf bis zum Maximum.
Mache ich jetzt seit der 1080 und Ampere performt ähnlich.
Ja, die 24gb machen einiges kaputt ( bzw. die 24 Speicherchips... ), aber die sind ja auch irgendwo "Performance". :freak:
Bis 1.3Ghz klappts gut, danach explodiert der Verbrauch. ( Asus TuF )
Superposition 4K
Stock:
1700-1785/5500 @ 0.860v - 350w - 16066pts ( 75 Grad, 1550rpm ) 45 w/pts
1050/5002 @ 0,712v - 175w - 9949pts ( 65 Grad, 750rpm ) 56w/pts
1170/5002 @ 0,712v - 182w - 10733pts ( 66 Grad, 800rpm ) 58w/pts
1260/5002 @ 0,712v - 188w - 11296pts ( 66 Grad , 830rpm ) 60w/pts
1365/5002 @ 0,712v - 240w - 12852pts ( 68 Grad, 1030rpm ) 53w/pts
1470/5002 @ 0,712v - 249w - 14066pts ( 69 Grad, 1075rpm ) 56w/pts
1560/5002 @ 0,712v - 255w - 14710pts ( 69 Grad, 1110rpm ) 57w/pts
1680/5002 @ 0.725v - 273w - 15504pts ( 70 Grad, 1190rpm ) 56w/pts
1755/5002 @ 0.775v - 312w - 16163pts ( 73 Grad, 1380rpm ) 53w/pts
1845/5002 @ 0.825v - 350w - 16670pts ( 75 Grad, 1580rpm ) 47w/pts
Rein vom Perf/Watt Verhältnis kann Turing effizienter betrieben werden, Ampere ist "zu dick" für effektives UV.
Ne gute 2080ti macht ~10500-11000pts bei 160w bei ~1550Mhz @0.7v. ( Die endet allerdings auch bei ~13000 )
Müsste ich mal mit der FE machen, die Benches sind schon sehr alt. ^^
Slipknot79
2022-01-04, 17:20:09
Ich glaube nicht, dass die 3090Ti aus Egogründen auf den Markt geballert wird.
Es wird wohl eher so sein, dass aus der Belichtungsmaschine mehr als erwartet vollwertige 3090Ti droppen, Lederjacke spatziert daran vorbei und meint, da muss ne 3090Ti released werden, bringt Dollars. (y)
Einfach weil es NV can.
€dit: DeineMUDDAon ^^,
- 3050 (y) TOP, schon vorbestellt. MUST HAVE. :rolleyes:
- Gaming Laptops schnaaaarch :rolleyes:
TobiWahnKenobi
2022-01-04, 17:26:34
produktpflege und 1.86GHz gehen mit genug powerbudget schon immer mit der GPU. das weiss nvidia sogar besser als wir und schon viel länger..
(..)
mfg
tobi
Slipknot79
2022-01-04, 17:33:59
Na also 3090 TIE ^^
Daredevil
2022-01-04, 17:35:12
Stark, ich guck mir 30 Minuten den Kram an, damit der Dude die Karte 10 Sekunden zeigen kann.
Slipknot79
2022-01-04, 17:39:56
Man könnte meinen, das was NV zeigt ist einfach nur Shice und macht die Viewer damit notgeil auf die dicke 3090 TIE.
Kommt einem Eingeständis gleich, dass nur die dicken Grakas interessant sind, und der Rest nur shicelangweilig ist den keine Sau interessiert. (y)
The_Invisible
2022-01-04, 17:44:52
Also im Desktop doch nur die 3090 Ti (Tie ;D) neu und weitere Details erst später im Monat, wow :D
So langsam wird das Auto-Segment zäh :usleep:
"The more you drive, the more you buy!"
Slipknot79
2022-01-04, 17:46:35
Was soll eigentlich der Reiz an selbstfahrenden Autos sein? Oo
Da gibt es nicht ein "you drive", das macht die AI. Langweilige Shice. ^^
TobiWahnKenobi
2022-01-04, 17:47:59
Was soll eigentlich der Reiz an selbstfahrenden Autos sein? Oo
Da gibt es nicht ein "you drive", das macht die AI. Langweilige Shice. ^^
automation mit allen negativen effekten für die gesellschaft.. wie schon seit 100 jahren.. nur jetzt halt so, dass man taxi-, busfahrer und chauffeure feuern kann.
selbstfahrende autos, gebaut von robotern..
(..)
mfg
tobi
aufkrawall
2022-01-04, 17:50:10
@aufkrawall
Hast du denn Daten?
Also bei min Spannung und Mintakt Benchmarks machen und weiter rauf bis zum Maximum.
Halte ich für übertrieben, wenn das Ziel ist, eine nennenswerte Verbesserung ohne spürbare Einbußen zu erzielen. Da stell ich kurz die Werte ein und wenn es stabil läuft, war es das schon. Der Performance/W-Sweetspot interessiert mich nicht, wenn der mit höheren Performance-Einbußen daher kommt und die Karte eh schon viel kühler/leiser bleibt. Ich mach da keinen Fetisch draus, ist nur Mittel zum Zweck.
Bei der Effizienz ist GDDR6X-Ampere einfach nur richtig kacke, wenn ich sehe, wie hier die 3060 ohne Takteinbußen mit UV real nur ~120W zieht. Mit Vulkan mGPU in Strange Brigade dürften drei 3060s mit UV ohne Taktsenkung kaum mehr verbrauchen als eine einzelne 3090 mit UV ohne Taktsenkung (wenn überhaupt), wären aber deutlich schneller, wenn das mit drei GPUs noch so skaliert wie mit zwei. ;D
Man kann natürlich wahlweise auch zwei 3070s nehmen. Natürlich ist mGPU tot, aber es verdeutlicht schon ganz gut, was ein Müll GDDR6X ist...
Slipknot79
2022-01-04, 17:50:30
Ja das mag Jobs kosten. Neue werden entstehen, eh immer das selbe.
Aber die persönliche Erfahrung? Stelle mir sowas von langweilig vor, das gibts gar nicht.
The_Invisible
2022-01-04, 17:55:22
Ja das mag Jobs kosten. Neue werden entstehen, eh immer das selbe.
Aber die persönliche Erfahrung? Stelle mir sowas von langweilig vor, das gibts gar nicht.
Währenddessen kann man ja auch was anderes machen.
Autofahren ist einfach nur öde, hier in Österreich umso mehr. Eventuell in den ersten Jahren interessant, aber wenn man schon ein paar Jahre fährt nervt es nur mehr. Bin über jeden Homeoffice Tag froh. ; )
Daredevil
2022-01-04, 17:57:44
Halte ich für übertrieben, wenn das Ziel ist, eine nennenswerte Verbesserung ohne spürbare Einbußen zu erzielen. Da stell ich kurz die Werte ein und wenn es stabil läuft, war es das schon. Der Performance/W-Sweetspot interessiert mich nicht, wenn der mit höheren Performance-Einbußen daher kommt
Aber genau das ist ja der Punkt.
Du kannst meinetwegen auch eine RX580 super effizient betreiben, wenn du damit aber in WQHD nicht auf 60fps kommst, bringt dir die Effizienz nichts.
Wenn du eine 3070 im System hast und die bereits an der Kotzgrenze ist, damit sie 60fps herbei zaubert, ist eine 3090 bei 1400Mhz immer effizienter.
Und das war der ganze Freaking Punkt, wovon ich gesprochen habe.
Wenn Horst mit seiner GTX1060 nun schreibt "Also 450w ist ja total viel, sowas tue ich mir nicht an", er seine RX580 dann auf 200w übertaktet, damit Landwirftschaftssimulator bei 100fps läuft und gleichzeitig eine 500w TDP 6990XT Max den gleichen Job bei 100w machen würde, dann empört sich Horst über etwas, was er nicht versteht.
Darum ging es mir. :)
Wer ausschließlich mit "Das verbraucht zu viel" argumentiert, versteht einfach verschiedene Taktstufen nicht und das kleine Karten bei hohen Stufen ineffizienter sind als große bei kleinen.
Ähnlich wie bei Autos sollte man hier vielleicht auch mehrere Szenarien angeben, also Stadt, Landstraße und Autobahn.
Als ob meine 3090 400w säuft, wenn ich nen Indie Spiel spiele. ^^
Edit:
Lame Keynote.
Das war quasi die AMD Keynote in grün, nur mit viel weniger Produkten. :v
Hoffe Intel hat noch was zu bieten.
Slipknot79
2022-01-04, 17:58:22
Wenn es nervt, dann lasse ich es eben überhaupt. Wie du sagst, dann eben home office.
Ich glaube nicht, dass es weniger nervt, wenn die AI fährt. Dann kann man gleich Öffi fahren.
Flyinglosi
2022-01-04, 18:03:43
Wenn es nervt, dann lasse ich es eben überhaupt. Wie du sagst, dann eben home office.
Ich glaube nicht, dass es weniger nervt, wenn die AI fährt. Dann kann man gleich Öffi fahren.
Du meinst also, all jene die tagtäglich die Autobahnen rauf und runter düsen, tun dies nur wegen dem Fahrspaß, weil sonst würden sie ihr Ziel per Öffis ansteuern?
Den waren Erfolg wir autonomes Fahren ab dem Tag feiern, wo man als „Fahrer“ nicht mehr nüchtern zu sein braucht.
aufkrawall
2022-01-04, 18:08:15
Wer ausschließlich mit "Das verbraucht zu viel" argumentiert, versteht einfach verschiedene Taktstufen nicht und das kleine Karten bei hohen Stufen ineffizienter sind als große bei kleinen.
Dumm nur, dass es ursprünglich um Ampere GDDR6X vs. RDNA2 ging. Und da kann ich dir aus erster Hand sagen, dass eine 3080 UV ohne Takt-Verkrüppelung etwa in Fortnite D3D12 4k zwischen 15-20% langsamer läuft als eine 6900 XT mit UV ohne Takt-Verkrüppelung und dabei trotzdem säuft wie ein Loch (20-30% höherer Gesamtkartenverbrauch).
Es artet mal wieder in "Es kann nicht sein, was nicht wahr sein darf" aus...
Trotzdem vermisse ich meine 6800 immer noch kein Stück, obwohl die 3060 stinklahm im Vergleich ist. Ohne funktionierenden D3D12 Treiber Shader Cache (minutenlange erste Ladezeit nach jedem Spielstart), Reflex und DLSS ist die Spielerfahrung einfach nur behi*dert mit dem AMD-Gammel. :D
Slipknot79
2022-01-04, 18:10:43
Du meinst also, all jene die tagtäglich die Autobahnen rauf und runter düsen, tun dies nur wegen dem Fahrspaß, weil sonst würden sie ihr Ziel per Öffis ansteuern?
Dann stimmt was im Lebensmodell nicht und stellt das erst hinterher fest? Da hält sich mein Mitleid in Grenzen. Man tut das sogar völlig unbezahlt, Move zu einem Ort mit dem man privat genau gar nix am Start hat? Wer leidet, sollte das Modell überdenken und handeln. (y)
TobiWahnKenobi
2022-01-04, 18:14:40
ich gebe im auto nur ungern die kontrolle ab. ich mag ja nichtmal wenn das auto selbst einparkt oder schaltet.
aber man darf auch nicht nur die leute sehen, die spaß am autofahren haben. gibt ja auch die, die damit total überfordert sind. die können dann schlafen, statt andere zu gefährden.
jeder AMG-ali, der meint mich bei 250km/h noch blinkerlos schneiden zu müssen und nciht weiss wie man lenkstockschalter bedient profitiert davon.. theoretisch zumindest.
(..)
mfg
tobi
The_Invisible
2022-01-04, 18:16:45
Wenn es nervt, dann lasse ich es eben überhaupt. Wie du sagst, dann eben home office.
Ich glaube nicht, dass es weniger nervt, wenn die AI fährt. Dann kann man gleich Öffi fahren.
Öffi ist oft noch zu unflexibel.
Ich will einfach das Auto buchen, es kommt dann vom nächstbesten Punkt vor meiner Haustür und bringt mich zum Zielort. Derweil kann ich gamen, netflixen oder sonst was tun :D
Daredevil
2022-01-04, 18:28:47
Dumm nur, dass es ursprünglich um Ampere GDDR6X vs. RDNA2 ging.
Wrong.
Es hat so angefangen:
Wer konsequent beim Gaming der Umwelt was gutes tun möchte, kauft eine rx6900xtx oder eine 3090ti. Alle Karten darunter haben eine schlechtere Perf/Watt Leistung.
Ich habe bewusst "und" geschrieben, weil es beide Karten trifft.
Groß vs. klein, Farbe egal.
Flyinglosi
2022-01-04, 18:41:36
Dann stimmt was im Lebensmodell nicht und stellt das erst hinterher fest? Da hält sich mein Mitleid in Grenzen. Man tut das sogar völlig unbezahlt, Move zu einem Ort mit dem man privat genau gar nix am Start hat? Wer leidet, sollte das Modell überdenken und handeln. (y)
Geht klar, viel Spaß noch in deiner kleinen, fröhlichen Welt. Gib Bescheid, wenn du wieder mal in der Realität vorbei schaust :)
aufkrawall
2022-01-04, 18:45:19
Muss man dich wirklich drauf hinweisen, wie schwachsinnig die Aussage "beim Gaming der Umwelt was gutes tun" in einem RTX 3090-Thread ist?
Das bisschen Kohlestrom ist so was von scheißegal vs. die ganzen Wasserkosten, Materialausbeutung etc. in der Produktion. Du liebe Güte...
ChaosTM
2022-01-04, 18:48:31
Ja das mag Jobs kosten. Neue werden entstehen, eh immer das selbe.
Aber die persönliche Erfahrung? Stelle mir sowas von langweilig vor, das gibts gar nicht.
Diesmal wird dem nicht so sein. "AI" wird einen fürchterlichen Kahlschlag anrichten, quer durch fast alle Jobs Bereiche.
Und Gratulation.: ein Post ohne "shice" :)
hq-hq
2022-01-04, 22:03:09
AMD hat doch ne 199$ GPU rausgehauen.
Und Nvidia schmeißt jetzt bestimmt ne 1799$-1999$ auf den Markt, da freut sich Reddit. ;D
@aufkrawall
Hast du denn Daten?
Also bei min Spannung und Mintakt Benchmarks machen und weiter rauf bis zum Maximum.
Mache ich jetzt seit der 1080 und Ampere performt ähnlich.
Ja, die 24gb machen einiges kaputt ( bzw. die 24 Speicherchips... ), aber die sind ja auch irgendwo "Performance". :freak:
Müsste ich mal mit der FE machen, die Benches sind schon sehr alt. ^^
nach deiner Methode im 4k Optimized (SuperPos; GPUz Log mit 0,1s Polling etwa 1605 Messungen); 3090FE wassergekühlt
0,737V@1665/8500MHz bei 30,72 °C
222,30 Watt; 15.193,00 Score; 68,34 Score/Watt
0,737V@1665/9500MHz bei 32,64°C (RAM taktet automatisch auf 9500)
234,30 Watt; 15.430,00 Score; 65,86 Score/Watt
UV 0,793V@1845/9500MHz bei 31,64°C (RAM taktet automatisch auf 9500)
272,98 Watt; 16.517,00 Score; 60,51 Score/Watt
Stock 0,951V@1865,74/9750MHz bei 37,08°C (Durchschnittswerte)
341,65 Watt; 16.535,00 Score; 48,40 Score/Watt
OC 0,958V@2057,5/9750MHz bei 34,19°C (Durchschnittswerte)
390,14 Watt; 17.541,00 Score; 44,96 Score/Watt
XOC 0,913V@2100,29/11000MHz bei 28,52°C (Durchschnittswerte, nicht Gamestable aber ohne Grafikfehler)
392,43 Watt; 19.295,00 Score; 49,17 Score/Watt
Gecko_0815
2022-01-08, 15:10:33
Hat jemand eine Lösung für folgendes Problem (RTX3090 an LG OLED CX):
Seid dem ich auf Win10Pro 21H2 geupdatet habe, kann ich ich nicht mehr 3840*2160 @ 120 Hz einstellen. Die Anzeigeinformationen zeigen dann als Aktive Signalauflösung 4096*2160 @ 120 Hz an. Desktopauflösung bleibt bei 4K und an den Seiten sind schwarze Balken. Umstellung auf UHD im Nvidia Controlpanel tauscht die breiten Balken rechts und links in schmale Balken oben und unten. 4K @ 60 Hz geht.
BlacKi
2022-01-08, 15:15:13
liegt am treiber. ich hatte das problem mit nvidia image scaling. treiber neu installieren hilft, oder die auflösungen mit CRU löschen, sodass sie nicht mehr zur verfügung stehen.
hq-hq
2022-01-08, 15:19:14
Hat jemand eine Lösung für folgendes Problem (RTX3090 an LG OLED CX):
Seid dem ich auf Win10Pro 21H2 geupdatet habe, kann ich ich nicht mehr 3840*2160 @ 120 Hz einstellen. Die Anzeigeinformationen zeigen dann als Aktive Signalauflösung 4096*2160 @ 120 Hz an. Desktopauflösung bleibt bei 4K und an den Seiten sind schwarze Balken. Umstellung auf UHD im Nvidia Controlpanel tauscht die breiten Balken rechts und links in schmale Balken oben und unten. 4K @ 60 Hz geht.
freilich, hatte das gleiche Problem : https://www.monitortests.com/blog/guide-how-to-remove-4096x2160/
Gecko_0815
2022-01-09, 22:54:56
Danke! Hat funktioniert.
hq-hq
2022-01-14, 22:20:00
Kann aktive G-SYNC-Kompatibilität Leistung kosten auch wenn VSync=OFF ?
aufkrawall
2022-01-14, 22:49:43
Nein, sonst Bug.
hq-hq
2022-01-14, 23:57:19
Nein, sonst Bug.
schaut so aus als ob Superposition in 2160p 3-4% langsamer läuft wenn GSync=ON VSync=OFF; wenn FesteAktualisierungsrate aktiv ist und VSync=OFF bekomme ich reproduzierbar 4fps avg mehr; in 3DMurks TS, Firestrike, FC5 ist es egal :freak:, ist mir grade durch Zufall aufgefallen...
ob 4k oder 1080p, es fehlen avg immer ziemlich genau 4fps https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78064&stc=1&d=1642232105 78065
wenn Bug, dann hat SuperPos einen GSync Bug :freak:
vinacis_vivids
2022-02-23, 21:21:57
https://www.computerbase.de/2022-02/cyberpunk-2077-community-benchmarks-2022/#abschnitt_benchmarks_mit_hohen_details
https://abload.de/img/rdna2ga1021qkgk.png
6700XT on par mit RTX3090
Ampere ist richtig schlecht bei der Skalierung mit Multicore-CPUs.
Linmoum
2022-02-23, 21:25:14
Richtig schlecht sind nur deine langweiligen Trollversuche. Du postest nicht nur unterschiedliche CPU-Konfigs (CPU-Limit scheint dir ein Fremdwort zu sein), sondern jetzt vergleichst du auch noch die sowieso schon langsamere CPU A mit DDR4-2666 CL20 (!!!!) mit einer deutlich schnelleren CPU B mit DDR4-3800 CL15.
Wird dir der Schwachsinn nicht selbst peinlich?
vinacis_vivids
2022-02-23, 21:28:27
Willst du mich veralbern?
https://abload.de/img/rdna6800finewinezlke3.png
Ampere skaliert wie Schrott. Muss irgendwie ein Bug in der Hardware sein.
Lurtz
2022-02-23, 21:31:27
Könnte man vielleicht aufhören jeden Thread mit diesen schwachsinnigen, weil völlig unfundierten und unkontrollierbaren Community-Benchmarks vollzuspammen?
Ex3cut3r
2022-02-23, 21:34:21
Selbst schuld, jeder scheint auch mit ihm diskutieren zu wollen. Einfach nicht draufeingehen. Dann wurde er auch verschwinden.
Lurtz
2022-02-23, 21:37:08
Selbst schuld, jeder scheint auch mit ihm diskutieren zu wollen. Einfach nicht draufeingehen. Dann wurde er auch verschwinden.
Bullshit lässt man ungern stehen, wieso wird sowas nicht moderiert?
Ex3cut3r
2022-02-23, 21:59:14
Weil es halt unter Meinungsfreiheit gezählt wird. Beleidigen direkt tut er halt niemanden. :biggrin:
OCmylife
2022-02-24, 03:31:28
Willst du mich veralbern?
https://abload.de/img/rdna6800finewinezlke3.png
Ampere skaliert wie Schrott. Muss irgendwie ein Bug in der Hardware sein.
Schalte mal die Anforderungen hoch(4K und Raytracing) und Du siehst wie schlecht die AMD-Karten skalieren. ;-)
Nicht alle spielen mit 1080P und reduzierten Details.
(So ganz nebenbei: Meine Aussage ist genauso provokativ und falsch, wie deine. Aber Ampere wird ziemlich mächtig, sobald Leistung wirklich benötigt wird.)
=Floi=
2022-02-24, 08:16:51
warum ist die 3090er in 4k so stark?
ist das nur in C2077 so? Liegt das am rasterizer?
dildo4u
2022-02-24, 08:41:20
Das ist doch normal NV läuft besser je höher die Auflösung und die 6900XT hat nicht mher Bandbreite als die 6800XT, die 3090 aber mher als 3080.
Thunder99
2022-02-24, 10:08:18
Sie wird einfach besser ausgelastet und kann besser die Rohleistung auf dem Straße bringen.
dildo4u
2022-02-24, 10:15:17
Sie wird einfach besser ausgelastet und kann besser die Rohleistung auf dem Straße bringen.
Hängt auch davon ab wie CPU Lastig das Game/Engine ist, hier ist NV vorne selbst in 1080p ohne RT.Die Lows sind auf der 3080 besser als 6900XT XTXH.
https://www.computerbase.de/2022-02/guardians-of-the-galaxy-lod-patch-benchmark/
DrFreaK666
2022-02-24, 10:47:07
Die AMD-Stärke bei hohen Auflösungen war ein Mal. Vielleicht wird es mit der 7000er Serie besser
Thunder99
2022-02-24, 12:44:43
Die AMD-Stärke bei hohen Auflösungen war ein Mal. Vielleicht wird es mit der 7000er Serie besser
Cache ist halt keine Wunderwaffe gegen alles. Und Ampere hat viel mehr ALUs als vorherige Designs welche erstmal gefüttert werden müssen
dargo
2022-02-24, 12:51:41
Die AMD-Stärke bei hohen Auflösungen war ein Mal. Vielleicht wird es mit der 7000er Serie besser
Schon wieder genial wie Fakten hier verdreht werden. Ampere hat keine Stärke in hohen Auflösungen sondern eine "Schwäche" in niedrigen. Ganz einfach weil bei zu wenig Pixelcount die ganzen Shader nicht vernünftig ausgelastet werden können.
btw.
Kleiner Spaß am Rande... was bringt es wenn Ampere in 4k besser ausgelastet wird? Habe mir sagen lassen Ampere-Spieler zocken mit DLSS, ergo wiederum mit deutlich kleinerem Pixelcount. ;D
Troyan
2022-02-24, 12:57:41
Schon wieder genial wie Fakten hier verdreht werden. Ampere hat keine Stärke in hohen Auflösungen sondern eine "Schwäche" in niedrigen. Ganz einfach weil bei zu wenig Pixelcount die ganzen Shader nicht vernünftig ausgelastet werden können.
Deswegen ist Ampere in 1080p auch doppelt so schnell. :eek:
btw.
Kleiner Spaß am Rande... was bringt es wenn Ampere in 4k besser ausgelastet wird? Habe mir sagen lassen Ampere-Spieler zocken mit DLSS, ergo wiederum mit deutlich kleinerem Pixelcount. ;D
Naja, nicht jeder ist ein 1080p Zocker. Einigen spielen vielleicht auch in 4K. BTW: DLSS@Performance in 4K bietet eine bessere Bildqualität als 1080p auf dem selben Zoll. :eek:
r3ptil3
2022-02-24, 12:59:03
Ich gehe davon aus, dass die "Schwäche" in höheren Auflösung, auch mit der RX 7000 Serie noch da ist, auch wenn das dann vielleicht keine Rolle mehr spielt, weil die Grundperformance so extrem hoch ist.
Aber ohne RT ist die Performance ist auch jetzt in 4k praktisch auf gleichem Niveau, egal ob Nvidia oder AMD. Selbst die RTX 3080 12Gb kann alles, was die RTX 3090 auch kann.
Was aber für Nvidia spricht ist das Featureset, das einfach weit voraus ist. DLSS ist da nur ein Faktor, wohl aber der Grösste neben der RT-Leistung.
Und selbst bei der RTX 3080 12Gb wirds erst bitter, wenn auch da der Speicher ausgeht. Darum seit über einem Jahr, wenn man offenes Budget hat, holt man eine RTX 3090.
dargo
2022-02-24, 19:03:54
Hängt auch davon ab wie CPU Lastig das Game/Engine ist, hier ist NV vorne selbst in 1080p ohne RT.Die Lows sind auf der 3080 besser als 6900XT XTXH.
https://www.computerbase.de/2022-02/guardians-of-the-galaxy-lod-patch-benchmark/
Tjo... und hier ist Nvidia hinten, trotz 4k.
RcHvuZj0y1A
Rosinen kann ich mir auch rauspicken.
DrFreaK666
2022-02-24, 20:46:49
Was soll das jetzt schon wieder?
Im Schnitt ist die Radeon bei rasterizing Games etwas schneller, bei RT mit Abstand die GeForce.
DLSS>FSR
Das war die Kurzfassung und das Thema sollte hiermit erledigt sein.
Mal davon abgesehen, dass der Thread nicht "RX6900XT vs RTX3090" heißt.
dargo
2022-02-24, 21:10:35
Was soll das jetzt schon wieder?
Dein Kurzzeitgedächtnis lässt zu wünschen übrig.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12928940&postcount=2822
DrFreaK666
2022-02-24, 21:32:59
Dein Kurzzeitgedächtnis lässt zu wünschen übrig.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12928940&postcount=2822
Ja und jetzt? GeForce-Karten sind stärker je höher die Auflösung ist. Das geht sogar ganz ohne Cherrypicking
dildo4u
2022-02-25, 04:38:56
Grid ist noch nicht Final.
https://www.resetera.com/threads/grid-legends-launches-feb-25-on-ps4-ps5-windows-pc-xb1-and-xbox-series.522981/page-7#post-82698580
=Floi=
2022-02-25, 14:28:31
Danke für die antworten.
Dachte die 6900er ist wegen der füllrate besser, aber das mit der ram bandbreite ist plausibel.
Hätte ich jetzt so nicht erwartet.
Geldmann3
2022-03-28, 00:31:30
RTX 3090 Performance bei verschiedenen Powerlimits
Nach rund 1,5 Jahren mit der Karte, habe ich nun eine kleine TDP-Kurve zur RTX 3090 erstellt.
Auf dieser ist zu sehen, wie sich unterschiedliche Powerlimits auf die Performance der Karte auswirken.
Dabei habe ich lediglich das Powerlimit mit dem MSI-Afterburner verschoben.
Bei einem weiteren Durchlauf habe ich die GPU gleichzeitig um 125 MHz übertaktet, dies war das Maximum, was auf allen TDP-Stufen stabil lief. (Blaue Linie)
Natürlich hätte man bei jeder TDP-Stufe noch stundenlang tunen können, doch meine Zeit ist leider endlich und bei späteren Tests (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12964510#post12964510) habe ich festgestellt, dass dies nicht sinnvoll gewesen wäre.
Alles in allem, vermute ich, dass wir hier etwa jene Performance sehen, mit welcher Nvidia die Karte ausgeliefert hätte, wenn das jeweilige TDP-Limit ausreichend gewesen wäre, um das Performanceziel zu erreichen.
https://i.ibb.co/3zM2mPQ/FPS-Curve.png (https://i.ibb.co/M5jh7Dh/FPS-Curve.png)
Bei rund 135 Watt generiert die RTX 3090 60% weniger FPS als die RX 6600 bei derselben Leistungsaufnahme. Natürlich hätte man an dieser Stelle nicht unbedingt etwas anderes erwartet, als dass die kleinere Karte in ihrem Territorium wesentlich effektiver arbeitet. Wobei ich mir manchmal doch die Hoffnung gemacht habe, dass eine große, sehr niedrig getaktete GPU, viel effizienter arbeiten könnte. Beachtenswerter-Weise schien die RTX 3090 bei 130 Watt immerhin 50% Performance hinzuzugewinnen, wenn ich sie beim gegebenen Powerlimit um 125MHz übertaktet habe. Jedoch stellte sich bei einem Blick auf die Leistungsaufnahme heraus, dass die Karte in diesem Falle das eingestellte Power-Limit schlicht überschreitet. Aus diesem Grund beginnt die blaue Linie erst bei 150 Watt. Denn mit zusätzlichen 125Mhz verbraucht die Karte immer mindestens 150 Watt.
Bei 165 Watt misst die RTX 3090 sich mit der RTX 3060. Die kleine Ampere-Karte setzt sich in ihrer Disziplin etwa 20% von ihrer großen Schwester ab, welche ihrer extremen Leistungsaufnahme beraubt wurde. Ampere scheint nach unten also durchaus noch gut zu skalieren, sofern die Subsysteme der Grafikkarte entsprechend ihrer Leistung beschnitten werden.
Bis zum Bereich von rund 240 Watt gewinnt Ampere noch massiv an Performance hinzu. Danach gibt es zwar noch Gewinne, allerdings flacht die Kurve an dieser Stelle doch deutlich ab. Hätte Nvidia die RTX 3090 auf die Leistungsaufnahme einer RTX 2080 Ti limitiert, so hätte diese hier nur etwas mehr als 20% besser performt, als die alte Topkarte. Da macht es, insbesondere mit Konkurrenz auf dem Markt, durchaus Sinn, nochmal den Prügel herauszuholen, den besten Speicher, den man finden kann, draufzuklatschen, und somit nochmal 20%+ an Performance zu gewinnen. Ich würde wetten, dass Ampere ohne RNDA 2 anders ausgefallen wäre und die Leute natürlich trotzdem heftig gekauft hätten. ;D
Na gut, gehen wir noch einen Schritt weiter und vergleichen die RTX 3090 bei der gleichen Leistungsaufnahme mit der RX 6900 XT der Konkurrenz. Hier hätte ich eigentlich erwartet, dass die 6900 XT der RTX 3090 deutlich davonläuft. Dies scheint allerdings nicht der Fall zu sein. Jedenfalls nicht in diesem Benchmark. Die beiden Architekturen sind bei rund 300 Watt gleichauf. Ampere ist gegen RDNA 2 folglich gar nicht so ineffizient, wie man meinen mag? Hat Nvidia die eigenen Karten mit Speicher und Strom einfach nur so hochgeprügelt, dass man RDNA 2 knapp beim Rasterizing geschlagen hat?
Auf der anderen Seite halte ich es allerdings auch für sehr beeindruckend, dass Nvidia bei der Effizienz nicht eindeutig zurückliegt. Obwohl man mit Samsungs 8nm Fertigung gegen TSMCs 7nm Fertigung durchaus rund 1,5 Nodes schlechter dasteht. Hier kann AMD sich echt nicht ausruhen. Besonders, wenn die beiden bald dieselbe Fertigung (TSMCs 5nm) verwenden sollten oder Nvidia mit 4nm gar eine minimal fortgeschrittenere Fertigung heranzieht. Dank MCM und jeder Menge Konkurrenz auf dem Markt wird die nächste GPU-Generation sowieso die spannendste seit... ja seit 20 Jahren oder so...
Wie auch immer, die RTX 3080 bei rund 330 Watt ist ein Ausreißer. Sie scheint bei derselben Leistungsaufnahme tatsächlich etwa 10% ineffizienter zu sein, als RTX 3080 Ti und RTX 3090.
Und ja, die RTX 3080 Ti.
Sie verhält sich exakt so, als wäre es eine RTX 3090 mit etwas weniger TDP. :freak: Ich hätte wenigstens ein ETWAS anderes Verhalten erwartet. Dasselbe Verhalten beobachte ich übrigens auch, wenn ich der 3080 Ti ein höheres Powerlimit gönne. Sie profitiert genauso wie eine RTX 3090, trotz 256 fehlenden FP32-Einheiten. Dazu muss ich anmerken, dass meine RTX 3090 aus dem Jahr 2020 stammt, meine RTX 3080 Ti jedoch aus 2022. Eventuell hat sich zwischen dem Anfang der Lebenszeit der Karten und dessen baldigem Ende einfach die Fertigung etwas verbessert, was die 256 FP32-Einheiten tatsächlich auscancelt.
Im folgenden Diagramm kann der während der Tests angelegene GPU-Takt betrachtet werden, welcher, wie erwartet, mit steigender Leistungsaufnahme zunimmt.
Schon häufiger konnte ich beobachten, dass ein positiver Offset der GPU-Taktrate nicht in jedem Falle zu einem reellen höheren Durchschnittstakt führt.
https://i.ibb.co/3y9JXKX/MHz-Curve.png (https://i.ibb.co/W2zQcKP/MHz-Curve.png)
Zu guter Letzt seht ihr noch einmal die aus den FPS pro Watt errechnete Effizienz der Karte bei den unterschiedlichen Leistungsaufnahmen.
https://i.ibb.co/VN84R7N/Pp-W-Curve.png (https://i.ibb.co/5GkXn5n/Pp-W-Curve.png)
Übertaktet arbeitet die Karte tatsächlich ein wenig effizienter, da sie es schafft, bei der gleichen Leistungsaufnahme einen höheren Takt zu fahren.
Das Effizienzmaximum liegt im Heaven-Benchmark bei rund 240 Watt.
So, hat mich etwas Zeit gekostet. ;D
Hoffe der ein oder andere kann für sich etwas Interessantes aus diesen Messungen ziehen.
ChaosTM
2022-03-28, 00:41:52
Richtig geil Punkto effizienz sind 3070/3080/ und vor allem die 6800 er mobile - letztere saugt leider bei DLSS und RT..
Leonidas
2022-03-28, 04:34:21
RTX 3090 Performance bei verschiedenen Powerlimits
Exzellente Arbeit!
rentex
2022-03-28, 06:07:54
@Geldmann3 Danke für diese irre Arbei.
Achill
2022-03-28, 10:37:36
[B][SIZE="5"]
[..]
Na gut, gehen wir noch einen Schritt weiter und vergleichen die RTX 3090 bei der gleichen Leistungsaufnahme mit der RX 6900 XT der Konkurrenz. Hier hätte ich eigentlich erwartet, dass die 6900 XT der RTX 3090 deutlich davonläuft. Dies scheint allerdings nicht der Fall zu sein. Jedenfalls nicht in diesem Benchmark. Die beiden Architekturen sind bei rund 305 Watt gleichauf. Ampere ist gegen RDNA 2 folglich gar nicht so ineffizient wie man meinen mag? Hat Nvidia die eigenen Karten mit Speicher und Strom einfach nur so hochgeprügelt, dass man RDNA 2 knapp beim Rasterizing geschlagen hat?
Auf der anderen Seite halte ich es allerdings auch für sehr beeindruckend, dass Nvidia bei der Effizienz nicht eindeutig zurückliegt. Obwohl man mit Samsungs 8nm Fertigung gegen TSMCs 7nm Fertigung durchaus rund 1,5 Nodes schlechter dasteht. Hier kann AMD sich echt nicht ausruhen. Besonders, wenn die beiden bald dieselbe Fertigung (TSMCs 5nm) verwenden sollten oder Nvidia mit 4nm gar eine minimal fortgeschrittenere Fertigung heranzieht. Dank MCM und jeder Menge Konkurrenz auf dem Markt wird die nächste GPU-Generation sowieso die spannendste seit... ja seit 20 Jahren oder so...
[..]
Viel Arbeit und Danke dafür, der Teil mit dem Vergleich zu AMD ist aber beim gewählten Benchmark ggf. nicht optimal. Ich weiß nicht ob AMD nicht noch immer eine Schwäche bei viel Tess hat im Vergleich zu NV ... das müsste man im Vorfeld prüfen ansonsten wird die Aussage auf DX11 Spiele mit viel Tess eingeschränkt.
--
Edit: Ein sehr schneller Test der zeigt, wie eine 6900XT skaliert (1440p, alles Ultra) über die Tess Stufen (mittels Treiber), ist eine Stelle gleich am Anfang wo man über den Weg fliegt ..
0x -> 171 fps
2x -> 154 fps
4x -> 142 fps
8x -> 124 fps
16x -> 113 fps
32x -> 112 fps
64x -> 112 fps
Via Heaven Settings:
Off -> 182 fps
Moderate -> 152 fps
Normal -> 140 fps
Extrem -> 112 fps
Platos
2022-03-28, 12:32:18
Wow krass! Geile Arbeit. Sowas wünschte ich mir eig. von Testseiten!
Genau das Interessiert einen doch (hier im Forum). Egal obs sich nun um den Stromsparer handelt oder um den Overclocker. Oder auch nur aus rein technischem Interesse.
Aber dann ist bei dieser Karte für mich persönlich bis 240W noch sinnvoll Leistung zu holen und bei 255W dann achon nicht mehr. Da gibts dann auch nen krassen Knick in der Kurve. Aber spätestens bei 300W kommt dann der entgültige Knick, wo mehr nicht mehr viel bringt.
Da kann ich nur sagen: PCGH und andere können sich da gerne mal ein Beispiel nehmen! Sowas brauchen wir. Excellenter Test!
WedgeAntilles
2022-03-28, 12:39:05
Wow krass! Geile Arbeit. Sowas wünschte ich mir eig. von Testseiten!
Genau das Interessiert einen doch (hier im Forum). Egal obs sich nun um den Stromsparer handelt oder um den Overclocker. Oder auch nur aus rein technischem Interesse.
Aber dann ist bei dieser Karte für mich persönlich bis 240W noch sinnvoll Leistung zu holen und bei 255W dann achon nicht mehr. Da gibts dann auch nen krassen Knick in der Kurve. Aber spätestens bei 300W kommt dann der entgültige Knick, wo mehr nicht mehr viel bringt.
Da kann ich nur sagen: PCGH und andere können sich da gerne mal ein Beispiel nehmen! Sowas brauchen wir. Excellenter Test!
Jepp, das ist wirklich phantastisch!
IMO ist es bis 255W sinnvoll (der Sprung von 240 auf 255 lohnt sich, das ist fast noch 1:1!), danach flacht es massiv ab.
Der_Korken
2022-03-28, 12:56:10
Bei rund 130 Watt generiert die RTX 3090 40% weniger FPS als die RX 6600 bei derselben Leistungsaufnahme. Natürlich hätte man an dieser Stelle nicht unbedingt etwas anderes erwartet, alsdass die kleinere Karte in ihrem Territorium wesenlich effektiver arbeitet. Wobei ich mir manchmal doch die Hoffnung gemacht habe, dass eine große, sehr niedrig getaktete GPU, viel effizienter arbeiten könnte.
[...]
Bei 170 Watt misst die RTX 3090 sich mit der RTX 3060. Hier war ich etwas überrascht. Die kleine Ampere-Karte scheint exakt so effizient zu sein, wie das Flagschiff, welches man lediglich seiner extremen Leistungsaufnahme beraubt hat. Ampere scheint nach unten nicht ansatzweise so gut zu skalieren wie RDNA 2. Hier erkennt man eventuell ein wenig, dass AMD RDNA 2 von Anfang an auf Skalierbarkeit, bis hinein ins Low-Power-Mobile-Segment getrimmt hat.
Dieses Phänomen könnte auch dem IMC und dem GDDR6X geschuldet sein. Bei der 3070Ti hat man ja schon gesehen, dass GDDR6X ein Schluckspecht ist und ich vermute mal, dass der Speichertakt vom Powermanagement nicht mit runtergetaktet und undervoltet wird wie die GPU selbst. Dadurch nehmen VRAM+IMC mit sinkendem Powerlimit immer mehr Anteil ein. Würdest du bei 130W den VRAM-Takt halbieren und IMC+VRAM undervolten können (oder alternativ das halbe SI ausknipsen), würde die GPU bei 130W sicherlich deutlich schneller sein.
Geldmann3
2022-03-28, 13:03:42
Dieses Phänomen könnte auch dem IMC und dem GDDR6X geschuldet sein. Bei der 3070Ti hat man ja schon gesehen, dass GDDR6X ein Schluckspecht ist und ich vermute mal, dass der Speichertakt vom Powermanagement nicht mit runtergetaktet und undervoltet wird wie die GPU selbst. Dadurch nehmen VRAM+IMC mit sinkendem Powerlimit immer mehr Anteil ein. Würdest du bei 130W den VRAM-Takt halbieren und IMC+VRAM undervolten können (oder alternativ das halbe SI ausknipsen), würde die GPU bei 130W sicherlich deutlich schneller sein.
Ja, Ähnliches habe ich auch vermutet. Der Vram wird bei der RTX 3090 einen beträchtlichen Teil des Hungers ausmachen.
Zudem lässt sich an Bastler sagen, dass sich mit Tweaking bei den jeweiligen TDP Stufen teilweise noch einige % rausholen lassen. Meiner Erfahrung nach. - Oft bewegen wir uns allerdings auch schon sehr nah am Limit, mit den +125Mhz. Man kann noch mit Undervolting experimentieren etc.
Wobei ich es eher aus Interesse gemacht habe, als aus der Lust am Untertakten. Denn zu 99% ,,idelt" die Karte bei mir und da zieht sie eh nicht viel. Und beim Zocken bin ich für jedes FPS dankbar.
Das beschränkt sich bei mir momentan aber auch auf 2h die Woche oder so. Wenn man 8h täglich ohne Framelock zockt, ist das was Anderes.
Benchmarke sicher mehr als zu zocken.^^
iamthebear
2022-03-28, 23:53:30
Das sind sehr interessante Ergebnisse und ich bin ehrlich gesagt überrascht wie viel Performance die 3090 geringer TDP eigentlich verliert.
Meine Vermutung:
.) Die 3090 hat einen relativ hohen Grundverbrauch, der eventuell dem GDDR6X Interface geschuldet ist und wenn dieses nicht (wie im Idle) runter getaktet wird, dann landen um die 100W im Nirvana.
.) Bei 240W gibt es auch einen relativ unüblichen Knick. Eine Erklärung könnte sein, dass Nvidia die Spannungskurve ab 240W abwärts nicht gut getuned hat, da sie nicht davon ausgegangen sind, dass die Karte mit der TDP betrieben wird. Auf jeden Fall sieht die Kurve komplett anders aus als das was man z.B. bei CPUs gewohnt ist.
.) Eine andere Erklärung könnte sein, dass der Takt über 300W theoretisch noch etwas mehr ansteigen könnte allerdings dieser durch die Temperatur gedrosselt wird.
Ich vermute stark, dass die Mobile Karten (z.B. 3080 Ti mit GA103) eine andere Spannungskurve haben bzw. da auch das Speicherinterface mit angepasst wird weil doese Karten müssen ja eine viel größere Bandbreite and TDP Modi abdecken z.B. im Akkubetrieb.
Geldmann3
2022-03-29, 00:20:15
Die GPU Temperatur der RTX 3090 lag bei maximal 78°C und das Temperaturlimit bei 91°C, sollte also kein Problem gewesen sein.
Geldmann3
2022-03-29, 12:15:55
RTX 3090 Performance bei verschiedenen Powerlimits
Nach rund 1,5 Jahren mit der Karte, habe ich nun eine kleine TDP-Kurve zur RTX 3090 erstellt.
Auf dieser ist zu sehen, wie sich unterschiedliche Powerlimits auf die Performance der Karte auswirken.
Dabei habe ich lediglich das Powerlimit mit dem MSI-Afterburner verschoben. (Orangene Linie)
Bei einem weiteren Durchlauf habe ich die GPU gleichzeitig um 125Mhz übertaktet, dies war das Maximum, was auf allen TDP-Stufen stabil lief. (Blaue Linie)
Natürlich hätte man bei jeder TDP-Stufe noch stundenlang tunen können, doch meine Zeit ist leider endlich.
Alles in allem, vermute ich, dass wir hier etwa jene Performance sehen, mit welcher Nvidia die Karte ausgeliefert hätte, wenn das jeweilige TDP-Limit ausreichend gewesen wäre, um das Performanceziel zu erreichen.
https://i.ibb.co/58tQxXm/RTX-3090.png (https://i.ibb.co/DKRF0RJ/RTX-3090.png)
Bei rund 130 Watt generiert die RTX 3090 40% weniger FPS als die RX 6600 bei derselben Leistungsaufnahme. Natürlich hätte man an dieser Stelle nicht unbedingt etwas anderes erwartet, alsdass die kleinere Karte in ihrem Territorium wesenlich effektiver arbeitet. Wobei ich mir manchmal doch die Hoffnung gemacht habe, dass eine große, sehr niedrig getaktete GPU, viel effizienter arbeiten könnte. Beachtenswerter-Weise gewinnt die RTX 3090 bei 130 Watt immerhin 50% Performance hinzu, wenn ich sie beim gegebenen Powerlimit um 125MHz übertakte. Ich nehme an, je weiter wir uns von ihrem natürlichen Powerlimit entfernen, desto weniger hat Nvidia die Taktkurve optimiert. Jedoch kann ich auch nicht viel höher als 125Mhz+ gehen, da mein Rechner sonst auch hier gerne mal einen Blackscreen erleidet.
Bei 170 Watt misst die RTX 3090 sich mit der RTX 3060. Hier war ich etwas überrascht. Die kleine Ampere-Karte scheint exakt so effizient zu sein, wie das Flagschiff, welches man lediglich seiner extremen Leistungsaufnahme beraubt hat. Ampere scheint nach unten nicht ansatzweise so gut zu skalieren wie RDNA 2. Hier erkennt man eventuell ein wenig, dass AMD RDNA 2 von Anfang an auf Skalierbarkeit, bis hinein ins Low-Power-Mobile-Segment getrimmt hat.
Bis zum Bereich von rund 240 Watt gewinnt Ampere noch massiv an Performance hinzu. Danach gibt es zwar noch Gewinne, allerdings flacht die Kurve an dieser Stelle doch deutlich ab. Hätte Nvidia die RTX 3090 auf die Leistungsaufnahme einer RTX 2080 Ti limitiert, so hätte diese nur etwas mehr als 20% besser performt, als die alte Topkarte. Da macht es, insbesondere mit Konkurrenz auf dem Markt, durchaus Sinn, nochmal den Prügel rauszuholen, den besten Speicher, den man finden kann, draufzuklatschen, und somit nochmal 20%+ Performance zu gewinnen. Ich würde wetten, dass Ampere ohne RNDA 2 anders ausgefallen wäre und die Leute natürlich trotzdem heftig gekauft hätten. ;D
Na gut, gehen wir noch einen Schritt weiter und vergleichen die RTX 3090 bei der gleichen Leistungsaufnahme mit der RX 6900 XT der Konkurrenz. Hier hätte ich eigentlich erwartet, dass die 6900 XT der RTX 3090 deutlich davonläuft. Dies scheint allerdings nicht der Fall zu sein. Jedenfalls nicht in diesem Benchmark. Die beiden Architekturen sind bei rund 305 Watt gleichauf. Ampere ist gegen RDNA 2 folglich gar nicht so ineffizient wie man meinen mag? Hat Nvidia die eigenen Karten mit Speicher und Strom einfach nur so hochgeprügelt, dass man RDNA 2 knapp beim Rasterizing geschlagen hat?
Auf der anderen Seite halte ich es allerdings auch für sehr beeindruckend, dass Nvidia bei der Effizienz nicht eindeutig zurückliegt. Obwohl man mit Samsungs 8nm Fertigung gegen TSMCs 7nm Fertigung durchaus rund 1,5 Nodes schlechter dasteht. Hier kann AMD sich echt nicht ausruhen. Besonders, wenn die beiden bald dieselbe Fertigung (TSMCs 5nm) verwenden sollten oder Nvidia mit 4nm gar eine minimal fortgeschrittenere Fertigung heranzieht. Dank MCM und jeder Menge Konkurrenz auf dem Markt wird die nächste GPU-Generation sowieso die spannendste seit... ja seit 20 Jahren oder so...
Wie auch immer, die RTX 3080 bei rund 325 Watt ist ein Ausreißer. Sie scheint bei derselben Leistungsaufnahme tatsächlich mehr als 10% ineffizienter zu sein, als RTX 3080 Ti und RTX 3090.
Und ja, die RTX 3080 Ti.
Sie verhält sich exakt so, als wäre es eine RTX 3090 mit etwas weniger TDP. :freak: Ich hätte wenigstens ein ETWAS anderes Verhalten erwartet. Dasselbe Verhalten beobachte ich übrigens auch, wenn ich der 3080 Ti ein höheres Powerlimit gönne. Sie profitiert genauso wie eine RTX 3090, trotz 256 fehlenden FP32-Einheiten. Dazu muss ich anmerken, dass meine RTX 3090 aus dem Jahr 2020 stammt, meine RTX 3080 Ti jedoch aus 2022. Eventuell hat sich zwischen dem Anfang der Lebenszeit der Karten und dessen baldigem Ende auch einfach die Fertigung etwas verbessert, was die 256 FP32-Einheiten tatsächlich auscancelt.
So, hat mich etwas Zeit gekostet. ;D
Hoffe der ein oder andere kann für sich etwas Interessantes aus diesen Messungen ziehen.
LINK
(https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12963231#post12963231)
Es hat zwar keiner angemeckert, doch ich habe meine Messungen nochmal auf Validität geprüft, hinsichtlich, ob es überhaupt Sinn ergibt einfach das Power-Limit zu senken...
Die Antwort lautet: ...Jaaa, pretty much...
Habe versucht gleichzeitig zu undervolten, das führte in extremen Ausnahmen zu bis zu 10% mehr Performance, was allerdings manchmal nach wenigen Sekunden wieder verschwand. Zudem lief das System so nicht mehr stabil. (Blackscreens) Was beim Testen sehr kontraproduktiv ist, da danach mindestens ein Rechnerneustart nötig war.
Ich habe versucht weiter zu übertakten und tatsächlich sah ich so gigantische Performancesprünge von bis zu 100%. Da dachte ich zuerst woooaaa :)
Bis ich gesehen habe, dass die Leistungsaufnahme des Systems dann auch hochging, also das Powerlimit zunehmend ignoriert wurde. So hatte ich plötzlich 170W statt 130 Watt Verbrauch der Grafikkarte. Habe ich die so entstehende Performance dann mit jener aus meiner Tabelle für dasselbe Powerlimit ohne OC verglichen, kam es auf dasselbe hinaus. Macht also auch keinen Sinn.
Ich habe versucht den Speicher zu untertakten, um dort Strom für die GPU zu sparen. Das hat praktisch tatsächlich am meisten gebracht. Ja, manchmal schon +7% in den unteren Regionen. Doch die Ernüchterung kam, als ich aus meiner statischen Szene rausging. Dann hatte ich manchmal gar keine oder gar weniger FPS. Also auch nicht so das Wahre.
Bis darauf, dass die Taktkurve der Karte bei unterschiedlichen Powerlimits wohl auf Stabilität getrimmt ist, scheint sie mir durchaus schon hochoptimiert zu sein.
Alles in allem würde ich bei Gelegenheit gerne nochmal die Kurven für GPU-Takt und Speicher Plotten, ansonsten war die Methodik ganz okay, denke ich. Andere Workloads wären auch nochmal interessant, falls ich Zeit dafür finde.
Sorry, habe gar nicht bemerkt, dass ich direkt vor diesem schon einen Post erstellt hatte, sonst hätte ich diesen editiert.
BlacKi
2022-03-29, 13:46:22
@geldmann, heaven ist kein pc spiel, es ist ein bandbreitensimulator. aber selbst unter echten spielen gibt es brutale unterschiede im verbrauch, und speicherabhängigkeit.
heaven führt nur alle in die irre. bitte versuche deinen benchmark zu erweitern, damit niemand falsche schlüsse zieht.
Geldmann3
2022-03-29, 13:55:46
Gibt es ein Game, welches Du speziell empfehlen würdest?
BlacKi
2022-03-29, 14:08:32
pubg skaliert fast nicht mit speichertakt. praktisch das gegenteil von heaven. ansonsten ist jedes game besser als heaven. pubg skaliert auch noch mit 400w bei der 3090, weil dort nicht der max takt erreicht werden kann mangels tdp limit.
ein gutes spiel könnte auch ein solches sein, wo eben selbst mit 375-400w keine 1900mhz anliegen können, weil das tdp limit nicht ausreicht.
3090 Thai, anyone? :naughty:
RTX 3090 Ti im Test: Ampere will es mit 450 Watt und 2.249 Euro UVP noch einmal wissen (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
MfG
Raff
r3ptil3
2022-03-29, 15:18:52
Wir sind nun an dem Punkt angelangt, an dem kein Weg an einer wassergekühlten Lösung vorbeiführt.
Die ASUS Strix LC geht auf bis zu 2214 Mhz hoch mit OC.
BlacKi
2022-03-29, 15:25:45
3090 Thai, anyone? :naughty:
RTX 3090 Ti im Test: Ampere will es mit 450 Watt und 2.249 Euro UVP noch einmal wissen (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
MfG
Raff
für schnelle drüberscroller sind die benchmarks aber echt nicht gedacht. das man manuell die 4k balken bei jedem spiel erst aktivieren muss, ist echt nicht nice.
Megamember
2022-03-29, 15:33:59
Die Benchmarks erzeugen bei mir nur ein Schulterzucken. Keine Ahnung wieso man auf sowas von einer 3090 oder 3080TI aufrüsten soll. Erinnert mich an Produkte wie die 1070Ti oder AMDs 3800XT, minimal schneller aber wayne.
BlacKi
2022-03-29, 15:38:18
wie kommt man auf so ideen?
Linmoum
2022-03-29, 15:40:10
Die Benchmarks erzeugen bei mir nur ein Schulterzucken. Keine Ahnung wieso man auf sowas von einer 3090 oder 3080TI aufrüsten soll. Erinnert mich an Produkte wie die 1070Ti oder AMDs 3800XT, minimal schneller aber wayne.Die Frage ist, warum man generell zugreifen sollte. Scheinen die AiB ähnlich zu sehen, die knausern ja schon bei 450W und liefern Mistkühlung ab.
Leonidas
2022-03-29, 16:11:39
3090Ti hat eigenen Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=610384
Geldmann3
2022-03-31, 00:23:10
Habe meine kleine Ausarbeitung zur Performance der RTX 3090 im Heaven Benchmark bei unterschiedlichen Power-Limits (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12963231#post12963231) nochmal überarbeitet. Denn ich habe meine Messmethodiken enorm verbessert, was zu wesentlich präziseren Messungen geführt hat. Zudem habe ich einen Graphen hinzugefügt, welcher die Taktentwicklung der Karte bei den jeweiligen Power-Limits zeigt. Weiterhin habe ich die Wattstufen angepasst, sodass der Werteanstieg linear ist. Und als letztes Schmankerl, kann nun auch die Effizienz pro Watt bei den unterschiedlichen Power-Limits betrachtet werden.
Alle Messungen wurden erneut vorgenommen.
Das Ganze habe ich als Vorbereitung für zukünftige Benchmarks gemacht, um mir sozusagen ein stabileres Framework zu schaffen.
Man sieht, dass die Kurven jetzt wesentlich glatter sind, da wesentlich mehr Samples für die einzelnen Messungen herangezogen wurden.
Control würde ich mir in nächster Zeit natürlich auch gerne mal vornehmen, um herauszufinden, ob ich zum selben Ergebnis wie Hardwareluxx komme.
Finde es doch faszinierend, dass der Sweetspot dort bei angeblich 350 Watt liegt. Oder ist es die 3090 Ti, die sich gänzlich anders verhält? Spannend...
Wobei es prinzipiell Sinn ergibt. Die RT-Cores sind dort aktiv, die Leistungsaufnahme wird also auf mehr Hardwareeinheiten verteilt, die bei der hohen Leistungsaufnahe jeweils näher an ihrem Sweetspot laufen.
BlacKi
2022-03-31, 10:20:54
unter 230w fängt die karte an in stromsparmodi zu wechseln, das war schon beim mining sinnlos unter 230w zu gehen. gäbe es weiter 12mhz boost clock abstufungen und der speicher würde seinen takt nicht halbieren, könnte die maximale effizienz auch unter 230w zu finden sein. da fehlt dem bios aber boosttable, das bios limitiert hier weitere effizienzsteigerungen durch herabsenken der tdp.
ChaosTM
2022-03-31, 10:26:49
@Geldmann3 - sweetspot so bei 250 Watt - wie erwartet. Sehr interessant, Danke.
Sweepi
2022-03-31, 11:30:10
pubg skaliert fast nicht mit speichertakt. praktisch das gegenteil von heaven. ansonsten ist jedes game besser als heaven. pubg skaliert auch noch mit 400w bei der 3090, weil dort nicht der max takt erreicht werden kann mangels tdp limit.
Hat pubg ein Demo-Feature?
Gibt es neben Counter-Strike noch andere Multiplayer-Shooter, welche Demos aufnehmen können, und sich daher für wiederholbare Benchmarks eignen?
EDIT: PUBG hat ein Demo-Feature. Ob es sich für Benchmarks eignet ist mir noch unklar:
https://support.faceit.com/hc/en-us/articles/360021904859-How-to-download-and-watch-a-PUBG-demo
BlacKi
2022-03-31, 12:58:42
rein um grafikpower zu messen könnte man auch das hauptmenü nehmen. die grafiklast ist dort sogar höher als im spiel.
was du meinst ist die replay funktion. ja die gibts.
€dit: im browser XD, das kannte ich noch nicht.
Daredevil
2022-12-29, 02:57:01
PS: DIES IST DER 3090 THREAD
Sagt mal, ihr lieben FE Nutzer, wie schauts bei euch mit dem Spulenfiepen aus?
Die FE war ja eh noch nie ein Leisetreter ( bei mir ) mit meinem Seasonic Netzteil, aber es wird und wird gefühlt immer schlimmer. :ugly:
Das Spulenfiepen ist bei WoW@120fps das einzige was ich höre aus dem gedämmten Rechner. CPU Lüfter sind bei 300rpm, GPU bei 800rpm @ 180w und die Kiste rasselt sich einen zurecht, das es mittlerweile richtig nervt. Gefühlt ist es wie gesagt schlimmer geworden.
Hat jemand mal Erfahrung mit der RMA bei Nvidia bzw. NBB gemacht und wäre das überhaupt ein Grund? Weil so gern ich die Karte auch habe, mein "Silent" Konzept geht dort komplett vor die Hunde. :usad:
In etwa so:
5fluc5y-CZI
PS: Der YT Dude hat vor nem Jahr das geschrieben:
any updates on this? mine isn't nearly as bad but I'm gonna try a new psu to see whats up.
Yes actually! Just got my replacement from Nvidia yesterday and its wayyyyy quieter. I can't hear the whine when my side panel is closed even at 4k 250fps in Rocket League!
Das wäre natürlich nett.... zur Not nehme ich aber auch ne 4080/4090. :ugly:
IC3M@N FX
2022-12-29, 11:31:17
Edit: Falscher Thread
Slipknot79
2022-12-29, 12:42:23
€dit: Auch falscher Fred ^^, dachte es ist hier 4090 FE gemeint.
Daredevil
2022-12-29, 15:04:08
Ja sorry, ich hab halt noch Steinzeit Hardware. :D
IC3M@N FX
2022-12-29, 17:22:47
Ja sorry, ich hab halt noch Steinzeit Hardware. :D
Die RTX 3090 wird noch mindestens 2-3 Jahre für alle Spiele reichen in High/Ultra Qualtiy bei 60+ FPS, sie wird gut altern wegen 24GB Speicher.
Vor allem ist die RX 7900 XT & RTX 4070 TI als obere Performance Budget Karte ja auch nicht wirklich viel schneller als die RTX 3090😊.
IC3M@N FX
2022-12-29, 17:25:24
Edit: Doppelt
Daredevil
2022-12-29, 18:08:59
Ja, ist mir klar, war auch nur ein Joke. :)
Ich habe mal Nvidia angeschrieben, die haben gesagt, dass es mit NT und Mainboard zusammen hängen kann, ist ja keine Neuigkeit für mich, trotzdem mag ich es mal versuchen. Mit der Asus TuF war ja alles leise, also ist es m.M. erstmal Primär die FE, die schuld ist.
Die wollten ein Video haben, das habe ich ihnen mal geschickt:
M1dvRWoA2Yw
Mal schauen was draus wird.
Ist für mich kein Zustand, dass ich die 3090 nicht ausfahren kann, weil mich das Fiepen wahnsinnig macht. Also Undervolte ich und kann die 120fps nicht halten oder senke Details, damit die Karte nicht so belastet wird. Ist ja nicht Sinn der Sache, ich brauche jedes % Leistung bei 4K120.
r3ptil3
2022-12-29, 18:31:14
ich brauche jedes % Leistung bei 4K120.
Was du brauchst ist eine RTX 4090.
hq-hq
2022-12-29, 18:55:58
Okay meine klingt so nicht, bissl Buzzing bei hoher Last und leises Pfeiffen bei hohen FPS, bei dir klingt das fast wie Lüfter die was streifen. Mir ist bei Mobo und Netzteilwechsel kein Unterschied aufgefallen. Beweisvideo sollte funktionieren. Den 4090 Vorschlag find ich gut, welche nur wäre geräuschlos?
Daredevil
2022-12-29, 18:59:48
Ich habe ja nichts gegen Spulenfiepen oder rasseln, mir war aber nicht bewusst, dass es eher mit der Zeit schlimmer wird. :usad:
Demnach würde ich einfach ne FAG Party schmeißen bei den nächsten Karten, die annähernd störend sind, einfach weil ich nicht nach 2 Jahren möchte, das es komplett eskaliert, so wie beinahe jetzt. ^^
@bardh
Tru Story, aber ich zocke atm. nur WoW, da "reicht" das gerade so aus. ( RT muss aber aus :( )
hq-hq
2022-12-29, 22:21:14
Ich habe ja nichts gegen Spulenfiepen oder rasseln, mir war aber nicht bewusst, dass es eher mit der Zeit schlimmer wird. :usad:
Demnach würde ich einfach ne FAG Party schmeißen bei den nächsten Karten, die annähernd störend sind, einfach weil ich nicht nach 2 Jahren möchte, das es komplett eskaliert, so wie beinahe jetzt. ^^
@bardh
Tru Story, aber ich zocke atm. nur WoW, da "reicht" das gerade so aus. ( RT muss aber aus :( )
vielleicht sind deine Pads alle ausgelutscht und ausgeölt und dämpfen/dämmen das Getöse der Spulen nicht mehr so gut... weisst ja die schwitzen zumindest beim RAM recht stark... an den Bauteilen sollte es eher weniger liegen, kann ich mir nicht vorstellen:freak:
- hab meine ja wegen Umbau zwangsläufig mal erneuert
Daredevil
2023-01-06, 21:05:45
Kann sein, ich habe ja auch 1-2 ETH damit geschürft. :D
Ändert aber nichts daran, dass die Kiste funktionieren muss, egal was und wie lang ich damit was mache.
Update zum Nvidia Coil Whine RMA, falls es wen interessiert:
Die möchten nun von mir, dass ich ne halbe Stunde Gaming mit GPUz Sensoren logge, für whatever Reasons.
sapito
2023-01-06, 21:31:32
Update zum Nvidia Coil Whine RMA, falls es wen interessiert:
Die möchten nun von mir, dass ich ne halbe Stunde Gaming mit GPUz Sensoren logge, für whatever Reasons.
WTF > ein HW info full log (als .csv) wäre inhaltsreicher ... und professioneller XD
vinacis_vivids
2023-01-07, 12:25:12
Auf Twitter - Bullzoid wird von brennenden 3090er berichtet. NV versucht das zu vertuschen.
r3ptil3
2023-01-07, 12:54:00
WTF > ein HW info full log (als .csv) wäre inhaltsreicher ... und professioneller XD
:D
Ich will nicht wissen wie AMD die Hotspot-Temp-Problematik analysiert hat... "Komm, schauen wir mal was Youtube sagt". :freak:
Daredevil
2023-02-09, 10:53:13
Kleines Update zum Coin Whining:
Die wirklich sehr hilfreiche und nette Mitarbeiterin, die mit seit Tag 1 schreibt hat mich nach dem GPUz Log nun gebeten, die Karte in einem anderen System zu testen, da es am Mainboard oder Netzteil liegen kann und nicht die GPU schuld sein muss.
Völlig legitim, denke ich, ich habe aber leider keine zwei Rechner hier rumfliegen, also kann ich an der Stelle nichts testen. Ein anderes Netzteil sowohl Mainboard habe ich auch nicht.
Das Coin Whining hatte ich aber ursprünglich mit der Asus ja gar nicht und die FE war am Start eigentlich auch deutlich leiser. Aber nun gut.
Ich habe sie nun gebeten, dass sie doch bitte die Karte testen sollen, da ich das nicht kann.
Meeeeeep. Nvidia kann nur RMAs bearbeiten, kann aber nicht die "Karte testen", also geht die "Kundenarbeit" weiter, indem ich abermals ein Video anfertigen soll, wo das Coin Whining besser zu hören ist.
Als Beispiel für eine Tonaufnahme hat sie mir ein 10 Jahre altes Video von LinusTechTipps hinzugefügt.
Genau diese Stelle: https://www.youtube.com/watch?v=HP73edpQwgc&t=105s
Ich finds irgendwie ärgerlich, aber andernfalls auch sympathisch. :D
Ich mach denen jetzt mal ein Coinwhine Video mit Geräuschen aus der Hölle. :freak:
Edit: Ahja, eine Option für mich war noch, dass die die Fe im "Debug Modus" aka Referenz Takt betreibe. Das ist natürlich sicherlich hilfreich, ich muss aber 4k120 bespielen und keine FHD60, ich brauche die Leistung. ( Ja ich weiß, ich brauche eigentlich ne 4090 :D )
seaFs
2023-02-09, 11:11:01
Was ist Coin Whining? Hat das was mit BitCoin zu tun?
Daredevil
2023-02-09, 11:32:49
Lol. :D
Meine Hände machen wohl automatisch aus Coil ein Coin, wenn ich mit "Coi" anfange, haha. Muscle Memory at its finest! Hier das Video, mal schauen was sie damit nun anfangen. ^^
OqbQqKabKg4
Daredevil
2023-02-22, 16:51:49
Meine Karte wird nun Morgen abgeholt zur RMA, bin gespannt wie lange das nun dauert.
Das Timing zum Release von Atomic Heart ist jetzt nicht unbedingt das beste, aber nun gut. :D
Daredevil
2023-03-08, 20:30:32
Eine versiegelte Karte ist heute aus der RMA wieder angekommen. Freudig eingebaut, Spiel gestartet > Kein bzw. kaum Spulenrasseln mehr. Full of Win!
Ernüchterung kam im "Idle" mit aktiviertem Nvidia Broadcast, welches ich fürs streaming brauche und was im "Leerlauf" ca. 100w zieht. Einer der beiden Lüfter ist extrem ekelhaft am klackern bei 800rpm, das ist völlig unakzeptabel. Also geht das RMA Spiel nun wieder von vorne los.... Computer sind einfach scheiße. :udown:
horn 12
2023-03-08, 20:41:47
Lass in bitte einlaufen oder setze die Umdrehungen niedriger , höher bis das Klackern weg ist.
Wieder Russisch Roulette spielen wird auch nicht einfacher!
Daredevil
2023-03-08, 20:52:50
Lüfter einlaufen lassen? Really? Habe ich noch nie von gehört, bin aber offen für neues. :usad:
Ich kann sie nicht niedriger laufen lassen, 800rpm ist min bei 100w und so laufen die permanent.
Mal n Tag auf volle pulle laufen lassen, oder was soll ich machen?
Daredevil
2023-11-03, 22:30:56
Edit: Oh. Kleines Update zu den Posts davor. Nvidia hat die 3090 einmal wegen Spulenrasseln und einmal wegen Lüfterrasseln ausgetauscht. Die Karte nun ist ganz fantastisch, bist auf folgende Geschichte:
Wer im Winter mal Lust hat, die 3090 Founders Edition zu "warten", dem empfehle ich neue WLPaste und vor allem auch neue WLPads, weil die Stock Dinger von Nvidia einfach nur Schmutz sind. :D
Ich merke das beim GPU Mining, dass die Mem Temp immer sporadisch auf über 100°C ging und dann gedrosselt wurde, das habe ich nun behoben.
Ein 200x100x1.5mm Pad von Arctic hat bei mir locker gereicht, als WLP habe ich die MX6 benutzt.
Settings: 1530/9000, 0.725v, KAWPOW GPU Mining bei 320w
Test1:
Vorher mit Default Lüfterkurve:
GPU Temp: 61°C
Hot Spot: 73°C
Mem Temp: 106°C
Fan: 2600rpm
Test2:
Nachher mit Default Lüfterkurve:
GPU Temp: 65°C +4°C
Hot Spot: 76°C +3°C
Mem Temp: 96°C -10°C
Fan: 1070rpm -1530rpm
Test3:
Nachher mit gleicher RPM wie Test 1:
GPU Temp: 53°C -8°C
Hot Spot: 65°C -8°C
Mem Temp: 82°C -24°C
Fan: 2600rpm
Ein paar Impressionen:
https://abload.de/thumb/img_9965owdsk.jpeg (https://abload.de/image.php?img=img_9965owdsk.jpeg) https://abload.de/thumb/img_9977szft8.jpeg (https://abload.de/image.php?img=img_9977szft8.jpeg) https://abload.de/thumb/img_9972gzeni.jpeg (https://abload.de/image.php?img=img_9972gzeni.jpeg) https://abload.de/thumb/img_9970vfcgl.jpeg (https://abload.de/image.php?img=img_9970vfcgl.jpeg) https://abload.de/thumb/img_9966r2i59.jpeg (https://abload.de/image.php?img=img_9966r2i59.jpeg)
PS: Ich liebe die 3090. Noch nie in meinem Leben hatte ich so lange Spaß mit einer Karte. 3 Jahre alt und immer noch absolut brauchbar, modern, wunderschön und mittlerweile für AI Workloads auch eine ganz schöne Pfeilspitze mit den 24gb RAM. Das ist definitiv nach der 9800pro mein "8800gtx" Moment. :)
bald wird wohl die 3090Ti von der 7600 überholt:lol:
https://www.computerbase.de/2023-11/cod-modern-warfare-iii-2023-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Daredevil
2023-11-08, 13:39:08
Kommt immer drauf an, was man spielt. :D
https://abload.de/img/bildschirmfoto2023-11yldmd.png
The_Invisible
2023-11-08, 14:11:38
Meine Güte immer diese Trollposts, als würde ich im Radeon Thread random irgendwelche RT/PT Benchbalken posten...
Cherrypicking Contest? :D
... mir fällt leider auch nur noch Starfield ein.
MfG
Raff
Denniss
2023-11-08, 22:09:53
war wohl eher ein Wink mit dem zaunpfahl das NV-Karten noch nicht so richtig funktionieren in MW3, warum auch immer
Die funktionieren erwartungsgemäß, die Engine favorisiert schon länger Radeon-GPUs. Bereits Modern Warfare 1 & 2 waren Radeon-Showcases (https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-2-2022-Spiel-73720/Specials/Technik-Test-mit-GPU-Benchmarks-1406475/3/#a1), speziell in geringen Auflösungen (und das hat sich auch nicht geändert). In MW3 scheint es aber noch etwas heftiger zu sein, warum auch immer.
MfG
Raff
Chris Lux
2023-11-09, 08:12:12
... In MW3 scheint es aber noch etwas heftiger zu sein, warum auch immer.
Die uralte Antwort: Weil die Devs nur auf die Konsolen hin optimieren... und da steckt nun mal AMD drinnen.
The_Invisible
2023-11-09, 08:39:46
war wohl eher ein Wink mit dem zaunpfahl das NV-Karten noch nicht so richtig funktionieren in MW3, warum auch immer
Bereits bei MW2 war eine 7900xtx bis auf UHD schneller als eine 4090
gnomi
2023-11-09, 10:05:29
Cold War lief besser auf 3090. Vanguard auch leicht.
Muss auch an den Features und der Build Version der Engine bei Modern Warfare liegen.
Mit 65 fps in 4K nativ max. käme man allerdings auch mit Ampere 3090 plus GSync immer noch gut klar.
Das Spiel taugt scheinbar für das jährliche SP Erlebnis ohnehin kaum mehr als Black Ops 4. Imho verschmerzbar. :(
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.