PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12

Ben Carter
2020-10-02, 20:24:15
... aber bei wem hier muss die Kiste länger als zwei Jahre ran? ;)
Das hängt ganz stark an der Verfügbarkeit und Lieferbarkeit der Nachfolgegeneration. :D

hq-hq
2020-10-02, 20:52:29
Das hängt ganz stark an der Verfügbarkeit und Lieferbarkeit der Nachfolgegeneration. :D

so schauts aus :freak: aber vielleicht Zaubert Kanada was aus dem Hut ;D

BlacKi
2020-10-02, 20:57:25
so schauts aus :freak: aber vielleicht Zaubert Kanada was aus dem Hut ;D
was ich amd in naher zukunft zutraue hängt vom 28.10 ab. ich hab keinen plan, oder gar eine vermutung. mit einem 384/512bit SI wäre ich zuversichtiger.

dargo
2020-10-02, 21:54:13
Igor mit Arbeitsschutzbekleidung. :D

aeAAU6cCzgo

grizu
2020-10-02, 21:57:28
Kann einer was zu dieser Karte sagen ?
INNO3D RTX 3090 ICHILL X4

Raff
2020-10-02, 22:18:28
Ja. 4 ist mehr (Lärm) als 3. Ein Mini-Quirl am Rand, der alle Ideen eines ordentlichen Luftstroms zerballert, war noch nie gut -> go for X3.

MfG
Raff

grizu
2020-10-02, 22:24:00
Ja. 3 ist mehr (Lärm) als 4. Ein Mini-Quirl am Rand, der alle Ideen eines ordentlichen Luftstroms zerballert, war noch nie gut -> go for X3.

MfG
Raff

also ist die X3 etwas besser .. weil ich habe gerade die chance eine zu bekommen.. aber dann lass ich es .. meine Zielkarte ist auch eher die Strix oder FE

BlacKi
2020-10-02, 22:34:13
also ist die X3 etwas besser .. weil ich habe gerade die chance eine zu bekommen.. aber dann lass ich es .. meine Zielkarte ist auch eher die Strix oder FE
er meinte die x3 wird leiser nicht besser.

grizu
2020-10-02, 22:39:41
hab ich auch so verstanden No INNO ;)

-=Popeye=-
2020-10-02, 23:18:51
Geschrieben hat er aber... "3 ist mehr (Lärm) als 4.". Wie es gemeint war ist klar. :D

grizu
2020-10-02, 23:33:00
Geschrieben hat er aber... "3 ist mehr (Lärm) als 4.". Wie es gemeint war ist klar. :D
Das kann ich mir bei 4 anstatt 3 lauten Lüfter nicht vorstellen das die dann gleich laut sind.. also ich lass es

Raff
2020-10-02, 23:35:53
Argl, mein Hirn ist durch. Sorry für die Verwirrung. Aber is' ja klar, was ich meinte, wa. :D

MfG
Raff

grizu
2020-10-02, 23:37:48
hehe

Spasstiger
2020-10-03, 00:55:40
Igor mit Arbeitsschutzbekleidung. :D

https://youtu.be/aeAAU6cCzgo

Die 9 Ampere, die Seasonic angibt, sind aber irreführend. Die zweireihigen Molex Micro-Fit 3.0 12-Pin sind mit einem Derating von max. 5,5 A pro Pin spezifiziert, das entspricht bei 12 Volt und 6 Pins pro Stromrichtung max. 396 Watt.

https://www.molex.com/pdm_docs/ps/PS-43045-001.pdf#page8

Sardaukar.nsn
2020-10-03, 07:30:19
EVGA 3090 mit DIY Wasserkühlung der Backplate.

https://i.imgur.com/kBQ3czh.jpg

Benutzername
2020-10-03, 07:31:14
also ist die X3 etwas besser .. weil ich habe gerade die chance eine zu bekommen.. aber dann lass ich es .. meine Zielkarte ist auch eher die Strix oder FE


Kannst ja den vierten Gimmicklüfter abklemmen.

HisN
2020-10-03, 15:03:04
Crossflash der Bios-Files über die Karten scheint im Moment noch gut zu funktionieren.

Auf meiner 365W Palit läuft jetzt ein 390W Gigabyte-Bios.

Lowkey
2020-10-03, 15:10:49
Und geht auf 390w? Und wieviel Prozent macht es aus? Oder geht es um was anderes?

HisN
2020-10-03, 15:40:51
AB zeigt jetzt 405W maximum PowerDraw an.
Und solange kein Wasserkühler auf der Karte ist, quetsche ich sie nicht aus.
Sind ein paar Prozent aufwärts (500 Punkte in Time-Spy@Stock).

Gouvernator
2020-10-03, 19:52:39
Ich kann beim besten Willen nicht verstehen wozu man eine 3090 neu flashen muss. Aktuell läuft bei mir RE3 Remastered - unter 4K 120+ FPS. Unter 8K 30+ FPS. Für 4K ist es eh sinnlos und für 8K bekommt man +2 FPS - eigentlich auch.

Also die 24Gb VRAM lohnen sich alle mal muss ich sagen. Im 8K Modus plus Ingame 1,5x DSR kann man dank 24Gb schon mal die next-next-Gen Grafik betrachten. Es läuft auch noch für ein Screenshot-Modus mit 15 FPS passabel. Aber ich bin auch mit nur 8K geflasht - in dem Titel ist das Next-Gen. Wenn alles max. 17Gb Verbrauch.

HisN
2020-10-03, 19:57:22
Is ganz einfach, wenn Du vom ständigen Power-Target genervt bist, dann flashed Du.
Is wirklich so simpel.

Gouvernator
2020-10-03, 20:01:28
Is ganz einfach, wenn Du vom ständigen Power-Target genervt bist, dann flashed Du.
Is wirklich so simpel.
Du musst nur dein Setting rausfinden wo PT einigermaßen funktioniert. Ich bin bei 0.806V in 1830Mhz gelandet. Das nervt eigentlich nicht mehr.

Raff
2020-10-03, 20:57:50
Nun, mit +100 Watt hättest du vielleicht 2 GHz, also +9 Prozent Leistung. ;) In 8K nimmt man das gerne mit.

MfG
Raff

Gouvernator
2020-10-03, 21:40:24
Bei 1890Mhz mit 0,875V bin ich schnell auf über 370W. Ich weiß nicht ob 470W für 2Ghz reichen werden. Und für viel weniger als diese 2Ghz lohnt sich der Aufwand und das Risiko nicht. Es ist nämlich schon so ziemlich crazy wie stark die Karte aufgeheizt wird. Ich kann ja auch anspruchslosere Games in 8K testen wo man vom Power Limit auch 1900Mhz mitnehmen kann, aber das was ich sehe rechtfertigt nicht den Aufwand. Die 3090 wenn sie ihre 30FPS hat dann hält sie eisern dran fest. Sprich man wird von schwankenden min. FPS nicht geplagt so das kaum ein Verlangen entsteht was übertakten zu müssen. Und das betrifft auch nur ein paar Games die ich in 8K wirklich zocken würde. Weil der Inputlag in nativ 8K/60Hz ist mit 70ms nicht gerade klein. ;D Deswegen der spielbare Setup ist immer 4K/120.

PS.
Wäre es mal nicht lustige Aufgabe für euch, rauszufinden warum man in 8K/60Hz plötzlich 70ms hat? Wo man normal in 4K/60Hz nur 15ms hat (Samsung Q950R)? Liegt das eher an TVs nicht optimierter 8K Firmware oder gar am HDMI 2.1 Standard-Kompression selbst? Wäre ja ein Ding wenn ALLE 8K TVs davon betroffen wären. :D

HisN
2020-10-03, 22:18:25
Du musst nur dein Setting rausfinden wo PT einigermaßen funktioniert. Ich bin bei 0.806V in 1830Mhz gelandet. Das nervt eigentlich nicht mehr.


Dann hätte ich aber auch nicht unbedingt ne neue Graka gekauft, sondern hätte meine alte weiter betreiben können^^

Und so sehr reiße ich gar nicht drann..

https://abload.de/img/wwzretailegs_2020_10_u6koe.jpg (https://abload.de/image.php?img=wwzretailegs_2020_10_u6koe.jpg)

Selbst da wäre ich mit 365 vorne und hinten nicht ausgekommen, ganz zu schweigen von 350.

k0nan
2020-10-03, 22:54:14
Kann ich bestätigen: Meine 3090 FE habe ich mit 0.825v @ 1800 eingenordet und sie springt von 1745 bis 1830 MHz während die 0.825v festgenagelt sind. 100% GPU Auslastung @ Superposition Benchmark. Ich musste daher von 0.8 auf 0.825 erhöhen. Ich bin noch nicht ganz fertig mit ausloten, momentan teste ich 0.875 @ 1900 MHz. Mehr gebe ich ihr nicht, dann rennt sie ins Powerlimit.

Update

Ich habe jetzt zwei Abende Metro Exodus @ Extreme Details + Ultra RT ohne DLSS @ 3840x1600 gespielt, damit entsteht durchgehend 100% GPU Auslastung. 1860 Mhz @ 0.875v sind stabil und ich kratze quasi ständig am 400W Powerlimit (114% @ Afterburner). Ich kann Raff nur beipflichten: Der 3090 FE Kühler ist wirklich potent. Das die FE Karten alle ein Fön sind, ist keine Neuigkeit, aber die 3090 ist die erste FE, die dabei auch entsprechend ihrer Lautstärke kühlt.

...trotzdem gibt's den EKWB Block, sobald erhältlich. So'n Fön kann ich mir nicht auf Dauer antun :wink:

Armaq
2020-10-03, 23:56:38
Update

Ich habe jetzt zwei Abende Metro Exodus @ Extreme Details + Ultra RT ohne DLSS @ 3840x1600 gespielt, damit entsteht durchgehend 100% GPU Auslastung. 1860 Mhz @ 0.875v sind stabil und ich kratze quasi ständig am 400W Powerlimit (114% @ Afterburner). Ich kann Raff nur beipflichten: Der 3090 FE Kühler ist wirklich potent. Das die FE Karten alle ein Fön sind, ist keine Neuigkeit, aber die 3090 ist die erste FE, die dabei auch entsprechend ihrer Lautstärke kühlt.

...trotzdem gibt's den EKWB Block, sobald erhältlich. So'n Fön kann ich mir nicht auf Dauer antun :wink:
Was heißt Fön? Ich dachte in der Standardkonfig ist das Ding leise? Du hast ja nur "50" Watt mehr?

Gouvernator
2020-10-04, 03:11:46
Eure Power Limits, Bios und Taktraten sind alle für den Popo, solange ihr kaum VRAM Verbrauch habt. Wenn es Richtung 8K@17Gb geht dann zieht euch der VRAM direkt 100Mhz von der GPU ab. Mindestens. Im Hardwareluxx sehe ich Clowns die schon mit 2.2Ghz angeben bei 3Gb Vram Auslastung und nur 360W. Wenn VRAM richtig gefordert wird - das sprengt alle Power Limits. Entweder man testet in 8K DSR oder gar nicht. Das ist sonst belanglose Angeberei. Man braucht die Leistung in 8K zusammen mit VRAM. Es bringt nichts die hohen Taktraten mit keinem VRAM Verbrauch zu kombinieren.

MiamiNice
2020-10-04, 03:22:07
Ich frage mich wann Du einsiehst das Du ziemlich allein auf der Fake 8k Welle reitest?

Daredevil
2020-10-04, 03:37:46
Ne, ich bin beim Gouvernator mit am Bord. :)
Ist Luxus, nehme ich aber gerne mit.

Sardaukar.nsn
2020-10-04, 07:50:34
@Gouvernator:
Da scheint schon was dran zu sein. GPU und VRAM teilen sich ja das Powerlimit, darum muss ja bei viel VRAM Auslastung auch der Boost runter gehen.

Ich mag ja den relativ kleinen Youtube Channel Frame Chasers, dort spricht er sogar darüber den 3090 VRAM bewusst runter zu takten um mehr clock speed auf der GPU zu kommen.

https://www.youtube.com/watch?v=r4jXMSGAZBs

HisN
2020-10-04, 09:53:38
Wie viel muss denn belegt sein, damit der Takt runter, und die Last hoch geht? Warum braucht man da 8k zu?

15GB?

https://abload.de/img/modernwarfare_2020_10p5j63.jpg (https://abload.de/image.php?img=modernwarfare_2020_10p5j63.jpg)

20GB?
https://abload.de/img/modernwarfare_2020_1064knq.jpg (https://abload.de/image.php?img=modernwarfare_2020_1064knq.jpg)

Gouvernator
2020-10-04, 10:00:39
Je nach Game unterschiedlich. Am Power Target nagt ja auch die GPU Auslastung. Du nimmst am besten Quake 2 RTX mit 8K. Das ist worst case 17Gb VRAM und Ray Tracing. Ob dann deine Karte den erhöhten Power Target übersteht, dann ist alles gut.
Bist ja auch so ein Trickster. Nimmst die Games mit über 100 FPS im CPU Limit und knallst den VRAM voll. Mache doch wie es richtig sein soll, volle GPU Auslastung mit 9-15 FPS und 17Gb VRAM samt Ray Tracing dann siehst du was von deinem Takt noch übrig bleibt. Oder von deiner Grafikkarte.

HisN
2020-10-04, 10:05:59
Ach sorum ist Dein Ansatz.
Das hab ich schon in 4k genug. Dafür brauch ich kein 8K :-)
Der ursprüngliche Post von Dir hörte sich wieder nach einer Pauschalkeule an was defenitiv nicht stimmt.

Gouvernator
2020-10-04, 10:19:26
Wieso soll er nicht stimmen? Du siehst ja entweder erhöhten VRAM Verbrauch oder hohe GPU Auslastung. Aber nicht beides gleichzeitig. Und deswegen bleibt dein Takt oben. Ich sehe durch mein ständiges 8K Gaming beides. Deswegen bringen in meinen Augen eure hohen Taktraten "dank" höheren Power Targets, eigentlich gar nichts außer der Gefahr die Grafikkarte zu grillen.

woodsdog
2020-10-04, 10:25:21
Abgesehen von dir spielt halt niemand mit 15 FPS nur um 8K "nutzen" zu können... von daher v0v

Ich hab dein Geschreibsel aber auch so wie HisN verstanden (und nur mit den Augen gerollt).

dildo4u
2020-10-04, 10:34:38
Nicht mal F1 läuft mit 60 in 8k und das Game wurde für 60fps auf Konsole entwickelt.


VXQL8ufvW3A

dargo
2020-10-04, 10:38:12
Ich weiß auch gar nicht was dieser 8k bullshit soll. Eine RTX 3090 ist nichts weiter als eine gute 4k Karte wenn man 60+fps anvisiert. Oder eine sorglos 1440p Karte. :tongue: Ohne den RT-Kram versteht sich, damit muss man schon stärker differenzieren.

Raff
2020-10-04, 11:59:51
Eure Power Limits, Bios und Taktraten sind alle für den Popo, solange ihr kaum VRAM Verbrauch habt. Wenn es Richtung 8K@17Gb geht dann zieht euch der VRAM direkt 100Mhz von der GPU ab. Mindestens. Im Hardwareluxx sehe ich Clowns die schon mit 2.2Ghz angeben bei 3Gb Vram Auslastung und nur 360W. Wenn VRAM richtig gefordert wird - das sprengt alle Power Limits. Entweder man testet in 8K DSR oder gar nicht. Das ist sonst belanglose Angeberei. Man braucht die Leistung in 8K zusammen mit VRAM. Es bringt nichts die hohen Taktraten mit keinem VRAM Verbrauch zu kombinieren.

Der Speicher hat gewiss einen Anteil am Suff, allerdings schätze ich die Lage eher so ein: Hohe Auflösungen führen dazu, dass alle FP32-ALUs stets voll ausgelastet sind, sodass die Leistungsaufnahme steigt. Und hohe Auflösungen führen zu verstärkten Transfers beim Speicher-Interface. Schaltet man dann noch RTX und DLSS hinzu, lässt also alle Rechenwerke parallel arbeiten, ist sprichwörtlich "Polen offen". GA102 kann niemals im Rahmen gewöhnlicher Powerlimits alle Transistoren schalten lassen.

Ich weiß auch gar nicht was dieser 8k bullshit soll. Eine RTX 3090 ist nichts weiter als eine gute 4k Karte wenn man 60+fps anvisiert. Oder eine sorglos 1440p Karte. :tongue: Ohne den RT-Kram versteht sich, damit muss man schon stärker differenzieren.

Das ist deine Meinung. Ich sehe darin - wegen des Speichers und der GPU-Eigenschaften - ebenfalls eine Extreme-Hires-Karte. Dann erledigt sich das Problem des CPU-Limits gleich mit. Man muss halt in der Lage sein, auch zwischen 30 und 50 Fps (je nach Genre) Spaß zu haben. Heutzutage wird viel mehr nach dreistelligen Bildraten geschrien als noch vor 20 Jahren, es ist geradezu grotesk. Wenn ich daran denke, dass man vor 24 Jahren Quake mit "flüssigen" 15 Fps gefeiert hat ...

MfG
Raff

Armaq
2020-10-04, 12:11:33
Wie viel muss denn belegt sein, damit der Takt runter, und die Last hoch geht? Warum braucht man da 8k zu?

15GB?

https://abload.de/img/modernwarfare_2020_10p5j63.jpg (https://abload.de/image.php?img=modernwarfare_2020_10p5j63.jpg)

20GB?
https://abload.de/img/modernwarfare_2020_1064knq.jpg (https://abload.de/image.php?img=modernwarfare_2020_1064knq.jpg)
CoD ist übrigens ein tolles Beispiel.

Ich hab gestern ein paar Runden und Modi gemacht. Nach so ca. 90 Minuten hatte ich auf einer eigentlich anspruchslosen 6v6 Runde nur noch 70 fps. Anstatt um die 100. Objekte wurden merkbar nachgestreamt. Ich denke der VRAM war einfach wirklich voll und nicht nur bebucht.

dargo
2020-10-04, 12:14:30
Das ist deine Meinung. Ich sehe darin - wegen des Speichers und der GPU-Eigenschaften - ebenfalls eine Extreme-Hires-Karte. Dann erledigt sich das Problem des CPU-Limits gleich mit. Man muss halt in der Lage sein, auch zwischen 30 und 50 Fps (je nach Genre) Spaß zu haben.
Hast du meinen Hinweis mit 60+fps überlesen? Scheint so... Tut mir leid, ich habe mit 30-50fps keinen Spielspaß mehr. Und ich würde im Leben keine 1500+€ ausgeben um mit solchen Frames zu eiern.

Raff
2020-10-04, 12:15:36
Dann stehst du dir selbst im Weg. :D Mir tun vor allem Leute leid, die 120+ Fps "brauchen", um Spaß zu haben. Das ist aufs Gesamtsysten bezogen fast genauso anstrengend, wie in Ultra HD stets die 60 zu bekommen, und geht ins Geld - bei High-Fps-Spielern mehr ins Infrastruktur-Budget, bie Hi-Res-Spielern fast nur in die Grafikkarte.

MfG
Raff

r3ptil3
2020-10-04, 12:16:26
Heutzutage wird viel mehr nach dreistelligen Bildraten geschrien als noch vor 20 Jahren, es ist geradezu grotesk. Wenn ich daran denke, dass man vor 24 Jahren Quake mit "flüssigen" 15 Fps gefeiert hat ...

MfG
Raff

Finde ich aber auch berechtigt.

Spiel mal bspw. BFV auf 60-70 FPS und dann auf 150-170 FPS.
Das ist ein Genuss bei den hohen FPS... nur alleine die Smoothness mit der Maus beim visieren.
Dann noch gepaart mit G-Sync/Freesync... das bereitet Freude.

Oder anderes Beispiel: Letztens Hellblade Senuas Sacrifice gespielt mit einer RX 5700 auf WQHD mit 65-75 FPS, läuft gut.

Das gleiche dann mit einer RTX 3080 bei ca. 125-140 FPS - ich dachte ich würde ein anderes Spiel spielen. Einfach ein derart angenehmes Gameplay, kein Witz, das Spiel fühlt sich einfach besser an.

Ich finde aber es gibt noch einen weiteren Sprung und dieser beginnt ab etwa 300 FPS. Sprich ein Spiel bei 300-400 FPS ist dann die absolute Krönung.

dargo
2020-10-04, 12:18:13
Dann stehst du dir selbst im Weg. :D

Wie kommst du auf den Schmarrn jetzt? :tongue: Ich sehe aktuell nicht mal einen Anreiz für ein GPU-Upgrade weil bei mir alles was ich spiele mit für mich guten Frames läuft. Nur für HZD hätte ich gerne mehr Vram da die Honks medium Texturen immer noch nicht in allen Arealen in 8GB "gepresst" bekommen.

Mir tun vor allem Leute leid, die 120+ Fps "brauchen", um Spaß zu haben.
Och... dieses Problem habe ich nicht. Mit 70+fps fühle ich mich absolut wohl. :) Einzige Ausnahme war bisher Battlefield. Da spielte ich dann eher mit 100+fps im MP.

Gouvernator
2020-10-04, 12:19:02
Bf3 in 8K/Ultra/4xMSAA spielbar 30-45 FPS. Das ist cineastische Bildqualität. Nativ 8K TV vorausgesetzt. Gaming war gestern...

Raff
2020-10-04, 12:19:40
Am besten wäre natürlich 1024K Auflösung mit 8K Fps. Gibt's aber nicht. Dafür muss man den Rechner abschalten. :D Alles ist ein Kompromiss, den jeder woanders festsetzt.

MfG
Raff

hq-hq
2020-10-04, 12:20:10
Das ist deine Meinung. Ich sehe darin - wegen des Speichers und der GPU-Eigenschaften - ebenfalls eine Extreme-Hires-Karte. Dann erledigt sich das Problem des CPU-Limits gleich mit. Man muss halt in der Lage sein, auch zwischen 30 und 50 Fps (je nach Genre) Spaß zu haben. Heutzutage wird viel mehr nach dreistelligen Bildraten geschrien als noch vor 20 Jahren, es ist geradezu grotesk. Wenn ich daran denke, dass man vor 24 Jahren Quake mit "flüssigen" 15 Fps gefeiert hat ...

MfG
Raff

aha, deine 15 Fps waren schon an der 15" oder 17" Röhre madig :freak:
am 32" Schirm führt das zum Status epilepticus

Schnoesel
2020-10-04, 12:20:49
Ich spiele BFV auf Ultra @ 3440x1440 mit ca 70-90 FPS, die Karte gibt einfach nicht mehr her. Habe damit absolut keine Probleme beim Aiming oder dass es sich nicht flüssig anfühlen würde. Dennoch hoffe ich dass eine künftige 3080 oder BN nochmal ordentlich Schub gibt. Ich bezweifle jedoch dass ich deswegen auch nur einen Frag mehr haben werde.

Troyan
2020-10-04, 13:46:38
Jemand hat einen Teil des VRAMs der 3090 als "Festplatte" formatiert und Crysis 3 drauf installiert: https://twitter.com/Strife212/status/1312553602934865923

ChaosTM
2020-10-04, 13:51:13
man kann wirklich nie genug Speicher haben. ;) Nice

HisN
2020-10-04, 14:02:12
Hehe

https://github.com/prsyahmi/GpuRamDrive


Using GPU RAM isn't as fast as host main memory, however it is still faster than a regular HDD

Aber lustige Idee.

Ex3cut3r
2020-10-04, 14:13:11
Hehe

https://github.com/prsyahmi/GpuRamDrive
Aber lustige Idee.
:biggrin: Mit den 24GB der 3090 könnte man ja ne 12GB "RAM Disk" machen. Nicht übel. ^^

dargo
2020-10-04, 14:26:22
:biggrin: Mit den 24GB der 3090 könnte man ja ne 12GB "RAM Disk" machen. Nicht übel. ^^
Was soll dann denn bringen?

ChaosTM
2020-10-04, 14:30:35
Nix - macht manchen halt Spass.

dargo
2020-10-04, 14:46:41
Ok. :freak:

Ex3cut3r
2020-10-04, 15:15:09
Passt da nicht Win 10 drauf? :biggrin:
EDIT: Ah Crap, braucht 18GB

Dural
2020-10-04, 15:34:21
Wenn man schaut was man alles für die 1500.- + bekommt ist die 3090 ein schnäppchen. Andere kaufen damit nur eine cpu die einen kleineren Die hat, ohne 24gb high speed speicher, ohne pcb, ohne kühler, deutlich weniger software...

Der kindergarten verein jammert aber wegen zu hohen preisen bei gpus, eigentlich schon lächerlich.

Schnoesel
2020-10-04, 15:37:21
So wie die Karte von Nvidia angepriesen wird und zwar für Gamer ist sie genau das. Zu teuer für das Gebotene und in Relation gesetzt. Anders als ein Kindergarten können manche von uns aber noch differenzieren. Du scheinbar nicht.

ChaosTM
2020-10-04, 15:40:50
Passt da nicht Win 10 drauf? :biggrin:
EDIT: Ah Crap, braucht 18GB


Das geht dann mit der 48GB Titan ;)

r3ptil3
2020-10-04, 17:37:51
Dann eher noch günstigen Ram kaufen (64 oder 128Gb) und darauf auch aktuelle Games installieren.

aufkrawall
2020-10-04, 18:02:38
Wird letztlich auch nur Geldverschwendung sein, dagegen erscheint die 3090 durch die 24GB VRAM ja als regelrecht sinnvolle Investition. ;)
Ist keine ganz gewagte Prognose, wenn man sich anschaut, wie PC-Ports mitunter den gemeinsamen Speicher der Konsolen über VRAM-Gefräßigkeit "kompensieren". Da nützt dann mehr RAM gar nichts.

Troyan
2020-10-06, 10:59:12
Habe festgestellt, dass Ampere einen Ultra-Low-Power Modus hat. Wenn man den Mauszeiger nicht bewegt, dann geht der Stromverbrauch meiner 3090 von ca. 30W auf 17W herunter. Die GPU taktet dann irgendwie nur noch mit 30MHz.

TurricanM3
2020-10-06, 11:03:43
Neues Review (russisch) der Strix 3090 OC:

https://greentechreviews.ru/2020/10/03/obzor-videokarty-asus-rog-strix-geforce-rtx-3090-gaming-oc/

OC ging wohl bis 2160 kurzzeitig in der Spitze. :biggrin:

HisN
2020-10-06, 13:03:27
Habe festgestellt, dass Ampere einen Ultra-Low-Power Modus hat. Wenn man den Mauszeiger nicht bewegt, dann geht der Stromverbrauch meiner 3090 von ca. 30W auf 17W herunter. Die GPU taktet dann irgendwie nur noch mit 30MHz.


Du hast einen niedrig aufgelösten und langsamen Monitor?
Ich bin ja schon froh, das Ampere bei 4K und 144hz nicht mehr den Ramtakt anhebt.

Troyan
2020-10-06, 13:19:55
Du hast einen niedrig aufgelösten und langsamen Monitor?
Ich bin ja schon froh, das Ampere bei 4K und 144hz nicht mehr den Ramtakt anhebt.

4K@120Hz. Funktioniert hier auch. Sind dann 19W. Aber ich nutze 98Hz, weil dann der Takt nicht dauernd in den 3DModus springt.

dargo
2020-10-06, 20:37:07
Neues Review (russisch) der Strix 3090 OC:

https://greentechreviews.ru/2020/10/03/obzor-videokarty-asus-rog-strix-geforce-rtx-3090-gaming-oc/

OC ging wohl bis 2160 kurzzeitig in der Spitze. :biggrin:
497W im 3DMark. :ulol: X-D :usweet:

hq-hq
2020-10-06, 20:55:32
497W im 3DMark. :ulol: X-D :usweet:

hm, der Chip soll nur 264Watt max gesaugt haben, das ist nicht viel IMHO

erstaunlich ist was der Rest der Karte verbrät :freak:

FastAndy
2020-10-06, 21:05:41
Neues Review (russisch) der Strix 3090 OC:

https://greentechreviews.ru/2020/10/03/obzor-videokarty-asus-rog-strix-geforce-rtx-3090-gaming-oc/


OC ging wohl bis 2160 kurzzeitig in der Spitze. :biggrin:

Top! 500w sind voll ok. Spaß kostet nunmal.
Ist natürlich nichts für Ökos. ;)

dargo
2020-10-06, 21:32:21
hm, der Chip soll nur 264Watt max gesaugt haben, das ist nicht viel IMHO

erstaunlich ist was der Rest der Karte verbrät :freak:
Um das mal in Relation zu setzen. Vega10 LCE hatte default exakt 264W ASIC Power. Dabei schluckte die ganze Karte 350W. GA102 säuft ~150W zusätzlich. :freak: Afaik war bei V10 der HBM aber schon in der ASIC Power inbegriffen.

Langlay
2020-10-06, 21:53:39
Was GPU-Z dort ausliest, kann man wohl vergessen.

Geächteter
2020-10-07, 01:49:01
497W im 3DMark. :ulol: X-D :usweet:

It is safe to upgrade now. Gemeint war wohl von Lederjacke das Netzteil.

MiamiNice
2020-10-07, 02:13:43
Neues Review (russisch) der Strix 3090 OC:

https://greentechreviews.ru/2020/10/03/obzor-videokarty-asus-rog-strix-geforce-rtx-3090-gaming-oc/

OC ging wohl bis 2160 kurzzeitig in der Spitze. :biggrin:

Die hatten nicht mal ne WaKü druff. Sieht aus als wäre das max. PT der Srix OC noch zu niedrig. Vielleicht doch auf ne Kingpin switchen die hat statt 480 Watt, irgendwas mit 500+ :biggrin:

HisN
2020-10-07, 02:43:08
Endlich Ruhe im Karton.

Palit 3090 GamingProOC
https://abload.de/thumb/16020210588258120kjex.jpeg (https://abload.de/image.php?img=16020210588258120kjex.jpeg)

Nackt
https://abload.de/thumb/160202105785563021mjqa.jpeg (https://abload.de/image.php?img=160202105785563021mjqa.jpeg)

Caps der Palit, für die Interessierten
https://abload.de/thumb/16020210576956373jkc4.jpeg (https://abload.de/image.php?img=16020210576956373jkc4.jpeg)

Mit Kühler drauf
https://abload.de/thumb/16020210570612481vfk1y.jpeg (https://abload.de/image.php?img=16020210570612481vfk1y.jpeg)

Working
https://abload.de/thumb/16020210563712392nzjmb.jpeg (https://abload.de/image.php?img=16020210563712392nzjmb.jpeg)

Was für eine Stille.
Und die Stromversorgung ist DEUTLICH, DEUTLICH leiser als die von meiner alten Titan RTX. Das ganze Schnarren und Gerassel bekommt man nur bei offenem Gehäuse, wenn man mit dem Ohr rangeht.
Sehr angenehm.

Gynoug MD
2020-10-07, 06:48:30
Endlich Ruhe im Karton.
Caps der Palit, für die Interessierten
https://abload.de/thumb/16020210576956373jkc4.jpeg (https://abload.de/image.php?img=16020210576956373jkc4.jpeg)

Wurden die MLCC noch hektisch per Hand angelötet, sieht ja aus wie Kraut und Rüben.
:biggrin:

Sardaukar.nsn
2020-10-07, 07:03:29
@HisN: Freut mich zu lesen! Kannst du kurz den Umbau auf Wasserkühlung beschreiben? Zeitaufwand, Schwierigkeiten?

hq-hq
2020-10-07, 07:45:23
Wurden die MLCC noch hektisch per Hand angelötet, sieht ja aus wie Kraut und Rüben.
:biggrin:

Sieh aus als ob sie mit der Hand aufgelegt wurden bevors in den Ofen ging.

Schick die kleine Karte unter Wasser. Sieht öko aus.

Langlay
2020-10-07, 08:16:57
Schick die kleine Karte unter Wasser. Sieht öko aus.

Mit Wakü ist die Karte sogar relativ kompakt. Ich hab ja die non-OC Version mit dem Alphacool Block und die Karte ist kleiner als die Radeon VII die davor im Rechner war.


@HisN: Freut mich zu lesen! Kannst du kurz den Umbau auf Wasserkühlung beschreiben? Zeitaufwand, Schwierigkeiten?

Wakü umbau ist bei der Palit 3090 relativ einfach ich hab glaub ich 15-20 Minuten gebraucht. Für den ganzen Umbau mit Wasser ablassen alte Karte ausbauen neue Karte umbauen, neue Karte einbauen usw. hab ich 1.5h gebraucht.

Lowkey
2020-10-07, 09:00:21
Die Palit ist Referenz Design?

Dr.Doom
2020-10-07, 09:10:45
Die Palit ist Referenz Design?



Palit 3090 GamingProOC
https://abload.de/thumb/16020210588258120kjex.jpeg (https://abload.de/image.php?img=16020210588258120kjex.jpeg)

Palit GeForce RTX 3090 Gaming Pro OC --> NED3090S19SB-132BA
-> https://ezmodding.com/Nvidia-RTX-3080-3090-REF-Acryl-incl-Backplate (Beispiel f. Kompatibilitätstabelle)

-> Ja.

Sardaukar.nsn
2020-10-07, 11:10:51
...
Wakü umbau ist bei der Palit 3090 relativ einfach ich hab glaub ich 15-20 Minuten gebraucht. Für den ganzen Umbau mit Wasser ablassen alte Karte ausbauen neue Karte umbauen, neue Karte einbauen usw. hab ich 1.5h gebraucht.

Danke für die Info. Aktuell habe ich hier ja auch eine Palit 1080ti unter Wasser. Nachfolger wird aber eine Asus. Ich hoffe noch vor Weihnachten... :rolleyes:

rentex
2020-10-07, 11:18:10
https://www.reddit.com/r/hardware/comments/j6idky/msi_scalping_their_own_3080s_on_ebay_links/?ref=share&ref_source=embed&utm_content=title&utm_medium=post_embed&utm_name=5039af5402a44ff9a8ccc430a1aeb4ad&utm_source=embedly&utm_term=j6idky

rentex
2020-10-07, 11:54:23
https://mobile.twitter.com/msiUSA/status/1313734160582803456?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1313734 160582803456%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwww.igorslab.de%2Fcommunity%2Fthreads%2Fneuigkeiten-und-gerC3BCchte-zu-rtx-3xxx-ampere-sammelstrang.2843%2Fpage-139

HisN
2020-10-07, 12:06:29
@HisN: Freut mich zu lesen! Kannst du kurz den Umbau auf Wasserkühlung beschreiben? Zeitaufwand, Schwierigkeiten?


Noch nie einen so einfachen Umbau gehabt.
Die Backplate hat die meisten Schrauben (8 Stück oder so), der Kühler wird mit nur 4 Schrauben gehalten, 2 Schrauben an der Slotblende müssen ab.

Es waren keine WLP-Massen verschmiert und die Pads blieben praktisch vollständig an Backplate und Kühler klemmen, d.h. die Karte war auch nach 20 Sekunden sauber.

Alphacool hat wirklich jedes WLP Nummeriert und schon auf die richtige Länge geschnitten. Außerdem sind die Schutzfolien so drauf, das man nicht gnibbeln muss wie verrückt. Kühler passt exakt (4 Schrauben). Backplate passt exakt. (4 weitere Schrauben). So wenig Schrauben wie schon lange nicht mehr.

Ich glaub das war der einfachste und schnellste Umbau den ich seit GTX 580er Zeiten gemacht habe.

Lustig wie kurz die Karte ohne Kühler ist^^

Langlay
2020-10-07, 18:17:42
Was am Alphacool Wasserblock nicht ganz so geil ist ist der Durchfluss. Mit dem Alphacool Kühler von der Radeon VII hatte ich noch 150-160l/h bei 100% Pumpengeschwindigkeit mit dem Alphacool 3090 Kühler nur noch bei 125-135l/h.

HisN
2020-10-07, 18:30:37
Ich hatte vorher 80l und nachher 80l ... Eventuell sollte ich mal mein Flowmeter checken. Ist schon gute 10 Jahre alt^^

Dural
2020-10-09, 14:42:37
https://www.reddit.com/r/hardware/comments/j6idky/msi_scalping_their_own_3080s_on_ebay_links/?ref=share&ref_source=embed&utm_content=title&utm_medium=post_embed&utm_name=5039af5402a44ff9a8ccc430a1aeb4ad&utm_source=embedly&utm_term=j6idky

Und jetzt überlegt mal was direkt in China/Asien abgeht :freak:

TurricanM3
2020-10-10, 11:39:05
Neues Strix 3090 Review:

TKAKH_DgvX0

Leider ohne Geräuschtest. Ich würde zu gerne mal hören wie sich die Spulen machen.

dargo
2020-10-10, 11:40:15
Und jetzt überlegt mal was direkt in China/Asien abgeht :freak:
Die Schiffe bleiben im Hafen :uconf2:

Neues Strix 3090 Review:

https://youtu.be/TKAKH_DgvX0

Leider ohne Geräuschtest. Ich würde zu gerne mal hören wie sich die Spulen machen.
Endlich habe ich hier die Bestätigung, dass beide Biose bei ASUS das selbe Powerlimit verwenden.
https://youtu.be/TKAKH_DgvX0?t=473

Die Frequenzen ändern sich nicht. Also doch nur zwei Lüfterkurven.

btw.
Autsch... der GDDR6X ist bei GA102 am glühen.
https://youtu.be/TKAKH_DgvX0?t=711

Das ist ja nur die PCB-Temperatur. :freak:

r3ptil3
2020-10-10, 11:54:50
Neues Strix 3090 Review:

https://youtu.be/TKAKH_DgvX0

Leider ohne Geräuschtest. Ich würde zu gerne mal hören wie sich die Spulen machen.

Da kann ich dir zumindest in Form der 3080 ein Feedback geben.

Mit max. OC ist die Karte und damit meine ich nicht die Lüfter, stumpf hörbar, sprich kein hochfrequentes Fiepen, sondern ein sehr tiefes knirschen.

Troyan
2020-10-10, 12:05:08
Die TUF ist hörbar bei >100FPS und hat Spulenpfeifen bei >500FPS+. Finde ich nicht stören, da die Lüfter beim Spielen den normalen Ton überdeckt. Und mehr als 1000FPS gibt es eigentlich nur bei Ladebildschirmen...

dargo
2020-10-10, 12:11:03
Die TUF ist hörbar bei >100FPS und hat Spulenpfeifen bei >500FPS+. Finde ich nicht stören, da die Lüfter beim Spielen den normalen Ton überdeckt.
Turri wird das stören da er Wakü verwendet. Also jetzt nicht bei 500+fps. Afaik interessieren ihn Geräusche bei 100+fps.

Edit:
Gib der ASUS TUF OC RTX 3090 vernünftige GPU-Last und schon geht der Takt bei 370-380W bis auf 1,7+GHz runter.
5mUYgP_1p7E

Colin MacLaren
2020-10-11, 10:19:02
Meine Gigabyte erreicht mit Offset bei 385W im Schnitt gerade einmal 1.800Mhz. Ist das normal oder hab ich einen Krüppel erwischt? Die meisten scheinen ja 1.900-2.000+ zu schaffen.

https://www.3dmark.com/spy/14467840

Troyan
2020-10-11, 10:21:54
Ist normal. Je höher die Auflösung, umso mehr Recheneinheiten arbeiten parallel, umso besser ist der Chip ausgelastet.

dargo
2020-10-11, 10:23:10
;D

Da kann man wieder wunderbar sehen was diese Bullshitmeldungen mit hohen Frequenzen bewirken. :freak:

dildo4u
2020-10-11, 10:26:20
Meine Gigabyte erreicht mit Offset bei 385W im Schnitt gerade einmal 1.800Mhz. Ist das normal oder hab ich einen Krüppel erwischt? Die meisten scheinen ja 1.900-2.000+ zu schaffen.

https://www.3dmark.com/spy/14467840
Vergleichst du die selben Benchmarks? Der 1440p Test wird höheren Takt erreichen.


Du hast 10k GPU Score das ist besser als die Gigabyte@Stock auf Level mit der MSI Trio.

https://www.eteknix.com/zotac-gaming-rtx-3090-trinity-review/4/

jojo13
2020-10-11, 10:50:43
Turri wird das stören da er Wakü verwendet. Also jetzt nicht bei 500+fps. Afaik interessieren ihn Geräusche bei 100+fps.

Edit:
Gib der ASUS TUF OC RTX 3090 vernünftige GPU-Last und schon geht der Takt bei 370-380W bis auf 1,7+GHz runter.
https://youtu.be/5mUYgP_1p7E

Die TUF geht nirgends hin 875/ 1830 curve und da bleibt sie drauf bis zum sanktnimmerleinstag. Lüfter laufen da um die 62% Core Temp hab ich noch nie über 60 Grad gesehen. Allerding mag ich nicht mit den Fingerchen oben drauf fassen :-)

dargo
2020-10-11, 10:59:37
Mit Undervolting und/oder max. Taktsenkung im Boost senkst du die Spannungsspitzen und somit glättet sich auch der Durchschnittstakt. ;) Leute... ihr habt alle zu lange keine Radeon im Rechner gehabt. :tongue: Alles kalter Kaffee. ;)

ChaosTM
2020-10-11, 11:03:19
@Colin

Schau dir den Rog Strix Test weiter oben an. Die schafft auch nur knapp an die 1900

jojo13
2020-10-11, 11:06:33
Und? Was willste uns jetzt sagen? Das die Karten mit untervolting alles in Grund und Boden rennen ist doch klasse oder?:D Nur kein Neid geh dir schnell eine kaufen.

jojo13
2020-10-11, 11:07:58
Mit Undervolting und/oder max. Taktsenkung im Boost senkst du die Spannungsspitzen und somit glättet sich auch der Durchschnittstakt. ;) Leute... ihr habt alle zu lange keine Radeon im Rechner gehabt. :tongue: Alles kalter Kaffee. ;)

Du sabbelst so einen Müll zusammen das ist nicht mehr feierlich mit dem untervolteten Kärtchen ballere ich noch in 10 Jahren allen AMD müll in Grund und Boden.

dargo
2020-10-11, 11:13:35
@jojo13

Du musst schon echte, persönliche Probleme haben um so einen OT-Quatsch hier loszulassen. Ich wollte damit nichts anderes zum Ausdruck bringen, dass ich die "grüne Fraktion" aktuell amüsant finde weil sie ein Powermanagement bekommen haben welches Radeons schon lange nutzen. Um es mal kurz zu machen... für die "rote Fraktion" ist das alles kein Neuland.

Edit:
Danke für den letzten Post Bro... der ist Signatur würdig. :D

jojo13
2020-10-11, 11:19:11
Ja ist doch schön, mit NV Karten kannst das auch schon ewig machen....und warum sollte man das jetzt mit den Karten nicht mehr machen? Und probs hast scheinbar nur du ... und das auf jeder Seite hier....aber bitte bitte nicht dafür :-) die Wahrheit darf man ruhig verbreiten :-) aber ich höre jetzt auch auf bevor sich alle AMD Jünger nach hier verlaufen und und uns mit ihren Weisheiten beglücken einer reicht.

Mayk-Freak
2020-10-11, 11:31:24
Turri wird das stören da er Wakü verwendet. Also jetzt nicht bei 500+fps. Afaik interessieren ihn Geräusche bei 100+fps.

Edit:
Gib der ASUS TUF OC RTX 3090 vernünftige GPU-Last und schon geht der Takt bei 370-380W bis auf 1,7+GHz runter.
https://youtu.be/5mUYgP_1p7E

Furchtbares Tearing bei dem Game, könnte ich mir nicht so geben ohne FreeSync bzw. Nvidia G-Sync.

dargo
2020-10-11, 11:40:46
Ich auch nicht... aber so unterschiedlich sind halt Gamer.
https://media.giphy.com/media/VgI2Ibk3gK3nv5v89M/giphy.gif
btw.
Er spielt auf dem LG OLED55B9PUA B9, können TVs überhaupt G-Sync?

Lawmachine79
2020-10-11, 12:04:51
Ich auch nicht... aber so unterschiedlich sind halt Gamer.
https://media.giphy.com/media/VgI2Ibk3gK3nv5v89M/giphy.gif
btw.
Er spielt auf dem LG OLED55B9PUA B9, können TVs überhaupt G-Sync?
Der LED den Du ansprichst kann das.

dildo4u
2020-10-11, 13:05:39
Ich auch nicht... aber so unterschiedlich sind halt Gamer.
https://media.giphy.com/media/VgI2Ibk3gK3nv5v89M/giphy.gif
btw.
Er spielt auf dem LG OLED55B9PUA B9, können TVs überhaupt G-Sync?
B9 geht mit Gsync.

https://www.nvidia.com/en-us/geforce/news/g-sync-compatible-2019-lg-tv-available-now/

Gouvernator
2020-10-11, 17:58:09
Man kann über die 3090 in 8K sagen was man will, aber als 4K/120 Karte macht die super Figur. Das ist wahrscheinlich durch geringe 4K/120 Verbreitung untergegangen. Aus aktuellem Anlass kann man ältere Zombie Games wie Dying Light mit 120Hz fluffig zocken. War ja damals ziemlicher Hardwarefresser den ich mit GTX1080 übersprungen habe.

wolik
2020-10-11, 18:40:52
Seit paar Wochen habe ich ASUS TUF OC RTX 3090 in Einsatz. Läuft mit 125 / 800 stabil. Bis 2100. Bei 99% natürlich geht Tackt runter. Perfekte Karte für WK. 3DM lief sogar durch mit 190. Ohne Spannung Erhöhung. Leider 4K / 60 Fps sogar mit 3090 nicht überall Möglich. RDR2, Star Citizen und weitere Spiele werden noch kommen... Ich warte jetzt auf 4090 oder 7900 :)

hq-hq
2020-10-12, 07:44:16
Mit Undervolting und/oder max. Taktsenkung im Boost senkst du die Spannungsspitzen und somit glättet sich auch der Durchschnittstakt. ;) Leute... ihr habt alle zu lange keine Radeon im Rechner gehabt. :tongue: Alles kalter Kaffee. ;)
Sehe da keinen Unterschied zur 1080ti oder 2080ti, der chip ist schneller hungrig wenn der was zu tun bekommt dann klappt das mit dem Boosten nicht mehr, an der Kurve und rauf/runtertakten hat sich doch nix verändert?

Die Kurve an einer bestimmten Spannung/Takt platt machen macht man seit es den Kurve Editor gibt

Langlay
2020-10-12, 08:20:38
Sehe da keinen Unterschied zur 1080ti oder 2080ti, der chip ist schneller hungrig wenn der was zu tun bekommt dann klappt das mit dem Boosten nicht mehr, an der Kurve und rauf/runtertakten hat sich doch nix verändert?

Die Kurve an einer bestimmten Spannung/Takt platt machen macht man seit es den Kurve Editor gibt


Ja nur das man bei Nvidia dafür 3rd Party Programme braucht. Weil der Treiber noch im Windows XP Zeitalter festhängt und auch ungefähr den gleichen Funktionsumfang hat wie vor 20 jahren hat.

Dieses vor 20 Jahren hingerotzte Userinterface ist das was mir bei Nvidia am meisten auf Sack geht. Ja aber Nvidia Treiber sind soviel zuverfässiger als AMD. Ist ja auch klar. Ein Abakus ist auch zuverlässiger als ein Taschenrechner.

Daredevil
2020-10-12, 09:01:24
Form follows Function. :<
AB > All, das hat man ja so oder so laufen.

Dural
2020-10-12, 09:09:26
Ja nur das man bei Nvidia dafür 3rd Party Programme braucht. Weil der Treiber noch im Windows XP Zeitalter festhängt und auch ungefähr den gleichen Funktionsumfang hat wie vor 20 jahren hat.

Dieses vor 20 Jahren hingerotzte Userinterface ist das was mir bei Nvidia am meisten auf Sack geht. Ja aber Nvidia Treiber sind soviel zuverfässiger als AMD. Ist ja auch klar. Ein Abakus ist auch zuverlässiger als ein Taschenrechner.

Bei diesem 20 Jahren alte hingekotz findet man wenigstens alles ganz schnell... :rolleyes:

Langlay
2020-10-12, 10:28:01
Ich bin eigentlich kein besonderer Freund vom AB. Der verursacht öfters mal komische Probleme die ohne AB nicht auftretten.

Und ja, die gefühlt 3 Funktionen die er hat, die findet man recht schnell. Ist jetzt aber auch kein Beifall wert.

blaidd
2020-10-12, 10:39:32
Er spielt auf dem LG OLED55B9PUA B9, können TVs überhaupt G-Sync?

Nicht wenige neue Gsync-Monitore kommen ohne Gsync-Modul, sind also im Grunde nur "Gsync Compatible" beziehungsweise unterstützen Adaptive Sync. Das ist also im Prinzip nur der VESA-Standard (kostet natürlich trotzdem den üblichen Aufpreis :wink:). Dann klappt das natürlich auch bei TVs (oder bei Gsync-Laptops, die haben meines Wissens auch alle kein Modul)

JVC
2020-10-12, 12:33:04
G-Sync oder Free-Sync also besser gesagt Adapdiv-Sync empfinde ich als sehr wichtig.
(da jetzt HDMI 2.1, kann NV ja definitiv endlich den Adapdiv-Sync Standard)

Eigentlich finde ich die 3090 sehr attraktiv.
Aber der sehr hohe Verbrauch stört mich extrem. (wo ist die P/W Steigerung?)
125Watt weniger, also 250Watt und der Rest würde mir fast schon passen...
Aber mit 375Watt Basis, lol roflmao, interessiert mich das Ding gar nicht.

M.f.G. JVC

Langlay
2020-10-12, 12:43:14
G-Sync oder Free-Sync also besser gesagt Adapdiv-Sync empfinde ich als sehr wichtig.
(da jetzt HDMI 2.1, kann NV ja definitiv endlich den Adapdiv-Sync Standard)

Eigentlich finde ich die 3090 sehr attraktiv.
Aber der sehr hohe Verbrauch stört mich extrem. (wo ist die P/W Steigerung?)
125Watt weniger, also 250Watt und der Rest würde mir fast schon passen...
Aber mit 375Watt Basis, lol roflmao, interessiert mich das Ding gar nicht.

M.f.G. JVC

350W sind Basis. Mit UV 1800MHz@0.8V biste so bei 300-320W (Witcher3 4k), in anderen Spielen auch deutlich weniger. Das geht dann schon.

BlacKi
2020-10-12, 12:58:31
kann ich auch nicht nachvollziehen. welcher aktive nutzer hier betreibt seine karte stock? klingt für mich wie eine ausrede, weil man lieber amd kaufen will. schön und gut, aber dann sollte man nicht fadenscheinige ausreden vorschieben.

JVC
2020-10-12, 12:59:50
... 300-320W (Witcher3 4k), in anderen Spielen auch deutlich weniger. Das geht dann schon.
Selbst auf der Basis, wäre das zu viel...
Aber "Default", "out of the Box" 350Watt, ist verrückt.

Selbst ein 10900K mit "125Watt"=in echt ~250Watt, ist schon verrückt.

Meinen DX4 133 @200Mhz(den P133-166 Killer), konnte ich noch passiv kühlen...

M.f.G. JVC

@BlacKi: Mit dem Alter wird man genügsamer und vernünftiger...

aufkrawall
2020-10-12, 13:01:47
Ja nur das man bei Nvidia dafür 3rd Party Programme braucht. Weil der Treiber noch im Windows XP Zeitalter festhängt und auch ungefähr den gleichen Funktionsumfang hat wie vor 20 jahren hat.
Nvidia nimmt dir dafür keinen Funktionsumfang weg, AMD hat z.B. still und heimlich AAA/SGSSAA für DX10+ einfach rausgeschmissen. Bei Nvidia kannst du selbst mit DX12 TrSSAA in z.B. Forza dazu schalten, sofern die Leistung vorhanden.

Edit: Für Navi soll übrigens der Video-Kram wie Fluid Motion etc. einfach fehlen. ;)
Beim AMD-Windows-Treiber wird regelmäßig irgendwas weggeschnippelt, fancy UI hin oder her...

BlacKi
2020-10-12, 13:08:21
Selbst auf der Basis, wäre das zu viel...
Aber "Default", "out of the Box" 350Watt, ist verrückt.

Selbst ein 10900K mit "125Watt"=in echt ~250Watt, ist schon verrückt.

Meinen DX4 133 @200Mhz(den P133-166 Killer), konnte ich noch passiv kühlen...

M.f.G. JVC
sind die fehlenden 5-10% bei einer 3090 auf 250w wirklich der grund warum du vom kauf absiehst?


dasselbe beim 10900k. warum soll man ihn stock betreiben? du kannst ihn auch so konfigurieren das er 150w nicht überschreitet. beim spielen sind eher +-100w angesagt.

Troyan
2020-10-12, 13:09:09
sind die fehlenden 5-10% bei einer 3090 auf 250w wirklich der grund warum du vom kauf absiehst?


Sind mehr als 5%-10%, da das Powerlimit direkt bei der GPU durchschlägt. Funktioniert also nicht. Vielleicht GDDR6 ranlöten. ;)

JVC
2020-10-12, 13:16:23
sind die fehlenden 5-10% bei einer 3090 auf 250w wirklich der grund warum du vom kauf absiehst?


dasselbe beim 10900k. warum soll man ihn stock betreiben? du kannst ihn auch so konfigurieren das er 150w nicht überschreitet. beim spielen sind eher +-100w angesagt.
Naja, bei mir ist es immer gleich kühl/warm ...
Es wird nicht wärmer, sondern nur teurer ...
Und man wird mit dem Alter klüger/genügsamer und nicht risikobereiter ...

Rekordjagten sind lange her ;)
Jetzt nehme ich nur noch was ich wirklich brauche ...
Eine gutes P/L ist und bleibt aber mein Hobby ^^
(eine gute OC-Tauglichkeit(viele Reserven), ist und bleibt aber immer äußerst relevant)

M.f.G. JVC

BlacKi
2020-10-12, 13:22:14
Sind mehr als 5%-10%, da das Powerlimit direkt bei der GPU durchschlägt. Funktioniert also nicht. Vielleicht GDDR6 ranlöten. ;)liegt das an der doppelbelegung? eine 3080 mit 10gb auf 200w fehlt nur 7,5% performance.
https://wccftech.com/wp-content/uploads/2020/09/all-3080-overall.png

Troyan
2020-10-12, 13:30:36
liegt das an der doppelbelegung? eine 3080 mit 10gb auf 200w fehlt nur 7,5% performance.
https://wccftech.com/wp-content/uploads/2020/09/all-3080-overall.png


Mehr Bandbreite und mehr Speicher. Ergo gehen von den zusätzlichen 30W schon +-15W nur für den Speicher drauf. Wenn ich meine 3090 auf 250W beschränke, liegt die GPU bei 90W und nichts funktioniert mehr. :wink:

Langlay
2020-10-12, 17:15:21
Sind mehr als 5%-10%, da das Powerlimit direkt bei der GPU durchschlägt. Funktioniert also nicht. Vielleicht GDDR6 ranlöten. ;)


Bullshit, meine Karte stock mit 350W non OC Bios ist nicht wirklich schneller als als das UV Setting. In Titel die stärker powerlimitiert sind (Witcher 3 4K) ist das UV sogar schneller als Stock. UV bringt bei der 3090 eher weniger Stromersparnis. Da ~100W alleine für Speicher und Speichercontroller draufgehen und man dort nichts undervolten kann. VRAM Takt senken bringt etwas ist aber halt Performancemässig kontraproduktiv.

Wenn man wirklich unter 250W auch in 4k Witcher will kommste so bei 1600-1650 MHz@0.725V raus. Dann ist die 3090 allerdings auch etwas langsamer als ne 3080 non oc.

Rampage 2
2020-10-12, 20:59:08
Wenn man wirklich unter 250W auch in 4k Witcher will kommste so bei 1600-1650 MHz@0.725V raus. Dann ist die 3090 allerdings auch etwas langsamer als ne 3080 non oc.

Wieviel Spannung und wieviel Watt bräuchte man, um eine 3090 selbst in TW3 über 2 GHz zu halten, also dass der Takt 2 GHz niemals unterschreitet?

R2

HisN
2020-10-12, 23:32:49
Praktisch muss man doch nur ein CPU-Limit erzeugen und schon hat man dauerhaft und Stabil ... von mir aus 2175Mhz anliegen.


https://abload.de/img/sottr_2020_10_11_21_46ojtk.jpg (https://abload.de/image.php?img=sottr_2020_10_11_21_46ojtk.jpg)


Da solltest Du mit Deiner Frage deutlich präziser sein, sonst erfährst Du nur die halbe Wahrheit.

Armaq
2020-10-13, 00:19:21
Wieviel Spannung und wieviel Watt bräuchte man, um eine 3090 selbst in TW3 über 2 GHz zu halten, also dass der Takt 2 GHz niemals unterschreitet?

R2
Ich kann dir nur sagen, dass du eine 2080Ti mit 320Watt jederzeit über 2000 Mhz halten kannst (und einer WaKü).

BlacKi
2020-10-13, 00:28:05
das hat auch alles mit der temperatur zu tun. da hilft dir auch kein 1kw PT wenn die karte wegen der temperatur runtertaktet.

hast du dir mal igors 3080 wakü/chiller abenteuer angesehen? 2,2ghz bei 25grad und 349w pt. hier scheint noch nicht mal das PT zu limitieren. würde mich nicht wundern wenn bei 25grad 300w als pt für 2ghz für die 3090 reicht.

HisN
2020-10-13, 00:29:10
Genau auf das Video beziehe ich mich. Also den Preview, den er da gezeigt hat.
75% Last auf der Karte. Lara in FHD im CPU-Limit. Genau das gleiche wie bei meinem Screen in 627.
Da taktet meine auch 2175 und ich bin Meilen vom PT weg, weil die Karte sich langweilt.

Ich hab gerade mal den max-Takt bei meiner Karte ausgelotet (ohne Last).
https://abload.de/img/ati_tool32pj3o.jpg (https://abload.de/image.php?img=ati_tool32pj3o.jpg)

Bei 2355 schmiert mir dann der Treiber ab.

Asaraki
2020-10-13, 01:22:44
;D

Da kann man wieder wunderbar sehen was diese Bullshitmeldungen mit hohen Frequenzen bewirken. :freak:

Am Ende des Tages sind die meisten Benchmarks und Szenario-Tests halt wie Kochshows. Das Essen auf deinem Teller wird selten besser - die Chance, dass du es weniger geniesst steigt.

Rampage 2
2020-10-13, 02:48:21
Da solltest Du mit Deiner Frage deutlich präziser sein, sonst erfährst Du nur die halbe Wahrheit.

1440p (mit hohem SSAA oder 2x2 DS) und 4K (ohne AA/DS, außer Post-/Temporal-AA) bei Spielen mit der brutalsten GPU-Last und/oder der höchsten Leistungsaufnahme. (gibt's bzgl. Letzterem eigentlich etwas schlimmeres als TW3? :confused:)

Ich kann dir nur sagen, dass du eine 2080Ti mit 320Watt jederzeit über 2000 Mhz halten kannst (und einer WaKü).

Auch in 4K bei TW3? (oder einem schlimmeren Worstcase-Spiel)

R2

Gouvernator
2020-10-13, 05:00:19
In 8K mit 20Gb VRAM Belegung, ich schätze 1,05V und 500W-600W PT.

dargo
2020-10-13, 06:18:03
das hat auch alles mit der temperatur zu tun. da hilft dir auch kein 1kw PT wenn die karte wegen der temperatur runtertaktet.

hast du dir mal igors 3080 wakü/chiller abenteuer angesehen? 2,2ghz bei 25grad und 349w pt. hier scheint noch nicht mal das PT zu limitieren. würde mich nicht wundern wenn bei 25grad 300w als pt für 2ghz für die 3090 reicht.
Im CPU-Limit bzw. bei geringer GPU-Last. :rolleyes:

Langlay
2020-10-13, 08:53:29
Wieviel Spannung und wieviel Watt bräuchte man, um eine 3090 selbst in TW3 über 2 GHz zu halten, also dass der Takt 2 GHz niemals unterschreitet?


Ich kann jetzt nur von meiner Karte sprechen. Für meine Karte das BIOS mit der grösstem Powerlimit (390W) reicht für ~1950MHz@0,85V. Ich denke für konstant 2 GHz brauchste mindestens 420W Powerlimit.

hast du dir mal igors 3080 wakü/chiller abenteuer angesehen? 2,2ghz bei 25grad und 349w pt. hier scheint noch nicht mal das PT zu limitieren. würde mich nicht wundern wenn bei 25grad 300w als pt für 2ghz für die 3090 reicht.

Nein einfach nur Nein. Selbst mit 25°C Wassertemp (Lüfter auf 1500 RPM + Fenster auf) und <40°C GPU Temp schaff ich nicht mehr als 1950 MHz bei 390W in TW3 4k. Da wird die Karte nicht weil sie 10°C kühler ist auf einmal 100W weniger verbrauchen.

Die 3090 braucht halt relativ wenig Strom wenn sie nich voll ausgelastet ist. 1800MHz@0.8V macht in TW3 4k 300-320W und z.b. in HZD 4k 230-250W.

Armaq
2020-10-13, 09:01:07
1440p (mit hohem SSAA oder 2x2 DS) und 4K (ohne AA/DS, außer Post-/Temporal-AA) bei Spielen mit der brutalsten GPU-Last und/oder der höchsten Leistungsaufnahme. (gibt's bzgl. Letzterem eigentlich etwas schlimmeres als TW3? :confused:)



Auch in 4K bei TW3? (oder einem schlimmeren Worstcase-Spiel)

R2
Das kann ich heute mal kurz testen, aber nur in UWide (5120x1440) und ich kann dir sagen, dass es in jedem Benchmark als auch den Games die ich aktuell zocke schon überwacht habe (u.a. CoD in besagter Auflösung).

Daher ja auch mein Fazit, dass ne 300Watt Karte unbedingt ne WaKü braucht. Die Luftkühler haben das immer mal auf 1700 Mhz und sogar etwas drunter fallen lassen (1650 ist glaube die "Garantie"). Der Leistungssprung war erheblich und ich erwarte nichts anderes bei Ampere, wobei halt Igor da schon ne etwas brutalere Ausrüstung hat.

Edit: Kurzer Ritt in Velen. Sind zwischen 2025 und 2050 Mhz

@Langlay: Kannst du uns noch etwas mehr zu deinem Setup verraten? Im Profil gesehen.

BlacKi
2020-10-13, 10:43:15
Im CPU-Limit bzw. bei geringer GPU-Last. :rolleyes:
das ist so ein punkt den ich bei igor nicht verstehe, selbst im folgenden wakü video löst er das nicht auf. wie kann man die leute so irreführen? ich hab darauf kurz nach der arbeit nicht drauf geachtet, denn wie aussagekräftig wäre denn ein video in fhd?:mad:

dildo4u
2020-10-13, 10:45:37
Ganz einfach Klicks erzeugen sein Job ist es Werbung zu verkaufen.

BlacKi
2020-10-13, 10:46:43
auf kosten seines rufs. tja, imho teurer klickbait.

HisN
2020-10-13, 11:28:33
1440p (mit hohem SSAA oder 2x2 DS) und 4K (ohne AA/DS, außer Post-/Temporal-AA) bei Spielen mit der brutalsten GPU-Last und/oder der höchsten Leistungsaufnahme. (gibt's bzgl. Letzterem eigentlich etwas schlimmeres als TW3? :confused:)



Das hier ist brutal^^

https://abload.de/thumb/rdr2_2020_10_03_12_09apkqs.jpg (https://abload.de/image.php?img=rdr2_2020_10_03_12_09apkqs.jpg)

Allerdings nicht von der Leistungsaufnahme her^^

dargo
2020-10-13, 12:17:18
das ist so ein punkt den ich bei igor nicht verstehe, selbst im folgenden wakü video löst er das nicht auf. wie kann man die leute so irreführen? ich hab darauf kurz nach der arbeit nicht drauf geachtet, denn wie aussagekräftig wäre denn ein video in fhd?:mad:
Das war von Igor nichts weiter als Just for Fun, steht übrigens auch beim Video dabei. Ihr nehmt alles viel zu ernst, entspannt euch mal. ;)

FastAndy
2020-10-13, 13:09:39
Ja, nehmt euch mal ein Beispiel an Dargo, dem entspanntesten User des Forums. Einfach ein sympathischer Kerl. Wer wollte mit ihm nicht mal ein Bierchen trinken und von Frametimes bis hin zu NV-Verfügbarkeit fabulieren, so von morgens bis abends.

PS: Meine Karte ist da. Leider nur eine MSI Trio, aber was ein Brocken.

k0nan
2020-10-13, 14:03:01
(...)

Die 3090 braucht halt relativ wenig Strom wenn sie nich voll ausgelastet ist. 1800MHz@0.8V macht in TW3 4k 300-320W und z.b. in HZD 4k 230-250W.


Kann ich bestätigen: Meine 3090 FE (PT @ 114% = 400W und 0.825v @ 1815 Mhz) benötigt in Witcher III @ 3840x1600 auch 300-330W bei durchgehend 100% GPU Auslastung lt. MSI Afterburner. Takt ist wie fest genagelt. Gehe ich auf PT @ 86% = 300W fällt der Takt logischerweise immer mal wieder auf 16xx - 17xx Mhz.

Übrigens, ich hab 0.8v @ 1800 Mhz nicht stabil bekommen. Es gab nach einer Weile Abstürze @ Metro Exodus, ich muss ihr 0.825v geben.

Ich hoffe, EKWB oder AC bringen zeitnah einen Block für die FE raus, die Graka mit Luftkühlung @ 50-55° zu halten geht nur mit Kopfhörern beim Zocken, sonst nervt es :wink: Ich hatte es ja schon mal geschrieben: Das ist imho trotzdem beeindruckend, weil die bisherigen Referenz/FE-Kühler nicht annähernd so potent waren.

@Armaq
Ich glaube, du hattest vor ein paar Seiten mal gefragt: Mit 'Fön' meine ich, dass die FE Lüfter @ ca 1600 Umdrehungen laufen. Man kann sie natürlich deutlich leiser betreiben, aber ich will sie max @ 55°. Schreib ruhig nochmal, falls die Frage anders war, ich überfliege diese Threads wg dem Geflame immer recht grob.

Lawmachine79
2020-10-13, 14:10:53
Ja, nehmt euch mal ein Beispiel an Dargo, dem entspanntesten User des Forums. Einfach ein sympathischer Kerl. Wer wollte mit ihm nicht mal ein Bierchen trinken und von Frametimes bis hin zu NV-Verfügbarkeit fabulieren, so von morgens bis abends.

PS: Meine Karte ist da. Leider nur eine MSI Trio, aber was ein Brocken.
Wer findet Dargo auf dem Bild?

Colin MacLaren
2020-10-13, 14:23:09
Kann ich bestätigen: Meine 3090 FE (PT @ 114% = 400W und 0.825v @ 1815 Mhz) benötigt in Witcher III @ 3840x1600 auch 300-330W bei durchgehend 100% GPU Auslastung lt. MSI Afterburner. Takt ist wie fest genagelt. Gehe ich auf PT @ 86% = 300W fällt der Takt logischerweise immer mal wieder auf 16xx - 17xx Mhz.

Übrigens, ich hab 0.8v @ 1800 Mhz nicht stabil bekommen. Es gab nach einer Weile Abstürze @ Metro Exodus, ich muss ihr 0.825v geben.

Ich hoffe, EKWB oder AC bringen zeitnah einen Block für die FE raus, die Graka mit Luftkühlung @ 50-55° zu halten geht nur mit Kopfhörern beim Zocken, sonst nervt es :wink: Ich hatte es ja schon mal geschrieben: Das ist imho trotzdem beeindruckend, weil die bisherigen Referenz/FE-Kühler nicht annähernd so potent waren.

@Armaq
Ich glaube, du hattest vor ein paar Seiten mal gefragt: Mit 'Fön' meine ich, dass die FE Lüfter @ ca 1600 Umdrehungen laufen. Man kann sie natürlich deutlich leiser betreiben, aber ich will sie max @ 55°. Schreib ruhig nochmal, falls die Frage anders war, ich überfliege diese Threads wg dem Geflame immer recht grob.

Habt Ihr die alle unter Wasser? Auch mit Undervolting habe ich in 4K (timespay Extreme) immer mal wieder Dips bis auf 1720MHz bei 390W. Habe ich hier eine Krüppelkarte oder liegt das allein an der Luftkühlung?

sven2.0
2020-10-13, 14:27:40
Habt Ihr die alle unter Wasser? Auch mit Undervolting habe ich in 4K (timespay Extreme) immer mal wieder Dips bis auf 1720MHz bei 390W. Habe ich hier eine Krüppelkarte oder liegt das allein an der Luftkühlung?

Benutz doch GPU-Z da siehst du warum nicht geboostet wird

HisN
2020-10-13, 15:54:23
Rennst ins Powerlimit, wie wir alle.
Es hilft eine Kurve.
Bei 0,9V@1995Mhz habe ich nur noch 4 kleine Dips im 2. Test, weil dort die 390W nicht reichen.

Ist zwar ein Video vom "normalen", aber das ändert ja nicht viel. Musst schauen wo Dein Sweetspot liegt, damit Du nicht ins 390W-Limit rennst.

vU3hTVtJTl4

Armaq
2020-10-13, 16:15:21
Auch ohne eine 3090 zu besitzen denke ich, dass das mit einer Luftkühlung nicht sustained geht. Wie bereits gesagt, ich bin auch nach 1 Std. bei festen 50°C für die GPU und da ändert sich nichts. Ich hab die Karte so eingestellt, dass absolutes Max. 340W sind laut GPUZ und eigentlich immer um die 320W. Damit bin ich konstant über 2000 Mhz und der Unterschied ist schon heftig ggü. Luftkühlung und 100 % PT (jetzt 115%). Effektiv also 70 Watt über dem PT der 2080Ti FE.

Da ich mit leichtem zeitlichen Versatz auf UltraWide gegangen bin, war ich völlig baff ob des Ergebnisses. Mit 5120x1440 hatte ich natürlich ordentlich Mehrbedarf ggü. WQHD und unter Luft war das eher ein Trauerspiel, die Karte ging mit neuen Pads/Paste sogar in den Notfallmodus für 10-15 Sekunden, wenn die Session mal länger wurde als 30 Minuten, oder der 3DMark Raytracing Test - da kam immer die Notfalllüftung.

Dies Powerlimits der Ampere-Karten sind für Wasser einfach prädestiniert. Man wird damit auch nochmal besser die Differenz der Rohleistung rausstellen können, denn die ist ja zweifelsfrei vorhanden.

€: Wenn ich das kurz überschlage von den Verhältnissen her, dann liegt ne gute 2080Ti mit um die 320W im Faktor 1,28 über der FE. Das würde bei einer 3090 auf 448W hinaus laufen. Gibt es solche PT für die 3090?

Ex3cut3r
2020-10-13, 16:25:14
Ja, die Asus Strix kann bei beiden 80er und 90er 450W Out of the Box ziehen.

Colin MacLaren
2020-10-13, 16:26:52
Rennst ins Powerlimit, wie wir alle.
Es hilft eine Kurve.
Bei 0,9V@1995Mhz habe ich nur noch 4 kleine Dips im 2. Test, weil dort die 390W nicht reichen.

Ist zwar ein Video vom "normalen", aber das ändert ja nicht viel. Musst schauen wo Dein Sweetspot liegt, damit Du nicht ins 390W-Limit rennst.

https://youtu.be/vU3hTVtJTl4

Ich renne selbst mit 1830@0.825V ins Power Limit im Timespy Extreme 2. Test. Allerdings wird die Karte immer 70 Grad heiß. Letzten Endes wird das den Unterschied machen.

Lowkey
2020-10-13, 17:03:25
Bei den Gigabyte Karten blicke ich noch nicht durch, denn eigentlich sind die Modelle Eagle und Gaming baugleich? Ich hatte die Gaming OC gestern im Warenkorb, aber ... ich habe kein gutes Gefühl eine 3090 zweiter Klasse zu kaufen.

dargo
2020-10-13, 17:05:45
Du machst dir da zu viel Kopf. Jede RTX 3090 ist nur zweite Klasse, erste Klasse gehört den Quadros. ;) So gesehen wäre Gigabyte dann schon eher dritte Klasse.

Colin MacLaren
2020-10-13, 17:59:52
Unten sind meine beiden Kurven.
Die LowRes istr für Benchmarks wie Timespy. Die HighRes resultiert in stabilen 1830MHz bei 4K Timespy Exteme Lauf 2 oder 8K in Horizon Dawn. Gleichzeitig habe ich damit einen guten Verbrauch von 270W in meiner nativen Monitorauflösung (3840x1080).

Gern nehme ich Tipps an, was da noch zu verbessern wäre bzw. was ich falsch verstanden habe. Offensichtlich erreichen andere ja deutlich höhere stabile Taktraten.

Lowkey
2020-10-13, 18:14:13
Ich habs nie rausbekommen: eine meiner OC-Scanner-manuell-Kurven war optimal und ich weiss bis heute nicht warum.

Armaq
2020-10-13, 18:42:05
Bei den Gigabyte Karten blicke ich noch nicht durch, denn eigentlich sind die Modelle Eagle und Gaming baugleich? Ich hatte die Gaming OC gestern im Warenkorb, aber ... ich habe kein gutes Gefühl eine 3090 zweiter Klasse zu kaufen.
Ich hab ne Gigabyte 2080Ti und wenn du Google bemühst, die sind oft nicht kompatibel mit den Wasserkühlern. Ich hab bei meiner auch manuell noch nachgeholfen am Board, muss ja nicht sein.

@Colin, die Karte boostet schon, aber halt nur wenn die Temperatur runter geht. Man kann natürlich auch die Referenztemperatur erhöhen (TempTarget), aber durch die Selbsttaktungsmechanismen muss die Temperatur runter. Mach doch mal alle Lüfter im Gehäuse auf 85%, lass das Fenster offen und warte ca. 10 Minuten. Dann mach mal ein Benchmark-Run. So hab ich ermittelt, dass meine 2080Ti ganz taktfreudig ist, aber die Kühlung scheiße.

Langlay
2020-10-13, 18:46:36
Ja, was Nvidia und Curveeditor angeht, bin ich auch noch relativ neu. Meine letzte Nvidia Graka war ne GTX470. Ich mach das bis jetzt einfach wie mit den AMD Grakas, PT auf max und dann bastel ich mir die Kurve so das meine Zielfrequenz und Spannung passt. Und was die Graka dann säuft säuft sie halt.

Meine aktuelle UV Kurve 1800MHz@0.8V sieht so aus :

https://abload.de/img/curverqkgl.png

-=Popeye=-
2020-10-13, 18:49:40
Ich hab ne Gigabyte 2080Ti und wenn du Google bemühst, die sind oft nicht kompatibel mit den Wasserkühlern. Ich hab bei meiner auch manuell noch nachgeholfen am Board, muss ja nicht sein.

...

Der wäre ideal gewesen. https://bykski.de/Fullcover-Wasserkuehler-Gigabyte-GTX-1080TI-Gaming-OC-Bykski-N-GV1080TIG1-X

MartinRiggs
2020-10-13, 18:49:54
Ja, nehmt euch mal ein Beispiel an Dargo, dem entspanntesten User des Forums. Einfach ein sympathischer Kerl. Wer wollte mit ihm nicht mal ein Bierchen trinken und von Frametimes bis hin zu NV-Verfügbarkeit fabulieren, so von morgens bis abends.

PS: Meine Karte ist da. Leider nur eine MSI Trio, aber was ein Brocken.

Einfach auf die Ignore mit der AMD Drohne, kann ich nur empfehlen ;)

Langlay
2020-10-13, 18:51:18
Der wäre ideal gewesen. https://bykski.de/Fullcover-Wasserkuehler-Gigabyte-GTX-1080TI-Gaming-OC-Bykski-N-GV1080TIG1-X


Er hat ne 2080ti, glaub kaum das sie ihm da der Wasserblock einer 1080ti was nützt.

-=Popeye=-
2020-10-13, 18:54:13
Oh stimmt... vergiss was ich verlinkt habe.

Triniter
2020-10-14, 08:27:53
PC Games Hardware hat ein Video von der 3090 Strix OC seit gestern online. Hier gibts den Bericht mit Video: Link (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Videos/Asus-RTX-3090-Strix-OC-Kann-der-Kuehler-bis-zu-480-Watt-im-Zaun-halten-1359733/)

dargo
2020-10-14, 08:54:07
Was eine Luftpumpe die ASUS Strix 3090. :facepalm:

Ich habe die relevanten Daten markiert.
https://abload.de/thumb/3090_16pj3z.jpg (https://abload.de/image.php?img=3090_16pj3z.jpg) https://abload.de/thumb/3090_2s5jkz.jpg (https://abload.de/image.php?img=3090_2s5jkz.jpg) https://abload.de/thumb/3090_3tvjqx.jpg (https://abload.de/image.php?img=3090_3tvjqx.jpg) https://abload.de/thumb/3090_48nkry.jpg (https://abload.de/image.php?img=3090_48nkry.jpg) https://abload.de/thumb/3090_ocvfj2s.jpg (https://abload.de/image.php?img=3090_ocvfj2s.jpg) https://abload.de/thumb/3090_oc_1pvjzt.jpg (https://abload.de/image.php?img=3090_oc_1pvjzt.jpg)

Entweder hat die PCGH ein "Golden Sample" bei der RTX 3090FE erwischt oder die Spannungsversorgung der ASUS Strix ist deutlich ineffizienter. Eine Kombination von beidem ist natürlich auch nicht ausgeschlossen.

4Fighting
2020-10-14, 09:23:07
Was eine Luftpumpe die ASUS Strix 3090. :facepalm:

Ich habe die relevanten Daten markiert.
[/URL]https://abload.de/thumb/3090_16pj3z.jpg (https://abload.de/image.php?img=3090_16pj3z.jpg) https://abload.de/thumb/3090_2s5jkz.jpg (https://abload.de/image.php?img=3090_2s5jkz.jpg) https://abload.de/thumb/3090_3tvjqx.jpg (https://abload.de/image.php?img=3090_3tvjqx.jpg) https://abload.de/thumb/3090_48nkry.jpg (https://abload.de/image.php?img=3090_48nkry.jpg) https://abload.de/thumb/3090_ocvfj2s.jpg (https://abload.de/image.php?img=3090_ocvfj2s.jpg) [URL]https://abload.de/thumb/3090_oc_1pvjzt.jpg (https://abload.de/image.php?img=3090_oc_1pvjzt.jpg)

Entweder hat die PCGH ein "Golden Sample" bei der RTX 3090FE erwischt oder die Spannungsversorgung der ASUS Strix ist deutlich ineffizienter. Eine Kombination von beidem ist natürlich auch nicht ausgeschlossen.

Die zeigen ja nichtmal wie viel Volt anlag, was ja schon sehr entscheidend ist für den Verbrauch. Vielleicht lief die FE mit 0,8x V und die Asus mit 1,0xV?;)

Ich kann in meine 2080ti auch 1,2V reinpumpen oder halt 0,95V bei gleichem Takt. FPS bleiben gleich - nur Power nimmt natürlich zu :D

NikLaw
2020-10-14, 09:23:37
Es ist doch inzwischen bekannt, dass man durch mehr Strom nicht mehr viel aus den Dingern rauspressen kann...

Triniter
2020-10-14, 09:31:10
Ich hoffe das die Strix jetzt mal langsam, zumindest in kleinen Mengen, auf dem Markt sichtbar wird. Nicht nur weil ich auch auf meine warte sondern weil es ja immer hieß Asus hat in der Ampere Generation beim EE-Design alles richtig gemacht.
Leider hat Asus ROG nicht auf meine Anfrage reagiert ob sie mal ein Update zur Liefersituation geben könnten. Vermutlich kommt die Anfrage aber auch 1000 mal am Tag.

Langlay
2020-10-14, 09:35:12
Es ist doch inzwischen bekannt, dass man durch mehr Strom nicht mehr viel aus den Dingern rauspressen kann...

Das stimmt so nicht, das Powerlimit wird nur schnell ein Problem.

Dural
2020-10-14, 09:37:41
Klar ist die Spannungsversorgung der Strix ineffizienter, die muss auch 480W packen ganz Offiziell.

Das ist genau der Grund wieso ich mir die TUF Bestellt habe, ein zwischen ding zwischen Strix und den Referenz Karten.

dargo
2020-10-14, 09:48:58
Die zeigen ja nichtmal wie viel Volt anlag, was ja schon sehr entscheidend ist für den Verbrauch. Vielleicht lief die FE mit 0,8x V und die Asus mit 1,0xV?;)

Träum weiter. Dann würde sich die PCGH selbst ihre Kompetenz abschießen. Natürlich hat die PCGH das Powerlimit erhöht und die GPUs haben nach oben innerhalb ihrer vorgegebenen Spannungskurve skaliert. Alles andere wäre auch komplett hirnverbrannt. Ohne OC war es stinknormaler Vergleich Default vs. Default.

btw.
Die ASUS Strix 3090 hat offensichtlich schon Default ein Powerlimit von 400W, wie man im Video sehen kann. Da werden sicherlich höhere Voltages als bei Default 3090FE anliegen (man sieht auch öfter mal höhere Frequenzen). Schade, dass die PCGH im Vergleich nicht das Powerlimit bei der Strix auf 350W gesenkt hat. Das wäre nämlich auch ein recht interessanter Vergleich vs. 3090FE.

MiamiNice
2020-10-14, 10:49:22
PC Games Hardware hat ein Video von der 3090 Strix OC seit gestern online. Hier gibts den Bericht mit Video: Link (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Videos/Asus-RTX-3090-Strix-OC-Kann-der-Kuehler-bis-zu-480-Watt-im-Zaun-halten-1359733/)


Eigentlich wollte ich es nicht schauen, jetzt doch zu wenig Langeweile.
Schlechtestes Strix 3090 Review auf dem Markt. Kleinste Taktraten, falsche Angaben und der Erzähler hat die Wirkung einer Zeitung. Alleine seine UVP Angabe von Asus von 1800+€ ist kaum zu halten. Die karte ist bei Asus selbst für 1600€ zu haben.

Asaraki
2020-10-14, 11:03:53
Eigentlich wollte ich es nicht schauen, jetzt doch zu wenig Langeweile.
Schlechtestes Strix 3090 Review auf dem Markt. Kleinste Taktraten, falsche Angaben und der Erzähler hat die Wirkung einer Zeitung. Alleine seine UVP Angabe von Asus von 1800+€ ist kaum zu halten. Die karte ist bei Asus selbst für 1600€ zu haben.

Bin ja kein PCGH Fan, aber
a) er sagt 1600-1800 (UVP bis "Strassenpreis", ^^)
b) Falsche Angaben? Bisschen allgemein, ne? Beispiele?
c) Ja, ist halt ernüchtern ne? ^^ Da kann das Review wenig dafür, dass diese Karten-Exemplar nicht wirklich besser als die FE läuft.

Klingt jetzt eher so als wärst du enttäuscht vom Review-Ergebnis, nicht vom Review :D

MiamiNice
2020-10-14, 11:52:03
Das Review widerspricht allen anderen Reviews zur Karte.

Asaraki
2020-10-14, 12:05:53
Ja und? das macht es ja nicht falsch, auch wenn ich PCGH eher nicht traue ^^

dargo
2020-10-14, 12:36:07
Das Review widerspricht allen anderen Reviews zur Karte.
Inwiefern? Weil alle anderen zu dämlich sind hohe GPU-Last auf die Karte zu legen? Die PCGH ist nicht gerade unbekannt im Bereich worst cases zu suchen. In dem Fall war es sogar der stinknormale Benchmark vom Spiel.

Edit:
Vielleicht überzeugt dich ein polnisches Review mehr? Der erste Durchlauf ist in 1440p, der zweite in 4k.
https://youtu.be/Jmxao7GxzQ0?t=280

In 4k geht die Strix 3090 in Borderland 3 teilweise unter 1,8Ghz runter. Witcher 3 ist auch so ein Kandidat. In Metro Exodus @4k mit RT und ohne DLSS geht der Takt sogar teilweise unter 1,6GHz.

MiamiNice
2020-10-14, 13:55:32
Ja und? das macht es ja nicht falsch, auch wenn ich PCGH eher nicht traue ^^

Wie falsch das ist werden wir ja ziemlich bald sehen, die ersten 3090 Strix OC gehen wohl gerade Richtung Endkunden.
Ich kann die Seite gar nicht mehr ernst nehmen :frown:

Armaq
2020-10-14, 16:45:54
Wenn jemand eine 3090 mit 448 Watt PT Target und einer Wasserkühlung hat, bitte mal ein Durchläufe von 3DMark in Timespy, Extreme & Raytracing (Port Royale) posten. Das wäre klasse.

Geächteter
2020-10-14, 18:25:50
Was eine Luftpumpe die ASUS Strix 3090. :facepalm:
Entweder hat die PCGH ein "Golden Sample" bei der RTX 3090FE erwischt oder die Spannungsversorgung der ASUS Strix ist deutlich ineffizienter. Eine Kombination von beidem ist natürlich auch nicht ausgeschlossen.
War das mal je anders? Die Referenz-PCB waren doch schon eigentlich immer das Nonplusultra, was Effizienz anging.

Sardaukar.nsn
2020-10-15, 16:42:20
lJCx3HzLGuk

3090 meets 3440x1440p ultrawide

Armaq
2020-10-15, 19:18:32
https://youtu.be/lJCx3HzLGuk

3090 meets 3440x1440p ultrawide
Schade, fast perfekt. Ich hab aber 5120, liege bei RDR2 ganz knapp unter 60 fps, aber ich hab alles Ingame aufgedreht.

qiller
2020-10-15, 20:44:03
https://youtu.be/lJCx3HzLGuk

3090 meets 3440x1440p ultrawide

Öh, ich hab ja 3840x1600 @120Hz + HDR. Dachte echt, die RTX3090 schafft bei 3440x1440 locker überall die 120fps+? D.h. ja, ich seh bei mir mit ner von mir angepeilten RTX3080 20GB Edition noch weniger fps als im Video? :/

-=Popeye=-
2020-10-15, 21:28:31
Was habt ihr denn für Vorstellungen, die Tests nicht gesehen?

Colin MacLaren
2020-10-15, 22:20:22
Mal Modern Warfare im Multiplayer getestet in 3840x1080p.

Mit hohen Details und Raytracing sind so 155-160fps drin, mit dem in dem Game zwingend notwendigen Schärfefilter aber wieder nur ~125fps.

Um also über die Bildwiederholrate meines Monitors zu kommen muss ich entweder ein blurry Bild ertragen, mit schwarzen Balken in 2560x1080 leben oder Raytracing deaktivieren. Aber man kann die Karte ja nicht ausnutzen....

Armaq
2020-10-15, 22:33:18
Mal Modern Warfare im Multiplayer getestet in 3840x1080p.

Mit hohen Details und Raytracing sind so 155-160fps drin, mit dem in dem Game zwingend notwendigen Schärfefilter aber wieder nur ~125fps.

Um also über die Bildwiederholrate meines Monitors zu kommen muss ich entweder ein blurry Bild ertragen, mit schwarzen Balken in 2560x1080 leben oder Raytracing deaktivieren. Aber man kann die Karte ja nicht ausnutzen....
Mit RT on? Das wäre aber ein gewaltiger Sprung. RT wirft mich zu stark zurück in Multiplayer.

Lawmachine79
2020-10-15, 22:39:43
zwingend notwendigen Schärfefilter aber wieder nur ~125fps.


Wieso ist der zwingend notwendig? Nie drauf geachtet, ob der bei mir an ist.

Colin MacLaren
2020-10-16, 07:49:11
Wieso ist der zwingend notwendig? Nie drauf geachtet, ob der bei mir an ist.

Den aktiviere ich über das Nvida Overlay Dings mit Alt+Z. Modern Warfare sieht imho echt böse verschwommen aus.

Sardaukar.nsn
2020-10-16, 10:07:02
@qiller: Zwischen eine gut eingestellten 3080 (overclocking/undervolting) und einer 3090 wirst du in einem Doppelblindversuch keinen Unterschied feststellen.

Ich muss aber auch noch warten, Cyberport gibt als Liefertermin für meine Strix inzwischen "irgendwann 2021" an.

Asaraki
2020-10-16, 10:10:00
Mit RT on? Das wäre aber ein gewaltiger Sprung. RT wirft mich zu stark zurück in Multiplayer.

Hab ich meinem nV Mitarbeiter gesagt, der da leicht traurig war (er ist nicht im Gaming Department) : Nö bis RTX für Multiplayer kommt (144fps+) dauert es noch eine Weile :(

Glaube ich also eher nicht, wäre aber krass? Her mit der Antwort!

Lawmachine79
2020-10-16, 10:17:14
Modern Warfare sieht imho echt böse verschwommen aus.
Ah - dachte das liegt an meinem Trinkverhalten.

Troyan
2020-10-16, 10:47:50
Call of Duty bekommt DLSS. Kein Plan, ob das für den MP auch geht, aber dann sind auch >144FPS mit Raytracing drin.

wolik
2020-10-16, 17:27:29
Was eine Luftpumpe die ASUS Strix 3090. :facepalm:

Ich habe die relevanten Daten markiert.


Entweder hat die PCGH ein "Golden Sample" bei der RTX 3090FE erwischt oder die Spannungsversorgung der ASUS Strix ist deutlich ineffizienter. Eine Kombination von beidem ist natürlich auch nicht ausgeschlossen.

Ich habe auf mein TUF 3090 O24G BIOS von Strix aufgespielt, mit Ergebnis mehr Verbrauch. (PT23% statt 7%) Mehr Takt... und gleiches FPS :biggrin:
Ach, ja in 3DMark, 500 Punkten weniger...

BlacKi
2020-10-16, 18:26:29
Ich habe auf mein TUF 3090 O24G BIOS von Strix aufgespielt, mit Ergebnis mehr Verbrauch. (PT23% statt 7%) Mehr Takt... und gleiches FPS :biggrin:
Ach, ja in 3DMark, 500 Punkten weniger...
ich bin schockiert. NOT



die karte wird nur warm und verliert dann ihren boost weiter.

qiller
2020-10-16, 19:10:09
Ich habe auf mein TUF 3090 O24G BIOS von Strix aufgespielt, mit Ergebnis mehr Verbrauch. (PT23% statt 7%) Mehr Takt... und gleiches FPS :biggrin:
Ach, ja in 3DMark, 500 Punkten weniger...
Erinnert mich ja ans Clockstretching von Ryzen 3000...

Asaraki
2020-10-16, 19:37:57
Call of Duty bekommt DLSS. Kein Plan, ob das für den MP auch geht, aber dann sind auch >144FPS mit Raytracing drin.

NA das sind mal good news. Ich spiele das kaum, weil du nur zwischen no-AA und MudvisionTM auswählen kannst.

wolik
2020-10-16, 23:31:29
die karte wird nur warm und verliert dann ihren boost weiter.

Die Karte wird nicht mal 60 C warm (Lüfter 100%), und in mit etwa weniger spannender (100 / 600) Einstellungen versagt genauer so. Woran das liegt , ich habe k.A.

=Floi=
2020-10-16, 23:46:23
weil die karte imho im ms bereich zu viel strom zieht.

Armaq
2020-10-17, 00:24:35
NA das sind mal good news. Ich spiele das kaum, weil du nur zwischen no-AA und MudvisionTM auswählen kannst.
Also RT im SP sieht brutal geil aus. Gerade die Missionen in der Nacht sind grafisch absolutes Premium-Segment.

Ihr müsst mal Filmisches SMAA ausmachen, dann habt ihr auch keinen Matsch. Leider hab ich dann komische Schatten in CoD.

Die Leute mit 3090 müssen vll. PT hoch und VCore runter?

TurricanM3
2020-10-17, 00:33:04
Ich habe auf mein TUF 3090 O24G BIOS von Strix aufgespielt, mit Ergebnis mehr Verbrauch. (PT23% statt 7%) Mehr Takt... und gleiches FPS :biggrin:
Ach, ja in 3DMark, 500 Punkten weniger...

Das läuft vernünftig? Wie viel PT hast du denn damit? Es fehlt ja ein 8pin und eigentlich geht das eher nach hinten los.

HisN
2020-10-17, 01:02:33
Mit dem Patch 1.6 und der 3090er ist HZD ein Träumchen.
Und es ist echt unglaublich wie viel RAM und VRAM das Teil zieht beim 1. Start nach einem Update.
Kein Wunder dass da einige User mit 16GB RAM im System in Problemchen rennen (Patchnotes).

_8nnbkoL37g

Emil_i_Lönneberga
2020-10-17, 04:06:38
Universelle Wakü-Backplate Kühlung.

https://mp5works.com/store/

https://m.youtube.com/watch?v=lo9r0jC6yzo

https://m.youtube.com/watch?v=TCjlu1G8TIE

dargo
2020-10-17, 08:43:44
Mit dem Patch 1.6 und der 3090er ist HZD ein Träumchen.
Und es ist echt unglaublich wie viel RAM und VRAM das Teil zieht beim 1. Start nach einem Update.
Kein Wunder dass da einige User mit 16GB RAM im System in Problemchen rennen (Patchnotes).

https://youtu.be/_8nnbkoL37g
Schwachsinn³... nach dem Kompilieren das Spiel neu starten. Machst du das eigentlich mit Absicht mit deinen Speicherorgien? :rolleyes: Mehr als 16GB Arbeitsspeicher bringt im Spiel überhaupt nichts! Mit hoher Wahrscheinlichkeit würden sogar 12GB reichen. So eine exotische Konfiguration (2x 4GB + 2x 2GB) verwendet nur keiner.

Edit:
Mit 16GB RAM werden im Kompilierungsprozess über 15GB hier verwendet. Spielt man direkt danach bleibt der RAM-Verbrauch hoch weil das Spiel den Speicher nicht frei gibt (wieder so eine Fehlprogrammierung vom Spiel). Nach einem Spielneustart sind es dann nur noch ca. 9-11GB die verwendet werden, je nachdem wo man sich bewegt.

wolik
2020-10-17, 11:13:11
Das läuft vernünftig? Wie viel PT hast du denn damit? Es fehlt ja ein 8pin und eigentlich geht das eher nach hinten los.
Läuft ganz normal. Man kann Takt höher stellen, GPU Z zeigt drei Strom Anschlüsse und Stromverbrauch 118% (mit PT 23%) Nur damit geht FPS nicht höher als mit normale BIOS. Am besten wäre PT auf original BIOS ändern.
Bei andere Hersteller PT 0% bis 5% :)

BlacKi
2020-10-17, 11:20:15
Läuft ganz normal. Man kann Takt höher stellen, GPU Z zeigt drei Strom Anschlüsse und Stromverbrauch 118% (mit PT 23%) Nur damit geht FPS nicht höher als mit normale BIOS. Am besten wäre PT auf original BIOS ändern.
Bei andere Hersteller PT 0% bis 5% :)
ist das PT nicht der grund warum turri die strix unter wasser will?:wink:

HisN
2020-10-17, 12:04:30
Schwachsinn³... nach dem Kompilieren das Spiel neu starten. Machst du das eigentlich mit Absicht mit deinen Speicherorgien? :rolleyes: Mehr als 16GB Arbeitsspeicher bringt im Spiel überhaupt nichts! Mit hoher Wahrscheinlichkeit würden sogar 12GB reichen. So eine exotische Konfiguration (2x 4GB + 2x 2GB) verwendet nur keiner.

Edit:
Mit 16GB RAM werden im Kompilierungsprozess über 15GB hier verwendet. Spielt man direkt danach bleibt der RAM-Verbrauch hoch weil das Spiel den Speicher nicht frei gibt (wieder so eine Fehlprogrammierung vom Spiel). Nach einem Spielneustart sind es dann nur noch ca. 9-11GB die verwendet werden, je nachdem wo man sich bewegt.


Hab ich behauptet das es beim 2. Start noch so viel Speicher nutzt? Nein. Das dichtest Du wie üblich hinzu. Aber wenn Du die Patchnotes lesen würdest, dann hättest Du gesehen, das einige User Problemchen haben mit nur 16GB den Kompilerungsprozess überhaupt zu beenden, weil ihnen das Game früher abschmiert, wahrscheinlicht weil sie ihre Auslagerung zu eng gestrickt haben.

Was bei Dir scheinbar auch der Fall sein dürfte, denn ab 13GB RAM-Nutzung lagert Windows SIGNIFIKANT aus. Wenn Du 15GB auf der Uhr hast, dann ist Deine Swapdatei wahrscheinlich auch schon richtig voll. Nicht das daher Deine Problemchen kommen. Knappes VRAM, knappes RAM.

Vor allem dass Du nicht in der Lage bist eine Diskussion sachlich zu führen. Nein, erstes Wort ist gleich ein Kraftwort. Juhu.
Alter bist Du anstrengend mit Deiner Engstirnichkeit. Wirklich.



Hat jemand eigentlich nur gute Stelle gefunden, um Texturen-Auflösung mal gegenzuchecken?
Ich meine den Unterschied zwischen LOW und Medium sieht ja jeder Blinde.
Aber danach wird es schwieriger. Was wird wirklich noch höher Aufgellöst? Gebäude z.b. scheinen nicht betroffen zu sein.

dargo
2020-10-17, 12:09:53
Hab ich behauptet das es beim 2. Start noch so viel Speicher nutzt? Nein. Das dichtest Du wie üblich hinzu. Aber wenn Du die Patchnotes lesen würdest, dann hättest Du gesehen, das einige User Problemchen haben mit nur 16GB den Kompilerungsprozess überhaupt zu beenden, weil ihnen das Game früher abschmiert, wahrscheinlicht weil sie ihre Auslagerung zu eng gestrickt haben.

Was bei Dir scheinbar auch der Fall sein dürfte, denn ab 13GB RAM-Nutzung lagert Windows SIGNIFIKANT aus. Wenn Du 15GB auf der Uhr hast, dann ist Deine Swapdatei wahrscheinlich auch schon richtig voll. Nicht das daher Deine Problemchen kommen. Knappes VRAM, knappes RAM.

Du hast echt keinen blassen Schimmer wie dieses Spiel mit Speicher umgeht. :facepalm: Mach du mal besser weiter mit deinem Speicher-Propaganda. Und dann noch der Schwachfug in Bezug auf Swapdabei. Meine Fresse... dieses Halbwissen tut echt weh. Im übrigen habe ich eine absolut saubere Frameausgabe wenn ich das Spiel nach dem Kompilieren nicht neustarte obwohl der Arbeitsspeicher fast voll ist. :rolleyes:

Edit:
Das Spiel braucht recht viel VRAM im aktuellen Zustand um durchgehend sauber mit => medium Texturen zu laufen. Garantiert nicht viel Arbeitsspeicher!


Hat jemand eigentlich nur gute Stelle gefunden, um Texturen-Auflösung mal gegenzuchecken?
Ich meine den Unterschied zwischen LOW und Medium sieht ja jeder Blinde.
Aber danach wird es schwieriger. Was wird wirklich noch höher Aufgellöst? Gebäude z.b. scheinen nicht betroffen zu sein.
Sag das bloß nicht Armaq. Der halluziniert auch schon bezüglich Texturen in diesem Spiel.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12463402&postcount=1697

Kannst du ihm gerne die riesen Unterschiede zwischen medium, high und ultra Texturen mit deiner 24GB Graka zeigen.

hq-hq
2020-10-17, 12:36:05
also HZD ist bei mir tatsächlich abgeschmiert und im Taskmanager war die Meldung ich solle Programme beenden weil kein Arbeitsspeicher mehr frei ist (bei 16GB).
-> Windoof lagert irgendwann beträchtlich in die Auslagerungsdatei aus

imo hat HisN recht was die früheren Spieleversionen von HZD angeht, hab zwei Riegel dazugesteckt und mit 32 GB gab es kein Problem mehr...

nach einem der letzteren Spielepatches scheint mir der RAM Verbrauch gesunken zu sein (ja ohne Firefox/Chrome o.ä. Programme im Hintergrund)... VRAM werden früher oder später immer bis zu 11GB (von max 11GB) befüllt

- zum Kompilierungsprozess
der ist extrem CPU lastig, evtl. kackt bei einigen Kollegen die CPU ab

wolik
2020-10-17, 12:48:45
ist das PT nicht der grund warum turri die strix unter wasser will?:wink:
Wasser ist für alles gut, für Strix besonders. Nur bei mir TUF mit Strix BIOS läuft nicht gut. Getestet alles mit 3DMark und RDR2, alles anderes hat kein Sinn. HZD läuft in jeder Szene mit Stab. 60 fps. Ok, Bench kann man noch laufen lassen. (Versuche gleich, zum Glück Asus spendiert 2 BIOS für die Karte)

PS: Mit Strix BIOS habe ich in HZD Bench weniger Punkten. Egal mit welche Einstellungen. (200/1000 oder 100/500)

TurricanM3
2020-10-17, 13:03:19
Ich hatte mal eben kurz HZD angeschmissen, aber das läuft bei mir immer noch lange nicht sauber. Der krawallsche AF Hack ist aber echt gut, sieht viel besser aus. Danke dafür.
HisN, bei dir sieht das schon fast zu gut aus. Funktioniert der framegraph überhaupt (Späßle)? :freak:
Ich lad nachher mal was hoch. Ob das an meinem "Speicherkrüppel" liegt sehe ich hoffentlich Dienstag. Vielleicht reduziere ich auch mal die Texturen nachher.

Läuft ganz normal. Man kann Takt höher stellen, GPU Z zeigt drei Strom Anschlüsse und Stromverbrauch 118% (mit PT 23%) Nur damit geht FPS nicht höher als mit normale BIOS. Am besten wäre PT auf original BIOS ändern.
Bei andere Hersteller PT 0% bis 5% :)

Ich bin wirklich verwundert, dass das bei dir läuft. Bist du dir da wirklich sicher? Normalerweise sollte die Karte so gar nicht mehr richtig hochtakten. Es werden dir zwar Verbrauchswerte angezeigt, die aber nicht stimmen. Also du hast nicht wirklich plötzlich 480W, klar oder? Die Taktraten sind auch gerne verkehrt oder die Karte geht gar in den safe mode.

dargo
2020-10-17, 13:51:53
also HZD ist bei mir tatsächlich abgeschmiert und im Taskmanager war die Meldung ich solle Programme beenden weil kein Arbeitsspeicher mehr frei ist (bei 16GB).

Ist ein bekannter Bug. Ist ja nicht so, dass dieses Spiel selbst zwei Monate nach Release bugfrei wäre. Hier stürzt gar nichts mit 16GB ab. Und war bei jeder Spielversion hier so.

HOT
2020-10-17, 14:04:17
Mit 32GB passiert das aber offenbar nicht mit dem Absturz. Ich denke, dass HisN mindestens zum Teil recht hat. Da gibt es sicherlich einen Bug, aber der tritt auch nur unter diesen Umständen auf. Und werd mal entspannter in deinem Diskussionsstil, das ist nicht nur anstrengend sondern auch belastend. Das muss doch nicht sein.

Ich vermute aber weniger, dass hier Leute ihre Auslagerungsdatei verkleinert oder abgeschaltet haben, eher dass die Boot-SSDs einfach super voll sind.

dargo
2020-10-17, 14:08:07
Mit 32GB passiert das aber offenbar nicht mit dem Absturz.
Mit 16GB auf den meisten Systemen auch nicht. :rolleyes: Ich kann ja schlecht in jedes System reinschauen was da los ist. Es gibt sogar solche Volltrottel die eine Auslagerugsdatei in Windows deaktivieren und sich dann wundern wenn ein Spiel rumspackt.


Ich vermute aber weniger, dass hier Leute ihre Auslagerungsdatei verkleinert oder abgeschaltet haben, eher dass die Boot-SSDs einfach super voll sind.
Auch eine Möglichkeit von vielen. Da müsste man jeden Einzelfall separat betrachten.

Daredevil
2020-10-17, 15:26:57
Ich hab mich mal an Max.UV rangetraut und bin kläglich gescheitert. :D
Also ich weiß nicht genau, was dort passiert, aber zwischen den Taktschritten 1250-1350Mhz schaltet sich irgendwas auf der GPU dazu, so dass der Verbrauch drastisch steigt, deswegen sind neue Effizienz-UV Rekorde hier nicht möglich.
Kann das jemand nachstellen? Liegts am Ram, dem auf einmal mehr Saft zugeschoben wird?

Superposition 4K

Takt | Spannung | Verbrauch | Punkte | Temperatur/RPM | Punkte pro Watt
STOCK 1700-1785/5500 | 0.860v | 350w |16066pts| ( 75 Grad, 1550rpm ) |45w/pts

1050/5002 | 0,712v | 175w | 9949pts| ( 65 Grad, 750rpm ) |56w/pts
1170/5002 | 0,712v | 182w | 10733pts |( 66 Grad, 800rpm )| 58w/pts
1260/5002 | 0,712v | 188w | 11296pts |( 66 Grad , 830rpm ) |60w/pts
1365/5002 | 0,712v | 240w | 12852pts| ( 68 Grad, 1030rpm ) |53w/pts
1470/5002 | 0,712v | 249w | 14066pts| ( 69 Grad, 1075rpm ) |56w/pts
1560/5002 | 0,712v | 255w | 14710pts |( 69 Grad, 1110rpm ) |57w/pts
1680/5002 | 0.725v | 273w | 15504pts |( 70 Grad, 1190rpm )| 56w/pts
1755/5002 | 0.775v | 312w | 16163pts |( 73 Grad, 1380rpm )| 53w/pts
1845/5002 | 0.825v | 350w | 16670pts |( 75 Grad, 1580rpm ) |47w/pts

Punkte pro Watt im Bestcase anderer Karten:
Radeon VII
1200mhz|0,725v | ~90w | 5505pts | ( 58 Grad, 900rpm )| 61w/pts

2080TI
1400mhz|0,712v | ~146w | 9636pts | ( 62 Grad, 1020rpm) | 66w/pts


5700XT
1400mhz|0,750v | ~120w | 5560pts | ( 87 Grad, 901rpm) | 46w/pts

Sehr unbefriedigendes Ergebnis. ^^

wolik
2020-10-17, 16:03:16
Ich bin wirklich verwundert, dass das bei dir läuft. Bist du dir da wirklich sicher? Normalerweise sollte die Karte so gar nicht mehr richtig hochtakten. Es werden dir zwar Verbrauchswerte angezeigt, die aber nicht stimmen. Also du hast nicht wirklich plötzlich 480W, klar oder? Die Taktraten sind auch gerne verkehrt oder die Karte geht gar in den safe mode.

Wegen 480W, um sicher zu sein, man könnte PC über Stromzähler laufen lassen. Die Karte läuft dann ab 1860 bis 2200. Ob jemand Strix 3090 in Forum hat?

Spielerei mit Curve haben bei mir nichts gebracht (kann man überhaupt alle punkte gleichzeitig verschieben?) Ich stelle einfach PT auf 60% (mit 50 oder weniger Karte läuft in "2D Modus") und habe kaum Takt und kaum Verbrauch.

TurricanM3
2020-10-17, 16:05:11
Wegen 480W, um sicher zu sein, man könnte PC über Stromzähler laufen lassen. Die Karte läuft dann ab 1860 bis 2200. Ob jemand Strix 3090 in Forum hat?

Du wirst keine 480w mit dem Strix Bios auf deiner TUF haben. Kannst aber gerne mal gegenchecken. Wie geschrieben, das Bios funktioniert auf der Karte doch gar nicht richtig.

TurricanM3
2020-10-17, 17:46:12
Mir ist gerade etwas aufgefallen:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/page-164#post-27767748

BlacKi
2020-10-17, 18:05:50
Liegts am Ram, dem auf einmal mehr Saft zugeschoben wird?

das der ram ein großer faktor ist beim verbrauch ist kein geheimnis. vl ist das ein neuer effizienzmodus für geringe lasten. leider hab ich keine ampere karte bekommen.

wolik
2020-10-17, 19:14:54
Du wirst keine 480w mit dem Strix Bios auf deiner TUF haben. Kannst aber gerne mal gegenchecken. Wie geschrieben, das Bios funktioniert auf der Karte doch gar nicht richtig.
Ich stimme dir zu.

Langlay
2020-10-17, 19:25:57
Edit:
Mit 16GB RAM werden im Kompilierungsprozess über 15GB hier verwendet. Spielt man direkt danach bleibt der RAM-Verbrauch hoch weil das Spiel den Speicher nicht frei gibt (wieder so eine Fehlprogrammierung vom Spiel). Nach einem Spielneustart sind es dann nur noch ca. 9-11GB die verwendet werden, je nachdem wo man sich bewegt.

Ich hab hier auch beim normalen Spielen ohne das vorher der Shadercache neu gemacht wird. schon über 16GB RAM Auslastung bei HZD. Allerings muss man dazu sagen, das ich relativ viele Hintergrundprogramme am laufen hab. Und auf dem Desktop nach dem Starten schon bei 7-8GB RAM Verbrauch liege.

Wenn vorher auch noch gecached wird, hab ich 20+ GB bei HZD.

Troyan
2020-10-17, 19:40:46
Gerade die Call of Duty Beta gezockt. Minimaps und laut Overlay 20GB reserviert und 15GB per Prozess in 4K.

Die Engine ist wirklich echt schlecht.

HisN
2020-10-17, 23:12:05
Beim Geräusch der Stromversorung hab ich wohl dieses mal Glück gehabt.

Titan Xp (Pascal)

tkhYhyGcQzc

Palit 3090 (Ampere)

Khg51qEzKo4

Gleiche Cam, gleicher Abstand (steht auf der Stromversorgung), nur mein Gehäuse hat sich inzwischen verändert^^

BlacKi
2020-10-18, 04:03:56
Allerings muss man dazu sagen, das ich relativ viele Hintergrundprogramme am laufen hab. Und auf dem Desktop nach dem Starten schon bei 7-8GB RAM Verbrauch liege.
wie kommts? ich liege bei unter 2gb.

Langlay
2020-10-18, 04:46:47
Wie gesagt 1000 Hintergrundprogramme und ein paar Programme (Chrome usw)im Autostart.

Colin MacLaren
2020-10-18, 08:52:25
Ich hatte ja nun das Glück eine strix zu ergattern und muss sagen - die ist massiv überbewertet.

Bei 390W komme ich auf die gleichen Taktraten wie die Gigabyte, bei 480W gehen natürlich ein paar mehr, das ist aber nicht der Rede wert (ca. 50 MHz) weil weit weg vom Sweetspot. Leiser ist sie gefühlt auch nicht wirklich und die Beleuchtungssteuerung ist, wenn man kein Asus-Board hat, die finsterestes Blaotware vor dem Herrn, die mir ümzig Proezsse ins System knallt.

wolik
2020-10-18, 10:26:59
Ich hatte ja nun das Glück eine strix zu ergattern und muss sagen - die ist massiv überbewertet.

Bei 390W komme ich auf die gleichen Taktraten wie die Gigabyte, bei 480W gehen natürlich ein paar mehr, das ist aber nicht der Rede wert (ca. 50 MHz) weil weit weg vom Sweetspot. Leiser ist sie gefühlt auch nicht wirklich und die Beleuchtungssteuerung ist, wenn man kein Asus-Board hat, die finsterestes Blaotware vor dem Herrn, die mir ümzig Proezsse ins System knallt.

Kannst du in 3DMark FS Ultra die karte mal laufen lassen? Ich komme mit TUF auf 13200 Punkten, mit BIOS von Strix sind nur 12600 drin. (egal welche Takt)
Übrigens es gibt zwei BIOS für die Karte. Schaue ob du neuesten hast.

TUF Bläm LED Logo, müsste ich mit Klebeband zukleben.

https://www.3dmark.com/fs/23742095

Daredevil
2020-10-18, 12:07:17
Ich hatte ja nun das Glück eine strix zu ergattern und muss sagen - die ist massiv überbewertet.

Bei 390W komme ich auf die gleichen Taktraten wie die Gigabyte, bei 480W gehen natürlich ein paar mehr, das ist aber nicht der Rede wert (ca. 50 MHz) weil weit weg vom Sweetspot. Leiser ist sie gefühlt auch nicht wirklich und die Beleuchtungssteuerung ist, wenn man kein Asus-Board hat, die finsterestes Blaotware vor dem Herrn, die mir ümzig Proezsse ins System knallt.
Guter Chip + gute Spennungsversorgung > Gute Karte
Guter Chip + schlechte Spannungsversorgung > Okaye Karte
Schlechter Chip + Gute Spannungsversorung > Okaye Karte

Nur weil man ne Asus hat, gewinnt man noch nicht automatisch die Silizium Lotterie. ^^
Btw. meine verbuggte Zotac taktete Stock so auf 1720-1800@4K, also recht Standard. Wenn man sie aber mal richtig ran nahm, dann ging es auch auf 1600 runter. Horizon in 8k@30fps fordert anscheinend auch so sehr den RAM raus, dass der Coretakt purzelt. ^^
Für solche Szenarien ist Power Limit halt gut, damit der Takt stabil bleibt.

grobi
2020-10-18, 12:55:33
Ich hatte ja nun das Glück eine strix zu ergattern und muss sagen - die ist massiv überbewertet.

Bei 390W komme ich auf die gleichen Taktraten wie die Gigabyte, bei 480W gehen natürlich ein paar mehr, das ist aber nicht der Rede wert (ca. 50 MHz) weil weit weg vom Sweetspot. Leiser ist sie gefühlt auch nicht wirklich und die Beleuchtungssteuerung ist, wenn man kein Asus-Board hat, die finsterestes Blaotware vor dem Herrn, die mir ümzig Proezsse ins System knallt.

Leiser als die TUF ist sie auch nicht?

mfg grobi

Edgecrusher86
2020-10-19, 05:33:44
Habe kurzfristig zugeschlagen zu einem "fairen Preis" von 1650€ bei Computeruniverse - an sich eine ordentliche Karte, nur die 350W sind halt etwas limitierend, wobei mir ~ 1800 MHz @ 806-811mV langen. 1860 MHz war in UWQHD das Maximum, was möglich war mit 861mV. Die goldenen Chips machen damit deutlich über 1900 MHz. Nun ja, ist soweit ok. Ich werde wohl das meiste dann eh in maximal 5160 x 2160 DSR zocken - da langen auch niedrigere Taktraten.

Eigentlich wollte ich ja die FE oder TUF OC/STRIX OC holen, aber nun ja....lieferbar war ja nichts, obwohl 15:00 auf die Lauer gelegt am 24.09. - STRIX OC Vorbestellung storniert am WE. Habe am 2.10. bestellt, aber irgendwie arbeitet Alternate die Bestellungen nicht zeitlich ab - so haben dann auch mal Leute schon Karten bekommen, die teils erst am 10.10. bestellten - zum selben Preis. Vielleicht ging es etwas nach "guter Kunde, schlechter Kunde" - diesbezüglich bin ich in den letzten paar Jahren letzeres - früher habe ich fast nur dort gekauft. :freak:

Gut, die 480W max PT sind auch mehr Schein, denn Sein - bezüglich Sinnhaftigkeit und Mehrleistung vs. 390W - also ich denke mal, 420-430W hätten es eigentlich auch getan - zumindest grob für 1,9-2 GHz unter Luft. :biggrin:

Cryteks DX11 RT Techdemo Neon Noir hat sich übrigens als sehr guter Stabilitätstest für Ampere erwiesen - ist leider nur etwas umständlich - Registrierung + Launcher notwendig. Drei Runs nacheinander dann fahren. Manchmal schmiert es erst beim zweiten Mal ab.


Btw.:

https://abload.de/img/anmerkung2020-10-1905d7jxs.jpg

https://twitter.com/aschilling/status/1317076936879898624

DL: 3090 TUF/STRIX BIOS-Update:
https://t.co/rL8kXu8c3e?amp=1

Colin MacLaren
2020-10-19, 07:38:20
Ich muss mich korrigieren.

Es lag am Board. Mit dem Asus Board geht bei der Strix dann doch so bis an die 100 MHz mehr mit voll aufgedrehtem Power-Limit. Wahrscheinlich braucht die wirklich Wasser. Gehe ich mit der Taktrate sehr weit hoch, merkt man im Timespy, wie sie sogar über 2.100 MHz boosten kann, aber quasi immer in der Sekunde, wo die Temperatur über 50 Grad geht, den Abgang macht.

Triniter
2020-10-19, 07:51:49
Was meinst du genau mit "Es lag am Board"?

jojo13
2020-10-19, 09:37:58
Kannst du in 3DMark FS Ultra die karte mal laufen lassen? Ich komme mit TUF auf 13200 Punkten, mit BIOS von Strix sind nur 12600 drin. (egal welche Takt)
Übrigens es gibt zwei BIOS für die Karte. Schaue ob du neuesten hast.

TUF Bläm LED Logo, müsste ich mit Klebeband zukleben.

https://www.3dmark.com/fs/23742095

Karte raus dann siehst man die 2 Kabelstecker der kleine ist für das Logo abziehen und fertig.

Bandit3644
2020-10-19, 09:57:26
Karte raus dann siehst man die 2 Kabelstecker der kleine ist für das Logo abziehen und fertig.

Deaktiviert die doch einfach über die Software. Manchmal frag ich mich hier wirklich.

jojo13
2020-10-19, 10:00:26
Was für eine Software......500 Schwachsinns Asus Tools und Dienste? Ne Danke.

Bandit3644
2020-10-19, 10:04:12
Was für eine Software......500 Schwachsinns Asus Tools und Dienste? Ne Danke.

Ja Armory Crate, gibt überhaupt keine Probleme aber zieh mal lieber Kabel ab. Bist auch noch so ein Win7 Verfechter aus der guten alten Zeit.

jojo13
2020-10-19, 10:05:44
Ich hatte ja nun das Glück eine strix zu ergattern und muss sagen - die ist massiv überbewertet.

Bei 390W komme ich auf die gleichen Taktraten wie die Gigabyte, bei 480W gehen natürlich ein paar mehr, das ist aber nicht der Rede wert (ca. 50 MHz) weil weit weg vom Sweetspot. Leiser ist sie gefühlt auch nicht wirklich und die Beleuchtungssteuerung ist, wenn man kein Asus-Board hat, die finsterestes Blaotware vor dem Herrn, die mir ümzig Proezsse ins System knallt.

Musst die Karte so einstellen das sie nicht ins PL rennt...zb. 875/2100 über Curve im Poppobrenner dann ist es eben eine Chipsache was deine kann wie immer.
Wenn das deine Giga auch schafft würd ich die Strix verkaufen.

jojo13
2020-10-19, 10:06:20
Ja Armory Crate, gibt überhaupt keine Probleme aber zieh mal lieber Kabel ab. Bist auch noch so ein Win7 Verfechter aus der guten alten Zeit.

;D auweia...

Dural
2020-10-19, 10:09:00
Wakü ja nein?

Ich wollte die 3090 eigentlich unter Wasser setzen, aber die kosten mit dem aufwand für den ertrag sieht ja mal ganz übel aus, dazu man später nicht mehr so einfach die karte wechseln kann. Das system wird mit wakü deutlich schwerer und die lautstärke und optik ist mir fast egal.

Und was halt auch noch dazu kommt, das system wird sicher sehr lange bestehen, ich zerlege meine systeme eher nicht, ab und zu halt etwas optimiert. Und gestern habe ich spontan ein altes system ca. 6 jahre alt mit wakü "gewartet", das lief sicher 4 jahre nicht mehr. Ihr glaubt gar nicht was da schon alles im wasser schwimmt... dazu ist ein anschluss undicht :rolleyes:

Lust zum basteln hätte ich schon, aber die wakü wird min. 500.- kosten für ca. 5% mehr leistung aber vielen nachteilen. wenn man sich das so alles überlegt...

jojo13
2020-10-19, 10:12:20
Bist doch lange genug dabei....WAKÜ auf Graka hab ich immer gemacht wegen Lautstärke...bei der TUF hier völlig unnötig. Und Graka OC fängt bei +300mhz an...diese Zeiten sind schon lange vorbei wo dies richtig was gebracht hat.

Chrisch
2020-10-19, 10:21:29
Kannst du in 3DMark FS Ultra die karte mal laufen lassen? Ich komme mit TUF auf 13200 Punkten, mit BIOS von Strix sind nur 12600 drin. (egal welche Takt)
Übrigens es gibt zwei BIOS für die Karte. Schaue ob du neuesten hast.

TUF Bläm LED Logo, müsste ich mit Klebeband zukleben.

https://www.3dmark.com/fs/23742095
Das BIOS einer Karte mit 3x8PIN auf einer mit 2x8PIN zu flashen bringt nichts als Nachteile, denn der Wert des 3ten Anschluss wird dann einfach von einen der beiden anderen Anschlüsse übernommen. Letzten Endes stehen wir weniger W zu verfügung als mitm std. BIOS.
Ja Armory Crate, gibt überhaupt keine Probleme aber zieh mal lieber Kabel ab. Bist auch noch so ein Win7 Verfechter aus der guten alten Zeit.
Sorry aber wer installiert sich freiwillig den Rotz mit gefühlt 25 Diensten im Autostart? Stecker ziehen dauert 1Min und das ganz ohne Software oder sonstigen Blödsinn.

wolik
2020-10-19, 10:25:32
Das BIOS einer Karte mit 3x8PIN auf einer mit 2x8PIN zu flashen bringt nichts als Nachteile, denn der Wert des 3ten Anschluss wird dann einfach von einen der beiden anderen Anschlüsse übernommen. Letzten Endes stehen wir weniger W zu verfügung als mitm std. BIOS.

Sorry aber wer installiert sich freiwillig den Rotz mit gefühlt 25 Diensten im Autostart? Stecker ziehen dauert 1Min und das ganz ohne Software oder sonstigen Blödsinn.

Vermutlich ja, aber mit Strix BIOS sind höher Takten Möglich, ich muss noch mein Strommesser zähler ausgraben.

Ohne zweifel, wenn nur Kabel abziehen geht, dann ist das 100% bessere Lösung. (Auf alle Fälle besser als Klebeband :) )

Wakü ja nein?

Ich wollte die 3090 eigentlich unter Wasser setzen, aber die kosten mit dem aufwand für den ertrag sieht ja mal ganz übel aus, dazu man später nicht mehr so einfach die karte wechseln kann. Das system wird mit wakü deutlich schwerer und die lautstärke und optik ist mir fast egal.

Und was halt auch noch dazu kommt, das system wird sicher sehr lange bestehen, ich zerlege meine systeme eher nicht, ab und zu halt etwas optimiert. Und gestern habe ich spontan ein altes system ca. 6 jahre alt mit wakü "gewartet", das lief sicher 4 jahre nicht mehr. Ihr glaubt gar nicht was da schon alles im wasser schwimmt... dazu ist ein anschluss undicht :rolleyes:

Lust zum basteln hätte ich schon, aber die wakü wird min. 500.- kosten für ca. 5% mehr leistung aber vielen nachteilen. wenn man sich das so alles überlegt...

Bei mir Tropfte Wasser aus WaKü (CPU) auf Graka, die war ohne Backplatte. Die Wasser verdamft, blieb ein kleine weiße Schicht, wurde dann mit Pinsel entfernt. Ob es sich lohnt? Leistungtechnisch wohl kaum. +3% zum Luft? Leiser? Na ja, Pumpe, WaKü Lüfter...
Ok, dann bleibt noch Spass am Bastelln. Mit geringer Wahrscheinlichkeit, die Karte kaputt zu machen oder die Garantie zu verlieren

Bandit3644
2020-10-19, 10:33:05
Das BIOS einer Karte mit 3x8PIN auf einer mit 2x8PIN zu flashen bringt nichts als Nachteile, denn der Wert des 3ten Anschluss wird dann einfach von einen der beiden anderen Anschlüsse übernommen. Letzten Endes stehen wir weniger W zu verfügung als mitm std. BIOS.

Sorry aber wer installiert sich freiwillig den Rotz mit gefühlt 25 Diensten im Autostart? Stecker ziehen dauert 1Min und das ganz ohne Software oder sonstigen Blödsinn.

Erkläre mir mal bitte was daran so dramatisch ist und bitte nicht was du fühlst.
Welche Nachteile habe ich ?

Colin MacLaren
2020-10-19, 10:39:34
Was meinst du genau mit "Es lag am Board"?

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602795

Chrisch
2020-10-19, 10:43:47
@ Bandit3644

Tasks die im Hintergrund rumwühlen, Last verursachen, Updates ziehen usw. Warum soll ich etwas installieren was ich nicht brauche, was mir ggf. auch noch das RGB zerschießt (guck mal in anderen Foren, gibt einige TUF User die ihr RGB Gedöns dank der Software nicht mehr aktiviert bekommen) usw.

@ wolik

mehrfach mit der 3080 getestet, nur mal "grob" als Beispiel.

Karte 1 = 2x8PIN max 350W
Karte 2 = 3x8PIN max 450W

Wenn du jetzt das 3x8PIN BIOS flasht wird für den 3ten 8PIN der physisch nicht vorhanden ist der Wert vom ersten 8PIN übernommen. Sollte also der erste Anschluss z.B. bei 150W liegen kannst du schonmal diese 150W vom Gesamtpaket abziehen, denn die werden ja auch durch den nicht vorhandenen Slot in Anspruch genommen. D.h. letzten Endes bleiben von den 450W nur 300W über und damit 50W als mit std. BIOS. Das die Karte höher Taktet liegt an anderen Takt tables, wenn du manuell (mit Kurve) übertaktest solltest mit beiden BIOS die selben werte erreichen, nur mit original BIOS später in PL laufen.

Bandit3644
2020-10-19, 10:57:03
@ Bandit3644

Tasks die im Hintergrund rumwühlen, Last verursachen, Updates ziehen usw. Warum soll ich etwas installieren was ich nicht brauche, was mir ggf. auch noch das RGB zerschießt (guck mal in anderen Foren, gibt einige TUF User die ihr RGB Gedöns dank der Software nicht mehr aktiviert bekommen) usw.

Also ich lehne mich mal weit aus dem Fenster, da sitzt in vielen Fällen das Problem vor dem PC. Ich benutze schon sehr lange Afterburner(da mault auch keiner rum) und eben das Armory Crate was bei mir sehr gut funktioniert und ich meinen Kram steuern kann. Ich benutze das seit zwei Jahren, mehrfach Teile der Hardware gewechselt und noch nie Probleme gehabt. Das was da im Hintergrund läuft ist minimal und völlig irrelevant. Sorry da kann ich deine Meinung nicht teilen.

Colin MacLaren
2020-10-19, 10:59:49
Musst die Karte so einstellen das sie nicht ins PL rennt...zb. 875/2100 über Curve im Poppobrenner dann ist es eben eine Chipsache was deine kann wie immer.
Wenn das deine Giga auch schafft würd ich die Strix verkaufen.

Zeug mir mal die Karte, dann die sowas packt. Für 2100 brauchst du mindestens 1V. Generell ist das schwierig. Stelle ich sie so ein, dass sie bei FHD nicht in Power Limit rennt, so tut sie das bei 4k, optimieren ich auf 4k, so lasse ich in niedrigeren Lastszenairen paar Prozent Leistung liegen.

Chrisch
2020-10-19, 11:11:08
Also ich lehne mich mal weit aus dem Fenster, da sitzt in vielen Fällen das Problem vor dem PC. Ich benutze schon sehr lange Afterburner(da mault auch keiner rum) und eben das Armory Crate was bei mir sehr gut funktioniert und ich meinen Kram steuern kann. Ich benutze das seit zwei Jahren, mehrfach Teile der Hardware gewechselt und noch nie Probleme gehabt. Das was da im Hintergrund läuft ist minimal und völlig irrelevant. Sorry da kann ich deine Meinung nicht teilen.
Ist ja auch OK, kannst du ja auch und wenn du damit zufrieden bist TOP. Aber wenn jemand (wie ich z.B.) die Bloatware nicht aufm PC haben möchte kannst du das doch genauso akzeptieren wie ich auch bei dir, oder? Und wenn es nunmal so einfach ist die LEDs zu deaktivieren ohne Software dann ist das doch gut :)

Bandit3644
2020-10-19, 11:15:54
Ist ja auch OK, kannst du ja auch und wenn du damit zufrieden bist TOP. Aber wenn jemand (wie ich z.B.) die Bloatware nicht aufm PC haben möchte kannst du das doch genauso akzeptieren wie ich auch bei dir, oder? Und wenn es nunmal so einfach ist die LEDs zu deaktivieren ohne Software dann ist das doch gut :)

Natürlich akzeptiere ich das:smile:

Colin MacLaren
2020-10-19, 12:10:06
Man muss sich nur mal anschauen, was das alles auf das System klatscht. Ümzig Komponenten für RGB RAM, die sechs Prozesse im System und dass alles nur, um die Beleuchtung der Grafikkarte zu regeln. Jetzt kam noch das Asus Board dazu und nichts funktioniert. Putzen kann man das Zeug auch nicht. Einmal deinstalliert und wieder installiert und ich lande in endlosen Updateloops. Manuelles löschen von allem was mit Asus und ROG zu tun hat hilft auch nicht. Ach ja, mein VPN Client geht auch nicht mit Armory Crate. Steht sogar in der FAQ von SlackVPN.

https://rog.asus.com/forum/showthread.php?117697-We-need-an-Armoury-Crate-CLEAN-unistaller-tool-as-separate-software

Bandit3644
2020-10-19, 12:34:17
Man muss sich nur mal anschauen, was das alles auf das System klatscht. Ümzig Komponenten für RGB RAM, die sechs Prozesse im System und dass alles nur, um die Beleuchtung der Grafikkarte zu regeln. Jetzt kam noch das Asus Board dazu und nichts funktioniert. Putzen kann man das Zeug auch nicht. Einmal deinstalliert und wieder installiert und ich lande in endlosen Updateloops. Manuelles löschen von allem was mit Asus und ROG zu tun hat hilft auch nicht. Ach ja, mein VPN Client geht auch nicht mit Armory Crate. Steht sogar in der FAQ von SlackVPN.

https://rog.asus.com/forum/showthread.php?117697-We-need-an-Armoury-Crate-CLEAN-unistaller-tool-as-separate-software

Ich kann mir das auch nicht erklären, ich steuere damit das Board, Graka und Speicher und für die Wasserkühlung mit Gehäuselüfter iCUE. Das funktioniert zumindest bei mir ohne Probleme.

Chrisch
2020-10-19, 12:37:28
Allein wenn ich das hier sehe (vor allem wo du iCUE erwähnst) kann ich nicht verstehen warum jemand sowas noch installiert

NzAeAFudylI

Daredevil
2020-10-19, 12:40:05
Asus ist wirklich ein Krebsgeschwür in Windows, Software können die echt gar nicht.
Schon alleine, das man fürs RGB Controlling mehrere ( ! ) Prozesse laufen lassen muss, ist echt... naja.
Aber wenns funktioniert, wunderbar. Bei mir hats das noch nie getan und in den meisten Fällen ist die Hersteller Software große scheiße.

Bandit3644
2020-10-19, 12:40:25
Allein wenn ich das hier sehe (vor allem wo du iCUE erwähnst) kann ich nicht verstehen warum jemand sowas noch installiert

https://youtu.be/NzAeAFudylI

Weil ich damit mein RGB Kram steuern möchte oder glaubst du ich kauf mir das Zeug um die Kabel zu ziehen. Akzeptiere doch auch meine Meinung und wenn alles funktioniert warum sollte ich das nicht installieren?

MiamiNice
2020-10-19, 12:41:09
Man muss sich nur mal anschauen, was das alles auf das System klatscht. Ümzig Komponenten für RGB RAM, die sechs Prozesse im System und dass alles nur, um die Beleuchtung der Grafikkarte zu regeln. Jetzt kam noch das Asus Board dazu und nichts funktioniert. Putzen kann man das Zeug auch nicht. Einmal deinstalliert und wieder installiert und ich lande in endlosen Updateloops. Manuelles löschen von allem was mit Asus und ROG zu tun hat hilft auch nicht. Ach ja, mein VPN Client geht auch nicht mit Armory Crate. Steht sogar in der FAQ von SlackVPN.

https://rog.asus.com/forum/showthread.php?117697-We-need-an-Armoury-Crate-CLEAN-unistaller-tool-as-separate-software

Mache es doch einfach wie ich. Im Mainboard das ganze Leuchtzeug auf off stellen, da brauchst auch die Software nicht und der Rechner schaut cooler aus :biggrin:
Nur Kiddys nutzen RGB ;)