PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12

Bandit3644
2020-10-19, 12:43:33
Mache es doch einfach wie ich. Im Mainboard das ganze Leuchtzeug auf off stellen, da brauchst auch die Software nicht und der Rechner schaut cooler aus :biggrin:
Nur Kiddys nutzen RGB ;)

Warum kaufst du das Zeug wenn es nur Kiddys nutzen ?

TurricanM3
2020-10-19, 12:48:02
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54303-schnell-und-mit-komplettausstattung-asus-rog-strix-geforce-rtx-3090-oc-im-test.html

Netter idle Verbrauch. Soweit ich weiß hat das den Test verzögert, die Ursache konnte scheinbar aber nicht gefunden werden.
Nach den zu erwartenden Spulengeräuschen hab ich immer weniger Lust auf die Karte.

Chrisch
2020-10-19, 12:53:28
Weil ich damit mein RGB Kram steuern möchte oder glaubst du ich kauf mir das Zeug um die Kabel zu ziehen. Akzeptiere doch auch meine Meinung und wenn alles funktioniert warum sollte ich das nicht installieren?
Zwischen akzeptieren und verstehen besteht ein Unterschied. Ich akzeptiere deine Meinung ich verstehe sie nur nicht :D

Bandit3644
2020-10-19, 12:58:00
Zwischen akzeptieren und verstehen besteht ein Unterschied. Ich akzeptiere deine Meinung ich verstehe sie nur nicht :D

Wollte ich vorhin auch schreiben, ich verstehe dich auch nicht ;D,
aber egal so ist das eben.

Chrisch
2020-10-19, 13:09:02
Alles gut, verstehen uns ja :D

Ich persönlich bin kein RGB Fan, da soll nix leuchten am PC. Meinetwegen könnten die Hersteller von jedem Teil eine RGB und non-RGB Version rausbringen :freak:

MiamiNice
2020-10-19, 13:12:33
Warum kaufst du das Zeug wenn es nur Kiddys nutzen ?

Weil die Asus Boards ein nettes Bios haben und man den Kiddykram ausschalten kann? Btw. ganz bequem im Bios oben. Aura Off fertig. Nix Blinky. Mur weil Asus es drauf packt damit auch Kids den teuren Kram kaufen ohne die OC Funktionen des Boards zu nutzen, muss ich nicht den Kiddykram nutzen und mir als Bonus noch den Rechner zumüllen und langsamer machen.

Leuchtet doch ein, oder nicht?

Bandit3644
2020-10-19, 13:18:51
Weil die Asus Boards ein nettes Bios haben und man den Kiddykram ausschalten kann? Btw. ganz bequem im Bios oben. Aura Off fertig. Nix Blinky. Mur weil Asus es drauf packt damit auch Kids den teuren Kram kaufen ohne die OC Funktionen des Boards zu nutzen, muss ich nicht den Kiddykram nutzen und mir als Bonus noch den Rechner zumüllen und langsamer machen.

Leuchtet doch ein, oder nicht?

Natürlich, ich wollte es nur wissen.

qiller
2020-10-19, 13:44:18
Allein wenn ich das hier sehe (vor allem wo du iCUE erwähnst) kann ich nicht verstehen warum jemand sowas noch installiert

https://youtu.be/NzAeAFudylI

OMG, Hardcore. Bei der Auflistung der ganzen Bloatware musste er selber erstmal lachen :F.

Ich muss aber sagen, dass Performance in Zeiten von MultiCore-CPUs gar nicht so die Hauptintension ist, solche Software nicht zu installieren. Bei mir ist es eher der Sicherheits- und Problemvermeidungsgedanke. Quasi jegliche Software dieser Art installiert Treiber und Dienste, die dann auch noch dauerhaft im Hintergrund laufen. Und man kann sich ja selber überlegen, welchen Stellenwert Hardwarehersteller ihrer Software bezüglich Kompatibilität, Sicherheit und Performance beimessen.

MiamiNice
2020-10-19, 14:04:41
Und es braucht auch noch Speicher.
Wie auch immer und aus welchen der vielen Gründe: Es ist einfach ne Seuche.

Colin MacLaren
2020-10-19, 14:13:12
Mache es doch einfach wie ich. Im Mainboard das ganze Leuchtzeug auf off stellen, da brauchst auch die Software nicht und der Rechner schaut cooler aus :biggrin:
Nur Kiddys nutzen RGB ;)

Ich nutze RGB gern für Ambilight Effekte.
Ich würde dennoch gern die Lüfter vom Mainboard regeln.
Die Graka leuchtet ohne Software dauerhaft bunt.

Dural
2020-10-19, 15:05:26
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54303-schnell-und-mit-komplettausstattung-asus-rog-strix-geforce-rtx-3090-oc-im-test.html

Netter idle Verbrauch. Soweit ich weiß hat das den Test verzögert, die Ursache konnte scheinbar aber nicht gefunden werden.
Nach den zu erwartenden Spulengeräuschen hab ich immer weniger Lust auf die Karte.

Interessant finde ich das hier:

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54303-schnell-und-mit-komplettausstattung-asus-rog-strix-geforce-rtx-3090-oc-im-test.html?start=16

Da wird immer behauptet Ampere Skaliere schlecht, aber man hat selbst bei 500W noch einen klar spürbaren Leistungs-Plus. Von 300 auf 500Watt sind das mal eben je nach Software und Einstellungen 30-40% Plus.

Triniter
2020-10-19, 15:09:35
Hat hier jemand ne Ventus und kann was berichten? Meine wäre abholbereit aber mich juckt es immer noch zu Team Strix oder nix zu gehören, aber von der Bestellung fehlt leider immer noch jedes Lebenszeichen

Colin MacLaren
2020-10-19, 18:38:45
Asus ist wirklich ein Krebsgeschwür in Windows, Software können die echt gar nicht.
Schon alleine, das man fürs RGB Controlling mehrere ( ! ) Prozesse laufen lassen muss, ist echt... naja.
Aber wenns funktioniert, wunderbar. Bei mir hats das noch nie getan und in den meisten Fällen ist die Hersteller Software große scheiße.

Bei funktioniert wieder gar nix. Die Lüfter drehen permanent hoch und runter auf dem Desktop und weher man hat das Zeug mal deinstalliert und wieder installiert. Jetzt werden weder Board noch Graka erkannt von armory Crate. Das Asus-forum ist voll von solchen Horror-Storys und keiner hat irgendeine Lösung gefunden. Immer heißt es - "Format and reinstall Windows".

Bei mir hat es installiert:

Amory Crate Lite Service
Asus Aura SDK
Asus Framework Service
Asus Updatre Helper
Asus lighning effect add-On
Asus lighning effect add-On x64
Aura Service
ROG Live Service

und jetzt geht nix mehr, denn mit frischem Windows waren da noch 2x so viele weitere Geöhns.

Ex3cut3r
2020-10-19, 18:45:44
Um die RGBs zu steuern, reicht doch Asus Aura vollkommen. Und nachher im Task Manager killen, LEDs bleiben trotzdem in der Farbe die man eingestellt hat. Warum sollte man sich auch Armory Crate (was ein Name) installieren.

Colin MacLaren
2020-10-19, 18:48:58
Um die RGBs zu steuern, reicht doch Asus Aura vollkommen. Und nachher im Task Manager killen, LEDs bleiben trotzdem in der Farbe die man eingestellt hat. Warum sollte man sich auch Armory Crate (was ein Name) installieren.

Weil es keine Treiber und keine anderen Tools mehr gibt, sondern nur noch Armory Crate. Das installiert dann 15 irgendwas. Kingston DRAM Lightning ect.

Ex3cut3r
2020-10-19, 18:51:45
Hää wie kommst du darauf?

https://www.asus.com/de/Motherboards/ROG-STRIX-B550-F-GAMING/HelpDesk_Download/

Man geht auf die Herstellerseite, gibt sein Board an, und wählt sein BS aus, dann auf Treiber, und die Treiber die man unbedingt braucht (Chipsatz, Sound und vlt. noch LAN) installieren. Fertig. Mehr braucht man nicht. Ich dachte eigentlich sowas ist Basis Wissen, wieder was gelernt. X-D

Bandit3644
2020-10-19, 18:52:03
Bei funktioniert wieder gar nix. Die Lüfter drehen permanent hoch und runter auf dem Desktop und weher man hat das Zeug mal deinstalliert und wieder installiert. Jetzt werden weder Board noch Graka erkannt von armory Crate. Das Asus-forum ist voll von solchen Horror-Storys und keiner hat irgendeine Lösung gefunden. Immer heißt es - "Format and reinstall Windows".

Bei mir hat es installiert:

Amory Crate Lite Service
Asus Aura SDK
Asus Framework Service
Asus Updatre Helper
Asus lighning effect add-On
Asus lighning effect add-On x64
Aura Service
ROG Live Service

und jetzt geht nix mehr, denn mit frischem Windows waren da noch 2x so viele weitere Geöhns.

Deinstalliere alles, Asus-Ordner suchen und manuell löschen. Jetzt werde ich wahrscheinlich gleich wieder gesteinigt aber ich nutze das auch schon lange mit Erfolg. Ich würde Wise Registry und Disk Cleaner drüber laufen lassen.

Colin MacLaren
2020-10-19, 19:01:18
Deinstalliere alles, Asus-Ordner suchen und manuell löschen. Jetzt werde ich wahrscheinlich gleich wieder gesteinigt aber ich nutze das auch schon lange mit Erfolg. Ich würde Wise Registry und Disk Cleaner drüber laufen lassen.

Das habe ich alles gemacht. Alles deinstalliert, mit dem Microsoft Uninstall Helper den rest gesucht. Neustart. Den Asus Ordner in der Registry unter HKCU und HKLM (je x64 und x86) gelöscht. Neustart. Die immer noch laufenden Dienste! aus der Registry geputzt. Die Asus Ordner unter Program Files und Program Files (x86) gelöscht. Asus unter ProgramData hat dann immer noch zwei offenen Prozesse, die auch noch gestoppt und dort den Asus Ordner gelöscht. Danach CCleaner.

Egal. Ab jetzt geht gar nix mehr. Und im Asus Forum schreiben X User das Gleiche. Immer wenn Armroy Crate irgendeinen Fehler wirft - z.B. Update schlägt fehl, aber ohne Update kann man die Funktionalität nicht mehr nutzen - hilft nur noch eine Neuinstallation von Windows. Du kriegst dem scheiß nicht sauber runter..

Bandit3644
2020-10-19, 19:26:55
Das habe ich alles gemacht. Alles deinstalliert, mit dem Microsoft Uninstall Helper den rest gesucht. Neustart. Den Asus Ordner in der Registry unter HKCU und HKLM (je x64 und x86) gelöscht. Neustart. Die immer noch laufenden Dienste! aus der Registry geputzt. Die Asus Ordner unter Program Files und Program Files (x86) gelöscht. Asus unter ProgramData hat dann immer noch zwei offenen Prozesse, die auch noch gestoppt und dort den Asus Ordner gelöscht. Danach CCleaner.

Egal. Ab jetzt geht gar nix mehr. Und im Asus Forum schreiben X User das Gleiche. Immer wenn Armroy Crate irgendeinen Fehler wirft - z.B. Update schlägt fehl, aber ohne Update kann man die Funktionalität nicht mehr nutzen - hilft nur noch eine Neuinstallation von Windows. Du kriegst dem scheiß nicht sauber runter..

Kann sein das es bei mir gut funktioniert da ich ein Asus Board habe. Ich hatte mal eins von Asrock und Probleme mit AuraSync als es noch ein eigenständiges Programm war.

Mayk-Freak
2020-10-19, 19:29:36
Ich kann mir das auch nicht erklären, ich steuere damit das Board, Graka und Speicher und für die Wasserkühlung mit Gehäuselüfter iCUE. Das funktioniert zumindest bei mir ohne Probleme.

Bei mir funzt es auch ohne Probleme mit Mainboard, Maus und Tastatur.

Bandit3644
2020-10-19, 19:30:51
Hää wie kommst du darauf?

https://www.asus.com/de/Motherboards/ROG-STRIX-B550-F-GAMING/HelpDesk_Download/

Man geht auf die Herstellerseite, gibt sein Board an, und wählt sein BS aus, dann auf Treiber, und die Treiber die man unbedingt braucht (Chipsatz, Sound und vlt. noch LAN) installieren. Fertig. Mehr braucht man nicht. Ich dachte eigentlich sowas ist Basis Wissen, wieder was gelernt. X-D

Deine Links sind alle Russisch.
Ansonsten nur noch so, AuraSync gibt es aktuell nicht mehr einzeln.
https://s12.directupload.net/images/201019/9i89dfd6.jpg (https://www.directupload.net)

Ex3cut3r
2020-10-19, 19:37:04
Ich habe kein TUF MB verlinkt. KA wo du da bist. Außerdem steht in meinen Link ganz klar DE.

Hier nochmal als Bild und eingekreist ;D ;D

Aber bitte, wer meint, sich so einen Rotz an Software freiwillig zu installieren, der soll das ruhig machen.


https://abload.de/thumb/unbenannt-2o7jqz.jpg (https://abload.de/image.php?img=unbenannt-2o7jqz.jpg)

Colin MacLaren
2020-10-19, 19:37:49
OK, mit WiseRegistry und den genannten Putzmaßnahmen ließ es sich tatsächlich nochmal installieren. Dennoch nicht optimal. Wie wäre es denn, "Patriot Viper SSD RGB" nur dann zu installieren, wenn man eine Patriot Viper SSD im System findet?

Bandit3644
2020-10-19, 19:43:10
Ich habe kein TUF MB verlinkt. KA wo du da bist. Außerdem steht in meinen Link ganz klar DE.

Hier nochmal als Bild und eingekreist:

https://abload.de/thumb/unbenannt-2o7jqz.jpg (https://abload.de/image.php?img=unbenannt-2o7jqz.jpg)

Das ist die Herstellerseite von meinem Mainboard.
Wenn ich auf deinen Linke gehe sieht das so aus.
https://s12.directupload.net/images/201019/4qf3tank.jpg (https://www.directupload.net)

Ex3cut3r
2020-10-19, 19:47:50
https://www.asus.com/de/Motherboards/TUF-GAMING-X570-PLUS/HelpDesk_Download/

Hier, die ganz normale Asus DE Seite mit allen Treibern die man braucht. Für dein MB. BS auswählen und ab gehts. (Erstes Ergebnis in Google)

:confused:

Das ist doch wahrlich keine Kunst. Hast du irgendwie einen Russichen VPN an? Bist du Russe?

Mayk-Freak
2020-10-19, 19:52:38
Das ist die Herstellerseite von meinem Mainboard.
Wenn ich auf deinen Linke gehe sieht das so aus.
https://s12.directupload.net/images/201019/4qf3tank.jpg (https://www.directupload.net)

Bei mir das gleiche :D

Bandit3644
2020-10-19, 19:53:36
https://www.asus.com/de/Motherboards/TUF-GAMING-X570-PLUS/HelpDesk_Download/

Hier, die ganz normale Asus DE Seite mit allen Treibern die man braucht. Für dein MB. BS auswählen und ab gehts. (Erstes Ergebnis in Google)

:confused:

Das ist doch wahrlich keine Kunst. Hast du irgendwie einen Russichen VPN an? Bist du Russe?

Mit deinem Link bin ich immer auf de russischen Seite :freak:
Kann es ja selber aufrufen aber unter Driver & Tools gibt es nur noch
Armoury Crate.

Bandit3644
2020-10-19, 19:54:22
Es gibt für die Asus TUF 3090 ein neues Bios.
https://s12.directupload.net/images/201019/kasvi4un.jpg (https://www.directupload.net)

WedgeAntilles
2020-10-19, 19:56:38
Dein Link wird bei mir ebenfalls zur russischen Version umgeleitet

https://ru.store.asus.com/_at102920-a138418-m1-p3564-t1117-cDE?utm_source=tradetracker&utm_term=137184

Nein, keine russischen Einstellungen bei mir, kein VPN, nix.

Freestaler
2020-10-19, 20:12:46
@Colin MacLaren, hab leider kein Asus da. Schick mir mal deins, ich prüfs für Dich und finde ein Weg ohne russisch. Eigentlich reicht auch deine für mich 3090 ;-)

Bandit3644
2020-10-19, 20:25:10
Ich habe kein TUF MB verlinkt. KA wo du da bist. Außerdem steht in meinen Link ganz klar DE.

Hier nochmal als Bild und eingekreist ;D ;D

Aber bitte, wer meint, sich so einen Rotz an Software freiwillig zu installieren, der soll das ruhig machen.


https://abload.de/thumb/unbenannt-2o7jqz.jpg (https://abload.de/image.php?img=unbenannt-2o7jqz.jpg)

Und wo ist da AuraSync?

Ex3cut3r
2020-10-19, 20:25:33
Also. Ich werde nicht auf die Russische Seite weitergeleitet. Warum auch. :biggrin:

https://abload.de/thumb/un2benannt-1dbj28.jpg (https://abload.de/image.php?img=un2benannt-1dbj28.jpg)

Und wo ist da AuraSync?

Na, wenn man weiter runter scrollt. Alles passt nicht ins Bild. Ich habe keine 2880px in der Höhe.

Aura, kann man auch hier downloaden. Googlen ist nicht so deins oder?

https://www.asus.com/campaign/aura/global/

Wir sind nur mit deinem Link auf die russische Seite weitergeleitet wurden, ansonsten kann ich ganz normal auf Asus DE zugreifen.

Na super. Dann kannst du ja jetzt alle Treiber die man braucht so Downloaden. Man braucht kein Amory Crate.

Also da du mein Board gerade aufgerufen hattest müsstest du doch sehen das es da keine AuraSync sondern nur Armoury Crate gibt. AuraSync ist ein Teil von
Armoury Crate.

Achso. Geht das hier?

https://www.computerbase.de/downloads/systemtools/asus-aura/

Bandit3644
2020-10-19, 20:28:14
Also. Ich werde nicht auf die Russische Seite weitergeleitet. Warum auch. :biggrin:

https://abload.de/thumb/un2benannt-1dbj28.jpg (https://abload.de/image.php?img=un2benannt-1dbj28.jpg)

Wir sind nur mit deinem Link auf die russische Seite weitergeleitet wurden, ansonsten kann ich ganz normal auf Asus DE zugreifen.

Bandit3644
2020-10-19, 20:30:51
Also. Ich werde nicht auf die Russische Seite weitergeleitet. Warum auch. :biggrin:

https://abload.de/thumb/un2benannt-1dbj28.jpg (https://abload.de/image.php?img=un2benannt-1dbj28.jpg)



Na, wenn man weiter runter scrollt. Alles passt nicht ins Bild. Ich habe kein 2880px in der Höhe.

Also da du mein Board gerade aufgerufen hattest müsstest du doch sehen das es da keine AuraSync sondern nur Armoury Crate gibt. AuraSync ist ein Teil von
Armoury Crate.

MiamiNice
2020-10-19, 20:36:46
AuraSync ist blink blink Software.
Armoury Crate ist Speicherplatz auf dem Board auf dem Treiber sind damit man ohne Internet nach der Win Install drauf zugreifen kann.
AuraSync liegt da nur mit drauf, bzw. ist in die Software integriert. Installiert trotzdem den selben Kram und Amoury Crate ist ein Sicherheitsproblem auf der Kiste.
Mal nach Amoury Crate und Hack googlen. Will man alles nicht auf der Kiste haben. Am besten im Mainboard deaktivieren.
Angeblich reagieren auf Amoury Crate auch Anti Cheat Tools von ein paar Games, aber das ist nur "hören sagen".

Bandit3644
2020-10-19, 20:50:20
Bei mir funzt es auch ohne Probleme mit Mainboard, Maus und Tastatur.

Na wenigstens bei einem außer mir :)

Bandit3644
2020-10-19, 20:56:22
Also. Ich werde nicht auf die Russische Seite weitergeleitet. Warum auch. :biggrin:

https://abload.de/thumb/un2benannt-1dbj28.jpg (https://abload.de/image.php?img=un2benannt-1dbj28.jpg)



Na, wenn man weiter runter scrollt. Alles passt nicht ins Bild. Ich habe keine 2880px in der Höhe.

Aura, kann man auch hier downloaden. Googlen ist nicht so deins oder?

https://www.asus.com/campaign/aura/global/



Na super. Dann kannst du ja jetzt alle Treiber die man braucht so Downloaden. Man braucht kein Amory Crate.



Achso. Geht das hier?

https://www.computerbase.de/downloads/systemtools/asus-aura/

Jetzt weiß ich was du meinst, der Link ist immer noch Russisch:confused:
Warum alles einzeln wenn es mit einem Programm geht, ich habe damit keine Probleme. AuraSync habe ich noch nicht einzeln probiert.

Bandit3644
2020-10-19, 21:01:49
AuraSync ist blink blink Software.
Armoury Crate ist Speicherplatz auf dem Board auf dem Treiber sind damit man ohne Internet nach der Win Install drauf zugreifen kann.
AuraSync liegt da nur mit drauf, bzw. ist in die Software integriert. Installiert trotzdem den selben Kram und Amoury Crate ist ein Sicherheitsproblem auf der Kiste.
Mal nach Amoury Crate und Hack googlen. Will man alles nicht auf der Kiste haben. Am besten im Mainboard deaktivieren.
Angeblich reagieren auf Amoury Crate auch Anti Cheat Tools von ein paar Games, aber das ist nur "hören sagen".

Dieser Rechner wird nur fürs Gaming genutzt, alles andere läuft über mein Notebook. Die Anti Cheat Tools von Ubisoft mögen den Afterburner nicht.

Ex3cut3r
2020-10-19, 21:14:50
Wie auch immer. Hier wurde gesagt. Man muss sich dieses Amory Crate installieren. Fakt ist, muss man nicht. Treiber (Chipsatz, Audio und vlt. noch Lan, mehr braucht man nicht) gibt es alles auf der Herstellerseite. Amoury Crate versaut einem noch dazu, die min FPS. in Spielen. Aura fürs RGB Gedöns kann man sich von CB downlaoden.

r3ptil3
2020-10-19, 22:32:51
Aura fürs RGB Gedöns kann man sich von CB downlaoden.

Bitte genauer... welches Tool soll das sein?

Edit: Achso, doch Aura Sync... dachte er meint ein anderes Tool, welches das steuern kann.

Mayk-Freak
2020-10-19, 22:43:48
Die App ist doch alt von CB ohne Update, aktuelle ist bei mir die 3.1.6.0

https://abload.de/thumb/nvidiamqkgo.png (https://abload.de/image.php?img=nvidiamqkgo.png)

qiller
2020-10-19, 23:22:18
Welche Probleme einem erspart bleiben, wenn RGB einfach egal ist :cool:

MiamiNice
2020-10-20, 12:21:28
Welche Probleme einem erspart bleiben, wenn RGB einfach egal ist :cool:

Das ist der Vorteil des gehobenen Alters. Wir wissen das die Power nicht aus der RGB Beleuchtung kommt ;D
Die Jungspunde sind ja der Meinung je mehr ein PC leuchtet desto besser ist er ...

Triniter
2020-10-20, 14:26:57
Also doch bei der MSI Ventus bleiben

Langlay
2020-10-20, 15:22:26
Also doch bei der MSI Ventus bleiben

Persönliche Meinung. Wenn du keine OC Rekorde aufstellen willst, sondern einfach nur gut zocken. Tut es jede 3090 auch wenn sie nur 2x 8Pin hat. Wenn OC dein Hauptinterresse ist hol dir eine 3090 mit 3x8Pin, für die gibts dann auch BIOSe mit mehr als 390W.

Die 390W reichen halt für ~1950 MHz Coreclock mit angepasster Curve.

Wenn du 2+ GHz willst, brauchste halt die 3x8Pin Karten.

Triniter
2020-10-20, 15:51:55
Persönliche Meinung. Wenn du keine OC Rekorde aufstellen willst, sondern einfach nur gut zocken. Tut es jede 3090 auch wenn sie nur 2x 8Pin hat. Wenn OC dein Hauptinterresse ist hol dir eine 3090 mit 3x8Pin, für die gibts dann auch BIOSe mit mehr als 390W.

Die 390W reichen halt für ~1950 MHz Coreclock mit angepasster Curve.

Wenn du 2+ GHz willst, brauchste halt die 3x8Pin Karten.
Das ist mir soweit klar, ich müsste aber halt knapp 100€ mehr für die Ventus zahlen als für die Strix nonOC, die aber vielleicht erst in 2 Monaten kommt. Die 100€ wären halt schon mal ne schicke System NVMe SSD für den neuen PC.

Langlay
2020-10-20, 15:54:58
Das ist mir soweit klar, ich müsste aber halt knapp 100€ mehr für die Ventus zahlen als für die Strix nonOC, die aber vielleicht erst in 2 Monaten kommt. Die 100€ wären halt schon mal ne schicke System NVMe SSD für den neuen PC.

Achso, da kann man dir aber auch schwer helfen. Ist halt die Frage ob du der "Taube auf dem Dach" Typ oder "Spatz in der Hand" Typ bist.

Triniter
2020-10-20, 15:58:42
Ich sags mal so, ich will eh den PC mit Zen3 aufbauen, somit hab ich noch ein paar Wochen, ich kann also ganz entspannt zumindest bis kurz vor Ende der Abholfrist im MM abwarten ob sich bei der anderen Bestellung was tut.

wolik
2020-10-20, 16:48:06
Es gibt für die Asus TUF 3090 ein neues Bios.
https://s12.directupload.net/images/201019/kasvi4un.jpg (https://www.directupload.net)

Das ist kein neues BIOS, das ist nur ein Programm (exe) welche nur sagt das mein BIOS kein Update braucht. Mindestens bei mein TUF.

jojo13
2020-10-20, 17:12:51
Das ist ein neues Bios damit laufen die Lüfter erst bei 50W an, vorher 30W.
https://www.techpowerup.com/vgabios/?architecture=&manufacturer=Asus&model=RTX+3090&interface=&memType=&memSize=&since=
Kannst auch hier das obere nehmen.
Die Asus.Exe ist der Flash da sind 8 Bios drinn.

jojo13
2020-10-20, 17:22:05
Das ist der Vorteil des gehobenen Alters. Wir wissen das die Power nicht aus der RGB Beleuchtung kommt ;D
Die Jungspunde sind ja der Meinung je mehr ein PC leuchtet desto besser ist er ...

AIM der AIM ist bund um Welten besser!:cool:

wolik
2020-10-20, 20:46:41
Das ist ein neues Bios damit laufen die Lüfter erst bei 50W an, vorher 30W.
https://www.techpowerup.com/vgabios/?architecture=&manufacturer=Asus&model=RTX+3090&interface=&memType=&memSize=&since=
Kannst auch hier das obere nehmen.
Die Asus.Exe ist der Flash da sind 8 Bios drinn.

Der war drauf. Vielleicht deswegen ging das nicht...
Asus RTX 3090 24 GB
TUF OC
2020-09-09 00:00:00 94.02.26.C0.01

Das ist der Vorteil des gehobenen Alters. Wir wissen das die Power nicht aus der RGB Beleuchtung kommt ;D
Die Jungspunde sind ja der Meinung je mehr ein PC leuchtet desto besser ist er ...
Wichtigste Kriterium wieso ich MB MSI x570 Unify gekauft habe, war die Möglichkeit alle LEDs abschalten. MB ist schwarz, leise (0dB) und kein "flash in the night" (ich lieber das Lied..)
Aber zurück zum 3090, ich denke wir erleben mit 30X0 Serie was ganz neues... Früh, es war interessant und möglich mit "paar Tricks" 15-30% Leistung aus die Karte zu bekommen. Jetzt ist das Trend statt OC - UC. Nvidia hat uns nicht nur SLI "weggenommen" sondern auch OC :biggrin:
Wo ist Nostalgie smile? Ich höre grade "flash in the night" und fühle mich wieder 18...

Colin MacLaren
2020-10-21, 07:47:17
Könnt Ihr bitte mal ein paar Anhaltspunkte posten, wo Ihr mit Eurem Undervolting - mit geschlossenem Gehäuse und auch mal paar gezockten Spielen statt nur Timespy - so herausgekommen seid?

Ich habe das Gefühl, einen übelsten Gurkenchip erwischt zu haben. Dann geht die Strixx doch noch zu ebay. Stabile 2 GHz krieg ich nicht mal mit 480W Powerlimit herausgekitzelt, eher so 1950-1980, bei 0,85V lande ich bei 1800.

Gouvernator
2020-10-21, 08:04:05
0.86v 1860-1830 mhz.

Gouvernator
2020-10-21, 08:07:20
480w OC eine Maskierung für Gurkenchips vielleicht?

Langlay
2020-10-21, 08:13:19
Meine schafft 1800MHz@ 0.8V, was bei höheren Frequenzen jetzt wirklich stabil ist hab ich allerdings auch noch nicht ausgetestet.

hq-hq
2020-10-21, 10:17:06
Könnt Ihr bitte mal ein paar Anhaltspunkte posten, wo Ihr mit Eurem Undervolting - mit geschlossenem Gehäuse und auch mal paar gezockten Spielen statt nur Timespy - so herausgekommen seid?

Ich habe das Gefühl, einen übelsten Gurkenchip erwischt zu haben. Dann geht die Strixx doch noch zu ebay. Stabile 2 GHz krieg ich nicht mal mit 480W Powerlimit herausgekitzelt, eher so 1950-1980, bei 0,85V lande ich bei 1800.

ist das dann die STRIX oder die STRIX OC ?

Triniter
2020-10-21, 10:25:20
Muss die OC sein, die nonOC hat noch nie einer in freier Wildbahn gesehen.

hq-hq
2020-10-21, 10:32:40
hm, es würde mich nur wundern wenn Asus nicht mehr selektiert, bei der alten 2080Ti Strix gabs aber drei Varianten zu kaufen, da konnte man wohl nochmal abstufen

Triniter
2020-10-21, 10:36:50
Es gab den Facebookeintrag von Asus USA das man nur mit der OC begonnen hatte. Vor etwa einer Woche hatte ich Kontakt, auch über Facebook, mit Asus ROG Deutschland, da wurde zwar gesagt, das die Strix in beiden Versionen jetzt produziert wird aber es dauert:

Hi Matthias,
zurzeit werden OC, sowie non-OC-Varianten produziert. Die Nachfrage ist allerdings enorm groß, weswegen du dich wahrscheinlich noch ein wenig gedulden musst. Neue Grafikkarten sind aber auf dem Weg.
Bester Gruß,
dein ROG-Team

MiamiNice
2020-10-21, 10:57:39
AIM der AIM ist bund um Welten besser!:cool:

:confused:
https://traumshop.net/wp-content/uploads/2018/09/tuete-deutsch.jpg

Legende
2020-10-21, 11:19:59
Könnt Ihr bitte mal ein paar Anhaltspunkte posten, wo Ihr mit Eurem Undervolting - mit geschlossenem Gehäuse und auch mal paar gezockten Spielen statt nur Timespy - so herausgekommen seid?

Ich habe das Gefühl, einen übelsten Gurkenchip erwischt zu haben. Dann geht die Strixx doch noch zu ebay. Stabile 2 GHz krieg ich nicht mal mit 480W Powerlimit herausgekitzelt, eher so 1950-1980, bei 0,85V lande ich bei 1800.

Bei mir verhält sich das irgendwie komisch. Oder ich mach irgendwas falsch. Wenn ich bei 0,85V 1850MHz einstelle und HZD starte, schwankt das so zwischen 1875-1890, läuft aber stabil. Wenn ich dann HZD beende und in die Curve reingehe, steht die auf 1875 :confused:
Ich hab die Ventus 3x von MSI.

HisN
2020-10-21, 12:01:49
Die Kurve passt sich der Temperatur an. Die ist nicht statisch. Am besten stellt man die bei erreichter Zieltenperatur ein.

Könnt Ihr bitte mal ein paar Anhaltspunkte posten, wo Ihr mit Eurem Undervolting - mit geschlossenem Gehäuse und auch mal paar gezockten Spielen statt nur Timespy - so herausgekommen seid?

Ich habe das Gefühl, einen übelsten Gurkenchip erwischt zu haben. Dann geht die Strixx doch noch zu ebay. Stabile 2 GHz krieg ich nicht mal mit 480W Powerlimit herausgekitzelt, eher so 1950-1980, bei 0,85V lande ich bei 1800.


Dafür dass Du einen Kartoffelchip hast, sind 22K in Timespy doch gar nicht schlecht? Wie hast Du Die erreicht?


Ich würde mal sagen das es keine "festen" oder "passenden" Größen gibt.
Ich hab das Gefühl, dass ich für jedes Game die Kurve neu einstellen darf, einfach dadurch dass die Games die Karte verschieden Auslasten. Ich taste mich für jedes Game an das PT ran. Dauert natürlich ewig. Man schau sich den Unterschied zwischen NFS und Hitman2 an. Ich hänge die Videos an. Während ich bei Hitman zwei bei gleicher Spannung nur 1.9Ghz fahren kann um gerade so nicht ins PT zu kommen, kann ich in NFS lockere 1965 fahren und bin deutlich weiter vom PT weg.
Und dann wie üblich: Die Leute mit 4K Monitoren ziehen mehr Power als die Leute mit UWQHD, WQHD und FHD-Monitoren (in der Reihenfolge), was man (und hier schließt sich der Kreis) wieder an Timespy sieht, das ja nativ in irgend einer Miniauflösung rendert und erst dann auf Monitorauflösung zur Ausgabe skaliert.


Hitman2 mit 0.85/1900 UHD und schön ins PT an einer Stelle
Qe3YDHhBglw


NFS Heat 0.85/1965 UHD und weit weg vom PT
4fIkaan9NwQ

HZD mit 0.8/1875 Meilenweit weg vom PT.
_8nnbkoL37g

Und auch ACO, selbst mit 0.875V bei 2010Mhz .. Meilenweit weg vom PT. Wobei ich da denke, dass die Engie irgendwie versucht 60 FPS zu erreichen, und darauf hinarbeitet. Irgendwie.

5IGFNPwRTuw

hq-hq
2020-10-21, 12:28:17
:confused:


"AIM der AIM ist bund um Welten besser!"
Translation:
"Die Zielfertigkeiten [aim skill] sind bunt um Welten besser!"

Durch buntes Geblinke und Stroboskopeffekte lernt das Gehirn schnelle und chaotische visuelle Eindrücke effektiver und beschleunigt zu verarbeiten, daraus resultierende Körper-Zuckungen helfen die Augen-Hand-Koordination zu verbessern. -> AIM steigt

TurricanM3
2020-10-21, 13:52:20
Für das 2x8pin Ref.Board hat Gigabyte mit der Gamer/Eagle OC wohl mit 390w das höchste PT. Nutzt so ein Bios hier irgendwer und kann das bestätigen?

HisN
2020-10-21, 13:53:37
<-- nutzt das GamingOC 390W auf meiner Palit
Es gehen nicht mehr alle DP-Port-Anschlüsse, aber die 390W werden wohl genutzt (wenn ich nach der Wärme-Entwicklung der Karte gehe^^), gibt auch 500 Punkte im Timespy@Stock^^

wolik
2020-10-21, 13:57:11
Könnt Ihr bitte mal ein paar Anhaltspunkte posten, wo Ihr mit Eurem Undervolting - mit geschlossenem Gehäuse und auch mal paar gezockten Spielen statt nur Timespy - so herausgekommen seid?

Ich habe das Gefühl, einen übelsten Gurkenchip erwischt zu haben. Dann geht die Strixx doch noch zu ebay. Stabile 2 GHz krieg ich nicht mal mit 480W Powerlimit herausgekitzelt, eher so 1950-1980, bei 0,85V lande ich bei 1800.

Ja, ja.. Platz 1 bei Luxx und schlechteste Chip... Ich komme mit mein TUF egal was ich einstelle nur am 3600 Punkten.
Wir kriegen schon fast bis geht nichts Übertaktete Karten :wink:

Darkman]I[
2020-10-21, 14:12:32
Ihr habt echt Probleme, freut euch doch dass ihr einige der Wenigen seid, die eine 3080/3090 bekommen haben...

TurricanM3
2020-10-21, 14:29:41
<-- nutzt das GamingOC 390W auf meiner Palit
Es gehen nicht mehr alle DP-Port-Anschlüsse, aber die 390W werden wohl genutzt (wenn ich nach der Wärme-Entwicklung der Karte gehe^^), gibt auch 500 Punkte im Timespy@Stock^^

Siehst den Verbrauch nicht korrekt im OSD oder wie meinst das?

Dural
2020-10-21, 14:38:31
Nach wie vor kein Liefertermin für die bestellte 3090 TUF.

NV und AMD können mich mal, ich baue jetzt eine 5700XT und Zen2 ein, liegt eh alles da :rolleyes:

Edgecrusher86
2020-10-21, 14:45:51
https://img.techpowerup.org/201021/nvidia-20201021-144516.png

So, habe auch mal ein bissl WATT gegeben - idR langen mir zwar auch Taktraten bis maximal 1,8 GHz - aber auch diese sind - je nach Game und Auflösung nicht zu halten mit dem voreingestellten 350W maximal.
Eben mal RDR2 getestet - der Benchmark ist übrigens nochmals empfindlicher als Neon Noir - 1,92-1,935 GHz @ 900mV wurden immer gehalten - bei Peak bis 392W (106%); nur in 3440 x 1440 wohlgemerkt. ;)


Schnell abfotografiert, zwecks mobiler Verteilung an Bekannte. :)

https://abload.de/img/unbenanntk7kjy.jpg

Das zieht schon, aber WINTER IS COMING! ;D

P.S.: Bei den Lüftern ist es jetzt aber so, dass Lüfter 1 niedriger ausgelesen wird als Lüfter 2 - etwa in GPU-Z. Das dürfte wohl daran liegen, dass GB den mittigen Lüfter entgegen des Uhrzeigersinnes laufen lässt.
Hier dreht ja alles mit diesem. Nun ja, zuvor hatte ich 45% manuell gesetzt für meine fünf UV-Profile, nun sind es 49% (je -> MSI AB 4.6.3 Beta 3), sodass auch Lüfter 1 bei ~ 1400rpm läuft. Lüfter 2 werkelt mit etwa 1500-1520rpm.
Nun ja, das stört jetzt nicht wirklich...die Anlauf RPM sind nun bei 25% auch etwas geringer...zuvor je 775rpm grob. Nummer 1 läuft mit 717rpm.
Bei 100% waren es original je um die 3100rpm -> Turbine. :D

Nun sind es 2800+ RPM und 3100RPM. Aber so laut will man eigentlich eh nie fahren, gerade wenn mit den 49% auch ingame idR 60er Temps ohne Probleme machbar sind. :)

Gut, ich muss dazu sagen, dass z.B. jetzt die zusätzlichen 100+ MHz mehr, die man mit dem PT halten kann den Braten nicht wirklich fett machen, aber nun ja - 350W ist bei einer auch teuren Karte etwas mager - zumindest 370W hätten sie freigeben können für die Trinity als Maximum.


E: Hier der Beweis, dass auch es anders geht:
https://abload.de/img/ausgleichlekem.jpg

59 fps avg. im Benchmark - TAA hoch, Auflösungsskalierung Standard, Rest Maximum.
66 fps avg. waren es mit ~1770-1800 MHz übrigens.
Ich glaube, so um die 69 fps herum oben mit den 1920-1935 MHz. :)

Colin MacLaren
2020-10-21, 14:58:27
Dafür dass Du einen Kartoffelchip hast, sind 22K in Timespy doch gar nicht schlecht? Wie hast Du Die erreicht?


Mit offenem Gehäuse und offenem Fenster. Und wenn 2Ghz im Timespy durchlaufen heißt das, dass ich in Spielen mindestens 50 MHz runtergehen muss, mit geschlossenem Gehäuse noch mehr, damit sie nicht abschmiert. TimeSpy ist echt kein guter Stabilitätstest, das sind komischerweise eher Titel mit niedrigerer Auslastung wie Modern Warfare.

Ja, ja.. Platz 1 bei Luxx und schlechteste Chip... Ich komme mit mein TUF egal was ich einstelle nur am 3600 Punkten.
Wir kriegen schon fast bis geht nichts Übertaktete Karten :wink:

Das kommt ja nur übers Powerlimit und wie gesagt weit weg von gamestable. Mir geht es jetzt eher ums Undervolten, also die Frage, wo komme ich denn bei ca. 300-330W Verbrauch so taktmäßig stabil raus in 4k.

HisN
2020-10-21, 15:01:17
Timespy zockt ja auch niemand^^

Ich mach das jetzt so.

Ich will 2 Ghz haben. D.h. ich definiere mir 5 Kurven im AB mit 2010Mhz und verschiedenen Spannungen, und ich muss mir halt merken welches Game mit welcher Kurve läuft^^

Edgecrusher86
2020-10-21, 15:12:36
Ich habe fünf Profile - langt für alle Lebenslagen und Anforderungen. Wenn ich z.B. etwas Anspruchsloses nativ mit 60 fps capped spiele, brauche ich keine 3xx W dafür, dann langen auch um die 200W oder minimal weniger. :D

1935 MHz, 1785 MHz, 1680 MHz, 1545 MHz und 1240 MHz.

Wobei ja mit MSI AB da auch mal bis zu 15-30 MHz mehr gefahren werden.

Armaq
2020-10-21, 15:23:47
Echt jetzt? Ich würde niemals die Profile umstellen, das kommt gar nicht in Frage. Ich mach auch einen Frame-Cap, aber ich stell nicht die Karte um.

Edgecrusher86
2020-10-21, 16:17:07
Nun ja, ist auch nur je ein Klick, hehe.

HisN
2020-10-21, 17:53:09
Siehst den Verbrauch nicht korrekt im OSD oder wie meinst das?

Na es gibt doch Leute, die Flaschen sich ein 3 Power Stecker Bios, auf eine Karte mit nur Zwei Stecker und wundern sich dann was passiert oder nicht passiert :-)

Langlay
2020-10-21, 18:36:40
Für das 2x8pin Ref.Board hat Gigabyte mit der Gamer/Eagle OC wohl mit 390w das höchste PT. Nutzt so ein Bios hier irgendwer und kann das bestätigen?

Ich benutzte das Bios von der AORUS Master 3090 auf meiner Palit 3090 Gaming Pro

https://www.techpowerup.com/vgabios/225604/gigabyte-rtx3090-24576-200928

Das hat offizell auch "nur" 390W peakt bei mir allerdings regelmässig auf 400W.

HansEgon1337
2020-10-21, 18:49:36
Ich benutzte das Bios von der AORUS Master 3090 auf meiner Palit 3090 Gaming Pro

https://www.techpowerup.com/vgabios/225604/gigabyte-rtx3090-24576-200928

Das hat offizell auch "nur" 390W peakt bei mir allerdings regelmässig auf 400W.

Hallo! Wie sieht's nach dem Flash mit deinen Ports aus (DP)? Ich überlege mir ebenfalls das Aorus Master / Gaming OC von Gigabyte auf meine EVGA XC3 zu flashen... warte aber denke ich noch auf den Block von Watercool ;)

Langlay
2020-10-21, 18:58:21
Hallo! Wie sieht's nach dem Flash mit deinen Ports aus (DP)? Ich überlege mir ebenfalls das Aorus Master / Gaming OC von Gigabyte auf meine EVGA XC3 zu flashen... warte aber denke ich noch auf den Block von Watercool ;)

Der mittlere DP Port geht nicht, die beiden äusseren DP Ports funktionieren. Ob der HDMI Port funzt oder nicht weiss ich allerdings nicht, nutze den Anschluss nicht.

BlacKi
2020-10-21, 20:57:36
I[;12467860']Ihr habt echt Probleme, freut euch doch dass ihr einige der Wenigen seid, die eine 3080/3090 bekommen haben...
angeblich sind die bei arlt für 2099 lagernd^^ die 2080 wird auf geizhals garnichtmehr gelistet. ich dachte die verfügbarkeit würde langsam besser werden, aber ich hab das gefühl, die werden immer schlechter. ich dachte mir zwar so, die sparen die chips für die 3080 20gb auf, aber wenn das gerücht stimmt, dann wirds die garnicht geben.


meine amazonbestellung für die 3080 für 809€ ist noch aktiv, leider ohne liefertermin:rolleyes:

TurricanM3
2020-10-21, 21:18:19
Danke euch, werde ich nachher mal testen.
Hab gerade mal testweise Tarkov angeschmissen mit 1800@825mV. Das läuft selbst damit noch ins PT, 1440p medium/high settings. :freak:
Durschnitt 313W auf die 20 Min. Spielzeit.

Meine Ref. hat die schwarzen Spulen und ist viel leiser als die Asus TUF.

TurricanM3
2020-10-22, 00:07:45
Hier mal Tarkov 1440p Medium/High settings mit vergrößertem OSD (PT ist rechts oben). Hab das 390w Bios und 1910@925mV:

Gj-EXK6FCNI

Also die Karte die in allen Games 2100 schafft will ich sehen. Da braucht es glaube 600W. :devil:

Edgecrusher86
2020-10-22, 13:01:59
Also die Karte die in allen Games 2100 schafft will ich sehen. Da braucht es glaube 600W. :devil:

Besser gleich einen POT, ein XOC-BIOS und viel LN2 -> EVGA Roboclocker. ;D;D;D

Daredevil
2020-10-22, 14:13:29
Sooo, ich bin jetzt auch dauerhaft dabei ^^
Ich habe natürlich nicht zuerst den Thread gelesen, sondern habe wild das 3090 Strixx Bios auf die TuF geflasht, was ja kaum Sinn macht bei 2x8Pin, aber mei. Ist jetzt so.
Ich messe später aber mal den Verbrauch und schaue, wie groß der Unterschied dann ist.

Habe mal quick and Easy folgendes ausgelotet

Overwatch Episch 1440p@200%
Stock: 98-99fps
OC: 109-110fps +11%

( Funfact: Wenn ich die Auflösung im Spiel auf 50% stelle, taktet die Karte auf 2175Mhz und stürzt dann binnen 3-4 Minuten ab ^^ )
Stock ------------------------------------------------------------------------------------------------------------- +175/1000
https://abload.de/img/stockdck3t.gif

Trotz dessen, dass die Karte theoretisch 480w bzw. 127% PL nutzen könnte laut Bios, komme ich nie über diese gezeigten 11-12% ( TuF hat 107% max )
Ich flashe dann mal wieder zurück. :x

wolik
2020-10-22, 19:14:17
Sooo, ich bin jetzt auch dauerhaft dabei ^^
Ich habe natürlich nicht zuerst den Thread gelesen, sondern habe wild das 3090 Strixx Bios auf die TuF geflasht, was ja kaum Sinn macht bei 2x8Pin, aber mei. Ist jetzt so.
Ich messe später aber mal den Verbrauch und schaue, wie groß der Unterschied dann ist.

Habe mal quick and Easy folgendes ausgelotet

Overwatch Episch 1440p@200%
Stock: 98-99fps
OC: 109-110fps +11%

( Funfact: Wenn ich die Auflösung im Spiel auf 50% stelle, taktet die Karte auf 2175Mhz und stürzt dann binnen 3-4 Minuten ab ^^ )
Stock ------------------------------------------------------------------------------------------------------------- +175/1000
https://abload.de/img/stockdck3t.gif

Trotz dessen, dass die Karte theoretisch 480w bzw. 127% PL nutzen könnte laut Bios, komme ich nie über diese gezeigten 11-12% ( TuF hat 107% max )
Ich flashe dann mal wieder zurück. :x

Strix auf TUF, bringt nur weniger FPS. Auf TUF hast du zwei BIOS. Umschalten. Hochfahren (alte BIOS noch aktiv) Neustart, jetzt andere BIOS aktiv. PL 123%? Lief bei mir um 117% (laut Anzeige)

Daredevil
2020-10-22, 21:56:56
Ja ich weiß, war doof. ^^

jojo13
2020-10-23, 10:18:34
Du kannst das Gigabyte Gamer flashen das passt auch von den Anschlüssen, mußt dir nur erklären lassen mit was für Parameter im nvflash, die Asus Bios haben einen festen Ventor da bekommst normal kein anders drauf.

Colin MacLaren
2020-10-23, 11:33:11
Hat jemand eine EVGA FTW Ultra und kann das 500W-Bios flashen, um es anschließend mit GPZ-Z 2.50.0 zu extrahieren und uns zur Verfügung stellen :)

Edgecrusher86
2020-10-23, 13:47:54
GPU-Z 2.35.0 meinst du wohl. :)

Hier gibt es das EVGA 500W BIOS (3x8 Pin; drei Rails) schon:
https://www.techpowerup.com/vgabios/225850/225850

420W 100% PT ist aber echt böse, gerade da es noch keine K|NGP|N ist.

E: LOL:
https://www.youtube.com/watch?v=i8BAb3KzX5w
Es ließ sich nicht über den EVGA Flasher updaten mit einer FTW3 Ultra? Stattdessen musste er die gute alte Kommandzeile bemühen - mit TPU-BIOS. :D


E2: Oh, schon 78W am PCI-E Slot auf der EVGA mit dem 450W BIOS - 66W sagt ja die SIG als Maximum. :freak::freak::freak:
GamersNexus hatten 80W hier gemessen.

Ich will nicht wissen, wieviele Karten abrauchen werden, wenn manch einer alles shunted auf dem PCB und über den Slot deutlich über 100W gezogen werden - dann kann man wohl froh sein,
noch ein altes Board mit extra 6-Pin für die Slots zu haben (für 4-way LN2 Benches) :biggrin::biggrin::biggrin:

EvilTechno
2020-10-23, 13:48:01
Darf man mal ganz vorsichtig noch fragen, ob ihr noch alle Glocken am Turm habt? Die Begeisterung kann ich in Teilen nachvollziehen, habe selbst meinen gesamten Bundeswehrsold in einen Synthesizer gesteckt (damals, lange her). Aber das Ding steht immer noch in meinem Hobbykeller.

Die Grafikkarten um die es hier geht sind doch in wenigen Jahren nichts mehr wert. Selbst wenn die nächste und sogar übernächste nV Generation nicht mehr Power hätte... dann gäbe es halt must-have features die die alten Karten nicht mehr beherrschen.

Wieso braucht es die Karte SOFORT, mit Enthusiastenzuschlag und kann nicht gewartet werden, bis das AMD Gegenangebot vorliegt? Und wieso wird dann sofort noch geflasht?

Ist das die Rache der ehemaligen CS cracks, die -gelangweilt von Spielen die sich von alleine spielen- wieder einmal ganz an der Spitze stehen wollen? Ist das Hardware-pay-to-win?

Ich meine es nicht böse oder provozierend sondern würde wirklich gerne nachvollziehen was da passiert.

Edgecrusher86
2020-10-23, 14:13:59
Ich denke mal, idR sind es einfach hohe Ansprüche - UWQHD oder 4K maximiert ist nun einmal teilweise zuviel für etwa eine RTX 2080 Ti und z.B. ein 60 fps Target [ohne DLSS / oder einfach nativ mit RT On]. Enthusiasten-HW hatte schon immer einen großen Wertverlust, das ist Jedem im Vorfeld klar. Wer halt z.B. maximal 400W für eine Karte ausgibt, macht dann zwei Jahre später z.B. "nur" 100-200€ Verlust. Nun ja, einige User sind Preise von 2000€ und mehr pro Generation seit spätestens Anfang 2013 gewohnt - damals, wo sich noch SLI lohnte. Heute für die 5-7 guten Titel und wenigen Benchmarks ist es eine Geldverschwendung.

Manch ein User spielt auch gerne in WQHD@165Hz+ Refresh MP oder so - dazu gehöre ich aber nicht - mir langt idR 60 fps - spiele fast nur SP-Games. ;)

Ich z.B. habe bewusst Turing übersprungen - die 1080 Ti(s) sind 3,5 Jahre alt - seit 2018 habe ich fast nur noch mit SGPU gespielt, da halt einfach viele AAA-Games auch keine Custom-SLI Profile mehr zuließen. Ich denke, ich kann es verkraften, wenn ich nun 27€ weniger, als für das alte FE-Gespann zu Launch bezahlt habe [2x 819€ + 39€ HB-SLI-Bridge; letztere hatte ich aber schon vorher vom 1080 FE SLI ^^]. Die Karte ist in 5160 DSR idR doppelt so schnell wie Pascal, in UE4 z.B. auch mal bis +140%. In RDR2 sind es gar die dreifachen fps. Mehr VRAM wollte ich auch mal wieder gerne haben. Ich denke, da ist nichts Verwerfliches dran. Auch wenn ich zustimme, dass es auch z.B. maximal $999 MSRP getan hätten. Nun ja, Angebot und Nachfrage - so macht das ein Gewinn orientiertes Unternehmen halt. AMD würde für ihre SGPU-Top-Karte auch vierstellige Preise aufrufen, wenn sie über mehrere Generationen auf Augenhöhe wären, jede Wette.

Was das Flashen betrifft - eigentlich dachte ich ja, dass mein Benchmark-UV-Profile [1770-1800 MHz @ 831mV "fixed"] mit den Stock 350W TGP gehalten werden können, allerdings wurde ich schnell eines Besseren belehrt. 1797-1835 MHz lief auf den GTX 1080 Ti FE mit max. Targets. Das wollte ich halt nun auch erreichen. Da war es notwendig, noch etwas nachzulegen.

Im Alltag werde ich allerdings wohl meist deutlich darunter fahren - 1670 MHz @ 800mV war mein Hauptprofil bei Pascal für 60 fps - bei der RTX 3090 dürfte es wohl etwas im Bereich von ca. 731-750mV werden - top Leistung, aber kühl und Leise - immer auch im Hinterkopf, dass man noch grob 10%+ Mehrleistung per Brechstange fahren könnte. ;)

FastAndy
2020-10-23, 14:19:36
Offen gestanden ist das Geld ist für mich keine allzu große Summe. Ich spiele sogar kaum. Einfach Lust auf Technik.
Diejenigen die da Monate drauf sparen müssen dürfen da einfach nicht auf andere schließen. Klingt vielleicht etwas hart, ist aber die Realität.

Edgecrusher86
2020-10-23, 14:30:49
Hier ist es beides - ein hoher Anspruch an Spieleleistung und Lust auf Technik. :D

Auf jeden Fall kam für mich einzig und alleine der Fast-Vollausbau des GA102 mitsamt üppigen 24GB VRAM in Betracht - mal wieder mehr VRAM im Vergleich zu 2015 mit der Maxwell TITAN. Also man kann nun durchaus mehr als 11-12GB flüssig spielend nutzen. Es ist einfach ein gutes Gefühl, hier nicht limitiert zu sein - die RTX 3080 etwa ist eine sehr runde Karte,
aber die 10GB sind für diese Leistung Ende 2020 in meinen Augen einfach ein No-Go. Zumindest 12GB hätte man hier verbauen müssen - von mir aus auch + $50 MSRP verlangt. Aber dann hätte ich sie mir auch nicht geholt, denn 11 und 12GB hatte ich schon und ein VRAM-Downgrade war auch inakzeptabel; gerade als Fan von HD-Texturen. ;)

Ja, wer nicht soviel ausgeben möchte, holt sich halt z.B. eine gute Karte für maximal 500€ oder alternativ eine PS5 / XBox Series X - da kann man auch gut mit Zocken mitsamt einem prima TV - zahlt halt nur mehr für neue Spiele.

Ich persönlich wollte einfach das alte SLI-Gespann gut ersetzen - und das schafft derzeit halt nur die 3080 oder 3090 - AMD ziehe ich für den Hauptrechner nicht in Betracht, da der Monitor nur G-SYNC only ist - kein G-SYNC compatible. Das hatte mich dann teils doch gestört mit der Vega im kleinen System - Tearing, wenn ich mal die fps nicht cappen wollte bzw. VSync off fuhr.

Ex3cut3r
2020-10-23, 15:15:30
Na dann, hoffe ich mal für euch, dass AMD nicht schneller ist, als die 3090. Denn dann müsstet ihr alle zumindest die Leistungs Enthusiasten schon wieder wechseln. :biggrin:

Troyan
2020-10-23, 15:17:17
Wohin? Mit Raytracing und DLSS ist eine 3090 mehr als doppelt so schnell. Klar, ich könnte Control wieder in 1080p ohne DLSS zocken, aber dafür reicht auch eine 3070 oder kleiner.

Ex3cut3r
2020-10-23, 15:22:51
Jap. Ampere User müssen in ZuKunFt wohl DLSS und Texturen runter stellen, weil die 10GB knapp sein werden. Wenn man als Leistungs Enthusiast damit zufrieden ist, bitte, mein Segen habt ihr. ;D

dargo
2020-10-23, 15:46:05
Wohin? Mit Raytracing und DLSS ist eine 3090 mehr als doppelt so schnell.
Kannst du mir bitte das auch in Horizon: Zero Dawn zeigen? ;D

btw.
Und vergiss bitte nicht folgende Games:
* Assassin's Creed: Valhalla
* SotTR
* Dirt 5
* RDR2
* Mafia : Definitive Edition
* The Division 2

Ich habe bestimmt noch viele Games vergessen, wollte den Rahmen nicht sprengen.

Wuge
2020-10-23, 15:55:55
Ich finds auch hart, 2k für ne Grafikkarte. Würde das vielleicht sogar ausgeben wenn alles passt. Aber im Leben nicht für nen teildeaktivierten Chip. Irgendwie fehlt mir das "Wow, das muss ich haben" um 1.000 EUR in zwei Jahren abzuschreiben.
Wenn nächstes Frühjahr die "Vollversion" kommt, wohlmöglich noch mit selektierten Chips und 100 Mhz mehr ist das Ding schon wieder langweilig und nur noch die Hälfte wert.

Troyan
2020-10-23, 15:56:34
Und all die Spiele laufen irgendwie auch mit 10GB in 4K.
Und wenn 10GB nicht reichen, reduziert man die Texturauflösung von Ultra auf High.

Viel Spaß mit dem 5€ Spiel "Bright Memory" in 1080p spielen zu müssen, um irgendwie an 60FPS zu kommen, wenn die nVidia-User DLSS aktivieren und eine deutlich bessere Bildqualität haben.

Also mich würde es ankotzen, schon bei 5€ 1-Mann Spielen an die Grenze einer 600€ 300W Karte zu kommen. Aber zum Glück bist du ja nicht so besetzen von mehr als 1080p/60FPS.

WedgeAntilles
2020-10-23, 16:02:04
Na dann, hoffe ich mal für euch, dass AMD nicht schneller ist, als die 3090. Denn dann müsstet ihr alle zumindest die Leistungs Enthusiasten schon wieder wechseln. :biggrin:
Gilt das Argument "mehr Ram" nur, wenn AMD mehr Ram hat und die Nvidia-Karte weniger?
Wenn aber Nvidia mehr Ram hat als die AMD Karte, ist eine Karte die 5% schneller ist, besser? Ram hin oder her?

Ic habe ja nix dagegen wenn man "Fan" einer Marke ist - ich selber neige zu Nvidia.
Aber wenn man seine eigene Argumentation quasi monatlich ändert, je nachdem worin die eigene Marke gerade besser ist - das wirkt weder souverän noch kompetent.

Ex3cut3r
2020-10-23, 16:05:35
Was meinst du jetzt? 10GB reichen hinten und vorne nicht in Zukunft ab 2021 in neuen AAA Spielen. Da sind wir uns doch einig? 16GB sind vollkommen genug. 24GB bringen vermutlich keinen Vorteil in den nächsten 2 Jahren. Von daher Wumpe. Hauptsache man hat keine 10 oder 8GB bei einem neukauf.

dargo
2020-10-23, 16:09:18
Wie läuft eigentlich Marvel's Avengers 2020 mit dem offiziellen Texturepack auf einer 3080 10GB?

TurricanM3
2020-10-23, 16:39:04
Die 10GB würden mir glaube in fast allen Games reichen die ich spiele. HZD war da wohl evtl. eine Ausnahme, aber ein Spike alle XX Spielminuten ist nun auch kein Weltuntergang. Die wenigsten Spiele laufen sowieso absolut rund. Da finde ich schlimmer wenn das Game auf unter 70fps dropt.

Bez. AMD:
Die neue Karte müsste schon der Oberknaller werden, damit ich umsteige. Ich müsste zum einen leider den TFT wechseln (Panellotterie :hammer:) und zum anderen hab ich immer noch im Hinterkopf, dass bei neuen Titeln die AMD-Treiber Perf. Probleme haben. Liest man leider noch immer von. Bin zudem Gewohnheitstier. Das wollte ich alles für ein paar % Leistung nicht auf mich nehmen.
Meine letzte AMD war glaube eine X850XT. :smile:

wolik
2020-10-23, 16:43:06
Darf man mal ganz vorsichtig noch fragen, ob ihr noch alle Glocken am Turm habt? Die Begeisterung kann ich in Teilen nachvollziehen, habe selbst meinen gesamten Bundeswehrsold in einen Synthesizer gesteckt (damals, lange her). Aber das Ding steht immer noch in meinem Hobbykeller.

Die Grafikkarten um die es hier geht sind doch in wenigen Jahren nichts mehr wert. Selbst wenn die nächste und sogar übernächste nV Generation nicht mehr Power hätte... dann gäbe es halt must-have features die die alten Karten nicht mehr beherrschen.

Wieso braucht es die Karte SOFORT, mit Enthusiastenzuschlag und kann nicht gewartet werden, bis das AMD Gegenangebot vorliegt? Und wieso wird dann sofort noch geflasht?

Ist das die Rache der ehemaligen CS cracks, die -gelangweilt von Spielen die sich von alleine spielen- wieder einmal ganz an der Spitze stehen wollen? Ist das Hardware-pay-to-win?

Ich meine es nicht böse oder provozierend sondern würde wirklich gerne nachvollziehen was da passiert.

Du bist in 3090 Thread und nicht in 3080... AMD spielt in 3090 Liga nicht mit (wie mal wieder...)
Ist das Hardware-pay-to-win? Nein.
Die Grafikkarten um die es hier geht sind doch in wenigen Jahren nichts mehr wert. Wie alles andere auch. Gebrauchsgegenstand halt...

dargo
2020-10-23, 16:50:48
Du bist in 3090 Thread und nicht in 3080... AMD spielt in 3090 Liga nicht mit (wie mal wieder...)

Weil AMD 8GB Vram fehlen? :D Oder meinst du nur beim Preis? :tongue:

Langlay
2020-10-23, 16:56:30
Na dann, hoffe ich mal für euch, dass AMD nicht schneller ist, als die 3090. Denn dann müsstet ihr alle zumindest die Leistungs Enthusiasten schon wieder wechseln. :biggrin:

Zumindest bei mir könnte das tatsächlich passieren. Allerdings hab ich schon einen Abnehmer für meine 3090 mit Wakü Block. Dann war das nur ein kurzer Ausflug ins Land der Grünen.

Ex3cut3r
2020-10-23, 21:49:45
Die 10GB würden mir glaube in fast allen Games reichen die ich spiele. HZD war da wohl evtl. eine Ausnahme, aber ein Spike alle XX Spielminuten ist nun auch kein Weltuntergang. Die wenigsten Spiele laufen sowieso absolut rund. Da finde ich schlimmer wenn das Game auf unter 70fps dropt.


Hilf mir mal kurz. Du bist hier im Forum als absoluter Enthusiast bekannt. Der jede neue Intel Gen mitnimmt, um am ende 5-10% nach OC Tuning schneller zu sein. Siehst aber 10GB als OK an, und lebst mit ein paar Spikes/Ruckler hier und da? Warum verschwendest du dann jedes Jahr zig an Euros für CPU und MBs? Paar Ruckler hier und da sind doch kein Weltuntergang, hast du selbst so gesagt.

Dann macht deine ganz CPU Wechsel dich Theater mit Köpfen und Pipao gar keinen Sinn. Warum? Weil dann dann kannst du dir auch einen i5 aus der Haswell Gen kaufen und mit einer 3090 paaren. Wäre das gleiche Spielerlebnis, mit ab zu mal einen kleine Spike hier und da. Das ist doch der totale Widerspruch in sich...…

Einfach nur lol.

TurricanM3
2020-10-23, 22:24:50
Bin ich das? Wohl eher bei dir und demnach zu unrecht. :smile:
Ich weiß jetzt nicht ob du das ernst meinst (oder wieder schlechte Laune hast? Kommt hier oft so rüber) aber mit einem Hasi würde das was ich aktuell spiele spürbar schlechter laufen aber nicht mehr spiken. Das sind zwei verschiedene paar Schuhe. :wave2:

Sardaukar.nsn
2020-10-23, 22:28:15
Ich glaube Turrican ist einfach nur ehrlich und wenn es mal einen Ruckler gibt kann er auch damit leben. Mangels 3080 habe ich HZD diese Woche auf meiner good-old-trusty 1080ti zum Abschluss gebracht, irgendwo zwischen 50-70fps, aber Gsync glättet das ganz gut. Natürlich hätte ich mir mehr gewünscht, und wenn bis CP2077 immer noch keine neue GPU angekommen ist, wird mir das auch noch mit der 1080ti Spaß machen.

Langlay
2020-10-23, 22:31:36
Ich glaube Turrican ist einfach nur ehrlich und wenn es mal einen Ruckler gibt kann er auch damit leben. Mangels 3080 habe ich HZD diese Woche auf meiner good-old-trusty 1080ti zum Abschluss gebracht, irgendwo zwischen 50-70fps, aber Gsync glättet das ganz gut. Natürlich hätte ich mir mehr gewünscht, und wenn bis CP2077 immer noch keine neue GPU angekommen ist, wird mir das auch noch mit der 1080ti Spaß machen.


Ich hab den Hauptquest auf der VII durchgespielt und das Addon mit der 3090. Vom Spielgefühl her gabs dort kaum ein Unterschied obwohl die 3090 2x soviele FPS macht wie die VII.

jay.gee
2020-10-23, 22:49:02
Natürlich hätte ich mir mehr gewünscht, und wenn bis CP2077 immer noch keine neue GPU angekommen ist, wird mir das auch noch mit der 1080ti Spaß machen.

Bei CP2077 bleibe ich hart, wenn ich bis dahin keine neue Karte habe. Das Spiel will ich einfach mit RT und ohne allzu viele Kompromisse spielen.

Armaq
2020-10-23, 23:00:13
Bei CP2077 bleibe ich hart, wenn ich bis dahin keine neue Karte habe. Das Spiel will ich einfach mit RT und ohne allzu viele Kompromisse spielen.
Mit DLSS wird das auch mit der 2080Ti klappen.

jay.gee
2020-10-23, 23:30:28
Mit DLSS wird das auch mit der 2080Ti klappen.

Yo, ich bin mir sicher, dass man auch mit der 2080Ti noch sehr gute Ergebnisse erzielen wird - wenn man dann noch über einen Gsync-Monitor verfügt, sollte das passen. Dennoch werde ich über das Hineinschnüffeln hinaus mit dem Einstieg warten, bis ich meine neue Karte habe. :)

Legende
2020-10-24, 12:23:38
Yo, ich bin mir sicher, dass man auch mit der 2080Ti noch sehr gute Ergebnisse erzielen wird - wenn man dann noch über einen Gsync-Monitor verfügt, sollte das passen. Dennoch werde ich über das Hineinschnüffeln hinaus mit dem Einstieg warten, bis ich meine neue Karte habe. :)

Ohhh sei vorsichtig. Mit Hineinschnüffeln fängt die Sucht doch erst an :D

Armaq
2020-10-24, 22:21:12
Yo, ich bin mir sicher, dass man auch mit der 2080Ti noch sehr gute Ergebnisse erzielen wird - wenn man dann noch über einen Gsync-Monitor verfügt, sollte das passen. Dennoch werde ich über das Hineinschnüffeln hinaus mit dem Einstieg warten, bis ich meine neue Karte habe. :)
Das Biest wird ERLEGT!

TurricanM3
2020-10-24, 22:28:34
Hab in Tarkov nun 1800@850mV laufen und das genehmigt sich bislang 351 Watt in der Spitze nach ein paar Stündchen.
VRAM OC zieht doch nicht viel mehr bei der 3090 oder? Habe glatte 10.000 anliegen, da ginge aber mehr. Mal jemand getestet?

rentex
2020-10-25, 07:10:30
Hat wer ne Gainward Phoenix GS im Rechner?

Triniter
2020-10-25, 08:26:46
Gibt es irgendwo ein Tutorial wie man an das undervolting ran geht? Würd es gern mal versuchen was so möglich ist.
Und außerdem mal noch ne blöde Frage, wie lass ich mir per Afterburner die Watt anzeigen, wenn ich Power auswähle zeigt es im Spiel einen Prozentwert an, vermutlich das powertarget?

Edgecrusher86
2020-10-25, 15:23:08
Normal ist das getrennt - Power ist die errechnete Wattzahl, Power percent entsprechend der Prozentwert.

Für den Anfang würd ich 3 loops in z.b. Neon Noir fahren - RDR2 Benchmark und Chernobylite Benchmark (gerade das 2. Level) waren bei mir ebenfalls recht anfällig.

STRG+F im MSI AB -> einen Spannungspunkt anklicken und mit L fixieren. Dann Offset da drauf geben - entweder per Shift + Pfeiltasten oder z.B. im Slider per Offset einstellen. Zusätzlich ginge ja auch noch der Speicher per Slider und der Rest wie Power- und Temperature-Target.

Laufen zum Beispiel drei Loops im Neon Benchmark durch, kann man das Offset um z.B. 15 MHz erhöhen, also einen Booststep.

P.S.: Unter Last kann der Boost auch 15 - 30 MHz höher ausfallen, als das, was gesetzt ist. ;)



Hier mal zwei Beispiele von meinen Profilen - das Benchprofil [1770-1800 MHz unter Last] - ein Pascal FE ähnlicher Takt mit max Targets [unter Luft]:

https://abload.de/img/anmerkung2020-10-2515d0jtm.png



Hier ein Profil für anspruchslose Fälle - 3440 x 1440 und 60er fps cap etwa:

https://abload.de/img/anmerkung2020-10-251561kki.png

Mal eine Mission Mafia Remake - 3440 und 50 fps cap - die reinste Öko-Karte so mit 1245 MHz UV : :D

https://abload.de/img/anmerkung2020-10-2516xikz5.png

Der Speicher läuft mit nem Cap dann nur auf halber Kraft quasi bei 5002 MHz [P3-State statt P0], daher ist die Karte so sparsam.
Mit 60er Cap waren es im Level davor 140W avg. - ohne fps cap nochmals ein Level davor 209W avg. bei 80+ fps avg. und vollen 9752 MHz Mem!

Die beiden Vormissionen - gleiches Profi:

60er Cap:
https://abload.de/img/600fjwt.png

uncapped:
https://abload.de/img/uncappedx5k2j.png

Jeweils alles mit konstant 1245 MHz oder maximal mit 1230 - 1260 MHz. ;)

NikLaw
2020-10-25, 20:15:06
Hatte gerade bei Assetto Corsa Competizione auf einmal Bildfehler (Blöcke über den Bildschirm verteilt). Hatte den Speicher um 500 Mhz übertaktet und bisher nie Probleme gehabt. Ohne Übertaktung läuft wieder alles normal. Könnte auch sein, dass der neue 9900KF etwas heizt.. Oder ist der neue Hotfixtreiber schuld? Solche Fehler kenne ich eigentlich nur bei Übertaktung des RAM. Oder was meint ihr?

HisN
2020-10-25, 20:59:31
Naja, hört sich erst mal nach Übertaktung an.
Aber da die GPU an sich einem eher CTD oder gleich Schwarzbild beschehrt würde ich auch auf den Speicher tippen.

Und so ganz ehrlich: Mit Lukü würde ich den Speicher nicht anfassen.

TurricanM3
2020-10-25, 23:40:16
Habt ihr mal den Bright Infiniti Bench laufen lassen? Irgendwie hab ich da einige spikes drin.

https://abload.de/thumb/bmibenchmark-win64-shd5jsx.png (https://abload.de/image.php?img=bmibenchmark-win64-shd5jsx.png)

Cubitus
2020-10-29, 18:16:12
Hat wer ne Gainward Phoenix GS im Rechner?

Hier ich, was willst wissen? :)

Hab übrigends die besten und stabilsten Settings für meinen Use-Case gefunden.
3440p@100hz und 1080p@144hz

läuft super mit Undervolting, die Karte verputzt jedes Spiel mit den höchsten Settings zum Frühstück...
1800 mhz werden immer gehalten bzw. das Power-Limit nie komplett zum runter Takten abgerufen , eine Erhöhung des Power-Limits ist nicht nötig, nur in Ausnahmefällen wie z.b Quake RTX..
Oder TimeSpy Extreme.. Bei Port Royal hingegen nudelt das Ding komplett mit 1800 Mhz durch ohne zu zucken, Score sind knappe 12800 :)

Stabitest wurde mit 99,8 abgeschlossen.. Und bin schon seit ein paar Tagen fleißig beim Zocken..
Der Chip verträgt die 793mv gut..

Mit diesen Settings komme ich mit dem nicht so ganz prallen Kühler auf ca 65-70 Grad in nem Micro-Atx Case..



https://abload.de/img/2020-10-2918_22_12-kak40.png (https://abload.de/image.php?img=2020-10-2918_22_12-kak40.png)

Ex3cut3r
2020-10-29, 18:58:48
Viel Spaß damit Cubi. :up:

rentex
2020-10-30, 08:35:49
Hier ich, was willst wissen? :)

Hab übrigends die besten und stabilsten Settings für meinen Use-Case gefunden.
3440p@100hz und 1080p@144hz

läuft super mit Undervolting, die Karte verputzt jedes Spiel mit den höchsten Settings zum Frühstück...
1800 mhz werden immer gehalten bzw. das Power-Limit nie komplett zum runter Takten abgerufen , eine Erhöhung des Power-Limits ist nicht nötig, nur in Ausnahmefällen wie z.b Quake RTX..
Oder TimeSpy Extreme.. Bei Port Royal hingegen nudelt das Ding komplett mit 1800 Mhz durch ohne zu zucken, Score sind knappe 12800 :)

Stabitest wurde mit 99,8 abgeschlossen.. Und bin schon seit ein paar Tagen fleißig beim Zocken..
Der Chip verträgt die 793mv gut..

Mit diesen Settings komme ich mit dem nicht so ganz prallen Kühler auf ca 65-70 Grad in nem Micro-Atx Case..



https://abload.de/img/2020-10-2918_22_12-kak40.png (https://abload.de/image.php?img=2020-10-2918_22_12-kak40.png)

Hi, gut zu wissen. Ich zock seit Dienstag, fleissig HZD (1440p bei 100Hz Gsync gelocked, bei höheren Bildwiederholungsraten bekomme ich matschige Texturen...??? aber seit 10Std ohne Bugs ).
Temps liegen bei 67 Grad (nach 3 Std zocken, 20 Grad Zimmertemperatur und 53% Lüfterdrehzahl),
Zur Vorgehensweise beim UV:
Erstmal Spannungskurve erstellen (AFBurner) und dann ab der gewünschten Spannung/Clock fixieren?!
Deine Temps sind durchaus gut!!!
Foto:
Hier mal die Benches von links eine 2080 Ti, rechts die 3090.
Beide mit dem selben Sys gebencht...X570, 3700X mit 32GB 3600 MHz CL16
Gehäuse Phanteks P600s.

Cubitus
2020-10-30, 10:35:05
Hi, gut zu wissen. Ich zock seit Dienstag, fleissig HZD (1440p bei 100Hz Gsync gelocked, bei höheren Bildwiederholungsraten bekomme ich matschige Texturen...??? aber seit 10Std ohne Bugs ).
Temps liegen bei 67 Grad (nach 3 Std zocken, 20 Grad Zimmertemperatur und 53% Lüfterdrehzahl),
Zur Vorgehensweise beim UV:
Erstmal Spannungskurve erstellen (AFBurner) und dann ab der gewünschten Spannung/Clock fixieren?!
Deine Temps sind durchaus gut!!!
Foto:
Hier mal die Benches von links eine 2080 Ti, rechts die 3090.
Beide mit dem selben Sys gebencht...X570, 3700X mit 32GB 3600 MHz CL16
Gehäuse Phanteks P600s.

Ja, bin von der Karte eigl angenehm überrascht, nur das Powertarget limitiert eben. Zum Undervolt selbst, du ziehst die Default-Clock also 1395 Mhz von der Boost Clock ab... Das sind -330 Mhz:

Ergibt dann folgende Kurve:
Dort suchst dir deinen Max Takt heraus und die Voltage mit der dieser laufen soll,
bei meinem Tests kam ich drauf das bei meiner Auflösung 1800 Mhz also +200 Mhz, bei 793 den Sweetspot darstellt..
Dort befindet sich die Karte meistens immer noch im Powertarget und taktet nicht runter.. Bzw. hätte auch nochmals etwas Luft beim Powerlimit, also quasi die 4 Prozent was man drauf geben könnte.

Die Kurve ist etwas buggy und zeigt ab und zu die Taktraten nicht richtig an,
bzw. es ist nur wichtig das der Wert stimmt, also z.b die +200 Mhz bei x mv

Zu ersten Stabilitätsüberprüfung kann ich den Port Royal Stresstest empfehlen, danach den Devision 2 Benchmark, bzw. Devision 2 stellte sich auch als besonders zickig heraus, ebenso wie Red-Dead Redamption..

Bzw. die FPS zu locken kann bei Games welche eh eine hohe Grund-FPS haben etwas bringen, insofern das die Ziel FPS erreicht werden und die Karte auch nicht mehr Power abrufen will.

https://abload.de/img/2020-10-3010_24_38-wifcjrk.png (https://abload.de/image.php?img=2020-10-3010_24_38-wifcjrk.png)

Viel Spaß damit Cubi. :up:

Danke dir, bzw. hab ich schon, die Leistung der Karte ist brachial..
Über den Preis brauchen wir aber nicht zu reden.. :freak:

Bzw. hatte auch schon Szenarios wo die 24 Gig der Karte hilfreich waren, z.b in VR bei Half-Life Alyx, dort werden teilweise 14 Gig unter Ultra benötigt, bzw. das lief mit meiner 2080ti noch etwas haklig..

rentex
2020-10-30, 10:41:55
@Cubitus Danke für die Erklärung. Werde beizeiten es mal austesten.
Also....ich bekomm das irgendwie nicht hin. Trotz einstellen dee Spannungskurve, arbeitet die Karte wie gewohnt.

Cubitus
2020-10-30, 12:14:13
@Cubitus Danke für die Erklärung. Werde beizeiten es mal austesten.
Also....ich bekomm das irgendwie nicht hin. Trotz einstellen dee Spannungskurve, arbeitet die Karte wie gewohnt.

Was meinst du wie gewohnt?
Also Sie schwankt, oder hält den Takt?

Normalerweise müsste die Karte bis mx 1800 Mhz boosten und dann je nach Anwendungsfall entweder ins Power Target laufen oder nicht..

Falls sich die Karte runtertaktet, musst mal schauen was das Powertarget sagt, ist es unter 350 Watt, dann langweilt sich die Karte und braucht nicht soviel Saft.
--> in dem Fall wären auch höhere Taktraten als die 1800 Mhz möglich, macht aber nicht wirklich ein Unterschied da die Leistung für die Ziel FPS nicht abgerufen wird.
bzw. es unnötig ist mehr Takt zu geben was dann ja wieder mehr Stromverbrauch (Abwärme) bedeutet...

Ist das Powertarget bei 350 Watt und die GPU taktet runter wird mehr Spannung benötigt um die 1800 Mhz zu halten, ergo würden auch höhere Taktraten nix bringen.
--> hier kannst du dir dann überlegen ob du noch 4 Prozent dazugeben willst, was allerdings wieder in höhere Temps ausartet, oder ob du auf ein wenig FPS verzichtest.

die 0,78 mv helfen zusätzlich etwas weniger Energie (Wärme) zu verbrauchen.. Eigentlich wären 1800 Mhz erst bei ~900 mv lt Standard vorgesehen.
Natürlich kann man damit auch keine Wunder erwarten, aber ein bisschen hilft es.

rentex
2020-10-30, 12:31:53
Ah! Habs grad nochmal eingestellt. Beim TS Stress Test liegen max 1785 MHz , beinca. 86% PT und 64 Grad an. Ich wart noch das Ergebnis ab....
Müssen eigentlich die Taktstufen vor den 0,793mV, bei 1000 MHz/ 0,700mV anfangen?

Edit: Es gab nen Freeze. Das Thema werd ich auf später verschieben.

Cubitus
2020-10-30, 13:08:44
Ah! Habs grad nochmal eingestellt. Beim TS Stress Test liegen max 1785 MHz , beinca. 86% PT und 64 Grad an. Ich wart noch das Ergebnis ab....
Müssen eigentlich die Taktstufen vor den 0,793mV, bei 1000 MHz/ 0,700mV anfangen?

Das Powertarget ist aber nicht von dir auf 86 Prozent gesetzt worden?
Falls, ja 100% nehmen.

Ansonsten langweilt sich die Karte etwas :tongue:
Was aber bei 100% voll okay wäre :)

Müssen nicht, du kannst die Kurve auch stretchten..
Somit hast du einen etwas linearen Anstieg im unteren Bereich und somit mehr Takt, bedeutet dann aber auch das du mehr Arbeit hast die einzelnen Punkte gegen Ende auf den Ziel-Wert zu bringen..:freak:

Zudem ist bei dieser Methode wichtig die vorletzten Punkte anzupassen, da sonst der Rückfall des Boost zu heftig wird.
(der Step auf die nächste mv/Taktstufe 1800/1600 mhz ist ohne Anpassung heftig)

Man könnte die Turbostufen davor auch alle einzeln austesten um noch etwas mehr Takt im unteren Bereich herauszuholen,
ich sehe aber eher weniger Sinn darin, da mehr Takt auch den Stromverbrauch fördert.

Würde dann in etwa so aussehen..
Bzw. hier sieht man auch wieder wunderbar den Bug, normalerweise müssten es bei 1800 Mhz +200 sein :rolleyes:

https://abload.de/img/2020-10-3012_57_17-vojojpv.png (https://abload.de/image.php?img=2020-10-3012_57_17-vojojpv.png)

Edit: Bei nem Freeze, dann die nächste Mv Stufe ausprobieren, das wären dann die 800mv bei 1800 Mhz.
Oder, da sich die Karte bei deinem Setting gerade eh etwas langweilt, nimmst einfach 1750 Mhz als Endzielwert.

Legende
2020-10-30, 13:59:03
Ich hab die Ventus 3X OC von MSI. Die ist so semigut beim Undervolting. Zumindest meine. Stabil läuft sie bei 1785MHz und 0,812mV. Mit dem Benchmark von Division 2 getestet.

Mal so doof gefragt, hat die CPU eigentlich auch einen Einfluss drauf? Ich bin noch mit einem I7 7700K unterwegs.

rentex
2020-10-30, 16:47:46
@Cubitus PT ist auf 100% belassen. Ok, werds demnächst testen.

Cubitus
2020-10-30, 17:32:54
Ich hab die Ventus 3X OC von MSI. Die ist so semigut beim Undervolting. Zumindest meine. Stabil läuft sie bei 1785MHz und 0,812mV. Mit dem Benchmark von Division 2 getestet.

Mal so doof gefragt, hat die CPU eigentlich auch einen Einfluss drauf? Ich bin noch mit einem I7 7700K unterwegs.


Division ist auch wirklich ne totale Zicke, beim Benchmark mal drauf achten ob der Rauch in den letzten Szenen flackert... Falls ja wird das Spiel vermutlich nicht stabil laufen und mal abstürzen.
Zudem würde ich beim gewünschten Ergebnis den Port Royal Stabilitätstest von 3DMark laufen lassen..

Zu deiner Frage, ja auch die CPU spielt beim Erreichen des Power-Limits eine Rolle wenn die Karte nicht genug Daten zum Saufen bekommt dann wird auch schwer das Power-Limit erreicht.
Wobei das bei den GPU-Benches wie Port Royal, Time-Spy Extreme oder auch jetzt bei Division (was sehr GPU lastig sein kann) eigl kaum eine Rolle spielt.

@Cubitus PT ist auf 100% belassen. Ok, werds demnächst testen.

Alles klar, bin gespannt :)


Edit:

Ich wurde von einem User gefragt bzgl Quake RTX, wieso der Takt schwankt, er spielt es in 4K.
Wie gesagt Quake kostet extrem Leistung, vor allem wenn sämtliche Einstellungen auf Max gesetzt wurden..

Bei Quake ist es so, das ich mit 2580*1080p@100 Mhz und gelockten 100FPS bei 1800 Mhz mich im PT befinde.
Gibt man sich mit 60 FPS zufrieden hätte man mit der Auflösung natürlich noch Spielraum..

https://abload.de/thumb/quake2rtxremasterscre0xj61.jpg (https://abload.de/image.php?img=quake2rtxremasterscre0xj61.jpg)

Die 92 FPS kommen daher, da beim Screenshot schießen die FPS kurzzeitig einbrechen.


Beispiel Quake RTX mit 60FPS@3440p

https://abload.de/thumb/quake2rtxremasterscre5jjdg.jpg (https://abload.de/image.php?img=quake2rtxremasterscre5jjdg.jpg)

hanneslan
2020-10-30, 19:03:36
Hi zusammen,

Welche MSI-Afterburner Version ist für eine RTX3090 FE zu empfehlen?

Bei der 4.6.3 Beta 2 funktioniert bei mir das Erstellen einer manuellen Lüfterkurve nicht richtig bzw. es wird nicht richtig angezeigt.

Fan Speed ist immer bei 30.

Was kann man hier machen?

Gibt es schon eine neue Beta 3?

Hat die jemand für mich?

Danke im Voraus

Hannes

rentex
2020-10-31, 10:32:52
@Cubitus Der AFB (letzte Beta) ermöglicht mir es einfach nicht, die Einstellungen der Spannungskurve zu speichern/umzusetzen.
Ich werd mal die nächste AFB Version abwarten


@hanneslan

https://de.msi.com/Landing/afterburner

Legende
2020-10-31, 11:15:49
@Cubitus Danke dir. Ich lasse es erstmal so wie es ist. Die Spiele laufen ja stabil. Wenn mein neuer Rechner komplett fertig ist, werde ich mich dem Undervolting wieder widmen. :)

Was den AB angeht, also eigentlich scheint es wohl eine Beta 3 zu geben. Nur der Link funktioniert irgendwie nicht. Ich guck da schon seit mehrern Tagen drauf. http://download.msi.com/uti_exe/vga/MSIAfterburnerSetup462Beta3.zip

rentex
2020-10-31, 15:32:35
@Legende Keiner der vorangegangen Posts war für dich bestimmt. Fühlst du dich immer angesprochen?

Außerdem funktioniert der reguläre Link zum AB...du solltest vllt. deinen Rechner nochmal aufsetzen

Legende
2020-10-31, 18:02:08
@Legende Keiner der vorangegangen Posts war für dich bestimmt. Fühlst du dich immer angesprochen?

Außerdem funktioniert der reguläre Link zum AB...du solltest vllt. deinen Rechner nochmal aufsetzen

Division ist auch wirklich ne totale Zicke, beim Benchmark mal drauf achten ob der Rauch in den letzten Szenen flackert... Falls ja wird das Spiel vermutlich nicht stabil laufen und mal abstürzen.
Zudem würde ich beim gewünschten Ergebnis den Port Royal Stabilitätstest von 3DMark laufen lassen..

Zu deiner Frage, ja auch die CPU spielt beim Erreichen des Power-Limits eine Rolle wenn die Karte nicht genug Daten zum Saufen bekommt dann wird auch schwer das Power-Limit erreicht.
Wobei das bei den GPU-Benches wie Port Royal, Time-Spy Extreme oder auch jetzt bei Division (was sehr GPU lastig sein kann) eigl kaum eine Rolle spielt.


Irgendwie fühle ich mich da angesprochen. Was ist los mit dir. Schlecht geschlafen?

Vielleicht hast du recht. Vielleicht sollte ich mein System neu aufsetzen. Mit FF und Chrome kriege ich da nichts runtergeladen. Auch wenn ich den Adblocker deaktiviere.

BiG OnE
2020-10-31, 21:37:17
Der Link funktioniert, ich habe die Beta 3 runterladen können.

Lawmachine79
2020-11-01, 00:59:28
Ich hab die Ventus 3X OC von MSI. Die ist so semigut beim Undervolting. Zumindest meine. Stabil läuft sie bei 1785MHz und 0,812mV. Mit dem Benchmark von Division 2 getestet.

Mal so doof gefragt, hat die CPU eigentlich auch einen Einfluss drauf? Ich bin noch mit einem I7 7700K unterwegs.
Wie ist die Lautstärke der Ventus OC?

r3ptil3
2020-11-01, 01:31:57
Was meinst du jetzt? 10GB reichen hinten und vorne nicht in Zukunft ab 2021 in neuen AAA Spielen. Da sind wir uns doch einig? 16GB sind vollkommen genug. 24GB bringen vermutlich keinen Vorteil in den nächsten 2 Jahren. Von daher Wumpe. Hauptsache man hat keine 10 oder 8GB bei einem neukauf.

Also nach dieser Logik:

10Gb schlecht
16Gb gut
24Gb schlecht

Danke für die Aufklärung. (y)

rentex
2020-11-01, 07:04:19
Welch Logik ;D

dargo
2020-11-01, 07:29:06
Also nach dieser Logik:

10Gb schlecht
16Gb gut
24Gb schlecht

Danke für die Aufklärung. (y)
Stellst du dich absichtlich dumm? Die 24GB sind nicht schlecht, nur unnötig in der Lebenszeit einer RTX 3090. Oder anders gesagt etwas Overkill. Ist bei den ganzen Titans auch nicht anders gewesen.

Gouvernator
2020-11-01, 09:40:48
Stellst du dich absichtlich dumm? Die 24GB sind nicht schlecht, nur unnötig in der Lebenszeit einer RTX 3090. Oder anders gesagt etwas Overkill. Ist bei den ganzen Titans auch nicht anders gewesen.
Mal eine Grafikkarte dabei mit ausreichend Speicher und schon ist das "unnötig"... Ein paar gemoddete pre-Xbox360 Ära Games die ich getestet habe sprengen in 16K leicht 20Gb. Der 16Gb-AMD-Krüppel kann aber heute, ja noch nicht mal 8K richtig anzeigen. Resident Evil 3 Remaster wäre auf AMD zwar in 8K noch ausreichend schnell, aber dann kommt 17Gb+ VRAM Anforderung. Und schon ist deine neue, schöne Grafikkarte veraltet ohne überhaupt erst angekommen zu sein.

Wenn die Specs in kommenden Jahre einen Sprung zu 16K erlauben können, dann werden wir über 24Gb nur lachen. Die 16K Grafikkarten müssten dann durchgehend mit bis zu 50Gb Vram ankommen.

ChaosTM
2020-11-01, 09:52:49
Deshalb warte ich ja auf die 32GB Variante. 16 oder 24 trau ich nicht ganz :D

oder besser auf die 48er Titan warten um kuschelig 3k...

Gouvernator
2020-11-01, 10:21:04
Naja 32Gb ist heute aber tatsächlich Overkill. Ich weiß aber auch warum NV bei 8K TVs den DSR Modus komplett deaktiviert hat. Jemandem der heute zufällig 16K anklickt zumindest in neueren Games, dem schmiert das System weg. Weil es mehr als 30Gb VRAM erfordern würde. Man muss das auf der Zunge zergehen lassen. Um schon ewig vorhandenes DSR gefahrlos beizubehalten, braucht man bei Gaming Grafikkarte 40Gb VRAM. :ucoffee:

Thunder99
2020-11-01, 10:21:12
Luxusproblem...
Überzogene Settings sprengen so manche HW. War schon immer so.

Und wenn Spiele aktuell mit 11GB laufen, mit 10 aber schlechter, dann wird es einen Patch geben können der das ausgleicht.

Bei zukünftigen Spiele werden wir ja sehen, ob unter 4K sie sich mehr an die 10GB orientieren, oder an die 16GB. Ich kann mir bei der dominanten Stellung nur schwer vorstellen, dass die Entwicklung auf nur 16GB optimieren...

Die 24GB sind wiederum gut für Extrem Settings, sprich alles auf max. mit extrem hohen Auflösungen.

Ich für mein Teil hab aber auch lieber mehr als weniger VRAM. Sicher ist sicher ;). Daher ist die Kritik an der 3080 berechtigt!

ChaosTM
2020-11-01, 10:29:07
Naja 32Gb ist heute aber tatsächlich Overkill. Ich weiß aber auch warum NV bei 8K TVs den DSR Modus komplett deaktiviert hat. Jemandem der heute zufällig 16K anklickt zumindest in neueren Games, dem schmiert das System weg. Weil es mehr als 30Gb VRAM erfordern würde. Man muss das auf der Zunge zergehen lassen. Um schon ewig vorhandenes DSR gefahrlos beizubehalten, braucht man bei Gaming Grafikkarte 40Gb VRAM. :ucoffee:


Heute -- definitiv, aber ich plane die Karte gut 5 Jahre zu verwenden.


So lange wird es ca. dauern bis ein Modell verfügbar ist, dass mindestens 80-100% schneller ist.

Gouvernator
2020-11-01, 10:29:46
Manche wie Dargo sind eben noch in der Vergangenheit zurück geblieben. Mit ihren unterdimensionierten VRAM Vorstellung insbesondere wenn sie noch am 1440p Guckloch sitzen und noch ewig sitzen bleiben wollen. Aber jemand der ein 8K TV hat die es in 55" ab 2000€ gab, braucht jetzt schon 40Gb VRAM um wie gehabt DSR aktivieren zu können.

dargo
2020-11-01, 10:44:55
Ja.. diese zurück Gebliebenen wollen halt nur mehr fps und keine Standbilder zählen.

btw.
Forsche mal weiter damit wir dank deiner Unterstützung bei der nächsten Gen 32k bekommen. ;D ;D ;D

Gouvernator
2020-11-01, 11:21:05
Ich denke bei den Preisen für 40Gb-50Gb VRAM werden wir eher in Richtung 8K/120-240Hz gehen. Das ganze wäre wahrscheinlich einen ganzen Artikel wert, ab wann die Auflösung die VRAM Kosten derart explodieren lässt, das es nicht mehr wirtschaftlich ist immer größere Auflösungen zu verkaufen. Spätestens bei 16000x9000 auf 24" bei 760PPI sind wir bei natürlichen Retina Schwelle angekommen. Ich sehe dann höchstens 64Gb VRAM die man überhaupt noch physisch auf eine Karte unterbringen kann.

Thunder99
2020-11-01, 11:31:41
Ich bezweifle ernsthaft ob die Rohrleistung auch so schnell wächst. Selbst die 3090 ist keine 8k Karte ohne DLSS.

Gouvernator
2020-11-01, 11:43:17
Eine RTX3090 mal drei und man bekommt damit eine brauchbare 16K Karte. Vanilla uralt Far Cry läuft jetzt mit ca. 60 FPS in 16K. Es wird aber erst 8K/60 dann 8K/120 gemolken. Deswegen stecken wir für längere Zeit noch mit 24Gb fest.

Lawmachine79
2020-11-01, 12:01:20
Stellst du dich absichtlich dumm? Die 24GB sind nicht schlecht, nur unnötig in der Lebenszeit einer RTX 3090. Oder anders gesagt etwas Overkill. Ist bei den ganzen Titans auch nicht anders gewesen.
Also meine letzte High-End-Karte hat 3 Jahre und 7 Monate gehalten. Wenn jetzt schon 10 zu wenig und 16 genug sind, werden über 3 Jahre locker ausreichen, um über 20 zu kommen. Zumal Ampere dank DLSS auch deutlich besser altert. Bei meiner 1080Ti merke ich auch wie sie in Spielen wie COD, HZD und Control kämpft. Wäre das Ampere könnte man DLSS anmachen und hat bis zur nächsten Spielegeneration Ruhe. Viele überspringen gerne eine Generation oder greifen nur bei Architekturwechsel zu etc.

Ja.. diese zurück Gebliebenen wollen halt nur mehr fps und keine Standbilder zählen.

btw.
Forsche mal weiter damit wir dank deiner Unterstützung bei der nächsten Gen 32k bekommen. ;D ;D ;D
Oh plötzlich wollt Ihr wieder FPS? Was habt ihr denn dann nach der 5870 all die Jahre gemacht? Und ab wann wollt ihr wieder ein Featureset?

dargo
2020-11-01, 12:08:43
Also meine letzte High-End-Karte hat 3 Jahre und 7 Monate gehalten. Wenn jetzt schon 10 zu wenig und 16 genug sind, werden über 3 Jahre locker ausreichen, um über 20 zu kommen. Zumal Ampere dank DLSS auch deutlich besser altert. Bei meiner 1080Ti merke ich auch wie sie in Spielen wie COD, HZD und Control kämpft. Wäre das Ampere könnte man DLSS anmachen und hat bis zur nächsten Spielegeneration Ruhe.
Lebst du wieder in deiner Parallelwelt? HZD hat kein DLSS wie viele andere Spiele auch.

ChaosTM
2020-11-01, 12:11:49
Bis wieder 80-100% mehr Leistung zustande kommen werden diesmal nicht 3,5 sonder eher 5+ Jahre vergehen. Deshalb kauf ich größer als jetzt nötig erscheint. Schaden kanns nicht wirklich..

dargo
2020-11-01, 12:14:43
Bis wieder 80-100% mehr Leistung zustande kommen werden diesmal nicht 3,5 sonder eher 5+ Jahre vergehen.
5+ Jahre halte ich für übertrieben. Würde es so weiter gehen wie vorher könnte das aber durchaus bei 3,5-4 Jahren stimmen. Da aber bereits an MCM geforscht wird (RDNA 3 sehe ich als Vorstufe dazu) bin ich nicht mehr so ganz pessimistisch eingestellt.

Legende
2020-11-01, 12:15:09
Wie ist die Lautstärke der Ventus OC?

Kann ich dir ehrlich gesagt noch nicht beantworten. Momentan wird sie vom CPU Kühler übertönt. Ich hab einen be quit dark pro 3 und der ist unter Last deutlich hörbar. Vielleicht sollte ich ihn auch einfach mal wieder vom Staub befreien :D

ChaosTM
2020-11-01, 12:19:14
5+ Jahre halte ich für übertrieben. Würde es so weiter gehen wie vorher könnte das aber durchaus bei 3,5-4 Jahren stimmen. Da aber bereits an MCM geforscht wird (RDNA 3 sehe ich als Vorstufe dazu) bin ich nicht mehr so ganz pessimistisch eingestellt.


AMDs Wiedereinstieg in die Königsklasse könnte die Dinge auch wieder etwas beschleunigen..

Cubitus
2020-11-01, 12:24:09
Kann eigl wieder guten Gewissens Downsampling empfehlen,
aber den klassischen Style über eine andere Display-Auflösung.. :cool:

Da sieht das Bild einfach wesentlich besser aus als mit DSR..

Sitz aktuell gerade an nem 1080p Monitor und weiß nicht so genau wohin mit der Leistung :D 2880*1620@144 hz..Devision 2, allokiert sich da gerne mal über 16 Gig Vram..
Von dem her fühlen sich die 24 Gig schon beruhigend gut an :freak:

Ansonsten finde ich die Vram Diskussion wieder eher müßig..
Die 3090 ist eine auf Gaming vermarktete Content-Creator (Titan) Karte.

Über 4K Gaming ist unter bestimmten Voraussetzungen natürlich auch möglich, aber es sind halt nur genügsame Spiele..
So mega schnell ist eine 3090 dann nun auch wieder nicht..

dargo
2020-11-01, 12:36:06
Geht dieses Märchen @VRAM Allokation wieder los? :freak: Ich habe mittlerweile 1560 Spielstunden in Divison 2 auf der Uhr. Wie konnte ich das bloß mit 8GB Vram @1440p butterweich spielen?

Lawmachine79
2020-11-01, 14:05:54
Ich denke bei den Preisen für 40Gb-50Gb VRAM werden wir eher in Richtung 8K/120-240Hz gehen. Das ganze wäre wahrscheinlich einen ganzen Artikel wert, ab wann die Auflösung die VRAM Kosten derart explodieren lässt, das es nicht mehr wirtschaftlich ist immer größere Auflösungen zu verkaufen. Spätestens bei 16000x9000 auf 24" bei 760PPI sind wir bei natürlichen Retina Schwelle angekommen. Ich sehe dann höchstens 64Gb VRAM die man überhaupt noch physisch auf eine Karte unterbringen kann.
Welche Spiele sind denn ideal um möglichst viel VRAM zu belegen?

Gouvernator
2020-11-01, 14:18:52
Ideal ist alles was spielintern Downsampling bietet. COD:AW hat glaube 8x Downsampling was bei 8K DSR schon beachtliche Mengen VRAM belegen würde.

Lawmachine79
2020-11-01, 14:51:41
Ideal ist alles was spielintern Downsampling bietet. COD:AW hat glaube 8x Downsampling was bei 8K DSR schon beachtliche Mengen VRAM belegen würde.
Naja, ich meine ohne DS; DS ist ja de facto Spielen in einer höheren Auflösung.

Cubitus
2020-11-01, 14:57:02
Geht dieses Märchen @VRAM Allokation wieder los? :freak: Ich habe mittlerweile 1560 Spielstunden in Divison 2 auf der Uhr. Wie konnte ich das bloß mit 8GB Vram @1440p butterweich spielen?


Allokieren bedeutet nicht zwangsweise brauchen :rolleyes:
Ich hab das Wort schon absichtlich gewählt, ich hätte auch schreiben können nimmt sich, oder braucht über 16 Gig..

user77
2020-11-01, 15:04:54
Geht dieses Märchen @VRAM Allokation wieder los? :freak: Ich habe mittlerweile 1560 Spielstunden in Divison 2 auf der Uhr. Wie konnte ich das bloß mit 8GB Vram @1440p butterweich spielen?

Offtopic: du hast in den letzten 1.5 Jahren über 2 Monate mit Division 2 verbracht... Echt?

dargo
2020-11-01, 15:29:54
Ich bin baff... du kannst ja rechnen. :eek:

=Floi=
2020-11-01, 15:55:54
Ideal ist alles was spielintern Downsampling bietet. COD:AW hat glaube 8x Downsampling was bei 8K DSR schon beachtliche Mengen VRAM belegen würde.

weil das spiel eh so von höherer auflösung profitiert. :ugly:

Gouvernator
2020-11-01, 17:23:02
weil das spiel eh so von höherer auflösung profitiert. :ugly:
Alternativ ist Resident Evil 3 Remaster gut. Hat von Haus aus 17Gb Vram in 8K und kann ebenfalls Downsampling.

Lawmachine79
2020-11-01, 17:29:05
Ok, wenn ich the Division 2 einfach alles auf Max mache, lande ich bei knapp 19 GB.

dargo
2020-11-01, 18:05:15
Hat Nvidia ein Speicherleck? Ich lande bei 7+GB mit max. Details und mit meinen üblichen Spielsettings gar bei 6+GB @1440p. ;) Höchstwahrscheinlich wird in diesem Spiel einfach nur mehr adressiert wenn mehr vorhanden ist, ohne irgendwelche Vorteile.

DrFreaK666
2020-11-01, 18:40:50
Stellst du dich absichtlich dumm? Die 24GB sind nicht schlecht, nur unnötig in der Lebenszeit einer RTX 3090. Oder anders gesagt etwas Overkill. Ist bei den ganzen Titans auch nicht anders gewesen.

Stellst du dich absichtlich dumm? Schonmal auf die Idee gekommen dass die 3090 nicht nur für Spieler interessant ist und 24GB dann nicht Overkill sind?

dargo
2020-11-01, 18:52:53
Alter... :facepalm:

Langlay
2020-11-01, 18:53:26
Stellst du dich absichtlich dumm? Schonmal auf die Idee gekommen dass die 3090 nicht nur für Spieler interessant ist und 24GB dann nicht Overkill sind?

Die meisten können über ihren Tellerrand kaum hinausschauen. Beim Spielen wirste die 24GB wohl nicht sinnvoll vollbekommen. Wenn man z.b. 4K oder 8K Videoschnitt macht kriegste die 24GB schon heute voll, wenn dein Projekt gross genug.

RoughNeck
2020-11-01, 18:59:38
Viele Games belegen den RAM der vorhanden, ob das nun Vorteile bringt sei mal dahingestellt. Wenn ich die 2080 TI mit der Radeon Seven vergleiche, komme ich mit der Radeon auch des Öfteren auch auf 15 oder 16 GB wo die 2080 TI 10 GB belegt.
Das ist aber auch nichts neues, worum da ständig drauf rumgeritten wird erschließt sich mir nicht. Es heißt ja nicht dass es mit 8GB Karten unspielbar ist.

Beim Beispiel vom Dargo mit Division II hatte die 5700 XT meist zwischen 7 - 8GB, die 2080 TI kam auf 10 - 10,5 GB und die Radeon Seven kam glaub ich auf 14 GB (wenn ich mich nicht täusche).

DrFreaK666
2020-11-01, 20:07:20
Alter... :facepalm:

Wow. Kommt nicht so oft vor, dass du sprachlos bist

HisN
2020-11-01, 22:32:15
Viele Games belegen den RAM der vorhanden

Machen sie nicht.
Ich hab jetzt seit 2 Jahren 24GB zu laufen, und KEINS der Spiele, die ich gesehen habe, hat die 24GB belegt. Das höchste der Gefühle war um die 21GB.
Differenzieren bitte. Der Spruch kommt leider viel zu oft von den Leute die wenig VRAM auf der Karte haben, wo es kein Wunder ist wenn das VRAM voll belegt wird.

Die andere Seite sieht man halt nur, wenn man genug davon hat.

Lawmachine79
2020-11-01, 23:02:18
Hat Nvidia ein Speicherleck? Ich lande bei 7+GB mit max. Details und mit meinen üblichen Spielsettings gar bei 6+GB @1440p. ;) Höchstwahrscheinlich wird in diesem Spiel einfach nur mehr adressiert wenn mehr vorhanden ist, ohne irgendwelche Vorteile.
Ich meine 4k. Das ist mehr als die doppelte Pixelmenge. Wenn Speicherbedarf linear mit der Auflösung skaliert (was er glaube ich nicht tut), kommt es ja hin.

Gouvernator
2020-11-02, 04:35:12
Habe mit Custom DSR Tool 16K Auflösung eingestellt. Und dann auf mein XZ Premium 800ppi Smartphone in 4K gestreamt. Man man man, die ersten Minuten bei Forza 4 im Dronen-Modus hatte ich Schmetterlinge im Bauch. Das sah schon bedrohlich life-like aus.

Wer sagt: "wir brauchen nicht so viel VRAM!" - ist verrückt. Ich brauche jetzt 16K auf 800ppi. Am besten 8K Tablet und durchgehend 16K Downsampling. Ich habe drauf ein Blick in 5.5" geworfen und kann nicht mehr zurück.:usad:

Edgecrusher86
2020-11-02, 08:23:06
Das ist doch normal, dass je nach Engine deutlich mehr adressiert wird, als notwendig ist - teilweise vor allem in "niedrigeren" Auflösungen. ;)

Beispiel - BF1 - 3440 x 1440 - Ultra:

GTX 1080 Ti - 3,4GB - 107 fps:
https://s12.directupload.net/images/201102/temp/wvwhnq58.png (https://www.directupload.net/file/d/5990/wvwhnq58_png.htm)

RTX 3090 - 12,4GB - 154 fps (CPU-Limit):
https://s12.directupload.net/images/201102/temp/gz6luh4p.png (https://www.directupload.net/file/d/5990/gz6luh4p_png.htm)



Beispiel - BF1 - 5160 x 2160 - Ultra:

GTX 1080 Ti - 4,97GB - 59 fps:
https://s12.directupload.net/images/201102/temp/gkbtbhek.png (https://www.directupload.net/file/d/5990/gkbtbhek_png.htm)


RTX 3090 - 14,1GB - 117 fps:
https://s12.directupload.net/images/201102/temp/w6v94oap.png (https://www.directupload.net/file/d/5990/w6v94oap_png.htm)


Beispiel - BF1 - 10320 x 4320 - Ultra:

GTX 1080 Ti SLI - 10,8GB - 34 fps:

https://s12.directupload.net/images/201102/temp/eqnmycp6.png (https://www.directupload.net/file/d/5990/eqnmycp6_png.htm)

RTX 3090 - 20,95GB - 41 fps:
https://s12.directupload.net/images/201102/temp/q32fne4u.png (https://www.directupload.net/file/d/5990/q32fne4u_png.htm)



BFV ist hier im SP noch krasser - für beide Generationen.

Beispiel - BFV - 3440 x 1440 Ultra:

GTX 1080 Ti - 4,55GB - 85 fps:
https://s12.directupload.net/images/201102/temp/fboz8lj5.png (https://www.directupload.net/file/d/5990/fboz8lj5_png.htm)

RTX 3090 - 14GB - 163 fps:
https://s12.directupload.net/images/201102/temp/bmmlfoet.png (https://www.directupload.net/file/d/5990/bmmlfoet_png.htm)



Mal schnell abgetippt den Rest:


Beispiel BFV - 5160 x 2160 Ultra:

GTX 1080 Ti - 6,2GB - 46 fps
RTX 3090 - 15,67GB - 93 fps


Beispiel BFV - 10320 x 4320 Ultra:

GTX 1080 Ti - 11,1GB - 4 fps (ade 11GB :freak:)
RTX 3090 - 22,92GB - 30 fps



Im MP hält sich aber alles jeweils im Rahmen - der SP darf sich deutlich mehr genehmigen. ;)

dildo4u
2020-11-02, 12:02:38
Asus RTX 3090 Strix OC im Test.

https://www.computerbase.de/2020-11/asus-geforce-rtx-3090-test/


3090 mit EK Custom Block.

0WVpW497vTU

MadManniMan
2020-11-02, 12:11:33
Knapp 400 Watt.

Gab es zuletzt überhaupt noch nennenswert Custom Designs, die zumindest ähnlich effizient wie die Standardkarten waren? Ich finde es affig, dass (u.a.) wegen Sparsamkeit Lorbeeren eingeheimst werden und da draußen der Löwenanteil der verkauften Karten für drei Prozent FPS die Effizienz opfert.

(obwohl die Designs natürlich trotzdem bspw. tolle Kühlungen haben)

dargo
2020-11-02, 12:17:26
Asus RTX 3090 Strix OC im Test.

https://www.computerbase.de/2020-11/asus-geforce-rtx-3090-test/
Mich überrascht etwas der laute Kühler. Die MSI dreht nur 60RPM langsamer als ASUS mit dem Quiet-Bios und dennoch ist die MSI ganze 4,5dB leiser. Aber 78°C bei beiden auf der GPU ist auch schon ganz schön heiß.

aufkrawall
2020-11-02, 12:25:07
Was geht mit den Amperes eigentlich ab, wenn man in OCCT den GPU-Fehlertest startet? Hab ich jüngst für meine Polaris-Gurke als sehr nützlich erlebt, säuft aber abnormal und ist deshalb schwer es ungedrosselt laufen zu lassen.

r3ptil3
2020-11-02, 12:44:46
Mich überrascht etwas der laute Kühler. Die MSI dreht nur 60RPM langsamer als ASUS mit dem Quiet-Bios und dennoch ist die MSI ganze 4,5dB leiser. Aber 78°C bei beiden auf der GPU ist auch schon ganz schön heiß.

Kann ich bestätigen von der MSI Trio 3080, welche durchgehend leiser arbeitet als eine Strix OC 3080, sprich man merkt den Unterschied eigentlich sofort, ist aber nicht störend.

Das OC Potenzial bei den Ampere-Customs kann man eigentlich aussen vor lassen, auch wenn das einige nicht hören möchten. Die wenigen Prozent-Mehrperformance und der dadurch resultierende Mehrverbrauch von locker über 20% macht kaum einen Sinn.

jojo13
2020-11-02, 13:51:21
Mit Wakü hat man ~ ca. 40 Watt weniger (Temp) bei gleichen Einstellungen>+~40 Watt mehr für OC...

Deisi
2020-11-02, 19:02:12
Knapp 400 Watt.

Gab es zuletzt überhaupt noch nennenswert Custom Designs, die zumindest ähnlich effizient wie die Standardkarten waren? Ich finde es affig, dass (u.a.) wegen Sparsamkeit Lorbeeren eingeheimst werden und da draußen der Löwenanteil der verkauften Karten für drei Prozent FPS die Effizienz opfert.

(obwohl die Designs natürlich trotzdem bspw. tolle Kühlungen haben)

Kommt doch auf die settings an. Mit der richtigen Voltage Kurve können alle kühl und stromsparend sein.

MadManniMan
2020-11-02, 19:18:11
Kommt doch auf die settings an. Mit der richtigen Voltage Kurve können alle kühl und stromsparend sein.

Klar, aber wer macht das schon? Ich hatte nach einem Neuaufsetzen meines Systems schlicht nicht mehr dran gedacht, meine 1060 neu zu optimieren, weil ich schlicht nicht die Zeit zum Rumnerden hatte.

Deisi
2020-11-02, 20:02:03
Klar, aber wer macht das schon? Ich hatte nach einem Neuaufsetzen meines Systems schlicht nicht mehr dran gedacht, meine 1060 neu zu optimieren, weil ich schlicht nicht die Zeit zum Rumnerden hatte.

Naja im 3DC bin ich davon ausgegangen :freak:

Asaraki
2020-11-02, 22:54:10
Naja im 3DC bin ich davon ausgegangen :freak:

Ach im 3DC verdienen die Leute tendenziell eine Grafikkarte pro Tag, da hat man manchmal nicht mehr die Musse abends irgendwas zu "tunen", wenn man einfach das nächst grössere Modell bestellten _könnte_. Lieber 5 Minuten länger zocken :-)

Ex3cut3r
2020-11-02, 23:32:48
Das ist doch normal, dass je nach Engine deutlich mehr adressiert wird, als notwendig ist - teilweise vor allem in "niedrigeren" Auflösungen. ;)

Beispiel - BF1 - 3440 x 1440 - Ultra:

GTX 1080 Ti - 3,4GB - 107 fps:
https://s12.directupload.net/images/201102/temp/wvwhnq58.png (https://www.directupload.net/file/d/5990/wvwhnq58_png.htm)

RTX 3090 - 12,4GB - 154 fps (CPU-Limit):
https://s12.directupload.net/images/201102/temp/gz6luh4p.png (https://www.directupload.net/file/d/5990/gz6luh4p_png.htm)



Beispiel - BF1 - 5160 x 2160 - Ultra:

GTX 1080 Ti - 4,97GB - 59 fps:
https://s12.directupload.net/images/201102/temp/gkbtbhek.png (https://www.directupload.net/file/d/5990/gkbtbhek_png.htm)


RTX 3090 - 14,1GB - 117 fps:
https://s12.directupload.net/images/201102/temp/w6v94oap.png (https://www.directupload.net/file/d/5990/w6v94oap_png.htm)


Beispiel - BF1 - 10320 x 4320 - Ultra:

GTX 1080 Ti SLI - 10,8GB - 34 fps:

https://s12.directupload.net/images/201102/temp/eqnmycp6.png (https://www.directupload.net/file/d/5990/eqnmycp6_png.htm)

RTX 3090 - 20,95GB - 41 fps:
https://s12.directupload.net/images/201102/temp/q32fne4u.png (https://www.directupload.net/file/d/5990/q32fne4u_png.htm)



BFV ist hier im SP noch krasser - für beide Generationen.

Beispiel - BFV - 3440 x 1440 Ultra:

GTX 1080 Ti - 4,55GB - 85 fps:
https://s12.directupload.net/images/201102/temp/fboz8lj5.png (https://www.directupload.net/file/d/5990/fboz8lj5_png.htm)

RTX 3090 - 14GB - 163 fps:
https://s12.directupload.net/images/201102/temp/bmmlfoet.png (https://www.directupload.net/file/d/5990/bmmlfoet_png.htm)



Mal schnell abgetippt den Rest:


Beispiel BFV - 5160 x 2160 Ultra:

GTX 1080 Ti - 6,2GB - 46 fps
RTX 3090 - 15,67GB - 93 fps


Beispiel BFV - 10320 x 4320 Ultra:

GTX 1080 Ti - 11,1GB - 4 fps (ade 11GB :freak:)
RTX 3090 - 22,92GB - 30 fps



Im MP hält sich aber alles jeweils im Rahmen - der SP darf sich deutlich mehr genehmigen. ;)


Gute Vergleichsbilder. (y)

Als nächstes brauchtest du aber mal ne neue CPU. ;) Zen 3? :devil:
BF1 Max Settings Gleiche Szene, 3440x1440. 25% Resoultion Scale da sonst total im GPU Limit:
195 FPS | R5-3600 @ 4,450 CC1 und 4.375 Mhz CCX2, 32GB DDR4 3800 CL14

https://abload.de/thumb/bf1_2020_11_02_23_27_vjj1p.jpg (https://abload.de/image.php?img=bf1_2020_11_02_23_27_vjj1p.jpg)

Edgecrusher86
2020-11-03, 13:25:09
Danke.

Nein, es wird erst mit PCI-E 5.0 und DDR5 gewechselt - da bin ich konsequent. Für das Alter leistet die Plattform noch gute Dienste. Das wird also frühstens mit Zen 5 oder einem passenden Intel passieren - früshstens 2023 oder 2024 also.
Am liebsten wäre mir wieder eine HEDT-Plattform, aus Prinzip. :)

Notfalls lässt sich ja auch in 5160 DSR spielen, so ist es nicht.

TurricanM3
2020-11-03, 13:49:55
Am liebsten wäre mir wieder eine HEDT-Plattform, aus Prinzip. :)

Das dachte ich mir bis zum 8700k auch. Ich hab dann aber beides gehabt und HEDT war deutlich langsamer, damals PUBG sehr oft CPU Limit. Seitdem dabei geblieben. Hatte davor alle Intel HEDT Gens. Zum Zocken ist das einfach nichts.

5160 DSR, wie die FPS Ansprüche auseinandergehen.
Shroud hat gestern mit seiner 3090 den Umstieg von 1080p auf 1440p gewagt und ob des FPS Verlusts ziemlich gejammert. Hatte nicht lange zugeschaut, aber er hatte schon angedeutet zurück auf 1080p zu gehen. :D

Gouvernator
2020-11-03, 17:19:11
5160 DSR, wie die FPS Ansprüche auseinandergehen.
Shroud hat gestern mit seiner 3090 den Umstieg von 1080p auf 1440p gewagt und ob des FPS Verlusts ziemlich gejammert. Hatte nicht lange zugeschaut, aber er hatte schon angedeutet zurück auf 1080p zu gehen. :D
Shroud ist ja kein Maßstab. Er wird langsam älter, muss aber seinem Ruf ständig gerecht werden.

Ex3cut3r
2020-11-03, 17:21:46
Wer ist Schroud? Ein Foren User? Muss man den kennen?

Pascal Parvex
2020-11-03, 18:06:56
Wer ist Schroud? Ein Foren User? Muss man den kennen?

Nicht vom Thema ablenken, wir sprechen hier von Shroud, nicht Schroud. Ach ja, Shroud...

Im Ernst: Ist einer der Spitzen-E-Sport-Streamer.

TurricanM3
2020-11-03, 19:47:12
Klar ist der kein Maßstab, aber zeigt auch mal eine andere Seite. Repräsentativ ist das Forum hier sicher auch nicht. ;)
Ich kann mir für meinen Anwendungsfall auch keine 4K vorstellen. Das wird noch Jahre dauern. Eher gehe ich auf 1080p zurück (überspitzt gesagt). :freak:

Ex3cut3r
2020-11-03, 19:59:12
Achso. Kannte den nicht. Ich schau diese Proleten YouTuber alle nicht. Einmal bei einem reingezappt. Hat dann irgendwas von seinen Penis erzählt, und viele "Kinder" spenden dann das Geld der Eltern an ihm. Cooles Geschäftsmodell, wusste gar nicht, das so etwas legal ist.

Langlay
2020-11-03, 20:21:46
Für 1440p ist die 3090 aber schon zu gebrauchen. Hast eigentlich in jedem Game 100+ FPS. Damit zockt es sich schon ganz gut.

Ex3cut3r
2020-11-03, 20:48:38
Na klar. Tolle Karte. Aber kostet auch genug. Und ne Radeon 6900XT wird das genauso hinbekommen und erheblich weniger kosten.

FastAndy
2020-11-03, 21:31:06
Und ist trotzdem für viele keine Alternative. ;)

Langlay
2020-11-03, 21:51:35
Und ist trotzdem für viele keine Alternative. ;)

Für mich schon. Ich hol meiner Frau am 18.10. erstmal ne 6800XT und wenn die Karte überzeugt geht die 3090 weg und es kommt ne 6900XT.

Ex3cut3r
2020-11-03, 21:52:36
Und ist trotzdem für viele keine Alternative. ;)

Was der Bauer nicht kennt, das frisst er nicht. Passt. :wink:

sven2.0
2020-11-03, 22:05:30
Was der Bauer nicht kennt, das frisst er nicht. Passt. :wink:

Nö der Bauer schaut auf Features und denkt sich warum vergleicht ein Ex3cut3r die 3090 die klar auf Content Creation zugeschnitten ist mit ner gammligen Gamer-Karte von AMD die in der Spart so gar nix kann?

Edgecrusher86
2020-11-04, 09:30:53
Das dachte ich mir bis zum 8700k auch. Ich hab dann aber beides gehabt und HEDT war deutlich langsamer, damals PUBG sehr oft CPU Limit. Seitdem dabei geblieben. Hatte davor alle Intel HEDT Gens. Zum Zocken ist das einfach nichts.

5160 DSR, wie die FPS Ansprüche auseinandergehen.
Shroud hat gestern mit seiner 3090 den Umstieg von 1080p auf 1440p gewagt und ob des FPS Verlusts ziemlich gejammert. Hatte nicht lange zugeschaut, aber er hatte schon angedeutet zurück auf 1080p zu gehen. :D

Bis Intel HEDT bringt, wird es ja eh frühstens Ende 2022. Mal schauen - wenn die Gaming-Leistung identisch wäre, würde ich sofort wieder zu HEDT greifen.
Wenn man die Preise für Top-Boards sieht - sowohl Z490, als auch X570, dann ist es in meinen Augen eine Frechheit, dass beide Hersteller hier nicht wenigstens 32-40 Lanes bieten.

Besseres Board-Layout öfters - klassisch 4-way, mehr Speicherbandbreite, deutlich mehr Lanes - gut, 2-way lohnt nicht mehr, aber nun ja, mehr als zwei NVMe könnte man dann ja auch verbauen. :D

Ich zocke das Meiste (SP zu 90%) idR mit 50-60 fps Cap. Und da ist die 3090er auch in 5160 x 2160 öfters auch in der Lage, solche Leistung konstant abzuliefern. In Kombination mit G-SYNC eine runde Sache, wie ich finde.
Ist das AA gut, langt mir dasselbe auch nativ in 3440 x 1440.

Für MP ist es dann Nativ und 100Hz G-SYNC. :wink:

Lawmachine79
2020-11-06, 20:36:44
Hey Leute, weiß jemand, wie die Rückseite der 3090 FE Poscap/MLCC-mäßig bestückt ist?

Langlay
2020-11-06, 20:53:10
Hey Leute, weiß jemand, wie die Rückseite der 3090 FE Poscap/MLCC-mäßig bestückt ist?

4xPOSCAP 2xMLCC bin mir relativ sicher.

gedi
2020-11-06, 21:08:51
Nö der Bauer schaut auf Features und denkt sich warum vergleicht ein Ex3cut3r die 3090 die klar auf Content Creation zugeschnitten ist mit ner gammligen Gamer-Karte von AMD die in der Spart so gar nix kann?

Sorry, aber das klingt irgendwie so, als dass der Kapitän als erster das sinkende Schiff verlässt.
Zudem - für was braucht es dann Tesla-Karten, wenn die 3090 doch sehr viel billiger ist :confused:

sven2.0
2020-11-06, 21:41:48
Sorry, aber das klingt irgendwie so, als dass der Kapitän als erster das sinkende Schiff verlässt.
Zudem - für was braucht es dann Tesla-Karten, wenn die 3090 doch sehr viel billiger ist :confused:

Bitte was? Teslas sind für Data Center, die 3090 nimmt die Stelle der Titan für Prosumer ein. Was ist das für ein schwacher Trollversuch?

pixeljetstream
2020-11-06, 21:44:06
Zudem - für was braucht es dann Tesla-Karten, wenn die 3090 doch sehr viel billiger ist :confused:
Die Profi Karten (Tesla und quadro als Namen retired) sind auch für Server Einsatz 24/7, Virtualization und richten sich an Unternehmen. Zertifizierung diverser Profi Software und damit Support Leistung etc. kaufst du quasi mit, sowie paar Spezial Features. Firmen kaufen solche Karten ja meist für große Infrastruktur und können dann auch direkte Hilfe bekommen. Als Einzelperson sind die Consumer Karten je nachdem was der Kreative so macht daher oft ausreichend, wenn man nicht von den Spezialfällen stark profitiert. Das gleiche gilt für die meisten von so Profi Sachen. Gibt ja auch Profi GPUs von anderen Herstellern oder CPUs die für Server / workstation Markt gedacht sind.

Lawmachine79
2020-11-07, 00:33:07
4xPOSCAP 2xMLCC bin mir relativ sicher.
Thx!

Edgecrusher86
2020-11-07, 10:17:25
Das Thema mit POSCAP und MLCC scheint mir auch etwas überbewertet zu sein - es mag bei sehr hohen Taktraten helfen, aber ich konnte hier testweise auch bis 2085 MHz Peaks sehen mit OC, ohne dass es crashte (Batman AO mit GPU-PhysX Hoch). Nun ja, in Power hungrigen Anwendungen bedarf es für die 90er sicherlich Richtung 500W, um auch unter Wasser 2-2,1 GHz im Großteil der Anwendungen zu halten ab 4K. Bei Q2 RTX und 5K+ wird man wohl froh sein könnnen, wenn knapp 2 GHz anliegen. Spielbar ist es aber eh nicht mit Ampere dann, wenn maxed out. :D

Was Preise...gestern waren es 263,xx € - heute 269,90 für die 3080 FE.
Dasselbe für die 3090 FE wird dann bei 300€ liegen?! Dafür hatte man früher Highend-Salvage Karten bzw. gute Performance-Modelle bekommen. Einfach nur krank....

https://www.ekwb.com/news/special-edition-ek-quantum-water-blocks-for-nvidia-rtx-3080-fe-gpus-are-here/

Es mag sein, dass der Block (wohl inkl. BP) aufwendiger in der Herstellung ist, aber das ist schon dreist.

Lawmachine79
2020-11-07, 11:41:16
Das Thema mit POSCAP und MLCC scheint mir auch etwas überbewertet zu sein - es mag bei sehr hohen Taktraten helfen, aber ich konnte hier testweise auch bis 2085 MHz Peaks sehen mit OC, ohne dass es crashte (Batman AO mit GPU-PhysX Hoch). Nun ja, in Power hungrigen Anwendungen bedarf es für die 90er sicherlich Richtung 500W, um auch unter Wasser 2-2,1 GHz im Großteil der Anwendungen zu halten ab 4K. Bei Q2 RTX und 5K+ wird man wohl froh sein könnnen, wenn knapp 2 GHz anliegen. Spielbar ist es aber eh nicht mit Ampere dann, wenn maxed out. :D

Was Preise...gestern waren es 263,xx € - heute 269,90 für die 3080 FE.
Dasselbe für die 3090 FE wird dann bei 300€ liegen?! Dafür hatte man früher Highend-Salvage Karten bzw. gute Performance-Modelle bekommen. Einfach nur krank....

https://www.ekwb.com/news/special-edition-ek-quantum-water-blocks-for-nvidia-rtx-3080-fe-gpus-are-here/

Es mag sein, dass der Block (wohl inkl. BP) aufwendiger in der Herstellung ist, aber das ist schon dreist.
Meine 1080Ti liegt gerade bei knapp 300 auf Ebay. Läuft noch bis morgen.

BlacKi
2020-11-07, 12:25:15
Das Thema mit POSCAP und MLCC scheint mir auch etwas überbewertet zu sein
30mhz beim oc hats beim der8auer mit der 3080 gebracht. das ist unschön aber nicht die welt, vorallendingen wenn man UV betreibt sogar unwichtig.

grobi
2020-11-07, 15:03:37
Hat wer von euch schon UV getestet? Wird doch mal Zeit für einen Thread.

mfg grobi

Daredevil
2020-11-07, 15:12:29
Bis 1.3Ghz klappts gut, danach explodiert der Verbrauch. ( Asus TuF )

Superposition 4K
Stock:
1700-1785/5500 @ 0.860v - 350w - 16066pts ( 75 Grad, 1550rpm ) 45 w/pts

1050/5002 @ 0,712v - 175w - 9949pts ( 65 Grad, 750rpm ) 56w/pts
1170/5002 @ 0,712v - 182w - 10733pts ( 66 Grad, 800rpm ) 58w/pts
1260/5002 @ 0,712v - 188w - 11296pts ( 66 Grad , 830rpm ) 60w/pts
1365/5002 @ 0,712v - 240w - 12852pts ( 68 Grad, 1030rpm ) 53w/pts
1470/5002 @ 0,712v - 249w - 14066pts ( 69 Grad, 1075rpm ) 56w/pts
1560/5002 @ 0,712v - 255w - 14710pts ( 69 Grad, 1110rpm ) 57w/pts
1680/5002 @ 0.725v - 273w - 15504pts ( 70 Grad, 1190rpm ) 56w/pts
1755/5002 @ 0.775v - 312w - 16163pts ( 73 Grad, 1380rpm ) 53w/pts
1845/5002 @ 0.825v - 350w - 16670pts ( 75 Grad, 1580rpm ) 47w/pts

Rein vom Perf/Watt Verhältnis kann Turing effizienter betrieben werden, Ampere ist "zu dick" für effektives UV.
Ne gute 2080ti macht ~10500-11000pts bei 160w bei ~1550Mhz @0.7v. ( Die endet allerdings auch bei ~13000 )

grobi
2020-11-07, 15:18:19
@Daredevil

Hatte mich gestern auch gewundert das meine 3090 trotzdem an 350Watt rann kommt bei 1830 @0,85v
Meine Temps sind aber einiges niedriger bei meiner 3090 TUF OC als bei dir.

mfg grobi

Troyan
2020-11-07, 15:33:14
Hängt mit der Auslastung zusammen. Manche Spiele laufen hier bei <1700Mhz und 0,8xV ins Powerlimit. Da bringt UV nur wenig bzw. vielleicht mehr Leistung durch den höhreren Takt.
Ein Watch Dogs Legion sollte dagegen sehr stark profitieren, da die Auslastung hier geringer ist (selbst in 4K ohne Raytracing hängt meine 3090 bei 350W bei >0,9V und 1850MHz...).

Bis 1.3Ghz klappts gut, danach explodiert der Verbrauch. ( Asus TuF )

Superposition 4K
Stock:
1700-1785/5500 @ 0.860v - 350w - 16066pts ( 75 Grad, 1550rpm ) 45 w/pts

1050/5002 @ 0,712v - 175w - 9949pts ( 65 Grad, 750rpm ) 56w/pts
1170/5002 @ 0,712v - 182w - 10733pts ( 66 Grad, 800rpm ) 58w/pts
1260/5002 @ 0,712v - 188w - 11296pts ( 66 Grad , 830rpm ) 60w/pts
1365/5002 @ 0,712v - 240w - 12852pts ( 68 Grad, 1030rpm ) 53w/pts
1470/5002 @ 0,712v - 249w - 14066pts ( 69 Grad, 1075rpm ) 56w/pts
1560/5002 @ 0,712v - 255w - 14710pts ( 69 Grad, 1110rpm ) 57w/pts
1680/5002 @ 0.725v - 273w - 15504pts ( 70 Grad, 1190rpm ) 56w/pts
1755/5002 @ 0.775v - 312w - 16163pts ( 73 Grad, 1380rpm ) 53w/pts
1845/5002 @ 0.825v - 350w - 16670pts ( 75 Grad, 1580rpm ) 47w/pts

Rein vom Perf/Watt Verhältnis kann Turing effizienter betrieben werden, Ampere ist "zu dick" für effektives UV.
Ne gute 2080ti macht ~10500-11000pts bei 160w bei ~1550Mhz @0.7v. ( Die endet allerdings auch bei ~13000 )

Nö. Perf/Watt des Chips ist deutlich besser. Was nunmal die Effizienz verhakelt, ist das Speichersystem mit GDDR6X. Das hat schon einen Overhead alleine von >50W gegenüber GDDR6.

TobiWahnKenobi
2020-11-13, 02:05:06
so, ich habe jetzt auch endlich eine :P

gigabyte vision oc 3090 (https://www.gigabyte.com/de/Graphics-Card/GV-N3090VISION-OC-24GD#kf).. bäm.. nicht meine traumkarte, aber sie erfüllt das hauptkriterium.. ich hätte ich lieber die strix oc bekommen, die ich im september bei amazon bestellt habe, aber bis zum sankt-nimmerlein-tag wollte ich jetzt auch nicht warten. zumal die gigabyte vision hier in hannover bei nbb verfügbar war und ich sie mir nur abholen musste..

ein unboxing kann ich mir schenken; im karton war nix ausser der karte.

wie geschrieben, dieses modell erfüllt mein hauptkriterium -> 2x HDMI (1x für den oled; einmal für die rift cv1), testlauf hat sie schon bestanden und ich konnte den unsäglichen club-3d-dsc-adapter endlich einmotten. der verzicht auf dieses stückgut chinesischer ingieneurskunst ist mir schon die neue karte wert.

was gibts sonst zu sagen?

sie ist hässlich wie die nacht, hat zwei 8pin anschlüsse; der hindere war die pest und hat mich fast 30 minuten lebenszeit gekostet. rgb-bling-bling beschränkt sich auf den gigabyte schriftzug, es gibt drei lüfter von denen man nicht viel hört und die karte läuft augenscheinlich stabil mit guten temperaturen bei passender performance.. TS und TSE weisen etwas über 30% mehrleistung ggü. (m)einer 380W H2O 2080Ti aus.

werkseitig ist auf der vision oc ein 390W bios.


(..)

mfg
tobi

Edgecrusher86
2020-11-13, 13:15:40
30mhz beim oc hats beim der8auer mit der 3080 gebracht. das ist unschön aber nicht die welt, vorallendingen wenn man UV betreibt sogar unwichtig.

Ja, das ist vielleicht ein halbes fps mehr. :D

TurricanM3
2020-11-13, 14:00:32
Oha, meine Strix ist auch unterwegs. Wegen der Asus-Spulen hab ich eigentlich aber eh kein Bock mehr auf die Karte.

wolik
2020-11-14, 06:27:17
Oha, meine Strix ist auch unterwegs. Wegen der Asus-Spulen hab ich eigentlich aber eh kein Bock mehr auf die Karte.

Bei TUF nicht zu hören, wieso soll bei Strix anders sein? UV so wieso ein "muss" :wink:

Wuge
2020-11-14, 12:42:41
Ich probier jetzt übergangsweise doch mal ne 3090 aus. Ne gelawmachined-te ausm Warehouse. Leider überteuert, daher schlechte Chancen da zu bleiben. Schau ma mal.

Daredevil
2020-11-14, 12:55:21
Meine TuF 3090 hat gefiept wie ein Weltmeister, die TuF 3080 war quasi unhörbar.
Kommt auch immer aufs Modell an, wa.

Cubitus
2020-11-15, 17:19:42
Naja etwas fiepen ist normal... Meine 3090 TUF fiept euch bei hohen FPS aber das tat die 2080ti FE auch...

Daredevil
2020-11-15, 17:20:57
Ist es ja anscheinend nicht, aber das ist halt die Hardware Lotterie. ^^

Cubitus
2020-11-15, 17:23:36
Ist es ja anscheinend nicht, aber das ist halt die Hardware Lotterie. ^^

Japp, wobei ich vom Chip her zufrieden bin, die Karte macht 1950@875 mv gamestable... mit Luft in nem Micro ATX Case xD

TurricanM3
2020-11-15, 18:12:17
Es ist definitiv normal, dass alle Karten Spulensurren haben. Ich hatte noch nie eine die keines gehabt hätte. Das Fiepen bei high FPS ist für den Alltag nicht so relevant mit cap und sync.
Es gibt da aber Unterschiede bei den Spulen, daher hab ich ja auch eine mit den schwarzen größeren. =)

gedi
2020-11-15, 20:52:10
Also meine Strix fiept 0,0, da aber die Strix 5700XT auch nicht gefiept hat, glaube ich, dass die Hauptursache bei der PSU zu suchen ist ...

TurricanM3
2020-11-15, 21:18:07
Ich hatte schon drei PSUs und etliche Grakas (+ zusätzliche gehört). Mir ist seit locker 8 Jahren keine einzige High End Karte bekannt die diese Geräusche nicht von sich gegeben hätte. Und ich hatte auch schon alle möglichen Ausführungen, MSI Gaming, Asus usw. Alle Surren, schon bei 80fps. Manche aber je nach Spulentyp weniger.
Bei mir steht der PC aber auch neben mir am Tisch, da hört man das einfach mehr.

cR@b
2020-11-15, 22:08:50
Also meine Strix fiept 0,0, da aber die Strix 5700XT auch nicht gefiept hat, glaube ich, dass die Hauptursache bei der PSU zu suchen ist ...

Sicher, sicher...

gedi
2020-11-15, 22:23:10
Sicher, sicher...

Japp, japp. Unter Wasser bekommt man so einiges mit, da der Rechner selbst unter Last beinahe lautlos ist. Von daher ist deine Anmerkung = Username und somit wertfrei einzustufen

Daredevil
2020-11-15, 22:36:10
Ich mag mir auch einzubilden, dass meine GPUs mit dem Silverstone Netzteil mehr fiepen als mit meinem Seasonic.
Könnte ich eigentlich mal durchtesten, ich habe nen Seasonic Prime Gold, Silverstone Titanium und zwei Thermaltake Gold hier. ^^

Ich meine mal, das haben aber schon andere festgestellt, das es durchaus auch am NT liegen kann. Nicht ausschließlich, aber zum Teil schon.

BlacKi
2020-11-16, 01:23:36
Ich meine mal, das haben aber schon andere festgestellt, das es durchaus auch am NT liegen kann. Nicht ausschließlich, aber zum Teil schon.
no shit sherlock, das verzähle ich schon seit fast 7 jahren:biggrin:



ich hab noch ein netzteil hier das bringt jede karte zum surren.

TurricanM3
2020-11-18, 01:43:12
Mal die Strix Ghetto eingebaut mit Kabelbindern. Passt leider nicht regulär.

https://abload.de/img/20201117_185750ffk3h.jpg (https://abload.de/image.php?img=20201117_185750ffk3h.jpg)

Hinsichtlich UV ist der Chip bisschen besser als der meiner Ref. (nicht FE, sondern Ref. Board). Braucht so 50mV weniger für 1800 (muss ich noch testen). 2000 in Tarkov mit 950mV ziehen in Spitze schon über 400W. Die GPU wird an vielen Stellen nicht mal voll ausgelastet und zieht so 350W+. Zumindest auf der Testmap. Der ATi Tool Würfeltest lief bis 2285, meine Ref. nur 2145, aber was interessiert das, so Taktraten kann man eh vergessen bei der Leistungsaufnahme.

Die Asus-Spulen sind wie zu erwarten lauter als die "guten". Genau wie bei meiner TUF. Undervoltet geht es aber (für viele sicher das bekannte lautlos ^^). Für Silent-Enthusiasten schon ein Nachteil. Der Unterschied zwischen stock und undervoltet ist schon sehr deutlich hörbar hinsichtlich Spulensurren (nicht fiepen). Luftkühler hab ich jetzt nicht so drauf geachtet. Erstens war der Perf. Mode voreingestellt und zweitens interessiert mich LuKü eh nicht. Werde aber mal noch umswitchen auf quiet mode. Ich denke die Ref. kommt letzten Endes rein, wenn denn mal der Wasserkühler geliefert wird.

x-force
2020-11-18, 09:33:43
schade, daß die chips alle schon auf idle takt/spannung mit den entsprechenden programmen ins powerlimit rennen.
"auf kante genäht und maximal ausgereizt" sollte der slogan sein. wenn sie einem wenigstens die wahl ließen und ein offenes bios anbieten würden...

TobiWahnKenobi
2020-11-18, 10:27:51
ich finde das atm gar nicht schlecht. hab wenig zeit für pc-crap und bei der strix muss ich mich nicht mit händischem ausloten von wasauchimmer befassen, was eh nur dem stromversorger dient.. meine läuft und macht was sie soll. sogar mit 200MHz mehr gpu-takt, als die gigabyte vision, die ich vor drei tagen drin hatte und die mit ihrem 390W bios immer auf die bezahlten 1755MHz runterbrach. wenn ich jetzt noch gegenhalte, dass die gbt-karte 1750€ gekostet hat, erscheint die strix für 1620€ geradezu als nobrainer.


(..)

mfg
tobi

Ben Carter
2020-11-18, 11:06:22
Mal erste Berichte zu MSI Gaming X Trio:

@stock taktet die Karte unter Black Desert Online 4k "Remastered" auf ca. 1850MHz. Es schwankt dabei leicht, mal ein bisschen darüber, mal ein Bisschen darunter. (1780-1930 MHz hab ich gesehen).
Die Lüfter drehen dabei mit ~1500rpm und die Karte ist damit ruhig und leiser als die 2080 Ti, die ich zuvor hatte (Palit Gaming Pro), die hatte auch meistens eher 2000-2200rpm anliegen.
Spulenfiepen ist absolut keines hörbar. Ich hab sogar extra das Ohr an die Karte gehalten. Hier ist wirklich nichts zu hören. Auch die Palit war diesbezüglich eher ruhig, erst bei 200+ fps wurde es deutlicher.

@92% Powertarget taktet die Karte rund um 1790 MHz, die Lüfter drehen nur noch mit 900rpm und somit ist die Karte wirklich leise. Schließe ich das gedämmte Gehäuse ist sie von meiner Sitzposition (ca. 1,2m Abstand) aus nicht mehr hörbar. In BDO geht es von 90fps auf 86fps zurück, also ein wirklich verschmerzbarer Verlust.

@102% Powertarget (mehr geht bei der MSI nicht) verhält es sich quasi gleich wie @stock. Die Taktraten sind vielleicht 10-20MHz höher.

Zuerst hatte ich die Karte noch im bestehenden System eingebaut mit einem i9 9900k und dem Corsair RMx 650x. Als ich in BDO mal die Details um eine Stufe reduziert habe, um mal zu sehen, wie hoch die FPS werden und sich somit die CPU Last deutlich erhöhte und die CPU auch ihre 200W nahm, ging der PC aus. Da hat dann wohl das NT abgeschaltet. Das Ganze war auch reproduzierbar.

Ich hab nun auf den Ryzen 3700x umgebaut, hier steckt auch ein AX850 Netzteil drin und da gibt es, wie erwartet, keine Probleme mehr.

Alles in allem bin ich mit der Karte sehr zufrieden. Die Bestellung der Strix lass ich aber aufrecht, werde die auch testen und dann sehen, welche ich behalte. Die andere geht an meinen Arbeitskollegen, der schon begierig wartet. Nach dem, was ich bisher so gelesen habe, denke ich, dass ich eher bei der MSI bleiben werde.

UV muss ich auch noch probieren, aber dazu mich auch erst mal mehr mit der Thematik beschäftigen. Bislang hab ich davon die Finger gelassen.

EDIT: gestern ist mir noch aufgefallen, dass die Backplate richtig, richtig heiß ist, obwohl ein leichter Luftstrom darüber geht.

Cubitus
2020-11-18, 12:35:02
UV muss ich auch noch probieren, aber dazu mich auch erst mal mehr mit der Thematik beschäftigen. Bislang hab ich davon die Finger gelassen.

EDIT: gestern ist mir noch aufgefallen, dass die Backplate richtig, richtig heiß ist, obwohl ein leichter Luftstrom darüber geht.

UV ist schon ein Muss, besonders bei so wenig PT...

Ben Carter
2020-11-18, 22:52:35
Das ist recht mühsam, das einzustellen. Schade dass es dafür keine ganz einfache, nicht verspielte Standardwindows-Obrfläche gibt. Aber in meinen ersten Versuchen hab ich jetzt 100% PT bei 91°C mit ca. 1200rpm und im Schnitt 1950MHz. Speichertakt hab ich noch nicht berührt.

Wuge
2020-11-19, 11:34:21
Sagt mal, hat von euch jemand nen Fernseher per HDMI angeschlossen oder ein Soundsystem durchgeschleift?

Ich hab seit 3 Karten-Generationen das Problem, dass ich nur Stereo-Sound raus bekomme. Da es nun mit der 3090 auch wieder so ist, frag ich mal. Liegt das an meiner Glotze oder ist tatsächlich kein 5.1 Output möglich?

Asaraki
2020-11-19, 12:17:30
Sagt mal, hat von euch jemand nen Fernseher per HDMI angeschlossen oder ein Soundsystem durchgeschleift?

Ich hab seit 3 Karten-Generationen das Problem, dass ich nur Stereo-Sound raus bekomme. Da es nun mit der 3090 auch wieder so ist, frag ich mal. Liegt das an meiner Glotze oder ist tatsächlich kein 5.1 Output möglich?

Jo, aktuell nur noch Stereo aber ich hatte mein 5.1 schon per HDMI auf der 1070 angeschlossen. Afaik ging das auch mit der 2080S. Mit der 3080 hab ich's noch nicht getestet, aber ich denke da hast du ein Kabel oder Konfigproblem, das sollte schon gehen.

Wichtig ist natürlich, das richtig einzustellen in Windows. E.g. wenn sonst am gleichen HDMI ein Monitor hängt mit Sound, dann kann es sein, dass auch beim anhängen des AVR Windows auf Stereo bleibt.

Daredevil
2020-11-20, 18:08:33
Während die Zotac 3090 und die TuF 3080 selbst mit aufgeblasenen PT noch gut klarkamen mit dem Silverstone 700w NT, hat die FE das Ding heute regelmäßig abgeschossen bei Max PT. :D
Das Seasonic 1300w macht das ganze jetzt souverän ohne Probleme.
Vom Zirpen hat sich allerdings nichts geändert, ich hab’s schon mal schlimmer erlebt bei ner 2080ti von Asus, aber auch schon besser bei ner 3080 TuF.

Wuge
2020-11-20, 19:25:08
Kann man bei der 3090 Zotac das PL erhöhen?

Daredevil
2020-11-20, 19:28:00
Minimal, glaube es waren 7%? Also nicht der Rede Wert.

MiamiNice
2020-11-20, 19:29:09
Da leider ein Mängel an WaKü Blöcken für die 3090 Strix besteht, nutze ich das Teil derweil ooth, sprich mit standard Kühler.
Ich möchte an dieser Stelle jedem LuKü User mein Beileid aussprechen. Ich habe vergessen wie laut ein Gaming PC sein kann :biggrin:
Hölle :freak:

Linmoum
2020-11-20, 19:33:59
https://www.ekwb.com/shop/ek-quantum-vector-strix-rtx-3080-3090-d-rgb-nickel-acetal

Da haste einen lieferbaren, wenn dir Optik egal ist. ;D

MiamiNice
2020-11-20, 19:55:23
Hab schon bestellt mit aktiver Backplate. Lieferdatum ist fraglich.

https://shop.aquacomputer.de/product_info.php?products_id=4036

https://shop.aquacomputer.de/product_info.php?products_id=4038

Die Karte pustet im Furmark meine Glasseitenwand so heiß, dass ich Angst habe das was passiert.

TurricanM3
2020-11-20, 20:46:37
Die wurde bei mir mit Perf. Mode ausgeliefert. Schalte mal um, das wird erträglicher.