PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12

HisN
2021-09-22, 13:19:48
Ich denke mitte nächsten Jahres kräht schon keiner mehr nach einer 3090 wenn sich die Perforamnce der DualChip Grafikkarten abzeichnet, die dann bald erscheinen.

Die 3090 will dann auch keiner mehr für 900 hinterhergeworfen haben. ;D


Da es keine Grakas am Markt zu kaufen geben wird, wird es weiterhin viel Kohle für die alten Grakas geben^^

BlacKi
2021-09-22, 17:42:07
Da es keine Grakas am Markt zu kaufen geben wird, wird es weiterhin viel Kohle für die alten Grakas geben^^


werd ich nicht riskieren. die karte wird rechtzeitig abgestoßen, und dank dlss läuft dann vieles noch in 4k ziemlich gut auf einer 2060/3060 laufen, welche dann vorrübergehend für ca. bis zu 6monate drin werkeln.

Heißt es dann, dass wenn ich die Karte bei Takt X auf xxxmV „festnageln“ möchte, dass positive / negative Takt-Offset nur entscheidet wie stark die Karte unterhalb dieses Taktes / Spannung performt? Auf die Afterburner Takt/Voltage-Kurve jetzt bezogen.ja. man hebt das offset recht stark an und schneidet alles über die gewünschte voltage und takt ab. bis zu 1770 hab ich ein offset von +269mhz. dieser offset wäre ohne das wegschneiden der oberen takt/voltage nicht machbar. weder von meinem netzteil, aber auch nicht von meiner karte.

sChRaNzA
2021-09-23, 10:47:34
Und der alleinige Unterschied bei dementsprechend negativen Offset liegt dann schlicht darin, dass die Karte unterhalb des maximalen Taktes dann mit weniger Mhz (im Vergleich zu Stock) arbeitet? Verstehe ich das richtig?

Wuge
2021-09-23, 12:16:17
Ich verstehe nicht was du meinst... Du kannst den Takt und die zugehörige Spannung an jedem beliebigen Punkt festnageln, je niedriger desto effizienter. Undervolting und Overclocking verschwimmen. Man betreibt den Chip mit einem höheren Takt für den gewählten Spannungspunkt oder eben mit weniger Spannung für den Taktpunkt. Je nachdem wie rum man das sieht. Der Takt den man erreicht, kann höher sein als der Serientakt, da das Powerlimit eh der begrenzende Faktor ist.

N0rG
2021-09-23, 12:31:39
Man kann auch einfach das Powertarget begrenzen, ein offset einstellen und den Rest der Karte überlassen. Bei Teilauslastung der GPU kommt dann noch mehr bei rum, weil die Spannung eben nicht begrenzt ist. Ziel ist ja der geringere Stromverbrauch (= niedrigere Temp) und nicht eine möglichst geringe Spannung.

Deisi
2021-09-23, 12:41:38
Man muss bei Austausch Vorleistung in Form der erneuten Überweisung für die erstattete GPU erbringen. Nur wer hat so einfach mal erneut ~2000€ locker? Sicher erhält man das Geld nach Überprüfung zurück (Zeitraum?), nur Premium imo geht anders.

Wird bei anderen Herstellern eine neue Graka sofort versendet ohne erhalt der defekten?

sChRaNzA
2021-09-23, 12:42:46
Ich wüsste jetzt auch ehrlich gesagt nicht, wie ich die Frage besser stellen kann. Ich beschäftige mich da zum ersten Mal wirklich intensiv damit und hab versucht mir da Tutorials für anzusehen. Leider lassen diese eben oft Erklärungen weg WARUM etwas so oder so gemacht wird. Vielleicht ist da der Hund begraben.

Für das Undervolten starten die ja meistens damit der GPU ein entweder positives oder negatives Offset zu geben. Hier ja schon ohne Erklärung warum eigentlich genau. Dann soll man im Afterburner ja die Kurve auf die Gewünschte Spannung / Taktfrequenzen einstellen. So. Einige geben beim ersten Punkt ja hier entweder +xxxMhz für die GPU ein und andere raten dazu -xxxMhz einzugeben. Beides verändert ja die Grundsätzliche Kurve im Afterburner. Die Frage ist jetzt für mich, warum einige bei Punkt 1 ein Plus an Megahertz angeben aber andere wiederum ein Minus angeben. Und was die jeweiligen Unterschiede dann genau bewirken.

Noch „besser“ kann ich es irgendwie nicht rüberbringen, da ich selbst noch an den Basics hänge und eventuell zu dumm bin oder einfach gerade auf dem Schlauch stehe und die Zusammenhänge nicht ganz verstehe. :D

MfG

BlacKi
2021-09-23, 17:14:47
Man kann auch einfach das Powertarget begrenzen, ein offset einstellen und den Rest der Karte überlassen. Bei Teilauslastung der GPU kommt dann noch mehr bei rum, weil die Spannung eben nicht begrenzt ist. Ziel ist ja der geringere Stromverbrauch (= niedrigere Temp) und nicht eine möglichst geringe Spannung. mit der lediglichen begrenzung des PT lässt du zu, das games mit geringer last sehr hoch boosten und dementsprechend hohe voltages anliegen. das will aber nicht jeder. nicht jeder will das die karte 2ghz und 1.025v in warzone bei ca. 300w boostet. viele wollen erst garnicht, da die grafikkarte hohe voltages boosten darf, selbst wenn sich der verbrauch in grenzen hält. denn so oder so, die karte ist auch mit 1.025v in anspruchslosen spielen deutlich ineffizienter als mit 0,8v.


aber das muss jeder für sich selbst entscheiden.

So. Einige geben beim ersten Punkt ja hier entweder +xxxMhz für die GPU ein und andere raten dazu -xxxMhz einzugeben. Beides verändert ja die Grundsätzliche Kurve im Afterburner. Die Frage ist jetzt für mich, warum einige bei Punkt 1 ein Plus an Megahertz angeben aber andere wiederum ein Minus angeben. Und was die jeweiligen Unterschiede dann genau bewirken.

das + offset bewirkt , das alle takt/voltage punkte effizienter arbeiten. wirkt allerings erst voll, wenn die kurve gegen ein PT läuft, da die niedrigeren taktstufen sonst ja nie anliegen.

das - offset soll wohl sicherstellen, das die niedrigeren taktraten auf jedenfall stabil sind, das macht nur sinn mit einem erweiterten PT, damit die niedrigeren taktstufen niemals genutzt werden, denn die sind deutlich ineffizienter als die + offset methode.

ich nutze ersteres, weil mich die vorteile überzeugen.

N0rG
2021-09-23, 18:26:00
[..]Erklärungen weg WARUM etwas so oder so gemacht wird. [..]


Hab mal ein paar Kurven im Afterburner gemacht mit Begründung.

Bei BlacKis Variante verbraucht die Karte deutlich weniger Strom (als auf default), wird aber nicht durch ein Powertarget eingeschränkt, sondern durch eine maximal anliegende Spannung und Taktfrequenz. Bei meiner Variante verbraucht die Karte ziemlich konstant 300W (auch weniger als auf default), kann aber nach belieben Boosten solange der Strom reicht, um eine höhere Spannungsstufe zu erreichen.

[..]die karte ist auch mit 1.025v in anspruchslosen spielen deutlich ineffizienter als mit 0,8v.[..]



Wenn das Ziel maximale Effizienz lautet, hast Du natürlich recht, dann macht eine Begrenzung auf die niedrigste mögliche Spannung Sinn. Wie Du schon sagst, ist Geschmackssache. Da ich aber eh mit FPS limiter spiele wegen G-Sync, habe ich lieber etwas mehr Leistung nach Oben raus. Bei anspruchslosen Spielen wird die Karte eh durch den FPS Limiter gebremst und verbraucht dann auch mal weniger als 300W. Meistens hält sie sich zwischen 0,775 und 0,9V auf, also auch recht effizient.

sChRaNzA
2021-09-23, 19:08:55
Ah ok, danke schon einmal für eure Erklärungen.

Ich hab jetzt hier mal meine Kurve. Diese ist ''festgenagelt'' auf 1800Mhz bei 800mV und einem Offset von -150Mhz. Was bedeutet das jetzt genau im Hinblick auf eure Kommentare? Die Karte läuft im unteren Mhz-Spektrum stabiler aber ineffizienter als wenn ich die gleichen Einstellungen bei einem +150Mhz Offset fahren würde?


https://abload.de/img/-150mhztwjsg.jpg

N0rG
2021-09-23, 19:25:55
Das was Du da gebaut hast ist eher ein negatives Offset von einer Kurve mit positivem Offset :D

Das Offset sollte sich immer auf die default Kurve beziehen. Das wären dann 1590 MHz bei 0,8V bei meiner Strix (kA ob das bei allen Karten gleich ist). Die 1800 MHz bei 0,8V sind schon ziemlich sportlich in deiner Kurve. Also ca. +210 MHz bezogen auf default Settings. Wieviel mehr die Karte bei Spannung X schafft musst Du halt austesten. Falls Du es wie BlacKi machen willst mit Spannungsbegrenzung, dann brauchst Du eigentlich nur die höchste Spannungsstufe (0,8V) auf Stabilität testen, da die Karte da dann festhängt. Bei meinem Ansatz muss man alles durchtesten, da die Karte je nach Auslastung eine andere Spannung anlegt.

sChRaNzA
2021-09-23, 19:34:23
Das was Du da gebaut hast ist eher ein negatives Offset von einer Kurve mit positivem Offset :D

Das Offset sollte sich immer auf die default Kurve beziehen. Das wären dann 1590 MHz bei 0,8V bei meiner Strix (kA ob das bei allen Karten gleich ist). Die 1800 MHz bei 0,8V sind schon ziemlich sportlich in deiner Kurve. Also ca. +210 MHz bezogen auf default Settings.

Jaaaaa, AHA!.... Ok, jetzt verstehe ich auch woher dieser ''Haken'' in der Kurve kommt und was dieser zu bedeuten hat. :freak:

Aber was genau bedeutet das dann für mein Vorhaben einer möglichst effizienten, ruhigen und damit auch sparsamen Karte? +Offset einstellen und davon dann nach ''unten'' regeln?

Sorry für diese absoluten Noob-Fragen, aber danke, dass ihr so viel Geduld mit mir habt. :ulove:

Falls Du es wie BlacKi machen willst mit Spannungsbegrenzung, dann brauchst Du eigentlich nur die höchste Spannungsstufe (0,8V) auf Stabilität testen, da die Karte da dann festhängt. Bei meinem Ansatz muss man alles durchtesten, da die Karte je nach Auslastung eine andere Spannung anlegt.

Also diese Einstellungen von mir laufen ja bis jetzt stabil.

N0rG
2021-09-23, 20:16:27
Wenn Du nicht viel Zeit investieren möchtest dann stell einfach erstmal auf Werkseinstellungen zurück. Anschließend ziehst Du den Coreclock auf +150 und stellst ein Powertarget von um die 300W ein. Dadurch hat die Kurve dann für jeden Spannungspunkt +150 MHz Offset. Das sollte eigentlich so laufen und wird auch recht effizient sein. Falls das in verschiedenen Spielen (!) problemlos läuft, kannst Du den Coreclock auch noch weiter erhöhen.

Falls Du die letzten 3% die dann noch mehr drin wären auch noch haben möchtest, dann musst Du halt schauen was die Karte bei 0,8V schafft und dann die Spannung begrenzen und das PT wieder raus nehmen. (mittlerer Aufwand, BlacKis Variante)

Oder halt schauen was die Karte bei jedem Spannungspunkt schafft und Dir dann eine maßgeschneiderte Kurve daraus bauen. Hoher Aufwand, hat aber den Vorteil, dass Du dann einfach über das Powertarget festlegen kannst wie hoch die Karte Boostet. Da holst Du dann halt immer das Optimum an Leistung aus der Karte. Bei niedrigem PT ist sie dann sehr effizient und bei hohem PT hast Du die maximale Leistung.

Gerade in den niedrigeren Spannungsstufen ist manchmal noch einiges zu holen. Bei 0,7V hat meine Kurve z.B. +314 MHz bei 1,062V aber nur +146 MHz. Wobei das auch noch nicht die absolute Kotzgrenze ist. Aber man muss ja auch bedenken das es im Sommer auch mal wärmer sein kann und es dann instabil werden kann.


Also diese Einstellungen von mir laufen ja bis jetzt stabil.

Wenn das so läuft kannst Du das eigentlich auch schon so lassen. 1800MHz bei 0,8V sind schon nah am Optimum vermute ich. Nur dieser Haken macht mir etwas angst :D ... naja im schlimmsten Fall friert Dir das Bild ein.

BlacKi
2021-09-23, 20:28:11
naja im schlimmsten Fall friert Dir das Bild ein.manche hatten früher mal die these, dass das die performance beeinflusst.

sChRaNzA
2021-09-23, 20:39:28
Wenn Du nicht viel Zeit investieren möchtest dann stell einfach erstmal auf Werkseinstellungen zurück. Anschließend ziehst Du den Coreclock auf +150 und stellst ein Powertarget von um die 300W ein. Dadurch hat die Kurve dann für jeden Spannungspunkt +150 MHz Offset. Das sollte eigentlich so laufen und wird auch recht effizient sein. Falls das in verschiedenen Spielen (!) problemlos läuft, kannst Du den Coreclock auch noch weiter erhöhen.

Falls Du die letzten 3% die dann noch mehr drin wären auch noch haben möchtest, dann musst Du halt schauen was die Karte bei 0,8V schafft und dann die Spannung begrenzen und das PT wieder raus nehmen. (mittlerer Aufwand, BlacKis Variante)

Oder halt schauen was die Karte bei jedem Spannungspunkt schafft und Dir dann eine maßgeschneiderte Kurve daraus bauen. Hoher Aufwand, hat aber den Vorteil, dass Du dann einfach über das Powertarget festlegen kannst wie hoch die Karte Boostet. Da holst Du dann halt immer das Optimum an Leistung aus der Karte. Bei niedrigem PT ist sie dann sehr effizient und bei hohem PT hast Du die maximale Leistung.

Gerade in den niedrigeren Spannungsstufen ist manchmal noch einiges zu holen. Bei 0,7V hat meine Kurve z.B. +314 MHz bei 1,062V aber nur +146 MHz. Wobei das auch noch nicht die absolute Kotzgrenze ist. Aber man muss ja auch bedenken das es im Sommer auch mal wärmer sein kann und es dann instabil werden kann.



Wenn das so läuft kannst Du das eigentlich auch schon so lassen. 1800MHz bei 0,8V sind schon nah am Optimum vermute ich. Nur dieser Haken macht mir etwas angst :D ... naja im schlimmsten Fall friert Dir das Bild ein.

Ok, danke für die Erklärung. Dann spiel ich mal noch ein bisschen mit der Kurve herum. Auf jeden Fall waren die Empfehlungen / Antworten hier schon wesentlich ergiebiger als alles, was ich bis jetzt durch Google oder anderen Foren bekommen konnte. Danke dafür schon mal. :ulove:

manche hatten früher mal die these, dass das die performance beeinflusst.

Jaha! Dafür aber auch konsistent! :freak:

Wuge
2021-09-24, 10:10:14
Anschließend ziehst Du den Coreclock auf +150 und stellst ein Powertarget von um die 300W ein. Dadurch hat die Kurve dann für jeden Spannungspunkt +150 MHz Offset. Das sollte eigentlich so laufen und wird auch recht effizient sein. Falls das in verschiedenen Spielen (!) problemlos läuft, kannst Du den Coreclock auch noch weiter erhöhen.

Das kann schon crashen, z.b. im Menü vom Flight Simulator.

Problem ist, dass die V/F Curve - warum auch immer - nicht die wirkliche Taktskalierung vom Chip abbildet. Im Unteren Bereich ist Luft für 200 Mhz Offset und mehr, in der Spitze aber vielleicht nur 100 Mhz.

Daher MUSS man die Curve kappen, wenn man einen niedrigen Spannungspunkt mit maximal möglichem Takt fahren will.

Also ich würde z.b. OffSet +150, dann alles über 0.9V glatt stellen. Wenns läuft 180, 210... und jeweils alles über 0.9V glatt ziehen. Wenn der Crash kommt 15 oder 30 Mhz zurück und fertig. Man könnte auch jeden anderen Spannungspunkt nehmen aber ich finde bis 0.9 oder 0.95 je nach Chip skaliert es noch gut.

Gouvernator
2021-10-02, 16:49:42
Heute gab es zum ersten Mal ein Ausfall meiner TUF Gaming. Kein Bild egal welche Knöpfe ich drücke. Windows hat normal gebootet. Also dachte ich es ist wieder was mit Verbindung zum 8K TV. Es lief anfangs eh nur mit einem 1.5m Kabel. Diese HDMI 2.1 Geschichte ist sowieso kompliziert und verbuggt ohne Ende. Sony kann ihre 4K(!) TVs noch immer nicht HDMI 2.1 konform machen.
Die alte GTX1080 eingebaut um wenigstens etwas zu sehen. Aber der TV lief normal mit 4K120. Dann die 3090 nach Staubkörner abgesucht und an zugänglichen Stellen gerieben und geblasen. Eingebaut - läuft wieder.

sChRaNzA
2021-10-02, 17:03:01
Die alte GTX1080 eingebaut um wenigstens etwas zu sehen.

Für diesen Satz könnte man heutzutage auch gerne mal gelyncht werden. :biggrin:

TobiWahnKenobi
2021-10-02, 18:12:20
@gouvernator

WIN+STRG+SHIFT+B

wirkt an HDMI2.1 manchmal auch wunder.


(..)

mfg
tobi

Gouvernator
2021-10-02, 18:41:36
@gouvernator

WIN+STRG+SHIFT+B

wirkt an HDMI2.1 manchmal auch wunder.


(..)

mfg
tobi
Es war aber so das nicht mal ein Bios bzw. Boot Screen gezeigt wurde. Bei keinem der 4 HDMI Eingänge.

[MK2]Mythos
2021-10-24, 23:51:05
Sehr aufschlussreiches Review des RTX3090 Boards mit Erklärung warum diese Karte bei New World zb abraucht.
Die ganze Videoreihe zu dem Thema ist sehr interessant!

rRp75YdLaq4

MiamiNice
2021-10-25, 12:02:46
Gibt es das auch als lesbare Version? Am besten als Stichpunktliste?

[MK2]Mythos
2021-10-25, 12:51:36
Nicht dass ich wüsste. Ich kanns ja kurz aus dem Gedächtnis zusammenfassen:
Es fing damit an dass er eine durch New World geschrottete RTX 3090 zum Testen bekommen hat, nachdem er durch die etwas eigenartige Spannungsversorgung gestiegen war (er hat sich das alles zusammengemessen, hatte keine Schematics und auch keine heile Karte zum Vergleich), war ihm klar dass eine Phase abgeraucht ist.
Das hat er notdürftig in einem seiner letzten Videos repariert und die Karte so wiederbelebt.
In dem oben verlinkten Video geht er auf die OCP (overcurrentprotection) ein, die ganz offensichtlich völlig überdimensioniert ist und viel zu spät auslöst.
Er geht davon aus dass sie viel zu hoch ausgelegt ist, damit sie bei den gewaltigen Lastspitzen nicht auch getriggert wird und die Karte abschaltet.
Bei New World kommt es allerdings zu sehr hohen Strömen über eine lange Periode, was dann regelmäßig die "Karten" killt.

Es ist seiner Meinung nach ein massiver Designfail von nvidia.
Ich guck den Kanal schon sehr lange und halte ziemlich viel von seinen Boardanalysen. Er weiß imho ziemlich genau wovon er spricht und ist definitv kein Dampfplauderer.

MiamiNice
2021-10-25, 13:00:53
Ist das ein generelles Problem oder auf einen Boardpartner geschränkt? Es soll ja angeblich eher Gigabyte getroffen haben?

RoughNeck
2021-10-25, 14:56:45
Ich weiß von den EVFA FTW Karten und den Gigabyte Windforce.
Von anderen hätte ich jetzt noch nichts gelesen, hab aber in den letzten das ganze nicht mehr verfolgt.
Ein generelles y
Problem gibt es aber nicht, meiner MSI Suprim X ist es egal und ich zocke seit der Beta New World

Lowkey
2021-10-25, 15:02:38
Das ist aber mehr oder weniger ein grundsätzliches Problem mit der Serienstreuung, denn eine Gigabyte Gaming 3080 läuft einwandfrei und die andere, neuere Gaming OC lief keine 20min in NW. Die MSI auch nicht. Doch das liegt dann auch am Netzteil und meins ist nicht für die Spitzen geeignet, also hält sich an die Schutzschaltungen. Und selbst ohne OC schaltet mein altes Netzteil mit der 6800 XT ab.

Stellst du aber jede Karte auf einen festen Maximaltakt, dann verlierst du meistens nicht einmal Leistung und verhinderst Spitzen. Dann gibt es kein Problem. Doch wer kauft sich eine Highendkarte und legt sie an die Leine?


Das alles ist vermutlich nur ein Kampf um die Leistungskrone. Wegen 2-3% wird die Karte und das Design höher als geplant betrieben.

aufkrawall
2021-10-25, 15:05:39
Stellst du aber jede Karte auf einen festen Maximaltakt, dann verlierst du meistens nicht einmal Leistung und verhinderst Spitzen.
Was ist ein "fester Maximaltakt" und warum sollte der Spitzen verhindern?

VooDoo7mx
2021-10-25, 15:22:42
Was ist ein "fester Maximaltakt" und warum sollte der Spitzen verhindern?

Wenn man per Curve Editor z.B. das Limit bei 0,8V 1800MHz festlegt geht die Karte eben nicht über diesen Wert bei dieser Spannung und bleibt bei 100% Last auch beim Stromverbrauch konsistent ohne Spitzen nach oben.

Wenn man nicht so ein Limit einstellt versucht die Karte permanent per GPU Boot Spannung und Takt zu erhöhen. Dies kann für Millisekunden auch einen Stromverbrauch bedeuten der deutlich über dem Power Limit liegt, bevor die Karte wieder gegen korrigiert um kurz darauf wieder höher zu boosten usw usw usw

aufkrawall
2021-10-25, 15:27:21
Das würd ich nicht als Maximaltakt vs. keinen Maximaltakt bezeichnen, sondern einfach als UV. Vermutlich steigen die Spikes mit steigendem Takt/Spannung einfach überproportional.

Cubitus
2021-10-25, 15:31:37
Wenn man per Curve Editor z.B. das Limit bei 0,8V 1800MHz festlegt geht die Karte eben nicht über diesen Wert bei dieser Spannung und bleibt bei 100% Last auch beim Stromverbrauch konsistent ohne Spitzen nach oben.

Wenn man nicht so ein Limit einstellt versucht die Karte permanent per GPU Boot Spannung und Takt zu erhöhen. Dies kann für Millisekunden auch einen Stromverbrauch bedeuten der deutlich über dem Power Limit liegt, bevor die Karte wieder gegen korrigiert um kurz darauf wieder höher zu boosten usw usw usw

Deswegen habe ich meine Karte undervoltet.
Es ist besser bei 850 Mv konstant 1900 Mhz zu haben. Als kurzeitig über 2 Ghz bei fiesen Voltage Spitzen zu erreichen, damit die Karte ins Temp-Target rasselt um dann meistens nur knappe 1600-1700 Mhz erreicht.

Bei Wakü und mehr PT ist sowas kein Problem, aber da wäre ja wieder OC geeignet.
Jeder Karte (GPU) und Kühlung sind aber anders, es lohnt sich also mal einen ganzen Nachmittag Zeit zu nehmen und etwas herumzuspielen.

Das würd ich nicht als Maximaltakt vs. keinen Maximaltakt bezeichnen, sondern einfach als UV. Vermutlich steigen die Spikes mit steigendem Takt/Spannung einfach überproportional.

Joa das ist UV, und die GPU wird richtig fies ab 2Ghz und säuft unverhältnismäßig.

gedi
2021-10-25, 18:13:29
Sorry, aber das Design ist ne Farce. Ich hätte mir von Gigabyte, EVGA(?), Asus…. neuer BIOS-Optionen/Downloads erhofft, insbesondere da die Messlatte bei NV in Bezug auf Platinendesign nicht so hoch gesteckt zu sein scheint, wie bei AMD. Ich gebe diesbezüglich NV keine Schuld, nur der Support der Drittfirmen scheint verbesserungswürdig zu sein?!

hq-hq
2021-11-06, 22:46:26
hm, hab heute mal das Bios Update für de alte 3090FE gemacht um RBAR aktivieren zu können, im Treiber/Sysinfo zeigts des auch als aktiv an... so wirklich einen Unterschied konnte ich jetzt nicht messen, tendenziell eher -0,5% manchmal vielleicht +3% ... naja jetzt ist es angeschalten...

Unrealswebmaster
2021-11-07, 21:28:47
@hq-hq

Habe das auch vor ein paar Wochen gemacht, nun gut, ist aktiviert und keiner merkt etwas LOL

aufkrawall
2021-11-07, 21:43:11
Sind ja auch nur ~20 Spiele auf der Whitelist. Aber ja, es sind nur ein paar popelige Prozent. Früher gabs so etwas bei Nvidia mal mit neuen Treibern einfach so.
Mit rBAR sieht die 3090 in 1440p gegen die 6900 XT bei herkömmlicher Raster-Grafik nochmal ein Stück älter aus. Ein neuer Arch-Sprung wie Maxwell wär mal wieder fein...

TobiWahnKenobi
2021-11-08, 09:35:06
bitte nicht.. etwas neues, das das alte entwertet und wieder 3000€ kostet wäre voll für'n arsch.. RTX 3090 muss für 3k EUR fast ein ganzes jahr in die mine..


https://abload.de/img/miningxzj8d.jpg


(..)

mfg
tobi

Troyan
2021-11-08, 10:57:39
Sind ja auch nur ~20 Spiele auf der Whitelist. Aber ja, es sind nur ein paar popelige Prozent. Früher gabs so etwas bei Nvidia mal mit neuen Treibern einfach so.
Mit rBAR sieht die 3090 in 1440p gegen die 6900 XT bei herkömmlicher Raster-Grafik nochmal ein Stück älter aus. Ein neuer Arch-Sprung wie Maxwell wär mal wieder fein...

Raster-Grafik ist eine Sackgasse. Forza 5 ist so dermaßen CPU-limitierend, dass mehr GPU-Leistuing nichts bringt. Und für 4K kann ich auch DLSS verwenden (lustigerweise wäre dies in Forza 5 sogar eine Qualitätssteigerung).

In Guardians mit Raytracing@Ultra ist die 3090 85%+ schneller als die 2080TI. Das wiederum ist doch ein vernünftiger Pascal-Schritt: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3

Raytracing ist einfach effizienter und skaliert wesentlich besser mit mehr Effekten und Qualität.

dargo
2021-11-08, 12:32:17
Raytracing und Effizienz in einem Satz... Comedy pur. ;D ;D ;D

Troyan
2021-11-08, 12:46:58
Forza 5 in 1440p - 3090 ist 35% schneller als die 2080TI: https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/#a2

Guardians in 1440p - 3090 ist 85% schneller als die 2080TI.

Wieso ist Forza 5 also so ein umoptimierter Rotz?

TobiWahnKenobi
2021-11-08, 12:50:44
was wollt ihr eigentlich mit WQHD im 3090-thread? da liegt zwischen 6900xt und 3090 ein halbes frame.. in fh5. in UHD sinds schon 2.5fps.. zugunsten der geileren karte.. also die nvidia.


(..)

mfg
tobi

FastAndy
2021-11-08, 12:53:44
was wollt ihr eigentlich mit WQHD im 3090-thread?


(..)

mfg
tobi
und du mit mining? interessiert hier noch weniger

Linmoum
2021-11-08, 12:54:26
Bei CB liegt die 3090 im Schnitt 46% vor der 2080Ti.

Forza: +35%
Guardians: +85%

Welcher Titel fällt da wohl komplett contra Turing aus der Reihe? Hmmmmmm.

Troyan
2021-11-08, 13:01:24
Nun, Forza. Oder wieso wird hier kein Raytracing verwendet? :rolleyes:

Ich habe explizit auf "Raster"-Grafik geantwortet. In Metro Exodus EE sind es in Innenräumen 68%: https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Metro-Exodus-Enhanced-Edition-Test-Vergleich-1371524/3/

Welcher Titel fällt also mehr aus der Reihe:
Forza 5 mit 35% oder Guadians mit 85%?

ChaosTM
2021-11-08, 13:03:43
Dass der Vorteil der 3090er bei RTRT natürlich größer ist steht außer Zweifel. Bei normale Titeln ist die Karte eben nur um diese 35% schneller.
Ganz normal..

dargo
2021-11-08, 13:12:44
Forza 5 in 1440p - 3090 ist 35% schneller als die 2080TI: https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/#a2

Guardians in 1440p - 3090 ist 85% schneller als die 2080TI.

Wieso ist Forza 5 also so ein umoptimierter Rotz?
Frage dich eher wieso Ampere so eine Luftpumpe geworden ist.

Nun, Forza. Oder wieso wird hier kein Raytracing verwendet? :rolleyes:

Damit du rumtrollen kannst, das haben die mit Absicht weggelassen.

Ex3cut3r
2021-11-08, 13:39:38
Frage dich eher wieso Ampere so eine Luftpumpe geworden ist.


;D

Naja Luftpumpe wurde ich jetzt nicht sagen, aber die Rasterizing Leistung gegenüber den großen Navis ist manchmal schon gut 10% zurück. Dazu natürlich auch 50-70W mehr Verbrauch und, das liegt aber eher am GDDR6X :wink:
Dazu halt 6 bzw. 4GB weniger VRAM außer der 3090 natürlich.

WedgeAntilles
2021-11-08, 13:44:54
Dass der Vorteil der 3090er bei RTRT natürlich größer ist steht außer Zweifel. Bei normale Titeln ist die Karte eben nur um diese 35% schneller.
Ganz normal..
In den Titeln, die - übertrieben gesagt - jede Kartoffel mit 3-stelligen Frameraten darstellt, schwächelt die 3090.

In den Titeln, die tatsächlich sehr viel Power brauchen und die Frameraten niedrig sind liefert die 3090.

Bei welchem Spiel ist es wohl wichtiger ordentlich zu liefern:
Bei nem Game das eh schon 300 Frames hat?
Oder da wo es nur 40 Frames gibt?

Oder ist es üblich sich für 1000 Euro aufwärts ne GraKa zu kaufen und als erstes mal Effekte wie RT zu deaktivieren?
(Ok, für AMD Kunden natürlich zwangsläufig Standard, aber macht ein Nvidia-Kunde das auch?)

Und theoretisch kann man ja auch noch DLSS dazu schalten - verschönert unterm Strich das Spiel in den meisten Fällen UND erhöht die FPS massiv.
Aber klar, darf man natürlich nicht standardmäßig mit testen, sonst würde RDNA2 ja noch schlechter abschneiden.
(Wieso hat man eigentlich den 5950X immer mit 16 Kernen laufen lassen gegen Intels 10900K - ist doch voll unfair, der Intel hat ja nur 10. Da hätte man bei dem 5950X eigentlich 6 Kerne deaktiverne müssen!!!111)

Raff
2021-11-08, 13:46:29
Forza 5 in 1440p - 3090 ist 35% schneller als die 2080TI: https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/#a2

Guardians in 1440p - 3090 ist 85% schneller als die 2080TI.

Wieso ist Forza 5 also so ein umoptimierter Rotz?

Ich sehe das zwar nicht so kritisch (so schlimm ist's nicht), aber MSAA dürfte eine Mitschuld daran haben, dass die Entfaltung gebremst ist. Man könnte mal 5K mit FXAA-only testen (auch wenn das stark flimmert), dann gibt's gewiss größere Unterschiede und auch einen größeren Ampere-Vorteil. Lo-Res-Schwäche und so.

MfG
Raff

Troyan
2021-11-08, 14:10:17
Glaube ich nicht. Raster-Grafik läuft in das selbe Problem wie CPUs - Amdahlsches_Gesetz (https://de.wikipedia.org/wiki/Amdahlsches_Gesetz)

Eine 3060 schafft ~40 FPS in Guardians mit Raytracing@Ultra und ~50 FPS in Forza mit 4x MSAA. Sorry, aber da ist Forza einfach nur absurd schlecht.

dildo4u
2021-11-08, 14:14:37
Die Masse wird sicherlich nicht von Turing auf Ampere gehen, 1070 zu 3070 sind die üblichen 2x nur müsste die GPU das Selbe kosten das wär mal was.

Daredevil
2021-11-08, 14:15:08
Was eigentlich schade ist, weil FH4 konnte man mit ner 3090 in 8k laufen lassen bei 30fps und 6k bei 60fps. Also ich hab FH5 noch nicht gespielt, aber ein paar Effekte mehr sind sicherlich netter als nur Auflösungswahn. :)

Raff
2021-11-08, 14:59:22
Eine 3060 schafft ~40 FPS in Guardians mit Raytracing@Ultra und ~50 FPS in Forza mit 4x MSAA. Sorry, aber da ist Forza einfach nur absurd schlecht.

Nicht alles, was hinkt, ist ein Vergleich. :) Guardians stellt einen bildhübschen Schlauch dar, Forza eine "seamless" gestreamte Welt.

MfG
Raff

dargo
2021-11-08, 15:15:34
;D

Naja Luftpumpe wurde ich jetzt nicht sagen...
Gemessen an der Rohleistung vs. RDNA2 und Turing meine ich natürlich. Sorry, hätte ich direkt dabei schreiben sollen.

aufkrawall
2021-11-08, 15:19:42
Einfach mal kapieren, dass Ampere real/netto in Spielen weniger FLOPs zur Verfügung hat als angegeben. Du liebe Güte...

Troyan
2021-11-08, 15:39:28
Nicht alles, was hinkt, ist ein Vergleich. :) Guardians stellt einen bildhübschen Schlauch dar, Forza eine "seamless" gestreamte Welt.

MfG
Raff

Wieso sollte das Auswirkungen auf Ampere untereinander haben? Eine 3080TI hat 2,8x mehr Rechenleistung und 2,53x mehr Bandbreite als die 3060. Jetzt leistet die Gerade mal 1,95x mehr Leistung in 1440p in Forza 5.

Zum Beispiel in Crysis 3 Remaster sind es 2,4x mehr Leistung: https://gamegpu.com/action-/-fps-/-tps/crysis-3-remastered-test-gpu-cpu

Linmoum
2021-11-08, 16:33:27
In Doom Eternal sind es auch nur 1.96x laut CB in 1440p.
In Death Stranding 1.91x.
In Horizon: Zero Dawn 1.95x.
In WD: Legion 1.91x.
In RDR2 2.03x.

Deine "gerade mal 1.95x" sind also beileibe kein Ausreißer. Keine Ahnung, was du damit also überhaupt sagen willst.

Raff
2021-11-08, 16:36:47
Faktor 2 zwischen GA106 und GA102 ist im groben Mittel tatsächlich normal. Nicht gut (für GA102), aber eben normal. :ugly:

MfG
Raff

Troyan
2021-11-08, 16:37:59
In Doom Eternal sind es auch nur 1.96x laut CB in 1440p.
In Death Stranding 1.91x.
In Horizon: Zero Dawn 1.95x.
In WD: Legion 1.91x.
In RDR2 2.03x.

Deine "gerade mal 1.95x" sind also beileibe kein Ausreißer. Keine Ahnung, was du damit also überhaupt sagen willst.

Gehe doch mal zurück zum Anfang. Dann merkst du hoffentlich, dass ich exakt das geschrieben habe und wieso "Raster"-Grafik veraltet und ineffizient ist.

Ex3cut3r
2021-11-08, 16:41:00
So ein Schwachsinn, in 2 Jahren ist Ampere sowieso zu langsam für RT. Spiele werden ja auch anspruchsvoller, lass die alte Konsolen Gen auslaufen, und dann hast du bei Ampere mit RT schon die ersten Probleme. Eine gute Sache bleibt aber, und zwar DLSS, damit hast du immer 30% mehr Luft (DLSS Q)

Troyan
2021-11-08, 16:43:17
Was redest du für ein Unsinn? 3080+ reicht locker für 4K mit Raytracing und DLSS. Dagegen rennt Forza 5 so richtig grottig auf Ampere. Kein Plan, wo da die ganze Leistung hingeht. Freu mich schon so riesig auf Battlefield 5, wo man bei 80 FPS CPU-limitierend sein wird...

Raff
2021-11-08, 16:43:45
So ein Schwachsinn, in 2 Jahren ist Ampere sowieso zu langsam für RT. Spiele werden ja auch anspruchsvoller, lass die alte Konsolen Gen auslaufen, und dann hast du bei Ampere mit RT schon die ersten Probleme. Eine gute Sache bleibt aber, und zwar DLSS, damit hast du immer 30% mehr Luft (DLSS Q)

Ich halte dagegen. :) Die speichermäßig nicht verkrüppelten Modelle werden mindestens genauso gut altern wie Turing. TU102 sieht heutzutage noch hervorragend aus, wenn ein Spiel nicht gerade mit einer "Pascal-Engine" unterwegs ist. Ampere kann alles, was man in den kommenden Jahren benötigen wird - die oft brachliegende FP32-Power ist nur ein Faktor.

MfG
Raff

Ex3cut3r
2021-11-08, 16:45:30
Für dich als Low FPS Gamer sicherlich. Für andere vlt. nicht? Ist schwierig das für die Allgemeinheit auszusprechen. ;)

Raff
2021-11-08, 16:46:26
Wer Raytracing will, sollte generell mal von dieser "Unter 120 Fps spiele ich nix mehr"-Attitüde, die noch aus Rasterzeiten stammt, wegkommen. :biggrin:

MfG
Raff

aufkrawall
2021-11-08, 16:49:27
die oft brachliegende FP32-Power ist nur ein Faktor.

Keine Ahnung, ob es Locuza war, aber jemand hatte hier mal ausgeführt, weshalb die hohe FP32-Leistung für Gaming nur auf dem Papier existiert. Das ist nicht wie bei Fiji/Vega, wo das bei Optimierung wirklich abrufbar war. Dafür spricht auch, dass neue Treiber die Leistung fast gar nicht erhöhen.

Troyan
2021-11-08, 16:50:40
Cool, Forza läuft mit 110FPS im CPU-Limit auf nVidia-Hardware: https://www.computerbase.de/2021-11/forza-horizon-5-benchmark-test/2/#diagramm-forza-horizon-5-1920-1080
Vollkommen irre, wie miserabel diese Konsolenportierungen mit DX12 sind. Dagegen läuft Guardians in 1080p mit Raytracing@Ultra mit 120FPS: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3
Mit Raytracing. Das ist benötigt Lichtjahre mehr Rechenleistung als die Grafik von Forza 5 in 1080p.

Oder Crysis 3 mit dem ineffizienten Software-Raytracing, ebenfalls 120 FPS auf Ampere: https://gamegpu.com/action-/-fps-/-tps/crysis-3-remastered-test-gpu-cpu

Wieviel Leistung verschenkt wird, weil man nicht vernünftig optimieren kann, ist absolut fazinierend.

Raff
2021-11-08, 16:51:00
Keine Ahnung, ob es Locuza war, aber jemand hatte hier mal ausgeführt, weshalb die hohe FP32-Leistung für Gaming nur auf dem Papier existiert. Das ist nicht wie bei Fiji/Vega, wo das bei Optimierung wirklich abrufbar war. Dafür spricht auch, dass neue Treiber die Leistung fast gar nicht erhöhen.

Wurde das mittlerweile genauer ergründet? Hier wurde vor Monaten mal spekuliert, dass Register Space (IIRC) der Limitfaktor ist. Oft genug kommt Ampere aber sehr gut von Turing weg. Wenn das nur auf Raytracing zutrifft, wäre das nicht so wild, denn dahin führen ja alle Wege.

Cool, Forza läuft mit 110FPS im CPU-Limit auf nVidia-Hardware: https://www.computerbase.de/2021-11/forza-horizon-5-benchmark-test/2/#diagramm-forza-horizon-5-1920-1080

Interessant, dann scheint der NV-Treiber in der Open World mehr zu limitieren als in den Rennen. Bei der PCGH skaliert's besser mit GPU-Leistung, da die Szene nach GPU-Last ausgesucht wurde (bei weniger absoluten Fps): https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/#a1 (die CPU macht bei ~139 AMD-Fps und ~135 Nvidia-Fps zu). Dass die Grafiklast der Limitfaktor ist, sieht man an den geringeren Bildraten der kleineren Karten. Die PCGH-CPU würde bei der CB-Szene wohl gut 150 AMD-Fps rauspressen. Allerdings gibt's außerhalb der Rennen immer mehr oder minder subtile Wetter-Unterschiede ...

MfG
Raff

Troyan
2021-11-08, 16:53:27
Ampere nutzt die komplette Rechenleistung jederzeit aus. Spiele dagegen nutzen nunmal nicht genug Rechenleistung, sondern limitierend in anderen Bereichen. Die Crysis Remaster Spiele mit Raytracing zeigen doch, dass Ampere deutlich besser als Turing ist.

Ex3cut3r
2021-11-08, 17:11:05
Erstaunlich was Nvidia aus 8GB VRAM macht, die Kompression ab Turing scheint genial zu sein. AMD stinkt mit 8GB dagagen total ab. Heißt IMO = 8GB sind nicht einfach 8GB ;)

Lawmachine79
2021-11-08, 18:39:39
Wer Raytracing will, sollte generell mal von dieser "Unter 120 Fps spiele ich nix mehr"-Attitüde, die noch aus Rasterzeiten stammt, wegkommen. :biggrin:

MfG
Raff
Zumal da bei Low FPS-Spielern auch einige Highpinger und Lowskiller dabei sind.

Ich komme in Diablo 2 Resurrected mit 70 FPS super aus - aber nur, weil ich gleichzeitig mit 100 MH/s Wohlstand erzeuge :D.

Troyan
2021-11-08, 18:47:38
Interessant, dann scheint der NV-Treiber in der Open World mehr zu limitieren als in den Rennen. Bei der PCGH skaliert's besser mit GPU-Leistung, da die Szene nach GPU-Last ausgesucht wurde (bei weniger absoluten Fps): https://www.pcgameshardware.de/Forza-Horizon-5-Spiel-73350/Specials/PC-Release-Benchmark-Test-Steam-Systemanforderungen-1382783/4/#a1 (die CPU macht bei ~139 AMD-Fps und ~135 Nvidia-Fps zu). Dass die Grafiklast der Limitfaktor ist, sieht man an den geringeren Bildraten der kleineren Karten. Die PCGH-CPU würde bei der CB-Szene wohl gut 150 AMD-Fps rauspressen. Allerdings gibt's außerhalb der Rennen immer mehr oder minder subtile Wetter-Unterschiede ...

MfG
Raff

Sehe ich nicht. Die 3070 ist deutlich schneller als die 6700XT. Einzig GA102 skaliert nicht nach oben. Scheint wohl Geometrie-limitierend zu sein. Genau der Punkt, wieso Raster-Engine Spiele an ihr limit kommen.

gedi
2021-11-08, 21:30:26
Cool, Forza läuft mit 110FPS im CPU-Limit auf nVidia-Hardware: https://www.computerbase.de/2021-11/forza-horizon-5-benchmark-test/2/#diagramm-forza-horizon-5-1920-1080
Vollkommen irre, wie miserabel diese Konsolenportierungen mit DX12 sind. Dagegen läuft Guardians in 1080p mit Raytracing@Ultra mit 120FPS: https://www.pcgameshardware.de/Guardians-of-the-Galaxy-Spiel-54671/Specials/PC-Benchmark-Test-Review-1382318/2/#a3
Mit Raytracing. Das ist benötigt Lichtjahre mehr Rechenleistung als die Grafik von Forza 5 in 1080p.

Oder Crysis 3 mit dem ineffizienten Software-Raytracing, ebenfalls 120 FPS auf Ampere: https://gamegpu.com/action-/-fps-/-tps/crysis-3-remastered-test-gpu-cpu

Wieviel Leistung verschenkt wird, weil man nicht vernünftig optimieren kann, ist absolut fazinierend.

Dafür sind die Texturen noch nicht einmal 1/4 mit denen in FH5 aufgelöst :freak:

rentex
2021-11-09, 05:57:59
Wer Raytracing will, sollte generell mal von dieser "Unter 120 Fps spiele ich nix mehr"-Attitüde, die noch aus Rasterzeiten stammt, wegkommen. :biggrin:

MfG
Raff

Empfehle ich grundsätzlich. Bringt wenig und kostet viel.

hq-hq
2021-11-20, 16:53:01
hab endlich mal die 3090 FE unter Wasser gesetzt, Temperaturen wie bei der alten 2080Ti, eigentlich hab ich das jetzt nur wegen der RAM Temperatur gemacht und weil halt der Block seit Monaten rumliegt

hm, erwähnenswert vielleicht, dass eine der magnetischen Schraubabdeckungen nur mit Gewalt zu entfernen war, die drei anderen waren gleich mit Panzertape entfernt... aber die eine war echt fest wie sau

bzgl. Backplate beim Alphacool, bei der FE waren deutlich mehr Bauteile gekühlt, hab dann wie bei der FE mehr Pads angebracht
Ein Schraubpunkt für die Backplate hätte nach einer kürzeren Schraube verlangt, die lag aber nicht bei, hab dann ne dicke Kunststoffscheibe drunterlegen müssen dass die Backplate sauber aufliegt und angezogen werden kann... und das Alphacool Logo ist schief :freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77436&stc=1&d=1637424958
https://abload.de/img/3090fe_wateraqjw9.png

TobiWahnKenobi
2021-11-20, 18:00:47
ich finde ja diesen plexiglasschrott echt fürchterlich.


(..)

mfg
tobi

hq-hq
2021-11-20, 19:09:08
ich finde ja diesen plexiglasschrott echt fürchterlich.


(..)

mfg
tobi

ja schön ist es nicht, die LEDs schliess ich erst garnet an... kann man eh nicht sehen... funktioniert aber wie er soll

Sardaukar.nsn
2021-11-20, 20:26:35
ich finde ja diesen plexiglasschrott echt fürchterlich...

Kommt auch immer darauf an wie man sich auf das Design einlässt. Vertikal im Sichtfeld mit farbiger DP-Ultra Flüssigkeit sieht der Alphacool Block schon ganz anders aus. Ich habe bei mir die LEDs auf nur still auf weiß, der Rest kommt durch die Flüssigkeit. Mir gefällt es so am besten, aber das darf ja jeder halten wie er will.

https://imgur.com/a/C5lp5p2

hq-hq
2021-11-20, 22:32:28
Kommt auch immer darauf an wie man sich auf das Design einlässt. Vertikal im Sichtfeld mit farbiger DP-Ultra Flüssigkeit sieht der Alphacool Block schon ganz anders aus. Ich habe bei mir die LEDs auf nur still auf weiß, der Rest kommt durch die Flüssigkeit. Mir gefällt es so am besten, aber das darf ja jeder halten wie er will.

https://imgur.com/a/C5lp5p2

hm das sieht wirklich gut aus...

für meinen fensterlosen PC wars 2020 nur wichtig was lieferbar war, leider war der Lieferstatus fake und es kam erst Monate später während des Umzugs :freak:

aber funktioniert ganz gut, bei ~375Watt bleibt die GPU Temp auf 42°C
dachte der AlphaCool wäre nicht soo toll weil mir die Fläche mit den Kühllamellen so klein vorkommt, funzt aber

Raff
2021-11-20, 22:36:45
Ich find's immer wieder erstaunlich, was mit Wasser geht. Meine 3090 Pfundskerl-Edition ist mit Minimalspannung @ 1,7 GHz zwar auch schön leise, aber eben bei ~100 Watt weniger und ~25 °C mehr. Was packt deine Karte denn rockstable in UHD?

MfG
Raff

Daredevil
2021-11-21, 02:28:08
420w und 44°C ist echt lächerlich wenig. :D
Da kommen ja locker schon 50-100Mhz durch die Temp zustande, schon krass.

hq-hq
2021-11-21, 02:48:15
rockstabel in 4k waren bisher in Afterburner 1905@0.856V oder 1605@0.731V

in 4k läuft die sonst ja immer in das 400Watt Powerlimit, daran ändert jetzt das Wasser auch nix, damit kommt man nur grad so auf die 2GHz, also die aktuelle Curve macht dann 1995@0.900V insofern das Powerlimit reicht.

was fast sicher in den Tod führt sind Boosts >2.2GHz, schätze dafür braucht man die Bestückung der Strix bzgl. den Caps.

Die Powerwall sieht man ganz gut in z.B. TimeSpy Extreme, da kommen halt im Schnitt noch immer keine 2GHz an: https://www.3dmark.com/spy/24356446

The Ascent ist in 4k bislang nicht abgeschmiert:https://abload.de/thumb/3090wasser_theascent4q1j2n.png (https://abload.de/image.php?img=3090wasser_theascent4q1j2n.png)

Nicht stabil in Games sind z.B. 2100MHz@0,937V die in Unigine Superpos aber problemlos laufen, ich hab grad mal kurz gesehen was Kartenbesitzer mit 500Watt Powerlimit so einstellen, Curves die erst ab 1.050V hochgezogen werden, von so hohen Spannungen kann man bei der FE nur träumen, eigentlich muss ich um die 0.9V bleiben damit es noch irgendwie ins Powerlimit passt ^^ (das war bei der 1080Ti @375Watt und 2080Ti@unlimited halt ne ganz andere Geschichte)

-> und noch ein Nachtrag, die FE hat ohne Lüftergeräusche ein hörbares Spulenfiepen, nicht ganz so nice

Sardaukar.nsn
2021-11-21, 09:07:02
hm das sieht wirklich gut aus...

für meinen fensterlosen PC wars 2020 nur wichtig was lieferbar war, leider war der Lieferstatus fake und es kam erst Monate später während des Umzugs :freak:

aber funktioniert ganz gut, bei ~375Watt bleibt die GPU Temp auf 42°C
dachte der AlphaCool wäre nicht soo toll weil mir die Fläche mit den Kühllamellen so klein vorkommt, funzt aber

Das klingt doch alles ganz positiv. Mit dem Alphacool Block für meine Suprim bin ich auch sehr zufrieden. Der Wettbewerb ist eh dicht beisammen, bei der Vorgänger 1080ti hatte ich einen Bykski Kühler der auch prima war. Entscheidender bei dem Thema sind halt die Radiatoren bzw. die Wassertemperatur.

Takt und Durchschnittstemperatur finde ich gut so: https://www.3dmark.com/3dm/67078605

hq-hq
2021-11-21, 12:36:07
Das klingt doch alles ganz positiv. Mit dem Alphacool Block für meine Suprim bin ich auch sehr zufrieden. Der Wettbewerb ist eh dicht beisammen, bei der Vorgänger 1080ti hatte ich einen Bykski Kühler der auch prima war. Entscheidender bei dem Thema sind halt die Radiatoren bzw. die Wassertemperatur.

Takt und Durchschnittstemperatur finde ich gut so: https://www.3dmark.com/3dm/67078605

so hoch geht glaub ich keine 3090FE mit "Hausmitteln" und 400Watt Limit,

hab extra gelüftet und die Lüfter auf 90% gestellt, aber 2100MHz Durchschnittstakt im Time-Spy bleibt deutlich nicht erreicht, 30°C max GPU Temp haben da jetzt auch nicht geholfen...
https://abload.de/thumb/time_spy_gewaessertgdjb5.jpg (https://abload.de/image.php?img=time_spy_gewaessertgdjb5.jpg)https://www.3dmark.com/3dm/68643188?

die 2100MHz müsste bei 0.900V erreicht werden dann würden bei meiner die 400Watt grad so ausreichen

Kriegsgeier
2021-11-21, 13:22:46
habe meine 3090FE auch erfolgreich mit diesem Wasserkühler bestückt:
https://ezmodding.com/de/waterblocks/GPU/Nvidia/N-RTX3090FE-X-V2
Plus ein Ramkühler oben auf der BackPlate - sehr gut geklappt wie ich finde :)
Hier nachzulesen, mit vielen Boldern.
https://www.hardwareluxx.de/community/threads/erfahrungen-mit-wak%C3%BC-bl%C3%B6cken-f%C3%BCr-die-3090-founders-edition.1285363/page-2#post-28064370

Jetzt hätte ich wohl eher zu dieser Lösung gegriffen:

https://ezmodding.com/de/waterblocks/GPU/Nvidia/N-RTX3090FE-TC

Beides aus einem Guss

hq-hq
2021-11-21, 13:30:05
habe meine 3090FE auch erfolgreich mit diesem Wasserkühler bestückt:
https://ezmodding.com/de/waterblocks/GPU/Nvidia/N-RTX3090FE-X-V2
Plus ein Ramkühler oben auf der BackPlate - sehr gut geklappt wie ich finde :)
Hier nachzulesen, mit vielen Boldern.
https://www.hardwareluxx.de/community/threads/erfahrungen-mit-wak%C3%BC-bl%C3%B6cken-f%C3%BCr-die-3090-founders-edition.1285363/page-2#post-28064370

Wie heiss wird dein Speicher? hatte bisher 66°C maximal, hab mir extra ein paar Kühlkörper bestellt zum draufkleben, sieht so aus als wäre das nicht nötig, bislang

Sardaukar.nsn
2021-11-21, 13:36:21
Da hast du aber ziemlich kräftig gelüftet ;) Meine 27/4 Einstellung liegt bei 0,950v und knapp über 2ghz. Die behält er dort dann auch unter Last, ist so ein psycho Ding wegen der großen Zwei . Kannst ja mal testen ob das bei dir auch hinhaut. https://i.imgur.com/Y4hggw4.jpg

Maximale Performance erreiche ich mit 1.050v aber es ist nicht viel mehr und deutlich ineffizienter.

Emil_i_Lönneberga
2021-11-21, 14:24:49
Ich find's immer wieder erstaunlich, was mit Wasser geht. Meine 3090 Pfundskerl-Edition ist mit Minimalspannung @ 1,7 GHz zwar auch schön leise, aber eben bei ~100 Watt weniger und ~25 °C mehr. Was packt deine Karte denn rockstable in UHD?

MfG
Raff

Erstaunt? Glaube ich dir nicht :tongue:. Raff 2017:

https://youtu.be/sZNBkgTY4eQ?t=264

Minute 10:28: "... und arbeitet dabei leise und kühl. Das verwundert nicht, denn es ist eine wassergekühlte Grafikkarte. ..."

https://youtu.be/sZNBkgTY4eQ?t=605

rockstabel in 4k waren bisher in Afterburner 1905@0.856V oder 1605@0.731V

in 4k läuft die sonst ja immer in das 400Watt Powerlimit, daran ändert jetzt das Wasser auch nix, damit kommt man nur grad so auf die 2GHz, also die aktuelle Curve macht dann 1995@0.900V insofern das Powerlimit reicht.

was fast sicher in den Tod führt sind Boosts >2.2GHz, schätze dafür braucht man die Bestückung der Strix bzgl. den Caps.

Die Powerwall sieht man ganz gut in z.B. TimeSpy Extreme, da kommen halt im Schnitt noch immer keine 2GHz an: https://www.3dmark.com/spy/24356446

The Ascent ist in 4k bislang nicht abgeschmiert:https://abload.de/thumb/3090wasser_theascent4q1j2n.png (https://abload.de/image.php?img=3090wasser_theascent4q1j2n.png)

Nicht stabil in Games sind z.B. 2100MHz@0,937V die in Unigine Superpos aber problemlos laufen, ich hab grad mal kurz gesehen was Kartenbesitzer mit 500Watt Powerlimit so einstellen, Curves die erst ab 1.050V hochgezogen werden, von so hohen Spannungen kann man bei der FE nur träumen, eigentlich muss ich um die 0.9V bleiben damit es noch irgendwie ins Powerlimit passt ^^ (das war bei der 1080Ti @375Watt und 2080Ti@unlimited halt ne ganz andere Geschichte)

-> und noch ein Nachtrag, die FE hat ohne Lüftergeräusche ein hörbares Spulenfiepen, nicht ganz so nice

Interessanter wäre doch, was in 4K mit einem 500W PL und 2,2GHz gegenüber 400W und knapp 2.0GHz an FPS herumkommt.
Ich habe das dank einfachem Tuning über das MPT auch ausprobiert:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12834946&postcount=841

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12846339&postcount=854

Mich würde es nicht wundern, wenn der Effekt bei deiner 3090FE in 4K ähnlich überschaubar ausfallen würde. Und das trotz Wakü und niedrigen Temperaturen, das ist bei mir ja nicht anders.

Am Ende hättest du mit einem 500W Bios vermutlich im Bereich von 2,0-2,1GHz und 950mV einen festgetackerten Takt nach deinen Wünschen.
Persönlich habe ich mir damals nur bei der R9 Fury zugetraut, ein neues Bios zur Freischaltung einzusetzen, weil die Karte zur Sicherheit eine Bios Schalter am PCB für die beiden von Haus aus hinterlegten Bios Versionen mitbrachte.

https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/R9-Fury-Fiji-freischalten-Tool-1166757/

Ich weiß nicht, mit wie viel Nervenkitzel ein Bios Mod/Flash bei der 3090 verbunden ist.


habe meine 3090FE auch erfolgreich mit diesem Wasserkühler bestückt:
https://ezmodding.com/de/waterblocks/GPU/Nvidia/N-RTX3090FE-X-V2
Plus ein Ramkühler oben auf der BackPlate - sehr gut geklappt wie ich finde :)
Hier nachzulesen, mit vielen Boldern.
https://www.hardwareluxx.de/community/threads/erfahrungen-mit-wak%C3%BC-bl%C3%B6cken-f%C3%BCr-die-3090-founders-edition.1285363/page-2#post-28064370

Jetzt hätte ich wohl eher zu dieser Lösung gegriffen:

https://ezmodding.com/de/waterblocks/GPU/Nvidia/N-RTX3090FE-TC

Beides aus einem Guss

Zumindest können die Bykski Besitzer den Kühler auch noch nachträglich Nachrüsten und müssen nicht die vollen 200€ investieren. Als 3090 Besitzer würde ich diese Lösung allerdings auch klar vorziehen. Wenn es schonmal diese Möglichkeit einen wassergekühlten Backplate gibt, die Kosten mit +60€ überschaubar ausfallen, eine Wakü eh geplant ist und es aufgrund des GDDR6X auf der PCB Rückseite auch tatsächlich einen spürbareren zweistelligen Effekt hat, :up: dafür:

https://ezmodding.com/de/waterblocks/GPU/Backplate/B-3090TC-X

https://hkw39c30e-pic26.websiteonline.cn/upload/2_69so.jpg

https://hkw39c30e-pic26.websiteonline.cn/upload/1_8wy2.jpg

https://hkw39c30e-pic26.websiteonline.cn/upload/s4pt.jpg

https://hkw39c30e-pic26.websiteonline.cn/upload/y02a.jpg

Kriegsgeier
2021-11-22, 09:19:22
geil, die kann man für 70€ separat kaufen!? Wahnsinn, das nenne ich kundenfreundlich!
Vielleicht bestelle ich es mal, solange es noch lieferbar ist.

Wobei, 70€ + Versand... Naja. Meine RAM-Kühlerlösung funktioniert ja einwandfrei - und: never tuch the running system oder so ;)

Zu den Speichertemps: wo kann ich es anschauen?

hq-hq
2021-11-22, 12:21:29
HWiNFO 6.42 Adds Memory Junction Temperature Read Out on NVIDIA RTX 30-series; damit kannst du es dann über AfterBörner/RTSS einblenden lassen

wüsste aktuell (leider) keine Möglichkeit über SW das Powerlimit bei den FE/Reference Modellen auszuhebeln; bei EVGA gabs ja immerhin dickere Bios-Versionen

TurricanM3
2021-11-22, 12:29:57
Hab in den letzten Tagen einen kuriosen Fehler. In Windows wird mein Bild 1-2x täglich kurzzeitig dunkler. Es sieht so aus, als würde Gamma um 50% reduziert. Ist immer nur für 1-2 Sekunden. Vorhin blieb das, kaum bewege ich die Maus, direkt wieder normal. :confused:
Gibt es da einen bekannten Bug oder macht meine Karte die Grätsche (Strix)?

Raff
2021-11-22, 12:34:44
Da würde ich mir keine Sorgen machen, denn das klingt eher wie 'ne Windows-eigene Energieoption. Such da mal (automatische Regelung der Helligkeit) oder kill den entsprechenden Dienst ganz. ;)

MfG
Raff

hq-hq
2021-11-22, 12:38:58
Hab in den letzten Tagen einen kuriosen Fehler. In Windows wird mein Bild 1-2x täglich kurzzeitig dunkler. Es sieht so aus, als würde Gamma um 50% reduziert. Ist immer nur für 1-2 Sekunden. Vorhin blieb das, kaum bewege ich die Maus, direkt wieder normal. :confused:
Gibt es da einen bekannten Bug oder macht meine Karte die Grätsche (Strix)?

du hast nicht zufällig nen LG OLED TV angeschlossen ^^

TurricanM3
2021-11-22, 12:47:40
Danke Raff, ist wohl ein Treiberbug:

Known Issues
[YouTube]: The YouTube web site randomly displays extreme contrast/gamma while idle or during video playback.

hq-hq
2021-11-22, 21:23:50
unter Wasser hat die 3090FE ca. 91% mehr pure Raytracing Leistung als die gewässerte 2080Ti

zumindest nach dem 3Dmurks raytracing feature test https://www.3dmark.com/compare/dxr/2118/dxr/106182

Raff
2021-11-24, 11:34:44
Battlefield 2042 oder "Das erste Mal, dass gleich drei Radeon-Grafikkarten vor der RTX 3090 rangieren": https://www.pcgameshardware.de/Battlefield-2042-Spiel-73341/Specials/Benchmark-Test-BF2042-Anforderung-Bewertung-Review-1383714/4/ - sehet und weinet! :biggrin:

MfG
Raff

hq-hq
2021-11-24, 11:59:16
Battlefield 2042 oder "Das erste Mal, dass gleich drei Radeon-Grafikkarten vor der RTX 3090 rangieren": https://www.pcgameshardware.de/Battlefield-2042-Spiel-73341/Specials/Benchmark-Test-BF2042-Anforderung-Bewertung-Review-1383714/4/ - sehet und weinet! :biggrin:

MfG
Raff

hm testet ihr den 5800x noch, wenn der Kopierschutz nicht zu viele Beine stellt :freak: ?

brauche Argumente für einen Alder Lake zu Weihnachten

und zur 6900xt ... naja ob jetzt extra wegen 1080p NVidia die 3090Ti auflegt glaub ich auch nicht :biggrin:

der 3080 geht selbst mit RT der Speicher mal wieder nicht aus, wie erwartet

Raff
2021-11-24, 12:06:29
Jo, 10 GiByte reichen knapp für "mit allem und scharf" in Ultra HD. Das ist ja auch ein Spiel mit Nvidia-Kooperation (auch wenn die Zahlen das nicht unbedingt schreien). ;)

5800X ist derzeit nicht eingeplant, ein Update mit Alder Lake aber schon.

MfG
Raff

Kriegsgeier
2021-11-24, 13:16:25
und trotzdem ist mir meine 3090Fe lieber als 6900XT :)

Unserem Raff auch, oder?

Und allgemein zu den 24GB DDR6X bei der 3090: kann diese gar nicht so richtig einordnen. Eigentlich super Sache so viel Speicher zu haben. Wahrscheinlich reichen diese 24GB bei der Busanbindung von 384Bit min. noch bis Ende 2023 oder gar 2024?
Bleibt nur zu hoffen, dass NVIDIA durch neue Treiber die Amperes nicht so schnell "kastriert" ;)

Ach, wenn man doch noch den VRAM vermieten könnte :)
Hätte 8GB locker frei ;)

Raff
2021-11-24, 13:22:36
Yep, ich möchte weder auf die RT-Leistung noch auf die DLSS-Spielchen verzichten. Der Suff ist nur ein vorgeschobenes Argument, den kriegt man prima in den Griff. :)

MfG
Raff

aufkrawall
2021-11-24, 14:01:42
Man muss schon <0,9V und dafür auf ~1,8GHz mit Big Ampere gehen. Bros 3080 säuft bei 0,95V jedenfalls noch abartig, UV hat hier mit der 3060 prozentual besser geklappt. Wenn hier der X-Speicher nicht auch mal wieder sabotiert bez. Stabilität des IMCs.

Ultron
2021-11-25, 21:15:39
Yep, ich möchte weder auf die RT-Leistung noch auf die DLSS-Spielchen verzichten. Der Suff ist nur ein vorgeschobenes Argument, den kriegt man prima in den Griff. :)

MfG
Raff

Klar kriegt man es in den Griff, aber n Drittel bis 50% mehr Leistungsaufnahme ohne Mehrleistung ist schon heftig. Navi kann man extrem undervolten ohne große Leistungseinbußen, und dann brauchen die Karten nix mehr. Wenn ich das bei Ampere konsequent mach hab ich noch 1,8GHz oder so und dann ist quasi gar keine Leistung mehr da! ^^

Hat schon n Grund wieso ich von der 3090 auf die 6900 gewechselt bin =)

hq-hq
2021-11-25, 22:20:05
bei manchen Games wirkt es sich fies aus wenn man die Karte zu stark drosselt, hatte den Eindruck vor allem bei The Ascent

aufkrawall
2021-11-25, 22:25:36
Jo. 1% low bei Partikelwolken etc. in Heizer-Spielen. Schönwetter-Tests bringen nichts.

Raff
2021-11-25, 22:43:50
Davon merke ich hier mit 1,7 GHz @ 0,737 Volt nichts. Heizerspiele peaken auf 290-300 Watt, der Rest gammelt zwischen 200 und 250 Watt herum (alles in 4K). Lüfterdrehzahl entsprechend bei 800 bis 1.100 RPM.

MfG
Raff

VooDoo7mx
2021-11-25, 23:27:36
Klar kriegt man es in den Griff, aber n Drittel bis 50% mehr Leistungsaufnahme ohne Mehrleistung ist schon heftig. Navi kann man extrem undervolten ohne große Leistungseinbußen, und dann brauchen die Karten nix mehr. Wenn ich das bei Ampere konsequent mach hab ich noch 1,8GHz oder so und dann ist quasi gar keine Leistung mehr da! ^^

Hat schon n Grund wieso ich von der 3090 auf die 6900 gewechselt bin =)

Sorry das ist absoluter Quatsch was du erzählst. Viele 6900XT saufen auch locker 350W+ , das ist absolut vergleichbar zu einer 3080Ti oder 3090.
Und auch die dicken nVidia Brummer kann man problemlos undervolten und ordentlich Strom sparen ohne wirklich Leistung zu verlieren.
Das ist ein 0 Argument.

Das wäre genauso wenn man sagen würde der Porsche wäre ein sparsames Auto, da er ja nur 15l/100km statt der 16,7l des Ferraris braucht. :ucrazy:

Der Grund warum du auf ne 6900XT gewechselt hast, ist zu 100% der Spiel- oder Basteltrieb oder weil du mal was anderes ausprobieren wolltest. Das brauchst man sich nicht mit 0-Argumenten schön reden.

Oder mal von der Seite: Meine RTX 3080Ti braucht in Control mit allen Ultra und RT Ultra so um die 240W für 60fps in 3840x2160 in DLSS Q. Eingestellt per Hand 1710MHz@0,75V.
Jetzt die Frage: Wieviel W benötigt dazu eine 6900XT für die gleiche Bildqualität und Performance?
250W? 300W? 350W? 500W? 750W mit Flüssigstickstoff? Egal wie man es dreht für eine 6900XT ist es unmöglich so eine Performance und Bildqualität zu erreichen.

bei manchen Games wirkt es sich fies aus wenn man die Karte zu stark drosselt, hatte den Eindruck vor allem bei The Ascent

Ja das ist mir bei meiner 3080Ti und sogar bei meiner 3060 im Notebook aufgefallen. Wenn man z.B. nur noch 50% Powerlimit einstellt, funktioniert die Karte nicht mehr richtig und die Performance ist extrem schlecht.
Bei meinen Notebook bekommt die 3060 im Akkubetrieb nur noch 30W und da ist es ähnlich. Dann habe ich z.B. im Wildlife Extreme weniger als ein Viertel der Leistung als wenn die GPU bei 60-70W laufen würde.
Sehr merkwürdiges Verhalten.

Langlay
2021-11-26, 02:06:48
Oder mal von der Seite: Meine RTX 3080Ti braucht in Control mit allen Ultra und RT Ultra so um die 240W für 60fps in 3840x2160 in DLSS Q. Eingestellt per Hand 1710MHz@0,75V.
Jetzt die Frage: Wieviel W benötigt dazu eine 6900XT für die gleiche Bildqualität und Performance?
250W? 300W? 350W? 500W? 750W mit Flüssigstickstoff? Egal wie man es dreht für eine 6900XT ist es unmöglich so eine Performance und Bildqualität zu erreichen.

Mit RT ist die 3090 die bessere Karte und in 4K ist sie auch ohne RT etwas schneller als ne 6900XT. In 1440p ist ne 6900XT 2500MHz@1.05V und ne 3090 mit 1800Mhz@0.8V ungefähr gleich schnell bei etwas weniger Verbrauch auf der AMD Seite. So über die Breite.

Ich hab auch von der 3090 auf die 6900XT gewechselt, weil ich das AMD Treiber/Softwarepaket gewohnt bin und ich einfach keinen Bock hab 3 zusätzliche Programme zu nutzen für Zeug das AMD im Treiber kann.

TobiWahnKenobi
2021-11-26, 10:26:34
versuche mir grad vorzustellen, wie es wohl wäre auf DLSS, RT und 120 ETHMH/s zu verzichten..

geht nicht.


(..)

mfg
tobi

dargo
2021-11-26, 12:28:54
Stimmt... deswegen hast du eine PS5 weil das alles so unverzichtbar ist.

Raff
2021-11-26, 12:53:48
Das ist 'ne Ergänzung. Kämen die ganzen Exclusives ohne künstliche Verzögerung auf den PC, wäre das auch hinfällig. ;)

MfG
Raff

dargo
2021-11-26, 13:09:47
Also doch nicht so wichtig, immer wieder bemerkenswert diese Heuchlerei.

btw.
Bemerkenswert auch wie sich das Blatt gewendet hat im Bereich Mining. Früher gabs aus dem grünen Lager dumme Bemerkungen als noch Radeon dort die Nummer eins war. Heute ist es plötzlich wichtig für das grüne Lager. ;D

Edit:
Keine Sorge... ich habe bestens geschlafen. Dank Homeoffice diese Woche brauche ich erst um 06:55 aufstehen und um 07:00 gehts los. :)

Raff
2021-11-26, 13:13:20
Da hat aber wieder einer schlecht geschlafen. Ich übrigens auch. Dafür können die Leute hier aber nix. :uup:

MfG
Raff

hq-hq
2021-11-26, 21:32:53
hat man mit ner 2080Ti nicht so knapp 60MH/s bei ~150Watt erreichen können, glaub so schlecht waren die auch nicht

die 3090 bleibt halt die einzige Karte die nicht limitiert wird, von daher ist das schon ein Argument

... puh ob die inflatorische Anwendung von Homeoffice so gut ist ^_^

Daredevil
2021-11-26, 21:45:24
Der 1080ti Patch mit den besseren Timings kam aber Anfang/Mitte 2018, bis dahin waren die Vegas die Kings. ^^

Raff
2021-11-28, 01:14:51
Hach ja, die RTX 3090. Ich habe heute meinen neuen Rechner (mit vielen alten Teilen) zusammengesteckt und hatte gerade wieder so 'nen "Ampere-Moment". Also Flashbacks vom Launch vor einem guten Jahr. Zuvor lief die Kiste mit beherztem Tuning ein ganzes Battlefied-2042-Match – mit einer Radeon RX 6900 XT (Air). Dann wechselte ich auf die 3090, startete das erste Spiel - fump, Rechner aus. :ugly: Das Netzteil, ein passives 520-Watt-Knuffelchen von Seasonic, ist direkt in die Eisen gegangen. Schade, also muss ich das doch umbauen. Mit der ~300-Watt-Peak-Curve würde gewiss alles laufen, aber bisschen Headroom sollte da sein ...

MfG
Raff

hq-hq
2021-11-28, 09:08:23
:freak: naja... kam dann aber auch nicht überraschend, ein 650Watt für 350Watt Powerlimit sollte es schon sein

meine Curve sieht jetzt etwas gestaucht aus weil sich die Karte sonst immer zu Tode boostet (da er 3 bis selten ganze 6 Taktstufen davon abweicht und ab 2200MHz wirds kritisch)

https://abload.de/img/curve_123vakqi.jpg

für FarCry6 2160p auf Ultra + RT + HD Pack reichts dann grad so aus die 2100MHz bei Last zu halten... hab gestern ein paar Stunden gespielt, konnte aber die Blockade auf der ersten Insel nicht durchbrechen weil unendlich Soldaten erschienen sind :biggrin:
( Speicherbelegung geht bis 13Gigabyte )

https://abload.de/thumb/farcry6_clockrtkt0.jpg (https://abload.de/image.php?img=farcry6_clockrtkt0.jpg)

Kriegsgeier
2021-11-28, 09:12:13
Raff? Du spielst BF2042? Hoffentlich nur zwecks Tests.

Denn, solch ein Müll zu spielen ist schon fast ein Masochismus :)
Kein Serverwahl und und und....

BF4 ist da wesentlich sinnvoller - macht mit 1000 Mal mehr Spaß

Bis seit BF2 dabei

TobiWahnKenobi
2021-11-28, 09:36:49
zwei war toll.. bei drei wurde es weniger, vier habe ich kaum noch gespielt, fünf und eins nur noch aus gewohnheit gekauft und eigentlich gar nicht mehr gestartet, 2042 ist an mir komplett vorbeigezogen.. *gg* habs gestern im sonystore gesehen und mich gewundert, dass es schon raus ist ohne dass ich davon was mitgekriegt habe..

man wird halt älter.



(..)

mfg
tobi

Raff
2021-11-28, 10:55:35
Battlefield ist aufgrund der hohen (Aus)Last(ung) ein schöner Systemtest, ob grundsätzlich alles passt. Wenngleich ich gestehen muss, dass ich zwischendrin wirklich Spaß habe - da passieren einige "Only in Battlefield"-Momente -, ging's gestern echt nur darum, die Taktraten und Kühlung der Infrastruktur zu testen. Bis zur RTX 3090 alles für den Moment game-stable ... und jetzt tausche ich das NT mit dem aus dem Bald-Ex-PC.

MfG
Raff

TurricanM3
2021-12-02, 12:05:46
Sagt mal wurden die Karten überarbeitet von NV?
Ich hab Ende Oktober unerwartet eine 3080 Ti bestellen können, die jetzt erst ausgepackt.
Irgendwie sieht es aus, als ob da jemand dran war. Es sind Spuren/Macken (mit Edding?) retuschiert worden?

https://abload.de/img/20211202_115051m0ksg.jpg (https://abload.de/image.php?img=20211202_115051m0ksg.jpg)

https://abload.de/img/20211202_1149422pk5h.jpg (https://abload.de/image.php?img=20211202_1149422pk5h.jpg)

https://abload.de/img/20211202_114926x8j0z.jpg (https://abload.de/image.php?img=20211202_114926x8j0z.jpg)

:|
Karte war original versiegelt von NBB selbst.

Ex3cut3r
2021-12-02, 12:08:30
Interessant, aber was soll man daraus nun schließen?

Hat China etwa die Karte mal zum Minen benutzt, und dann einem Monat später gesagt, ach komm, wir packen die in die OVP und kleben es wieder zu, Briefmarke drauf, und ab in den Handel damit? :biggrin:

Raff
2021-12-02, 12:35:37
Händische Pad-Mod durch NV-Praktikanten? :ugly:

MfG
Raff

TurricanM3
2021-12-02, 12:36:57
Genau das dacht ich auch. Ich zerleg sie mal.

Kriegsgeier
2021-12-02, 12:39:53
Krass spannend. Halte uns auf dem Laufenden!
PS: wie du zerlegst sie mal?

Und warum hast du die so lange nicht ausgepackt wenn ich fragen darf?

Asaraki
2021-12-02, 12:44:02
Spannend :-) Kann dir bestätigen, dass die original nicht so daherkommen ;-) Scnr...

Ganz klar Padmod, sind genau die entsprechenden Stellen. Siehst du dann - falls du sie aufmachst - nochmal deutlicher auf der inneren Abdeckung, die ist ziemlich hart aufzukriegen. Praktisch unmöglich das spurlos zu machen.

TurricanM3
2021-12-02, 12:53:33
Hab das nur anhand eines pics im Netz verglichen, aber sieht normal aus:

https://abload.de/img/20211202_12440601jjf.jpg (https://abload.de/image.php?img=20211202_12440601jjf.jpg)

Laut HWL gibt es wohl auch Berichte anderer user deren Karte so aussieht. Schlechte Qualitätssicherung?
Finde das sehr eigenartig. NV vertuscht mit Edding Mängel?

Asaraki
2021-12-02, 13:00:22
Mich macht da dein letztes Bild aus dem ersten Post stutzig. Es gibt keinen Grund da einen Schaden zu haben, das ist ja nicht einmal "der äusserste Punkt".

Find ich strange, ist aber - wenn die Karte sonst ok ist - eigentlich ja egal. Aber irgendwie auch nicht ^^ Anderseits wäre es auch doof eine Ti auszusortieren nur weil da ein Kratzer ist - darf man dann aber einfach nicht so verkaufen...

Ex3cut3r
2021-12-02, 13:28:34
Man weiß es einfach nicht, vlt. mutwillige Zerstörung und damit ein Protest der unterbezahlten China Mitarbeiter? Ich meine, die wissen auch wie die Teuer die Dinger momentan sind, und die bekommen so einen Lohn, wo du halt nicht mal deine Familie richtig ernähren kannst.

Flyinglosi
2021-12-02, 13:40:51
@Ex3cut3r: In dem Fall wäre das ne echt zurück haltende Variante von Vandalismus :D

Eventuell wurde die Karte als Stichprobe ausgewählt und entsprechend zerlegt um den Assemblierungs-Prozess zu evaluieren. Oder sie fiel einfach beim finalen Test erstmal durch und konnte dann noch gefixt werden. Ich hab vor 15 Jahren mal Elektronik am Ende einer Serienfertigung repariert (eben alles, was durch die finale Ausgangskontrolle durchfiel). Da können schonmal ein paar Kratzer entstehen und nachträglich schaut da niemand mehr drüber ;)

TobiWahnKenobi
2021-12-02, 17:50:46
vielleicht jemand der bestellt, gebencht und dann zerlegt hat.. dann waren noch 12 tage von den 14 tagen FAG übrig und der hat das ding dann zurückgeschickt. der edding-mod wurde dann schlicht übersehen und das ding ging an den nächsten kunden.


(..)

mfg
tobi

BlacKi
2021-12-02, 17:52:51
Laut HWL gibt es wohl auch Berichte anderer user deren Karte so aussieht. Schlechte Qualitätssicherung?
Finde das sehr eigenartig. NV vertuscht mit Edding Mängel?
i can relate :weg:

TurricanM3
2021-12-02, 18:01:56
Die Packung hatte die unversehrten original NVidia Siegel. Das war kein Rückläufer. NBB hat die scheinbar so bekommen. Keine Ahnung was da passiert ist.
GPU Abdruck ist auch jungfräulich und original.

TobiWahnKenobi
2021-12-02, 18:03:47
das was ich gesagt habe. die hat jemand bei digital river bestellt und auch dahin zurückgeschickt. ein neuer karton ist jetzt nichts dramatisches für die.
und denen ist auch hupe ob sie dir, mir oder NBB das ding zuschicken..


(..)

mfg
tobi

TurricanM3
2021-12-02, 18:05:15
Du kriegst die Karten doch nur bei NBB?

Raff
2021-12-02, 18:05:46
Wobei es auch Meldungen über Täuschungen gibt - im Kontext Grafikkarten ist mir derzeit nix bekannt, aber bei Mainboards. Ich weiß leider nicht mehr, um was es genau ging, aber letztens war irgendwas mit einem "originalversiegelten" Motherboard eines Herstellers, der gar nicht versiegelt. :ugly: Ausgeschlossen ist nichts, leider.

MfG
Raff

TobiWahnKenobi
2021-12-02, 18:09:53
Du kriegst die Karten doch nur bei NBB?

das wäre mir neu. AFAIR habe ich sämtliche FEs und titans immer bei NV direkt bestellt (digital river).


(..)

mfg
tobi

TurricanM3
2021-12-02, 18:10:48
Früher war das mal so. NBB hat DR aber ersetzt.

Raff
2021-12-02, 18:14:37
Seit Herbst 2020, btw. :)

MfG
Raff

sChRaNzA
2021-12-02, 18:17:52
Seit Herbst 2020, btw. :)

MfG
Raff

Digital River ist halt... Cancer.

hq-hq
2021-12-02, 22:50:14
sieht wie ein Rückläufer/Garantiefall aus der überarbeitet wurde

wenn die Farbe an den Lamellen abgeht kannst du schauen ob wirklich Kratzer vorhanden sind

gedi
2021-12-02, 23:39:12
sieht wie ein Rückläufer/Garantiefall aus der überarbeitet wurde

wenn die Farbe an den Lamellen abgeht kannst du schauen ob wirklich Kratzer vorhanden sind

Wenn es tatsächlich versiegelt war, wohl annähernd ausgeschlossen. Einpacken und return to sender

r3ptil3
2021-12-03, 00:08:19
Bei der Verfügbarkeit, wird vielleicht Nvidia informiert worden sein über ein "Problem", die dann diese Art und Weise der "Korrekturmassnahme" akzeptiert haben, da jeder eine solche Karte selbst mit stark verkratztem Kühler kaufen würde zur UVP.

Slipknot79
2021-12-03, 00:46:46
Karte war original versiegelt von NBB selbst.


Lass mal die Karte rüberwachsen, ich versiegel sie. Ist genauso legit wie wenn NBB das Teil versiegelt. (y)

TurricanM3
2021-12-03, 11:17:50
Sie war von NBB (also keinen dritten) und noch original versiegelt durch NV. Hoffe das ist mal klar jetzt. ^^

hq-hq
2021-12-03, 14:46:24
Sie war von NBB (also keinen dritten) und noch original versiegelt durch NV. Hoffe das ist mal klar jetzt. ^^

aber es gibt doch Rückläufer die dann an NV zurückgehen, ist ja egal, sind doch 3 Jahre NVidia Garantie drauf und der original Kühler muss ja nicht draufbleiben

wenn du sie net magst findet sich leicht ein Käufer :freak:

aufkrawall
2021-12-03, 14:52:04
Also, solche Karten konnte man zumindest vor der Durchseuchung des Martkes als "refurbished" mit Preisnachlass kaufen. Ich find das schon unverschämt, wenn selbst Nvidia direkt so was als reguläre Neuware verkauft.
Wundert mich allerdings nicht sonderlich, denn irgendwas ist mit den FEs doch immer. Würd ich seit den explodierenden 2080 Tis niemals nie mehr kaufen, 0 Vertrauen.

Gouvernator
2021-12-03, 19:37:04
Ihr sollt die Karte vielleicht erst undervolten, bevor ihr anfangt zu meckern. Villeicht hat man im Silikon-Lotterie gewonnen.

Ich merke gerade bei meiner mobile RTX3080 wie gut die RTX3090 selektiert wird. Die RTX3090 schafft locker 1900Mhz mit 0.912v. Die mobile 3080 Krüppel macht 1700Mhz gerade so mit 0.775v. Die 3090 geht gerade im unteren Voltbereich viel besser.

gedi
2021-12-03, 22:44:02
:|Ihr sollt die Karte vielleicht erst undervolten, bevor ihr anfangt zu meckern. Villeicht hat man im Silikon-Lotterie gewonnen.

Ich merke gerade bei meiner mobile RTX3080 wie gut die RTX3090 selektiert wird. Die RTX3090 schafft locker 1900Mhz mit 0.912v. Die mobile 3080 Krüppel macht 1700Mhz gerade so mit 0.775v. Die 3090 geht gerade im unteren Voltbereich viel besser.


:confused::freak::confused::freak::confused::freak::confused::confused::freak::c onfused:

hq-hq
2021-12-04, 08:34:32
hatte so den Eindruck, dass gute 3090 Karten für 1900MHz so 0.843-0,862V brauchen, mit 0.912V gehts dann eher so auf ~2000MHz; so gesehen sind 0.775V und 1700MHz wenn man von der standard Curve ausgeht eigentlich auch net schlecht

wenn ich mich recht erinnere waren 1635MHz bei 0.731-0.737V bei meiner noch i.O. ... hab mal nachgesehen, also Metro Exodus lief mit 3090FE @0.737V @1680/9752MHz @~260Watt mit Peak bis zu 292Watt - glaub aber für Cyberpunk hab ich auf 1635MHz gestellt

Kriegsgeier
2021-12-04, 08:53:52
ich frage mich, warum der Küfer eine teure RTX kauft und dann sehr lange unausgepackt liegen lässt...

Das macht mich stutzig. Will natürlich nichts unterstellen, damit es klar ist!

Gouvernator
2021-12-04, 09:02:20
hatte so den Eindruck, dass gute 3090 Karten für 1900MHz so 0.843-0,862V brauchen, mit 0.912V gehts dann eher so auf ~2000MHz; so gesehen sind 0.775V und 1700MHz wenn man von der standard Curve ausgeht eigentlich auch net schlecht

wenn ich mich recht erinnere waren 1635MHz bei 0.731-0.737V bei meiner noch i.O.
Bei meiner 3090 laufe ich wegen vollem VRAM in 8K ständig ins Power Limit, dadurch konnte ich nie 2000Mhz austesten. Es war unter diesen Umständen viel wichtiger den gegebenen Takt zu halten.
Eine RTX3080 Mobile auf 100W hält undervoltet 1400mhz mit 0.7V in Furmark. Da versteht man erst was für ein Biest eine RTX3090 eigentlich ist. Mir vergeht deswegen auch gerade die Lust an Lovelace wegen angeblichen 500W+ für eine GPU. ;D

hq-hq
2021-12-04, 09:08:07
Bei meiner 3090 laufe ich wegen vollem VRAM in 8K ständig ins Power Limit, dadurch konnte ich nie 2000Mhz austesten. Es war unter diesen Umständen viel wichtiger den gegebenen Takt zu halten.
Eine RTX3080 Mobile auf 100W hält undervoltet 1400mhz mit 0.7V in Furmark. Da versteht man erst was für ein Biest eine RTX3090 eigentlich ist. Mir vergeht deswegen auch gerade die Lust an Lovelace wegen angeblichen 500W+ für eine GPU. ;D

ja richtig, oft sind die 400Watt zu wenig um 2000MHz zu halten, hab bis jetzt nur FarCry6 gespielt wo man auch 2100MHz halten kann (in 2160p)

mit 400Watt hängt man meistens bei 1900-2000MHz, bei 350Watt 1800-1900MHz

Gouvernator
2021-12-04, 09:18:26
Das sind Zahlen bei denen man sich fragen muss ob das einem wert ist in 4K120Hz+ zu zocken. Ich stecke in diesem Dilemma schon länger fest. Einerseits will ich unbeschwert COD TDM spielen, aber andererseits kostet mich eine Stunde mit dem großen TV und der Grafikpower bei potenziell steigendem Strompreis 30 Cent und eventuell mehr.

Flyinglosi
2021-12-04, 09:58:43
Einerseits will ich unbeschwert COD TDM spielen, aber andererseits kostet mich eine Stunde mit dem großen TV und der Grafikpower bei potenziell steigendem Strompreis 30 Cent und eventuell mehr.
Ja genau, der Stromverbrauch ist das eigentliche Problem ;)

Zum aktuellen „Straßenpreis“ einer 3080 (ca. 1500€) kann man bei 30Cent/h ja grade mal 200 Tage durchgehend zocken ;D

BlacKi
2021-12-04, 10:43:46
Das sind Zahlen bei denen man sich fragen muss ob das einem wert ist in 4K120Hz+ zu zocken. Ich stecke in diesem Dilemma schon länger fest. Einerseits will ich unbeschwert COD TDM spielen, aber andererseits kostet mich eine Stunde mit dem großen TV und der Grafikpower bei potenziell steigendem Strompreis 30 Cent und eventuell mehr.ok dein tv braucht 500w average?


Bei meiner 3090 laufe ich wegen vollem VRAM in 8K ständig ins Power Limit, dadurch konnte ich nie 2000Mhz austesten. Es war unter diesen Umständen viel wichtiger den gegebenen Takt zu halten.
Eine RTX3080 Mobile auf 100W hält undervoltet 1400mhz mit 0.7V in Furmark. Da versteht man erst was für ein Biest eine RTX3090 eigentlich ist. Mir vergeht deswegen auch gerade die Lust an Lovelace wegen angeblichen 500W+ für eine GPU. wieso wegen vollem vram?

ja richtig, oft sind die 400Watt zu wenig um 2000MHz zu halten, hab bis jetzt nur FarCry6 gespielt wo man auch 2100MHz halten kann (in 2160p)

mit 400Watt hängt man meistens bei 1900-2000MHz, bei 350Watt 1800-1900MHz wobei wasser strom spart und dadurch auch ein höherer takt anliegt und durch die höhere temperatur auch mehr voltage benötigt wird.

hq-hq
2021-12-04, 11:20:05
wobei wasser strom spart und dadurch auch ein höherer takt anliegt und durch die höhere temperatur auch mehr voltage benötigt wird.

Die lief ja 1 Jahr mit Luftkühlung. Mit Wasser kann ich halt dauerhaft 400 Watt verbraten ohne Probleme mit dem DDR4 b-die zu bekommen. Wenn Lautstärke keine Rolle spielt kommt man mit Luft fast genausoweit, nur der Gddr ram wird extrem heiss

Gouvernator
2021-12-04, 11:36:20
ok dein tv braucht 500w average?


65" 8K 370W. Ein 75" wäre schon bei 500W. Lovelace plus 75" 8K = über 1kW. Jaa... das ist schon teuer. Für 16K DSR Auflösung würde ich mir das noch antun. Aber für "nur" 8K lohnt sich das nicht wirklich.

TurricanM3
2021-12-04, 12:03:14
ich frage mich, warum der Küfer eine teure RTX kauft und dann sehr lange unausgepackt liegen lässt...

Das macht mich stutzig. Will natürlich nichts unterstellen, damit es klar ist!

Ich verstehe deine Anspielungen nicht. :confused:
Inwiefern sollte das jemanden "stutzig" machen?
Ich habe bereits eine Karte für mich und die weiteren unerwartet bestellen können. Aus dem gleichen Zeitraum habe ich auch noch 2x 3090 und die auch noch nicht ausgepackt. Hatte im Verfügbarkeitsthread berichtet das ich die ganz normal bestellen konnte und die NBB "Prüfung" für die Katz ist.

Gecko_0815
2021-12-04, 12:38:48
Meine 3090 FE läuft in Cyberpunk bei 0,837 / 1800 / 300 W bei Temperaturen 67 Chip und 92 Speicher bei 1100 U/min der Lüfter. Wenn ich durch mehr Spannung mehr Leistung verbrate gehen die Lüfter schneller, die Temperaturen bleiben ähnlich.
Sind 25 K Delta Chip / Speicher normal / gut? Oder würden neue Pads was verbessern?

hq-hq
2021-12-04, 15:55:53
Meine 3090 FE läuft in Cyberpunk bei 0,837 / 1800 / 300 W bei Temperaturen 67 Chip und 92 Speicher bei 1100 U/min der Lüfter. Wenn ich durch mehr Spannung mehr Leistung verbrate gehen die Lüfter schneller, die Temperaturen bleiben ähnlich.
Sind 25 K Delta Chip / Speicher normal / gut? Oder würden neue Pads was verbessern?

das ist normal, meine 3090FE

mit Luft: https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77577&stc=1&d=1638629523
Wasser: https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77578&stc=1&d=1638629746
(neuen Pads, die sind aber dicker und der Abstand zur Alphacool Backplate ist auch größer)

nach ca. einem Jahr haben die NVidia Pads schon ganz schön abgeölt (Rückseite), ekliges Zeug bekommt man nur schwer wieder weg
https://abload.de/thumb/3090fe_backside48kp7.jpg (https://abload.de/image.php?img=3090fe_backside48kp7.jpg)

auf die FE haben einige auf der Backplate Kühlkörper befestigt, hatte das mal ausprobiert, ein paar °C hat es gebracht, da gabs im Thread ein paar Bilder von professionelleren Lösungen wenn ich mich net irre
für die Alphacool Backplate warte ich noch auf einen Fischer Elektronik SK 81 100 SA, 4-6°C könnte das bringen

Raff
2021-12-04, 22:52:42
Ich habe zwar kein Log von einer langen Session, aber nach der Pad-Mod (mehr und bessere Pads) habe ich mal eine Beispielmessung mit fetter Rückseitenkühlung gemacht. Letztere nimmt mittels Wärmeleitpads Kontakt zur Backplate auf (also im Grunde sehr ineffizient) und wird von einem Seitenwandlüfter aktiv belüftet -> weniger als 20 °C Delta zwischen VRAM und GPU. :biggrin:

MfG
Raff

Gecko_0815
2021-12-05, 15:58:14
Danke für die Rückmeldungen. Für eventuelle 5 K nehme ich das Ding jetzt nicht auseinander. Ich habe den Airflow im Gehäuse so umgeleitet, das alles durch die Graka muss. Damit habe selbst 400 W gut im Griff. Wobei mich Wasser mit aktiver Backplate schon reizen würde. :smile:

hq-hq
2021-12-05, 16:03:42
theoretisch kann man auch einfach irgend einen RAM Kühler wie den hier https://www.mindfactory.de/product_info.php/Alphacool-D-RAM-Cooler-X4-Universal-Acryl-Black-Nickel_1128630.html oder zwei davon auf die Backplate kleben, z.B. mit Poxipol (also für WaKü Karten um die Backplate zu optimieren).

hq-hq
2021-12-07, 21:39:03
okay, bringt so ca. 6°C mit dem SK 81 100 SA auf der Backplate, angeklebt mit >>EC360® Tape beidseitig selbstklebende Wärmeleitfolie 3W/mK<<, gibts praktischerweise schon in 100x100 zu kaufen, damit hab ich es jetzt auf die Alphacool Backplate angeklebt... naja optisch auch kein Highlight

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77625&stc=1&d=1638909391

vorher:https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77578&d=1638629746


nacher:https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77624&stc=1&d=1638909274


kommt auch auf die Anwendung/Game an, manches heizt dem RAM mehr ein... wahrscheinlich bringts am Ende nur so 4°C, aber in Unkosten hab ich mich auch nicht gestürzt, insgesamt 12,5€
btw, der RAM läuft auf 10750MHz (Stock 9750MHz)

Gecko_0815
2021-12-08, 09:50:09
Bei mir liegen auch 5 kleine Kühler lose auf der Backplate. Wichtiger ist aber rechts die Aldi Lachsverpackung, die sicher stellt, das der gesamte Airflow durch die Graka geht.

Lehdro
2021-12-08, 14:52:19
Bei mir liegen auch 5 kleine Kühler lose auf der Backplate. Wichtiger ist aber rechts die Aldi Lachsverpackung, die sicher stellt, das der gesamte Airflow durch die Graka geht.
Cleveres Ghettomodding, gefällt.

FastAndy
2021-12-08, 20:21:02
Cleveres Ghettomodding, gefällt.
unnötiger foren quatsch, gefällt nicht :tongue:

Gynoug MD
2021-12-08, 22:24:51
Was der 3090 gefällt, sind auf jeden Fall Bodenlüfter.

Raff
2021-12-08, 23:34:51
Du meinst 'nen Durchzug von oben nach unten? Klaro, beschleunigte Konvektion. :D

MfG
Raff

Edgecrusher86
2021-12-09, 09:56:46
Meine 3090 lässt sich dann ähnlich undervolten wie die genannte 3080 Mobile - also nicht alle GA102er sind Bombe ["Budget-AIB" Modelle haben oft ein schlechteres Binning, als FE oder teurere OC-Karten; ich hörte mal von einer MSI 3080 Ventus, die lief nicht einmal Stock stabil!] - aber egal, ich spiele eh zu 99% mit sub 1400 MHz bei ~ 731-742mV.
Das langt ja für UWQHD + fps Cap [gerade mit DLSS Q/B] - meistens bei deutlich unter 200W; oft gar unter 160W TGP; zumindest das, was ich die letzte Zeit so spiele; oft läuft die Karte dann im P3-State mit 5002 MHz G6X, schwankt dann je nach Load auch in den P2-State [9502 MHz]. :D

Also solche Aussagen wie mit 900mV hält man mit einer RTX 3090 [FE] 2000 MHz [bei 400W] unter Luft [4K] sind mit Vorsicht zu genießen und nicht allgemein gültig - es können zum Beispiel auch "nur" 1900 MHz herum sein bei 390W [GB Gaming OC BIOS], wenn die ASIC nicht die beste Güte hat.
Dann kommt es natürlich auch immer auf die Anwendung drauf an => spielt mal Q2 RTX bei maximierten Settings und am Tag mit Sonnenschein (Erde) - wenn ihr dann mit den Top-Karten noch 1800 MHz bei 400W unter Luft halten könnt, ist das schon Bombe - säuft wie ein Loch das Spiel.

Meine fünf Profile - unter anderem auch mit dem Chernobylite und RDR2 - Benchmark auf Stabilität getestet - gerade Level 2 bei Cherno ist schon empfindlich:

1890 MHz @ 900mV
1785 MHz @ 830mV
1650 MHz @ 768mV
1545 MHz @ 731mV
1350 MHz @ 731mV

Das Ganze variiert natürlich auch immer etwas von Spiel zu Spiel - das letzte Profil bewegt sich dann zwischen 1335 MHz bis 1395 MHz - die VCore schwankt dann auch wie gesagt zwischen 731mV - 737mV - 742mV.

Die Gigabyte Gaming OC eines Bekannten zum Beispiel geht deutlich besser - er fährt glaube ich 1830 MHz @ 775mV als 24/7 Profil unter 4K - mit Luft.

Raff
2021-12-10, 12:28:07
Battlefield 2042 oder "Das erste Mal, dass gleich drei Radeon-Grafikkarten vor der RTX 3090 rangieren": https://www.pcgameshardware.de/Battlefield-2042-Spiel-73341/Specials/Benchmark-Test-BF2042-Anforderung-Bewertung-Review-1383714/4/ - sehet und weinet! :biggrin:

Es geht munter weiter, auch in Halo Infinite saugt Ampere, erst in Ultra HD nähern wir uns gewohnten Platzierungen: https://www.pcgameshardware.de/Halo-Infinite-Spiel-61745/Specials/PC-Benchmarks-Technical-Review-1384820/3/#a1

MfG
Raff

Troyan
2021-12-10, 12:38:44
Und? Was soll mir das sagen? Technisch güllig, läuft technisch scheiße?

Spiel hat weder DLSS noch Raytracing. Also ist es komplett veraltet. Aber hey, AMD User können mit 100 FPS in 1080p zocken.

/edit: Computerbase hat Maximum 6900XT und 3090 getestet. Bei selber Leistung ist Ampere effizienter: https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/3/#diagramm-performancerating-avg-fps-3840-2160

Sieht man mal wieder, wie schlecht RDNA2 ist.

hq-hq
2021-12-10, 13:05:25
im Artikel steht ja, dass es technisch ein wenig abgespeckt ist und mit AMD als Partner kommen die entscheidenden Patches vielleicht erst etwas später, um die Argumente für die Zusammenarbeit zu erhalten

RDNA2 hat einfach auch ein paar Stärken zu zeigen

Schnoesel
2021-12-10, 13:07:49
Mir gefällt RDNA2 besser als Ampere. Einzig die 3090 zu Mondpreisen ist gelungend er Rest ist Dank deren Produktpolitik maximal kompromissbehaftet. Das macht AMD eindeutig besser.

Troyan
2021-12-10, 13:12:33
RDNA2 hat einfach auch ein paar Stärken zu zeigen

Na, RDNA2 ist technisch rückständig. Das ist okay, wenn man eben technisch rückständige Spiele zockt.

Was man in Battlefield 2042 oder auch Halo sieht, sind komplett unoptimierte PC-Ports. 100 FPS in 1080p in so einem Spiel? Lächerlich. Kann Guardians in den offenen Welten mit Raytracing@Ultra mit über 100 FPS in 1080p zocken.

DX12 sollte mal das CPU-Limit aufheben. Hat bestens funktioniert.

Daredevil
2021-12-10, 13:36:26
Es geht munter weiter, auch in Halo Infinite saugt Ampere, erst in Ultra HD nähern wir uns gewohnten Platzierungen: https://www.pcgameshardware.de/Halo-Infinite-Spiel-61745/Specials/PC-Benchmarks-Technical-Review-1384820/3/#a1

MfG
Raff
Liegts vorher einfach an dem "Overhead", welchen ihr weiter unten gezeigt hattet? In solchen Situationen macht AMD echt ne gute Figur bzw. Nvidia eine schlechte.
Die 3090 fühlt sich in manchen Benchmarks wie ein Panzer an und die 6900xt wie ein Motorrad. Die 3090 hat mehr "Durchschlagskraft" in 4K, in niedrigeren Auflösungen ist das Motorrad aber wendiger. :D

Raff
2021-12-10, 14:24:29
Die 3090 fühlt sich in manchen Benchmarks wie ein Panzer an und die 6900xt wie ein Motorrad. Die 3090 hat mehr "Durchschlagskraft" in 4K, in niedrigeren Auflösungen ist das Motorrad aber wendiger. :D

Das ist die wohl beste Analogie bisher. :up: Oder wie wär's mit "Keule vs. Degen"?

Was man in Battlefield 2042 oder auch Halo sieht, sind komplett unoptimierte PC-Ports. 100 FPS in 1080p in so einem Spiel? Lächerlich. Kann Guardians in den offenen Welten mit Raytracing@Ultra mit über 100 FPS in 1080p zocken.

Guardians ist, so sehr das Spiel auch regelt, nie richtig offen. Das ist ein manchmal verbreiterter Schlauch, aber weit weg von Far Cry 6 (Open World) oder Halo 6 (superbreiter Schlauch).

MfG
Raff

Seth
2021-12-10, 14:35:12
DX12 nvidia sollte mal das CPU-Limit aufheben. Hat bei AMD bestens funktioniert.
Habe das mal für dich korrigiert.
Und wen man Effizienz vergleicht, dann Ref vs Ref und nicht irgend welche unterschiedlich ans maximum geprügelte Customs und da sieht die Sache ziemlich schlecht für die 3090 aus. :rolleyes:

hq-hq
2021-12-10, 15:12:50
bzgl. Overhead, in DX11 wars noch umgedreht, ka warum NVidia die Stärke verloren hat ^_^, ist anscheinend schwieriger geworden Ampere zu füttern

und klar kann man auch die besten Customs miteinander vergleichen, find ich super

aufkrawall
2021-12-10, 15:20:24
Ich würd da eher allgemeiner von Auslastungsproblemen sprechen. Bei D3D11 AMD war/ist das Problem, dass die CPU die GPU verhungern lässt. Das muss bei Ampere aber nicht so sein bzw. ist es sehr häufig nicht, da dreht die GPU aus anderen Gründen Däumchen.
Ampere ist einfach die schlechteste NV-Arch seit Fermi, viele "Reviewer" waren komplett auf NVs Marketing-BS reingefallen. Aber gut, andere Spiele laufen natürlich trotzdem gut + ggf. andere Vorteile. Mit Müll für NV-Verhältnisse, lässt es sich dann häufig doch ganz gut aushalten.

Daredevil
2021-12-10, 15:34:46
Man kann natürlich in der Hinsicht von einem "Problem" reden, aber vielleicht ist 4K+ auch einfach genau das, worauf man sich fokussieren sollte, wenn heutige Konsolen schon sowas anbieten "wollen".
Und vielleicht ist Nvidia in 4k auch nicht schneller, sondern AMDs Cache ist eben nicht für diese Auflösung hin optimiert.
Sind ja im Grunde zwei Ansätze und jeden kann man sicherlich fahren, da gibts ja kein richtig oder Falsch, nur die richtige GPU für sein Spiel bzw. seine Auflösung.
Wenn Ampere der Grundstein für richtiges "8K Gaming" ist, dann kann es einem auch egal sein, wie die Kiste in FullHD performt.

Turing verhält sich da auch ähnlich, die 2080ti ist auch ein "wenig schneller" als die 6900xt in 4K vergleichen zu FullHD. ( Die 6900xt ist natürlich overall viel schneller, ist ja klar )
Und Turing wurde auch oft von ner VII weggeputzt in Doom ect., wenn viel FPS dargestellt wurden.
Aber mei, irgendeinen Tod muss man halt sterben. Ampere hat halt auch keine State of the Art Fertigung, Turing hatte diese auch nicht.

Lurtz
2021-12-10, 15:58:43
Turing schneidet da aber auch nicht viel besser ab, oder? :uponder:

Lurtz
2021-12-10, 16:03:29
Man kann natürlich in der Hinsicht von einem "Problem" reden, aber vielleicht ist 4K+ auch einfach genau das, worauf man sich fokussieren sollte, wenn heutige Konsolen schon sowas anbieten "wollen".

Kaum ein Konsolenspiel erreicht native 4k, schon gar nicht im AAA-Bereich. Und erst recht nicht in zeitgemäßen FPS-Bereichen.

Troyan
2021-12-10, 16:21:24
Guardians ist, so sehr das Spiel auch regelt, nie richtig offen. Das ist ein manchmal verbreiterter Schlauch, aber weit weg von Far Cry 6 (Open World) oder Halo 6 (superbreiter Schlauch).

MfG
Raff

Die offenen Welten sind genauso "Open World". Nur weil man in Halo frei laufen kann, macht es kein Unterschied für die GPU.
Du willst mir also erzählen, dass so eine Grafik 100 FPS in 1080p rechtfertigt: https://youtu.be/U-gHws0c2W8?t=197

TobiWahnKenobi
2021-12-10, 16:34:23
bei halo würde es mich wundern, wenn das überhaupt für mehr als 60fps designt wurde. solange ich die reihe gespielt habe (2002 @xbox classic) war das immer ein langsamer gamepad-shooter.

atm leben wir in einer zeit, wo die spielepublisher, denen was an ihrer PC-kundschaft liegt, umdenken sollten. eher in die richtung gehen, die verbreiteten möglichkeiten auszureizen, statt durch hochgelegte latten eine aufrüstspirale am leben zu erhalten, die seit corona im grunde schon für 9 von 10 spielern obsolet ist.


(..)

mfg
tobi

Daredevil
2021-12-11, 01:50:37
Kaum ein Konsolenspiel erreicht native 4k, schon gar nicht im AAA-Bereich. Und erst recht nicht in zeitgemäßen FPS-Bereichen.


Deswegen ja das "wollen".
Und solange es nen 30fps Mode in einem 2021 Spiel gibt, ist dieser FPS Bereich zeitgemäß. :(
Es tut mir in den Augen weg, aber das ist wohl die Realität.

Edit:
Ich finde Halo auch echt nicht super hübsch. Destiny macht da meiner Meinung nach mehr her und das "Gunplay" ist hier auch deutlich spaßiger.
Aber das ist ja ein Grabenkampf zwischen den beiden Titeln. ^^

Colin MacLaren
2021-12-15, 07:05:53
Bei mir liegen auch 5 kleine Kühler lose auf der Backplate. Wichtiger ist aber rechts die Aldi Lachsverpackung, die sicher stellt, das der gesamte Airflow durch die Graka geht.

Ich mache das lieber so :freak:

Böd ist halt, dass der Radiator und der Lüfter auf der Backüplate quasi in gegenteilige Richtungen blasen.

TurricanM3
2021-12-15, 19:37:39
Ich hab heut mal die zwei Karten ausgepackt die ich noch hatte. Also irgendwas ist da nicht richtig bei NV. Man darf da nicht pingelig sein. Beide haben wieder Macken, schief bzw. zu nah gepresste Lamellen oder die Beschichtung ist fehlerhaft. Man sieht Luft darunter.

Direkt nachm auspacken (nichts angepackt):

https://abload.de/img/20211215_184159uujo8.jpg (https://abload.de/image.php?img=20211215_184159uujo8.jpg)

Einmal mit dem Fingernagel drüber:

https://abload.de/img/20211215_185025wijv6.jpg (https://abload.de/image.php?img=20211215_185025wijv6.jpg)

Blättert der Lack ab. Die Karte hat mehrere solcher Stellen.

Hier oben die unsaubere Beschichtung (die man vermutlich ebenso abkratzen kann, da Lufteinschlüsse), unten schaut irgendein Klebepad halb heraus:

https://abload.de/img/20211215_190008l4j8n.jpg (https://abload.de/image.php?img=20211215_190008l4j8n.jpg)

Lamellen Spaltmaße wie bei nem Unfallwagen:

https://abload.de/img/20211215_19164546kb8.jpg (https://abload.de/image.php?img=20211215_19164546kb8.jpg)

Eine hat außen noch eine kleine Macke. Bild spar ich mir.

Die obere Karte ist schwarz matt (das Finish sieht aus wie...), die untere glänzend:

https://abload.de/img/20211215_19303110j9s.jpg (https://abload.de/image.php?img=20211215_19303110j9s.jpg)

Verschiedene Revisionen sind das auch. Bei der einen ist die Umrandung vom Stromstecker auf's PCB gedruckt:

https://abload.de/img/20211215_191149qzk04.jpg (https://abload.de/image.php?img=20211215_191149qzk04.jpg)

Bei der unteren Karte ist der Schriftzug nicht ganz sauber gefertigt wie ihr sehen könnt (besonders beim F / O und R). Wird die meisten 0 stören, ich weiß. Darf man aber mal drauf hinweisen.
Übrigens neu gekauft (ich meine Ende Oktober), original verpackt von NV mit ungebrochenem Siegel (von NBB, keinen dritten).

Atma
2021-12-16, 02:09:34
In Zeiten von Chipmangel und stockender Logistik heißt es eben auch bei der 3090: Alles muss raus! ;) :(

Kriegsgeier
2021-12-16, 06:40:06
Sorry, wenn ich aufdringlich wirke: aber warum kauft man solche Karten und lässt es eingepackt so lange liegen?!

Verstehe ich überhaupt nicht!

Wäre es möglich den Grund dazu zu erfahren?

Wirklich nicht persönlich gemeint, aber: wenn ich solche Karten kaufe, dann packe ich es auch am nächsten Tag auch aus!

hq-hq
2021-12-16, 07:47:32
Naja wenn du noch nicht weisst was du mit den Karten vorhast ist der Zustand OVP erstmal
wünschenswert, ich hätte die wohl auch zugelassen wenn ich eine schon im Einsatz hab.

Anscheinend hat NVidia auch einen Mangel bei den Kühlkörpern und wenn regelmäßig
Ausschussware verbaut wird rechnen die offenbar damit, dass es eh bei Minern landet
denen es egal ist.

sChRaNzA
2021-12-16, 08:20:01
Nicht nur den Minern. Vielen würden diese (optischen) Mängel auch meilenweit am Allerwertesten vorbei gehen, solange sie überhaupt eine bekommen können.

TurricanM3
2021-12-18, 12:19:34
Hab die eine Karte aus Neugierde mal zerlegt. Ich dachte das wäre irgendwas refurbishtes, sieht aber jungfräulich aus.

https://abload.de/img/wtfgujxx.jpg (https://abload.de/image.php?img=wtfgujxx.jpg)

Ein Lüfter der anderen eiert übrigens wie sonstwas.

hq-hq
2021-12-18, 14:19:17
wennse laufen, aber bei dem Preis erwarte ich mehr als Gainward Qualität von 2005 - auf den Kühler bezogen

hab mir mal das RAM OC bei der 3090FE angesehen, da die Temperaturen mit Wasserkühlung deutlich niedriger sind, heute bis 60°C, hab ich den Regler im Afterburner mal auf Anschlag geschoben und dann in 250MHz Steps reduziert, der Superposition Benchmark @ 8K optimized ist bezogen auf den RAM aber auch eher harmlos IMHO

von 9750-11250MHz sind so 15-20Watt Mehrverbrauch rausgekommen, GPU war mit 0,856V@1905MHz festgenagelt (~350Watt im Superpos@8k optimized)
weltbewegend war RAM OC bei der 1080Ti und 2080Ti ebensowenig wie bei der 3090FE

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77767&stc=1&d=1639833396

aufkrawall
2021-12-18, 14:46:14
wennse laufen, aber bei dem Preis erwarte ich mehr als Gainward Qualität von 2005 - auf den Kühler bezogen

Die hatten bei den FEs doch schon von Anfang an bis zum geht nicht mehr geschlampt, siehe unzureichende WLPs. Wäre mit einem Blick in ihre eigene Software sofort aufgefallen, aber nö...

hq-hq
2021-12-18, 15:13:56
hm, okay bei meiner schien alles iO zu sein
der Qualitöter hat wohl noch einiges zu meistern ^^

Gynoug MD
2021-12-18, 15:38:25
Die hatten bei den FEs doch schon von Anfang an bis zum geht nicht mehr geschlampt
Kann ich so nicht bestätigen, im Gegenteil, 3090, 3080, 3080Ti, alle perfekt, ohne Macken und die qualitativ hochwertigsten Karten, die ich hatte bzw. weiter verbaut habe, ist bei den RGB-Plastikbombern der Nvidia-Partner aber auch kein Kunststück.
:)
Die Ansammlung von OVP-Unfallwagen in den Pics oben ist aber bedenklich und zeugt von inzwischen nachlassender QC, oder der Käufer ist einfach ein Pech-Magnet.

TurricanM3
2021-12-18, 15:57:52
"Perfekt" verarbeitet sehen höchstens die Renderings auf der NV Seite aus. ;)

Slipknot79
2021-12-18, 20:20:50
Ihr habt falsche Erwartungen :redface:

Als ob der Radiator vom Ferrari hochwertiger wäre als der von Dacia. Ist eben alles der selbe Schrott, wahrscheinlich sowieso von der selben Chinabude gedropt. (y)
Lichtmaschine geht da genau wie dort drauf, Unterschied liegt nur im Price (y).

Ex3cut3r
2021-12-18, 20:33:02
Sehe ich wie Sklipknot. Vlt. auch ausgleichende Gerechtigkeit, wenn man sowieso meint 5xmal die selbe Karte zu Hause zu Hoarden. :biggrin:

hq-hq
2021-12-18, 22:52:45
war das ne Anspielung auf ab Werk zu schwache Radiatoren bei Ferrari im Rennstreckenbetrieb ^^

also ganz perfekt sind meine Kühllamellen jetzt nicht vom Abstand, ausser dem Staub gäbs jetzt nix zu beanstanden...

https://abload.de/thumb/seite2_coolercajqz.jpg (https://abload.de/image.php?img=seite2_coolercajqz.jpg)

https://abload.de/thumb/seite1_coolery1k2q.jpg (https://abload.de/image.php?img=seite1_coolery1k2q.jpg)

Slipknot79
2021-12-18, 23:07:13
https://abload.de/thumb/seite1_coolery1k2q.jpg (https://abload.de/image.php?img=seite1_coolery1k2q.jpg)


Da liegt ein Schamhaar zwischen den Kühllamellen im oberen Dreick. :redface:

sapito
2021-12-18, 23:27:25
war das ne Anspielung auf ab Werk zu schwache Radiatoren bei Ferrari im Rennstreckenbetrieb ^^

also ganz perfekt sind meine Kühllamellen jetzt nicht vom Abstand, ausser dem Staub gäbs jetzt nix zu beanstanden...

https://abload.de/thumb/seite2_coolercajqz.jpg (https://abload.de/image.php?img=seite2_coolercajqz.jpg)

https://abload.de/thumb/seite1_coolery1k2q.jpg (https://abload.de/image.php?img=seite1_coolery1k2q.jpg)


also ich ich erkenne eindeutig Flecken vom Ejakulat rund um RTX 3090 :freak:

hq-hq
2021-12-19, 10:26:50
;D wenn du das als Schamhaar identifizierst leidest du wohl unter Inselverzwergung und anstelle in deiner Garage steht ein Pontiac Firebird im Maßstab 1:24 auf dem Regal


den werd ich höchstens mal sauber machen wenn ich die Karte nächstes Jahr verkaufe :freak: (wenn man denn was neues ohne Bots erwerben kann)


abseites der myporners Triggerung,

kann man im Afterburner das max RAM OC in nem Config File erhöhen? Alternativ, mit dem Inspector gehts zwar höher aber wie bekomme ich da den 1905MHz GPU Lock ?

okay, habs mit der cheat engine gemacht, bei 11750MHz crasht der Benchmark (sieht aber eher nach MemController aus als nach RAM); 11500MHz geht noch (+1750MHz)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77784&stc=1&d=1639913431

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77787&stc=1&d=1639914212

Ex3cut3r
2021-12-19, 14:43:16
Ich werde aus dem Mem OC nicht schlau, ich kann mit einer 3080 Ti auch den Slider im AB Maxxen, läuft auch ohne Grafikfehler, aber ich habe mal gehört, die Fehlerkorrektur greift, und man ist langsamer als mit non OC bzw. weniger OC. Nur leider könnte ich dies bisher nicht feststellen, da GA102 nicht grade an wenig Bandbreite leidet. In den meisten Spielen sehe ich weder mit +500 nocht mit +2000 mehr FPS auf dem Bildschirm. ;D

Nur KA, wann nun die Fehlerkorrektur greift und ich weniger FPS erhalte. Ich habs momentan mit +0 laufen, dann läuft der Core Clock auch höher (50mhz mehr) und man hat tatsächlich mehr FPS.

TurricanM3
2021-12-19, 14:44:26
Bez. eierndem Lüfter:

L9Z4LtS99QM

Aber wirklich sauber läuft von den Lüftern keiner, was nun aber auch nicht unbedingt schlimm ist.

TobiWahnKenobi
2021-12-19, 16:59:39
das wäre jetzt auch jammern auf hohem niveau. es wette es gibt leute, die würden die karte sogar mit nem angeknabberten oder gar komplett ohne lüfter nehmen. nur um überhaupt ne karte zu haben.. :P


(..)

mfg
tobi

ChaosTM
2021-12-19, 17:13:58
Jop - würde irgendwie den alten Accelero 4 drausbasteln :D

hq-hq
2021-12-19, 17:16:03
Ich werde aus dem Mem OC nicht schlau, ich kann mit einer 3080 Ti auch den Slider im AB Maxxen, läuft auch ohne Grafikfehler, aber ich habe mal gehört, die Fehlerkorrektur greift, und man ist langsamer als mit non OC bzw. weniger OC. Nur leider könnte ich dies bisher nicht feststellen, da GA102 nicht grade an wenig Bandbreite leidet. In den meisten Spielen sehe ich weder mit +500 nocht mit +2000 mehr FPS auf dem Bildschirm. ;D

Nur KA, wann nun die Fehlerkorrektur greift und ich weniger FPS erhalte. Ich habs momentan mit +0 laufen, dann läuft der Core Clock auch höher (50mhz mehr) und man hat tatsächlich mehr FPS.

RAM OC erscheint gleichsam zur 1080Ti und 2080Ti, die AVG FPS steigen bis nahe des kritischen Punkts bis es dann komplett crasht... vielleicht waren die 250MHz Schritte zu groß bei der 3090 um den Effekt von der Fehlerkorrektur und reduzierter AVG FPS zu erkennen. Bei der 1080Ti und 2080ti gab es schwarze Texturausfälle wenn der RAM überfahren wurde und die MIN FPS gingen in den Keller; Texturausfälle hab ich bei der 3090 bis jetzt nicht gesehen was für die Fehlerkorrektur spricht, der Absturz war überaus bunt und schlagartig darum hätte ich auf den Controller getippt - war überhaupt das erste Mal , dass die Karte wegen des RAMs in die Knie ging
würde vor allem auf die 1% low fps schauen, sollte Probleme ankündigen :freak:

Ex3cut3r
2021-12-19, 17:26:42
Also bei Jay scheint ab +750mhz schon die Fehlerkorrektur anzuspringen. Ist zwar "nur" ne 3080. Der Speicher ist aber der gleiche GDDR6X.

https://youtu.be/7CqjtCAfhXE?t=929

Nur ich könnte das komischerweise nicht nachstellen. Vlt. hat sich Treiberseitig schon wieder was geändert?

The_Invisible
2021-12-19, 17:59:10
Wenn das wahr ist bringt aber Speicher OC auch fast nix bzw kann man sich schenken. Wie viel Performance verliert man eigentlich wenn man den Speicher untertaktet? Gibts da vielleicht eine kritische Grenze wo die Performance rapide abfällt?

Ansonsten fragt man sich immer mehr was nvidia da zu GDDR6x geritten hat... Ich hätte da lieber 5% weniger Performance aber dafür 20GB gehabt, aber gut...

hq-hq
2021-12-19, 19:10:30
in Horizon Zero Dawn 4k Ultimate, 3090FE@1905/8750-11500MHz

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77792&stc=1&d=1639987732
8750 = 96,36%
9000 = 97,47%
9250 = 98,42%
9500 = 99,18%
9750 = 100,00%
10000 = 100,86%
10250 = 101,56%
10500 = 102,38%
10750 = 102,86%
11000 = 103,61%
11250 = 103,09%
11500 = 100,26%

allerdings lutscht der Mehrtakt des GDDR6X am Powerlimit, insofern man den Boost walten lässt kann der Effekt geringer ausfallen, evtl. aber auch höher wenn der Boost z.B. 2.1GHz erreicht wird die GPU von mehr Bandbreite auch einen Tick mehr profitieren... allerdings so oder so auf niedrigem Niveau, je nach Benchmark gehen +500MHz schon in der Streuung unter :biggrin:

GDDR6X OC von 9750MHz auf 11000MHz kostet 2-4 Spannungsstufen, also 0,125-0,250V; bringt in 2160p knapp +3% avg fps, so richtig viele Games hab ich jetzt nicht ausprobiert, aber immer in 2160p und es gab 15MHz-60MHz GPU Taktverluste, trotzdem sind die AVG-FPS leicht angestiegen.
https://abload.de/thumb/ram_ocbcjsk.jpg (https://abload.de/image.php?img=ram_ocbcjsk.jpg)

GDDR6 geht bis 9000MHz, vielleicht hat NVidia ja den GDDR6X für einen ähnlichen Preis einkaufen können wie den besten GDDR6?

Afterburner Slider Adressen für CheatEngine: https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77793&stc=1&d=1639996178

TurricanM3
2021-12-28, 13:22:08
Seit wann kriegt man so einen alert hier ständig?

https://abload.de/img/zefaq5xkoy.png (https://abload.de/image.php?img=zefaq5xkoy.png)

Hab die Rassel Edition drin. Mit der Strix aufgrund der 3x 8pin nichts.
Hängt vermutlich dann irgendwie mit dem Apex zusammen, auf dem Dark Hero war nichts.

hq-hq
2021-12-28, 17:57:09
du solltest den Alarm auf 80Watt stellen, 70Watt ist zu niedrig ;-)

TurricanM3
2021-12-28, 18:23:00
Ich hab den komplett deaktiviert, aber mich wundert, dass sowas angezeigt wird plötzlich.

gedi
2021-12-29, 19:16:19
du solltest den Alarm auf 80Watt stellen, 70Watt ist zu niedrig ;-)

Wenn man eine 3090 „onboard“ haben will, guter Tipp :freak:

Daredevil
2021-12-29, 21:30:50
Dienstag gibts RTX
https://twitter.com/NVIDIAGeForce/status/1476251052315922432

Ex3cut3r
2021-12-29, 21:49:55
3090 Ti.

MartinRiggs
2021-12-29, 22:20:30
Das saufende überteuerte und eh nicht lieferbare Ungetüm kann sich Nvidia sonstwohin stecken.

FastAndy
2021-12-29, 22:29:08
Dienstag gibts RTX
https://twitter.com/NVIDIAGeForce/status/1476251052315922432
sehr schön danke für den hinweis :smile:

Matrix316
2021-12-29, 22:43:52
Wie viel soll die 3090 TI denn kosten? 5000$ UVP? ;)

sapito
2021-12-29, 22:54:10
Wie viel soll die 3090 TI denn kosten? 5000$ UVP? ;)


der Name ist Programm 3090€ :freak::freak:

Ex3cut3r
2021-12-29, 22:55:02
2000€ UVP. Realpreis dann bei 3000€ im Handel Day 1. 1 Woche später 3500-4000€ im Handel. :redface:

Mir ehrlich gesagt wumpe. Bin mit meiner 3080 Ti vollkommen bedient die nächsten 2-3 Jahre.

The_Invisible
2021-12-30, 07:08:02
3090 Ti.

+ 3070 Ti 16GB ?!?

Wäre wohl die einzig sinnvolle Karte, wobei die auch so 1500+ EUR kosten dürfte ;D

Rancor
2021-12-30, 08:39:31
2000€ UVP. Realpreis dann bei 3000€ im Handel Day 1. 1 Woche später 3500-4000€ im Handel. :redface:

Mir ehrlich gesagt wumpe. Bin mit meiner 3080 Ti vollkommen bedient die nächsten 2-3 Jahre.

Irgendwie habe ich das Gefühl das das bei dir anders sein wird wenn Lovelace kommt ;D

TobiWahnKenobi
2021-12-30, 11:25:53
finde ich gut - wird auch zeit, dass was schnelleres kommt.. dann haben die 2060/12G käufer von letzter woche nicht mehr 40% des topmodells sondern nur noch 28.. :P

naja.. wir werden es ja früher oder später eh hier liegen haben.. scheiss gewohnheit.



(..)

mfg
tobi

BlacKi
2021-12-30, 14:27:42
Wie viel soll die 3090 TI denn kosten? 5000$ UVP? ;)
also wenn die karte mit LHR ausgestattet wird, dann wird die karte wohlknapp über der 3080ti liegen. uvp wird sicher so um die 2000€ liegen. also für 2100 aufwärts kaufbar sein.

ohne LHR 2700€ +

+ 3070 Ti 16GB ?!?

Wäre wohl die einzig sinnvolle Karte, wobei die auch so 1500+ EUR kosten dürfte ;D

da die miner nichts mit dem vielen ram anfangen können, würde ich auf 1200€+ tippen. ich würde auch sagen, das die 3080 12gb nicht wirklich attraktiv erscheint.

Ex3cut3r
2021-12-30, 15:49:49
Irgendwie habe ich das Gefühl das das bei dir anders sein wird wenn Lovelace kommt ;D

Ja genau. Ich bin ja auch bekannt, jede High End GPU wie z.B. Tobi oder Turrican mitzunehmen.

Meine 770, 1070, 2080 und 3080 Ti sind ja auch eine beeindruckende Historie :rolleyes:.
Du hast Lovelave eher nötig.

aufkrawall
2021-12-30, 16:23:43
Irgendwie habe ich das Gefühl das das bei dir anders sein wird wenn Lovelace kommt ;D
Kannst Nazar auch schon fest einplanen. Als Käufer des immer neusten und teuersten Highends von Nvidia kauft man immerhin auch das Privileg mit dazu, alles von der Firma ganz besonders doof finden zu dürfen.

Linmoum
2021-12-30, 16:24:08
@Ex3

Naja, deine bisherigen Upgrades (bei zutreffender Gerüchteküche) wären allesamt jeweils deutlich geringer als das, was jetzt innerhalb von einer Gen für ein Leistungssprung folgen soll. ;D

Ex3cut3r
2021-12-30, 16:27:18
Natürlich. Wann ist es denn anders?

Viel Spaß beim Jagen des "schatzes" Ich lehme mich derweil gekonnt züruck und schau mir euren Pain an so ein Produkt bis 2024 zu ergattern.

In 1440p mit DLSS oder ohne bin ich bestens aufgestellt mit der 3080 Ti. Das wird mir lange reichen. Habs auch über 3 Jahre mit der 2080 ausgehalten.

aufkrawall
2021-12-30, 16:31:32
Hättest du auch weiterhin noch, weil Ampere in erster Linie nur ein Turing-Shrink zur Kostenoptimierung in einem mittelmäßigen Prozess war. Lovelace schlägt hoffentlich in eine andere Kerbe und dann kann Ampere ähnlich alt wirken wie Kepler gegenüber Maxwell. Wie gesagt, hoffentlich...

Ex3cut3r
2021-12-30, 16:42:52
Jein. Der neue Monitor mit 240HZ hat mir da die Augen geöffnet. Die 2080 könnte oft nur 60 FPS avg in AAA Spielen erreichen, ich wollte aber eine dauerhafte HFR Erfahrung und habe mir deswegen etwas stärkeres geholt. Mit 60HZ only waren mir über 80/90FPS ziemlich egal. Außer bei MP Shootern, da bin ich weiterhin der Meinung, dass man auch mit 60HZ Only von über 120 FPS profitiert.

hq-hq
2021-12-30, 16:48:57
IMHO ist der Schritt von der 1080Ti (OC) zur 2080Ti (OC) fast gleich groß wie von der 2080Ti (OC) zur 3090 (OC);

https://www.youtube.com/watch?v=oIuei6zWcIk



FireStrike Ultra
_980Ti = _5030 GP = 100%
1080Ti = _7921 GP = 157% △ +57%
2080Ti = _9571 GP = 190% △ +33%
_3090 = 14303 GP = 284% △ +94%

https://www.3dmark.com/compare/fs/9383011/fs/14542777/fs/23529622/fs/26660806


TimeSpy
_980Ti = _6240 GP = 100%
1080Ti = 11365 GP = 182% △ +82%
2080Ti = 16702 GP = 268% △ +86%
_3090 = 22119 GP = 354% △ +86%

https://www.3dmark.com/compare/spy/81819/spy/3028432/spy/15617702/spy/24368422

-> die Zuwächse waren im Schnitt, und das bildet IMHO 3dMurks TS ganz gut ab, etwa gleich

Lustig, seit dem BiosUpdate oder seit dem Umbau auf Wasser waren nur noch 8 anstelle 16pcie Lanes @gen4 aktiv, jetzt sinds wieder alle 16. Macht zumindest im 3d murks keinen Unterschied, ausser im feature Test 16gb/s antelle 26gb/s

TobiWahnKenobi
2021-12-31, 19:43:03
soviel sinnloser strom.. das juckt doch eh keine sau.


(..)

mfg
tobi

hq-hq
2021-12-31, 22:56:55
heuer wieder kein Feuerwerk bekommen ^^

generationsübergreifend bietet sich der 3dMurks halt an, da hat man die Ergebnisse in der Datenbank griffbereit

und btw, wenngleich es sich nicht immer in den Games wiederspiegelt, es zeigt schon die Schwächen und Stärken und warum NVidia es sich leisten konnte das Raytracing Pferd zu reiten :biggrin:


https://abload.de/thumb/timespy_comparisonnkki5.png (https://abload.de/image.php?img=timespy_comparisonnkki5.png)
(alles recht hohes OC bei den Grafikkarten; TimeSpy Extreme wäre der aktuellere Vergleich schon klar...)

Ex3cut3r
2022-01-01, 21:40:48
Ich habs gestern tatsächlich geschafft, das mein NT abgeschaltet hat. Ist bei CP77 @ 5K DLSS P und RT @ Ultra passiert. bei ~ 45-50 FPS mit VRR geht das noch.

Mein NT ist ein Corsair RM 750x (V2), also nicht grade schwach auf der Brust. Die CPU ein 3600 verbraucht nur poppelige 50W Max beim Zocken.

Nun, warum ist es passiert? Ganz einfach, ich Depp hatte nur ein Kabel für die Zwei Stormanschlüsse benutzt. Bei meiner alten RTX 2080 max 200W war das über 1 Jahr kein Problem. Doch gestern hat die 3080 Ti auch 370W genuckelt. Zuviel für das eine Kabel. Lief trotzdem genau 1 Monat so ohne Probleme. ;D

Habe jetzt natürlich 2 separate Kabel für jeweils eine Büchse. Und es bisher auch nicht wieder aufgetreten. Im Corsair Handbuch stand nix davon.

Ich dachte bei Single Rail NT reicht ein Kabel, leider falsch, ein Kabel ist nur für 150W ausgelegt.

Cubitus
2022-01-02, 00:00:08
Ich habs gestern tatsächlich geschafft, das mein NT abgeschaltet hat. Ist bei CP77 @ 5K DLSS P und RT @ Ultra passiert. bei ~ 45-50 FPS mit VRR geht das noch.

Mein NT ist ein Corsair RM 750x (V2), also nicht grade schwach auf der Brust. Die CPU ein 3600 verbraucht nur poppelige 50W Max beim Zocken.

Nun, warum ist es passiert? Ganz einfach, ich Depp hatte nur ein Kabel für die Zwei Stormanschlüsse benutzt. Bei meiner alten RTX 2080 max 200W war das über 1 Jahr kein Problem. Doch gestern hat die 3080 Ti auch 370W genuckelt. Zuviel für das eine Kabel. Lief trotzdem genau 1 Monat so ohne Probleme. ;D

Habe jetzt natürlich 2 separate Kabel für jeweils eine Büchse. Und es bisher auch nicht wieder aufgetreten. Im Corsair Handbuch stand nix davon.

Ich dachte bei Single Rail NT reicht ein Kabel, leider falsch, ein Kabel ist nur für 150W ausgelegt.
Ist mir bei meinem Seasonic auch passiert, das ging aber nicht aus, sondern ein Stecker am NT schmorte durch :freak:

Seasonic hätte mir das NT ohne Widerrede getauscht, das PX850er hat aber genügend Anschlüsse, und das NT ausbauen war mir zu doof.. Also richtig verkabelt und gut wars :)
Stand zwar im Manual aber eben nicht wirklich hervorgehoben

Ex3cut3r
2022-01-02, 00:16:02
Frohes neues Cubi.

Ach du Kacke. Ne, so viel Pech hatte ich dann doch nicht. Das NT hat sich einfach abgeschaltet. Und ich wusste gleich, da stimmt was nicht. Nachgedacht und ich kam relativ schnell auf die Lösung.

Jetzt stecken ja wie gesagt 2 separate Kabeln drin, wie empfohlen. Sehr erstaunlich, dass das über 1 Monat ohne Abschaltung oder sonstige Erscheinungen durchlief. Teilweise habe ich Forza Horizon 5 4 Std. am Stück gezockt. Da musste auch erst CP77 @ 5K DLSS kommen. :freak:

Wahrscheinlich war es gut, das ich momentan nur einen Ryzen 5 3600 drin habe der nicht mal 50W beim Zocken verbratet.

Hier ist das Handbuch meines NTs, wie gesagt da steht nix. :freak:

750W Version habe ich. Mein Gedanke war halt. Single Rail = Kack egal. ;D Leider falsch. An an die einzelenen Kabel muss man auch denken. 1 Kabel so hat es mir ein Corsair Mitarbeiter gesagt, kann halt nur 150W befördern. Er meint, ich hatte Schweine Glück.

https://www.corsair.com/corsairmedia/sys_master/productcontent/RMx_2018_Manual.pdf

Slipknot79
2022-01-02, 02:35:56
Ich habs gestern tatsächlich geschafft, das mein NT abgeschaltet hat. Ist bei CP77 @ 5K DLSS P und RT @ Ultra passiert. bei ~ 45-50 FPS mit VRR geht das noch.

Mein NT ist ein Corsair RM 750x (V2), also nicht grade schwach auf der Brust. Die CPU ein 3600 verbraucht nur poppelige 50W Max beim Zocken.

Nun, warum ist es passiert? Ganz einfach, ich Depp hatte nur ein Kabel für die Zwei Stormanschlüsse benutzt. Bei meiner alten RTX 2080 max 200W war das über 1 Jahr kein Problem. Doch gestern hat die 3080 Ti auch 370W genuckelt. Zuviel für das eine Kabel. Lief trotzdem genau 1 Monat so ohne Probleme. ;D

Habe jetzt natürlich 2 separate Kabel für jeweils eine Büchse. Und es bisher auch nicht wieder aufgetreten. Im Corsair Handbuch stand nix davon.

Ich dachte bei Single Rail NT reicht ein Kabel, leider falsch, ein Kabel ist nur für 150W ausgelegt.


Meine Shice hat auch ingame upgedreht nach GPU Wechsel und das recht oft, GPU 300W, CPU 50-60W. Konnte zunächst nicht glauben, dass es am NT liegen soll, sind ya 850W.
Also rumprobiert (hat auch mit 2 Kabeln upgedreht) bis ich dann doch am NT (Corsair HX 850) auf Single Rail umgestellt habe, seit dem keine einzige Abschaltung moar gehabt. Mittlerweile sind auch GPU 380W (OCCT) und CPU 300W (Prime95) gleichzeitig kein Problem fürs NT.
GPU Power hängt wieder an einem Kabel zum NT. (y)

aufkrawall
2022-01-02, 05:31:20
GPU Power hängt wieder an einem Kabel zum NT. (y)
Ziemlich dumme Idee bei einer 3090, wenn der Anschluss am NT auch nur 8 Pin ist:
https://linustechtips.com/topic/1302672-does-a-8-pin-to-2x-8-pin-also-only-provide-150w-max/
Ist ja nicht so, dass erst weiter oben jemand von durchgeschmorten Steckern berichtet hätte. ;D

Ex3cut3r
2022-01-02, 05:42:58
Das Bild erklärt es für mich am besten.

https://abload.de/img/qfwh3kboeyl51q3j2r.png

Ist zwar für ein Seasonic, aber ist bei Corsair z.B. das gleiche.

Mein Fehler war halt genau das, wie bei der Abbildung mit dem roten X.

Jetzt aktuell fahre ich Lösung 3, hässlich sind halt nun die losen PCIe Kabel in der Luft.

Aber seitdem keine Abschaltung, wieder versucht in CP77 mit 5K DLSS und RT @ Ultra zu provozieren.

IceKillFX57
2022-01-02, 08:27:06
Hast du keine anderen Kabel beiliegend? Bei meinem be quiet liegen auch Kabelstränge ohne Y bei.

The_Invisible
2022-01-02, 09:22:52
Hätte ehrlichgesagt auch gedacht das mein mittlerweile knapp 10 Jahre altes 800W Enermax schlapp macht, ist sogar noch Multirail. Haben sich die 250 EUR Invest von damals also doch noch ausgezahlt, und ich dachte damals noch für was braucht man 800W, aber was wusste ich damals schon :D

Je nach Auslastung gehts schon mal bis auf 500W Grundlast (CPU + GPU) rauf + Spannungspitzen scheint das schon zu passen, hatte nur Angst wegen der Alterung des Netzteils.

Könnte aber sogar ein Vorteil sein wenn die Grafikkarte 3x 8Pin bietet damit es besser verteilt werden kann

Gynoug MD
2022-01-02, 11:48:03
Hab hier auch ein Enermax MaxTytan 800W im Einsatz, CP2077 ist (besonders Übergang Ladebildschirm->Spiel) echt ein Garant für Abschaltungen.
Erstes (defektes) NT bei jedem Start, zweites "nur" noch sporadisch, dafür durfte ich
nach dem Auspacken scheppernde Kabelbinder-Reste aus dem Gehäuse entfernen.
Nachdem man von Seasonic auch nicht viel Gutes in Verbindung mit Spannungsspitzen/3090 hört,
was bleibt da noch, als guter Hersteller, übrig?
:(

horn 12
2022-01-02, 11:52:41
Nun ein BQ Dark Power 10 650 Watt mit 5600X
und einer XTXH 6900XT sollte nicht mehr langen, zumal auch nur 2x 8Pin Stecker am Netzteil sind,
und die XTXH Chips brauchen ja 3x 8Pin

Slipknot79
2022-01-02, 12:17:12
Ziemlich dumme Idee bei einer 3090, wenn der Anschluss am NT auch nur 8 Pin ist:
https://linustechtips.com/topic/1302672-does-a-8-pin-to-2x-8-pin-also-only-provide-150w-max/
Ist ja nicht so, dass erst weiter oben jemand von durchgeschmorten Steckern berichtet hätte. ;D


Ist schon fieldtested :redface: 380W habe ich "konstant" bereits in sehr vielen Spielen gehabt, da ist nix durchgeschmort. (y)

Lehdro
2022-01-02, 13:08:18
>1000€ GPU einbauen und dann an der Verkabelung/Netzteil sparen, genau mein Humor.

Flyinglosi
2022-01-02, 13:52:16
>1000€ GPU einbauen und dann an der Verkabelung/Netzteil sparen, genau mein Humor.
Einbauen klingt so, als wäre die Hardware in einem Gehäuse verbaut. Vermutlich liegt das Zeug in einer Bananenkiste unterm Tisch :D

Ex3cut3r
2022-01-02, 15:04:50
Hast du keine anderen Kabel beiliegend? Bei meinem be quiet liegen auch Kabelstränge ohne Y bei.

Nein, lagen tatsächlich nur 2 PCIe Kabel mit Y-Kabel bei.

Daredevil
2022-01-02, 15:09:23
Bei der Founders geht der Y Strang in die andere Richtung, die Position ist nur dämlich. :D
Sollte aber jedem klar sein, das man maximal viele Kabel an die GPU schließen sollte, um die Belastung zu teilen.
Das hat man spätestens gelernt, wenn man 6 Radeon VII betrieben hat mit einem Netzteil. :>

aufkrawall
2022-01-02, 15:12:18
Bei meinem alten Corsair 860W Platinum gibts 3x (oder mehr?) 8 Pin-Anschlüsse am NT + Kabel. Falls ich irgendwann mal auf die Idee kommen sollte, zusätzliche Anschlüsse an die 3060 zu löten, damit die 120W Verbrauch die Kabel und Stecker weniger stressen. :redface:
Etwas schade, dass es keine Ampere-Karte mit dreifachem Verbrauch gibt. Zumindest nicht mit dabei dreifacher Performance...

ChaosTM
2022-01-02, 15:30:10
Hätte vor kurzem eine 3090er um "günstige" 1800 bekommen können, aber ich habs dann doch gelassen.
Verbrauch und Preis stehen einfach in keiner Relation zur Leistung. Die mobile 3080er reicht momentan locker für 4k, speziell wenn DLSS verfügbar ist.

Ich überlege ernsthaft den Standrechner abzustoßen. Verwende ich kaum mehr ..