Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
BlacKi
2021-01-08, 19:28:43
:biggrin:
MiamiNice
2021-01-08, 19:36:30
:biggrin::biggrin:
TobiWahnKenobi
2021-01-08, 20:11:41
:biggrin::biggrin::biggrin:
(..)
mfg
tobi
Annator
2021-01-09, 15:58:30
Sry, das Ding fackelt dir den VRAM ab, in 2 Jahren ist das Ding bei den meisten Frankenstein Gehäuse ohne richtige Luftzuführung kaputt, weil der VRAM Fehler ausspucken wird, aber gut für Nvidia. Wird halt der pünktlich der nächste Top Dog aber diesmal für 2000€ gekauft. :freak:
Ob das wirklich so ist werden wir schon in 1-2 Monaten durch die Miner erfahren. Da laufen die Karten immerhin auf dauerlast 24/7.
BlacKi
2021-01-09, 16:27:37
ist fraglich, denn das problem besteht hauptsächlich bei der FE. bei einer normalen backplate im gut belüfteten rechenzentrum besteht da wohl kein problem.
Thunder99
2021-01-09, 17:48:06
Take a look:
Geforce RTX 3080: GDDR6X wird über 100 Grad warm und kann das aushalten
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/GDDR6X-100-Grad-heiss-Temperatur-1358476/
Alter Hut.
Als Igor das raus gefunden hatte und berichtete hatte Nvidia kurzerhand die Produktion angepasst, still und heimlich. Also heute ist das Problem schon gelöst und nicht mehr zutreffend.
BlacKi
2021-01-09, 18:08:40
Alter Hut.
Als Igor das raus gefunden hatte und berichtete hatte Nvidia kurzerhand die Produktion angepasst, still und heimlich. Also heute ist das Problem schon gelöst und nicht mehr zutreffend.
du bist hier im 3090 thread. und die 4° durch igors "verbesserung" der 3080 ist schon fast im bereich der messfehler.
hier im 3090 thread ist die thematik aber generell eine andere als bei der 3080.
Daredevil
2021-01-09, 19:09:04
Ob das wirklich so ist werden wir schon in 1-2 Monaten durch die Miner erfahren. Da laufen die Karten immerhin auf dauerlast 24/7.
Also mal im übrigen, weil manche hier wieder so tun, als wäre das Problem einzigartig.
Zu heißen Arbeitsspeicher mit "Notdrosselung" gab es bei Pascal, Vega, VegaII, Turing und eben auch Ampere.
Quasi mit jeder GPU musste ich die Lüfter manuell hochdrehen, weil die Temperatur des Speichers zu hoch wurde und sie weniger performt hat.
Das passiert aber nun einmal nur bei ETH Mining und das ist ein Workload, der nicht handelsüblich für eine Grafikkarte ist, weil bei diesem Workload quasi nur der Speicher genutzt wird.
Neu ist in der Hinsicht aber, dass Ampere auf die Speichertemp reagiert, das hat bislang keine andere Grafikkarte, die ich vorher hatte.
Mit einer Vega56 hatte ich Temperaturen von über 100°C aufm HBM und der Lüfter lief bei ~900rpm. Das ist Dumb Hardware. :<)
( Ab 90°C ist die Performance gesunken beim HBM, bei Ampere sinkt die Performance nicht, da der Lüfter radau macht )
BlacKi
2021-01-09, 20:11:22
bei Ampere sinkt die Performance nicht, da der Lüfter radau macht )
das sehe ich bei FE anders. der lüfter hilft praktisch nicht den speicher auf der rückseite zu kühlen, was einer der größten probleme für mich mit der karte ist. allerdings hab ich selbst abhilfe geschaffen, somit ist es für mich kein problem mehr. dennoch finde ich es bescheuert wie nv auf der rückseite den speicher kühlt. ich hab da selbst ohne mining fast 80° gemessen.
hq-hq
2021-01-09, 20:45:34
also das mit dem Speicher ist ne komische Sache bei der FE,
wieviel % bekommt ihr denn bei +1000 ungefähr dazu?
bei mir bringen +500MHz eigentlich eher nix, das geht in der Messungenauigkeit unter, +1000MHz bringt ab 1.5-3% das merkt man (also in Zahlen natürlich, beim Zocken eher nicht;-)), nur über Zeit wird natürlich der RAM zu heiss dafür und 90 oder 100% FANSPEED lässt ja keiner dauernd laufen, max ist vielleicht an die 70%
BigKid
2021-01-09, 23:04:10
also das mit dem Speicher ist ne komische Sache bei der FE,
wieviel % bekommt ihr denn bei +1000 ungefähr dazu?
bei mir bringen +500MHz eigentlich eher nix, das geht in der Messungenauigkeit unter, +1000MHz bringt ab 1.5-3% das merkt man (also in Zahlen natürlich, beim Zocken eher nicht;-)), nur über Zeit wird natürlich der RAM zu heiss dafür und 90 oder 100% FANSPEED lässt ja keiner dauernd laufen, max ist vielleicht an die 70%Schau mal nach ob du nicht im PT hängst sodass der RAM OC auf Kosten der GPU Frequenz geht... Dann iss es klar dass es nix bringt... Ansonsten ist es auch sehr vom Szenario (also Spiel/Engine) abhängig...
Dr.Doom
2021-01-10, 11:07:46
das sehe ich bei FE anders. der lüfter hilft praktisch nicht den speicher auf der rückseite zu kühlen, was einer der größten probleme für mich mit der karte ist. allerdings hab ich selbst abhilfe geschaffen, somit ist es für mich kein problem mehr. dennoch finde ich es bescheuert wie nv auf der rückseite den speicher kühlt. ich hab da selbst ohne mining fast 80° gemessen.Ich brauche mehr Details (https://www.youtube.com/watch?v=x40XnMGI75M) (, bitte).
Colin MacLaren
2021-01-10, 11:16:45
Bei mir dreht der Lüfter bei der Founders Edition im Mining nicht von allein hoch. Die Hashrate bricht dann innerhalb von zwei bis drei Minuten auf nicht einmal die Hälfte des Normalwerte sein.
fondness
2021-01-10, 11:27:51
Zeugt ja unheimlich von einem Qulitäts Produkt für 1500 Nierensteine, wenn ich als User hinten rumbasteln muss. Genial NV!
Finde es da vielmehr befremdlich, dass NV selbst bei 1500 EUR Karten offenbar am PCB spart. Nichtmal ein RC-Filter wie bei allen AMD-Karten Standard scheint drauf zu sein wenn Igor recht hat. Deshalb schalten wohl auch vermehrt Netzteile ab.
BlacKi
2021-01-10, 11:54:07
Ich brauche mehr Details (https://www.youtube.com/watch?v=x40XnMGI75M) (, bitte).
https://abload.de/thumb/4434421235122347vkke.png (https://abload.de/image.php?img=4434421235122347vkke.png)
Dr.Doom
2021-01-10, 12:04:25
Danke. Sieht aus wie'n halbierter Intel Ref-Kühler.
BlacKi
2021-01-10, 13:00:18
ja, optisch nicht schön. vermutlich werde ich mir sowas nachträglich bestellen. https://www.ebay.de/itm/Radiator-gepragt-schwarz-H-15mm-SK81-75-SA-Kuhler-W-100mm-gerippt-L-75mm/383202123295
aha, früher waren die chips immer die achillesferse, jetzt ist es alles drum herum.
jaja, wie die zeiten siche ändern^^
Huh? Das war auch früher schon so. Man hat nur eben oft gedacht, dass es der Chip ist, wenn tatsächlich eben irgendein anderes Bauteil die Grätsche gemacht hat.
Dass die Minikarten da früher sterben, glaube ich nicht. Die laufen ja aus Effizienzgründen nicht mit max PT.
hq-hq
2021-01-10, 14:30:42
Schau mal nach ob du nicht im PT hängst sodass der RAM OC auf Kosten der GPU Frequenz geht... Dann iss es klar dass es nix bringt... Ansonsten ist es auch sehr vom Szenario (also Spiel/Engine) abhängig...
das ist bei der Karte ja sowieso grundsätzlich das Problem, mehr als 400 kann die Founders mit ihrem Bios nicht, klar hab ich den Takt auf 1890MHz bei ~0.85V gezogen damit etwas Spielraum bleibt... hat denn jemand mehr als 3% avg fps mit +1000?
MiamiNice
2021-01-10, 14:39:16
Je nach Spiel bzw. Settings.
hq-hq
2021-01-10, 14:41:30
Je nach Spiel bzw. Settings.
in Zahlen ? :freak:
Ex3cut3r
2021-01-10, 19:44:24
Also so kann es nicht weiter gehen. Ampere agiert trotz 8nm am Limit. Was will Nvidia in 2 Jahren machen? 500W als Standard in der RTX 480 verkaufen?
Ich mein gegen AMD mit der 6800XT ~ 250W und der 6900 XT ~ 275 - 300W sieht man in non RT Games schon nicht besonders gut aus. Selbst die Takt Keule hat man sich abkaufen lassen, 2,5 Ghz und mehr, hätte ich eher von Nvidia erwartet, nachdem man 2016 mit Pascal die 2 Ghz geknackt hatte und schön Marketing Technisch verkauft hat.
Es braucht wieder sowas wie Kepler IMO, das war nach der Fermi aka Thermi Gen der richtige Step.
BlacKi
2021-01-10, 20:13:25
in 7nm wären die gpus noch teurer und noch schlechter verfügbar. und die 350w sind temperaturtechnisch kein problem, solange man genug kühlpotential draufschmeist.
vl hätte man die 3060 auch in alten prozessen fertigen können. aber letztendlich steckt man nicht drin.
Also so kann es nicht weiter gehen. Ampere agiert trotz 8nm am Limit. Was will Nvidia in 2 Jahren machen? 500W als Standard in der RTX 480 verkaufen?
Ich mein gegen AMD mit der 6800XT ~ 250W und der 6900 XT ~ 275 - 300W sieht man in non RT Games schon nicht besonders gut aus. Selbst die Takt Keule hat man sich abkaufen lassen, 2,5 Ghz und mehr, hätte ich eher von Nvidia erwartet, nachdem man 2016 mit Pascal die 2 Ghz geknackt hatte und schön Marketing Technisch verkauft hat.
Es braucht wieder sowas wie Kepler IMO, das war nach der Fermi aka Thermi Gen der richtige Step.
Grundsätzlich gebe ich dir ja recht, aber Kepler sah nicht so besonders gut aus, gegen eine AMD-Karte. Nun hat NV den Vorsprung abseits RT praktisch verspielt und wurde überrascht (?). Für die Zukunft wird wichtig sein, wie kann man dem Kontrahenten Paroli bieten. Wenn NV dann noch immer Upsampling für the way to go empfindet, dann ahoi - Lederjacke geht als letzter von Board!
Also so kann es nicht weiter gehen. Ampere agiert trotz 8nm am Limit. Was will Nvidia in 2 Jahren machen? 500W als Standard in der RTX 480 verkaufen?
Ich mein gegen AMD mit der 6800XT ~ 250W und der 6900 XT ~ 275 - 300W sieht man in non RT Games schon nicht besonders gut aus. Selbst die Takt Keule hat man sich abkaufen lassen, 2,5 Ghz und mehr, hätte ich eher von Nvidia erwartet, nachdem man 2016 mit Pascal die 2 Ghz geknackt hatte und schön Marketing Technisch verkauft hat.
Meckern auf hohem Niveau, der Curve Editor im MSI Afterburner regelt.
Thunder99
2021-01-10, 21:02:52
Meckern auf hohem Niveau, der Curve Editor im MSI Afterburner regelt.
Traurig, dass man auf ein Tool angewiesen ist und nicht die Karte out of the box optimal läuft. Bin kein Freund davon.
aufkrawall
2021-01-10, 21:17:14
Die Amperes lassen sich ja auch ohnehin schlechter übertakten/undervolten als die die RDNA2s, Nvidia sieht dann also im Vergleich noch schlechter aus.
Daredevil
2021-01-10, 21:18:28
Brauchst du ja nicht. Du kannst auch mit Stock Settings die Karte bei 100w laufen lassen, wenn dir Rocket League in FullHD@60 reicht.
Nur weil das Auto 300km/h fährt, muss man ja nicht immer und überall damit FullSpeed fahren.
Als jemand, der seine RTX 3090 neuerdings mit 1,7 GHz @ 0,737 Volt betreibt, muss ich darüber schmunzeln. Undervolting bringt natürlich am meisten bei versoffenen Produkten. Und Ampere ist die Spitze der Versoffenheitskette. ;)
MfG
Raff
aufkrawall
2021-01-10, 21:25:46
Undervolting bringt natürlich am meisten bei versoffenen Produkten.
Ist so pauschal nicht richtig. Die Leute schreiben hier ständig von ~1,8GHz bei irgendwas um ~0,85V. Das ist mal schon eine deutliche Taktreduktion gegenüber @stock. Bei den RDNA2-Chips kann man eher die Spannung deutlich reduzieren und dabei noch etwas Takt drauf klatschen. Das war mit RDNA1 vs. Turing noch umgekehrt, AMD ist einfach auch da vorbei gezogen...
Traurig, dass man auf ein Tool angewiesen ist und nicht die Karte out of the box optimal läuft. Bin kein Freund davon.
Optimal ist subjektiv. Je nach Chipgüte gibt es eben mehr oder weniger Potential um noch etwas herauszuholen. Traurig ist eher die sehr große Streuung beim GA102, von saufen wie ein Loch bis hin zu sehr sparsam ist alles möglich.
Daredevil
2021-01-10, 21:29:08
Ist so pauschal nicht richtig. Die Leute schreiben hier ständig von ~1,8GHz bei irgendwas um ~0,85V. Das ist mal schon eine deutliche Taktreduktion gegenüber @stock. Bei den RDNA2-Chips kann man eher die Spannung deutlich reduzieren und dabei noch etwas Takt drauf klatschen. Das war mit RDNA1 vs. Turing noch umgekehrt, AMD ist einfach auch da vorbei gezogen...
Was ist denn in deiner Welt die "Stock Taktrate" einer 3090? ;D
Ist so pauschal nicht richtig. Die Leute schreiben hier ständig von ~1,8GHz bei irgendwas um ~0,85V. Das ist mal schon eine deutliche Taktreduktion gegenüber @stock.
Ist es nicht. In Ultra HD sieht man unter Dauerlast nie mehr, meist sogar weniger - die Karte käme aber im Traum nicht darauf, mit weniger als 0,8 Volt zu laufen (außer man hält die Lüfter an :ugly: ).
MfG
Raff
Ex3cut3r
2021-01-10, 21:50:11
Meckern auf hohem Niveau, der Curve Editor im MSI Afterburner regelt.
Ja kann schon sein. Ist mit dem AB aber ein Krampf, und ständig war mein UV um ein paar MHZ verschoben. :freak: KA warum. Habe dann einfach per PT undervoltet.
Das Problem ist aber auch, mit der FE 3090 machst du dir mit dem UV den VRAM noch eher kaputt. Der Chip bleibt kühler und die Fans spinnen weniger, der VRAM grill jetzt aber, und brauchte die 1800 RPM eigentlich, durchs UV dreht die Karte mit AUTO FAN Profil nun aber nur noch mit 1300 RPM. Und der VRAM brutzelt ohne das du es weißt vor sich hin. Nvidia ist schon nen Fuchs, pünktlich in 2 Jahren spuckt dir dann ein VRAM Baustein Fehler aus, da der 1500€ Käufer es dicke genug hat, hakt er es ab, und kauft sich einfach die 4090 nur diesmal für 2000€ Genial Jensen, darauf muss man erstmal kommen. ^^
Daredevil
2021-01-10, 21:55:52
Das Problem ist aber auch, mit der FE 3090 machst du dir mit dem UV den VRAM noch eher kaputt. Der Chip bleibt kühler und die Fans spinnen weniger, der VRAM grill jetzt aber, und brauchte die 1800 RPM eigentlich, durchs UV dreht die Karte mit AUTO FAN Profil nun aber nur noch mit 1300 RPM. Und der VRAM brutzelt ohne das du es weißt vor sich hin.
Auch das ist nicht richtig. Das Verhalten hattest du bei Pascal und Vega/II z.B., bei Ampere hast du das nicht. Der Lüfter läuft auch basierend von den VRAM Temperaturen und nicht nur basierend auf der GPU Temp.
---
Ich habe heute mal nen kleinen Alublock auf die Rückseite gepappt beim ETH Mining, das Ergebnis ist echt sehr beindruckend. :)
ETH Mining Max Speed > 2400rpm und Performance Probleme
Alu Kühlkörper ohne WLP auf den Rücken gelegt > geht langsam auf ~1200rpm runter, steigt dann wieder langsam auf 1600rpm
Alu Kühlkörper mit WLP auf den Rücken gelegt > geht schnell auf ~800rpm runter, steigt dann wieder langsam auf ~1600rpm
Auch hier merkt man aber, dass der Kühlkörper Wärme aufnimmt, die komplette Wärme bekommt er aber nicht schnell abgetragen, da kaum Luft vorbei zieht. Da kann ich aber noch was optimieren.
Wirklich sehr interessant. :)
Habe nen Video gemacht, das dauert aber erstmal, weil um 21 Uhr unser Netz irgendwie arschlahm ist.
Ex3cut3r
2021-01-10, 22:00:46
Auch das ist nicht richtig. Das Verhalten hattest du bei Pascal und Vega/II z.B., bei Ampere hast du das nicht. Der Lüfter läuft auch basierend von den VRAM Temperaturen und nicht nur basierend auf der GPU Temp.
Ähmm bei mir wurde es aber der Fall sein, da ich gerne LOW RPM Custom Fan Kurven erstelle. :biggrin:
Oder wurde der Fan das im Notfall dann einfach überschreiben? Boah geil wie so nen V8 der einfach mal aufjault. :ulol:
Das ist doch einfach nur purer Wahnsinn, was Nvidia mit Ampere gebastelt hat, hoffentlich sehen die das auch ein. Und machen beim Nachfolger wieder alles wie vorher.
Ben Carter
2021-01-10, 22:05:29
Wahrscheinlich wird der Speicher einfach runtertakten, um nicht zu überhitzen. So einfach ist das.
aufkrawall
2021-01-10, 22:07:45
Ist es nicht. In Ultra HD sieht man unter Dauerlast nie mehr, meist sogar weniger - die Karte käme aber im Traum nicht darauf, mit weniger als 0,8 Volt zu laufen (außer man hält die Lüfter an :ugly: ).
Die Welt besteht nicht nur aus UHD, hier sinds in Metro 1440p angeblich 1850:
https://www.tomshardware.com/reviews/nvidia-geforce-rtx-3090-review/6
Ist auch egal. Selbst wenn man die 3070 als effizienteste Ampere-Karte und mit UHD-Taktraten ~2GHz @stock heranzieht, sackt die Effizienz im Verhältnis zur 6800 mit UV noch weiter ab vs. beide @stock. Die halbe Speicher-Größe mal außer Acht gelassen. :freak:
Daredevil
2021-01-10, 22:09:53
durchs UV dreht die Karte mit AUTO FAN Profil nun aber nur noch mit 1300 RPM. Und der VRAM brutzelt ohne das du es weißt vor sich hin
Ähmm bei mir wurde es aber der Fall sein, da ich gerne LOW RPM Custom Fan Kurven erstelle. :biggrin:
Wieso sollte man dich eigentlich noch ernst nehmen?
Du musst dich echt nicht wundern, wenn man dir nur noch Mist entgegen wirft, weil du einfach die Zeit anderer verschwendest.
Entweder nutzt du nun den AUTO FAN MODE, der die Karte vor Überhitzung schützt, egal ob bei UV oder OC oder du gehst dein eigenes Risiko ein und lässt den Lüfter zu langsam drehen, weswegen die Karte irgendwann in nen "NotModus" kommt und den RAM drosselt.
Du brutzelst dir da aber in keinem Fall was vor.
Ich kann dir aber auch Bilder zeigen, wo ne Gigabyte V56 mit 1000rpm läuft mit Auto Fan Mode und der HBM bei 102°C vor sich hin chillt.
Sowas gibts bei Ampere nicht, solange eine bestimmte Grenze nicht überschritten wird.
@aufkrawall
Wenn du WQHD möchtest, brauchst du aber halt auch keine 0.8v bei 1800Mhz.... da reichen dir auch weniger, um den Takt zu halten.
aufkrawall
2021-01-10, 22:13:29
Meine 5700 XT läuft <1000rpm und den VRAM-Hotspot hab ich per Sensor im Blick bzw. weiß durch diesen, dass dessen Temperatur immer unkritisch ist.
Wenn das mit dem GDDR6X-Speicher auf den Ampere-Karten so nicht geht, wär das schon ein Nachteil. Noch ein Vorteil für den IF-Cache. :cool:
BlacKi
2021-01-10, 22:16:13
Ähmm bei mir wurde es aber der Fall sein, da ich gerne LOW RPM Custom Fan Kurven erstelle. :biggrin:
Oder wurde der Fan das im Notfall dann einfach überschreiben? Boah geil wie so nen V8 der einfach mal aufjault. :ulol:
Das ist doch einfach nur purer Wahnsinn, was Nvidia mit Ampere gebastelt hat, hoffentlich sehen die das auch ein. Und machen beim Nachfolger wieder alles wie vorher.
so ist das aber nicht. zum einen, weil in games nie der lüfter aufjault, daran könnte man es erkennen wenns dem speicher zu warm wird und ausserdem würde er die leistung drosseln wenn der lüfter nicht hilft.
Ist so pauschal nicht richtig. Die Leute schreiben hier ständig von ~1,8GHz bei irgendwas um ~0,85V. Das ist mal schon eine deutliche Taktreduktion gegenüber @stock. Bei den RDNA2-Chips kann man eher die Spannung deutlich reduzieren und dabei noch etwas Takt drauf klatschen. Das war mit RDNA1 vs. Turing noch umgekehrt, AMD ist einfach auch da vorbei gezogen...
stock mit 350w sinds in 4k um die 1700-1800mhz. ich hab hier unter luft 1830mhz@0,8v bei 300w. das entsprichte einem minimalen leistungsplus bei 16% weniger verbrauch. in manchen spielen mit weniger last hab ich vl ein paar mehr weniger als stock, aber dafür dann trotzdem 20% weniger verbrauch. für diese spiele könnte ich mir ein 1900mhz preset im afterburner basteln, dann wäre ich immernoch sparsamer als stock und trotzdem schneller als stock. genau wie bei rdna2. obwohl jene schon in 7nm gefertigt ist. daran kann man erkennen das amd immernoch hinten liegt falls irgendwann mal die gleiche fertigung genutz werden sollte. trotz IC.
Daredevil
2021-01-10, 22:24:24
Meine 5700 XT läuft <1000rpm und den VRAM-Hotspot hab ich per Sensor im Blick bzw. weiß durch diesen, dass dessen Temperatur immer unkritisch ist.
Wenn das mit dem GDDR6X-Speicher auf den Ampere-Karten so nicht geht, wär das schon ein Nachteil. Noch ein Vorteil für den IF-Cache. :cool:
Ja, da muss man dann halt selber händisch aufpassen, aber bei AMD wird es bestimmt auch eine "Fuckyou" Grenze geben, wo der Lüfter am Ende versucht den RAM zu retten. Mach ihn doch mal aus. :D
Habe gerade meine Navi Werte nicht gefunden, hab aber nur dargos gefunden:
Unter 1000rpm, knapp unter 100°C beim Speicher.
https://abload.de/img/control_dx12_2019_10_1ok8s.jpg
Ist halt echt kein Einzelfall, beim Mining würde dargos Karte wohl abschalten mit diesem Profil. :X
Es gibt aber bis dato kein Spiel, was den Speicher so sehr fordert, dass der Lüfter aufgrund des Speichers höher drehen muss, deswegen ist das alles irrelevant fürs Gaming, was wir hier theorisieren. Die FE ist bis aufs blitzeln Flüsterleise, wenn man nicht unbedingt 400w draufjagt.
so ist das aber nicht. zum einen, weil in games nie der lüfter aufjault, daran könnte man es erkennen wenns dem speicher zu warm wird und ausserdem würde er die leistung drosseln wenn der lüfter nicht hilft.
Deine FE wird nicht hin und wieder deutlich lauter und beruhigt sich dann wieder?
MfG
Raff
Ex3cut3r
2021-01-10, 22:58:34
Soweit ich den Thread verfolgt habe, hat er hinten einen Passiv Kühler mit Lüfter der anbläst montiert, deswegen jault da zwischendurch auch nix hoch.
Ich bleibe dabei, für 1500€ erwarte ich einfach mehr, bzw. ein rundumsorglos Paket. Vorallem bin ich auch ein Optik Fan und sowas geht einfach gar nicht, da es nach 5€ Russen Methodik aussieht. ^^
Gäbe es die ASUS TUFs in Massen zur UVP, wurde doch keiner ernsthaft die FE in Betracht ziehen, mit diesen VRAM Temps.
Schnoesel
2021-01-10, 23:04:39
Da gibts so viele 3090er auf dem Markt, die schon mit stock settings überfordert sind und die kosten alle mehr als 1.5k. Und wir haben Winter. Der Zotac Trinity Kühler taugt auch nicht, im Sommer wäre der noch mehr am Limit wenn nicht schon drüber.
BlacKi
2021-01-10, 23:17:09
Soweit ich den Thread verfolgt habe, hat er hinten einen Passiv Kühler mit Lüfter der anbläst montiert, deswegen jault da zwischendurch auch nix hoch.
Ich bleibe dabei, für 1500€ erwarte ich einfach mehr, bzw. ein rundumsorglos Paket. Vorallem bin ich auch ein Optik Fan und sowas geht einfach gar nicht, da es nach 5€ Russen Methodik aussieht. ^^
Gäbe es die ASUS TUFs in Massen zur UVP, wurde doch keiner ernsthaft die FE in Betracht ziehen, mit diesen VRAM Temps.
ihr vermischt zuviele dinge. den kühler hab ich wegen dem mining aufgelegt. für games ist der nicht notwendig.
mining: core temp niedrig + speicher heiß = lüfter dreht auf
games: core temp hoch + speicher warm = lüfter dreht bei +-1100rpm (aufjaulen gibts nicht)
schlussfolgerung = der lüfter ist sowohl core als auch speichergeregelt. man kann am lüfter und coretemp ableiten wann es dem speicher zu warm wird.
aufkrawall
2021-01-10, 23:23:50
Habe gerade meine Navi Werte nicht gefunden, hab aber nur dargos gefunden:
Unter 1000rpm, knapp unter 100°C beim Speicher.
https://abload.de/img/control_dx12_2019_10_1ok8s.jpg
Ging bei mir bisher nicht über 92°C bei wenig stromhungrigen Spielen, bei denen der GPU-Hotspot nicht so heiß wird mit entsprechend niedriger Drehzahl. Ist btw. der heißeste Hotspot aller Speicher-Chips im Inneren, ist also nicht so wild wie es aussieht.
hq-hq
2021-01-10, 23:25:29
ich würde mir bei der FE nicht so viele Sorgen machen, die geben ja 3 Jahre Garantie steht auf der Schachtel
auf die Lebensdauer geht das natürlich schon wenn die immer wieder von 30 auf 80°C aufgeheizt wird und dann wieder abkühlt ;-)
dargo
2021-01-10, 23:26:33
@Daredevil
Wie schön, dass du eins meiner Bilder aus dem Kontext reißt. :tongue:
1. Eine Sapphire Pulse ist keine MSI Gaming X, zwei völlig verschiedene Kühleransätze.
2. Das war nur ein Test von mir und kein Default-Setting bezüglich Lüfterdrehzahl.
3. Wieso stören dich eigentlich die hohen Speichertemperaturen bei Nvidia nicht? Achja... Nvidia liest ja keinen Hotspot aus, da muss man noch ~20°C drauf rechnen.
Dort ist auch schon ein Speicherchip bei ~96°C Hotspot und die Lüfter sind meilenweit von ~1000RPM entfernt. :wink:
https://www.igorslab.de/palit-geforce-rtx-3080-gaming-pro-review-vernuenftiger-einstieg-ins-nvidia-oberhaus/5/
BlacKi
2021-01-10, 23:35:23
kannst du mal erklären was du mit der 3080 auf die 3090 zu übertragen versuchst?
dargo
2021-01-10, 23:38:29
Erst wenn du mir erklärst was Daredevil von RX 5700XT auf die RTX 3090 zu übertragen versucht. :ulol:
Daredevil
2021-01-10, 23:44:46
Ging bei mir bisher nicht über 92°C bei wenig stromhungrigen Spielen, bei denen der GPU-Hotspot nicht so heiß wird mit entsprechend niedriger Drehzahl. Ist btw. der heißeste Hotspot aller Speicher-Chips im Inneren, ist also nicht so wild wie es aussieht.
Ich wollte damit auch nicht sagen, dass das auch bei dir der Fall sein muss.
War nur ein Beispiel und das ist natürlich nicht repräsentativ für jede Karte da draußen ^^
@Daredevil
Wie schön, dass du eins meiner Bilder aus dem Kontext reißt. :tongue:
1. Eine Sapphire Pulse ist keine MSI Gaming X, zwei völlig verschiedene Kühleransätze.
2. Das war nur ein Test von mir und kein Default-Setting bezüglich Lüfterdrehzahl.
3. Wieso stören dich eigentlich die hohen Speichertemperaturen bei Nvidia nicht? Achja... Nvidia liest ja keinen Hotspot aus, da muss man noch ~20°C drauf rechnen.
Dort ist auch schon ein Speicherchip bei ~96°C Hotspot und die Lüfter sind meilenweit von ~1000RPM entfernt. :wink:
https://www.igorslab.de/palit-geforce-rtx-3080-gaming-pro-review-vernuenftiger-einstieg-ins-nvidia-oberhaus/5/
Darum gings ja. Jedem Speicher wird warm. Bei dem einen muss der Lüfter nicht eingreifen ( Navi ), bei dem anderen schon ( Ampere ). Beides hat seine Vor- und Nachteile, beides hat aber den gleichen Grund > Hooot.
Ich hätte auch die TuF als Beispiel nehmen können, die leidet nämlich wirklich mit ihrem Kuchenblech. Mir gings hier aber nicht um einen Flamewar, sondern das ich die gleiche Erfahrung mit der 3090 mache wie mit anderen Karten auch, nur das der Speicher jetzt auch der anderen Seite sitzt.
Mich stört beides beim Mining, weil ich beides nicht gebrauchen kann.
Bei AMD kann ich immerhin sehen, wann der Speicher zuheiß wird, bei Nvidia muss ich die Wohlfühl Temp immer schätzen.
Bei der 1080ti war die RAM Wohlfühltemp bei genau 63°C Coretemp. Bei jedem °C drüber wurde auch der Speicher zu heiß. Wie heiß der Speicher wurde? Keine Ahnung, Nvidia gibt es ja nicht an.
Bei Vega waren es 90-92°C, die es zu Vermeiden galt, bevor die Leistung sank.
Bei Ampere habe ich gänzlich keine Ahnung, wie heiß mein Speicher ist, weil die Coretemp immer recht niedrig ist. Ist ja auch kein Wunder, wenn die Rückseite mit der Vorderseite gekühlt werden soll. :D
Und nochmal für alle.
Mining erschafft keine Last, die für Consumer Grafikkarten "normal" ist, weil quasi ausschließlich der übertaktete Speicher genutzt wird.
Wer daraus schließt, dass die Karte beim Gaming laut wird, liegt falsch.
-/\-CruNcher-/\-
2021-01-10, 23:57:55
Ist so pauschal nicht richtig. Die Leute schreiben hier ständig von ~1,8GHz bei irgendwas um ~0,85V. Das ist mal schon eine deutliche Taktreduktion gegenüber @stock. Bei den RDNA2-Chips kann man eher die Spannung deutlich reduzieren und dabei noch etwas Takt drauf klatschen. Das war mit RDNA1 vs. Turing noch umgekehrt, AMD ist einfach auch da vorbei gezogen...
Wenn ich das höre wird mir schlecht du vercheckst die realität hier etwas AMD ist nicht vorbeigezogen Nvidia muss mit einem leicht schlechteren Node das selbe momentan erreichen.
Und so gesehen stehen sie extrem standhaft dagegen im Vergleich zu AMD vorher und teils ist die Balance trotzdem noch extrem überzeugend wenn man die insgesammte Balance betrachtet und AMDs noch Probleme.
Vor allem je niedrieger im Stack stehen sie trotz dieses Nachteils immer noch sehr sehr überzeugend auf den beinen.
Und rutschen noch nicht auf dem Boden rum wie das einige der Medienvertretter gerne darstellen
OC_Burner
2021-01-11, 00:35:13
Ich habe heute mal nen kleinen Alublock auf die Rückseite gepappt beim ETH Mining, das Ergebnis ist echt sehr beindruckend. :)
ETH Mining Max Speed > 2400rpm und Performance Probleme
Alu Kühlkörper ohne WLP auf den Rücken gelegt > geht langsam auf ~1200rpm runter, steigt dann wieder langsam auf 1600rpm
Alu Kühlkörper mit WLP auf den Rücken gelegt > geht schnell auf ~800rpm runter, steigt dann wieder langsam auf ~1600rpm
Auch hier merkt man aber, dass der Kühlkörper Wärme aufnimmt, die komplette Wärme bekommt er aber nicht schnell abgetragen, da kaum Luft vorbei zieht. Da kann ich aber noch was optimieren.
Wirklich sehr interessant. :)
Habe nen Video gemacht, das dauert aber erstmal, weil um 21 Uhr unser Netz irgendwie arschlahm ist.
Bin gespannt.
Heute ein Wasserkühler auf die FE geschnallt und mal ETH Mining probiert. Der Speicher unter der Backplate wird mit 73°C sogar wärmer als wie mit dem Nvidia Luftkühler und aktiver Backplatekühlung. Die Backplate der Wasserkühlung läßt sich kaum anfassen.:freak:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73585&stc=1&d=1610320420
Unter 3D Anwendungen mit Stocktaktraten bleibt der Speicher in etwa 10°C Kühler.
Speichertemp. unterhalb der Backplate mit Nvidia Luftkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73586&stc=1&d=1610320420
Speichertemp. unterhalb der Backplate mit Wasserkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73587&stc=1&d=1610320420
aufkrawall
2021-01-11, 00:46:22
Wenn ich das höre wird mir schlecht du vercheckst die realität hier etwas AMD ist nicht vorbeigezogen Nvidia muss mit einem leicht schlechteren Node das selbe momentan erreichen.
Du hast es noch nicht so ganz gecheckt: RDNA2 läuft im selben 7nm Prozess mit einem viel besseren Takt/Spannung-Verhältnis als RDNA1. Im undervolteten Zustand ist der ASIC-Verbrauch von einer 5700 XT und 6800 häufig identisch, letztere aber 60-70% schneller. Dagegen stinkt selbst der Effizienz-Sprung Kepler -> Maxwell als unspektakulär ab.
Ist außerdem ein Irrglaube, dass mit neuerem Prozess unbedingt höhere Taktraten erreicht werden können bzw. das scheint schon lange vorbei zu sein...
Bin gespannt.
Heute ein Wasserkühler auf die FE geschnallt und mal ETH Mining probiert. Der Speicher unter der Backplate wird mit 73°C sogar wärmer als wie mit dem Nvidia Luftkühler und aktiver Backplatekühlung. Die Backplate der Wasserkühlung läßt sich kaum anfassen.:freak:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73585&stc=1&d=1610320420
Unter 3D Anwendungen mit Stocktaktraten bleibt der Speicher in etwa 10°C Kühler.
Speichertemp. unterhalb der Backplate mit Nvidia Luftkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73586&stc=1&d=1610320420
Speichertemp. unterhalb der Backplate mit Wasserkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73587&stc=1&d=1610320420
Spannend! =) Mit welchem Tool liest du die MVDDC aus? Und warum ist es bei dir so warm? Dauer-Mining? :biggrin:
MfG
Raff
-/\-CruNcher-/\-
2021-01-11, 01:12:43
Du hast es noch nicht so ganz gecheckt: RDNA2 läuft im selben 7nm Prozess mit einem viel besseren Takt/Spannung-Verhältnis als RDNA1. Im undervolteten Zustand ist der ASIC-Verbrauch von einer 5700 XT und 6800 häufig identisch, letztere aber 60-70% schneller. Dagegen stinkt selbst der Effizienz-Sprung Kepler -> Maxwell als unspektakulär ab.
Ist außerdem ein Irrglaube, dass mit neuerem Prozess unbedingt höhere Taktraten erreicht werden können bzw. das scheint schon lange vorbei zu sein...
Die Effizienz nur 1 komponente zu betrachten ist aber leider verkehrt RT und VPX sind in Ampere immernoch komplexer als wie bei RDNA2 und sehr viel Leistungsfähiger und nicht minimalistisch ausgelegt, diese Balance hätte Nvidia auch ins Rasterizing stecken können.
Wenn die RAW RT Performance aus 3070 herauskommen kann nicht Hybrid sieht die 6800 kein Land mehr genauso wenn du RT rappeln lässt und das ganze dann gleichzeitig streamst.
Wärend du dazwischen noch eine Zoom oder Discord Konferenz laufen lässt.
Sprich wenn du mal wirklich alles unter feuer nimmst was geht und es concurent arbeiten lässt und dir dann Stromverbrauch und Latenzen jedes zur selben Zeit ausgeführten Task anschaust.
Daredevil
2021-01-11, 01:22:37
Bin gespannt.
Heute ein Wasserkühler auf die FE geschnallt und mal ETH Mining probiert. Der Speicher unter der Backplate wird mit 73°C sogar wärmer als wie mit dem Nvidia Luftkühler und aktiver Backplatekühlung. Die Backplate der Wasserkühlung läßt sich kaum anfassen.:freak:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73585&stc=1&d=1610320420
Unter 3D Anwendungen mit Stocktaktraten bleibt der Speicher in etwa 10°C Kühler.
Speichertemp. unterhalb der Backplate mit Nvidia Luftkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73586&stc=1&d=1610320420
Speichertemp. unterhalb der Backplate mit Wasserkühler bei der Founders Edition:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73587&stc=1&d=1610320420
Super spannende Werte, Danke! :D
Hier gibts das kleine Alu-Kühlkörper Video
MNxQSWETCAs
Habs jetzt permanent mit WLP im Gehäuse und lass es einfach da.
Da ist die Übertragung nochmal ein wenig schneller, aber die +1200 aufm RAM kann ich immer noch nicht bedienen, wird immer noch zu warm bei 1200MHz bzw. hörbar bis laut.
Dafür sinkt der Pegel aber generell bei +500Mhz und das ist schon ganz fein.
Allgemein glaube ich nicht, dass das irgendwas fürs Gaming bringt, aber gefühlt ist natürlich jetzt alles schneller, ist ja klar. :D
OC_Burner
2021-01-11, 01:23:29
Spannend! =) Mit welchem Tool liest du die MVDDC aus? Und warum ist es bei dir so warm? Dauer-Mining? :biggrin:
MfG
Raff
Wohlfühltemp. liegt bei 26°C-27°C, daher so warm. Auslesen von MVDDC erledigt GPU-Z bei mir.
Vielleicht ist der Rest aus der Tabelle ja auch interessant. Leider fehlen Werte zur Luftkühlung ohne extra Kühler auf der Backplate.
Die Spannungen sind nur grob eingestellt und nicht ausgelotet worden.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73588&stc=1&d=1610324418
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73589&stc=1&d=1610324418
Edit:
Super spannende Werte, Danke! :D
Hier gibts das kleine Alu-Kühlkörper Video
https://youtu.be/MNxQSWETCAs
Habs jetzt permanent mit WLP im Gehäuse und lass es einfach da.
Da ist die Übertragung nochmal ein wenig schneller, aber die +1200 aufm RAM kann ich immer noch nicht bedienen, wird immer noch zu warm bei 1200MHz bzw. hörbar bis laut.
Dafür sinkt der Pegel aber generell bei +500Mhz und das ist schon ganz fein.
Allgemein glaube ich nicht, dass das irgendwas fürs Gaming bringt, aber gefühlt ist natürlich jetzt alles schneller, ist ja klar. :D
Wenn der Kontakt zur Backplate gut ist, gehen die Temps bei mir am Fühler binnen Sekunden um etliche Grad Celsius nach unten. Hast du den Alukühler nochmal umgeparkt? Es sieht so aus als stünde der Kühler ein bißchen auf kippe wegen dem erhöhten V-Steg/Rahmen von der Backplate.
Nazar
2021-01-11, 08:42:29
Also das verstehe wer will.
Es kommt die Aussage, dass Ampere unheimlich viel mehr Watt verbraten muss (Leistung), um um ein Haar Schneller zu sein als RDNA2 und als Gegenargumente kommmt dann:
Das regelt der MSI Afterburner
Das ist gar nicht so viel
Unter RT ist Ampere effizienter als RDNA2
Undervolting
Keine der Aussagen widerlegt die Aussage, dass Ampere viel mehr Leistung (Watt) benötig, um die gleiche Leistung wie RDNA2 in Spielen abzurufen oder was sollen diese doch recht seltsamen Aussagen für einen Zweck haben? :confused:
MSI Afterburner ist ein externes Tool und wenn man es bei RDNA2 nutzt, ergeben sich ähnlich Änderungen wie bei Ampere
Wenn man 100+ Watt Unterschied nicht als viel erachtet, dann sollte man sich aus solchen Diskussionen fern halten
RT spielt in dieser Vergleich überhaupt keine Rolle.
Sobald man RDNA2 undervoltet, ändert sich rein gar nichts am Unterschied zu Leistung und Watt
Die Aussage, dass Ampere recht ineffizient gegenüber RDNA2 ist, bleibt de facto also erhalten und wurde nicht ein einziges Mal widerlegt.
Ich finde es schon recht lächerlich sich so eine Karte zu kaufen und dann mit dem Unvervolting anzufangen, bis man knapp über der Leistungsgrenze einer OC 2080ti angekommen ist, um dann im Vergleich der Effinziens mit RDNA2 ein "Argument" zu haben. :freak:
Nazar
2021-01-11, 08:50:03
Betreff Wasserkühlungen Gigabyte RTX 3090 Vision OC, der Wasserkühler von Alphacool für die Gaming/Eagle passt hier auch:
Für alle die es interessiert.
Wer sich einen Wasserkühler für die Gigabyte 3080/3090 Vision OC kaufen möchte, der WK von Alphacoll für die 3080/3090 Gaming/Eagle passt hier auch.
Es werden für die Backplate teilweise unterschiedliche Wäremeleitpads für die Gaming und die Eagle Version benötigt (liegen bei).
Man muss bei der Vision die der Eagle nehmen damit alles passt.
-/\-CruNcher-/\-
2021-01-11, 09:19:33
Also das verstehe wer will.
Es kommt die Aussage, dass Ampere unheimlich viel mehr Watt verbraten muss (Leistung), um um ein Haar Schneller zu sein als RDNA2 und als Gegenargumente kommmt dann:
Das regelt der MSI Afterburner
Das ist gar nicht so viel
Unter RT ist Ampere effizienter als RDNA2
Undervolting
Keine der Aussagen widerlegt die Aussage, dass Ampere viel mehr Leistung (Watt) benötig, um die gleiche Leistung wie RDNA2 in Spielen abzurufen oder was sollen diese doch recht seltsamen Aussagen für einen Zweck haben? :confused:
MSI Afterburner ist ein externes Tool und wenn man es bei RDNA2 nutzt, ergeben sich ähnlich Änderungen wie bei Ampere
Wenn man 100+ Watt Unterschied nicht als viel erachtet, dann sollte man sich aus solchen Diskussionen fern halten
RT spielt in dieser Vergleich überhaupt keine Rolle.
Sobald man RDNA2 undervoltet, ändert sich rein gar nichts am Unterschied zu Leistung und Watt
Die Aussage, dass Ampere recht ineffizient gegenüber RDNA2 ist, bleibt de facto also erhalten und wurde nicht ein einziges Mal widerlegt.
Ich finde es schon recht lächerlich sich so eine Karte zu kaufen und dann mit dem Unvervolting anzufangen, bis man knapp über der Leistungsgrenze einer OC 2080ti angekommen ist, um dann im Vergleich der Effinziens mit RDNA2 ein "Argument" zu haben. :freak:
Was wenn die Architektur nicht das selbe erreichen kann ist das schon relevant du brauchst Energie dafür sachen stabil zu halten.
Du beziehst dich hier nur auf den 3D Workload in einem sehr eng gefassten Scenario das auschlieslich auf die Raster und vor allem Geometry Performance ausgelegt ist und dadurch ca + 5-10 FPS mehr leisten kann als Ampere auf diese Balance ausgelegt.
Und ignorierst den rest der Balance einfach komplett wie die meisten Medienvertretter, aber egal hat keinen Sinn mit jemanden zu diskutieren der nicht über den Tellerrand schauen kann "Tunnelblick".
Du kannst nicht immer alles im Chip komplett tot legen gating hat je nach Szenario auch Limits.
Ben Carter
2021-01-11, 09:33:29
Nur dass Raster-Performance im groben Schnitt der Spieler wohl das häufigste Szenario ist. Ich sehe derzeit die Effizienz auch eindeutig auf AMD-Seite. Ich glaube zwar, dass ein Teil davon bei der Fertigung liegt, doch 8nm Samsung ist am Ende auch eine nVidia-Entscheidung gewesen.
Es ist schön, dass die beiden Firmen wieder so nahe aneinander liegen, dass man sich selbst über kleine Punkte streiten kann. Weniger schön ist, dass wieder gestritten wird auf Teufel komm raus, um sein gekauftes/gewünschtes Produkt oder seine Firma zu verteidigen. Für uns Kunden ist es nur förderlich, wenn sich die Unternehmen gegenseitig pushen.
-/\-CruNcher-/\-
2021-01-11, 09:40:14
Ja wie gesagt Nvidias Entscheidung das müssen wir eh vorerst mit DLSS kompensieren und dann kommen wir locker über AMDs 10 FPS Gewinn.
Und auch Mobile brauchen wir "noch" keine sonderliche Angst zu haben vor dem 7N Vorteil.
Wie gesagt die Balance wird jetzt gerade angepasst auf das was man teils wahrscheinlich so nicht erwartet hat von AMD die 6800 wird bald wieder in Benchmarks geschlagen b.z.w erreicht werden beim selben Verbrauch und das ohne DLSS.
Wobei man wusste das sie die 2080 TI schlagen wird aus den Modellen das AMD 2x erreichen wird und das die 16GB teils besser darstehen würden als die 8GB wenn auch nur in relativ wenig relevanten unoptimierten Szenarien bzw man wusste es nicht und hat den Infinity cache nicht kommen sehen.
Ben Carter
2021-01-11, 09:42:06
Tja, das was ich spiele lässt sich nicht mit DLSS kompensieren, weil es kein DLSS hat/unterstützt.
-/\-CruNcher-/\-
2021-01-11, 10:05:50
Ja Nvidias Prediction zumindestens jeder Next Gen Konsolenport sollte DLSS nutzen, b.z.w sie haben teils keine andere Wahl.
Es ist aber auch logisch wenn der Dev seine Performance Ziele aus eigener Kraft auf Nvidia Hardware nicht oder zu langsam erreichen wird dann wird er DLSS dankend annehmen.
B.z.w sein Publisher wird ein wörtchen mitreden wieso das so lange dauert ;)
akuji13
2021-01-11, 10:58:15
Es kommt die Aussage, dass Ampere unheimlich viel mehr Watt verbraten muss (Leistung), um um ein Haar Schneller zu sein als RDNA2 und als Gegenargumente kommmt dann:
Es bedarf, wie bei anderen Produkten auch, überhaupt keiner Gegenargumente solange man "um ein Haar" schneller ist.
Was auch so über alle Szenarien (Raster, RT, VRR) gesehen nicht stimmt.
Wenn man 100+ Watt Unterschied nicht als viel erachtet, dann sollte man sich aus solchen Diskussionen fern halten
Keine Ahnung wo du die 100+ Watt sehen willst abseits irgendwelcher Spezialfälle.
PCGH und CB sehen etwa ~50W.
Man sollte sich grundsätzlich aus Diskussion um die Leistungsaufnahme heraus halten wenn man eine solche high end Karte besitzt.
Schnoesel
2021-01-11, 11:01:46
Ich hätte gerne die 50 Watt weniger Verbrauch. Das sind genau diese 50 Watt mehr wegen der ich meine Lüfter eine Stufe höher einstellen musste und mir für den Sommer noch nen 360er Radiator zulegen werde. Das sind auch die 50 watt mehr (+ Lastspitzen), wegen der sehr viele Leute sich ein neues NT anschaffen dürfen. Warum sollte man die Leistungsaufnahme einer High End Karte nicht zu Thema machen nur weil sie High End ist? Blödsinn!
akuji13
2021-01-11, 11:03:47
Warum sollte man die Leistungsaufnahme einer High End Karte nicht zu Thema machen nur weil sie High End ist? Blödsinn!
Wenn dir die 50W zuviel sind, hättest du auch ein Modell darunter kaufen können. ;)
Ergo Blödsinn sich einen top dog zu holen und dann über die Leistungsaufnahme zu jammern.
Ich musste weder ein neues Netzteil kaufen noch muss ich die WaKü aufrüsten.
Besser vorher planen was man kauft und auch mal langfristig planen.
Schnoesel
2021-01-11, 11:06:46
Genau und das Modell darunter hat dann wieviel VRAM? 10 GB? Verfügbarkeit? Nicht vorhanden! Auch wenn ich diese Karte besitze darf ich dennoch meine Meinung äußern, dass Nvidia mit der Leistungsaufnahme von Ampere völlig in die falsche Richtung geht und ich finde außerdem, dass AMD in diesem Bereich smarter unterwegs ist.
Blödsinn sich ein Produkt in allen Bereichen schönzureden oder Negativaspekte auszublenden nur weil man dieses besitzt.
akuji13
2021-01-11, 11:07:27
Du hättest keine 3090 kaufen müssen, AMD hat doch auch was nettes im Angebot.
Aber irgendeinen Grund muss es ja geben der dich zur 3090 bewegt hat.
Und natürlich darfst du äußern was du willst...ich allerdings auch.
Troyan
2021-01-11, 11:14:04
Die 3090 liefert bis zu doppelt so viel Leistung zur 6900XT und dann beschwert man sich, dass die Karte 17% mehr Strom benötigt. Davon abgesehen, ist der Stromverbrauch für die Kühlung nicht so relevant, da das meiste beim Speicher draufgeht. Da sollte ein Wasserkühler kaum Probleme machen.
Schnoesel
2021-01-11, 11:15:15
Nur ist die Verfügbarkeit bei den AMD genauso beschissen, was letztendlich auch der Grund für den Kauf einer 3090 war (und nicht etwas RT, DLSS oder sonstiges). Die war halt schlicht verfügbar, zudem habe ich eine Gsync Monitor (mein Fehler auf dieses proprietäre Feature zu setzen, das wird auch nicht mehr passieren).
Nicht dass ich es nicht bei einer 6800XT oder 6900XT versucht hätte.
Bis zu doppelte Leistung? Nicht in meinen Spielen. In Troyans Cherrypicking Sammlung vielleicht. Dein Marketingquatsch kannst hier echt stecken lassen.
Troyan
2021-01-11, 11:33:42
Stimmt, "Cherrypicking". Minecraft ist auch so unbedeutend. Oder 60% in Control. Alles unbedeutende Spiele. Wichtig sind nur die Spiele eines AMD Trolls.
Komm, verkauf die Karte und kauf die eine AMD Karte. Am besten für 1000€, dass du uns dann alle mitteilen kannst, wie toll es ist Effekte in Spielen zu deaktivieren.
Schnoesel
2021-01-11, 11:36:31
Ich spiele weder Minecraft noch Control. Insofern interessieren mich diese naturgemäß nicht. Verstanden ? Nein ? Auch gut. Ignore!
akuji13
2021-01-11, 11:40:25
@Schnoesel
Die 50W sind der Preis den du zahlst für +8Gb VRAM (keine Ahnung ob der nun 10, 20 oder wieviel Watt auch immer braucht), aktuell (kann sich ändern) bessere RT Leistung und features alá DLSS.
Aus meiner Sicht sind selbst die ~300W für eine 6900XT bereits viel zu viel.
Ich hätte gerne die Leistung der 3090 aber bei 180W.
Gibts aber nicht, ist nicht in Sicht und ganz wichtig, da liegt nämlich die Wahrheit begraben:
Ich wollte genau so wenig warten wie du.
Sehendes Auges (die Leistungsaufnahme der 3090 war dir bekannt) etwas zu kaufen und sich danach darüber zu beschweren ist...inkonsequent.
WedgeAntilles
2021-01-11, 12:12:15
Genau und das Modell darunter hat dann wieviel VRAM? 10 GB? Verfügbarkeit? Nicht vorhanden! Auch wenn ich diese Karte besitze darf ich dennoch meine Meinung äußern, dass Nvidia mit der Leistungsaufnahme von Ampere völlig in die falsche Richtung geht und ich finde außerdem, dass AMD in diesem Bereich smarter unterwegs ist.
Blödsinn sich ein Produkt in allen Bereichen schönzureden oder Negativaspekte auszublenden nur weil man dieses besitzt.
Und was genau hindert dich jetzt daran, die Karte stromsparender zu betreiben?
Ohne RT hast du sowieso mehr als genug Frames.
Und mit RT ist die 3090 auch undervolted deutlich schneller als die AMD Karten.
Du bekommst mit der 3090 mehr Ram als bei AMD, mehr Frames als bei AMD, bei RT deutlich mehr Frames und bei DLSS mindestens 50% mehr Frames als bei AMD.
Wenn du die Karte jetzt untertaktest brauchst du gleich viel Strom und bist bei RT (selbst ohne DLSS) immer noch deutlich besser bedient als bei AMD.
Ich stimme dir aber zu, dass ich weder bei der 3080 noch bei der 3090 den Takt sehr gelungen finde - hier wäre weniger IMO mehr gewesen.
10% Stromverbrauch runter, dafür 2,3% weniger Leistung wäre IMO die vernüftigere Einstellung gewesen.
So muss man von Hand runtertakten, was natürlich aufwändig um umständlich ist.
Daredevil
2021-01-11, 12:20:11
Wie könnt ihr eigentlich von Effizienz reden, wenn nicht mal das Problem gelöst ist, was die Karten lösen sollen?
Erst wenn 4k@60 oder in meinem Fall 4k@120 gelöst ist, geht es an die Effizienz, vorher geht es an die Problemlösung.
Was bringt mir ne effiziente 6800, wenn die 40fps in 4K ausspuckt?
Dann lasse ich den pc aus und habe kein Bock drauf, das ist hocheffizient.
Die 3090 ist für mich aktuell die Karte, die 4k120 am besten lösen kann, deswegen ist das für mich alternativlos. AMDs Lösung ist für P/L Käufer klasse und ebenfalls für Stromsparfreunde, aber eben nicht um maximal viel Pixel zu schubsen.( ist das nicht der sinn einer GPU ? )
akuji13
2021-01-11, 12:26:40
Kommt auf den Ansatz an.
Für Junior sollte sie (also eine GPU, nicht zwingend eine 3090) möglichst viele fps ausspucken@full hd bzw. 2560x1080.
Grundsätzlich stimme ich dir zu:
Ein high end Szenario benötigt high end hardware und die saugt nunmal auch high end.
Habs schon oft geschrieben, auch jetzt wieder:
In allen anderen Hobbys denen ich nachgehe oder nachgegangen bin habe ich solche Diskussionen nie erlebt.
RoughNeck
2021-01-11, 12:34:01
Solange AMD kein DLSS hat, solange juckt mich AMD nicht, zudem zeigt Ampere erst ab 1440p was Sache ist und da brechen die AMD Karten schon weg, bei 4K erst recht.
Daredevil
2021-01-11, 12:35:13
Dafür braucht man aber keine 3090, die 350w säuft.
Das Grab schaufelt sich doch jeder selbst, der sich nen 144hz Monitor holt anstatt weiter mit seiner 60hz Möhre zu spielen.
Dieser Umstieg alleine kostet schon 50-150w gpu Leistung, sofern man die fps erreichen kann in z.B. WQHD.
Thunder99
2021-01-11, 12:37:10
Solange AMD kein DLSS hat, solange juckt mich AMD nicht, zudem zeigt Ampere erst ab 1440p was Sache ist und da brechen die AMD Karten schon weg, bei 4K erst recht.
Stimmt nicht, sondern Nvidia kann ab da ihre Rohleistung besser auf die Straße bringen. Wie damals bei GNC bei AMD.
WedgeAntilles
2021-01-11, 12:40:18
Wie könnt ihr eigentlich von Effizienz reden, wenn nicht mal das Problem gelöst ist, was die Karten lösen sollen?
Erst wenn 4k@60 oder in meinem Fall 4k@120 gelöst ist, geht es an die Effizienz, vorher geht es an die Problemlösung.
Was bringt mir ne effiziente 6800, wenn die 40fps in 4K ausspuckt?
Dann lasse ich den pc aus und habe kein Bock drauf, das ist hocheffizient.
Es geht ja nicht darum, 40% weniger Strom zu verbrauchen.
Und dabei auf 30% Frames zu verzichten.
Aber ob ich jetzt 60 Frames oder 58 habe - ist das ernsthaft ein Unterschied?
Wenn ich dafür aber statt 350 Watt nur 310 Watt verbrauche - oder bei der 3080 statt 320 Watt nur 280 Watt oder so - habe ich da doch handfeste Vorteile.
Geringere Wärme im Sommer, niedrigere Geräuschbelastung, vermutlich auch weniger Verschleiß und so weiter.
Bei der 3080 und der 3090 kannst du ne ganze Menge Strom einsparen und hast quasi die gleiche Leistung wie vorher.
Beim Topmodel 3090 kann ich es noch halbwegs nachvollziehen, aber bei der 3080 finde ich das Ausgangssetting von Nvidia einfach nicht ideal.
Ben Carter
2021-01-11, 12:42:54
Wie könnt ihr eigentlich von Effizienz reden, wenn nicht mal das Problem gelöst ist, was die Karten lösen sollen?
Erst wenn 4k@60 oder in meinem Fall 4k@120 gelöst ist, geht es an die Effizienz, vorher geht es an die Problemlösung.
:up:
Interessant wäre ja mal ein Blindtest ohne RT/DLSS bei WQHD und 4k mit 3070, 3080, 3090 und 6800(XT) und 6900XT. Würde mich glatt mal interessieren, wie viele Leute, die von einem riesigen Unterschied sprechen, dann wirklich einen Unterschied bemerken. Natürlich ohne die FPS dem Testopfer zu zeigen. :D
---
Was glaubt ihr, warum die Hersteller die Backplate der 3090 so einfach halten und keine Finnen drauf bauen? Wegen Kosten, Platz oder weil es im Gamingbetrieb schlicht nicht nötig ist? Ich denke, dass der Platz der Grund ist. Bei großen Towerkühlern kann es dann ja schon mal recht eng werden.
EDIT: Wenn man ein wenig Strom sparen will oder einfach etwas effizienter sein will, kann man vieles machen. Einerseits einfach mit einem 3rd Partytool das Powerlimit runtersetzen, was zwar die Installation einen solchen Tools voraussetzt oder z.B. ein FPS Limit setzen. Natürlich erfordert es ein paar Klicks, aber das finde ich jetzt wirklich nicht dramatisch.
Daredevil
2021-01-11, 12:45:34
Ja klar ist das wichtig, mache ich ja auch.
Wenn Diablo in 4k120 läuft, undervolte ich die 3090, weil es mit 0.7v auch geht und 200w.
Wenn Cyberpunk aber mit 56fps läuft, dann zieht die Karte gefälligst alles was sie kann, damit es maximal fluffig ist.
Wenn ich aber mit einer Karte beides nicht erreiche, optimiere ich nicht, bevor mein Problem nicht gelöst ist.
MiamiNice
2021-01-11, 12:52:13
Ist jetzt schon wieder AMD Kindergeburtstag im 3090 Thread?
Könnt ihr bitte im Ampere Thread euer Geblubber in den Thread whinen?;)
Troyan
2021-01-11, 12:57:07
Speicher benötigt Strom. Speicher, der nicht benötigt wird, ist ein Stromfresser. Also sollte man sich hinterfragen, ob man überhaupt soviel Speicher benötigt, wenn man Effizienz will.
Es ist irgendwie auch ein bisschen irre. Mit Raytracing wird jedes % Leistung benötigt. Eine 3090 mit 375W liefert in Control ca. 60% mehr Leistung als eine 360W 2080TI. Es ist also mitnichten so, dass Ampere nicht effizient wäre.
akuji13
2021-01-11, 12:58:53
Das Grab schaufelt sich doch jeder selbst, der sich nen 144hz Monitor holt anstatt weiter mit seiner 60hz Möhre zu spielen.
Dieser Umstieg alleine kostet schon 50-150w gpu Leistung, sofern man die fps erreichen kann in z.B. WQHD.
Auch der Unterschied zwischen den einzelnen Auflösungen ist gewaltig.
Düdelt meine bei 1080p trotz 240Hz bei ~150-180W rum, sind es bei 2160p dann gleich 240-350W.
Thunder99
2021-01-11, 13:07:06
Finde das Apfel mit Birnen, da eine 2080Ti nicht dafür gedacht ist so viel Default zu verbrauchen.
CB hatte es versucht zu vergleichen, aber mit mäßiger Vergleichbarkeit, da Ampere mit so wenig PT wie eine 2080Ti nicht zurecht kommt.
aufkrawall
2021-01-11, 13:11:01
zudem zeigt Ampere erst ab 1440p was Sache ist und da brechen die AMD Karten schon weg
Was ein Dünn... Blödsinn. :eek:
Bei CB ist die 3080 in 1440p & 1080p 6% vor der 6800 XT und bei den 0,2% low in 1440p ganze 1%. :freak:
dargo
2021-01-11, 13:34:53
Solange AMD kein DLSS hat, solange juckt mich AMD nicht, zudem zeigt Ampere erst ab 1440p was Sache ist und da brechen die AMD Karten schon weg, bei 4K erst recht.
Really? :freak:
https://youtu.be/nxQ0-QtAtxA?t=521
akuji13
2021-01-11, 13:55:02
Aber ob ich jetzt 60 Frames oder 58 habe - ist das ernsthaft ein Unterschied?
Jap, ist es für mich.
Konstante 60 fps überschreiten eine enorm wichtige Grenze und verbessern das Spielgefühl dramatisch.
Das war schon damals am Neo Geo so geil.
Ob 50 oder 52 fps macht für mich keinen Unterschied.
Wenn ich dafür aber statt 350 Watt nur 310 Watt verbrauche - oder bei der 3080 statt 320 Watt nur 280 Watt oder so - habe ich da doch handfeste Vorteile.
Geringere Wärme im Sommer, niedrigere Geräuschbelastung, vermutlich auch weniger Verschleiß und so weiter.
Kommt auf den Nutzer an.
Junior ist es völlig Wurst.
Der Verschleiß interessiert 0, ebenso wie Kosten oder die Abwärme.
Mir hingegen sind weniger Watt willkommen.
Aber da müssen es schon deutlich weniger sein, auch mit 280 Watt heißt es für mich im Sommer: Ich möchte dort nicht spielen wo der Rechner steht.
Ich probiere es dieses Jahr dann mal mit der 3090@180W, befürchte aber auch das wird zuviel sein und deshalb erneut der Zweitrechner am TV zum Einsatz kommen.
Gynoug MD
2021-01-11, 14:05:59
Konstante 60 fps überschreiten eine enorm wichtige Grenze und verbessern das Spielgefühl dramatisch.
Das war schon damals am Neo Geo so geil.
Jo.
(y)
BlacKi
2021-01-11, 17:11:29
Speicher benötigt Strom. Speicher, der nicht benötigt wird, ist ein Stromfresser. Also sollte man sich hinterfragen, ob man überhaupt soviel Speicher benötigt, wenn man Effizienz will. das war die frage was dargo mit dem vergleich zur 3080 hinauswill.
alle denken so: die 3090 hat 23% mehr bandbreite +14 speicher module und obendrauf noch mehr mem takt als die 3080. die 3090 module müssen glühen!11elf.
tatsache ist aber, jedes speicher modul der 3090 verbrauch nur grob die hälfte von dem einer 3080.
die 3090 hat zwar +140% mehr speicher. der speicher brauch unter last aber nur grob +25% mehr. der verbrauch des speichers liegt nicht bei +150%, eher bei +25%.
natürlich wäre normaler gddr6 wohl effizienter, das sollte man dazusagen.
das problem mit dem warmen speicher der 3090 ist nur, das jene auf der backplate vergekühlt werden muss, was gddr6x schwierig ist, besonders beim minen. das ist kein 3090 problem, das ist ein doppelbelegungsproblem.
Troyan
2021-01-11, 17:13:41
Na, der Speicher auf der Rückseite ist nicht relevant, da die Chips im Clammshell-Modus laufen. Sie werden nur mit halber Datenrate angesprochen und erhitzen sich dementsprechend auch nicht im selben Maße.
BlacKi
2021-01-11, 17:16:25
Na, der Speicher auf der Rückseite ist nicht relevant, da die Chips im Clammshell-Modus laufen. Sie werden nur mit halber Datenrate angesprochen und erhitzen sich dementsprechend auch nicht im selben Maße.
hab ich das richtig verstanden, das du damit sagen willst, das bis 12gb belegung die oberen speichermodule auf der backplate keine bandbreite nutzen?
dem würde ich widersprechen. praxistests zeigen anderes.
Troyan
2021-01-11, 17:23:41
Nein, der Speicher ist paarweise angebunden und die GPU liest jeweils mit halber Bandbreite aus einem Chip. Damit erhitzen sich die rückseitigen Speicherchips eben nicht so als wenn man die doppelte Bandbreite hätte (wie die 3080 z.B.).
BlacKi
2021-01-11, 17:55:10
also so wie ich weiter oben geschrieben habe.
Ex3cut3r
2021-01-11, 18:02:38
Wie auch immer. Will die Karte auch nicht unglaublich schlecht reden. Leistung ist definitiv unerreicht fürs erste. Dem Preis könnte ich trotzdem nie zahlen, möchte ich auch gar nicht. Aber nächstes mal sollte Nvidia dem VRAM schon besser kühlen. Fertig.
Viel Spaß damit.
Btw. der Spiele Rls. Kalender sieht ja das erste Halbjahr wirklich extrem schwach aus, selbst FC6 (das einzige welches mich interessiert hat) wurde irgendwann auf 2021 verschoben. :freak:
Da hat man ja richtig Futter mit der 3090 dieses Jahr. (y)
BlacKi
2021-01-11, 18:29:04
ich würde normalerweiße auch nicht solch eine hochpreisige karte kaufen, aber da ich nur den geringen wertverfall zahle bevor die next gen kommt, konnte ich mir den kauf schönrechnen. auch die preise der anderen karten mit hdmi2.1 haben ihren teil getan.
akuji13
2021-01-12, 08:44:32
tatsache ist aber, jedes speicher modul der 3090 verbrauch nur grob die hälfte von dem einer 3080.
Wieviel Watt genehmigt sich so ein Modul?
Das wird immer in pJ/bit angegeben, hängt also von der bewegten Datenmenge ab. Hab aber auch mal was von 2,5W pro Modul bei 32bit Anbindung und 1,5W bei 16 bit gelesen.
MiamiNice
2021-01-12, 15:46:48
Wie auch immer. Will die Karte auch nicht unglaublich schlecht reden. L
Ymmd, Brah :)
Gegen Röstaromen auf der Rückseite: https://videocardz.com/newz/ek-unveils-active-gpu-backplate-cooling-solution :uup:
MfG
Raff
Sardaukar.nsn
2021-01-13, 14:27:23
Gegen Röstaromen auf der Rückseite: https://videocardz.com/newz/ek-unveils-active-gpu-backplate-cooling-solution :uup:
MfG
Raff
Bei den ganzen Basteleien die schon zu dem Thema gesehen habe, danke ich mal die aktive Backplate wird sich gut verkaufen.
MiamiNice
2021-01-13, 14:55:26
Gegen Röstaromen auf der Rückseite: https://videocardz.com/newz/ek-unveils-active-gpu-backplate-cooling-solution :uup:
MfG
Raff
4 Monate eher wäre gut gewesen.
FastAndy
2021-01-13, 14:55:48
Was für eine typische Foren-Panikmache das wieder mit den Temps der Rückseite ist...
MiamiNice
2021-01-13, 15:00:53
Was für eine typische Foren-Panikmache das wieder mit den Temps der Rückseite ist...
Wenn Du auf 70° heiße Oberflächen in Deinem PC stehst - musst Du Dich ja nicht beteiligen. Panik macht hier, außer ein unzufriedener Executer, keiner.
Daredevil
2021-01-13, 16:06:22
Die Rückseite ist btw. aber schon seit dem Backplate Kühler von Arctic Cooling eine gute Möglichkeit, allgemein die Hitze aus dem PCB ( Somit auch SpaWas, RAM, GPU ) zu nehmen.
Wenn man den Platz hat, kann sich das ganze Allgemein lohnen, bei Mainboard Backplates, die einen Kühleffekt haben, ist das ja ebenso der Fall.
Das manche hier aus einer nicht kritischen Situation in einem ungewöhnlichen Anwendungsfall aus ne Mücke nen Elefanten machen möchten, ist halt passive Aggression, die sieht man ja in letzter Zeit hier oft. :<)
jay.gee
2021-01-13, 16:42:37
Btw. der Spiele Rls. Kalender sieht ja das erste Halbjahr wirklich extrem schwach aus, selbst FC6 (das einzige welches mich interessiert hat) wurde irgendwann auf 2021 verschoben. :freak:
Da hat man ja richtig Futter mit der 3090 dieses Jahr. (y)
Der Punkt ist doch, dass man mit viel Grafik-Power nicht erst zukünftig, sondern schon aktuell merklich profitiert. Und ganz besonders die Leute, die halt viel querbeet spielen und noch viel Content aus dem letzten Jahr offen oder nachzuholen haben. Schon mal ein RDR2, Breakpoint, Metro Exodus, Control, Valhalla und Co mit allen Reglern am Anschlag und flüssigen FPS gespielt?
Bei mir profitiert zudem quasi jedes Rennspiel, jede Flugsimulation und auch jedes VR-Erlebnis durch mehr Grafikpower. Und ich habe wie die meisten User wohl immer mehr spielerischen Content auf meinen Festplatten, als ich Zeit habe. Von mir aus brauchte 2021 kein einziger Titel released werden und ich hätte trotzdem genügend Futter für das ganze Jahr, durch den ich nicht rumkrebsen möchte.
dargo
2021-01-13, 17:27:10
Das ist schön für dich. Genauso gibt es Spieler die Games von 2020 oder gar älter durch haben und auf neuen Content schielen der vorerst nicht kommt. Den alten Content nochmal spielen? Das schaffen nur extrem wenige Games, zumindest bei mir.
Schon mal ein RDR2, Breakpoint, Metro Exodus, Control, Valhalla und Co mit allen Reglern am Anschlag und flüssigen FPS gespielt?
Das ist übrigens ein recht witziges Beispiel. RDR2 habe ich wegen der miesen Steuerung und dem problematischen TAA verkauft. Breakpoint hat bei mir überhaupt nicht gezündet, war sogar umsonst von AMD. Bei Metro Exodus bin ich fast eingeschlafen, so langweilig fand ich das Game. Control ist schon längst durch und ich verspüre keinen Drang es nochmal zu spielen. Auch wenn mir die Gamemechanik gefallen hat. Bleibt also nur noch Valhalla. Das kann ich aber auch mit der vorhandenen Graka problemlos spielen. Denn max. Settings muss ich nicht haben, zumal man den Unterschied eh oft mit der Lupe suchen muss. Dieser Drang nach max. Details spielt sich bei vielen nur im Kopf ab. Du siehst also selbst, dass das ganze Thema viel zu individuell ist und man da gar nichts auf alle Spieler verallgemeinern kann.
btw.
Auch ich plane dieses Jahr mir einen neue Graka zuzulegen. Nur wofür weiß ich noch nicht so recht. ;D
jay.gee
2021-01-13, 18:46:11
Das ist schön für dich. Genauso gibt es Spieler die Games von 2020 oder gar älter durch haben und auf neuen Content schielen der vorerst nicht kommt. Den alten Content nochmal spielen? Das schaffen nur extrem wenige Games, zumindest bei mir.
Mag durchaus den einen oder anderen Spieler geben, der durch das lohnenswerte Lineup von 2020 in Fastfood-Mentalität durchgerusht ist. Ansonsten bin ich mir sicher, dass meine getroffene Aussage zutreffend ist und dass alle Besitzer einer neuen Grafikkarte (völlig losgelöst von der 3090er) nicht erst in der Zukunft, sondern schon aktuell in ihrem Hobby von so einer Karte profitieren. In den Genuss wirst du dann in den nächsten Monaten ja auch wieder kommen und es würde mich wundern, wenn du das ernsthaft anders siehst.
btw.
Auch ich plane dieses Jahr mir einen neue Graka zuzulegen. Nur wofür weiß ich noch nicht so recht. ;D
Ich hatte speziell im letzten Jahr bei dir den Eindruck, dass du Spiele nicht mehr nach Content und Interesse bewertest, sondern danach, wie sie auf deinem Rechner laufen. Und in dem Kontext würde es mich auch dann zukünftig nicht wundern, wenn wir 2021 einen dargo erleben, der auch das Jahr 2020 noch einmal neu für sich entdeckt. Ich werde dich beizeiten daran erinnern. ;)
dargo
2021-01-13, 18:55:34
Ich hatte speziell im letzten Jahr bei dir den Eindruck, dass du Spiele nicht mehr nach Content und Interesse bewertest, sondern danach, wie sie auf deinem Rechner laufen. Und in dem Kontext würde es mich auch dann zukünftig nicht wundern, wenn wir 2021 einen dargo erleben, der auch das Jahr 2020 noch einmal neu für sich entdeckt. Ich werde dich beizeiten daran erinnern. ;)
Klingt nach einer Wette. :naughty: 2020 war für mich mit das langweiligste Jahr was PC-Spiele angeht. Im übrigen spuckt eine Bananensoftware mit schnelleren Hardware, ähm... Brechstange die Frames nicht sauberer raus, nur schneller. ;)
hq-hq
2021-01-15, 12:25:00
ich glaube es gibt überhaupt keine Wasserblöcke für die 3090FE
der Alphacool war erst auf 2-4 Werktage Lieferzeit, dann auf bis zu 14 Werktage, dann 30 Werktage und jetzt unbestimmt/überfällig, bald ist der erste Monat um seit der Bestellung
von den anderen Herstellern sehe ich auch garnix...
Langlay
2021-01-15, 12:40:58
ich glaube es gibt überhaupt keine Wasserblöcke für die 3090FE
der Alphacool war erst auf 2-4 Werktage Lieferzeit, dann auf bis zu 14 Werktage, dann 30 Werktage und jetzt unbestimmt/überfällig, bald ist der erste Monat um seit der Bestellung
von den anderen Herstellern sehe ich auch garnix...
Ist bei Alphacool auch bei den Radeons Refkarten so. Ich hatte Anfang Dezember einen bestellt, direkt bei Alphacool, wo es hiess 2-4 Tage. Aktueller Stand ich warte immer noch auf meinen Wasserkühler.
Kriegsgeier
2021-01-15, 12:48:37
ich habe mir diesen hier bestellt, die Sendung ist nun in Zustellung;)
https://ezmodding.com/Nvidia-RTX-3080-/-3090-FE-Acryl-inkl-Backplate_2
Gestern erst bestellt und per PayPal bezahlt...
Hier im Thread dreht sich alles um die Firma und den Kühler ;)
Ein paar Leute haben schon den Umbau erfolgreich hinter sich gebracht. Sogar ein Video vom Umbau gibt es: fast 2 Stunden lang :)
Video aus diesem Post: https://www.hardwareluxx.de/community/threads/ezmodding-bykski-produktinfo-supportthread.1224416/page-19#post-28035252
Der Thread: https://www.hardwareluxx.de/community/threads/ezmodding-bykski-produktinfo-supportthread.1224416/page-20#post-28044685
PS: und bei acool habe ich den Kühler storniert und Geld schon zurückerhalten
MiamiNice
2021-01-15, 15:28:22
Nicht mal geschenkt sieht so ein Teil meinen Rechner von innen.
Kriegsgeier
2021-01-15, 18:59:36
Warum das? Habe das Teil jetzt ausgepackt. Alles sieht sehr hochwertig verarbeitet aus. Bin bis jetzt soweit zufrieden.
Berichte weiteres nach der Montage...
akuji13
2021-01-19, 15:12:02
Mal abgesehen von der Qualität ist die Optik ein entscheidendes Kriterium.
Ich bevorzuge einen schwarzen Acetal Block und hasse Acryl.
Deshalb werde ich auch das Seitenteil aus Echtglas nach der Montage von meinem Aurora wieder gegen das geschlossene tauschen.
Schade um das Display im CPU Kühler, aber dieses Acryl Ding mag ich nicht anschauen. :freak:
Hab leider die falsche Karte gekauft, dafür gibts nix anständiges.
Hab meine Strix jetzt auch am laufen. Ist das normal, dass die im Idle 65-70W verbraucht? Wenn ich den 2. Monitor abstecke gehts auf etwa 50W runter. Das neuste Bios ist drauf. Der Power saver im Nvidia inspector hat leider auch keinen Effekt.
edit: Wenn ich nur einen Monitor mit 1080p und 75hz laufen lasse gehts auf 45W runter. Ist aber immer noch meilenweit von den 13W aus den reviews entfernt.
BlacKi
2021-01-20, 17:09:02
welcher takt liegt an?
akuji13
2021-01-20, 17:13:08
Meine hatte was ähnliches, allerdings mit viel höheren Werten (über 100W).
Da war irgendwie der Treiber hängen geblieben, vermutlich weil ich immer nur drüber installiert hatte.
Eine "richtige" Neuinstallation hat das Problem dann gelöst.
Annator
2021-01-20, 17:20:59
Ich habe 32W laut HWMonitor mit zwei Monitoren und 20W mit nur noch einem.
welcher takt liegt an?
210/405
Meine hatte was ähnliches, allerdings mit viel höheren Werten (über 100W).
Da war irgendwie der Treiber hängen geblieben, vermutlich weil ich immer nur drüber installiert hatte.
Eine "richtige" Neuinstallation hat das Problem dann gelöst.
Probiere ich direkt mal aus. Hab einfach nur die neue Karte reingesteckt und den aktuellsten Treiber drüber installiert.
BlacKi
2021-01-20, 17:27:26
8,6w wenn monitor aus ist (bildschirmschoner). core clock geht dann auf 0.
ansonsten hab ich 20w unter 4k120hz 10bit rgb, 16w unter fhd.
https://abload.de/thumb/536534525345qzjxc.png (https://abload.de/image.php?img=536534525345qzjxc.png)
Halte ich für Normal.
Endlich sieht auch der Enduser das mehrere Monitore, und besonders welche mit höheren Auflösungen und Refreshraten ihre Leistung nicht "umsonst" bekommen.
Bei mir sinds auch eher 30W in 4K mit 120Hz.
Aber am Ende "vertraut" ihr da nur irgend einer Software.
Wenn die "Reviews" andere Software zum auslesen genutzt haben, wisst ihr doch sofort woher die Differenz kommt.
Afterburner und nvidiainspector lesen 17% Powertarget aus was 68W entspricht.
GPU-Z sagt 53W Board power.
Die sehr ungenaue Leistungsmessung über die Wakü ermittelt aber auch deutlich mehr (ca. 35W mehr) als meine alte 1080ti gebraucht hat um meine beiden Monitore zu bedienen. Es wird also definitiv mehr Strom verbraucht. Ohne den Multi Monitor power saver vom nvidiainspector hat sich die 1080ti auch etwa 50W gegönnt, mit, nur etwa 15W. Leider scheint der power saver auch nichts dagegen tun zu können bei der 3090, da sie schon im niedrigsten P-state läuft.
Treiber sauber neu installieren hat leider auch nichts gebracht.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73743&stc=1&d=1611163843
TobiWahnKenobi
2021-01-20, 19:09:45
habe ich mir schon ewig nicht mehr angeschaut.. aber gucken kann ich ja auch mal..
https://abload.de/img/unbenanntvkjm5.jpg
hier sind's aufm desktop round about 60W.. glaube ich der software sogar.
(..)
mfg
tobi
Daredevil
2021-01-20, 19:26:54
Habt ihr n GSync Monitor?
MiamiNice
2021-01-20, 19:39:53
Ich vermute das die Frage ziemlich überflüssig ist :tongue:
rentex
2021-01-20, 19:46:00
Es existiert doch ein Verbrauchsbug im Idle, der immer noch nicht behoben ist.
Linmoum
2021-01-20, 19:58:27
Das Problem hatte ich schon ewig mit der 2080, da hat der Inspector wenigstens funktioniert. Natürlich blöd, wenn das mit Ampere nicht klappt und die im Idle wie schon Turing immer noch saufen.
[..]
Also wie bei mir auch.
Habt ihr n GSync Monitor?
Ja hab ich. Gsync aus hilft aber auch nicht.
Es existiert doch ein Verbrauchsbug im Idle, der immer noch nicht behoben ist.
Danke für die Info! Dann kann man ja wenigstens hoffen das es noch gefixt wird.
Rebell
2021-01-20, 21:39:45
Hab hier Board Power Draw von minimal 14.1W was ich sehe, schwankt aber bis 17W.
Hab aber auch nur einen Monitor dran 3440x1440@100Hz Gsync.
GPU Clock 210MHz, Memory Clock 50.6MHz
Daredevil
2021-01-20, 21:58:27
Ich vermute das die Frage ziemlich überflüssig ist :tongue:
Isses ja nicht. Gsync kann einen großen Unterschied machen im Multi Monitor betrieb.
MiamiNice
2021-01-21, 01:19:57
Isses ja nicht. Gsync kann einen großen Unterschied machen im Multi Monitor betrieb.
Das hast Du falsch verstanden :biggrin:
Die Frage ist überflüssig weil die Jungs auf jeden Fall G-Sync haben.
TobiWahnKenobi
2021-01-21, 01:34:04
hier sind atm nur zwei geräte an den beiden hdmi-2.1-ausgängen der karte angeschlossen.
ein C97 oled und eine rift CV1.. ne zeitlang fuhr noch der beamer über einen dp-hdmi-2.0-adapter mit, aber den macht die karte ständig zum primärschirm, was dann mehr nervt als nützt, zumal das ding im grunde dauer-offline ist.
worum gings? achso, strom.. ja.. saufziege.. und das liegt bestimmt nicht am blingbling und den drei propellern.. zumindest liess sich damit nichts einsparen im schnelltest eben.
bei 120Hz @desktop zeigt der NVI 62W
bei 60Hz @desktop zeigt der NVI 55W
bei 23Hz @desktop zeigt der NVI 45W
gsync an/aus macht keinen unterschied.. die karte hat noch zwei anschlüsse für optionale lüfter.. ich wette, den verbrauch kann man noch steigern..
(..)
mfg
tobi
Dschounz
2021-01-21, 09:30:54
hier sind atm nur zwei geräte an den beiden hdmi-2.1-ausgängen der karte angeschlossen.
ein C97 oled und eine rift CV1.. ne zeitlang fuhr noch der beamer über einen dp-hdmi-2.0-adapter mit, aber den macht die karte ständig zum primärschirm, was dann mehr nervt als nützt, zumal das ding im grunde dauer-offline ist.
worum gings? achso, strom.. ja.. saufziege.. und das liegt bestimmt nicht am blingbling und den drei propellern.. zumindest liess sich damit nichts einsparen im schnelltest eben.
bei 120Hz @desktop zeigt der NVI 62W
bei 60Hz @desktop zeigt der NVI 55W
bei 23Hz @desktop zeigt der NVI 45W
gsync an/aus macht keinen unterschied.. die karte hat noch zwei anschlüsse für optionale lüfter.. ich wette, den verbrauch kann man noch steigern..
(..)
mfg
tobi
Meine 3090 FE zieht im Desktop die in den Reviews angegebenen ca. 14-18W. Hab einen 34" 3440x1440 100Hz mit G-Sync (aktiviert) dran.
Vor Inbetriebnahme meine AMD-Treiber per DDU entfernt und nach dem Einsetzen nV-Treiber aufgespielt...liegts vielleicht am BIOS einiger Custom-Karten oder hat jemand hier auch das Verbrauchsproblem im Idle auch mit der FE??
@Stromverbrauch
Habe jetzt nur die letzen Beiträge überflogen, aber habt ihr vielleicht das Tool RTX Voice laufen? Das versursacht bei mir auch einen erhöhten IDLE verbrauch.
Gruß
BUG
grobi
2021-01-21, 10:22:53
@Stromverbauch
Habe jetzt nur die Letzen Beiträge überflogen, aber habt ihr vielleicht das Tool RTX Voice laufen? Das versursacht bei mir auch einen erhöhten IDLE verbrauch.
Gruß
BUG
Das Tool erhöht den Idleverbrauch auch bei mir.
mfg grobi
Also ich habe das tool nicht laufen. Das Problem scheint es auch nur bei den Asus Karten zu geben wie es aussieht.
TobiWahnKenobi
2021-01-21, 12:15:42
ich nehme an den bios switch umzuschalten haben schon andere probiert?
problem klingt immer so kaputt.. dabei ist die karte echt herrlich.
(..)
mfg
tobi
Das silent bios hab ich tatsächlich noch nicht probiert... mach ich später mal wenn ich wieder zu hause bin
Daredevil
2021-01-21, 13:17:58
Ich hatte bei der 2080ti auch Idle Verbrauchswerte von 50w über 30w über 18w bis zu 9w.
Entweder gibt es echt große Unterschiede bei den Komponenten, oder keine Ahnung.
Bei Nvidia ist die Messung ja eigentlich recht genau, weil man nicht diesen ASIC Kram hat.
aufkrawall
2021-01-21, 13:40:08
Bei Nvidia ist die Messung ja eigentlich recht genau, weil man nicht diesen ASIC Kram hat.
Hat nichts mit "genau" zu tun, sondern damit, was gemessen wird. Aber auch dahingehend passt das Argument nicht wirklich, weil bei AMD auch der ASIC-Verbrauch hoch geht, wenn der VRAM durch Display-Gedöns nicht idlet.
Wäre aber witzig, wenn Asus hier unabhängig von der Display-Config völligen Bockmist baut. :freak:
Geächteter
2021-01-21, 14:00:08
Ich hatte bei der 2080ti auch Idle Verbrauchswerte von 50w über 30w über 18w bis zu 9w.
Entweder gibt es echt große Unterschiede bei den Komponenten, oder keine Ahnung.
Teilweise auch Auslesefehler oder falsche Offsets.
Die meisten nicht FE-2080-non-Ti zeigen als Idle 21-25 Watt je nach Lüfterkonfiguration und PCB an, obwohl der echte Verbrauch eher bei 11 bis 15 Watt liegt.
PCGH hat die Asus 2080 Turbo mit 11 Watt vermessen, in dem PCGH-Bios-Mod-Video ist der minimal ausgelesene Verbrauch mit 21 Watt zu sehen. Nach Pascal sind die ausgelesenen Werte, jedenfalls im unteren Auslastungsbereich, nicht mehr zwingend sehr nahe an der Realität dran.
Die 2060 Super FE zeigt stolz gute 6 Watt ausgelesen an, Realität sind eher knapp 11 Watt.
ich nehme an den bios switch umzuschalten haben schon andere probiert?
[..]
Habs grad ausprobiert. Keine Äderung.
Teilweise auch Auslesefehler oder falsche Offsets.
[..]
Ich gebe Dir recht, dass die Tools unterschiedliche Werte auslesen. Zwischen Afterburner/NVI (jeweils 17%PT / 68W) und GPU-Z (53W) liegen bei mir auch schon 15W Differenz. In meiner Wasserkühlung wird aber das Wasser im idle wärmer als es noch mit meiner 1080Ti der fall war. Es wird also in meinem Fall definitiv mehr verbraucht. Die 50-70W die die Tools auslesen kommen schon ganz gut hin.
@Miami
kannst Du bitte bei deiner Karte auch mal nachsehen was die im Idle so treibt? Würde mich echt interessieren, ob es vielleicht am Anfang eine Bios Version gab mit der die Karte weniger verbraucht hat. Für die reviews und so...
Ich vermute ja das da quick and dirty irgendwas gefixt wurde und der idle Verbrauch die Folge davon ist.
hq-hq
2021-01-23, 19:13:36
hm, hab einen 32" 1440p @60Hz über Displayport und einen FullHD Beamer, meistens abgeschalten, am HDMI Port hängen... schaut normal aus:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73794&stc=1&d=1611425537
-> 3.9% Powerlimit sollten 13.65Watt sein
TobiWahnKenobi
2021-01-23, 22:41:01
FE oder? die ist auch ein bisschen nackter als ne strix oc.
https://abload.de/img/unbenanntktjs6.png
(..)
mfg
tobi
Mehr als ein Monitor zieht den Verbrauch immer hoch. Hohe Hertzzahlen führen dann mitunter zu ganz gemeinen Sachen, wobei irgendwie niemand weiß, welche Kombinationen besonders schlimm sind.
MfG
Raff
hq-hq
2021-01-23, 22:55:53
FE ja, hat nur bissl weisse LED sonst nix
der IDLE Verbrauch ist mir fast total egal, aber 50Watt @Idle ist gefühlt unverhältnismäßig
ich hätte ja auch gern einen 4k 32" 144Hz G-Sync Monitor aber keinen krummen, so liesse sich der IDLE Verbrauch ja anscheinend wunderbar steigern
Hier mal eine 3090 Suprim X @ 5120x1440 120 Hz:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=73807&stc=1&d=1611450288
MiamiNice
2021-01-24, 10:08:26
Den Unterschied macht NV Broadcast im Background.
3090 Strix OC @ 3440 x 1440 100Hz G-Sync
Mit:
https://abload.de/img/mit9ljks.png
Ohne:
https://abload.de/img/ohneupj3g.png
TobiWahnKenobi
2021-01-24, 19:29:47
macht hier keinen unterschied ob das gedöns aus dem treiberoverlay an oder aus ist.. sind immer 50-60W average.. UHD120hdr
(..)
mfg
tobi
MiamiNice
2021-01-25, 15:44:21
Sag dem RTX Voice das es Dein Micro überwachen soll, so wie es standardmäßig (auto)startet, wenn man es nutzt.
So:
https://abload.de/img/asdasd6tjac.png
Grüße
Daredevil
2021-01-26, 12:32:51
Die neuste HWINFO Beta kann nun die Speichertemp auslesen.
Hier mal ETH Mining bei 945Core und -500 Mem, Max Temp ist 100°C
https://abload.de/img/unbenanntp4jw7.png
Bei +1000 geht die Temp bis max 106°C und der Lüfter jault, also viel Puffer ist da nicht vorhanden, selbst -500 ist schon Hot in here. ^^
BlacKi
2021-01-26, 16:43:16
Die neuste HWINFO Beta kann nun die Speichertemp auslesen.
Hier mal ETH Mining bei 945Core und -500 Mem, Max Temp ist 100°C
https://abload.de/img/unbenanntp4jw7.png
Bei +1000 geht die Temp bis max 106°C und der Lüfter jault, also viel Puffer ist da nicht vorhanden, selbst -500 ist schon Hot in here. ^^
das sind aber die temperaturen im modul selbst. wenn du max 106 hinbekommst, dann drosselt der speicher noch nichtmal.
ich probiere mal was ich beim spielen so hinbekomme.
Daredevil
2021-01-26, 16:47:42
Ja doch, bei den 106°C wird die Leistung im Mining schon gedrosselt, höher ging es auch nicht, also scheint da zumindest ein Bereich zu greifen, den man nicht betreten möchte, sonst würden die Lüfter ja nicht aufdrehen um entweder den Speicher zu schützen, oder eben den Speed zu gewährleisten.
( Drosselung bedeutet übrigens nicht, dass die Leistung um 50% einbricht, es sind so 5-20% ), also quasi wieder die Stock Werte.
BlacKi
2021-01-26, 17:39:12
lüfter aufdrehen bedeutet nicht drosseln. das lüfteraufdrehen soll das drosseln verhindern.106° sind jetzt aber auch nicht weit weg von 110° die laut specs zum drosseln führen sollen.
beim mining bekomme ich max 102 grad hin bei 1600rpm. eine drosselung findet da nicht statt. ist aber nicht mein preset das ich normal laufen lasse. mein normales preset läuft mit 1000rpm.
Megamember
2021-01-26, 18:42:48
Hab gestern unter Einfluss von alkoholischen Substanzen meine Selbsbeherrschung verloren und auf den Bestellbutton für die Gigabyte 3090 Gaming OC gedrückt. Im "Angebot" für 1709, ohje, hope this will be good...:redface:
Brauch halt unbedingt HDMI 2.1 und Power für meinen 4K 120hz TV, meine 2080 kriecht da auf dem Zahnfleisch.
Mein Be quiet Pure Power 700W sollte das doch noch packen, oder? Zur Not etwas undervolted.
Daredevil
2021-01-26, 18:47:53
lüfter aufdrehen bedeutet nicht drosseln. das lüfteraufdrehen soll das drosseln verhindern.106° sind jetzt aber auch nicht weit weg von 110° die laut specs zum drosseln führen sollen.
beim mining bekomme ich max 102 grad hin bei 1600rpm. eine drosselung findet da nicht statt. ist aber nicht mein preset das ich normal laufen lasse. mein normales preset läuft mit 1000rpm.
Ja mei Blacki, ich mache das doch nicht seit gestern. :D
Wenn meine Hashrate von 120MH/s auf unter 100MH/s sinkt, dann kommt das von einer Drosselung. Wenn der Lüfter danach niedriger dreht ( aufgrund des drosselns ) und danach wieder aufdreht, wenn die Hashrate wieder steigt, dann ist das thermisch bedingt.
Ich kann ja nur das Beschreiben, was bei mir passiert und dieses Verhalten kenne ich wie gesagt bei jeder anderen GPU, die ich jemals hatte, nur in Verbindung mit dem ETH Mining.
Schnoesel
2021-01-26, 18:50:34
Der Sommer wird lustig :-)
BlacKi
2021-01-26, 18:52:13
Ja mei Blacki, ich mache das doch nicht seit gestern. :D
Wenn meine Hashrate von 120MH/s auf unter 100MH/s sinkt, dann kommt das von einer Drosselung. Wenn der Lüfter danach niedriger dreht ( aufgrund des drosselns ) und danach wieder aufdreht, wenn die Hashrate wieder steigt, dann ist das thermisch bedingt.
Ich kann ja nur das Beschreiben, was bei mir passiert und dieses Verhalten kenne ich wie gesagt bei jeder anderen GPU, die ich jemals hatte, nur in Verbindung mit dem ETH Mining.
hab ich nicht angezweifelt. ich komme erst garnicht auf 106 grad. deshalb kann ich die drosselung leider nicht nachstellen.
Nach einer Stunde zocken max. 58°C auf dem Ram. Der Sommer kann kommen, Wakü sei dank. Ist bekannt wo die Temperatur gemessen wird? Oder ist das vielleicht ein Durchschnittswert von allen Modulen?
Schnoesel
2021-01-26, 22:32:05
Gute Frage sind ja ein "paar" Module verbaut. Die Module auf der Rückseite wären wohl die einzig Interessanten von den Temps her.
https://www.hwinfo.com/forum/threads/hwinfo-v6-42-released.7016/#post-28586
A note regarding the new GDDR6X Memory Junction Temperature:
Just like in case of Navi, this is not the external (case) temperature, but internal junction temperature measured inside the silicon.
So don't be scared to see higher values than other common temperatures, it's expected. Also the limits are set respectively higher (throttling starts around 110 C).
EDIT: Adding that the value reported should be the current maximum temperature among all memory chips.
Mehr Infos gibts nicht
Cubitus
2021-01-26, 22:47:54
Hab gestern unter Einfluss von alkoholischen Substanzen meine Selbsbeherrschung verloren und auf den Bestellbutton für die Gigabyte 3090 Gaming OC gedrückt. Im "Angebot" für 1709, ohje, hope this will be good...:redface:
Brauch halt unbedingt HDMI 2.1 und Power für meinen 4K 120hz TV, meine 2080 kriecht da auf dem Zahnfleisch.
Mein Be quiet Pure Power 700W sollte das doch noch packen, oder? Zur Not etwas undervolted.
Hehe :D ja das kenn ich...
Undervolten ist bei der 3090 imho sogar Pflicht, ein guter Takt merdian z.b von dauerhaft 1900 MHz+- sind definitiv besser als Taktspitzen von 2000 MHz und dafür ins Powertarget zu laufen, was dann einen avg Takt von 1800 MHz bei andauernden 375 Watt ergeben würde...
Bzw 700w sind knapp, da Lastspitzen entstehen können..
Igor hat dazu ein nettes Video gemacht..
https://www.igorslab.de/ploetzliche-netzteil-abschaltung-welche-rolle-die-gpu-und-die-cpu-spielen-amd-nvidia-und-intel/
Ah und verwende zwei einzelne PCIe Express Kabel, und keinen Y Stecker ..
Ah ok, also wird immer die Temperatur des heißesten Moduls ausgegeben. Macht Sinn.
hq-hq
2021-01-26, 23:24:16
ah, sehr nützlich jetzt muss ich nur noch Kühlkörper auf die Backplate packen und man wird wahrscheinlich einen Unterschied feststellen... oder der Wassersblock kommt endlich mal ...
90°C hat der RAM bisher nicht erreicht, typisch sind so rund 80°C in Cyberpunk 1440p@60Hz
MiamiNice
2021-01-27, 15:18:31
Der Sommer wird lustig kühl :-)
Mora aufm Balkon - wird der kühlste Gaming Sommer ever bei mir :wink:
Und das trotz PT freier 3090.
Kriegsgeier
2021-01-28, 08:16:32
So, mein 3090FE Umbau auf Sandwich WaKü (mit Liquid Metall) ist vollbracht!
Temperaturen sind sehr gut. Ich bin bis jetzt zufrieden!
Das war eine Geburt! Alter falter!
+175 MHz scheinen stabil zu sein, bei 41 Grad ;-)
21.280 Grafikscore - soweit ok?
https://www.hardwareluxx.de/community/threads/erfahrungen-mit-wak%C3%BC-bl%C3%B6cken-f%C3%BCr-die-3090-founders-edition.1285363/page-2#post-28069844
So, mein 3090FE Umbau auf Sandwich WaKü (mit Liquid Metall) ist vollbracht!
Temperaturen sind sehr gut. Ich bin bis jetzt zufrieden!
Das war eine Geburt! Alter falter!
+175 MHz scheinen stabil zu sein, bei 41 Grad ;-)
21.280 Grafikscore - soweit ok?
https://www.hardwareluxx.de/community/threads/erfahrungen-mit-wak%C3%BC-bl%C3%B6cken-f%C3%BCr-die-3090-founders-edition.1285363/page-2#post-28069844
Was haste für ein delta t (wasser/GPU)? Und bei wieviel Watt?
Megamember
2021-01-28, 16:11:19
Meine Gigabyte 3090 Gaming OC ist auch angekommen. Hab ne Runde Timespy Bench laufen lassen und Valhalla gezockt und keine Probleme. Sehr leise, leiser und kühler als meine alte 2080 WIndforce. Die hat zudem bei youtube Videos dauernd hochgedreht. Mein 700W Netzteil hat keine Probleme gemacht. HAb dann aber direkt undervolted auf 0,8V@1845 und jetzt isse fast lautlos bei max. 59 Grad gewesen. Bisher gibts nix zu beanstanden :D
DAs muss jetzt aber erstmal für die nächsten Jahre reichen.
Kriegsgeier
2021-01-29, 07:42:44
Was haste für ein delta t (wasser/GPU)? Und bei wieviel Watt?
Gucke ich später mal.
Wasser ist bei mir nie wärmer als ca. 34-36 °C und die Graka nicht mehr als 45 °C
Funfact neben bei:
wenn ich Battlefield 4 spiele (3441 x 1441 alles mit 8x AA und alles mögliche auf ULTRA) dann werkelt die Karte bei 95 FPS (da ich künstlichen Limit gesezt habe wegen GSYNC 100Hz) bei ca. 40% Auslastung und Chip wird höchstens genau so warm wie das Wasser ;)
LOL
hq-hq
2021-01-29, 12:45:05
oO ein Delta von 10°C wäre schon genial gut,
mit der alten 2080Ti mit Kryonaut-Paste +Barrow war das Delta bei 300-350Watt ca. 15°C und ab 400Watt 17°C, also sagen wir 30°C Wassertemp im Zufluss und 47°C GPU Temp
MiamiNice
2021-01-29, 13:01:50
Gucke ich später mal.
Wasser ist bei mir nie wärmer als ca. 34-36 °C und die Graka nicht mehr als 45 °C
Bringt uns nix ohne die Angabe der Raumtemp.
Schöner Umbau, sehr nerdy.
Sieht optisch allerdings bissel kagge aus aber Du machst die Seitenwand wahrscheinlich eh zu.
:up:
r3ptil3
2021-01-29, 13:02:41
löschen
OC_Burner
2021-01-29, 15:34:29
@Kriegsgeier
Die 10°C ungefähr passen doch:up: Bei mir sind es 12°C mit gleicher Karte, Kühler und Liquid Metal. Also gut kühlen tut der Kühler ja die GPU aber der Rest schmort je nach Setting gerne bei 70°C und mehr vor sich hin. Deine VRAM Temps als Vergleich interessieren mich ebenso.
akuji13
2021-01-29, 16:34:43
Bringt uns nix ohne die Angabe der Raumtemp.
Die Einflüsse der Raumtemperatur auf das ΔT Wasser - Luft sind doch nur minimal.
MiamiNice
2021-01-29, 17:55:08
Die Einflüsse der Raumtemperatur auf das ΔT Wasser - Luft sind doch nur minimal.
Ja, da hast Du recht. Hab zugegebener Weise den Post nicht richtig verstanden/gelesen und ohne zu denken getippt :biggrin:
War wahrscheinlich von der nerdy Backplate geflasht.
Sorry
rentex
2021-01-29, 17:59:28
Natürlich hat die Raumtemp. nen Einfluss auf die Kühlperformance...aber im 3DC Forum ist vieles anders...
MiamiNice
2021-01-29, 18:02:09
Ja aber nicht in dem Maße, das man nicht abschätzen könnte, ob der Kühler taugt/richtig sitzt oder ähnliches.
rentex
2021-01-29, 18:19:03
Ob er taugt, kann durch kühle Raumluft kaschiert werden. So, das man im Sommer ne böse Überraschung erlebt. Ob er richtig sitzt, ist schon ne ganz andere Geschichte.
BlacKi
2021-01-29, 18:26:20
auf delta t hat die raumtemp kaum einfluss. die dürft bei uns allen zwischen 20 und 24° liegen.
rentex
2021-01-29, 20:02:58
Bei Dachbodenbewohnern wohl nicht... ;-)
-=Popeye=-
2021-01-29, 22:35:18
Ich wohne auch in einer Mansarde und habe hier mit mehr als ausreichender WaKü Kühlerfläche (je eine MoRa pro GPU/CPU) selbst bei 33°C in der Bude nie mehr als 37°C Wasser gesehen... was bei Sommertemperaturen maximal bei 59°C GPU-Temp endete.
Ok... das war noch mit einer hochgezüchteten GTX 1080 Ti aber ich nehme an das sich die aktuellen Karten mit WaKü recht ähnlich verhalten.
BlacKi
2021-01-30, 03:31:28
nochmal, temp unterschied zwischen wasser und gpu temp ist unabhängig von zimmertemperatur.
Kriegsgeier
2021-01-30, 08:35:41
RAM Temperaturen gucke ich später mal.
Die Backplate wird aber nie wärmer als handwarm :-)
Der WaKü auf der Backplate bringt schon was, denke ich mal.
Habe ja auch Chiprückseite mit originalen Nvidia Pads hinterlegt.
PS: habe folgende Radiatoren im Kreislauf:
280(vorn) + 420(oben)+ 1080(außen an der Seitenwand)
Lüftergeschwindigkeiten: 450 (140ger) und 400 (4x 180ger)
Design der Kühlung ist eher so was wie SteamPunk
Mag die flexible Schläuche mit Federn ;-)
Megamember
2021-01-30, 10:06:27
Seit der 3090 bekomme ich oft, nicht immer, erst Bild nachdem ich nach dem PC Start noch einmal resettet habe, ansonsten bleibt der Bildschirm schwarz. Danach läuft alles problemlos. Liegt das am Netzteil? Ist ein quasi neues Be Quiet Pure Power 11 700W.:confused:
Monitor ist der LG Nanoled 49 Zoll 120hz.
CSM ausschalten und PCIe Clock auf 100 Mhz, testweise vielleicht auch mal 99 Mhz setzen. Die Karten sind da null tolerant.
Megamember
2021-01-30, 13:21:20
Ich weiss gerade nicht genau was csm ist aber im Bios kann ich zwischen csm und uefi auswählen und es steht schon auf uefi. Pcie Takt hab ich auf 100 gesetzt. Danke erstmal, werd ich weiter beobachten.
BlacKi
2021-01-30, 15:00:46
Ich weiss gerade nicht genau was csm ist aber im Bios kann ich zwischen csm und uefi auswählen und es steht schon auf uefi. Pcie Takt hab ich auf 100 gesetzt. Danke erstmal, werd ich weiter beobachten.sag bescheid wenn du eine lösung weißt^^ bei mir ist es dasselbe. manchmal bekomme ich sogar noch das bios post angezeigt wenn ich den monitor rechtzeitig anschalte, und dann wenn windows läd -> weg. ich bin auch der meinung das windows nicht geladen wird, wenn beim 1. booten nichts angezeigt wird.
Die neuste HWINFO Beta kann nun die Speichertemp auslesen.
Hier mal ETH Mining bei 945Core und -500 Mem, Max Temp ist 100°C
https://abload.de/img/unbenanntp4jw7.png
Bei +1000 geht die Temp bis max 106°C und der Lüfter jault, also viel Puffer ist da nicht vorhanden, selbst -500 ist schon Hot in here. ^^
Soll nicht zu einer OT-Diskussion führen, aber "lohnt" sich das Minen derzeit wieder trotz der Stromkosten? Wieviel kann man pro Tag schürfen?
hq-hq
2021-01-30, 15:42:43
CSM/Legacy Mode - Compatibility Support Module, sonst blieb bei mir das Bild schwarz (mit der RX580)
r3ptil3
2021-01-30, 16:24:46
Soll nicht zu einer OT-Diskussion führen, aber "lohnt" sich das Minen derzeit wieder trotz der Stromkosten? Wieviel kann man pro Tag schürfen?
Abzüglich Stromkosten bist du mit einer RTX 3090 bei etwa 6-7 Euro am Tag (ETH).
Eine RTX 3080 rentiert sich da mehr, da nur etwa 20% weniger.
Kurze Rechnung, da ja mal die News rumging einem Miner mit über 70 RTX 3080 Karten.
Der macht im Monat etwa 12k+ damit.
Danke. Hatte gerade auch das hier gefunden: https://www.nicehash.com/profitability-calculator/nvidia-rtx-3090/nvidia-rtx-3080
Danach verdient man nach Abzug der Stromkosten knapp 160€ pro Monat. Nicht schlecht.
Daredevil
2021-01-30, 18:23:30
Historisch betrachtet gab es noch nie einen Zeitpunkt, wo sich Mining nicht gelohnt hat.
Selbst wenn du bei einem Kurs von 10000$ im Monat 50€ bekommst, wovon 60€ Stromkosten waren, hättest du mit der aktuellen Kurssteigerung bei nem Kurs von 40000$ 140€ Gewinn gemacht pro Monat, mit einer einzigen Karte. Steuerlich wäre das auch Idealer gewesen wie jetzt.
Man braucht halt Timing, Glück und ein wenig Mut. :)
Ich bin skeptisch, würde aber gerne mehr wissen. Gibt es bei 3DC einen Thread wo das besser reinpasst oder hast Du einen Tipp wo man sich einlesen kann?
Daredevil
2021-01-30, 19:01:42
Hier gehts weiter:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=508532&page=235&highlight=bitcoin
Musste halt mal suchen, ich habe meine Erfahrung da in den letzten Jahren geteilt.
( Empfehlen würde ich es aber gerade nicht, es gibt heute andere Methoden um sein Geld stressfreier zu vermehren, aber wer basteln will, den will ich nicht aufhalten )
sag bescheid wenn du eine lösung weißt^^ bei mir ist es dasselbe. manchmal bekomme ich sogar noch das bios post angezeigt wenn ich den monitor rechtzeitig anschalte, und dann wenn windows läd -> weg. ich bin auch der meinung das windows nicht geladen wird, wenn beim 1. booten nichts angezeigt wird.
Win 10 Fast Boot in den Energieoptionen deaktivieren sollte helfen.
BlacKi
2021-01-31, 19:33:11
Win 10 Fast Boot in den Energieoptionen deaktivieren sollte helfen.na da bin ich mal gespannt!
Megamember
2021-01-31, 19:33:56
na da bin ich mal gespannt!
Scheint wirklich geholfen zu haben. Seitdem war immer beim ersten boot Bild da. PCIe clock hab ich gleichzeitig auch auf 100 fixiert.
BigKid
2021-01-31, 21:52:48
Abzüglich Stromkosten bist du mit einer RTX 3090 bei etwa 6-7 Euro am Tag (ETH).
Eine RTX 3080 rentiert sich da mehr, da nur etwa 20% weniger.
Kurze Rechnung, da ja mal die News rumging einem Miner mit über 70 RTX 3080 Karten.
Der macht im Monat etwa 12k+ damit.
Was ich so krass finde - ich kann nen WoW Raid spielen in WQHD mit Raytracing Schatten Max und 4xMSAA und das Ding schaufelt immernoch 80M Hashrate ETH dazu - im Hintergrund...
MiamiNice
2021-02-02, 12:41:17
Gerade Mail von AC bekommen.
Lieber Hr. Bla, leider dauert es noch zwei Wochen.
Schon klar. Ob ich denen meine Seitenwand in Rechnung stellen kann die bis dahin weggeschmolzen ist?
OMG
BlacKi
2021-02-02, 13:23:36
bis du deine karte im pc unter wasser hast, steht schon fast die next gen vor der tür^^
MiamiNice
2021-02-02, 13:31:19
Vielleicht sollte ich die Karte, nachdem sie mit Lack gemoddet und der Kühler mit LM verbaut ist, für 2800-3000€ verkaufen.
Dann spiele ich mit iGPU bis der Ampere Refresh kommt.
LOL
Wann hattest du bestellt Miami? Ich warte seit dem 6.12. und bei mir schmilzt die Seitenscheibe...
aufkrawall
2021-02-02, 20:33:47
Was ich so krass finde - ich kann nen WoW Raid spielen in WQHD mit Raytracing Schatten Max und 4xMSAA und das Ding schaufelt immernoch 80M Hashrate ETH dazu - im Hintergrund...
Also ist das CPU-Limit-Problem mit RT & Nvidia in WoW immer noch nicht gefixt? :freak:
MiamiNice
2021-02-03, 00:39:12
Wann hattest du bestellt Miami? Ich warte seit dem 6.12. und bei mir schmilzt die Seitenscheibe...
Stell Dich auf 3-4 Wochen ein.
@ Miami
Pass beim Umbau auf ob am Kühler Vertiefungen für diese beiden Bauteile (gelb im Bild) vorhanden sind. Bei meinem war das nicht der Fall! musste da selber mit der Bohrmaschine nachhelfen... Kann aber gut sein das das Problem mittlerweile gefixt ist.
https://i.imgur.com/rEWRy0u.jpg
MiamiNice
2021-02-04, 18:45:20
Danke für den Tip, habe ich auch schon im AC Forum gelesen.
Die haben meinem Kühler heute verschickt :up:
Wie ist der Kühler? Zufrieden?
Bin auf jeden Fall zufrieden mit dem Kühler. Die höchsten Temps waren bisher 52° GPU und 62° Ram. Bei 480W PT, 29° Wassertemp und ca.70l Durchfluss. Bin mehr so der ultra silent typ :D
Berichte mal was Du mit LM für Temps hast, wenn sich das lohnt mache ich das auch noch. Hab da zur Zeit noch die beiliegende Kryonaut wlp. drauf.
MiamiNice
2021-02-04, 22:32:15
Hast Du gelesen das der Kühler ein High Flow Design hat? Irgendwas zwischen 120-150l/h werden im AC Forum empfohlen. Kannst Du mal testen wie weit das Delta noch sinkt wenn Du den Durchfluss erhöhst?
Ich kann heute Abend mal bis ca. 120l testen, mehr schafft meine Pumpe nicht. Rein theoretisch wird das dann das Delta T im Wasser (vor- / nach den Wärmequellen) um vielleicht 2° verringern.
Das Wasser wird dann nicht so warm weil es kürzere Zeit im Kühler ist, es kühlt aber auch weniger ab weil es ebenfalls kürzere Zeit im Radi ist. Die Temp vor den Verbrauchern steigt dann ein bisschen und die danach sinkt etwas. Zum Beispiel mit 70l/h haste dann 29 vor und 33 nach den Verbrauchern und mit 120 l/h sinds dann 30/32. Ob der Kühler selber von dem Durchfluss profitiert teste ich wie gesagt heute Abend mal.
Hier mal ein Diagramm für das Delta T Wasser innerhalb des Kreislaufs Vor und nach den Verbrauchern (ohne Radis!).
https://i.imgur.com/hR4He1f.jpg
MiamiNice
2021-02-05, 08:47:21
Cool :)
Ich kann meinen leider erst nächste Woche verbauen - mir fehlt der Lack und LM. Caseking hat aktuell extrem lange Lieferzeiten :(
€: Meiner liegt auf dem Postamt und wartet auf Abholung. Caseking hat noch immer nicht versendet - dauert bei mir noch.
Das Delta T Wasser sinkt bei 125l/h im Gegensatz zu 70 l/h um etwa 1,2°. Rein rechnerisch müsste es etwas mehr sein (siehe Diagramm im vorletzten Post) daher passt die Leistungsberechnung in der Aquasuite auch nicht.
Bei 70l/h schwankt die GPU Temp zwischen 50° und 51° (jeweils etwa 50% der Zeit)
Bei 125l/h schwankt die GPU Temp zwischen 48° und 49° (80% der Zeit 49°)
Der Durchfluss wird virtuell ermittelt durch die Pumpenparameter, ist also mit Vorsicht zu genießen. Pumpe ist die Aquastream Ultimate, 70l bei 3305 rpm, 125l/h bei ~4800rpm. High Flow Next ist heute angekommen, falls die Werte also voll daneben liegen, kann ich vielleicht morgen nochmal bessere Durchflusswerte nennen für die jeweiligen Drehzahlen.
Achtung große Bilder! (Aquasuite auf dem 2. Monitor rechts)
125 l/h
https://i.imgur.com/aBvIucQ.jpg
70 l/h
https://i.imgur.com/Idqd4mX.jpg
Im Großen und Ganzen sind die Werte aber wie erwartet. Pumpe läuft weiter auf 3305rpm, da mir eine geringere Lautstärke wichtiger ist als die 2° weniger auf der GPU.
edit: Die Karte lief die ganze Zeit mit 480W PT obwohl der Schieberegler 77% PT anzeigt. Bin noch nicht dahinter gekommen warum Afterburner das 77% Profil nicht läd beim Systemstart... Ebenfalls rätselhaft sind die Fluktuationen bei der Leistungsaufnahme etwa alle 3 Minuten. Die Karte geht dann für ein paar Sekunden auf 140-150% PT hoch (585W :freak:) und bricht danach kurz auf 40% ein. Vielleicht nur ein Auslesefehler, keine Ahnung.
MiamiNice
2021-02-05, 18:20:00
Hab meinen gerade abgeholt. Bei mir sind die Löchere schon gebohrt, die haben also die Produktion angepasst. Werde ihn jetzt so montieren und nächste Woche mit LM nochmal remontieren. Bin gerade einfach zu geil auf das Teil :)
Deine Werte sind top, bin gespannt wo ich lande.
hq-hq
2021-02-06, 09:20:07
Lieferfrist für den Alphacool FE Block 7-8 Tage, wenn das stimmt kommt er genau dann wenn ich gar keine Zeit dafür hab den zu montieren:frown:
wurde irgendwo ein Grund für die 2 Monate Verzögerung genannt?
MiamiNice
2021-02-06, 13:10:41
Ich bin vom dem AC Kühler für die Strix, gar nicht überzeugt. Es sind so viele kleine Punkte, wie z.b. das die Pads nicht zugeschnitten sind und zu viele Pads dabei liegen. Vorne den Ram mit WLP, hinten Pads. WLP ist zu wenig dabei, gerade wenn man die Heatpipe noch einschmieren muss. Das man bei der Montage der Backplate eine Schraube aus dem GPU Sockel lösen muss, ist meiner Meinung nach, ein Unding. Es könnte generell eine brauchbare Anleitung dabei liegen, nicht jeder ist so bastelfreudig.
Der Kühler provoziert Spulenfieben weil die Spulen komplett frei gelassen werden. Meine Karte ist viel lauter geworden und ich bin da nicht alleine mit dem Problem. Es gibt allerdings einen "Mod" den ich bei Umbau auf LM umsetzen werden um das Problem zu reduzieren.
https://www.hardwareluxx.de/community/threads/rtx-30x0-wasserk%C3%BChlervergleich-gpu-block-comparison.1286430/page-4#post-28052857
Ich habe mit 480W PT nach einer Stunde Furmark 42° auf der GPU und 65° auf dem Ram bei 133l/h. Wassertemp lag bei 31,5°. Im Gamermode also mit 100% PT sinkt das Delta auf ca. 10°.
PS: Ich werde meist ein wenig angefeindet wenn ich von meinem Empfinden spreche - aber vom Gefühl - ich habe kein gutes Gefühl bei dem Kühler. Er befriedigt mich nicht und ich habe tatsächlich ein wenig Sorge um meine 3090.
So, Durchflusssensor ist drin. Bei 3305 rpm hab ich jetzt 115 l/h und bei 4800 rpm 180 l/h. Der virtuelle Durchfluss den die Pumpe berechnet liegt also voll daneben.
Und LM hab ich auch gleich drauf gemacht... direkt 10° weniger. Liege jetzt auch bei 42° bei 480W und ca 38-39° bei 100% PT (390W) bei ~ 30° Wasser. Da hab ich wohl beim ersten mal ziemlichen mist gebaut, da klebte ein richtig dicker Klumpen Kryonaut auf der GPU. Ich mag das Zeug nicht, das lässt sich gar nicht verstreichen.
TobiWahnKenobi
2021-02-06, 16:13:44
schön zu sehen, dass ihr alle mit euren bastellösungen zufrieden seid. meine strix bleibt genauso original, wie ich sie aus dem karton genommen habe. das macht es leichter, sie irgendwann wieder in den karton zurückzulegen; hab echt weniger bock denn je auf bastelei..
(..)
mfg
tobi
Gouvernator
2021-02-06, 16:17:03
Dank VRR spielt es eh keine Rolle mehr ob die Grafikkarte jetzt 5 FPS mehr liefert.
MiamiNice
2021-02-06, 19:36:35
Aber es ist schon relevant wo die GPU die 500 Watt Abwärme hin pustet. Und für mich ist es zusätzlich relevant wie laut die Kiste ist.
hq-hq
2021-02-06, 23:31:02
btw, wegen daggerhashimoto Tests hab ich jetzt vier Kühlkörper auf der Backplate der 3090FE liegen plus einen langsam drehenden 80mm Lüfter, keine Wärmeleitpaste oder Pads
bringt in Cyberpunk 8°C bis 10°C niedrigere max RAM Temperatur, sinkt von max 86°C auf 76-78°C
MiamiNice
2021-02-07, 11:31:11
Mal paar Bilder dazu:
https://abload.de/thumb/65974e35-ece9-4bdf-b5xkju.jpeg (https://abload.de/image.php?img=65974e35-ece9-4bdf-b5xkju.jpeg) https://abload.de/thumb/611a0892-8fbd-460f-9ahjjn.jpeg (https://abload.de/image.php?img=611a0892-8fbd-460f-9ahjjn.jpeg) https://abload.de/thumb/dbc31286-231b-4d3d-9m0k6j.jpeg (https://abload.de/image.php?img=dbc31286-231b-4d3d-9m0k6j.jpeg) https://abload.de/thumb/ec5b39f4-937c-497c-a5ykdl.jpeg (https://abload.de/image.php?img=ec5b39f4-937c-497c-a5ykdl.jpeg) https://abload.de/thumb/bb54c995-9dd2-4b5c-boyker.jpeg (https://abload.de/image.php?img=bb54c995-9dd2-4b5c-boyker.jpeg) https://abload.de/thumb/e5e3c09f-5ea1-4708-97fjv1.jpeg (https://abload.de/image.php?img=e5e3c09f-5ea1-4708-97fjv1.jpeg) https://abload.de/thumb/eb43613b-d1de-4449-9b1kxa.jpeg (https://abload.de/image.php?img=eb43613b-d1de-4449-9b1kxa.jpeg)
Sardaukar.nsn
2021-02-07, 19:22:30
@MiamiNice
Ist doch gut gelöst, ohne zuviel bling-bling. Den Einbauort des High-Flow Next finde ich super gewählt, habe ich so noch nicht gesehen. Von dort gehst du über die Slotbende zum MoRa oder?
@TobiWahnKenobi:
Was heißt hier Bastellösung. Für die einen ist es Hobby, für einen andere die Freue an einem individuellen PC. Ein dritter will vielleicht einfach nur seine Ruhe.
MiamiNice
2021-02-07, 19:49:05
Ja, das ist die AC Slotblende mit dem High Flow Next dran. Auf der anderen Seite zwei Kugelhähne direkt an der Blende, 90° Anschlüsse, dann zum MoRa.
vinacis_vivids
2021-02-07, 23:13:42
An die wirklichen Besitzer der RTX3090:
Was habt ihr denn so gezahlt für eure RTX3090?
Bitte nur den bereinigten Kaufpreis nennen und keine alten GPU`s gegenrechnen.
hq-hq
2021-02-07, 23:19:25
EVGA Classified 980Ti 520€
Aorus Extreme 1080Ti 769€
Asus Strix OC 2080Ti 1000€
NVidia 3090FE 1499€
Daredevil
2021-02-07, 23:44:57
Palit 3090 bei Conrad für 1350€
"getauscht" in 3090 FE bei NBB für ~1490€
Hätte ich nicht gekauft wenn ich nicht wüsste, das ich die Karte in nem halben Jahr für den gleichen Preis verkaufen könnte.
Genauso habe ich es auch gehandhabt mit der 1080 für 400€, 1080ti für 680€ und 2080ti für 780€. Wäre der Druck wegen HDMI 2.1 nicht so groß gewesen, würde die 2080ti vielleicht noch im Rechner stecken, ist aber nicht so. :- )
Schnoesel
2021-02-07, 23:59:21
1599€ + 169€ für Block und 39?€ für die Backplate. In heutiger Relation also quasi ein Schnapper.
Sardaukar.nsn
2021-02-08, 00:21:13
Ja, das ist die AC Slotblende mit dem High Flow Next dran. Auf der anderen Seite zwei Kugelhähne direkt an der Blende, 90° Anschlüsse, dann zum MoRa.
Finde ich eine gut Lösung. Ich baue grade meine Wasserkühlung von intern auf extern um. https://imgur.com/a/QbbC9DR
Der Sprung mit der Ampere Generation 400-500 Watt GPU ist schon enorm. Natürlich gibt es immer die Fraktion die mein man könnte das mit Luft kühlen. Kann man auch, aber bei welcher Lautstärke? ...und im Sommer?
rentex
2021-02-08, 05:46:45
Gainward Phoenix GS 1618€ bei Alza.de
1499 + Versand für die FE
RoughNeck
2021-02-08, 10:20:33
1890 für die MSI Suprim X.
MiamiNice
2021-02-08, 11:54:10
An die wirklichen Besitzer der RTX3090:
Was habt ihr denn so gezahlt für eure RTX3090?
Bitte nur den bereinigten Kaufpreis nennen und keine alten GPU`s gegenrechnen.
Das geht Dich einen feuchten an :tongue:
Finde ich eine gut Lösung. Ich baue grade meine Wasserkühlung von intern auf extern um. https://imgur.com/a/QbbC9DR
Der Sprung mit der Ampere Generation 400-500 Watt GPU ist schon enorm. Natürlich gibt es immer die Fraktion die mein man könnte das mit Luft kühlen. Kann man auch, aber bei welcher Lautstärke? ...und im Sommer?
Die Idee lag imo ziemlich nah. Ich mag es nicht wenn Komponenten einfach so im Gehäuse hängen und nicht fest sind. Baust Du Deinen Radi in den Keller?
https://abload.de/img/img_04463mkiz.jpg
1.499 Euro für die FE bei Notebooksbilliger.
MfG
Raff
Sardaukar.nsn
2021-02-08, 14:31:05
Das geht Dich einen feuchten an :tongue:
Die Idee lag imo ziemlich nah. Ich mag es nicht wenn Komponenten einfach so im Gehäuse hängen und nicht fest sind. Baust Du Deinen Radi in den Keller?
https://abload.de/img/img_04463mkiz.jpg
Finde ich ne gute Konstruktion. Ich möchte eigentlich auch bei Schlauch bleiben und muss noch überlegen wo ich den ordentlich verbauen könnte. Direkt an der Slotblende wird mir zu knapp, da die GPU wieder vertikal sein soll.
Genau, der MoRa kommt in den Keller direkt unter meinem Büro. Letztes Jahr gab es einen neuen Hausanschluss und es mussten eh neue Kabel verlegt werden, jetzt kam mir die Idee noch ein paar Schläuche hinzu zu packen.
https://i.imgur.com/auSSbbX.jpg
Dort ist es ziemlich frisch, aktuell 10°C und im Sommer hab ich höchstens 16°C gemessen. Vielleicht sogar zu viel des Guten? Stichwort: Kondenswasser.
MiamiNice
2021-02-08, 14:46:53
Die Idee ist super aber Kondeswasser wird vermutlich schon ein Problem. Man kann den Taupunkt eigentlich ganz gut berechnen:
https://www.corak.ch/service/taupunkt-rechner.html
Generell als Richtwert (mein Richtwert) sind 15° bei normaler Raumtemp. Tiefer auf gar keinen Fall, eher hart drüber bleiben, Richtung 17-20°.
Um sicher zu sein.
Megamember
2021-02-08, 15:04:53
Gigabyte 3090 Gaming oc 1709
Sardaukar.nsn
2021-02-08, 15:56:23
@MiamiNice: Ich bin auch schon gespannt. Es gibt ein paar Pläne wie man die Temperatur nicht zu kalt werden lässt. Angefangen den MoRa bei Bedarf passiv laufen zu lassen, oder auch meine jetzigen Radiatoren 360er + 280er 45mm entgegen dem ursprünglichen Plan im Gehäuse drin zu lassen. Die beiden würden denn quasi gegen den passiven MoRa arbeiten und das Kellerwasser mit der Büroluft erwärmen. Auf das Austüfteln mit der Aquacomputer Software freue ich mich jetzt schon tierisch.
EDIT: Danke für den Link mit dem Rechner. Hab das mal gerade gemessen...
https://i.imgur.com/UfanP7L.jpg
Dein Rechner nennt mir dann einen Taupunkt von 10,6°C. Das heißt also, wenn das Kupfer meiner Wasserblöcke im PC unter diese 10°C sinkt, bildet sich daran Kondenswasser wie an einer kalten Bierflasche. Oder?
Warum macht ihr für eure Bastelarbeiten keinen eigenen Thread auf?
Das hat nix mit Reviews zu tun.
Gynoug MD
2021-02-08, 16:51:55
3090 FE für 1499€ bei NBB.
Kann man auch, aber bei welcher Lautstärke? ...und im Sommer?
Zumindest meine Stock-FE ist die leiseste Karte, die ich jemals hatte.
Gouvernator
2021-02-08, 17:27:47
TUF 3090 bei Alternate 1750€. Launch-Tag Selbstabholung.
MiamiNice
2021-02-08, 19:43:20
...
Der Mate hat recht, wir sind hier falsch.
Hier wären wir richtig und da schauen auch andere Mates mit WaKü rein.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12593304#post12593304
PS: Das mit dem Taupunkt hast Du richtig verstanden. Da der Taupunkt von der Luftfeuchtigkeit abhängt, würde ich einen dicken Puffer lassen.
PS2: Du postest da ja schon XD
<glory>
2021-02-08, 20:03:01
Hab auch eine 3090 FE für 1499€ bei NBB erwischt. Zuerst war ich sehr skeptisch soviel Geld für ne Grafikkarte auszugeben, aber bin mit Lautstärke / Leistung & Temperatur sehr zufrieden. Und wenn ich mir aktuell die Verfügbarkeit / Preisentwicklung anschaue war es ja fast n Schnäppchen :freak:
sunshine
2021-02-09, 17:47:04
3090 FE incoming fuer $1499 plus Tax. Nachdem die 3080 XC3 zu laut und heiss war bin ich echt gespannt. Wird gerade so in mein Meshify C passen laut Bildern, das Stromkabel fuer mein Corsair wartet hier schon fleissig.
Was sollte die erste Amtshandlung sein? 1950 Mhz maximum mit 0,9V?
Cherubim
2021-02-10, 08:36:01
Zotac 3090 - 1599.-
+ WaKü (126,99) und Ramkühler (24,19)
------------
1750,18€
TobiWahnKenobi
2021-02-10, 10:44:15
günstig nahezu.. aber steht zotac drauf.. muss man also haben wollen.
(..)
mfg
tobi
Eins muss man denen lassen, ich "kenne" einige Zotacs, sowohl ne ex-eigene also auch aus foren, die gut takten. Scheint wohl der Vorteil zu sein, wenn der Hersteller die guten Chips nicht für seine Luxusmodelle rausbinnt. Kühlerwertigkeit kann halt nicht mit ner FE, ASUS oder EVGA mithalten. Aber die gehen schon auch gut die Zotacs ;) Und fiepen nicht...
Cherubim
2021-02-10, 13:32:06
Naja, der Kühler war nur ein paar Tage drauf und ist halt ne reference-design Karte (+ ein paar mm für RGB).
Kein fiepen, das ich wichtig!
Und ja, sie macht genau 350W. Kein Watt mehr. Das ist mMn aber schon genug, für die letzten 3 MHz muss ich da keine 500W durchjagen.
Sie macht mit meiner Kurve in Games so zwischen 1800 und 2045Mhz, also alles gut.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.