Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread
Seiten :
1
2
3
4
5
6
7
8
[
9]
10
11
12
BlacKi
2021-02-10, 14:36:37
Aber die gehen schon auch gut die Zotacs ;) Und fiepen nicht...dann muss meine damals ein zufall gewesen sein, denn tatsächlich war meine einzigste zotac die ich je hatte auch jene, die am meisten fiept hat von all meinen karten bisher.
Ben Carter
2021-02-10, 14:40:46
An die wirklichen Besitzer der RTX3090:
Was habt ihr denn so gezahlt für eure RTX3090?
Bitte nur den bereinigten Kaufpreis nennen und keine alten GPU`s gegenrechnen.
2099,- für die MSI Gaming X Trio.
Triniter
2021-02-10, 15:07:10
An die wirklichen Besitzer der RTX3090:
Was habt ihr denn so gezahlt für eure RTX3090?
Bitte nur den bereinigten Kaufpreis nennen und keine alten GPU`s gegenrechnen.
1668,- für die MSI Ventus
Cubitus
2021-02-10, 15:45:25
1580 Euro Asus TUF OC, bei VÖ
MiamiNice
2021-02-10, 20:05:20
dann muss meine damals ein zufall gewesen sein, denn tatsächlich war meine einzigste zotac die ich je hatte auch jene, die am meisten fiept hat von all meinen karten bisher.
Da bist Du scheinbar nicht ganz alleine. In meiner "Blase" würde niemand jemals eine Zotac kaufen. Da geistern Geschichten umher wie Grafikkarte defekt, Austausch defekt. Komplett PC defekt. Billige Komponenten, Karten an der Kante gebaut.
Zumindest hier hat Zotac seinen Ruf weg.
Megamember
2021-02-10, 20:49:33
Mein 700W Netzteil hält sich tapfer muss ich sagen. Selbst Stock mit maximiertem Powerlimit (bis 390W laut Anzeige) hatte ich noch keine Probleme mit meiner 3090 + 5900X, stundenlang Valhalla und Cyberpunk gezockt, einfach herrlich in 4K max. Temps haben nur mit Silent Bios die 70 Grad gerade so gesehen, ansonsten hängt sie eher so bei 65 Grad rum. Lass sie jetzt aber mit 0,8V@1800MHZ laufen, ist vernünftiger und genauso schnell, Temps dann unter 60 Grad.
Sie ist leiser als mein CPU Kühler und fiept nahezu null. Einziger Kritikpunkt ist das regelmässige kurze hochdrehen der Lüfter in idle bei youtube Videos wenn der Chip über 50 bzw. 60 (Silent Bios) kommt.
Etwas Sorgen bereitet mir nur diese seltsame Gigabyte Stromsteckerverlängerung, hoffe das die mir in Zukunft bei öfteren An und Abstecken der Stromstecker keine Probleme macht. ISt zwar der neue verbesserte Stecker aber trotzdem ist das nicht so ganz durchdacht.
Cherubim
2021-02-11, 08:02:24
Etwas OT:
Würde ich einen signifikanten FPS-Boost erhalten, wenn ich meinen 3900X gegen einen 5000er tauschen würde? Spiele 4k und VR (2x 2160x2160).
Ich denke, ich bin GPU limitiert und eine etwas schneller CPU würde nichts/wenig bringen.
Oder liege ich falsch und die neuen liefern höhere FPS im GPU limit?
Hat jemand von euch Erfahrungen damit und der 3090?
Dschounz
2021-02-11, 09:00:22
Etwas OT:
Würde ich einen signifikanten FPS-Boost erhalten, wenn ich meinen 3900X gegen einen 5000er tauschen würde? Spiele 4k und VR (2x 2160x2160).
Ich denke, ich bin GPU limitiert und eine etwas schneller CPU würde nichts/wenig bringen.
Oder liege ich falsch und die neuen liefern höhere FPS im GPU limit?
Hat jemand von euch Erfahrungen damit und der 3090?
Moin,
das hängt ja sehr vom Spiel ab...CP2077 auf jeden Fall, bestimmte Strategiespiele (TotalWar z.B.) wahrscheinlich auch in bestimmten Szenen.
Insgesamt bist du aber mit Sicherheit GPU-limitiert. Das lohnt wohl eher ab Zen4 sich über eine neue CPU Gedanken zu machen.
Selbst ich mit meinem altersschwachen 5775c bin oft in 3440x1440 GPU-limitiert.
Zum vorherigen Thema:
Ich hab meine 3090FE zum UVP von 1.499,- bei Notebooksbilliger geschossen.
Colin MacLaren
2021-02-12, 20:17:43
Meine 3090 FE stellt beim Minen immer wieder den manuellen Lüfter zurück auf 30%. Kann man das irgendwie verhindern?
rentex
2021-02-12, 21:49:24
Mein 700W Netzteil hält sich tapfer muss ich sagen. Selbst Stock mit maximiertem Powerlimit (bis 390W laut Anzeige) hatte ich noch keine Probleme mit meiner 3090 + 5900X, stundenlang Valhalla und Cyberpunk gezockt, einfach herrlich in 4K max. Temps haben nur mit Silent Bios die 70 Grad gerade so gesehen, ansonsten hängt sie eher so bei 65 Grad rum. Lass sie jetzt aber mit 0,8V@1800MHZ laufen, ist vernünftiger und genauso schnell, Temps dann unter 60 Grad.
Sie ist leiser als mein CPU Kühler und fiept nahezu null. Einziger Kritikpunkt ist das regelmässige kurze hochdrehen der Lüfter in idle bei youtube Videos wenn der Chip über 50 bzw. 60 (Silent Bios) kommt.
Etwas Sorgen bereitet mir nur diese seltsame Gigabyte Stromsteckerverlängerung, hoffe das die mir in Zukunft bei öfteren An und Abstecken der Stromstecker keine Probleme macht. ISt zwar der neue verbesserte Stecker aber trotzdem ist das nicht so ganz durchdacht.
Gut zu wissen, das schon 700 Watt für die Kombi reichen...werd wohl irgendwann demnächst auf den 5900X umschwenken.
Daredevil
2021-02-12, 21:54:45
Mein Silverstone Titanium 700w war das mit maximierten PL zuviel ^^ ( über 400w mit der FE )
Pauschal ist das schwer zu sagen, hier sehen wir anscheinend die Grenze zwischen "geht noch" und "schießt sich ab". ( Ich hab nur nen 3600 )
Stock lief aber ohne Probleme.
Meine 3090 FE stellt beim Minen immer wieder den manuellen Lüfter zurück auf 30%. Kann man das irgendwie verhindern?
Wenn du das ganze im Afterburner forcierst, hält das nicht?
rentex
2021-02-13, 07:07:20
Die 400W erzeugen wahrscheinlich zu hohe Lastspitzen. Bis auf den Seasonic Netzteilrechner, wird bei allen verfügbaren Netzteilkalkulatoren, bei einer Kombi von 5900X und 3090 (ohne OC) grünes Licht gegeben.
BlacKi
2021-02-13, 07:23:38
Meine 3090 FE stellt beim Minen immer wieder den manuellen Lüfter zurück auf 30%. Kann man das irgendwie verhindern?
schau dir mit der hwinfo die vram temp an, dann weißt du warum beim mining der lüfter hochdreht. du kannst bei der FE den lüfter manuell hochdrehen, aber wenn der speicher zu warm wird, dann greift die lüftersteuerung ein und du kannst ihn nicht manuell runterdrehen.
Etwas OT:
Würde ich einen signifikanten FPS-Boost erhalten, wenn ich meinen 3900X gegen einen 5000er tauschen würde? Spiele 4k und VR (2x 2160x2160).
Ich denke, ich bin GPU limitiert und eine etwas schneller CPU würde nichts/wenig bringen.
Oder liege ich falsch und die neuen liefern höhere FPS im GPU limit?
Hat jemand von euch Erfahrungen damit und der 3090?
kann sein das es hier oder da bei den normalen spielen was bringen kann. die 3090 ist echt eine 4k powerkarte. aber eigentlich nur wenn man die grafikeinstellungen optimiert, weg vom all ultra. und wenn du 4k120hz anvisierst. für 4k60hz kannst du dir das sparen.
bei VR sind die games schon von vornherein weniger auf grafikpracht getrimmt, ich würde sagen da bei vr durchaus performancevorteile zu erwarten sind. trotz 2x 4k. viele von denen sind nicht gerade für gutes multithreading bekannt, was oft ein cpu limit nach sich zieht.
sunshine
2021-02-13, 18:02:01
Quick Question: Was sollte die GPU auf 0.9V boosten? Sys siehe sig, https://www.3dmark.com/spy/18309636
Im kurzen Test ist der Boost bei 1920 Mhz runter auf 1868 Mhz. Den TimeSpy Extreme Stresstest bestehe ich so aber mit 94.5% nicht. Die GPU pendelt am Ende um 1680-1750 Mhz rum. GPU maximal 69c (1200rpm Fans), 92c Junction Temp. Deutlichst besser als die 3080 XC3 (80c bei 2200rpm Fans).
Die 3090 FE passt uebrigens gerade so in mein Meshify C :-D (https://imgur.com/a/yFzUhde).
2x Arctic P14 PWM in der Front, 1x Arctic P12 PWM vorne unterm Shroud (alles intake) und auf 800-1000rpm. Noctua NF-A15 im Kuehler und oben raus, Arctic P12 PWM am Kuehler, FD Dynamic GP-12 (800rpm) raus.
Edit: Teste gerade mit 0.825V und 1860 Mhz. Laeuft soweit ganz gut bisher und scheint stabiler zu sein. TimeSpy Extreme Stresstest bestaetigt das. 1815-1860 Mhz ueber alle 20 Laeufe. Temperatur ist dieselbe wie davor.
Ich habe keine festen Spannungen bei meiner Karte. Hab einfach eine curve gebastelt die bei niedrigeren Spannungen einen höheren offset hat als weiter oben. Über das PT stellste dann ein in welchem Spannungsbereich sich die Karte aufhält. Hat den Vorteil, dass die karte dann auch mal deutlich höher boostet, wenn der Verbrauch es zulässt. Bei Cyberpunk liegt der Takt dann bei 300W zwischen 1920 und 2010 MHz.
edit: hab grad mal nachgesehen, bei meiner curve hab ich bei 0,900V 2010 MHz und bei 0,825V 1860MHz.
Cherubim
2021-02-16, 09:05:47
kann sein das es hier oder da bei den normalen spielen was bringen kann. die 3090 ist echt eine 4k powerkarte. aber eigentlich nur wenn man die grafikeinstellungen optimiert, weg vom all ultra. und wenn du 4k120hz anvisierst. für 4k60hz kannst du dir das sparen.
4k60hz...alles klar. Dann kann ich entspannt auf die nächste Gen warten (oder nen guten Deal für nen 5900X, ich kenn mich ja)
Cubitus
2021-02-16, 10:49:25
Quick Question: Was sollte die GPU auf 0.9V boosten? Sys siehe sig, https://www.3dmark.com/spy/18309636
Im kurzen Test ist der Boost bei 1920 Mhz runter auf 1868 Mhz. Den TimeSpy Extreme Stresstest bestehe ich so aber mit 94.5% nicht. Die GPU pendelt am Ende um 1680-1750 Mhz rum. GPU maximal 69c (1200rpm Fans), 92c Junction Temp. Deutlichst besser als die 3080 XC3 (80c bei 2200rpm Fans).
Die 3090 FE passt uebrigens gerade so in mein Meshify C :-D (https://imgur.com/a/yFzUhde).
2x Arctic P14 PWM in der Front, 1x Arctic P12 PWM vorne unterm Shroud (alles intake) und auf 800-1000rpm. Noctua NF-A15 im Kuehler und oben raus, Arctic P12 PWM am Kuehler, FD Dynamic GP-12 (800rpm) raus.
Edit: Teste gerade mit 0.825V und 1860 Mhz. Laeuft soweit ganz gut bisher und scheint stabiler zu sein. TimeSpy Extreme Stresstest bestaetigt das. 1815-1860 Mhz ueber alle 20 Laeufe. Temperatur ist dieselbe wie davor.
Hab auch ein meshify C .. und auch ne 3090 uv...
Ich fahr mit 850mv 1900 MHz.
Wenn du wirklich auf Stabilität testen willst, Spiel damit Metro Exodus oder führe dort den Benchmark 20x aus...
Interessant ist ja, durch das UV hast du mehr Power zu Verfügung, d.h die Karte hält den höchsten Takt länger und konstanter. Was letztendlich mehr FPS bedeutet... wie gesagt es bringt mehr dauerhaft mit z.b 1900 MHz unterwegs zu sein, als im Standard mit 1, 2 Volt mal auf 2,1 GHz zu boosten um dann wieder auf knapp 1700 MHz zu fallen, weil die Power nicht ausreicht...
Möchtest du es leiser haben dann setzt das Powerlimit innerhalb deines UV einfach auf 90 Prozent, je nach Spiel und Auflösung lässt sich bei 0,825 bestimmt auch die 1800 MHz halten... was ebenfalls gut wäre..
gbm31
2021-02-17, 12:53:39
Hotspot und Speichertempertauren jetzt auch bei NV: https://www.igorslab.de/community/threads/auch-die-nvidia-geforce-rtx-3000-serie-besitzt-eine-hotspot-temperatur-erste-messungen-und-der-vergleich-mit-amd.4467/
BlacKi
2021-02-17, 13:07:15
ja, igor war etwas spät zur party. DD war förster.
Megamember
2021-02-19, 00:38:46
Hab mir jetzt übrigens mal diese Thermal Grizzly 8 Minus Thermal Pads bestellt und hab vor die am Samstag auf meine Gigabyte 3090 zu verbauen. Gigabyte verbaut leider von Haus aus Kaugummi, Speichertemp in Games nach einer Weile an die 100 Grad. Auf yt gibts diverse vielversprechende Videos. Hoffendlich produzier ich nicht 1700€ Schrott.
akuji13
2021-02-19, 15:17:49
Ist heutzutage fast ausgeschlossen. Selbst ohne Kühlkörper passiert idR nix mehr.
Solange du also kein Bauteile abbrichst oder die Platine durch sollte das problemlos klappen.
Megamember
2021-02-22, 18:24:41
Hab mir jetzt übrigens mal diese Thermal Grizzly 8 Minus Thermal Pads bestellt und hab vor die am Samstag auf meine Gigabyte 3090 zu verbauen. Gigabyte verbaut leider von Haus aus Kaugummi, Speichertemp in Games nach einer Weile an die 100 Grad. Auf yt gibts diverse vielversprechende Videos. Hoffendlich produzier ich nicht 1700€ Schrott.
SO, Operation geglückt. Die Speichertemps sind bei Cyberpunk jetzt maximal auf 86 Grad gestiegen. Vorher 98. Gpu Temp ist ~ dieselbe trotz thermal Kryonaut.
Hab gesehen das Gigabyte auf der Rückseite auch noch ein dickes Pad für die Spawas aufgebracht hat, das ist wohl neu, hab ich auf den ganzen yt Videos nicht gesehen. DAs war komischerweise auch nur2/3 der lange des Spawablocks auf der anderen Seite, keine Ahnung was das sollte. Das war jedoch so dick das meine neuen Ram PAds kaum noch Kontakt hatten, habs dann auch ausgetauscht und auf das neue dünnere Grizzly PAd noch WLP geschmiert damit es die Backplate erreicht. Hoffe mal das läuft so, bis jetzt keine Probleme. Die anderen VRm PAds hab ich so gelassen.
Megamember
2021-02-25, 17:31:45
Weiss eigendlich jemand wie es um die vrm temps bei der 3090 steht?
Meine Gigabyte hat ja unter der hinteren vrm controllern ein WL-Pad zur Backplate hin (allerdings nur die halbe Länge?). Vorne ist ja auch nochmal so eine vrm Reihe, jedoch ohne Pad zur Backplate. Läuft die kühler als die hintere? Lohnt es sich da auch ein PAd auf die Rückseite zu legen?
https://imgur.com/a/qG9vOdU
Bei der Strix ist da ein Pad. Ob das was bringt bei der gigabyte auch eins da hinzumachen kann ich dir aber nicht beantworten. Sofern die anderen Pads dann noch kontakt haben sollte es aber nicht schaden.
akuji13
2021-02-26, 10:16:42
Meine MSI Ventus hat auch VRM pads.
FastAndy
2021-02-26, 16:01:03
ihr macht euch immer gedanken. ich weiß nicht mal was meine hat, ist mir auch komplett wurst und sie läuft ohne probleme, für den rest habe ich Garantie. Genau der gleiche quatsch ist diese hot spot temperatur. Da wird sich in foren wieder wegen verrückt gemacht und im normalen leben interessiert es genau gar keinen.
aufkrawall
2021-02-26, 16:06:47
Natürlich sollte man sich durch den scheinbar hohen Wert nicht verrückt machen lassen. Aber richtig interpretiert, helfen Hotspot-Temps dabei Kühlschwächen wie schlampig aufgetragene WLP etc. zu erkennen. Wenn die Auto-Lüftersteuerung sich nach dem Hotspot richtet, verursacht das in solchen Fällen auch nervös-nervendes Aufdrehen und entsprechend kann man dann auch gleich die Ursache dessen erkennen.
FastAndy
2021-02-26, 16:16:28
wenn ich dahingehend probleme hätte, ginge die karte zurück zum händler. ich mache mir da sicher keine arbeit mit fehlersuche oder so einem unsinn. dafür ist mir meine zeit zu schade.
akuji13
2021-02-26, 17:12:24
Aber richtig interpretiert, helfen Hotspot-Temps dabei Kühlschwächen wie schlampig aufgetragene WLP etc. zu erkennen. Wenn die Auto-Lüftersteuerung sich nach dem Hotspot richtet, verursacht das in solchen Fällen auch nervös-nervendes Aufdrehen und entsprechend kann man dann auch gleich die Ursache dessen erkennen.
So sieht es aus.
Außerdem landet meine Karte irgendwann bei jemanden anders und hat dann keine Garantie mehr, ergo ist es mir schon wichtig die Risiken zu minimieren.
Unter Wasser sieht die Sache hier allerdings sowieso entspannter aus.
FastAndy
2021-02-26, 17:41:43
Derjenige der deine karte mal kauft, zahlt aber entsprechend weniger und hat damit verbunden auch risiken zu akzeptieren. wobei ja in foren gerne alles dramatisiert wird, wegen ein paar Grad. Ich verstehe aber sowieso nicht wie man eine 2080 ti usw. zu den aktuellen preisen kaufen kann. die karte kann in 2 wochen kaputt gehen und dann hast 800 verbrannt. da kaufe ich mir lieber was mit garantie, aber menschen sind halt alle unterschiedlich.
Colin MacLaren
2021-03-02, 08:14:39
Bisher habe ich immer auf 1.800MHz untertaktet und undervolted. Jetzt wollte ich sie mal wieder voll ausfahren und stelle fest, dass beim 4K-Gaming bei 114% Power Limit der FE der Rechner einfach ausgeht. Das wundert mich, da die CPU undervoltet ist und so um die 60W zieht, für die 3090 dann auch mit erhöhtem Power Limit die 850W eigentlich reichen sollten.
Tjo... nicht jedes NT ist gleich (gut) ;)
Gecko_0815
2021-03-02, 11:00:08
Mal ein Fazit nach 3 Monaten: Meine 3090FE läuft stabil mit 837 mV / 1800 MHz in jeglichen Spielen Tests etc. F@H schmiert ab und läuft nur @Stock. HZD in 4k am OLED geht trotz undervolting bis 350 W. Die lassen sich noch gut kühlen. GPU < 70°, Speicher um die 94°. Was könnte ich für niedrigere Speichertemperaturen machen? Oder ist das so o. k.? Bei ähnlichen Temperaturen (nur höher Lüfterdrehzahlen) gehen auch stabile 912 mV / 1920 MHz - dann reichen aber die 400W Powerlimit bei Vollast 4k nicht mehr immer. Und der Gewinn an FPS ist marginal.
BlacKi
2021-03-02, 11:09:39
Bisher habe ich immer auf 1.800MHz untertaktet und undervolted. Jetzt wollte ich sie mal wieder voll ausfahren und stelle fest, dass beim 4K-Gaming bei 114% Power Limit der FE der Rechner einfach ausgeht. Das wundert mich, da die CPU undervoltet ist und so um die 60W zieht, für die 3090 dann auch mit erhöhtem Power Limit die 850W eigentlich reichen sollten.
dann weißt du das dein NT nicht zu den besten gehört. allerdings finde ich das nicht direkt schlimm. an deiner stelle würde ich:
1900mhz@0,9v versuchen oder bisschen mehr v.
falls das klappt:
1950mhz @ +-0,95v
beides ist meiner erfahrung nach besser gegen spikes als stock.
stock ist echt übel mit den spikes.
Mal ein Fazit nach 3 Monaten: Meine 3090FE läuft stabil mit 837 mV / 1800 MHz in jeglichen Spielen Tests etc. F@H schmiert ab und läuft nur @Stock. HZD in 4k am OLED geht trotz undervolting bis 350 W. Die lassen sich noch gut kühlen. GPU < 70°, Speicher um die 94°. Was könnte ich für niedrigere Speichertemperaturen machen? Oder ist das so o. k.? Bei ähnlichen Temperaturen (nur höher Lüfterdrehzahlen) gehen auch stabile 912 mV / 1920 MHz - dann reichen aber die 400W Powerlimit bei Vollast 4k nicht mehr immer. Und der Gewinn an FPS ist marginal.
works as intended.
die höchtens vram temps der fe sind auf der rückseite, dort kann man kühlkörper mit kühlfinnen auflegen um die temps zu drücken.
satanicImephisto
2021-03-02, 12:44:00
Meine MSI Ventus hat auch VRM pads.
Die sehr bescheiden sind. Hab gestern gegen andere Pads getauscht und schwups ist die Speichertemp um 20 Grad runter unter Last.
akuji13
2021-03-02, 12:51:02
Also nur noch 66°?
Ich hatte mit meinen (als noch der Luftkühler drauf war) maximal 86°.
satanicImephisto
2021-03-02, 12:59:49
Also nur noch 66°?
Ich hatte mit meinen (als noch der Luftkühler drauf war) maximal 86°.
Differenz ist beim Mining gemeint, hier ging die Temp des Speichers aber auch locker bis ins Limit (110), wenn man die Lüfter nicht voll läßt. Mit Thermal Pads, Temps unter 90Grad und Lüfter bei 70% mit max OC.
Gynoug MD
2021-03-02, 14:06:08
dort kann man kühlkörper mit kühlfinnen auflegen um die temps zu drücken.
Bringt das meßbar etwas?
akuji13
2021-03-02, 14:26:49
Je nach Karte mal mehr, mal weniger.
Ich werde bei meiner die backplate auch noch mit einem Kühlkörper versehen und schauen was es bringt.
Differenz ist beim Mining gemeint, hier ging die Temp des Speichers aber auch locker bis ins Limit (110), wenn man die Lüfter nicht voll läßt. Mit Thermal Pads, Temps unter 90Grad und Lüfter bei 70% mit max OC.
Bei 70% Lüfter würde ich sterben, instant. :D
Sweepi
2021-03-03, 11:45:27
Challenge: Findet jemand von euch nVidia Angaben zu Rays/s und/oder RTX-OPS/s bei Ampere?
Zu Turing finde ich hier (https://www.techarp.com/computer/nvidia-rtx-ops-calculation/) den Satz zur 2080 Ti: "Ray tracing performance of up to 10 Giga Rays per second or 100 tera-ops per second."
die 100 x10E12 Tera Ops suche in den nVidia Specs auch noch, die 10 Gigarays findet sich hingegen im Marketing Material und im Turing Whitepaper (https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf) auf Seite 15
Zu Ampere nennt Anandtech (https://www.anandtech.com/show/16057/nvidia-announces-the-geforce-rtx-30-series-ampere-for-gaming-starting-with-rtx-3080-rtx-3090) 69/58/40 TFlops Ray Performance für 3090/3080/3070. Welcher nVidia Wert ist das? im Ampere Whitepaper (https://www.nvidia.com/content/PDF/nvidia-ampere-ga-102-gpu-architecture-whitepaper-v2.pdf) steht auf Seite 44 unten für die 3090 "Peak FP16 Tensor TFLOPS with FP32" und "Peak BF16 Tensor TFLOPS with FP32 Accumulate" als 71 Tflops. Ist das der richtige Wert? Das wäre dann der einzige Wert, der um mehr als Rundung off wäre, sowie der einzige, beim dem nVidia mehr als Anand angibt, daher gehe ich eher von einer zufälligen Korrelation zu sein:
nVidia vs Anand
35.6 vs 35.7 (fp32 vs Single Precision Perf.)
142 vs 143 (fp16 tensor)
284 vs 285 (fp16 tensor fp16 acc vs fp16 tensor sparse)
71 vs 69 (fp16 tensor fp32 acc vs Ray perfomance) <-- gleicher oder unterschiedlicher Spec?
BTW:
In der Tabelle von Anandtech stehen bei der 2080TI die Referenz Werte zu fp32, aber die FE Werte zur Tensor Performance drin....
BlacKi
2021-03-03, 11:55:25
Bringt das meßbar etwas?
die backplate geht von 80° runter auf hohe 50er werte. beim minen. mit einem besseren kühlblock, geht bestimmt mehr. diesmal kann ich auch die internen sensoren zur messungnehmen.
der bessere kühlblock liegt hier schon ein paar tage rum, aber ich muss den erst noch kürzen/anpassen, da die backplate etwas tiefer liegt als der rahmen.
BlacKi
2021-03-03, 12:51:04
igor hat gerade ein video zum thema kondensator gegen lastspitzen rausgehauen.
hier gibts nichts zu sehen^^
ich denke, für einen echten effekt müsste man die kondensatore größer wählen, was zu weiteren problemen führen kann.
Sweepi
2021-03-03, 13:55:12
Challenge: Findet jemand von euch nVidia Angaben zu Rays/s und/oder RTX-OPS/s bei Ampere?
Hab das ganze übersichtlich aufbereitet:
Arch | Es gibt Werte zu | Es fehlen Werte zu:
Turing |
Rays/s
RTX-OPS/s
Raytracing "Tera-Ops"
|
Raytracing TFLops
|
Ampere |
Raytracing TFLops
|
Rays/s
RTX-OPS/s
Raytracing "Tera-Ops"
Hat jemand Infos / Links dazu?
Ausführliche Tabelle gibt es im CB Forum (https://www.computerbase.de/forum/threads/ampere-gigarays-rtx-ops.2008724), das ist mir gerade zuviel Aufwand, das noch in die 3dcenter Tabellenform zu gießen. :freak:
Sweepi
2021-03-03, 14:57:14
Gibt es eigentlich einen separaten Blog Beitrag von nVidia zur Ampere Gaming Architektur?
Der Turing Artikel hat nämlich was zu RT drin:
https://developer.nvidia.com/blog/nvidia-turing-architecture-in-depth/
Der Ampere Artikel geht vom A100 aus und der hat bekanntlichen kein RT:
https://developer.nvidia.com/blog/nvidia-ampere-architecture-in-depth/
Megamember
2021-03-10, 21:43:00
Also ich hab meine 3090 jetzt schon 4 mal geöffnet und mit verschiedenen PAds experimentiert. Thermal Grizzly Minus 8, Ec360 Silver und Gelid. MAnchmal musste ich auch unfreiwillig etwas ändern weil die Temps von GPU/Ram nicht gepasst haben. Auch die vrms hab ich jetzt mit neuen Pads versehen, kann ja nicht schaden.
Mit Abstand die besten Ram Temps habe ich jetzt am Ende mit den Gelid Pads gehabt. Damit bleibe ich deutlich unter 80 Grad, sonst eher mittlere 80er bis über 90. Standardpads gingen bis knappe 100. In Games wohlgemerkt. WLP hab ich thermal Grizzly Kryonaut.
Mit 0,8V und 1830MHZ komme ich damit auf ~60 Grad GPU Temp und sehr angenehmer Geräuschkulisse.
TobiWahnKenobi
2021-03-10, 21:57:01
LOL - warum macht man sowas..!?
es gibt kaum karten, für viele sind die verfügbaren unbezahlbar und
dran rumbasteln entwertet doch nur..
mir ist echt voll latte wie warm da was wird.. zu heiss
scheint nix zu sein denn die karte läuft immer gleich gut bei mir.
kostet die inzwischen echt 3000€ aufwärts..?
(..)
mfg
tobi
Megamember
2021-03-10, 22:08:24
Man kann doch seiner 1700€ Karte mal was gutes tun, gerade wenn sie von Haus aus mit grottenschlechten Pads gestraft wurde, bei Temps die zwischen Leben und Tod liegen ;).
Also ich konnte die bei den Temps nichtmehr ohne schlechtes Gefühl laufen lassen. Minen könnte ich jetzt auch ohne throtteling aber dafür ist mir die Karte zu schade.
Annator
2021-03-11, 07:57:22
die höchtens vram temps der fe sind auf der rückseite, dort kann man kühlkörper mit kühlfinnen auflegen um die temps zu drücken.
Habe die letzten Tage auch mal geschaut wie die 3090 so mit Nicehash läuft. Die VRAM Temps gehen sofort auf 106°C hoch und die Karte hängt im throttle. Erst ab 70% Powerlimit komme ich auf unter 100°C dauerhaft. Die Karte ist Wassergekühlt und die Backplate lässt sich so auch nicht mehr lange anfassen ohne das man Brandblasen bekommt.
Habe mir jetzt diese Kühlkörper bestellt:
https://www.amazon.de/gp/product/B07KXSK13F/
Werde mal schauen wie das damit läuft. Hab auch schonmal geschaut wir man einen Lüfter über die Backplate positionieren könnte. Habe da aber nichts brauchbares gefunden. Vielleicht hat da jemand einen Tip.
astro
2021-03-11, 08:46:07
Also ich hab meine 3090 jetzt schon 4 mal geöffnet und mit verschiedenen PAds experimentiert. Thermal Grizzly Minus 8, Ec360 Silver und Gelid. MAnchmal musste ich auch unfreiwillig etwas ändern weil die Temps von GPU/Ram nicht gepasst haben. Auch die vrms hab ich jetzt mit neuen Pads versehen, kann ja nicht schaden.
Mit Abstand die besten Ram Temps habe ich jetzt am Ende mit den Gelid Pads gehabt. Damit bleibe ich deutlich unter 80 Grad, sonst eher mittlere 80er bis über 90. Standardpads gingen bis knappe 100. In Games wohlgemerkt. WLP hab ich thermal Grizzly Kryonaut.
Mit 0,8V und 1830MHZ komme ich damit auf ~60 Grad GPU Temp und sehr angenehmer Geräuschkulisse.
Das klingt interessant. Welche Stärke hast Du bei den Pads genommen? 0.5, 1.0, 1.5 mm?
Megamember
2021-03-11, 11:25:03
Bei der Gigabyte 3090: RAM 2mm, vrms 1mm, einzelnes unter der Backplate 3mm
FastAndy
2021-03-11, 16:09:20
LOL - warum macht man sowas..!?
es gibt kaum karten, für viele sind die verfügbaren unbezahlbar und
dran rumbasteln entwertet doch nur..
mir ist echt voll latte wie warm da was wird.. zu heiss
scheint nix zu sein denn die karte läuft immer gleich gut bei mir.
Stimme dir voll zu. Ich verstehe die verbastelei auch gar nicht. Aber schau dir die deppen im hardwareluxx an, die zerlegen 3x die karten und tauschen die pads durch um sinnlose 5° zu gewinnen - die karte hält dann wohl 8,8 statt 9 jahre. völlig banane. ;D
Manchen Leuten macht sowas halt Spaß. Außerdem hat man dann bei gleichem Verbrauch etwas mehr Leistung oder bei gleicher Leistung etwas weniger Verbrauch. Bei 5° jetzt nicht grade, aber bei der 3090 soll das mit den Pads ja bis zu 20° bringen bei manchen. Und mit Wakü merkt man da schon richtig was von. Da boostet die Karte mit 300W wie eine FE bei 350W.
Braucht man nicht, da habt ihr schon recht. Ist aber schon nice to have... Der ewige Kampf von Vernunft und YOLO :wink:
Megamember
2021-03-11, 19:27:02
Ich gebs zu ich war auch etwas "unterbastelt":redface: und das Ergebnis war sehr befriedigend.
Aber sinnvoll isses auf jeden Fall, wie sollten denn dann die Temps im Sommer werden?
BlacKi
2021-03-11, 21:00:27
Ich gebs zu ich war auch etwas "unterbastelt":redface: und das Ergebnis war sehr befriedigend.
Aber sinnvoll isses auf jeden Fall, wie sollten denn dann die Temps im Sommer werden?ca. 10 grad höher bei gleicher lautstärke. bei schnellerem lüfter weniger als 10 grad schätz ich mal:biggrin:
r3ptil3
2021-03-11, 21:05:59
Ich kann Megamember verstehen... mache ich an GPUs selber am liebsten, sofern der Hersteller dies erlaubt.
Gerade letztens bei einer RX 580 die WLP gewechselt und über eine deutlich kühlere Karte gefreut. Bei den 3080er Modellen ebenso, auch wenn da max. 3-4° drin waren.
BlacKi
2021-03-11, 21:34:24
würde ich auch machen, wenn ich damit nicht die garantie verlieren würde.
Gynoug MD
2021-03-13, 16:54:39
die backplate geht von 80° runter auf hohe 50er werte.
Mit Abstand die besten Ram Temps habe ich jetzt am Ende mit den Gelid Pads gehabt. Damit bleibe ich deutlich unter 80 Grad
Danke für eure Erfahrungs-Werte.
Habe da aber nichts brauchbares gefunden. Vielleicht hat da jemand einen Tip.
Da Platz dort extrem knapp ist und ich baulich an meiner Karte (noch) nichts verändern möchte, werde ich einfach mal 'nen Scythe 120mm-Slimlüfter@5V drauflegen, mal schauen.
FastAndy
2021-03-14, 19:15:06
Hat hier jemand SLI laufen? Überlege das noch mal auszuprobieren.
Daredevil
2021-03-15, 02:41:48
Ich hab am WE den Rechner ein wenig "Silent" gemacht wie früher und ich höre jetzt wieder die 3090, wie sie vor sich hin rattert bei 800rpm. Es ist zum verzweifeln. ;(
Die erste hatte ich bereits reklamiert, jetzt wieder der Kram.
Hat das sonst noch jemand mit einer 3090, oder höre nur ich das?
( CPU läuft bei 600rpm, sonst ist aktuell kein Lüfter im Gehäuse an, deswegen Rööööööödelt die GPU so merkbar )
Das macht mich Wahnsinnig. Ich will ne MSI Surpim und dann wäre Schluss mit dem scheiß hier. ;(
BlacKi
2021-03-15, 03:14:20
mhh, ne, garnicht. der lüfter wird zwar manchmal laut wenn ich im hintergrund mine und video videos schließe, aber rattern gibts nicht.
Kriegsgeier
2021-03-15, 06:51:08
Leute, eine Frage: was kann ich für den reinen 3090 FE Kühler verlangen? 200€?
Kommt drauf an was jemand bereit ist zu bezahlen ;) Sofern die Schrauben noch wie neu sind (keine Spuren vom Zerlegen) biete ich 10 EUR.
Kriegsgeier
2021-03-15, 11:10:23
für die Schrauben? :)
PS: wenn der Kühler in der Produktion ca. 150 US$ kostet und das bei sehr hohen Menge, dann würde ich eher zwischen 200€ und 300€ ansetzen...
PS: urteilen kann es sowieso nur einer, der die Grafikkarte bzw. den Kühler live gesehen und angefasst hat. Es ist eine Meisterleistung und Ingeneurskust vom feinsten!
FastAndy
2021-03-15, 11:41:49
Für die letzten Kühler (Titan Xp usw.) konntest du durchaus 100+ kriegen. Lass dich da aber nicht in Foren "beraten". Da hast immer ganz schlaue Antworten, die mit der richtigen Welt nicht viel gemein haben. Probier's einfach und setz hoch an, eilt ja nicht.
Tigershark
2021-03-15, 11:43:37
für die Schrauben? :)
PS: wenn der Kühler in der Produktion ca. 150 US$ kostet und das bei sehr hohen Menge, dann würde ich eher zwischen 200€ und 300€ ansetzen...
PS: urteilen kann es sowieso nur einer, der die Grafikkarte bzw. den Kühler live gesehen und angefasst hat. Es ist eine Meisterleistung und Ingeneurskust vom feinsten!
Kann sein, aber ich glaube um ehrlich zu sein nicht, dass es einen Markt dafür gibt. Entweder hab ich eine 3090 und lasse sie mit Luft laufen, dann brauche ich keinen. Oder ich habe eine und lasse sie mit Wasser laufen - dann brauche ich auch keinen. Und da man den nicht auf beliebige andere Karten setzen kann...
Gynoug MD
2021-03-15, 18:20:12
PS: urteilen kann es sowieso nur einer, der die Grafikkarte bzw. den Kühler live gesehen und angefasst hat. Es ist eine Meisterleistung und Ingeneurskust vom feinsten!
+1
Die dicke Berta.
Also falls einer 300 EUR für das Ding bezahlt, lass es mich wissen, dann hau ich meinen für 280 (wg. verkratzten Torx-Schrauben) raus. So schön der Kühler ist, das Ding ist wertlos, da es mehr Kühler als passende Karten gibt.
qiller
2021-03-23, 21:15:05
+1
Die dicke Berta.
Dafür sind die Spulen ein Mega-Katastrophe. Ich hab in meinem ganzen Leben noch nie ein derart lautes Spulengerassel gehört. Das hab ich durch mein gedämmtes Gehäuse und durch meine Kopfhöhrer gehört! Auf jeden Fall ist die Kühler/Lüfter-Konstruktion der FE nicht das Problem - die ist wirklich nice (wobei man sich an der Backplate auch verbrannt hat :x).
Mit meiner jetzigen RTX3090 PNY Gaming ist es genau umgedreht. Die Spulen sind nicht mal halb so laut - nach Erwärmung sogar fast gar nicht mehr zu hören. Dafür ist der Standard-Luftkühler eine Mega-Katastrophe. Der ist für die 350W Abwärme vollkommen ungeeignet. Die Karte rennt quasi innerhalb paar Minuten vom Powerlimit ins Temperaturlimit von 83°C. Und auch die Mem-Junction-Temp geht gen 110°C.
Daher läuft die Karte jetzt einfach wassergekühlt :P.
Habe die letzten Tage auch mal geschaut wie die 3090 so mit Nicehash läuft. Die VRAM Temps gehen sofort auf 106°C hoch und die Karte hängt im throttle. Erst ab 70% Powerlimit komme ich auf unter 100°C dauerhaft. Die Karte ist Wassergekühlt und die Backplate lässt sich so auch nicht mehr lange anfassen ohne das man Brandblasen bekommt.
Habe mir jetzt diese Kühlkörper bestellt:
https://www.amazon.de/gp/product/B07KXSK13F/
Werde mal schauen wie das damit läuft. Hab auch schonmal geschaut wir man einen Lüfter über die Backplate positionieren könnte. Habe da aber nichts brauchbares gefunden. Vielleicht hat da jemand einen Tip.
Witzig, genau die Dinger hab ich bei mir drauf geklebt :>.
https://oli.new-lan.de/wp-content/uploads/2021/03/2-scaled.jpg
Trotz bis zu 45°C Wassertemp@~500W Abwärme (interne Radis mit Low-rpm FANs, wird noch umgebaut auf Mora) lande ich bei max. 52°C GPU-Temp und max. 76°C Mem-Junction-Temp. Passt für mich erstmal. Taktfrequenzen sacken jetzt auch nicht mehr auf 16xxMHz ab. Liegen eigt. immer zwischen 1800 und 1850MHz. Ein Taktwunder ist PNY also auch mit Wakü nicht.
sunshine
2021-03-24, 19:38:39
Ich hab auch mal NiceHash mit der 3090 FE probiert. -500 Clock, +1000 Mem, Custom Curve, 86% PL ergab um die 112-115mh/s und 300W. Aber mit 23 cent pro kW/h sehe ich irgendwie den Nutzen nicht. $8 pro Tag ist mir der Lärm nicht wert. Hatte die Lüfter auf 80% und es gab um die 96c Junction Temp.
r3ptil3
2021-03-24, 19:40:58
23 C. pro kW/h... krass, doppelt so viel wie in unserer Gemeinde.
BlacKi
2021-03-25, 05:14:37
Ich hab auch mal NiceHash mit der 3090 FE probiert. -500 Clock, +1000 Mem, Custom Curve, 86% PL ergab um die 112-115mh/s und 300W. Aber mit 23 cent pro kW/h sehe ich irgendwie den Nutzen nicht. $8 pro Tag ist mir der Lärm nicht wert. Hatte die Lüfter auf 80% und es gab um die 96c Junction Temp.
112mh/s sind mir den lärm auch nicht wert.
deshalb läuft meine 3090 mit 900-945mhz core und -502 offset mit 95-97 mhs und 240w bei 30-40% lüfterspeed.
23 C. pro kW/h... krass, doppelt so viel wie in unserer Gemeinde.usa halt XD
rentex
2021-03-25, 05:37:40
23 C. pro kW/h... krass, doppelt so viel wie in unserer Gemeinde.
Sollte langsam bekannt sein....
Hat hier jemand SLI laufen? Überlege das noch mal auszuprobieren.
Schau mal in den SLI Thread. Ist Tod. Keine Treiberunterstützung mehr bzw. sogar explizit abgeschaltet für die 3090. Geht nur noch wenn der Entwickler in sein DX12 Game explizit Unterstützung programmiert.
Für Deinen Hinterkopf: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12613775#post12613775
122 MH/s bei 280W und lautlos dank Wakü ;) 26ct je kwh oder so.
OK, es geht los. Die ersten vBios mit BAR-Support kommen.
Galax
http://www.szgalaxy.com/Areas/__ZH_GB__/Download/3090_update.exe
Gainward
http://www.gainward.cn/Download/3090_update.exe
Das Gainward-Bios müsste auf meiner Palit laufen ... gleich ausprobieren.
Hakim
2021-03-28, 21:51:32
Prüft mal ob das Bios was am Hashrate ändert wenn ihr es Drauf spielt.
Ich hab kein Vorher-Wert, kann ich Dir leider auch kein Nachher-Wert liefern.
Läuft
https://abload.de/img/barj8kh7.gif (https://abload.de/image.php?img=barj8kh7.gif)
Hakim
2021-03-28, 22:12:13
na die 3090 macht so glaub etwas optimiert 120 MH/s, dürfte auffallen wenn die da "drosseln".
Daredevil
2021-03-28, 23:09:06
Nice HisN ! :)
Wäre mal interessant, ob du irgendwo Unterschiede bemerkst.
Ich würde mich mal freuen, wenn Nvidia auch mal ein Update rausbringt und nicht nur die... AIBs...
Merke/Sehe nix, jedenfalls die halbe Stunde, die ich mich jetzt damit beschäftigt habe.
Denkt an die Nvidia-Whitelist. Es werden zur Zeit scheinbar sowieso nur 8 Games unterstützt.
Und @Hakim
Ich hab mit dem Mining-Kram nix am Hut und ich werde mir da jetzt auch nicht einlesen um Dir Werte zu liefern. Ich bin da echt der falsche Ansprechpartner. Ganz im Gegenteil, ich finde die Strom-Verbraterei für die Geld-Geilheit der Menschen das allerletzte. Ist echt nicht bös gemeint. Sorry.
aufkrawall
2021-03-28, 23:50:44
Merke/Sehe nix, jedenfalls die halbe Stunde, die ich mich jetzt damit beschäftigt habe.
Denkt an die Nvidia-Whitelist. Es werden zur Zeit scheinbar sowieso nur 8 Games unterstützt.
Allerdings arbeiten OS/Kernel-Treiber sicherlich trotzdem anders als wenn Above 4G Decoding abgeschaltet wäre. Ich würd sicherheitshalber in paar Tests im CPU-Limit mit SAM vs. Above 4G Decoding off machen.
Hakim
2021-03-28, 23:52:27
Kein Stress, alles gut. Ich selbe mache es auch nicht, da bei mir sowieso derzeit rBAR nicht geht, wollte ich erst schauen ob die FW MH/s limitiert oder nicht bevor ich es drauf spiele.
Blaire
2021-03-28, 23:52:44
Nice HisN ! :)
Wäre mal interessant, ob du irgendwo Unterschiede bemerkst.
Ich würde mich mal freuen, wenn Nvidia auch mal ein Update rausbringt und nicht nur die... AIBs...
Dienstag. :) Ja vielleicht kann HisN ein paar vorher/nachher Werte liefern, wenn er ein passendes unterstütztes Game besitzt, dazu müsste er jedoch ReBAR im Board-Bios erst deaktivieren.
Je nach NVIDIA Treiber (462.07) unterstützt bislang folgende Games für resizable BAR : Battlefield V, Assassin's Creed Valhalla, Metro: Exodus, Watch Dogs: Legion, Borderlands 3, Forza Horizon 4, Gears of War 5 sowie Red Dead Redemption 2
Im nächsten Treiber sind da noch ein paar mehr mit dabei.
Daredevil
2021-03-28, 23:56:25
Sehr cool! Danke für das Update Blaire! :)
akuji13
2021-03-29, 09:01:01
Bin ja mal gespannt ob, wann und wie (live update only?) ein neues bios für meine MSI Ventus erscheint.
https://abload.de/img/abfdf5a2-015f-4c64-adtkko.jpeg (https://abload.de/image.php?img=abfdf5a2-015f-4c64-adtkko.jpeg)
https://abload.de/img/ac12e9b0-6737-4417-89akwu.jpeg (https://abload.de/image.php?img=ac12e9b0-6737-4417-89akwu.jpeg)
Daredevil
2021-03-29, 13:41:19
Drei Prozent, vielleicht.
https://videocardz.com/newz/nvidia-geforce-rtx-3090-with-resizable-bar-is-3-17-faster-on-average-at-4k
https://cdn.videocardz.com/1/2021/03/NVIDIA-RTX3090-ResizableBAR.png
All tests were performed at 4K resolution and maximum settings. According to those numbers, NVIDIA RTX 3090 with Resizable BAR is 3.17% faster on average, which is actually not such a bad result. NVIDIA RTX 3060 has seen bigger gains but at 1080p resolution. The QHD and 4K were expected to be under 5%. Of course, more detailed and comprehensive reviewers will be published. Reviewers may need to decide whether to continue testing RTX 30 cards without ReBAR support or enabled this feature where possible
Jeder FPS ist besser als kein FPS. :)
Krass, die müssen gut laufende 3090 haben, wenn sie bei Vallhalla 10 FPS mehr rausquetschen UND dann noch MAXIMUM SETTINGS (ich lach gerade mal) angelegt haben, die bei mir nicht angelegt sind^^
Oder sie benchen irgendwas anderes, als den internen Bench^^
MiamiNice
2021-03-29, 18:06:48
Ich glaub deren CPU ist einfach ein Stück stärker als Dein TR. Die haben nen 5950X drin.
Und das bringt Punkte im absoluten GPU-Limit?
4K mit (ich lache wieder) Maxed-Out Settings?
MiamiNice
2021-03-29, 18:26:14
Keine Ahnung, spiele Vallhalla nicht.
War nur ne Idee beim Blick auf deren HW.
akuji13
2021-03-29, 19:54:36
Hier meine @1845Mhz, die CPU einmal @3800Mhz und @4800Mhz.
https://abload.de/thumb/acvalhalla_2021_03_296nk34.jpg (https://abload.de/image.php?img=acvalhalla_2021_03_296nk34.jpg)https://abload.de/thumb/acvalhalla_2021_03_292kjt1.jpg (https://abload.de/image.php?img=acvalhalla_2021_03_292kjt1.jpg)
Kann mir nicht vorstellen das der Unterschied zu einer anderen CPU deutlich abweicht, sein TR ist ja viel moderner als z. B. mein 5930K und da war der Unterschied schon gering.
Daredevil
2021-03-29, 22:32:09
Preisfrage:
Ich würde gerne einen 140mm Lüfter unter der 3090 anbringen, um ihr separat und direkt ein wenig Frischluft zuzuführen. Die Frage ist nur, wo genau? :)
1. Direkt unter Lüfter 1, wo vermutlich die meiste Hitze durch den Chip entsteht und der Speicher vertreten ist.
Hier wir die Wärme direkt an die Umgebung abgegeben.
2. In der Mitte der Karte, wo beide Lüfter links und rechts ein wenig Frischluft abbekommen. Diese Zone wird meist sehr heiß, da kaum von Airflow betroffen.
3. Am Ende der Karte, wo sich viele Kühlfinnen treffen und wo eine Menge Luft nach oben geblasen wird.
Rein vom Gefühl ist Position1 am sinnvollsten, weil da massiv heiße Luft raus kommt und dort alle Komponenten sind, gefolgt von Position2, wo ebenfalls auch noch GPU+RAM mit getroffen werden und der "Hotspot" in der Mitte. Position3 bringt sicherlich auch was, da direkt durchgeblasen wird, dort entsteht aber kaum Hitze.
Was meint ihr? ^^
https://abload.de/img/external-content.duckjiku0.jpg
akuji13
2021-03-29, 22:40:43
Ich meine, du Faulpelz solltest alle 3 Varianten ausgiebig testen und uns das Ergebnis schön aufbereitet präsentieren! :D
Daredevil
2021-03-29, 22:42:11
Ich habe diese Antwort befürchtet ;(
akuji13
2021-03-29, 22:50:17
Zu recht. ;)
So richtige Aussagen dazu sind auch nicht so einfach, die meisten hier wissen nichts über dein Gehäuse, den airflow dort usw.
hq-hq
2021-03-29, 23:05:01
vermutlich ungefähr so: 74788
Ich würde auf pos. 2 tippen. Je höher das Delta desto besser lässt sich Wärme abführen.
Gynoug MD
2021-03-30, 07:12:48
Preisfrage:
Ich würde gerne einen 140mm Lüfter unter der 3090 anbringen
Ich habe das Thema auch schon durchgetestet, großartig in Zonen aufteilen bringt nix, einfach Lüfter in etwa mittig legen, bringt 2-3 Grad, sogar, wenn der Lüfter keinen direkten Zugang zu "Frischluft" hat, weil er z.B auf den in Mode gekommenen, temperaturtechnisch beschissenen, festen Netzteilblenden aufliegt (auf 5mm Gummimoppels).
Deisi
2021-03-30, 13:12:29
Bei EVGA kam das Update für rBAR über PrecisionX:
https://abload.de/img/rbarqyjdu.jpg
Blaire
2021-03-30, 15:29:15
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-30-series-resizable-bar-support/
"In practice, the performance benefits of Resizable BAR can vary substantially from game to game. In our testing, we’ve found some titles benefit from a few percent, up to 12%. However, there are also titles that see a decrease in performance, so NVIDIA will be pre-testing titles and using game profiles to enable Resizable BAR only when it has a positive performance impact. That way you won’t have to worry about bugs or performance decreases, and won’t have to rely on the community to benchmark each title and discover whether Resizable BAR is beneficial in the games you’re playing."
https://abload.de/img/perf-preview5sk5v.png
NVIDIA Resizable BAR Firmware Update Tool
https://nvidia.custhelp.com/app/answers/detail/a_id/5165
Schnoesel
2021-03-30, 15:35:52
Nvidia Werbung braucht hier keiner. Unabhängige Tests dagegen schon.
r3ptil3
2021-03-30, 15:36:40
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-30-series-resizable-bar-support/
"In practice, the performance benefits of Resizable BAR can vary substantially from game to game. In our testing, we’ve found some titles benefit from a few percent, up to 12%. However, there are also titles that see a decrease in performance, so NVIDIA will be pre-testing titles and using game profiles to enable Resizable BAR only when it has a positive performance impact. That way you won’t have to worry about bugs or performance decreases, and won’t have to rely on the community to benchmark each title and discover whether Resizable BAR is beneficial in the games you’re playing."
https://abload.de/img/perf-preview5sk5v.png
NVIDIA Resizable BAR Firmware Update Tool
https://nvidia.custhelp.com/app/answers/detail/a_id/5165
Gehört zwar in den RTX 3080 Thread, aber ziemlich beeindruckend.
Kommt's mir nur so vor oder ist der Vorteil von RBAR auf der RTX 3080 grösser als auf der RTX 3090?
Eine Analyse wäre hier sicher interessant, gerade hinsichtlich des knappen VRAMs auf der 3080.
akuji13
2021-03-30, 16:19:51
Nvidia Werbung braucht hier keiner. Unabhängige Tests dagegen schon.
Meine Güte.
Alleine der Hinweis zum Ablauf & Umsetzung war die Nachricht schon wert.
Daredevil
2021-03-30, 16:38:32
Nvidia Werbung braucht hier keiner. Unabhängige Tests dagegen schon.
Doch, ich brauche die schon.
Danke Blaire! :)
Blaire
2021-03-30, 17:28:26
Kein Problem. Ich hatte ja gedacht, das der gute Raff oder Marc ein paar Vergleichs-Werte zur Leistung (mit und ohne ReBAR) liefern, aber das scheint dann wohl keine große Priorität gehabt zu haben.
teezaken
2021-03-30, 17:36:23
Habe in Cyberpunk 2077 und in RDR2 an den selben Stellen nach dem Treiber und BIOS Update 1:1 die selbe Leistung mit RBar wie vor den Updates, muss man im CPU oder GPU Limit sein damit es überhaupt was bringt? Sorry falls das schon bekannt ist.
Und über den Nvidia Inspector kann man RBar auch selber aktivieren für die Games die NVidia noch nicht selber getestet hat.
dildo4u
2021-03-30, 17:37:30
Habe in Cyberpunk 2077 und in RDR2 an den selben Stellen nach dem Treiber und BIOS Update 1:1 die selbe Leistung mit RBar wie vor den Updates, muss man im CPU oder GPU Limit sein damit es überhaupt was bringt? Sorry falls das schon bekannt ist.
Die Sprünge sind größer in kleineren Auflösungen.
Edgecrusher86
2021-03-30, 20:27:17
Achtung: Gerade mit Z390 Brettern gibt es wohl massiv Bootprobleme, wenn Re BAR aktiv ist! Etwa GB-Boards plus ASUS Strix 3090/3080 und 3090 FE Karten! [siehe auch der Fall => hier <= (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12639519&postcount=205) mit dem 8700K + ASRock + 3060 Ti]
Zudem ist es so, dass es schon zwei bestätitgte Fälle gibt, nachdem bei GB 3090 Karten das PT massiv eingeschränkt wurde:
https://videocardz.com/newz/nvidia-enables-resizable-bar-on-geforce-rtx-30-graphics-cards
Emiloo • 2 hours ago
TGP drop from 390W to 340W after updating to new bios on AORUS GeForce RTX™ 3090 XTREME WATERFORCE 24G. Clock after OC was 1920-2040 MHz now is 1790-1845 MHz.
GB 3090 Gaming OC -> statt ebenso 370-390W, nur noch 350W! Wurde mir gesagt....wieder zurück geflasht von F3 auf F1 und gut war....
Gerade in Highres wird man den einher gehenden Taktverlust niemals wieder aufholen durch das Feature.....
Wirkt alles ziemlich überhastet und wohl nicht durch die Bank durch getestet / kommuniziert!
E: Ok, 3090 FE und Z390 Aorus Master funktioniert mit Re BAR, wenn CSM off, 4G dec. und Re BAR an.
akuji13
2021-03-30, 22:36:34
So, bios update ist durch und Funktion aktiv.
Schlimm das man dafür das gruselige Dragon Center von MSI installieren musste.
Naja, nun ist es ja auch schon wieder verschwunden! :D
E: Ok, 3090 FE und Z390 Aorus Master funktioniert mit Re BAR, wenn CSM off, 4G dec. und Re BAR an.
Mein ASUS B550 weist extra darauf das CSM aus sein muss.
Hat von euch schon einer den Hitman3-Benchmark (intern) ausprobiert? Das ist mit dem rBAR-Bios eine einzige Katastrophe.
Ich kann mich nicht daran erinnern, dass das vorher auch so grausam lief.
Allerdings gabs von Hitman3 bei mir heute auch ein Update. .kann natürlich auch daran liegen.
Hakim
2021-03-30, 23:50:23
Zudem ist es so, dass es schon zwei bestätitgte Fälle gibt, nachdem bei GB 3090 Karten das PT massiv eingeschränkt wurde:
https://videocardz.com/newz/nvidia-enables-resizable-bar-on-geforce-rtx-30-graphics-cards
GB 3090 Gaming OC -> statt ebenso 370-390W, nur noch 350W! Wurde mir gesagt....wieder zurück geflasht von F3 auf F1 und gut war....
Das PT Problem hatte ich auch, ist nach dem Update auf neuste Treiber (Hatte Neuinstallation gewählt) samt Neustart weg bei mir.
aufkrawall
2021-03-30, 23:51:09
Hat von euch schon einer den Hitman3-Benchmark (intern) ausprobiert? Das ist mit dem rBAR-Bios eine einzige Katastrophe.
Ich kann mich nicht daran erinnern, dass das vorher auch so grausam lief.
Allerdings gabs von Hitman3 bei mir heute auch ein Update. .kann natürlich auch daran liegen.
Hattest du vorher denn Above 4G Decoding an (siehe meinen vorigen Post)?
Das Bios-Update von meinem Asus gibt es seit dem 20.01.. Ich hab das zum Release-Tag installiert und rBAR im Bios vom Mainboard aktiviert. Hitman3 sollte ich also mit aktivem rBAR-Support vom Mainboard gezockt haben, dessen Relase war auch am 20.01. Ohne die Zuppellei, die man jetzt sieht.
Blaire
2021-03-31, 01:05:28
Das PT Problem hatte ich auch, ist nach dem Update auf neuste Treiber (Hatte Neuinstallation gewählt) samt Neustart weg bei mir.
Kurze Frage. Welches Bios hattest du genommen? Ebenfalls das F3? OC- oder Silent-Bios?
Hakim
2021-03-31, 01:35:33
Kurze Frage. Welches Bios hattest du genommen? Ebenfalls das F3? OC- oder Silent-Bios?
Ich hab eine FE 3060Ti mit nur einen Bios. Aber nach dem Flash Vorgang via Tool und einigen anderen Problemen hatte ich danach unter Windows Probleme mit dem PT beim Afterburner. Es Lies sich nicht verstellen und angezeigt wurde wirre Werte wie PT 0 oder 50%.
Blaire
2021-03-31, 01:44:22
Ich hab eine FE 3060Ti mit nur einen Bios. Aber nach dem Flash Vorgang via Tool und einigen anderen Problemen hatte ich danach unter Windows Probleme mit dem PT beim Afterburner. Es Lies sich nicht verstellen und angezeigt wurde wirre Werte wie PT 0 oder 50%.
Danke für deine Antwort. Aber in unseren speziellen Fall ging es um die RTX 3090 Gaming OC von Gigabyte da half auch eine frische Treiber-Installation nicht weiter ( es blieb bei 350w statt der üblichen 390w TGP) wie Edgecrusher weiter oben schon geschrieben hatte.
rentex
2021-03-31, 07:35:51
Nvidia Werbung braucht hier keiner. Unabhängige Tests dagegen schon.
Ja klar brauchen wir die hier;D
Kein Problem. Ich hatte ja gedacht, das der gute Raff oder Marc ein paar Vergleichs-Werte zur Leistung (mit und ohne ReBAR) liefern, aber das scheint dann wohl keine große Priorität gehabt zu haben.
WIP. :) Morgen früh.
MfG
Raff
y33H@
2021-03-31, 12:41:53
Ich hatte ja gedacht, das der gute Raff oder Marc ein paar Vergleichs-Werte zur Leistung (mit und ohne ReBAR) liefern, aber das scheint dann wohl keine große Priorität gehabt zu haben.Ich bin anders als PCGH eine One-Man-Show für CPUs/GPUs :freak: werde alle Karten nächste Woche flashen ist der Plan ...
sChRaNzA
2021-03-31, 12:53:43
Wie ist das jetzt mit den Ryzen-CPUs vor der 5000er-Serie? Man findet überall nur Angaben dazu und / oder wird verlinkt auf einen PCGH-Artikel in dem steht, dass man es für sehr unwahrscheinlich hält.
Jetzt gibt es das Tool von nVidia und MSI hat für mein x470-Mainboard im Februar ein BIOS mit rBAR für GeForce-Karten zur Verfügung gestellt. Spricht da jetzt irgendwas dagegen, bzw hat das schon jemand mit einem Ryzen 2xxx/3xxx getestet?
Mfg
aufkrawall
2021-03-31, 13:06:41
Beim X470-Board meines Bruders macht Above 4G Decoding auch mit SAM und 6900 XT leider einfach nur die CPU-Performance schlechter. Es ist natürlich nicht gesagt, dass das mit NV-GPU oder anderen Boards auch so sein muss. Leider blieb mein Testaufruf hier ohne Resonanz, kein Mensch testet die wirklich interessanten Dinge...
Am Threadripper (was ja ein Ryzen 3xxx ist) läuft das.
Screemer
2021-03-31, 13:28:01
WIP. :) Morgen früh.
MfG
Raff
:up:
Könntest du deine pns checken wenn es die Zeit zulässt? Aber mach dir keinen Stress.
OCmylife
2021-03-31, 19:38:21
Jetzt wo ich die Abwärme endlich ohne Probleme gebändigt bekomme, wollte ich dennoch mal ein bisschen mit OC/UV spielen und hatte gestern abend einfach mal ein 1830@0,85V Setting genommen(dass ich irgendwo gefunden habe) und Cyberpunk gespielt. Heute wollte ich dann mal wissen, bis wohin die GPU bei 0,85V denn noch geht und staunte nicht schlecht, als die Karte bei Heaven und Superposition 8K erst bei 1980 MHz ausgestiegen ist und 1950 bis jetzt bei den beiden Tests noch keine Probleme machten.
Habe ich hier ein "Golden Sample", setzt ihr absichtlich die Taktschraube so niedrig, oder habe ich die Stabilität noch nicht genügend getestet?
Normalerweise habe ich bei sowas immer Pech und die Grafikkarte machte bis 380 Watt eh nur knappe 2GHz, da sie sowieso ins Powerlimit rennt. Wenn ich mir dann anschaue, dass Leute mit vergleichbarer Hardware und fast 2,3 GHz in Optimized 8K ganze 60 Punkte mehr haben, muss ich schon ein wenig schmunzeln. Es kann natürlich auch sein, dass die 2,3 GHz für 5 Sekunden anliegen und sie danach vielleicht 50 MHz mehr hat als meine.
Edit: Das neue Bios habe ich auf meiner Gaming X auch schon drauf und bis jetzt noch keine Probleme gehabt. Ein wirklicher Vorteil ist mir jetzt aber auch noch nicht aufgefallen. MSI Live Update 6 ist aber wirklich noch schlimmer programmiert, als MSI Dragon Center. Bis ich drauf gekommen bin, dass ich über die Pfeile nach rechts erst zu meinem Update komme, vergingen schon ein paar Minuten. :-D
wolik
2021-03-31, 19:54:07
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-30-series-resizable-bar-support/
"In practice, the performance benefits of Resizable BAR can vary substantially from game to game. In our testing, we’ve found some titles benefit from a few percent, up to 12%. However, there are also titles that see a decrease in performance, so NVIDIA will be pre-testing titles and using game profiles to enable Resizable BAR only when it has a positive performance impact. That way you won’t have to worry about bugs or performance decreases, and won’t have to rely on the community to benchmark each title and discover whether Resizable BAR is beneficial in the games you’re playing."
https://abload.de/img/perf-preview5sk5v.png
NVIDIA Resizable BAR Firmware Update Tool
https://nvidia.custhelp.com/app/answers/detail/a_id/5165
Thx.
Nvidia Werbung braucht hier keiner. Unabhängige Tests dagegen schon.
OMG.
Schnoesel
2021-03-31, 22:26:40
Man kann jetzt OMG schreiben oder erkennen, dass bei ersten unabhängigen Tests teilweise erheblich weniger bei rumkommt als bei Nvidias Werbefolie:
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/rBAR-auf-Geforce-Benchmarks-1369569/
Manchmal geht's dann doch schneller als antizipiert: Resizable BAR auf Geforce RTX 3090 getestet: Bis zu 14 Prozent mehr Leistung gratis (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/rBAR-auf-Geforce-Benchmarks-1369569/) :D
:up:
Könntest du deine pns checken wenn es die Zeit zulässt? Aber mach dir keinen Stress.
Sie haben Post! =)
Man kann jetzt OMG schreiben oder erkennen, dass bei ersten unabhängigen Tests teilweise erheblich weniger bei rumkommt als bei Nvidias Werbefolie:
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/rBAR-auf-Geforce-Benchmarks-1369569/
Alter, dat Timing. Ich war gerade am Tippen, dann kommst du ums Eck. :biggrin: Selektierte Benchmarks von einem Hersteller, die das zu Bewerbende im besten Licht darstellen: Regel, nicht Ausnahme.
MfG
Raff
Schnoesel
2021-03-31, 22:35:36
Eben deswegen verzichte ich gerne auch die Marketingfolien (Von Nvidia im Besonderen). Mal sehen was andere Seiten für Ergebnisse liefern. Ich will genau wissen was zu erwarten ist und ob es sich für mich lohnt bevor ich den Aufwand mit nem Biosupdate mache. Wenn man die Garantie durch Umbau eh schon verloren hat will ich nicht zusätzlich ne potentielle Fehlerquelle haben zumal ich keinen Bios-switch habe.
@oCmylife
SP und Heaven stressen die Karte nicht. Zock ne Runde Division2 mit den Takten.
Stellenweise so viel Mehrleistung für lau, da kann man nicht meckern. Ich finde es auch gut das es nur in den Games aktiv ist, in denen es auch was bringt.
Sind die Zugewinne bei den jeweiligen Games eigentlich vergleichbar bei AMD/NV?
Eben deswegen verzichte ich gerne auch die Marketingfolien (Von Nvidia im Besonderen). Mal sehen was andere Seiten für Ergebnisse liefern. Ich will genau wissen was zu erwarten ist und ob es sich für mich lohnt bevor ich den Aufwand mit nem Biosupdate mache. Wenn man die Garantie durch Umbau eh schon verloren hat will ich nicht zusätzlich ne potentielle Fehlerquelle haben zumal ich keinen Bios-switch habe.
Kein Aufwand. Tool downloaden, starten, aktualisieren lassen. Dann neuer Treiber drauf -> moar powaaah! Deine Infrastruktur kann es ja, also nutze es. Allerdings liest man derzeit so manche Gruselgeschichte von herabgesetzten Powerlimits bei Custom-Designs. Da die Trinity aber schon immer ein 350-Watt-Design war, kannst du das wagen.
MfG
Raff
Schnoesel
2021-03-31, 22:51:20
Nur habe ich gehört dass bei der Zotac noch kein Bios zur Verfügung steht. Auch auf deren Seite war noch nix zu finden und ich zocke zudem noch auf 3440x1440, das sollte nochmal weniger bringen. Ich warte erstmal ab.
Von merkbaren Differenzen ist man da tatsächlich meist weit entfernt, aber es soll Leute geben, die für die letzten fünf Prozent beispielsweise +100 Watt und Lärm in Kauf nehmen. Da ist rBAR ungleich smarter und die RTX 3090 festigt ihre Position als schnellstes Modell (welche nur hier im 3DCF angezweifelt wird ;)). Mich saugt latent an, dass mein fünf Jahre altes X99-Brett das nicht kann. Jetzt wird's endgültig Zeit für ein Upgrade, spaßeshalber. Jemand Bock auf einen gut abgehangenen fertig optimierten Broadwell-E? :D
Sind die Zugewinne bei den jeweiligen Games eigentlich vergleichbar bei AMD/NV?
Nach dem, was ich gesehen habe, profitiert RDNA 2 (als RX 6800/6900) prozentual immer etwas mehr als GA102 (als RTX 3090/3080).
MfG
Raff
Daredevil
2021-03-31, 23:16:30
Preisfrage:
Ich würde gerne einen 140mm Lüfter unter der 3090 anbringen, um ihr separat und direkt ein wenig Frischluft zuzuführen. Die Frage ist nur, wo genau? :)
1. Direkt unter Lüfter 1, wo vermutlich die meiste Hitze durch den Chip entsteht und der Speicher vertreten ist.
Hier wir die Wärme direkt an die Umgebung abgegeben.
2. In der Mitte der Karte, wo beide Lüfter links und rechts ein wenig Frischluft abbekommen. Diese Zone wird meist sehr heiß, da kaum von Airflow betroffen.
3. Am Ende der Karte, wo sich viele Kühlfinnen treffen und wo eine Menge Luft nach oben geblasen wird.
Rein vom Gefühl ist Position1 am sinnvollsten, weil da massiv heiße Luft raus kommt und dort alle Komponenten sind, gefolgt von Position2, wo ebenfalls auch noch GPU+RAM mit getroffen werden und der "Hotspot" in der Mitte. Position3 bringt sicherlich auch was, da direkt durchgeblasen wird, dort entsteht aber kaum Hitze.
Was meint ihr? ^^
https://abload.de/img/external-content.duckjiku0.jpg
Kleines Update:
Ein Be Quiet Silent Wing 3 @ 500rpm wurde hinzugefügt.
Testszenario Resident Evil 2 @ 4K @ 400w Verbrauch
zusätzlich lief noch der Curve Optimizer im Hintergrund, also 1T Prime95 :<
Stock = 3 Lüfter vorne, eine hinter
R = Lüfter Rechts
M = Lüfter mittig
L = Lüfter links ( Nicht getestet, da NT im Weg )
Vorher 30 Min Aufwärmzeit, danach ca. 15 Min Zeit für Veränderung der Daten bzw. wenn sie sich nicht mehr ändern
Konfiguration| GPU Temp | GPU RPM | CPU Temp
Stock | 71°C|1440rpm|80°C
R|70°C|1380rpm|78°C
M|69°C|1345rpm|80°C
L|---|---|---
Fazit: Frischluft tut gut :)
Ist der Lüfter rechts, unterstützt er die CPU Temp ein wenig.
Ist der Lüfter mittig, hat das Temp mäßig den größten Impact auf die GPU ( Was das Ziel war )
Ist der Lüfter links, verdeckt er den NT Lüfter, welche warme Luft aus dem Gehäuse holen soll, das macht also Null sinn bei mir.
PS: Keine professionelle Testumgebung, da das Fenster o.ä. aber nicht geöffnet wurde und die Temps gesunken sind mit extra Lüfter, könnte der Unterschied tendenziell auch größer sein, weil der Lüfter 30 Min mit ~480w geflutet wurde.
Ist also bei der 3090 FE sicherlich nicht verkehrt, auch wenn die Kiste nur mit 500rpm dreht.
These:
Ich gehe stark davon aus, dass der "vordere Lüfter" der 3090 FE die Frischluft komplett nach oben "umleitet" und somit der "hintere Lüfter" selber zurecht kommen muss, wie er an Luft kommt. ( Durch die PCIe Gitter und durchs NT unten.
Der neue Lüfter in grün kommt dem etwas entgegen.
https://abload.de/img/img_99027fjsavwjv3.jpg
PPS: Also eigentlich ist da ja noch platz für nen zweiten Lüfter unten :freak:
PPPS: Ach was soll der Geiz... Amazon und seine WHD -_-
https://abload.de/img/unbenannt1kjzv.png
akuji13
2021-04-01, 00:28:58
Mich saugt latent an, dass mein fünf Jahre altes X99-Brett das nicht kann. Jetzt wird's endgültig Zeit für ein Upgrade, spaßeshalber.
Hihi, genau einen solchen Wechsel habe ich gerade vollzogen. :wink:
Jemand Bock auf einen gut abgehangenen fertig optimierten Broadwell-E? :D
Wenn dein board nicht so unendlich hässlich wäre, hätte ich es einem Freund angeboten...so kriegt er dann mein schickes Asus X99-A II. :D
Fazit: Frischluft tut gut :)
Früher hat man ja noch Lufttunnel gebau...gebastelt. :D
Daredevil
2021-04-01, 00:35:23
Naja ich habe ja dann 6 Lüfter, also könnte ich in der Tat mal einen vertikalen Lufttunnel ausprobieren. :D
Horizontal ist auch ganz gut, aber die FE bricht den Luftstrom ja schon ein wenig.
sChRaNzA
2021-04-01, 07:59:11
Manchmal geht's dann doch schneller als antizipiert: Resizable BAR auf Geforce RTX 3090 getestet: Bis zu 14 Prozent mehr Leistung gratis (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/rBAR-auf-Geforce-Benchmarks-1369569/) :D
Sie haben Post! =)
Alter, dat Timing. Ich war gerade am Tippen, dann kommst du ums Eck. :biggrin: Selektierte Benchmarks von einem Hersteller, die das zu Bewerbende im besten Licht darstellen: Regel, nicht Ausnahme.
MfG
Raff
Werdet ihr euch auch rBAR mit älteren CPUs mal anschauen?
MfG
Gynoug MD
2021-04-01, 14:57:12
Kleines Update:
Fazit: Frischluft tut gut :)
Jopp, danke für deine Erfahrungswerte, hab' auch einen 140er drunter, die Ecke unterhalb der GPU, FE oder klassisch, ist halt der Hotspot, durch die Glasaquarien ohne Seitenlüfter noch verstärkt.
OCmylife
2021-04-03, 07:34:44
@oCmylife
SP und Heaven stressen die Karte nicht. Zock ne Runde Division2 mit den Takten.
Ich habe gestern zumindest mit Port Royal dann schnell gemerkt, dass 1950@0,85V doch etwas zu hoch gegriffen sind. Dann habe ich mit Port Royal weiter getestet und bin bei eingestellten 1921 bei stabilen 1905 gelandet. Das Ganze habe ich dann noch mit Timespy/Extreme, Metro Exodus und Cyberpunk über jeweils mindestens eine Stunde geprüft und keine Abstürze oder Crashes gehabt.
Normalerweise müsste zwischen 1905 und 1950 ja noch ein Zwischenschritt sein, aber so bin ich auch zufrieden.
Ich hatte bei Computerbase auch noch einen Thread gefunden und deren Ergebnisse spielten @0,85V auch ca auf dem Level. Wohl doch kein Golden Sample ;-D
user77
2021-04-03, 10:08:34
https://abload.de/img/img_99027fjsavwjv3.jpg
3D Drucker zur Verfügung & ein bisschen §D CAD Erfahrung?
Mach dir eine L-Förmiges "Luftleitblech" und Trenne den Luftstrom schon ganz vorne, am besten aus weißem PLA.
https://abload.de/img/unbenanntesk5t.png
Megamember
2021-04-03, 15:03:11
Ich hatte bei Computerbase auch noch einen Thread gefunden und deren Ergebnisse spielten @0,85V auch ca auf dem Level. Wohl doch kein Golden Sample ;-D
Meine geht auch problemlos sehr hoch mit niedriger Spannung, mit Serienkühlung.
0,8V bis mindestens 1845MHZ, 0,85V auch mindestens bis ~1950, hab ich alles noch garnicht soweit ausgelotet. Säuft aber auch ordentlich, typisch high Asic schätze ich, selbst mit 0,8V geht sie oft ins Powerlimit rein, komischerweise mit älteren Games eher als mit aktuellen.
OCmylife
2021-04-03, 15:32:35
Meine geht auch problemlos sehr hoch mit niedriger Spannung, mit Serienkühlung.
0,8V bis mindestens 1845MHZ, 0,85V auch mindestens bis ~1950, hab ich alles noch garnicht soweit ausgelotet. Säuft aber auch ordentlich, typisch high Asic schätze ich, selbst mit 0,8V geht sie oft ins Powerlimit rein, komischerweise mit älteren Games eher als mit aktuellen.
Dass die Karte selbst @0,85V auch noch verdammt viel säuft ist mir auch schon aufgefallen. Da sieht man immer noch gelegentlich 330 Watt im Afterburner, aber so grob über den Daumen gepeilt genehmigt sie sich jetzt um die 300 Watt unter Volllast. Da ich eigentlich immer mit Vsync spiele, hält sich der Gesamtverbrauch aber auch noch im Rahmen. Ich hatte auf die Karte ja auch schon das Suprim-Bios geflashed, aber die paar MHz mehr für den deutlich höheren Verbrauch ist es mir nicht mehr wert. Da lasse ich lieber die Lüfter langsamer laufen und habe auch beim Spielen ein leises System.
akuji13
2021-04-03, 15:36:49
In welcher Auflösung spielst du?
OCmylife
2021-04-03, 15:53:43
Ich spiele immer in 4K und 60 fps. Aber auch da geht die Karte häufig nicht ins Taktlimit.
Daredevil
2021-04-05, 18:48:29
3D Drucker zur Verfügung & ein bisschen §D CAD Erfahrung?
Mach dir eine L-Förmiges "Luftleitblech" und Trenne den Luftstrom schon ganz vorne, am besten aus weißem PLA.
https://abload.de/img/unbenanntesk5t.png
Danke für den Tipp :)
Ich habe mal die Bordeigenen Mittel genutzt und die "Trennbleche" für diesen Zweck genommen.
Die drei Lüfter vorne weiter nach unten platziert, damit der "NT Kanal" ebenfalls für die GPU da ist.
Das ist dann jetzt erstmal die Finale Form.
CaseFan 1000rpm - GPU 1450rpm @ 400w
CaseFan 600rpm - GPU 1100rpm @ 300w
Casefan 300rpm - GPU 800rpm @ 220w ( Ich würde die Karte so gerne niedriger drehen lassen :( )
https://abload.de/img/img_0029jvkoh.jpeg
Ex3cut3r
2021-04-05, 19:16:16
Kein Chieftec mehr? ^^
Daredevil
2021-04-06, 01:17:54
Coolermaster ^^
Ne, die 230mm Lüfter waren durch und die neu zu kaufen, hätte knapp 60€ gekostet.
Da wars sinnvoller, die 100€ hier rein zu stecken.
Dass das am Ende mit den ganzen Silent Wings so eskaliert, damit man die 3090 ruhig bekommt, naja. Ungeplant, aber jetzt erstmal die nächsten 10 Jahre Ruhe. ^^
Ex3cut3r
2021-04-06, 14:52:34
:up: Das neue Gehäuse ist auf jeden Fall ein guter Sprung.
Aber, dass µATX Board wird natürlich erschlagen.
Meine geht auch problemlos sehr hoch mit niedriger Spannung, mit Serienkühlung.
0,8V bis mindestens 1845MHZ, 0,85V auch mindestens bis ~1950, hab ich alles noch garnicht soweit ausgelotet. Säuft aber auch ordentlich, typisch high Asic schätze ich, selbst mit 0,8V geht sie oft ins Powerlimit rein, komischerweise mit älteren Games eher als mit aktuellen.
Nö - low Asic. Für High Asic bräuchtest du mehr Völter, könntest im Extremfall aber höher takten (Trockeneis und so ...)
BlacKi
2021-04-10, 17:07:21
lol
https://tpucdn.com/review/nvidia-pci-express-resizable-bar-performance-test/images/watch-dogs-legion-1920-1080.png
nice
https://tpucdn.com/review/nvidia-pci-express-resizable-bar-performance-test/images/watch-dogs-legion-3840-2160.png
https://www.techpowerup.com/review/nvidia-pci-express-resizable-bar-performance-test/24.html
was da wohl schief gelaufen ist?
versus10000
2021-04-10, 17:13:44
da muss noch ordentlich dran gearbeitet werden.
Eure Karte war schweineteuer, weit jenseits der UVP? Das wird euch aufheitern: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/
Die RTX 3090 hat im Gegensatz zur RTX 3080 auch genug Speicher, damit wir sowas in 5-10 Jahren anhand eines dann aktuellen Spiels nachprüfen können. :D
MfG
Raff
TobiWahnKenobi
2021-04-30, 20:07:16
sind denn bei spielern grafikkarten noch so verbreitet, dass das für irgendwen von relevanz ist.. dachte die sitzen alle auf alten karten und kennen RT nur aus mythen und legenden..
(..)
mfg
tobi
Eure Karte war schweineteuer, weit jenseits der UVP? Das wird euch aufheitern: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/ART-Mark-Raytracing-Benchmarks-1371125/
Die RTX 3090 hat im Gegensatz zur RTX 3080 auch genug Speicher, damit wir sowas in 5-10 Jahren anhand eines dann aktuellen Spiels nachprüfen können. :D
MfG
Raff
In 5-10 Jahren wird wahrscheinlich jede iGPU die derzeitige Generation mit RT ziemlich alt aussehen lassen - was se dann ja auch ist :rolleyes:
BlacKi
2021-04-30, 20:38:22
In 5-10 Jahren wird wahrscheinlich jede iGPU die derzeitige Generation mit RT ziemlich alt aussehen lassen - was se dann ja auch ist :rolleyes:RT wird immer sehr viel rechenleistung kosten. die games ohne RT werden verschwinden und wir werden uns nichtmehr über die kosten von RT aufregen können. aber die RT leistung ggü. einer aktuellen amd karte wird bei nv wie wir im bench sehen können wie ein schlechter wein dahin degradieren. um mal amd jargon zu bedienen.
wolik
2021-04-30, 21:02:28
In 5-10 Jahren wird wahrscheinlich jede iGPU die derzeitige Generation mit RT ziemlich alt aussehen lassen - was se dann ja auch ist :rolleyes:
RT bei "40 TFlops" GK kostet die "hälfte". Zu erwarten von iGPU in "5-10" Jahren gleiche Leistung... zu optimistisch. Ich denke (und hoffe) RT wird leise verschwinden. Oder Leistung von GK wird sich verzehnfachen, das reicht dann für "richtige RT"
sind denn bei spielern grafikkarten noch so verbreitet, dass das für irgendwen von relevanz ist.. dachte die sitzen alle auf alten karten und kennen RT nur aus mythen und legenden..
(..)
mfg
tobi
2% sind voll in "Genuss" von 5-20 fps, oder / und 720P. (Glücklicher Besitzer 3090-3080 ausgenommen)
Das wird nie wieder verschwinden. Und RT-Faktor 10 gegenüber Ampere wird noch ein wenig dauern. 2024 wieder Faktor 2 - rechne selbst. :D
MfG
Raff
wolik
2021-04-30, 22:06:33
Das wird nie wieder verschwinden. Und RT-Faktor 10 gegenüber Ampere wird noch ein wenig dauern. 2024 wieder Faktor 2 - rechne selbst. :D
MfG
Raff
über Physx hat man gleiche gedacht. Wie groß ist Bedeutung von Physx in Gaming ? In Gameplay? wäre ist nicht geil wie in Red Faction alles physikalisch korrekt platt zu machen? (über Havok, ich bin informiert)
Faktor 2 halte ich (ohne MCM) sehr optimistisch. 98% wissen jetzt von RT nicht viel. In 2-4 Jahren werden nicht mal 10% sein. RT bleibt immer (diese Jahre) on / off Funktion. Und alle Entwickler werden mit RT off Ihre Spiele gut aussehen lassen.
arcanum
2021-04-30, 22:40:52
ansehnliche physx bedeuten zusätzliche arbeit. aufwendige physik-spielereien sind heute meinem empfinden nach noch seltener als noch vor 5 oder 10 jahren.
RT hingegen bedeutet zeitersparnis bei der entwicklung wenn fake-beleuchtung erst mal nicht mehr implementiert werden muss. die basis für RT ist gelegt mit aktuellen konsolen und karten von nvidia und amd. fast jeder konsolenspieler weiß was ray tracing ist und in 5 jahren werden das fast 100 millionen spieler sein die RT-fähige hardware haben. fast alle großen titel die jetzt rauskommen unterstützen RT in der einen oder anderen weise. es heute mit physx zu vergleichen ist absurd und man sollte eher hoffen, dass endlich die hässliche fake-beleuchtung aus allen spielen verschwindet.
wolik
2021-04-30, 23:11:51
man sollte eher hoffen, dass endlich die hässliche fake-beleuchtung aus allen spielen verschwindet.
Wie aus RDR2? Meinst du wirklich mit RT gleiche Beleuchtung realisieren "ohne was zu machen"? Reichweite etc.? Mehr als paar Ecken und paar Meter "beleuchtend" (Metro. CP2077) habe ich bis jetzt nichts gesehen. Und mit welche Leistung? Und welchem mehr wert? RTX on / off wie sicher kann man ein Bild von anderen Unterscheiden? (alles IMXO natürlich, und mit 30 Jahre Game Erfahrung / Begeisterung)
rentex
2021-05-01, 06:51:45
RT mit Physx zu vergleichen, zeugt schon von einer kurzsichtigen und altbackenen Vorstellung des Grafikkartenbereichs und des mittlerweile erzielten Fortschritts in Sachen RT. Aber konservative Denkmuster sind ja mittlerweile ein Markenzeichen des 3DC Forums geworden.
RT in NVs und AMDs Version (samt DLSS und FidelityFX CAS) gehört die Zukunft...dafür sorgen besagte Firmen, findet euch damit ab.
wolik
2021-05-01, 13:35:11
RT mit Physx zu vergleichen, zeugt schon von einer kurzsichtigen und altbackenen Vorstellung des Grafikkartenbereichs und des mittlerweile erzielten Fortschritts in Sachen RT. Aber konservative Denkmuster sind ja mittlerweile ein Markenzeichen des 3DC Forums geworden.
RT in NVs und AMDs Version (samt DLSS und FidelityFX CAS) gehört die Zukunft...dafür sorgen besagte Firmen, findet euch damit ab.
In 30 Jahren Gaming ich habe schon vieles kommen und gehen gesehen... Von 3Dfx Glide bis Physx. Für richtige RT fehlt einfach Leistung. RT was wir sehen ist nur ein Witz.
akuji13
2021-05-01, 13:48:13
Das gilt auch für jeden anderen Bereich von Grafik. Egal ob Wind, Wasser, Texturen.
Es gibt genug Leute denen auch "unrichtiges" RT langt. ;)
Und die Entwickler werden es forcieren.
Nicht nur weil sie selbst den optischen Mehrwert schätzen, sondern auch, wie im DF Video zu Metro Exodus Enhanced zu sehen, den verringerten Arbeitsaufwand.
wolik
2021-05-01, 18:47:00
Das gilt auch für jeden anderen Bereich von Grafik. Egal ob Wind, Wasser, Texturen.
Es gibt genug Leute denen auch "unrichtiges" RT langt. ;)
Und die Entwickler werden es forcieren.
Nicht nur weil sie selbst den optischen Mehrwert schätzen, sondern auch, wie im DF Video zu Metro Exodus Enhanced zu sehen, den verringerten Arbeitsaufwand.
Ok. Lass uns sachlich angehen. Auf welche Hardware kann zur Zeit "RT" laufen? 3090-3080 und PS5 + Xbox (Next) Wie viel kommen zum Genus RT zu sehen / spielen?
https://store.steampowered.com/hwsurvey/videocard/
Wahrlich nicht viel.
Wieviel PS4 Konsolen gibts ?
https://www.gameswirtschaft.de/marketing-pr/playstation-4-verkaufszahlen-2020-10/
114KK.
Alte Xbox? Nintendo?
Wie lange dauert Spielentwicklung? 3-5 Jahren?
Wird man auf alle Mögliche Käufer verzichten welche nicht mal in die Lage sind RT Spiele zu spielen? Wohl nicht.
Meine Enkelkinder werden wohl mit RT glücklich. Für uns es ist nur ein Geck.
Und noch mal. Es ist nur mein Meinung. Es muss auch nicht stimmen. Bitte nicht böse sein. Ich bin auch für Fortschritt.
Aber auch wie SLI gestorben ist, wird auch RT in abseits gestellt...
akuji13
2021-05-01, 18:56:40
Ich rede nicht von heute und nicht von kommenden RT only Spielen die dann eine große Masse nicht spielen könnte.
RT heißt auch das es als Option wählbar ist.
Wir können ja in 3-5 Jahren diesen thread nochmal rauskramen, ich sage RT bleibt und wird in Zukunft stetig mehr und umfangreicher verwendet.
Lawmachine79
2021-05-01, 20:04:54
Ich rede nicht von heute und nicht von kommenden RT only Spielen die dann eine große Masse nicht spielen könnte.
RT heißt auch das es als Option wählbar ist.
Wir können ja in 3-5 Jahren diesen thread nochmal rauskramen, ich sage RT bleibt und wird in Zukunft stetig mehr und umfangreicher verwendet.
Absolut. RT ist das neue Hardware T&L.
rentex
2021-05-02, 10:40:39
In 30 Jahren Gaming ich habe schon vieles kommen und gehen gesehen... Von 3Dfx Glide bis Physx. Für richtige RT fehlt einfach Leistung. RT was wir sehen ist nur ein Witz.
Nicht böse sein, sich immer wieder auf gemachte Erfahrungen aus der Steinzeit zu berufen, ist in Zelten sich rasant entwickelnder Technologien, einfach nicht mehr nützlich.
Ich kann es einfach nur immer wieder wiederholen:
Unser Hobby ist im Grunde, das Sinnbild für Fortschritt und der ständigen Anpassung an neue Gegebenheiten.
Erfahrungen die man einmal gemacht hat, sind nicht grundsätzlich und uneingeschränkt hilfreich, um aktuelles Geschehen einzuschätzen.
Sunrise
2021-05-02, 12:52:44
RT ist vor allem schönes Marketing. Trifft auch genau den Nerv von Spielern der aktuellen Zeit.
Weckt mich, wenn Spiele auch nur annähernd die Qualität von Epics neuer Techdemo erreichen. Da ist meines Wissens nach maximal Software RT im Einsatz, sieht aber unglaublich gut aus, weil eben die Engine, die vorhandenen Ressourcen und viel Hirnschmalz den Unterschied machen, ohne dass man sich ein Bein abschneiden muss.
Ich kaufe mir dann in 10 Jahren HW, die echtes RT kann, und spiele aktuell lieber Spiele mit Inhalten und guter Story (wenn es die bis dahin noch gibt, sieht aktuell eher schlecht aus). So hat jeder seine Zeit, mit für sie oder ihn, sinnvollen Inhalten gefühlt.
Es fehlen tatsächlich einfach die Inhalte, als dass ich mir für 2000-3000 EUR eine High-End GPU zulegen würde. Die würde dann 80% der Zeit sowieso nicht genutzt.
RT laeuft auf meiner 3060ti in Kombi mit DLSS ganz gut. Watch Dogs Legion mit 50fps 4k Vsync.
Also. Das ist keine theoretische Funktion.
Geldmann3
2021-05-02, 14:16:51
RT ist vor allem schönes Marketing. Trifft auch genau den Nerv von Spielern der aktuellen Zeit.
Weckt mich, wenn Spiele auch nur annähernd die Qualität von Epics neuer Techdemo erreichen. Da ist meines Wissens nach maximal Software RT im Einsatz, sieht aber unglaublich gut aus, weil eben die Engine, die vorhandenen Ressourcen und viel Hirnschmalz den Unterschied machen, ohne dass man sich ein Bein abschneiden muss.
Ich kaufe mir dann in 10 Jahren HW, die echtes RT kann, und spiele aktuell lieber Spiele mit Inhalten und guter Story (wenn es die bis dahin noch gibt, sieht aktuell eher schlecht aus). So hat jeder seine Zeit, mit für sie oder ihn, sinnvollen Inhalten gefühlt.
Es fehlen tatsächlich einfach die Inhalte, als dass ich mir für 2000-3000 EUR eine High-End GPU zulegen würde. Die würde dann 80% der Zeit sowieso nicht genutzt.
Vielleicht solltest Du, so wie ich, mal anfangen mit der Unreal Engine zu spielen. Meine RTX 3090 und davor die RTX 2080 Ti lagen auch 99% der Zeit brach, doch vor zwei Monaten habe ich dann angefangen mit der Unreal Engine zu experimentieren und habe damit mehr Spaß, als ich es seit sehr langer Zeit beim Zocken hatte. Seitdem sind die dauernd im Einsatz, weshalb ich mich schon um die Stromrechnung, Ende des Jahres, sorge.^^
So habe ich in letzter Zeit neben der Arbeit den ART-Mark (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) entwickelt. Puh und jetzt bin ich echt froh bei der RTX 3090 und der RX 6900 XT für meinen Zweitrechner zugeschlagen zu haben und zwar als die Preise noch 30% günstiger waren als jetzt. Heute, muss ich zugeben, würde selbst ich mir keine Grafikkarte kaufen, die Preise sind völlig absurd. (Das waren sie vorher schon.)
Vielleicht solltest Du, so wie ich, mal anfangen mit der Unreal Engine zu spielen. Meine RTX 3090 und davor die RTX 2080 Ti lagen auch 99% der Zeit brach, doch vor zwei Monaten habe ich dann angefangen mit der Unreal Engine zu experimentieren und habe damit mehr Spaß, als ich es seit sehr langer Zeit beim Zocken hatte. Seitdem sind die dauernd im Einsatz, weshalb ich mich schon um die Stromrechnung, Ende des Jahres, sorge.^^
So habe ich in letzter Zeit neben der Arbeit den ART-Mark (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) entwickelt. Puh und jetzt bin ich echt froh bei der RTX 3090 und der RX 6900 XT für meinen Zweitrechner zugeschlagen zu haben und zwar als die Preise noch 30% günstiger waren als jetzt. Heute, muss ich zugeben, würde selbst ich mir keine Grafikkarte kaufen, die Preise sind völlig absurd. (Das waren sie vorher schon.)
Und wenn wirklich kein Game welches bevorzugt wird, die UE unterstützt? Ich kauf mir doch nicht ein Krempel-Game, nur dass es flüssig läuft. Deine Argumentationslage ist unbrauchbar. Soll ich jetzt nur noch DX12-Games zocken, da es meiner Radeon besser passt :freak:
Döner-Ente
2021-05-02, 21:29:57
RT laeuft auf meiner 3060ti in Kombi mit DLSS ganz gut. Watch Dogs Legion mit 50fps 4k Vsync.
Also. Das ist keine theoretische Funktion.
Es war doch bei neuen Technologien eigentlich oft so, dass die anfangs mit enormen Hardwareanforderungen einher gingen, nicht gleich immer sinnvoll eingesetzt wurden (Stichwort übertriebener Einsatz als Showcase) und ein paar Jahre später hatte es jeder und es wurde überall eingesetzt. Da haben auch alle am Anfang über den Hardwarehunger und die nicht immer gleich perfekte Umsetzung gemosert.
Geldmann3
2021-05-02, 21:39:37
Und wenn wirklich kein Game welches bevorzugt wird, die UE unterstützt? Ich kauf mir doch nicht ein Krempel-Game, nur dass es flüssig läuft. Deine Argumentationslage ist unbrauchbar. Soll ich jetzt nur noch DX12-Games zocken, da es meiner Radeon besser passt :freak:
Ich habe doch gar nicht vom Zocken geschrieben, sondern ich bezog mich wirklich auf das Herumspielen mit der Unreal Engine, mit dem Editor.^^
Welche Argumentationslage? Habe ich wirklich für irgendwas argumentiert? War eigentlich alles nur als Anmerkungen, vielleicht als Anstöße gemeint.
Habe ja auch gar nicht geschrieben, dass Du Dich mit Deiner Radeon an irgendwas anpassen sollst. Ich bin heute auch den ganzen Tag mit der RX 6900 XT an der Unreal Engine. Wohl bemerkt, mit aktiven Raytracing, in so ziemlich dem heftigsten Use Case, den man darin konstruieren kann und habe dennoch meinen Spaß. :D
Natürlich wäre ich mit der RTX 3090 hier performanter unterwegs, doch die wird gerade für ihre Machine Learning Fähigkeiten ausgelastet. ;)
Ich habe doch gar nicht vom Zocken geschrieben, sondern ich bezog mich wirklich auf das Herumspielen mit der Unreal Engine, mit dem Editor.^^
Welche Argumentationslage? Habe ich wirklich für irgendwas argumentiert? War eigentlich alles nur als Anmerkungen, vielleicht als Anstöße gemeint.
Habe ja auch gar nicht geschrieben, dass Du Dich mit Deiner Radeon an irgendwas anpassen sollst. Ich bin heute auch den ganzen Tag mit der RX 6900 XT an der Unreal Engine. Wohl bemerkt, mit aktiven Raytracing, in so ziemlich dem heftigsten Use Case, den man darin konstruieren kann und habe dennoch meinen Spaß. :D
Natürlich wäre ich mit der RTX 3090 hier performanter unterwegs, doch die wird gerade für ihre Machine Learning Fähigkeiten ausgelastet. ;)
Ich glaube, ich habe deine Aussage missinterpretiert. Sorry
Rancor
2021-05-04, 19:46:42
Absolut. RT ist das neue Hardware T&L.
T&L war/st in erster Linie eine Technologie zur Beschleunigung der Grafikdarstellung indem bestimmte Berechnungen von der CPU auf die GPU übertragen wurden/werden. Das ist sogar nicht mit RT vergleichbar.....
lilgefo~
2021-05-04, 20:56:15
Er meint nicht, dass es technisch vergleichbar ist, sondern vom Status als Checklistenfeature her ähnlich ist. (glaub ich)
BlacKi
2021-05-04, 21:24:36
leute, das ist ein direct x/3d feature. das wird bleiben, oder durch was besseres abgelöst. und es wird auch so kommen, das es bald spiele geben wird, wo man RT nicht mehr ausschalten können wird. und das wird auch rund laufen. zumindest auf RT low:weg:
akuji13
2021-05-05, 08:28:28
Ein ganz entscheidender Faktor dürfte die Arbeitserleichterung sein.
PhysX war nett mMn, aber vom der optischen Auswirkung eher gering und hat den Teams keine Zeit gespart.
RT tut das wenn ich mir das DF Metro anschaue, also wird es aus zweierlei Gründen forciert.
dargo
2021-05-05, 10:41:59
leute, das ist ein direct x/3d feature. das wird bleiben, oder durch was besseres abgelöst. und es wird auch so kommen, das es bald spiele geben wird, wo man RT nicht mehr ausschalten können wird. und das wird auch rund laufen. zumindest auf RT low:weg:
Was ist für dich bald? Noch ist die Basis an RT-fähigen Hardware im gesamten Gamingmarkt viel zu dünn um auf Millionen von Spielern zu verzichten.
RT tut das wenn ich mir das DF Metro anschaue, also wird es aus zweierlei Gründen forciert.
Du kannst nur was forcieren wenn es genug Abnehmer für dein Projekt gibt damit sich die Investition auch lohnt. Ob jetzt schon der Zeitpunkt für RT only reif ist darf stark bezweifelt werden. Auch ein Metro Exodus ist nicht RT Only sondern nur eine zweite RT-Version.
Auf Ultra-Low reichts ja vielleicht als Softwareimplementierung aus. Jede Hardware kann RT, nur die alte eben nicht beschleunigt ;)
Es wird halt weniger optimiert damit es auf non RT Hardware noch geil aussieht. Ist eigentlich ein Thema für den Raytracing Thread, an dem Punkt waren wir da auch gerade.
Videos auf YT goil mit RT @home auf der 970 dann meehhh. :D
dargo
2021-05-05, 10:52:10
Auf Ultra-Low reichts ja vielleicht als Softwareimplementierung aus. Jede Hardware kann RT, nur die alte eben nicht beschleunigt ;)
Genau... die Spieler werden sich bestimmt auf ein Game stürzen welches mit 10-20fps läuft. Im übrigen ist RT-Low kein Garant für hohe Performance. In der Demo von Resident Evil Village hatte ich gerade mal 5% Unterschied in der Performance zwischen RT high (max.) und RT Low (min.) gemessen. Insofern eine ziemlich lächerliche RT-Skalierung.
Troyan
2021-05-05, 11:19:13
Was ist für dich bald? Noch ist die Basis an RT-fähigen Hardware im gesamten Gamingmarkt viel zu dünn um auf Millionen von Spielern zu verzichten.
Du kannst nur was forcieren wenn es genug Abnehmer für dein Projekt gibt damit sich die Investition auch lohnt. Ob jetzt schon der Zeitpunkt für RT only reif ist darf stark bezweifelt werden. Auch ein Metro Exodus ist nicht RT Only sondern nur eine zweite RT-Version.
Natürlich ist Metro RT Only, wenn man die Next-Gen Version nutzen will. Und alle zukünftigen 4A Games werden RT Only sein und als Fallback komplett veraltete Grafik anbieten. Da werden keine Cubemaps mehr erzeugt, irgendwelche Licht-Fakes produziert oder zig verschiedene AO Varianten eingebaut.
Dr.Doom
2021-05-05, 11:25:20
Möglich, aber für die Lebensspanne der aktuellen Konsolen mit AMD-Grafik, muss das alles -- mit oder ohne RT -- "ausreichend hübsch" sein, damit die Leute 80€ für Spiele bezahlen. :freak:
Beim PC... klar, da kann man natürlich noch 'ne Wagenladung besseres/schöneres RT drauflegen.
Troyan
2021-05-05, 11:32:03
Die Next-Gen Variante von Metro für die Konsolen kommt nur mit RT. Das läuft dann eben 1440p/60fps Upscaling und reduzierter Qualität.
Spieleentwickler werden so schnell wie möglich ihre kompletten Workflow auf Raytracing umstellen.
wolik
2021-05-05, 11:45:53
Spieleentwickler werden so schnell wie möglich ihre kompletten Workflow auf Raytracing umstellen.
So das sie Ihre Produkte nicht mehr für PS4, Xbox, PC ohne RT verkaufen können?
Dr.Doom
2021-05-05, 11:46:36
Die Next-Gen Variante von Metro für die Konsolen kommt nur mit RT. Das läuft dann eben 1440p/60fps Upscaling und reduzierter Qualität.
Spieleentwickler werden so schnell wie möglich ihre kompletten Workflow auf Raytracing umstellen.
Ja, können Sie ja machen, aber der Krempel muss die nächsten handvoll Jahre dennoch noch auf der aktuellen Hardware laufen. :freak:
dargo
2021-05-05, 11:54:42
Natürlich ist Metro RT Only, wenn man die Next-Gen Version nutzen will.
Es ist kein anderes Spiel.
Natürlich ist Metro RT Only, wenn man die Next-Gen Version nutzen will. Und alle zukünftigen 4A Games werden RT Only sein und als Fallback komplett veraltete Grafik anbieten.
Wenn es einen Fallback auf no RT gibt ist es kein RT Only, finde den Fehler.
Troyan
2021-05-05, 12:10:48
Es ist kein anderes Spiel.
Natürlich ist es ein anderes Spiel. Ansonsten würde der Next-Gen Patch auch auf keiner DXR fähigen Hardware laufen.
Wenn es einen Fallback auf no RT gibt ist es kein RT Only, finde den Fehler.
Stimmt. Siehe oben. :freak:
Ja, können Sie ja machen, aber der Krempel muss die nächsten handvoll Jahre dennoch noch auf der aktuellen Hardware laufen. :freak:
Also mit DXR1.0 läuft es bis auf Pascal. Und mit DXR1.1 auf Turing. Dann jetzt Ampere und RDNA2 sowie die neuen Konsolen. Der Markt ist riesig. Indie-Entwickler machen es doch schon heute vor. "The Fabled Woods" hat überhaupt keine richtigen Cubemaps mehr und nur SSR. Der grafische Abfall von RT -> NoRT ist so frapierend, dass die NoRT wirklich nur noch zweite Wahl darstellt.
dargo
2021-05-05, 13:22:34
Natürlich ist es ein anderes Spiel. Ansonsten würde der Next-Gen Patch auch auf keiner DXR fähigen Hardware laufen.
Ich spreche von Spielhandlung. :facepalm: Es soll Spieler geben die Spiele wegen dem Spielinhalt und nicht der Technik spielen. :rolleyes:
Dann jetzt Ampere und RDNA2 sowie die neuen Konsolen. Der Markt ist riesig.
Dann zähl mal auf wie viele Ampere Grafikkarten von den bis heute abgesetzten in Gamingrechnern verbaut wurden und wie viele in Miningrigs? Zudem dürfte dir die aktuelle Lage was Hardwareverfügbarkeit + Preise angeht bekannt sein. Oder sind dir diese Threads hier neu?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603218&page=181
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602368&page=170
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605061&page=33
Die Pandemie und alles was dran hängt + Miningboom sind nicht gerade förderlich um neue Technik durchzusetzen bzw. eine vernünftige Marktdurchdringung zügig zu erreichen.
akuji13
2021-05-05, 15:30:38
Ich spreche von Spielhandlung. :facepalm: Es soll Spieler geben die Spiele wegen dem Spielinhalt und nicht der Technik spielen. :rolleyes:
Aus deiner Feder ist das nur blanker Hohn wenn man sich deinen 1000ten Jammerpost anschaut.
BlacKi
2021-05-05, 18:26:18
Was ist für dich bald? Noch ist die Basis an RT-fähigen Hardware im gesamten Gamingmarkt viel zu dünn um auf Millionen von Spielern zu verzichten.
ich rieche leonidas eine umfrage starten^^ man bedenke aber wohl das es hier mehr leute gibt die ihre RT karten wieder wegen des mining booms veräussert haben, so sind hier wohl auch ein paar mehr leute mit aktuellere karten haben, und hier im forum der anteil der amd besitzer deutlich höher ist als generell gesehen.
ich denke nächstes jahr kommen neue spiele mit RT only unterstützung. wir haben sicherlich schon 60% RT karten in den gamingrechnern sitzen. du darfst hier nicht von amds marketshare ausgehen sondern musst hier hauptsächlich nv marketshare ansehen. d.h. es sind schon über? 2,5 jahre karten auf dem markt mit RT beschleunigung.
es wird wohl auch darauf hinauslaufen, das die spiele entweder grafisch rückschritte machen werden um performance für RT frei zu machen, oder einen stillstand bringen müssen, weil sonst die fps zu gering wären.
aber echte licht/schattenberechnungen sind schon was feines, und ersparen den entwicklern arbeitsaufwand.
Langlay
2021-05-05, 18:54:17
wir haben sicherlich schon 60% RT karten in den gamingrechnern sitzen. du darfst hier nicht von amds marketshare ausgehen sondern musst hier hauptsächlich nv marketshare ansehen. d.h. es sind schon über? 2,5 jahre karten auf dem markt mit RT beschleunigung.
Niemals haben 60% aller PC Gamer weltweit eine Graka mit RT im Rechner.
Laut Steam sind es keine 20% die eine RT fähige Karte haben und von denen die eine RT fähige Karte haben haben. Und die häufigste RT Graka ist die 2060 mit ~25% Anteil von den RT Karten.
Nächstes Jahr ein Spiel mit RT Zwang zu bringen, ist finanzieller Selbstmord.
https://store.steampowered.com/hwsurvey/videocard/
Troyan
2021-05-05, 19:40:51
Metro Next-Gen läuft laut DigitalFoundry besser als die alte Version. Dazu kommen weitere Verbesserungen wie VRS, Bugfixing und DLSS2.0. Wer die beste Version von Metro will, muss die Next-Gen Variante nehmen. Daher ist es ein RT-Only Spiel - ein technisches Remaster eben.
Langlay
2021-05-05, 19:47:29
Metro Next-Gen läuft laut DigitalFoundry besser als die alte Version. Dazu kommen weitere Verbesserungen wie VRS, Bugfixing und DLSS2.0. Wer die beste Version von Metro will, muss die Next-Gen Variante nehmen. Daher ist es ein RT-Only Spiel - ein technisches Remaster eben.
RT Only ist es wenn es ohne RT-fähige Karte nicht läuft. Das ist bei Metro nicht der Fall, daher isset nicht RT only.
Im RT Thread schon gepostet, der für diese Diskussion ebenfalls strongly recommended wäre :D
Also zumindest ist es Minimum, ob es gar nicht läuft? Keine Ahnung.
Metro Exodus Enhanced System Requirements
https://abload.de/img/179947610_26677035701wvkrm.png
dargo
2021-05-05, 20:07:50
Aus deiner Feder ist das nur blanker Hohn wenn man sich deinen 1000ten Jammerpost anschaut.
Wie kommst du darauf, dass ich diesen Satz alleine auf mich projeziert habe? Aber danke für deinen Trollversuch. :uclap:
Metro Next-Gen läuft laut DigitalFoundry besser als die alte Version.
Was genau soll das denn aussagen? Dass die erste Version schlecht(er) optimiert war und jetzt mehr Hirnschmalz investiert wurde? Es könnte genauso möglich sein, dass bei der neuen Version neben RT-Optimierungen auch Optimierungen am Rasterizerteil vorgenommen wurden die mehr fps rauskitzeln. Das sind Internas die nie an die Öffentlichkeit gelangen, außer die Entwickler geben offiziell Stellung dazu.
ich denke nächstes jahr kommen neue spiele mit RT only unterstützung. wir haben sicherlich schon 60% RT karten in den gamingrechnern sitzen.
:lol:
3DC on the best.
BlacKi
2021-05-05, 20:23:55
dann glaubts halt ned, was juckts mich^^
RT bietet wie auch sonst, 0.2% Mehrwert ingame - derzeit! Sehr gutes Review hier: https://www.guru3d.com/articles-pages/resident-evil-village-pc-graphics-performance-benchmark-review,1.html
Jegliche Hardware ist derzeit viel zu langsam um das Feature attraktiv zu machen - Fakt!
dargo
2021-05-05, 20:49:30
dann glaubts halt ned, was juckts mich^^
Mal abgesehen von deinen imo völlig realitätsfernen 60% vergisst du hierbei offenbar, dass der PC grob "nur" 1/3 vom gesamten Gamingmarkt bei PC, Xbox und Playstation ausmacht. Selbst unter der lustigen Annahme PC-Gamingrechner wären zu 60% mit RT fähigen Hardware ausgestattet bedeutet dies, dass 80% der Spieler im gesamten Kuchen keine RT fähige Hardware haben. Zugegeben... ganz 80% werden es nicht sein, denn paar Millionien an neuen Konsolen wurden ja schon verkauft. Da müsste man genauer hinschauen wieviel das im Vergleich zu alten Konsolen ausmacht.
Edit:
Hier haben wir schon paar Zahlen bei den Konsolen.
https://www.vgchartz.com/analysis/platform_totals/
165,49 Millionen Konsolen ohne RT Hardware vs. 12,41 Millionen Konsolen mit RT Hardware. Bei der Konsole sind es gerade mal lächerliche 7,5%.
Troyan
2021-05-05, 20:53:28
RT Only ist es wenn es ohne RT-fähige Karte nicht läuft. Das ist bei Metro nicht der Fall, daher isset nicht RT only.
Metro Next-Gen läuft nur mit Turing+. :cool:
RT bietet wie auch sonst, 0.2% Mehrwert ingame - derzeit! Sehr gutes Review hier: https://www.guru3d.com/articles-pages/resident-evil-village-pc-graphics-performance-benchmark-review,1.html
Jegliche Hardware ist derzeit viel zu langsam um das Feature attraktiv zu machen - Fakt!
Fakt ! ist geil, wenn eine 3060 mit Max Settings in WHQ auf 74 FPS kommt. Was ist denn da zu langsam. In 4k kann man ein paar Settings reduzieren oder interlaced nutzen, dann sind 60fps save.
Sowas kommt immer nur von Leuten die selbst keine entsprechende Karte haben. Kann ja gar nicht gut sein.
dargo
2021-05-05, 21:06:33
RT bietet wie auch sonst, 0.2% Mehrwert ingame - derzeit! Sehr gutes Review hier: https://www.guru3d.com/articles-pages/resident-evil-village-pc-graphics-performance-benchmark-review,1.html
Jegliche Hardware ist derzeit viel zu langsam um das Feature attraktiv zu machen - Fakt!
Apropo langsam... die RTX 3070 geht ja in 4k richtig ab vs. RX 6800/RX 6700XT mit RT. :tongue:
https://www.guru3d.com/articles-pages/resident-evil-village-pc-graphics-performance-benchmark-review,7.html
8GB reichen und so. ;) Gleiches gilt natürlich dann für die RTX 3060TI.
Ja freu dich doch. Konkurrenz belebt das Geschäft. Fakt! Ist dass man RT in Spielen heute schon schön nutzen kann. Egal auf welcher Hardware 😘
@BTB
Hatte selbst 2x3090 und 1x3080 und x-mal 2080Ti, von daher Füße still halten. Ist doch das gleiche Fiasko wie einst mit HDR, obwohl damals imo (!) der Aha-Effekt in FC1 größer war, als nun mit RT, wo man ne Lupe braucht, um während des Spielens etwas wahrzunehmen.
Was ich sehe ist, dass Ampere von mal zu mal schlechter aussieht, wenn es um reine Rasterize-Performance geht. Wird Zeit, dass Jensen sich einen neuen Backofen kauft :biggrin:
Wo ist das Problem wenn ich das in Watch Dogs Legion mit DLSS selbst auf meiner popeligen 3060ti aktivieren und in 4k zocken kann. Ist doch super. Was ist da unbenutzbar?
Wo ist das Problem wenn ich das in Watch Dogs Legion mit DLSS selbst auf meiner popeligen 3060ti aktivieren und in 4k zocken kann. Ist doch super. Was ist da unbenutzbar?
:freak: Upsampling, eigentlich reicht dir ein 1024 x768-Monitor
:freak: Upsampling, eigentlich reicht dir ein 1024 x768-Monitor
Oh je. Ich bin unwürdig, hab es erwartet :D
Real ist nur 16k supersampling auf 4k in 120fps. Schon klar
dargo
2021-05-05, 21:39:58
Ja freu dich doch. Konkurrenz belebt das Geschäft.
In normalen Zeiten würde ich dir da vollkommen recht geben. Aktuell ist nur leider der gesamte Hardwaremarkt völlig gaga.
Lurtz
2021-05-05, 22:07:58
Wo ist das Problem wenn ich das in Watch Dogs Legion mit DLSS selbst auf meiner popeligen 3060ti aktivieren und in 4k zocken kann. Ist doch super. Was ist da unbenutzbar?
So hart wie das einbricht nützt DLSS da mglw. auch nichts. Bei Cyberpunk reicht es jedenfalls nicht um mit 8 GB VRAM und RT vernünftig spielen zu können.
Das ist im Grunde 'ne simple Rechnung. Die Bildpuffer sind in verbreiteten Auflösungen nicht riesig. DLSS reduziert in jedem Fall die Größe des "normalen" Buffers durch die geringere Auflösung. Allerdings kommen auch ganz neue Daten dazu, die zwischengespeichert werden wollen. Am Ende ist die Ersparnis so klein, dass die Speichermangelsymptome bestenfalls mildert oder hinauszögert, aber nie beseitigt (ok, vielleicht beim UP-Modus, aber der sieht erst jenseits von UHD erträglich aus).
MfG
Raff
Lawmachine79
2021-05-06, 00:07:38
Wo ist eigentlich die Relevanz des AMD-VRAM-Gesabbels in einem 24GB-VRAM-Review-Thread? Geht doch den Review-Thread von irgendwelchen Budget-Karten vollspammen.
Z.B.:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=546647
dargo
2021-05-06, 07:41:53
Die Elite ist wach geworden. ;D ;D ;D Wie gut, dass Nvidia bei Gaming-Ampere nur 24GB Grafikkarten im Portfolio hat. :rolleyes:
Daredevil
2021-05-06, 08:16:13
Im 3090 Thread.
MiamiNice
2021-05-06, 16:22:32
Die Elite ist wach geworden. ;D ;D ;D
Die Elite ist immer wach, hat nur keine Lust sich mit den 3. Welt HW Shoppern zu beschäftigen.
hq-hq
2021-05-06, 22:09:59
^^
ich versteh das gehate gegen DLSS nicht, es funktioniert manchmal wunderbar,
z.B. in Mechwarrior,
in Cyberpunk ist es auch ok
in Metro ist es schlecht aber für manch einen zumindest noch nützlich
es kann auch besser aussehen als nativ, nur nativ + sharpening finde ich persönlich am besten
gnomi
2021-05-07, 12:22:36
Das "Gehate" ist nur vereinzelt.
DLSS kommt gerade seit 2.0 und auch mitsamt besserem Support an Ray Tracing Spielen gut an.
Ich war 2018 etwas skeptisch bei Turing.
2019 waren Produkte, Software und Preise besser.
Gegen Ampere UVP ist auch nichts zu sagen.
VRAM könnte unter 3090 schon üppiger sein, ist aber nüchtern betrachtet auch nicht so übel, wenn man eben bedenkt, dass auch die Konsolen es bei etwas weniger belassen und man mehr über die SSD zukünftig einige Probleme lösen und bei den Entwicklungen weiterkommen möchte.
Die Liefer-und Preis Situation ist ein Problem, was erzürnt.
Und die Tatsache, immer alles volle Pulle einzustellen und zu testen. (auch wenn wir bereits bei Hoch oft locker über den brandneuen Konsolen sind)
Das ist keine faire Betrachtung und führt denke ich zu Enttäuschungen.
Diese Karten sind ja nichts anderes als dutzende Generationen vorher.
Nur bereits ganz Unten nun doppelt so teuer für 80% Sprung nach vorne.
Auf meiner 2080 genieße ich Spiele mit besseren Grafiken und Performance als auf der älteren 1080. 600€ im Abverkauf war auch top, denn diese Modelle gehen beim Speicher und Takt ordentlich.
Die Speichermenge mag mehr limitieren, aber die 1080 war nur großzügiger bestückt. Es spielt keine so dominierende Rolle in der tatsächlichen Praxis.
Ne 3060 im Markt ärgert mich auch nicht sonderlich, da andere Leistungsklasse.
Und ne 3090 gibt es aus Prinzip nicht. Waren ja Gelegenheiten bei der FE. Aber schlicht inakzeptabel ne GPU für 1500€.
Gecko_0815
2021-05-20, 08:35:48
Ich überlege meine 3090 mit neuen Pads zu versehen. Allerdings scheinen die Originalpads meiner Karte (gekauft im Dezember 2020) ganz gut zu sein.
Beispiele (im geschlossenen Gehäuse - offen ändert nix):
Eth-Mining: 1095 / 10501 / 0,731V 300W bei 52° / 104° und 80% Lüfter
HZD: 1800 / Stock / 0,837 V 320 W bei 65° / 88° und 40% Lüfter
Metro neu: 1800 / Stock / 0,837 V 400 W bei 70° / 94° und 60% Lüfter
Beim Ausschalten des Miners geht der Speicher innerhalb 1 sek um 40 Kelvin runter. Das müsste doch für eine gute Anbindung des Speichers an die Kühlung sprechen? Auf der Backplate liegen lose noch ein paar kleiner Alukühler - die könnte ich noch ankleben. Am besten wäre aus meiner Sicht ein Kühler, der ähnlich wie beim Prozessor die Wärme der Backplate mit einer Heatpipe aufnimmt und im Luftstrom zwischen Prozessorkühler und Hecklüfter wieder abgibt. Da habe ich aber noch nichts passendes gefunden.
Lohnen sich neue Pads bei mir?
Wäre die Anbindung an die Backplate gut, würde die Temperatur langsamer steigen und viel langsamer fallen. Das Delta zwischen Chiptemperatur und Backplate wäre viel geringer. Die Backpalte kühlt sehr langsam ab.
Gecko_0815
2021-05-20, 10:37:52
Danke! So hatte ich das noch gar nicht gesehen. Der Miner lief eh nur zum Test ein paar Stunden, Spiele in 4k sind wichtig. Mal sehen ob ich mal neue Pads versuche.
Werewolf
2021-05-21, 18:41:06
Moin Leits,
EVGA hat sich zum stepup gemeldet. Knapp 900€ zur 3090 Ultra.
a) Lohnt sich das für den VRAM? Was kann ich noch erwarten außer 1mm mehr Penix? Was hat sich seit Herbst getan performancemäßig?
b) Die 3080 Ultra lief bis dato perfekt in meinem Sytem mit einem 750er Titanium. Werde ich ein neues brauchen?
a) Wissen wir nicht, hängt wie üblich von Deiner Software und Deinen Settings ab, die wir nicht kennen. Installiere den Afterburner und schau rauf. Wenn Du jetzt schon immer Kotzgrenze bist und Texturen Ploppen: Möglicherweise. Wenn jetzt da immer nur 4GB stehen, dann wohl eher nicht.
b) Wissen wir nicht. Ein Energie-Messgerät für nen 10er würde ne Menge klären. Kohle scheint ja genug vorhanden zu sein. Es wird bestimmt nicht nur die Graka am Netzteil hängen, den Unterschied zwischen der jetzigen Graka (Bios-Power) und der neuen Graka (Bios-Power) kennst Du. Schauen ob auf dem Energie-Messgerät noch genug "Differenz" vorhanden ist vom Ist-Wert zu 750+10%.
Fragen ohne das Forum im Vorfeld klären^^
Sorry, wenn sich das Harsch anhört, ist nicht so gemeint. Aber einmal den Mechanismus gerafft und schon muss das Forum nicht mehr raten was bei Dir so abgeht. Denn das hilft Dir genau NULL. Besonders wenn du Pauschalen von uns hören möchtest, aber es nicht schaffst wichtige Details zu nennen.
An meinem Threadripper z.b. würde Dein 750er scheitern. Aber Du wirst kein Threadripper haben schätze ich. Ich erspare mir das Raten trotzdem^^
https://abload.de/img/stromverbrauch_390w_b9jj3d.jpg (https://abload.de/image.php?img=stromverbrauch_390w_b9jj3d.jpg)
BlacKi
2021-05-21, 18:55:29
schwierig zu beantworten. kommt drauf an wie wichtig dir die 14gb mehr an vram sind. derzeit hab ich wohl keinen mehrnutzen dadurch, trotz 4k. da mainstream immernoch mit 8gb zurecht kommen muss, könnte es reichen bis zur next gen.
Zum Netzteil: Werewolf hat sein System im Forum hinterlegt. Danach hat er
Prozessor
3700x
Mainboard
X570-E
RAM
3600-16 Trident Z Neo
Grafikkarte
EVGA 3080 FTW3 Ultra
Soundkarte
DAC/KHV
Monitor
Acer X34P
Netzteil
Seasonic TTR 750 Titanium
Sonstiges
3xSamsung SSDs
Letztendlich halte ich das für einen Grenzfall. Die EVGA RTX 3090 gehört zu den durstigeren 3090s, dafür ist der 3700x sehr sparsam. Der Seasonic-Rechner empfiehlt ein 850W-NT. Der EVGA-Rechner sagt 750W reichen aus.
Ich gebe grünes Licht, ich denke sogar CPU-OC wäre noch drin. Allerdings wirst Du dann bei einem CPU-Upgrade aufrüsten müssen.
Ob es sich lohnt? Schwierig. Derzeit dürfte die 3080 schnell genug sein, außerdem ist der Aufpreis auf die 3090 natürlich happig.
Tomcat66
2021-05-21, 21:09:32
Wenn das 750w Titanium von vor 2019 ist, dann ist die Wahrscheinlichkeit gross, dass es mit der 3090 abschaltet. Mit meinem 750w von seasonic von 2015 ist genau das passiert. 2019 gab es eine Produktrevision bei Seasonic und die Schutzschaltungen reagieren nicht mehr so empfindlich.
Aber du kannst es ja ausprobieren. Wenn das NT abschaltet, dann erstellst du eine voltage curve im Afterburner (mit 875mV z.B.). Das verhindert zuverlässig die Lastspitzen, die das NT zum Abschalten bringen.
rentex
2021-05-21, 22:21:11
Wenn das 750w Titanium von vor 2019 ist, dann ist die Wahrscheinlichkeit gross, dass es mit der 3090 abschaltet. Mit meinem 750w von seasonic von 2015 ist genau das passiert. 2019 gab es eine Produktrevision bei Seasonic und die Schutzschaltungen reagieren nicht mehr so empfindlich.
Aber du kannst es ja ausprobieren. Wenn das NT abschaltet, dann erstellst du eine voltage curve im Afterburner (mit 875mV z.B.). Das verhindert zuverlässig die Lastspitzen, die das NT zum Abschalten bringen.
Das mit dem abschalten, kannst du getrost vergessen...fahre selber so ne Config MIT 5950X ;-) Aktuelle 750W BeQuiets schaffen es ebenfalls.
Lawmachine79
2021-05-21, 23:47:38
750W Corsair mit 5900 und 3090 hier.
Tomcat66
2021-05-22, 11:56:25
Das mit dem abschalten, kannst du getrost vergessen...fahre selber so ne Config MIT 5950X ;-) Aktuelle 750W BeQuiets schaffen es ebenfalls.
Ich rede hier explizit von Seasonic Netzteilen und nicht von BeQuiets!
rentex
2021-05-22, 14:39:23
Ich rede hier explizit von Seasonic Netzteilen und nicht von BeQuiets!
Betreibe sogar selber ein Seasonic Titanium 750W mit so ner Config ;)
Macht trotzdem nichts, deine Aussage ist falsch.
https://www.igorslab.de/geforce-rtx-3090-rtx-3080-rtx-3070-intel-core-i9-10900k-oc-mit-und-ohne-oc-gegen-11x-be-quiet/
qiller
2021-05-22, 16:02:38
Hm, meine RTX3090 hat nurn 360W VBIOS, aber der Ryzen 9 5950X darf sich gern auch 180W genehmigen. Auf jeden Fall gibts mit dem bequiet DarkPower 750W keinerlei Probleme im SingleRail-Modus, wenn CPU+GPU unter Volllast stehen.
TobiWahnKenobi
2021-05-23, 10:56:58
<- hier 1.2KW PSU
noch nie sorgen wegen strom gehabt.. immer nur 1x im jahr wegen der rechnung..
(..)
mfg
tobi
Annator
2021-05-25, 08:14:24
Betreibe sogar selber ein Seasonic Titanium 750W mit so ner Config ;)
Macht trotzdem nichts, deine Aussage ist falsch.
https://www.igorslab.de/geforce-rtx-3090-rtx-3080-rtx-3070-intel-core-i9-10900k-oc-mit-und-ohne-oc-gegen-11x-be-quiet/
Meins schaltet ab und ist von 2018. Erst mit UV passiert das nicht mehr. 3090 FE.
akuji13
2021-05-25, 09:25:13
Wollte ich auch schon schreiben, kenne auch einen Fall mit einer 3080 wo das in der Liste aufgeführte Netzteil ebenfalls abschaltet und erst mit UV stabil bleibt.
Als Richtwert ist die Liste gut geeignet, Ausnahmen kann es trotzdem geben.
rentex
2021-05-25, 09:53:54
Dann sollte man sich die gesamte Config mal ansehen. Habe kein RGB oder ist aus. Eine HDD und drei NVME. Die CPU ist ebenfalls Stock, wurde aber ebenfalls mit PBO umfangreich, stundenlang gebencht. Die GPU lief monatelang unter Stock in allen Lastbereichen.
Ex3cut3r
2021-05-25, 14:29:36
Was kann den RGB denn so fressen? Selbst mit Statischer Weißer Farbe, und 6 RGB Lüftern unter 15W oder?
Daredevil
2021-05-25, 14:32:09
Das hat die PCGH mal getestet, ich glaube es waren so 2-3w, minimal bis kein Taktunterschied, aber für den Kopf ein Riesen Unterschied. :D
Annator
2021-05-25, 14:40:43
Dann sollte man sich die gesamte Config mal ansehen. Habe kein RGB oder ist aus. Eine HDD und drei NVME. Die CPU ist ebenfalls Stock, wurde aber ebenfalls mit PBO umfangreich, stundenlang gebencht. Die GPU lief monatelang unter Stock in allen Lastbereichen.
Achso ich muss nur meine RGB Beleuchtung ausschalten und dann funktioniert das? :freak:
Asaraki
2021-05-25, 14:48:04
Achso ich muss nur meine RGB Beleuchtung ausschalten und dann funktioniert das? :freak:
Hab jetzt testweise meine 10 RGB Lüfter auf Dunkel geschaltet und siehe da : Meine 3080FE hat sich zur 3090 transformiert mit einem lauten "AUTOCAD LETS ROLL"
Weird.
Fazit : Rentex betreibt nicht einen RGB Lüfter sondern eine Kirmes.
Ex3cut3r
2021-05-25, 15:09:36
Das hat die PCGH mal getestet, ich glaube es waren so 2-3w, minimal bis kein Taktunterschied, aber für den Kopf ein Riesen Unterschied. :D
:biggrin: Ah ok. Danke. Ist ja doch weniger als gedacht.
MiamiNice
2021-05-25, 16:29:59
Das hat die PCGH mal getestet, ich glaube es waren so 2-3w, minimal bis kein Taktunterschied, aber für den Kopf ein Riesen Unterschied. :D
Wann war das ca.? Aktuelle Karten haben schon nen ganzen Sack voll LED an Bord. Das dürften aktuell schon mehr als 2-3 Watt sein.
Asaraki
2021-05-25, 17:12:03
Wann war das ca.? Aktuelle Karten haben schon nen ganzen Sack voll LED an Bord. Das dürften aktuell schon mehr als 2-3 Watt sein.
Naja 2 Watt reichen für 40 LEDs. Das ist schon eine Menge, sooo viele sind da auch nicht drauf. Um z.B. (mit gängigen LEDs) auf 10W zu kommen müsstest du schon 200 LEDs verbauen. Möglich, aber würde ich ehrlich gesagt wundern. Unter so einem Plastikstück stecken doch höchstens eine Handvoll LEDs.
rentex
2021-05-25, 17:15:44
Hab jetzt testweise meine 10 RGB Lüfter auf Dunkel geschaltet und siehe da : Meine 3080FE hat sich zur 3090 transformiert mit einem lauten "AUTOCAD LETS ROLL"
Weird.
Fazit : Rentex betreibt nicht einen RGB Lüfter sondern eine Kirmes.
Keine Volksfeste oder RGB Festivals für mich ;-D
Asaraki
2021-05-25, 17:20:37
Keine Volksfeste oder RGB Festivals für mich ;-D
Find ich gut. Wenn RBG dann mit Konzept :-)
Ne aber im Ernst, die paar Watt sind dem NT völlig egal. Wenn es nicht läuft, dann bestimmt nicht weil beim absoluten Peak die RGB-LEDs zu viel waren...
Man kann noch diskutieren ob RGB auf einer Karte nicht im PL-Case dir noch das letzte 0.1% Performance nimmt... aber instabil wegen RGB. I lol'd :D
MiamiNice
2021-05-25, 19:19:46
Vergiss nicht die Lüfter, die gehen bei NV auch vom TDP Budget ab. Zusammen mit den LED sind das sicher um die 10 Watt die ein Wakü Nutzer nicht verpfeffern muss und anderweitig nutzen kann. Das ist dann schon interessant - gerade bei Benchmark Spielchen und dem üblichen "wer hat den längeren äh Balken".
rentex
2021-05-25, 19:26:50
Find ich gut. Wenn RBG dann mit Konzept :-)
Ne aber im Ernst, die paar Watt sind dem NT völlig egal. Wenn es nicht läuft, dann bestimmt nicht weil beim absoluten Peak die RGB-LEDs zu viel waren...
Man kann noch diskutieren ob RGB auf einer Karte nicht im PL-Case dir noch das letzte 0.1% Performance nimmt... aber instabil wegen RGB. I lol'd :D
Das nicht ;) Wie aber schon geschrieben, 750 Watt reichen dicke. Wenn es abschaltet, dann hat es andere Gründe.
qiller
2021-05-25, 20:19:21
Also an meinem 750W bequiet hängt folgendes dran:
Gigabyte X570 Aorus Xtreme Rev1.0
AMD Ryzen 9 5950X@180W
RTX3090@360W
2x NVMe SSD
4x Sata SSD
1x Alphacool VP655 Wasserpumpe
4x 200mm Lüfter
11x 140mm Lüfter
(kabelgebundene) USB-Peripherie: Kingston Headset, Logitech MX500, Cherry MX Board 3.0, Oculus Rift
Loift problemlos, aber könnte auch daran liegen, dass sämtliche LED Beleuchtung deaktiviert/abgeklemmt wurde :D.
Rampage 2
2021-05-29, 21:17:26
Reicht eigentlich ein 850W Titanium-Netzteil mit Single-Rail und ~ 95% Effizienz "so gerade noch" aus für eine 3090 @ 2GHz/20Gbps? Die 3080 Ti wird ja praktisch genausoviel Strom fressen, wie eine 3090 - deswegen die Frage;)
An meinem System saugen derzeit:
CPU: 9900K @ 4.8 GHz All-Core (alle Taktdomänen, inkl. AVX-Offset) - vermutlich zwischen 200-300W Verbrauch in Prime95
CPU-Kühler: Noctua NH-D15 @ max. Lüfterstärke
Gehäuse: Phanteks-Gehäuse mit allen Lüftern @ max. Stärke
Arbeitsspeicher: 32GB (4x 8GB) DDR4-4266 RAM mit scharfen (Sub-)Timings im DualChannel-Modus + RGB-Beleuchtung
- 1x 1TB NVMe-SSD @ PCIe 3.0 x4
- 1x 8TB SATA3-HDD @ 7200rpm
- 1x PCIe Soundkarte
- 1x Gaming-Kopfhörer
- 1x BluRay-Brenner
- RGB-Gamingtastatur
- RGB-Gamingmaus
Der Monitor hat seine eigene Stromversorgung...
R2
qiller
2021-05-29, 21:47:08
...
- RGB-Gamingtastatur
- RGB-Gamingmaus
Sry, das bricht dir das Genickt, geht so nicht, überfordert das NT eindeutig!!11 Also RGB muss aus! :D
Ok, Scherz beiseite. Könnte eng werden, je nachdem. Also 300W CPU + 500W RTX3090 wäre auf jeden Fall ein Problem. Bleibst du aber in den "normalen" Sphären <200W bei der CPU und <400W bei der RTX3090 sollte das NT passen.
BlacKi
2021-05-29, 22:11:08
Reicht eigentlich ein 850W Titanium-Netzteil mit Single-Rail und ~ 95% Effizienz "so gerade noch" aus für eine 3090 @ 2GHz/20Gbps? Die 3080 Ti wird ja praktisch genausoviel Strom fressen, wie eine 3090 - deswegen die Frage;)
An meinem System saugen derzeit:
CPU: 9900K @ 4.8 GHz All-Core (alle Taktdomänen, inkl. AVX-Offset) - vermutlich zwischen 200-300W Verbrauch in Prime95
CPU-Kühler: Noctua NH-D15 @ max. Lüfterstärke
Gehäuse: Phanteks-Gehäuse mit allen Lüftern @ max. Stärke
Arbeitsspeicher: 32GB (4x 8GB) DDR4-4266 RAM mit scharfen (Sub-)Timings im DualChannel-Modus + RGB-Beleuchtung
- 1x 1TB NVMe-SSD @ PCIe 3.0 x4
- 1x 8TB SATA3-HDD @ 7200rpm
- 1x PCIe Soundkarte
- 1x Gaming-Kopfhörer
- 1x BluRay-Brenner
- RGB-Gamingtastatur
- RGB-Gamingmaus
Der Monitor hat seine eigene Stromversorgung...
R2
nur die peaks sind von interesse. was deine cpu verbraucht, was sonst noch spielt alles keine wirkliche rolle. wenn meine 3090 bei 850mv peakt, dann steigt mein NT aus. egal wie niedrig ich meine cpu takte.
falls dein NT austeigt, wenn die 3090 bei 1.025v peakt, dann kannst du immernoch auf 1v senken, dann ist alles save. es sind nur die ehlendigen peaks interessant, die muss das NT abkönnen, ansonsten musst du eine eigene voltage kurve anlegen. wenn du das eh vorhast, dann kannst du beim 850w netzteil bleiben. ich zocke hier mit 1800mhz 0,8v auf einem passiven 600w netzteil, siehe signatur.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.