PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10

JVC
2020-10-12, 13:48:07
Die 3080 ist der Nachfolger deiner 2080 und dafür ist der Leistungssprung gut, +2GB mehr Ram.
100 Punkte :up:
Mit 101 hätte es eine Waschmaschine gegeben ;)
(aber der Verbrauch ist miserabel)

M.f.G. JVC

WedgeAntilles
2020-10-12, 13:49:38
Kreuzzug? ;D

Die GPU hat ein Speicherproblem, das wird man ja wohl noch ansprechen dürfen. Dazu 350W Verbrauch und in gewissen Spielen, kann man sich nicht mal von einer 2080Ti 20% absetzen. Also...ein rundes Gesamtpaket für 850€ sieht anders aus. Sry, ist aber so.

Komischerweise fällt mir auf, dass viele mit Pascal oder sogar Maxwell User auf Ampere aufgerüstet haben, da hat Nvidia mit "700€" UVP anscheinend alles richtig gemacht, auch wenn die Straßenpreise momentan alles anderes als 700€ sind.

Ich sage doch, dass die 10GB ein Schwachpunkt ist? :confused:
Nur sprichst du den Schwachpunkt nicht an - du sprichst der 3080 10GB die Existenzberechtigung ab.
Das ist ein "kleiner" Unterschied.
Ja, es gibt User und Anwenderprofile, für die die 10GB Variante uninteressant und nicht sinnvoll ist.
Das bestreitet doch keiner.

Der Unterschied ist halt, dass du und Co sagt, die 3080 10GB wäre per Se für alle Scheiße, Elektroschrott und sonst was.

Und das ist an Lächerlichkeit halt kaum zu überbieten.
Da andere eben andere Anforderungen haben.
Dein Anforderungsprofil an eine GraKa ist nicht das Anforderungsprofil sämtlicher Gamer.

Ich habe aktuell noch ne 970 mit den ach so unspielbaren 3,5 + 0,5 Ram.

Für mich ist ne 3080 mit 10GB für 700 Euro attraktiver als eine 3080 mit 20GB für 900 Euro.
Was genau ist dein Problem damit?
Ich habe ja auch kein Problem damit, wenn für dich eine 3080 mit 10GB uninteressant ist. Mich juckt z.B. BigNavi nicht - was will ich mit ner Karte ohne DLSS und vermutlich schwachem RT? Ist deswegen BigNavi "Elektroschrott"? Nach eurer Definition theoretisch ja. (Für euch natürlich nein, gelten doch komplett andere Begündungen bei Nvida vs AMD)
Nach meiner Definition natürlich nicht. Für mich unattraktiv. Aber wenn einen RT + DLSS wenig interessiert, warum soll Bignavi dann schlecht sein?
Dann ist BigNavi mit 16GB ähnlicher gleicher Leistung + Preis natürlich attraktiver als die 3080 mit 10GB.
Nicht jeder muss RT wichtig finden - und nicht jeder muss auf Teufel komm raus über 10GB Speicher haben.

Bei euren Bewertungen und Beurteilungen nehmt ihr ausschließlich eure Anforderungen - die dann exakt 1:1 für alle anderen übertragbar sein MÜSSEN.

Das ist so absurd.

Und ja, aktuell gibt es die 3080 nicht für 700 Euro.
Na und? Warte ich halt 3 Monate.
Erfahrungsgemäß ist Hardware ein paar Monate nach Release sowieso besser.
Treiber sind stabiler, manchmal wird sogar das Design der Hardware noch mal leicht angepasst. Weil das Ursprungsdesign Schwächen hat die (wieso auch immer) wohl beim Testen keinem aufgefallen sind. (Weil gar nicht mehr getestet wird?)

Und wenn sie nie für 700 Euro zu haben sein wird muss ich halt neu überlegen was ne sinnvolle Karte für mich ist.

Bandit3644
2020-10-12, 13:51:37
:up:
100 Punkte :up:
Mit 101 hätte es eine Waschmaschine gegeben ;)
(aber der Verbrauch ist miserabel)

M.f.G. JVC

Meine Karte läuft mit 0,8V und 1850MHz und verbraucht je nach Game 190-270 Watt.;)

arcanum
2020-10-12, 13:52:00
Ne 3080 mit 20Gb für 1000.- ist auch Quatsch... (viel zu teuer)
Ich suche nur den Vorschritt in P/W

M.f.G. JVC

ja, ampere ist nicht geil aber besser als das was in den letzten 3 jahren seit dem mining boom passiert ist. mir wäre es auch lieber wenn die topp amd/nvidia-produkte günstiger wären und weniger verbrauchen würden.
ich habe bis vor kurzem eine 2070 aus dem alternate outlet für 350€ im rechner stecken gehabt weil die produkte für mich allesamt unkaufbar waren. der größte "fehler" war es keine 1080ti für ~700€ zu kaufen und damit ~4 jahre lang sehr gut bedient zu sein (gleiche performance wie eine 2080, günstiger und 3gb mehr ram). angesichts dieser entwicklung ist die 3080 auch mit 10gb ein segen.

JVC
2020-10-12, 13:58:01
Meine Karte läuft mit 0,8V und 1850MHz und verbraucht je nach Game 190-270 Watt.;)
Ich geb dir 999.- dafür, Deal ?
Achne, ist ja nur ne 3080 10GB :(

M.f.G. JVC

... angesichts dieser entwicklung ist die 3080 auch mit 10gb ein segen.
Jedem das Seine ;)
Mir reichen selbst 11Gb in 4K+, schon länger nicht mehr.

(außer 8k-karten für gouvernator).
Ich wäre auch gerne schnell auf 8K 60Fps gewechselt...
Aber bleibe wohl erst mal auf 4K...

arcanum
2020-10-12, 14:02:25
Jedem das Seine ;)
Mir reichen selbst 11Gb in 4K+, schon länger nicht mehr.

mir schon und ich kann auch gut schlafen trotz 10gb. toll dass es produkte für jegliche bedürftnisse gibt - außer 8k-karten für gouvernator. one man's trash is another man's treasure.

Gynoug MD
2020-10-12, 14:40:35
ja, ampere ist nicht geil aber besser als das was in den letzten 3 jahren seit dem mining boom passiert ist. mir wäre es auch lieber wenn die topp amd/nvidia-produkte günstiger wären und weniger verbrauchen würden.
ich habe bis vor kurzem eine 2070 aus dem alternate outlet für 350€ im rechner stecken gehabt weil die produkte für mich allesamt unkaufbar waren. der größte "fehler" war es keine 1080ti für ~700€ zu kaufen und damit ~4 jahre lang sehr gut bedient zu sein (gleiche performance wie eine 2080, günstiger und 3gb mehr ram). angesichts dieser entwicklung ist die 3080 auch mit 10gb ein segen.
Na ja, die Sache ist auch die, daß "ältere" GPU- Architekturen potenziell und tatsächlich in aktuellen AAA oft schlechter performen, auch schlechter als es nach ihrer ehemaligen Leistungsklasse eigentlich sein sollte.
Deswegen ging das Aussitzen und Fine Wine-Geschwurbel bei/mit z.B der Vega bei mir etwas in die Hose.

Erbsenkönig
2020-10-12, 15:37:33
Ich glaube 99,9999% aller Gamer interessieren sich nicht für Spikes und Frametimes und Min1%. Die spielen auch HZD auf der Playstation und freuen sich, dass es ganz gut läuft. ;)

Das mag sein (ich hab es auch auf der PS4 gespielt und hatte keine Probleme mit dem Spielerlebnis), aber wir reden am Ende doch trotzdem von zwei unterschiedlichen Zielgruppen. Im Zweifel ist doch nämlich derjenige, der überhaupt weiß, was "Frametimes" überhaupt sind und sich dafür interessiert, gerade derjenige, der auch als potentieller Käufer für solche Karten in Betracht kommt. Hingegen greift derjenige, der "einfach nur spielen will", im Zweifel doch sowieso zu den "schlechteren Karten" und nicht zur 800 € Grafikkarte von Nvidia/AMD. Dem, dem die VRAM Größe egal ist, ist die sauteure Karte doch gleichzeitig auch egal.

Hakim
2020-10-12, 16:04:18
Wird hier viel mit dem Aufpreis spekuliert, 100-200-300€. Eigentlich wollte ich nie wieder über 500€ für eine Grafikkarte ausgeben, bei der 3080 für 700 wollte ich eine Ausnahme machen, wenn es nur nur 100 mehr für die 20 GB wäre würde ich das wohl auch noch mitmachen. Wird es vermutlich nicht, dazu kommt halt noch UVP vs realer Marktpreis

Langlay
2020-10-12, 17:33:24
Wo ist das Problem Kinders, wer sich einredet die 10GB sind viel zu wenig, der kauft sich halt die Supadupa Karte von AMD nächsten Monat^^

Muss er ja nicht, er kann sich auch einfach die 3090 kaufen. Die 3080 10GB bleibt trotzdem ungefähr genauso sinnvoll wie die Fury mit 4GB vor 5 Jahren.

Wer das geil findet, nur zu kauft, kauft. Und nicht vergessen in 2 Jahren dann den nächsten Speicherkrüppel zu kaufen.

Lawmachine79
2020-10-12, 17:45:47
Wer das geil findet, nur zu kauft, kauft. Und nicht vergessen in 2 Jahren dann den nächsten Speicherkrüppel zu kaufen.
Ich lebe jeden Tag als sei es mein Letzter.

Matrix316
2020-10-12, 17:47:14
Muss er ja nicht, er kann sich auch einfach die 3090 kaufen. Die 3080 10GB bleibt trotzdem ungefähr genauso sinnvoll wie die Fury mit 4GB vor 5 Jahren.

Wer das geil findet, nur zu kauft, kauft. Und nicht vergessen in 2 Jahren dann den nächsten Speicherkrüppel zu kaufen.
Naja, ob jetzt 1x 1600 oder 2x800 macht finanziell keinen Unterschied. Nur hätte man in 2 Jahren dann eine deutlich schnellere GPU als eine 3090.

Langlay
2020-10-12, 17:49:22
Naja, ob jetzt 1x 1600 oder 2x800 macht finanziell keinen Unterschied. Nur hätte man in 2 Jahren dann eine deutlich schnellere GPU als eine 3090.

Eben wurde noch gelästert, das die die Meckern, alles Geizhalse und Habenixe sind. Und jetzt kommt das Preisleistungsargument. Wunderbar.

Bandit3644
2020-10-12, 17:54:39
Lasst die Leute kaufen was sie wollen, dieses sinnlose Gelaber.

Matrix316
2020-10-12, 17:59:55
Wäre ja schon schön, wenn man überhaupt was kaufen könnte.

arcanum
2020-10-12, 18:24:10
Eben wurde noch gelästert, das die die Meckern, alles Geizhalse und Habenixe sind. Und jetzt kommt das Preisleistungsargument. Wunderbar.

also ich habe die 3080 gekauft weil ich was pc-hardware anbelangt ein absolutes sparbrötchen bin und nirgends so viel performance für das geld bekomme (selbst fps/€ sind fast unschlagbar gut). die karte wird eh nicht so lange behalten bis sie wesentlich an wert verliert. kaufe deshalb auch nie für die ferne zukunft (heute 1800€ ausgeben damit ich mit 5 jahren damit noch texturen aufdrehen kann z.b.). in 3 jahren kriege ich für das halbe geld eine 50% schnellere karte mit >=16gb.

habe in der vergangenheit oft auf vorrat gekauft aber am ende lohnt es sich nie. außerdem ist spiele-entwicklung heute so hochoptimiert und auf die hardware-basis angepasst das ich einfach keine benefits darin sehe wenn die texturen kaum merklich höher aufgelöst oder weniger komprimiert sind und ein überschärftes fan-texture-pack habe ich genau ein mal installiert und direkt runtergeworfen. mein ego leidet halt nicht wenn der textur-regler anstatt auf ultra auf high steht aber ich verstehe käufer die das beste haben wollen und dafür auch bereit sind den aufpreis zu zahlen.
wofür ich kein verständnis habe sind leute die 3080 10gb käufer als dumm hinstellen und nicht müde werden es jeden tag zu wiederholen. turing war für mich auch eine unverschämtheit und anstatt es den käufern unter die nase zu reiben habe die preispolitik von nvidia kritisiert.

dargo
2020-10-12, 18:33:49
Wäre ja schon schön, wenn man überhaupt was kaufen könnte.
;D (y)

Danke für den heutigen Lacher.

Asaraki
2020-10-12, 19:07:55
arcanum, keine Sorge, das sind nur ein paar wenige, aber sehr laute Stimmen hier ^^

Es ist ganz einfach. Gäbe es die 20GB gleichzeitig und alles wäre toll verfügbar, dann hätten sich ein paar hier die 3080-20G gekauft und wären jetzt happy am zocken und benchen und keeeeiner würde hier toxische Scheisse labern, wie dass die aktuell meistgesuchte Karte eigentlich Elektroschrott ist und ein Miami die ja nicht einmal geschenkt nehmen würde, wenn die vom falschen Hersteller ist.

Da sind ein paar einfach ein bisschen angepisst, dass ihre gewünschten Versionen nicht lieferbar oder noch nicht draussen sind.

Soooo einfach ist das manchmal mit den Kindern :) Man kann halt nicht einem von drei Kindern das Geschenk 1 Woche früher geben, sonst kann man davon ausgehen, dass die anderen einem das mies machen ;)

Mach's wie ich und amüsier dich drüber, geniess das Lächeln auf dem Gesicht während die 3080 werkelt und ständig ruckelt mit ihren 10G ;)

Und back to topic (3080 FE)
Nach ein paar Tagen muss ich nun wirklich sagen, ja, hätte ich auch sofort gekauft :) Eine Weile her, dass ich so Freude an einer GPU hat. Sie liefert einfach Rohleistung und liefert und liefert... selbst leicht undervoltet kommt da noch Performance raus zu einem dann auch sehr alltagstauglichen Verbrauch. Naja. So für ein Luxusding wie Gaming ^^
Fairerweise hätte ich mir aber vermutlich eine 3-Fan gekauft, wobei ich noch sehen werde, was mit optimiertem Gehäuse-Airflow geht. Das ist noch auf das vorherige 3Fan Design ausgerichtet, jetzt hab ich da einen Fan an der GPU, die eher warme/nicht wirklich bewegte Luft anzieht. Vielleicht im richtigen Gehäuse angenehm leise, aber in meinem bei maximalen PT auf jeden Fall ein Föhn :D

Bandit3644
2020-10-12, 19:20:10
arcanum, keine Sorge, das sind nur ein paar wenige, aber sehr laute Stimmen hier ^^

Es ist ganz einfach. Gäbe es die 20GB gleichzeitig und alles wäre toll verfügbar, dann hätten sich ein paar hier die 3080-20G gekauft und wären jetzt happy am zocken und benchen und keeeeiner würde hier toxische Scheisse labern, wie dass die aktuell meistgesuchte Karte eigentlich Elektroschrott ist und ein Miami die ja nicht einmal geschenkt nehmen würde, wenn die vom falschen Hersteller ist.

Da sind ein paar einfach ein bisschen angepisst, dass ihre gewünschten Versionen nicht lieferbar oder noch nicht draussen sind.

Soooo einfach ist das manchmal mit den Kindern :) Man kann halt nicht einem von drei Kindern das Geschenk 1 Woche früher geben, sonst kann man davon ausgehen, dass die anderen einem das mies machen ;)

Mach's wie ich und amüsier dich drüber, geniess das Lächeln auf dem Gesicht während die 3080 werkelt und ständig ruckelt mit ihren 10G ;)

Und back to topic (3080 FE)
Nach ein paar Tagen muss ich nun wirklich sagen, ja, hätte ich auch sofort gekauft :) Eine Weile her, dass ich so Freude an einer GPU hat. Sie liefert einfach Rohleistung und liefert und liefert... selbst leicht undervoltet kommt da noch Performance raus zu einem dann auch sehr alltagstauglichen Verbrauch. Naja. So für ein Luxusding wie Gaming ^^
Fairerweise hätte ich mir aber vermutlich eine 3-Fan gekauft, wobei ich noch sehen werde, was mit optimiertem Gehäuse-Airflow geht. Das ist noch auf das vorherige 3Fan Design ausgerichtet, jetzt hab ich da einen Fan an der GPU, die eher warme/nicht wirklich bewegte Luft anzieht. Vielleicht im richtigen Gehäuse angenehm leise, aber in meinem bei maximalen PT auf jeden Fall ein Föhn :D

Danke, gut zusammengefasst, vor allem die Nörgler die 800/1200€ für ne 2080 8GB und Ti 11GB bezahlt haben. Ich gehe jetzt wieder mit meiner 3080 Zocken und habe Spaß, leider mit rucklern da die nur 10 GB hat.

Ex3cut3r
2020-10-12, 19:35:51
Danke, gut zusammengefasst, vor allem die Nörgler die 800/1200€ für ne 2080 8GB und Ti 11GB bezahlt haben. Ich gehe jetzt wieder mit meiner 3080 Zocken und habe Spaß, leider mit rucklern da die nur 10 GB hat.

Du vergisst leider, dann man die vor 2 Jahre gekauft hat. Jetzt 2 Jahre später steht eine neue Konsolen Gen vor der Tür. Das ist eine ganz andere Situation. Da man schon bald mehr als 10GB brauchen wird. Wie ist das eigentlich so mit nem 3700X Stock @ 1440p ständig die neue GPU nicht richtig auslasten zu können? Macht bestimmt Spaß. ;D

dargo
2020-10-12, 19:49:14
Da kommt ordentlich RT druff, dann passt das schon. :D Irgendwas limitiert doch im System immer. ;)

Sardaukar.nsn
2020-10-12, 20:10:52
Zumindest unter Wasser lässt sich das Reference Design sehr gut kühlen, aber vielleicht liegts ja nur an Igors Mukke :freak:


f6tu_vENwI8

Richtiges Review

m5RAXHqe0eE

https://www.igorslab.de/wp-content/uploads/2020/10/Infrared-1024x716.jpg

Quelle: https://www.igorslab.de/alphacool-eisblock-aurora-plexi-gpx-n-rtx-3090-3080-im-test-340-watt-eiskalt-auf-den-punkt-gebracht/

Kalt, schnell verfügbar, bunt und billig. Davon dürfte Alphacool ein paar Stückzahlen loswerden.

Langlay
2020-10-12, 20:21:37
Hab den auf der 3090. Ist wirklich gut soweit. Umbau ist relativ einfach, die Pads sind auch direkt passend zugeschnitten und nummeriert. Und von der Verarbeitungsqualität gibts auch nichts meckern, im Gegensatz zu meinem letzten EK Block der aussah als wurde er in Russland 1942 gefertigt. Also die CNC Tools hatten definitiv ihren Zenit schon weit hinter sich.

dargo
2020-10-12, 21:19:16
Zumindest unter Wasser lässt sich das Reference Design sehr gut kühlen, aber vielleicht liegts ja nur an Igors Mukke :freak:


https://youtu.be/f6tu_vENwI8

Igor ist schon putzig... lässt ne 3080 Wakü mit poppeligen 1080p laufen nur damit man die ~2,2Ghz sieht. :tongue: Bis zu 55% GPU-Last... :ulol3:

PS: aber die Mucke hat was. :D

Edit:
Sagt mal... ist der i7-8700K @5Ghz echt so lahm oder liegts zum Teil am Geforcetreiber? In der letzten Szene bei SotTR die ja recht gut an der CPU hängt erreicht Igor minimum 80fps. Ich komme da mit einem R5 3600 @4,1GHz auf minimum 113fps. Das sind +41%. :freak:

Armaq
2020-10-12, 22:39:11
Ja, also jemandem den Kauf madig machen ist nicht meine Absicht. Ich seh das eher als ein Diskussion zum Verhältnis an. Allerdings madig machen muss man sich das auch lassen. Bisschen Standhaftigkeit ggü. der eigenen Entscheidung gehört im Internet auch dazu. ;)

Ich hab vor 3 Wochen ne WaKü auf die 2080Ti gebaut und da würden einige mich sicherlich auch gerne für steinigen, schließlich gibt es ja die die neue Gen von beiden Herstellern. Allerdings taktet die Karte hervorragend, der RAM noch besser (im Verhältnis) und mit WaKü ist sie auch endlich leise.

Also dürfen die 3080 Besitzer der zZ. ja sehr seltenen Karte die auch ruhig richtig toll finden.

Wuge
2020-10-13, 10:09:06
Ich bin inzwischen auch froh, dass meine 3080 nicht geliefert wurden. Hab für 540 EUR ne 2080 TI Strix samt Waterblock geschossen, das Ding läuft über 2100 Mhz stabil. Mal schauen wann der Ampere Refresh kommt.

Lowkey
2020-10-13, 10:12:14
gebraucht?

Rancor
2020-10-13, 10:18:15
Du vergisst leider, dann man die vor 2 Jahre gekauft hat. Jetzt 2 Jahre später steht eine neue Konsolen Gen vor der Tür. Das ist eine ganz andere Situation. Da man schon bald mehr als 10GB brauchen wird. Wie ist das eigentlich so mit nem 3700X Stock @ 1440p ständig die neue GPU nicht richtig auslasten zu können? Macht bestimmt Spaß. ;D

Es soll tatsächlich Leute geben, denn ist das vollkommen latte, das die GPU nicht bei 99% läuft.

Ihr müsst mal etwas entspannter werden.

Lowkey
2020-10-13, 10:22:22
Das ist das 3Dc Forum. Da muss man doch alle Möglichkeiten diskutieren.

Ich kann auch mit einer 80 Euro 4gb 570 jedes Game zocken ;)

dildo4u
2020-10-13, 10:23:24
Du vergisst leider, dann man die vor 2 Jahre gekauft hat. Jetzt 2 Jahre später steht eine neue Konsolen Gen vor der Tür. Das ist eine ganz andere Situation. Da man schon bald mehr als 10GB brauchen wird. Wie ist das eigentlich so mit nem 3700X Stock @ 1440p ständig die neue GPU nicht richtig auslasten zu können? Macht bestimmt Spaß. ;D
Das Problem ist hauptsächlich die Architektur nicht die CPU, Turing skaliert besser in 1440p.

https://youtu.be/c7npXXyXJzI

Bandit3644
2020-10-13, 11:00:22
Du vergisst leider, dann man die vor 2 Jahre gekauft hat. Jetzt 2 Jahre später steht eine neue Konsolen Gen vor der Tür. Das ist eine ganz andere Situation. Da man schon bald mehr als 10GB brauchen wird. Wie ist das eigentlich so mit nem 3700X Stock @ 1440p ständig die neue GPU nicht richtig auslasten zu können? Macht bestimmt Spaß. ;D

Ich habe das bestimmt schon mehrfach geschrieben das ich in UHD spiele, was juckt mich 1440p ;D

hlynska
2020-10-13, 11:05:17
Igor ist schon putzig... lässt ne 3080 Wakü mit poppeligen 1080p laufen nur damit man die ~2,2Ghz sieht. :tongue: Bis zu 55% GPU-Last... :ulol3:
PS: aber die Mucke hat was. :D
Edit:
Sagt mal... ist der i7-8700K @5Ghz echt so lahm oder liegts zum Teil am Geforcetreiber? In der letzten Szene bei SotTR die ja recht gut an der CPU hängt erreicht Igor minimum 80fps. Ich komme da mit einem R5 3600 @4,1GHz auf minimum 113fps. Das sind +41%. :freak:

Lies halt mal den Text unterm Video, was war wohl Just for fun...

dildo4u
2020-10-13, 11:24:50
Edit:
Sagt mal... ist der i7-8700K @5Ghz echt so lahm oder liegts zum Teil am Geforcetreiber? In der letzten Szene bei SotTR die ja recht gut an der CPU hängt erreicht Igor minimum 80fps. Ich komme da mit einem R5 3600 @4,1GHz auf minimum 113fps. Das sind +41%. :freak:

Dürfte der Treiber sein die 2070S geht Richtung 60 mit einem 3800X.

https://youtu.be/4ic3-vDaK1w?t=319

sven2.0
2020-10-13, 11:30:22
Igor ist schon putzig... lässt ne 3080 Wakü mit poppeligen 1080p laufen nur damit man die ~2,2Ghz sieht. :tongue: Bis zu 55% GPU-Last... :ulol3:

Kleiner Teaser zum Test des Alphacool Wasserblocks mit der Übertaktung einer zerlegten Palit RTX 3080 Gaming Pro bis zur 2.2-GHz-Grenze. Viel Spaß! Und wer sich übers GPU-Limit wundert - hier im Wasserbad werkelt nur ein ausrangierter 8700K @5 GHz. Sicherheitshalber, wenn mal was undicht wird. Aber es geht ja eh nur ums Prinzip und den Fun-Faktor :D

Fun und Spass.. Dinge die in dargos Leben nicht existieren..

-=Popeye=-
2020-10-13, 11:52:37
Dürfte der Treiber sein die 2070S geht Richtung 60 mit einem 3800X.

https://youtu.be/4ic3-vDaK1w?t=319

Da ist bei den Geforce Karten RT an, also nicht vergleichbar.

sun-man
2020-10-13, 12:05:36
https://www.heise.de/news/GeForce-RTX-3080-Haendlerzahlen-verdeutlichen-Lieferrueckstand-4927227.html?wt_mc=rss.red.ho.ho.atom.beitrag.beitrag

Knapp 9000 Grafikkarten bei Herstellern bestellt, aber nur etwa 500 erhalten: Der Lieferrückstand ist enorm und deutet sich auch bei der GeForce RTX 3070 an.

dargo
2020-10-13, 12:11:27
Lies halt mal den Text unterm Video, was war wohl Just for fun...
Und wie kommst du jetzt darauf, mir wäre diese Information entgangen?

Fun und Spass.. Dinge die in dargos Leben nicht existieren..
Also momentan bringt mich dieses Forum und vor allem Nvidia täglich zum lachen. Insofern mache dir keine Sorgen um meinen Fun und Spaß. ;D

BananaJoe
2020-10-13, 17:23:39
https://www.heise.de/news/GeForce-RTX-3080-Haendlerzahlen-verdeutlichen-Lieferrueckstand-4927227.html?wt_mc=rss.red.ho.ho.atom.beitrag.beitrag

Ich glaub die bekommen die Fertigung nicht gebacken.. :freak:

Sardaukar.nsn
2020-10-14, 12:59:44
CPU Upgrade für RTX 3080 notwendig?

mrzqoeQVg4k

https://i.imgur.com/aEtN6gG.jpg

dargo
2020-10-14, 13:22:30
Auf jeden Fall... unter 200fps ist alles unspielbar.
Wer Sarkasmus findet darf ihn behalten

Armaq
2020-10-14, 13:44:44
CPU Upgrade für RTX 3080 notwendig?

https://youtu.be/mrzqoeQVg4k

https://i.imgur.com/aEtN6gG.jpg
In dem Video gab es auch interessante Findings. Da liegt der 3900x in den MinFPS häufiger mal vorne. Das ist meiner Meinung auch der größte Gewinn. Mein PC ist Workstation und Vergnügen gleichsam. Ich hab oft viele Programme offen und schließe Programme nicht, wenn ich ne Runde CoD abends anwerfe, dennoch läuft es zwischen 90-120 fps ohne fiese Drops (die FPS richten sich nach dem Level).

Mehr Kerne machen nicht mehr Performance, geben aber einfach den nötigen Überschuss, damit es immer passt. €: Der R3600 ist ein übles P/L Monster.

aufkrawall
2020-10-14, 14:13:16
In dem Video gab es auch interessante Findings. Da liegt der 3900x in den MinFPS häufiger mal vorne.

Der 3900X wurde vs. den 9900k auf einer 2080 Ti, nicht 3080, verglichen und war in genau einem Spiel bei den low fps schneller als der Intel. Ansonsten zeigt das Video, dass in dem einen Spiel mal Intel, mal AMD die Nase bei den low fps vorn hat (mit Vorteilen für den Intel 10C vs. AMD 16C) und in 4k das sowieso alles scheißegal ist...

Sardaukar.nsn
2020-10-14, 18:48:21
Mehr Kerne machen nicht mehr Performance, geben aber einfach den nötigen Überschuss, damit es immer passt. €: Der R3600 ist ein übles P/L Monster.

Ich habe ja hier einen nicht so tollen 3600er, der macht aber 4,2ghz all-core. Wollte eigentlich auf den Zen 3 8-Kerner (5800x?) umsteigen, aber da passt mir der Preis noch nicht.

JaniC
2020-10-15, 01:31:09
Wurde glaube ich noch nicht gepostet, 6 Stunden alt:

ASUS RTX 3080 TUF OC Review & Tear-Down: Thermals, Noise, & Overclocking

7iGIiFfUwLs

Liquaron
2020-10-15, 08:43:25
Hey zusammen,

ich habe seit gestern meine RTX 3080 von Asus.
Ich hatte zu Beginn konstant Blackouts des System. Das heißt mein 850W Netzteil kam mit dem enormen Stromhunger der Karte nicht zurecht.
Ein Undervolting hat enorm geholfen: https://www.youtube.com/watch?v=sClh4270yg0

Sollte noch jemand Netzteil Probleme haben kann das helfen. :)

dildo4u
2020-10-15, 08:54:52
Wie viel säuft denn der Intel 200Watt?

Freestaler
2020-10-15, 09:03:57
Liquaron, welches 850? Ein altes Teil und was saugt das sonst noch?

Troyan
2020-10-15, 09:05:29
Muss einiges sein. Ich habe von 650W auf 750W gewechselt und ein i7-8700 mit 3090 läuft nun perfekt. Woher hatte ich ebenfalls harte Resets durch das Netzteil.

Wuge
2020-10-15, 11:29:47
Kurze OT Frage: welche aktuellen Spiele sehen denn am besten aus? Kein Effektmist sondern gute Texturen und Atmosphäre. Hab seit langem mal wieder ne Grafikkarte im System die was kann und will mal testen). CPU ist mittelmaß und bei FS2020 das Bottleneck).

Wenns eine kostenlose Demo davon gibt umso besser...

Achj, zur Netzteildiskussion: bei meiner Kiste riecht irgendwas nach Strom bzw. Plastik+Hitze. Nähe Netzteil, ist ein 760W Seasonic und stürzt auch nie ab. Könnte das an 150W je PCIe-Rail liegen? Da drückts mir die Spannung in den 11,2V Bereich.

L233
2020-10-15, 11:43:15
Muss einiges sein. Ich habe von 650W auf 750W gewechselt und ein i7-8700 mit 3090 läuft nun perfekt. Woher hatte ich ebenfalls harte Resets durch das Netzteil.

Hab absolut keine Probs mit meinem 650W BeQuiet Straight Power 11.
Asus RTX 3080 OC @Stock und 9900K@5GHz (alle Kerne) + 6 SSDs.

arcanum
2020-10-15, 11:43:31
beim netzteil einfach mal die anschlüsse tauschen wenn es unter last ausgeht. mein neues bq! dpp 750 hat abgeschaltet als ich die kabel an anschluss "3" und "4" hatte. hatte diese extra gewählt weil sie mit 25A spezifiziert sind und 1+2 nur mit jeweils 20A. komischerweise schaltet das nt aber nicht ab, wenn ich die graka an 1+2 hänge. deswegen mal in die anleitung schauen ob es eine empfehlung für die verkabelung gibt bevor man das nt tauscht.

Szudri
2020-10-15, 12:24:13
beim netzteil einfach mal die anschlüsse tauschen wenn es unter last ausgeht. mein neues bq! dpp 750 hat abgeschaltet als ich die kabel an anschluss "3" und "4" hatte. hatte diese extra gewählt weil sie mit 25A spezifiziert sind und 1+2 nur mit jeweils 20A. komischerweise schaltet das nt aber nicht ab, wenn ich die graka an 1+2 hänge. deswegen mal in die anleitung schauen ob es eine empfehlung für die verkabelung gibt bevor man das nt tauscht.

Laut meiner Anleitung für das Dark Power Pro 11 sollen 1 + 3 oder 2 + 4 genommen werden wenn es eine gefräßige Karte ist.
1 + 2 (25A) und 3 + 4 (30A) hängen jeweils an der gleichen Rail.

Asaraki
2020-10-15, 12:26:07
Mein Seasonic 850W Gold (das 1000W steht sinnloserweise noch im anderen PC) machte bisher keine Mucken und ist auch schon paar Jahre alt.


i7 6700k und 3080 FE, ging auch mit MaxOC auf beidem gut. Ist aber nicht die hungrigste CPU natürlich, aber die 850W sollten auf jeden Fall reichen!

hq-hq
2020-10-15, 12:27:01
da ich selbst mal Probleme mit einem multi rail NT hatte empfehle ich grundsätzlich nur single Rail NTs

ChaosTM
2020-10-15, 12:35:02
Hab absolut keine Probs mit meinem 650W BeQuiet Straight Power 11.
Asus RTX 3080 OC @Stock und 9900K@5GHz (alle Kerne) + 6 SSDs.


Gute 600+ scheinen zu halten. Hab einige Tests gesehen. Ist natürlich keine Garantie.

qiller
2020-10-15, 13:29:45
Hm, aus der Anleitung meines bequiet Dark Power Pro 11 750W:
Overclocking Key:
Der Overclocking Key fasst die einzelnen 12V-Schienen zu einer 12V-Schiene zusammen.
Sie können die Overclocking Funktion mittels des mitgelieferten Jumpers direkt am Netzteil permanent aktivieren oder Sie aktivieren die Overclocking Funktion mittels des Schalters an dem mitgelieferten Slotblech nach Bedarf.
Der Overclocking Key wird mit der gekennzeichneten Buchse am Netzteil verbunden.
Wenn Sie die Overclocking Funktion am Slotblech aktivieren, leuchtet am Slotblech-Schalter eine LED.
Zur Zeit hab ich die OC-Funktion nicht aktiv. Wenn dann die RTX3080 irgendwann Einzug hält, wärs wohl am besten, den Schalter umzulegen und die Rails zusammenzuschalten?

arcanum
2020-10-15, 14:28:48
Laut meiner Anleitung für das Dark Power Pro 11 sollen 1 + 3 oder 2 + 4 genommen werden wenn es eine gefräßige Karte ist.
1 + 2 (25A) und 3 + 4 (30A) hängen jeweils an der gleichen Rail.

danke für die korrektur. habe nochmal nachgeschaut und es hängt an 1+3. hatte den hinweis mit den rails erst nach dem erneuten verkabeln gelesen und nicht mehr geschaut, wie die anschlüsse richtig heißen. hatte nur in erinnerung dass es ursprünglich nicht an der 1 hing.
verwunderlich ist nur, warum mein voriges dpp11 550w nicht abgeschaltet hat obwohl es an einem einzigen anschluss mit 2x8 pin hing.

Hm, aus der Anleitung meines bequiet Dark Power Pro 11 750W:

Zur Zeit hab ich die OC-Funktion nicht aktiv. Wenn dann die RTX3080 irgendwann Einzug hält, wärs wohl am besten, den Schalter umzulegen und die Rails zusammenzuschalten?

bei mir funktioniert das gleiche nt einwandfrei im non-oc betrieb mit der 3080 in kombination mit einem 8700k, bin allerdings auch nie über die 320w power target hinaus. erst mal richtig anschließen und schauen ob es funktioniert, wenn nicht dann auf single rail switchen. bei mir hat es bei falscher verkabelung (mehrfach) einfach nur abgeschaltet und keinen schaden verursacht.
in der theorie sollte vor abzug der restlichen komponenten über zwei rails 25+30A = 660w + 75w aus dem sockel +10% puffer zur verfügung stehen. peaks von 600w von der graka sollte das netzteil eigentlich problemlos aushalten. mit den aktuellen treibern peakt die 3080 ca. 40% über dem power target wenn ich mich recht erinnere (siehe video vom treiber-update von igor).

NikLaw
2020-10-15, 15:28:48
Hab gerade auch meine Karte an PCIe 1 + 3 angeschlossen (bequiet Straight Power 11 750 W gold). Hatte aber mit PCIe 1+2 auch keine Probleme, aber wer weiß... dazu muss ich sagen, dass ich die Karte nur ganz kurz ohne UV betrieben habe. Aber jetzt reiß ich natürlich alle Regler auf!:freak:

Hab den alten Dampfesel 8700K auch noch auf 4,9 Ghz geprügelt.

Liquaron
2020-10-15, 15:43:42
Ich hab ein Corsair Netzteil. Bisher hatte ich mit meinen anderen Grakas auch nie ein Thema.

Was meint ihr denn welchen Anschluss ich bei meinem Netzteil nutzen sollte?

Ich hatte übrigens auch testweise vor dem Undervolting meine CPU komplett auf 3.300Mhz gedrosselt, sodass diese kaum Strom gezogen hat. Trotzdem hatte sich der PC ausgeschalten. Deshalb gehe ich schon stark davon aus, dass der Netzteil Strang zur Grafikkarte überlastet ist.

NikLaw
2020-10-15, 21:35:00
Wenn unterschiedliche 12 V Schienen vorhanden sind, wovon auszugehen ist, dann ein Kabel je Schiene. Welches Netzteil hast du denn?

Liquaron
2020-10-16, 14:54:30
Wenn unterschiedliche 12 V Schienen vorhanden sind, wovon auszugehen ist, dann ein Kabel je Schiene. Welches Netzteil hast du denn?

Ich habe ein Corsair CS850M:

https://www.google.com/url?sa=i&url=https%3A%2F%2Fwww.guru3d.com%2Farticles-pages%2Fcorsair-cs850m-psu-review%2C1.html&psig=AOvVaw3L07w7NKhhxsG5tWGonCZP&ust=1602939132156000&source=images&cd=vfe&ved=0CAIQjRxqFwoTCIi67tuTuewCFQAAAAAdAAAAABA1

Habe den 2x8 Pin auch in der vorhandenen Buchse angebracht.

Macht es evtl. Sinn einen 2. 2x8 Pin Anschluss an das Netzteil zu stecken und von jedem Anschluss nur jeweils 1x8 Pin an die Graka zu hängen? ;)

qiller
2020-10-16, 15:15:17
^^
Ja, eigentlich sollte man das schon immer so machen :F. Aber gut, dass es mit Ampere endlich auch auffällt :>.

Liquaron
2020-10-16, 15:47:05
^^
Ja, eigentlich sollte man das schon immer so machen :F. Aber gut, dass es mit Ampere endlich auch auffällt :>.

Echt? :freak:
Aber warum sind dann an einem Strang immer 2x8 PINs?

BlacKi
2020-10-16, 15:56:16
Echt? :freak:
Aber warum sind dann an einem Strang immer 2x8 PINs?


naja, bei 3x8pin custom karten reicht dann auch 2x8 pin statt 3x8pin. dasselbe gilt auch für customkarten mit 2x8pin obwohl 1x8pin reichen würde. das hab ich schon bei meiner 1080ti gemerkt, wo nur 1x8 pin + 1x6pin voranden war. mit dem 2 kabel war die versorgung stabiler unter oc. die 3080 mit 20w mehr an "einem" strang zu betreiben kann ich mir durchaus mit problemen vorstellen.


es reduziert den widerstand, d.h. geringere voltage dropps. nvidias 12 pin(nicht als zus. adapter) ist auch besser als 3x 8pin, in der theorie.

Liquaron
2020-10-16, 16:00:21
Alles klar, ich werde heute mal probieren ein 2. Kabel ans PSU zu hängen und dann jeweils nur 1x8er Anschluss zu verwenden. Werde berichten ob ich eine Änderung sehe ;)

PS: In welchen Slot der PSU soll ich das 2. Kabel denn stecken? Unter Peripherals?

JVC
2020-10-16, 16:20:30
Ich habe ein Corsair CS850M...

Ist ein Single-Rail NT, daher eher nebensächlich...
Kontakt- und Korrosionsschutz- Behandlung der Verbindungen ist da schon fast wichtiger ;)

M.f.G. JVC

qiller
2020-10-16, 16:22:37
Wenn dein NT mehrere 12V Rails hat, solltest du das sogar auf jeden Fall machen, denn nur so kannst du ja die Last auf unterschiedliche Rails verteilen. Dazu musst du aber nachschauen, an welchen Anschlüssen die unterschiedlichen Rails aufgeteilt sind. Das ist bei jedem Hersteller/Modell unterschiedlich.

Für die 8Pin-PCIe-Stromstecker gibts in der Regel gesondert beschriftete Anschlüsse. Peripherals sind eigentlich die Anschlüsse für Laufwerke/Pumpen/Lüfter/Kartenleser etc.

Edit: Ah SingleRail, da ist das wurscht :F. Ein zweiter PCIe-Strang verringert dann aber immer noch den Leitungswiderstand. Also trotzdem sinnvoll.

Liquaron
2020-10-16, 17:22:37
Hat leider gar nicht geholfen. Ich hatte auch mit der Lösung ohne undervolten quasi direkt einen Blackout. Naja ist ja nicht tragisch mit der jetzigen Lösung.

spike.sp.
2020-10-16, 19:54:32
Also bei mir läuft allet straight power 11 650w. 3080fE und 8700k@4,8Ghz.

Liquaron
2020-10-18, 09:45:11
Also ich muss aber schon mal sagen, dass die Karte mega ist. 4K, Raytracing....egal was du ihr in den Weg wirfst....sie frisst!

Edgecrusher86
2020-10-19, 05:38:03
Habe auch mal zugeschlagen - kurzfristig - nachdem weder FE, noch TUF OC/STRIX OC zeitnah möglich waren....ist ok mit UV - 1860 MHz @ 861mV ist Kortzgrenze in UWQHD für das 350W BIOS, 1800 MHz langt mir maximal - in DOOM ETERNAL wurde der Takt bis hinauf zu 10320 x 4320 gehalten, erst in 14760 x 5760 schwankte es zwischen 1695 - 1800 MHz....29 fps gleich am Anfang nach dem Sprung hinunter...Hell on Earth, nachdem der Priester erledigt wurde...Nun ja, 29 fps und 23GB VRAM allocated....6880 x 2880 rennt aber noch richtig -> 89 fps bei dem Takt. ;D

https://abload.de/img/anmerkung2020-10-1905d7jxs.jpg

https://twitter.com/aschilling/status/1317076936879898624

DL: 3080 TUF/STRIX BIOS-Update:
https://t.co/KnsWVFlk1l?amp=1

Bandit3644
2020-10-19, 07:27:45
24/7 Setting Game and Bench stable
Ryzen 7 3700x @Stock PPO
3080 TUF / kosten 744€
1905-1920MHz bei 0,850V max. 67 Grad im Corsair 465 RGB

https://s12.directupload.net/images/201019/eqbv2x9h.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/x8xmzbc4.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/p3ve3rh6.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/hdrtedz6.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/bbh9pflr.png (https://www.directupload.net)

DLSS OFF
https://s12.directupload.net/images/201019/yuohr53l.png (https://www.directupload.net)

DLSS ON
https://s12.directupload.net/images/201019/pw824o7d.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/8m6usmgy.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/3x3mcvsc.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/zn48dkki.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/s6inx6s8.png (https://www.directupload.net)

Armaq
2020-10-19, 11:17:07
24/7 Setting Game and Bench stable
Ryzen 7 3700x @Stock PPO
3080 TUF / kosten 744€
1905-1920MHz bei 0,850V max. 67 Grad im Corsair 465 RGB

https://s12.directupload.net/images/201019/eqbv2x9h.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/x8xmzbc4.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/p3ve3rh6.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/hdrtedz6.jpg (https://www.directupload.net)

https://s12.directupload.net/images/201019/bbh9pflr.png (https://www.directupload.net)

DLSS OFF
https://s12.directupload.net/images/201019/yuohr53l.png (https://www.directupload.net)

DLSS ON
https://s12.directupload.net/images/201019/pw824o7d.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/8m6usmgy.png (https://www.directupload.net)

https://s12.directupload.net/images/201019/3x3mcvsc.png (https://www.directupload.net)
Das sind doch ganz solide Ergebnisse. Die Temperatur finde ich auch ziemlich gut. Bist du mit der Lautstärke zufrieden?

Bandit3644
2020-10-19, 11:33:16
Das sind doch ganz solide Ergebnisse. Die Temperatur finde ich auch ziemlich gut. Bist du mit der Lautstärke zufrieden?

Ja die Karte ist kaum zu hören und Ergebnisse sind mit dem Quiet Bios entstanden.

Edgecrusher86
2020-10-19, 12:48:45
Ein guter Stabilitätstest für Ampere, etwa UV, ist Cryteks Neon Noir DX11 RT Benchmark (3 Runs nacheinander / Loops) -

wie ich auch im 3090 ST schrieb - nur die Registrierung mitsamt Launcher ist etwas meh...und dass immer nur in borderless Windowed geladen wird. Schmiert es ab, muss man per Taskmanager regeln.

Vielleicht hat es der Ein oder Andere dort noch nicht gelesen.

sun-man
2020-10-19, 13:19:27
Naja, auch wenn es keine Bestätigung gibt. Aktuell würde ich bei Crytek nix runterladen.

Bandit3644
2020-10-19, 13:20:09
Ein guter Stabilitätstest für Ampere, etwa UV, ist Cryteks Neon Noir DX11 RT Benchmark (3 Runs nacheinander / Loops) -

wie ich auch im 3090 ST schrieb - nur die Registrierung mitsamt Launcher ist etwas meh...und dass immer nur in borderless Windowed geladen wird. Schmiert es ab, muss man per Taskmanager regeln.

Vielleicht hat es der Ein oder Andere dort noch nicht gelesen.

Hab ich gelesen und auch das funktioniert mit dem UV, ich füge das oben ein.

Edgecrusher86
2020-10-19, 14:27:56
Hab ich gelesen und auch das funktioniert mit dem UV, ich füge das oben ein.

Guter Chip - wobei vermutlich die 80er generell etwas höher gehen sollten - mit 850mV hatte ich meine Karte noch nicht getestet in 3440, aber vermutlich sollte dort ca. 1845 MHz machbar sein. :smile:

Bandit3644
2020-10-19, 19:38:25
Es gibt für die Asus TUF 3080 ein neues Bios.
https://s12.directupload.net/images/201019/kasvi4un.jpg (https://www.directupload.net)

Liquaron
2020-10-20, 13:10:41
Es gibt für die Asus TUF 3080 ein neues Bios.
https://s12.directupload.net/images/201019/kasvi4un.jpg (https://www.directupload.net)

Uhh, ziehe ich mir dann heute auch mal drauf.

Gibt es hier Risiken? Oder wird wirklich nur der 0db Fan nachgepatcht?

Chrisch
2020-10-20, 14:20:35
Ist nur der 0db Fan Mode und funzt super damit :)

Bandit3644
2020-10-20, 18:51:00
Uhh, ziehe ich mir dann heute auch mal drauf.

Gibt es hier Risiken? Oder wird wirklich nur der 0db Fan nachgepatcht?

Ich schließe mich Chrisch an 🙂

aufkrawall
2020-10-21, 18:24:41
Guys, I’m afraid that we have to stop waiting for a fix from NVIDIA side for RTX 30x0 series fan speed reporting issue, it is taking way too long. So here is new beta with small “hack”, which we’ll use to bypass the problem from our side until the fix arrives form NV side (if it ever arrives). The root of this problem is normalized fan speed reporting, which NVIDIA decided to introduce with 30x0 series cards. Fan speed % reported by NVIDIA driver and displayed in _any_ monitoring software is no longer reflecting the real fan speed %. Now it is normalized value, which is mapping vendor specific RPM limits to GUI min%-max% fan speed range. For reference design min% is equal to 30% and max% is 100% and RPM limits are properly mapped to that range. But the chaos began when partners started altering reference cooling system and tune their RPM limits, while leaving min 30% limit unchanged. As a result, on some custom design cards min% is still set to 30% and you can see it as the minimum fan speed for automatic fan control mode, but the real fan speed can be MUCH slower or faster. This is confusing users and causes effects of weird jumps in fan speed, i.e. you can see a few % (or even a few dozen %) difference between the speed you set and the speed you see reported back by driver. Until it is addressed by driver and VGA BIOS updates, we fix it the following way:

https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-131#post-5843388
Hat Nvidia wieder gut gemacht. Das war ja gar nicht vorherzusehen nach dem Quatsch bei Turing... :facepalm:

MasterElwood
2020-10-22, 13:04:33
Kann einer irgendwas zu den INNO3D GeForce RTX 3080 iChill X3 und X4 sagen?

Für die X3 gibts nur eine Handvoll reviews - und die sind sich total uneinig was Temperatur/Lautstärke angeht (das einzige was mich bei einer 3080 interessiert).

Und für die X4 finde ich gar keine reviews :frown:

dildo4u
2020-10-23, 12:02:01
OC Bios lief mit 2085 bis 2.1 Ghz in Shadow of the Tomb raider.


ce3m0EXSB0U

Flusher
2020-10-23, 14:55:42
Hmm wenn die aktuellen Gerüchte stimmen zur gestrichenen 20 GB Variante, dann werde ich wohl mein StepUp auf die FTW3 beantragen. :frown:

Hakim
2020-10-23, 15:54:38
Einfach abwarten, kommt sicherlich was alternatives wenn das Gerücht den überhaupt Stimmen sollte. GA102 @256bit mit 16gb gddr6 oder gar ga102 @384bit mit 12 GB gddr6x, alles möglich

Ex3cut3r
2020-10-23, 16:40:29
Warum sollte es? Braucht man laut den "Enthusiasten" hier im Forum doch nicht. 10GB sind vollkommen ausreichend. Ganz egal ob eine neue Konsolen Gen mit erheblich mehr Speicher vor der Tür steht. Dazu RT mit mehr VRAM Bedarf on Top. Alles kein Problem. Ich kann es nicht fassen, dass es Leute gibt die sich dieses enge Speicher Korsett für 900€ und mehr andrehen lassen, Pardon es wird sich sogar virtuell drum geprügelt. Und als absolutes Highlight kommt noch eine 3070 mit noch weniger Speicher raus. Einfach nur lol. Das AMD diesmal absolut Konkurrenzfähig ist, wird total ausgeblendet. Sowie das jede Big Navi mit 16GB gleich zum rls. rauskommt. Also Nvdia macht beim Markering einiges richtig, denn der Verstand wird bei sehr vielen einfach unterdrückt. :ulol:

Sardaukar.nsn
2020-10-24, 08:24:01
21:9 Ultrawide dürfte wohl am PC der neue high-end Mainstream werde. Ich denke zumindest das wird sich deutlich eher verbreiten als 4k 16:9, natürlich nur am PC.

Ultrawide Benchmarks fehlen ja bei vielen Reviews noch, hier mal im Video

8JKLA1wWIfc

Complicated
2020-10-24, 15:59:58
Also das kann jetzt noch unangenehm werden für Nvidia und die neue Xbox, wenn sich das nicht mit Firmware beheben lässt, wie im Artikel beschrieben:
Bug in HDMI-2.1-Chips: AV-Receiver, Next-Gen-Konsole und Grafikkarten betroffen (https://www.heise.de/news/Bug-in-HDMI-2-1-Chips-AV-Receiver-Next-Gen-Konsole-und-Grafikkarten-betroffen-4935888.html)
Fehlerbild

Auf das Problem stieß c’t bei einem Test eines Vorserien-Modells der Xbox Series X. Das Autorennspiel "Dirt 5" lief im c’t-Labor auf dem TV LG CX9 bei direkter Verbindung problemlos in 4K120 mit HDR, beim Umweg über Denons HDMI-2.1-tauglichen AV-Receiver AVR-X2700H jedoch leitete diese ultrahohe Auflösung mit erhöhtem Kontrastumfang nicht wie beworben von der Konsole zum TV durch. Das Durchreichen von Videobildern vom Preview-Modell der Xbox Series X zum Fernseher gelang nur problemlos in Auflösungen, für die kein HDMI 2.1 benötigt wird.

Nach Microsofts Aussage setzt das Vorserien-Modell der Xbox Series X bereits auf die finale Hardware auf. Die Retail-Version wird c’t aber noch einmal hinsichtlich des Problems testen.

Zu ähnlichen Problemen kam es mit einer Karte vom Typ Nvidia RTX-3080 – auch hier lieferte ein über den AV-Receiver angeschlossenes TV-Gerät kein 4K-Bild mit 120 Hertz und HDR. Mit der PS5 soll die Übertragung laut c't-Informationen indes klappen; überprüfen konnte c't das bislang nicht.

zer0fx
2020-10-24, 17:17:10
Also das kann jetzt noch unangenehm werden für Nvidia und die neue Xbox, wenn sich das nicht mit Firmware beheben lässt, wie im Artikel beschrieben:
Bug in HDMI-2.1-Chips: AV-Receiver, Next-Gen-Konsole und Grafikkarten betroffen (https://www.heise.de/news/Bug-in-HDMI-2-1-Chips-AV-Receiver-Next-Gen-Konsole-und-Grafikkarten-betroffen-4935888.html)

Wieso soll das jetzt NV und AMD interessieren? Wenn man die AV reciever aus der Kette entfernt funktioniert es ja. Steht ja im Artikel. Die Hersteller die den fehlerhaften Panasonic Chips in ihren Geräten verbauen haben ein Problem

Complicated
2020-10-24, 17:21:00
Es ist wohl nur relevant, wenn der Wettbewerb diese Einschränkung nicht hat. Dies wird derzeit für die PS5 vermutet und bei AMD ist es noch nicht bekannt. Sollte es sich für die PS5 bestätigen, besteht die Möglichkeit auch bei AMD (Abhängig davon ob sie die selben Panasonic Chips nutzen, was wohl die PS5 nicht macht.)

Wenn man dann weiss, in 6 Monaten kommen gefixte Chips, wird das nicht verkaufsfördernd sein.

zer0fx
2020-10-24, 17:22:28
Es ist wohl nur relevant, wenn der Wettbewerb diese Einschränkung nicht hat. Dies wird derzeit für die PS5 vermutet und bei AMD ist es noch nicht bekannt. Sollte es sich für die PS5 bestätigen, besteht die Möglichkeit auch bei AMD (Abhängig davon ob sie die selben Panasonic Chips nutzen, was wohl die PS5 nicht macht.)

Ah ok. Ja hast recht, dann mal abwarten.

Flusher
2020-10-24, 18:02:08
Bei den Konsolen seh ich ein Problem. Bei der RTX 3080 schon weniger. Wer hat schon an seinem Gaming Rig einen AV-Receiver angeschlossen und nennt im Wohnzimmer einen 4k120Hz Fernseher sein eigen? Der Anteil betrofferner Gamer dürfte verschwindend gering sein.

Awrack
2020-10-24, 18:10:05
Doch ich gehöre dazu.....und mit etwas Glück kann ich Montag was dazu sagen.

r3ptil3
2020-10-25, 16:19:51
Habe die News nicht so mitverfolgt:

Gab's eine Neuigkeit diese Woche bezüglich der Verfügbarkeit aus einer offiziellen Seite?

Edit: Etwas den falschen Thread gewählt.

Wake
2020-10-25, 16:34:59
Ja, dass die 3070er-Modelle besser verfügbar sein sollen zum Launch :tongue:

Bei 3080 und 3090 wird es sicher noch länger brauchen.

Sardaukar.nsn
2020-10-25, 18:40:56
Wer diesen Winter seine Hütte mir Strom heizen mag... EVGA mit 500 Watt Bios: https://www.tomshardware.com/news/new-bios-raises-power-limit-for-evgas-rtx-3080-and-3090-cards

BlacKi
2020-10-25, 19:15:07
Wer diesen Winter seine Hütte mir Strom heizen mag... EVGA mit 500 Watt Bios: https://www.tomshardware.com/news/new-bios-raises-power-limit-for-evgas-rtx-3080-and-3090-cards
und damit 10% schneller mit 100% mehr verbrauch (500w) als mit 250w? kommt das hin?:freak:

r3ptil3
2020-10-26, 12:27:20
21:9 Ultrawide dürfte wohl am PC der neue high-end Mainstream werde. Ich denke zumindest das wird sich deutlich eher verbreiten als 4k 16:9, natürlich nur am PC.

Ultrawide Benchmarks fehlen ja bei vielen Reviews noch, hier mal im Video

https://youtu.be/8JKLA1wWIfc

Wenn man von Ultrawide spricht, dann ist zu 95% die Rede von einem 34" mit 3440x1440, jedoch finde ich bei der Grösse die Höhe einfach zu gering. Das schränkt m.M.n. das Spielerlebnis ein.

37.5" bei 3840x1600 empfinde ich hingegen als richtig gut, jedoch ist hier der Preis das Problem (1500-2000 Euro), da man für unter 1500 ja bereits einen viel besseren LG CX 48" kriegt.

Die 3080 sehe ich aber perfekt für 3440x1440.

Lowkey
2020-10-26, 12:46:58
Und bei 5140x1440? Ist nicht 4k, ist nicht WQHD. Momentan ist eine 1660 Super drin und "reicht".

Flusher
2020-10-26, 13:04:01
Sind eigentlich schon UW-Monitore mit 2160p im Anmarsch? Wenn wir schon über 8k Gaming sprechen, können wir auch langsam mal über den nächsten Sprung in 21:9 Auflösungen sprechen

Edit: grade bei Geizhals durchgefiltert

https://geizhals.de/?cat=monlcd19wide&xf=11941_21%3A9%7E11944_2160

Gibt tatsächlich bereits zwei Monitore, aber beide nicht Gamingtauglich

r3ptil3
2020-10-26, 23:43:54
Und bei 5140x1440? Ist nicht 4k, ist nicht WQHD. Momentan ist eine 1660 Super drin und "reicht".

Du meinst den G9 oder? Specs sind eigentlich nahezu perfekt.
Ich habe aber "Respekt" vor dieser Grösse, ist mir fast etwas zu viel.

2070 verkauft und auf der Suche nach 3080/3090?

aufkrawall
2020-10-26, 23:54:41
Tja, selbst schuld. Ich kann mir aber vorstellen, dass ich mich auch von Lederjacke hätte verarschen lassen. Man will ja an das Gute im Menschen glauben und denkt zumindest irgendwo im Unterbewusstsein, es müsse doch trotz alledem ein seriöser Geschäftsmann sein. Auch wenn da der 970-Beschiss, der Mining-Beschiss bez. Investoren und das nicht ganz so ehrliche "Kauft Pascal, Turing kommt so schnell nicht!"-Statement kurz vorm Turing-Launch gewesen waren. Ach Mensch...

r3ptil3
2020-10-27, 12:50:54
Was mir aufgefallen ist bei der unbeliebten Zotac Trinity 3080:

MSI Gaming X Trio 3080
https://i.ibb.co/chD0XSb/MSI-3080.jpg

Zotac Trinity 3080
https://i.ibb.co/8dKhq9v/Zotac-3080.png

Mit etwas OC ist die Zotac nicht schlecht, immerhin der grösste Sprung in der Performance zwischen den Customs.
Lautstärke je nach Review ok bis sehr gut.

Habe das Stück mal bestellt.

Kann jemand zu der Karte etwas berichten?

Lowkey
2020-10-27, 13:03:10
Du meinst den G9 oder? Specs sind eigentlich nahezu perfekt.
Ich habe aber "Respekt" vor dieser Grösse, ist mir fast etwas zu viel.

2070 verkauft und auf der Suche nach 3080/3090?


Nein Bekannter will für den 49" eine Grafikkarte und die 3080 wäre genug.

Heute kommt eine Gigabyte und vllt die Woche noch andere Karten aus den Bestellungen (MSI, Inno3D)

Meridian12
2020-10-27, 13:23:10
Habe mich seit dem Kauf meiner 1080ti nicht mehr mit Grafikkarten beschäftigt.

Jetzt schaue ich mal wieder nach und blicke gar nicht mehr durch :D

Was ist denn mit diesem Raytracing auf einmal gemeint? Gibt es da einen Link, wo dass gut erklärt wird für Laien?

Ich persönlich kaufe mir immer eine neue Grafikkarte, wenn ich mit der neuen mindestens doppelte Leistung habe.Das soll bei der 3080 der Fall sein mit Raytracing.

Aber würde gerne immer doppelte Leistung haben und nicht nur in ganz speziellen Bereichen.

Oder haben das jetzt alle neue Spiele?

Wie gesagt, bin da total ahnungslos.

Troyan
2020-10-27, 13:38:50
Die 3080 (FE) ist im Schnitt ohne Raytracing und DLSS 1,87x schneller als die 1080TI: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#diagramm-f1-2020-3840-2160

Hängt aber sehr stark auch von den Spielen ab. In Control, Doom Eternal oder The Division 2 sind es weit mehr als 2x.

Raytracing und DLSS werden in immer mehr Spielen zum Einsatz kommen. Auch die Spiele werden anspruchsvoller, wodurch der Abstand ohne ebenfalls ansteigen kann.

k0nan
2020-10-27, 13:54:19
Habe mich seit dem Kauf meiner 1080ti nicht mehr mit Grafikkarten beschäftigt.

Jetzt schaue ich mal wieder nach und blicke gar nicht mehr durch :D

Was ist denn mit diesem Raytracing auf einmal gemeint? Gibt es da einen Link, wo dass gut erklärt wird für Laien?

Ich persönlich kaufe mir immer eine neue Grafikkarte, wenn ich mit der neuen mindestens doppelte Leistung habe.Das soll bei der 3080 der Fall sein mit Raytracing.

Aber würde gerne immer doppelte Leistung haben und nicht nur in ganz speziellen Bereichen.

Oder haben das jetzt alle neue Spiele?

Wie gesagt, bin da total ahnungslos.

Gute Einstellung :up: Wenn du keine Eile hast (1080 Ti defekt oder so), dann warte auf die neuen AMD und NVIDIA Grafikkarten. Die 3080 Ti und die AMD 6800 XT sind für dich interessant, je nachdem welche Auflösung und Anspruch bzgl RT du hast. Obacht vor den 'nicht Neutralen' hier :wink:

Meridian12
2020-10-27, 14:06:34
Habs überhaupt nicht eilig :D

Aber sind die 3080er nicht "die Neuen"?

k0nan
2020-10-27, 14:18:05
Schau mal auf der 3DC News Seite, da kommt wohl noch eine 3080 Ti und Morgen @ 17 Uhr stellt AMD seine GPUs vor. Ist hier Offtopic, deswegen fasse ich mich kurz: Die 3080 war zum Release für 699 empfehlenswert, liegt aber inzwischen bei 800-1100, deswegen würde ich auf die AMD GPUs plus den NVIDIA Konter a la 3080 Ti warten :smile:

Meridian12
2020-10-27, 14:55:06
Danke für die Info.

Kennst du noch einen Link zu diesem Raytracing mit neuen Karten und Spielen? (oder kann das die 1080ti auch?)

Awrack
2020-10-27, 21:04:40
Glück gehabt, kaum Spulenfiepen und leiser als gedacht.
Leise gilt nur für RE3 Remake und Metro Exodus (4K und alle Regler auf Anschlag), hier gehen die Temps auf etwas über 70°C und die Lüfter liegen bei ca. 1200-1300 Upm.
Greedfall dagegen nach 10-15 Min über 80°C und die Lüfter auf Fullspeed fast 3000 Upm, was hier komisch ist, das meine CPU (R7 3700X) nicht über 3000Mhz geht bei keinem Kern.
Werde wohl zusätzliche Lüfter unter der Graka installieren.

Meridian12
2020-10-28, 11:26:23
Sieht ganz schön mächtig aus die Karte.

Kann natürlich täuschen,aber dagegen war meine 1080ti ja optisch zierlich :D

Lowkey
2020-10-28, 11:35:36
Meine alte 1080Ti mit Wakü am Limit vs neue 3080 OC Bios:

https://www.3dmark.com/compare/fs/23850786/fs/22581437#

gedi
2020-10-28, 12:06:55
Was mir aufgefallen ist bei der unbeliebten Zotac Trinity 3080:

MSI Gaming X Trio 3080
https://i.ibb.co/chD0XSb/MSI-3080.jpg

Zotac Trinity 3080
https://i.ibb.co/8dKhq9v/Zotac-3080.png

Mit etwas OC ist die Zotac nicht schlecht, immerhin der grösste Sprung in der Performance zwischen den Customs.
Lautstärke je nach Review ok bis sehr gut.

Habe das Stück mal bestellt.

Kann jemand zu der Karte etwas berichten?

Der Kühler war hier nicht so das gelbe vom Ei, allerdings hatte die Trinity kein Spulenfiepen. OC war meh, da im VBios auf 336W begrenzt. Vram + 500Mhz war kein Problem.
Wenn man von Pascal kommt, abseits des Vram-Mangel sicher ne gute Option, von einer 2080Ti unter Wasser auf ne 3080 umzusteigen, keine so gute Idee. Leistungsplus nur ca. 10-15%, mit RT beinahe Gleichstand und weniger Vram.

Benutzername
2020-10-28, 12:19:29
Glück gehabt, kaum Spulenfiepen und leiser als gedacht.
Leise gilt nur für RE3 Remake und Metro Exodus (4K und alle Regler auf Anschlag), hier gehen die Temps auf etwas über 70°C und die Lüfter liegen bei ca. 1200-1300 Upm.
Greedfall dagegen nach 10-15 Min über 80°C und die Lüfter auf Fullspeed fast 3000 Upm, was hier komisch ist, das meine CPU (R7 3700X) nicht über 3000Mhz geht bei keinem Kern.
Werde wohl zusätzliche Lüfter unter der Graka installieren.
Sieht ganz schön mächtig aus die Karte.

Kann natürlich täuschen,aber dagegen war meine 1080ti ja optisch zierlich :D

Die ist effektiv eine drei-slot-Karte und dann in einem µATX Gehäuse fotografiert.

@Awrack braucht wohl wirklich ein paar mehr Lüfter. Was ist das für ein Gehäuse? Man brauchst ja nciht nur mehr Luft rein, sondern auch mehr Luft raus. Die warme Luft muss ja irgendwo hin.


----------------------------

Meine alte 1080Ti mit Wakü am Limit vs neue 3080 OC Bios:

https://www.3dmark.com/compare/fs/23850786/fs/22581437#


Das lässt die 3080 fast wie ein sidegrade aussehen. :D

Langlay
2020-10-28, 12:29:15
Das lässt die 3080 fast wie ein sidegrade aussehen. :D


Knapp 50% mehr Performance würde ich kaum als Sidegrade bezeichnen.

ChaosTM
2020-10-28, 12:42:24
70-80% im Schnitt sogar. Deshalb tun die 10GB doppelt weh..

Thunder99
2020-10-31, 13:02:05
Gute Einstellung :up: Wenn du keine Eile hast (1080 Ti defekt oder so), dann warte auf die neuen AMD und NVIDIA Grafikkarten. Die 3080 Ti und die AMD 6800 XT sind für dich interessant, je nachdem welche Auflösung und Anspruch bzgl RT du hast. Obacht vor den 'nicht Neutralen' hier :wink:
Trifft auch auf mich zu :D

Wie schön, wenn man warten kann, da man nicht mehr zum spielen kommt um seinen Berg guter alter Spiele abzubauen :freak:

Langlay
2020-10-31, 13:56:59
70-80% im Schnitt sogar. Deshalb tun die 10GB doppelt weh..

Ich hab mich auf den Grafikscore bezogen. Der liegt 47% höher als mit der 1080ti.

NikLaw
2020-11-01, 10:17:45
Ich habe gestern meinen nicht mehr benötigten Lüfter vom Alpenfön (140 mm) als Seitenlüfter auf Höhe der Grafikkarte installiert. Ergebnis ist, dass die Karte 5-8° Kühler ist, max 70°. Da der Lüfter mit max 700 U/min läuft, ist er auch noch unhörbar.

r3ptil3
2020-11-03, 01:29:46
Weitere MSI 3080 im Anmarsch:

https://cdn.videocardz.com/1/2020/11/MSI-GeForce-RTX-3080-SUPRIMX-1.jpg

https://videocardz.com/newz/msi-geforce-rtx-3080-suprim-x-pictured

r3ptil3
2020-11-04, 21:02:10
Kann jemand was zu den Unterschieden zwischen den nachfolgenden beiden Karten sagen?

- Gigabyte Gaming OC 3080
- Gigabyte Eagle OC 3080

Abgesehen von den LEDs, was gibt's da noch für Unterschiede?


Edit:
Eagle Powerlimit auf 100% begrenzt, die Gaming Version geht bis 108% (370W).

Direktvergleich der Kühler noch nicht gesehen, aber die Lüfter selber scheinen identisch zu sein.

Wuge
2020-11-05, 14:18:27
Weshalb sehen die alle so scheiße bunt aus? Das Industrial design der 2080iger Strix oder MSI Gaming Z wirkte viel martialischer. Und hochwertiger.

r3ptil3
2020-11-05, 15:38:52
Weshalb sehen die alle so scheiße bunt aus? Das Industrial design der 2080iger Strix oder MSI Gaming Z wirkte viel martialischer. Und hochwertiger.

Beliebtheit und LEDs, da haben die Hersteller irgendwo einen ausschlaggebenden Zusammenhang erkannt in den Verkaufszahlen.

Zumindest kann man aber sagen, dass trotz des hohen Anteils unnötigen Kunststoff, LEDs etc., die Kühlung einiger Modelle sehr gut ist.

r3ptil3
2020-11-06, 22:45:17
Kurzes "Review" zur Gigabyte Gaming OC RTX 3080:

- Powerlimit kann nicht erhöht werden
- verfügt über ein Dual-BIOS per Hardware-Switch (Perf./Quiet)
- die Karte ist im Performance-Mode (default) nicht laut, ähnlich zur Strix 3080 evtl. einen ticken lauter
- sehr überraschend die Temperaturen: 3D Mark (nicht über 65°), PUBG 30Min. 66°
- Quiet-BIOS: geht schnell über 70° und pendelt sich bei etwa 72-74° ein
- Defaulttakt: 1890-1920Mhz
- mein Modell macht (Afterburner +120Mhz) ca. 2.0Ghz (+/-) problemlos
- LEDs sehr dezent und nicht aufdringlich

Gute Karte, gefällt mir.

Edgecrusher86
2020-11-07, 10:28:55
Weshalb sehen die alle so scheiße bunt aus? Das Industrial design der 2080iger Strix oder MSI Gaming Z wirkte viel martialischer. Und hochwertiger.

Wobei es ja auch positive ausnahmen gibt - etwa die TUF. LED aus zur Not, ob Stecker raus oder per SW. :D



Meet EK’s Special Edition Vector Water Blocks for NVIDIA RTX 3080 FE GPUs

https://www.ekwb.com/news/special-edition-ek-quantum-water-blocks-for-nvidia-rtx-3080-fe-gpus-are-here/

Gestern noch für 263€+ gelistet, nun 269,90€. :freak:

Es mag stimmen, dass die Konstruktion aufwendiger ist und wohl inkl. BP daher kommt, aber das ist dann schon etwas dreist. Dasselbe für die 3090er als breite Version und sie bepreisen es wohl mit 299,90€. ;D

Früher hatte man für solche Beträge richtig gute Performance-Karten bekommen, teils auch reduzierte Highend-Salvage-Modelle...

Wuge
2020-11-07, 14:06:10
Die haben einen laufen... ich hab noch den Alphacool Block für die 2080TI Strix da. Schieß ich mir wieder so eine.

Benutzername
2020-11-07, 23:30:18
Beliebtheit und LEDs, da haben die Hersteller irgendwo einen ausschlaggebenden Zusammenhang erkannt in den Verkaufszahlen.

Zumindest kann man aber sagen, dass trotz des hohen Anteils unnötigen Kunststoff, LEDs etc., die Kühlung einiger Modelle sehr gut ist.


Man kann ja kaum was ohne RGB disko kaufen. Und wenn entscheidet dann der Angebotspreis für die meisten ob sie Boardpartner A oder B oder C kaufen. Da nimmt man dann auch zähneknirschend die Einhornkotze hin. Kann man ja auch meistens abschalten. Würden mich mal Statisken interesseiren, wieviele das abschalten und/oer in ein nicht durchsichtiges Gehäuse stecken.

Dann weiter beobachten sich ja die Hersteller gegenseitig und versuchen sich gegenseitig zu überbieten. Ob "der Kunde" das wirklich haben will ist da eine andere Frage. Die Gestaltung sieht ja auch ohne RGB meistens aus wie die Ausscheidungen eines Transformers (besonders aus den Kinofilmen). Aber das machen alle so, also verkauft es sich, also wird mehr davon produziert...



Um die Kurve zurück zu RTX30/Ampere zub ekommen:
Positiv notiert habe Ich das Aussehen der Ampere Founder's Edition Karten. Hätten sie noch die LEDs an der Seite weggelassen und einfach mit dem Laser den Namen eingebrannt wäre es perfekt gewesen. Schlichte funktionale Linien und die Kühler funktionieren sogar gut!

Benutzername
2020-11-07, 23:35:00
Wobei es ja auch positive ausnahmen gibt - etwa die TUF. LED aus zur Not, ob Stecker raus oder per SW. :D



Meet EK’s Special Edition Vector Water Blocks for NVIDIA RTX 3080 FE GPUs

https://www.ekwb.com/news/special-edition-ek-quantum-water-blocks-for-nvidia-rtx-3080-fe-gpus-are-here/

Gestern noch für 263€+ gelistet, nun 269,90€. :freak:

Es mag stimmen, dass die Konstruktion aufwendiger ist und wohl inkl. BP daher kommt, aber das ist dann schon etwas dreist. Dasselbe für die 3090er als breite Version und sie bepreisen es wohl mit 299,90€. ;D

Früher hatte man für solche Beträge richtig gute Performance-Karten bekommen, teils auch reduzierte Highend-Salvage-Modelle...


Für 300€ kann man sich ja schon einen Wasserblock als Einzelanfertigung schnitzen lassen...


Diese Blöcke von EK muss man ja nicht kaufen. Aber hey, gibt genug Kunden, die meinen der Preis des Wasserblocks "muss zur Karte passen".

Wuge
2020-11-08, 10:25:54
Ich hab ja garnix gegen dezente LED. Die 2080 Strix rot wabernd sieht gut aus. Die ist aber auch nicht scheiß bunt und sieht aus wie ein 90iher Jahre Sportanzug.

r3ptil3
2020-11-08, 12:38:33
Falls es jemanden interessiert:

Undervolting auf einer Gigabyte Gaming OC 3080:

800mv: 1771Mhz
850mv: 1840Mhz
900mv: 1902Mhz
925mv: 1932Mhz

Bandit3644
2020-11-08, 12:42:13
Falls es jemanden interessiert:

Undervolting auf einer Gigabyte Gaming OC 3080:

800mv: 1771Mhz
850mv: 1840Mhz
900mv: 1902Mhz
925mv: 1932Mhz

nicht so dolle, mit der Asus TUF 3080

800mv: 1820 MHz
850mv: 1920 Mhz
950mv: 2025 MHz

r3ptil3
2020-11-08, 12:46:54
nicht so dolle, mit der Asus TUF 3080

800mv: 1820 MHz
850mv: 1920 Mhz
950mv: 2025 MHz

Gute Ergebnisse - womit hast du die Stabilität getestet?

Ich habe bei der Gigabyte auch keine guten Ergebnisse erwartet, war eher ein Spontankauf aufgrund Preis/Verfügbarkeit, da ich es auf die MSI 3070 abgesehen hatte.

Daredevil
2020-11-08, 12:53:11
Und wie schauts aus mit den Watt? :c

Bandit3644
2020-11-08, 12:58:14
Gute Ergebnisse - womit hast du die Stabilität getestet?

Ich habe bei der Gigabyte auch keine guten Ergebnisse erwartet, war eher ein Spontankauf aufgrund Preis/Verfügbarkeit, da ich es auf die MSI 3070 abgesehen hatte.

Mit TimeSpy und Neon Noir als Bench und in allen möglichen Spielen

Bandit3644
2020-11-08, 13:02:13
Und wie schauts aus mit den Watt? :c

Kann gerade nicht schauen da mein Afterburner nicht mehr viel anzeigt seid dem ich den 5900x drin habe.

Daher nur grob, kommt auf die Anwendung an.

800mv: 1820 MHz bis ca. 225 Watt
850mv: 1920 MHz bis ca. 260 Watt
950mv: 2025 MHz bis ca. 290 Watt

r3ptil3
2020-11-08, 13:07:47
Mit TimeSpy und Neon Noir als Bench und in allen möglichen Spielen

TimeSpy läuft bei mir mit höheren Taktraten stabil durch, ich würde mit Time Spy Extreme testen.

Bandit3644
2020-11-08, 13:19:32
TimeSpy läuft bei mir mit höheren Taktraten stabil durch, ich würde mit Time Spy Extreme testen.

Sorry hab ich nicht richtig geschrieben, ich teste alles in UHD und es war Extreme, mein Fehler.

sunshine
2020-11-10, 18:18:32
Ich kann wohl am 25.11. eine 3080 FTW3 Ultra abholen. System wird ein X570 Unify und 5600X/5900X. Ist das UV/PL Tuning wie gehabt bei der 1080 Ti mit Afterburner? Ich glaube nicht, dass mein EVGA SuperNova 650 G2 das sonst so einfach mitmacht.

der13big-l
2020-11-10, 18:44:52
Ich kann wohl am 25.11. eine 3080 FTW3 Ultra abholen. System wird ein X570 Unify und 5600X/5900X. Ist das UV/PL Tuning wie gehabt bei der 1080 Ti mit Afterburner? Ich glaube nicht, dass mein EVGA SuperNova 650 G2 das sonst so einfach mitmacht.

Geht aktuell nur mit einer afterburner Beta, aber funktioniert genauso einfach.

Thomas Gräf
2020-11-11, 21:36:27
Hallo,
für Leute die auf FullCover umbauen wollen, da gibts was zu beachten bei RTX3000.
(Als alter Radeon7 Bastler kann ich da mitfühlen)

Der Artikel
https://www.igorslab.de/geforce-rtx-3080-und-rtx-3090-mit-gebogenem-package-warum-es-wasser-und-luftkuehler-so-schwer-haben-investigativ/

...und hier das Vid dazu

-4e9HQRuwu4

PS. also vor dem Wakü Umbau auf keinen Fall ein BurnIn mit der originalen Karte machen!

:wave2:

sunshine
2020-11-12, 06:51:23
Jetzt mal eine vermutlich bloede Frage: Ich hab im Office PC ein Corsair CXM 650 und im normalen PC (CPU fehlt noch) ein SuperNova G2 650. Meine neue 3080 FTW3 Ultra verlangt 3 8-Pin Stecker, aber beide NTs bieten nur 2. Wie kann ich das nun gescheit testen ohne ein neues NT zu kaufen? OC ist eh nicht geplant, nur UV.

SuperNova 650G2 (https://www.evga.com/Support/manuals/files/220-G2-0650-0550.pdf):
2x 6-Pin + 8(6+2) Pin PCIE VGA Cables
Kann ich die 2 "baumelnden" 6 Pin quasi per Y-Kabel mit anschliessen? Mit so einem Kabel? https://www.amazon.com/EVGA-6-Pin-Female-8-Pin-Cable/dp/B00M49SELW/ref=sr_1_7?crid=N2L4OJSGCDW4&dchild=1&keywords=evga+8+pin+pci-e+cable&qid=1605160089&sprefix=evga+8+pin%2Caps%2C203&sr=8-7
https://abload.de/thumb/evgam2jq1.png (https://abload.de/image.php?img=evgam2jq1.png)

Das Corsair CXM 650 kann es quasi gar nicht? (https://www.corsair.com/us/en/Categories/Products/Power-Supply-Units/cxm-series-2015-config/p/CP-9020103-NA#tab-tech-specs)

Edit: Hab mich etwas belesen und optimal ist das wohl nicht. Daher ein Corsair RMx 850W bestellt. Weiter warten 😂

Mrickz
2020-11-15, 20:58:11
Kann gerade nicht schauen da mein Afterburner nicht mehr viel anzeigt seid dem ich den 5900x drin habe.

Daher nur grob, kommt auf die Anwendung an.

800mv: 1820 MHz bis ca. 225 Watt
850mv: 1920 MHz bis ca. 260 Watt
950mv: 2025 MHz bis ca. 290 Watt

Schraubst du beim Untervolting im tool (z.b. MSI Afterburner) einfach die Volt runter oder wie genau geht man da vor?

Sehr schöne Ergebnisse. Würde das gerne bei meiner Karte auch probieren, aber bin mir nicht ganz sicher wie ich am besten vorgehen soll.

Grüße

Bandit3644
2020-11-15, 21:02:30
Schraubst du beim Untervolting im tool (z.b. MSI Afterburner) einfach die Volt runter oder wie genau geht man da vor?

Sehr schöne Ergebnisse. Würde das gerne bei meiner Karte auch probieren, aber bin mir nicht ganz sicher wie ich am besten vorgehen soll.

Grüße

Ich passe nur die Kurve im Afterburner an, hier z.B. für 1920MHz 0,850V
https://s12.directupload.net/images/201115/gavxx3no.jpg (https://www.directupload.net)

r3ptil3
2020-11-15, 21:03:45
Schraubst du beim Untervolting im tool (z.b. MSI Afterburner) einfach die Volt runter oder wie genau geht man da vor?

Sehr schöne Ergebnisse. Würde das gerne bei meiner Karte auch probieren, aber bin mir nicht ganz sicher wie ich am besten vorgehen soll.

Grüße

Beispiel:

1. MSI Afterburner installieren
2. CoreClock -150Mhz stellen + Apply
3. Im Afterburner "CTRL+F)
4. Bspw. nur bei 800mv den Regler auf 1750Mhz stellen + Apply
5. Testen und falls stabil, den Takt erhöhen

Mrickz
2020-11-15, 21:04:20
Ah ok Vielen Dank euch beiden.. Dann spiel ich da mal ein bisschen rum und schau was sich so alles dort versteckt!

Edit : Ah sehr cool. Vielen dank für den CTRL + F tipp

BeetleatWar1977
2020-11-18, 12:44:48
Mal kurz:

Wie klappt bei euch das UV ?

Ich teste gerade 2100@975mV....... bisher stable.......

Karte ist eine EVGA FTW3 Ultra....

r3ptil3
2020-11-18, 12:56:54
Mal kurz:

Wie klappt bei euch das UV ?

Ich teste gerade 2100@975mV....... bisher stable.......

Karte ist eine EVGA FTW3 Ultra....

Das ist aber (fast) kein UV mehr. Bei 2100/975mv zieht die Karte, je nach Szenario, fast 400W.
Interessant wäre bei UV was eine Karte bei 700-800mv hergibt.

Bei einer FTW3 Ultra würde ich die Karte aber auch bei maximalen Takt laufen lassen und so dass keine Drops durch das Powerlimit entstehen. 2100Mhz durchgehend ohne Einbrüche, wäre schon was feines.

Kannst du mal TimeSpy und TimeSpy Extreme durchlaufen lassen? Würde mich interessieren was da rauskommt und schau auch gleich, ob speziell bei TimeSpy Extreme, durchgehend 2100Mhz anliegen.

BeetleatWar1977
2020-11-18, 13:11:41
Das ist aber (fast) kein UV mehr. Bei 2100/975mv zieht die Karte, je nach Szenario, fast 400W.
Interessant wäre bei UV was eine Karte bei 700-800mv hergibt.

Bei einer FTW3 Ultra würde ich die Karte aber auch bei maximalen Takt laufen lassen und so dass keine Drops durch das Powerlimit entstehen. 2100Mhz durchgehend ohne Einbrüche, wäre schon was feines.

Kannst du mal TimeSpy und TimeSpy Extreme durchlaufen lassen? Würde mich interessieren was da rauskommt und schau auch gleich, ob speziell bei TimeSpy Extreme, durchgehend 2100Mhz anliegen.
Momentan geht mir der Curveeditor auf den Sack^^ in Timespy bin ich gerade gecrasht, entweder etwas weniger Takt oder mehr Spannung....

Das waren 2100Mhz, Spannung hatte ich mir leider nicht aufnotiert... https://www.3dmark.com/3dm/53183894?


Edit: OC-Bios, Lüftercurve hab ich noch nicht angefasst.....

Langlay
2020-11-18, 13:16:58
Das waren 2100Mhz, Spannung hatte ich mir leider nicht aufnotiert... https://www.3dmark.com/3dm/53183894?


https://www.3dmark.com/compare/spy/15356337/spy/15369158

Ist der Vergleich mit meiner 3090 1800MHz@0,8V

Darf ich interressehalber Mal fragen was die Karte im Benchmark so zieht?

Mit meinem UV Setting liegt meine 3090 dort so bei 300-320W.

r3ptil3
2020-11-18, 13:23:53
Momentan geht mir der Curveeditor auf den Sack^^ in Timespy bin ich gerade gecrasht, entweder etwas weniger Takt oder mehr Spannung....

Das waren 2100Mhz, Spannung hatte ich mir leider nicht aufnotiert... https://www.3dmark.com/3dm/53183894?


Edit: OC-Bios, Lüftercurve hab ich noch nicht angefasst.....

Da liegen aber die 2100Mhz in dem Fall nicht dauerhaft an.
Wie hoch geht das Powerlimit ohne OC-BIOS?

Ich würde das OC-BIOS aber bei einer FTW3 sofort draufhauen und folgendes einstellen:

2100Mhz bei 1000-1025mv, Powerlimit mal sicherheitshalber auf maximum
Vermutlich hättest du dann durchgehend überall die 2100Mhz. Kommt auch den Frametimes zu Gute (stabiler). Ich hatte subjektiv ein besseres Spielerlebnis dadurch (wirklich sehr subjektiv).

Ich hatte jetzt drei 3080er (Trio, Strix, Gaming OC) und bei allen gab es relativ hohe Drops im Takt, ohne manuelle Eingriffe.

Die Gaming OC lief bei mir bspw. mit 850mv bei 1850Mhz, was eigentlich sehr angenehm war. Deutlich unter 70°, Quiet-BIOS aktiviert und vor allem dauerhaft 1850Mhz.

BeetleatWar1977
2020-11-18, 13:46:33
https://www.3dmark.com/compare/spy/15356337/spy/15369158

Ist der Vergleich mit meiner 3090 1800MHz@0,8V

Darf ich interressehalber Mal fragen was die Karte im Benchmark so zieht?

Mit meinem UV Setting liegt meine 3090 dort so bei 300-320W.
Ich hab mal 1800@0.8V eingestellt - da sinds dann so ~220W
https://www.3dmark.com/3dm/53208539?

Da liegen aber die 2100Mhz in dem Fall nicht dauerhaft an.
Wie hoch geht das Powerlimit ohne OC-BIOS?

Ich würde das OC-BIOS aber bei einer FTW3 sofort draufhauen und folgendes einstellen:

2100Mhz bei 1000-1025mv, Powerlimit mal sicherheitshalber auf maximum
Vermutlich hättest du dann durchgehend überall die 2100Mhz. Kommt auch den Frametimes zu Gute (stabiler). Ich hatte subjektiv ein besseres Spielerlebnis dadurch (wirklich sehr subjektiv).

Ich hatte jetzt drei 3080er (Trio, Strix, Gaming OC) und bei allen gab es relativ hohe Drops im Takt, ohne manuelle Eingriffe.

Die Gaming OC lief bei mir bspw. mit 850mv bei 1850Mhz, was eigentlich sehr angenehm war. Deutlich unter 70°, Quiet-BIOS aktiviert und vor allem dauerhaft 1850Mhz.
Mit dem Bios das ich drauf habe 450W *hust* unter ca 45Grad taktet er übers Target ab ca 60 bleibt er drunter......


jetzt mal spasseshabler gucken ob 1800 auch mit weniger geht.....
Edit 775 ist soweit stabil, 750 crasht.....

Langlay
2020-11-18, 18:54:00
jetzt mal spasseshabler gucken ob 1800 auch mit weniger geht.....
Edit 775 ist soweit stabil, 750 crasht.....

Metro Exodus mit RTX on, hat sich bei mir als relativ zuverlässiger Stabilitätstest erwiesen was Spannung angeht.

r3ptil3
2020-11-19, 16:20:33
Hat hier jemand eine MSI Gaming X 3080?

Wenn ja, hat das neue BIOS, welche eine leicht straffere Lüfterkurve hat, evtl. einen höheres Powerlimit als 102%?

Ich frage mich schon wieso MSI drei 8-PIN Stromstecker verbaut, aber die Karte nur 340W TDP hat.

Werde ich mir wohl wieder anschaffen, da von allen getesteten 3080er Karten, diese mit Abstand die leiseste war.

MasterElwood
2020-11-19, 16:36:37
Hat hier jemand eine MSI Gaming X 3080?

Wenn ja, hat das neue BIOS, welche eine leicht straffere Lüfterkurve hat, evtl. einen höheres Powerlimit als 102%?

Ich frage mich schon wieso MSI drei 8-PIN Stromstecker verbaut, aber die Karte nur 340W TDP hat.

Werde ich mir wohl wieder anschaffen, da von allen getesteten 3080er Karten, diese mit Abstand die leiseste war.

Denk sie ist die ZWEIT leiseste (die leiseste ist die TUF mit Quiet-Bios)

r3ptil3
2020-11-19, 18:55:52
Bezüglich der kommenden MSI Suprim Serie, ist mir folgendes noch aufgefallen:

Deutlich mehr POSCAPs MLCCs als die Gaming X Trio. (links Gaming X Trio 3080, rechts Suprim 3080)

https://i.ibb.co/ygsz2Kr/msi.png

Mal schauen, ob es morgen schon Reviews dazu gibt.


Edit: Danke @ Ben Carter

Ben Carter
2020-11-19, 19:05:18
Verwechselt? Das linke bild zeigt 5, das rechte 2.

BeetleatWar1977
2020-11-19, 20:52:17
Metro Exodus mit RTX on, hat sich bei mir als relativ zuverlässiger Stabilitätstest erwiesen was Spannung angeht.
Yup -einwandfrei :up:

bisher getestet und stabil:
1800@0.775
1900@0.850
2000@0.925
2100@1.050

oder anders formuliert: 80% mehr Leistung für 10% mehr Frames :freak:

Langlay
2020-11-19, 20:57:03
oder anders formuliert: 80% mehr Leistung für 10% mehr Frames :freak:

Das Verhalten kenn ich von meinen Vega(56 & VII) Karten ziemlich gut.

BeetleatWar1977
2020-11-19, 21:21:25
Das Verhalten kenn ich von meinen Vega(56 & VII) Karten ziemlich gut.
Die 5700XT war da auch nur minimal besser.....

Kotzgrenze UV:
1700@0.737V..... Weniger Spannung geht nicht^^

r3ptil3
2020-11-20, 13:06:04
MSI Suprim RTX 3080 Review
https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/

- 430W Powerlimit (über 2.1Ghz mit OC)
- Kühler ist besser und leiser als bei der Gaming X Trio

Gute Karte, aber nirgends verfügbar.

Lowkey
2020-11-20, 16:32:39
+ 200 Euro Aufpreis für eine lautlose 3080. Die Karte wird viele Käufer finden.

dargo
2020-11-22, 12:50:51
Alter... was ist denn das? X-D ;D

a4aSv_6NcDA

dildo4u
2020-11-22, 12:53:35
Palit ist da schon spät dran passt zu diese Ram Modulen.

https://i.ibb.co/Cw7tPs6/1908130911290.png (https://ibb.co/b6B3bRF)

https://www.gskill.com/product/165/299/1550816006/F4-3600C16Q-32GTRSTrident-Z-RoyalDDR4-3600MHz-CL16-16-16-36-1.35V32GB-(4x8GB)

r3ptil3
2020-11-23, 22:22:01
Palit ist da schon spät dran passt zu diese Ram Modulen.

https://i.ibb.co/Cw7tPs6/1908130911290.png (https://ibb.co/b6B3bRF)

https://www.gskill.com/product/165/299/1550816006/F4-3600C16Q-32GTRSTrident-Z-RoyalDDR4-3600MHz-CL16-16-16-36-1.35V32GB-(4x8GB)

Wenn ich mich recht entsinne, braucht die Palit eine eigene Software um die Beleuchtung zu steuern. Bedeutet also: Die ganze LED-Beleuchtung ist eigentlich unbrauchbar, da diese nicht mit den restlichen Komponenten synchronisiert werden kann, ausser man nutzt statische Farben.

Matrix316
2020-12-08, 23:53:55
Gigabyte Aorus 3080 Master 10 GB

Es ist da und es ist groß:

https://abload.de/img/gross1ttxk4e.jpg (https://abload.de/image.php?img=gross1ttxk4e.jpg)

https://abload.de/img/gross2t1pkcu.jpg (https://abload.de/image.php?img=gross2t1pkcu.jpg)

Und schnell:
https://abload.de/img/sup1080vs3080tlujwx.jpg (https://abload.de/image.php?img=sup1080vs3080tlujwx.jpg)

https://abload.de/thumb/tr1080vs3080vbkfd.jpg (https://abload.de/image.php?img=tr1080vs3080vbkfd.jpg)

Und auch einen Ticken lauter als die 1080TI unter Last. Aber die Temps sind so gut, dass man an der Lüfterkurve bestimmt noch was machen kann.

Erstaunlicherweise hat das NT mit 650W noch nicht gemuckt. Läuft ziemlich stabil das ganze (aber auch nix übertaktet, außer PBO bei der CPU und der Basis Boost bei der Graka).

CompuJoe
2020-12-09, 13:23:58
Kurz angemerkt, 650 Watt Seasonic GX reicht für ne 3080 Gigabyte Gaming OC (370 Watt) mit einem 3900X Stock aus, Netzteil wird auch nicht lauter als sonst mit Furmark und Prime95.

Mearest
2020-12-09, 14:57:33
Meine EVGA GeForce RTX 3080 FTW3 Ultra ist heute gekommen. Ich teste gerade ein bisschen, was mit UV so geht. Da geht einiges. Erstmal, die Karte zieht ab Werk gerne mal 380Watt :eek:. Lustigerweise war die Nachts als ich geschaut hatte kurz auf Lager (Hab nur zufällig um die Zeit geschaut).

Mit UV habe ich bis jetzt 284Watt gesehen und das sind gerade mal 4FPS weniger in Spiele Benchmarks, die ich bis jetzt durch habe SotTR mit Raytracing Ultra und Horizon, Division2 (UWQHD 21:9).
Denke ich lass die so laufen. Die Karte ist sehr leise, auch wenn sie 380Watt säuft. Die wird nicht mehr wie 73Grad damit warm (Im Werkszustand). Mit meinem UV bin ich immer so bei Max64 Grad, bis jetzt. Bei WoW
gehn die Lüfter gar nicht an :tongue:. Die Karte ist wirklich sehr leise. Man sollte aber die EVGA Software installieren, dann gibts gleich ein Firmware Update.

Für die momentane Zeit bin ich noch gut weggekommen. Ich habe meine ASUS Rog Strix 2080 bei Ebay mit Sofortkauf 420€ reingestellt. Wurde in 30 Minuten gekauft.

Also wenn man das abzieht waren es ca 569€ für die 3080, Das passt.
Da kann man später, falls der Speicher wirklich eng werden sollte, auch noch gut upgraden und die verkaufen.

edit: ich habe ein 750Watt Netzteil und ein i78700k.

Dr.Doom
2020-12-09, 14:58:47
Für die momentane Zeit bin ich noch gut weggekommen. Ich habe meine ASUS Rog Strix 2080 bei Ebay mit Sofortkauf 4200€ reingestellt. Wurde in 30 Minuten gekauft.Glückwunsch! :ugly:

ChaosTM
2020-12-09, 15:18:33
Alter... was ist denn das? X-D ;D

https://youtu.be/a4aSv_6NcDA


So shiny !!

CompuJoe
2020-12-09, 21:53:58
Mal eine Frage an euch, hatte das schon jemand von euch.
1080Ti raus und 3080 rein, jetzt habe ich bei jedem Start vom Asus Mainboard 4 x kurz Piep, Rechner fährt aber Problemlos hoch und alles funzt wie immer, weiß nicht woran das liegt.

Ich messe mit meinem System bei Furmark und Prime95 an der Steckdose 520-540 Watt

Sardaukar.nsn
2020-12-10, 00:24:34
So shiny !!

To shine, or not to shine.

Bisher mit Abstand die mutigste 3080. Abgesehen von den iGame Waifu Modellen für den Korea Markt.

Zumal der passende RAM ja schon vorher da war: https://www.anandtech.com/show/13624/gskill-launches-trident-z-royal-memory

https://hardforum.com/data/attachment-files/2019/01/184720_47396616_10156954139374168_4726605182761172992_o.jpg

Gynoug MD
2020-12-10, 00:36:33
Mal eine Frage an euch, hatte das schon jemand von euch.
1080Ti raus und 3080 rein, jetzt habe ich bei jedem Start vom Asus Mainboard 4 x kurz Piep, Rechner fährt aber Problemlos hoch und alles funzt wie immer, weiß nicht woran das liegt.

Ich messe mit meinem System bei Furmark und Prime95 an der Steckdose 520-540 Watt
Bitte CSM im BIOS deaktivieren.

CompuJoe
2020-12-10, 07:40:25
Bitte CSM im BIOS deaktivieren.

Dann ist das Piepsen weg aber ich kann kein Bootlaufwerk mehr auswählen.

Lowkey
2020-12-10, 08:01:15
Dann ist vermutlich Windows nicht im UEFI Modus? Kann man neuinstallieren und irgendwie konvertieren. UEFI ist musthave für SAM, dass irgendwann mit einem neuen Treiber bei Nvidia kommen kann.

CompuJoe
2020-12-10, 08:44:34
Hmm, habe nen X370 und nen 3900X da geht SAM eh noch nicht.
Aber wieso ging das mit der 1080Ti und einer 5700XT vor kurzen, hat das was mit dem Bios der Graka zu tun?

Thunder99
2020-12-12, 13:39:06
Gigabyte Aorus 3080 Master 10 GB

Es ist da und es ist groß:

https://abload.de/img/gross1ttxk4e.jpg (https://abload.de/image.php?img=gross1ttxk4e.jpg)

https://abload.de/img/gross2t1pkcu.jpg (https://abload.de/image.php?img=gross2t1pkcu.jpg)

Und schnell:
https://abload.de/img/sup1080vs3080tlujwx.jpg (https://abload.de/image.php?img=sup1080vs3080tlujwx.jpg)

https://abload.de/thumb/tr1080vs3080vbkfd.jpg (https://abload.de/image.php?img=tr1080vs3080vbkfd.jpg)

Und auch einen Ticken lauter als die 1080TI unter Last. Aber die Temps sind so gut, dass man an der Lüfterkurve bestimmt noch was machen kann.

Erstaunlicherweise hat das NT mit 650W noch nicht gemuckt. Läuft ziemlich stabil das ganze (aber auch nix übertaktet, außer PBO bei der CPU und der Basis Boost bei der Graka).
Nice aber übel, die Größe :eek:

Anhand Cyberpunk 2077 kommt man fast nicht um eine 3080 rum, wenn man RT @max. Qualität haben möchte (DLSS nicht immer ein Vorteil, daher die Aussage vorerst ohne DLSS)

Geht eigentlich Downsampling 5k auf WQHD (primäre Auflösung Monitor) und dann DLSS? :freak:
--> Ja (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/) :love2:

Matrix316
2020-12-12, 15:32:11
Was hat es eigentlich mit den Boost Werten auf sich? Manche haben 1700, manche 1750, manche 1800 aber am Ende boosten doch alle über 1900~2000 oder?

Ich muss auch noch mal Cyberpunk mit meiner alten 1080TI testen. Ein Arbeitskollege war ziemlich enttäuscht mit der Performance seiner 1080 in Full HD. Mit der 3080 spielt sich das in 4K und DLSS und RTX ziemlich gut. ;)

Aber so wie sich NVidia zu Hardware Unboxed verhalten hat würde ich fast am liebsten die 3080 gegen eine Radeon zu tauschen... wenn das aber nicht so ein Aufwand und RTX in CP so geil wäre...

sunshine
2020-12-12, 16:51:27
Meine 3080 XC3 kam gestern an und ich war erstmal erschrocken, dass selbst der Kuehler auf meiner Vega 56 groesser ist als das kleine Schaetzchen ;-) Out-of-the-box duempelt die Karte in mit einem average von 1790 Mhz laut 3DMark: https://www.3dmark.com/spy/16208742 (17165 GPU Score).

Hab jetzt ein wenig getueftelt und bin bei 875mV und 1920 Mhz angelangt. Scheint mir ein akzeptabler Kompromiss zu sein https://www.3dmark.com/3dm/54733213? (17925 GPU Score). Naechster Schritt ist eine gescheite Fan Curve, denn der XC3 ist nicht besonders potent.

https://abload.de/thumb/3080_1h5kk6.png (https://abload.de/image.php?img=3080_1h5kk6.png) https://abload.de/thumb/3080_2xkkhd.png (https://abload.de/image.php?img=3080_2xkkhd.png) https://abload.de/thumb/3080_3xmkrx.png (https://abload.de/image.php?img=3080_3xmkrx.png)

Sardaukar.nsn
2020-12-18, 14:28:58
Für die ASUS 3080 TUF gibt es ein neues Bios mit angeblich 375W Power Target. Vorher war das irgendwie um 350W. Kann das jemand bestätigen?

r3ptil3
2020-12-18, 15:15:18
MSI Suprim X 3080:

850Mv: 1875Mhz
975Mv: 2025Mhz
1050Mv: 2100Mhz

Bis jetzt auch 2100MMhz dauerhaft anliegend, ohne dass das Powerlimit erreicht wird.

Die leiseste Karte die ich hatte. Mit Silent-BIOS höre ich so gut wie nichts unter Last bei 2025Mhz - bin schon etwas beeindruckt.

https://i.ibb.co/QCYDPwq/Suprim-X-3080.jpg

MiamiNice
2020-12-18, 17:11:24
MSI Suprim X 3080:

850Mv: 1875Mhz
975Mv: 2025Mhz
1050Mv: 2100Mhz

Bis jetzt auch 2100MMhz dauerhaft anliegend, ohne dass das Powerlimit erreicht wird.

Die leiseste Karte die ich hatte. Mit Silent-BIOS höre ich so gut wie nichts unter Last bei 2025Mhz - bin schon etwas beeindruckt.

https://i.ibb.co/QCYDPwq/Suprim-X-3080.jpg

Dein Innenraum gefällt :up:

r3ptil3
2020-12-20, 13:47:24
@MiamiNice

Danke (y)


Habe die Wärmeleitpaste auf der MSI Suprim X 3080 ausgetauscht und kann bestätigen, dass MSI eine äusserst hochwertige Paste verwendet. Ein Wechsel lohnt sich nicht.

Mit der Kryonaut Extreme WLP konnte ich eine Differenz von etwa ca. -2K messen.
https://i.ibb.co/WV9rsM5/1.jpg

Bei der Gigabyte Gaming OC 3080 konnte ich eine deutlich höhere Temperaturdifferenz feststellen (-5K).


Was mir aufgefallen ist: Die Kennung auf dem Chip der MSI ist anders. Da ist wohl Samsung mit Hochdruck dran die Ausbeute durch Korrekturen in der Fertigung auszubessern.

MSI (RTX 3080 Dezember):
https://i.ibb.co/KGzTNc5/2.jpg

Gigabyte (RTX 3080 November):
https://i.ibb.co/KbNy3Dn/3.jpg

Raff
2020-12-20, 13:49:32
Du meinst das K, gefolgt von einem anderen Buchstaben? Das gibt's nur bei Interface-beschnittenen Modellen wie der RTX 2080 Ti oder RTX 3080. Der abgeschaltete Speicher-Controller bzw. das Fehlen des korrespondierenden Speicher-Chips ist nicht immer an der gleichen Stelle -> "Kx". :) Gefertigt wurden beide im September, nebenbei bemerkt.

MfG
Raff

r3ptil3
2020-12-20, 13:55:06
Du meinst das K, gefolgt von einem anderen Buchstaben? Das gibt's nur bei Interface-beschnittenen Modellen wie der RTX 2080 Ti oder RTX 3080. Der abgeschaltete Speicher-Controller bzw. das Fehlen des korrespondierenden Speicher-Chips ist nicht immer an der gleichen Stelle -> "Kx". :) Gefertigt wurden beide im September, nebenbei bemerkt.

MfG
Raff

Interessant, der Monat war auf das Kaufdatum bezogen.

Woran erkennst du den Produktionszeitraum?

Raff
2020-12-20, 13:57:28
2037 -> Jahr 20, Kalenderwoche 37

Das ist das Fertigungsdatum der GPU. Beim PCB und Rest ist das natürlich anders. :)

MfG
Raff

r3ptil3
2020-12-23, 16:59:07
Habe vorhin mal den PC an's Strommessgerät gesetzt:

System:
5900X, RTX 3080, 4x8Gb 3600Mhz, MSI Unify X570

IDLE (Energieprofil: Stromsparend, Höchstleistung: kein Unterschied):
90-100 Watt (ohne LED-Beleuchtung 10Watt weniger)

Last:
Cyberpunk, WHQD, alles auf max:
RTX 3080 @ 2.1Ghz 1050Mv: 520-540W
RTX 3080 @ 1950Mhz 900Mv: 450-460W
RTX 3080 @ 1700Mhz 750Mv: 355-365W

Erstaunlicherweise konnte ich keine Spitzen feststellen. Das Strommessgerät zeigt auch den Livestromverbrauch an.

Über den IDLE Verbrauch bin ich gar nicht erfreut, das ist einfach nur schlecht bei 1-2% CPU-Auslastung.


Jetzt sehe ich schon mein nächstes Abenteuer in dem Bereich kommen. :ucrazy2:

Thunder99
2020-12-23, 17:39:35
Habe vorhin mal den PC an's Strommessgerät gesetzt:

System:
5900X, RTX 3080, 4x8Gb 3600Mhz, MSI Unify X570

IDLE (Energieprofil: Stromsparend, Höchstleistung: kein Unterschied):
90-100 Watt (ohne LED-Beleuchtung 10Watt weniger)

Last:
Cyberpunk, WHQD, alles auf max:
RTX 3080 @ 2.1Ghz 1050Mv: 520-540W
RTX 3080 @ 1950Mhz 900Mv: 450-460W
RTX 3080 @ 1700Mhz 750Mv: 355-365W

Erstaunlicherweise konnte ich keine Spitzen feststellen. Das Strommessgerät zeigt auch den Livestromverbrauch an.

Über den IDLE Verbrauch bin ich gar nicht erfreut, das ist einfach nur schlecht bei 1-2% CPU-Auslastung.


Jetzt sehe ich schon mein nächstes Abenteuer in dem Bereich kommen. :ucrazy2:
Damit würde ja Hoffnung bestehen eine RTX3080 mit nem 500W Netzteil zu betreiben (versuchen, wenn ich eine Karte hätte :redface:) :freak:

Sardaukar.nsn
2020-12-23, 20:00:22
Bei mir ist es jetzt kurz vor Weihnachten auch noch die Suprim X geworden. Die ersten Eindrücke sind sehr positiv. Leider läuft sie mit meinem Seasonic Focus 550W nur halbherzig. Nach kleinem UV auf 0.950v aber stabil über 2ghz. Keine Sorge, neues Netzteil (GX 850) ist unterwegs.



Ein bisschen Tetris im Meshify S2
https://i.ibb.co/F6YpHN3/IMG-20201222-112642.jpg

Die aktuelle Steilkurve
https://i.ibb.co/GRMstP8/UV-0950-2010-1.jpg

Für Luftkühlung super Temperatur unter Last
https://i.ibb.co/mHhCxsV/superposition-2020-12-22-07-27-54-803.jpg



Kleine Anekdote von gestern Abend. Neben aktuellen Spielen zocke ich an einem Abend in der Woche noch WoW Classic im 40er Raid. Gestern in Naxxramas bei den "Four Horsemen" sind plötzlich die Lüfter stehen geblieben, ich dachte schon es wäre etwas kaputt.
Im Gegenteil, einen Raid in 144hz, 1440p Ultrawide mit 40 Spielern bekommt die Suprim auch passiv gekühlt ;) https://i.ibb.co/5Fhz0VD/IMG-20201222-204011.jpg

vinacis_vivids
2020-12-25, 15:54:21
Ich weiß nicht so recht was aus dieser Karte werden soll.
Erinnert mich an die GTX980 - 4GB, teuer, viel Chipleistung aber zu wenig Speicher.
AMD hatte damals die R9 390 - 8GB. Welche Karte besser altert, ist wohl klar.

Ähnliches Spielchen jetzt 3080 mit nur 10GB während die 6800 mit 16GB kommt. Welches Karte besser altert, dürft ihr jetzt schon erraten.

Nvidia schneidet sich mit dem "quasi Speicherkrüppel" selbst ins Fleisch. Da hilft das ganze Gedöns mit DLSS oder RT gar nichts. Aber gut, für ein paar Kids, die nach paar Monaten die GPU wechseln isses ein gutes Spielzeug.

Bei der Speicherverwaltung bzw. Beschneidung des SI muss Nvidia umdenken,.

][immy
2020-12-25, 16:22:06
Ich weiß nicht so recht was aus dieser Karte werden soll.
Erinnert mich an die GTX980 - 4GB, teuer, viel Chipleistung aber zu wenig Speicher.
AMD hatte damals die R9 390 - 8GB. Welche Karte besser altert, ist wohl klar.

Ähnliches Spielchen jetzt 3080 mit nur 10GB während die 6800 mit 16GB kommt. Welches Karte besser altert, dürft ihr jetzt schon erraten.

Nvidia schneidet sich mit dem "quasi Speicherkrüppel" selbst ins Fleisch. Da hilft das ganze Gedöns mit DLSS oder RT gar nichts. Aber gut, für ein paar Kids, die nach paar Monaten die GPU wechseln isses ein gutes Spielzeug.

Bei der Speicherverwaltung bzw. Beschneidung des SI muss Nvidia umdenken,.

Ist doch sinnvoll. Kann man später immer noch die Karten mit mehr Speicher verkaufen. Aktuell sind die ja schon teuer genug. Solange man alles verkauft, sieht NVIDIA da wohl kaum ein Problem. Das haben höchstens irgendwann die User. Aber an der rtx 3090 sieht man ja, daß der Speicher zumindest aktuell noch nicht zum Bremsklotz wird.

Asaraki
2020-12-25, 16:27:39
Die 3080 wird noch lange genug die nötige Performance liefern. Ihr tut hier immer so, als würden alle ständig im VRAM Limit hängen :D

Klar, es wird ein paar Titel geben in den nächsten Jahren, die auf der 3080 nur mit reduzierten Texturen laufen werden. Aber ob das Zeugs dann auf einer 6800 überhaupt noch interessant läuft, das kann dir aktuell niemand sagen.

Meine 3080 wird auf jeden Fall noch sehr lange ihren Dienst leisten. Denke die wird 2021 dann an die Freundin weitergegeben und wenn ich von ihr iiirgendwann höre, dass der Speicher zu knapp ist, dann schenk ich VV einen Hunderter ^^ Das wird sie nicht im geringsten merken und damit ist sie für den Grossteil der Gamer halt repräsentativer als "wir" ;)

Und btw VV... DLSS hilft durchaus bei VRAM Mangel ;) Das Gedöns wird so etwa das sein, woran AMD am härtesten arbeitet um ihren Leuten auch dieses Gedöns anzubieten :D Perspektiven haben manche Menschen ^^

eratte
2020-12-25, 16:59:41
Meine 3080 wird auf jeden Fall noch sehr lange ihren Dienst leisten. Denke die wird 2021 dann an die Freundin weitergegeben

Muhahahaha - was eine Aussage.

Complicated
2020-12-25, 17:28:39
DLSS hilft durchaus bei VRAM Mangel ;)
Könntest du das irgendwie erläutern/belegen?
Davon höre ich nun das erste mal.

ChaosTM
2020-12-25, 17:44:32
Man kann mit der Auflösung runter gehen und DLSS die Sache hochrechnen lassen, dann braucht man etwas weniger VRAM bei einigen Spielen.
Das ist natürlich kein richtiger Ersatz für echten Speicher aber man fühlt sich sicherer mit seinen 10GB...

hq-hq
2020-12-25, 17:58:33
Könntest du das irgendwie erläutern/belegen?
Davon höre ich nun das erste mal.

DLSS 2.0 hilft ein wenig VRAM zu sparen:
Cyberpunk 1440p nativ 8689 MByte
Cyberpunk 1440p DLSS 7873 MByte (DLSS Quality)

DLSS 1.0 hat mehr VRAM benötigt als ohne, ich weiss leider nicht mehr welches Spiel das war

Ex3cut3r
2020-12-25, 18:03:37
Muhahahaha - was eine Aussage.

Dachte ich auch grade, trollt er sich selbst? Sehr lange - sehr lange ist also glatt 1 Jahr schon? :uponder: Interessant diese Wegwerf Gesellschaft. :freak: :biggrin:

Naja, passiert halt, wenn man sich einen Briefbeschwerer für 1000€ mit 10GB holt. ^^

CP77 zeigt schon sehr gut, wohin die Reise geht. Das Game hat ein lächerliches LOD, wahrscheinlich weil seit 2015 nur 8GB im Peformance Segment verbaut wurden, und als Höhepunkt von Nvidia hat man die 3060 und die 3070 auch wieder mit 8GB ausgerüstet, klasse. So bremst der Marktführer halt systematisch besseres LOD/Texturen konsequent aus, um dann 2022 16GB einzuführen und sich selbst auf die Schulter zu klopfen, was Sie alles gutes tut. Und die Kundschaft wechselt sowieso wieder, weil 16GB auf einmal in jedem AAA Game (PS5 Zeitalter) eh gebraucht werden. Verarschung hoch zehn. ^^

Complicated
2020-12-25, 18:43:36
Man kann mit der Auflösung runter gehen und DLSS die Sache hochrechnen lassen, dann braucht man etwas weniger VRAM bei einigen Spielen.
Das Berechnen mit kleinerer Auflösung nennt sich nicht DLSS.
Daher spart DLSS auch keinen VRAM - upsampling ist ein alter Hut und kann mit vielen AA-Methoden genutzt werden.

Upsampling (VRAM kleiner)+DLSS (Deep Learning Super Sampling)
Upsampling (VRAM kleiner)+beliebiges Supersampling (https://de.wikipedia.org/wiki/Antialiasing_(Computergrafik)#Postfiltering_und_Punktabtastung)

Wer macht daraus bitte "DLSS verringert den VRAM"? Hier werden Eigenschaften einer anderen Technik DLSS zugeschrieben.
Oder spart TAA, FXAA etc. auch VRAM? Ich habe das noch nie jemanden behaupten hören.

r3ptil3
2020-12-25, 19:14:48
In Zeiten wie heute, ist es schlicht egal ob man eine 6800/6900 oder eine RTX 3080 hat, was zählt ist, ob man überhaupt eine hat.

Und das Speicherthema ist langsam richtig langweilig. Es gibt halt nicht nur schwarz und weiss bei einem solchen Kauf. Man kann genau so gut zahlreiche exotische Titel nehmen, wo die 3060 Ti/3070 eine 6900 XT alt aussehen lassen, deutlich schwieriger ist es aber Titel zu nennen, welche durch die 10Gb einen spürbaren Nachteil ergeben.

Ich als 3080 Besitzer störe mich an den 10Gb aktuell überhaupt nicht, viel mehr nervt mich der abartige Verbrauch der GPU mit OC von über 400Watt, der dann gesamthaft in einem Verbrauch von bis zu 550W resultiert - das ist viel, zu viel.

Mit Undervolting bin ich für das ganze System bei etwa 350-370W angekommen, was ok ist bei 1850Mhz.

hq-hq
2020-12-25, 20:21:35
Das Berechnen mit kleinerer Auflösung nennt sich nicht DLSS.
Daher spart DLSS auch keinen VRAM - upsampling ist ein alter Hut und kann mit vielen AA-Methoden genutzt werden.

Upsampling (VRAM kleiner)+DLSS (Deep Learning Super Sampling)
Upsampling (VRAM kleiner)+beliebiges Supersampling (https://de.wikipedia.org/wiki/Antialiasing_(Computergrafik)#Postfiltering_und_Punktabtastung)

Wer macht daraus bitte "DLSS verringert den VRAM"? Hier werden Eigenschaften einer anderen Technik DLSS zugeschrieben.
Oder spart TAA, FXAA etc. auch VRAM? Ich habe das noch nie jemanden behaupten hören.

da DLSS aber halt mal immer eine kleinere Auflösung verwendet als die native spart zumindest DLSS2.0 immer VRAM ein, ausser es gäbe mal einen Mode über Quality

Ex3cut3r
2020-12-25, 20:33:46
https://www.computerbase.de/2020-12/asus-geforce-rtx-3080-ti-rog-strix-20-gb/

Asus bestätigt 3080 Ti mit Satten 20GB. 3080 Krüppel damit obsolet.

r3ptil3
2020-12-25, 20:36:03
https://www.computerbase.de/2020-12/asus-geforce-rtx-3080-ti-rog-strix-20-gb/

Asus bestätigt 3080 Ti mit Satten 20GB. 3080 Krüppel damit obsolet.

Wenn die UVP bei 1000$ liegt, dann ist die 3080 alles andere als obsolet...

Asaraki
2020-12-25, 20:41:46
Das Berechnen mit kleinerer Auflösung nennt sich nicht DLSS.
Daher spart DLSS auch keinen VRAM - upsampling ist ein alter Hut und kann mit vielen AA-Methoden genutzt werden.

Upsampling (VRAM kleiner)+DLSS (Deep Learning Super Sampling)
Upsampling (VRAM kleiner)+beliebiges Supersampling (https://de.wikipedia.org/wiki/Antialiasing_(Computergrafik)#Postfiltering_und_Punktabtastung)

Wer macht daraus bitte "DLSS verringert den VRAM"? Hier werden Eigenschaften einer anderen Technik DLSS zugeschrieben.
Oder spart TAA, FXAA etc. auch VRAM? Ich habe das noch nie jemanden behaupten hören.

Da du aktuell DLSS nicht ohne Upsampling einsetzen kannst ist dein ganzes Gerede völlig belanglos :)
Also war dir das schon klar, als du meine ursprüngliche Aussage bestritten hast und du wolltest nachher nur cool daherkommen und das hier erzählen?

Ach bitte - steh früher auf :D

Muhahahaha - was eine Aussage.
Die Karte wird bei mir an die Leistungsgrenzen kommen / ist sie ja schon - aber nicht wegen des VRAM ;-) Dazu kommt, dass ich meine eigentlich unter Wasser setzen will, was ich aber mit der 3080FE nicht tun werde.

Complicated
2020-12-25, 20:49:01
Du meinst da man DLSS nicht wie andere AAs auf jeder beliebigen Auflösung und auch ohne Upsampling nutzen kann. Ist dass jetzt ein Feature von DLSS - interessante Argumentation. DLSS spart kein VRAM, sondern nutzt zwangsweise Upsampling, welches VRAM spart weil es eine kleinere Auflösung nutzt.

Nur wie viel VRAM kostet denn DLSS dann wieder zusätzlich und verbraucht VRAM gegenüber der real gerenderten Auflösung? Mess das doch mal nach und vergleiche: 4K vs WQHD vs 4k+DLSS (WQHD+AA)

Complicated
2020-12-25, 20:50:45
Also war dir das schon klar, als du meine ursprüngliche Aussage bestritten hast und du wolltest nachher nur cool daherkommen und das hier erzählen?

Natürlich war mir das klar, dass du DLSS fälschlicherweise für VRAM-sparend hältst. Nur hätte ja sein können, dass mir etwas entgangen ist. Dir war aber auch klar, dass die reduzierte Auflösung den VRAM spart und hast technisch falsch DLSS eine Eigenschaft zugeschrieben die du nicht belegen kannst. Es ist ziemlich egal wann ich da aufstehe ;)

aufkrawall
2020-12-25, 20:57:28
"DLSS + Upscaling" ist defakto eine Tautologie, ist dein Logikverständnis wirklich derart beschränkt?

Sardaukar.nsn
2020-12-25, 21:25:19
Meine Suprim X schlägt sich bisher ganz gut. Nach etwas Tüfteln und Testen im MSI Afterburner bin ich inzwischen bei 1.000v und 2100mhz als Ziel gelandet. Mit 420W in der Spitze natürlich recht durstig, aber gerade noch im Power Limit (430W). Der Kühler steckt das erstaunlich gut weg, Chapeau! MSI. Ein Wasserblock ist aber trotzdem schon vorbestellt ;)

Time Spy GPU score aktuell knapp über 19k. Das sind ca. +90% zu meiner wassergekühlten 2ghz 1080ti. Ein solides Upgrade bei der für mich relevanten 1440p DX12 Rohleistung.

https://i.ibb.co/0ryL9rx/max1.jpg

Link: https://www.3dmark.com/3dm/55525339?

Complicated
2020-12-25, 21:29:15
"DLSS + Upscaling" ist defakto eine Tautologie, ist dein Logikverständnis wirklich derart beschränkt?
Nein das ist es nicht und "DLSS+Upscaling" ist keine Tautologie - ist dein Sprachverständnis wirklich derart beschränkt?
Frohe Weihnachten übrigens, hast du den Baum schon umgekickt?

DLSS= Deep Learning Super Sampling-Technologie.
Das Upscaling ist eine eigene Technologie, die es schon lange gibt. Das ist jetzt schon einige Beiträge vorher geklärt worden.

Das ist doch noch ein technisches Forum, oder?
Oder spart TAA, FXAA etc. auch VRAM? Ich habe das noch nie jemanden behaupten hören.

Dr.Doom
2020-12-25, 21:38:29
Das ist doch noch ein technisches Forum, oder?Hardware und gegenseitges Beleidigen halten sich mittlerweile die Waage.

aufkrawall
2020-12-25, 21:48:54
Das Upscaling ist eine eigene Technologie, die es schon lange gibt. Das ist jetzt schon einige Beiträge vorher geklärt worden.

Du meinst dein Festhalten an deinem Standpunkt, wo offenbar niemand mitgehen will? :freak:
Wenn die Rede von DLSS ist, wird sich hier so etwas wie eine informelle Verständigung darüber feststellen lassen, dass das gemeint ist, was Nvidia so nennt. Irgendwelche Belehrungen über DL-Scaler im Allgemeinen sind an dieser Stelle einfach nur grotesk weltfremdes OT-Gelaber... :facepalm:

Complicated
2020-12-25, 22:00:48
Du meinst dein Festhalten an deinem Standpunkt, wo offenbar niemand mitgehen will? :freak:
Mitgehen? Da gibt es nichts mitzugehen. Es entscheiden die Quellen - hast du eine, die Nvidia mit der Definition von DLSS widerlegt?
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-your-questions-answered/
Q: Why don’t I just use upscaled TAA instead?

A: Depending on the resolution, quality settings, and game implementation, some may prefer TAA in one game and DLSS in another.

The game industry has used TAA for many years and we know that it can fall down in certain ways. TAA is generated from multiple frames and can suffer from high-motion ghosting and flickering that DLSS tends to handle better.

Mein Hinweis war deshalb, weil hier einige auf dem falschen Zug unterwegs waren bei der VRAM-Frage. Du kannst ja gerne weiter darauf beharren, dass je öfter man einen Begriff falsch verwendet (der klar definiert ist) desto besser.

DLSS ist auch der Weihnachtsmann und Postbote in einem, wenn es nach dir geht. Tautologie....:freak:
Dafür, dass du keine Ahnung hast willst du aber viele Definitionen deinem ahnungslosen Sprachgebrauch anpassen.

hq-hq
2020-12-25, 23:30:34
es ging aber doch um die Frage ob man unter Verwendung von DLSS VRAM einsparen kann und aktuell ist das (bei DLSS2.0) immer der Fall weil es keinen Mode über Q gibt
das es nicht "direkt" an DLSS liegt sondern an der verringerten Renderauflösung ...

ein HQ Mode in nativer Auflösung fehlt leider noch, Treiber hack ?:biggrin:

Asaraki
2020-12-25, 23:47:18
Oh boy, nobody cares :D
Complicated geh mal raus aus dem 3080 Review Thread und mach dir einen eigenen Thread auf...

Complicated
2020-12-26, 00:20:50
es ging aber doch um die Frage ob man unter Verwendung von DLSS VRAM einsparen kann und aktuell ist das (bei DLSS2.0) immer der Fall weil es keinen Mode über Q gibt
das es nicht "direkt" an DLSS liegt sondern an der verringerten Renderauflösung ...

ein HQ Mode in nativer Auflösung fehlt leider noch, Treiber hack ?:biggrin:
Nur spart DLSS eben keinen VRAM, egal wie oft du das noch behauptest. TAA spart den ebenso ein mit upscaling, und FXAA und SSAA etc. etc. Weil eben die reduzierte Auflösung den VRAM einspart - auch ohne DLSS.

Oh boy, nobody cares :D
Complicated geh mal raus aus dem 3080 Review Thread und mach dir einen eigenen Thread auf...
Du kannst wo anders den Türsteher spielen - das ist ein Forum hier.

Als ob das nicht offensichtlich ist warum hier manche auf der Haltung beharren, bei der VRAM-Schwäche die Ampere bisher im Portfolio hat. Es ist allerdings für alle, die sich eine GPU kaufen wollen nicht unerheblich zu wissen, dass DLSS hier kein Zusatzfeature bietet, mit dem man VRAM einspart, gegenüber anderen Supersampling verfahren.
DLSS ist lediglich das einzige Supersampling, das ohne upscaling überhaupt nicht funktioniert - im Gegensatz zu allen anderen Supersampling Methoden. Hier wird versucht aus einem Defizit einen Mehrwert darzustellen mit semantischen Spielereien. Das traut sich ja nicht mal Nvidias eigenes Marketing.
Womit habt ihr euch denn die letzten Jahre beschäftigt rund um Bildqualität in eurer Höhle? Nvidia muss nur 2 Schalter entfernen im Treiber und die Funktionen mit DLSS Zwangsverbinden und schon wird upscaling zum DLSS Feature? Weil man ohne DLSS die niedrigere Auflösung, oder eben auch nicht, selber einstellt auf ein und der selben GPU?

hq-hq
2020-12-26, 00:55:31
Nur spart DLSS eben keinen VRAM, egal wie oft du das noch behauptest. TAA spart den ebenso ein mit upscaling, und FXAA und SSAA etc. etc. Weil eben die reduzierte Auflösung den VRAM einspart - auch ohne DLSS.

Wenn du mir diese Frage beantworten könntest: kann ich DLSS 2.0 verwenden ohne das der VRAM-Verbrauch sinkt?

just4FunTA
2020-12-26, 01:45:58
Du sparst doch kein vram ein du benutzt nur eine niedrigere Auflösung..

Klar brauchst du mit 1080p upscaled to4K weniger vram als mit nativen 4K..

DrFreaK666
2020-12-26, 01:51:31
Wieso schaut ihr nicht einfach was Afterburner anzeigt, oder ist es zu ungenau?

Birdman
2020-12-26, 02:30:21
Du sparst doch kein vram ein du benutzt nur eine niedrigere Auflösung..
Klar brauchst du mit 1080p upscaled to4K weniger vram als mit nativen 4K..
Du erkennst das Funktionsprinzip von DLSS und wiedersprichst Dir trotzdem selbst?
Dass man durch DLSS eine niedrigere Auflösung bei gleicher Bildqualität nutzen kann, ist ja der ganze Sinn und Zweck von DLSS.
Und damit einher gehen dann die ganzen Vorteile mit der besseren Performance und dem geringeren RAM Verbrauch.
Da dies eine Kausalität von DLSS ist, ist die Aussage von "man spart RAM" eben auch korrekt

CompuJoe
2020-12-26, 02:47:26
Der Impact wenn Google Chrome oder ein anderer Browser im Hintergrund aktiv ist wenn man mehrere Bildschirme mit unterschiedlichen Frequenzen nutzt.
Das dritte Bild ist mit etwas UV (2025Mhz@ 950mV und memoc +500Mhz bei unter 65°c GPU)

Complicated
2020-12-26, 10:21:35
Da dies eine Kausalität von DLSS ist, ist die Aussage von "man spart RAM" eben auch korrekt
Weil DLSS nicht ohne reduzierte Auflösung funktioniert ist es nicht die Kausaltät von DLSS. Es ist die Kausalität von der reduzierten Auflösung. Du verwechselst hier Ursache und Wirkung. DLSS ist zwar abhängig von der reduzierten Auflösung, jedoch nicht verantwortlich (Kausalität) für den reduzierten RAM-Verbrauch. Das nennt sich Korrelation. Der RAM Verbrauch sinkt bei Nutzung von DLSS, jedoch nicht wegen DLSS. Genau von diesem Fehlschluß spreche ich ja.

Durch Supersampling kann der VRAM Bedarf nicht sinken. Nur kann DLSS nicht funktionieren, wenn man nicht die Auflösung zuerst reduziert.

Asaraki
2020-12-26, 11:51:18
Der Impact wenn Google Chrome oder ein anderer Browser im Hintergrund aktiv ist wenn man mehrere Bildschirme mit unterschiedlichen Frequenzen nutzt.
Das dritte Bild ist mit etwas UV (2025Mhz@ 950mV und memoc +500Mhz bei unter 65°c GPU)

Jo hab ich auch hier, zwar nicht gebencht, aber ich merk es sofort wenn ich zocke und nebenbei den zweiten Monitor laufen lasse xD Frametimes aus der Hölle ^^

hq-hq
2020-12-26, 13:42:39
ja super, dank Complicateds Ausführungen ist klar, daß sich VRAM einsparen lässt wenn man DLSS aktiviert, das kann einem mit der 3080 10GB schon mal helfen sollten die 10GB nicht mehr ausreichen. In Cyberpunk spart man damit rund 10% im Q Mode, die Modis darunter sind zu schlecht.

ein "HQ" Mode in nativ gerenderter Auflösung wäre feierlich :freak:

CompuJoe
2020-12-26, 13:51:23
Jo hab ich auch hier, zwar nicht gebencht, aber ich merk es sofort wenn ich zocke und nebenbei den zweiten Monitor laufen lasse xD Frametimes aus der Hölle ^^

Ich frage mich seit wann das so ist, ich habe oft einen Stream nebenbei laufen, auch diese wird wenn man zockt nicht mehr flüssig Dargestellt, das war mal anders, wer hat da was verbockt?

Lurtz
2020-12-26, 19:50:25
Der Impact wenn Google Chrome oder ein anderer Browser im Hintergrund aktiv ist wenn man mehrere Bildschirme mit unterschiedlichen Frequenzen nutzt.
Wie sieht das bei nur einem Monitor aus?

Asaraki
2020-12-26, 20:06:57
Wie sieht das bei nur einem Monitor aus?

Nie intensiv ausgelotet, aber das deaktivieren des zweiten Monitors bringt instant Abhilfe. Nehme an dann geht das komplett in den Hintergrund. Oder meinst du wenn es noch zu sehen wäre (Window & Window)?

CompuJoe
2020-12-26, 21:47:01
Wenn die Bildschirme aus sind ist der Impact minimal bis gar nicht vorhanden.
Laufen alle Monitore auf 60Hz ist es auch nur minimal, es ruckeln auch keine Videos oder Streams die nebenbei laufen, aber sobald ein Monitor mit den Frequenzen abweicht ist es kacke.

Der Verursacher ist der Desktopfenster-Manager, der spiket immer mal auf bis zu 50% GPU-Auslastung

La Junta
2021-01-16, 12:19:59
Ich hatte am Do. meine Inno3D GeForce RTX 3080 iChill Frostbite bekommen . Hab extra frei genommen am Nachmittag um die Karte einzubauen nur um festzustellen das die Karte wohl defekt ist :( . Wenn ich die einfach nur benutzen will = instant ctd sobald ich ingame komme (egal welches Game) . Stelle ich per MSI AB selber per Kurve die Taktrate ein , läufts . Nur habe ich da sowas wie eine Hardwall für den Verbrauch = ca. 280W . Ich hatte schon das Zotac Bios mit 380W geflasht und alles hat keine Auswirkung , immer das gleiche . Ich habe extra mal mit etwas mehr V die Karte in cyberpunk2077 laufen lassen und GPU Z lief nebenbei . Immer ca.280W Limit bei eigendlich nur ca. 80% TDP ....
https://abload.de/thumb/powerxtkxq.png (https://abload.de/image.php?img=powerxtkxq.png)

Edit : Bevor Fragen kommen. Hab ein anderes NT getstet , ein NT nur für die Graka und rest mit dem normalen NT , div. Graka Bioses , Mainboard Bios auf Setup Defaults , div. Treiber , Windows heute komplett neu installiert , ins untere PCI X Slot die Graka gesteckt , eine andere Graka in meinem PC gestestet u.s.w

Schnoesel
2021-01-16, 14:29:54
Welches NT? Bei einem Multirail immer verschiedene Rails nutzen, sonst schaffen das auch die stärksten NTs nicht. Ein Rail hat z.B. bei meinem 1000Watt NT zu Blackscreens geführt. Und meine Karte läuft "nur" @350Watt.

BlacKi
2021-01-16, 15:02:03
Stelle ich per MSI AB selber per Kurve die Taktrate ein , läufts .


das riecht einfach heftig nach NT. durch die angepasste kurve sind die spikes praktisch nicht mehr vorhanden.

La Junta
2021-01-16, 15:14:31
Ich hab ja schon oben geschrieben das ich 2 Netzteile getestet habe und bei beiden das selbe . Hab sogar die Graka alleine an nem Netzteil gehabt und den rest der Hardware am anderen . Zudem inwiefern erklärt das diese 280W Power Limit Sache ??

https://abload.de/thumb/16108064982803bj46.jpg (https://abload.de/image.php?img=16108064982803bj46.jpg) <-- wenn ein 750W Corsair RM NT nur für die Graka alleine nicht genügt , dann weiss ich echt nicht weiter ...

BlacKi
2021-01-16, 15:27:42
stelle mal deine voltage curve auf 1800 bei 0,8(5) und ziehe ruhig mal das PT nach oben. schau mal ob das stabil läuft.

schnoesel hat nach dem 2.NT gefragt. edit: das bild erklärts.

Lowkey
2021-01-16, 15:31:53
Ist das ein AMD oder Intel system?

La Junta
2021-01-16, 15:36:54
Ist das ein AMD oder Intel system?
Ist ein Intel 9900K . http://www.sysprofile.de/id100500 <- Bis auf die Graka


Das 2t NT ist ein Corsair HX850i , das ist auch eigendlich mein NT . Der 750W Corsair RM hatte ich einfach noch rumliegen . Hab sogar noch ein neu verpacktes Seasonic 650W , ich bezweifle jedoch immer noch das es am NT liegt .

Edit : Die graka läuft mit 2000MHZ bei 0.925V , aber eben bis die ca. 280W nicht erreicht sind . Dann taktet die natürlich leicht runter , PT ist dabei sogar bei 110% mit dem Zotac Bios ( ca. 374W) . Ich kann machen was ich will , die Graka geht nicht über die 280W hinaus

https://abload.de/thumb/cyberpunk2077_2021_01injr4.png (https://abload.de/image.php?img=cyberpunk2077_2021_01injr4.png) <- 1800MHZ bei 0.8V , verbraucht nur ca. 200W

Asaraki
2021-01-16, 15:48:27
Ist ein Intel 9900K . http://www.sysprofile.de/id100500 <- Bis auf die Graka


Das 2t NT ist ein Corsair HX850i , das ist auch eigendlich mein NT . Der 750W Corsair RM hatte ich einfach noch rumliegen . Hab sogar noch ein neu verpacktes Seasonic 650W , ich bezweifle jedoch immer noch das es am NT liegt .

Edit : Die graka läuft mit 2000MHZ bei 0.925V , aber eben bis die ca. 280W nicht erreicht sind . Dann taktet die natürlich leicht runter , PT ist dabei sogar bei 110% mit dem Zotac Bios ( ca. 374W) . Ich kann machen was ich will , die Graka geht nicht über die 280W hinaus

https://abload.de/thumb/cyberpunk2077_2021_01injr4.png (https://abload.de/image.php?img=cyberpunk2077_2021_01injr4.png) <- 1800MHZ bei 0.8V , verbraucht nur ca. 200W

Ich würd auch sagen, das Ding ist kaputt. Da stimmt was nicht... ich kann dir zwar auch sagen, dass die 3080 über ~270W sowieso nur noch marginal an Leistung gewinnt und die real vermutlich keine Einbussen hast, da du die Kurve eh ungefähr dahin regeln wirst. Aber das Ding muss trotzdem ersetzt werden - was natürlich übel anpisst :/

La Junta
2021-01-19, 17:28:16
Ich würd auch sagen, das Ding ist kaputt. Da stimmt was nicht... ich kann dir zwar auch sagen, dass die 3080 über ~270W sowieso nur noch marginal an Leistung gewinnt und die real vermutlich keine Einbussen hast, da du die Kurve eh ungefähr dahin regeln wirst. Aber das Ding muss trotzdem ersetzt werden - was natürlich übel anpisst :/
Ich hab schon RMA angemeldet und die Graka geht morgen zum Händler zurück . Ich hoffe das es nicht so lange geht bis die zurückkommt . Ka woran das liegt , aber der Kühler ist nicht so sauber montiert . Ich sehe Pads wo laut der Anleitung von Alphacool keine sein sollten , wiederum gits es PAds die herunterhängen , 1cm drüberausschauen u.s.w . Ich hab mal im Hardwareluxx den Inno3D Marketingmensch gefragt ob ich den Kühler selber kurz runternehmen kann um die Pads richtig zu Montieren und als Antwort bekamm ich nur eine RMA Anleitung :( . Naja , was solls .

BlacKi
2021-01-19, 17:32:05
Ich hab schon RMA angemeldet und die Graka geht morgen zum Händler zurück . Ich hoffe das es nicht so lange geht bis die zurückkommt . Ka woran das liegt , aber der Kühler ist nicht so sauber montiert . Ich sehe Pads wo laut der Anleitung von Alphacool keine sein sollten , wiederum gits es PAds die herunterhängen , 1cm drüberausschauen u.s.w . Ich hab mal im Hardwareluxx den Inno3D Marketingmensch gefragt ob ich den Kühler selber kurz runternehmen kann um die Pads richtig zu Montieren und als Antwort bekamm ich nur eine RMA Anleitung :( . Naja , was solls .
das mit den schief aufgelegten pads kennt man schon aus dem 3090 thread. das ist ärgerlich und eine schande, weils wohl nicht nur einzelfälle sind.

La Junta
2021-01-19, 17:38:26
das mit den schief aufgelegten pads kennt man schon aus dem 3090 thread. das ist ärgerlich und eine schande, weils wohl nicht nur einzelfälle sind.
Sowas dürfte eigendlich nicht sein , aber es scheint häufiger vorzukommen . Es ist wirklich eine Schande bei den preisen ...
https://abload.de/thumb/222jzjcs.png (https://abload.de/image.php?img=222jzjcs.png) https://abload.de/thumb/333ixjy7.png (https://abload.de/image.php?img=333ixjy7.png) https://abload.de/thumb/4444cjrq.png (https://abload.de/image.php?img=4444cjrq.png) https://abload.de/thumb/555v6j91.png (https://abload.de/image.php?img=555v6j91.png) https://abload.de/thumb/666pqk5l.png (https://abload.de/image.php?img=666pqk5l.png)
Edit: Es ist schwierig das ganze auf Photos aufzuzeigen , aber z.B links vom VRM sollte kein weiteres Pad sein , diejenigen die auf der einen Seite drüberausschauen sind dementsprechend zu kurz auf der anderen u.s.w

TheCounter
2021-01-22, 09:10:21
Ich hab gestern meine neue PNY RTX3080 unter Wasser gesetzt und verbaut. Mit dem Heatkiller sieht das Teil verdammt sexy aus :love:

https://i.ibb.co/ZJzXFz9/IMG-20210120-172620-01.jpg (https://ibb.co/ZJzXFz9)

Heute dann das erste mal zocken damit, freu mich schon auf den Feierabend :biggrin:

gbm31
2021-02-17, 12:54:17
Hotspot und Speichertemperaturen jetzt auch bei NV: https://www.igorslab.de/community/threads/auch-die-nvidia-geforce-rtx-3000-serie-besitzt-eine-hotspot-temperatur-erste-messungen-und-der-vergleich-mit-amd.4467/

Blase
2021-03-01, 09:41:30
Moin,

bin mit meiner ASUS TUF RTX3080 GAMING OC hier ein Nachzügler, habe sie erst im Februar (Oktober bestellt) bekommen.

Habe sie bisher einfach eingebaut und los gespielt. Hängt an einem 600er Netzteil an einem Strang mit beiden Anschlüssen und macht bisher keine Probleme.

Nun würde ich mich gerne in die UV Materie einarbeiten. Gibt es hier Empfehlungen oder Anleitungen dazu? Habe den MSI Afterburner zwar drauf, aber mich noch nicht viel damit beschäftigt. Nutze ihn aktuell nur, um mir im Spiel das Overlay mit den nötigen Informationen anzeigen zu lassen.

Die Karte hat ja einen Schalter, welcher die Karte wahlweise im Silent Modus oder im OC Modus betreibt. Läuft aktuell im OC Modus.

Gibt es hier andere, aktuellere Bios Versionen, die zu bevorzugen sind?

Würde gerne den für mich besten Kompromiss aus Leistung und Leistungsaufnahme finden - wobei der Fokus schon auf Leistung liegt. Der 4K @120 Hz Fernseher will ja befeuert werden :)

MfG Blase

w0mbat
2021-03-01, 11:52:36
Würde gerne den für mich besten Kompromiss aus Leistung und Leistungsaufnahme finden
Dann würde ich mal mit dem silent BIOS anfangen.

r3ptil3
2021-03-01, 12:02:35
@Blase

1. MSI Afterburner installieren (aktuelle Version)
2. Core-Clock auf etwa "-300 Mhz" stellen
3. CTRL-F
4. Ich würde jetzt bei 800Mv anfangen und den Takt fix einstellen auf z.B. 1750Mhz
5. Testen ob alles Stabil läuft (Time Spy Extreme, 2. GPU Test)
6. Falls stabil, Core Clock um 50Mhz erhöhen.
7. Sobald du einen Crash hast, kannst du ja dann leicht mit dem Core Takt zurückfahren

Das gleiche kannst du auch mit 850, 900, 950Mv usw. testen.

Viel Spass und Glück, dass du einen guten Chip erwischt hast. :D

Blase
2021-03-01, 13:20:31
Danke euch beiden!

Also das Silent Bios als Ausgangslage und dann darauf basierend die Schritte von bardh?

Woran hängt "eine 3080" eigentlich nach aktueller Erfahrungslage? Limitiert das max. Powerlimit? Oder die Temperatur? Dann wären mit einem UV ja vielleicht sogar bessere Taktraten und damit eine höhere Gesamtgeschwindigkeit drin, oder?

Der Speichertakt soll ja ganz ordentlich nach oben zu treiben sein, im Gegensatz zum Chiptakt. Profitiert denn die Karte von einem erhöhten Speichertakt? Also ist ne 3080 eher Bandbreiten-limitiert?

Ist denn der Speichertakt (einigermaßen) unabhängig von den beschriebenen UV Maßnehmen? Oder wie verhält es sich bezüglich Chip- und Speichertakt?

MfG Blase

Thunder99
2021-03-01, 13:32:02
Ist Power limitiert. Das Ding säuft ohne Ende wenn man es lassen würde/könnte...

r3ptil3
2021-03-01, 13:36:56
Danke euch beiden!

Also das Silent Bios als Ausgangslage und dann darauf basierend die Schritte von bardh?

Woran hängt "eine 3080" eigentlich nach aktueller Erfahrungslage? Limitiert das max. Powerlimit? Oder die Temperatur? Dann wären mit einem UV ja vielleicht sogar bessere Taktraten und damit eine höhere Gesamtgeschwindigkeit drin, oder?

Der Speichertakt soll ja ganz ordentlich nach oben zu treiben sein, im Gegensatz zum Chiptakt. Profitiert denn die Karte von einem erhöhten Speichertakt? Also ist ne 3080 eher Bandbreiten-limitiert?

Ist denn der Speichertakt (einigermaßen) unabhängig von den beschriebenen UV Maßnehmen? Oder wie verhält es sich bezüglich Chip- und Speichertakt?

MfG Blase

Bei den guten Customs (TUF, Strix, Suprim, FTW3) ist eigentlich nur das Powerlimit limitierend, speziell bei der TUF, da dort das Powerlimit am tiefsten ist zwischen diesen Karten.

Bei den Customs mit 400W+ Powerlimit geht die Kühlung halt auf Lasten der Lautstärke, kühlbar sind die Karten aber auch mit 450W (Strix bspw.).

Nicht unwahrscheinlich, dass deine Karte mit geringerer Spannung und höheren Taktraten als default laufen könnte, ja.

Die RTX 3080 hat ja so schon eine extreme Speicherbandbreite, aber ja in gewissen Benchmarks und spielen, bringt selber Speicher-OC noch etwas.

Musst halt immer beachten, dass VRAM-OC einen nicht ganz unerheblichen Einfluss auf den Verbrauch hat, sprich den OC-Chip-Takt beeinflussen könnte.

r3ptil3
2021-03-26, 12:50:49
Mal ein paar UV/OC Ergebnisse einer Strix RTX 3080 (White):

2005 Mhz / 900mv
1956 Mhz / 850mV
2060 Mhz / 950mV
2100 Mhz / 975Mv

Bisher taktete die Karte stabil bis 2140Mhz.

Lässt sich von allen bisher genutzten 3080er (Suprim, Strix black, Gaming OC, GamingX) am besten Takten, gerade mit reduzierter Spannung.

Was mir aber auffällt ist, dass selbst bei geringeren Taktraten (1800-1900Mhz) der Verbrauch relativ hoch bleibt (270-340W). Ich habe hier in Erinnerung, dass bspw. die SuprimX bei den Taktraten einen tieferen Verbrauch hatte.

Wuge
2021-03-26, 13:25:54
Low ASIC Chip. Schaltet bei niedriger Spannung schnell aber säuft. Am Ende ist entscheidend welchen Takt Du bei gewünschtem (bzw. maximalem) Powerlimit raus bekommst. Da kann ein scheinbar schlechter Chip (der mehr Spannung für den Takt braucht) sogar besser wegkommen als ein Säufer. Machst Du das Powerlimit auf und kannst entpsrechend kühlen, ist so ein Leakage Monster super zu takten.

NikLaw
2021-03-26, 13:28:02
Bin zu dem Schluss gekommen, dass 1815 MHz bei 825 mV für mich der Sweetspot ist. Damit ist die Karte leise und schnell. Für 1920 MHz muss ich schon auf 925 mV gehen, dann geht die Temperatur hoch und die Lautstärke auch, meistens nicht mehr als 2, 3 FPS mehr..