Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - verfrühter GeForce RTX 3080 Review-Thread (mit viel Spam)
r3ptil3
2020-09-09, 20:50:37
Doch die 3080 ist sehr wohl der Nachfolger als beschnittener Big Chip.
Titan RTX ---> RTX 3090
RTX 2080Ti ---> RTX 3080
RTX 2080 ---> RTX 3070
Ergibt aber keinen Sinn wenn der Nachfolger weniger Speicher hat.
2080 Ti > 3090
2080S > 3080
...
Troyan
2020-09-09, 21:18:45
Doch die 3080 ist sehr wohl der Nachfolger als beschnittener Big Chip.
Titan RTX ---> RTX 3090
RTX 2080Ti ---> RTX 3080
RTX 2080 ---> RTX 3070
GA102 liegt zwischen TU104 und TU102. Die 3080 hat 19% weniger Recheneinheiten und 17% weniger Speichercontroller als der Vollausbau. So ein Chip wäre ~TU104 Größe. Die 3080 ist der klare Nachfolger der 2080(Super).
Die 3070 ist dagegen der klare Nachfolger der 2070. GA104 ist 10% kleiner und würde als Vollausbau bis zu 15% besser performen als die 3070 (38SM und 16gbit/s Speicher).
hq-hq
2020-09-09, 21:48:44
also wenn die 3d Mark Benchmarks echt sind wäre das schon... merkwürdig, in TimeSpy Extreme und PortRoyal hätte ich 40-80% mehr erwartet, egal ob eine 2080Ti ausgequetscht ist oder nicht...
der Unterschied wäre jetzt weniger als von meiner alten 1080Ti zur 2080Ti, klar gibt es Spiele wo die 2080Ti 50% schneller ist als die alte 1080Ti ... von der 3080 könnte man das dann eher nicht erwarten
-> fake
Linmoum
2020-09-09, 22:02:52
Ich glaube nicht, dass das großartig fake ist.
Someone leaked a test video of RTX3080 at Bilibili. The test is true.
https://twitter.com/kopite7kimi/status/1303682561340710915
Kimi dürfte mittlerweile vertrauenswürdig genug sein.
Screemer
2020-09-09, 22:07:22
Not bad
arcanum
2020-09-09, 22:33:05
bis vor kurzem haben 2080ti-besitzer noch >1000€ ausgegeben weil sie keine andere wahl hatten und jetzt ist die 3080 für 699€ und +30% performance nicht gut genug. verkehrte welt. nvidia hätte die karte lieber 3070ti nennen und für 800€ verkaufen sollen. dann wären wahrscheinlich alle zufrieden.
dargo
2020-09-09, 22:36:54
Die 2080TI war auch völlig überteuert.
arcanum
2020-09-09, 22:38:06
Die 2080TI war auch völlig überteuert.
war sie auch, umso erstaunlicher dass sich ausgerechnet 2080ti besitzer so über die 3080 echauffieren. mit der karte holt mich nvidia zurück zum pc-gaming (oder amd wenn sie gut kontern) nachdem ich es mit der lächerlichen turing-generation aufgegeben hatte.
dargo
2020-09-09, 22:39:35
Naja... hätte ich eine 11GB Karte im Rechner würde ich auch nicht auf eine 10GB Karte upgraden wollen. Ist halt blöd wenn NV GA102 Salvage als 3080 verkaufen muss denn so ist man an den GDDR6X gebunden. Mit 12GB und 16Gbps GDDR6 an 384Bit SI würde imho die Karte mehr Interesse finden, auch wenns am Ende nur 2GB mehr sind.
Linmoum
2020-09-09, 22:40:14
war sie auch, umso erstaunlicher dass sich ausgerechnet 2080ti besitzer so über die 3080 echauffieren.Gefällt halt niemandem, dass NV mal wieder abspeckt und man teils weniger als zuvor bekommt.
arcanum
2020-09-09, 22:42:06
Gefällt halt niemandem, dass NV mal wieder abspeckt und man teils weniger als zuvor bekommt.
diese käuferschicht kann auf die 3080 20gb für 999€ warten oder sich direkt die 3090 kaufen. die ist ja nicht wesentlich teurer als die 2080ti, bietet min. 50% mehr performance und mehr als den doppelten speicher. wenn ich ne 2080ti gekauft hätte wäre die 3090 glatt ein schnäppchen für mich.
hq-hq
2020-09-09, 23:30:43
diese käuferschicht kann auf die 3080 20gb für 999€ warten oder sich direkt die 3090 kaufen. die ist ja nicht wesentlich teurer als die 2080ti, bietet min. 50% mehr performance und mehr als den doppelten speicher. wenn ich ne 2080ti gekauft hätte wäre die 3090 glatt ein schnäppchen für mich.
imho ist die 3090 50% teurer als die 2080Ti und wird hoffentlich dann auch >50% schneller sein
vielleicht wird die RTX 3080 von ihrem Powerlimit einfach zu stark ausgebremst - falls kein Fake
Troyan
2020-09-09, 23:33:57
2080TI FE hat 1200€ gekostet. Die 3090FE kostet bis Ende des Jahres 1500€ bei nVidia. Das sind 25% mehr bei ca. 60% Mehrleistung und 13GB mehr Speicher.
Also klar "besserer" Deal als die 2080TI von damals, da eigentlich über ein Jahr es kaum günstigere 2080TI Karten mit vernünftiger Kühlung gab.
2080TI FE hat 1200€ gekostet. Die 3090FE kostet bis Ende des Jahres 1500€ bei nVidia. Das sind 25% mehr bei ca. 60% Mehrleistung und 13GB mehr Speicher.
Also klar "besserer" Deal als die 2080TI von damals, da eigentlich über ein Jahr es kaum günstigere 2080TI Karten mit vernünftiger Kühlung gab.
Das würde ich jetzt noch nicht sagen. Die 2080 Ti war nun volle zwei Jahre unangetastet. Falls nV noch die 3080 Ti bringen sollte, welche nur wenige Prozent unter der 3090 liegen sollte, wird diese wesentlich eher unattraktiv als die 2080 Ti.
Zum jetzigen Zeitpunkt gebe ich dir Recht aber lass mal in paar Monaten reden. Ich bin mir fast sicher, dass sich die Titan X/980 Ti Situation mit Ampere wiederholen wird.
Armaq
2020-09-10, 00:29:14
Ich seh die 2080Ti inzwischen wieder deutlich besser. Die Benchmark Werte sind einfach nicht überzeugend. Lederjacke meinte ein Upgrade wäre ne gute Geschichte und es ist völliger Dummfick bei jeder 20x0.
Können wir bitte mal Verbrauch, Kosten und Ausstattung in ein Verhältnis bringen. Wie kommt man dann noch darauf, dass man das Upgrade gehen sollte? Gerade auch echte RT Last interessiert mich sehr. Default 100Watt mehr liebe Leute und VRam null Verbesserung. Ich seh da kein Grund mehr für ein Upgrade.
Nicht vergessen, die Karten der 20x0 werkeln 12 bis 24 Monate bei den meisten Besitzern und machen sie glücklich. Für 20 bis 40 klingt einfach nicht so überzeugend wie 80. Unsere Youtube Teaser Freunde von DF sind bei mir komplett unten durch mit 2x avg frame time blaa
Digidi
2020-09-10, 00:57:39
Bei Turing konnte ich noch mitgehen Beim Preis, weil halt bahnbrechende Features wie RTX und tensor Cores kamen.
Was jetzt abgeht ist einfach nur eine Frechheit. Früher gab es kaum Preissteigerungen bei GPUs und wenn mal eine kam war die nächste Generation dann meistens wieder so billig wie die vor vor Gerneration.
Die letzten beiden Generationen seit pascall gibts aber nur noch einen Weg, nach oben. Ampere hat nichts bahnbrechend neues lediglich die Architektur wurde etwas angepasst und Features verfeinert. Dafür jetzt 1500 Euro abzurufen ist eine Frechheit! Man muss sich mal vorstellen man kam von 699 für eine 1080ti....
r3ptil3
2020-09-10, 01:32:32
Ich seh die 2080Ti inzwischen wieder deutlich besser. Die Benchmark Werte sind einfach nicht überzeugend. Lederjacke meinte ein Upgrade wäre ne gute Geschichte und es ist völliger Dummfick bei jeder 20x0.
Können wir bitte mal Verbrauch, Kosten und Ausstattung in ein Verhältnis bringen. Wie kommt man dann noch darauf, dass man das Upgrade gehen sollte? Gerade auch echte RT Last interessiert mich sehr. Default 100Watt mehr liebe Leute und VRam null Verbesserung. Ich seh da kein Grund mehr für ein Upgrade.
Nicht vergessen, die Karten der 20x0 werkeln 12 bis 24 Monate bei den meisten Besitzern und machen sie glücklich. Für 20 bis 40 klingt einfach nicht so überzeugend wie 80. Unsere Youtube Teaser Freunde von DF sind bei mir komplett unten durch mit 2x avg frame time blaa
Ich erinnere an 2018:
RTX 2080 TI 11Gb der direkte Nachfolger der 1080 Ti.
15-25% mehr Leistung, kein Stück mehr Speicher, aber dafür für 1259.- Euro und damit 440 Euro über der 1080 Ti!
Und du siehst jetzt keinen Grund für ein Upgrade?
Der Zeitpunkt ist jetzt deutlich besser für ein Upgrade, als es 2018 jemals war.
Wir haben jetzt eine 3080 mit 1Gb weniger Speicher, aber 20-40% mehr Leistung und das bei 560.- Euro weniger als die 2080 TI.
Ich würde jetzt sagen: Akzeptabel - dann nehme ich auch den Speicher-Downgrade in Kauf.
Digidi
2020-09-10, 01:56:59
@bardh dafür aber auch nur ein 080 und keine 090 oder 080ti. Du vergleichst Apfel mit Birnen. Bei Maxwell gab es auch einen Massiven Sprung nur stieg hier der Preis moderat.
Badesalz
2020-09-10, 02:02:17
@bardh
NOCH ;), noch sind keine Karten bei MF aufgelistet (Preise)
Ex3cut3r
2020-09-10, 04:03:04
8 und 10 GB sind für die Rohleistung und mit RT im Sinn ein großer Witz. Absolut lächerlich von Nvidia, und Gamer/Leute die diese Karten kaufen, kann ich auch nicht ernst nehmen. Wenn ich jetzt ne 3070 kaufe wurde, habe ich zum dritten mal in Folge 8GB als VRAM 1070,2080,3070 ...sag mal gehts noch? Für 3440x1440 mit RT im Mind und dem rls. einer neuer Konsolen Gen, ein schlechter Scherz...seriosuly....fickt euch Nvidia.
Entschuldigt meine Wortwahl, aber das geht gar nicht! Verarschen kann ich mich auch selber, was denkt ihr denn? Ich verkaufe jetzt meine 2080 mit 8GB (übrigens eine 3070 bietet da auch nicht mehr) für 350-400€ tue dann 100-150€ oben drauf für ne 3070...für 20-25% na gut, sagen wir mal 30%...und ich gewinne angeblich massiv an RT Leistung...bin aber mit 8GB auch schon so am Arsch, sodass ich dann RT Maxxen kann, aber einfache Spiel Texturen auf Medium oder Low stellen muss, damit es nicht ruckelt?
Und ich am besten in einem halben bis ein Jahr schon wieder wechseln soll, auf eine 3070 16GB oder eine 3080 20GB? Nein, sry da habt ihr euch geschnitten, dann bleibt die 2080 eben im Rechner, und wenn ich alles auf Low stellen muss.....da scheiß ich drauf, Hauptsache Ihr habt einen Ampere Kunden weniger!!! HAHAHA!!!
Reaping_Ant
2020-09-10, 04:20:07
Ich finde die 3080 eigentlich ganz gut positioniert was Preis/Leistung angeht, besonders im Vergleich mit den Vorgaengern. Die 1080 (mit ca. 60% Mehrleistung zur 980) hat zum Release ebenfalls 700$ gekostet, die 2080 (mit ca. 40% Mehrleistung zur 1080) gar 800$. Da sind die 60% im Vergleich zur 2080 fuer 700$ doch eher besser als man es nach Turing erwarten konnte.
Aber selbst wenn man nicht die Release-Preise, sondern die aktuelle Konkurrenz als Vergleich heranzieht, ist die 3080 bei doppeltem Preis zur 5700XT auch fast doppelt so schnell, zudem mit deutlich modernerem Featureset. Das kann (und ich hoffe wird) sich mit Navi 2X natuerlich wieder aendern, aber aktuell ist die 3080 kein schlechter Deal.
Das einzige, was mich an der 3080 wirklich stoert, sind die 320 Watt TDP. Weniger wegen dem Stromverbrauch an sich, sondern eher, weil das mit Luftkuehlung schon recht grenzwertig ist. Da muss man schon einiges an Aufwand treiben um das halbwegs leise und kompakt zu kuehlen. In dem Punkt hoffe ich, dass der Kuehler der FE ueberzeugen kann; die riesen Oschis der Boardpartner finde ich jetzt nicht so attraktiv.
@Ex3cut3r: Ganz ruhig! :comfort: Kommt Deine 2080 denn schon so auf dem Zahnfleisch daher, dass Du unbedingt jetzt sofort eine neue GPU brauchst? Von einer 2080 kommend wuerde ich auch nicht aufruesten, mit leichten Anpassungen sollte doch noch alles gut laufen? Einfach noch ein paar Monate warten, und sich dann gemuetlich zwischen den (bis dahin wohl verfuegbaren) 16 GB Karten von AMD und NV entscheiden. :ucoffee:
Hakim
2020-09-10, 04:29:04
Das einzige, was mich an der 3080 wirklich stoert, sind die 320 Watt TDP. Weniger wegen dem Stromverbrauch an sich, sondern eher, weil das mit Luftkuehlung schon recht grenzwertig ist. Da muss man schon einiges an Aufwand treiben um das halbwegs leise und kompakt zu kuehlen. In dem Punkt hoffe ich, dass der Kuehler der FE ueberzeugen kann; die riesen Oschis der Boardpartner finde ich jetzt nicht so attraktiv.
Ich denke die FE wird diesmal besser sein als diese 08/15 Standard 2-3 Lüfter der Drittanbieter (hoffe es zumindest), bezüglich 320W, ich frage mich ob die 3080 bei UV, z.B bei 90% PL und etwas weniger Spannung, noch nah am Stock Performance dran ist, Hoffe die Tester haben bei den ganzen Stress mit den Tests auch für sowas Zeit.
wolik
2020-09-10, 06:07:16
Welche Karte wird besser übertaktbar sein FE (mit kurzem PCB) oder Custom (mit langem PCB)?
Reaping_Ant
2020-09-10, 07:16:15
bezüglich 320W, ich frage mich ob die 3080 bei UV, z.B bei 90% PL und etwas weniger Spannung, noch nah am Stock Performance dran ist
Das könnte natürlich auch sein, dass der Chip auf der 3080 einfach schon weit jenseits des sweet spots ist, und man mittels leicht reduzierter Leistung den Stromverbrauch stark drücken kann. Es stellt sich dann allerdings die Frage, warum macht NV das? Die letzten Generationen waren diesbezüglich eigentlich recht gut ausbalanciert.
BigKid
2020-09-10, 08:00:26
Das könnte natürlich auch sein, dass der Chip auf der 3080 einfach schon weit jenseits des sweet spots ist, und man mittels leicht reduzierter Leistung den Stromverbrauch stark drücken kann. Es stellt sich dann allerdings die Frage, warum macht NV das? Die letzten Generationen waren diesbezüglich eigentlich recht gut ausbalanciert.
Mit fällt dazu immer wieder nur ein: Weil man Respekt vor AMD hat... es sieht für mich alles so aus. Der gestrichene Chip, das „eins Hochschiften“ von allem (chipmässig), beim Flaggschiff an die Kotzgrenze hochprügeln...
Nehmen wir mal an die 3090 ist das was mann ursprünglich später als 3080ti oder gar Titan bringen wollte? Nur erschaffen um die ersten Monate sicher vor AMD zu bleiben?
Ausserdem wissen wir nicht was alles „schönreden“ ist. Vielleicht wähnte man sich so weit vorne dass man bei NV dachte mit einem etwas schlechteren aber billigeren Fertigungsprozess die Margen weiter hochfahren und das Volk weiter melken zu können (Absicht statt „dumm gelaufen“) - und dann kamen die ersten Infos zu Navi durch...
Ich erinnere an 2018:
RTX 2080 TI 11Gb der direkte Nachfolger der 1080 Ti.
15-25% mehr Leistung...
.
Es war schon ein bisschen mehr ;) ~20-35%
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti
Armaq
2020-09-10, 08:42:49
Ich erinnere an 2018:
RTX 2080 TI 11Gb der direkte Nachfolger der 1080 Ti.
15-25% mehr Leistung, kein Stück mehr Speicher, aber dafür für 1259.- Euro und damit 440 Euro über der 1080 Ti!
Und du siehst jetzt keinen Grund für ein Upgrade?
Der Zeitpunkt ist jetzt deutlich besser für ein Upgrade, als es 2018 jemals war.
Wir haben jetzt eine 3080 mit 1Gb weniger Speicher, aber 20-40% mehr Leistung und das bei 560.- Euro weniger als die 2080 TI.
Ich würde jetzt sagen: Akzeptabel - dann nehme ich auch den Speicher-Downgrade in Kauf.
Ich kam nicht von einer 1080Ti!
Jeder muss ja seine Position bewerten und ich denke es gibt durchaus Szenarien, wo das Upgrade vernünftig erscheint, für mich als 2080Ti Besitzer ist es das nicht.
Btw. du bist auf keinen der anderen Fakten eingegangen. VRAM gleich, 100 Watt für keine so überzeugende Mehrleistung mehr. Die lieben Kollegen hier werden das ja via Benchmark klären.
Spasstiger
2020-09-10, 08:48:52
Bei der RTX 3080 juckt es mich auch in Verbindung mit einem VR-Headset, aber mich stört da ebenfalls der hohe absolute Stromverbrauch. Mein 480-Watt-NT wird da nicht mehr reichen. Muss ich also in die Investition einplanen.
BigKid
2020-09-10, 09:07:43
Bei der RTX 3080 juckt es mich auch in Verbindung mit einem VR-Headset, aber mich stört da ebenfalls der hohe absolute Stromverbrauch. Mein 480-Watt-NT wird da nicht mehr reichen. Muss ich also in die Investition einplanen.
Oder vielleicht nur etwas undervolten ? Aber machst du dir grad bei VR nicht Sorgen wegen VRAM ?
ChaosTM
2020-09-10, 09:22:50
@bardh
Die Begriffe Speicher und Downgrade sollten niemals in einem Satz-, geschweige denn einem Wort vorkommen - geht gar nicht ;)
... aber einfache Spiel Texturen auf Medium oder Low stellen muss, damit es nicht ruckelt?
Musst du oft gar nicht mehr ^^
Meist gibt es schon automatisch schlechtere Texturen wenn der Ram ausgeht ;)
(oder sie kommen verzögert an...)
Die meisten User mit kleinen Monitoren, oder sehr feinen Lochmasken,
merken das nur einfach nicht...
I. Wodurch macht sich VRAM - Mangel bemerkbar?
c) Die Engine lädt die höchste Texturauflösung erst gar nicht und der User kräht: Braucht doch gar kein VRAM, alle keine Ahnung^^
Für FHD oder wahrscheinlich auch noch WQHD "High-Fps-Zocker" ist die 3080 10Gb aber geil ;)
(aber die reduzieren die "Optik" ja eh meist auf ein Minimum...)
Die Anderen, die lieber die Umgebung genießen und denen 60Fps oder gar weniger reichen,
warten aber besser auf etwas mit mehr Ram :)
M.f.G. JVC
y33H@
2020-09-10, 10:42:05
Es war schon ein bisschen mehr ;) ~20-35%
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti
Ist auch angewachsen, ich hab hier in 4K in Borderlands 3 mal eben +50% und in Doom Eternal gar +70%.
(RTX 2080 Ti vs GTX 1080 Ti)
dildo4u
2020-09-10, 10:46:58
Meinst du gegen 8GB Karten?Doom scheint die gerne voll zu hauen.
https://youtu.be/hdtcTnODN3M?t=646
y33H@
2020-09-10, 10:53:01
Siehe oben, RTX 2080 Ti vs GTX 1080 Ti.
Rancor
2020-09-10, 11:22:39
Also wer vorhat in 4k zu spielen, kauft sich keine Karte mit 10GB VRam. Für 1440p könnte man es noch verschmerzen.
MasterElwood
2020-09-10, 11:35:33
Also wer vorhat in 4k zu spielen, kauft sich keine Karte mit 10GB VRam. Für 1440p könnte man es noch verschmerzen.
Immer wieder derselbe BS :facepalm:
MasterElwood
2020-09-10, 11:42:46
8 und 10 GB sind für die Rohleistung und mit RT im Sinn ein großer Witz. Absolut lächerlich von Nvidia, und Gamer/Leute die diese Karten kaufen, kann ich auch nicht ernst nehmen. Wenn ich jetzt ne 3070 kaufe wurde, habe ich zum dritten mal in Folge 8GB als VRAM 1070,2080,3070 ...sag mal gehts noch? Für 3440x1440 mit RT im Mind und dem rls. einer neuer Konsolen Gen, ein schlechter Scherz...seriosuly....fickt euch Nvidia.
Entschuldigt meine Wortwahl, aber das geht gar nicht! Verarschen kann ich mich auch selber, was denkt ihr denn? Ich verkaufe jetzt meine 2080 mit 8GB (übrigens eine 3070 bietet da auch nicht mehr) für 350-400€ tue dann 100-150€ oben drauf für ne 3070...für 20-25% na gut, sagen wir mal 30%...und ich gewinne angeblich massiv an RT Leistung...bin aber mit 8GB auch schon so am Arsch, sodass ich dann RT Maxxen kann, aber einfache Spiel Texturen auf Medium oder Low stellen muss, damit es nicht ruckelt?
Und ich am besten in einem halben bis ein Jahr schon wieder wechseln soll, auf eine 3070 16GB oder eine 3080 20GB? Nein, sry da habt ihr euch geschnitten, dann bleibt die 2080 eben im Rechner, und wenn ich alles auf Low stellen muss.....da scheiß ich drauf, Hauptsache Ihr habt einen Ampere Kunden weniger!!! HAHAHA!!!
Wie soll man sowas ernst nehmen?
Wer bitte wechselt von einer 850 Euro Karte auf eine 3070?
Wenn einer von einer 2080 wechselt, dann auf eine 3080. Und dort hat man dann 10GB - was genau nur 1GB weniger ist als es bis jetzt bei der 2000er Serie ÜBERHAUPT gibt.
Und DAS soll jetzt der grosse Downer sein?
Ist auch angewachsen, ich hab hier in 4K in Borderlands 3 mal eben +50% und in Doom Eternal gar +70%.
(RTX 2080 Ti vs GTX 1080 Ti)
Jo glaub ich. Wollte nur zeigen, dass es beim Launch auch nicht sooo schlecht war wie von Ihm dargestellt. Für mich hat sich der Umstieg allemal gelohnt, zudem ich direkt zum Launch der 2080 Ti zugeschlagen habe. Durch die zwei Jahre Nutzung hat sich der Preis auch relativiert. Die Gearschten sind eigentlich die, die erst vor kurzem noch ne 2080 Ti neu geschossen haben, wobei die Leistung der 2080 Ti ja trotz allem noch immer beeindruckend/ausreichend ist bzw. bleibt.
Wenn da nicht meine Gier nach was Neuem wäre, würde ich vermutlich auch dabei bleiben. Naja mal sehen was die Reviews am Montag so zeigen auch in Hinsicht auf Hitzeentwicklung, Geräuschkulisse usw.
ChaosTM
2020-09-10, 12:19:56
@Elwood
Ich werde mir sicher keine kleinere Karte kaufen, wenn mir jetzt schon der Speicher ausgeht.
10 ist schlicht und einfach ein Witz..
@Elwood
Ich werde mir sicher keine kleinere Karte kaufen, wenn mir jetzt schon der Speicher ausgeht.
10 ist schlicht und einfach ein Witz..
Wo geht Dir der Speicher aus, also wo musst Du konkret Texturen oder andere Features zurückfahren? Bitte Beispiele, wo man auch wirklich einen Unterschied sieht - also nicht irgendwelche Placebo-Settings wie bei den ID-Tech-Spielen und ihren ominösen Texture-Pools, wo man oberhalb von Ultra (oder gar High) nur mit Mikroskop und viel Einbildungskraft einen Unterschied sieht.
ChaosTM
2020-09-10, 12:41:55
Star Citizen.. der Unterschied ist enorm. Und ja, es ist eine Alpha, aber das spiele ich nun mal am meisten.
Wie soll die Karte wieder 3 Jahre halten, wenn jetzt schon der Speicher ausgeht.
Star Citizen.. der Unterschied ist enorm. Und ja, es ist eine Alpha, aber das spiele ich nun mal am meisten.
Wie soll die Karte wieder 3 Jahre halten, wenn jetzt schon der Speicher ausgeht.
:facepalm:
Eine unoptimierte Alpha eines Vaporware-"Spiels" mit maximal Techdemo-Charakter. Naja, jeder wie er will - aber eine intelligent Aussage zur benötigten VRAM-Ausstattung in den nächsten 3-4 Jahren bei realexistierenden Spielen ist auf der Grundlage eher nicht drin. Das Problem ist hier nämlich weniger Dein VRAM sondern der Umstand, dass es sich um eine 10% fertige Baustelle eines Spiels handelt, wo einfach mal alles reingekackt wird, was Roberts in den Sinn kommt oder was nette Bilder für die nächste Runde an JPG-Schiffsverkäufen oder Geldsammel-Videos bringt.
ChaosTM
2020-09-10, 12:56:31
Das war nur ein Beispiel. Lass deinen Picard in der Hose. 😀
Die Karte "hält" nie und ninmer 3 Jahre. Darum geht's.
Das war nur ein Beispiel. Lass deinen Picard in der Hose.
Die Karte "hält" nie und ninmer 3 Jahre. Darum geht's.
Ja, und das einzige Beispiel, das Du anbringen kannst, ist keins.
just4FunTA
2020-09-10, 13:02:59
Also wer vorhat in 4k zu spielen, kauft sich keine Karte mit 10GB VRam. Für 1440p könnte man es noch verschmerzen.
nv scheint hier wohl wirklich davon auszugehen das die Leute sich ne rtx3080/70 kaufen und dann eben mit 1080p / 1440p hochskaliert auf 4k spielen. Was anderes wird einem über kurz oder lang auch nicht übrigbleiben.
Colin MacLaren
2020-09-10, 13:14:56
nv scheint hier wohl wirklich davon auszugehen das die Leute sich ne rtx3080/70 kaufen und dann eben mit 1080p / 1440p hochskaliert auf 4k spielen. Was anderes wird einem über kurz oder lang auch nicht übrigbleiben.
Was anderes wurd auch mot einer 3080 nicht möglich sein wenn man 144 fps will. Meine 2080 super mwcht in Modern Warfare in 3840*1080 32:9 nur so 110fps.Das wird nicht besser. Woran es nicht mangelt, ist VRAM.
y33H@
2020-09-10, 13:34:00
Selbst Flight Simulator nutzt in 4K @ Ultra tatsächlich nur gut 7GB, lässt sich per Dev Overlay schön aufzeigen.
Ätznatron
2020-09-10, 13:46:12
Selbst Flight Simulator nutzt in 4K @ Ultra tatsächlich nur gut 7GB, lässt sich per Dev Overlay schön aufzeigen.
Und das sagt jetzt genau was aus?
Außer, dass das MS-Flugspiel wohl locker in den Speicher passt?
Für mich sind die 10 GB gar keine Option, weil erkennbar zu sehr auf Kante genäht und in manchen Situationen bereits jetzt viel zu wenig.
Der angeforderte Speicher beim Fluch-Stimulator schwankt enorm von Szene zu Szene. 7 GiB in der gut benchbaren Pampa direkt nach Spielstart, ja – aber viel mehr in dichten (CPU-tötenden) Städten. Und vor allem nach längerem Fliegen.
MfG
Raff
Ex3cut3r
2020-09-10, 13:53:22
Das ist doch nichts neues. Plötzlich soll ja der VRAM Verbrauch den der Afterburner über Jahre (richtig) anzeigt, quatsch sein, und SpecialK irgend so eine dreckige Russen Software das richtige anzeigen, komisch. Und das alles vor einer neuen GPU Gen mit Krüppel Speicher Mengen, ist klar. RT, NextGen, und 4K mit 8GB oder 10GB VRAM....einfach nur lol. Was muss man da genommen haben, als CEO sowas durchzuwinken, und als Kunde diese Scheiße, auch noch zu kaufen? ;D
Ätznatron
2020-09-10, 13:55:51
7 GiB in der gut benchbaren Pampa direkt nach Spielstart, ja – aber viel mehr in dichten (CPU-tötenden) Städten. Und vor allem nach längerem Fliegen.
MfG
Raff
Und wenn dann VRAM-Mangel auch noch auf ein CPU-Limit trifft, ist es vorbei mit gut spielbaren FPS.
Und diese Situationen sind gar nicht mal so selten.
aufkrawall
2020-09-10, 14:05:55
Und vor allem nach längerem Fliegen.
Dass die Spieldauer eine Rolle spielt, will einigen nicht so recht einleuchten.
Spiel von 2016:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11773141&postcount=5600
...
Ich sag jetzt auch nichts mehr dazu. Ich kann ja warten, bis neue Spiele ähnliche Symptome zeigen und es dann genüsslich reinreiben. :cool:
y33H@
2020-09-10, 14:11:28
Der angeforderte Speicher beim Fluch-Stimulator schwankt enorm von Szene zu Szene. 7 GiB in der gut benchbaren Pampa direkt nach Spielstart, ja – aber viel mehr in dichten (CPU-tötenden) Städten. Und vor allem nach längerem Fliegen.In meinem Fall von LaGuardia über Manhattan raus nach Greater New York.
Ex3cut3r
2020-09-10, 14:12:12
Ich sag jetzt auch nichts mehr dazu. Ich kann ja warten, bis neue Spiele ähnliche Symptome zeigen und es dann genüsslich reinreiben. :cool:
;D Werde ich auch so machen. :biggrin:
Matrix316
2020-09-10, 14:12:29
Ist die Frage, holt man gleich eine 3080 (3090 ist dann vielleicht doch etwas zu teuer ;)) ODER man holt sich erst mal eine 3070, damit man für 4K mehr Performance hat - und wartet auf die AMD Chips mit 16 GB VRAM? ;)
Ex3cut3r
2020-09-10, 14:15:22
Option C: Gar keine Nvidia Karte holen, und auf AMD mit 16GB warten, dann kommt Nvidia auch plötzlich mit 16GB bzw. 20GB an. Und dann erst zuschlagen. Für die ganzen "Süchtigen" die Ihre GPU schon verkauft haben, natürlich ein Dilemma. Da bleibt nur die 10GB 3080, aber da muss einem klar sein, das man Texturen schon bald niedriger einstellen muss.
Erbsenkönig
2020-09-10, 14:18:22
Was muss man da genommen haben, als CEO sowas durchzuwinken
Wieso, ist doch klug gemacht. Jetzt stellt man 10 GB Karten hin und nicht wenige werden zuschlagen. In ein paar Monaten kommen dann wahrscheinlich Varianten mit sagen wir mal 16-20 GB und diese werden dann für 100-200 € mehr angeboten. Die alten 10er verschwinden irgendwann und die "guten Preise" ebenso, wenn man sich den eigentlich zu erwartenden nächsten Schritt beim Speicher extra vergüten lässt.
Ex3cut3r
2020-09-10, 14:20:13
Wieso, ist doch klug gemacht. Jetzt stellt man 10 GB Karten hin und nicht wenige werden zuschlagen. In ein paar Monaten kommen dann wahrscheinlich Varianten mit sagen wir mal 16-20 GB und diese werden dann für 100-200 € mehr angeboten. Die alten 10er verschwinden irgendwann und die "guten Preise" ebenso, wenn man sich den eigentlich zu erwartenden nächsten Schritt beim Speicher extra vergüten lässt.
Da hast du wohl recht. :redface:
100% Zustimmung.
ChaosTM
2020-09-10, 14:21:29
Marketingtechnisch wieder ein Meisterstück von NV - keine Frage.
Die Leute glauben wirklich sie kaufen "Schnäppchen" mit den Krüppels - faszinierend :D
Matrix316
2020-09-10, 14:38:44
Marketingtechnisch wieder ein Meisterstück von NV - keine Frage.
Die Leute glauben wirklich sie kaufen "Schnäppchen" mit den Krüppels - faszinierend :D
Naja, laut Steam Umfrage spielen die meisten eh noch in Full HD und für die ist es ja nicht so wichtig oder?
https://store.steampowered.com/hwsurvey?l=german
Jetzt sind 8 GB ja auch meistens noch OK. Erst recht 10. Oder?
Option C: Gar keine Nvidia Karte holen, und auf AMD mit 16GB warten, dann kommt Nvidia auch plötzlich mit 16GB bzw. 20GB an. Und dann erst zuschlagen. Für die ganzen "Süchtigen" die Ihre GPU schon verkauft haben, natürlich ein Dilemma. Da bleibt nur die 10GB 3080, aber da muss einem klar sein, das man Texturen schon bald niedriger einstellen muss.
Mir juckts aber schon ziemlich im Finger. Ich warte schon seit 3 Jahren und ich brauch unbedingt was schnelleres. ;)
ChaosTM
2020-09-10, 14:43:57
Das hier ist nicht Steam. Wir haben andere Ansprüche.
Und um die 1080p Leute ist es nie gegangen. Für die sollte es reichen, da jetzt selbst Konsolen kastriert werden.
20GB stehen auch für etwas das man "Fortschritt" nennt. 8/11/12 war lange genug Standard.
8K Texturen in FS2020 - die Möglichkeiten sind quasi unendlich.
Ex3cut3r
2020-09-10, 14:44:54
Und das soll jetzt für DE (EU) repräsentativ sein? Wenn in irgendwelchen dritten Welt Länder im Internet Cafe ihre 50€ teuren Acer FHD Monitor von Steam erfasst werden? Glaube auch kaum, das FHD User die Kundschaft für eine Ampere Karte sind. Zumindest nicht, bis die 3060 und tiefer erscheinen ist.
y33H@
2020-09-10, 14:46:01
Für 1080p - selbst mit Raytracing - ist die RTX 3080 völlig overpowered.
aufkrawall
2020-09-10, 14:47:03
Außer beim VRAM:
https://youtu.be/bis97EE3ROw
y33H@
2020-09-10, 14:56:10
Ich schaue keine 8 min an, bitte erläutere was da passiert.
Ex3cut3r
2020-09-10, 14:57:16
Es spikt/ruckelt aufgrund der 8GB VRAM schon in FHD.
https://youtu.be/bis97EE3ROw?t=124
Matrix316
2020-09-10, 15:01:54
Es spikt/ruckelt aufgrund der 8GB VRAM schon in FHD.
https://youtu.be/bis97EE3ROw?t=124
Da fragt man sich schon warum, denn in dem Video sehe ich keine 8 GB Texturen, sondern eher 800 MB nur. ;) Ist es das wo die Weltweit die Haare aller Viecher berechnen, selbst wenn man die garnicht sieht oder so? Auf der Playstation läuft das eigentlich ganz OK...
Geforce RTX 3080: So sieht unser Testmuster aus, Review folgt am 14.09. (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Testmuster-Review-1357836/)
Es darf wieder un-geboxt werden!
MfG
Raff
JaniC
2020-09-10, 15:04:59
Bescherung bei Raff. Schon leicht erregt der gute Mann. Verständlich. ;)
Das Design und die Farben treffen voll meinen Geschmack. Fühlt sich auch super an. Und jetzt stellt euch das mal (geschätzt) 500 Gramm schwerer vor, was für ein Watttotschläger. :naughty:
MfG
Raff
ChaosTM
2020-09-10, 15:10:21
Sag nur kurz ob laut oder "leise" ;)
JaniC
2020-09-10, 15:11:59
Er sagt doch am Ende: ohne passenden Treiber ist es nur ein teurer, schicker Briefbeschwerer.
Und selbst wenn er sie angeschlossen hätte und sie laufen würde: NDA.
Und2: Für dich doch eh egal, so ein Speicherkrüppel kommt dir doch wegen Star Citizen eh nicht in den Rechner. Gnihihi.
Hoffe ich kriege die 3080 mit meinen 550W zum Laufen, extra neues Netzteil habe ich wenig Lust. Dürfte aber passen denke ich. Bissl undervolten, CPU auf 4.8 runter, da braucht er viel weniger VCore, dann passt das hoffentlich. Nur noch die Frage ob EVGA, MSI oder ASUS. Abwarten.
Deutlich leiser als eine FX 5800 Ultra.
Deutlich lauter als eine GTX 1650 mit Passivkühler.
:biggrin:
Sorry, mehr am Montag.
MfG
Raff
ChaosTM
2020-09-10, 15:13:24
@Janic - true
@Raff thx ^^
lol @ FX5800 aka Das Föhn
Troyan
2020-09-10, 15:16:19
Laut nVidia 32db bei 79°C. Gegenüber der 2080FE -3°C bei 2db weniger Lautstärke.
Ich hab gerade realisiert, dass die FE nur 1 HDMI Port hat. Unschön :freak:
Adam D.
2020-09-10, 15:20:59
zxJDdRgs7Lw
dYyg3udrV78
zcHIxVh4I6s
Troyan
2020-09-10, 15:23:44
https://wccftech.com/wp-content/uploads/2020/09/IMG_4358-scaled.jpg
https://wccftech.com/nvidia-geforce-rtx-3080-founders-edition-unboxing-and-gallery/
Sieht garnicht soviel länger aus.
y33H@
2020-09-10, 15:28:03
Es spikt/ruckelt aufgrund der 8GB VRAM schon in FHD.Liegt wohl eher am Spiel als am Videospeicher ^^
Deutlich leiser als eine FX 5800 Ultra.Auch idle? Die FX hatte nämlich nen Passiv-Betrieb :cool:
Stimmt. Aber "Empier" (Jensen-Sprech) ist deutlich kühler dabei. :D
MfG
Raff
r3ptil3
2020-09-10, 15:43:06
In dem Fall hat aber noch niemand Custom-Karten und die 3090 erhalten.
Troyan
2020-09-10, 15:43:48
NDA der Custom-Karten fällt erst am 17.09.
aufkrawall
2020-09-10, 15:45:49
Liegt wohl eher am Spiel als am Videospeicher ^^
Das ist kein Argument, eben um solche Schrott-Software geht es. Laut Raff liegts am VRAM:
https://youtu.be/7G0D-ppXIkI?t=363
Mehr hilft mehr, ganz einfach. Was diese Realitätsverweigerung soll...
Langlay
2020-09-10, 15:49:04
Hoffe ich kriege die 3080 mit meinen 550W zum Laufen, extra neues Netzteil habe ich wenig Lust. Dürfte aber passen denke ich. Bissl undervolten, CPU auf 4.8 runter, da braucht er viel weniger VCore, dann passt das hoffentlich. Nur noch die Frage ob EVGA, MSI oder ASUS. Abwarten.
Ich hatte bis vor kurzem nur ein 500W Netzteil und auch mit 350W ASIC Power (nur CHIP + HBM)auf der VII ist mein Rechner nicht ausgegangen. Also wenn man ein ordentliches 500W Netzteil hat und nicht noch Hardcoreoc macht sollte das schon laufen.
Matrix316
2020-09-10, 15:52:00
Ich hoffe ein 650W NT reicht aus. Da kauft man einmal vernünftig ein und dann kommen die mit so Stromziehern... ;)
Hakim
2020-09-10, 15:54:52
Igor sagt Plastik und Raff meint Metall, was denn nun? :)
Hab auch nur ein Be quiet Pure Power 11 600W CM. Ich hoffe es reicht.
r3ptil3
2020-09-10, 16:06:34
An diejenigen mit den 6x0 Watt Netzteilen:
https://i.ibb.co/BjfVVgP/PSU.png
Man beachte ohne OC und mit einer 2080 Ti und ja er rechnet natürlich etwas "grosszügiger".
https://www.bequiet.com/en/psucalculator
y33H@
2020-09-10, 16:08:53
Das ist kein Argument, eben um solche Schrott-Software geht es.Wer Schrott-Software-sicher sein will, kauft die RTX 3090 oder den 20GB Refresh oder RDNA2 ...
Hakim
2020-09-10, 16:10:00
Hab schon be quiet direkt angeschrieben,
"...Derzeit sind wir noch dabei dies alles zu testen.
Sobald wir die Daten haben werden wir unseren Kalkulator auf unserer Webseite anpassen.
Bitte haben Sie hier noch etwas Geduld.
Wir gehen davon aus, dass uns die Daten Anfang nächster Woche vorliegen."
aufkrawall
2020-09-10, 16:10:10
Eben, also offenkundig eine Schwäche des (ohnehin schon teuren) Produkts.
Schrott-Software-Sicherheit. Gefällt mir. Lasst uns das etablieren. :D
MfG
Raff
Troyan
2020-09-10, 16:14:52
https://pbs.twimg.com/media/Ehjts7_WkAQydaw?format=jpg&name=large
Nett, sieht schick aus. Bis auf die Kabel...
https://www.resetera.com/threads/nvidia-rtx-3070-499-3080-699-3090-1-499-announced-please-see-threadmarks.278621/post-44913092
Hakim
2020-09-10, 16:16:14
Der bekommt doch kaum Luft da:)
r3ptil3
2020-09-10, 16:20:31
Also die Stromkabeleinfuhr in der Mitte der Grafikkarte ist ja mal ein richtiger Designfail . Versaut bei vielen die schönen Cablemods.
Troyan
2020-09-10, 16:21:04
Form follows function.
dildo4u
2020-09-10, 16:23:19
Das Ding mach eh kein Sinn wenn man die Karte nicht alsbald wieder rauswirft wird extrem schwer zu öffnen sein um die Paste zu ersetzen, ich hab meiner 1070 jetzt drei mal neue Paste spendiert seit 2016.
dargo
2020-09-10, 16:24:16
Laut nVidia 32db bei 79°C. Gegenüber der 2080FE -3°C bei 2db weniger Lautstärke.
Wie groß ist eigentlich das Delta bei den Karten zum Hotspot? Oder gibts auch diesmal keinen Hotspot-Sensor?
aufkrawall
2020-09-10, 16:25:56
Billig-Paste oder schlecht verschraubt? Die hier verbaute MSI Gaming 480 von 2016 ist trotz Ur-Zustand das reinste Kühlungswunder gegen die Gigabyte 1660S, die ich vorher kurz verbaut hatte...
BlacKi
2020-09-10, 16:26:21
IMHO werden die 10gb reichen für 1440p/4k. man muss auch nicht direkt am texturregler drehen wenn der vram ausgeht. es gibt auch andere regler an die man ran kann um ein paar 100mb zu sparen und meist sind es dann genau diese regler die dann ein ruckeln verursachen.
die 3090 ist einfach viel zu teuer für die mehrperformance. selbst wenn der 3080 irgendwo der speicher ausgehen sollte, mal angenommen es wäre so, dann halte ich den aufpreis der 3090 für zu hoch. damit meine ich auch die 3080 mit 20gb für 900-1000€. und auch den wertverfall den ich im eigentlichen sinne bezahle. anfangs brauch ich die 20gb nicht, und wenn ich sie dann verkaufe liegt der preisunterschied bei 50-100€...
was anderes ist es, wenn man die karte für sehr lange behalten will. dann sind solche preise vl noch zu rechtfertigen. da ich aber vorhabe, vor Hopper die gpu wieder zu verkaufen, spielts für mich keine rolle ob 10 oder 20gb.
für ne 3090 mit 12gb hätte ich vl +-900€ hingelegt. gibts ja leider nicht.
r3ptil3
2020-09-10, 16:28:40
Billig-Paste oder schlecht verschraubt? Die hier verbaute MSI Gaming 480 von 2016 ist trotz Ur-Zustand das reinste Kühlungswunder gegen die Gigabyte 1660S, die ich vorher kurz verbaut hatte...
MSI verbaut zumindest auch sehr gute WLP genauso wie auch hochwertige Wärmeleitpads und das nicht nur bei GPUs. Das X570 Unify ist ein Paradebeispiel dafür, deshalb hört man den Lüfter auch so gut wie nie bei dem Board.
Spasstiger
2020-09-10, 16:34:05
Also die Stromkabeleinfuhr in der Mitte der Grafikkarte ist ja mal ein richtiger Designfail . Versaut bei vielen die schönen Cablemods.
Ich glaube, ich entwerfe schnell eine Adapterplatine, um die PCIe-Strom-Anschlüsse an die Rückseite der Karte zu führen und verkaufe die für nen Hunderter das Stück. ;)
dildo4u
2020-09-10, 16:35:20
Billig-Paste oder schlecht verschraubt? Die hier verbaute MSI Gaming 480 von 2016 ist trotz Ur-Zustand das reinste Kühlungswunder gegen die Gigabyte 1660S, die ich vorher kurz verbaut hatte...
Die Karte ist nur verschraubt nicht verklebt ich schätze mal das der Kühler sich ganz langsam durch Vibrationen löst, aber ich habe noch nicht getestet ob die schlechten Temps nur daran lagen sondern immer direkt auch die Paste ersetzt.
arcanum
2020-09-10, 16:37:01
An diejenigen mit den 6x0 Watt Netzteilen:
https://i.ibb.co/BjfVVgP/PSU.png
Man beachte ohne OC und mit einer 2080 Ti und ja er rechnet natürlich etwas "grosszügiger".
https://www.bequiet.com/en/psucalculator
der rechner kalkuliert 100 watt für die usb option.
USB-PD (power delivery) geht bis zu 100W.
schon klar, aber wenn man nicht gerade einen monitor über PD betreibt und gleichzeitig eine powerbank o.ä. lädt kann man die 100w getrost aus der rechnung rauslassen.
Benutzername
2020-09-10, 16:39:13
der rechner kalkuliert 100 watt für die usb option.
USB-PD (power delivery) geht bis zu 100W.
---------------------
Also die Stromkabeleinfuhr in der Mitte der Grafikkarte ist ja mal ein richtiger Designfail . Versaut bei vielen die schönen Cablemods.
Eine winzige Minderheit sind nicht "viele". Und ja, es ist eine winzige Minderheit von Leuten die nicht einfach die mitgelieferten Kabel benutzen. Spasstigers Idee einer kleinen platine zur Umleitung hat was um den Leuten das Geld aus der Tasche zu ziehen. :D
Wie Troyan schon schrieb, die Form folgt der Funktion. Dort ist die Platine zu Ende. Da wo man den Lüfter sieht sind nur Kühlrippen.
Das Ding mach eh kein Sinn wenn man die Karte nicht alsbald wieder rauswirft wird extrem schwer zu öffnen sein um die Paste zu ersetzen, ich hab meiner 1070 jetzt drei mal neue Paste spendiert seit 2016.
War das tatsächlich nötig oder nur damit Du dich besser fühlst? Sicher, Hersteller kommen manchmal auf komische Ideen und sparen einen Cent bei der Paste am falschen Ende. Aber meistens hält die eigentlich ein Kartenleben lang.
MasterElwood
2020-09-10, 16:41:14
Ich hatte bis vor kurzem nur ein 500W Netzteil und auch mit 350W ASIC Power (nur CHIP + HBM)auf der VII ist mein Rechner nicht ausgegangen. Also wenn man ein ordentliches 500W Netzteil hat und nicht noch Hardcoreoc macht sollte das schon laufen.
Dachte auch ich würde mit meinem 500W Netzteil durchkommen, mit 2080FE & 6700K.
Dann gemessen: Bei FS2020 jetzt schon bis zu 470W...
arcanum
2020-09-10, 16:44:05
Dachte auch ich würde mit meinem 500W Netzteil durchkommen, mit 2080FE & 6700K.
Dann gemessen: Bei FS2020 jetzt schon bis zu 470W...
470w aus der wand <= 430w last am netzteil. klingt aber sehr danach als ob die cpu sehr viel zieht oder der rechner mit anderen komponenten vollgepackt ist die zusätzlich viel ziehen (viele schnell drehende lüfter?).
der bq rechner spuckt bei deiner konfig 453watt mit oc und 5 lüftern aus. scheint doch nicht so daneben zu liegen je nach spiel.
r3ptil3
2020-09-10, 16:58:00
Aber meistens hält die eigentlich ein Kartenleben lang.
Garantiert nicht - es läuft zwar bestimmt jahrelang, aber ich würde behaupten, dass nach einem Jahr der Tausch der WLP bereits schon messbare Vorteile bringt.
MSI verbaut zumindest auch sehr gute WLP genauso wie auch hochwertige Wärmeleitpads und das nicht nur bei GPUs. Das X570 Unify ist ein Paradebeispiel dafür, deshalb hört man den Lüfter auch so gut wie nie bei dem Board.
Bei MSI kann man absolut keine allgemein gültige Aussage treffen, das variiert von Produkt zu Produkt, weshalb ich auch null Vertrauen bei denen habe. Man schaue sich das Wärmeleitpad-Desaster bei deren 5700XT an, die generell miesen Kühler der "ARMOR"-Karten, die MSI-Notebooks mit Hitzeproblemen usw.
Und das alles in Verbindung mit einer Marketing-Abteilung, die gerne mal versucht, negative Reviews durch Bestechung/Einschüchterung zu unterdrücken (https://www.youtube.com/watch?v=O6BXwCJtaZE&ab_channel=GamersNexus).
aufkrawall
2020-09-10, 17:05:19
IMHO werden die 10gb reichen für 1440p/4k. man muss auch nicht direkt am texturregler drehen wenn der vram ausgeht. es gibt auch andere regler an die man ran kann um ein paar 100mb zu sparen und meist sind es dann genau diese regler die dann ein ruckeln verursachen.
In Zero Dawn kannst du quasi gar nichts an VRAM einsparen, außer direkt die Texturen von ultra auf low zu stellen.
Und siehe da: Anders als mit 8GB-Karten, läuft das sowohl in 1440p als auch 4k ohne nennenswerte Spikes mit 16GB:
https://youtu.be/qHZk5pELquA
https://www.youtube.com/watch?v=ZbC6r51wFyM
Mit nur 10GB würde ich in 4k nach längerer Spielzeit Stocker oder verzögertes/verschlechtertes Streaming erwarten. Tolle Wurst für eine komplett neue, hochpreisige Grafikkarte und Last Gen Spiele...
Troyan
2020-09-10, 17:15:20
Wie läuft das Spiel eigentlich auf der PS4 Pro mit 8GB? Garnicht?
Wie läuft das Spiel eigentlich auf der PS4 Pro mit 8GB? Garnicht?
Der Port ist einfach nur eine Zumutung. Womit wir wieder beim Thema "Schrott-Software-Sicherheit" wären. Wer dafür natürlich ein paar hundert Euro mehr auf den Tisch legen will, oder gar AMD kaufen will, soll's halt machen.
aufkrawall
2020-09-10, 17:20:03
Wie läuft das Spiel eigentlich auf der PS4 Pro mit 8GB? Garnicht?
Wann wirst du endlich mal kapieren, dass PC-Ports nicht ähnlich gut wie die Konsolen-Versionen laufen müssen? Bzw. tun das die DX12-Schrotthaufen in der Praxis sogar ziemlich selten.
Grendizer
2020-09-10, 17:22:41
Wann wirst du endlich mal kapieren, dass PC-Ports nicht ähnlich gut wie die Konsolen-Versionen laufen müssen? Bzw. tun das die DX12-Schrotthaufen in der Praxis sogar ziemlich selten.
Ja, aber das liegt an dem Spiel ... Death Stranding hat die Probleme nicht.
Aber auf Grundlage von einem verbuggten Spiel jetzt die Karte verteufeln finde ich persönlich fragwürdig. Bei normalen Multiplattform Spielen wird es die Probleme nicht geben. Und PS5 exklusives werden wird so schnell nicht auf dem PC sehen.
Edit: Aber ich werde Big Navi abwarten und auch schauen ob es eine 3080 mit 20 Gb tatsächlich geben wird.
aufkrawall
2020-09-10, 17:27:55
Bei normalen Multiplattform Spielen wird es die Probleme nicht geben.
Ich hatte auch noch andere Beispiele angeführt, aber das sind für dich wahrscheinlich auch nur Einzelfälle oder keine "normalen Multiplattform-Spiele"?
Es wird bestimmt in Zukunft nicht mehr regelmäßig Software-Müll geben und die Anforderungen mit der neuen Gen werden zudem auch sinken... :ucrazy4: :ulol4:
BlacKi
2020-09-10, 18:01:34
In Zero Dawn kannst du quasi gar nichts an VRAM einsparen, außer direkt die Texturen von ultra auf low zu stellen.
Und siehe da: Anders als mit 8GB-Karten, läuft das sowohl in 1440p als auch 4k ohne nennenswerte Spikes mit 16GB:
https://youtu.be/qHZk5pELquA
https://www.youtube.com/watch?v=ZbC6r51wFyM
Mit nur 10GB würde ich in 4k nach längerer Spielzeit Stocker oder verzögertes/verschlechtertes Streaming erwarten. Tolle Wurst für eine komplett neue, hochpreisige Grafikkarte und Last Gen Spiele...
schatten kostet eigentlich immer gut performance und bringen platz im Vram. in pubg zb. knapp 10%. mit ein paar anderen reglern die man sowieso senkt, da eh keiner alles auf ultra stellt mit einer high end karte weil unter 4k die performance sonst zu stark leidet, kommt man auch auf gut 1,5gb die man einsparen kann ohne die texturen angefasst zu haben.
in gewissen spielen zb. CoD bekommt man auch durchs senken der texturen einen netten performance boost. gerade bei streaming spielen ist es nicht mehr so, das texturen kostenlos sind was performance angeht.
dann ist es auch so, das der treiber eine wichtige rolle spielen kann. die gtx 970 hat es gezeigt, was ein guter treiber retten kann.
daneben werde ich wenn möglich sowieso DLSS anwenden, das spart ebenso nochmals speicher.
bis das relvant ist, stehen vl auch direct storage / nv io zur verfügung und die probleme sind damit dann eh passé.
20/24gb sind nett. den preis will ich aber nicht bezahlen. stand jetzt, mit angenommenen 900-1000€ für die 20gb version.
dargo
2020-09-10, 18:23:08
Man merkt sofort, dass Blacki kein HZD gespielt hat.
wolik
2020-09-10, 18:30:11
del
Emil_i_Lönneberga
2020-09-10, 18:32:12
Ich habe mal meine epischen Benchmark und Paint skills benutzt um meine 1080ti @ 2ghz zu vergleichen :freak:
https://i.imgur.com/JBn2cO6.jpg
Ich denke es gibt schon noch einen Teil 1080Ti Leute denen Turing zu unattraktiv war und jetzt zu ähnlichem Preis wie damals ihre 1080ti austauschen wollen. Wenn das Ding doch wenigsten 12GB hätte und damit kein Rückschritt wäre...
Mit 12GB hättest du auch keine Schrott-Software-Sicherheit, auch zu BigNavi mit 12GB schiel. Und an ein RDNA2 Gegenstück mit 16GB für 700-800€ glaube ich erst, wenn die Karte im Preisvergleich als lagernd gelistet wird und die Testberichte die Leistung bestätigen.
Liquaron
2020-09-10, 18:41:14
Sagt mal, was meint ihr welches Custom Design der 3080 mit am besten für OC und Lautstärke sein wird?
Linmoum
2020-09-10, 18:47:24
Es gab ja schon etliche Designsfails, aber das jetzt mit den Kabeln mittig... :freak: Um Himmels willen, das ist ja grotesk schlecht.
Sagt mal, was meint ihr welches Custom Design der 3080 mit am besten für OC und Lautstärke sein wird?
Frag das in einer Woche nochmal. :)
MfG
Raff
Linmoum
2020-09-10, 18:55:34
Das schaffst du bis dahin? :D
Armaq
2020-09-10, 18:59:27
Ich fände es sogar gut, wenn Nvidia mit dem Design der FE die Partner mal ein wenig unter Druck setzt - weil es sehr gut ist. Das fördert Innovation am Markt und bringt Schwung.
Tests kommen dann nächste Woche rein und wir sehen ja, wer mit welchen Mitteln strahlt.
Ex3cut3r
2020-09-10, 19:05:09
Ich hatte auch noch andere Beispiele angeführt, aber das sind für dich wahrscheinlich auch nur Einzelfälle oder keine "normalen Multiplattform-Spiele"?
Es wird bestimmt in Zukunft nicht mehr regelmäßig Software-Müll geben und die Anforderungen mit der neuen Gen werden zudem auch sinken... :ucrazy4: :ulol4:
Das du echt noch die Nerven hast. Diesen sind alles "Einzelfälle" Leuten kommt doch echt nicht bei. Rise of the Tomb Raider, HZD, Final Fantasy, Doom 2016/Eternal, Wolfenstein und meine neuste Entdeckung Control mit RT Max....Streamt dir ab 7.5 GB VRAM Verbrauch, plötzlich nur noch Matsch Texturen....Kein Scherz....und die Leute denken/dachten es ist ein Bug. X-D
Was mir bei den ganzen YouTube Unboxing Videos auffällt. Wo zur Hölle sind wieder die Schrauben der Karte? Oh nein, verklebt? Wenn ja, lol. Wie soll man die Wärmeleitpaste nach 1-2 Jahren erneuern?
Das Problem ist, dass man diese Streaming-Cheats nicht "wegparametisieren" kann. Da sieht man Grütze, kann aber nichts dagegen tun. Täte man etwas, würde es nämlich ehrlich ruckeln und die ganze Diskussion wäre viel einfacher mit Zahlen belegbar. Die Prosa glaubt einem ja niemand.
MfG
Raff
Ex3cut3r
2020-09-10, 20:32:19
Ja. Das stimmt. Aber Matsch Texturen will da auch niemand. Ampere schön und gut, mit den aktuellen verfügbaren Speichermengen aber keine Option, wenn man ohne Sorgen die nächsten 2-3 Jahre zocken will. 3090 mal ausgeblendet, mit dem Preis, dürfte Sie selbst für Familien Väter nicht finanzierbar sein. Vor allem mit der momentanen Arbeits Situation. Wer weiß schon was noch/nach Coroana kommt.
Erbsenkönig
2020-09-10, 20:37:07
Oh nein, verklebt? Wenn ja, lol. Wie soll man die Wärmeleitpaste nach 1-2 Jahren erneuern?
In 2 Jahren sollst du dir doch bereits eine 5080 mit 11 GB VRAM besorgt haben, sodass sich das Problem gar nicht erst stellt.:biggrin:
BlacKi
2020-09-10, 20:37:08
Das du echt noch die Nerven hast. Diesen sind alles "Einzelfälle" Leuten kommt doch echt nicht bei. Rise of the Tomb Raider, HZD, Final Fantasy, Doom 2016/Eternal, Wolfenstein und meine neuste Entdeckung Control mit RT Max....Streamt dir ab 7.5 GB VRAM Verbrauch, plötzlich nur noch Matsch Texturen....Kein Scherz....und die Leute denken/dachten es ist ein Bug. X-D
Was mir bei den ganzen YouTube Unboxing Videos auffällt. Wo zur Hölle sind wieder die Schrauben der Karte? Oh nein, verklebt? Wenn ja, lol. Wie soll man die Wärmeleitpaste nach 1-2 Jahren erneuern?
streaming spiele streamen auf jeder karte. probleme mit dem streaming gibts erst, wenn die grafikkarte neue texturen anfordert und sie die alten noch nicht löschen kann weil sie noch benötigt werden.
der kühler der karte selbst war nie bei der turing generation verklebt. es waren lediglich abdeckungen, die schrauben verdeckt haben um die lüfter auszutauschen. zum WLP paste tauschen brauchte man nur ein paar wenige schrauben lösen, nie kleber.
Ex3cut3r
2020-09-10, 20:38:41
Stimmt. Bei den Ampere Kühlern, sehe ich jetzt aber gar keine Schrauben. Bei Turing gabs auf der Rückseite einige. Nja, mal auf Gamer Nexus Teardown warten.
In 2 Jahren sollst du dir doch bereits eine 5080 mit 11 GB VRAM besorgt haben, sodass sich das Problem gar nicht erst stellt.:biggrin:
:biggrin: :up:
Schon wieder und dann auch nur 11GB? ;D ;D
Gibt es jetzt alle 2 Jahre 1GB mehr oder wie? ^^
BlacKi
2020-09-10, 20:45:55
Stimmt. Bei den Ampere Kühlern, sehe ich jetzt aber gar keine Schrauben. Bei Turing gabs auf der Rückseite einige. Nja, mal auf Gamer Nexus Teardown warten.
ich bin besser als GN:rolleyes:
look here
https://techrush.de/wp-content/uploads/2020/06/M%C3%B6glicher-Leak_RTX3080_Facebook.jpg
Ex3cut3r
2020-09-10, 20:47:56
Ok. Danke.
Daredevil
2020-09-10, 20:56:01
ich bin besser als GN:rolleyes:
look here
https://techrush.de/wp-content/uploads/2020/06/M%C3%B6glicher-Leak_RTX3080_Facebook.jpg
Das ist nicht das Finale Design, dort sind keine Schrauben zu sehen.
crux2005
2020-09-10, 20:59:43
In 2 Jahren sollst du dir doch bereits eine 5080 mit 11 GB VRAM besorgt haben, sodass sich das Problem gar nicht erst stellt.:biggrin:
In 2 Jahre schon 5080? Das wäre bissl früh. Eine 4080 kommt sicher auch mit 10 GB. /s Dank DirectStorage und SFS reicht das für 4K Gaming*.
* fügt paar Multiplatform 2019, 2020 Spiele hinzu. ;D
Nein, ohne Scherz. Hoffentlich prügelt AMD die 3080 Windelweich. Würde ich AMD wirklich gönnen.
Das du echt noch die Nerven hast. Diesen sind alles "Einzelfälle" Leuten kommt doch echt nicht bei. Rise of the Tomb Raider, HZD, Final Fantasy, Doom 2016/Eternal, Wolfenstein und meine neuste Entdeckung Control mit RT Max....Streamt dir ab 7.5 GB VRAM Verbrauch, plötzlich nur noch Matsch Texturen....Kein Scherz....und die Leute denken/dachten es ist ein Bug. X-D
Ich finde schlimmer das GeForce deutlich früher ins CPU Limit rutscht und Ruckelt als Radeon. Aber das interessiert NV nicht...
Edit: Jetzt erst fällt mir ein was ich ursprünglich sagen wollte. NV hat offensichtlich bei den neuen Xbox Konsolen abgeschaut. 8 GB für 1440p und 10 GB für 4K. Ob die Rechnung aufgeht werden wir sehen.
Mit 10GB ist das Ding nen Fail-sorry. Ich hab mich mal für die 3090FE registrieren lassen, in der Hoffnung dass AMD nach den offiziellen unabhängigen Benchs was zeigt. Wenn dann immer noch nichts kommt wird’s halt ne 3090
BlacKi
2020-09-10, 21:13:03
Das ist nicht das Finale Design, dort sind keine Schrauben zu sehen.
du siehst doch beim finalen design die abdeckungen zu den schrauben die man auf dem leak sieht.
muss ich dich an die hand nehmen:confused: *mitdernasedraufstubbs*
https://www.hardwareluxx.de/images/cdn01/E0DE504421AF4BB0AC82F43D216B160C/img/0A8D0C28F0D1454D8F68BE8C82DA1B45/NVIDIA-GeForce-RTX-3080-FE-Artikel-04_0A8D0C28F0D1454D8F68BE8C82DA1B45.jpg
Daredevil
2020-09-10, 21:16:11
du siehst doch beim finalen design die abdeckungen zu den schrauben sie man auf dem leak sieht.
muss ich dich an die hand nehmen:confused: *mitdernasedraufstubbs*
https://www.hardwareluxx.de/images/cdn01/E0DE504421AF4BB0AC82F43D216B160C/img/0A8D0C28F0D1454D8F68BE8C82DA1B45/NVIDIA-GeForce-RTX-3080-FE-Artikel-04_0A8D0C28F0D1454D8F68BE8C82DA1B45.jpg
[DargoModeOn]
Da sind trotzdem keine Schrauben zu sehen
[DargoModeoff]
Okay, die Abdeckung habe ich nicht gesehen. :D
Hakim
2020-09-10, 21:56:30
jetzt werden schon schrauben abgedeckt :), geht wohl Richtung Apple. Ich persönlich finde Schrauben gut platziert sogar schön
M4xw0lf
2020-09-11, 12:20:22
Paar weitere Werte der 3080:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
Ca 50% schneller als die 2080S im Durchschnitt.
Badesalz
2020-09-11, 12:46:19
Ca 50% schneller als die 2080S im Durchschnitt.Wow... Rechne mal vor bitte.
Evil Ash
2020-09-11, 12:53:57
Wow... Rechne mal vor bitte.
FarCry 4K:
65 fps * 1,5 = 97 fps.
Badesalz
2020-09-11, 13:14:34
Ah sorry... Ich hab mich alleine auf die "Percentage" drunter verlassen. Hab jetzt nicht gedacht, daß Videcardz am Dreisatz scheitert... Denen nach sind es 100% zu 67%.
Daß M4xw0lf auch die Werte von 2160p für sein "ca. im Durchschnitt" nimmt, damit hat er mich dann gekriegt :ulol:
M4xw0lf
2020-09-11, 13:15:59
:facepalm:
Denen nach sind es 100% zu 67%.
67 / 100 = 1,49
:facepalm:
Evil Ash
2020-09-11, 14:06:51
Ah sorry... Ich hab mich alleine auf die "Percentage" drunter verlassen. Hab jetzt nicht gedacht, daß Videcardz am Dreisatz scheitert... Denen nach sind es 100% zu 67%.
Daß M4xw0lf auch die Werte von 2160p für sein "ca. im Durchschnitt" nimmt, damit hat er mich dann gekriegt :ulol:
Das passt schon, Prozentrechnung kann schon schwierig sein, vor allem am Freitag, wenn schon 30 % der Woche rum sind ...
Stretcher
2020-09-11, 14:15:01
Kompletter Fail die 3070 und 3080, da wird AMD leichtes Spiel haben.
Kompletter Fail die 3070 und 3080, da wird AMD leichtes Spiel haben.
AMDs derzeit schnellste Karte scheitert an der GTX 1080 Ti. Die RTX 3080 liegt eine ganze Dimension vor der GTX 1080 Ti. Ja, total leicht. :ugly:
MfG
Raff
Ex3cut3r
2020-09-11, 14:33:49
AMDs derzeit schnellste Karte scheitert an der GTX 1080 Ti. Die RTX 3080 liegt eine ganze Dimension vor der GTX 1080 Ti. Ja, total leicht. :ugly:
MfG
Raff
Big Navi wird die Karten schon neu mischen, mache mir da keine Sorgen. :P
Außerdem mit 10GB ende 2021 sowieso obsolet. Die 3080 kauft man nicht, sondern man mietet Sie für ein 1.5 Jahre, danach reicht Sie für FHD. Oder als Briefbeschwerer.
Badesalz
2020-09-11, 14:39:36
67 / 100 = 1,49
:facepalm:Kein Shice Leute :facepalm: Hab gedacht die 2080S ist an der Stelle 67% so schnell wie die 3080 (100%). Es bleiben also 33% über, was die 3080 schneller ist. Ich muss mir wohl echt nochmal die MAthebüc her von meiner Nichte ausleihen (3.Klasse) :usweet:
:uup:
r3ptil3
2020-09-11, 14:41:35
Seasonic hat die 3070/3080/3090 in den Wattage Calculator aufgenommen:
Folgendes kam raus bei mir:
10700K, 2080 TI: 543 Watt (Referenz unten)
10700K, 3070: 513 Watt (-30 Watt)
10700K, 3080: 615 Watt (+72 Watt)
10700K, 3090: 645 Watt (+102 Watt)
https://seasonic.com/wattage-calculator
Ex3cut3r
2020-09-11, 14:45:43
Ist aber fragwürdig. Eine Ti hat 250W PL. Eine 3080 320W. Wie kommt Seasonic nun darauf, -30W zu berechnen? :freak:
WTF. Ich komme laut dem Calculator mit einem 3600 @ 4.4 @ 1.4 (1.375V) und einer RTX 2080 sowie 6 Gehäuselüftern, AIO. Auf 632W. :freak:
https://abload.de/thumb/unbenannt3iktd.png (https://abload.de/image.php?img=unbenannt3iktd.png)#
Gut, das ich mir ein RM750x 2018 Netzteil im Mai geholt habe. Mit der 3080 20G dufte dass genau passen. Von dem allgemeinen Deutschen Foren Tenor ala 90€ 500W reichen, habe ich noch nie was gehalten. :freak:
Ich betreibe halt Maximum Overclock, auch den RAM
Standard ist mir zu langweilig. :freak:
RAM: https://abload.de/img/zentimings_screenshotwkksg.png][/B][/I]
r3ptil3
2020-09-11, 14:46:30
Ist aber fragwürdig. Eine Ti hat 250W PL. Eine 3080 320W. Wie kommt Seasonic nun darauf, -30W zu berechnen? :freak:
Fehler - erster Eintrag sollte eine 3070 sein.
Armaq
2020-09-11, 15:04:39
Seasonic hat die 3070/3080/3090 in den Wattage Calculator aufgenommen:
Folgendes kam raus bei mir:
10700K, 2080 TI: 543 Watt (Referenz unten)
10700K, 3070: 513 Watt (-30 Watt)
10700K, 3080: 615 Watt (+72 Watt)
10700K, 3090: 645 Watt (+102 Watt)
https://seasonic.com/wattage-calculator
Ist aber fragwürdig. Eine Ti hat 250W PL. Eine 3080 320W. Wie kommt Seasonic nun darauf, -30W zu berechnen? :freak:
WTF. Ich komme laut dem Calculator mit einem 3600 @ 4.4 @ 1.4 (1.375V) und einer RTX 2080 sowieso 6 Gehäuselüftern, AIO. Auf 632W. :freak:
https://abload.de/thumb/unbenannt3iktd.png (https://abload.de/image.php?img=unbenannt3iktd.png)
Das kann ich bestätigen. Das wird so nicht funktionieren. Wenn ich die Kiste aufdrehe (also die Limits für Lüfter etc entferne), dann braucht die Kiste 650Watt, dabei ist die 2080Ti auf 300W beschränkt.
Keine Ahnung wie Seasonic auf diese Werte kommt. System siehe Profil.
Ex3cut3r
2020-09-11, 15:19:56
Das kann ich bestätigen. Das wird so nicht funktionieren. Wenn ich die Kiste aufdrehe (also die Limits für Lüfter etc entferne), dann braucht die Kiste 650Watt, dabei ist die 2080Ti auf 300W beschränkt.
Keine Ahnung wie Seasonic auf diese Werte kommt. System siehe Profil.
Laut Profil hast du doch ein 850W NT. Das sollte selbst mit einer 390 reichen.
EDIT: Jup. https://abload.de/thumb/unbenanntpfj8u.png (https://abload.de/image.php?img=unbenanntpfj8u.png)
Sardaukar.nsn
2020-09-11, 15:25:11
Big Navi wird die Karten schon neu mischen, mache mir da keine Sorgen. :P
Außerdem mit 10GB ende 2021 sowieso obsolet. Die 3080 kauft man nicht, sondern man mietet Sie für ein 1.5 Jahre, danach reicht Sie für FHD. Oder als Briefbeschwerer.
Ich schlage vor du gönnst dir die günstigste dual Fan 3080, drossel sie auf die Leistung der schnellsten AMD GPU und du wirst sehen -> es ist die leistete und kühlste Karte die du je hattest. :tongue:
Armaq
2020-09-11, 15:26:19
Laut Profil hast du doch ein 850W NT. Das sollte selbst mit einer 390 reichen.
Ging mir nicht um mich selbst, sondern darum das die Seasonic-Angaben falsch sind. Mit einem 650Watt NT wirst du die 3080 und insb. die 3090 nicht glücklich machen.
Asus verbaut sogar LEDs zum Debugging auf die 3 Rails der Top-Karte, damit du sehen kannst, wenn das Netzteil nicht abliefert ...
Ex3cut3r
2020-09-11, 15:28:02
Ging mir nicht um mich selbst, sondern darum das die Seasonic-Angaben falsch sind. Mit einem 650Watt NT wirst du die 3080 und insb. die 3090 nicht glücklich machen.
Asus verbaut sogar LEDs zum Debugging auf die 3 Rails der Top-Karte, damit du sehen kannst, wenn das Netzteil nicht abliefert ...
Achso. Dann sry. Ja 650W könnten ab 3080 knapp werden. Vorallem, wenn die CPU auch noch ans Limit geprügelt ist, Ahoi, Intel User @ 5.0 ghz +
Muss aber ein Game, welches die CPU auch gut ausglastet, mindestens 70% und mehr über längere Zeit.
Hakim
2020-09-11, 16:18:57
Ja ich glaube das wird nix bei mir mit der 3080, wenn müsste ich so ~85% PL gehen (und evt den 8700K etwas runtertakten). Habe jetzt auch kein Bock mir deswegen neues NT zu holen. Ich werde jetzt die Tests noch abwarten und dann entscheiden.
Mearest
2020-09-11, 16:55:45
Ich habe den i78700k RTX2080 ROG STRIX, 32GB RAM 2 SSD Festplatten, eine M2SSD und 3 Gehäuselüfter. Mein Energiemessgerät zeigt max 380 Watt an in Futurmark oder Games. Warum sollte ein gutes 600W Netzteil nicht reichen für eine 3080? (in meinem Fall, mit meiner Spec) Ich warte aber auch auf BN oder eine 20GB Version.
Emil_i_Lönneberga
2020-09-11, 17:23:20
Paar weitere Werte der 3080:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
Ca 50% schneller als die 2080S im Durchschnitt.
Tomb Raider, ohne DLSS & RTX
1440p 71% zur 2070S / 1080Ti
2160p 90% zur 2070S / 1080Ti
Far Cry
2160p 64% zur 2070S / 1080Ti
699€, läuft.
Hakim
2020-09-11, 17:25:33
Ich habe den i78700k RTX2080 ROG STRIX, 32GB RAM 2 SSD Festplatten, eine M2SSD und 3 Gehäuselüfter. Mein Energiemessgerät zeigt max 380 Watt an in Futurmark oder Games. Warum sollte ein gutes 600W Netzteil nicht reichen für eine 3080? (in meinem Fall, mit meiner Spec) Ich warte aber auch auf BN oder eine 20GB Version.
Hab gerade mal bei mir geschaut, Time Spy zieht gerade mal ~180-205W bei mir. Dem gegenüber schluckt Warzone schon ~230-245W. In beiden Fällen sieht es so zwar gut aus, aber denke auch das bei mir die 1060 das System extrem einbremst, sprich glaube zu den 200W mehr was die 3080W sich gönnt würde vermutlich das gesamte System auch mehr nuckeln. Aber wie gesagt, warte erst mal die Tests ab.
Ex3cut3r
2020-09-11, 17:56:43
Und was wollt ihr machen, wenn ein Next Gen Game kommt, das sowohl CPU als auch GPU sehr gut auslastet?
z.B.
RTX 3080
i9 9900k @ 5.0ghz
550W NT
320W GPU
150 - 200W CPU
3x SATA und/oder NVME 15W
3x Lüfter 30W
RGB Gedöns 15W
= 515W/580W
600W NT sollte reichen, mit den Bequiets 550W oder 500W Straight Powers in DE wirds aber sehr eng. :freak:
Die Frage ist dann eben, ob es denn unbedingt ein i9 9900k@5GHz sein muss. 320W sind ja auch mit älteren Grakas nicht so unüblich, wenn man sich mal bestimmte Designs anschaut. Da gehören ja seit der 1080Ti 300W+ zum guten Ton.
Ex3cut3r
2020-09-11, 18:05:44
Ja klar. Aber welcher Enthusiast will denn bei der CPU ein "Downgrade" betreiben? Kommt für die meisten nicht in Frage, allein schon wegen dem OC Ego. ;)
OK, aber die kaufen sich dann eh ein neues NT. :D
Bei mir werkelt atm ein alter Xeon 1230 und eine 1080Ti. Wenn W3 mit RT kommt würde ich mir auch was neues ein bauen. Sollte kein Problem sein, da meine Aorus ja auch Stock schon ein PT von 300W hat (voll aufgerissen auf 375W geht's auch bis 340W hoch, bringt nur unter Luft nix). NT kann das aber ab. :D
Ex3cut3r
2020-09-11, 18:12:23
Ok. Das klingt nicht schlecht bei dir, was solls den werden? Zen 3 oder wieder ein Intel?
Weiß ich noch nicht. Um ein CPU-Upgrade drücke ich mich so lange wie möglich, da ich keine Lust auf den Windows-Umzug habe. Wahrscheinlich kommt erst die Graka und dann gehe ich die CPU nächstes Jahr an. Momentan sieht mir Zen aber attraktiver aus
JaniC
2020-09-11, 18:23:55
Bin jetzt auch neugierig ob mein relativ neues be quiet Straight Power E11 550W ausreicht.
Habe auch gerade mal Unigine Superposition laufen lassen 8K, maximal 260 Watt angezeigt der Strommesser. Grafikkarte davon 185 Watt. War aber nicht voll ausgelastet.
Was ist denn mal ein guter Test, wo GPU und CPU stark belastet wird? Prime ist ja wieder nur CPU.
Prime + Furmark laufen lassen? ;)
Ich werf mal Anno 1800 an.
Hakim
2020-09-11, 18:26:20
Ansich für Worst Case ja, aber kann mir nicht vorstellen das ein Spiel ansatzweise CPU und GPU gleichzeitig so ausreizen kann.
Prime mit AVX ist afaik für Spiele auch nicht unbedingt realistisch. Insbesondere nicht auf allen Kernen ist da die dort gefahrene Auslastung doch der absolute Worstcase.
BlacKi
2020-09-11, 18:33:34
Prime + Furmark laufen lassen? ;)
wenn du prime mit zuvielen threads laufen lässt, dann hast du probleme furmark auszulasten.
einfach threads reduzieren bis die fps in furmark nicht beeinflusst werden.
Armaq
2020-09-11, 18:37:14
Ich bekomme im 3DMark die Maximalwerte hin?
JaniC
2020-09-11, 18:52:09
Also bei Anno 1800 war der Höchstwert 330 Watt.. 200W davon die RTX2080.
CPU läuft mit 4,8 Ghz und 1,264 VCore.
Jetzt läuft Prime custom FFT in place, CPU Package zieht 130 Watt, Wattmeter zeigt 190 Watt an.
Wenn ich bei Afterburner den OC Scanner anwerfe, geht der Verbrauch auf 420 Watt. Also mit Prime parallel.
Das dürfte absoluter Worst Case sein.
Das dürfte passen mit ner RTX3080. Sonst halt TDP auf 300 festsetzen oder so.
Meine 2080 läuft auch auf 0.925mV per custom Curve und zieht nicht mehr als 230 Watt im Extremfall. Die 3fps, die ich dadurch verliere, sind es mir auf jeden Fall wert. Taktet trotzdem mit 1875-1890, mehr als die meisten bei voller Voltage.
Dafür wird sie nicht wärmer als 70°C und ich habe Ruhe im Case.
HWMonitor + Co:
https://abload.de/img/powerdrawmmk6x.jpg
Ex3cut3r
2020-09-11, 19:08:16
Ich kann Crysis 3 empfehlen, das Level mit dem Gras, dazu die 1080Ti oder 2080Ti mix Max PT fahren. Sollten 300W + sein. Dazu den 9900k @ 5.1/5.2 ausfahren. Was kommt raus? 550-600W?
Armaq
2020-09-11, 19:14:32
Also bei Anno 1800 war der Höchstwert 330 Watt.. 200W davon die RTX2080.
CPU läuft mit 4,8 Ghz und 1,264 VCore.
Jetzt läuft Prime custom FFT in place, CPU Package zieht 130 Watt, Wattmeter zeigt 190 Watt an.
Wenn ich bei Afterburner den OC Scanner anwerfe, geht der Verbrauch auf 420 Watt. Also mit Prime parallel.
Das dürfte absoluter Worst Case sein.
Das dürfte passen mit ner RTX3080. Sonst halt TDP auf 300 festsetzen oder so.
Meine 2080 läuft auch auf 0.925mV per custom Curve und zieht nicht mehr als 230 Watt im Extremfall. Die 3fps, die ich dadurch verliere, sind es mir auf jeden Fall wert. Taktet trotzdem mit 1875-1890, mehr als die meisten bei voller Voltage.
Dafür wird sie nicht wärmer als 70°C und ich habe Ruhe im Case.
HWMonitor + Co:
https://abload.de/img/powerdrawmmk6x.jpg
Raytracing! Die Karte braucht wirklich mehr Saft wenn du RT machst. Da brennt die Hütte ganz anders. Ich limitiere die Karte ja auch im Normalfall bei 240W. Das geht aber bei RT on ziemlich in die Performance-Hose und mit dem 3DMark RT Bench kann die Karte sich mal richtig austoben (aka Notfalllüftung bei 340W).
Emil_i_Lönneberga
2020-09-11, 19:14:58
Bin jetzt auch neugierig ob mein relativ neues be quiet Straight Power E11 550W ausreicht.
Habe auch gerade mal Unigine Superposition laufen lassen 8K, maximal 260 Watt angezeigt der Strommesser. Grafikkarte davon 185 Watt. War aber nicht voll ausgelastet.
Was ist denn mal ein guter Test, wo GPU und CPU stark belastet wird? Prime ist ja wieder nur CPU.
Prime + Furmark laufen lassen? ;)
Ich werf mal Anno 1800 an.
Reicht dicke, das kannst du deine 3080 auch auf 400W knüppeln. An sich sinnlos, da die Karten wahrscheinlich wieder bei ~2050 MHz dicht machen und dafür keine 400W brauchen. Wir werden sehen.
Habe selber auch das SP E10 600W und E11 550W.
Der 3900X(T) liegt bei 85W in Spielen, der 3800X(T) bei 65W.
https://www.computerbase.de/2020-07/amd-ryzen-9-3900xt-7-3800xt-5-3600xt-test/3/#abschnitt_takt_temperatur_und_stromverbrauch_in_spielen
Als kostenloser Benchmark mit Vulkan, DX11 und DX12 eignet sich der hier ganz gut, da alle verfügbaren Kerne bei 60-80% liegen und die GPU auf Anschlag läuft. Das dürfte für die Verbrauchsmessung in Spielen die grobe Richtung vorgeben.
Besser als Prime und Furmark laufen zu lassen.
https://www.stardock.com/games/starcontrol/benchmark?utm_source=pardot&utm_content=&utm_campaign=2019-12-13-gaming-star-control-origins-benchmark-en-email
https://youtu.be/BfGcjzQiCH8?t=74
Mearest
2020-09-11, 19:35:34
Ich habe gerade mal den 3DMark Raytracing Bench gemacht auf UWQHD 1440p mit allen auf High (Max). 308 Watt verbrauch laut Messgerät an der Steckdose. Ich lade gerade mal Tomb Raider mit Max Raytracing mal sehen.
edit: Shadow Of The Tomb Raider Raytracing Ultra 331Watt Takt 1980-2010. Kein Undervolding auf der GPU. Ist immer der ganze PC die Watt Zahlen.
Ex3cut3r
2020-09-11, 19:41:51
Solange ihr keinen Intel 8-10 Kerner @ 5.0ghz + Eine RTX 3080 aufwärts im Rechner habt, müsst ihr euch mit 500-600W keine Gedanken machen IMO.
Mearest
2020-09-11, 19:42:58
Jap. Ich schiele ja auf den Neuen AMD Prozessor. Wenn neuer Prozzi, kommt auch neues Netzteil. Aber ich mach mir mit meiner Spec (i78700k) auch keine Sorgen, wegen dem Netzteil.
Hakim
2020-09-11, 19:44:06
Denke ich auch, die 750W Empfehlung ist auch halt sicherheitshalber seitens NV, weil viele 08/15 Chinaböller NTs drin haben
Ich kann Crysis 3 empfehlen, das Level mit dem Gras, dazu die 1080Ti oder 2080Ti mix Max PT fahren. Sollten 300W + sein. Dazu den 9900k @ 5.1/5.2 ausfahren. Was kommt raus? 550-600W?
Konsole öffnen "map fields", Enter -> loslegen (und mal den alten PCGH-Bench mittesten (https://www.pcgameshardware.de/Crysis-3-Spiel-20599/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/)). :D
MfG
Raff
Hakim
2020-09-11, 20:11:57
Falls es wenn interessiert
7gSg8fkSVm4
ab so min 17 erzählt er was zu Leistungsaufnahme der 3080/90er
Emil_i_Lönneberga
2020-09-11, 21:16:16
https://videocardz.com/newz/asus-msi-and-gigabyte-reveal-more-details-on-geforce-rtx-3080-custom-designs
https://cdn.videocardz.com/1/2020/09/GIGABYTE-GeForce-RTX-3080-PCB.jpg
JaniC
2020-09-11, 21:18:56
Falls es wenn interessiert
https://youtu.be/7gSg8fkSVm4
ab so min 17 erzählt er was zu Leistungsaufnahme der 3080/90er
Ganz interessant. Habe mal hingespult. Er sagt, bei Control in 4K zieht ne RTX2080 bei 60fps 240 Watt.
Eine RTX3080 braucht für die gleiche Performance nur 130 Watt.
Hoffe, das stimmt so. ;)
Daredevil
2020-09-11, 21:28:53
Das ist ja jetzt nichts neues, das dicke Karten Strom sparen, wenn sie nicht ausgelastet sind.
Eine 2080ti kannst du auch schon mit der Perf einer 2080 laufen lassen bei ~150w, da sind die 130w sehr realistisch.
Daraus dann aber Perf/watt 1.9x zu schlagen is halt quatsch, es sei denn wir haben ne Armee von 60fps vsync Gamer.
Armaq
2020-09-11, 21:51:52
Ganz interessant. Habe mal hingespult. Er sagt, bei Control in 4K zieht ne RTX2080 bei 60fps 240 Watt.
Eine RTX3080 braucht für die gleiche Performance nur 130 Watt.
Hoffe, das stimmt so. ;)
Es gibt keine 2080 die 60 fps bei Control mit 4k macht...
Das ist ja jetzt nichts neues, das dicke Karten Strom sparen, wenn sie nicht ausgelastet sind.
Eine 2080ti kannst du auch schon mit der Perf einer 2080 laufen lassen bei ~150w, da sind die 130w sehr realistisch.
Daraus dann aber Perf/watt 1.9x zu schlagen is halt quatsch, es sei denn wir haben ne Armee von 60fps vsync Gamer.
Yep, das ist echt clever hinkonstruiert. So clever, dass ich das gar nicht erwähnt habe.
Es gibt keine 2080 die 60 fps bei Control mit 4k macht...
Klaro, mit DLSS P. :ugly:
MfG
Raff
Troyan
2020-09-11, 22:44:24
Sieht wohl so aus als ob nVidia das Review-Datum verschoben hat. 16.09 für die 3080FE: https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/397315/rtx-3080-founders-edition-review-date-sept-16th-/
JaniC
2020-09-11, 22:47:51
Das ist mir schon klar aber 130 statt 240 Watt find ich schon ganz nett. Da kann man ja dann die Mehrleistung von ablesen.
Hakim
2020-09-11, 22:57:09
Ein Tag vor den Reviews Bestellbar? Ne ich warte auf die Tests bevor ich was bestelle, auch wenn ich dafür mit Wartezeit bestraft werde
Troyan
2020-09-11, 22:59:52
Nein, ein Tag später. 17.09 ist Verkauf. Keine offiziellen Vorbestellungen erlaubt.
Hakim
2020-09-11, 23:03:05
Aber da steht doch das es ab dem 15th verfügbar sein soll?
OK gecheckt :) 3070 und 15th Oktober
Troyan
2020-09-11, 23:04:35
3070 ist ab dem 15.10. verfügbar.
Colin MacLaren
2020-09-11, 23:20:39
Für 1080p - selbst mit Raytracing - ist die RTX 3080 völlig overpowered.
Erneut: Was ein Blödsinn. Das neueste Battlefield idee CoD, da will man zum Mithalten such seine 144fps, besser 240fps sehen und ganz schnell ist die 3080 ausgereizt.
Lawmachine79
2020-09-12, 01:40:49
Es gibt 360hz Monitore. Was kann da schon noch overpowered sein.
Sardaukar.nsn
2020-09-12, 06:52:49
@JaniC: Ich werde mein Seasonic 550W auch erstmal behalten und testen. Das läuft am oberen Ende immer noch sehr effizient mit über 90% und der Überlast-Schutz schaltet wohl erst bei 728 Watt ab. https://www.pcgameshardware.de/Netzteil-Hardware-219902/Tests/seasonics-focus-plus-im-test-1241873/
Aber mit so hohen Spitzen rechne ich nicht. Ryzen 3600 (evtl. bald 4700) und RTX 3080.
Aber schön zu sehen das hier sich nicht verrückt gemacht wird wie in anderen Foren wo Aussagen wie "unter 750W brauchst du die 3080 gar nicht erst einzubauen" die gängige Meinung sind.
@LM79: Es muss ja immer eine neue Sau durchs Dorf getrieben werden. Was sah ich zuletzt, Aldi Gaming Laptop mit 300hz Display :freak: da wird noch einiges auf uns zu kommen: https://www.computerbase.de/2020-08/medion-beast-x10-erazer-hunter-aldi-nord/
Wer wird sich noch eine 3080 Founders Edition bestellen?
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
Lowkey
2020-09-12, 09:27:02
Die FE hat ein kurzes PCB und damit sind Wasserkühler-Karten relativ klein.
seaFs
2020-09-12, 10:30:21
Knapp 450 Beiträge und noch kein einziges Review. Was soll der Thread?
Armaq
2020-09-12, 11:18:36
Das ist mir schon klar aber 130 statt 240 Watt find ich schon ganz nett. Da kann man ja dann die Mehrleistung von ablesen.
Die Mehrleistung kannst du in den Ergebnissen von videocardz ablesen. Da wird es nur kleine Abweichungen zu PCGH und Co. geben. Die Mehrperformance im Verhältnis zum Mehrverbrauch ist in Ordnung, mehr aber auch nicht.
Knapp 450 Beiträge und noch kein einziges Review. Was soll der Thread?
Wozu Tests? Just buy it!
Als Review-Thread ist das hier untauglich.
Knapp 450 Beiträge und noch kein einziges Review. Was soll der Thread?
Niemand interessiert sich heutzutage noch für Zahlen. Hoffnung und Verschwörungstheorien haben auch in dem Hobby Einzug erhalten.
00-Schneider
2020-09-12, 12:03:36
Es gibt 360hz Monitore. Was kann da schon noch overpowered sein.
Sieht man da überhaupt einen nennenswerten Unterschied zu 120/144Hz?
aufkrawall
2020-09-12, 13:15:29
Sieht man da überhaupt einen nennenswerten Unterschied zu 120/144Hz?
Falls das Strobing gescheit mit VRR funktioniert: Nein, ist aus technischer Sicht völliger Irrsinn.
w0mbat
2020-09-12, 14:05:45
Haben wir jetzt echt 10 Seiten ohne reviews und der Faden bleibt offen? Das kann doch nicht euer Ernst sein...
JaniC
2020-09-12, 14:10:49
Hier ist es schon noch etwas weniger Grabenkampf als im Ampere Speku Thread, daher gefällt mir der Thread relativ gut.
Aber ein Review Thread isses natürlich nicht. Vielleicht umbenennen? Aber eigentlich auch wumpe.
BlacKi
2020-09-12, 14:20:00
wenn du den faden schließt kann man keine reviews mehr posten. sei es als leaks oder sonstige peformance einordnungen.
was viel mehr stört ist das ständige meckern darüber das es an reviews mangelt. die diskussionen in verschiedenen threads entzerrt die diskussion etwas und macht das lesen und diskutieren angenehmer.
wenn die reviews alles raus sind entwickelt sich der thread sowieso in diese richtung.
w0mbat
2020-09-12, 14:20:38
Man muss jetzt halt zwei speku threads lesen, wenn man alles lesen will. Und dann, wenn echte reviews kommen, sind die ab seite 15 zu finden?
mMn völlige Fehlentscheidung den thread so laufen zu lassen.
Machen wir das ab jetzt immer so? Also ein thread im Spekuforum und ein zweiter hier, der auch 90% Speku ist? :ugly:
BlacKi
2020-09-12, 14:30:06
du übertreibst massiv. die netzteil/vram diskussion hätte es auch mit reviews gegeben und das meiste hier sind einfach nur diskussionen ohne bezug auf spekulation.
ich frag mal nen mod ob der den ganzen spam mal entfernen kann.
w0mbat
2020-09-12, 14:38:09
ich frag mal nen mod ob der den ganzen spam mal entfernen kann.
Finde ich auch, der thread gehört gelöcht bis es echte reviews gibt :smile:
just4FunTA
2020-09-12, 15:54:59
Wer wird sich noch eine 3080 Founders Edition bestellen?
https://www.youtube.com/watch?v=SxtfNcm45xk&ab_channel=Moore%27sLawIsDead
zu kleiner vram, aber dank fehlender Konkurrenz werde ich das wohl sein. ;(
MasterElwood
2020-09-12, 16:13:46
Es gibt 360hz Monitore. Was kann da schon noch overpowered sein.
Das is GARNIX :-)
Mein Traum ist es FS 2020 in Ultra in einer HP Reverb G2 zu spielen - also in 4320x2160 mit STABILEN!!! 90FPS.
Das wird auch die 4090 in 2 Jahren noch nicht schaffen :-)))
MasterElwood
2020-09-12, 16:15:16
Finde ich auch, der thread gehört gelöcht bis es echte reviews gibt :smile:
Naja - Unboxings gehören ja auch dazu und die gibt's ja schon
zu kleiner vram, aber dank fehlender Konkurrenz werde ich das wohl sein. ;(
Werd mir wohl oder übel auch eine kaufen. Möchte RDR 2, KDC, Crysis Remake und Cyberpunk in voller Pracht ( 4K Ultra ) spielen.
Der VRAM ärgert mich dabei schon aber die 3090 ist ja ein Witz, betrachtet man die Preisleistung.
Die 3080 wird dann entweder durch Big Navi oder durch eine folgende Ti ausgetauscht.
Das is GARNIX :-)
Mein Traum ist es FS 2020 in Ultra in einer HP Reverb G2 zu spielen - also in 4320x2160 mit STABILEN!!! 90FPS.
Das wird auch die 4090 in 2 Jahren noch nicht schaffen :-)))
DLSS 2.1 hat doch offiziell VR Support ;)
r3ptil3
2020-09-12, 19:09:34
Übrigens im neuen Video aus dem offiziellen Nvidia Kanal erwähnt der Typ folgendes:
"3 times quieter and 20% cooler then the previous generation"
Ich bin gespannt, was da dran ist.
https://www.youtube.com/watch?v=lf1OWiTNY60
Daredevil
2020-09-12, 19:32:32
Was zum fick ist "3 mal leiser"?
Hakim
2020-09-12, 19:34:50
Was zum fick ist "3 mal leiser"?
Marketing? :)
w0mbat
2020-09-12, 19:42:28
1.9x perf/W*
*lol jk
Troyan
2020-09-12, 19:50:41
Was zum fick ist "3 mal leiser"?
9db weniger. :)
Hier mal ein paar Werte der 3080 mit GPU-Z und etwas zum Übertakten des Speichers: https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy
Laut GPU-Z benötigt die GPU nur 185W. Das ist deutlich weniger als die 2080TI. Der Speicher und der Speichercontroller saugt ziemlich.
hq-hq
2020-09-12, 19:50:46
Was zum fick ist "3 mal leiser"?
ca. 15dB leiser :freak:
Emil_i_Lönneberga
2020-09-12, 19:51:10
1.) neuer Kühler, Anschlüsse versetzt am Kartenende: https://scontent-frt3-2.xx.fbcdn.net/v/t1.0-9/119176965_3287044944682847_8165022653280388190_o.png?_nc_cat=101&_nc_sid=2d5d41&_nc_ohc=FHDkXGT476oAX_Hu_aj&_nc_ht=scontent-frt3-2.xx&oh=a579dd58bc88b20621d9734b76f2bef3&oe=5F80CDC4
2.) bis zu 370W bei der 3080 FE: https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy
317W / 100% TDP und 71°C, Drehzahl fehlt leider.
Troyan
2020-09-12, 20:21:42
Es sind 40W mehr zur 2080TI mit 14gbit/s. Alleine der Mehrverbrauch macht schon 12,5% des TDP-Limits aus. Das ist schon krass. Da die 3080 auch nur 50% 30% mehr Bandbreite hat, erklärt es, wieso Perf/W nicht weiter steigt. 2,14x mehr Strom für den Speicher für 1,5x 1,3x mehr Bandbreite...
Sardaukar.nsn
2020-09-12, 20:38:45
2.) bis zu 370W bei der 3080 FE: https://videocardz.com/newz/overclocking-nvidia-geforce-rtx-3080-memory-to-20-gbps-is-easy
Für die Leute die eine 3080 mit Wasser kühlen wollen ein ziemlicher Abturner. Die FE dürfen also 370 Watt ziehen, die Reference nur 350W. Das wirft meinen bisherigen Plan über den Haufen. :P
Benutzername
2020-09-12, 20:43:25
Na Lederjacke möchte Dir Wasserkühler natürlich auch eine Founder's Edition verkaufen. ;)
Fragt sich ob man irgendwas am Powerlimt schrauben können wird. Dann wäre es egal.
-----------------------
Werd mir wohl oder übel auch eine kaufen. Möchte RDR 2, KDC, Crysis Remake und Cyberpunk in voller Pracht ( 4K Ultra ) spielen.
Der VRAM ärgert mich dabei schon aber die 3090 ist ja ein Witz, betrachtet man die Preisleistung.
Die 3080 wird dann entweder durch Big Navi oder durch eine folgende Ti ausgetauscht.
Die GErüchteküche gerüchtet, daß Partnerkarten durchaus mehr VRAM haben dürfen, dann aber mit kräftigem saftigem gesalzenem Preisaufschlag.
Emil_i_Lönneberga
2020-09-12, 20:47:17
Für die Leute die eine 3080 mit Wasser kühlen wollen ein ziemlicher Abturner. Die FE dürfen also 370 Watt ziehen, die Reference nur 350W. Das wirft meinen bisherigen Plan über den Haufen. :P
Was spricht gegen die FE? Von EK wird es zeitnah einen Kühler geben (s.o.) und für einen Bykski inklusive Backplate ist sogar schon die Verfügbarkeit ab 24.09 gesichert.
https://ezmodding.com/Nvidia-RTX-3080-3090-FE-Acryl-inkl-Backplate
https://ezmodding.com/Nvidia-RTX-3080-3090-FE-POM-inkl-Backplate
ÜBER UNS
eZModding.com ist ein Unternehmen aus Essen (Deutschland), welches sich auf den Vertrieb von Wasserkühlungskomponenten und PC-Zubehör spezialisiert hat. Wir sind zusätzlich die Europavertretung vom asiatischen Marktführer BYKSKI.
just4FunTA
2020-09-12, 21:06:52
Werd mir wohl oder übel auch eine kaufen. Möchte RDR 2, KDC, Crysis Remake und Cyberpunk in voller Pracht ( 4K Ultra ) spielen.
Der VRAM ärgert mich dabei schon aber die 3090 ist ja ein Witz, betrachtet man die Preisleistung.
Die 3080 wird dann entweder durch Big Navi oder durch eine folgende Ti ausgetauscht.
hmm das Problem habe ich nicht, die Spiele die ich spiele laufen auch mit meiner gtx1080 sehr gut aber halt nur @1440p. Am vernünftigsten wäre es wohl wenn ich auf BF6 warte und dann entscheide was ich mache. Anderseits möchte ich endlich auf Hdmi2.1 umsteigen um am 55" auch mal mit 4k 120Hz haben zu können. Aktuell stehe ich vor der Wahl 1440p @ 120Hz oder 4k @ 60Hz. :/
Ach diese verdammte Ungeduld, wenn doch wenigstens AMD eine 16gb Karte vorstellen würde, aber von denen kommt ja rein garnichtes. :frown:
wolik
2020-09-12, 21:31:01
Für die Leute die eine 3080 mit Wasser kühlen wollen ein ziemlicher Abturner. Die FE dürfen also 370 Watt ziehen, die Reference nur 350W. Das wirft meinen bisherigen Plan über den Haufen. :P
Schon mal in Betracht gezogen eine gebrauchte Netzteil 750 Watt für 15 Euro zu kaufen?
https://www.ebay-kleinanzeigen.de/s-anzeige/compatpower-netzteil-750-watt/1509420320-225-16395
Bei eine 700 Euro Karte ich werden nicht auf Explosion von Netzteil (550Watt) warten.
Das is GARNIX :-)
Mein Traum ist es FS 2020 in Ultra in einer HP Reverb G2 zu spielen - also in 4320x2160 mit STABILEN!!! 90FPS.
Das wird auch die 4090 in 2 Jahren noch nicht schaffen :-)))
Mit Quad 3090 (150 TFLOPs) wäre das schon am 24.09. möglich wenn nicht MS mit DX12 und Nvidia mit Desinteresse auf SLI da gewesen. Ok. noch Preis Frage...
Aber für ein Traum 7K auszugeben? Kumpel von mir, hat mich besucht. Auf Motorrad. Triumph. Ein Traum. Es ist schon zweite. Und wir reden von 1,5K OMG.
BiZiNiZz
2020-09-12, 21:37:01
Schon mal in Betracht gezogen eine gebrauchte Netzteil 750 Watt für 15 Euro zu kaufen?
https://www.ebay-kleinanzeigen.de/s-anzeige/compatpower-netzteil-750-watt/1509420320-225-16395
Bei eine 700 Euro Karte ich werden nicht auf Explosion von Netzteil (550Watt) warten.
Wirklich? Ich würd mir schon so keinen Chinaböller als Netzteil kaufen und erst recht nicht einen gebrauchten China Böller auf eBay.
TobiWahnKenobi
2020-09-12, 21:37:36
hmm das Problem habe ich nicht, die Spiele die ich spiele laufen auch mit meiner gtx1080 sehr gut aber halt nur @1440p. Am vernünftigsten wäre es wohl wenn ich auf BF6 warte und dann entscheide was ich mache. Anderseits möchte ich endlich auf Hdmi2.1 umsteigen um am 55" auch mal mit 4k 120Hz haben zu können. Aktuell stehe ich vor der Wahl 1440p @ 120Hz oder 4k @ 60Hz. :/
Ach diese verdammte Ungeduld, wenn doch wenigstens AMD eine 16gb Karte vorstellen würde, aber von denen kommt ja rein garnichtes. :frown:
wenn du es noch aussitzen willst (etwas, worüber ich zwar auch nachdenke, aber ich bin zu schwach, nicht auf bestellen zu klicken), nimm doch den club3d DSC-adapter. wenn man sich an dessen macken gewöhnt hat, kann man damit zurechtkommen.. 120Hz gehen damit bis 4K über dp1.4, nur gibts dann kein gsync, was aber irgendwie egal ist.. zumindest wenn ich battlefront spiele (sync off / ~100fps).
(..)
mfg
tobi
Sardaukar.nsn
2020-09-12, 21:39:14
@Emil_i_Lönneberga: Bei der FE mag ich den neuen Stromstecker so gar nicht. Ich habe da aktuell eine wunderbare Lösung für meine vertikal verbaute 1080ti gefunden, die würde ich gerne weiter nutzen. Siehe Signatur. Hatte eigentlich auf eine EVGA gehofft wo die Garantie auch beim Kühler Umbau erhalten bleibt. Aber ich warte erstmal ab, vielleicht darf die kleine EVGA auf Reference PCB ja doch etwas mehr Power Target.
@wolik: Danke für den Hinweis scheint ja ein super Schnäppchen zu sein. Ich werde aber bei meinem Seasonic bleiben und es einfach ausprobieren bzw. drauf an kommen lassen.
just4FunTA
2020-09-12, 21:44:48
wenn du es noch aussitzen willst (etwas, worüber ich zwar auch nachdenke, aber ich bin zu schwach, nicht auf bestellen zu klicken), nimm doch den club3d DSC-adapter. wenn man sich an dessen macken gewöhnt hat, kann man damit zurechtkommen.. 120Hz gehen damit bis 4K über dp1.4, nur gibts dann kein gsync, was aber irgendwie egal ist.. zumindest wenn ich battlefront spiele (sync off / ~100fps).
(..)
mfg
tobi
funktioniert leider nicht mit pascal, geht nur mit turing.
BlacKi
2020-09-12, 21:45:41
Aber für ein Traum 7K auszugeben? Kumpel von mir, hat mich besucht. Auf Motorrad. Triumph. Ein Traum. Es ist schon zweite. Und wir reden von 1,5K OMG.
es ist der wertverfalll den ich mir nicht leisten kann/will. nicht die summe die ich überweißen muss. ne triumph ist sicher auch recht werstabil. das war die 2080ti auch bis zur 3000er serie. aber bei der 3090 steht eben noch die 3080 20gb im raum, die die 3090 im wert drücken könnte. die 3090 verliert mehr als doppelt soviel wert wie die 3080, ist dabei aber wohl gerade mal 15% schneller.
Was spricht gegen die FE? Von EK wird es zeitnah einen Kühler geben (s.o.) und für einen Bykski inklusive Backplate ist sogar schon die Verfügbarkeit ab 24.09 gesichert.
https://ezmodding.com/Nvidia-RTX-3080-3090-FE-Acryl-inkl-Backplate
https://ezmodding.com/Nvidia-RTX-3080-3090-FE-POM-inkl-Backplate
ist kein EK kühler, ist bloß ein bückstück -.-
wolik
2020-09-12, 21:48:15
@wolik: Danke für den Hinweis scheint ja ein super Schnäppchen zu sein. Ich werde aber bei meinem Seasonic bleiben und es einfach ausprobieren bzw. drauf an kommen lassen.
Nicht dafür. Secondmarkt ist voll legitim. Wir sind aber sehr stark in OT :biggrin:
Ich hoffe Mods bisschen aller Beiträge "reduzieren"
Hat einer Theorie, wieso NDA / Tests soll jetzt zwei Tage später fallen?
es ist der wertverfalll den ich mir nicht leisten kann/will. nicht die summe die ich überweißen muss. ne triumph ist sicher auch recht werstabil. das war die 2080ti auch bis zur 3000er serie. aber bei der 3090 steht eben noch die 3080 20gb im raum, die die 3090 im wert drücken könnte. die 3090 verliert mehr als doppelt soviel wert wie die 3080, ist dabei aber wohl gerade mal 15% schneller.
Du fährst von Händlerhof und hast du schon 15-20% "eingebüsst" :wink: 3080 / 20Gb ist nicht mehr als "schöne Internet Märchen" Klar ein Platz für 3080Ti ist noch da. Und wie er schnell gefühlt wird hängt von AMD.
ist kein EK kühler, ist bloß ein bückstück -.-
Kürzere WK finde ich sehr komisch. :redface:
Nicht dafür. Secondmarkt ist voll legitim. Wir sind aber sehr stark in OT :biggrin:
Ich hoffe Mods bisschen aller Beiträge "reduzieren"
Hat einer Theorie, wieso NDA / Tests soll jetzt zwei Tage später fallen?
Ja. Die Gründe findet man auf der 3DCenter News Seite. Klingen auch vollkommen plausibel zur aktuellen Zeit.
wolik
2020-09-12, 22:01:31
Ja. Die Gründe findet man auf der 3DCenter News Seite. Klingen auch vollkommen plausibel zur aktuellen Zeit.
Ok.Thx. Lieferschwierigkeiten.
TobiWahnKenobi
2020-09-12, 22:02:39
@just4funta
ups.. sorry.. ja stimmt - da war ja was.. hatte ich nicht mehr auf dem schirm..
(..)
mfg
tobi
MasterElwood
2020-09-12, 22:05:27
DLSS 2.1 hat doch offiziell VR Support ;)
Die Games müssen es aber auch unterstützen. FS2020 unterstützt bis jetzt ja nicht mal normales DLSS. Hell - es unterstützt ja noch nicht mal DX12. EIN MICROSOFT GAME!!!
wolik
2020-09-12, 22:25:07
DLSS 2.1 hat doch offiziell VR Support ;)
Ich hoffe jeder kann sich erinnern mit was bei Präzi ( 19. September 2014) hat 980 sich "geschmückt"? Genauer mit VR.
:biggrin: Was hat man davon bis Heute gesehen? Null Koma nichts.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=8
NikLaw
2020-09-12, 23:08:21
Hab gerade mein Netzteil getauscht, vorher 500 W Straight Power 10, jetzt 750 W Straight Power 11, läuft jetzt schon alles viel schneller und 370 W müssen mich auch nicht schrecken, außer der Kühler der 3080 versagt...
Hakim
2020-09-12, 23:18:49
Du hast NT getauscht und alles läuft schneller? War alles PT manuell limitiert oder was?
Ich hoffe jeder kann sich erinnern mit was bei Präzi ( 19. September 2014) hat 980 sich "geschmückt" Genauer mit VR.
:biggrin: Was hat man davon bis Heute gesehen? Null Koma nichts.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32697-nvidia-geforce-gtx-980-und-970-mit-maxwell-architektur-im-xxl-test.html?start=8
Das ist falsch. Nvidia hat genauso wie AMD die Treiberunterstützung für Asynchronous Time Warp geliefert. Beide haben da auch in den folgenden Jahren Support für die VR Hersteller geliefert. Nvidia in der Regel etwas früher als AMD.
Die Games müssen es aber auch unterstützen. FS2020 unterstützt bis jetzt ja nicht mal normales DLSS. Hell - es unterstützt ja noch nicht mal DX12. EIN MICROSOFT GAME!!!
Microsoft war Publisher. Die Kartendaten werden von einer dritten Firma aggregiert und aufbereitet.
Ich würde die Hoffnung nicht auf eine Integration aufgeben. Nvidia wird nun versuchen DLSS an möglichst vielen Fronten aktiv zu pushen, um ihren Vorsprung auf der Softwareseite auszuspielen.
wolik
2020-09-13, 02:12:43
Das ist falsch. Nvidia hat genauso wie AMD die Treiberunterstützung für Asynchronous Time Warp geliefert. Beide haben da auch in den folgenden Jahren Support für die VR Hersteller geliefert. Nvidia in der Regel etwas früher als AMD.
Na..ja... Nvidia liefert schon mit SLI (NVLink) 2080Ti sehr viel Leistung ... nur kein Einziege Spiel (von neue AAA Titel) unterstütz das mehr. So wie mit VR. Hat Alex von tolle Future von Nvidia profitiert? Nein hat er nicht. Welche sonst VR Spiel hat das?
N0Thing
2020-09-13, 03:37:08
Was zum fick ist "3 mal leiser"?
Laut Nvidia 3db weniger als zuvor.
Reviews abwarten, vergleichen und dann eine Entscheidung treffen. ;)
Badesalz
2020-09-13, 08:09:16
Laut GPU-Z benötigt die GPU nur 185W. Das ist deutlich weniger als die 2080TI. Der Speicher und der Speichercontroller saugt ziemlich.Ich bin von dem Wert ebenfalls begeistert. Damit zieht die GPU auf der 3090 in etwa... 160W? :ulol:
:facepalm:
wolik
2020-09-13, 08:46:31
Es ist vermutlich Falsche Bilder? 3080 mit SLI Konrektor ?
https://www.techpowerup.com/gpu-specs/asus-rog-strix-rtx-3080-gaming.b7988
https://www.techpowerup.com/gpu-specs/asus-tuf-rtx-3080-gaming.b7989
https://www.techpowerup.com/gpu-specs/galax-rtx-3080-sg-1-click-oc.b7972
https://www.techpowerup.com/gpu-specs/kfa2-rtx-3080-sg-1-click-oc.b7991
https://www.techpowerup.com/gpu-specs/msi-rtx-3080-ventus-3x.b7960
https://www.techpowerup.com/gpu-specs/palit-rtx-3080-gamingpro.b8011
NikLaw
2020-09-13, 09:08:37
Du hast NT getauscht und alles läuft schneller? War alles PT manuell limitiert oder was?
Das war ein Scherz..
dildo4u
2020-09-13, 09:19:22
Ich hab mich gewundert warum ich für eine 3070 ein 650Watt NT brauche aber im Kleingedruckten steht das das mit einem 18 Core Intel ist, kann man also 100 Watt abziehen mit Ryzen.
https://i.ibb.co/PYNQ3h3/untitled-3.png (https://ibb.co/vBHYgPg)
https://www.guru3d.com/articles-pages/intel-core-i9-10980xe-processor-review,5.html
Kriegsgeier
2020-09-13, 09:52:19
in meinen Augen ist es jetzt klar warum man nur 10 GB GDDR6X Speicher verbaut hat: es TDP!
Jeder weiterer Speicherbaustein + dessen Anbindung verbraucht Strom und das nicht wenig!
dildo4u
2020-09-13, 10:00:14
Dafür musste Tests mit der 3090 abwarten wenn sie vergleichbaren Boost zu 3080 hält ist der Vram nicht das Problem.
Badesalz
2020-09-13, 10:31:43
Und wenn nicht, dann doch :rolleyes:
Wobei die 3090 halt auch bisschen mehr TBP hat ;) und auch sonst erst jemand nachschauen müsste mit wieviel Volt die GPUs auf der 3090 und auf der 3080 laufen, ergo ob und wie stark die 3090 selektiert sind...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.