Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
Bandit3644
2020-09-30, 10:58:02
Ok... dann stresst FC5 die Karte offenbar wenig. Hast du Witcher 3?
Beim Witcher Limitiert das Powerlimit, max 360W.
Ohne Vsync 60Hz ist der Takt bei WQHD und 4K bei ca. 1980Mhz, max 360W.
Mit Vsync 60Hz ist der Takt bei WQHD und 4K bei ca. 2055-2070Mhz, max 280W.
dargo
2020-09-30, 11:10:32
Ohne Vsync 60Hz ist der Takt bei WQHD und 4K bei ca. 1980Mhz, max 360W.
Das wollte ich eigentlich wissen, danke. Das ist ja sogar 40W über den Default 320W. Resultiert der Takt aus der Default-Kurve oder hast du schon mit UV dran gedreht?
Bandit3644
2020-09-30, 11:53:12
Das wollte ich eigentlich wissen, danke. Das ist ja sogar 40W über den Default 320W. Resultiert der Takt aus der Default-Kurve oder hast du schon mit UV dran gedreht?
Das waren +100 auf die GPU und 117% Powerlimit.
@Standart sind es ca.1800MHz bei 320 Watt.
@UV sind es ca.1800MHz bei 295 Watt und mit Vsync 60Hz sind es 245 Watt.
dargo
2020-09-30, 12:13:26
thx (y)
Cyberport gibt den 12.11. als Lieferdatum für die Zotac Trinity an. Eigentlich ziemlich fair von Nvidia, zu warten, bis die Konkurrenz ein ähnliches Produkt launcht. :ugly: Der Kunde gewinnt. ;)
Bei den meisten Herstellern waren halt nun Hardwareanpassungen angesagt. Sowas verzögert nun den Launch erheblich, aber danach sollten es bei den Komponenten erstmal kein Bottleneck geben. Sowas wünscht man man keinem Hersteller.
Die Verschwörungstheoretiker werden aber sicher eine andere Story draus basteln.
Erbsenkönig
2020-09-30, 13:27:37
Gut dass du darauf hinweist, denn das habe ich tatsächlich nicht gesehen :eek:
und noch dazu im geschlossenen Gehäuse.
Das sind bei solch einer Abwärme durchaus sehr gute Werte. Man wünscht sich aber trotzdem einen Titel, der das Ganze an seine Grenzen bringt. Was anderes als FC5 wäre schon nicht schlecht.
Daredevil
2020-09-30, 13:29:51
60°C, 350w bei 1200-1500rpm und so eine Schrottgehäuse ohne Airflow?
Der hat nen Golden Sample, oder das ist Magie. :D
Erbsenkönig
2020-09-30, 13:31:29
60°C, 350w bei 1200rpm und so eine Schrottgehäuse ohne Airflow?
Der hat nen Golden Sample, oder das ist Magie. :D
Und 60°C. Kann es sein, dass sich die Grafikkarte hier langweilt und sich deswegen nicht wirklich aufheizt?
Dr.Doom
2020-09-30, 13:35:38
Langeweile und >300W passen nicht zusammen.
basix
2020-09-30, 13:38:26
Und 60°C. Kann es sein, dass sich die Grafikkarte hier langweilt und sich deswegen nicht wirklich aufheizt?
350W sind 350W...egal ob die Karte nun stark ausgelastet ist oder nicht.
Hat jemand der 3080er Besitzer F@H installiert und könnte mal kurz testen, wie viele PPD man mit der 3080 erreicht?
r3ptil3
2020-09-30, 14:02:17
https://i.ibb.co/K2F1nN4/3080.png
Am 1. oder 2. kommt eine kleine Lieferung, aber irgendwie machen die fehlenden Reviews doch skeptisch. :freak:
Ex3cut3r
2020-09-30, 14:08:16
Ach, die TUF ist/war gut. Also kann die Strix gar nicht schlechter sein. Wenn doch, wurde Asus sich ja selbst verarschen. Weil die TUF eher das Einsteiger Modell ist. Wenn auch schon ein verdammtes gutes, ich mein richtige Kühlfinnen um den VRAM, wann gab es sowas zuletzt? :eek:
Viel Spaß damit. Ich warte weiterhin auf eine 20GB Version.
r3ptil3
2020-09-30, 14:10:27
Ach, die TUF ist/war gut. Also kann die Strix gar nicht schlechter sein.
Meinte die Verfügbarkeit, da von den bekannten Testern niemand eine 3080 Strix bekommen hat.
Am Schluss kommt dann in letzter Minute ein Update mit "Ende November".
Triniter
2020-09-30, 14:56:59
Meinte die Verfügbarkeit, da von den bekannten Testern niemand eine 3080 Strix bekommen hat.
Am Schluss kommt dann in letzter Minute ein Update mit "Ende November".
Die 3090 Strix ging zumindest an TechPowerUp (https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/)
MiamiNice
2020-09-30, 15:04:29
https://i.ibb.co/K2F1nN4/3080.png
Am 1. oder 2. kommt eine kleine Lieferung, aber irgendwie machen die fehlenden Reviews doch skeptisch. :freak:
Gibt doch zahlreiche Reviews zu den Strix Karten. Bestes Layout, bester Kühler, beste Komponenten. In der Ampere Gen will man Asus Karten haben.
r3ptil3
2020-09-30, 15:33:53
Gibt doch zahlreiche Reviews zu den Strix Karten.
Reden wir von der gleichen Karte? :D
Wo gibt's denn ein richtiges Review zur ASUS 3080 Strix?
Übrigens meinte ich oben die Lieferankündigung, da noch nicht mal die Tester eine Karte erhalten haben.
TurricanM3
2020-09-30, 15:34:50
Hier:
olJNkCYK9sQ
r3ptil3
2020-09-30, 15:36:57
Hier:
https://youtu.be/olJNkCYK9sQ
Das habe ich selber hier auch gestern schon gepostet, ist aber bei weitem kein Review und das andere von tawsek com ist auch nichts.
Ich meine ein richtiges Review wie bspw. von CB, Guru3d, Techpowerup, PCGH...
Tigershark
2020-09-30, 15:43:22
Das habe ich selber hier auch gestern schon gepostet, ist aber bei weitem kein Review und das andere von tawsek com ist auch nichts.
Ich meine ein richtiges Review wie bspw. von CB, Guru3d, Techpowerup, PCGH...
TPU hat zumindest mal die 3090 STRIX gut durchleuchtet...
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/
arcanum
2020-09-30, 16:17:50
irgendwie lohnt es sich dank dem neuen treiber nicht mehr das power target nach unten zu reduzieren. die karte scheint für 320watt "konzipiert" zu sein, zumindest bei port royal. mit werkeinstellungen ist der takt angetackert während die reduktion des power targets den takt wild umherspringen lässt. das beste ergebnis habe ich bei power target 100% (mehr geht nicht bei der ventus 3x) und undervolting (takt +xx im after burner eingestellt). mit dem alten treiber war das bei mir schlicht nicht möglich, da die karte noch schneller gecrashed ist.
die karte zieht natürlich nach wie vor durchgehend 320watt aber läuft dafür schneller. mal sehen wieviel sich so bei gleichbleibendem verbrauch rausholen lässt. aktuell verliere ich bei 320 gegenüber 290 watt "nur" noch 3% leistung im vergleich zum mehrverbrauch (7% mehrleistung für 10% mehr verbrauch).
dank der treibercrashes bin ich anfangs mit den einstellungen in eine ganz andere richtung gelaufen aber wenn alles funktioniert scheint selbst die schlechte MSI ordentlich zu takten.
Hakim
2020-09-30, 17:55:25
ayo4Rjlh9ZI
Hört sich sehr gut an, praktisch keine Performance Unterschiede und dazu ticken schonender für die NTs
r3ptil3
2020-09-30, 23:09:08
ASUS hat übrigens die Netzteilanforderung für die Strix 3080 abgeändert von 750 auf 850W.
Gehen aber auch von einem 10900k aus.
https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX3080-O10G-GAMING/specifications/
Bin gespannt was da da tatsächlich an Strom gebraucht wird.
Sobald ich die Strix habe, werde ich den gleich den 10700k ans Limit prügeln (5.1-5.2Ghz) und ebenso GPU und RAM maximal übertakten - bin gespannt was das Energiemessgerät dann ausgeben wird und ob das Seasonic 750W Titanium damit klarkommt.
Edgecrusher86
2020-10-01, 01:17:57
@ arcanum: die Spannung kannst per MSI AB Curve Editor "locken" - mitsamt einer Taktrate... sofern das PT/TT ausreicht... würde ich mal probieren. Die gesamte Curve lässt sich zum Beispiel per Offset Regler oder Maus + Shift erhöhen. Es sollte bei Ampere grob +100 MHz Offset machbar sein. Früher war es im Bereich +190-200 MHz - Pascal und Turing. STRG + F. L zum locken... dann auf apply.
Also etwa 1800 MHz @ 800mV bei grob 300W für 4K @ TW3. Eine 3090 unter Wasser zieht dort 300-320W mit diesen Settings.
Also die 3080 FE hatte Spitzen (> 1ms) von 490W @ 320W PT. Das macht sicherlich Sinn, bei einem OC Modell 850W zu empfehlen. 580W waren die kurzzeitigen Spitzen übrigens bei der 3090 FE @ 350W. Jeweils gemessen von Igor.
Die 3080 Strix dürfte ja auch über 400W max PT haben; da fließt schon ein bisschen Strom. ^^
Sardaukar.nsn
2020-10-01, 06:13:06
ASUS hat übrigens die Netzteilanforderung für die Strix 3080 abgeändert von 750 auf 850W.
Gehen aber auch von einem 10900k aus.
https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX3080-O10G-GAMING/specifications/
Bin gespannt was da da tatsächlich an Strom gebraucht wird.
Sobald ich die Strix habe, werde ich den gleich den 10700k ans Limit prügeln (5.1-5.2Ghz) und ebenso GPU und RAM maximal übertakten - bin gespannt was das Energiemessgerät dann ausgeben wird und ob das Seasonic 750W Titanium damit klarkommt.
Gib ihr ordentlich :cool: Ich bin auch noch am überlegen bzgl. Netzteil Upgrade. Da kommt man ja schnell dran. Irgendwelche Empfehlungen aktuell?
Gynoug MD
2020-10-01, 06:42:40
Irgendwelche Empfehlungen aktuell?
Enermax MaxTytan, z.B. 800W, ist ganz brauchbar.
Bandit3644
2020-10-01, 07:03:16
Ich kann nur berichten das ich das be quiet! STRAIGHT POWER 11 CM 750W benutze und keine Probleme habe.
NikLaw
2020-10-01, 08:33:39
irgendwie lohnt es sich dank dem neuen treiber nicht mehr das power target nach unten zu reduzieren. die karte scheint für 320watt "konzipiert" zu sein, zumindest bei port royal. mit werkeinstellungen ist der takt angetackert während die reduktion des power targets den takt wild umherspringen lässt. das beste ergebnis habe ich bei power target 100% (mehr geht nicht bei der ventus 3x) und undervolting (takt +xx im after burner eingestellt). mit dem alten treiber war das bei mir schlicht nicht möglich, da die karte noch schneller gecrashed ist.
die karte zieht natürlich nach wie vor durchgehend 320watt aber läuft dafür schneller. mal sehen wieviel sich so bei gleichbleibendem verbrauch rausholen lässt. aktuell verliere ich bei 320 gegenüber 290 watt "nur" noch 3% leistung im vergleich zum mehrverbrauch (7% mehrleistung für 10% mehr verbrauch).
dank der treibercrashes bin ich anfangs mit den einstellungen in eine ganz andere richtung gelaufen aber wenn alles funktioniert scheint selbst die schlechte MSI ordentlich zu takten.
Bei meiner Ventus läuft alles wie bisher, Power Limit 86 %, 1920 Mhz bei jetzt 0,925 V. Da habe ich eigentlich keine Taktsprünge und lande bei ca. 270 W, oft drunter.
https://abload.de/img/curvewmkup.jpg (https://abload.de/image.php?img=curvewmkup.jpg)
Blutmaul
2020-10-01, 12:01:23
Ich muß sagen, was jetzt die Reviews angeht, das ich ziemlich "disapointed" bin, wie jetzt herauskommt, das viele Reviewer Stabilitätsprobleme und Netzteilnotabschaltungen unter den Tisch fallen liessen.
Das kam nur im Zuge der öffentlich werdenden Crashproblematik heraus, wo dann Leute so nebenbei erwähnten, ja, btw. fast alle Karten crashten und 2 Netzteile rauchten ab etc...
Das ist in meinen Augen selektive Informationsunterschlagung.
Saubere Arbeit wird sich der Jen-San gedacht haben...
BlacKi
2020-10-01, 12:05:51
Das kam nur im Zuge der öffentlich werdenden Crashproblematik heraus, wo dann Leute so nebenbei erwähnten, ja, btw. fast alle Karten crashten und 2 Netzteile rauchten ab etc...
Das ist in meinen Augen selektive Informationsunterschlagung.
Saubere Arbeit wird sich der Jen-San gedacht haben...
einfach keinen schrott kaufen und falls das alte für die 3090 nicht reicht, dann ist es defekt oder kann versprochenen 750w nicht (mehr)liefern.
dildo4u
2020-10-01, 12:12:11
Ich muß sagen, was jetzt die Reviews angeht, das ich ziemlich "disapointed" bin, wie jetzt herauskommt, das viele Reviewer Stabilitätsprobleme und Netzteilnotabschaltungen unter den Tisch fallen liessen.
Das kam nur im Zuge der öffentlich werdenden Crashproblematik heraus, wo dann Leute so nebenbei erwähnten, ja, btw. fast alle Karten crashten und 2 Netzteile rauchten ab etc...
Das ist in meinen Augen selektive Informationsunterschlagung.
Saubere Arbeit wird sich der Jen-San gedacht haben...
Die müssen die Reviews in ein paar Tagen raushauen und du kannst nie zig Konfigurationen in diesen Tests darstellen.
Hardware Unboxed hatte z.b auch keine Probleme mir der 5700XT, ebend weil es genau mit ihrer Konfig mit nur einem Monitor keine Ausfälligkeiten wie Black Screens gab.
Zeitdruck ist das eine. Es gibt genug Tests, die die Netzteilbelastung thematisiert haben. Nur weil es viele Tests gibt, ist noch lange nicht jeder gut. Es gibt halt überall Stiftfallenlasser und Reinknier -> Quellen selektieren. :)
MfG
Raff
dildo4u
2020-10-01, 12:24:06
Schätze mal der neue Treiber hat die Spikes eh gesenkt.
Da müsste man jetzt noch Mal neu testen.
masked__rider
2020-10-01, 13:57:03
Schätze mal der neue Treiber hat die Spikes eh gesenkt.
Da müsste man jetzt noch Mal neu testen.
Schau mal rüber zu Igor ;)
MiamiNice
2020-10-01, 14:05:41
Mich beschleicht eher das Gefühl das man mit NV besonders umsichtig ist, damit man auch in Zukunft mit Testkarten bedacht wird. Wer keine Karten zum Release hat, kann keine Klicks generieren. Das nennt sich unabhängiger Journalismus™
Blutmaul
2020-10-01, 14:20:53
Die müssen die Reviews in ein paar Tagen raushauen und du kannst nie zig Konfigurationen in diesen Tests darstellen.
Hardware Unboxed hatte z.b auch keine Probleme mir der 5700XT, ebend weil es genau mit ihrer Konfig mit nur einem Monitor keine Ausfälligkeiten wie Black Screens gab.
Und in dem Video, was er jetzt zur Kondensatorproblematik veröffentlicht hat, redet er davon, das er auf seinem Privatsystem alle 30 minuten Crashes hatte, mit mindesten 2 verschiedenen RTX Karten und frustriert aufgegeben hatte.
Davon hab ich in dem Reviewvideo nix gefunden...
Mich beschleicht eher das Gefühl das man mit NV besonders umsichtig ist, damit man auch in Zukunft mit Testkarten bedacht wird. Wer keine Karten zum Release hat, kann keine Klicks generieren. Das nennt sich unabhängiger Journalismus™
Echt nicht schlecht, ziemlich cool :cool:
Raff natürlich ausgenommen :D.
Von einem globalen Startschuss mit Coverage haben alle drei Seiten etwas: Hersteller, Presse und Kunden. Und Kritik ist immer erlaubt, sofern angebracht. Wo kämen wir denn hin, wenn es nur noch Jubelperser-Videos anstelle von Tests gäbe?
MfG
Raff
Gynoug MD
2020-10-01, 16:16:17
Wo kämen wir denn hin, wenn es nur noch Jubelperser-Videos anstelle von Tests gäbe?
https://www.youtube.com/
Nee. Das siehst du falsch. Das sind alles komplett unabhängige, hochkompetente und vor allem absolut Bias-freie Reviewer.
MfG
Raff
y33H@
2020-10-02, 07:47:57
Ich nutze seit der Radeon VII ein Seasonic Prime TX-1000, daher waren keine Probleme mit RTX 3080/3090 zu erwarten und es gab auch keine. Daheim mit dem Seasonic Prime TX-700 Fanless ebenfalls nicht und mit einem Ne Quiet Straight Power 11 650W auch alles stabil.
horn 12
2020-10-02, 07:50:06
Das BQ Dark Power Pro 11 zu 650 Watt, besser oder schlechter als deine aufgesagten
Hatte damals das Gigabyte Mainboard und die Radeon VII defekt !
Mainboard ist hin(keine Garantie)
und Geld für Radeon VII erhielt ich von Amazon.it Retour!!
woodsdog
2020-10-02, 08:24:43
Das BQ Dark Power Pro 11 zu 650 Watt, besser oder schlechter als deine aufgesagten
Hatte damals das Gigabyte Mainboard und die Radeon VII defekt !
Mainboard ist hin(keine Garantie)
und Geld für Radeon VII erhielt ich von Amazon.it Retour!!
Könntest du versuchen vollständige Sätze zu formulieren?
dargo
2020-10-02, 08:29:20
Könntest du versuchen vollständige Sätze zu formulieren?
Er ist Italiano. :wink: Ich bin mir ziemlich sicher er kann sich besser deutschsprachig ausdrücken als du italienisch. Oder irre ich mich?
Lowkey
2020-10-02, 08:39:34
Du irrst dich 2020 ;)
Potresti provare a formulare frasi complete?
Man versteht sein Deutsch ja.
woodsdog
2020-10-02, 08:55:45
Er ist Italiano. :wink: Ich bin mir ziemlich sicher er kann sich besser deutschsprachig ausdrücken als du italienisch. Oder irre ich mich?
In Hinblick darauf, dass er es in zahlreichen Posts in der Vergangenheit erheblich besser konnte ist die Forderung durchaus gerechtfertigt.
Armaq
2020-10-02, 10:20:19
Mich beschleicht eher das Gefühl das man mit NV besonders umsichtig ist, damit man auch in Zukunft mit Testkarten bedacht wird. Wer keine Karten zum Release hat, kann keine Klicks generieren. Das nennt sich unabhängiger Journalismus™
Welcher Journalist kann unabhängig ne Karte kaufen und sie dann testen? Ich mein das Prinzip Stiftung Warentest ist ja auch verseucht bis ins Mark, aber eigentlich schon der richtige Weg. Man kauft aus dem Laden das Produkt und testet genau das.
Man darf sich ja schon freuen, dass der "kleine" Igor Karten bekommen hat. Es gibt halt so ein paar Kanäle auf YT die zwar groß sind, die ich aber echt zum brechen finde.
Das Narrativ wird einfach zu stark gesteuert von Unternehmen wie nvidia. Die haben das komplett drauf, die Tester bekommen Sauerstoff (Samples) so rationiert, dass die Luft zum klar denken nicht mehr reicht, aber immerhin können sie Geräusche von sich geben, da die BDSM-Fessel zu fest sitzt.
€: Es gab kaum Tests, bzw. gibt, die bspw. mal eine Vorhersage der Karten für die nächsten 2 Jahre gemacht haben. Ich bin ja mit der 2080Ti jetzt fest, aber man kann hier und da erkennen, dass eine 3090 in einem Jahr den Abstand noch etwas vergrößern kann. Bestimmte Anwendungen reagieren sehr gut auf die 3090 Rohpower. Wie ist das im Verhältnis zu 3080, der Sprung von 2080 zu 3080 ist mir auch nicht genug ausgearbeitet.
y33H@
2020-10-02, 10:49:36
Es gab kaum Tests, bzw. gibt, die bspw. mal eine Vorhersage der Karten für die nächsten 2 Jahre gemacht haben. Ich bin ja mit der 2080Ti jetzt fest, aber man kann hier und da erkennen, dass eine 3090 in einem Jahr den Abstand noch etwas vergrößern kann. Bestimmte Anwendungen reagieren sehr gut auf die 3090 Rohpower. Wie ist das im Verhältnis zu 3080, der Sprung von 2080 zu 3080 ist mir auch nicht genug ausgearbeitet.Wie soll man auch eine Vorhersage für 2 Jahre treffen, gerade mit PS5 und XSX/XSS? Die erforderliche Leistung und der notwendige Videospeicher wird steigen, aber mehr gibt die Glaskugel nicht her.
Den Sprung von 2080 auf 3080 hab ich für multiple Auflösungen prozentual angegeben, zudem neben Spielen noch Apps. Überdies gibt's den Hinweis, dass die 3090 zur 3080 in 8K mehr Abstand macht als in 4K und vor allem in Apps ihre Rohleistung am ehesten ausspielt. Was willst du denn noch? [ernst gemeinte Frage]
https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508.html
https://www.golem.de/news/geforce-rtx-3090-im-test-titan-power-mit-geforce-anstrich-2009-151078.html
Armaq
2020-10-02, 15:52:10
Wie soll man auch eine Vorhersage für 2 Jahre treffen, gerade mit PS5 und XSX/XSS? Die erforderliche Leistung und der notwendige Videospeicher wird steigen, aber mehr gibt die Glaskugel nicht her.
Den Sprung von 2080 auf 3080 hab ich für multiple Auflösungen prozentual angegeben, zudem neben Spielen noch Apps. Überdies gibt's den Hinweis, dass die 3090 zur 3080 in 8K mehr Abstand macht als in 4K und vor allem in Apps ihre Rohleistung am ehesten ausspielt. Was willst du denn noch? [ernst gemeinte Frage]
https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508.html
https://www.golem.de/news/geforce-rtx-3090-im-test-titan-power-mit-geforce-anstrich-2009-151078.html
Klare Statements. Die Prozente und sowas sind ja da, aber es wird halt nicht direkt angesprochen. Deinen Test hab ich auch gelesen und ich mag ja das golem Format / den straffen Content. Aber was ich interessant fände wäre halt eine Einschätzung. Letztlich ist das ja für Leser an Release auch ein Kaufanreiz.
Die Verhältnisse zur PS5/XBoxX sind doch zB ein super spannendes Feld.
Launch PS4 - Vgl. FLOPS damals und heute, was kann man daraus lernen. In der Antizipation liegt ja ein toller Mehrwert. Ich hab selbst gar keine Idee zur Relation des PS4/Xbox Launchjahres, aber ich denke die Vergangenheit würde hier einen Ausblick auf die Zukunft geben. Ram damals zu Ram heute, wie sieht es also auf der Zeitachse aus. Einfach nur eine Idee, die durchaus verwertbar sein könnte und die Arbeitszeit wert.
€: Ich hab ja Raff auch mit seinem Monster-Test bissl geärgert, aber nicht weil ich die Arbeit dahinter nicht schätze. Nur machen halt so viele die Balkenvergleiche, aber wirklich anderer Content, andere Perspektiven, da ist wirklich viel Raum.
Chrisch
2020-10-02, 16:50:50
Moin,
hab hier mal ne kleine Frage zum Taktverhalten mit Afterburner. Wenn ich via Spannungs / Taktkurve einstelle das die Karte ab Spannung XYZ max. 1905MHz takten soll, warum taktet die Karte dann trotzdem zum Teil 2 oder 3 states (30/45MHz) höher?
Ist natürlich doof wenn man eine bestimmte Spannung für nen Takt zum UV ausgelotet hat und die Karte dann meint ab und zu doch mal höher takten zu müssen bei dieser Spannung.
Langlay
2020-10-02, 16:54:25
Ich nutze seit der Radeon VII ein Seasonic Prime TX-1000, daher waren keine Probleme mit RTX 3080/3090 zu erwarten und es gab auch keine. Daheim mit dem Seasonic Prime TX-700 Fanless ebenfalls nicht und mit einem Ne Quiet Straight Power 11 650W auch alles stabil.
Ich hab ein Seasoic Prime TX-650 und habe auch keine Probleme. Weder mit der VII noch jetzt mit der 3090.
k0nan
2020-10-02, 17:16:35
Moin,
hab hier mal ne kleine Frage zum Taktverhalten mit Afterburner. Wenn ich via Spannungs / Taktkurve einstelle das die Karte ab Spannung XYZ max. 1905MHz takten soll, warum taktet die Karte dann trotzdem zum Teil 2 oder 3 states (30/45MHz) höher?
Ist natürlich doof wenn man eine bestimmte Spannung für nen Takt zum UV ausgelotet hat und die Karte dann meint ab und zu doch mal höher takten zu müssen bei dieser Spannung.
Kann ich bestätigen: Meine 3090 FE habe ich mit 0.825v @ 1800 eingenordet und sie springt von 1745 bis 1830 MHz während die 0.825v festgenagelt sind. 100% GPU Auslastung @ Superposition Benchmark. Ich musste daher von 0.8 auf 0.825 erhöhen. Ich bin noch nicht ganz fertig mit ausloten, momentan teste ich 0.875 @ 1900 MHz. Mehr gebe ich ihr nicht, dann rennt sie ins Powerlimit.
arcanum
2020-10-02, 20:58:44
schon mal die taktkurve im afterburner angeschaut? bei mir springt der takt manchmal ebenfalls um 15-30mhz nach oben nachdem ein gespeichertes profil geladen wurde und das obwohl das offset in der kurve (mouse over am punkt) immer den richtigen wert anzeigt.
Chrisch
2020-10-03, 01:57:55
Jau das ist mir bekannt und da hab ich auch drauf geachtet.
Btw hat hier wer die MSI RTX 3080 Gaming X Trio und könnte mir das BIOS der Karte schicken?
Edit: oder das einer TUF :)
k0nan
2020-10-03, 07:52:54
Moin, hier wirst du fündig: https://www.techpowerup.com/vgabios/
Chrisch
2020-10-03, 08:04:04
Leider nicht, dort gibts nur 2 3080er BIOS (Gigabyte, FE) ;)
Sardaukar.nsn
2020-10-03, 08:06:34
Asus 3080 Strix
2m9cuCWWzkI
Leider nicht auf deutsch/englisch, aber die Folien sind aussagekräftig. Powerlimit scheinbar bei 450W.
NikLaw
2020-10-03, 08:23:19
Meine Karte hat sich gestern auch nicht an die Spannungs- und Takteinstellungen des Afterburners gehalten. Statt 1920 Mhz und 0,925 V ging's bei Witcher 3 bis 1980 Mhz und 1,068 V... Na ja, hab dann den hotfix Treiber installiert. Hatte nämlich das Problem, im Fullscreenmodus nicht über 138 FPS hinauszukommen. Jetzt ist wieder alles normal.
qiller
2020-10-03, 11:07:42
Asus 3080 Strix
https://youtu.be/2m9cuCWWzkI
Leider nicht auf deutsch/englisch, aber die Folien sind aussagekräftig. Powerlimit scheinbar bei 450W.
Quake mit nur 1000fps :<
r3ptil3
2020-10-03, 11:16:55
Ich hätte eine Strix gestern eigentlich erhalten sollen, aber anscheinend hat ASUS noch nicht geliefert.
Es steht jetzt zumindest "voraussichtlich Montag" drin.
Neuer Status vom Händler:
"Der Termin wurde vom Lieferanten überschritten. Sobald wir ein Update vom Lieferanten erhalten, wird dieses hier angezeigt."
La Junta
2020-10-03, 13:09:58
Ich hätte eine Strix gestern eigentlich erhalten sollen, aber anscheinend hat ASUS noch nicht geliefert.
Es steht jetzt zumindest "voraussichtlich Montag" drin.
Neuer Status vom Händler:
"Der Termin wurde vom Lieferanten überschritten. Sobald wir ein Update vom Lieferanten erhalten, wird dieses hier angezeigt."
Immerhin hast du Status updates von Digitec , Steg ist wie immer useless ....
Das letzte Update ist vom 18.09 .....
r3ptil3
2020-10-03, 13:13:47
Immerhin hast du Status updates von Digitec , Steg ist wie immer useless ....
Das letzte Update ist vom 18.09 .....
Ja, da ist Digitec grundsätzlich einfach "vielseitiger".
Die Produktmanager beantworten Fragen zur Lieferzeit oft auch direkt selber auf der Seite usw.
Welche hast du denn bestellt?
La Junta
2020-10-03, 13:32:50
Ich habe die Asus 3080er Tuf bestellt . Bei mir wird die eh Wassergekühlt , von daher ist es nicht so wichtig welche Karte es wird .
Edgecrusher86
2020-10-03, 16:38:43
Mal Screenshots von DOOM Eternal mit 2100-2145 MHz Boost - RTX 3080 FE @ Bykski Block + 370W PT + OC von Naennon [System: i7-10700K @ 5 GHz]:
https://abload.de/thumb/img-20201002-wa0041m1j5l.jpg (https://abload.de/image.php?img=img-20201002-wa0041m1j5l.jpg) https://abload.de/thumb/img-20201002-wa004588kcy.jpg (https://abload.de/image.php?img=img-20201002-wa004588kcy.jpg) https://abload.de/thumb/img-20201002-wa0046tsjp0.jpg (https://abload.de/image.php?img=img-20201002-wa0046tsjp0.jpg)
+130/96 MHz Offset:
https://abload.de/thumb/ocertfj05s9krl.jpg (https://abload.de/image.php?img=ocertfj05s9krl.jpg)
5160 x 2160 DSR - Ultra Nightmare inkl. HDR:
https://abload.de/thumb/doom-1-2145mhz3080jfkyd.jpg (https://abload.de/image.php?img=doom-1-2145mhz3080jfkyd.jpg)
81 fps
https://abload.de/thumb/doom-2-2100mhz308019kz9.jpg (https://abload.de/image.php?img=doom-2-2100mhz308019kz9.jpg)
111 fps
Läuft -> In 3440 x 1440 sind es im ersten Level übrigens bis zu 250 fps. Die 2100 MHz werden immer gehalten im Boost. :D
@Edgecrusher86
Nice GPU 49°c maximal :up:
Das schreit fast nach moar Power :freak:
Wie warm wird der RAM ?
Und stell mal auch mal bitte MVDDC-Power-Draw auf max.
M.f.G. JVC
Edgecrusher86
2020-10-03, 16:55:31
Nicht mein System - ich kann aber mal fragen. Ja, das sieht sehr gut aus - etwas unterhalb 2100 MHz OC waren es grob 44-46 °C unter Load. ;)
Also er hat bewusst wenig Mem-OC gefahren, da Core-OC deutlich mehr bringt.
Sardaukar.nsn
2020-10-03, 17:47:48
Nicht mein System - ich kann aber mal fragen. Ja, das sieht sehr gut aus - etwas unterhalb 2100 MHz OC waren es grob 44-46 °C unter Load. ;)
Also er hat bewusst wenig Mem-OC gefahren, da Core-OC deutlich mehr bringt.
Das klingt doch alles sehr vielversprechend. Mit mehr Powerlimit ginge da noch was :eek: Die Temperaturen sind aber spitze.
Auf dem Bild vom Rechner sieht man den Schlauch durch die Slotblende nach draußen? Weißt du was er da an Radiatoren hat, Mora?
Nicht mein System - ich kann aber mal fragen. Ja, das sieht sehr gut aus - etwas unterhalb 2100 MHz OC waren es grob 44-46 °C unter Load. ;)
Also er hat bewusst wenig Mem-OC gefahren, da Core-OC deutlich mehr bringt.
Irgendwann kommt immer der Punkt, wo Speicher-OC sich lohnt – spätestens bei 2.100 MHz auf dem Kern. ;)
MfG
Raff
MiamiNice
2020-10-03, 18:41:35
Das klingt doch alles sehr vielversprechend. Mit mehr Powerlimit ginge da noch was :eek: Die Temperaturen sind aber spitze.
Auf dem Bild vom Rechner sieht man den Schlauch durch die Slotblende nach draußen? Weißt du was er da an Radiatoren hat, Mora?
Riecht nach Strix :)
Sardaukar.nsn
2020-10-03, 21:26:15
Riecht nach Strix :)
Strix oder Nix :freak:
Mit der extra Power und guter Kühlung scheint da oben heraus aber noch etwas zu gehen. Ordentliches Review, inkl. 3440x1440 Ultrawide benchmarks, da wo diese 3080 halt auch richtig interessant ist.
LWyjrD7qdME
https://i.imgur.com/XZPQeFQ.jpg
https://i.imgur.com/wbhljo6.jpg
Naennon
2020-10-03, 21:37:50
Irgendwann kommt immer der Punkt, wo Speicher-OC sich lohnt – spätestens bei 2.100 MHz auf dem Kern. ;)
MfG
Raff
frisst viel zu viel vom Powertarget
verbaut ist ein Triple 120, nochn Triple 120 und extern issn Tripe 180
alles aber semipassiv/low Umdrehung, wenn man da noch hochdreht kommt man sicher auf 15K Delta Core/Wasser
MiamiNice
2020-10-03, 21:40:36
Strix oder Nix :freak:
Mit der extra Power und guter Kühlung scheint da oben heraus aber noch etwas zu gehen. Ordentliches Review, inkl. 3440x1440 Ultrawide benchmarks, da wo diese 3080 halt auch richtig interessant ist.
https://youtu.be/LWyjrD7qdME
https://i.imgur.com/XZPQeFQ.jpg
https://i.imgur.com/wbhljo6.jpg
Hörst Du auch noch Sätze nachklingen wie „Da ist kaum OC möglich“ oder „Der Chip ist hart an der Kotzgrenze gebaut“ XD
Linmoum
2020-10-03, 21:47:36
Hörst Du auch noch Sätze nachklingen wie „Da ist kaum OC möglich“ oder „Der Chip ist hart an der Kotzgrenze gebaut“ XDWieseo nachklingen?
https://i.gyazo.com/a7a74ef7a83ab5b2dcd42c8120a8ff38.jpg
Nicht einmal ein Spiel dort mit >=10%. Das ist doch richtig mau.
Freestaler
2020-10-03, 21:51:13
Hörst Du auch noch Sätze nachklingen wie „Da ist kaum OC möglich“ oder „Der Chip ist hart an der Kotzgrenze gebaut“ XD Du willst jetzt aber nicht 4,7% mehr Leistung abfeiern und als gutes OC Potenzial darstellen? 4,7% durch Umbau auf sehr potente Wasserkühlung, ist wohl das schlechteste OC Potenzial seit je her für ne Topkarte. 280,1080,980,Vega, Fury ja alle gingen besser.
Und warst nicht du der, welcher ua. auch AMD Ryzen als minderwertig bezeichnet, weil fast kein OC Potenzial da war (mehr als die 4,7% die du jetzt feiern willst)? Mir scheint, das du sehr stark einfach Fanboy bist von deinem Besitz. Nimm mal deine Pinke Brille ab.
Die Zotac Trinity hat ein Referenz-PCB?
Armaq
2020-10-03, 21:56:00
Wieseo nachklingen?
https://i.gyazo.com/a7a74ef7a83ab5b2dcd42c8120a8ff38.jpg
Nicht einmal ein Spiel dort mit >=10%. Das ist doch richtig mau.
Also das ist zwar schlau gewählt vom Darsteller, aber der Gewinn ist richtig meh.
Wie funktioniert der Boost-Modus bei Ampere? Gleich wie bei Turing, wo die GPU-Temp entscheident war? Wie sehr hängt das Ding an der Bandbreite?
r3ptil3
2020-10-03, 22:07:13
5% durch OC scheisse, aber 15% für mehr als den doppelten Preis (115% Aufpreis um genau zu sein) GEIL! :freak:
MiamiNice
2020-10-03, 22:15:15
Wieseo nachklingen?
https://i.gyazo.com/a7a74ef7a83ab5b2dcd42c8120a8ff38.jpg
Nicht einmal ein Spiel dort mit >=10%. Das ist doch richtig mau.
Es sind in synthetischen Benches schon gut 10%. Was kannst Du heute noch so gut übertakten? Das klappt nicht mal mehr bei Intel CPUs.
Linmoum
2020-10-03, 22:20:24
Keine 10% durch GPU+MEM OC sind einfach meh. Da krieg ich aus meiner betagten 2080 ja mehr raus. Und selbst im CPU-Limit ist mit RAM-OC definitiv deutlich mehr drin, wenn du nicht irgendwas mit Krüppel-Hynix verbaut hast.
MiamiNice
2020-10-03, 22:24:15
Joar, heute geht weit mehr über den RAM und den IMC. Trotzdem 10% sind 10%. Bin gespannt was ich aus der 3090 Strix OC prügeln kann, wenn sie überhaupt mal in meinem Rechner ankommt.
Armaq
2020-10-03, 22:28:34
Joar, heute geht weit mehr über den RAM und den IMC. Trotzdem 10% sind 10%. Bin gespannt was ich aus der 3090 Strix OC prügeln kann, wenn sie überhaupt mal in meinem Rechner ankommt.
Ich hab deutlich mehr aus der 2080Ti geholt.
https://youtu.be/VjOnWT9U96g?t=631
Hier sieht das auch ganz anders aus.
Also der Thread ist wirklich ne Hilfe. Keine meiner Fragen beantwortet, dabei habe ich ne Zotac Trinity für meinen Cousin für knapp 900 Teuronen geschossen. Er möchte das Ding allerdings auch komplett unter Wasser. Er ist MM-Käufer, von daher nochmals meine Fragen: Zotac Trinity - Referenz-PCB oder nicht, boost gleich Turing?
k0nan
2020-10-03, 22:38:20
https://www.reddit.com/r/EKWB/comments/iv1ugg/zotac_3080_trinity_pcb_is_not_reference_design/
https://www.reddit.com/r/EKWB/comments/iv1ugg/zotac_3080_trinity_pcb_is_not_reference_design/
Hau, vielen Dank. Jetzt bekomme ich einen auf den Deckel. Ich hoffe die Lüfter agieren relativ leise. Ansonsten kann ich das Ding selbst verkaufen, ich war mir mit dem PCB so sicher
Gibt es für das Ding schon nen Wakü-Block?
MiamiNice
2020-10-03, 22:49:35
https://www.reddit.com/r/EKWB/comments/iv1ugg/zotac_3080_trinity_pcb_is_not_reference_design/
Mal abgesehen davon das da kaum Blöcke drauf passen, niemand sollte Zotac Karten kaufen. Die Karten haben haben sie miesesten Komponenten auf dem ganzen Markt.
Naennon
2020-10-03, 22:52:47
Mal abgesehen davon das da kaum Blöcke drauf passen, niemand sollte Zotac Karten kaufen. Die Karten haben haben sie miesesten Komponenten auf dem ganzen Markt.
:rolleyes:
MiamiNice
2020-10-03, 22:57:56
Wohl kein Teardown der Karten gesehen? Solltest Du nachholen, eher Du Dich mit Smileys lustig machst.
Ich denke er will nur dass das Ding läuft. Und den Wakü-Ansatz hat er sich bei mir geholt. Sprich ne 5700Strix default @ 280W, oder unter Wasser bei im Schnitt 220W+25% Performance ohne Lüfter mit nem 420x55 Radi
k0nan
2020-10-03, 23:00:00
Gibt es für das Ding schon nen Wakü-Block?
Klick (http://letmegooglethat.com/?q=zotac+trinity+3080+block)
Siehe erster Link :wink:
frisst viel zu viel vom Powertarget
verbaut ist ein Triple 120, nochn Triple 120 und extern issn Tripe 180
alles aber semipassiv/low Umdrehung, wenn man da noch hochdreht kommt man sicher auf 15K Delta Core/Wasser
Klick (http://letmegooglethat.com/?q=zotac+trinity+3080+block)
Siehe erster Link :wink:
1000 Dank, du hast meinen Tag gerettet, da ich die identische Konfrontation seitens meiner Konfrontation bereits für ihn geordert habe. 1000-Dank
NikLaw
2020-10-03, 23:31:24
Habe gerade mal Wreckfest in 5120x2160 gespielt. Über 100 FPS im Schnitt. Witcher 3 immerhin noch 58.. aber nur Außerorts getestet.
Sardaukar.nsn
2020-10-04, 10:52:34
Wieseo nachklingen?
https://i.gyazo.com/a7a74ef7a83ab5b2dcd42c8120a8ff38.jpg
Nicht einmal ein Spiel dort mit >=10%. Das ist doch richtig mau.
Die blauen Werte beziehen sich schon auf die 3080 Strix OC, ab Werk. Natürlich geht die schon sehr gut und hebt trotzdem sich von der (diesmal auch guten) FE ab. Das diese nun nochmals weiter übertaktet werden kann, wird hier deutlich.
Im Vergleich die Standard Werte der 3090 und 3080 FE.
https://www.legitreviews.com/wp-content/uploads/2020/09/ul-3dmark-timespy-rtx3090-645x518.jpg
Im Gegensatz zur Strix.
https://i.imgur.com/XZPQeFQ.jpg
Wobei ich denke das mit besserer Kühlung und Undervolting bestimmt noch etwas geht.
spike.sp.
2020-10-04, 12:50:50
Morgen kommt meine 3080FE! YAY! :)
Ist es eigentlich zwingend notwendig beim Backplate noch extra WLP zu montieren, so wie es Igor gezeigt, um den RAM zu kühlen? :/
Natürlich nicht.
MfG
Raff
MiamiNice
2020-10-04, 13:40:45
Schaden kann es aber auch nicht.
Präventiv die Garantie zu töten halte ich für Unsinn. Dann lieber ein ordentlicher Luftzug im Gehäuse und wohldosiertes Undervolting. :)
MfG
Raff
MiamiNice
2020-10-04, 18:46:56
Ah ja, NVs Garantiebestimmungen ;D
Aber einbauen darf man die Karte? Schick das Teil besser zurück und kauf eine von einem ordentlichen Hersteller.
arcanum
2020-10-05, 18:00:47
habe noch eine interessante erfahrung gemacht. habe mir das bq! Dark Power Pro 750 geholt und die 550w variante ausgetauscht. das spulenfiepen ist weg, allerdings hat das 750er bei time spy extreme selbst mit power target <90% reproduzierbar abgeschaltet, obwohl ich die karte mit zwei kabeln angeschlossen hatte. nachdem ich am netzteil andere pcie-ausgänge verwendet habe ging es wieder. ziemlich irritierend, weil die karte zuvor an einem einzigen kabel am 550er hing und alles problemlos lief.
Sardaukar.nsn
2020-10-05, 18:16:53
LzTRVUsh9nM
RTX 3080 vs RTX 3090 Comparison
( average FPS and percentage gain by RTX 3090 over RTX 3080 )
0:00 Control ( 55 vs 63 ) +14.54%
0:48 Assassin's Creed Odyssey ( 70 vs 80 ) +14.28%
2:05 Microsoft Flight Simulator ( 52 vs 57 ) +9.62%
3:22 Battlefield V ( 69 vs 78 ) +13.04%
4:22 Red Dead Redemption 2 ( 70 vs 77 ) +10%
5:29 Kingdom Come Deliverance ( 62 vs 70 ) +12.9%
6:27 Horizon Zero Dawn ( 70 vs 78 ) +11.43%
7:19 PUBG ( 114 vs 130 ) +14.04%
Average of 8 Games :-
FPS : RTX 3080 vs RTX 3090 = 70.25 vs 79.125
Dollars per frame per second : RTX 3080 vs RTX 3090 = 9.96 vs 18.96
On average RTX 3090 is 12.63% faster than RTX 3080 but RTX 3080 offers 90.36% more value for your money than RTX 3090.
Schnoesel
2020-10-05, 18:48:31
Also imo kann man mittlerweile den Preistag von 699 der 3080 vergessen. Entspricht es doch in keinster Weise der Realität. 800 wäre wohl näher dran.
Wie sieht es eigentlich mit der Kompression seitens Ampere im Vergleich zu Turing und Pascal aus? Kann es sein, dass das fehlende GB im Endeffekt gar nix ausmacht?
@Schnoesel
Bei EBay-Kleinanzeigen bekommt man ne 3090 auch nicht unter 1800€, neu und unverbaut. Für meinen Cousin habe ich eine 3080 Trinity für 890 neu geschossen. Ich habe wohl zu ihm gesagt, er soll noch etwas warten (RDNA2), aber ne AMD will er nicht im Rechner haben. Am Mittwoch habe ich dann die 3080 bei mir und bin echt gespannt. Mitte des Monats kommt wohl der Wakü-Block und dann geht se zum eigentlichen Besitzer
Sardaukar.nsn
2020-10-05, 19:25:17
Also imo kann man mittlerweile den Preistag von 699 der 3080 vergessen. Entspricht es doch in keinster Weise der Realität. 800 wäre wohl näher dran.
Die Custom Modell kannst du hier direkt zu UVP bestellen. Heuten waren sogar welche lieferbar, aber natürlich sehr schnell vergriffen: https://webshop.asus.com/de/komponenten/grafikkarten/rtx-30-serie/
Sardaukar.nsn
2020-10-05, 19:36:11
Gute untervolting Ergebnisse
ANkR9v9HjZE
Langlay
2020-10-05, 20:16:43
Gute untervolting Ergebnisse
https://youtu.be/ANkR9v9HjZE
Meine 3090 macht 1800MHz @0.775V. Der Stromverbrauch ist dann allerdings je nach Spiel trotzdem stark unterschiedlich. In HZD z.b. biste mit der Einstellung bei 220-250W in 1440p in Witcher 3 ballert die Karte dann aber trotzdem 280-300W raus.
Troyan
2020-10-05, 20:22:23
Meine 3090 macht 1800MHz @0.775V. Der Stromverbrauch ist dann allerdings je nach Spiel trotzdem stark unterschiedlich. In HZD z.b. biste mit der Einstellung bei 220-250W in 1440p in Witcher 3 ballert die Karte dann aber trotzdem 280-300W raus.
Versuche 4K. Da bist du selbst damit noch fast im Powerlimit. ;D
Langlay
2020-10-05, 20:30:06
Versuche 4K. Da bist du selbst damit noch fast im Powerlimit. ;D
Beim Witcher in 4k biste bei 300-320W.
Sardaukar.nsn
2020-10-05, 21:34:02
Meine 1080ti läuft bei 1.0v mit 2Ghz konstant. Das sollte der Nachfolger auch schon erreichen. Gut, inzwischen bin ich bei 3440x1440 Ultrawide 144hz angekommen, aber ich könnte mir auch irgendwas um die 0.9v bis 0.95v vorstellen. Dann halt mit Wasserkühlung, ordentlich Powerlimit und mal sehen wohin die Reise geht. Leider noch keine Nachrichten von Cyberport und Alphacool.
EDIT: Interessantes Review der Finnen über Sinn und Zweck der Strix mit dem enorm hohen Powerlimit. Untertitel in Englisch.
frHzkp82Q0M
Dr.Doom
2020-10-06, 08:36:38
Also imo kann man mittlerweile den Preistag von 699 der 3080 vergessen. Entspricht es doch in keinster Weise der Realität. 800 wäre wohl näher dran.
Ich glaube, diesesmal sind's alleine die Händler, die mit unverschämten Aufschlägen die Sahne abschöpfen.
Lowkey
2020-10-06, 08:55:37
Diesmal? Das war die letzten Jahre bei Händlern normal, dass sie für CPUs und Grafikkarten mehr als Listenpreis verlangen. Alle machen wohl mit. Angebot und Nachfrage... wer will schon Cyberpunk 2077 auf einer ollen 8gb Karte spielen?
Beispiel: 10900k brauchte 3 Monate bis zur grundsätzlichen Verfügbarkeit bei gewolltem Endpreis.
dildo4u
2020-10-06, 08:59:34
Diesmal? Das war die letzten Jahre bei Händlern normal, dass sie für CPUs und Grafikkarten mehr als Listenpreis verlangen. Alle machen wohl mit. Angebot und Nachfrage... wer will schon Cyberpunk 2077 auf einer ollen 8gb Karte spielen?
Das muss sich rechnen caseking hat noch Jahre nach Launch diese Preise.
Dr.Doom
2020-10-06, 09:27:44
Diesmal? Das war die letzten Jahre bei Händlern normal, dass sie für CPUs und Grafikkarten mehr als Listenpreis verlangen. Alle machen wohl mit. Angebot und Nachfrage... wer will schon Cyberpunk 2077 auf einer ollen 8gb Karte spielen?Die Betonung sollte eigentlich auf dem "unverschämt" liegen. Dass bei knappen Gütern der Preis höher als normal ist, geschenkt (ha!), aber nochmal 1000€ auf 'ne 3090 draufzulegen und feilzubieten ist eine neue Dimension der Unverschämtheit. Oder aus 3080ern >1000€-Karten zu machen. Da greift man sich nur noch an den Kopf, dass es bezahlt wird, und treibt die Zornesröte ins Gesicht, dass der Wucher toleriert wird.
Langlay
2020-10-06, 09:32:25
Meine 1080ti läuft bei 1.0v mit 2Ghz konstant. Das sollte der Nachfolger auch schon erreichen. Gut, inzwischen bin ich bei 3440x1440 Ultrawide 144hz angekommen, aber ich könnte mir auch irgendwas um die 0.9v bis 0.95v vorstellen. Dann halt mit Wasserkühlung, ordentlich Powerlimit und mal sehen wohin die Reise geht. Leider noch keine Nachrichten von Cyberport und Alphacool.
0.9V braucht meine 3090 für 2 GHz, allerdings limitiert dort das 390W Powerlimit, so das der Takt nicht immer gehalten werden kann. Imo ist das 1800MHz @ 0.8V das bessere 24/7 Setting.
Und alles >0.9V brauchste nich probieren mit <400W Powerlimit zumindest auf der 3090.
WedgeAntilles
2020-10-06, 09:53:44
Da greift man sich nur noch an den Kopf, dass es bezahlt wird, und treibt die Zornesröte ins Gesicht, dass der Wucher toleriert wird.
Der Wucher wird nicht nur toleriert sondern sogar erst möglich gemacht und aktiv und massiv gefördert.
Gamer scheinen so ziemlich die dämlichste Käufergruppe zu sein, die existiert.
Sieht man ja auch bei den völlig überteuerten DLCs, Pay2Win-Spielen, Fifa Ultimate Team und so weiter.
Es ist Fakt, dass die Spielehersteller mit Spielen dieser Art weit mehr Geld verdienen als mit einem Spiel wie Cyberpunk.
Also gibt es zwangsläufig Lootboxen, DLCs die Features 2 Wochen nach Release nachreichen, die absichtlich gestrichen worden sind um sie zusätzlich zu verkaufen (Stichwort Resident Evil) und so weiter.
Die Käufer belohnen diese Dinge mit Käufen und zeigen dem Publisher damit, dass er es genau richtig macht.
Firmen bieten das an, was ihnen am meisten Kohle bringt.
Und wenn das ein Pay2Win Spiel ist, werden die Spiele halt entsprechend designt.
Einerseits scheinen viele (die Mehrzahl?) der Spieler diese Art der Monetarisierung nicht gut zu finden.
Andererseits bezahlen sie dafür am Meisten.
Zwangsläufig also, dass diese Monetarisierung mehr und mehr wird.
Sind da die Firmen die Bösen? Einerseits ja. Andererseits werden sie von den Spielern ja fast schon dazu gezwungen so zu handeln.
Und jetzt bei den GraKas wieder so etwas.
Es scheint, als ob Spieler einfach zu doof sind...
Asaraki
2020-10-06, 10:18:00
Das kannst du alles auf jeden Markt beziehen. Stört dich nur hier mehr weil du auch "Gamer" bist :) Völlig normal, die Menschen sind im gros einfach dumm.
dildo4u
2020-10-06, 13:01:03
c7npXXyXJzI
Asaraki
2020-10-06, 14:26:33
Also die 3080 FE Box ist ja mal schick beim Öffnen. Die erste Hardware-Box die sich so richtig edel anfühlt o_O Diese leichte Schräglage kenn ich sonst nur von Schmuck und so :D
Jetzt müsste ich nur noch Zeit haben die einzubauen :D
Lawmachine79
2020-10-06, 16:08:05
Also die 3080 FE Box ist ja mal schick beim Öffnen. Die erste Hardware-Box die sich so richtig edel anfühlt o_O Diese leichte Schräglage kenn ich sonst nur von Schmuck und so :D
Wenn ich die Augen zumache, kann ich es mir vorstellen.
Asaraki
2020-10-06, 16:11:48
Wenn ich die Augen zumache, kann ich es mir vorstellen.
Aww :D Sorry, wollte kein Salz in die Wunden streuen, war ehrlich gemeinte Freude.
Muss sagen, wenn sie nicht so schwer wäre, dann könnte man sie leicht für eine kleinere Karte halten. Ist nicht grösser als die 1070 die ich gerade in Rente geschickt habe (meine Turing rechnet jetzt im PC der Freundin weiter) o_O
Was mir sehr gefällt ist der Verbinungstecker für die 2x8Pin. Endlich kein blödes Rumgefummle an der Karte, bis der dumme 2 vom 2+6 auch korrekt reingeht ;D
Lawmachine79
2020-10-06, 16:15:00
Aww :D Sorry, wollte kein Salz in die Wunden streuen, war ehrlich gemeinte Freude.
Muss sagen, wenn sie nicht so schwer wäre, dann könnte man sie leicht für eine kleinere Karte halten. Ist nicht grösser als die 1070 die ich gerade in Rente geschickt habe (meine Turing rechnet jetzt im PC der Freundin weiter) o_O
Was mir sehr gefällt ist der Verbinungstecker für die 2x8Pin. Endlich kein blödes Rumgefummle an der Karte, bis der dumme 2 vom 2+6 auch korrekt reingeht ;D
Ach, ich mache Spaß, ich freue mich hier für jeden, der seine Karte kriegt. Wenn ich meine Karte habe, geht die nächste Warterei auf die Reverb G2 los :freak:.
Asaraki
2020-10-06, 16:20:07
Ach, ich mache Spaß, ich freue mich hier für jeden, der seine Karte kriegt. Wenn ich meine Karte habe, geht die nächste Warterei auf die Reverb G2 los :freak:.
Hab ich schon so verstanden :)
So ist doch das Leben, es findet statt während man auf Dinge wartet ^^
Sardaukar.nsn
2020-10-06, 16:48:37
0.9V braucht meine 3090 für 2 GHz, allerdings limitiert dort das 390W Powerlimit, so das der Takt nicht immer gehalten werden kann. Imo ist das 1800MHz @ 0.8V das bessere 24/7 Setting.
Und alles >0.9V brauchste nich probieren mit <400W Powerlimit zumindest auf der 3090.
Sehe ich ähnlich, ich denke durch die geringere Menge Vram lässt sich 30-50W einsparen, aber eine Karte wie die Ventus mit ihrem 320W Limit ist natürlich schnell am Ende. Für meine Wasserkühlung daher Strix oder Nix.
Aktuelle Übersicht der Karten, Powerlimits usw. gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3080-owners-club.1753932/
JaniC
2020-10-06, 17:29:55
Krass finde ich den Boost der Strix OC im Vergleich zur non-OC: 1905 zu 1710 Mhz. 200Mhz (!) mehr. Resultiert dann in 2100-2200Mhz Realboost?
Da muss man ja eigentlich die OC kaufen, wenn man nicht den gammeligen Rest haben will, der beim Binning übrig blieb.
Mit der non-OC ist wahrscheinlich kaum OC möglich, weil alle brauchbaren Chips in der Strix OC verbaut werden.
Asaraki
2020-10-06, 17:31:34
Krass finde ich den Boost der Strix OC im Vergleich zur non-OC: 1905 zu 1710 Mhz. 200Mhz (!) mehr. Resultiert dann in 2100-2200Mhz Realboost?
Da muss man ja eigentlich die OC kaufen, wenn man nicht den gammeligen Rest haben will, der beim Binning übrig blieb.
Mit der non-OC ist wahrscheinlich kaum OC möglich, weil alle brauchbaren Chips in der Strix OC verbaut werden.
Dann wäre ja für einmal auch die Preislage der OC Modelle fair, was ja sonst eher nicht der Fall ist.
Aber mal schauen, die Wochen werden zeigen wie gut welche Modelle wirklich sind. Aktuell ist ja vieles noch an Einzeltests aufgehängt.
dargo
2020-10-06, 17:40:43
Krass finde ich den Boost der Strix OC im Vergleich zur non-OC: 1905 zu 1710 Mhz. 200Mhz (!) mehr. Resultiert dann in 2100-2200Mhz Realboost?
Das ist kompletter Bullshit was dort steht. Die non OC Strix boostet niemals nur mit 1710Mhz bei 370W. Das wäre sogar weit unter 3080FE mit weniger Watt.
Edit:
Hier hast du die non OC Strix bei RDR2 mit dem 370W Powerlimit. GPU-Takt >1,9Ghz.
https://youtu.be/LWyjrD7qdME?t=399
Kann sein, dass andere Games eine etwas höhere GPU-Last erzeugen womit der Takt etwas kleiner ausfällt. Aber nie im Leben 1,71Ghz bei 370W in Games.
PS: auch die TUF Angaben sind Schwachsinn. Wahrscheinlich hat der Praktikant nur die offiziellen Boostclocks abgeschrieben. :ulol: In erster Linie bestimmt immer das Powerlimit im GPU-Limit die tatsächlichen Boostclocks bei vergleichbaren Temperaturen. Danach kommt ein wenig von der GPU-Lotterie.
JaniC
2020-10-06, 17:49:13
Natürlich entspricht der Boost nicht dem Realboost, habe ich 1. auch geschrieben und 2. ging es darum nicht. :rolleyes:
Sardaukar.nsn
2020-10-06, 17:51:13
Ganz klarer Fall von "Strix oder Nix" :freak:
https://www.tweaktown.com/images/content/9/6/9614_118_asus-rog-strix-geforce-rtx-3080-oc-edition-review_full.png
Eins der bisher wenigen englischsprachigen Reviews: https://www.tweaktown.com/reviews/9614/asus-rog-strix-geforce-rtx-3080-oc-edition/index.html
dargo
2020-10-06, 17:54:51
Natürlich entspricht der Boost nicht dem Realboost, habe ich 1. auch geschrieben und 2. ging es darum nicht. :rolleyes:
Genau das hast du nicht geschrieben. Du gehst davon aus, dass non OC Strix die schlechten Chips bekommt was völliger Unsinn ist. Auch hier gilt Lotterie.
Ganz klarer Fall von "Strix oder Nix" :freak:
https://www.tweaktown.com/images/content/9/6/9614_118_asus-rog-strix-geforce-rtx-3080-oc-edition-review_full.png
Eins der bisher wenigen englischsprachigen Reviews: https://www.tweaktown.com/reviews/9614/asus-rog-strix-geforce-rtx-3080-oc-edition/index.html
Schönes Cherry Picking. :D Ist das einzige Spiel wo die Strix OC vor einer 3090 bei den avgs. liegt. Schon mal auf die Idee gekommen, dass es dort ein stärkeres CPU-Limit gab? Bei FC: ND nicht ganz unwahrscheinlich trotz 4k. Und wenn ich sehe, dass die 3090 nur 11% vor der 2080TI liegt würde ich sogar darauf wetten. ;)
Langlay
2020-10-06, 18:25:35
Schönes Cherry Picking. :D Ist das einzige Spiel wo die Strix OC vor einer 3090 bei den avgs. liegt. Schon mal auf die Idee gekommen, dass es dort ein stärkeres CPU-Limit gab? Bei FC: ND nicht ganz unwahrscheinlich trotz 4k. Und wenn ich sehe, dass die 3090 nur 11% vor der 2080TI liegt würde ich sogar darauf wetten. ;)
Farcry ist recht Powerlimitiert. Wenn ich den Stormverbrauchswerten der Seite trauen darf. Hat die 3080 Strix ein ~380W Powerlimit im vergleich zu den 350W von der 3090. Dort sollte dann eventuell auch die Erklärung liegen.
Falls sie den Benchmark von Spiel nutzen, das schafft meine 3090 Stock mit 350W PT im Benchmark in 4k ultra.
https://abload.de/img/farcrystocknjjhn.png
Sardaukar.nsn
2020-10-06, 18:34:39
@Langlay: Die 3080 Strix hat ein Powerlimit von 450 Watt.
Eine aktuelle Übersicht gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3080-owners-club.1753932/
dargo
2020-10-06, 18:46:16
@Langlay: Die 3080 Strix hat ein Powerlimit von 450 Watt.
Eine aktuelle Übersicht gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3080-owners-club.1753932/
Das ist so pauschal gesagt einfach nicht richtig, die Liste ist sowieso fehlerhaft. Oder besser gesagt... die angegebenen Boostclocks entsprechen nur den offiziellen Angaben was komplett wumpe ist.
Die Strix hat zwei Biosversionen. Die eine liefert 370W PT, die andere 450W PT. Ist nichts anderes als die Ausführungen bei Vega10 oder Navi10. Einfach zwei Biose mit unterschiedlichen Parametern beim Powerlimit und in der Regel auch Lüfterkurve.
https://youtu.be/8j0Own0kQAw?t=241
Durch das höhere Powerlimit gibts dann selbstverständlich innerhalb der Spannungskurve mehr Megaherzchen.
Armaq
2020-10-06, 18:53:06
Farcry ist recht Powerlimitiert. Wenn ich den Stormverbrauchswerten der Seite trauen darf. Hat die 3080 Strix ein ~380W Powerlimit im vergleich zu den 350W von der 3090. Dort sollte dann eventuell auch die Erklärung liegen.
Falls sie den Benchmark von Spiel nutzen, das schafft meine 3090 Stock mit 350W PT im Benchmark in 4k ultra.
https://abload.de/img/farcrystocknjjhn.png
Du liegst deutlich besser als der Tester.
Sardaukar.nsn
2020-10-06, 21:07:56
Das ist so pauschal gesagt einfach nicht richtig, die Liste ist sowieso fehlerhaft. Oder besser gesagt... die angegebenen Boostclocks entsprechen nur den offiziellen Angaben was komplett wumpe ist.
Die Strix hat zwei Biosversionen. Die eine liefert 370W PT, die andere 450W PT. Ist nichts anderes als die Ausführungen bei Vega10 oder Navi10. Einfach zwei Biose mit unterschiedlichen Parametern beim Powerlimit und in der Regel auch Lüfterkurve.
https://youtu.be/8j0Own0kQAw?t=241
Durch das höhere Powerlimit gibts dann selbstverständlich innerhalb der Spannungskurve mehr Megaherzchen.
So wie ich das verstanden habe, ist bei der Strix 100% Powertarget 370 Watt und z.B. im MSI Afterburner oder der Asus Software kannst du dann auf 121% erhöhen, was ca. den 450 Watt entspricht. Das dürfte für beide Bios gleich sein. Mein Ansatz wäre sich dann zunächst mit Undervolting auf eine Spannung festzulegen 0.9 bis 1.0v und mit guter Kühlung (der Alphacool Block ist schon bestellt) und hohem Powerlimit zu experimentieren. Ich freu mich schon drauf.
dargo
2020-10-06, 21:25:40
Kann auch sein, dass ich mich vertue. Das kann dir nur jemand genau beantworten der diese Karte hat. Normalerweise gibt es bei zwei Biosen auch unterschiedliche PTs. Aber natürlich könnte ASUS mit dem Performancebios nur die Lüfter schneller drehen lassen. Und mit dem Quietbios halt langsamer. Dann würden sich beide Biose nur in der Lüfterkurve unterscheiden, u.U. fehlt Zero-Fan im Performancebios.
BananaJoe
2020-10-07, 07:51:40
Mich würde ja interessieren was die insgesamt an Stückzahlen rausbekommen... ich meine, die ganze Welt spielt Konsole, wo soll plötzlich so eine immense Nachfrage herkommen. :confused::biggrin:
dildo4u
2020-10-07, 10:00:52
Da wäre ich nicht so sicher ich hatte ne PS4 und PS4 Pro, bei mir kommt erstmal keine PS5 ins Haus da Sony 80€ für Exklusive Games haben will.(Kein Witz)
Dem gegenüber stehen häufig 30-40€ bei CDkeys für neue PC Games.
Dural
2020-10-07, 10:54:01
Die ganze Welt spielt mit Konsolen? Ich glaube es sieht eher so aus das die ganze Welt Konsolen Zuhause haben, ob gross damit gespielt wird dürfte auf die Stückzahlen bezogen eher selten der Fall sein. Wer sich eine Gaming Grafikkarte kauft macht dies in der Regel weil er die nötige Leistung braucht und ihm das Wert ist. Konsolen Spieler sind doch deutlich mehr Gelegenheits Spieler.
Meine XBox und PS4 stehen seit min. 2 Jahren unbenutzt im TV Möbel.
sChRaNzA
2020-10-07, 10:57:37
Da wäre ich nicht so sicher ich hatte ne PS4 und PS4 Pro, bei mir kommt erstmal keine PS5 ins Haus da Sony 80€ für Exklusive Games haben will.(Kein Witz)
Dem gegenüber stehen häufig 30-40€ bei CDkeys für neue PC Games.
Müssten / Sollten diese Spiele (inflationsbereinigt) nicht eh so viel kosten? Die Rede ist von AAA-Spielen am Erscheinungstag. Nach paar Wochen kann man die in der Krabbelkiste eh für einen Apfel und ein Ei mitnehmen. Oder auf ebay für nen 5er ersteigern. Der Preis von Spielen, auf Konsole, ist für mich da eher zweitrangig.
pixeljetstream
2020-10-07, 11:00:42
Off topic. Lösch mich
Asaraki
2020-10-07, 11:05:45
Hmmm mal was zum Thema : Gerade bisschen rumgespielt während ich @work warten musste... die Karte (3080 FE) verhält sich bei niedrigen PTs extrem schräg. Hatte ich mit Pascal und Turing nicht, wobei ich dort auch nicht auf 30% PT runter konnte, ist also ein schlechter Vergleich :D
Auf jeden Fall taktet die Karte dann aggressiv zwischen ~300 und ~1700 und erzeugt extrem inkonsistente Frametimes, also wirklich Ruckeln des Grauens. Statt einfach bei ~600-1000 zu laufen springt sie zwischen Low und High o_O
Muss aber mal noch mehr ausprobieren, kann auch an einem komischen Load liegen oder so.
Edit : Auch bis und mit 60% PT das gleiche Problem, wenn auch weniger Stark, aber die Sprünge sind immer noch zu stark. Erinnert mich an unsere ersten Versionen eines Workload Algos, das dürfte nV auch schon aufgefallen sein :D
Ansonsten ganz zufrieden, so 2050 macht sie von Haus aus, fällt dann aber nach einer Weile ab wegen Thermal. Aber das ist ok =) Laaaaut ist das Ding, wenn sie aufdreht... jesus christ.
Erbsenkönig
2020-10-07, 13:03:27
Die ganze Welt spielt mit Konsolen? Ich glaube es sieht eher so aus das die ganze Welt Konsolen Zuhause haben, ob gross damit gespielt wird dürfte auf die Stückzahlen bezogen eher selten der Fall sein.
Also meine PS4 habe ich in den letzten bald zwei Jahren - soweit ich mich erinnere - nur für HZD, Until Dawn und ein paar Tage FF:XV zum Spielen benutzt. Es macht für mich wenig Sinn, jahrelang darauf zu warten, dass die Spiele mal 20 € oder weniger kosten, wenn ich das Ganze meistens in besserer Qualität schon auf dem PC für dasselbe Geld oder weniger bekommen kann.
EDIT: Ich denke man sollte auch bei den Zielgruppen unterscheiden - wer sich eine Konsole besorgt, um damit FIFA und Madden zu spielen, der interessiert sich für irgendwelche Grafikkarten in diesen Preisklassen eh nicht. Das ist dann viel eher so einer, der sich beim Mediamarkt einen Komplett-PC aufschwatzen lässt mit einer 1060er und dafür nen Tausender hinlegt, weil die LED Beleuchtung doch so schön ist.
Ex3cut3r
2020-10-07, 13:15:11
Mich würde ja interessieren was die insgesamt an Stückzahlen rausbekommen... ich meine, die ganze Welt spielt Konsole, wo soll plötzlich so eine immense Nachfrage herkommen. :confused::biggrin:
Ist das denn wirklich so? Nvidia macht immer noch den meisten Gewinn mit Gamer Grafikkarten, trotz KI, Clouds und wissenschaftlichen Gedöns.
r3ptil3
2020-10-07, 15:26:07
ASUS Strix 3080 OC:
https://i.ibb.co/vczPtx1/Geh-use.jpg (https://ibb.co/vczPtx1) https://i.ibb.co/tKVrz22/oben.jpg (https://ibb.co/tKVrz22) https://i.ibb.co/nMWbsBm/unten.jpg (https://ibb.co/nMWbsBm)
Selten eine so hochwertig wirkende Grafikkarte in den Händen gehabt.
Und ebenso noch nie so viel Plastikversiegelungen abziehen müssen wie bei dieser.
Mayk-Freak
2020-10-07, 15:28:59
Sehr schön!
Asaraki
2020-10-07, 15:36:49
ASUS Strix 3080 OC:
https://i.ibb.co/vczPtx1/Geh-use.jpg (https://ibb.co/vczPtx1) https://i.ibb.co/tKVrz22/oben.jpg (https://ibb.co/tKVrz22) https://i.ibb.co/nMWbsBm/unten.jpg (https://ibb.co/nMWbsBm)
Selten eine so hochwertig wirkende Grafikkarte in den Händen gehabt.
Und ebenso noch nie so viel Plastikversiegelungen abziehen müssen wie bei dieser.
Sehr hübsch! Ausnahmsweise gefällt mir auch, dass das Gehäuse weiss ist.
Ich zeig meine hässliche Kiste lieber nicht, wird Zeit für ein bisschen grösseres Gehäuse oder zumindest mal die HDD Käfige ausbauen T_T
Sardaukar.nsn
2020-10-07, 15:45:12
@bardh: Herzlichen Glückwunsch, schaut toll aus, auch wenn ich sonst nicht der Typ für weiße Gehäuse bin. Woher hattest du die Karte doch gleich?
r3ptil3
2020-10-07, 15:45:23
In TimeSpy (2. Test) kommt die Karte mit OC bisher auf 2050Mhz bei über 430 Watt. :freak: - Temperatur 72° im aktuell noch offenen Gehäuse und im Performance-Mode.
Werde jetzt gleich mal das System komplett frisch neu installieren.
@Sardaukar.nsn
Danke!
Digitec.ch - aber habe wenige Sekunden nach 15.00 Uhr am 17.9 bestellt, ansonsten wäre ich jetzt am warten.
Asaraki
2020-10-07, 15:46:59
@bardh: Herzlichen Glückwunsch, schaut toll aus, auch wenn ich sonst nicht der Typ für weiße Gehäuse bin. Woher hattest du die Karte doch gleich?
Die dürfte auch von Digitec.ch gewesen sein, hat er mal erwähnt.
Bardh, ja der Stromverbrauch ist crazy - bin nicht wirklich traurig, dass meine FE bei ~380 Schluss macht :D
Troyan
2020-10-07, 15:51:29
Ist doch kein Problem, solange die GPU vernünftig gekühlt wird. Das ist ja irgendwie das Krasse an Ampere mit GDDR6X: Die GPU nimmt sich relativ gesehen wenig Strom. Meine Asus 3090 TUF rennt hier maximal mit 70° (meisten sogar weniger) bei 375W. Die GPU dagegen liegt bei <200W. Kein Vergleich zu meiner 2080TI, die bei 360W irgendwo bei 260W oder so rumdümpelte.
Chrisch
2020-10-07, 16:42:22
Ist doch kein Problem, solange die GPU vernünftig gekühlt wird. Das ist ja irgendwie das Krasse an Ampere mit GDDR6X: Die GPU nimmt sich relativ gesehen wenig Strom. Meine Asus 3090 TUF rennt hier maximal mit 70° (meisten sogar weniger) bei 375W. Die GPU dagegen liegt bei <200W. Kein Vergleich zu meiner 2080TI, die bei 360W irgendwo bei 260W oder so rumdümpelte.
Erreicht deine TUF auch die 375W? Meine erreicht trotz 110% PT nur max 355W und drosselt dann den Takt :motz:
https://abload.de/img/tufoc6-rtbh3k4y.png
Armaq
2020-10-07, 16:57:09
Erreicht deine TUF auch die 375W? Meine erreicht trotz 110% PT nur max 355W und drosselt dann den Takt :motz:
https://abload.de/img/tufoc6-rtbh3k4y.png
In GPUZ sieht es nach Power Limit aus. Vll. macht er die 110% aus irgendwelchen Gründen nicht?
Chrisch
2020-10-07, 17:02:07
Jo 355W ist das PL bei 110% PT (375W). Scheine mit dem Problem nicht allein zu sein, im overclock.net gibts auch welche.
dildo4u
2020-10-07, 17:03:26
Macht doch sinn das TUF Modell so von der Strix abzugrenzen.
Chrisch
2020-10-07, 17:05:18
Naja, die STRIX kann nochmal 75W mehr (450W).
Armaq
2020-10-07, 17:09:01
Aber der Takt ist doch ganz gut? Warum 20 Watt mehr rausblasen? Ich kann auf der 2080Ti theoretisch 360W oder sowas und habe die Karte bei 320W. Damit liegen immer über 2000 Mhz an, RAM ist auch ordentlich hochgedreht. Die 40 Watt mehr haben nichts gebracht, was ich nachvollziehen könnte.
Chrisch
2020-10-07, 17:16:11
Naja, für 24/7 ists mir egal. Da wird die untervoltet! Aber zum benchen hin und wieder und wenn ich dann weiß das die Karte nicht das erreicht was sie könnte (oder sollte bzgl. PL) dann bekomm ichn Brechreiz :D
r3ptil3
2020-10-07, 22:03:26
ASUS Strix 3080 OC
https://i.ibb.co/cQPm4CK/3d.png
https://www.3dmark.com/3dm/51392835?
2.1Ghz sind auch knapp erreichbar, danach ist Schluss.
Was mir bei der Strix gerade nicht so gefällt: Sobald die Lüfter runterdrehen, entsteht bei einer gewissen Umdrehung ein rattern. Geht zwar schnell weg, aber fällt auf.
Inquisitor
2020-10-07, 22:05:46
Hmm, Lagerschaden?
r3ptil3
2020-10-07, 22:11:15
Hmm, Lagerschaden?
Bin gerade mit den Drehzahlen am testen (innerer und beide äusseren Lüfter separat), aber hört sich soweit gut an beim runterregeln.
Muss mal schauen, ob da irgendwas anderes dadurch vibriert.
Chrisch
2020-10-08, 06:19:05
ASUS Strix 3080 OC
https://i.ibb.co/cQPm4CK/3d.png
https://www.3dmark.com/3dm/51392835?
2.1Ghz sind auch knapp erreichbar, danach ist Schluss.
Was mir bei der Strix gerade nicht so gefällt: Sobald die Lüfter runterdrehen, entsteht bei einer gewissen Umdrehung ein rattern. Geht zwar schnell weg, aber fällt auf.
Solltest vll ne manuelle Kurve mit AB anlegen oder dein Speicher war zu hoch getaktet.
2000/10000MHz mit der TUF und einem 4.2GHz 8600K ergeben
https://abload.de/img/timespy316jk5.png
horn 12
2020-10-08, 06:35:59
OH Gott
Abwarten und die 20GB kostet wohl 849 bis 899 Dollar
Da sticht BigNavi Nvidia diesesmal komplett aus, Wetten!
https://videocardz.com/newz/nvidia-geforce-rtx-3080-20gb-to-launch-in-december
DrMabuse1963
2020-10-09, 17:40:31
3070 16GB schon im Dezember ? Wäre ja zu schön...
Lawmachine79
2020-10-09, 17:42:43
OH Gott
Abwarten und die 20GB kostet wohl 849 bis 899 Dollar
Da sticht BigNavi Nvidia diesesmal komplett aus, Wetten!
https://videocardz.com/newz/nvidia-geforce-rtx-3080-20gb-to-launch-in-december
Ja, dieses Mal komplett!
Asaraki
2020-10-09, 18:26:36
Ja, dieses Mal komplett!
Liefern sie einen spitzigen Gegenstand mit um damit die vorhandene nV Karte zu stechen, damit die Navi dann die schnellste Karte im Haus ist? Kommt mit EMP Emitter der alle Amperechips in Reichweite zerstört beim ersten Einschalten :D
Ich glaube "komplett zerstören" ist so unmöglich, wie das mit dem ersten Ryzen möglich war. Und nV verhält sich nicht ganz so lahmarschig wie Intel ;)
Ach diese Träumer immer. You're a dreamer, du.
(Law, ich meine natürlich nicht dich ;))
Lawmachine79
2020-10-09, 18:44:11
(Law, ich meine natürlich nicht dich ;))
Doch auch ich - ich träume von der Lieferung meiner Karten. Letzte Nacht zuletzt. War so real der Traum.
Asaraki
2020-10-09, 18:47:21
Doch auch ich - ich träume von der Lieferung meiner Karten. Letzte Nacht zuletzt. War so real der Traum.
Hab gehört im Ozean seien zwei Pakete gefunden wurden, auf denen dein Name stand. Das Transportschiff wurde angeblich von der S.S. Lisa versenkt
Edit : Das oben streichen, hab ne viel bessere Antwort gefunden.
Was ist Dein Maximalpuls?
MiamiNice
2020-10-09, 19:42:13
Hab gehört im Ozean seien zwei Pakete gefunden wurden, auf denen dein Name stand. Das Transportschiff wurde angeblich von der S.S. Lisa versenkt
Paddelboot zerstört Megatanker?
aufkrawall
2020-10-09, 19:44:12
Jo 355W ist das PL bei 110% PT (375W). Scheine mit dem Problem nicht allein zu sein, im overclock.net gibts auch welche.
Hast du mal gecheckt, ob es einen Zusammenhang zur Temperatur gibt? Bei einer RX 580 Dual hatte Asus da mal geschummelt.
Chrisch
2020-10-09, 19:47:10
Selbst mit Lüfter auf 100% und max 44°C regelt das Powerlimit bei max 355W und wie gesagt bin mit dem "Problem" nicht allein.
Im Alltag egal, da wird eh UV betrieben und selten das PT erreicht, aber beim Benchen braucht man jedes W :D
TurricanM3
2020-10-10, 15:54:27
Ich habe heute meine TUF 3080 non OC bekommen. Hatte Glück und die am Mittwoch lagernd geschossen.
https://abload.de/img/20201010_155215hhjsc.jpg (https://abload.de/image.php?img=20201010_155215hhjsc.jpg)
Sie boostet stock im HZD Bench bis auf 1995, was mich dann doch etwas für non OC wundert. Takt schwankt aber arg, teils auf 1890 runter.
Meine 2025/8000 Ti (Wakü) hatte 119 Punkte in dem Bench, leider keinen Screen gemacht. Hatte davor noch eine 2080S (ausgequetscht 2100-2055 / 8900) drin:
https://abload.de/thumb/horizonzerodawn_2020_v7kjw.png (https://abload.de/image.php?img=horizonzerodawn_2020_v7kjw.png)
Ampere Junior:
https://abload.de/thumb/horizonzerodawn_2020_zgjmi.png (https://abload.de/image.php?img=horizonzerodawn_2020_zgjmi.png)
Die Dips wundern mich bisschen. :|
EDIT:
Blödsinn, 109 hatte die Ti! Screen gefunden:
https://abload.de/thumb/horizonzerodawn_2020_majrs.png (https://abload.de/image.php?img=horizonzerodawn_2020_majrs.png)
Treiber aber älter.
dildo4u
2020-10-10, 15:59:33
Hat er hier auch beobachtet 1440p kann die Cuda Kerne nicht ausreichend belasten.
https://youtu.be/c7npXXyXJzI?t=512
dargo
2020-10-10, 16:10:04
Sie boostet stock im HZD Bench bis auf 1995, was mich dann doch etwas für non OC wundert. Takt schwankt aber arg, teils auf 1890 runter.
Völlig normal in HZD. Selbst meine 5700XT boostet da ungewöhnlich hoch bei mickrigen 150W GPU. Mit 155-160W erreiche ich die 2Ghz @1440p. :freak:
aufkrawall
2020-10-10, 16:11:27
Die Dips wundern mich bisschen. :|
Magst du mal den Benchmark inkls. RTSS Overlay capturern? Dann könnte man sehen, wann es klemmt.
Langlay
2020-10-10, 16:12:50
Völlig normal in HZD. Selbst meine 5700XT boostet da ungewöhnlich hoch bei mickrigen 150W GPU.
Jop, ist bei mir ähnlich. Stock taktet meine Karte auch ungewöhnlich hoch ~1950 MHz bei ~350W Boardpower. Und mit meinem UV Setting 1800MHz @ 0.775V läuft HZD mit ~240W Boardpower.
TurricanM3
2020-10-10, 16:15:15
Hatte es noch editiert.
Ich weiß nicht wie viel G-Sync und 144 cap ausmacht. Glaube die Karte läuft da zumindest an einer Stelle rein.
Komisch, dass im Bench die Maxwerte über 200 liegen? oO
@aufkrawall
Kann ich gern machen. Momentchen.
Troyan
2020-10-10, 16:16:34
Ist nicht ungewöhnlich. Boost bedeutet einfach nur, dass die Karten innerhalb der Steps takten können. Wird die Karte nicht stark genug ausgelastet, taktet sie einfach höher. Je geringer die Auflösung, umso geringer wird die Auslastung des kompletten Chips. Ergo sieht man in 1080p oder 1440p Taktraten bis an den höhsten Boost-Steps. Und da der Chip effizienter ist als Turing, sind die ganzen Kühllösungen fast schon überdimensioniert. Ergo gibt es kein Temp-Limit und der Treiber hat freie Bahn bis zum Powerlimit.
Langlay
2020-10-10, 16:18:17
Ich weiß nicht wie viel G-Sync und 144 cap ausmacht. Glaube die Karte läuft da zumindest an einer Stelle rein.
Komisch, dass im Bench die Maxwerte über 200 liegen? oO
Mit meiner 3090 gibt es Bereiche in dem Benchmark mit 150-160 FPS. Die maximal Werte sind imo von ganz am Anfang des Benchmarks als das Bild noch schwarz ist kurz vor dem CPU Limit aus der Hölle.
TurricanM3
2020-10-10, 16:36:28
Ich hab einfach mal +165 ins Blaue für die GPU und Lüfter @100% gesetzt und das lief durch. Weiß nun nicht ob das so normal ist bei den 3080, aber für mich sieht das nicht nach einem Gurken nonOC Chip aus.
Hier das Vid:
19uqIaUfu8M
(YT braucht noch für HD)
Boost bis auf 2175 anfangs so. :freak:
Ist denke dumm da mit G-Sync/V-Sync zu testen.
Langlay
2020-10-10, 16:45:13
Ist denke dumm da mit G-Sync/V-Sync zu testen.
Ja du läufst im mittleren Teil längere Zeit in den V-Sync cap.
https://abload.de/img/cpulimitbwkyh.png
TurricanM3
2020-10-10, 16:56:27
Ja müsste ich ausmachen wenn, naja. Gerade den Benchmark mit 2220 durchgekriegt. 2235 schmieren dann ab.
https://abload.de/img/horizonzerodawn_2020_4xjnu.png (https://abload.de/image.php?img=horizonzerodawn_2020_4xjnu.png)
Spannung nichts geändert, nur offset und Lüfter @100%. Hätte ich so jetzt nicht erwartet, oder das Game / der Bench eignet sich schlecht als Stabi-Test.
Mal zocken bisschen jetzt. Bin gespannt.
Langlay
2020-10-10, 16:58:34
Ja, ist kein guter Stabilitätstest von Core OC. VRAM OC isser einigermassen anfällig.
Daredevil
2020-10-10, 17:01:57
Superposition 8k? :)
Ich finde 60fps zum Benchen perfekt, alles darunter schreit irgendwie nach Flaschenhals, alles drüber ebenso.
Also bei 20fps ist die Karte selten zu 100% ausgelastet, bei 200fps könnte die CPU schon rein gehen, so um die 60 macht für mich meistens mehr Sinn, auch bei Stabilitätstests.
dargo
2020-10-10, 17:05:04
Ich hab einfach mal +165 ins Blaue für die GPU und Lüfter @100% gesetzt und das lief durch. Weiß nun nicht ob das so normal ist bei den 3080, aber für mich sieht das nicht nach einem Gurken nonOC Chip aus.
Hier das Vid:
https://youtu.be/19uqIaUfu8M
(YT braucht noch für HD)
Boost bis auf 2175 anfangs so. :freak:
Ist denke dumm da mit G-Sync/V-Sync zu testen.
Irgendwas stimmt da bei dir nicht. Du hast da mehrmals einen starken Einbruch Richtung ~67fps (~15ms). Und für eine 10GB Karte spiked das auch manchmal unschön. ;)
Edit:
Das hier sollte bei 0:53 nicht passieren.
https://abload.de/img/turri8lke9.jpg
Ist auch schon vorher einmal vorgekommen. Ich habe nur diese Stelle genommen da man in der grandiosen YT-Kompression @1080p(*hust*) in hellen Szenen den Frametimegraphen fast erraten muss. :freak: Am besten bringe Transparenz ist das Overlay wie hier.
Njtk8Ngf-0c
Damit kann man besser die Linie erkennen.
@Turri
So sollte es laufen.
Glp8r_KlMRQ
Texturen niedrig da sonst im Benchmark ab medium Texturen Spikes mit 8GB Vram.
Ex3cut3r
2020-10-10, 17:36:12
Ich hatte es schon im Bench Thread zu HZD gesagt. Den Benchmark muss man ein paar mal laufen lassen, bis der Shader Cache generiert ist, danach läufts erheblich spike freierer, solange der VRAM nicht komplett überläuft.
aufkrawall
2020-10-10, 19:53:40
Diese zwei Mal auftretenden Absack-Plateaus sind schon merkwürdig. Läuft die GPU mit 16x PCIe 3.0? Bei wem anders mit ähnlich hohen fps treten die nicht auf?
dargo
2020-10-10, 20:27:30
Diese zwei Mal auftretenden Absack-Plateaus sind schon merkwürdig.
Drei mal. :)
Läuft die GPU mit 16x PCIe 3.0?
Wie du sicherlich noch weißt hatten bei mir 8 Lanes nur 1% gekostet. Muss natürlich nichts für Ampere heißen.
Bei wem anders mit ähnlich hohen fps treten die nicht auf?
Allgemein oder Geforce bzw speziell Ampere?
720p, DF-Settings mit niedrig Texturen = 138 avg.fps bei absolut sauberen Frametimes hier.
aufkrawall
2020-10-10, 21:17:21
Das läuft bei mir mit >100fps auch genau so sauber/unsauber wie mit 50, aber ein Gegentest von einem anderen Ampere-User wär natürlich aussagekräftiger.
TurricanM3
2020-10-10, 21:21:51
Gerade noch mal gecheckt, ja, x16 3.0.
Ich kann mir das im Bench auch nicht erklären. Ingame läuft es soweit ganz gut, nicht perfekt aber ich kann das prima zocken so. Die häufigeren Spikes von der 8GB 2080S hatte ich bislang nur sehr selten. Rohperformance ist echt spitze, hatte in den 2h gerade keine einzige Stelle die sich träge an der Maus anfühlte. Mit der 2080Ti gab es diese. Bin allerdings überwiegend Wüste unterwegs aktuell. Hier mal extra viel rumgelaufen 3 Min. mit einigen Drehungen:
f-QpxAygJWU
~2100/10000, läuft aber oft ins PT. Die Karte sollte sich zwar 375w genehmigen, aber irgendwie macht die mit den 117% bei anderen auch schon um 345w rum dicht. :confused:
Win Energieprofil ausbalanciert. Bringt Höchstleistung was?
Mein Win ist halt schon ziemlich alt und hatte schon einige Hardware. Evtl. ist das nicht mehr so optimal. Ich warte noch auf die 980 Pro dann installier ich neu.
Ex3cut3r
2020-10-10, 21:34:33
Ich nehme mal das sind Ultra Settings @ 1440p? Dann reichen mittlerweile 9GB VRAM?
Ich habs zum rls in 2 Wochen mit den ersten beiden Patches gezockt, und da lief selbst @ Medium Texturen @ 8GB VRAM schlecht. Sieht ja mittlerweile ganz gut aus. Wirds trotzdem nicht mehr installieren, so toll fand ich das Game einfach nicht. Grafisch, stört mich das schlechte TAA einfach sehr stark. Und für DS ist von 3440x1440 einfach überhaupt keine Leistung übrig.
Sardaukar.nsn
2020-10-10, 22:48:04
@TurricanM3: Danke für das Video, schaut echt gut aus. Ich bin gerade auch mit HZD angefangen und komme in 3440x1440p meist so zwischen 50-70fps. Adaptive-Sync bügelt das ja halbwegs glatt, aber der Wunsch nach mehr Leistung ist natürlich da. Der Monitor könnte bis 144 entgegen nehmen.
https://i.imgur.com/Ev3pErj.jpg
Mein TimeSpy (1440p, DX12) GPU Score der 1080ti liegt bei ca. 10.000. https://i.imgur.com/MDOHMHl.jpg
Wenn die 3080 hier 18-19k schafft, wäre das ein super Upgrade und die FPS in deinem Video scheinen das ja schon anzudeuten.
JaniC
2020-10-10, 22:53:25
2235Mhz sind natürlich n Brett.
Damit kann man arbeiten.
Kommt die langfristig noch unter Wasser?
Daredevil
2020-10-10, 22:59:13
Unter 60 grad und 350w sind doch schon WaKü, oder? :X
Oder 100% Lüfter? ^^
JaniC
2020-10-10, 23:10:23
Er schrieb 100% Lüfter.
Daredevil
2020-10-10, 23:19:14
Achso, Oki.
Dann geht da ja noch was am Takt, drei Lüfter bei 100% gehen auch arg ins TDP.
Haste wohl nen Gutes Modell erwischt, krass. :)
Die Asus Karten sind wie seltene Briefmarken. ;D
TurricanM3
2020-10-10, 23:26:59
Ich habe geschrieben, dass 2235 im Bench schnell abschmieren. Vermutlich sind auch ~2200 nicht dauerstable. Im Alltag sowieso nicht machbar. PT zu gering.
Ich bin aber auch überrascht wie gut die geht, gerade weil es eine non OC ist. Einen mies gebinnten Chip hab ich da wohl nicht erhalten.
Probiere gerade ein bisschen mit UV herum. Da schwankt der Takt fast gar nicht mehr ~@2000.
@Sardaukar.nsn
Von der 1080Ti schon ein ziemliches Upgrade. Bleibt halt nur die vRAM Geschichte. Eine Karte für 3+ Jahre Ruhe mit deiner Auflösung ist das wohl eher nicht. Gerade Texturen fressen kaum/keine Leistung, musst sie aber evtl. runterstellen und die Optik kann je nachdem ziemlich leiden.
NikLaw
2020-10-11, 01:10:08
Ich glaube ich hab jetzt meine endgültigen UV-Einstellungen gefunden.
0.825 V
1815 Mhz
+1003 MHz RAM
Power Limit 86 %
hq-hq
2020-10-11, 05:30:13
hm, schon toll zu sehen wie hoch der Takt gehen kann, auf der anderen Seite zieht HZD in 1440p max auf der alten 2080Ti bei 60Hz/fps nur so 100-120Watt
HZD ist wirklich kein Game das auf die GPU geht, Metro Exodus zieht da ~320Watt
dargo
2020-10-11, 08:27:59
Gerade noch mal gecheckt, ja, x16 3.0.
Ich kann mir das im Bench auch nicht erklären. Ingame läuft es soweit ganz gut, nicht perfekt aber ich kann das prima zocken so. Die häufigeren Spikes von der 8GB 2080S hatte ich bislang nur sehr selten. Rohperformance ist echt spitze, hatte in den 2h gerade keine einzige Stelle die sich träge an der Maus anfühlte. Mit der 2080Ti gab es diese. Bin allerdings überwiegend Wüste unterwegs aktuell. Hier mal extra viel rumgelaufen 3 Min. mit einigen Drehungen:
https://youtu.be/f-QpxAygJWU
Auch hier sieht man sehr gut, dass es mit der 10GB RTX 3080 nicht sauber läuft. Vergiss übrigens die VRAM allocation von RTSS, diese zeigt dir nicht ob es am Vram (wovon ich aber ausgehe) oder Geforcetreiber bzw. DX12 Renderer für Geforces liegt.
Danke fürs Video.
PS: seltsamerweise hast du hier auch 1x diesen komischen Frameeinbruch bei 1:00 gehabt. Stell mal die Energieoptionen auf Höchstleistung, womöglich liegt das wirklich daran.
PPS: teste mal den Takt mit Division 2.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12456160&postcount=591
dildo4u
2020-10-11, 08:47:40
HZD streaming ist einfach Schrott hier Spikt es ohne ersichtlichen Grund auf der 3090.
https://youtu.be/R77YBF56Jtw?t=511
Und die Engine skaliert auch auf AMD nicht.
RX5700 XT liegt 30% vor GTX 1080 in 1080p und 1440p keine Chance High-Refresh Monitore ordentlich zu nutzen.
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#diagramm-horizon-zero-dawn-1920-1080
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#diagramm-horizon-zero-dawn-2560-1440
dargo
2020-10-11, 09:03:18
HZD streaming ist einfach Schrott hier Spikt es ohne ersichtlichen Grund auf der 3090.
https://youtu.be/R77YBF56Jtw?t=511
Achso... jetzt ist also das Spiel Schrott wenn es auf Geforce scheiße läuft und Radeon nicht? Interessant Bro...
Und die Engine skaliert auch auf AMD nicht.
RX5700 XT liegt 30% vor GTX 1080 in 1080p und 1440p keine Chance High-Refresh Monitore ordentlich zu nutzen.
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#diagramm-horizon-zero-dawn-1920-1080
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#diagramm-horizon-zero-dawn-2560-1440
:facepalm:
Du checkst noch nicht mal, dass die 5700XT mit max. Settings bereits in 1080p stark gpu-limitiert ist. Mit DF-Settings bin ich selbst in 1440p über dem was CB da bencht.
Jupiter
2020-10-11, 09:20:01
Das hier noch immer HZD als Beispiel für VRAM Verbrauch genommen wird, ist ziemlich peinlich. Selbst die RTX 3090 mit 24 GB VRAM hat Probleme mit ruckeligen Bildraten. Eigentlich ist das schon seit Erscheinen der RTX 3090 bekannt und trotzdem wird immer wieder der gleiche Schwachsinn wiederholt.
dargo
2020-10-11, 09:38:21
Das kann nur von jemanden kommen der gar keine Ahnung von dem Spiel hat. Lass mich raten... du hast es nicht mal?
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-2080-Ti-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On-1.png
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-3080-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On-1.png
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-3090-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On.png
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/9/
Aber hey... wer braucht schon Fakten. Es gibt noch kleine Fluktuationen mit der RTX 3090 im Bereich von ca. 5ms, diese haben aber selbstverständlich dann nichts mit dem Vram zu tun. Entweder ist der DX12 Renderer für Geforce nicht optimal oder der Geforcetreiber.
dildo4u
2020-10-11, 09:39:55
Achso... jetzt ist also das Spiel Schrott wenn es auf Geforce scheiße läuft und Radeon nicht? Interessant Bro...
Hä du selbst laberst ständig davon das du Texturen runter drehen musst damit es ordentlich läuft.
dargo
2020-10-11, 09:42:36
Junge... du hast mal wieder gar nichts verstanden! Wie oft muss ich dir erzählen, dass 8GB Vram in diesem Spiel nicht durchgängig (alle Areale) für medium Texturen reichen?
Chrisch
2020-10-11, 09:45:36
Mein TimeSpy (1440p, DX12) GPU Score der 1080ti liegt bei ca. 10.000. https://i.imgur.com/MDOHMHl.jpg
Wenn die 3080 hier 18-19k schafft, wäre das ein super Upgrade und die FPS in deinem Video scheinen das ja schon anzudeuten.
~19600 mit OC an die "Kotzgrenze" mit 350W PT und Lukü
https://www.3dmark.com/spy/14479294
Mitm 2GHz Setting das nicht in PL läuft und die 2GHz hält erreiche ich ~18500 Punkte (GPU Score) und liege bei ~300-330W (peak)
Denke nen guter Chip sollte die 2100+ mit Wasser machen sofern es irgendwann nen BIOS gibt das mehr als 350W zulässt (oder Shuntmod) :)
Sardaukar.nsn
2020-10-11, 11:41:09
@Chrisch: Mega! So hatte ich mir das erhofft. Der GPU Score ist wirklich mitten im 3090 Bereich. Bei meiner bestellten Wakü-Strix sollte vielleicht noch etwas mehr drin sein.
https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2020/09/3-61.jpg
Wie gut sich der FireStrike (DX12, 1440p) GPU Wert auf reale Spiele skaliert sieht man ja schön an TurricanM3´s HZD Benchmark. Der bei ihm mit grob 120fps läuft, bei meiner 10k 1080ti halt mit guten 60fps.
hq-hq
2020-10-11, 12:25:48
@Chrisch: Mega! So hatte ich mir das erhofft. Der GPU Score ist wirklich mitten im 3090 Bereich. Bei meiner bestellten Wakü-Strix sollte vielleicht noch etwas mehr drin sein.
https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2020/09/3-61.jpg
Wie gut sich der FireStrike (DX12, 1440p) GPU Wert auf reale Spiele skaliert sieht man ja schön an TurricanM3´s HZD Benchmark. Der bei ihm mit grob 120fps läuft, bei meiner 10k 1080ti halt mit guten 60fps.
Der normale TimeSpy ist wegen cpu Limitierung unbrauchbar geworden, mit der 2080ti auf Anschlag gehen da ca. 17200
Armaq
2020-10-11, 13:15:36
@Chrisch: Mega! So hatte ich mir das erhofft. Der GPU Score ist wirklich mitten im 3090 Bereich. Bei meiner bestellten Wakü-Strix sollte vielleicht noch etwas mehr drin sein.
https://eteknix-eteknixltd.netdna-ssl.com/wp-content/uploads/2020/09/3-61.jpg
Wie gut sich der FireStrike (DX12, 1440p) GPU Wert auf reale Spiele skaliert sieht man ja schön an TurricanM3´s HZD Benchmark. Der bei ihm mit grob 120fps läuft, bei meiner 10k 1080ti halt mit guten 60fps.
Den Abstand stellt aber eine WaKü 3090 wieder her.
TurricanM3
2020-10-11, 13:36:07
Hier mal noch ein Vid bei dem ich nicht wie blöde durch die Gegend renne. Hab einfach mal 70er Cap gesetzt, da fallen die kleineren Hackler vermutlich wohl auch weniger auf:
4ONYej1cvQg
1440p Ultra immer noch.
Weiß nicht ob da wirklich was krumm ist bei mir.
hm, schon toll zu sehen wie hoch der Takt gehen kann, auf der anderen Seite zieht HZD in 1440p max auf der alten 2080Ti bei 60Hz/fps nur so 100-120Watt
HZD ist wirklich kein Game das auf die GPU geht, Metro Exodus zieht da ~320Watt
Bei 60fps aber auch kein Wunder, dass die so wenig zieht. Meine undervoltete Ti lag da mit 144er cap deutlich drüber. Wir liegen hier ohne UV bei 300W+ und die GPU ist fast immer voll ausgelastet.
dargo
2020-10-11, 13:43:47
Hier mal noch ein Vid bei dem ich nicht wie blöde durch die Gegend renne. Hab einfach mal 70er Cap gesetzt, da fallen die kleineren Hackler vermutlich wohl auch weniger auf:
https://youtu.be/4ONYej1cvQg
1440p Ultra immer noch.
Weiß nicht ob da wirklich was krumm ist bei mir.
Damit überlagerst du nur die Probleme mit genug Overhead. ;) Einen Spike der bsw. bei freien Frames in kürzester Zeit zwischen 25ms und 8ms wechselt empfindest du ganz anders als einen Spike zwischen 25ms und 14,3ms. Letzteres dank deinem Framelimit.
Chrisch
2020-10-11, 14:15:54
Den Abstand stellt aber eine WaKü 3090 wieder her.
da brauchts nichtmal ne Wakü... 3090 leicht übertakten und die geht richtung 21k oder höher.
TurricanM3
2020-10-11, 14:22:03
Schon klar, aber Vergleiche ziehen zwischen einem Sys das 100+fps schaufelt mit einem welches eher mit 60-80fps unterwegs ist, kann man da eher schlecht. Die Linie sieht bei ersterem automatisch glatter aus. Z.B. das micro gestuttere in meinem Vid von gestern zum Schluss, als diese Riesenwürme spawnen, würde vermutlich gar nicht auffallen.
Wie dem auch sei, ich bin gespannt ob das mit der 3090 besser wird.
dargo
2020-10-11, 14:37:31
Kleiner Tipp von mir... lasse deine Settings und setze nur die Texturen auf niedrig. Wenn die gleiche Stelle sauber läuft weißt du dass es an den 10GB liegt. Falls nicht ist der D3D12 Renderer für Geforces oder der Grafiktreiber Murks. Tendenziell eher der Treiber für Ampere da schon bei Exe mit seiner 2080 (8GB) niedrige Texturen sauber laufen. Bei Radeon (in meinem Fall 5700XT) auch. Im ganzen Spiel gibt es mit niedrigen Texturen saubere Frametimes im Gameplay mit 8GB Karten. Einige Areale auch mit medium Texturen.
Sardaukar.nsn
2020-10-12, 07:55:35
Der normale TimeSpy ist wegen cpu Limitierung unbrauchbar geworden, mit der 2080ti auf Anschlag gehen da ca. 17200
Es geht um den GPU Score in DX12, und dieser bietet den besten Vergleich für die Rohleistung. Darum setzt auch z.B. Guru3D darauf als Indikatur für die Leistungsfähigkeit.
The chart is new, and we use 3DMark Time Spy. We display the GPU score and not the combined score; that way, you will have a more objective view of what the GPU can actually do.
Graph: https://www.guru3d.com/articles-pages/asus-geforce-rtx-3090-strix-oc-review,33.html
Das kann nur von jemanden kommen der gar keine Ahnung von dem Spiel hat. Lass mich raten... du hast es nicht mal?
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-2080-Ti-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On-1.png
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-3080-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On-1.png
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-GeForce-RTX-3090-FrameTimeSolo-3840-x-2160-DX12-High-Settings-FoV-90-TAA-Blur-On.png
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/9/
Aber hey... wer braucht schon Fakten. Es gibt noch kleine Fluktuationen mit der RTX 3090 im Bereich von ca. 5ms, diese haben aber selbstverständlich dann nichts mit dem Vram zu tun. Entweder ist der DX12 Renderer für Geforce nicht optimal oder der Geforcetreiber.
Schon krass, wie die 10GB schon knapp werden. Das Gespike wird von Allokationsproblemen herrühren. Dass die 10GB nicht immer voll sind, heißt ja nicht, dass der VRAM nicht dennoch zu knapp ist, denn die zu allozierenden Daten sind teilweise groß und der VRAM u.U. fragmentiert. Dann muss man halt auf den Hauptspeicher zurückgreifen. 11GB reichen ja offensichtlich schon bei der Einstellung aus.
Das Phänomen wird uns in nächster Zeit, vor allem bei 8GB, öfter begegnen.
dargo
2020-10-12, 09:59:28
11GB reichen ja offensichtlich schon bei der Einstellung aus.
Nein... tun sie nicht, einfach im Technik-Thread zu HZD lesen. 16GB reichen definitiv, 12GB ist nach wie vor offen da kaum jemand so eine Karte hat. Und Maxwell Titan ist schon wieder etwas zu lahm für das Game. Hisn wollte es mal mit Pascal Titan X und 12GB testen, ist aber offenbar nicht dazu gekommen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12442369&postcount=1570
ChaosTM
2020-10-12, 11:09:44
zitat Igor.:
Da sind die FPS oder Perzentile noch viel zu grobe Intervalle, um diesen doch sehr subjektiven Eindruck gut abbilden zu können. Ein Blindtest mit 3 Personen hat meinen Eindruck vollends bestätigt, denn etwas Besseres als viel Speicher gibt es nicht, maximal noch mehr Speicher. So gesehen ist die RTX 3080 mit 10 GB eher das Aschenputtel, das sich später noch mit 10 GB mehr aufbrezeln muss, wenn es an die Prinzenrolle will.
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/20/
Einfach nicht am falschen Platz sparen - der nächste größere Sprung ist 2+ Jahre entfernt.
Ich gedenke die Karte wieder 3 Jahre oder länger zu benutzen..
dargo
thx. Aber dann sind ja 12GB ebenfalls schon grenzwertig. Das passt tatsächlich nur für den Mainstream. 16GB muss man also haben, wenn man ernsthaft was spielen will in Zukunft. HZD mag jetzt ein Extrembeispiel sein, aber es gibt sicherlich noch weitere da draußen und der VRAM-Verbrauch wird ja mit neueren Titeln nicht weniger.
ChaosTM
3080 mit 10GB -> Elektroschrott (im wahrsten Sinne, weil die einfach keine lange Nutzzeit hat, wie die Geforce 6800 mit 128MB damals oder ne 680 mit 2GB)
3080 mit 20GB -> absolutes Top-Produkt mit gutem Werterhalt
Ich bin mir auch sicher, wenn der Super-Refresh mit GA103 kommt, dann wird die 10GB recht schnell vom Markt verschwinden.
Asaraki
2020-10-12, 11:39:28
Elektroschrott xD Alles klar.
Geht zwar nur am Rande darum, aber ich werfe einfach mal ein, dass mein Freundin aktuell HZD in 4k spielt auf einer 4 Thread CPU(!) und meiner auch schrottigen 2080S mit popeligen 8GB VRAM. Bewegt sich alles (natürlich nicht auf Max) im Rahmen von 45-60 FPS und wirkt eigentlich bei jedem hinschauen soweit flüssig. Nicht "Multiplayer Shooter"-Flüssig, aber absolut spielbar und sieht ja richtig gut aus das Spiel.
Und sie hat ne tonne Spass, vermutlich mehr als die meisten, bei denen es besser läuft :D
Es ist ja nicht falsch, dass die 10GB nicht Zukunftstauglich sind, aber das heisst eben für 99,9% der User nicht, dass die Karte dann schrott wird ;-)
Einfach mal alles bisschen im Verhältnis sehen meine Lieben.
Elektroschrott xD Alles klar.
Geht zwar nur am Rande darum, aber ich werfe einfach mal ein, dass mein Freundin aktuell HZD in 4k spielt auf einer 4 Thread CPU(!) und meiner auch schrottigen 2080S mit popeligen 8GB VRAM. Bewegt sich alles (natürlich nicht auf Max) im Rahmen von 45-60 FPS und wirkt eigentlich bei jedem hinschauen soweit flüssig. Nicht "Multiplayer Shooter"-Flüssig, aber absolut spielbar und sieht ja richtig gut aus das Spiel.
Und sie hat ne tonne Spass, vermutlich mehr als die meisten, bei denen es besser läuft :D
Es ist ja nicht falsch, dass die 10GB nicht Zukunftstauglich sind, aber das heisst eben für 99,9% der User nicht, dass die Karte dann schrott wird ;-)
Einfach mal alles bisschen im Verhältnis sehen meine Lieben.
Genau da ist aber das Problem. Wenn du jetzt etwas in die Zukunft interpolierst, wirst du aufgrund des VRAMs bei einer 3080, die eigentlich deutlich mehr könnte und 700€+ kostet schon Details reduzieren müssen. Das kann nicht im Sinne der Erfinders für ein Top-End-Produkt sein und genau das ist nämlich der Punkt, der mangelnde VRAM macht den Nutzwert unverhältnismäßig. Ich mein das auch gar nicht böse, es ist aber eben so, dass eine 10GB-Variante schlecht weiterzuverkaufen und schlecht weiterzuvererben ist, dann ist das Teil zwangsläufig Elektroschrott und dafür sind 700-800€ einfach zuviel.
dargo
2020-10-12, 11:49:19
@Asaraki
Dann ist deine Freundin nicht besonders anspruchsvoll was saubere Frameausgabe anbelangt. Was genau soll das jetzt beweisen? Werden jetzt Fakten komplett ausgeblendet weil einige Spieler (Mini)ruckler nicht bemerken? :freak:
btw.
Wenn deine Freundin nur mit 45-60fps spielt werden die Spikes sowieso weniger stark auffallen da sie sich im Bereich von ca. 22-16ms bewegt. Fehlt nur noch einer mit... ich merke keine Spikes, spiele mit 30fps. :usweet:
Asaraki
2020-10-12, 12:02:42
Genau, aber sie ist deutlich repräsentativer für die Masse als du und ich, darauf will ich hinaus. Ich habe ja gar nicht gesagt, ihr würdet falsch liegen, nur dass es nicht so eine grosse Rolle spielt wie es in unserer sehr kleinen Welt der Fall ist :)
Fehlt nur noch einer mit... ich merke keine Spikes, spiele mit 30fps. :usweet:
Ohöm, ^^
Manchmal genügen mir auch 30FPS :eek: (Anno z.B.)
Aber ne Unregelmäßigkeit bemerke ich trotzdem sofort ;)
Die 3080 10Gb ist in meinen Augen Schrott.
Die 3080 20Gb durch GDDR6X/PCB etwas OP und zu teuer.
16Gb und ne passende Leistung erscheinen mir, für die nächsten 3-6Jahre, am vernünftigsten.
M.f.G. JVC
arcanum
2020-10-12, 12:34:06
spiele werden nunmal für den größten gemeinsamen nenner entwickelt und nur weil jetzt erstmalig "mainstream"-karten (für >=700€) mit mehr als 8GB auf den markt kommen heißt das nicht, dass 50% der userbase in 2 oder 3 jahren 16GB oder mehr im rechner stecken haben werden.
engines nutzen heutzutage streaming caches für texturen (wie auch im fall vom vermurksten HZD) und bestimmen die qualität der texturen dynamisch. beim spielen werden 99% der benutzer keine unterschiede in der texturqualität auffallen außer denen, die 8k screenshots machen und dann 1000 meter entfernte texturen croppen.
das einzige aktuelle beispiel gegen <16GB das wie ein totes pferd geritten wird ist ein schlechter konsolenport (die es früher zuhauf gab und aktuell die absolute ausnahme sind weil alles multiplatform entwickelt wird) der auf einer konsole mit ~5,5GB verfügbarem combined memory einwandfrei läuft. absolut lächerlich sowas als referenz für die lauffähigkeit zukünftiger spiele heranzuziehen.
16GB und mehr sind eine sinnvolle ergänzung im portfolio aber genauso werden die kleineren konfigurationen noch mindestens 3 jahre locker ausreichen ohne das nachsehen zu haben. ich kaufe lieber sobald ich es brauche anstatt auf vorrat.
Seit Wochen das Drama um die 10 GB, was ein gehate. Ganz ehrlich, hier im Forum mag das ja zutreffen aber der große Rest, den interessiert das nicht. Ich selber hatte noch eine GTX 980 mit 4 GB im Rechner und HZD mit 40-45 FPS gespielt. Spikes? Davon hatte ich dann hier gelesen. Ist mir das vorher aufgefallen, nein nicht wirklich.
Und aktuell laufen die 3xxx ja ziemlich an der Kante. GDDR6x wird erstens recht warm und soll 2021 mit mehr Speicher verfügbar sein. Das es einen Nachfolger mit mehr Speicher gibt war doch von vornherein klar. Und da mal abwarten wie das mit dem Preis, der Wärmeentwicklung usw. ausschaut. Es ist doch keiner gezwungen worden die Karte zu kaufen. Und wer nicht will der muss auch nicht. Der greift dann einfach zur Alternative, so einfach ist das.
Ex3cut3r
2020-10-12, 12:48:38
Seit Wochen das Drama um die 10 GB, was ein gehate. Ganz ehrlich, hier im Forum mag das ja zutreffen aber der große Rest, den interessiert das nicht. Ich selber hatte noch eine GTX 980 mit 4 GB im Rechner und HZD mit 40-45 FPS gespielt. Spikes? Davon hatte ich dann hier gelesen. Ist mir das vorher aufgefallen, nein nicht wirklich.
Und aktuell laufen die 3xxx ja ziemlich an der Kante. GDDR6x wird erstens recht warm und soll 2021 mit mehr Speicher verfügbar sein. Das es einen Nachfolger mit mehr Speicher gibt war doch von vornherein klar. Und da mal abwarten wie das mit dem Preis, der Wärmeentwicklung usw. ausschaut. Es ist doch keiner gezwungen worden die Karte zu kaufen. Und wer nicht will der muss auch nicht. Der greift dann einfach zur Alternative, so einfach ist das.
Wenn ich 850€ ausgebe, will ja aber nicht schon 2021 Texturen reduzieren müssen, was Nvidia sich dabei gedacht hat, mit einen "Next Gen" Konsolen Zeitalter ist mir ein großes Rätsel, aber gibt ja selbst hier genug "Daus" die sich den Quatsch andrehen lassen. Von der 3070 mit 8GB Only (2015 hat angerufen und will seine Speichermenge zurück) ganz zu schweigen, das ist der HW Witz 2020. Einzig sinnvoll erscheint mir momentan die 3090, nur die kostet ein kleines vermögen.
arcanum
2020-10-12, 12:53:13
Wenn ich 850€ ausgebe, will ja aber nicht schon 2021 Texturen reduzieren müssen, was Nvidia sich dabei gedacht hat, mit einen "Next Gen" Konsolen Zeitalter ist mir ein großes Rätsel, aber gibt ja selbst hier genug "Daus" die sich den Quatsch andrehen lassen. Von der 3070 mit 8GB Only (2015 hat angerufen und will seine Speichermenge zurück) ganz zu schweigen, das ist der HW Witz 2020.
wieso soll man 300€ mehr ausgeben wenn man es nicht braucht? wenn es einem schlaflose nächte bereitet nur 10GB in der kiste stecken zu haben ist das natürlich eine andere sache und gut angelegtes geld.
Was muss bei dir falsch gelaufen sein so eine Stimmung hier zu machen. Und wenn dann nichts mehr an Argumenten übrigbleibt kommt die Beleidungskeule. Armselig.
Lowkey
2020-10-12, 12:54:14
Seit Wochen das Drama um die 10 GB, was ein gehate. Ganz ehrlich, hier im Forum mag das ja zutreffen aber der große Rest, den interessiert das nicht. Ich selber hatte noch eine GTX 980 mit 4 GB im Rechner und HZD mit 40-45 FPS gespielt. Spikes? Davon hatte ich dann hier gelesen. Ist mir das vorher aufgefallen, nein nicht wirklich.
Und aktuell laufen die 3xxx ja ziemlich an der Kante. GDDR6x wird erstens recht warm und soll 2021 mit mehr Speicher verfügbar sein. Das es einen Nachfolger mit mehr Speicher gibt war doch von vornherein klar. Und da mal abwarten wie das mit dem Preis, der Wärmeentwicklung usw. ausschaut. Es ist doch keiner gezwungen worden die Karte zu kaufen. Und wer nicht will der muss auch nicht. Der greift dann einfach zur Alternative, so einfach ist das.
Du schließt von dir auf den Rest der Menschheit. Bei Luxus Produkten wie Gamer Grafikkarten zählt ein gewisser Belohnungseffekt. Du willst ja nicht beim neuen Flusi die Texturen reduzieren, wenn du dir eine neue Karte gönnst. Die 1080Ti vor 3 1/2 Jahren war mit 650 Euro günstig und hatte direkt 11gb. Nach der Zeit wird der Speicher auch genutzt, also man rechnet zwischen Hardware und Software mit rund 3 Jahren.
Der Rest der Menschheit nimmt das was er kriegen kann. Oder wie die PCGH gesagt hat: wenn du es dir leisten kannst, dann kauf es.
PS: die Nachbarskinder, die zur Schule gehen, können sich nicht mehr als 100-150 Euro Grafikkarten leisten und haben dennoch ihren Spass.
arcanum
2020-10-12, 13:01:22
Du schließt von dir auf den Rest der Menschheit. Bei Luxus Produkten wie Gamer Grafikkarten zählt ein gewisser Belohnungseffekt. Du willst ja nicht beim neuen Flusi die Texturen reduzieren, wenn du dir eine neue Karte gönnst. Die 1080Ti vor 3 1/2 Jahren war mit 650 Euro günstig und hatte direkt 11gb. Nach der Zeit wird der Speicher auch genutzt, also man rechnet zwischen Hardware und Software mit rund 3 Jahren.
Der Rest der Menschheit nimmt das was er kriegen kann. Oder wie die PCGH gesagt hat: wenn du es dir leisten kannst, dann kauf es.
PS: die Nachbarskinder, die zur Schule gehen, können sich nicht mehr als 100-150 Euro Grafikkarten leisten und haben dennoch ihren Spass.
die 3090 ist luxus und kaufbar. wo ist das problem? soll es jetzt zwischen 100€ und 1800€ keine weiteren optionen geben? außerdem dauert es ja laut deiner aussage 3 jahre bis >=16GB speicher genutzt werden. die ersten karten mit so einer speicherausstattung kommen ja erst im november auf den markt.
dargo
2020-10-12, 13:03:15
wieso soll man 300€ mehr ausgeben wenn man es nicht braucht? wenn es einem schlaflose nächte bereitet nur 10GB in der kiste stecken zu haben ist das natürlich eine andere sache und gut angelegtes geld.
Woher kommen diese 300€? Du rechnest mit +300€ für die zusätzlichen 10GB Vram? Auf welcher Basis? Das ist noch komplett offen. Wenn AMD mit 16GB kommt (sicher) und die RXT 3080 erreicht oder gar überholt (nicht eindeutig bestätigt) dann glaube ich kaum, dass Nvidia für eine RTX 3080 20GB 1000€ nehmen wird. Und die 700€ als Basis zu nehmen ist auch Quatsch... es gibt nirgendwo aktuell eine RTX 3080 für 700€.
WedgeAntilles
2020-10-12, 13:07:30
Was ist eigentlich, wenn RT von BigNavi eher auf Turing als auf Ampere Niveau ist?
Ist BigNavi dann auch Harwareschrott, weil man in ein paar Spielen RT nicht nutzen kann ohne zu große Frameeinbrüche? Ich wette alles drauf, dass es dann plötzlich heißt: Bäh, RT, braucht eh keiner. Bäh, RT, gibt es ja eh nur in ner handvoll Spiele. Da kann man git drauf verzichten.
Hier man man das Gefühl, dass sich manche Leute persönlich angegriffen fühlen, wenn ein anderer ne 3080 mit 10GB für sich persönlich als gute GraKa ansieht.
Der Witz ist ja, dass keiner bestreitet, dass mehr Ram besser ist.
Nur kapieren hier einige einfach nicht, dass es halt einen Trade-Off gibt.
Mehr Ram = höhere Kosten. Und es gibt nun mal Leute, deren Anforderungen an eine GraKa anders sind als eure.
Da ist eine 3080 mit 10GB halt die bessere Variante als eine 3080 mit 20GB, die dafür vielleicht 200 Euro mehr kostet.
Klar, wäre es der gleiche Preis oder nur 50 Euro mehr bräuchte man nicht diskutieren - aber das ist es halt nicht.
Bricht euch echt einer ab, wenn jemand anderes eine andere Gewichtung bei der GraKa hat als ihr?
Was hier für ein Kreuzzug gegen die 3080 abgeht ist nicht mehr feierlich.
Matrix316
2020-10-12, 13:09:34
Ich glaube 99,9999% aller Gamer interessieren sich nicht für Spikes und Frametimes und Min1%. Die spielen auch HZD auf der Playstation und freuen sich, dass es ganz gut läuft. ;)
Ex3cut3r
2020-10-12, 13:09:35
Kreuzzug? ;D
Die GPU hat ein Speicherproblem, das wird man ja wohl noch ansprechen dürfen. Dazu 350W Verbrauch und in gewissen Spielen, kann man sich nicht mal von einer 2080Ti 20% absetzen. Also...ein rundes Gesamtpaket für 850€ sieht anders aus. Sry, ist aber so.
Komischerweise fällt mir auf, dass viele mit Pascal oder sogar Maxwell User auf Ampere aufgerüstet haben, da hat Nvidia mit "700€" UVP anscheinend alles richtig gemacht, auch wenn die Straßenpreise momentan alles anderes als 700€ sind.
arcanum
2020-10-12, 13:10:32
komisch dass solche argumente auch immer von leuten kommen, die sich solche karten nicht leisten wollen oder können. von den kritikern wird sich auch kaum einer die 3080 20GB kaufen wenn sie für 1000€ aufschlägt. alle anderen haben schon die 3090.
dargo
2020-10-12, 13:12:27
komisch dass solche argumente auch immer von leuten kommen, die sich solche karten nicht leisten wollen oder können.
Warum sollten die auch? Nächsten Monat kommen 16GB Grafikkarten.
aufkrawall
2020-10-12, 13:13:00
"Der arme Pöbel hat sich nicht zu beschweren!", so eine erbärmliche Argumentation...
Ex3cut3r
2020-10-12, 13:14:03
komisch dass solche argumente auch immer von leuten kommen, die sich solche karten nicht leisten wollen oder können. von den kritikern wird sich auch kaum einer die 3080 20GB kaufen wenn sie für 1000€ aufschlägt. alle anderen haben schon die 3090.
;D Ja genau, die 2080 vor 2 Jahre für 800€ zum rls. könnte mir grade so leisten. Einfach nur lol. Diese Argumentation. Hätte die GPU 20GB oder 16GB hätte längst zugeschlagen, so aber nicht.
arcanum
2020-10-12, 13:15:32
Woher kommen diese 300€? Du rechnest mit +300€ für die zusätzlichen 10GB Vram? Auf welcher Basis? Das ist noch komplett offen. Wenn AMD mit 16GB kommt (sicher) und die RXT 3080 erreicht oder gar überholt (nicht eindeutig bestätigt) dann glaube ich kaum, dass Nvidia für eine RTX 3080 20GB 1000€ nehmen wird. Und die 700€ als Basis zu nehmen ist auch Quatsch... es gibt nirgendwo aktuell eine RTX 3080 für 700€.
du hast deine annahmen, ich habe meine. meine prognose:
big navi 16gb wird nicht weniger als 700€ kosten wenn man mit der 3080 gleichauf ist.
3080 20gb wird es die ersten monate nicht unter 1000€ geben (die leute zahlen aktuell >1000€ für 3080 10gb weil der markt nach der amd-flaute und dem teuren turing ausgehungert ist) und du sagst ja selbst, dass sie für 700€ quasi nicht kaufbar ist. gängige marktpreise liegen selbst für billig-designs eher bei 800€ und aufwärts und der aufschlag wird keinesfalls unter 200€ ausfallen.
arcanum
2020-10-12, 13:16:11
;D Ja genau, die 2080 vor 2 Jahre für 800€ zum rls. könnte mir grade so leisten. Einfach nur lol. Diese Argumentation. Hätte die GPU 20GB oder 16GB hätte längst zugeschlagen, so aber nicht.
800€ für so ne gurke ausgeben und dann über die 3080 meckern. kann man sich nicht ausdenken.
Awrack
2020-10-12, 13:18:01
Wo ist das Problem Kinders, wer sich einredet die 10GB sind viel zu wenig, der kauft sich halt die Supadupa Karte von AMD nächsten Monat^^
dargo
2020-10-12, 13:19:19
big navi 16gb wird nicht weniger als 700€ kosten wenn man mit der 3080 gleichauf ist.
Wenn das zutrifft bleibt die RTX 3080 10GB im Regal, sofern bis dahin überhaupt was fürs Regal von Jensen... ähm Samsung kommt.
Matrix316
2020-10-12, 13:20:25
Ich glaube die 10 GB bei der 3080 spielen keine Rolle.
Nicht, weil Spiele die nicht ausnutzen.
Sondern weil bis die 10 GB nicht mehr reichen, es schon längst wieder neue Karten gibt mit mehr Speicher.
Ich hatte auch eine 970 mit den Fake 4 GB gehabt und mich dann verrückt machen lassen und die Karte zurückgegeben um eine 290X mit "echten" 4 GB zu kaufen.
Ein paar Monate später kam die 980TI und der ganze Wechselquatsch war umsonst...
dildo4u
2020-10-12, 13:26:02
Wenn das zutrifft bleibt die RTX 3080 10GB im Regal, sofern bis dahin überhaupt was fürs Regal von Jensen... ähm Samsung kommt.
Hatten wir doch schon bei 2080 vs Vega 7 Nvidia war leicht schneller und keiner hatte AMD gekauft.
Was ist eigentlich, wenn RT von BigNavi eher auf Turing als auf Ampere Niveau ist?
Egal, da auch AMDs "RT"(DRX) in den Konsolen steckt ;)
RTX ist proprietär und interessiert mich daher nicht :tongue:
Und die Tensor-Kerne kommen aus dem Profibereich, finden nur als DLSS eine "2t Verwendung"...
M.f.G. JVC
dargo
2020-10-12, 13:31:55
Hatten wir doch schon bei 2080 vs Vega 7 Nvidia war leicht schneller und keiner hatte AMD gekauft.
Geiler Vergleich. :uclap:
* zu dieser Zeit waren 8GB noch ausreichend und 16GB völlig OP
* 215+W vs. 300W (mal sehen ob es diesmal anders rum ist :D)
* miserabler Kühler bei Radeon VII, keine Customs
* kleine Auflage der Radeon VII
Ob die Radeon VII sich so schlecht verkauft hat? Keine Ahnung, frage am besten die Miner.
arcanum
2020-10-12, 13:37:41
"Der arme Pöbel hat sich nicht zu beschweren!", so eine erbärmliche Argumentation...
falls das auf meine aussage bezogen war:
weil der thread seit wochen mit HZD frame times von leuten vollgespamt wird die prinzipiell keine nvidia-karten kaufen oder von leuten die 3080 10gb käufer als Daus schimpfen. wem 10gb zu wenig sind kann doch zur alternative greifen. wenn jemand das nicht macht und hier täglich seinen müll ablädt muss ich davon ausgehen, dass die kohle nicht da ist und hier aus frust oder bias einfach nur rumgetrollt wird.
komisch dass solche argumente auch immer von leuten kommen, die sich solche karten nicht leisten wollen oder können. von den kritikern wird sich auch kaum einer die 3080 20GB kaufen wenn sie für 1000€ aufschlägt. alle anderen haben schon die 3090.
Ne 3080 mit 20Gb für 1000.- ist auch Quatsch... (viel zu teuer)
Ich suche nur den Vorschritt in P/W !
Ich glaube die 10 GB bei der 3080 spielen keine Rolle.
Nicht, weil Spiele die nicht ausnutzen.
Sondern weil bis die 10 GB nicht mehr reichen,
es schon längst wieder neue Karten gibt mit mehr Speicher....
Jo, im Dezember 2020 kommt die 3080 20Gb...
M.f.G. JVC
Daredevil
2020-10-12, 13:44:07
weil der thread seit wochen mit HZD frame times von leuten vollgespamt wird die prinzipiell keine nvidia-karten kaufen oder von leuten die 3080 10gb käufer als Daus schimpfen
Und sie haben Karten im System, weit unter 10GB.
Wasser saufen und Wein predigen. :D
Bandit3644
2020-10-12, 13:44:23
falls das auf meine aussage bezogen war:
weil der thread seit wochen mit HZD frame times von leuten vollgespamt wird die prinzipiell keine nvidia-karten kaufen oder von leuten die 3080 10gb käufer als Daus schimpfen. wem 10gb zu wenig sind kann doch zur alternative greifen. wenn jemand das nicht macht und hier täglich seinen müll ablädt muss ich davon ausgehen, dass die kohle nicht da ist und hier aus frust einfach nur rumgetrollt wird.
Die Kohle wird schon da sein. Nur haben die keine Karte bekommen und lassen auf diese Weise ihren Frust raus.
@Ex3cut3r
Was hast du nur mit der 2080TI ? Die 3080 ist der Nachfolger deiner 2080 und dafür ist der Leistungssprung gut +2GB mehr Ram. Ich habe für meine Karte 744€ bezahlt und das war bestimmt weniger als du für deine 2080.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.