PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10

Thunder99
2020-09-25, 22:20:22
...

aber bei >=700€ uvp kann man wohl nicht mehr erwarten. alles auf kante genäht bei diesen knappen margen.
Bei >700€ kann man es erwarten, alles andere ist RMA! Ein Produkt muss in seinen Spezifikationen laufen, ansonsten Garantiefall.

dargo
2020-09-25, 22:29:34
Auch die FE hat Probleme und stürzt ab.
Bitte beim ganzen Video lauschen. Die Bestückung soll laut igor ein Grund für das Problem sein.

Inquisitor
2020-09-25, 23:26:49
hmm, so sieht das bei meiner EVGA 3080 XC3 aus. Was heisst das jetzt? Bisher läuft die absolut stabil out of the box...

Troyan
2020-09-25, 23:29:17
Ignorieren. Es ist nicht erwiesen, dass es Ursache für die gemeldeten Probleme ist.

dargo
2020-09-25, 23:32:47
hmm, so sieht das bei meiner EVGA 3080 XC3 aus. Was heisst das jetzt? Bisher läuft die absolut stabil out of the box...
solala :D

Nee... Quatsch. Wenn sie keine Probleme macht passt doch alles.

-=Popeye=-
2020-09-25, 23:33:02
Möglicherweise ist auch dass das Problem.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439509&postcount=12539

MiamiNice
2020-09-25, 23:37:29
hmm, so sieht das bei meiner EVGA 3080 XC3 aus. Was heisst das jetzt? Bisher läuft die absolut stabil out of the box...


Laut den bisherigen Erkenntnissen heißt das das Deine Karte nur knapp stabil ist. OC wirst Du mit der Karte nicht fahren können. Könntest ja mal testen um das zu verifizieren.

Linmoum
2020-09-25, 23:44:44
Möglicherweise ist auch dass das Problem.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439509&postcount=12539Nein, das Problem tritt nämlich ohne manuelles OC auf, weil die Karten ootb je nach Last schon auf >=2GHz boosten.

Roak
2020-09-25, 23:55:01
Meine Erfahrungen bisher mit der MSI Trio sind, dass selbst ein leichtes OC von 40 Mhz nicht stabil sind. Temperatur bei 75-80 Grad. Bei 1815 Mhz fix sind es ca. 250 Watt bei um die 68 Grad. An Leistung sind das 3-5% weniger. Underclocking ist das neue OC.

-=Popeye=-
2020-09-25, 23:56:36
Undervolting kann genauso Probleme verursachen. :wink:

Einmal mit dem Tool rumgespielt und den Reset vergessen und das wars.

Troyan
2020-09-26, 00:08:10
Meine Erfahrungen bisher mit der MSI Trio sind, dass selbst ein leichtes OC von 40 Mhz nicht stabil sind. Temperatur bei 75-80 Grad. Bei 1815 Mhz fix sind es ca. 250 Watt bei um die 68 Grad. An Leistung sind das 3-5% weniger. Underclocking ist das neue OC.

Ist das die: https://www.techpowerup.com/review/msi-geforce-rtx-3080-gaming-x-trio/30.html

Die läuft eigentlich schon mit OC. 105MHz höher als die FE, die wiederum eigentlich schon eine OC-Variante ist...

Roak
2020-09-26, 00:18:44
Ist das die: https://www.techpowerup.com/review/msi-geforce-rtx-3080-gaming-x-trio/30.html

Die läuft eigentlich schon mit OC. 105MHz höher als die FE, die wiederum eigentlich schon eine OC-Variante ist...

Ja. Nach der Spezifikation geht der Boost bis 1815 Mhz. Also Stock sind es immer so 1900-2000 Mhz.

https://de.msi.com/Graphics-card/GeForce-RTX-3080-GAMING-X-TRIO-10G/Specification

Unterm Strich bin ich zufrieden mit der Karte. Die LED Beleuchtung ist nicht gelungen, bei der Kühlung sind andere besser. Oc von Haus aus und das ist eben die Grenze.

monstar-x
2020-09-26, 01:23:14
Und noch ein paar allgemeine Fotos:
https://i.ibb.co/rx11hdm/LED.jpg (https://ibb.co/rx11hdm)

Danke für das Review.
Schöne Sleeve Cable, welche genau sind das?

ich wollte mir noch weiße kaufen, Danke!

Lawmachine79
2020-09-26, 01:36:24
Undervolting kann genauso Probleme verursachen. :wink:

Einmal mit dem Tool rumgespielt und den Reset vergessen und das wars.
Mir ist sowas mal mit dem Firestormtool der Zotac 980 GTX Amp Extreme passiert. Da habe ich mal irgendeinen Wert zum Testen ausprobiert; Rechner kackt ab, Tool hat aber den Wert behalten. Rechner bootete die nächsten 2-3 Mal sauber, kackte dann aber irgendwann ab, weil das Tool beim Booten gestartet wurde und den Abkackwert eingestellt hat. Hatte das nicht mehr auf dem Schirm und dachte, ich hätte beim dem Test die Karte geschrottet. Irgendwann dann mal im abgesicherten Modus gestartet und das Tool deinstalliert. Ging danach direkt wieder.

Linmoum
2020-09-26, 03:52:19
Stellungnahme von EVGA:

Hi all,

Recently there has been some discussion about the EVGA GeForce RTX 3080 series.

During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch. There were no 6 POSCAP production EVGA GeForce RTX 3080 FTW3 boards shipped.

But, due to the time crunch, some of the reviewers were sent a pre-production version with 6 POSCAP’s, we are working with those reviewers directly to replace their boards with production versions.
EVGA GeForce RTX 3080 XC3 series with 5 POSCAPs + 10 MLCC solution is matched with the XC3 spec without issues.

Also note that we have updated the product pictures at EVGA.com to reflect the production components that shipped to gamers and enthusiasts since day 1 of product launch.
Once you receive the card you can compare for yourself, EVGA stands behind its products!

Thanks
EVGA
https://forums.evga.com/m/tm.aspx?m=3095238&p=1

Eigentlich traurig, dass es erst Igor braucht, damit die AiB mal mit der Sprache rausrücken. Die wissen das sicher nicht erst seit zwei Wochen.

Wake
2020-09-26, 04:26:40
Tja, hätte MSI doch mal den Reactor draufgebaut! ;)
https://i.imgur.com/1cBvPhn.png

Wer genug Zeit hat für Buildzoid zu dem Thema:
GPFKS8jNNh0

r3ptil3
2020-09-26, 06:39:45
Danke für das Review.
Schöne Sleeve Cable, welche genau sind das?

ich wollte mir noch weiße kaufen, Danke!

Nennen sich Cablemod Pro.

Man beachte aber, dass das Set nur 2x8Pin Stecker hat. Blöd, wenn man auf die 3080/3090 setzen will.

Bei mir ist das dritte Stromkabel der GPU schwarz, welches ich aber recht gut "verstecken" konnte.


Stellungnahme von EVGA:


https://forums.evga.com/m/tm.aspx?m=3095238&p=1

Eigentlich traurig, dass es erst Igor braucht, damit die AiB mal mit der Sprache rausrücken. Die wissen das sicher nicht erst seit zwei Wochen.

Bin erstaunt wie richtig Igor lag. Vermutlich stimmt auch die Info mit den Treibern.

Jetzt weiss man vielleicht auch wieso die TOP-Modelle (FTW3, Aorus) nirgends verfügbar sind und was das für die kommenden Wochen oder vielleicht Monate sogar bedeuten kann.

horn 12
2020-09-26, 08:54:04
Fazit zum Ampere Launch :-((

Kurz und Bündig:

Ein überhasteter und unüberlegter Launch nur um vor der Konkurrenz präsent da zu sein.
Wird Ihnen mehr Kunden wegnehmen als Nvidia lieb ist!

Fairy
2020-09-26, 09:13:02
Auf Reddit (https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/g6jivta?utm_source=share&utm_medium=web2x&context=3) gibts ne kleine Übersicht die zeigt, wie welche Karte bestückt wurde.

https://abload.de/img/unbenanntstj3c.png

HOT
2020-09-26, 09:23:32
Meine Güte, das ist völlig an mir vorbei gegangen. Das HAT sich aber auch gelohnt early Adoper zu sein dieses Mal. Wer sich den Scheiss jetzt noch kauft, dem ist echt nicht mehr zu helfen ;D.

- zu hoher Stromverbrauch, viele auch starke Netzteile steigen aus
- viel zu wenig Speicher
- Absturzproblematik offenbar hardwarebedingt
(- wahrscheinlich bekommt man nächstes Jahr ne 3080 Super mit GA103 in 7LPP, die erheblich weniger verbraucht, das kommt noch oben drauf)

wer Probleme hat und das das Teil jetzt nicht zurückgibt ist mMn echt selber schuld.

The_Invisible
2020-09-26, 09:35:07
Da ist man doch direkt froh das die Bestellung doch nicht durchgegangen ist. Sollens das mal ausbaden, bin gespannt was da noch so rauskommt.

Vor allem versteh ich aber nicht warum man da ein paar Cent einspart und riskiert das die RMAs durch die Decke gehen. Jede RMA kostet doch ein vielfaches mehr... naja BWL werd ich nieverstehen ;D

Thunder99
2020-09-26, 09:35:35
Stellungnahme von EVGA:


https://forums.evga.com/m/tm.aspx?m=3095238&p=1

Eigentlich traurig, dass es erst Igor braucht, damit die AiB mal mit der Sprache rausrücken. Die wissen das sicher nicht erst seit zwei Wochen.
Selbst Nvidia hat ja mit ihrem FE Modell das Problem. Also ein Fail :freak:.

Oder ehrlich. Die Karten werden immer mehr komplexer was aus technischer/Ingenieur Sicht sehr interessant ist so was zu bändigen :).

HOT
2020-09-26, 09:44:26
Da ist man doch direkt froh das die Bestellung doch nicht durchgegangen ist. Sollens das mal ausbaden, bin gespannt was da noch so rauskommt.

Vor allem versteh ich aber nicht warum man da ein paar Cent einspart und riskiert das die RMAs durch die Decke gehen. Jede RMA kostet doch ein vielfaches mehr... naja BWL werd ich nieverstehen ;D
Es gibt ja auch 3090, bei denen bei der Berstückung gespart wurde.

Dschounz
2020-09-26, 10:01:31
Da ist man doch direkt froh das die Bestellung doch nicht durchgegangen ist. Sollens das mal ausbaden, bin gespannt was da noch so rauskommt.

Vor allem versteh ich aber nicht warum man da ein paar Cent einspart und riskiert das die RMAs durch die Decke gehen. Jede RMA kostet doch ein vielfaches mehr... naja BWL werd ich nieverstehen ;D


Lt. Igor konnten die Boardpartner nur mit dem tool nV-Punish die grundsätzliche Stabilität der Stromversorgung testen, aber eben nicht im 3D-Betrieb, da der vollständige Treiber nicht zur Verfügung gestellt wurde von nV.
Also kann ich denen keinen echten Vorwurf machen....EVGA war ja sogar vorbildlich transparent mit der Mitteilung.

Ich denke, wenn die Kunden die RMA-Lawine lostreten oder tatsächlich ein Rückruf startet, läuft die Haftungskette rückwärts bis zu nV hoch...und Jensen kann dann die Suppe ausspachteln...;D

r3ptil3
2020-09-26, 10:09:35
Also wenn man was kauft aktuell, dann die TUF oder die Strix.

Troyan
2020-09-26, 10:10:22
eVGA hat doch gesagt, dass keine FTW-Karten zum Handel mit einer angeblichen falschen Bestückung ausgeliefert worden sind. Igor hat also garnichts herausgefunden, sondern ein Pre-Produktion Problem wurde vorher bei vielen AIBs festgestellt und beseitigt.

Das Statement ist also eine Bestätigung, dass die Karten nicht dieses "Problem" haben. Ob es verantwortlich für die Abstürze ist, spielt ja keine Rolle mehr.

TobiWahnKenobi
2020-09-26, 10:10:47
oder in drei monaten, jede dann verfügbare.. wenn man die freie auswahl über alle boardpartner hat.. bei ein und demselben händler.. lagernd und fehlerbereinigt.


(..)

mfg
tobi

dargo
2020-09-26, 10:14:49
Stellungnahme von EVGA:


https://forums.evga.com/m/tm.aspx?m=3095238&p=1

Eigentlich traurig, dass es erst Igor braucht, damit die AiB mal mit der Sprache rausrücken. Die wissen das sicher nicht erst seit zwei Wochen.
Zu geil. ;D Respekt an igor!

Blediator16
2020-09-26, 10:47:30
Lt. Igor konnten die Boardpartner nur mit dem tool nV-Punish die grundsätzliche Stabilität der Stromversorgung testen, aber eben nicht im 3D-Betrieb, da der vollständige Treiber nicht zur Verfügung gestellt wurde von nV.
Also kann ich denen keinen echten Vorwurf machen....EVGA war ja sogar vorbildlich transparent mit der Mitteilung.

Ich denke, wenn die Kunden die RMA-Lawine lostreten oder tatsächlich ein Rückruf startet, läuft die Haftungskette rückwärts bis zu nV hoch...und Jensen kann dann die Suppe ausspachteln...;D

Garnichts wird passieren, wenn nicht geklagt wird. Siehe alle anderen Skandale von NV.

woodsdog
2020-09-26, 10:49:55
lol what a shitshow... naja, gute Vorlage für AMD zur Abwechslung. Die müssen sich jetzt richtig anstrengen um ihren Launch noch schlimmer zu vermasseln. :freak:

dargo
2020-09-26, 11:06:00
Garnichts wird passieren, wenn nicht geklagt wird. Siehe alle anderen Skandale von NV.
Naja... bei dieser Sache klagen? Man kann es auch übertreiben. Zumal die Stückzahlen so gering sind, dass eine Rückrufaktion völlig überschaubar ist. RMA bei betroffenen Karten und fertig.

Dschounz
2020-09-26, 11:06:37
Garnichts wird passieren, wenn nicht geklagt wird. Siehe alle anderen Skandale von NV.


Kann sein, muss aber nicht...sowas wird gern per außergerichtlichem Vergleich oder per Verrechnung im Stillen geklärt...sowas bekommen wir dann garnicht mit.
Sich öffentlich die Köpfe einschlagen, hilft weder Lederjacke noch den AIB´s.

Kann aber auch durchaus sein, dass nV sich da gekonnt rausdrückt...wie der Pferdeapfel :D

Thunder99
2020-09-26, 11:20:59
Ich denke eine "falsche" Bestückung begünstigt das, aber die Hauptursache ist wohl eher ein nicht optimales BIOS :confused:

horn 12
2020-09-26, 11:24:55
NV sollte mal abgestraft werden als gäbe es KEIN Morgen mehr
und besinnen dass sie nicht immer Spitzenreiter sein werden und die Konkurrenz diesmal unterschätzt hatten!
Aber klein beigeben wollen sie um keinen Preis!
Ist halt so, sieht man ja m Besten mit intel.

Lange ist einer ganz vorne mit dabei,- und plötzlich hackt es halt mal...

Adam D.
2020-09-26, 11:32:05
eVGA hat doch gesagt, dass keine FTW-Karten zum Handel mit einer angeblichen falschen Bestückung ausgeliefert worden sind. Igor hat also garnichts herausgefunden, sondern ein Pre-Produktion Problem wurde vorher bei vielen AIBs festgestellt und beseitigt.

Das Statement ist also eine Bestätigung, dass die Karten nicht dieses "Problem" haben. Ob es verantwortlich für die Abstürze ist, spielt ja keine Rolle mehr.
Genau aus diesem Grund mehren sich gerade die Berichte. Weil es bei allen AIBs vorher behoben wurde. Du bist so unglaublich, echt :freak: Und natürlich hat Igor hier rein gar nichts rausgefunden, deswegen wird es von der gesamten Community gerade rezipiert und hat die AIBs zu einer Rückmeldung gezwungen. Auf welchem Planeten lebst du eigentlich?

monstar-x
2020-09-26, 11:41:57
Nennen sich Cablemod Pro.

Man beachte aber, dass das Set nur 2x8Pin Stecker hat. Blöd, wenn man auf die 3080/3090 setzen will.

Bei mir ist das dritte Stromkabel der GPU schwarz, welches ich aber recht gut "verstecken" konnte.


Danke, habe mir aktuell nicht vor eine 3080 zu kaufen, die paar % mehrleistung zur 2080TI OC Lohnen nicht.

Hast du Erfahrung in der Qualität, sind die 30 Euro Sleev Sets genauso gut oder sagst wenn das Geld da ist, hole die CableMod Sleeves?

Troyan
2020-09-26, 11:45:22
Und wenn eVGA nun auch (bzw. weiterhin) abstürzen? Was dann?

Das Statement von eVGA ist mehr als eindeutig, dass deren Änderung an der Produktion zur FTW-Version nicht stabil war. Also solltest du bei eVGA nachfragen, wieso sie von der Referenzbestückung der XC3 abgewichen sind.

Aber das ist das schöne am Internet. Man muss nichts lesen. Fake-News reichen aus, um sich gleich als überlegen ansehen zu können.

Stand jetzt sind nur Gigabyte und Zotac von der Referenzbestückung abgewichen. Da die Probleme mit Abstürzen auch andere angeblich betreffen, sollte einem wohl klar sein, dass es nicht der Fehler ist.

Dschounz
2020-09-26, 11:59:57
Und wenn eVGA nun auch (bzw. weiterhin) abstürzen? Was dann?

Das Statement von eVGA ist mehr als eindeutig, dass deren Änderung an der Produktion zur FTW-Version nicht stabil war. Also solltest du bei eVGA nachfragen, wieso sie von der Referenzbestückung der XC3 abgewichen sind.

Aber das ist das schöne am Internet. Man muss nichts lesen. Fake-News reichen aus, um sich gleich als überlegen ansehen zu können.

Stand jetzt sind nur Gigabyte und Zotac von der Referenzbestückung abgewichen. Da die Probleme mit Abstürzen auch andere angeblich betreffen, sollte einem wohl klar sein, dass es nicht der Fehler ist.

Und wenn man dann noch die Netzteiltode dazu nimmt, so dass denn weiter ein Thema bleibt, ergibt sich ein u.U. übles Gebräu von miteinander verketteten Problemen.

Hat Samsung eigentlich mit dem 8nm-Node (bzw. dem direkten Vorgänger) schon vor dem GA102 einen ähnlich komplexen und stromhungrigen Chip hergestellt??
Die Lastspitzen sind ja nicht ohne, aber eigentlich nichts, was es nicht schon vorher gab mit OC...aber:

Wenn das "Verhalten" bei Spannungsregulation und Verbrauchsspitzen des Chips insgesamt die Stromversorgung überfordert ohne offensichtlich die Spezifikationen zu überschreiten, Indizien siehe oben, ergibt sich das angesprochene üble Gebräu, dass sich nur mit entsprechend noch aufwendigeren Platinenlayouts als jetzt schon und höherwertigen/-wattigen Netzteilen lösen lässt.

Adam D.
2020-09-26, 12:04:35
Und wenn eVGA nun auch (bzw. weiterhin) abstürzen? Was dann?

Das Statement von eVGA ist mehr als eindeutig, dass deren Änderung an der Produktion zur FTW-Version nicht stabil war. Also solltest du bei eVGA nachfragen, wieso sie von der Referenzbestückung der XC3 abgewichen sind.

Aber das ist das schöne am Internet. Man muss nichts lesen. Fake-News reichen aus, um sich gleich als überlegen ansehen zu können.

Stand jetzt sind nur Gigabyte und Zotac von der Referenzbestückung abgewichen. Da die Probleme mit Abstürzen auch andere angeblich betreffen, sollte einem wohl klar sein, dass es nicht der Fehler ist.
Ich werde echt langsam bekloppt, oder kapier ich einfach nicht, wie du die Welt siehst? EVGA bestätigt Wort für Wort, dass es ohne die MLCCs instabil lief. Laut der BoM von NV ist der Mindest-Spec 6 POSCAPs. Natürlich kann es sein, dass 15 MHz mehr Boost-Takt über Referenz-Spec schon ausreichen, um die Karte instabil werden zu lassen. Aber die Hersteller konnten ja das unter Real World-Last nicht überprüfen, weil sie keinen Treiber hatten. Das erklärt einen Teil des Problems, es kann natürlich noch andere Ursachen geben. Aber das ändert nichts an der Tatsache, dass man sich hier verzockt hat.

Juckt das den Endanwender? Wahrscheinlich nicht, abseits der negativen PR und für OCler, die sich aber eh nur die besseren Varianten holen werden, die die MLCCs an Bord haben. Es geht hier im Kern ja darum, wie EVGA ja selbst zugibt, dass man das Problem erst relativ spät erkannt hatte und die Erkenntnis für manche Review-Exemplare zu spät kam. Und das darauf zurückzuführen ist, dass NV den Treiber erst so spät rausgerückt hat.

Linmoum
2020-09-26, 12:05:15
Und wenn eVGA nun auch (bzw. weiterhin) abstürzen? Was dann? Dann wird man weitersehen, wo noch etwaig andere Probleme liegen.

Das Statement von eVGA ist mehr als eindeutig, dass deren Änderung an der Produktion zur FTW-Version nicht stabil war. Also solltest du bei eVGA nachfragen, wieso sie von der Referenzbestückung der XC3 abgewichen sind.Ja, das Statement von EVGA ist eindeutig. 6xPCAPS/0xMLCC führt zu Problemen, bei hochtaktenden Karten (mindestens) 4x/2x und bei den nicht ganz so hoch boostenden 5x/1x.

Aber das ist das schöne am Internet. Man muss nichts lesen. Fake-News reichen aus, um sich gleich als überlegen ansehen zu können.Nur sind es nachweislich jetzt keine Fake-News mehr. Dass die Meldungen sich ausschließlich auf GPUs beziehen, die erst bei einem Boost von (deutlich) über 2GHz crashen, sollte jedem die Augen öffnen.

Stand jetzt sind nur Gigabyte und Zotac von der Referenzbestückung abgewichen. Da die Probleme mit Abstürzen auch andere angeblich betreffen, sollte einem wohl klar sein, dass es nicht der Fehler ist.Nein, nicht nur Zotac und Gigabyte. MSI Gaming Trio X (denn "Referenzbestückung ist eigentlich 4x/2x auf der FE):

https://www.hardwareluxx.de/images/cdn01/95321C5E75EE4F0A897D877DF0E33D88/img/4D6577635A93481CBF3232BCBC25E705/MSI-GeForce-RTX-3080-Gaming-Trio-00006_4D6577635A93481CBF3232BCBC25E705.jpg

Es gibt schon Meldungen von Käufern, die auch mit 5x/1x Probleme haben, eben weil es auf einem Custom zum Einsatz kommt, dass höher taktet wie die Gaming Trio X. Konnte MSI nicht wissen, da Nvidia keine Treiber rausgerückt hat aber scheinbar an die AiB weitergegeben hat, dass auch 5x/1x ausreichend ist (6x/0x eventuell auch?). Die AiB haben dank Nvidia die komplette Arschkarte gezogen. Gute Geschäftsbeziehung mal wieder.

BlacKi
2020-09-26, 12:09:46
Und wenn man dann noch die Netzteiltode dazu nimmt, so dass denn weiter ein Thema bleibt, ergibt sich ein u.U. übles Gebräu von miteinander verketteten Problemen.

immer wenn eine karte mit höherem verbrauch erscheint werden schlechte netzteile den geist aufgeben. weil nunmal einfach das der erste grund ist an das man denkt.

so wie igor schon meinte, die 750w empfehlung ist in ordnung. wenn ein netzteil deshalb abkackt. dann war es nichtmehr für 750w gut, auch wenn 850w draufsteht.

Troyan
2020-09-26, 12:14:13
Referenzbestückung ist 5+1 bei der 3080 und 5+2 bei der 3090. Die MSI Karte wurde also nach Referenzvorgaben gebaut.

Ich werde echt langsam bekloppt, oder kapier ich einfach nicht, wie du die Welt siehst? EVGA bestätigt Wort für Wort, dass es ohne die MLCCs instabil lief. Laut der BoM von NV ist der Mindest-Spec 6 POSCAPs. Natürlich kann es sein, dass 15 MHz mehr Boost-Takt über Referenz-Spec schon ausreichen, um die Karte instabil werden zu lassen. Aber die Hersteller konnten ja das unter Real World-Last nicht überprüfen, weil sie keinen Treiber hatten. Das erklärt einen Teil des Problems, es kann natürlich noch andere Ursachen geben. Aber das ändert nichts an der Tatsache, dass man sich hier verzockt hat.

Die FTW ist eVGAs OC-Variante. Die "Standard"-Karte ist XC3 und kommt mit der Referenzbestückung. Das lässt sich auch sehr einfach bei eVGA an den Specs einsehen: https://www.evga.com/products/productlist.aspx?type=0&family=GeForce+30+Series+Family&chipset=RTX+3080


Juckt das den Endanwender? Wahrscheinlich nicht, abseits der negativen PR und für OCler, die sich aber eh nur die besseren Varianten holen werden, die die MLCCs an Bord haben. Es geht hier im Kern ja darum, wie EVGA ja selbst zugibt, dass man das Problem erst relativ spät erkannt hatte und die Erkenntnis für manche Review-Exemplare zu spät kam. Und das darauf zurückzuführen ist, dass NV den Treiber erst so spät rausgerückt hat.

Falsch, eVGA hat zugegeben, dass die Änderung der FTW-Version falsch war und hat zurückgebaut. Die XC3 Varianten haben keine Probleme. Die Karten entsprechen der Spezifikation nach den Zotac-Karten, die von der Referenzbestückung abgewichen sind.

Denk einfach mal darüber nach, dass vielleicht auch andere Menschen in diesem Forum richtig liegen könnten und du nicht die einzige Wahrheit kennst.

Linmoum
2020-09-26, 12:14:25
so wie igor schon meinte, die 750w empfehlung ist in ordnung. wenn ein netzteil deshalb abkackt. dann war es nichtmehr für 750w gut, auch wenn 850w draufsteht.Ich bezweifle, dass SeaSonic-Netzteile jetzt schon Elektroschrott sind. Egal, ob die jetzt von 2019 oder 2015 sind.

Referenzbestückung ist 5+1 bei der 3080 und 5+2 bei der 3090. Die MSI Karte wurde also nach Referenzvorgaben gebaut.Ja, dann wurde sie in dem Fall (da die Vorgabe von NV kommt) mit Mist gebaut. Die AiB konnten halt nicht testen und Nvidia hat einen schlichten Fuckup hingelegt. Es wird seinen Grund haben, warum EVGA bei der FTW3 4x/2x statt 5x/1x wie bei der XC3 nutzt. Letzteres ist Referenzvorgabe, warum also mehr verbauen? Vielleicht, weil Nvidia Müll an die AiB weitergegeben hat.

r3ptil3
2020-09-26, 12:20:42
Danke, habe mir aktuell nicht vor eine 3080 zu kaufen, die paar % mehrleistung zur 2080TI OC Lohnen nicht.

Hast du Erfahrung in der Qualität, sind die 30 Euro Sleev Sets genauso gut oder sagst wenn das Geld da ist, hole die CableMod Sleeves?

Ich hatte vorher ein Set von Bitfenix und die waren deutlich dünner und nicht so schick bzw. straff anliegend wie die von Cablemod.

Ich würde generell nur noch zu den Cablemod Pro Sets greifen.

Adam D.
2020-09-26, 12:21:57
Referenzbestückung ist 5+1 bei der 3080 und 5+2 bei der 3090. Die MSI Karte wurde also nach Referenzvorgaben gebaut.
Dürfte ich mal erfragen, woher du die Information hast?

Die BoM und die Zeichnung aus dem Juni lassen hierbei offen, ob man nun großflächige POSCAPs (Conductive Polymer Tantalum Solid Capacitors) nutzt (rot markiert), oder doch lieber die etwas teureren MLCCs (Multilayer Ceramic Chip Capacitor).

Dschounz
2020-09-26, 12:34:10
Ich bezweifle, dass SeaSonic-Netzteile jetzt schon Elektroschrott sind. Egal, ob die jetzt von 2019 oder 2015 sind.

+1

dargo
2020-09-26, 12:34:55
Referenzbestückung ist 5+1 bei der 3080 und 5+2 bei der 3090. Die MSI Karte wurde also nach Referenzvorgaben gebaut.

Was für 5+2? Wie soll das bei insgesamt 6 Blöcken gehen? :freak: Hast du auch mal ein Foto zu der 3080FE mit 5+1? Bisher sah ich nur 4+2.

Triniter
2020-09-26, 12:35:10
Eines ist klar, der verantwortliche EE Leiter und der Systemarchitekt für das Design werden grad nicht so sehr den Release der Amperegeneration genießen können. Das klingt nach heftiger Fehler- und Lösungssuche.

BlacKi
2020-09-26, 12:37:48
Ich bezweifle, dass SeaSonic-Netzteile jetzt schon Elektroschrott sind. Egal, ob die jetzt von 2019 oder 2015 sind.

glaub was du willst. es ist nur ein bruchteil der leute mit dem problem. zig netzteile haben damit kein problem. ich glaub das die netzteile zumindest untauglich für ampere sind.

dargo
2020-09-26, 12:39:46
glaub was du willst. es ist nur ein bruchteil der leute mit dem problem. zig netzteile haben damit kein problem. ich glaub das die netzteile zumindest untauglich für ampere sind.
Mag sein... dann ist die Empfehlung von NV was die NT-Wattage für Ampere angeht wohl etwas zu optimistisch gewählt.

r3ptil3
2020-09-26, 12:42:58
Hier noch ein paar 3080er überprüft von Jayztwocents:
https://www.youtube.com/watch?v=x6bUUEEe-X8&feature=emb_logo

Gigabyte Gaming: MOSCAP
Powerful OC irgendwas: MOSCAP
Nvidia FE: 2x MLCC, Rest MOSCAP
EVGA XC3: 1x MLCC, Rest MOSCAP

Ganz krass finde ich dass Gigabyte und Zotac den trash sogar auf die 3090er draufklatschen.

Eigentlich eine absolute Frechheit bei dem Preis.
Man sollte nichts anderes als die besten verwendeten Materialien erwarten dürfen.

BlacKi
2020-09-26, 12:43:23
Mag sein... dann ist die Empfehlung von NV was die NT-Wattage für Ampere angeht wohl etwas zu optimistisch gewählt.
nö, die netzteile sind nicht ausreichend. wenn es abraucht, ist die schutzschaltung defekt. wenn es ausschaltet, dann ist die schutzschaltung zu empfindlich, letzteres kennen wir ja von manchen vega karten.

Hier noch ein paar 3080er überprüft von Jayztwocents:
https://www.youtube.com/watch?v=x6bUUEEe-X8&feature=emb_logo

Gigabyte Gaming: MOSCAP
Powerful OC irgendwas: MOSCAP
Nvidia FE: 2x MLCC, Rest MOSCAP
EVGA XC3: 1x MLCC, Rest MOSCAP

Ganz krass finde ich dass Gigabyte und Zotac den trash sogar auf die 3090er draufklatschen.

Eigentlich eine absolute Frechheit bei dem Preis.
Man sollte nichts anderes als die besten verwendeten Materialien erwarten dürfen.
ist jetzt nv schuld, weil sie den AIBs nicht gesagt hat, das sie keine POSCAPs verbauen sollen und in welcher anzahl? gut möglich.

Troyan
2020-09-26, 12:46:11
Hier noch ein paar 3080er überprüft von Jayztwocents:
https://www.youtube.com/watch?v=x6bUUEEe-X8&feature=emb_logo

Gigabyte Gaming: MOSCAP
Powerful OC irgendwas: MOSCAP
Nvidia FE: 2x MLCC, Rest MOSCAP
EVGA XC3: 1x MLCC, Rest MOSCAP

Ganz krass finde ich dass Gigabyte und Zotac den trash sogar auf die 3090er draufklatschen.

Eigentlich eine absolute Frechheit bei dem Preis.
Man sollte nichts anderes als die besten verwendeten Materialien erwarten dürfen.

Hier gibt es eine Übersicht: https://new.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

Zotac und Gigabyte sind die einzigen, die eine einseitige Bestückung von MOSCAPs verwenden. Aber das muss nicht heißen, dass es Probleme gibt.

woodsdog
2020-09-26, 12:47:25
ist jetzt nv schuld, weil sie den AIBs nicht gesagt hat, das sie keine POSCAPs verbauen sollen und in welcher anzahl? gut möglich.

wer denn sonst? :confused:

Schnoesel
2020-09-26, 12:49:09
Natürlich trägt Nvidia eine Mitschuld.

Scheinbar gab es keine! Vorgaben wie die Bestückung zu sein hat. Das ist dann einfach ein fail in der Dokumentation und geht auf Nvidias Kappe.

Zudem war es den Boardpartnern nicht möglich zu testen, weil man die Treiber nicht hatte (Man hätte auf Seiten der AIBs auch warten können, testen und den Launch verpassen).

Die beiden Punkte muss sich Nvidia ankreiden lassen.

Die Boardpartner sind natürlich nicht unschuldig. Zum einen das blinde Vertrauen in die Dokumentation und die Fahrlässigkeit ein Produkt auszuliefern ohne es selbst getestet zu haben. Das macht mich etwas sprachlos und als potentieller Käufer fassungslos.

Ich werde nichts kaufen bis das Problem nicht zu 100% geklärt ist.

monstar-x
2020-09-26, 12:49:25
Ich hatte vorher ein Set von Bitfenix und die waren deutlich dünner und nicht so schick bzw. straff anliegend wie die von Cablemod.

Ich würde generell nur noch zu den Cablemod Pro Sets greifen.

danke für die rückmeldung, dann werde ich das mehr an Geld ausgeben und bestellen.

BlacKi
2020-09-26, 12:52:15
wer denn sonst? :confused:
kannst du sagen, dass das in den specs wirklich fehlt? genau werden wir es nie wissen, aber es ist gut möglich. aber, und das ist hier ein punkt der beachtet werden sollte, die caps sind hier leider nicht die einzigste ursache.

r3ptil3
2020-09-26, 12:57:31
die caps sind hier leider nicht die einzigste ursache.

Finde ich hierbei extrem wichtig: Nach den wirklich guten Infos von Igor, darf man auf keinen Fall ausser Acht lassen, dass auch er selber dies keinesfalls als einzige Fehlerquelle sieht, sondern als eine mögliche Erklärung.

Ich erwarte von Nvidia eine sorgfältige Überprüfung und einen richtungsweisenden bzw. zwingenden Entscheid für alle AIBs.

Ich habe noch eine offene Bestellung für eine ASUS Strix 3080, welche ab Mittwoch verfügbar ist. Mal schauen, ob ich das Stück auch wirklich abholen werde, sofern von ASUS ein klares Statement kommt zu dieser Thematik.

Geächteter
2020-09-26, 12:58:01
Zudem war es den Boardpartnern nicht möglich zu testen, weil man die Treiber nicht hatte

Nicht dass doch vor dem Launch mehr Benchmarks vom hottest shit ever leaken.
Je beschissener das Produkt, desto mehr Hype, Mystery und Knappheit müssen sein. Die Branche hat Glück, dass es recht viele Süchtige gibt, denn rational betrachtet, ist was die Techbranche in letzter Zeit abliefert, nur noch eine teure Qual.

dargo
2020-09-26, 13:00:23
Eigentlich eine absolute Frechheit bei dem Preis.
Man sollte nichts anderes als die besten verwendeten Materialien erwarten dürfen.
MLCC ist nicht überall besser. Sowohl MLCC als auch POSCAPs haben Vor-/ und Nachteile.

BlacKi
2020-09-26, 13:01:35
MLCC ist nicht überall besser. Sowohl MLCC als auch MOSCAPs haben Vor-/ und Nachteile.
meinst du den preis?:biggrin:

dargo
2020-09-26, 13:03:30
Nein.

https://www.avnet.com/wps/wcm/connect/onesite/4c5a7356-bec1-4266-ac6c-a952efe7eb97/Panasonic-MLCC-V-Alternatives-EN-Whitepaper.pdf?MOD=AJPERES&attachment=false&id=1527062803823

Besonders Stability vs. Temperature finde ich interessant.

Schnoesel
2020-09-26, 13:05:25
Die Alterative habe ich ja in Klammern gesetzt. Warten, testen und den Launch verpassen. Da gibt es aber eine goldene Regel wie man erfolgreich ist am Markt und das gilt insbesondere für amerikanische Tech Firmen: Time to Market. Wer der erste auf dem Markt ist riskiert zwar viel kann aber auch viel gewinnen. Das ist die Ursache, vieler Produkte die zum Launch nicht so funktionieren wie vorgesehen und auch nicht genügend getestet sind. Ganz übel in der Softwarebranche,weil man da noch nachbessern kann auch wenn das Produkt schon ausgeliefert ist, aber auch andere Bereiche sind davon betroffen. Ich würde mir z.B. nie im Leben die erste Charge an Tesla Autos kaufen.

Sorge macht mir zudem, dass die Hardware nur ein Teil des Problems ist. Treiber, Boost, NTs scheinen da auch noch ein Wörtchen mitreden zu wollen. CB sagt von sich selbst, dass sie davon ausgehen, dass sie wegen ihrem 1500Watt NT weniger Problem hatten.

dargo
2020-09-26, 13:07:22
Wie heißt es so schön? Die Hardware/Software reift beim Kunden. :D

Nicht dass doch vor dem Launch mehr Benchmarks vom hottest shit ever leaken.
Je beschissener das Produkt, desto mehr Hype, Mystery und Knappheit müssen sein. Die Branche hat Glück, dass es recht viele Süchtige gibt, denn rational betrachtet, ist was die Techbranche in letzter Zeit abliefert, nur noch eine teure Qual.
Absolut zustimm! Ich habe mir angewöhnt nie beim Release von neuen Mainboards zuzuschlagen. Meine Faustregel lautet ca. 3+ Monate später. Möglicherweise muss ich diese Regel langsam auch bei Grafikkarten anwenden.

Langlay
2020-09-26, 13:26:36
Ich bezweifle, dass SeaSonic-Netzteile jetzt schon Elektroschrott sind. Egal, ob die jetzt von 2019 oder 2015 sind.



Also meine 3090 läuft mit dem Seasonic Prime TX 650W. Ist schon ne nette Karte. Meine Palit 3090 Gaming Pro hat 2x MLCC.

Ex3cut3r
2020-09-26, 13:36:27
Gibt es deswegen gar nix zu kaufen? Wegen der MLCC Sache? Die Karten werden alle gerade umgebaut?

woodsdog
2020-09-26, 14:12:14
kannst du sagen, dass das in den specs wirklich fehlt? genau werden wir es nie wissen, aber es ist gut möglich. aber, und das ist hier ein punkt der beachtet werden sollte, die caps sind hier leider nicht die einzigste ursache.

laut igor standen im "Lastenheft" sinngemäß "kannst MLCC oder PCAPS nutzen" ohne das es da Einschränkungen bzgl Anzahl gab bzw eine Mindestanzahl von MLCCs vorgeschrieben war.

offenbar braucht es ja mindestens einen Cluster an MLCCs damit das brauchbar läuft. NV selbst verbaut 2...

würde ich schon irgendwie sagen das NV da die Verantwortung trägt. v0v

Robot
2020-09-26, 15:31:27
würde ich schon irgendwie sagen das NV da die Verantwortung trägt. v0v

Natürlich, wer Nvidia kennt, der weiß dass die den AIBs in der Regel GAR NICHTS erlauben selbsttätig zu ändern ohne Zustimmung. Die bestimmen alles von vorn bis hinten.

Es hatte ja wohl auch niemand von den Partnern vorher gescheite Treiber um die Karten zu testen usw. Nvidia hat gesagt nehmt dies oder das und das haben die dann eben gemacht.

Und da jeder von denen unter enormen Kostendruck und Zeitdruck steht um überhaupt mit der FE mithalten zu können, ham dann einige vermutlich den Sparknopf gedrückt und es so raus gehauen. Vermutlich sogar ungetestet.

Diese Marketingmaschine von Nvidia sorgt halt mittlerweile dafür, dass man immer mehr zum Betatester wird und echte Tests zum Launch die so was sofort bemerken würden immer mehr zur Mangelware werden.

r3ptil3
2020-09-26, 15:49:53
Es hatte ja wohl auch niemand von den Partnern vorher gescheite Treiber um die Karten zu testen usw. Nvidia hat gesagt nehmt dies oder das und das haben die dann eben gemacht.
Werden jetzt aus Spekulationen plötzlich Fakten gemacht?

Und da jeder von denen unter enormen Kostendruck und Zeitdruck steht um überhaupt mit der FE mithalten zu können, ham dann einige vermutlich den Sparknopf gedrückt und es so raus gehauen. Vermutlich sogar ungetestet.

Inwiefern ist eine FE einer guter Custom-Karte überlegen?
Die Aussage mit den fehlenden Tests ist auch nur Spekulation.

Die erste Custom-Karte wurde doch am 3. Juli 2020 geleaked und zwar eine ASUS Strix mit der damaligen Bezeichnung "3080 Ti". Das Design ist zudem fast identisch mit dem Endprodukt.

Ich sehe da immerhin 2.5 Monate zwischen dem Leak und der Veröffentlichung und die Karte wurde da bestimmt nicht wenige Tage vorher entwickelt.

...und echte Tests zum Launch die so was sofort bemerken würden immer mehr zur Mangelware werden.

Volle Zustimmung - richtig kritische und tiefgreifende Tests sind Mangelware. Aber hier sehe ich die Schuld zu 100% bei Nvidia.

Man kann den Testern nicht einfach wenige Tage vorher eine Karte zuschicken und dann qualitative Reviews erwarten.

Bei einem Unternehmen dieser Grösse, dürfte dies aber nicht zufällig, sondern bewusst so entschieden worden sein.

ChaosTM
2020-09-26, 15:53:03
Gibt es deswegen gar nix zu kaufen? Wegen der MLCC Sache? Die Karten werden alle gerade umgebaut?


Eingestampft eher. Könnte sein - das würde so viel erklären..

Linmoum
2020-09-26, 15:56:02
Werden jetzt aus Spekulationen plötzlich Fakten gemacht?Nvidias Green Light ist keine Spekulation, da werden die Boardpartner-Designs zu Nvidia geschickt und dort zertifiziert. Wie bereits gesagt, mussten sich die AiB also auf Nvidia und deren Vorgaben/"ok" verlassen, da sie aufgrund fehlender Treiber nicht selbst testen konnten.

Und wenn die Boarddesigns eben Nvidias Vorgaben entsprechen (und auch abgesegnet werden), dann verlässt du dich darauf. Gerade eben dann, wenn Nvidia dir nicht die Möglichkeit gibt, es selbst zu validieren und auf etwaige Fehlerquellen zu testen.

r3ptil3
2020-09-26, 16:00:55
Nvidias Green Light ist keine Spekulation, da werden die Boardpartner-Designs zu Nvidia geschickt und dort zertifiziert. Wie bereits gesagt, mussten sich die AiB also auf Nvidia und deren Vorgaben/"ok" verlassen, da sie aufgrund fehlender Treiber nicht selbst testen konnten.

Und wenn die Boarddesigns eben Nvidias Vorgaben entsprechen (und auch abgesegnet werden), dann verlässt du dich darauf. Gerade eben dann, wenn Nvidia dir nicht die Möglichkeit gibt, es selbst zu validieren und auf etwaige Fehlerquellen zu testen.

Sehr interessant, danke für die Erklärung.

Dann obliegt die Verantwortung für das Problem eigentlich vollumfänglich Nvidia.

woodsdog
2020-09-26, 16:13:26
mit welchem Argument jubel-Persert eigentlich Trojan gegen dieses Totalversagen seitens NV zur zeit? ;D

ChaosTM
2020-09-26, 16:18:53
Ist alles fake news - NV ist unfehlbar.

Robot
2020-09-26, 16:44:36
Werden jetzt aus Spekulationen plötzlich Fakten gemacht?


Das sind keine Spekulationen. liest dir das hier mal durch:
https://www.guru3d.com/articles-pages/geforce-rtx-3080-and-3090-what-we-know,1.html

No benchmarks have leaked, how is that possible?
I'll let you in on that secret. The AIB partners have all been prepping their cards for months now. They have the products, engineering boards for a while. NVIDIA however, has not released a driver that works with anything other than the test software they supply. So get this, I am writing this article on September 1st, hours before the presentation, and still, the board partners have no idea what the performance is going to be like.


Inwiefern ist eine FE einer guter Custom-Karte überlegen?
Die Aussage mit den fehlenden Tests ist auch nur Spekulation.


Sie ist "preislich überlegen", weil von Nvidia garantiert "subventioniert".

Ich meine wirklich jeder hat doch mittlerweile mitbekommen, dass Nvidia eben gerne Apple wäre und am liebsten nur die eigenen Karten verkaufen würde.

Die torpedieren doch quasi bei jedem Launch so gut wie möglich die Partner. Die schreiben den Partern ja sogar vor, wo sie ihre Samples zum Launch hinschicken dürfen und wann! Sie bestimmen die Taktraten etc. etc.
Einfach mal mit ein paar Partnern auf den nächsten Messe - wenns wieder welche gibt - sprechen, was sie so über Nvidia denken ;) Da kann schon mal der absolute Shitstorm plötzlich los gehen ^^

Früher gabs bei den FEs auch nie OC, die Stufe sind sie nun auch gegangen.
Es wäre übrigens kein Problem so wie AMD, die FE Karten über den normalen Handel zu verkaufen. Aber man will eben lieber ein eigenes Vertriebsnetz aufbauen.

Leider klappt das mit dem Vertrieb überhaupt nicht. Die sind bei den mini Stückzahlen, die sie selbst verkaufen ja schon überfordert. Wenn das alles irgendwann mal richtig läuft, bye bye Partnerkarten ;)

Volle Zustimmung - richtig kritische und tiefgreifende Tests sind Mangelware. Aber hier sehe ich die Schuld zu 100% bei Nvidia.

Man kann den Testern nicht einfach wenige Tage vorher eine Karte zuschicken und dann qualitative Reviews erwarten.

Das hat nicht nur alleine mit der Zeit zu tun, sondern auch mit der Auswahl und dem Druck der da ausgeübt wird. Z.B. wird dann angeregt, dass man doch unbedingt noch "folgende neue Features" in den Test packen soll und 2 Tage vorher ein Unboxing. Oder man schmeißt 2 Tage vor Launch noch mal nen neuen Treiber raus, so das quasi alle vergleichswerte für die Katz sind. Stress kann man bei den Redakteuren ganz leicht ohne Ende Verursachen. Danach gibt's ne Strichliste wer das gemacht hat, wer nicht mitspielt, der fliegt beim nächsten mal raus, mit Ausnahme von ein paar Leuten, die einfach zu wichtig sind.

Dann kommt die Verteilung der Samples dazu. Es gibt (gab... ich sag nur ht4u) endlos viele gute Tester, die würden die Karten testen, bekommen aber keine Samples. Da gibt man lieber den 5 Stück, die man "gut kennt", jeweils 3-4 Karten auf einmal, die sie dann in 10 Tagen durch ballern sollen. Da ja Nvidia auch die Sample-Verteilung der Partner bestimmt, hat man so die volle Kontrolle darüber wer worüber schreiben kann.

Das ganze System "Nvidia Reviews" ist meiner Meinung nach mittlerweile darauf ausgelegt zu erreichen, dass keiner mehr genau hinschaut und möglichst viel Propaganda gepostet wird. Die machen das schon sehr gut. Rein aus Sicht der PR und Marketing muss man da den Hut ziehen.

Die meisten haben das berüchtigte Nvidia NDA ja auch schon wieder vergessen... Was ist eigentlich aus dem Skandal geworden? Ganz einfach am Ende hat jeder unterschrieben, auch die die am meisten gejammert und postuliert haben, dass sie das niemals akzeptieren ;)

Robot
2020-09-26, 19:18:07
Ich bezweifle, dass SeaSonic-Netzteile jetzt schon Elektroschrott sind. Egal, ob die jetzt von 2019 oder 2015 sind.


Ich auch ;) da die 10+ Jahre Garantie haben, könnte man sie dann auch einfach umtauschen. Ein 750 Watt NT, was keine 750 Watt liefert ist nämlich als defekt anzusehen!

Inquisitor
2020-09-26, 21:47:16
Ich habe mir jetzt nochmal das Verhalten meiner EVGA XC3 angesehen... Die läuft absolut stabil mit nur einem MLCC Block. Allerdings boostet sie auch nie über 1980 MHz. Es scehint fast so als sei sie dort gecappt. Es kam ja direkt am Releasetag ein Firmwareupdate. Angeblich um das Ansprechverhalten der Lüfter zu verbessern. Wer weiß. Vielleicht haben sie da auch daran gedreht^^ Wenn ihr sagt, dass die Karten eigentlich alle über 2 GHz boosten würden. Bei meiner XC3 ist das jedenfalls wohl nicht der Fall.

dargo
2020-09-26, 21:59:47
Ich habe mir jetzt nochmal das Verhalten meiner EVGA XC3 angesehen... Die läuft absolut stabil mit nur einem MLCC Block. Allerdings boostet sie auch nie über 1980 MHz. Es scehint fast so als sei sie dort gecappt. Es kam ja direkt am Releasetag ein Firmwareupdate. Angeblich um das Ansprechverhalten der Lüfter zu verbessern. Wer weiß. Vielleicht haben sie da auch daran gedreht^^ Wenn ihr sagt, dass die Karten eigentlich alle über 2 GHz boosten würden. Bei meiner XC3 ist das jedenfalls wohl nicht der Fall.
Hast du das auch richtig getestet? Du müsstest dafür schon eine Szene suchen die keine hohe GPU-Last erzeugt. So ein Odyssey in einer cpu-limitierten Szene müsste sich dafür gut eignen. Alternativ den Takt der CPU stark senken.

Troyan
2020-09-26, 22:04:22
Ich habe mir jetzt nochmal das Verhalten meiner EVGA XC3 angesehen... Die läuft absolut stabil mit nur einem MLCC Block. Allerdings boostet sie auch nie über 1980 MHz. Es scehint fast so als sei sie dort gecappt. Es kam ja direkt am Releasetag ein Firmwareupdate. Angeblich um das Ansprechverhalten der Lüfter zu verbessern. Wer weiß. Vielleicht haben sie da auch daran gedreht^^ Wenn ihr sagt, dass die Karten eigentlich alle über 2 GHz boosten würden. Bei meiner XC3 ist das jedenfalls wohl nicht der Fall.

Schau dir im Afterburner per STRG+F die Spannungskurve an. Dort siehst du den maximalen Takt, der erreicht werden kann.

Inquisitor
2020-09-26, 22:17:13
Wenn ich da im Afterburner schaue, landet die Kurve exakt auf 2000 MHz maximal...

Troyan
2020-09-26, 22:18:54
Kannst du das Menü mal hier posten? Reine neugierde, interessiert wie es bei Ampere aussieht.

Inquisitor
2020-09-26, 22:44:43
Dieses?

BlacKi
2020-09-26, 22:46:21
Dieses?
1950 bis 1.06v 1980 bis 1,075v

Inquisitor
2020-09-26, 22:49:34
Kann mir das mit den Boost Taktraten mal einer erklären? Wieso boosten diese Karten überhaupt so hoch? Laut Produktseite von EVGA wird die Karte doch mit nur 1710 MHz Boosttakt beworben...

Robot
2020-09-26, 22:50:46
Der beworbene Boosttakt ist immer nur der der minimal erreicht und garantiert wird. In der Praxis geht es aber quasi immer da drüber.

Inquisitor
2020-09-26, 23:04:20
d.h. die Karten heute takten selbst dynamisch an ihr Limit und man wiess im VOrfeld nicht, welche Praline man bekommt?^^:freak:

dildo4u
2020-09-26, 23:05:41
Es gibt immer eine Chip Lotterie deshalb macht Der Bauer bei Caseking ja so viel Kohle.

dargo
2020-09-26, 23:15:41
Dieses?
Hehe... sieht wirklich so aus, dass dein Hersteller mit dem Biosupdate max. 2Ghz in die PP-Table eingebaut hat. Um ganz sicher zu gehen müsste man andere Kartenkurven sehen.

Kann mir das mit den Boost Taktraten mal einer erklären? Wieso boosten diese Karten überhaupt so hoch? Laut Produktseite von EVGA wird die Karte doch mit nur 1710 MHz Boosttakt beworben...
Vergiss den offiziellen Boosttakt. Der ist von so vielen Faktoren abhängig, dass du den gar nicht genau bestimmen kannst. Du hast hier nichts weiter als eine stinknormale Spannungskurve wie bei AMD. Das Powerlimit deiner Karte bestimmt wie hoch der Boostakt unter den jeweiligen Lasten ausfällt und mit dieser Kurve darf er nie die 2Ghz überschreiten. Auch nicht bei wenig GPU-Last.

Chrisch
2020-09-26, 23:20:45
MSI Ventus 3X OC 3080

https://abload.de/img/ventus3xoc6tkri.png

Troyan
2020-09-26, 23:20:58
Dieses?

Ja, danke.

dargo
2020-09-26, 23:26:44
MSI Ventus 3X OC 3080

https://abload.de/img/ventus3xoc6tkri.png
Mehr Glück in der Lotterie gehabt sofern die Karte nicht crasht. :wink: Etwas mehr Mhz-chen bei weniger Voltage.

Troyan
2020-09-26, 23:28:38
Nö, seine Karte ist 30MHz "übertaktet". Was erreicht deine Karte, Chrisch? 2010MHz?

dargo
2020-09-26, 23:32:44
Was nö? Die Karte von Chrisch erreicht mehr Takt bei gleichen Powerlimit wie die von Inquisitor. Sieht man doch sofort in der Spannungskurve. Allerdings ist das eh wurscht ob da letztendlich 20-30Mhz mehr oder weniger anliegen. Merkt kein Mensch.

BlacKi
2020-09-26, 23:42:00
jede karte hat gefühlt andere werte vom hersteller mitbekommen. bei chrisch ist es ja eine OC version, sagt schon der name. aber OC version heißt bloß UV. denn die max werte werden in der praxis nie erreicht, es werden nur niedrigere voltages angelegt und damit kann sie höher boosten.

dargo
2020-09-26, 23:49:29
jede karte hat gefühlt andere werte vom hersteller mitbekommen.
Das ist völlig normal... nennt sich Serienstreuung. Ich hatte hier zwei identische Sapphire Pulse RX 5700 XT. Beide gleich spezifiziert, trotzdem unterschiedliche Spannungskurven. Aus dem Forum kenne ich mindestens einen User der die gleiche Karte hat mit wieder einer anderen Spannungskurve wie die beiden Karten die ich hatte.

BlacKi
2020-09-26, 23:50:14
hab mein post nochmal ergänzt.

dargo
2020-09-26, 23:55:38
Dass OC-Versionen bloß UV ist ist Quatsch. Da würden sich die AIBs auf sehr dünnem Eis bewegen. Normalerweise sind OC-Versionen nichts weiter als gleiche Karten mit höherem Powerlimit. Dadurch verschiebt sich der Takt etwas nach oben. Es kann natürlich auch sein, dass man für bestimmte OC-Versionen auch stärker selektiert. Das wird sich aber nur bei den teuersten Karten lohnen. Für weniger Mhz OC selektiert kein Mensch, das lohnt nicht.

LSSJBroly
2020-09-27, 00:05:20
Tatsächlich hat BlacKi sogar recht. Bei OC Karten wird nichts anderes als die Takt-Offseterhöhung ins Bios geschrieben. Die nutzen dann bei allen 3D-Spannungstufen das mehr an Takt, also erreichen die selbe Taktrate wie die Referenz bei gleicher Spannung. Das ist bei Nvidias GPU-Boost schon seit Kepler der Fall:)

hq-hq
2020-09-27, 00:31:56
für gewöhnlich ist es beides, eine andere Kurve Spannung/Takt + höheres Powerlimit und nicht unüblich die GPUs kurz zu testen+selektieren (z.B. Asus mit der 2080Ti Strix OC oder Gigabyte Aorus Extreme 1080Ti)

Troyan
2020-09-27, 00:46:28
Das TDP-Limit erlaubt nur, dass höhrere Boost-Steps unter Dauerlast verwendet werden können. Die Herstellerübertaktung verschiebt dann den Offset der einzelnen Steps. Deswegen boosten die Ampere-Karten auch so hoch: Hohe TDP als Standard sowie Monsterkühlungen. 1980MHz bei einer Referenz-3080 sind z.B. 80MHz mehr als meine Gaming OC 2080TI hat...

qiller
2020-09-27, 00:47:11
Ja, der gute alte Maxwell BIOS Tweaker. Hab damals bei meiner 980Ti die Takt-/Spannungstabelle auch um 2-3 Stufen verschoben (aka Offset). Und da Zotac vom Wort Hysterese damals noch keine Kenntnis hatte, hab ich den "Zero-Fan"-Modus auch gleich abgestellt und einen unhörbaren 730rpm Low-Mode ins VBIOS eingebaut :F.

Wenn NVidia die Hersteller nicht zum Zunageln/Verschlüsseln der VBIOSe zwingen würde, könnte man das bei den RTX30x0 evt. selber fixen.

-=Popeye=-
2020-09-27, 01:08:10
Was soll dass den bringen. Ich kann hier meine MSI Aero 1080TI Rev. Design auch nicht auf eine Sea Hawk umflashen.

BlacKi
2020-09-27, 01:11:59
Dass OC-Versionen bloß UV ist ist Quatsch. Da würden sich die AIBs auf sehr dünnem Eis bewegen. Normalerweise sind OC-Versionen nichts weiter als gleiche Karten mit höherem Powerlimit. Dadurch verschiebt sich der Takt etwas nach oben. Es kann natürlich auch sein, dass man für bestimmte OC-Versionen auch stärker selektiert. Das wird sich aber nur bei den teuersten Karten lohnen. Für weniger Mhz OC selektiert kein Mensch, das lohnt nicht.
theoretisch hast du sogar recht, theoretisch hättest du einene höheren maximal takt. praktisch wird das aber durch temp und PT eingebremst. praktisch bleibt ein UV übrig.

Was soll dass den bringen. Ich kann hier meine MSI Aero 1080TI Rev. Design auch nicht auf eine Sea Hawk umflashen.
ich hab hier auf ner gaming oc ein aorus bios mit 314w statt 239w.

die biose müssen zertifiziert werden , aber wenn sie es sind, dann kannst du sie auch auf fremde modelle aufspielen.

-=Popeye=-
2020-09-27, 01:44:27
Dill

löschen Bitte

Bandit3644
2020-09-27, 05:52:01
Also bei der TUF kann ich +100 auf die GPU geben und erreiche stabil 2085 MHz und auch kurzzeitig Sprünge auf 2100MHz. Keine Abstürze oder ähnliches.
https://s12.directupload.net/images/200927/kseas9rt.jpg (https://www.directupload.net)

Lu
2020-09-27, 12:16:07
Bandit was schaffst du im 3DMark Time Spy Extreme Grafics Score?

w0mbat
2020-09-27, 12:23:10
Die TUF hat ja auch 6x MLCC.

qiller
2020-09-27, 12:38:44
Ich hoffe mal, dass so eine einseitige Bestückung nur mit MLCC keine Langzeit-Probleme schafft. MLCC sollen ja nicht so widerstandsfähig gegenüber hohen Temperaturen sein, wie diese Polymer-Tantal-Kondensatoren. Ich hätte ja gesagt, dass eine gute Mischung (2xPolymer-Tant+4xMLCC oder 4xPolymer-Tant+2xMLCC) die beste Lösung darstellt, aber ich bin kein Elektrotechniker :F.

hq-hq
2020-09-27, 12:46:44
Ich hoffe mal, dass so eine einseitige Bestückung nur mit MLCC keine Langzeit-Probleme schafft. MLCC sollen ja nicht so widerstandsfähig gegenüber hohen Temperaturen sein, wie diese Polymer-Tantal-Kondensatoren. Ich hätte ja gesagt, dass eine gute Mischung (2xPolymer-Tant+4xMLCC oder 4xPolymer-Tant+2xMLCC) die beste Lösung darstellt, aber ich bin kein Elektrotechniker :F.

na wenn du Angst hast musst du jede teure Grafikkarte auf Wasser umbauen um den thermischen Stress auf Lötstellen und Bauteile möglichst gering zu halten :biggrin:

JaniC
2020-09-27, 12:59:36
Also bei der TUF kann ich +100 auf die GPU geben und erreiche stabil 2085 MHz und auch kurzzeitig Sprünge auf 2100MHz. Keine Abstürze oder ähnliches.
https://s12.directupload.net/images/200927/kseas9rt.jpg (https://www.directupload.net)


2100Mhz sind natürlich extrem sexy. Dumme Frage: was für ein Spiel ist das? Nehme an irgendein 3DMark?

Ach Mist, wollte Ampere doch bis 2021 aus mental health Gründen aus dem Kopf verdrängen.

Bandit3644
2020-09-27, 13:13:08
2100Mhz sind natürlich extrem sexy. Dumme Frage: was für ein Spiel ist das? Nehme an irgendein 3DMark?

Ach Mist, wollte Ampere doch bis 2021 aus mental health Gründen aus dem Kopf verdrängen.

Ja das ist der Bright Memory Infinite Ray Tracing Benchmark.
Das bekomme ich in jedem Spiel hin wenn das ins CPU Limit läuft. Bei 100% Last auf der GPU geht der Takt auch runter. Mir ging es nur darum um zu schauen ob meine Karte Crasht.

ChaosTM
2020-09-27, 13:22:26
2100Mhz sind natürlich extrem sexy. Dumme Frage: was für ein Spiel ist das? Nehme an irgendein 3DMark?

Ach Mist, wollte Ampere doch bis 2021 aus mental health Gründen aus dem Kopf verdrängen.


Momentan bist du außer Gefahr. Out of Stock.


Bei mir wird es im November gefährlich, wenn die G2 kommt. Da könnte ich trotz *******speicher schwach werden -- falls Fs2020 dann richtig gut läuft in 4k.

qiller
2020-09-27, 14:30:43
na wenn du Angst hast musst du jede teure Grafikkarte auf Wasser umbauen um den thermischen Stress auf Lötstellen und Bauteile möglichst gering zu halten :biggrin:
Hab ich vor :F

dargo
2020-09-27, 14:40:42
Ich hoffe mal, dass so eine einseitige Bestückung nur mit MLCC keine Langzeit-Probleme schafft. MLCC sollen ja nicht so widerstandsfähig gegenüber hohen Temperaturen sein, wie diese Polymer-Tantal-Kondensatoren. Ich hätte ja gesagt, dass eine gute Mischung (2xPolymer-Tant+4xMLCC oder 4xPolymer-Tant+2xMLCC) die beste Lösung darstellt, aber ich bin kein Elektrotechniker :F.
Du musst nur genug davon verbauen dann passt das schon. Und da GA102 max. 60 Stück davon hat sollte es auch langzeithalten. :D Hier mal ein Beispiel mit Vega64 LCE @350W.
https://youtu.be/YplsqtZZDaU?t=610

Daredevil
2020-09-27, 14:47:47
Also bei der TUF kann ich +100 auf die GPU geben und erreiche stabil 2085 MHz und auch kurzzeitig Sprünge auf 2100MHz. Keine Abstürze oder ähnliches.
https://s12.directupload.net/images/200927/kseas9rt.jpg (https://www.directupload.net)
Zeig doch mal Superposition 8k. :)
Ich habe mit Turing die Erfahrung gemacht, dass RTX Games die Karte selten richtig auslasten, da Raytracing hier limitiert und nicht die "Rohleistung" und demnach springt der Takt recht hoch.
Siehe hier in den Videos, man schaue auf die Auslastung:

Links ist Auslastung der GPU - Rechts Power Limit

https://youtu.be/L-h5WjYs7Dc?t=58

https://youtu.be/bRWF3k9gpvY?t=23

dargo
2020-09-27, 14:50:35
Och Gottchen... ist es so schwer zu verstehen was er aufzeigen wollte?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12441355&postcount=1611

Atma
2020-09-27, 14:55:54
Ich habe mit Turing die Erfahrung gemacht, dass RTX Games die Karte selten richtig auslasten, da Raytracing hier limitiert und nicht die "Rohleistung" und demnach springt der Takt recht hoch.
Da habe ich mit Metro Exodus andere Erfahrungen gemacht ;). Metro mit RT ist spätestens ab der Kaspischen Wüste brutal was die Last angeht und ein 1a Stabilitätstest.

Ex3cut3r
2020-09-27, 15:00:23
Quake RTX in hohen Auflösungen, fand ich auch Brutal was die Last für RT Chips angeht.

aufkrawall
2020-09-27, 15:25:01
Der Server-Browser von Serious Sam 4. :freak:
Klingt absurd, aber Polarschiss drosselt dabei ins Power-Limit, als wär es Furmark.

Bandit3644
2020-09-27, 17:09:39
Bandit was schaffst du im 3DMark Time Spy Extreme Grafics Score?

+100 MHz auf die GPU
Grafik-Punkte 9174

aufkrawall
2020-09-27, 17:12:42
Waren hier schon die Abweichungen beim Boost-Verhalten zwischen den Customs thematisiert? Bei CB (nach unten scrollen) schwankt die MSI in Doom wie bekloppt:
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/
Das kann ja so gar nicht optimal sauber laufen.

Chrisch
2020-09-27, 17:19:08
Nö, seine Karte ist 30MHz "übertaktet". Was erreicht deine Karte, Chrisch? 2010MHz?
hängt stark von der Anwendung / Auslastung ab.

Schwankt zwischen ~1865 und 2055MHz. Benchmarks @ FHD und weniger Last liegen bei 2010-2025 bzw im Peak bei 2055MHz und Benchmarks @ WQHD oder 4K irgendwo bei ~1860-1930MHz.

Mit manuell angepasster Kurve läuft die Karte z.B. den Bright Memory Infinite Benchmark fast durchgehend mit 2130Mhz @ 1.05v.

https://abload.de/thumb/bright_peak1c3knk.png (https://abload.de/image.php?img=bright_peak1c3knk.png) https://abload.de/thumb/bright_peak2wajnm.png (https://abload.de/image.php?img=bright_peak2wajnm.png)

Hab den Benchmark btw 2 mal hintereinander durchlaufen lassen.

masked__rider
2020-09-27, 20:08:37
Auf die nächsten zwei Wochen bin ich gespannt. Die ersten Containerschiffe mit frischer Ware sollten nächste Woche eintrudeln?

Redneck
2020-09-27, 20:34:37
Auf die nächsten zwei Wochen bin ich gespannt. Die ersten Containerschiffe mit frischer Ware sollten nächste Woche eintrudeln?
Selbst wenn da Karten drauf wären, wären das noch welche mit alter Bestückung. Ex China ca 30 Tage unterwegs, ex Taiwan und Korea nochmal ca 10 Tage druff). Wäre noch alte Charge..

r3ptil3
2020-09-27, 22:43:48
Kann ich auch bestätigen:
Solche Schwankungen wie mit der MSI Trio 3080, habe ich zum ersten Mal gesehen:

Ca. 1760-1960Mhz

Sprang zudem sehr oft von 19xx plötzlich auf unter 1800 und wieder rauf.

qiller
2020-09-28, 01:02:59
Also wenn der Takt so um die 1-2 Stufen (ist 1 Stufe eigentlich immer noch 12.5MHz?) springt, wäre das für mich noch Ok. Aber das sind ja 200MHz Schwankung oO - und dann noch in kurzer Zeit? Sry, aber das tut den Frametimes bestimmt nicht gut.

Chrisch
2020-09-28, 04:59:18
So große schwankungen hab ich nur wenn die Karte kalt ist. Wenn die sich bei ihren 70°C eingependelt hat sind die Schwankungen kleiner.

Beim Superposition 4K z.B. liegt der Takt bei 1845-1905MHz, wobei der sich die meiste Zeit bei 1860-1875MHz befindet.

basix
2020-09-28, 09:17:41
Ich hoffe mal, dass so eine einseitige Bestückung nur mit MLCC keine Langzeit-Probleme schafft. MLCC sollen ja nicht so widerstandsfähig gegenüber hohen Temperaturen sein, wie diese Polymer-Tantal-Kondensatoren. Ich hätte ja gesagt, dass eine gute Mischung (2xPolymer-Tant+4xMLCC oder 4xPolymer-Tant+2xMLCC) die beste Lösung darstellt, aber ich bin kein Elektrotechniker :F.

Ich weiss nicht mehr, wer dass ursprünglich geschrieben hat, aber diese Aussage ist blödsinn. POSCAPs haben typischerweise eine bessere "Temperaturabhängigkeit", d.h. sie behalten ihre nominellen Werte bei sich verändernder Temperatur besser bei. Hier eine schönes Dokument (https://www.yic-electronics.ru/datasheet/95/MC12FA151F-T.pdf), welches die Unterschiede beschreibt. Bei MLCC gäbe es aber C0G/NP0 Kondensatoren, welche praktisch Null Temperaturgang haben. Diese Temperaturkompensation geht aber typischerweise zu Lasten der maximal möglichen Kapazität, was bei hohen Lasten und Stromspitzen aber benötigt wird. Somit eher ungeeignet bei einer RTX 3080 oder 3090.

Die meisten günstigen MLCC sind ausserdem mit -25...+85°C spezifiziert und POSCAPS oft bis 105°C. Es gibt aber auch viele MLCC bis 105°C oder 125°C, das sollte bei der entsprechenden Komponentenwahl also kein Problem sein.

Wenn ich die Zuverlässigkeit bewerten müsste, würde mein Bauchgefühl in den meisten Fällen zu den MLCCs tendieren. Wieso?

POSCAPs altern, umso höher die Temperatur desto schneller (ca. 10x alle 20°C).
Degradiert nur einer der 6 POSCAPs relativ stark, hat man schon 1/6 Verlust der Kapazität. Geht ein MLCC kaputt oder eine einzelne Lötselle failed, passiert da fast nichts (ausser er würde einen Kurzschluss produzieren, das machen MLCCs aber nicht ohne mechanische Belastungen)


Der einzige Nachteil der MLCCs ist deren relativ geringe Kapazität. Diese ist zudem noch spannungsabhängig (die nominelle Kapazität wird bei 0V angegeben und fällt dann ab) und bei High-Cap MLCC eben noch relativ stark temperaturabhängig. Das hat aber nichts mit der Lebensdauer zu tun. Und ja, MLCCs können "singen" (Piezoeffekt), das habe ich selbst bei einer Grafikkarte aber noch nie erlebt (waren die Spulen).

Ich will POSCAPs hier nicht schlecht reden. Es sind super Kondensatoren und leider sogar etwas teuer ;) Bei Ampere scheint aber das ESR nicht genüngend klein zu sein, was bei hohen Stromstössen eben zu Spannungsabfällen auf dem Chip führt und somit der Chip instabil wird. Bei schlechten Chips macht sich das halt früher bemerkbar als bei guten Chips, da sie höhere Chipspannungen benötigen.

Hier noch eine knapp 5-minütige Trainingsession für alle Interessierte und wieso POSCAPs ganz gut sind ;)
https://www.digikey.ch/de/ptm/p/panasonic-electronic-components/sp-cap-and-poscap-polymer-capacitors/tutorial

Edit:
Der PCGH-Artikel dazu ist ganz gut https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/RTX-3090-Hintergruende-Kondensator-Problamtik-1358839/

dildo4u
2020-09-28, 12:54:26
Asus Netzteil Empfehlung für 3080/3090

https://i.ibb.co/zxWFmHk/psu.png (https://ibb.co/YQ4XNTr)

https://dlcdnets.asus.com/pub/ASUS/Accessory/Power_Supply/Manual/RECOMMENDED_PSU_TABLE.pdf


Alle Karten liefen normal ohne OC nur die Zotac ist eine Gurke im OC Test.


BkTgYMlCl4E

Troyan
2020-09-28, 12:55:47
Die Zotac-Karte erlaubt auch nur 336W als Powerlimit. Logisch, dass das OC schlechter ist, weil niedrige Spannungsstufen verwendet werden müssen.

Kriegsgeier
2020-09-28, 14:00:22
Ich warte auf RTX 3080Ti mit 20GB
Wird wohl um die 999€ kosten

Aber die doppelte Speichermenge ist mir es wert

r3ptil3
2020-09-28, 14:03:12
Ich warte auf RTX 3080Ti mit 20GB
Wird wohl um die 999€ kosten

Aber die doppelte Speichermenge ist mir es wert

Wozu?

Jetzt lieber eine 3080 10Gb kaufen, anstatt 3-4Monate Gaming-Lebenszeit vergeuden ohne die tolle Performance.

Danach kann man immer noch die 3080 10Gb verkaufen.

Zergra
2020-09-28, 14:06:45
Wozu?

Jetzt lieber eine 3080 10Gb kaufen, anstatt 3-4Monate Gaming-Lebenszeit vergeuden ohne die tolle Performance.

Danach kann man immer noch die 3080 10Gb verkaufen.

Und wo kann man die kaufen? 😀

Kriegsgeier
2020-09-28, 14:09:07
Nach dem 28.10 werden die 3080 mit 10Gb im Preis fallen. Da bin ich mir ziemlich sicher!

AMD wird diesmal über Preis/Leistung und Speichermenge sehr stark Nvidia unter Druck setzen...

Daher Abwarten ist angesagt

Schnoesel
2020-09-28, 14:11:41
Es gibt keine 3080 zu kaufen und im Moment hätte ich auch ein schlechtes Gefühl beim Kauf. Das tu ich mir nicht an den Wakü Kreislauf aufzumachen nur um dann evtl festzustellen, dass das Ding nicht stabil ist. Keine Chance und das obwohl meine Ti darauf wartet in meinen HTPC zu wechseln.

r3ptil3
2020-09-28, 14:39:05
Und wo kann man die kaufen? 😀

Also ich hole meine zweite 3080 diese Woche ab.

BigKid
2020-09-28, 15:12:55
Asus Netzteil Empfehlung für 3080/3090

https://i.ibb.co/zxWFmHk/psu.png (https://ibb.co/YQ4XNTr)

https://youtu.be/BkTgYMlCl4E
Ich weiss nícht so recht...

Ich habe in Seasonic G-Series 650 Watt Gold Plus ...
Da hatte ich auch schon ne 1080ti drann ohne Probleme was laut diesem Sheet nicht gehen soll...
Ich frag mich ob bei der Kombi B450 + Ryzen 3700X + RTX3080 nu wirklich Gefahr bestünde oder nicht... Mit nem China Böller sicher aber mit ner guten PSU ?

EDIT: War eh ein Flüchtigkeitsfehler meinerseits... Auf den Sheet steht die _2_080ti ich hab aber ne 1080ti drinn gehabt...
Trotzdem wäre ich versucht es zu versuchen... Hab grad Igors Video mal angeguckt - wenn es ein gutes 650 Watt Netzteil ist - und da gehe ich bei Seasonic mal von aus - und ich die Karte nicht groß übertakten will sondern eh meistens ein bisschen undervolte (wegen leiser) ) ...

Troyan
2020-09-28, 15:15:55
Die 3080 ist >2x schneller als die 1080TI. Das hat Auswirkungen auf das komplette System. Alle Teile müssen nun doppelte Arbeit verrichten. Es kann schon sein, dass es Probleme gibt, weil neben der 3080 nun auch die CPU mehr Strom benötigt.

aufkrawall
2020-09-28, 15:22:44
Deshalb testet man nicht nur CPU/RAM/GPU auf Stabilität, sondern auch das NT mit einer Kombination aus Stresstests für CPU + GPU gleichzeitig.
Wenn man meint, das müsse nicht stabil laufen: So viel Blödheit muss bestraft werden.

Ex3cut3r
2020-09-28, 15:40:42
Waren hier schon die Abweichungen beim Boost-Verhalten zwischen den Customs thematisiert? Bei CB (nach unten scrollen) schwankt die MSI in Doom wie bekloppt:
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/
Das kann ja so gar nicht optimal sauber laufen.

Geil. MSI hat diesmal übelst verkackt. Und der Kühler scheint diesmal mit 80 Grad auch einer der schlechtesten zu sein. Richtiger Fail. Asus hat mich diesmal überrascht. Die Gigabyte Aorus Master und Xtreme sind mir wiederrum zu groß/schwer. Auch wenn der Kühler mit fast 4 Slots wohl am besten ist. Aber da gibt es bisher kaum Infos.

arcanum
2020-09-28, 15:59:02
die lüftersteuerung hält die ventus 3x zumindest bei mir im geschlossenen gehäuse unter 73°. die gaming ist nochmal 200g schwerer und sollte nochmal leiser/besser kühlen.
so mies ist das nicht für 300watt aber asus hat diesmal scheinbar wirklich alles richtig (besser) gemacht. unter dem strich natürlich keine tolle leistung mit den instabilen msi-karten.

Sardaukar.nsn
2020-09-28, 16:26:54
Nachdem ich alles für mich sortiere habe, ist es jetzt die Asus Strix geworden. PCB, Stromversorgung und Powerlimit waren dann doch ausschlaggebend. Zudem sollte die Garantie beim Kühlerumbau erhalten bleiben.
Bei Cyberport konnte man noch welche bestellen, Lieferzeit natürlich noch offen, aber der Preis hat mir zugesagt.
Alphacool hat auch die passenden Wasserblöcke und den großen für die Strix fand ich vom Aufbau mit Abstand am spannendsten. https://www.alphacool.com/media/image/fd/d1/ff/3080_ROG_Strix_mit_Backplate_1020475_01.jpg

Jetzt beginnt die große Warterei.

Falls mein Netzteil zu schwach ist, wäre das hier aktuell mein Favorit: https://geizhals.de/fractal-design-ion-860p-860w-atx-2-4-fd-psu-ionp-860p-bk-a2108448.html

aufkrawall
2020-09-28, 16:32:41
Kann mal jemand die Mindestdrehzahl der Asus bei manueller Steuerung in Afterburner testen? Kann man in der Lüfterkurve noch weiter runter drücken als das offiziell angegebene Minimum? Gibts Auffälligkeiten beim Anlaufen aus ZeroFan?

r3ptil3
2020-09-28, 17:34:34
Angepasste MSI Gaming X 3080 Trio:

https://cdn.videocardz.com/1/2020/09/MSI-Gaming-X-TRIO-RTX-3080-post-changejpg.jpg
https://videocardz.com/newz/msi-quietly-changes-geforce-rtx-3080-gaming-x-trio-design-amid-stability-concerns

Also kann festgehalten werden, dass die Problematik mit den Kondensatoren als bestätigt angesehen werden kann.

Jetzt bleibt nur die Frage ist das alles oder gibt es da noch weitere Anpassungen?

Troyan
2020-09-28, 17:48:17
Nachdem ist es nicht MSI sondern ein Shop: https://www.reddit.com/r/nvidia/comments/j1dmmo/mlccposcaps_msi_silently_updated_images_of_3080/

Auf der deutschen Seite sind noch die alten(?) Bilder. Und auf der US-Seite gibt es keine Bilder von der Rückseite der 3080.

r3ptil3
2020-09-28, 18:07:35
Muss meinen vorherigen Beitrag ergänzen:

Gemäss nachfolgendem REDDIT Thread sind bei einigen die Probleme gelöst durch den neuen Geforce Treiber 456.55.

https://old.reddit.com/r/nvidia/comments/j1ccfq/game_ready_driver_45655_faqdiscussion/

Zotac hat bestätigt, dass ihre iChill Modelle keine Fehler haben.

Digidi
2020-09-28, 18:48:56
Angepasste MSI Gaming X 3080 Trio:

https://cdn.videocardz.com/1/2020/09/MSI-Gaming-X-TRIO-RTX-3080-post-changejpg.jpg
https://videocardz.com/newz/msi-quietly-changes-geforce-rtx-3080-gaming-x-trio-design-amid-stability-concerns

Also kann festgehalten werden, dass die Problematik mit den Kondensatoren als bestätigt angesehen werden kann.

Jetzt bleibt nur die Frage ist das alles oder gibt es da noch weitere Anpassungen?


Hast du nicht das Video von Igor gesehen? Auch die Chipgüte ist noch ein unbekannter Faktor denn seltsamerweise haben auch Leute mit dem richtigen Unterbau trotzdem noch die Probleme.
https://www.youtube.com/watch?v=RlDC7u7GpR4

Lustig ist das Leute die die schlechten Caps haben aber die Karte nicht abstürz einen sehr guten Chip ergattert haben.

arcanum
2020-09-28, 19:06:32
die üblichen verdächtigen spiele crashen bei mir nicht mehr. bin mir nicht 100% sicher, da ja mehrere faktoren beim boost eine rolle spielen und der rechner schon warm war als ich das treiber-update installiert habe aber ich sehe jetzt zu 99% 1995mhz als maximaltakt (ganz selten ausreißer mit 2010).

Wake
2020-09-28, 19:07:23
Muss meinen vorherigen Beitrag ergänzen:

Gemäss nachfolgendem REDDIT Thread sind bei einigen die Probleme gelöst durch den neuen Geforce Treiber 456.55.

https://old.reddit.com/r/nvidia/comments/j1ccfq/game_ready_driver_45655_faqdiscussion/

Zotac hat bestätigt, dass ihre iChill Modelle keine Fehler haben.

iCHILL ist von INNO3D ;)

Der Treiber scheint sich positiv bemerkbar zu machen, mal sehen ob das Boostverhalten geändert bzw. nach oben gecappt wurde.

wolik
2020-09-28, 19:09:54
WTF. Kurz 3080FE getestet, wollte in anderen PC umbauen. Die Karte kann man nicht mal anfassen!!! Die ist glühend heiß. (ok 80C kann man schon nicht mehr "anfassen") Nur so was kenne ich in meinem ganze Grakalaufban nicht. Für Stromeinspeisung soll man Designer steinigen.

EDIT: Mit AB Luftsteuerung, sehr Leise und auch "anfassbar" :)

Bandit3644
2020-09-28, 19:13:46
WTF. Kurz 3080FE getestet, wollte in anderen PC umbauen. Die Karte kann man nicht mal anfassen!!! Die ist glühend heiß. (ok 80C kann man schon nicht mehr "anfassen") Nur so was kenne ich in meinem ganze Grakalaufban nicht. Für Stromeinspeisung soll man Designer steinigen.

Die GTX 480 war doch auch so ein heißes Eisen 🔥

dargo
2020-09-28, 19:14:43
die üblichen verdächtigen spiele crashen bei mir nicht mehr. bin mir nicht 100% sicher, da ja mehrere faktoren beim boost eine rolle spielen und der rechner schon warm war als ich das treiber-update installiert habe aber ich sehe jetzt zu 99% 1995mhz als maximaltakt (ganz selten ausreißer mit 2010).
Hmm... klingt ja so, als wenn Nvidia die P-States über den Treiber geändert hat. Geht bei AMD auch einfach über Software.

Wake
2020-09-28, 19:19:58
News at 11 - Grafikkarte wird heiß unter Last! :freak:
Die Erkenntnis musste ich bereits vor 17 Jahren machen, als ich mir an der ASUS 9800 XT-Backplate die Griffel verbrannt habe. :eek:

Ex3cut3r
2020-09-28, 19:42:00
Also ich verstehe ihn. In den letzten Jahren, waren GPUs aber nicht mehr so heiß. 200-250W sind halt was anderes. Als wie jetzt 320-370W :freak:
Auf diversen Customs gibt es doch hinten einen Aufkleber -> "Warning Hot Surface" Sowas habe ich das letzte mal auf der Fermi gesehen. Also ich werd das Ding auf 250W limitieren. Ich komme von einer 2080 OC. Und 320W wurden mir schon mit MadVR Probleme bereiten.

Daredevil
2020-09-28, 20:33:49
Es sind halt viele Komponenten hinten, da wird die Kiste halt heiß. Das hat halt nicht jede GPU.

Darkman.X
2020-09-28, 21:21:13
Geil. MSI hat diesmal übelst verkackt. Und der Kühler scheint diesmal mit 80 Grad auch einer der schlechtesten zu sein. Richtiger Fail. Asus hat mich diesmal überrascht. Die Gigabyte Aorus Master und Xtreme sind mir wiederrum zu groß/schwer. Auch wenn der Kühler mit fast 4 Slots wohl am besten ist. Aber da gibt es bisher kaum Infos.

Ja, diesmal wirkt es wirklich wie ein Fail :( Nach 3 oder 4 Generationen nur mit MSI werde ich diesmal wohl einen anderen Hersteller nehmen.


Angepasste MSI Gaming X 3080 Trio:

https://cdn.videocardz.com/1/2020/09/MSI-Gaming-X-TRIO-RTX-3080-post-changejpg.jpg
https://videocardz.com/newz/msi-quietly-changes-geforce-rtx-3080-gaming-x-trio-design-amid-stability-concerns

Also kann festgehalten werden, dass die Problematik mit den Kondensatoren als bestätigt angesehen werden kann.

Jetzt bleibt nur die Frage ist das alles oder gibt es da noch weitere Anpassungen?

Ich würde es nicht zwingend als Bestätigung betrachten. Man muss nur mal die negative Werbung der letzten Woche betrachten: Die Nerds "wissen" jetzt, dass 5 oder 6 POCAPs schlecht sind. Dieses Wissen wird sich auch langsam auf die Nicht-Nerds verbreiten. Was glaubst du wieviele Karten MSI ohne Anpassung noch verkaufen wird, selbst wenn die Kondensatoren nicht die Ursache sind?

Also lieber die Kondensatoren austauschen und paar Cents pro Karte weniger verdienen, als einen kompletten Absturz bei den 3080er-Verkaufszahlen zu riskieren...

Oder es ist doch eine Bestätigung....wer weiß....

Schnoesel
2020-09-28, 21:29:37
Angeblich hilft der neue Treiber. Bleibt immer noch die Frage was schief läuft, gelaufen ist und was die Ursache ist. Denn wenn der Treiber lediglich den Takt beschränkt, ist das nix anderes als das Offset, dass die User eingestellt haben als workaround.

Im Moment traue ich den Brüdern kein Stück übern Weg. Weder Nvidia noch den Boardpartnern. Die haben alle ein Interesse daran, dass eventuelle Hardwareprobleme unterm Deckel gehalten werden. Denn das zu beheben ist teuer und vor allem langwierig. Ich bin gespannt wie es weitergeht.

dildo4u
2020-09-28, 21:36:27
Die FE Benches wurden nicht bei 2ghz gemacht, alles was Abstürzt läuft außerhalb der Spec.
Es gibt auch keine Custom Karte die damit wirbt.

Linmoum
2020-09-28, 21:38:58
Die FE Benches wurden nicht bei 2ghz gemacht, alles was Abstürzt läuft außerhalb der Spec.Der letzte Teil ist nachweislich Quatsch, da auch FEs von dem Problem betroffen sind.

Ist aber auch egal. Fakt ist, dass es auffallend viele Instabilitäten gibt. Genauso hilft es scheinbar, den Takt einfach etwas zu senken um die GPUs stabil zu kriegen.

a) Architektur suckt bei höherem Takt,
b) Prozess suckt bei höherem Takt,
c) Kondensatoren (insb. zu viel non-MLCC) sucken,
d) alles oder Teile davon zusammen.

Ich tippe auf eine Kombination aus b) und c). Die Frage bleibt, ob das Problem mit niedrigeren Taktraten garantiert gefixt wird, oder nicht. Das kommt auf jeden Fall davon, wenn man Paranoid ist und die Treiber bis quasi zur letzten Sekunde selbst an die AiB nicht rausrückt und selbst scheinbar keine Ahnung hat, dass die Chips bei >2GHz instabil werden (können). Getestet hat man es wohl nicht oder nicht ausreichend genug.

Birdman
2020-09-28, 21:46:13
Also ich verstehe ihn. In den letzten Jahren, waren GPUs aber nicht mehr so heiß. 200-250W sind halt was anderes. Als wie jetzt 320-370W :freak:
Hmm wieso? Custom Vegas hatten mitunter auch deutlich mehr als 300W
Zudem ist die TDP nicht wirklich das relevante hier, sondern der zero-fan Modus.
Wenn ein Quirl auch nur noch mit 800rpm dreht, ist so eine Karte im 2D/idle Betrieb in nullkommanix auf ~40° runtergekühlt, komplett passiv kommst aber halt kaum unter 50-55°

Damit ist dann klar dass man sich beim Ausbau einer Karte kurz nach dem runterfahren schnell mal die Klöten verbrennen kann.

Ex3cut3r
2020-09-28, 21:51:25
AMD Karten habe ich irgendwie verdrängt, hatte seit der X100 Reihe keine AMD mehr, bitte nicht erschlagen. Mit Big Navi und wenn diese 12 oder 16GB VRAM out of the box haben, ziehe ich eine AMD Karte aber ernsthaft in Erwägung. :)

Raff
2020-09-28, 22:12:29
Damit ist dann klar dass man sich beim Ausbau einer Karte kurz nach dem runterfahren schnell mal die Klöten verbrennen kann.

Alter, wie zur Hölle kommt dein Gemächt beim Ausbau an die ofenwarme Grafikkarte? :biggrin:

MfG
Raff

MiamiNice
2020-09-28, 22:23:04
Du hast wohl keine drei Arme :tongue:;D

dildo4u
2020-09-29, 04:44:10
Hier Crashte Horizon in 1440p mit einer Review Sample EVGA FTW3, der neue Treiber senkt die clocks unter 2Ghz.
Performance regression 129 zu 127fps.4k lief ohne Probleme schätze mal da die Clocks sinken.

https://www.pcworld.com/article/3583894/tested-nvidias-new-drivers-fix-rtx-3080-crashes-by-sacrificing-clock-speed.html

Die Karte kommt aber so nicht in den Markt.

To be absolutely clear in case you missed it: EVGA is not shipping FTW3 cards with an all-POSCAP setup, which couldn’t pass real-world testing. They delayed the card to include an MLCC array to ensure stability. The cards you can buy should be fine. Nvidia also tells me that "the appropriate number of POSCAP vs. MLCC groupings can vary depending on the design and is not necessarily indicative of quality."

Benutzername
2020-09-29, 04:54:17
Alter, wie zur Hölle kommt dein Gemächt beim Ausbau an die ofenwarme Grafikkarte? :biggrin:

MfG
Raff


Birdman ist offenbar Nudist. ;D

Hakim
2020-09-29, 05:06:58
Ja Vorsicht bei gebrauchter Hardware von Birdman hier im Marktplatz, vorher schön desinfizieren!!

Bandit3644
2020-09-29, 07:01:19
Hab jetzt viel probiert was stabiles UV betrifft.

Stabil / @60 FPS Lock bei 4K
0.8V / 1800MHz / 100% Powerlimit / Temp 62-64 Grad / Verbrauch 220-230 W

Wenn ich 0,1V drauf gebe sind das folgende Werte
0,9V / 1800MHz / 100% Powerlimit / Temp 68-72 Grad / Verbrauch 320-330 W

basix
2020-09-29, 07:14:47
Heftig, wie die Spannung zuschlägt

dargo
2020-09-29, 07:19:54
Heftig, wie die Spannung zuschlägt
Vega10 reloaded. :D Wobei ich mir gar nicht mal sicher bin ob GA102 da noch einen drauflegt. :tongue:

NikLaw
2020-09-29, 09:28:11
Ich bin jetzt bei 1900 Mhz mit 0,925 V gelandet, Verbrauch 220-255 W.
Powerlimit 86 %, Temp 68° bei 44 % Lüfter statt vorher 64 % (0,975 V 1950 Mhz, 277 W).

r3ptil3
2020-09-29, 10:44:01
Die Undervolting-Ergebnisse sind richtig gut.

Mit welchem Tool macht ihr das? Afterburner oder?

BlacKi
2020-09-29, 10:56:10
Die Undervolting-Ergebnisse sind richtig gut.

Mit welchem Tool macht ihr das? Afterburner oder?
soweit ich weiß mit dem inspector?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12432540&highlight=inspector#post12432540

aber wenn ich das richtig verstanden habe, kann man das nicht direkt so als UV bezeichnen sondern als locken der voltage.

kann man dazu nicht per afterburner ein offset schaffen und dann die voltage locken? falls das ginge, da wäre es UV/UC.

arcanum
2020-09-29, 11:26:15
soweit ich weiß mit dem inspector?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12432540&highlight=inspector#post12432540

aber wenn ich das richtig verstanden habe, kann man das nicht direkt so als UV bezeichnen sondern als locken der voltage.

kann man dazu nicht per afterburner ein offset schaffen und dann die voltage locken? falls das ginge, da wäre es UV/UC.

ich mache das mit der aktuellen afterburner beta.

man kann ein offset über den gpu takt machen was einfach dazu führt, dass über die ganze voltage range der voreingestellte werktakt um eben den offset angehoben oder abgesenkt wird. +mhz, also übertakten führt faktisch zum undervolting da ein höherer mhz-wert beim gleichen v-gpu wert anliegt.

durch das "plateau" kann man den takt nach oben abschneiden - also eine spannung auswählen und alle takt-punkte danach auf oder unter diesen wert absenken. wenn man z.b. 0.925v bei 1900mhz auswählt und die taktkurve danach nicht weiter ansteigt, boostet die karte nicht über 1900mhz.

jetzt kommt das aber: afterburner scheint buggy zu sein. manchmal verschiebt das offset die taktkurve, manchmal nicht. das gleiche gilt für das power target, das die taktkurve (manchmal) senkt. zusätzlich schwankt die reale einstellung um bis zu 30mhz nach oben wenn man eine einstellung anwendet oder lädt. anstatt 1890mhz können also auch 1905 oder 1920 anliegen.

r3ptil3
2020-09-29, 11:37:26
soweit ich weiß mit dem inspector?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12432540&highlight=inspector#post12432540

aber wenn ich das richtig verstanden habe, kann man das nicht direkt so als UV bezeichnen sondern als locken der voltage.

kann man dazu nicht per afterburner ein offset schaffen und dann die voltage locken? falls das ginge, da wäre es UV/UC.

Danke - das klingt gut.

Weiss jetzt schon womit ich demnächst einige Stunden verbraten werde.

0.6 bis max. 0.9V wird dann mit der Strix getestet, bei so viel Takt wie möglich.

Bandit3644
2020-09-29, 11:47:48
Über den Afterburner
https://s12.directupload.net/images/200929/p7enbc8c.jpg (https://www.directupload.net)

Screemer
2020-09-29, 12:31:02
Ja Vorsicht bei gebrauchter Hardware von Birdman hier im Marktplatz, vorher schön desinfizieren!!

Über 60°c ist das doch kein Problem mehr. Somit sind die 3080er die perfekten Karten um sie als Nudist zu nutzen und dann zu verkaufen.

aufkrawall
2020-09-29, 12:38:30
Bei der Abwärme der Karten ist Kleidung ja auch sehr störend.

Raff
2020-09-29, 13:45:00
Passt hier wohl am besten hin: MLCC- versus Polymer-Kondensatoren bei RTX 3080/3090: Immer mehr Hersteller äußern sich (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/MLCC-POSCAPS-Treiber-Uebersicht-1358958/)

MfG
Raff

Ex3cut3r
2020-09-29, 13:47:29
Über 60°c ist das doch kein Problem mehr. Somit sind die 3080er die perfekten Karten um sie als Nudist zu nutzen und dann zu verkaufen.

Bei der Abwärme der Karten ist Kleidung ja auch sehr störend.

;D Zu geil. Danke. :up:

Über den Afterburner
https://s12.directupload.net/images/200929/p7enbc8c.jpg (https://www.directupload.net)

Deine Kurve ist IMO falsch. So verlierst du Leistung. Hatten wir alles schon zu Pascal/Turing Zeiten herausgefunden. Du nimmst den Punkt den du undervolten willst. z.B. 800 mV und drückst STRG dann ziehst du mit der linken MT den Punkt auf z.B. 1800 Mhz. Jetzt sollte mit gedrückter STRG Taste der komplette Graph verschoben werden. Dann ziehst du nach und nach alle Spannungspunkte nach 800 mV kommen also z.B. 806, 812 mV usw. bis rauf auf 1125 mV (die danach kommen sind eh irrelevant) auch auf 1800 Mhz. dann auf Apply. Kruve sieht dann viel "enger" aus, und ist richtig - ohne Performance Verlust.

Sollte so aussehen:

https://abload.de/img/unbenanntovkqd.png

4Fighting
2020-09-29, 14:31:36
Deine Kurve ist IMO falsch. So verlierst du Leistung. Hatten wir alles schon zu Pascal/Turing Zeiten herausgefunden. Du nimmst den Punkt den du undervolten willst. z.B. 800 mV und drückst STRG dann ziehst du mit der linken MT den Punkt auf z.B. 1800 Mhz. Jetzt sollte mit gedrückter STRG Taste der komplette Graph verschoben werden. Dann ziehst du nach und nach alle Spannungspunkte nach 800 mV kommen also z.B. 806, 812 mV usw. bis rauf auf 1125 mV (die danach kommen sind eh irrelevant) auch auf 1800 Mhz. dann auf Apply. Kruve sieht dann viel "enger" aus, und ist richtig - ohne Performance Verlust.

Sollte so aussehen:

https://abload.de/img/unbenanntovkqd.png

was ist an der Kurve falsch? Wenn er als Sweet-Spot 18xx Mhz bei 0,9V idenfiziert hat, hebelt er mit der Kurve mMn. den Boost aus und die Karte klebt immer bei 18xx Mhz @ 0,9V (ungeachtet den temperaturbedingen Drops - die kommen natürlich weiterhin)

Ex3cut3r
2020-09-29, 14:37:51
Erstaunlich wie viele das immer noch nicht wissen. Nach 4 Jahren+

https://www.computerbase.de/forum/threads/turing-rtx-2060-2070-2080-ti-overclocking-undervolting.1838762/

Richtige Kurve:
https://www.computerbase.de/forum/attachments/kurve-richtig-jpg.756818/

Falsche Kurve: (Performance Verlust):
https://www.computerbase.de/forum/attachments/kurve-falsch-jpg.756821/

4Fighting
2020-09-29, 14:46:56
Erstaunlich wie viele das immer noch nicht wissen. Nach 4 Jahren+

https://www.computerbase.de/forum/threads/turing-rtx-2060-2070-2080-ti-overclocking-undervolting.1838762/

Richtige Kurve:
https://www.computerbase.de/forum/attachments/kurve-richtig-jpg.756818/

Falsche Kurve: (Performance Verlust):
https://www.computerbase.de/forum/attachments/kurve-falsch-jpg.756821/

Performance-Verlust, weil...?

Ich lass mich gern eines besseren belehren, aber ich sehe da jetzt keinen Unterschied ad-hoc, sofern die 2te Kurve nach dem gewünschten Mhz/Volt Kombi gerade verläuft :)

arcanum
2020-09-29, 14:57:14
erstens sieht die werkskurve zumindest bis zum plateau wie im ersten screenshot aus und zweitens fallen die sprünge beim zweiteren zwischen takt und spannung sehr viel größer aus. d.h. je nach power target, temp und auslastung wird die karte bei der wahl zwischen zwei taktraten im zweiten screenshot öfter in den unteren mhz-bereich fallen während die kurve im oberen mehrere taktraten dazwischen ansteuern kann -> höherer durchschnittstakt.

wenn 0,925v z.b. ein sweetspot sind, kann die karte bei 0,918v z.b. auch -15mhz bedienen anstatt gleich um 30 oder 50mhz runterzugehen.

Sardaukar.nsn
2020-09-29, 15:02:26
Erster Test der Asus 3080 Strix (immerhin englische Untertitel)

qVoxaKVpJzc

aufkrawall
2020-09-29, 15:08:50
Performance-Verlust, weil...?

Weil es nachweislich so war. ;)

4Fighting
2020-09-29, 15:09:34
erstens sieht die werkskurve zumindest bis zum plateau wie im ersten screenshot aus und zweitens fallen die sprünge beim zweiteren zwischen takt und spannung sehr viel größer aus. d.h. je nach power target, temp und auslastung wird die karte bei der wahl zwischen zwei taktraten im zweiten screenshot öfter in den unteren mhz-bereich fallen während die kurve im oberen mehrere taktraten dazwischen ansteuern kann -> höherer durchschnittstakt.

wenn 0,925v z.b. ein sweetspot sind, kann die karte bei 0,918v z.b. auch -15mhz bedienen anstatt gleich um 30 oder 50mhz runterzugehen.

Okay, das habe ich verstanden! ;)

Aber wenn man im Sweetspot (zumindest bei meinen bisherigen 4 Pascal/Turing Karten) mit Wakü unterwegs ist, war Temp und PT eher nebensächlich.

arcanum
2020-09-29, 15:18:01
Okay, das habe ich verstanden! ;)

Aber wenn man im Sweetspot (zumindest bei meinen bisherigen 4 Pascal/Turing Karten) mit Wakü unterwegs ist, war Temp und PT eher nebensächlich.

klar, wenn die karte immer in den max bereich boostet ist es eher zweitranging wie die taktkurve aussieht.

Ex3cut3r
2020-09-29, 15:23:29
Performance-Verlust, weil...?

Ich lass mich gern eines besseren belehren, aber ich sehe da jetzt keinen Unterschied ad-hoc, sofern die 2te Kurve nach dem gewünschten Mhz/Volt Kombi gerade verläuft :)

Ich kann kein weil liefern, es ist so. Von mir aus, mach doch weiter mit deiner Falschen Kurve. Mir doch egal. :biggrin:

cR@b
2020-09-29, 15:45:07
Erstaunlich wie viele das immer noch nicht wissen. Nach 4 Jahren+

https://www.computerbase.de/forum/threads/turing-rtx-2060-2070-2080-ti-overclocking-undervolting.1838762/

Richtige Kurve:
https://www.computerbase.de/forum/attachments/kurve-richtig-jpg.756818/

Falsche Kurve: (Performance Verlust):
https://www.computerbase.de/forum/attachments/kurve-falsch-jpg.756821/

Problem ist, dass bei mir erste Variante nicht funktioniert. Die Volt z.B. 0,975v die ich einstelle werden dann nicht gehalten sondern es wird immer auf eine Stufe drunter gefahren sprich in meinem Beispiel auf 0,968v.

Sardaukar.nsn
2020-09-29, 16:06:25
Auch ganz interessant.

https://www.overclock.net/cdn-cgi/image/format=auto,onerror=redirect,width=1920,height=1920,fit=scale-down/https://www.overclock.net/attachments/1601386951796-png.2460350/

https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

Bandit3644
2020-09-29, 16:21:46
;D Zu geil. Danke. :up:



Deine Kurve ist IMO falsch. So verlierst du Leistung. Hatten wir alles schon zu Pascal/Turing Zeiten herausgefunden. Du nimmst den Punkt den du undervolten willst. z.B. 800 mV und drückst STRG dann ziehst du mit der linken MT den Punkt auf z.B. 1800 Mhz. Jetzt sollte mit gedrückter STRG Taste der komplette Graph verschoben werden. Dann ziehst du nach und nach alle Spannungspunkte nach 800 mV kommen also z.B. 806, 812 mV usw. bis rauf auf 1125 mV (die danach kommen sind eh irrelevant) auch auf 1800 Mhz. dann auf Apply. Kruve sieht dann viel "enger" aus, und ist richtig - ohne Performance Verlust.

Sollte so aussehen:

https://abload.de/img/unbenanntovkqd.png

Das war nur ein Beispielbild um die Frage zu beantworten wie ich die Kurve einstelle.
Meine Kurve sieht so aus.
https://s12.directupload.net/images/200929/sjttxbka.jpg (https://www.directupload.net)

Asaraki
2020-09-29, 16:22:49
50% Strom für 7% Performance (200 vs 310W) o____________O
Klar, Einzelbeispiel, aber what. the. fuck.

Ex3cut3r
2020-09-29, 16:24:33
50% Strom für 7% Performance (200 vs 310W) o____________O
Klar, Einzelbeispiel, aber what. the. fuck.

;D Big Navi muss ziemlich gut sein, wenn Nvidia so die Brechstange rausholt.

hq-hq
2020-09-29, 16:35:04
Performance-Verlust, weil...?

Ich lass mich gern eines besseren belehren, aber ich sehe da jetzt keinen Unterschied ad-hoc, sofern die 2te Kurve nach dem gewünschten Mhz/Volt Kombi gerade verläuft :)

Perf. verlierst du erst wenn er runtertakten muss weil z.B. zu warm oder Powerlimit greift da er hier heftiger hin und hertaktet, wenn die GPU immer bei knapp 100% Auslastung bleibt und nix den Takt drückt müsste es egal sein....

Ansonsten Energieverschwendung, weil z.B. 1700MHz auch mit 0.825V laufen würden

-> 50% Strom für 7% Performance (200 vs 310W) o____________O (+1)

dargo
2020-09-29, 16:39:00
50% Strom für 7% Performance (200 vs 310W) o____________O
Klar, Einzelbeispiel, aber what. the. fuck.
Bitte bei den ganzen UV-Vergleichen eins nicht vergessen. Das ist halt Undervolting, keine in jeder Lebenslage garantierte Stabilität. Bei dem einem mag das funktionieren, bei dem anderen nicht in diesem Maße. Normalerweise müsste man nur das Powerlimit reduzieren ohne bei den einzelnen P-States an der Voltage zu drehen. Erst dann sieht man richtig wieviel weniger Power die Grafikkarte bei X Wattage als Limit braucht weil man nur durch PT-Senkung sich innerhalb der vorgegebenen Spannungskurve bewegt. Gleichzeitige, manuelle Spannungssenkung ist dann halt der Bonus aus der Chiplotterie.

WedgeAntilles
2020-09-29, 16:40:45
;D Big Navi muss ziemlich gut sein, wenn Nvidia so die Brechstange rausholt.

Was hat BigNavi damit zu tun?

Hat BigNavi die gleiche Performance wie die 3080 bei nur 250W, wirbt AMD halt nicht mit "Wir haben 5% mehr Leistung" sondern mit "wir brauchen 25% weniger Strom"

Hat Bignavi die gleiche Leistung wie die 3080 und braucht auch 320W könnte Nvidia bei 5% weniger Leistung sagen: "Hey, wir haben vielleicht 5% weniger Leistung, brauchen dafür aber 15% weniger Strom, geringere Lautstärke, geringere Temperaturen"

Hinzu kommt, dass mit günstigerem Kühler die ganze Karte noch mal 20, 30 Dollar billiger sein könnte. Alleine das gleicht ja 5% Leistungsverlust aus.


Wenn BigNavi kommt und ähnlich zur 3080 ist wird der Kunde folgende Punkte zur Unterscheidung haben:

Affinität zur Marke - Nvidia Fans kaufen Nvidia, AMD Fans AMD.
Größe des VRams
Stromverbrauch
RT Leistung
DLSS

Glaubst du ernsthaft, dass da ein 5% Performanceunterschied DIE entscheide Rolle beim Kauf spielt?
Das ist doch bei fast keinem der Fall.
Alleine wegen 5% - wenn alles andere identisch ist - wechselt kaum einer die Marke.

Vram, Stromverbrauch (und damit Temperatur), RT, vielleicht DLSS, Markenpräferenz - das sind Dinge, die für die Kaufentscheidung relevant sind.

5% Performanceunterschied sind hingegen völlig zu vernachlässigen IMO.

Asaraki
2020-09-29, 16:41:57
Bitte bei den ganzen UV-Vergleichen eins nicht vergessen. Das ist halt Undervolting, keine in jeder Lebenslage garantierte Stabilität. Bei dem einem mag das funktionieren, bei dem anderen nicht in diesem Maße. Normalerweise müsste man nur das Powerlimit reduzieren ohne an den einzelnen P-Stats an der Voltage zu drehen. Erst dann sieht man richtig wieviel weniger Power die Grafikkarte bei X Wattage braucht weil man nur durch PT-Senkung sich innerhalb der vorgegebenen Spannungskurve bewegt.

Ja natürlich, Einzelkarte, Einzeltest. Gibt aber schon eine "Richtung" an.

Zum markierten Teil : Ja, aber das wäre dann ja ein anderer Test und relativ uninteressant. Dann würdest du sehen, wie viel Watt zu wie viel Performance werden in der vorgegebenen Kurve, aber eben nicht was der Chip eigentlich kann, right? Die Frage hier war ja, wieso nV die Kurve so ansetzt, nicht wie viel auf dieser Kurve rumkommt.

@Wedge : Das ist mir dann auch zu einseitig. Es spielt schon eine Rolle wer die "Schnellste" Karte unter 1000€ hat, da müssen wir jetzt nicht Jahrzehnte der Marktforschung neu aufrollen. Der Rest ist Speku und muss auch nicht so ernst genommen werden.

Ex3cut3r
2020-09-29, 16:43:51
Was hat BigNavi damit zu tun?

Hat BigNavi die gleiche Performance wie die 3080 bei nur 250W, wirbt AMD halt nicht mit "Wir haben 5% mehr Leistung" sondern mit "wir brauchen 25% weniger Strom"

Hat Bignavi die gleiche Leistung wie die 3080 und braucht auch 320W könnte Nvidia bei 5% weniger Leistung sagen: "Hey, wir haben vielleicht 5% weniger Leistung, brauchen dafür aber 15% weniger Strom, geringere Lautstärke, geringere Temperaturen"

Hinzu kommt, dass mit günstigerem Kühler die ganze Karte noch mal 20, 30 Dollar billiger sein könnte. Alleine das gleicht ja 5% Leistungsverlust aus.


Wenn BigNavi kommt und ähnlich zur 3080 ist wird der Kunde folgende Punkte zur Unterscheidung haben:

Affinität zur Marke - Nvidia Fans kaufen Nvidia, AMD Fans AMD.
Größe des VRams
Stromverbrauch
RT Leistung
DLSS

Glaubst du ernsthaft, dass da ein 5% Performanceunterschied DIE entscheide Rolle beim Kauf spielt?
Das ist doch bei fast keinem der Fall.
Alleine wegen 5% - wenn alles andere identisch ist - wechselt kaum einer die Marke.

Vram, Stromverbrauch (und damit Temperatur), RT, vielleicht DLSS, Markenpräferenz - das sind Dinge, die für die Kaufentscheidung relevant sind.

5% Performanceunterschied sind hingegen völlig zu vernachlässigen IMO.
Nvidia hat den Anspruch mit den letzen Jahren immer die schnellsten Karten in der Performance Klasse zu haben. Und ja 5% sind eben schneller, und damit ist man Marketing Technisch im Plus. Warum sollte Nvidia denn sonst, die letzen 7% so brachial erkaufen? Ist vollkommen Logisch. Big Navi wird stand jetzt, weniger Strom für die gleiche oder fast gleiche Performance brauchen, wird außerdem auch gleich mehr VRAM haben. Warum musste Nvidia unbedingt jetzt vor AMD überhastet Launchen? Da muss man wahrlich keine Genie sein, um die Vorzeichen zu erkennen.

Warum munkelt man, dass Nvidia nach oder sogar vor Navi Launch mit 16 und 20GB Karten um die Ecke kommt? ;)

basix
2020-09-29, 16:44:07
Was ich an den ganzen UV Tests interessant finde ist, dass fast alle Karten bei 0.80V bei ca. 1.80 GHz landen. Die Varianz der Chips scheint recht klein zu sein. Spricht eigentlich für den Samsung 8nm Prozess.

Troyan
2020-09-29, 16:44:48
Turing kann man genauso undervolten bzw. das Powerlimit senken.

Viel interessanter ist doch, was man nach oben erreicht. Hier mal aus Control:
360W 2080TI: 43FPS
375W 3090: 68 FPS

Das ist eine Leistungssteigerung von 58% bzw. eine Perf/W Verbesserung von 51%.

Asaraki
2020-09-29, 16:47:24
Turing kann man genauso undervolten bzw. das Powerlimit senken.

Viel interessanter ist doch, was man nach oben erreicht. Hier mal aus Control:
360W 2080TI: 43FPS
375W 3090: 68 FPS

Das ist eine Leistungssteigerung von 58% bzw. eine Perf/W Verbesserung von 51%.

Schon? Eine 2080Ti läuft auch bei 66% Powerdraw mit 94% Leistung? Das wäre mir aber neu.

basix
2020-09-29, 16:47:36
Turing kann man genauso undervolten bzw. das Powerlimit senken.

Viel interessanter ist doch, was man nach oben erreicht. Hier mal aus Control:
360W 2080TI: 43FPS
375W 3090: 68 FPS

Das ist eine Leistungssteigerung von 58% bzw. eine Perf/W Verbesserung von 51%.

Der stark nichtlineare Anstieg der Leistungsaufnahme verhagelt dir aber jeden sinnvollen Vergleich der Effizienz. Klar hier wird die Perf/W so stimmen, aber es kommt extrem auf den Chip an.

Schon? Eine 2080Ti läuft auch bei 66% Powerdraw mit 94% Leistung? Das wäre mir aber neu.
Tut es. Ich erreiche mit 150-160W ~90-95% einer 2080 Ti FE. Ist 1440p und nicht 4K, aber mit 66% wird das etwa passen.

dargo
2020-09-29, 16:49:57
Ja natürlich, Einzelkarte, Einzeltest. Gibt aber schon eine "Richtung" an.

Zum markierten Teil : Ja, aber das wäre dann ja ein anderer Test und relativ uninteressant. Dann würdest du sehen, wie viel Watt zu wie viel Performance werden in der vorgegebenen Kurve, aber eben nicht was der Chip eigentlich kann, right? Die Frage hier war ja, wieso nV die Kurve so ansetzt, nicht wie viel auf dieser Kurve rumkommt.

NV wird intern ganz andere Stresstests verwenden als Spiele. Und mit der vorgegebenen Spannungskurve müssen auch die Gurkenchips klar kommen. Ansonsten hast du zu viel Müll produziert. Wer nur spielt kann natürlich die Reserven seines Chips mit UV ausnutzen, spricht ja nichts dagegen. Mich stört halt nur diese generelle Auffassung etwas NV würde da pro Takt viel zu viel Saft drauf hauen. Dem ist sicherlich nicht so. Ich kann mich noch sehr gut an Vega 10 erinnern. Spiele liefen bei mir mit <900mV einwandfrei. Gleichzeitige Videoaufnahme mit AVC auch. Gleichzeitige Videoaufnahme mit HEVC crashte früher oder später. Dafür waren nämlich >1000mV nötig. Was ich damit sagen will... diese Schnellschüsse beim UV mit etwas Vorsicht genießen. :)

Was ich an den ganzen UV Tests interessant finde ist, dass fast alle Karten bei 0.80V bei ca. 1.80 GHz landen. Die Varianz der Chips scheint recht klein zu sein. Spricht eigentlich für den Samsung 8nm Prozess.
Das ist doch bei TSMCs 7nm nicht anders. Größere Varianz bei höheren Frequenzen je näher der Chip an der Kotzgrenze betrieben wird. ;)

btw.
Rein aus Interesse... geht kein Undervolting bei GA102 mit weniger als 800mV? Bisher sah ich alles mit min. 800mV.

r3ptil3
2020-09-29, 16:50:03
;D Big Navi muss ziemlich gut sein, wenn Nvidia so die Brechstange rausholt.

Es ist in der Tat schon ein merkwürdiges Verhalten.

Der Vergleich oben ist wirklich krass. Ich frage mich da auch wieso man für weniger als 10% Leistung einen solch unverhältnismässig hohen Verbrauch in Kauf nimmt.

Vielleicht sind es ja wirklich die paar % die den Unterschied zu BigNavi ausmachen... schwierig einzuschätzen.

aufkrawall
2020-09-29, 16:50:08
Die Varianz der Chips scheint recht klein zu sein. Spricht eigentlich für den Samsung 8nm Prozess.
Imho schlagen bei UV mit abgesenktem Takt Unterschiede in der Chip-Güte generell weit weniger durch als bei OC.

Troyan
2020-09-29, 16:50:17
Gilt für Ampere genauso. Die Karten sind oben ebenfalls nicht so super effizient.

Schon? Eine 2080Ti läuft auch bei 66% Powerdraw mit 94% Leistung? Das wäre mir aber neu.

Ja, meine 2080TI konnte ich auch mit 210 bis 240W bei 1800MHz@0,8V und 7700MHz betreiben. Der Leistungsunterschied ist genauso gering gewesen.

24p
2020-09-29, 16:53:56
Die Standard TDP liegt da aber bei 250W. Das hier ist etwas so als wenn NV Turing oder Pascal im Refdesign schon mit 300W hätte laufen lassen.

Asaraki
2020-09-29, 16:54:05
Na gut, dann find ich das bei der 2080Ti genau so bescheuert :D Aber ist ja ok ^^

Als ob jemand im Auto einen 50% höheren Verbrauch für einen ähnlichen Vorteil in Kauf nehmen würde. Das find ich schon irgendwie... merkwürdig.

Strom ist für alle hier so... naja, ist halt einfach da ne ^^

dargo
2020-09-29, 16:56:08
Turing kann man genauso undervolten bzw. das Powerlimit senken.

Viel interessanter ist doch, was man nach oben erreicht. Hier mal aus Control:
360W 2080TI: 43FPS
375W 3090: 68 FPS

Das ist eine Leistungssteigerung von 58% bzw. eine Perf/W Verbesserung von 51%.
Du könnstest glatt im Marketing bei NV arbeiten. ;D Prügelt Turing bis zur absoluten Kotzgrenze wo Ampere gerade so warm wird. ;D ;D ;D

Edit:
Hier hast du das genaue Gegenteil bei Teillast.

https://abload.de/img/pcghipkmh.jpg

https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/4/


Strom ist für alle hier so... naja, ist halt einfach da ne ^^
Kommt halt aus der Wand, mehr muss man nicht wissen. :upara:

Troyan
2020-09-29, 16:56:20
Die Standard TDP liegt da aber bei 250W. Das hier ist etwas so als wenn NV Turing oder Pascal im Refdesign schon mit 300W hätte laufen lassen.

Und die meisten Leute haben sich 2080TIs mit hohem Powerlimit gekauft bzw. die Hersteller genervt, bis ein Bios rauskam. Meine Gigabyte läuft offiziell mit 300/360W. :cool:

WedgeAntilles
2020-09-29, 16:56:55
Vielleicht sind es ja wirklich die paar % die den Unterschied zu BigNavi ausmachen... schwierig einzuschätzen.

Mahct keinen Sinn IMO.
Dann halt man halt die gleiche Leistung, dafür verliert man den Stromverbrauch mit Pauken und Trompeten.

Glaubst du ernsthaft, dass bei
- Vram-Größe
- RT-Leistung
- DLSS
- generelle Markenvorliebe
- Stromverbräuche bei 320 Watt

eine 5% unterschiedliche Leistung relevant ist?
Jemand kauft BigNavi weil 16GB > 10GB.
Gut möglich.

Jemand kauft Ampere, weil ihm RT wichtig ist und Ampere da besser ist - gut möglich.

Jemand kauft Ampere, weil ihm DLSS wichtig ist - gut möglich

Jemand kauft BigNavi, weil ihm 320W halt zu viel sind und BigNavi z. B. nur 250W braucht - gut möglich.


Aber jemand kauft BigNavi oder Ampere, weil es 5% mehr Leistung gibt???
Klar, einer von 100 wird das wohl machen, aber haltet ihr das ehrlich für DAS relevante Argument?
Gerade bei einem Zweikampf bei dem es soviele Punkte gibt bei denen sich die Karten stark unterscheiden? (Vram mit klarem Vorteil BigNavi, DLSS mit klarem Vorteil Ampere, RT (noch unklar wer da vorne liegt, ich tippe Ampere)
Und dann noch eine GraKa Generation, bei der die hohen Temperaturen + Stromverbrauch so im Forkus sind wie relativ selten?

Ich kann mir da einfach nicht vorstellen, dass diese Punkte einem Käufer egal sind, aber 5% Leistungsunterschied der relevante Faktor ist.
Was bringen dir bei Ampere / Big Navi denn 5%? Für 4K reichts auch mit 5% weniger.
Und für 8k reicht die 3080 sowieso nicht - und bigNavi auch nicht.
Seriously, wo ist der Punkt von 5% mehr oder weniger Leistung? Wenn man die 5% so teuer einkaufen muss wie bei Ampere? :confused:

Asaraki
2020-09-29, 17:02:09
Und die meisten Leute haben sich 2080TIs mit hohem Powerlimit gekauft bzw. die Hersteller genervt, bis ein Bios rauskam. Meine Gigabyte läuft offiziell mit 300/360W. :cool:

Ich glaube du verstehst das falsch. Niemand hat was dagegen wenn jemand seine Karte voll aufdreht. Ich hab auch ein "Mooar Power Bios" drauf, trotzdem läuft die Karte zu 99,9% bei 50-70% Powertarget.

Es geht darum, wie ein Hersteller die Karte platziert und die Werte wählt. Und hier sieht's halt so aus als hätte die PR Abteilung der Technik reingeredet, das ist alles.

WedgeAntilles
2020-09-29, 17:03:41
Warum munkelt man, dass Nvidia nach oder sogar vor Navi Launch mit 16 und 20GB Karten um die Ecke kommt? ;)

Weil Vram ein relevanter Faktor ist.
Und es einen signifikanten Unterschied zwischen 10GB und 16GB gibt.
Hätte BigNavi 10,5GB Vram gäbe es die Diskussion nicht - aber 60% mehr Vram ist halt signifikant.

Da muss Nvidia jenen, die viel Ram wollen eben auch was bieten.
Sonst zwingt man ja alle, denen 10GB nicht genug sind (und die 3090 zu teuer ist) zu AMD zu wechseln.

Dass Nvidia in "jeder Klasse" vorne sein muss sehe ich übrigens nicht so.
In der Spitze mit der 3090? Ja.

Aber die 2060 Super war langsamer als die 5700XT.
Die 5700XT war langsamer als die 2070 Super.
Allerdings war die 5700XT auch preislich zwischen den beiden Nvidia Karten.

Was genau ist da eine "Klasse" - die die 2070 eine eigene Klasse?
Konkurriert die 5700XT gegen die 2070 Super? Die 2070 Super ist ja auch teurer - Preis-Leistung war bei der 5700XT besser.

Ex3cut3r
2020-09-29, 17:06:43
Ja na klar. Deswegen hat Nvidia nach der 5700XT auch gleich eine 2070S hinterher geschoben, weil die 2070 Non S ein paar Prozent hinten dran war.

Troyan
2020-09-29, 17:10:34
Ich glaube du verstehst das falsch. Niemand hat was dagegen wenn jemand seine Karte voll aufdreht. Ich hab auch ein "Mooar Power Bios" drauf, trotzdem läuft die Karte zu 99,9% bei 50-70% Powertarget.

Es geht darum, wie ein Hersteller die Karte platziert und die Werte wählt. Und hier sieht's halt so aus als hätte die PR Abteilung der Technik reingeredet, das ist alles.

Es ist eben das typische Dilemma: Interessiert mich P/L oder will ich die schnellste Hardware? In Control bringt mir Effizienz nichts. Da benötige ich jedes Frame. Spiele ich Strange Brigarde, dann kann man die Karte auch im effizientesten Modus fahren, da man in 4K über 100FPS liegt.

Die Ampere-Chips benötigen bei besserer Leistung auch nicht den selben Strom wie Turing. Dadurch sind die Kühllösung viel effizienter. Die Asus TUF Karten sind fantastisch in einem geschlossenen Gehäuse. Und das eben u.A. auch wegen dem (leicht) geringeren Verbrauch von Ampere.

Asaraki
2020-09-29, 17:13:45
Ich hab kein Problem mit "Ich kauf einfach das schnellste". Aber ist ja der Reviewthread und wenn das keinen Abzug in der B-Note gibt, dann weiss ich auch nicht. Aber du schlägst immer so bisschen den Ton an, dass das alle schon perfekt ist so, weil es dich nicht wirklich betrifft. Das ist aber halt subjektiv und so gesehen irrelevant ^^

In diesem Sinne viel Spass, aber wenn du deine Karte nicht objektiv bewerten willst oder kannst, dann versteh ich nicht ganz warum du mitredest

Troyan
2020-09-29, 17:16:02
Ich hab kein Problem mit "Ich kauf einfach das schnellste". Aber ist ja der Reviewthread und wenn das keinen Abzug in der B-Note gibt, dann weiss ich auch nicht. Aber du schlägst immer so bisschen den Ton an, dass das alle schon perfekt ist so, weil es dich nicht wirklich betrifft. Das ist aber halt subjektiv und so gesehen irrelevant ^^

In diesem Sinne viel Spass, aber wenn du deine Karte nicht objektiv bewerten willst oder kannst, dann versteh ich nicht ganz warum du mitredest

Hast du eine 2080TI? Spielst du gerne unter 40FPS? Wenn ja, ist eine Ampere Karte doch irrelevant für dich. Daher spielt der Stromverbrauch auch keine Rolle, weil die Kostenersparnis durch die Effzienz niemals den Aufpreis zur neuen Karten ausgleichen wird.

Aber Objektivität ist immer so eine Sache. :rolleyes:

Asaraki
2020-09-29, 17:19:10
Hast du eine 2080TI? Spielst du gerne unter 40FPS? Wenn ja, ist eine Ampere Karte doch irrelevant für dich. Daher spielt der Stromverbrauch auch keine Rolle, weil die Kostenersparnis durch die Effzienz niemals den Aufpreis zur neuen Karten ausgleichen wird.

Aber Objektivität ist immer so eine Sache. :rolleyes:

Hä??? Kann mir das jemand übersetzen oder wieso verstehe ich nicht, was meine persönlichen FPS mit der Qualität von Ampere zu tun hat? :D

Und ne ich spiele nur bei 144fps und das ausschliesslich ^^ Nicht drüber und nicht drunter und das in all meinen Games :D Aber ich spiel auch keine Single Player Ruckelorgien wenn du das meinst, mein GSync ist nicht einmal eingeschalten ^^ Ist aber immer noch egal, ausser nVidia fragt mich um die nächste Generation darauf hin anzupassen :D

Troyan
2020-09-29, 17:26:29
Du hast mich doch angemacht, weil ich einen Vergleich zwischen zwei auf 360W+ gebrachte Karten durchgeführt habe. Daher die simple Anmerkung, ob du eben gerne mit 40 FPS spielst. Das ist einer der Worst-Case Werte in Control mit 1440p+DLSS+Raytracing auf einer ~280W 2080TI.

Ich nicht. Deswegen sind die 68FPS meiner 3090 nun eher eine positive Überraschung für 375W. Eine 3080 liegt dann irgendwo bei 55+ FPS und 375W. Der Unterschied zwischen spielbar und nicht spielbar.

Ich finde es auch strange so fixiert auf Effizienz zu sein und dann Hardare zu kaufen, deren Fertigung alleine erheblich mehr Ressourcen benötigt als bei Karten mit deutlich weniger Leistung und auch weniger Energiebedarf. Wem 320W einer 3080 zuviel sind, sollte eher eine 3070 kaufen anstelle Undervolting zu betreiben.

dargo
2020-09-29, 17:30:09
Daher spielt der Stromverbrauch auch keine Rolle...
Aha... vor kurzem war das noch das Totschlagargument gegen AMD.

Wie stellst du dir das eigentlich vor? Wir sind bei Ampere bei 350W angekommen. AIBs mit afaik bis zu 480W bei ASUS. Wie soll das dann weiter gehen? Hopper Referenz mit 450W und AIBs mit bis zu 600W? :ulol:

Du hast mich doch angemacht, weil ich einen Vergleich zwischen zwei auf 360W+ gebrachte Karten durchgeführt habe. Daher die simple Anmerkung, ob du eben gerne mit 40 FPS spielst. Das ist einer der Worst-Case Werte in Control mit 1440p+DLSS+Raytracing auf einer ~280W 2080TI.

Vielleicht einfach mal akzeptieren, dass Control ein großes Stück Softwaremüll ist und/oder größere Ausflüge in die schöne, neue Raytracing-Welt realtime noch nicht reif sind? Schon alleine die Tasache, dass du dafür sogar DLSS bei 1440p einschalten musst sagt schon viel aus.

Schnoesel
2020-09-29, 17:36:18
Manche Customs haben 420 Watt. Das ist schon irre. Kann mir keiner erzählen, dass er sowas leise mit Luft wegkühlt.

Asaraki
2020-09-29, 17:38:31
Du hast mich doch angemacht, weil ich einen Vergleich zwischen zwei auf 360W+ gebrachte Karten durchgeführt habe. Daher die simple Anmerkung, ob du eben gerne mit 40 FPS spielst. Das ist einer der Worst-Case Werte in Control mit 1440p+DLSS+Raytracing auf einer ~280W 2080TI.

Ich nicht. Deswegen sind die 68FPS meiner 3090 nun eher eine positive Überraschung für 375W. Eine 3080 liegt dann irgendwo bei 55+ FPS und 375W. Der Unterschied zwischen spielbar und nicht spielbar.

Ich finde es auch strange so fixiert auf Effizienz zu sein und dann Hardare zu kaufen, deren Fertigung alleine erheblich mehr Ressourcen benötigt als bei Karten mit deutlich weniger Leistung und auch weniger Energiebedarf. Wem 320W einer 3080 zuviel sind, sollte eher eine 3070 kaufen anstelle Undervolting zu betreiben.

Nein hab ich nicht. Sogar explizit nicht oO

Ich finde es überhaupt nicht strange. Effizienz ist einfach sexy und ich messe die am Auslieferungszustand. Wenn jemand seinen Staubsauger privat pimpt, weil er drauf steht, dann hetze ich ihm nicht die Behörden auf den... höhö... Teppich. Aber wenn ein Hersteller einen Staubsauger baut, der sinnlos 50% Strom verballern würde, dann fände ich da einen Warnhinweis nicht dumm.

Aber weil du es ansprichst : Ja ich achte in allen Lebensbereichen darauf, ich kaufe auch sehr, sehr wenig neue Technik. Fast alles ist gebraucht gekauft oder wird zumindest wiederverkauft/vererbt/verschenkt. Und ich tue das aus persönlicher Überzeugung und Verantwortungsgefühl in meiner Lage als grässlich überprivilegierter Mensch.

Anders gefragt : Wieso triggert es dich, wenn jemand einen Mangel sieht, der dich persönlich nicht einmal betrifft?

dargo
2020-09-29, 17:41:49
Manche Customs haben 420 Watt. Das ist schon irre. Kann mir keiner erzählen, dass er sowas leise mit Luft wegkühlt.
ASUS RTX 3090 STRIX OC mit bis zu 480W.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/38.html

4Fighting
2020-09-29, 17:45:53
Die Kingpin fängt bei 520W an :D

falscher Thread :)

JVC
2020-09-29, 17:47:16
ASUS RTX 3090 STRIX OC mit bis zu 480W.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/38.html
Für weitere +2% ... WoW :eek:

M.f.g. JVC

Ex3cut3r
2020-09-29, 17:50:20
:freak: Einfach nur lol. Was soll dieser bescheuerte Trend wieder neuerdings? Vollkommen falsche Entwicklung die Nvidia und die Partner hier einschlagen.

Igor sagt übrigens für die FE 3080 sollte es schon ein gutes 650W NT sein, weil die Lastspitzen teilweise auf über 450W schießen. Ab 750W ist + Intel CPU @ 5,0ghz ist man aber Safe. Aber für diese Strix mit 480W sollten es wohl schon 850W+ sein. ;D

Langlay
2020-09-29, 17:53:20
btw.
Rein aus Interesse... geht kein Undervolting bei GA102 mit weniger als 800mV? Bisher sah ich alles mit min. 800mV.


Es geht auch weniger als 800mV, ich hab gerade 1800MHz@ 0,775V am testen, das läuft bis jetzt auch soweit stabil mit meiner 3090. Allerdings biste dort immernoch bei ~300W in Witcher 4K.

P.S. Ich hab auch nur ein 650W Netzteil und bis jetzt läuft noch alles. Allerdings ist bei meiner Karte das maximale Powerlimit auch "nur" 365W.

Digidi
2020-09-29, 17:57:45
Was ich an den ganzen UV Tests interessant finde ist, dass fast alle Karten bei 0.80V bei ca. 1.80 GHz landen. Die Varianz der Chips scheint recht klein zu sein. Spricht eigentlich für den Samsung 8nm Prozess.

Nein das kann nicht stimmen. Das Nvidia Probleme mit der Chipgüte hat zeigt das das Debekal mit den Crashs. Karten mit schlechten Caps laufen fehlerfrei weil der Chip sehr gut ist und karten mit guten Caps stürzen ab weil der Chip halt immer noch schlecht ist.

Troyan
2020-09-29, 17:58:18
Anders gefragt : Wieso triggert es dich, wenn jemand einen Mangel sieht, der dich persönlich nicht einmal betrifft?

Das war doch nicht das Thema. Undervolting geht auch mit Turing. Der Abstand zwischen einer 2080TI und 3080/3090 ändert sich nicht relevant. Die Aussagen waren falsch, dass Undervolting speziell ein Ampere-Ding wären.

Ich habe einfach nur den umgedrehten Fall gezeigt, wenn man ähnliche Konfigurationen bis zum Ende ausreizt. Denn das gehört ebenfalls dazu und wird von vielen auch gemacht - wie z.B. von mir. Ich hätte eben nicht gedacht, dass eine 3090 mit 375W (in Form einer Asus TUF) so gut funktioniert.

Aber wie bei Turing darf man hier im Forum eben nie was positives über nVidia posten.

dargo
2020-09-29, 17:58:46
Es geht auch weniger als 800mV, ich hab gerade 1800MHz@ 0,775V am testen, das läuft bis jetzt auch soweit stabil mit meiner 3090. Allerdings biste dort immernoch bei ~300W in Witcher 4K.

Das Problem bei Witcher 3 sind wohl die Vielzahl an Shadern bei GA102. Die heizen dort dann besonders gut. Da müsste man dann ein stärkeres Powerlimit setzen wen der hohe Verbrauch stört. Natürlich dann mit etwas mehr Einbußen bei der Performance. Oder halt weiter probieren mit bsw. 725mV und 1700-1750Mhz. Bei 700mV ist dann wohl endgültig Schluss, oder schon etwas früher.

Raff
2020-09-29, 18:02:05
Es geht auch weniger als 800mV, ich hab gerade 1800MHz@ 0,775V am testen, das läuft bis jetzt auch soweit stabil mit meiner 3090. Allerdings biste dort immernoch bei ~300W in Witcher 4K.

Das ist ja bald die Idle-Spannung. :D Schon kurios, was Samsung da fabriziert.

P.S. Ich hab auch nur ein 650W Netzteil und bis jetzt läuft noch alles. Allerdings ist bei meiner Karte das maximale Powerlimit auch "nur" 365W.

Wie, du kannst nicht auf 114 Prozent = 400 Watt gehen? Oder meinst du damit, dass sie bisher schlimmstenfalls auf 365 Watt gepiekst hat? :confused:

MfG
Raff

Langlay
2020-09-29, 18:07:49
Das ist ja bald die Idle-Spannung. :D Schon kurios, was Samsung da fabriziert.



Wie, du kannst nicht auf 114 Prozent = 400 Watt gehen? Oder meinst du damit, dass sie bisher schlimmstenfalls auf 365 Watt gepiekst hat? :confused:

MfG
Raff

Ich kann das Powerlimit maximal auf 104% erhöhen das macht dann so ~365W. Wie gesagt ist aber auch nur eine normale Palit 3090 Gaming Pro also die non OC Variante. Ich bin aber optimistisch das es dort nochmal ein Bios gibt das etwas mehr zu lässt. 400W würden mir ja schon reichen. OC interessiert mich eh eher weniger, dafür interressiert mich UV umso mehr.

Raff
2020-09-29, 18:08:38
Ah, sorry, falscher Film. Ich dachte, dass du auch eine FE hast.

MfG
Raff

r3ptil3
2020-09-29, 21:44:10
ASUS Strix 3080
https://www.youtube.com/watch?v=olJNkCYK9sQ

2100Mhz stabil

ab 2145Mhz Crash... nicht schlecht

Freue mich auf den Donnerstag.

Ex3cut3r
2020-09-29, 22:22:38
ASUS Strix 3080
https://www.youtube.com/watch?v=olJNkCYK9sQ

2100Mhz stabil

ab 2145Mhz Crash... nicht schlecht

Freue mich auf den Donnerstag.
YouTuber bekommen immer ein pre selektives Sample. Kann sein das deine nur 2000mhz mit macht.

WedgeAntilles
2020-09-29, 22:48:57
Ja na klar. Deswegen hat Nvidia nach der 5700XT auch gleich eine 2070S hinterher geschoben, weil die 2070 Non S ein paar Prozent hinten dran war.

Wenn du den Unterschied zwischen:
"Ich bring nen Refresh nach einem Jahr mit etwas mehr Leistung ohne großartig mehr Strom zu verbrauchen zu einem günstigeren Preis"
und
"ich prügel den Stromverbrauch um fast 20% hoch um 5% mehr Leistung zu bekommen"
nicht siehst, kann ich es natürlich nicht ändern.

Egal, du findest die Entscheidung von Nvidia sinnvoll und verständlich, ich finde sie nicht sinnvoll und unverständlich.
Da kommen wir nicht auf einen Nenner, müssen wir ja aber auch nicht.

BlacKi
2020-09-29, 23:00:12
ASUS Strix 3080
https://www.youtube.com/watch?v=olJNkCYK9sQ

2100Mhz stabil

ab 2145Mhz Crash... nicht schlecht

Freue mich auf den Donnerstag.
hast du die temps und die lüfterdrehzahl gesehen bei 340-350w?:freak: die msi ist wirklich dreck dagegen;) ob die aorus nochmal eins obendrauflegt? ich glaub nicht. es könnte sein, das es bei mir auch eine strix wird:)

Armaq
2020-09-29, 23:15:39
Also die Reviews sind doch teilweise einfach nur Schwachsinn. 30 Mhz mehr wird als etwas verwertbares dargestellt? Die Spulen fiepen deutlich und über die Lautstärke wird eigentlich nichts gesagt. Wenn man sich eine Top of Line Card für 200 Flocken mehr holt, dann muss das Ding doch auch sitzen. Ehrlich würde ich ne 699 holen und die 200 € straight into WAKÜ, damit hat man dann wirklich gute Taktraten zu Lautstärke.

r3ptil3
2020-09-29, 23:21:46
hast du die temps und die lüfterdrehzahl gesehen bei 340-350w?:freak: die msi ist wirklich dreck dagegen;) ob die aorus nochmal eins obendrauflegt? ich glaub nicht. es könnte sein, das es bei mir auch eine strix wird:)

Gut dass du darauf hinweist, denn das habe ich tatsächlich nicht gesehen :eek:
und noch dazu im geschlossenen Gehäuse.

Das Video konnte ich mir, trotz der Rarität, nicht lange antun und hab nur auf die relevanten Stellen weitergeklickt. Merkwürdig dass immer noch kein richtiger Tester eine 3080 Strix erhalten hat. Das einzig brauchbare ist ja von Techpowerup, aber mit einer 3090.

BlacKi
2020-09-30, 00:27:18
wtftech hat undervolting folien like this
nicht meine schuld wenn bei euch der thread explodiert^^
https://wccftech.com/wp-content/uploads/2020/09/all-3080-power.png
https://wccftech.com/wp-content/uploads/2020/09/all-3080-performance.png
https://wccftech.com/undervolting-ampere-geforce-rtx-3080-hidden-efficiency-potential/

BlacKi
2020-09-30, 00:30:20
3080 lagernd für 1500€:freak:

https://geizhals.de/zotac-gaming-geforce-rtx-3080-trinity-zt-a30800d-10p-a2363489.html?v=l&hloc=de

dargo
2020-09-30, 06:55:10
ASUS Strix 3080
https://www.youtube.com/watch?v=olJNkCYK9sQ

2100Mhz stabil

ab 2145Mhz Crash... nicht schlecht

Freue mich auf den Donnerstag.
Im cpu-limitierten Farcry 5. ;)

Bandit3644
2020-09-30, 07:20:55
Im cpu-limitierten Farcry 5. ;)

Wollte ich auch schon schreiben, bekomme ich mit der TUF im Bright Memory Infinite Ray Tracing Benchmark auch hin.

dargo
2020-09-30, 07:32:04
Sieht man auch an GPU-Load. Trotz nur 94% geht die Karte bis zu 360W hoch. Im vollen GPU-Limit kommt der damit locker über 400W und dann natürlich auch einiges unter 2,1Ghz. Schon geiles Stressszenario für eine Grafikkarte... bis zu 77% GPU-Load. X-D

Bandit3644
2020-09-30, 07:42:40
RTX 3080 TUF
Die MHz sind stabil und bewegen sich keinen Millimeter.

1440p @Ultra
https://s12.directupload.net/images/200930/jjjxk25m.jpg (https://www.directupload.net)

3840p @ Ultra
https://s12.directupload.net/images/200930/sotgvn8t.jpg (https://www.directupload.net)

dargo
2020-09-30, 07:54:22
Ok... dann stresst FC5 die Karte offenbar wenig. Hast du Witcher 3?

monstar-x
2020-09-30, 08:54:43
Das war nur ein Beispielbild um die Frage zu beantworten wie ich die Kurve einstelle.
Meine Kurve sieht so aus.
https://s12.directupload.net/images/200929/sjttxbka.jpg (https://www.directupload.net)

Wozu der zweite Anstieg bei 1100mV? Die Karte wird sich doch hoffentlich niemals 1100mV holen.
Da kannst es doch gleich Flach lassen bis zum Ende (1250mV)

rm-zocker
2020-09-30, 09:15:52
Im Moment bin ich ganz froh das sich Mediamarkt wegen der von mir vorbestellten RTX 3080 MSI Gaming noch nicht gemeldet hat.
Meinetwegen kann es auch noch ruhig bis Ende Oktober dauern, dann hab ich einen Vergleich zu den neuen Karten von AMD.
Werd dann halt erstmal Anfang Oktober zu ZEN3 und neuen Mobo greifen :-)
Zusammen mit der neuen Graka werde ich hoffentlich wieder ein Paar Jahre Ruhe haben :-)

masked__rider
2020-09-30, 09:31:41
Cyberport gibt den 12.11. als Lieferdatum für die Zotac Trinity an. Eigentlich ziemlich fair von Nvidia, zu warten, bis die Konkurrenz ein ähnliches Produkt launcht. :ugly: Der Kunde gewinnt. ;)

Bandit3644
2020-09-30, 09:47:30
Wozu der zweite Anstieg bei 1100mV? Die Karte wird sich doch hoffentlich niemals 1100mV holen.
Da kannst es doch gleich Flach lassen bis zum Ende (1250mV)

Der Afterburner hat den zweiten Teil so eingestellt und da es keine Rolle spielt hab ich das so gelassen.