Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkartensterben wegen Diablo 4?
Radeonator
2023-03-27, 14:19:06
Moin,
es häufen sich immer mehr Berichte über aktives nVida und AMD Highend Karten Sterben in der Beta, was ist da los? Wie kann es sein, das moderne Karten durch ein Spiel "gebricked" werden?
Laut Berichten sind meistens AMD RX 6900xt ,nVidia 3080 und 3080-TI bisher betroffen
https://www.pcgameshardware.de/Diablo-4-Spiel-55956/News/Kaputte-Geforce-Karten-Blizzard-bestaetigt-Untersuchung-durch-Nvidia-1416179/
Die Spekulation geht wohl dahin, das die ungebremsten FPS im Menü(!!!) Teil des Problems sind.
https://youtu.be/or7njUlYTLI
p.s.: Ich lass wohl erstmal die Finger von einem Test mit meiner Karte...
Exxtreme
2023-03-27, 14:21:53
Ist halt ein teuflisches Spiel. Womöglich ist das sowas Ähnliches wie mit New World und EVGA-Grafikkarten.
dildo4u
2023-03-27, 14:25:47
Einfach das Video gucken wie bei New World zeigt es Schlamperei bei der Produktion der Karten auf.
Damals hatte es EVGA zugegeben und die Karten getauscht.
Bei D4 soll es bei einer Cutscene passieren in dem Fall hat es nix mit unlimitierten fps im Menü zu tun.
SamLombardo
2023-03-27, 14:34:30
Einfach das öD4 soll es bei einer Cutscene passieren in dem Fall hat es nix mit unlimitierten fps im Menü zu tun.
WTF bei einer Cutszene:eek:, was kann denn da auch nur theoretisch die Ursache sein?
Shink
2023-03-27, 14:50:39
Naja unlimitierte Frameraten -> die Grafikkarte haut pro Sekunde so viel Frames raus bis sie abbrennt.
Kommt wohl ab und zu vor. Immerhin sprechen wir von einer Beta. Warum das Treiber nicht serienmäßig limitieren auf... irgendwas (10*Frequenz des Monitors?) und warum man eine Grafikkarte so überhaupt töten kann ist eigentlich Pfusch. Das müsste wirklich nicht sein. Man würde doch hoffen, dass eine (die teuerste) PC-Komponente sich abschaltet, bevor sie in Flammen aufgeht.
Exxtreme
2023-03-27, 14:54:13
Man würde doch hoffen, dass eine (die teuerste) PC-Komponente sich abschaltet, bevor sie in Flammen aufgeht.
Dann bräuchte die Grafikkarte wirklich überall Sensoren. Da sind bestimmt Teile abgebrannt bei denen man damit nicht rechnete, dass sie abbrennen. Oder man nimmt sowas schlicht inkauf wenn eine recht unwahrscheinliche Garantieabwicklung weniger kostet als zusätzliche Temperatursensoren inkl. Abschaltvorrichtung pro Grafikkarte.
Shink
2023-03-27, 15:01:14
Das ist ja furchtbar. Ich habe selbst mal Spiele mit eigener 3D-Engine programmiert, aber kam nie auf die Idee, dass ich damit die Grafikkarte abfackeln kann, wenn ich einen Fehler mache.
Radeonator
2023-03-27, 15:14:33
Das Ding ist ja, das trotz V-Sync einfach in Cutscenes oder dem Menü max FPS abgefeuert werden. Wer da letztendlich Schuld hat , ist noch zu klären.
Crazy_Chris
2023-03-27, 15:36:08
Die Schuld liegt doch klar bei den Boardherstellern. Eine Karte sollte niemals abfackeln nur weil in einer Szene mal 3k Frames gerendert werden. Falls doch dann liegt ein Design/Bestückungsfehler vor.
SamLombardo
2023-03-27, 15:36:57
Naja unlimitierte Frameraten -> die Grafikkarte haut pro Sekunde so viel Frames raus bis sie abbrennt.
Kommt wohl ab und zu vor. Immerhin sprechen wir von einer Beta. Warum das Treiber nicht serienmäßig limitieren auf... irgendwas (10*Frequenz des Monitors?) und warum man eine Grafikkarte so überhaupt töten kann ist eigentlich Pfusch. Das müsste wirklich nicht sein. Man würde doch hoffen, dass eine (die teuerste) PC-Komponente sich abschaltet, bevor sie in Flammen aufgeht.
Im Menü hätte ich das erwartet aber nicht in Cutscenes. Die sind doch meist in Spielgrafik und damit fps mäßig ungefähr so fordernd wie das Spiel selbst. Wäre mal interessant was da in diesem speziellen Fall los ist.
Exxtreme
2023-03-27, 15:38:50
Im Menü hätte ich das erwartet aber nicht in Cutscenes. Die sind doch meist in Spielgrafik und damit fps mäßig ungefähr so fordernd wie das Spiel selbst. Wäre mal interessant was da in diesem speziellen Fall los ist.
Zwischensequenzen können auch Videos sein. Und wenn die da ein Video in Form einer einzigen Textur auf zwei Polygonen abspielen dann ... :freak:
Ex3cut3r
2023-03-27, 15:42:21
Ich spiele das Spiel nicht, habe eine 3080 Ti, wäre aber trotzdem nicht betroffen. Warum?
Ganz einfach, ich habe 4K mit 144HZ und VRR. Ich nutze, wie vorgeschrieben, ein globales FPS Limit von 141FPS mit V-Sync Global ON und halt VRR. ;)
Shink
2023-03-27, 15:45:43
Ja, eben. Wieso lässt der Treiber das standardmäßig zu, dass die GPU 3K Frames/Sekunde raushaut? Dass man das optional aktivieren kann - ja, von mir aus. Aber als Standardverhalten?
dildo4u
2023-03-27, 15:46:51
Ich spiele das Spiel nicht, habe eine 3080 Ti, wäre aber trotzdem nicht betroffen. Warum?
Ganz einfach, ich habe 4K mit 144HZ und VRR. Ich nutze, wie vorgeschrieben, ein globales FPS Limit von 141FPS mit V-Sync Global ON. ;)
Angeblich traf es vorallem 3080 TI von Gigabyte, deine Karte hätte so oder so keine Probleme.
Lowkey
2023-03-27, 16:02:22
New world (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Zerstoert-Defekt-New-World-1380569/)
Starcraft II (https://forums.evga.com/NVIDIA-19675-kills-video-cards-Warning-from-Blizzard-m216216.aspx)
Es gab bestimmt noch weitere Spiele mit GPU Killer Eigenschaften.
Ja, eben. Wieso lässt der Treiber das standardmäßig zu, dass die GPU 3K Frames/Sekunde raushaut? Dass man das optional aktivieren kann - ja, von mir aus. Aber als Standardverhalten?
Es wäre ja egal und soll nicht passieren. Die allermeisten Karten gehen davon nicht kaputt und AMDs sind quasi gar nicht betroffen, da kannste ultrahohe FPS-haben, bis zu schwarz wirst (ok, fallen die wegen Spulenfiepen die Ohren ab :D). D4 saugt jetzt die letzten Montagsprodukte aus dem Markt.
Lowkey
Klar, alle die "unlimitierte" FPS erreichen.
Das Problem sind nicht nur die Boardhersteller. NV hätte die Qualität ebenso sicherstellen müssen, das ist offensichtlich aber unzureichend gewesen, vor allem bei GA102-Karten.
Darkman.X
2023-03-27, 19:42:12
[...] irgendwas (10*Frequenz des Monitors?) [...]
Du willst dir wohl die weltweite Wut aller Pro-Gamer aufladen, oder? :D
Nur unlimitierte FPS mit einer Grafik wie bei einem Nintendo 64 sind gute FPS ;)
Fusion_Power
2023-03-27, 19:59:37
Wie konnte Blizzard so einen potentiell kritischen Fehler übersehen? Ist ja nicht das erste mal dass Spiele wegen zu vielen FPS in Menüs die Biege machen. gab in der Vergangenheit ja genug Berichte über solche Vorfälle. Automatische FPS-Begrenzung in Menüs/Cut-Scenes sollte Standard sein, Overwatch hat das z.B. um mal ein anderes Blizzard Game zu nennen.
Tesseract
2023-03-27, 20:03:49
die frage ist eher warum die boardhersteller das nicht auf die reihe bekommen. hohe fps im menü haben die hardware nicht zu schädigen, punkt. aus. die schuld hat hier definitiv nicht das spiel.
Rooter
2023-03-27, 20:05:56
die frage ist eher warum die boardhersteller das nicht auf die reihe bekommen. hohe fps im menü haben die hardware nicht zu schädigen, punkt. aus. die schuld hat hier definitiv nicht das spiel.Sehe ich auch so.
MfG
Rooter
basix
2023-03-27, 20:22:34
+1
HW darf sich nicht selbst zerstören. Bei CPUs passiert ja anscheinend nichts.
Lurtz
2023-03-27, 20:39:45
Das ist sicher so. Dennoch verstehe ich nicht wieso man nicht mittlerweile hergeht und meinetwegen einfach ein sehr hohes FPS-Limit generell erzwingt, wenn nicht schon als Kunde, dann wenigstens auf Seiten von nVidia - der Treiber kann es ja.
LoganKell
2023-03-27, 22:09:29
Klar haben die Nvidia oder die Boardpartner teils Schuld.
Aber bitte dran denken jeder fordert für sich ein, ein mündiger Bürger zu sein. Jeden zusätzlichen FPS hinterherhecheln, dafür werden Videos angeschaut, Forenbeiträge und andere Tips gelesen um heraus zu finden wo man überall schrauben kann und was in den 3D-Einstellungen zu beachten ist. Aber einen max. Bildfrequenz Limiter in den 3D Einstellungen setzen, oh Gott bewahre dafür ist Nvidia verantwortlich.
Wenn Nvidia in den Treibern und Einstellungen diesen Limiter von vorne herein als Default setzen würde wäre das Geschrei auch wieder groß.
Nebenbei sind die Einstellungen in den Nvidia Systemsteuerung sehr mächtig und man kann, man will es fast nicht glauben, für jedes Game einzelne Einstellungen vornehmen und abspeichern.
Ätznatron
2023-03-27, 23:50:00
Aber einen max. Bildfrequenz Limiter in den 3D Einstellungen setzen, oh Gott bewahre dafür ist Nvidia verantwortlich.
Natürlich ist nVidia verantwortlich. Was ist denn von einer Hardware zu halten, die von regulär auf ihr laufender Software zerstört werden kann?
gnomi
2023-03-28, 09:54:01
Sollte doch nicht so schwer sein, per Default die FPS zu begrenzen.:confused:
Zum Glück habe ich das schon seit GSync Zeiten 2014 prinzipiell vor eingestellt.
redpanther
2023-03-28, 10:06:49
Natürlich ist nVidia verantwortlich. Was ist denn von einer Hardware zu halten, die von regulär auf ihr laufender Software zerstört werden kann?
Wie soll denn der GPU Hersteller Verantwortlich sein, wenn "nur" einige Karten betroffen sind? Oder sind es spezielle GPUs?
Mich würde daher eher interessieren was da denn konkret überhaupt kaputt geht. Ich stelle mir Laienhaft auch sehr hohe FPS jetzt nicht sehr fordernd vor, jedenfalls nicht mehr als zB jemand der mit FurMark seine Graka Quält.
bestMAN
2023-03-28, 10:09:14
Ich spiele das Spiel nicht, habe eine 3080 Ti, wäre aber trotzdem nicht betroffen. Warum?
Ganz einfach, ich habe 4K mit 144HZ und VRR. Ich nutze, wie vorgeschrieben, ein globales FPS Limit von 141FPS mit V-Sync Global ON und halt VRR. ;)
Vorbildlich, leider die Ausnahme beim "normalen" User, der nur auf die max.FPS achtet und sich zuerst freut - um dann den Kopf zu schütteln.
aufkrawall
2023-03-28, 10:25:09
Das Problem zeigt sehr gut, welche Hersteller ihren Kunden Schrott-Bauteile andrehen. Eigentlich sollte man froh sein, dass das aufgeflogen ist, weshalb ich auch von forcierten fps-Limitern nichts halte.
Shink
2023-03-28, 10:40:34
Ich stelle mir Laienhaft auch sehr hohe FPS jetzt nicht sehr fordernd vor, jedenfalls nicht mehr als zB jemand der mit FurMark seine Graka Quält.
Vermutlich geht Furmark auf die Shader, während 10000+ fps auf... andere Teile geht, die normalerweise weniger Last haben.
Default-Begrenzung wäre gut für Stromrechnung/Akkulaufzeit/Hitzeproduktion/Haltbarkeit etc und mir fällt kein Nachteil ein. (Naja, außer vielleicht, dass man dann seltener eine neue GPU kaufen muss und die Hersteller weniger verkaufen.)
Wer viel mehr FPS braucht, als der Bildschirm anzeigen kann, darf das dann ja einstellen wenn es ihm Spaß macht. So wie man ja auch einfach so übertakten kann.
Ätznatron
2023-03-28, 11:31:17
Wie soll denn der GPU Hersteller Verantwortlich sein, wenn "nur" einige Karten betroffen sind? Oder sind es spezielle GPUs?
Mich würde daher eher interessieren was da denn konkret überhaupt kaputt geht. Ich stelle mir Laienhaft auch sehr hohe FPS jetzt nicht sehr fordernd vor, jedenfalls nicht mehr als zB jemand der mit FurMark seine Graka Quält.
Auch wenn es nur "einige" Karten sein sollten, entlässt ihn das nicht aus der Verantwortung.
KhanRKerensky
2023-03-28, 14:05:58
und mir fällt kein Nachteil ein.
Absolut kein Gegenargument sondern mehr Kuriosität: Gothic 3 hatte längere Ladezeiten wenn V-Sync an war.
The_Invisible
2023-03-28, 14:11:50
Vermutlich geht Furmark auf die Shader, während 10000+ fps auf... andere Teile geht, die normalerweise weniger Last haben.
Default-Begrenzung wäre gut für Stromrechnung/Akkulaufzeit/Hitzeproduktion/Haltbarkeit etc und mir fällt kein Nachteil ein. (Naja, außer vielleicht, dass man dann seltener eine neue GPU kaufen muss und die Hersteller weniger verkaufen.)
Wer viel mehr FPS braucht, als der Bildschirm anzeigen kann, darf das dann ja einstellen wenn es ihm Spaß macht. So wie man ja auch einfach so übertakten kann.
Kann ja nur irgendwas mit Frame-Output zu tun haben, bei CUDA & Co müssten die Karten ja sonst auch abrauchen.
Wär interessant wenn dem mal wer nachgehen würde ; )
Exxtreme
2023-03-28, 14:33:32
+1
HW darf sich nicht selbst zerstören. Bei CPUs passiert ja anscheinend nichts.
Wir wissen nicht was da abgeraucht ist. Kann sein, dass das irgendwelche anderen Bauteile waren, mit denen die Hersteller nicht gerechnet hatten.
Das ist sicher so. Dennoch verstehe ich nicht wieso man nicht mittlerweile hergeht und meinetwegen einfach ein sehr hohes FPS-Limit generell erzwingt, wenn nicht schon als Kunde, dann wenigstens auf Seiten von nVidia - der Treiber kann es ja.
Es kann sein, dass Nvidia einige Features hat, die sich mit einer maximalen Zwangswiederholfrequenz beissen würden. Bei AMD ist das so, dass es da einige Ausschlusskriterien gibt.
Fusion_Power
2023-03-28, 14:45:14
Ich schiebe die Verantwortung bei solchen Problemen mal prinzipiell auf BEIDE Parteien: GPU- und Spieleentwickler. Wobei sowas wohl softwareseitig sicher am schnellsten gefixt werden kann, daher hab ich Blizzard hauptsächlich erwähnt. Bis neue Treiber draußen sind oder gar die Hardware an sich gegen Selbstzerstörung geschützt ist, geht ein kleiner Patch des Spiels doch sicher schnell.
Shink
2023-03-28, 14:52:16
Absolut kein Gegenargument sondern mehr Kuriosität: Gothic 3 hatte längere Ladezeiten wenn V-Sync an war.
Hey, geil, vielleicht erklärt das, wieso manche Spiele bei mir so langsam laden.
Lehdro
2023-03-28, 14:55:31
Ich schiebe die Verantwortung bei solchen Problemen mal prinzipiell auf BEIDE Parteien: GPU- und Spieleentwickler.
Das Spiel ist unschuldig. Seid doch Blizz dankbar das es Schrotthardware innerhalb des Garantiezeitraums in das verwandelt was es ist: Schrott. Man stelle sich vor wie NV ein globales FPS Limit einbauen würde: Unabschaltbar - denn nur so ist man aus der Haftung raus. Und dann kann man erst recht anfangen bei der Hardware zu sparen, denn die Extremfälle, für die man heute noch planen muss, fallen dann ja einfach weg.
Und ja, auch NV trifft eine Schuld, schließlich segnen die jedes Design höchstpersönlich ab, ich werfe einfach mal Green Light in den Raum (https://www.igorslab.de/nvidias-rules-und-amds-protektionismus-gaengelung-der-hersteller-cleveres-qualitaetsmanagement-oder-gewinnmaximierung-einblicke-hinter-die-kulissen/4/).
Man stelle sich vor CPUs würden sich selbst zerlegen wenn sie zu schnell rechnen würden. Kurz SuperPi angeschmissen und puff macht der Kern, was da los wäre (https://en.wikipedia.org/wiki/Killer_poke). Aber klar, das Programm wäre schuld. :rolleyes:
DrumDub
2023-03-28, 16:29:53
Sehe ich auch so.
MfG
Rooter jepp.
Shink
2023-03-28, 16:35:55
Man stelle sich vor CPUs würden sich selbst zerlegen wenn sie zu schnell rechnen würden. Kurz SuperPi angeschmissen und puff macht der Kern, was da los wäre (https://en.wikipedia.org/wiki/Killer_poke). Aber klar, das Programm wäre schuld. :rolleyes:
Sorry for OT aber erinnert mich daran (golem.de/news/windows-xp-janet-jacksons-popsong-brachte-laptops-zum-absturz-2208-167670.html). Okay, kann wohl passieren aber das ist ja wirklich nicht das erste Mal.
Dr.Doom
2023-03-28, 17:23:06
Absolut kein Gegenargument sondern mehr Kuriosität: Gothic 3 hatte längere Ladezeiten wenn V-Sync an war.Das "etwas" modernere Fallout 4 hatte das auch. Es gibt Mods, die VSync bei Ladebildschirmen deaktivieren und anschließend wieder zuschalten. Mehrere Minuten Ladenzeit vs. <20s machen schon was aus bei der Häufigkeit mit der man in Fo4 zwischen Innen- und Aussenbereichen wechselt...
Die Release-Fassung von Fo4 hatte das Problem nciht; es kam irgendwann mit einem der DLCs.
Sry für OT.
Hatstick
2023-03-28, 18:04:08
Was ich an der ganzen Sache nicht verstehe, was machen Pro Gamer mit 360Hz Monitoren oder was weiß ich, wie hoch die mittlerweile gehen.
Da willst doch nun deine 355FPS oder wie du auch limitierst jederzeit haben?
Da müssten ja auch Auffälligkeiten vorkommen. :confused:
aufkrawall
2023-03-28, 18:49:23
Da müssten ja auch Auffälligkeiten vorkommen. :confused:
Warum sollte das so sein, wenn nur schlechte/unpassende Bauteile ausfallen oder sonst wie die Karten zerstören?
Man kann vermutlich auch irgendeinen obskuren Compute-Kernel eine ähnliche Last erzeugen lassen, ohne, dass überhaupt ein Frame gerendert wird.
Würde mich nicht mal wundern, wenn die betroffenen Karten schon vorher nur scheinstabil waren oder die User hin und wieder unerklärliche Crashes hatten (die sie ggf. nicht gemerkt haben, weil sich der Treiber bis auf App-Crashes nahtlos recovered).
Hatstick
2023-03-28, 19:20:04
Das könnte natürlich auch bei einigen defekten Karten so sein, das sie vielleicht vorher schon ein weg hatten.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.