PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Stabilitätsprobleme bei Raptor Lake


Seiten : 1 [2] 3 4 5 6 7

Ätznatron
2024-05-09, 11:00:55
Ich denke, Intel sagt da folgendes:
Diese "Intel Baseline Profile" .... welche auf dem Mist der Mobo-Hersteller gewachsen sind und nicht direkt von uns stammen.

Wenn man sagt "scheinen darauf zu basieren" spricht man von Fremdprodukten, nicht von eigenen Produkten. Bei eigenen Produkten muß man nicht annehmen, wie die gebildet wurden, da weiss man das.

Ich zitiere das jetzt mal aus dem Zitat:

...based on power delivery guidance previously provided by Intel to manufacturers...

Es ist auf Intels Mist gewachsen. Und daran haben sich die Mobo-Hersteller orientiert.

Angiesan
2024-05-09, 11:24:32
Naja sie machen halt schon ein paar Angaben mehr.
Ich denke gerade das, was in der Vergangenheit bei den OC Super Duper Boards bei allen Herstellern gesetzt war, wird es so nicht mehr geben.

Selbst das Extremprofil ist ja auf 253 W PL1/2 gedeckelt. Das ist dann schon noch ein Unterschied zu dem was man als Board-Standard so in der freien Wildbahn gefunden hat, wo selbst ein 13900f hier mal gerne über 300 Watt nehmen will wenn man alles auf unlimitiert fährt.

Jeder der ein 13/14900er ob K oder non K betreibt, weiß 253 Watt reichen nicht immer aus um den Takt zu halten und 307A auf dem ICC auch nicht.
Mit 400A auf dem ICC bist Du aber auf der sicheren Seite, dass müsste selbst für einen KS ausreichen, da greifen dann halt die 253Watt für die K Modelle und die 320 Watt für die KS Modelle. Die schreiben ja selbst, dass man bei K und KS immer das höchst mögliche Profil auswählen soll was das MB zur Verfügung stellt.

Bei den non K Modellen wird es dann sicherlich so etwas wie ein Baseline Profil geben, wo die 65 Watt PL2 eingetragen sind, was es auch heute schon in den mir bekannten MB gibt.
Die ICCMAX wird dann wahrscheinlich, um eine bessere Differenzierung zu den K Modellen zu erreichen wieder auf 279A festgelegt werden. Ob es dann so etwas wie Performance oder Extrem geben wird bezweifele ich stark. Denn dann werden die Unterscheide zu den K Modellen immer kleiner. Bei den heutigen Marktpreisen spielt das aber eh keine Rolle mehr.

Hätte ich den 13900f nicht im Sale bei Amazon für 412,- EUR bekommen hätte ich sicherlich auch einen K im System.

Was mir eher Sorgen bereitet, aber vielleicht auch gerechtfertigt ist. Intel hat den MB Herstellern damit ja einen 11er hingelegt. Guckst Du, willst Du die volle Performance über das Intel-Performance Profil hinaus, musst Du ein Super Duper sche.. die Wand an Board für 500 EUR+ kaufen, sonst geben wir das nicht frei.
Das gab es schon mal bei Asrock zu Zeiten des 9900K. Da würde einfach die Stromstärke beschränkt und war auch bei K Modellen nicht veränderbar. Bei einigen preiswerten ITX Boards findet man das heute noch.

Bin gespannt wie die MB Hersteller damit jetzt umgehen werden.

Hier mal ein paar Werte, ich habe mal eine Stunde Lebenszeit verbraucht, weil es mich interessierte. Anmerken muss ich, dass ganze ist mit LLC 9 vermessen worden, was 0,8 mOhm entspricht und Standard bei meinem MSI Board über alle Profile ist ist.

CB R23 (Verbrauch gem. HWInfo Ver. 800)
ICCMAX 400 A PL1/2 253 W = 35286 ca. 253 W
ICCMAX 307 A PL1/2 253 W = 34808 ca. 235 W
ICCMAX 279 A PL1/2 219 W = 33546 ca. 190 W
ICCMAX 245 A PL1/2 219 W = 31933 ca. 155 W

Nachtrag:
ICCMAX 400 A PL1/2 320 W = 36077 ca. 285 W

Nicht wundern über die Werte, R23 profitiert etwas von DDR5 hier arbeitet aber noch DDR4.

Bis auf die 400A Einstellung hält der I9 13900f den max. Takt auch nicht in CPU intensiven Spielen wie z.B. CP2077 oder Helldivers II.

Wenn man, was ja jetzt vom Tisch ist, LLC 18 (1.7 mOhm) einstellen würde, würde man den Wert des 245A Stups nicht mal mit dem 400A Setup erreichen und die CPU wäre permanent im Temp-Limit trotz 360 AIO. Mit LLC18, ICC MAX 245 A, PL1 188 W und PL2 125 Watt, will man gar nicht erst testen:biggrin:

Angiesan
2024-05-09, 12:04:58
Ich zitiere das jetzt mal aus dem Zitat:



Es ist auf Intels Mist gewachsen. Und daran haben sich die Mobo-Hersteller orientiert.

Na wenn Du Dir mal die veröffentliche Folie ansiehst, siehst Du unter Baseline was? Genau, Nix.
Quelle PCGH:
88088
Das muss der MB Hersteller dann selbst festlegen was seine HW aushält oder liefern kann. Das dürfte dann eher so laufen wie bei NB´s wo der SB auch festlegt was er für gesund hält.

Es wurde im Prinzip ja nur eine Obergrenze genannt abhängig von der Qualität der Spannungsversorgung des verwendeten MB.

Das ist doch bei AMD auch so, oder?
Ich kann mir nicht vorstellen das ein 7950 auf dem Board sein volles Potential zeigen kann.
88087

Ätznatron
2024-05-09, 12:28:18
Na wenn Du Dir mal die veröffentliche Folie ansiehst, siehst Du unter Baseline was? Genau, Nix.
Quelle PCGH:
88088
Das muss der MB Hersteller dann selbst festlegen was seine HW aushält oder liefern kann. Das dürfte dann eher so laufen wie bei NB´s wo der SB auch festlegt was er für gesund hält.

Es wurde im Prinzip ja nur eine Obergrenze genannt abhängig von der Qualität der Spannungsversorgung des verwendeten MB.

Das ist doch bei AMD auch so, oder?
Ich kann mir nicht vorstellen das ein 7950 auf dem Board sein volles Potential zeigen kann.
88087

Die Baseline wird von den Werten gebildet, die Intel an die MoBo-Hersteller übermittelt hat. Die saugen die sich ja nicht aus den Fingern.

Die Werte für "Performance" und "Extreme" werden dewegen gesondert erwähnt, weil sie sich halt von der Baseline unterscheiden.

Die Mobo-Hersteller müssen lediglich schauen, ob ihre Boards qualitativ hochwertig genug sind, um "Performace" oder gar "Extreme" zu ermöglichen.

Schaffen sie das nicht, bleibt halt die Baseline.

Angiesan
2024-05-09, 12:51:49
Das ist jetzt aber ebenso eine Vermutung.

Sicherlich wird es sowas wie eine Mindestanforderung geben, damit der MB Hersteller das Siegel 14900K Ready aufbringen kann und dies bei seinem MB in der Support List anzeigen kann.
Was dabei dann an tatsächlicher Leistung rausfällt, dass müsste mal jemand testen. Bei AMD gibt es ja solche Tests wo man mit den Standardeinstellungen des preiswerten Boards zum Teil erhebliche Leistungseinbrüche feststellen kann.
Bei Intel habe ich sowas noch nicht gefunden, interessiert wohl keinen oder will Intel nicht getestet sehen;)

Hier mal ein Test zu einem günstigen AM5 Board, dort kann man das aufgrund der anständigen Spannungsversorgung auch fixen und erhält dann die volle Leistung. Bei anderen Boards in der Preisklasse wird das aber sicherlich nicht so simpel zu beheben sein.

https://www.tomshardware.com/reviews/asrock-b650m-hdvm2-review-is-the-cheapest-good-enough

Exxtreme
2024-05-09, 13:02:05
Es tut sich also nichts ausser das jetzt ein paar Leute weniger Intel kaufen aufgrund der reisserischen Headlines der letzten Wochen.


Das liegt nicht an Headlines oder Tech-Youtubern sondern an instabilen CPUs.

Ätznatron
2024-05-09, 13:12:37
Das ist jetzt aber ebenso eine Vermutung.

Nein, das stammt von Intel selbst:

These ‘Intel Baseline Profile’ BIOS settings appear to be based on power delivery guidance previously provided by Intel to manufacturers describing the various power delivery options for 13th and 14th Generation K SKU processors based on motherboard capabilities.

Intel is not recommending motherboard manufacturers to use ‘baseline’ power delivery settings on boards capable of higher values.

Intel empfiehlt lediglich, kein Baselineprofil zu verwenden, wenn die Mainboards zu höheren Leistungen eigentlich fähig wären. Das sind dann die Boards, die "Performance" und\oder "Extreme"-Profile anbieten.

Exxtreme
2024-05-09, 15:17:11
Was Intel natürlich immer noch liefern muß, ist eine saubere Erklärung zum Stabilitäts-Problem und wie man dieses angeht. Einfach nur ein paar BIOS-Empfehlungen rüberschieben reicht nicht.

Das wurde wohl verursacht durch massives Undervolting und eventuell auch noch durch Überlastung/Überhitzung. Denn die ganzen Schutzsensoren und Schutzschaltungen wurden ja oft deaktiviert. Und die CPU sog dann mehr Strom als es ihr gut tat.

Angiesan
2024-05-09, 15:20:13
@ Ätznatron: Hatte ich überlesen :up:

Leonidas
2024-05-09, 15:29:46
Die Baseline wird von den Werten gebildet, die Intel an die MoBo-Hersteller übermittelt hat. Die saugen die sich ja nicht aus den Fingern.
Die Werte für "Performance" und "Extreme" werden dewegen gesondert erwähnt, weil sie sich halt von der Baseline unterscheiden.

Nein. In diesem Fall hätte Intel wenigstens einmal die Baseline dokumentiert. Bislang gibt es nirgendwo jemals diese Dokumentation. Für K/KF stehen in dieser Spalte ausdrücklich *keine* Werte.

Denkbarerweise haben die Mobo-Hersteller irgendwelche Pre-Release-Specs oder Specs für non-K-Modelle verwendet. Aber eine gültige Spec für Baseline für K/KF im Release-Stadium gab es IMO nie. Es gibt jedenfalls keine Belege hierfür, nur Annahmen. Ich irre mich gern, aber ich will das bewiesen haben.



These ‘Intel Baseline Profile’ BIOS settings.

Eventuell liegt hier der Kern des Mißverständnis. Aber:
1. Intel schreibt in dritter Person über dieses Settings. Nicht "unser" Baseline, sondern "diese" Baseline-Profile. Deutlicher sprachlicher Hinweis darauf, dass dieses Konstrukt nicht von Intel selber stammt.
2. Intel will hiermit einfach nur ausdrücken: Diese Baseline-Profile, welche die Mobo-Hersteller kreiiert haben und dann als "Intel Baseline" tituliert haben. Nur deswegen übernimmt man den mißverständlichen Namen "Intel Baseline" - weil man auf diese übliche Eigenbezeichnung der Mobo-Hersteller hinweisen wil. Intel hat aber trotzdem nichts unter diesem Namen verzapft.

Hakim
2024-05-09, 16:31:15
@MiamiNice das ist halt leider nicht etwas was nur ein Handvoll Leute betrifft. Bei unserera Gruppe die oft über Discord Warzone spielt, hatte einer mit der entsprechenden CPU auch das Problem. Nach einem Update crashte es bei ihm beim starten. etwas googeln zeigte mir das es sehr sehr viele Leute betrifft. Und bei Reddit und Foren hatten einige die Lösung mit die Power-Kerne um 200 MHz zu reduzieren damit es wieder läuft.

Ätznatron
2024-05-09, 16:31:47
Nein. In diesem Fall hätte Intel wenigstens einmal die Baseline dokumentiert. Bislang gibt es nirgendwo jemals diese Dokumentation. Für K/KF stehen in dieser Spalte ausdrücklich *keine* Werte.

Denkbarerweise haben die Mobo-Hersteller irgendwelche Pre-Release-Specs oder Specs für non-K-Modelle verwendet. Aber eine gültige Spec für Baseline für K/KF im Release-Stadium gab es IMO nie. Es gibt jedenfalls keine Belege hierfür, nur Annahmen. Ich irre mich gern, aber ich will das bewiesen haben.





Eventuell liegt hier der Kern des Mißverständnis. Aber:
1. Intel schreibt in dritter Person über dieses Settings. Nicht "unser" Baseline, sondern "diese" Baseline-Profile. Deutlicher sprachlicher Hinweis darauf, dass dieses Konstrukt nicht von Intel selber stammt.
2. Intel will hiermit einfach nur ausdrücken: Diese Baseline-Profile, welche die Mobo-Hersteller kreiiert haben und dann als "Intel Baseline" tituliert haben. Nur deswegen übernimmt man den mißverständlichen Namen "Intel Baseline" - weil man auf diese übliche Eigenbezeichnung der Mobo-Hersteller hinweisen wil. Intel hat aber trotzdem nichts unter diesem Namen verzapft.


Nochmal:

...based on power delivery guidance previously provided by Intel to manufacturers...

Intel kann die Profile meinetwegen PDG-Profiles oder halt sonstwie genannt haben, die (Um-)Benennung als "Baseline"-Profile erfolgte vermutlich durch die MoBo-Hersteller selbst, die offensichtlich die Bezeichnung "Default" aus nachvollziehbaren Gründen vermeiden wollten, etwa so, wie der Teufel das Weihwasser meidet. Mit deinem 2. Punkt könntest du also durchaus richtig liegen.

Trotzdem werden die von Intel stammenden Richtlinien in den "Baseline" genannten Profilen enthalten sein, völlig unabhängig von deren Namensgebung.

Rabiata
2024-05-09, 23:24:30
Momentan ist es bei intel-Boards nur eine rechnerische Größe, die die an die CPU gelieferte lastabhängige Spannung beeinflußt:
Spannungsoffset = I * Rloadline

Traditionell sollte eine Loadline dazu dienen, den Leitungswiderstand zwischen den VRMs und der CPU kompensieren, damit diese die passende Spannung geliefert bekommt. Die CPU-Spec fordert ja frequenzabhängig eine bestimmte Spannung an (intel hat eine recht umfangreiche VRM-Spec, die auch solche Sachen Vdroop und sowas umfaßt [das überlappt mit der Loadline, niedrigere Loadline-Settings erhöhen quasi den lastabhängigen Spannungsabfall], das sollte Alles schon damit totgeschlagen sein). Dies tut es bei intel momentan aber nicht.
Eigentlich specced intel ihre CPUs für eine 1,1 mOhm Loadline. Kommt jetzt also ein Board daher und setzt das im Bios auf 0,5 mOhm (wozu intel die Boardhersteller allerdings in ihrer CPU-Spec ermutigt), "fehlen" quasi 0,6 mOhm, was sich bei 100A Strom in 60mV geringerer Spannung an der CPU im Vergleich zur Standard-Spec von 1,1 mOhm ausdrückt. Das kann also am Ende in einem recht massivem Undervolting resultieren, insbesondere bei Volllast (200A => -120mV gegenüber Standard).

Kurz: Niedrige Loadline => geringere Spannung unter Last

Danke für die Erklärung. Demnach müßte die korrekte Loadline tatsächlich vom Boarddesign abhängen, und Dinge wie die Dicke der Kupferbahnen hätten einen großen Einfluß.

Falls Gigabyte also recht sparsam mit dem Kupfer war, könnten die 1,7 mOhm sogar stimmen. Was aber bei 100A schon ordentlich Verlustwärme verursachen würde (P=R*I² => P=17W).

Exxtreme
2024-05-10, 09:16:31
Nochmal:
...based on power delivery guidance previously provided by Intel to manufacturers...


Ich glaube, da interpretierst du zu viel rein. Alleine dass diese "Intel Baseline Profile" sich so stark unterscheiden, ist ein Indikator dafür, dass es in der Richtung absolut nichts Konkretes gibt wie so ein Profil aussehen soll. Mein Eindruck ist, die MoBo-Hersteller haben sich die Intel-Dokumente angeschaut und ausgehend von diesen Dokumenten das kreiert, was sie selbst für sicher halten.

Und Intel bestätigt das auch noch, dass es kein "Baseline Profile" gibt und die MoBo-Hersteller standardmässig das einstellen sollen, was das MoBo so hergibt, ohne dass dieses überlastet wird, da das wiederum in Undervolting resultieren könnte was wiederum zu Instabilitäten führen kann. Sie empfehlen aber, dass Iccmax keine 400 A überschreiten soll und man die ganzen Schutzmechanismen eingeschaltet lassen soll.

Gipsel
2024-05-10, 10:08:14
Danke für die Erklärung. Demnach müßte die korrekte Loadline tatsächlich vom Boarddesign abhängen, und Dinge wie die Dicke der Kupferbahnen hätten einen großen Einfluß.Ja, das ist prinzipiell tatsächlich so. Ein Großteil davon sind aber Widerstand im Sockel bzw. Substrat der CPU, was man durch das Boarddesign nicht verbessern kann. Wenn man also kein absolutes Schrottboard kauft, sind die von intel als Maximum angegebenen 1,1mOhm (was eigentlich bedeuten sollte, daß niemand ein Board verkaufen dürfte, was einen höhere Loadline-Wert benötigt) vermutlich ein ganz guter Richtwert, was man auch mit dem besten Board nur ein wenig unterschreiten kann. Die Werte von Asus und MSI für ihre besseren Boards liegen wohl bei irgendwo zwischen 0,9 und 1,0 mOhm. Die anderen Hersteller sollten da auch liegen.

Ein wesentliches Problem bisher waren offenbar auch unterschiedlich gesetzte (Fantasie-) Werte zwischen AC- und DC-Loadline. Die DC-Loadline hat wohl meist einen realistischen Wert per Default gehabt (weswegen die Verbrauchsüberwachung realistische Werte liefert, mit einem falschen Wert dort, meldet die CPU falsche Verbrauchswerte, weil der Wert zur Berechnung herangezogen wird). Ein demgegenüber abgesenkter AC-Loadline-Wert führt dagegen zu einem Undervolting, wie beschrieben (und die Differenz war bei den bekannten Herstellern oft im Bereich um 0,5mOhm, was bei 200A eben zu ~100mV Undervolting führt).
Jetzt hat intel ausdrücklich klar gemacht, daß für die AC- und DC-Loadline identische Werte benutzt werden müssen, die den Eigenschaften des Boards entsprechen (die mit einem speziellen Testtool von intel gemessen wurden, was den Boardherstellern zur Verfügung steht). Dies sollte dem Wildwuchs mit den Loadlines entgegenwirken. Es verringert aber vermutlich die Benchmarkwerte bei voller Allcore-Last etwas, wenn man in den 253W dann etwas niedriger takten muß (kein Undervolting out-of-the-box mehr). Mit dem "Performance"-Profil (125/253W) könnten dann auch Spiele anfangen etwas zu leiden (natürlich sehr stark vom Spiel und der Last abhängig).
Falls Gigabyte also recht sparsam mit dem Kupfer war, könnten die 1,7 mOhm sogar stimmen.Die 1,7mOhm von Gigabyte waren einfach Schrott. Das gilt als Maximum für Mobil-CPUs (wo man ja wegen der engeren Verhältnisse mit weniger/kleineren VRMs und auch weniger Platz für die Leitungen auskommen muss).

===========================

Mal sehen, was noch passiert, aber intel hat sich ganz offenbar für die minimalinvasive Variante entschieden. Weiterhin nur Vorgaben, aber klarer kommunizierte Richtlinien (wie die Loadlines zu setzen sind, um Undervolting per Default zu vermeiden; 400A absolutes Stromlimit; diverse Schutzfunktionen müssen aktiviert sein), die vermutlich 99% der Instabilitäten abhelfen und vermutlich auch der zu schnellen vorzeitigen Alterung vorbeugen (das Temperaturlimit bei TVB auszuknipsen, ist aus Lebensdauersicht keine gute Idee, weil maximale Ströme mit maximalen Temperaturen und hohen Spannungen kombiniert wurden).

Ätznatron
2024-05-10, 10:33:17
Ich glaube, da interpretierst du zu viel rein. Alleine dass diese "Intel Baseline Profile" sich so stark unterscheiden, ist ein Indikator dafür, dass es in der Richtung absolut nichts Konkretes gibt wie so ein Profil aussehen soll. Mein Eindruck ist, die MoBo-Hersteller haben sich die Intel-Dokumente angeschaut und ausgehend von diesen Dokumenten das kreiert, was sie selbst für sicher halten.

Und Intel bestätigt das auch noch, dass es kein "Baseline Profile" gibt und die MoBo-Hersteller standardmässig das einstellen sollen, was das MoBo so hergibt, ohne dass dieses überlastet wird, da das wiederum in Undervolting resultieren könnte was wiederum zu Instabilitäten führen kann. Sie empfehlen aber, dass Iccmax keine 400 A überschreiten soll und man die ganzen Schutzmechanismen eingeschaltet lassen soll.

Ich sehe es umgekehrt: Intel liefert die Daten, sagt dazu:" Ihr lieben Mobo-Hersteller könnt diese Werte in eure Software einpflegen, falls eure Boards mehr erlauben, ist es euch freigestellt, auch andere Profile zu verwenden, die darüber hinausgehen."

Intel bestätigt lediglich, dass sie selbst nichts herausgegeben haben namens "Baselineprofile" (sondern lediglich eine technische Anleitung dazu), und daraus resultieren die von Mobo-Herstellern "Baseline" genannten Profile.

Dementsprechend könnte Gigabyte also vorsorglich eine supersafe baseline mit den 188W veröffentlicht haben, möglicherweise, weil nicht alle Gigabyte-Boards höhere Werte gestatten.

DozerDave
2024-05-10, 10:47:03
Aber geben AMD/ Intel nicht vor was die Mindestanforderungen für ein Mainboard sind?
Demnach ist ein 188w-Profil unnötig.
Entweder das Mainboard erfüllt die Mindestanforderungen für die CPU oder nicht. Wenn dann auf diesem Board eine CPU nicht mit dem Baseleine Profil arbeitet, ist wohl die CPU defekt oder als CPU mit höheren Specs verkauft worden, die diese nicht erfüllt.

Intel sollte mal spezifizieren, was eine CPU erfüllen muss um als stabil verkauft zu werden. Wenn das klar ist und beim Nutzer nicht erfüllt wird, ist die Sache doch ganz klar.

Ätznatron
2024-05-10, 10:53:32
Aber geben AMD/ Intel nicht vor was die Mindestanforderungen für ein Mainboard sind?
Demnach ist ein 188w-Profil unnötig.
Entweder das Mainboard erfüllt die Mindestanforderungen für die CPU oder nicht. Wenn dann auf diesem Board eine CPU nicht mit dem Baseleine Profil arbeitet, ist wohl die CPU defekt oder als CPU mit höheren Specs verkauft worden, die diese nicht erfüllt.

Intel sollte mal spezifizieren, was eine CPU erfüllen muss um als stabil verkauft zu werden. Wenn das klar ist und beim Nutzer nicht erfüllt wird, ist die Sache doch ganz klar.

Wenn mit 188 W trotzdem die betreffende CPU-Spezifikation erfüllt werden kann (Boost bspw.), sehe ich da kein Problem.

Ansonsten sollte das Board halt für den entsprechenden Prozessor nicht freigegeben werden dürfen. Das ist wohl wahr.

Loomes
2024-05-10, 10:56:25
Die Werte von Asus und MSI für ihre besseren Boards liegen wohl bei irgendwo zwischen 0,9 und 1,0 mOhm. Die anderen Hersteller sollten da auch liegen.


Wobei DC_LL ja auch abhängig ist von der VRM LL. Und dort macht ja auch jeder Hersteller was er will und deklariert keine Intel Default Loadline. Auf meinem Asrock gibts 1 (Flat) bis 5.
Default ist 4 mit DC_LL 1.1 / AC_LL 0.4
Ob das nun die VRM Loadline ist die Intel auch empfiehlt? Keine Ahnung. Villeicht ja auch 3?!
Auf jedenfall ist auch das schon undervolting. Läuft mit meinem kleinen 14700K aber stabil.

Exxtreme
2024-05-10, 10:58:24
Intel sollte mal spezifizieren, was eine CPU erfüllen muss um als stabil verkauft zu werden. Wenn das klar ist und beim Nutzer nicht erfüllt wird, ist die Sache doch ganz klar.

Was eine CPU erfüllen muss um als stabil verkauft zu werden, das weiss Intel sehr wohl. Intel testet jede CPU ja vorher welche maximalen Frequenzen sie schafft. Und je nachdem wie sie die Tests besteht, wird entschieden ob das ein KS- oder K- oder Nicht-K oder T- etc. wird. Diesen Auswahlprozess nennt man auch "binning".

dildo4u
2024-05-10, 11:03:13
Mir fällt gerade ein kann es sein das Shader Compiling Instabilität aufdeckt?
Die könnten schon immer da gewesen sein gibt aber bestimmt Tonnen Leute die ihre Gameing Systeme nie auf Stabilität testen.
Fortnite ist da brutal auf meinem 2600x dauert das so lange das die Lobby vor dem Bus komplett übersprungen wird und ich erst im Bus Kontrolle habe.


Habe gerade den neuen NV Treiber installiert hier mal das laden mit 100% Last 100 Watt nicht schlecht.(Cinebench schafft 110)

sp8lhy3_nZI

Gipsel
2024-05-10, 11:14:14
Wobei DC_LL ja auch abhängig ist von der VRM LL. Und dort macht ja auch jeder Hersteller was er will und deklariert keine Intel Default Loadline. Auf meinem Asrock gibts 1 (Flat) bis 5.
Default ist 4 mit DC_LL 1.1 / AC_LL 0.4
Ob das nun die VRM Loadline ist die Intel auch empfiehlt? Keine Ahnung. Villeicht ja auch 3?!
Auf jedenfall ist auch das schon undervolting. Läuft mit meinem kleinen 14700K aber stabil.Was Du beschreibst, ist genau das Problem. AC_LL und DC_LL müssen laut intel in jedem Fall identische Werte aufweisen. Die meisten Hersteller setzen die DC_LL auf einen realistischen Wert (das beeinflußt, was die CPU "glaubt" zu bekommen) und untervolten lastabhängig mit einer verminderten AC_LL (diese beeinflußt die tatsächlich an der CPU anliegende Spannung). Gibt es hier einen Mißmatch, wird vom BIOS meist auch CEP deaktiviert (weil das sonst die Notbremse zieht und die Performance oft recht deutlich einbrechen würde, vermutlich weil der Unterschied zwischen der erwarteten Spannung [DC-LL] und der realen [AC-LL] als Spannungsabfall durch einen zu hoher Stromfluß interpretiert wird).
Wenn bei Deinem Board die Default DC-Loadline 1,1 mOhm ist (vom Hersteller mit dem entsprechendem Testtool von intel gemessen), muß die AC-Loadline auf einen identischen Wert gesetzt werden, um einen spezifikationsgerechten Betrieb zu garantieren. Der Unterschied bei Dir (0,7mOhm) ist schon ziemlich extrem. Da würde es mich auch nicht wundern, wenn nicht alle CPUs damit klarkommen. Daß Dein 14700K das erstmal mitzumachen scheint, ist ja schön. Aber das ist vermutlich nicht bei jeder CPU so (insbesondere bei denen, die mehr Strom ziehen, denn das Undervolting skaliert mit der Stromaufnahme). Deswegen ist das als Default-Setting irgendwie nicht so toll. Das sollte der Spec entsprechen und Undervolting sollte der Nutzer aktivieren müssen (wobei per Offset oder V/F curve vermutlich zuverlässiger ist und auch nicht erfordert, den CEP-Schutzmechanismus zu deaktivieren).

DozerDave
2024-05-10, 11:42:54
Was eine CPU erfüllen muss um als stabil verkauft zu werden, das weiss Intel sehr wohl. Intel testet jede CPU ja vorher welche maximalen Frequenzen sie schafft. Und je nachdem wie sie die Tests besteht, wird entschieden ob das ein KS- oder K- oder Nicht-K oder T- etc. wird. Diesen Auswahlprozess nennt man auch "binning".

Höre ich zum ersten Mal.^^
Was fehlt sind ja die genauen Spezifikationen.

Loomes
2024-05-10, 11:47:23
(vom Hersteller mit dem entsprechendem Testtool von intel gemessen)

Ja du hast mit allem Recht. Aber ist es gemessen vom Hersteller? Das weiss doch keiner, villeicht hat Asrock einfach 1.1 eingestellt und fertig. Weil wie gesagt wenn ich im Bios die normale Loadline Einstellung verändere, mehr flach oder eher steil MUSS ansich auch der DC_LL Wert daran angepasst werden. Ist bei meinem Asrock nicht der Fall.

Exxtreme
2024-05-10, 11:51:05
Höre ich zum ersten Mal.^^
Was fehlt sind ja die genauen Spezifikationen.

Chip Binning ist normal:
https://www.techspot.com/article/2039-chip-binning/

Und die Spezifikationen kann man z.B. hier nachlesen:
https://www.intel.de/content/www/de/de/products/sku/236773/intel-core-i9-processor-14900k-36m-cache-up-to-6-00-ghz/specifications.html

Gipsel
2024-05-10, 11:54:45
Ja du hast mit allem Recht. Aber ist es gemessen vom Hersteller? Das weiss doch keiner, villeicht hat Asrock einfach 1.1 eingestellt und fertig.Bei anderen Herstellern steht da je nach Board auch mal 0,9 oder 1,0 mOhm. Und intel sagt ausdrücklich, daß da ein der Realität entsprechender Wert (also bevorzugt der gemessene) eingetragen werden soll.
Weil wie gesagt wenn ich im Bios die normale Loadline Einstellung verändere, mehr flach oder eher steil MUSS ansich auch der DC_LL Wert daran angepasst werden. Ist bei meinem Asrock nicht der Fall.Und genau deswegen haben wir bzw. intel das aktuelle Problem.
Die LL-Einstellung sollte vom Normalnutzer eigentlich gar nicht beeinflußbar sein (maximal für irgendwelche Extrem-Overclocker) und die AC- und DC-LL sollten immer identisch und auf den realen Wert gestellt sein. Es wird eben für lastabhängiges Undervolting mißbraucht (was anderweitig eigentlich viel besser geht), weil intel die Specs dazu bisher nicht sehr festgezurrt hatte.
Die Loadline-Calibration soll eigentlich sicherstellen, daß das Board macht, was die CPU anfordert. Das muß auf dem echten Wert stehen (AC und DC), weil sonst andere Sachen in der CPU schieflaufen (wie CEP).

Gipsel
2024-05-10, 12:48:26
Und die Spezifikationen kann man z.B. hier nachlesen:
https://www.intel.de/content/www/de/de/products/sku/236773/intel-core-i9-processor-14900k-36m-cache-up-to-6-00-ghz/specifications.htmlNur sind das keine Spezifikationen mit den erforderlichen Details und wenn man sich die offiziellen Specs von intel herunterlädt, ist Vieles davon eben auch nur als Empfehlung gelabelt.

Edit:
Seit gestern gibt es eine neue Version (https://edc.intel.com/content/www/us/en/design/products/platforms/details/raptor-lake-s/13th-generation-core-processors-datasheet-volume-1-of-2/002/010/revision-history/) (die aber an den Power/Electrical Specs und Empfehlungen laut Changelog nichts ändert).

Exxtreme
2024-05-10, 12:56:04
Nur sind das keine Spezifikationen mit den erforderlichen Details und das meiste davon eben auch als Empfehlung gelabelt.

Ja, das ist korrekt. Aber da scheint es sowieso keine harte Spezifikation zu geben. Es gibt diese relativ vage Mindestspezifikation und alles andere ist nach oben offen so weit es das Silizium oder die Stromversorgung des Motherboards hergeben. Die CPUs sind mit vielen Sensoren und Schutzschaltungen versehen und diese riegeln dann ab wenn es zuviel werden sollte. Sprich, die echte Spezifikation ist mehr oder weniger individuell pro Chip.

Gipsel
2024-05-10, 13:15:53
Ja, das ist korrekt. Aber da scheint es sowieso keine harte Spezifikation zu geben. Es gibt diese relativ vage Mindestspezifikation und alles andere ist nach oben offen so weit es das Silizium oder die Stromversorgung des Motherboards hergeben. Die CPUs sind mit vielen Sensoren und Schutzschaltungen versehen und diese riegeln dann ab wenn es zuviel werden sollte. Sprich, die echte Spezifikation ist mehr oder weniger individuell pro Chip.Schon klar, daß jede CPU z.B. ihre eigene VID-Tabelle mitbringt und sowas.
Aber die Standardkonfiguration vieler Mainboards sah bisher eben so aus, daß lastabhängig untervoltet wurde (AC-LL kleiner als DC-LL), die "Current Excursion Protection" (CEP) aus war, weil CEP die zu niedrige Spannung als übermäßige Stromaufnahme wertet und die CPU sonst ausbremsen würde, TVB ausgeschaltet wurde (was nicht dazu führt, daß man die TVB-Takte nicht mehr erreicht, sondern daß man die auch oberhalb der eigentlich sonst existierenden für TVB festgelegten Maximaltemperatur, sie werden also zu normalen Frequenzschritten) und das "unlimited current" Bit gesetzt wurde (die Strombegrenzungen werden damit ignoriert).
Und das ist eben im Zweifelsfall nicht stabil (und schädigt im Extremfall die CPU, wenn extrem hohe Ströme bei 100°C durch einen Kern auf 6,0 oder 6,2GHz gejagt werden), weil die CPUs außerhalb ihrer Specs betrieben werden. Allerdings hatte intel die Mainboardhersteller bis vor Kurzem noch dazu ermutigt, so vorzugehen (und die Mainboardhersteller müssen für diese Maßnahme nicht das OC-Bit setzen [was nur für K SKUs geht, um die Multiplier-Table bzw. die V/F-Curve zu manipulieren]).
Intel sagt jetzt aber, im BIOS-Default (Intel Default) sind 400A absolutes Maximum, CEP muß an sein, genau wie TVB, und die DC-LL und AC-LL müssen beide identisch sein und der Realität entsprechen.
Die PL1/PL2-Werte sind immer noch nur Empfehlungen ohne Maximum, allerdings aus meiner Sicht auch nicht so kritisch.

HOT
2024-05-10, 14:18:20
Builldzoid hat sich genau zu dem Thema über das Problem ausgelassen..
https://youtu.be/k6pUZs_tuJo

Das kann ja auch nicht Sinn der Sache sein einfach alles abzuschalten, was stört und damit tatsächlich eine Verkürzung der Lebensdauer zu forcieren...

Skysnake
2024-05-10, 17:02:19
Die PL1/PL2-Werte sind immer noch nur Empfehlungen ohne Maximum, allerdings aus meiner Sicht auch nicht so kritisch.
Das würde ich nicht so ohne Bedenken unterschreiben. Bei Workstation und Server CPUs sehr ich da schon Gefahrenpozenzial.

Vielleicht schaut sich das ja auch mal einer etwas genauer an. Würde mich nicht wundern wenn man da auch bedenkliches findet.

Gipsel
2024-05-10, 17:19:23
Das würde ich nicht so ohne Bedenken unterschreiben. Bei Workstation und Server CPUs sehr ich da schon Gefahrenpozenzial.Nun, das war zum einen eine relative Angabe zu dem Rest (Loadlines, Schutzfunktionen deaktivieren), die ich kritischer als die Powerlimits sehe (und implizit ergeben die anderen Limits ja auch eine Art Powerlimit) und auf die Desktop-CPUs bezogen. Natürlich will man, daß auch Desktop-CPUs stabil laufen. Aber die Anforderungen bei Workstation- und Server-CPUs stehen dann doch nochmal auf einem etwas anderen Level.

aufkrawall
2024-05-10, 18:09:25
Wieso das denn? Da hat einfach nichts nie weder zu crashen, gar noch zu degraden. Völlig egal ob Desktop oder Workstation.
CPU Settings stabil und sicher hinzubekommen, ist nun auch wirklich keine Raketenwissenschaft.

Skysnake
2024-05-10, 19:09:30
Echt?

Wieviel Handson Erfahrung hast du denn damit? Ich habe das zwar noch nicht für ganze CPUs gemacht aber einzelne Buildingblocks. Und ganz im Ernst ich habe gehörigen Respekt vor so einer Aufgabe und will mit niemandem tauschen der das zu verantworten hat.

aufkrawall
2024-05-10, 19:35:10
Muss ich jetzt ernsthaft ausführen, dass es um den Betrieb der CPU als Anwender ging, und nicht irgendwelche komischen Labor-Tests, wie sie Intel für die Betriebspunktermittlung durchführt? Von Intel gibts die Takt-/Spannungskurve pro Kern und fertig, kleinteiliger muss man nun wirklich nicht diskutieren.

Und ist nun wirklich egal, ob man Spiele oder "Workstation-Tasks" ausführt. Bzw. was soll Letzteres überhaupt sein? Wenn ich unter Arch ständig diverse Sachen kompilieren, ist das dann automatisch eine "Workstation"? Es hat gefälligst jeder Workload 100% zuverlässig zu funktionieren. Siehe auch die sich dadurch äußernde Problematik, wenn Spiele Shader kompilieren lassen.

Was btw. schon längst aufgefallen wäre, hätte man Compile-Tests unter Linux mit größeren Projekten wie dem Kernel mit jeweils GCC und Clang gemacht. Bin ich mir ziemlich sicher. Spiele können stundenlang laufen, diverse Stresstests ggf. auch, Kompilieren unter Linux kackt aber ggf. schon nach 1min ab. Selbst schon gesehen.

Exxtreme
2024-05-10, 20:04:34
Echt?

Wieviel Handson Erfahrung hast du denn damit? Ich habe das zwar noch nicht für ganze CPUs gemacht aber einzelne Buildingblocks. Und ganz im Ernst ich habe gehörigen Respekt vor so einer Aufgabe und will mit niemandem tauschen der das zu verantworten hat.

Intel hat da durchaus viele Vorgaben gemacht. Nur haben sich die MoBo-Hersteller irgendwannmal nicht mehr dran gehalten. Schau mal hier:
https://edc.intel.com/content/www/us/en/design/products/platforms/details/raptor-lake-s/13th-generation-core-processors-datasheet-volume-1-of-2/002/010/002/vcccore-dc-specifications/

Das ist die allererste Version der Spezifikation der Raptor Lake CPUs vom Oktober 2022. Da steht z.B. ganz klar drin, dass Loadline AC exakt gleich sein muss wie Loadline DC. Das haben sie in dem aktuell veröffentlichten Dokument ja nochmal explizit hingeschrieben. Weil das wohl mit ein Grund ist warum die CPUs instabil wurden weil sie zu wenig Spannung bekamen.

Sprich, die MoBo-Hersteller hätten sich einfach nur dran halten sollen. Und das ist keine Raketenwissenschaft. Denn die Arbeit hat Intel bereits übernommen.

DozerDave
2024-05-10, 20:30:07
Und wann ist dann eine CPU gemäß Hersteller-Spezifikation defekt?
Intel kann sich ja nicht immer rausreden mit „… aber der Mobo Hersteller hat …“.

aufkrawall
2024-05-10, 20:50:00
Würde annehmen, dass mindestens ein Kern den angegebenen maximalen Turbo-Takt sowohl erreichen als auch dabei stabil sein muss. Etwa CoreCycler muss also imho auf jeden Fall stabil längere Zeit durchlaufen.
Bei MT-Tasks hat man dann ggf. aber nur noch "Anspruch" auf den Baseclock? :freak:

Skysnake
2024-05-10, 21:02:21
@aufkrawall das macht nen riesen Unterschied. Bei Consumerware geht man von einer niedrigeren Nurzungsdauer aus als bei Workstation oder Server. Bei Workstation geht man von mindestens 5x8h aus für so 5-8 Jahre Nutzung. Eher aber wahrscheinlich sogar 24x7x365 für 5-8 Jahre. Und das ist nen riesen Unterschied vor allem wenn man Dauerlast erwartet.

100% stabil gibt wa nicht. Selbst bei Server CPUs gehe ich von min 0.1% Defektrate aus kurz nach Auslieferung. Speicher noch mehr. Aber dafür musst du das Zeug halt auch rannehmen und nicht nur rumideln lassen...

Meiner Meinung nach hat Intel sich schon länger verzockt um gegen AMD besser dazustehen.

Es gibt schon seit Jahren schwerwiegende Probleme die man nur schwer in den Griff bekommt. Das its mir in der Form mit AMD die letzten 2-3 Gens so nicht untergekommen.

Aber da einen Schuldigen zu benennen empfinde ich als schwierig. Es haben halt immer mehrere ihre Finger mit im Spiel.

Grundsätzlich würde ich aber als erstes auf den CPU Hersteller zeigen.

Gipsel
2024-05-10, 23:39:23
Das ist die allererste Version der Spezifikation der Raptor Lake CPUs vom Oktober 2022. Da steht z.B. ganz klar drin, dass Loadline AC exakt gleich sein muss wie Loadline DC.Nein, steht da nicht. Da steht das Maximum der AC-Loadline (die die anliegende Spannung kontrolliert) der DC-Loadline (welche die CPU benutzt, um ihren Stromverbrauch zu berechnen) entspricht. Und aus den Fußnoten habe ich doch mal schon zitiert. Die impliziert so ein wenig, daß man die AC-Loadline (nur für die wird das erwähnt) tiefer setzen kann, falls man seine VRMs für gut hält ("A superior board design with a shallower AC Load Line can improve on power, performance and thermals..."). Und der Satz stimmt so nur, wenn man zu niedrige AC-LL-Werte zum Undervolting nutzt.
Wenn man die LLC korrekt setzt (so wie intel das in dem Standalone-Dokument zu dem Thema empfiehlt [aber nicht in der eigentlichen Spec!]), ist die Performance der CPU ziemlich unbeeinflußt vom konkreten passenden LLC-Wert (der sagt ja eigentlich nur aus, wieviel außerhalb der CPU verbraten wird und entsprechend kompensiert werden muß). Power und Thermals (für das Gesamtsystem, also außerhalb der CPU!) kann man sagen, daß da ein besseres Boarddesign hilft. Aber bei der Performance hilft es eben nicht. Das ginge eben nur, wenn man die AC-LL unter die DC-LL setzt, weil nämlich sonst die an der CPU anliegende Spannung auch bei verschiedenen Boards (mit unterschiedlicher, aber jeweils korrekter LLC) identisch ist.
Im Prinzip sind die AC/DC-LL-Werte nach intel-Beschreibung grob mißverständlich benannt und es hätte von Anfang an eigentlich nur einen Wert (den richtigen mit dem entsprechenden intel-Tool gemessenen) geben müssen.
Das haben sie in dem aktuell veröffentlichten Dokument ja nochmal explizit hingeschrieben. Weil das wohl mit ein Grund ist warum die CPUs instabil wurden weil sie zu wenig Spannung bekamen.Da steht (auch anders als in der aktuellen Version der von Dir verlinkten Spec [erst gestern veröffentlicht]!) mit etwas anderem Wording, daß die Werte identisch sein müssen.
Und ja, ich halte auch die Loadlines als den Hauptgrund für Instabilitäten von neuen CPUs (ohne potentielle Degradation). Habe ich von Anfang an hier im Thread gesagt.

aufkrawall
2024-05-11, 02:55:24
100% stabil gibt wa nicht. Selbst bei Server CPUs gehe ich von min 0.1% Defektrate aus kurz nach Auslieferung.
Das ist aber ein anderer Fall und eine andere Größenordnung.
Ist hier aber auch schwer auseinanderzuhalten, was tatsächliche vorzeitige Alterungserscheinungen sind und was nur schon immer instabile Bios-Defaults gewesen sind. Die laxen Default-Vorgaben + schlechte Kühlbarkeit bei hoher MT-Last machen es auch nicht eindeutiger. Können auch multiple Probleme sein, die jetzt scheinbar als dasselbe Problem erscheinen. Das Gejammer mit den Crashes bei Unreal ist ja schon etwas älter, und es gab afair auch irgendeinen Test, bei dem neue Hardware direkt bei irgendwelchen Workloads durchfiel.

Wohl dem, der sein System selbst gescheit einstellen kann. Wozu auch gehört, die Temperaturen nicht ständig durch die Decke knallen zu lassen, sodass manche Workloads notdrosseln müssen. :freak:
Ist für den Average Joe ohne viel Erfahrung natürlich gar nicht so einfach, will ich gar nicht bestreiten.

Skysnake
2024-05-11, 05:43:12
Naja, aber diese Definition wann etwas kaputt ist ist ganz ganz schwer zu treffen. Und ich meinte vorher wirklich fabrikneue Hardware.

Wobei auch ein BIOS Update kann dich killen. Ich weiß noch das ich vor paar Jahren den Fall hatte das Knoten reproduzierbar abgeschmiert sind wenn das Neueste BIOS drauf war und eine bestimme simulation mit einem bestimmten Inputfile lief. Das hat sich sogar so derbe abgeschossen das nur noch stromlos machen das Ding wiederbelebt hat....

Da wurde auch nach Monaten der Fehler vom CPU Hersteller nicht gefunden.

Was ich sagen will, das worüber ihr euch hier auskotzt ist gar nicht so selten wie man meint. Nur haben Consumer meist nicht so fördernde Anwendungen. Und selbst wenn es mal Probleme gibt, wird der Rechner halt restarted und gut ist.

Im Serverumfeld hast du ganz ganz ganz viele Systeme die eigentlich nichts machen und du daher auch eher weniger Probleme siehst.

Naja und dann haben wir noch das HPC Umfeld in dem die Kisten maximal getreten werden. Und da siehst du dann inzwischen regelmäßig Probleme.

Das Zeug ist einfach zu hochgezüchtet und zu sehr auf Kante genäht. Insbesondere bei Intel.

Ah und noch was bezüglich Temps.
Wenn eine CPU Gas gibt, dann ist quasi egal wie deine Kühlung aussieht. Die Fackeln sich selbst ab... die Zeitskalen sind da einfach in us Bereich. Da bist du von deiner Umgebung schlicht thermisch entkoppelt.

Das Gleiche was man auch bei fs Lasern zum gravieren nutzt. Da wird so viel Energie in so kurzer Zeit reingefallen, das man auch den Streichholzkopf gravieren kann ohne das er Feuer fängt. Und wir reden da ja davon das man das Zeug verdampft. Die Leistungsdichte ist aber eben so gigantisch das es tut obwohl man nur wenig Gesamtenergie dem System zuführt.

Im Prinzip haben CPUs und auch GPUs das gleiche Problem. Wenn sie voll aufreißen dann kannst du das nie im Leben Kühlen.

Mit den kleineren Strukturen sehe ich Volllast auf allen Cores auch gar nicht so schlimm an. Schlimm wird es bei Volllast auf einem Teil der Cores. Denn damit steigt die Leistungsdochte noch weiter an. Intel gibt z.b. Das sie bei 50% load die volle Leistungsaufnahme haben....

Bezüglich Temps ist das noch schlimmer als auf allen Cores.

Ätznatron
2024-05-11, 08:47:14
Wenn's also in der Sache hart auf hart kommen sollte, bin ich als Kunde eventuell gezwungen, nach einem nach 12 Monaten auftretenden Schadensfall auf das Wohlwollen Intels angewiesen zu sein (Beweislastumkehr).

Denn wenn man sich so die Intel CPU Garantiebedingunge (https://www.intel.de/content/www/de/de/support/articles/000005494/processors.html)n anschaut, kann man wohl eher auf wenig Kulanz hoffen:

Art und Dauer Intel Prozessor Garantie

Intel Boxed Prozessoren haben in der Regel eine dreijährige beschränkte Garantie, die von Intel erfüllt werden kann (einige haben eine einjährige beschränkte Garantie). Der Garantieanspruch beginnt am Tag des Originalkaufs und wird nicht zurückgesetzt, falls Intel ein Ersatzprodukt liefert. Siehe Garantierichtlinie für Intel Boxed- und Tray-Prozessoren.

Exxtreme
2024-05-11, 11:13:33
Wenn's also in der Sache hart auf hart kommen sollte, bin ich als Kunde eventuell gezwungen, nach einem nach 12 Monaten auftretenden Schadensfall auf das Wohlwollen Intels angewiesen zu sein (Beweislastumkehr).



Theoretisch ja. Aber in dem Falle ist Intel offenbar sehr kulant. Ich habe noch nicht von Fällen gehört, dass die irgendwie Stress gemacht hätten deswegen. Man braucht nur einen Kaufbeleg und es reicht, wenn man denen sagt, dass die CPU monatelang stabil lief und jetzt plötzlich Abstürze provoziert.

][immy
2024-05-11, 11:17:49
Wenn's also in der Sache hart auf hart kommen sollte, bin ich als Kunde eventuell gezwungen, nach einem nach 12 Monaten auftretenden Schadensfall auf das Wohlwollen Intels angewiesen zu sein (Beweislastumkehr).

Denn wenn man sich so die Intel CPU Garantiebedingunge (https://www.intel.de/content/www/de/de/support/articles/000005494/processors.html)n anschaut, kann man wohl eher auf wenig Kulanz hoffen:
Der Passus dürfte aber zumindest in Deutschland innerhalb der 2 Jahre Gewährleistung ungültig sein. Alles was darüber hinaus geht, hat Intel natürlich freie Hand zu bestimmen wie die Garantie Bedingungen aussehen. Tauscht Intel aber innerhalb der ersten 2 Jahre den Chip aus, müsste auf das Teil eigentlich erneut die Garantiezeit beginnen.

Ätznatron
2024-05-11, 11:23:25
Theoretisch ja. Aber in dem Falle ist Intel offenbar sehr kulant. Ich habe noch nicht von Fällen gehört, dass die irgendwie Stress gemacht hätten deswegen. Man braucht nur einen Kaufbeleg und es reicht, wenn man denen sagt, dass die CPU monatelang stabil lief und jetzt plötzlich Abstürze provoziert.

Trotzdem ist man Bittsteller.

[immy;13539736']Der Passus dürfte aber zumindest in Deutschland innerhalb der 2 Jahre Gewährleistung ungültig sein. Alles was darüber hinaus geht, hat Intel natürlich freie Hand zu bestimmen wie die Garantie Bedingungen aussehen. Tauscht Intel aber innerhalb der ersten 2 Jahre den Chip aus, müsste auf das Teil eigentlich erneut die Garantiezeit beginnen.

Nach 12 Monaten gilt in D die Beweislastumkehr. Deswegen habe ich die zusätzlich erwähnt.

Und dann beweis mal, dass der Fehler von Anfang an vorgelegen hat.

Lehdro
2024-05-12, 13:09:30
[immy;13539736'] Tauscht Intel aber innerhalb der ersten 2 Jahre den Chip aus, müsste auf das Teil eigentlich erneut die Garantiezeit beginnen.
Korrektur: Tauscht Intel die CPU im Rahmen der Gewährleistung aus, so beginnt diese von Neuem. Nutzt Intel die Garantie dafür, oder z.B. Kulanz, können sie dann machen was sie wollen (natürlich im Rahmen des Kaufvertrages, wo diese Garantiebegingungen festgehalten wurden), da diese Leistungen freiwillig sind.

Zossel
2024-05-13, 09:32:56
Was btw. schon längst aufgefallen wäre, hätte man Compile-Tests unter Linux mit größeren Projekten wie dem Kernel mit jeweils GCC und Clang gemacht. Bin ich mir ziemlich sicher. Spiele können stundenlang laufen, diverse Stresstests ggf. auch, Kompilieren unter Linux kackt aber ggf. schon nach 1min ab. Selbst schon gesehen.

Uraltes Thema was schon im letzten Jahrtausend bekannt war:

https://www.bitwizard.nl/sig11/
https://www.linuxdoc.org/FAQ/sig11/text/GCC-SIG11-FAQ

Zossel
2024-05-13, 09:54:09
Naja, aber diese Definition wann etwas kaputt ist ist ganz ganz schwer zu treffen. Und ich meinte vorher wirklich fabrikneue Hardware.

Wobei auch ein BIOS Update kann dich killen. Ich weiß noch das ich vor paar Jahren den Fall hatte das Knoten reproduzierbar abgeschmiert sind wenn das Neueste BIOS drauf war und eine bestimme simulation mit einem bestimmten Inputfile lief. Das hat sich sogar so derbe abgeschossen das nur noch stromlos machen das Ding wiederbelebt hat....

Da wurde auch nach Monaten der Fehler vom CPU Hersteller nicht gefunden.

Solche Fälle gibt es immer mal wieder, endet meistens in nervigen Diskussionen mir dem Hersteller.

maximus_hertus
2024-05-13, 12:30:43
Korrektur: Tauscht Intel die CPU im Rahmen der Gewährleistung aus, so beginnt diese von Neuem. Nutzt Intel die Garantie dafür, oder z.B. Kulanz, können sie dann machen was sie wollen (natürlich im Rahmen des Kaufvertrages, wo diese Garantiebegingungen festgehalten wurden), da diese Leistungen freiwillig sind.

Ich bin mir ziemlich sicher das du nciht ganz richtig liegst.


Gewährleistung: die gibt es zwischen den Vertragspartnern, in der Regel zwischen dem Händler (Mindfactory, Alternate, ...) und dem Endkunden.
Hier gibt es die gesetzlich verpflichtende Gewährleistung, deren Beweislast nach 12 Monaten auf den Endkunden übergeht.

Die Herstellergarantie ist eine freiwillige Sache des Herstellers. Er ist gesetzlich nicht dazu verpflichtet. Entsprechend gibt es hier auch mehr Freiheiten bei der Ausgestaltung der Garantie. Die Gewährleistung bleibt davon jedoch komplett unberührt und wird durch die freiwillige Herstellergarantie nicht "ersetzt" (im Sinne dessen, dass der Endkunde einen Nachteil durch die freiwillige Herstellergarantie hätte, das ist nicht der Fall).


Wenn also nach z.B. 13 Monaten ein i9-k nicht mehr richtig will und Intel über die freiwillige Herstellergarantie eine Rep. / Umtausch verneint, bleibt der Gang über den Händler und der Gewährleistung. Jedoch ist hier die Beweislast schon beim Kunden mit dem entsprechend mühsamen Weg, sein "Recht" einzufordern.

aufkrawall
2024-05-13, 17:21:23
Uraltes Thema was schon im letzten Jahrtausend bekannt war:

Weiß in der Windows-Welt kein Schwein.

DozerDave
2024-05-13, 18:42:50
Weiß in der Windows-Welt kein Schwein.

Tja wenn es doch nur Linux-Benchmarks gäbe. Dann sind Benchmark und Stabilitätstest ein Test.

aufkrawall
2024-05-13, 19:33:05
Windows ist oft etwas weniger empfindlich, aber größere Kompilieraufgaben wären natürlich auch unter Windows ein sinnvoller Test. Ist halt nur für normale Anwender ziemlich nervig und zeitfressend einzurichten, während man mit seinem fertig eingerichteten Arch halt alle möglichen Projekte oft mit einem einzelnen Befehl mal eben kompilieren kann.

Wuge
2024-05-14, 09:13:52
Hab auch festgestellt, wenn ich Geekbench 6 als Stabitest missbrauche, haut es WHEAs zuerst bei Clang raus. Wie könnte man den Kompiliertest isoliert laufen lassen? Oder was vergleichbares?

DozerDave
2024-05-14, 09:56:53
War es nicht Spiele die abgestürzt sind und damit auf die Instabilität aufmerksam gemacht haben?
Keine Ahnung ob eine timedemo oder der integrierte Benchmark dieses Verhalten bei einer instabilen Konfiguration auch auslösen kann.

Exxtreme
2024-05-14, 10:01:47
Bei den Shader-Kompilierungsvorgängen war die Wahrscheinlichkeit am höchsten, dass diese Problematik sichtbar wird. Diese Probleme können aber bei so ziemlich jeder Anwendung auftauchen. Das können auch ganz normale Computerspiele sein. Im Nvidia-Treiber-Forum hat es einen bei Minecraft erwischt. Der hat den Multiplikator heruntergesetzt und schon läuft es wieder.

Gipsel
2024-05-14, 12:57:50
Bei den Shader-Kompilierungsvorgängen war die Wahrscheinlichkeit am höchsten, dass diese Problematik sichtbar wird.Der nV-Treiber war nur ein Punkt. Ein anderer recht problematischer Fall war/ist die oodle-Dekompression (kommt von RAD game tools, ist aber in der Unreal Engine integriert, wird dort also breit genutzt) von Spiele-Assets.

Edit: https://www.radgametools.com/oodleintel.htm

][immy
2024-05-14, 13:20:39
Der nV-Treiber war nur ein Punkt. Ein anderer recht problematischer Fall war/ist die oodle-Dekompression (kommt von RAD game tools, ist aber in der Unreal Engine integriert, wird dort also breit genutzt) von Spiele-Assets.

Edit: https://www.radgametools.com/oodleintel.htm
Das so etwas betroffen ist, ist dann tatsächlich logisch. Wenn in einer unkomprimierten Textur mal ein Bit umkippt, ist das nicht tragisch, aber wenn es das in komprimierten Daten passiert, gibt es direkt Fehlermeldungen ohne Ende. Ähnliches bei Verschlüsselung.
Ggfs. auch ein Grund warum das in Minecraft passiert (wenn die Windows Store Version genutzt wird). Da sind die Daten dann ja gern verschlüsselt und wenn dann bei der Entschlüsselung auch nur ein Bit daneben liegt, schlägt gleich alles fehl. Das Problem wird also theoretisch größer, je moderner ein System eingerichtet ist.

Exxtreme
2024-05-14, 13:23:14
[immy;13541514']Das so etwas betroffen ist, ist dann tatsächlich logisch. Wenn in einer unkomprimierten Textur mal ein Bit umkippt, ist das nicht tragisch, aber wenn es das in komprimierten Daten passiert, gibt es direkt Fehlermeldungen ohne Ende. Ähnliches bei Verschlüsselung.
Ggfs. auch ein Grund warum das in Minecraft passiert (wenn die Windows Store Version genutzt wird). Da sind die Daten dann ja gern verschlüsselt und wenn dann bei der Entschlüsselung auch nur ein Bit daneben liegt, schlägt gleich alles fehl. Das Problem wird also theoretisch größer, je moderner ein System eingerichtet ist.

Auch Steam dekomprimiert und entschlüsselt recht heftig. Hier wird es wohl auch etliche Leute treffen.

aufkrawall
2024-05-14, 17:28:57
Nö, weil Windows 11 + Thread Director die Last durch Steam-Downloads oft exklusiv auf den E-Cores parkt und die P-Cores dann gar nicht belastet werden.
Außerdem brauchts für so eine Last auch mal eben 1 Gbit/s Download-Geschwindigkeit oder mehr. Fortnite dekomprimiert wahrscheinlich die ganze Zeit und hat im Spiel durchs Shader-Kompilieren dann auch noch kurz 100% Lastspikes über alle Kerne hinweg.

The_Invisible
2024-05-14, 18:08:07
Windows ist oft etwas weniger empfindlich, aber größere Kompilieraufgaben wären natürlich auch unter Windows ein sinnvoller Test. Ist halt nur für normale Anwender ziemlich nervig und zeitfressend einzurichten, während man mit seinem fertig eingerichteten Arch halt alle möglichen Projekte oft mit einem einzelnen Befehl mal eben kompilieren kann.

Braucht man gar nicht kompilieren, größeres Projekt in einer IDE laden die alles indiziert zb jetbrains und dir fliegen die CPUs/RAM auch um die Ohren.

aufkrawall
2024-05-14, 20:04:14
Das ist natürlich Software, die jeder rumliegen hat. Musste erstmal Wikipedia bemühen...

The_Invisible
2024-05-14, 20:27:27
Genauso wie irgendwas kompilieren ; )

aufkrawall
2024-05-14, 21:16:25
"Irgendwas"? Wie etwa Shader?
Tja, dann ist der beste Stabilitätstest unter Windows ohne Gefrickel halt Fortnite spielen.

Zossel
2024-05-15, 06:36:11
"Irgendwas"? Wie etwa Shader?
Tja, dann ist der beste Stabilitätstest unter Windows ohne Gefrickel halt Fortnite spielen.

Mir hat es mal Signal 11 bis in eine Linux-VM unter Windows durchgeschlagen. Schuld war Spielzeug-RAM.
Ansonsten ist der Ansatz sich auf eine konkrete Anwendung zu fokussieren fragwürdig.

aufkrawall
2024-05-15, 17:07:42
Natürlich ist das fragwürdig. Wie die Crash-Reports zeigen, ist vieles andere aber mal eben komplett nutzlos für Annahmen über die Stabilität.

gedi
2024-05-16, 20:49:20
Nö, weil Windows 11 + Thread Director die Last durch Steam-Downloads oft exklusiv auf den E-Cores parkt und die P-Cores dann gar nicht belastet werden.
Außerdem brauchts für so eine Last auch mal eben 1 Gbit/s Download-Geschwindigkeit oder mehr. Fortnite dekomprimiert wahrscheinlich die ganze Zeit und hat im Spiel durchs Shader-Kompilieren dann auch noch kurz 100% Lastspikes über alle Kerne hinweg.

E-Cores, P-Cores-sorry was für ein Krempel, denn die Dinger saufen trotzdem wie Loch!

aufkrawall
2024-05-16, 20:56:39
Sie helfen aber auch, Einbrüche durch Kompilieren von Shadern im Hintergrund mitunter komplett abzuwenden. Bricht wahrscheinlich in Fortnite auf einem 13600K weniger ein als auf einem 7800X3D...

Wuge
2024-05-17, 09:29:22
E-Cores, P-Cores-sorry was für ein Krempel, denn die Dinger saufen trotzdem wie Loch!

Nicht bei 0.9V und 2400 Mhz :)

Man hätte viel viel mehr aus den CPUs machen können mit DLVR oder einer eigenen voltage rail für die eCores. Die könnten für 20W power nett Hintergrundworkloads abarbeiten oder Durchsatz steigern und wären dabei schneller so schnell wie ein 9900K. Nur leider hängen sie auf dem high-VCore rail der P cores und "müssen" dementsprechend ineffizient laufen.

Lehdro
2024-05-17, 14:34:24
Nö, weil Windows 11 + Thread Director die Last durch Steam-Downloads oft exklusiv auf den E-Cores parkt und die P-Cores dann gar nicht belastet werden.
Außerdem brauchts für so eine Last auch mal eben 1 Gbit/s Download-Geschwindigkeit oder mehr.
Also mein 5800X3D hat bei meiner 1 GBit Leitung wenn Steam volle Pulle lädt, durchaus zu kämpfen. Da kann die CPU Last schon durchaus mal Richtung 80% gehen - nur von Steam allein. Paar zusätzliche Cores könnten da helfen, wenn das ordentlich implementiert und gemanaged wird. Macht aber weder Intel, noch AMD. Bei AMD sind die recht sparsam, aber scheitert am unkomplizierten Ansprechen, bei Intel ist es genau andersherum. Vielleicht ja mit dem nächsten Windows/E-Core/Zen-c-Core...

Man hätte viel viel mehr aus den CPUs machen können mit DLVR oder einer eigenen voltage rail für die eCores. Die könnten für 20W power nett Hintergrundworkloads abarbeiten oder Durchsatz steigern und wären dabei schneller so schnell wie ein 9900K. Nur leider hängen sie auf dem high-VCore rail der P cores und "müssen" dementsprechend ineffizient laufen.
Ja klar, weil man damit keinen Benchmark gewinnen würde. Denk doch mal an die Balken!!!

Hakim
2024-05-18, 02:20:14
Rein aus Interesse mal die E-Cores auf All Core 4,1 GHz bei Cine laufen lassen. Also nicht noch großartig an der Spannung rum gespielt wieviel da noch geht. ca 50W

https://s20.directupload.net/images/240518/temp/369wklr3.jpg (https://www.directupload.eu/file/d/8558/369wklr3_jpg.htm)

der eine P-Core muß wohl aktiviert sein, zumindest bei meinem Board, aber hab Windows die Zugehörigkeit nur die 8 E-Cores angegeben, ka ob dann der P-Core da noch viel zieht, zumindest läuft der dennoch mit 5,3 am Anschlag.

Edit: ja steht ja da, irgendwo zwischen 7-20% Last bei dem einem P-Core

aufkrawall
2024-05-18, 03:31:38
Also mein 5800X3D hat bei meiner 1 GBit Leitung wenn Steam volle Pulle lädt, durchaus zu kämpfen. Da kann die CPU Last schon durchaus mal Richtung 80% gehen - nur von Steam allein. Paar zusätzliche Cores könnten da helfen, wenn das ordentlich implementiert und gemanaged wird. Macht aber weder Intel, noch AMD. Bei AMD sind die recht sparsam, aber scheitert am unkomplizierten Ansprechen, bei Intel ist es genau andersherum.
Es ist so, wie ich gesagt habe: Steam wird komplett auf die E-Cores verschoben. Dadurch gibts bei nur acht RTL E-Cores sogar geringfügige Geschwindigkeitseinbußen bei knapp unter 1 Gbit/s, weil nur die E-Cores nicht ganz reichen. Da kann man auch nichts gegen machen, außer ggf. am Scheduling von Windows via Power Plan rumdoktern, was aber Spielen schadet. Die P-Cores werden so bei Steam ~komplett ignoriert, weshalb es nichts über die Stabilität aussagt.

MiamiNice
2024-05-18, 11:15:45
Ich kann ohne Probs zoggen und per Steam was entpacken. Steam läuft konplett auf den 16 E-Cores die bei 4,5 Ghz rumdümplen und sich zu tode langweilen.

€: Habe auch eine 1 Gbit/s.

Zossel
2024-05-19, 21:31:36
Also mein 5800X3D hat bei meiner 1 GBit Leitung wenn Steam volle Pulle lädt, durchaus zu kämpfen. Da kann die CPU Last schon durchaus mal Richtung 80% gehen - nur von Steam allein. Paar zusätzliche Cores könnten da helfen, wenn das ordentlich implementiert und gemanaged wird.

Klingt nach ziemlich übler Software wenn 16 Threads nicht reichen um 100 Megabytes/sec zu entpacken.

Was macht diese Scheiße?

aufkrawall
2024-05-19, 22:14:39
Mehrere Segmente über mehr als eine Verbindung gleichzeitig laden, kann mit manchen Netzwerktreibern auch fiesen Overhead triggern. Der Treiber für mein Realtek-LAN unter Linux schafft das auch nicht mit vollen 1 Gigabit/s. Der Windows NetAdapterCx-Treiber schafft das für das Gerät wesentlich besser, freezt mir auch Windows dabei im Gegensatz zu früher quasi gar nicht mehr.

gedi
2024-05-19, 23:17:00
E-Cores, P-Cores? Hört sich für mich nach einem Fail an.

Zossel
2024-05-20, 08:24:51
Mehrere Segmente über mehr als eine Verbindung gleichzeitig laden, kann mit manchen Netzwerktreibern auch fiesen Overhead triggern. Der Treiber für mein Realtek-LAN unter Linux schafft das auch nicht mit vollen 1 Gigabit/s. Der Windows NetAdapterCx-Treiber schafft das für das Gerät wesentlich besser, freezt mir auch Windows dabei im Gegensatz zu früher quasi gar nicht mehr.

Boah, echt jetzt, Windows kann jetzt Sachen die Linux schon ewig kann. Voll fett!

Lawmachine79
2024-05-20, 13:27:39
E-Cores, P-Cores-sorry was für ein Krempel, denn die Dinger saufen trotzdem wie Loch!
Meine AMD-CPU hat zwar nur Performance Cores und davon auch mehr - dafür verbrauchen sie aber auch weniger ;).

Hakim
2024-05-20, 15:05:11
Die Frage ist doch, wenn Intel es auch mit der selben Fertigung wie AMD bei TSMC fertigen würde (5nm), wie würde dann der Vergleich bezüglich Energiebedarf aussehen?

Ich denke aber das AMD dennoch besser wäre, weil der Weg zu mehr Takt im Vergleich zu 3DCache mehr Saufen würde. Denke aber wären sehr nah beieinander.

aufkrawall
2024-05-20, 17:46:44
Boah, echt jetzt, Windows kann jetzt Sachen die Linux schon ewig kann. Voll fett!
Der Kommentar ging irgendwie am Relevanten vorbei.

Zossel
2024-05-21, 07:33:12
Der Kommentar ging irgendwie am Relevanten vorbei.

Warum sollte man schlechte Software nicht klar als solche benennen?
Weil man sonst nicht mehr stolz auf seine Super-Duper-HW sein kann?
Siehe auch dieses Posting: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13543694&postcount=323

Lehdro
2024-05-21, 14:02:06
Klingt nach ziemlich übler Software wenn 16 Threads nicht reichen um 100 Megabytes/sec zu entpacken.

Was macht diese Scheiße?
Ist beim WG Launcher genauso, der lastet das System auch gut aus. Ist also kein Steam Einzelfall.
Warum sollte man schlechte Software nicht klar als solche benennen?
Weil man sonst nicht mehr stolz auf seine Super-Duper-HW sein kann?
Siehe auch dieses Posting: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13543694&postcount=323
Der Punkt ist halt, das performante Hardware, im Optimalfall welche die auch noch effizient dabei ist, fehlende Softwareoptimierungen "umgehen" kann. An der Software kann ich persönlich nichts ändern, bei der Prozessorenwahl aber sehr wohl. Muss man halt nur individuell abwägen, wie viel einem das wert ist.
Das trifft aber generell auf jede Software zu, ganz besonders aber Games. Eine schlechte/fehlende Optimierung kann man mit schnellerer Hardware oft substituieren.

Wuge
2024-05-21, 16:14:46
Ja klar, weil man damit keinen Benchmark gewinnen würde. Denk doch mal an die Balken!!!

Klar würde man, wenn man 50W im Powerlimit gewinnt bringt das Punkte.

Wuge
2024-05-21, 16:16:01
Rein aus Interesse mal die E-Cores auf All Core 4,1 GHz bei Cine laufen lassen. Also nicht noch großartig an der Spannung rum gespielt wieviel da noch geht. ca 50W

... und dann noch 100mV undervolten und du bist bei 30W.

Zossel
2024-05-21, 16:23:06
Ist beim WG Launcher genauso, der lastet das System auch gut aus. Ist also kein Steam Einzelfall.

Das per curl von einem lokalen Webserver runterzuladen und den Output von curl per pipe an tar zu verfüttern lasse ich jetzt mal weg.

Hier einfach mal die Zeiten die für das auspacken von einem tarball mit ziemlich vielen und kleinen Dateien benötigt wird: (Zen4@65Watt/NVME)

Dagegen sind diese Zeiten von Steam absolut lächerlich, ja geradezu unterirdisch.
Und dafür sind keine 2 Cores ausgelastet.

$ time tar -xf linux-6.1.74.tar.zst

real 0m2,402s
user 0m0,840s
sys 0m2,394s
$ find linux-6.1.74 -type d | wc -l
5091
$ find linux-6.1.74 -type f | wc -l
78688
$ du -h linux-6.1.74.tar.zst
134M linux-6.1.74.tar.zst
$
$ time zstd -d < linux-6.1.74.tar.zst > /dev/null

real 0m0,557s
user 0m0,541s
sys 0m0,016s
$

Lehdro
2024-05-21, 16:25:23
Hier einfach mal die Zeiten die für das auspacken von einem tarball mit ziemlich vielen und kleinen Dateien benötigt wird: (Zen4@65Watt/NVME)

Wo genau stell ich das bei Steam ein? :rolleyes:

Zossel
2024-05-21, 19:10:12
Wo genau stell ich das bei Steam ein? :rolleyes:

Gar nicht weil schrottig programmiert.

Alleine schon das man eine latest and greatest CPU braucht um nebenher spielen zu können, wofür gibt es schon seit einem halben Jahrhundert Prozess und IO Prioritäten?

aufkrawall
2024-05-21, 19:19:09
Nur mal so als Hinweis: Der EEVDF-CPU-Scheduler des Linux-Kernels versagt auch komplett für Spiele, wenn du gleichzeitig kompilierst.
Ist mit Windows 11 und E-Cores nicht der Fall. So viel dazu, was smart ist oder nicht.

Zossel
2024-05-22, 14:52:07
Nur mal so als Hinweis: Der EEVDF-CPU-Scheduler des Linux-Kernels versagt auch komplett für Spiele, wenn du gleichzeitig kompilierst.
Ist mit Windows 11 und E-Cores nicht der Fall. So viel dazu, was smart ist oder nicht.

https://linux.die.net/man/1/nice
https://linux.die.net/man/1/ionice

Und warum sollte sich ein Buildsystem unter Windows nicht sämtliche Ressourcen schnappen die es kriegen kann?
Oder warum sollte man sich den -j Parameter nicht anpassen wie man den braucht?

La Junta
2024-05-22, 15:59:58
Lesen und aneinander vorbeireden ist eher normal hier im Forum wie es scheint. Und sehr sehr viel schreiben über Sachen die iwo gelesen wurden und nicht selber getestet wurden auch.

@ E-Cores/P-Cores
Ich war anfangs auch eher Skeptisch , aber ich finds inzwischen ehrlich gesagt nicht schlecht. Aber auch 16 P Cores und keine E-Cores wäre nett.

Lawmachine79
2024-05-23, 09:26:51
Lesen und aneinander vorbeireden ist eher normal hier im Forum wie es scheint. Und sehr sehr viel schreiben über Sachen die iwo gelesen wurden und nicht selber getestet wurden auch.

@ E-Cores/P-Cores
Ich war anfangs auch eher Skeptisch , aber ich finds inzwischen ehrlich gesagt nicht schlecht. Aber auch 16 P Cores und keine E-Cores wäre nett.
Das Konzept mit den E-Cores/P-Cores ist der letzte Schrott. Hier eine ausführliche Erklärung von XMG, warum sie für Laptops, die auf eine hohe Responsität angewiesen sind (z.B. Audiobearbeitung) keine Intel-CPUs verbauen:
https://www.xmg.gg/news-deep-dive-audio-laptops-xmg-dpc-latenzen/
Das Problem kann auch akut werden, wenn man einfach nur ein Audio Interface als Soundkarte nutzt, man muss dazu keine Audiobearbeitung machen.

Die Intel-CPUs haben durchgehend hohe DPC-Latenzen, als Abhilfemaßnahme wird u.a. das Deaktivieren der E-Cores genannt.

Die hohen Latenzen werden verursacht, weil das System nur noch mit seinem eigenen Power-Management beschäftigt ist und damit zu entscheiden, was jetzt auf P-Cores und was auf E-Cores gelegt wird.

Das ganze Konzept ist einfach Müll.

y33H@
2024-05-23, 09:42:30
Das ganze Konzept ist einfach Müll.Das halte ich für etwas kurz gegriffen, die komplette (Client) Branche - sprich AMD, ARM, Intel - nutzen P/E aus nachvollziehbaren Gründen.

Exxtreme
2024-05-23, 09:48:01
Das ganze Konzept ist einfach Müll.

Das Konzept an sich ist schon OK. Man verwendet etwas spezialisiertere Hardware für bestimmte Aufgaben. Ein Hintergrunddienst, der nur vor sich hin läuft, ohne nennenswert Rechenleistung zu verbrauchen, braucht keinen Performance-Kern. Das Problem hier sind eher Skill-Issues bei Micros~1. Denn deren Windows-Scheduler ist irreparabel kaputt.

Lawmachine79
2024-05-23, 09:50:56
Das halte ich für etwas kurz gegriffen, die komplette (Client) Branche - sprich AMD, ARM, Intel - nutzen P/E aus nachvollziehbaren Gründen.
Mag sein, dass es dafür Anwendungsgebiete gibt. Desktop-PCs und Laptop sind es jedenfalls nicht; das gilt umso mehr, als das Laptop-CPUs mit Efficiency-Cores mehr Strom verbraten als Laptop-CPUs ohne Efficiency-Cores, aber mit der doppelten Menge an Performance-Cores (z.B. 7945HX vs. 13700HX+).

y33H@
2024-05-23, 10:44:25
7945HX vs. 13700HX+ hängt primär am Power Target bzw Node, nicht an der P/E-Architektur ... davon ab freue ich mich über meine 16E in Blender ...

Lawmachine79
2024-05-23, 10:57:12
7945HX vs. 13700HX+ hängt primär am Power Target bzw Node, nicht an der P/E-Architektur ... davon ab freue ich mich über meine 16E in Blender ...
Ich kenne Blender nicht, aber habe mal gegoogelt - und offenbar ist AMD da schneller:
https://www.pugetsystems.com/labs/articles/blender-intel-core-14th-gen-vs-amd-ryzen-7000/

Und weniger Strom verbrauchen sie da auch. Habe ich zwar nicht gemessen,

Und klar mag es am Power Target liegen; aber wieso braucht eine CPU mit nur 8 Cores und sonst nur Efficiency-Cores ein höheres Power Target (um dann immer noch schlechter zu performen) als eine schneller CPU mit ausschließlich P-Cores.

Der_Korken
2024-05-23, 11:26:43
Die Big-Little-Konzept kann nichts dafür, dass Intel seine Verbrauchsprobleme nicht in den Griff bekommt. AMD wird mit Zen 5 auch P- und E-Kerne in mobilen Chips anbieten und das sicher nicht zum Spaß. Ohne E-Cores würde Intel in MT-Benchmarks noch schlechter dastehen als jetzt.

Daredevil
2024-05-23, 11:38:15
Die hohen Latenzen werden verursacht, weil das System nur noch mit seinem eigenen Power-Management beschäftigt ist und damit zu entscheiden, was jetzt auf P-Cores und was auf E-Cores gelegt wird.

Das ganze Konzept ist einfach Müll.
Das Problem ist imho nicht das Konzept, sondern die Umsetzung.
Ich habe bei Apple Silicon noch nie von etwaigen Probleme gehört und diese werden vermutlich ausschließlich im HighEnd Bereich in Video/Audio Produktion genutzt. Aber kann sein, dass ein reiner SoC mit ausschließlich Performance Kernen nochmal eine Ecke oben drauf geben würde, das wäre natürlich spannend.
Am Ende ist doch auch die Software schuld, oder? Ich meine, Intel müsste sich doch nicht so viel Mühe machen, wenn Windows das in den Griff bekäme, oder nicht?
Und unter uns: Intel müsste auch nicht P/E Cores fahren, wenn sie ihre Fertigung in den Griff bekämen, weil damit kompensieren sie nur die MT Leistung, die AMD durch die deutlich bessere Fertigung fahren kann, aber auch das klappt nicht besonders gut wie du ja selber geschrieben hast.

Diese ganze Raptor Lake Sache und die verschiedenen Boosts bei unterschiedlichen MB Herstellern ist auch echt richtig Panne.
Ich hoffe Intel beschädigt ihren sonst so guten Ruf nicht noch weiter mit so einem Unsinn.

Hakim
2024-05-23, 12:01:28
Egal was man davon hält, über Kurz oder Lang wird es auch AMD irgendwann im Desktop einsetzen. Wie DD schon meinte, es ist derzeit die Umsetzung.

dildo4u
2024-05-23, 12:35:09
AMD könnte weiterhin zwei Serien bringen wie jetzt auch Desktop Modelle haben alle dicke Cores und wer eine Mischung will kauft eine APU.

HOT
2024-05-23, 12:42:53
Bei AMD wird das erst mit Zen6 kommen, denn hier werden sicherlich die CCDs auch mobil eingesetzt werden.
Aber da das keine verschiedenen Architekturen sind ist das bei AMD kein Problem ob c oder non-c, das bleibt fürs OS voll transparent. Einzig für den Turbo ist die Threadverteilung wichtig. Das ist und bleibt also total anders als bei Intel.

Hakim
2024-05-23, 12:52:58
Mit viel Fantasie könnte man auch sagen das der 7950X3D schon ähnlich ist für Games, es kann oft alles gut laufen, aber wenn die Zuweisungen nicht gut sind, kann es auch bei Spielen langsamer als der 7800X3D sein.

HOT
2024-05-23, 12:55:14
Eigentlich nicht. Das ist eine I/O-Schwäche, die seit Zen2 existiert und mit Zen6 behoben werden soll.

dildo4u
2024-05-23, 12:55:30
Das ist im Prinzip ein altes Problem und hängt mit Ryzen Aufbau zusammen, das könnte in Zukunft sogar besser werden wenn 3 nm 12 oder 16 Kerne pro Die erlaubt.

Hakim
2024-05-23, 12:56:28
Ja die kommt dazu, aber war es nicht so das es bei Spielen die nicht in der Liste stehen es zu falschen Zuweisungen kommen kann und auf den nonCache CCD angesprochen wird?

Exxtreme
2024-05-23, 13:00:27
Mit viel Fantasie könnte man auch sagen das der 7950X3D schon ähnlich ist für Games, es kann oft alles gut laufen, aber wenn die Zuweisungen nicht gut sind, kann es auch bei Spielen langsamer als der 7800X3D sein.

Nein. Das Problem, was der Ryzen 3 und Ryzen 4 hat, ist dass er quasi verhungert. Dieses Problem hatten AMD-CPUs aber schon sehr oft. Auch der Bulldozer :freak: ist deshalb so lahm weil er nicht schnell genug Daten bekommt. Es gab mal paar Messungen wo sie den Uncore-Takt angehoben haben. Das Ding skalierte nahezu 1 zu 1 damit. Der Zusatzcache auf den X3D-CPUs minimiert dieses Verhungern sehr stark weil man sich dann sehr oft den Zugriff auf den regulären RAM spart.

y33H@
2024-05-23, 13:50:24
Und klar mag es am Power Target liegen; aber wieso braucht eine CPU mit nur 8 Cores und sonst nur Efficiency-Cores ein höheres Power Target (um dann immer noch schlechter zu performen) als eine schnellere CPU mit ausschließlich P-Cores.Nodes.

][immy
2024-05-23, 14:19:12
Nein. Das Problem, was der Ryzen 3 und Ryzen 4 hat, ist dass er quasi verhungert. Dieses Problem hatten AMD-CPUs aber schon sehr oft. Auch der Bulldozer :freak: ist deshalb so lahm weil er nicht schnell genug Daten bekommt. Es gab mal paar Messungen wo sie den Uncore-Takt angehoben haben. Das Ding skalierte nahezu 1 zu 1 damit. Der Zusatzcache auf den X3D-CPUs minimiert dieses Verhungern sehr stark weil man sich dann sehr oft den Zugriff auf den regulären RAM spart.
Was dann auch dazu führt, das die letzte Gen mit extra cache schneller ist als die neue ohne extra cache. Hätte zen3d noch schneller takten können, wäre Zen4 quasi absolut überflüssig gewesen.
Verstehe allerdings nicht das AMD dieses Problem nicht mal ordentlich löst. Der Cache ist ja quasi nur mit der Kanone auf Spatzen schießen. Da kann man zumizmal sehen was eigentlich in der Architektur steckt.

Exxtreme
2024-05-23, 14:27:40
[immy;13546632']Was dann auch dazu führt, das die letzte Gen mit extra cache schneller ist als die neue ohne extra cache. Hätte zen3d noch schneller takten können, wäre Zen4 quasi absolut überflüssig gewesen.
Verstehe allerdings nicht das AMD dieses Problem nicht mal ordentlich löst. Der Cache ist ja quasi nur mit der Kanone auf Spatzen schießen. Da kann man zumizmal sehen was eigentlich in der Architektur steckt.

Naja, der Zen 4 kann schon viel mehr: integrierte GPU und AVX512 etc. Und wenn man bedenkt wie billig die X3D-CPUs sind, so teuer scheint der zusätzliche Cache jetzt auch nicht zu sein. Von daher glaube ich nicht, dass das mit Kanonen auf Spatzen schiessen ist. Und man sollte auch nicht übersehen, dass die Speichercontroller relativ viel Strom ziehen. Ist wohl der Hauptgrund warum die X3D-CPUs so sparsam sind.

Lawmachine79
2024-05-23, 15:10:31
Ich meine auch gelesen zu haben, dass der IOH bei Intel ab 13. Gen (?) wieder ausgelagert wurde. Ist natürlich auch suboptimal für alles, was latenzlastig ist.

Zossel
2024-05-23, 19:00:27
Das Problem ist imho nicht das Konzept, sondern die Umsetzung.
Ich habe bei Apple Silicon noch nie von etwaigen Probleme gehört und diese werden vermutlich ausschließlich im HighEnd Bereich in Video/Audio Produktion genutzt. Aber kann sein, dass ein reiner SoC mit ausschließlich Performance Kernen nochmal eine Ecke oben drauf geben würde, das wäre natürlich spannend.

Für Medienkonsumgeräte kann das funktionieren, General purpose Computer sind aber was anderes.

Zossel
2024-05-23, 19:06:10
Das halte ich für etwas kurz gegriffen, die komplette (Client) Branche - sprich AMD, ARM, Intel - nutzen P/E aus nachvollziehbaren Gründen.

Der Kram von AMD ist allerdings dezent anders, und wirft weniger Probleme beim Scheduler auf.

Zossel
2024-05-23, 19:08:52
Das Konzept an sich ist schon OK. Man verwendet etwas spezialisiertere Hardware für bestimmte Aufgaben. Ein Hintergrunddienst, der nur vor sich hin läuft, ohne nennenswert Rechenleistung zu verbrauchen, braucht keinen Performance-Kern. Das Problem hier sind eher Skill-Issues bei Micros~1. Denn deren Windows-Scheduler ist irreparabel kaputt.

Entsprechende Hintergrunddienste zu detektieren wird allerdings auch mit Heuristiken gelingen. Auf Medienkonsumgeräten können diese Heuristiken allerdings besser funktionieren.

Zossel
2024-05-23, 19:11:21
Die Intel-CPUs haben durchgehend hohe DPC-Latenzen, als Abhilfemaßnahme wird u.a. das Deaktivieren der E-Cores genannt.

Das mit der DPC-Latency ist doch wieder mal ein Windowism.

aufkrawall
2024-05-23, 19:12:33
Das Konzept mit den E-Cores/P-Cores ist der letzte Schrott. Hier eine ausführliche Erklärung von XMG, warum sie für Laptops, die auf eine hohe Responsität angewiesen sind (z.B. Audiobearbeitung) keine Intel-CPUs verbauen:

Dann kannst du Systeme mit aktiver Nvidia-Grafikkarte und Runtertakten derer dafür auch vergessen, denn der Treiber macht dahingehend ebenfalls ständig Ärger.

Das Problem bei den E-Cores ist ist imho eher, ähnlich wie bei den gedrosselten Steam-Downloads, dass die P-Cores für manche Prozesse defakto einfach mal komplett gesperrt werden, wenn Windows 11/Thread Director diese als "Hintergrundlast" einstufen.
Nvidia Broadcast weist Windows 11 nämlich genau so exklusiv den E-Cores zu. Wenn diese dann noch stark ausgelastet sind, etwa durch einen Steam-Download, verhungert Broadcast offenbar komplett an der Latenz und die Rauschunterdrückung verursacht extreme Verzerrungen im Mikrofonsignal.
Workaround ist dann, dem Broadcast-Prozess in der Kernzuweisung die E-Cores komplett wegzunehmen.

Ist schon richtig dumm, dass es da von Microsoft und Intel offenbar keine Lösung gibt.
Tritt mit Windows 10 nicht auf, liegt also am Thread Director.

woodsdog
2024-05-23, 23:30:06
Das hat jetzt seit >2 Seiten genau was mit dem Thema zu tun?

Zossel
2024-05-24, 20:27:06
Das hat jetzt seit >2 Seiten genau was mit dem Thema zu tun?

Die Lösung für schrottige inperformante Gammelsoftware sollte nicht eine instabile CPU mit fragwürdiger Architektur sein.

MiamiNice
2024-05-24, 23:51:44
Aber sicherlich eine fragwürdige Diskussion mit instabilen Teilnehmern :wink:

fondness
2024-05-25, 11:42:06
Nodes.

Ähm nein.

y33H@
2024-05-25, 14:20:19
Ähm nein.Na dann erklär mal ...

fondness
2024-05-25, 14:40:15
Na dann erklär mal ...

Du hast die Behauptung aufgestellt, nicht ich. Erkläre du mal, wie du einer derart krassen perf/Watt unterschied mit den nodes erklären willst.

Lawmachine79
2024-05-25, 17:07:46
Dann kannst du Systeme mit aktiver Nvidia-Grafikkarte und Runtertakten derer dafür auch vergessen, denn der Treiber macht dahingehend ebenfalls ständig Ärger.

Das Problem bei den E-Cores ist ist imho eher, ähnlich wie bei den gedrosselten Steam-Downloads, dass die P-Cores für manche Prozesse defakto einfach mal komplett gesperrt werden, wenn Windows 11/Thread Director diese als "Hintergrundlast" einstufen.
Nvidia Broadcast weist Windows 11 nämlich genau so exklusiv den E-Cores zu. Wenn diese dann noch stark ausgelastet sind, etwa durch einen Steam-Download, verhungert Broadcast offenbar komplett an der Latenz und die Rauschunterdrückung verursacht extreme Verzerrungen im Mikrofonsignal.
Workaround ist dann, dem Broadcast-Prozess in der Kernzuweisung die E-Cores komplett wegzunehmen.

Ist schon richtig dumm, dass es da von Microsoft und Intel offenbar keine Lösung gibt.
Tritt mit Windows 10 nicht auf, liegt also am Thread Director.
Stimmt, der NV-Treiber macht auch Probleme, die man reproduzierbar in den Griff kreigt (GPU-Beschleunigung in W11 und Leistungseinstellung im NV-Treiber).

Bei Intel kann man es auch schaffen, ist aber ein wenig Glückssache und man muss viele Powersettings in Windows manuell feinabstimmen.

Leonidas
2024-05-26, 10:42:58
Schön crashender UE5-Shaderkompilierer gefunden: "The First Descendent". Hat sogar auf einem bislang stabilen 14700K zum Crash geführt:
https://x.com/Sebasti66855537/status/1794526802553012707

Hakim
2024-05-26, 12:09:47
Ich teste es später mal daheim mit meinem 13600k, der sollte es denke ich immer noch ohne Probleme mitmachen. Die Power-Kerne Laufen bei mir mit 5,1@5,3Ghz mit UV

Hakim
2024-05-26, 12:47:49
ok selbst bei meinem 13600k und dem leichtem OC auf 5,3Ghz :)

Ich hab aber auch gut UV laufen samt sehr niedrigen LLC bei Vollast, ~1,128 rum. Bisher hatte kein einziges Spiel Probleme gemacht.

Könnte aber auch evt was anders sein? Immerhin ist es ein Technik Test.

Leonidas
2024-05-26, 13:10:13
Das dürfte es schon sein, die Fehlermeldung ist total typisch für das Problem.

Hakim
2024-05-26, 13:21:13
Hab mal CineB 10 min durchlaufen lassen, wie immer ohne mucken, ich werde mal das Dynamische minus Offset etwas näher zum Default schieben, mal sehen ob das hilft beim dem Spiel.

Exxtreme
2024-05-26, 13:27:27
Selbst DrDisrespect hat es offenbar erwischt. X-D

4FFOQVkEhug

Hakim
2024-05-26, 13:32:34
ok hat bei einer leichten Annäherung zum Default, +0.20 geholfen, werde mal schauen ob ich jetzt noch etwas weiter senken kann wieder.

Edit: ok letzten Endes reicht bei mir auch schon nur eine Anpassung um 0,05, so wie es aussieht.

Aber nochmal, bei mir lag es an meinem OC samt UV. Es ist eine ganz andere Hausnummer wenn es Standardmäßig ohne manuellen Eingriff bei einem 14700k oder 14900k Probleme macht.

Loomes
2024-05-26, 16:52:15
Habe es gerade auf meinem 14700K probiert. Er läuft auf PL1/PL2 200W, iccMax 307A und all Core Boost 56x mit ACLL Undervolt.
Startet und läuft einwandfrei das Spiel :biggrin: Ist wohl alles korrekt eingestellt im Bios.

Skysnake
2024-05-26, 18:56:35
Hab mal CineB 10 min durchlaufen lassen, wie immer ohne mucken, ich werde mal das Dynamische minus Offset etwas näher zum Default schieben, mal sehen ob das hilft beim dem Spiel.
Nimm mal eher den Streamer benchmark, HPL oder Firestarter mit unterschiedlichen loads sowie loadunzervallen.

Damit bekommst du das sicherlich zum abschmieren

Hakim
2024-05-26, 19:29:02
Nimm mal eher den Streamer benchmark, HPL oder Firestarter mit unterschiedlichen loads sowie loadunzervallen.

Damit bekommst du das sicherlich zum abschmieren

Normal benutze ich so 10 min CineB oder 30 min Prime um grob zu schätzen das es relativ Stabil ist. Das lustige ist ja vorhin nochmal mit der Spannung von Heute Morgen probiert wo es nicht ging, und es ging normal durch. Vielleicht mußte das System erst mal richtig wach werden :)

aufkrawall
2024-05-26, 19:37:26
:freak:
Paar Minuten von irgendwas sind natürlich völlig unzureichend für Aussagen über die Stabilität. Kompilieren vom Linux-Kernel ist wenigstens schon mal ~30min auf einem 13700K, inkls. einiger kurzer Phasen mit unterschiedlicher Lastverteilung.
CB ist einfach nur stumpf die gleiche Last vom Anfang bis zum Ende auf allen Kernen. Das kann bestimmte Instabilitäten aufdecken und andere komplett übersehen.

Hakim
2024-05-26, 19:46:39
daher meinte ich ja relativ, wenn es 30 min Prime und CB durch läuft und man wochenlang in Spielen keine Probleme hat, kann man sagen das es vermutlich stabil genug für den Alltag ist. Absolute Sicherheit ist es natürlich nicht

Skysnake
2024-05-26, 23:29:27
:freak:
Paar Minuten von irgendwas sind natürlich völlig unzureichend für Aussagen über die Stabilität. Kompilieren vom Linux-Kernel ist wenigstens schon mal ~30min auf einem 13700K, inkls. einiger kurzer Phasen mit unterschiedlicher Lastverteilung.
CB ist einfach nur stumpf die gleiche Last vom Anfang bis zum Ende auf allen Kernen. Das kann bestimmte Instabilitäten aufdecken und andere komplett übersehen.
Jup, die statischen Lasten von Prime, Cinebench, HPL und Stream sind eher gutmütig Lasten. Klar sind die auch fordernd und gerade Streamer und HPL testen eben Core, Memory und Kühlung ganz gut ab. Aber die Lastwechsel die wirklich fordernd sind heutzutage fehlen..Da ist nen Linux Kernel oder mehrere eine gute Ergänzung. Oder halt den Firestarter bei dem man ganz gezielt Intervalle definieren kann und damit die maximalen Lastwechsel gezielt erzwingen kann. Ich sehe das daher schon als sehe guten Test, der REPRODUZIERBAR ist. Aber das Maximum stellt er nicht da. Reale Anwendungen sind heutzutage echt fordernder mit ihren Lastwechseln als alles andere.

Wuge
2024-05-27, 09:52:24
Lasst mal GeekBench6 im loop laufen... der wirft WHEAs oder bricht ab in Settings die Tagelang CB23 aushalten würden ;) Statische Lasttests sind nicht mehr sinnvoll bei CPUs die Boostmechanismen nutzen.

Atma
2024-05-27, 11:00:43
Lasst mal GeekBench6 im loop laufen... der wirft WHEAs oder bricht ab in Settings die Tagelang CB23 aushalten würden ;)
Geekbench ist dermaßen handzahm, die Aussagekraft geht gegen null. Eben erst wieder getestet, mein i9 schläft die meiste Zeit während der Bench läuft.

Dann doch lieber Y-Cruncher oder irgendwas kompilieren.

dildo4u
2024-05-27, 11:04:34
Wer nix zahlen will Fortnite ist extrem Brutal in einer neuen Saison oder wenn man ein neuen GPU Treiber installiert, das Game schafft es bei mir beim Laden und selbst im Game auf 100% CPU Last es dauert ewig bis alle Shader geladen wurden.

x-force
2024-05-27, 11:27:54
hat intel wie amd eigentlich auch einen bereich in dem der effektive takt sinkt, bevor es instabil wird?

Exxtreme
2024-05-27, 11:33:35
hat intel wie amd eigentlich auch einen bereich in dem der effektive takt sinkt, bevor es instabil wird?

Ja. Aber die BIOSse in der Standardeinstellung deaktivieren das damit man höher takten kann.

Gipsel
2024-05-27, 11:40:11
Ja. Aber die BIOSse in der Standardeinstellung deaktivieren das damit man höher takten kann.Genau. Das führt nämlich sonst beim Undervolting (was die meisten Boards ja out-of-the-box tun [getan haben?]) offenbar zu starkem Clock-Stretching (um Stabilität zu bewahren) und damit deutlichen Performance-Einbußen.

x-force
2024-05-27, 13:01:30
Ja. Aber die BIOSse in der Standardeinstellung deaktivieren das damit man höher takten kann.

dann ist intel verzweifelt oder einfach nur dämlich.

bei amd und nvidia funktioniert die interne stabilitätskontrolle sehr gut und man kann es gar nicht erst deaktivieren.

würde wahrscheinlich auch nur 1% für hwbot junkies bringen.

Wuge
2024-05-28, 09:31:25
Geekbench ist dermaßen handzahm, die Aussagekraft geht gegen null. Eben erst wieder getestet, mein i9 schläft die meiste Zeit während der Bench läuft.

Dann doch lieber Y-Cruncher oder irgendwas kompilieren.

Ok, und wie testet Du damit 6200 Mhz AllCore / 6300 Mhz single thread boost und die load transitions dazwischen?

Exxtreme
2024-05-28, 10:20:50
dann ist intel verzweifelt oder einfach nur dämlich.

bei amd und nvidia funktioniert die interne stabilitätskontrolle sehr gut und man kann es gar nicht erst deaktivieren.

würde wahrscheinlich auch nur 1% für hwbot junkies bringen.

Naja, Intel war das jetzt nicht sondern die MoBo-Hersteller. Es ist so, die Intel CPUs regeln sich selber. Es gibt das Performance- und das Extreme-Profil. Das soll man je nach Kühlung und der Stromversorgung einstellen und den Rest der CPU überlassen. So ist das gedacht, dass man es nutzt. Wenn die MoBo-Hersteller aber alle Schutzschaltungen deaktivieren dann ist die CPU quasi im Blindflug und weiss gar nicht ob sie zu viel Strom zieht, oder dass sie Überhitzt. Und wenn dann noch UV dazukommt dann kann es gut sein, dass das etliche CPUs nicht packen. Die CPUs haben zwar große Toleranzen. Aber irgendwannmal sind die auch ausgereizt. Und wenn das auch noch dafür sorgt, dass die CPUs dauerhaft viel zu viel Strom ziehen dann altern sie viel schneller. Im Final Fantasy 14-Forum gibt es einen, der hat bereits 2 Raptor Lakes geschrottet. X-D

Wuge
2024-05-28, 11:11:16
Vermutlich auch wieder manual vcore gesetzt, oder?

Exxtreme
2024-05-28, 11:29:22
Keine Ahnung. Aber es ist so, FF14 ist ein MMORPG und diese Spiele hauen ordentlich auf die CPU. Und wenn man das auch noch jeden Tag stundenlang spielt dann kann das auf Dauer die CPU schädigen, wenn diese schon am Anschlag läuft.

Ätznatron
2024-05-28, 18:06:19
Es ist so, die Intel CPUs regeln sich selber.

Sorry, das sehe ich ein wenig anders: Würden sie sich selber regeln, müssten sie die diversen Umgehungsmethoden der Mobo-Hersteller erkennen und entsprechend ausschalten können.

Was soll das denn für ein sich-selbst-regeln sein, wenn noch nicht mal elementarste Schutzmechanismen (Spannung, Temperatur) greifen?

Exxtreme
2024-05-29, 09:24:49
Sorry, das sehe ich ein wenig anders: Würden sie sich selber regeln, müssten sie die diversen Umgehungsmethoden der Mobo-Hersteller erkennen und entsprechend ausschalten können.


Wenn du die Sensoren, die die Umgehungsmethoden der MoBo-Hersteller ausschalten sollen, täuscht dann geht es nicht mehr. ;) Und es ist fraglich ob das per Firmwareupdate nachrüstbar ist. Aber gut, die meisten MoBo-Hersteller haben jetzt Profile drin, welche den Intel-Empfehlungen entsprechen. Und da sind diese Sensoren aktiv, welche die potentielle Überlastung der CPU erkennen und dann drosseln.

Pirx
2024-05-29, 09:40:41
Intel wollte jedes % rausquetschen mit allen Mitteln, also werden wohl kaum die Mobo-Hersteller nur in Eigenregie gehandelt haben.

Hakim
2024-05-29, 11:08:21
Wenn du die Sensoren, die die Umgehungsmethoden der MoBo-Hersteller ausschalten sollen, täuscht dann geht es nicht mehr. ;) Und es ist fraglich ob das per Firmwareupdate nachrüstbar ist. Aber gut, die meisten MoBo-Hersteller haben jetzt Profile drin, welche den Intel-Empfehlungen entsprechen. Und da sind diese Sensoren aktiv, welche die potentielle Überlastung der CPU erkennen und dann drosseln.

Bei meinem Gigabyte z690 zumindest noch nichts, vermutlich bei allen z690 bei denen. Glaube da kommt auch nichts mehr.

Wuge
2024-05-29, 12:22:49
Naja, ich finde es gut so wie es ist. Man hat Sensoren, Richtlinien und Protections die einen spezifikationsgemäßen Betrieb sicherstellen. Klar, müssen dann halt auch aktiviert sein (sind sie bei non-K CPUs übrigens auch).

Aber die K Dinger sind für OC. Und da möchte ich natürlich das ganze Zeug ausschalten und selbst Verantwortung übernehmen. Das Problem besteht doch nur darin, dass die Boardhersteller selbstständig schon undervolten, iccmax und CEP deaktivieren ohne dass der Nutzer das weiß (wenn er sich nicht damit befasst).

Wer nun die Verantwortung trägt kann man sich streiten. Intel hats zumindest mal gewusst und geduldet.

Hakim
2024-06-01, 12:06:44
Computerbase Link (https://www.computerbase.de/2024-05/bios-updates-mit-default-settings-heute-ist-stichtag-doch-viele-mainboards-gehen-noch-leer-aus/)

Da muss man mal ASRock Loben. Auch damals bei meinem z370 Taichi hatten die als einer der wenigen überhaupt noch einen BIOS mit rBAR Unterstützung für den Chipsatz gebracht

Daredevil
2024-06-01, 14:06:41
Ich glaube es gab selten eine Zeit, wo man Asrock nicht loben konnte.
Die haben in meiner Erinnerung eigentlich immer ziemlich abgeliefert. Eigentlich schade, dass das Marketing von den anderen Herstellern so viel "dicker" ist, aber einfach in der Hinsicht nicht geliefert wird. Angefangen beim Dual Sata II muss man Asrock eigentlich immer Kohle zuwerfen, glaube das mache ich beim nächsten mal. :)

MiamiNice
2024-06-01, 15:05:48
Ich halte von der Firma gar nichts. Für mich ist das ein Hersteller mit massiv überzogenen Preisen für Ware mit günstigen Bauteilen und schlampiger Verarbeitung. Auch das Bios meines letzten Asrocks Boards war leider eher zum fürchten.
Für mich ist es auch kein Kriterium ob eine Firma am Stichtag ein überflüssiges Bios zum Download anbietet, welches sich wahrscheinlich in etwa 5% der Kunden laden werden. Interessanter bei OC Boards sind die OC Optionen und die Stabilität beim Kauf, nicht Jahre später durch Patches.
Asrock <<< Asus, in jeder Beziehung.

aufkrawall
2024-06-01, 16:50:55
Das mit dem Vorgaukeln von Scheinstabilität für Deppen, die unbedingt den Längsten haben wollen, klappt bei Asus sicherlich besser, ja.

Loomes
2024-06-01, 18:46:56
Ich war ja viele Jahre raus aus dem Desktop Game weil ich nur noch Laptops benuzte.
Aber jetzt habe ich ebenfalls ein Asrock Z790 (Pro RS Wifi) und kann mich wirklich nicht beschweren?! Macht was es soll, der Preis war auch OK.
Bios ist eben ein Bios. Undervolting meines 14700K war kein Problem und auch die Default Settings waren OK.
Was ja wohl bei den Asus Enthusiasten Boards nicht der Fall gewesen ist.

TobiWahnKenobi
2024-06-01, 19:25:07
ja, die standard-settings die asrock für mein z790 (steel legend) mit dem letzten shitstormbios (14.04beta) ausgeliefert hat laufen wirklich solide.. nur braucht damit kein mensch eine K CPU. irgendwelche OC settings, die ich vormals am laufen hatte (war schon immer ein scheiss gefrickel mit nem neuen BIOS), produzieren jetzt jedenfalls reichlich oft BSODs.

ich würde jetzt am liebsten sagen "juckt mich nicht". aber es juckt mich scheinbar schon, denn es geht mir tierisch auf die eier.

intel hat bei mir jetzt verschissen; AMD will ich auch nicht.. tjo.. schimmbad-season!


(..)

mfg
tobi

Exxtreme
2024-06-01, 19:41:02
ja, die standard-settings die asrock für mein z790 (steel legend) mit dem letzten shitstormbios (14.04beta) ausgeliefert hat laufen wirklich solide.. nur braucht damit kein mensch eine K CPU. irgendwelche OC settings, die ich vormals am laufen hatte (war schon immer ein scheiss gefrickel mit nem neuen BIOS), produzieren jetzt jedenfalls reichlich oft BSODs.


Möglicherweise hat die CPU Schaden genommen und die höheren Einstellungen laufen nicht mehr. Intel soll aber kulant sein wenn es ums Umtauschen geht.

aufkrawall
2024-06-01, 19:58:40
Null bsods mit 13700K auf Steel Legend und 7000 CL34. Läuft halt mit AC auf den P-Cores nur bei irgendwas 5,2GHz. Mehr waren halt auch nie wirklich drin ohne Gaga-Vcore.

Bei Modellen >13700K ist natürlich bitter, dass man wahrscheinlich noch stärker beim (irgendwo ja doch) versprochenen Mehrtakt Abstriche hinnehmen soll. Von daher schon nachvollziehbar, wenn man frustriert ist.

Hakim
2024-06-01, 20:13:09
läuft der 13700k nicht standardmäßig mit 5,3GHz P-Core Takt?

aufkrawall
2024-06-01, 20:45:06
Ja nicht AC, siehe niedriger Baseclock.

Matrix316
2024-06-01, 20:58:25
ja, die standard-settings die asrock für mein z790 (steel legend) mit dem letzten shitstormbios (14.04beta) ausgeliefert hat laufen wirklich solide.. nur braucht damit kein mensch eine K CPU. irgendwelche OC settings, die ich vormals am laufen hatte (war schon immer ein scheiss gefrickel mit nem neuen BIOS), produzieren jetzt jedenfalls reichlich oft BSODs.

ich würde jetzt am liebsten sagen "juckt mich nicht". aber es juckt mich scheinbar schon, denn es geht mir tierisch auf die eier.

intel hat bei mir jetzt verschissen; AMD will ich auch nicht.. tjo.. schimmbad-season!


(..)

mfg
tobi

Was sagen die Blue Screens?

Ich war so verrückt und hatte heute morgen das "Intel Safe" Bios für mein Asus TUF Z690 Board installiert und heute Abend hatte ich plötzlich etliche Bluescreens. Übertaktet war eigentlich nix, auch vorher nicht, bis auf den RAM den ich auf die XMP Settings gesetzt hatte... :uponder:

Jetzt mit Bios Defaults scheint es wieder zu laufen... EDIT: Interessant Load Bios Defaults gemacht und der RAM läuft immer noch mit XMP Settings... aber eigentlich hatte ich sonst nix anderes geändert...

TobiWahnKenobi
2024-06-01, 21:18:09
die BSODs würde ich als random bezeichnen..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88369&stc=1&d=1717269332


btw,
meine VID hat sich von damaligen 1.449V auf heutige 1.474V verändert.
kommt nach der COVID pandemie jetzt die COREVID degeneration?


@intel garantie
ich bin noch in den ersten 6 monaten und müsste meinem händler
erklären, in welcher nerdblase ich grad festhänge.



(..)

mfg
tobi

aufkrawall
2024-06-01, 21:47:29
Innerhalb der ersten sechs Monate liegt doch die Beweislast beim Händler? Sollte eigentlich sofort Ersatz oder Geld zurück geben, wenn der Defekt eindeutig dokumentierbar ist. Und eigentlich auch über die sechs Monate hinaus, wenn der Händler kein Aloch ist.

Lehdro
2024-06-02, 00:41:46
Ich glaube es gab selten eine Zeit, wo man Asrock nicht loben konnte.
Die haben in meiner Erinnerung eigentlich immer ziemlich abgeliefert. Eigentlich schade, dass das Marketing von den anderen Herstellern so viel "dicker" ist, aber einfach in der Hinsicht nicht geliefert wird. Angefangen beim Dual Sata II muss man Asrock eigentlich immer Kohle zuwerfen, glaube das mache ich beim nächsten mal. :)
Man kann ASRock durchaus kaufen, allerdings würde ich bei denen immer zweimal hinschauen. Gerade im Midrange und "Budget" Bereich hauen die öfter mal sehr fragwürdige Designs raus, gerade was VRM Sparerei angeht. Das hat bei Intels ADL/RPL + Refresh auch durchaus mal harte Konsequenzen, wenn deine CPU hardcore abgewürgt wird. Da hilft dann auch kein UEFI mehr ;)

aufkrawall
2024-06-02, 00:47:28
Bei K- und >8C-CPUs spielt das eine Rolle, bei einem 7800X3D wohl kaum. Sehe nix drosseln mit Phantom B550 und 5700X.
Und zeigt auch ansonsten keine Bugs.

Denniss
2024-06-02, 01:07:23
Bei Asrock sinds eher die low-budget-boards die manchmal (dank der billigen und/oder ungekühlten Spannungswandler) ein hartes Wattlimit im Bios verankert haben. Sind aber oft für die dicksten CPUs "freigegeben"

Exxtreme
2024-06-02, 01:13:07
Bei Asrock sinds eher die low-budget-boards die manchmal (dank der billigen und/oder ungekühlten Spannungswandler) ein hartes Wattlimit im Bios verankert haben. Sind aber oft für die dicksten CPUs "freigegeben"
Mag ja sein. Nur ist es wohl besser wenn die fette CPU trotzdem problemlos läuft, wenn auch langsamer. Anstatt diese CPU irgendwie zu blockieren. Das schlägt Intel übrigens genauso vor, dass man es so macht. Packt das Board nicht viel Strom dann soll man die Stromaufnahme begrenzen, was die CPU ausbremst.

Denniss
2024-06-02, 04:17:06
HWUB hate mal ein B650 von Asrock das für alle AM5 CPU fregegeben war aber das Wattlimit knapp über oder unter 100W hatte. Das könnt also nichtmal die TDP der größeren CPU unterstützen geschweige die PPT. Sowas geht eigenlich gar nicht.
Bei den oft noch knapper bemessenen A620 boards dürfte es bei allen Hestllern ähnliche Geschichten geben.
Sinnvoller wäre es gewesen diese CPU nicht freizugeben aber den Betrieb damit nicht zu sperren (ggf mit Warnung bei inbetriebnahme)

OgrEGT
2024-06-02, 12:35:41
Ich habe auch nur gute Erfahrungen mit AsRock Boards... Hatte bisher 3 (2 aktuell in Nutzung)... Sehr sauber verarbeitet und absolut stabil... was will man mehr?

x-force
2024-06-02, 15:06:40
HWUB hate mal ein B650 von Asrock das für alle AM5 CPU fregegeben war aber das Wattlimit knapp über oder unter 100W hatte. Das könnt also nichtmal die TDP der größeren CPU unterstützen geschweige die PPT. Sowas geht eigenlich gar nicht.
Bei den oft noch knapper bemessenen A620 boards dürfte es bei allen Hestllern ähnliche Geschichten geben.
Sinnvoller wäre es gewesen diese CPU nicht freizugeben aber den Betrieb damit nicht zu sperren (ggf mit Warnung bei inbetriebnahme)

wenn du einen 16-kerner auf ein a620 schraubst, ist das problem nicht das mainboard, sondern derjenige, der das für eine gute kombi hält.

Denniss
2024-06-02, 15:40:15
Natürlich ist die Combo unsinnig aber wenn die Leute sehen das board pass zur CPU dann kaufen die sowas. Dann wird aber AMD für schuldig gehalten wenn die Leistung nicht stimmt.
AMd sollte sich mal an die vielfältigen Probleme mit AM3/AM3+ und den dicken Bulldozern erinnern und bei den Boardherstellern Druck machen.
BTW da reicht der sechskerner 7600X mit 105W TDP um in so eine falle zu laufen, muß kein 16er sein.

Freestaler
2024-06-02, 15:57:43
Link mit mehr Fakten? 7600x auf nem am5 mit Lüfter der auch die VRM kühlt, z.B. orignallüfter. Mit dem Towerkühler, wo die VRM verhungern, könnte es ja noch sein. Selbst die dicken 5900/5950 und
7900/7950 bei mir im Bekannten kreis auf xy Mobo, solange VRM nicht auf Towerkühler und mies Caselüfter trafen. Das fraglich 650 hwub, wohl getestet mit aio Watercooling. https://m.youtube.com/watch?time_continue=1345&v=DTFUa60ozKY&embeds_referring_euri=https%3A%2F%2Fwww.hardwareluxx.de%2F&feature=emb_logo

Matrix316
2024-06-02, 18:01:34
die BSODs würde ich als random bezeichnen..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88369&stc=1&d=1717269332


btw,
meine VID hat sich von damaligen 1.449V auf heutige 1.474V verändert.
kommt nach der COVID pandemie jetzt die COREVID degeneration?


@intel garantie
ich bin noch in den ersten 6 monaten und müsste meinem händler
erklären, in welcher nerdblase ich grad festhänge.



(..)

mfg
tobi


Ich hatte heute jetzt wieder Bluescreens. Gestern hatte ich nur einen gesehen: WHEA Uncorrectable Error und heute IRQL not Less or Equal und den WHEA auch.

Bislang war der Rechner eigentlich stabil. Bis ich dieses blöde Bios drauf gemacht habe, was gegen Stabilitätsprobleme helfen soll. :freak: Das war ja klar...

EDIT: Scheint wieder zu laufen. Hab die wichtigen RAM Timings mal manuell eingegeben.

Hakim
2024-06-02, 18:36:32
lass doch mal einen UE5-Shaderkompilierer zu Sicherheit einmal durchlaufen, z.B den von "The First Descendent". Aber gut möglich das es nur beim RAM lag.

MiamiNice
2024-06-03, 11:28:11
Das mit dem Vorgaukeln von Scheinstabilität für Deppen, die unbedingt den Längsten haben wollen, klappt bei Asus sicherlich besser, ja.

Wahrscheinlich werden deswegen auf Asus Boards die meisten OC Titel validiert :freak:
Aber mal ganz abgesehen von dieser kleinen Nebensächlichkeit, ist es nicht lang her, dass es hier im Forum zum guten Ton gehört hat, HW bis ans Limit zu beschleunigen. Die Welt kann nichts dafür, dass Du zu alt für den Scheiß bist ;)

Matrix316
2024-06-03, 13:16:15
lass doch mal einen UE5-Shaderkompilierer zu Sicherheit einmal durchlaufen, z.B den von "The First Descendent". Aber gut möglich das es nur beim RAM lag.
Hab leider keinen UE5 Titel hier.

Die Bluescreens kamen auch eigentlich immer direkt in Windows. Oft direkt nach dem Booten.

Ich hab jetzt mal ein paar Games ausprobiert (Hogwarts Legacy, Starfield, Jedi Survivor, Cyberpunk, Starfield, Project Cars 3, Baldur's Gate 3) und kein Absturz oder so.

00-Schneider
2024-06-09, 13:52:04
vfUcKJwbAFk

][immy
2024-06-09, 19:40:17
https://youtu.be/vfUcKJwbAFk
Ja, das wäre schon arg Arglistig von Intel. Also sind die CPU tatsächlich kaputt wegen zu hoher elektrischer Leistung und Intel sagt nach wie vor nicht, was denn jetzt die tatsächlichen Specs für die CPUs sind.

Exxtreme
2024-06-09, 19:44:14
[immy;13557231']Ja, das wäre schon arg Arglistig von Intel. Also sind die CPU tatsächlich kaputt wegen zu hoher elektrischer Leistung und Intel sagt nach wie vor nicht, was denn jetzt die tatsächlichen Specs für die CPUs sind.

Also ich sehe das anders und die MoBo-Hersteller spielen hier arg die Opferrolle. Die CPUs haben nämlich sehr wohl Sensoren, die drosseln, wenn es zuviel wird. Nur hatten die MoBo-Hersteller diese Sensoren standardmäßig deaktiviert. Es gibt keine Hinweise, die darauf hindeuten, dass Intel die MoBo-Hersteller dazu gezwungen hat. Sie haben das selber gemacht um in Benchmarks besser dazustehen.

aufkrawall
2024-06-09, 19:59:07
Tja, trotzdem könnte Intel per Vorgabe sichere Defaults erzwingen. Davor haben sie sich aber offenbar gedrückt und jetzt ist es maximal beschissen für den Kunden gelaufen.

OgrEGT
2024-06-10, 06:37:00
Viel heftiger finde ich dass es anscheinend keinen Zertifizierungsprozess für die Boards seitens Intel gibt...

HOT
2024-06-10, 08:12:04
Richtig, die beiden Punkte sind das Problem. Du musst als Hersteller Produkte spezifizieren und überprüfen, was deine Partner damit so anstellen.

Freestaler
2024-06-10, 08:26:04
Intel weiss seit der verarsche der K CPU bei OEM Kunden nachweislich um den Umstand. Sie wollten es so ganz klar (also seit mininum 6 Genereationen!). Und habt ja nicht das Gefühl das hier Boardhersteller ernsthaft eigenmächtig was gemacht haben. Nicht bei Intel bitte bleibt realistisch. Wenn intel wollte wäre jedes Setting innert Wochenfrist korrigiert. Die brauchen dazu nicht 6 Jahre!

Denniss
2024-06-14, 21:38:25
https://www.igorslab.de/intel-aeussert-sich-intern-zum-13th-and-14th-generation-k-sku-processor-instability-issue-und-bringt-endlich-ein-umfassendes-update-der-eigenen-untersuchung-leak/

rentex
2024-06-15, 10:39:49
https://www.computerbase.de/2024-06/instabile-core-cpus-intel-dementiert-berichte-zum-etvb-als-ursache/

OgrEGT
2024-06-15, 11:12:45
Was für ein Durcheinander...

ChaosTM
2024-06-15, 11:14:35
Wenn man Prozessoren auf den Markt wirft, die man mit handelsüblichen Mitteln unter Vollast nicht mehr vernünftig kühlen kann, darf man sich über Probleme wirklich nicht wundern.

dildo4u
2024-06-15, 11:20:25
Das wilde ist ja das die Dinger nicht mal AVX 512 ausführen können.
Die P-Cores sind also eigentlich nicht am Limit.

rentex
2024-06-15, 13:13:29
Das CB Forumsniveau sucht ihresgleichen...

Prinzenrolle
2024-06-15, 19:09:26
https://www.igorslab.de/intel-aeussert-sich-intern-zum-13th-and-14th-generation-k-sku-processor-instability-issue-und-bringt-endlich-ein-umfassendes-update-der-eigenen-untersuchung-leak/

War offenbar eine Ente. Bis Intel das "herausfindet" vergehen wohl noch ein paar Jahre.:P
Das CB Forumsniveau sucht ihresgleichen...

Der gute Igor, immer für neuen Schandtaten bereit.:D

Denniss
2024-06-15, 20:26:03
Das von Igor ist keine Ente, die Zweitverwerter können nur nicht richtig lesen. Bei Igor wurde explit nur von K SCU und eTVB gesprochen. Von non-K und TVB war nicht die Rede

rentex
2024-06-15, 21:02:22
So, es fliegen gerade die Fetzen zwischen drei HW Foren...besser als Hollywood.
Was sagt jetzt das 3DC Forum zum Thema dazu?

x-force
2024-06-15, 21:40:10
Was sagt jetzt das 3DC Forum zum Thema dazu?

1. intel betreibt die cpus überm limit - danke amd, der markt funktioniert wieder.

2. spannung und temperatur sind tödlich. ich würde grundsätzlich nicht bei tmax eindrosseln lassen.

wie viel zu viel ist, ist keine digitale entscheidung, sondern eine kurve die auf die zu erwartende lebenszeit abbildet.

die 1,5v bei amd für single core boost sehe ich genauso skeptisch, allerdings ist das mit einem x3d nicht meine sorge :wink:
dafür war amd mit vsoc drüber.

3. spannungen immer manuell konfigurieren und ggf mal ansehen, was der fertiger für den prozess empfiehlt. ich glaub für amds 7000er ryzen sind das 1,2v

rentex
2024-06-15, 22:01:43
@x-force Kurz und bündig...Danke ;-D

ChaosTM
2024-06-15, 22:03:31
war eigentlich immer schon klar.. aber man braucht viele tausende reviews um das zu verifizieren.

CPUs die sich nicht vernünftig kühlen lassen sind blöd ;)

Freestaler
2024-06-15, 23:52:23
So, es fliegen gerade die Fetzen zwischen drei HW Foren...besser als Hollywood.
Was sagt jetzt das 3DC Forum zum Thema dazu?

Ich sage endlich. Hoffentlich noch mehr in den Foren. HW ist ja langweilig genung geworden.

Prinzenrolle
2024-06-16, 00:58:21
Was sagt jetzt das 3DC Forum zum Thema dazu?

Was soll man denn dazu noch sagen? Peinliche Slapstickeinlage ala Patrick Hamilton, aber das kennt man schon länger von Igor, der registriert das nicht selber.
Die eigentliche Botschaft ist Intel soll endlich liefern. Von der Warte aus gesehen war der Leak als solches sicher nicht verkehrt nur eben nicht das wofür er gehalten wurde.

Das von Igor ist keine Ente, die Zweitverwerter können nur nicht richtig lesen.

Ja wahrscheinlich, so wird's sein.
Igor sollte Schulungen geben wie man korrekt liest.:ulol4:

x-force
2024-06-16, 01:27:38
ohne leaks, spitzen, zwischen den zeilen und eigenheiten, wäre igor nicht igor

ich liebe ihn dafür

Gipsel
2024-06-16, 18:21:42
Das von Igor ist keine Ente, die Zweitverwerter können nur nicht richtig lesen. Bei Igor wurde explit nur von K SCU und eTVB gesprochen. Von non-K und TVB war nicht die Rede
Die Crux liegt in diesem Teil von intels internem Statement dazu:
Intel® analysis has determined a confirmed contributing factor for this issue is elevated voltage input to the processor due to previous BIOS settings which allow the processor to operate at turbo frequencies and voltages even while the processor is at a high temperature.
[..]
Intel® requests all customers to update BIOS to microcode 0x125 or later by 7/19/2024.
This microcode includes an eTVB fix for an issue which may allow the processor to enter a higher performance state even when the processor temperature has exceeded eTVB thresholds.
Der Bug ist/war, was die CPUs gemacht haben, wenn im BIOS eTVB deaktiviert war (was viele Boards per Standard getan haben). Dann hat die CPU nämlich bis zum Maximum geboostet, auch wenn die man oberhalb der kritischen Temperatur für eTVB (70°C) war, statt die eTVB-Frequenzbereich einfach zu sperren. Damit hat man also die Kombination von maximaler Spannung bei maximalen Temperaturen erzeugt, die tatsächlich zu einer Degradation führen kann. Dies wird intel vermutlich mit dem genannten µCode-Update beheben.

Denniss
2024-06-19, 09:34:08
InDel hat sich jetzt sogar mal öffentlich dazu geäußert bei Reddit
https://www.igorslab.de/253539/

OgrEGT
2024-06-20, 07:13:12
Auch wenn dieser Bug im Microcode nur ein Teil der Ursache ist/war wird am Ende auch eine Teilschuld bei den Mobo Herstellern und ggf bei den Usern gesucht werden... dadurch kann man am Ende nicht genau sagen was zu einer Beschädigung der CPU geführt hat wodurch Intel nicht haftbar gemacht werden kann...

OgrEGT
2024-06-20, 07:21:05
Die Crux liegt in diesem Teil von intels internem Statement dazu:

Der Bug ist/war, was die CPUs gemacht haben, wenn im BIOS eTVB deaktiviert war (was viele Boards per Standard getan haben). Dann hat die CPU nämlich bis zum Maximum geboostet, auch wenn die man oberhalb der kritischen Temperatur für eTVB (70°C) war, statt die eTVB-Frequenzbereich einfach zu sperren. Damit hat man also die Kombination von maximaler Spannung bei maximalen Temperaturen erzeugt, die tatsächlich zu einer Degradation führen kann. Dies wird intel vermutlich mit dem genannten µCode-Update beheben.
Eigentlich kurios wenn man eine Funktion zum Abschalten des eTVB Schutzmechanismus einbaut und freigibt und sich dann wundert dass diese dann funktioniert :ulol:
Durch das Microcode Update wird dann dieser Schalter zur Deaktivierung von eTVB wirkungslos?

Gipsel
2024-06-23, 11:01:14
Eigentlich kurios wenn man eine Funktion zum Abschalten des eTVB Schutzmechanismus einbaut und freigibt und sich dann wundert dass diese dann funktioniert :ulol:
Durch das Microcode Update wird dann dieser Schalter zur Deaktivierung von eTVB wirkungslos?eTVB ist eigentlich kein Schutzmechanismus, sondern ein zusätzlicher Mechanismus, der höher boostet als normal (solange die CPU nicht zu heiß ist). Im Prinzip ist es eine etwas verfeinerte Variante des "normalen" TVBs.
Der Benennung des Schalters nach hätte eTVB deaktiviert werden sollen (die CPU also weniger/konservativer boosten sollen, wenn die CPU kalt ist, bei heißer CPU hätte es keinen Unterschied machen sollen, weil TVB dann nicht aktiv werden sollte).
In der Realität hat er aber das Umgekehrte bewirkt, nämlich daß die CPU immer den vollen Boostbereich zur Verfügung hatte ohne jegliche Temperaturabfrage (was als Nebeneffekt eben auch dazu führt, daß die CPU bei höheren Temperaturen die maximale Spannung anfordert [das ist eine gefährliche Kombination]). Das ist wohl der Bug, den intel in den Updates beheben will. In Zukunft sollte die Deaktivierung von eTVB die CPU also etwas langsamer machen, nicht schneller wie bisher.

Leonidas
2024-06-24, 19:01:13
Intel i9-14900K/13900K CPUs Unstable even with Baseline Power Profile: Crashes in Games Persist
https://hardwaretimes.com/intel-i9-14900k-13900k-unstable-crash-games/

x-force
2024-06-24, 19:08:26
Intel i9-14900K/13900K CPUs Unstable even with Baseline Power Profile: Crashes in Games Persist
https://hardwaretimes.com/intel-i9-14900k-13900k-unstable-crash-games/

geht ja auch nicht anders:
sind die elektronen erstmal gewandert, lässt sich die uhr nicht mehr zurück drehen

Evil Ash
2024-06-24, 19:35:48
"How to Stabilize the Intel Core i9-14900K:"
"Buy an AMD Ryzen CPU"

:)

OgrEGT
2024-06-24, 20:49:02
Die haben aber Austausch CPUs getestet die auch bereits fehlerhaft waren oder neue CPUs? Bei einem haben sie geschrieben das die Austausch CPU selbst eine replacement unit war... In dem Fall weiß man nicht was da schon kaputt war... wenn aber die neuen Baseline Profile und der Fix bei neuen CPUs nicht funktionieren wär das hart... nicht dass die Dinger das OC brauchen um überhaupt stabil zu laufen was sie aber auf lange Sicht dennoch kaputt macht...

Hakim
2024-06-24, 21:02:50
Oh man, das sieht einfach nicht gut aus, dieses Chaos, Gigabyte bietet immer noch nicht das Bios für z690er Mobos an, welches ja anscheinend immer noch nicht bei allen helfen würde.

Da kann man halt selbst als jemand der normal Intel CPUs etwas mehr bevorzugt raten: ""Buy an AMD Ryzen CPU".

HOT
2024-06-25, 12:17:13
Intel wird wohl einfach nicht darum herumkommen ein hart spezifiziertes Profil herauszubringen und den Boardherstellern das per Microcode aufzuzwingen. Man könnte den µCode auch per Windows laden und die Einstellungen der Boardhersteller einfach überschreiben. Und man muss natürlich die tatsächlich defekten CPUs zu tauschen.

gedi
2024-06-25, 21:55:38
Ich denke, die Probleme sind dem Design geschuldet und egal wieviel Power anliegt, die Dinger einfach, mit gewisser Zeit, eingehen. Wenn ich mir das kommende Portfolio seitens AMD anschaue, dann sehe ich dunkelschwarz für Intel.

Gipsel
2024-06-25, 22:21:27
Ich denke, die Probleme sind dem Design geschuldet und egal wieviel Power anliegt, die Dinger einfach, mit gewisser Zeit, eingehen.Nee, das ist wahrscheinlich eine Kombination von hoher Temperatur und hoher Spannung, die zu einer unvorhergesehenen beschleunigten Degradation führt.

Weltraumeule
2024-06-26, 00:09:56
Also wenn ich einen i5-14600 (non k) hole, nicht übertakte (was mit dem Model und meinem B660 Board ja eh kaum geht), muss ich keine Angst haben oder?

Exxtreme
2024-06-26, 00:14:46
Also wenn ich einen i5-14600 (non k) hole, nicht übertakte (was mit dem Model und meinem B660 Board ja eh kaum geht), muss ich keine Angst haben oder?

Da sollte es keine Probleme geben, ja. Wobei ich eher einen i7-14700 bevorzugen würde.

Pirx
2024-06-26, 07:52:10
vllt ist es auch ein generelles Problem des Intel Herstellungsprozesses und es zeigt sich nur bei hohem Takt+Temperatur+Spannung schneller?

Denniss
2024-06-26, 10:22:02
der 14600 non-k könnte aber auch ein älterer AlderLake sein.
Wenn man das automatische Board-OC abschaltet sollten auch die K vernünftig betreibbar sein ohne zu schmelzen

latiose88
2024-06-26, 10:35:39
Ja man wird nur dabei etwas an Leistung verlieren weil es ja von haus aus mehr eingehauen worden ist. Ein Verlust ist somit sicher nur bei jedem halt anderst viel ausgeprägt halt.

Wuge
2024-06-26, 17:36:36
vllt ist es auch ein generelles Problem des Intel Herstellungsprozesses und es zeigt sich nur bei hohem Takt+Temperatur+Spannung schneller?

Nein, der Prozess ist sogar sehr robust.
Die CPUs degraden nur, wenn man über lange Zeit hohe Spannungen (>1.5V fix) oder Leistungen (>250W). Drauf gibt. Selbst ein Jahr lang dynamisch geregeltes OC bis 6200 MHz, 1.5V, 150-200W im Alltagsbetrieb schaden nicht, wenn man sich an Limits (iccmax, VCore) hält.

Weltraumeule
2024-06-27, 00:02:59
Da sollte es keine Probleme geben, ja. Wobei ich eher einen i7-14700 bevorzugen würde.
Ne, der 14600 ist bereits Schmerzgrenze ;(

Kriegsgeier
2024-06-27, 09:47:30
kaufe dann den 13700k - gibt es für 360€ Hammer Preis für die Leistung!

Hakim
2024-06-27, 09:58:48
Einfach 14700kf holen und selber in die Schranken weisen. kostet auch um den Dreh.

gnomi
2024-06-27, 10:51:50
13700KF für 320 finde ich sehr interessant.
9900KF ist einfach überraschend langsam geworden mit den vielen Neuentwicklungen und jetzt mit 4080S.
Letztendlich habe ich aber wohl kein Bock auf teure Boards mit DDR5 oder Umbau noch mit DDR4.
Intel ist auch nicht mehr das, was es mal war. :freak:
Also wahrscheinlich dann richtig was Neues später und jetzt Auflösung Hoch und 60fps Target maximal plus FG.

Gipsel
2024-06-27, 11:05:54
Das ist hier nicht der Kaufberatungs-Thread!;)

TobiWahnKenobi
2024-07-03, 19:08:41
ich habe meinen fünf monate alten 14900k am 3.6. eingeschickt. zurück zum händler. der hat ihn dann weitergeschickt und dann war erstmal funkstille.

damit irgendwas im sockel steckt hatte ich 10 tage einen 14700k und dann kam hier ein
neuer 14900k an. beide selbst gekauft - nichts umgetauscht oder so..

gestern hat mein händler mir den kaufpreis für den eingeschickten 14900k erstattet. die cpu kann nicht repariert oder in einem zumutbaren zeitfenster ausgetauscht werden.

fand ich fair. jetzt ist alles wieder schick.. mal schauen wie lange..

btw,
der neue ist bisher unauffällig und auch den 14700k halte ich für empfehlenswert. dass der vier e-cores weniger als der 14900k hat, merkt keine sau. ich hatte alle drei CPUs
auf TVB 6GHz laufen; e-cores auf 45x.



(..)

mfg
tobi

miep
2024-07-06, 13:21:41
Ich habe für einige Tage einen i9-14900KS "getestet". Normalerweise ist da ein i5-12500 drin.

MSI PRO Z790-P WIFI
Crucial 64GB DDR5 RAM @4800
Noctua NH-C14S
Linux
E-Cores off
HT off


Sicher reproduzierbar:
Shadercompilation vor manchen Spielen crasht oder wird nie fertig. (z.B. Dota2)
(unter anderem "Out of memory" Error)

Programcrashes, die gefühlt erst nach dem Tausch des Prozessors auftraten:
Übersetzen von Programmen schlägt manchmal fehl (icecat, gpt4all-chat)
newsboat crasht nach Start




Diese Probleme verschwanden sofort und reproduzierbar, sobald ich das PL2 von 253W auf 125W begrenzt habe.
echo 125000000 | doas tee /sys/devices/virtual/powercap/
intel-rapl/intel-rapl:0/constraint_1_power_limit_uw

Dadurch wird die CPU weniger heiß (nicht mehr zeitweise 100°C auf manchen Cores). Natürlich leistet sie jetzt auch etwas weniger und taktet nicht mehr so hoch. Vorher konnte ich schon manchmal die 6,2GHz sehen, jetzt maximal 5,9Ghz. Prinzipiell kann man die CPU so benutzen und sie ist trotzdem flott.

Mir ist klar, dass man dieses Setup fragwürdig finden könnte. Ich will hier vor allem einfach meine Erkenntnisse teilen.

Hakim
2024-07-06, 13:43:22
Ich dachte beim KS Versionen würde es evtl nicht auftreten da nur selektierte Chips. Denke aber musst nicht runter auf 125w. 200w würde es auch machen.

Wuge
2024-07-07, 14:43:13
@miep: was ist im bios unter VRM einstellungen eingestellt? Loadline iccmax etc...
Und die 6200... siehst du die auch multi core? Dann wäre da auch einiges an limits ausgehebelt.
Normal sollte der auch bei 253W keine fehler bringen. Aber vermutlich setzt dein board auch limits ausser kraft.

dildo4u
2024-07-11, 06:15:20
Wendel hatte zugriff auf ein Crashlog eines Spieleentwicklers und schlüsselt die Daten auf.


QzHcrbT5D_Y

HOT
2024-07-11, 08:04:10
Mit einfachen Worten: Raptor Lake ist kaputt. Die Dinger sind nicht mal als Servervarianten stabil, man bekommt sie also nicht stabil.

Pirx
2024-07-11, 08:08:36
brutal, daß da wieder der Deckel so "gut" drauf bleibt - Intel hat immer noch zu große Marktmacht

dildo4u
2024-07-11, 08:13:01
Das Video erklärt auch warum es keine Lösung gibt es ist schwer immer die selben Abstürze zu erzeugen.

Die Server Daten sind interessant Gamer eher weniger da die vermutlich oft über Specs laufen was den Ram angeht.

Gipsel
2024-07-11, 08:19:39
Die Server Daten sind interessant Gamer eher weniger da die vermutlich oft über Specs laufen was den Ram angeht.Die Crashraten sinken wohl, wenn man den RAM sehr langsam fährt (<=5200 mit einem DIMM pro Channel, <4000 mit 2DPC). Aber es bleibt immer noch recht viel übrig.

HOT
2024-07-11, 08:25:11
Das muss natürlich auch erst mal auffallen, dass das ein CPU-Problem ist. Jetzt ist es aber relativ klar, mal sehen, was da noch zutage gefördert wird. Aber ADLs sind ja definitiv nicht betroffen, 12900k laufen wie die Eins.
Es liegt also nicht am Prozess oder an der Plattform, das lässt sich auf das Raptor-Lake-Die eingrenzen.

Exxtreme
2024-07-11, 09:00:25
Wäre interessant zu wissen ob das Problem auch auftritt wenn man die CPU mit extrem konservativen Energieeinstellungen fährt so ala max. 125 W.

y33H@
2024-07-11, 09:42:59
Mein 14900K läuft mit 150W und es gab nie irgendwelche Probleme - freilich nur ein Sample ^^

Der_Korken
2024-07-11, 10:18:44
Das Problem scheint auch sehr sample-spezifisch zu sein. Bei einigen läuft die Kiste seit 1,5 Jahren stabil mit maximalem OC, bei anderen stürzt sie ohne OC alle 2h ingame ab.

Gab es nicht auch mal ein Video von Buildzoid, der Raptor Lake attestiert hat, dass RAM OC dort nicht stabil zu bekommen ist, weil selbst nach ewig langem Testen bei vermeintlich stabilen Settings immer wieder mal plötzlich doch noch ein Error durchrutscht?

HOT
2024-07-11, 10:45:35
Das kam mir auch in den Sinn. Er hat auch einen, der nichtmal 6000 stabil schafft.
Es gibt sicherlich auch viele, die einfach laufen.

Wuge
2024-07-11, 11:06:16
Mit einfachen Worten: Raptor Lake ist kaputt. Die Dinger sind nicht mal als Servervarianten stabil, man bekommt sie also nicht stabil.

Consumer CPUs auf Serverboards. Und kein Mensch weiß wie die konfiguriert sind (SVID). Wir reden schließlich nicht von Overclocking sondern von undervolting. Auf die Boards gehören Xeon CPUs.

Ich dachte jetzt in dem Video werden Ursachen ermittelt. Das einzige was er herausgefunden hat ist, dass die 13900K und 14900K in verschiedenen Use Cases sehr viel häufiger crashen als andere Systeme. Das wussten wir vorher auch schon.

dildo4u
2024-07-11, 11:10:41
Zeigen die Server Tests nicht das die neuen Profile nix bringen ich würde da jetzt versuchen direkt die CPU zu tauschen so lange meine Garantie noch läuft.

Exxtreme
2024-07-11, 11:14:03
Wenn Raptor Lake echt kaputt ist dann sollen sie lieber Arrow Lake kompatibel mit den alten Boards machen. Und wenn die Leute Stabilitätsprobleme haben dann die instabilen Raptor Lakes durch Arrow Lakes kostenlos tauschen.


Und dann ist zu hoffen, dass Arrow Lake diese Probleme nicht hat.

user77
2024-07-11, 11:19:24
die instabilen Raptor Lakes durch Arrow Lakes kostenlos tauschen.

ja genau das wird Intel machen :freak:

Exxtreme
2024-07-11, 11:22:17
ja genau das wird Intel machen :freak:

Wenn Raptor Lake grundsätzlich kaputt ist dann wäre das die beste Lösung. Bei sowas droht sonst schnell eine Sammelklage. :freak:

Pirx
2024-07-11, 12:23:33
Wenn Raptor Lake echt kaputt ist dann sollen sie lieber Arrow Lake kompatibel mit den alten Boards machen. Und wenn die Leute Stabilitätsprobleme haben dann die instabilen Raptor Lakes durch Arrow Lakes kostenlos tauschen. ...
dürfte, selbst wenn es technisch möglich wäre, utopisch sein, oder?

Exxtreme
2024-07-11, 12:32:20
Möglich, dass eine Entschädigungszahlung billiger ist denn ein Arrow Lake-Ersatz, ja. Andererseits bin ich mir sicher, dass Intel schon sehr lange von dieser Problematik weiss. Sprich, genug Zeit hätten sie ja eine Arrow Lake-Variante für den alten Sockel zu bringen.

Denniss
2024-07-11, 12:46:50
wäre nur etwas schwierig bei einem DDR4 Board. ArL soll ja kein DDR4 mehr unterstützen aber das kann auch eine Sache der Platform sein und die CPU könnte es weiterhin.

Der_Korken
2024-07-11, 12:48:22
Das schlimme ist ja, dass die Leute, selbst wenn sie den Kaufpreis ihrer S1700-CPU erstattet bekommen, immer noch auf ihren dann unbrauchbaren Boards sitzen bleiben. Arrow Lake zurückzuporten stelle ich mir aber sehr schwierig vor, da ja auch der ganze SoC neu sein wird. AMD hätte es da wohl leichter gehabt, Zen 4 auf AM4 zu bringen, weil die alten CPUs auch schon die Trennung zwischen SoC und Compute-Die hatten (das IF-Protokoll muss natürlich trotzdem erstmal angeglichen werden ...). Realistisch gesehen wird Intel das Aussitzen und den Leuten einfach weiter Austauschmodelle schicken, damit es keine großen Aufstände gibt.

Pirx
2024-07-11, 12:49:11
Wäre halt einfach schön wenn seitens Intel _ein mal_ mit offenen Karten gespielt würde. Andererseits könnte es wohl sehr weitreichend sein und auch bspw. AMD hat ähnliche Sachen eher "hintenrum" abgewickelt.

E39Driver
2024-07-11, 13:09:52
ja genau das wird Intel machen :freak:
Sie haben es 1994 mit dem Pentium-Bug schon einmal gemacht und ohne großes Aufsehen 6 mil. CPUs zurückgerufen. https://www.pcgameshardware.de/Retrospektive-Thema-214694/News/Vom-Pentium-Rueckruf-und-Apples-Wiedergeburt-PCGH-Retro-20-Dezember-625624/

Scheinbar ist der heutige Konsument bei solchen Dingen toleranter geworden oder lässt sich durch Social-Media Marketing leichter beeinflussen im Sinne des Konzerns.

Dabei dürfte es diesmal für Intel um deutlich geringere Stückzahlen gehen. Betroffen scheint ja nur der Raptorlake-Die zu sein und dort primär das DYI-Segment, wo man zuletzt eh nur noch geringe Marktanteile hatte. 90% des Absatzes machen doch irgendwelche hart limitierten OEM-Kisten aus, die mutmaßlich stabil laufen. Und über das verschwindend geringe Serversegment mit dieser CPU brauchen wir nicht sprechen

HOT
2024-07-11, 13:37:48
Wenn Raptor Lake echt kaputt ist dann sollen sie lieber Arrow Lake kompatibel mit den alten Boards machen. Und wenn die Leute Stabilitätsprobleme haben dann die instabilen Raptor Lakes durch Arrow Lakes kostenlos tauschen.


Und dann ist zu hoffen, dass Arrow Lake diese Probleme nicht hat.

Dann wirds irgendwann eine gefixte Rev. geben und die werden dann getauscht. Ich vermute aber Intel wird das irgendwie per Firmware hinbiegen und Raptor Lake das Übertakten verunmöglichen, indem man die Firmware über Windows/Linux lädt und es total egal ist, was das BIOS einstellt.

Das Die wird damals mit heißer Nadel gestrickt worden sein und das rächt sich jetzt.

Consumer CPUs auf Serverboards. Und kein Mensch weiß wie die konfiguriert sind (SVID). Wir reden schließlich nicht von Overclocking sondern von undervolting. Auf die Boards gehören Xeon CPUs.

Ich dachte jetzt in dem Video werden Ursachen ermittelt. Das einzige was er herausgefunden hat ist, dass die 13900K und 14900K in verschiedenen Use Cases sehr viel häufiger crashen als andere Systeme. Das wussten wir vorher auch schon.

Das ändert genau was? Die CPUs werden ja offiziell von den Brettern supported.

Hakim
2024-07-11, 15:17:21
Mir gefällt die Lösung von Exxtreme :), aber das wird bei einigen die immer noch DDR4 Systeme haben nicht gehen da die neue CPU es nicht unterstützt. Ich wäre auch mit, schickt eure K Raptoren und erhaltet dafür Arrow Lake CPU in der selben Kategorie zufrieden, wird ja sowieso beides nicht passieren :)