Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 25. Oktober 2021
Leonidas
2021-10-26, 09:58:47
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-25-oktober-2021
Sweepi
2021-10-26, 10:10:29
Der Anandtech Artikel zum M1 Pro/Max wäre noch eine Verlinkung wert: https://www.anandtech.com/show/17024/apple-m1-max-performance-review
y33H@
2021-10-26, 10:28:58
Dies macht die Sache für die Hardwaretester nicht einfacher, denn normalerweise müsste jene nun zwei Benchmark-Serien zu Alder Lake aufstellen: Einmal mit dieser starken Werksübertaktung auf Mainboard-Seite – und einmal auf regulären PL1/PL2-Werten, weil wie gesagt sicherlich beide Varianten im Mainboard-Markt zu erwarten sind.Das ist doch schon seit Jahren erforderlich - bereits der 9900K hat die 125W gnadenlos gerissen, sprich man musste den mit PL1=125W und PL1=unlimited testen.
Legendenkiller
2021-10-26, 11:00:56
Ist nicht schön wie das immer mehr ausufert ...
Aber AMD macht das ja auch. Da hält sich keine einzige CPU mehr an ihre TPD, sondern nutzt immer und dauerhaft die höhere PPT die aber nicht auf der Verpackung angegeben wird.
Das ist alles nur noch so Marketing Murks. Edit: sorry ist kurz aber trotzdem redundant ;-)
Bei den Angaben zu den Fertigungstechologie sind es ja mittlerweile auch nur noch Fantasybezeichungen.
Wenn sie schön alle son Blödsinn machen, um nicht Betrug sagen zu müssen, sollten sie wenigsten die physikalischen Maßeinheiten weglassen.
Also Intel 7 ist schon mal konsequent.
Bei CPUs dann bitte sowas wie 125 MWP (Marketing Wish Power)
Rabiata
2021-10-26, 11:20:44
Das ist doch schon seit Jahren erforderlich - bereits der 9900K hat die 125W gnadenlos gerissen, sprich man musste den mit PL1=125W und PL1=unlimited testen.
Hat Igor auch vor. Wenn ich ihn richtig verstanden habe, könnte es sogar sein daß er nur nach Spec testet.
nicht schön wie das immer mehr ausufert ...
Aber AMD macht das ja auch, da hält sich auch keine einzige CPU an ihre TPD mehr , sondern nutzt immer und dauerhaft die höhere PPT.
Das ist alle nur noch so marketing murks wie bei den angaben zur Fertigungstechologie die mittlerweile reiche Fantasybezeichungen sind.
Wenn sie schön alle son blödsinn machen, um nicht betrug sagen zu müssen, sollten sie wenigsten die Maßeinheiten weglassen.
Also Intel 7. CPU @125 Marketingpower
Die 125W sind ja die "zahme" PL1. Marketingpower sind 241 Watt. Bei AMD würde ich dafür plädieren, statt der PPT die CPU auf die TDP zu limitieren, falls das BIOS das hergibt.
Was die Rembrandt-APU angeht, klingt das Testergebnis auf den ersten Blick sehr enttäuschend. Aber mit nur einem belegten Speicherkanal ist das zu erwarten.
Mein erster Gedanke, als ich das gelesen habe, war daß Tom's Hardware jetzt jegliche Kompetenz beim Zusammenstellen der Testsysteme verloren hat. Zu ihrer Ehrenrettung sei gesagt, daß das Testergebnis von jemand anders war. Dennoch halte ich es für fragwürdig, ein solches Testergebnis überhaupt zu veröffentlichen.
Cubitus
2021-10-26, 11:34:33
Intel zielt doch nur auf Cinebench ab, und eben auf andere Benches wie CPUz,
und diversen anderen Apps. --> Marketing same as AMD.
Unterm Strich kommt es drauf an, was sich die CPU während des Spielens genehmigt und auch was die CPU im TDP Rahmen leisten kann.
Bzw. was die CPU sich im Ideln auch nimmt.
Falls das nicht reichen sollen, kommt eben die Intel typische Brechstange :freak:
Bzw. ich denke diese wird bei Alder Lake wesentlich später zum Einsatz kommen.
Ahnungsloser Passant
2021-10-26, 11:37:36
Ist nicht schön wie das immer mehr ausufert ...
Aber AMD macht das ja auch. Da hält sich keine einzige CPU mehr an ihre TPD, sondern nutzt immer und dauerhaft die höhere PPT die aber nicht auf der Verpackung angegeben wird.
Das ist alles nur noch so Marketing Murks. Edit: sorry ist kurz aber trotzdem redundant ;-)
Bei den Angaben zu den Fertigungstechologie sind es ja mittlerweile auch nur noch Fantasybezeichungen.
Wenn sie schön alle son Blödsinn machen, um nicht Betrug sagen zu müssen, sollten sie wenigsten die physikalischen Maßeinheiten weglassen.
Also Intel 7 ist schon mal konsequent.
Bei CPUs dann bitte sowas wie 125 MWP (Marketing Wish Power)
Ich finde das sollte man schon differenzieren. Ich stimme dir zu, dass sowohl AMD als auch Intel diese betrügerische Unsitte betreiben. Intel agiert hier aber mit deutlich mehr krimineller Energie, wenn sie 125W angeben und das Ding tatsächlich fast das Doppelte zieht 241W (+92,8%). Deswegen ist es schon gerechtfertigt, wenn sie dafür auch proportional mehr Prügel beziehen. Die Argumentation "die Betrügen doch eh alle" hilft nur bei der Legitimation solchen Verhhaltens.
Das ist wie im Straßenverkehr. Je weiter du über dem Tempolimit fährst, umso härter ist die Strafe, aber eine Strafe bekommen alle Sünder.
MiamiNice
2021-10-26, 11:44:30
Ich finde da wird ein Aufstand für nichts und wieder nichts geprobt. Als ob im realen Alltag auch nur annähernd dieser Wert erreicht wird. Es geht nur um Balken und Klicks, da tun sich beide Hersteller nichts. Nur das der eine nicht mehr kann, da er schon hart an der Grenze des Siliziums ist.
Wenn ich mir den Text von Leo und Igor zu dem Thema durchlese, kann ich nur mit dem Kopf schütteln. Hier wird suggeriert die CPU würde quasi immer diesen Wert ziehen. Diese Art Auslastung findet im realen Einsatz aber gar nicht statt.
Und selbst wenn es so wäre, Käufer eines 600€ CPU mit entsprechenden Unterbau und Kühlung, scheren sich einen Dreck um die paar Watt. Hier wird Panik gemacht aufgrund der Spitzenmodelle und Leute treiben diese Gerüchte durchs Dorf.
Aber in Corona Zeiten wohl nichts neues -.-
Ahnungsloser Passant
2021-10-26, 11:57:29
Ich finde da wird ein Aufstand für nichts und wieder nichts geprobt. Als ob im realen Alltag auch nur annähernd dieser Wert erreicht wird. Es geht nur um Balken und Klicks, da tun sich beide Hersteller nichts. Nur das der eine nicht mehr kann, da er schon hart an der Grenze des Siliziums ist.
Wenn ich mir den Text von Leo und Igor zu, dem Thema durchlese, kann ich nur mit dem Kopf schütteln. Hier wird suggeriert die CPU würde quasi immer diesen Wert ziehen. Diese Art Auslastung findet im realen Einsatz aber gar nicht statt.
Und selbst wenn es so wäre, Käufer eines 600€ CPU mit entsprechenden Unterbau und Kühlung, scheren sich einen Dreck um die paar Watt. Hier wird Panik gemacht aufgrund der Spitzenmodelle und Leute treiben diese Gerüchte durchs Dorf.
Aber in Corona Zeiten wohl nichts neues -.-
Wenn das alles nicht so schlimm ist und es die meisten Leute Leute sowieso nicht interessiert, warum schreibt Intel dann nicht einfach 241W dran, AMD 141W? Beide Hersteller sind offensichtlich der Meinung, dass Mehrverkäufe durch die falschen Angaben eventuelle Verluste durch Nörgler aufwiegen!
MiamiNice
2021-10-26, 12:10:48
Weil die meisten Leute keinen Plan haben das nur ein Bruchteil dieser TDP anliegt im normalen Betrieb. Es wäre die Aufgabe von Seiten wie dieser hier, oder Igor, etc. pp, die Leute aufzuklären statt Panikmache zu betreiben. Vielleicht würden die Menschen dann auch schlauer und würden diese Angaben mit den richtigen Augen sehen. Aber das produziert, langfristig gesehen, halt weniger Klicks ;) Und das Spice muss halt fließen.
Wenn das alles nicht so schlimm ist und es die meisten Leute Leute sowieso nicht interessiert, warum schreibt Intel dann nicht einfach 241W dran, AMD 141W? Beide Hersteller sind offensichtlich der Meinung, dass Mehrverkäufe durch die falschen Angaben eventuelle Verluste durch Nörgler aufwiegen!
so ist es und wenn die intel cpus nicht ihr pl1 in 241w bekommen sind sie kaum schneller und unterliegen zen in alltagsbenchmarks und spielen. es ist also absicht. das ist kein einfacher fehler eines praktikanten, sondern kriminell. pl4 351w, jetz wissen wir auch warum ein 8c+8c/24t einen 16c/32t schlägt. einfach mal den zen auf 351w oc, mal sehen was dann passiert.
dss igor recht behält dürfte so sein, wenn ein mitteklasseboard schon 18 phasen aufweist, was auch die boards bei derzeitiger bauteillage am markt extrem verteuert.
die letzten jahre geht man bei intel den weg die energiedichte maximal zu erhöhen. das ist keiner bisschen fortschrittlich, sondern die leichteste übung. mehr leistung wird einfach nur aus höherem verbrauch generiert. nvidia tat es mit ampere genauso, bei theoretischer shaderanzahlsteigerung die keine ist. in hardware blieb die anzahl zur vorgängern wie turing gleich.
wohin das alles führen soll ist unklar, effizienz wird die nächsten jahre maximal an bedeutung gewinnen, diese entwicklung ist daher kaum nachzuvollziehen.
Hach der Igor immer mehr ein selbstgefälliger ….. der immer beteuert wie anders und gerade er ist , der Rest seien nur hole influencer gegen die er immer fleißiger austeilt , heult über mangelnde besampelung die daran liegt weil er ja so gerade und kritisch ist.
Wenn man dann mal ein paar Artikel von ihm liest und seine Website besucht merkt man das auch er nichts anders macht als die gescholtenen .
Auschlachten von Meldungen die keine sind.
Produktplacement wo es geht . Was ihn aber mM wirklich unterscheidet ist seine Überheblichkeit wie im Artikel zum PL bei ADL prima zulesen , da werden die Kollegen jetzt schon vor Veröffentlichung ihrer Artikel diffamiert , ganz großes Kino .
Die Geschichte mit den übergangenen default PL hat ihn bei vorherigen Intel Gens auch nicht aus der Reserve gelockt nur dieses Jahr weil wohl sonst kein anderer Aufhänger gefunden werden konnte um vor dem Launch nochmal Aufmerksamkeit zu bekommen und schonmal profilaktisch gegen alle anderen auszuteilen.
Complicated
2021-10-26, 12:24:26
Aufklärung wird hier betrieben mit dem Artikel.
Die Forderung im gleichen Zug das ganze für Endkunden transparent zu machen bei Produktbeschreibungen ist die richtige und konsequente Schlußfolgerungen dieser Aufklärung.
konkretor
2021-10-26, 12:45:12
Aktuell ist es nicht mehr schön was hier an Strom rausgeblasen wird nur um irgendwo kurz die Nr. 1 zu sein.
Viele Kunden können doch mit PL1 und PL2 doch gar nichts anfangen.
Die kaufen die Kiste so wie sie im Laden steht und ab gehts.
wandermann
2021-10-26, 13:07:57
Die Praxis gab es ja schon lange, da aber gerade überall die Strompreise massiv anziehen dürfte es Intel sehr nachteilig ausgelegt werden einen noch größeren Stromschlucker herauszubringen, Balken sind heutzutage nicht mehr alles.
Aroas
2021-10-26, 13:16:29
Unterm Strich kommt es drauf an, was sich die CPU während des Spielens genehmigt...
Stimmt, weil man ja mit PCs nicht anderes anstellen kann, als zu spielen.
*facepalm*
Cubitus
2021-10-26, 13:56:33
Stimmt deswegen nimmt man auch Consumer CPUs anstatt Workstation Prozessoren. :rolleyes:
Natürlich sollen CPUs auch andere Sachen können.
Aber darum geht es hier primär nicht, wir reden von K Modellen mit offenem Multi und mit allen Schleusen offen, falls man das möchte.
Es kommt drauf an wie effizient Alder lake im Alltag sein wird,
und ob das Konzept Big-Little wie gewünscht aufgehen wird.
etp_inxession
2021-10-26, 13:59:05
Sollte ADL für den "längsten" Balken wirklich >200 Watt verbraten, ist das Ding doch DOA.
Passt irgendwie null in die heutige Zeit.
Bin gespannt wie die Headlines der Tests ausfallen werden.
Und ob sich Computerbase auch mal traut, Intel in der Headline zu kritisieren.
Das ist bisher Gang und Gebe bei AMD Tests gewesen.
Rabiata
2021-10-26, 14:41:24
Weil die meisten Leute keinen Plan haben das nur ein Bruchteil dieser TDP anliegt im normalen Betrieb. Es wäre die Aufgabe von Seiten wie dieser hier, oder Igor, etc. pp, die Leute aufzuklären statt Panikmache zu betreiben. Vielleicht würden die Menschen dann auch schlauer und würden diese Angaben mit den richtigen Augen sehen. Aber das produziert, langfristig gesehen, halt weniger Klicks ;) Und das Spice muss halt fließen.
Dann würde es andersherum den CPU-Herstellern auch nicht weh tun, konsequent die TDP einzuhalten. Aber bei den Benchmarks für die Werbung wird die Leistung tatsächlich verbraten, da soll dann aus Marketinggründen der Test möglichst mit PL2 durchlaufen.
Ich hoffe nur, daß möglichst viele Reviewer ihre Tests strikt nach Spec durchziehen, d. h. nach 56 Sekunden wird auf PL1 gedrosselt.
Und in absoluten Zahlen sind 241 Watt schon eine Menge, da kann AMD schon fast den Threadripper dagegen setzen. Wenn ich mal Anandtech zitiere (https://www.anandtech.com/show/15044/the-amd-ryzen-threadripper-3960x-and-3970x-review-24-and-32-cores-on-7nm/2), dann halten die 3xxx Threadripper ihre 280W TDP recht gut ein, das sind dann nur 16% mehr als Alder Lake PL2. Die Preise sind natürlich noch mal eine Kategorie höher, aber einen echten Fan stört das ja nicht...
Leonidas
2021-10-26, 14:51:12
Der Anandtech Artikel zum M1 Pro/Max wäre noch eine Verlinkung wert: https://www.anandtech.com/show/17024/apple-m1-max-performance-review
Danke für den Hinweis.
Was die Rembrandt-APU angeht, klingt das Testergebnis auf den ersten Blick sehr enttäuschend. Aber mit nur einem belegten Speicherkanal ist das zu erwarten.
Das "SingleChannel" ist nur eine reine denkbare Möglichkeit einer Unzulänglichkeit des Testsystems. Ich hab das im Text vergessen auszuführen, dass dies nur eine Möglichkeit und keine bestätigte Realität darstellt. Gefixt.
Aroas
2021-10-26, 15:30:58
Stimmt deswegen nimmt man auch Consumer CPUs anstatt Workstation Prozessoren. :rolleyes:
Was für ein total blödsinniges Argument.
Nicht jeder braucht direkt eine Workstation CPU. Diese zeichnen sich in der Regel nämlich nicht etwa durch höhere CPU Leistung aus, sondern durch Features wie mehr PCIe Lanes usw.
Für viele Nutzer, auch im beruflichen Umfeld, ist das aber gar nicht nötig. Und so nutzen viele dieser Leute eben "Consumer" CPUs, statt sich teure Workstation Hardware zu kaufen.
Ein Bekannter von mir nutzt für seine Arbeit einen Rechner mit Ryzen 7 3900X. Er benötigt die Multithread Leistung der CPU mit ihren 12 Kernen. Einen Threadripper mit seinen vielen PCIe Lanes und anderen Features benötigt er hingegen keineswegs. Also warum sollte er zu solch einer CPU greifen?
Aber ich merke schon, diesbezüglich ist dein Tellerrand sehr hoch. Zu hoch um drüber schauen zu können.
Was für ein total blödsinniges Argument.
Nicht jeder braucht direkt eine Workstation CPU. Diese zeichnen sich in der Regel nämlich nicht etwa durch höhere CPU Leistung aus, sondern durch Features wie mehr PCIe Lanes usw.
Für viele Nutzer, auch im beruflichen Umfeld, ist das aber gar nicht nötig. Und so nutzen viele dieser Leute eben "Consumer" CPUs, statt sich teure Workstation Hardware zu kaufen.
Ein Bekannter von mir nutzt für seine Arbeit einen Rechner mit Ryzen 7 3900X. Er benötigt die Multithread Leistung der CPU mit ihren 12 Kernen. Einen Threadripper mit seinen vielen PCIe Lanes und anderen Features benötigt er hingegen keineswegs. Also warum sollte er zu solch einer CPU greifen?
Aber ich merke schon, diesbezüglich ist dein Tellerrand sehr hoch. Zu hoch um drüber schauen zu können.
Vorsicht dein Tellerand hat keine eingebaute Fehlerkorrektur um mal den Hebel zu betätigen und passt nicht in der maximal verbaubaren Speicher ;-P
so ist es und wenn die intel cpus nicht ihr pl1 in 241w bekommen sind sie kaum schneller und unterliegen zen in alltagsbenchmarks und spielen.
In Alltagsbenchmarks und Spielen brauchen die CPUs keine 100W, da ist völlig wurscht ob das Powerlimit 125W oder 1000W ist.
Das hohe Powerlimit bringt einzig bei den Allcorebenchmarks einen nennenswerten Vorteil, die für >90% überhaupt keine Praxisrelevanz haben.
Laut Igor's Lab weisen die aktuellen BIOS-Versionen für Z690-Platinen einen PL1-Wert von satten 241 Watt auf – womit bei "Alder Lake" PL1=PL2 zu werden droht. Dies wird belegt durch ein paar abgeschriebene Intel-Unterlagen, ist damit nicht so einfach von der Hand zu weisen.
Ist das wirklich sowas neues dass man das extra erwähnen muss?
Das ist ja schon lange bekannt, dass Mainboardhersteller gerne mal höhere Werte als die empfohlenen einstellen, weil sie ihre Mainboards in den Benchmarks vorne sehen wollen.
Bei Z5xx war das jedenfalls auch schon üblich, wobei die Umsetzung eigentlich sehr gut sind, weil viele Mainboards mittlerweile beim ersten Start den User fragen welche Powerlimits er verwenden will.
Lehdro
2021-10-26, 16:33:46
Was ihn aber mM wirklich unterscheidet ist seine Überheblichkeit wie im Artikel zum PL bei ADL prima zulesen, da werden die Kollegen jetzt schon vor Veröffentlichung ihrer Artikel diffamiert, ganz großes Kino.
Das ist doch der Markenkern von Igor: Alle machen es falsch, nur ich weiß wie es richtig geht. Arrogant von oben herab und immer quer durch die Botanik mit diesen Anschuldigungen sensen, egal wer getroffen wird.
Muss man aushalten können wenn man seinen Content konsumieren will, denn ohne Seitenhiebe auf die "Kollegen" geht es bei ihm ja anscheinend so gar nicht.
Die Geschichte mit den übergangenen default PL hat ihn bei vorherigen Intel Gens auch nicht aus der Reserve gelockt nur dieses Jahr weil wohl sonst kein anderer Aufhänger gefunden werden konnte um vor dem Launch nochmal Aufmerksamkeit zu bekommen und schonmal profilaktisch gegen alle anderen auszuteilen.
Man würde meinen Igor hätte da schon oft etwas zu gesagt und sich sogar abfällig über andere Techoutlets geäußert die das die letzten Jahre erneut ins Gespräch gebracht hatten, von wegen das wäre ja kalter Kaffee und schon längst bekannt. Die "richtigen Reviewer" würden ja sowieso die TDP anhand Intelspec (gibt ja mittlerweile mehrere) im UEFI richtig per Hand konfigurieren etc :freak:
Ach halt, Igor testet ja immer mit "Standard" Mainboard, also mehr oder weniger unlimitiert, ups ;D
Kannste dir auch nicht ausdenken :cool:
Cubitus
2021-10-26, 16:57:38
Was für ein total blödsinniges Argument.
Nicht jeder braucht direkt eine Workstation CPU. Diese zeichnen sich in der Regel nämlich nicht etwa durch höhere CPU Leistung aus, sondern durch Features wie mehr PCIe Lanes usw.
Für viele Nutzer, auch im beruflichen Umfeld, ist das aber gar nicht nötig. Und so nutzen viele dieser Leute eben "Consumer" CPUs, statt sich teure Workstation Hardware zu kaufen.
Ein Bekannter von mir nutzt für seine Arbeit einen Rechner mit Ryzen 7 3900X. Er benötigt die Multithread Leistung der CPU mit ihren 12 Kernen. Einen Threadripper mit seinen vielen PCIe Lanes und anderen Features benötigt er hingegen keineswegs. Also warum sollte er zu solch einer CPU greifen?
Aber ich merke schon, diesbezüglich ist dein Tellerrand sehr hoch. Zu hoch um drüber schauen zu können.
Joa dann ist es doch schön das dein Bekannter mit dem Ryzen 7 eine gute CPU für sich fand.
Zum Spielen hatte ich die auch schon, war nicht so der Burner, viele Kerne für Anwendungen, die ich selten nutzte,
allerdings bei nützlichen Anwendungsszenarien macht die CPU schon Sinn.
Wir nutzen bei uns in der Firma Intel Workstation-CPUs mit ECC Unterstützung, diese bieten auch keinen Spielraum für OC bzw. Tuningversuche.
Aus gutem Grund ;)
Der 12900k ist aber nicht unbedingt die Anwendungs-CPU, klar will Intel dort auch Punkte holen,
aber im Endeffekt richtet sich diese CPU an Enthusiasten, bzw. Übertakter und an Gamer, bzw. die kleinen Kerne werden für billo Aufgaben rund um den Desktop wichtig sein, also DailyUse..
Wir werden sehen ob Intels Konzept aufgehen wird, ich denke ja.
Aber mal abwarten.
Rabiata
2021-10-26, 17:02:31
Man würde meinen Igor hätte da schon oft etwas zu gesagt und sich sogar abfällig über andere Techoutlets geäußert die das die letzten Jahre erneut ins Gespräch gebracht hatten, von wegen das wäre ja kalter Kaffee und schon längst bekannt. Die "richtigen Reviewer" würden ja sowieso die TDP anhand Intelspec (gibt ja mittlerweile mehrere) im UEFI richtig per Hand konfigurieren etc :freak:
Ach halt, Igor testet ja immer mit "Standard" Mainboard, also mehr oder weniger unlimitiert, ups ;D
Was soll ein "Standard" Mainboard sein?
Im übrigen kann das Board ruhig High End sein und extreme Leistung liefern können. Es kommt darauf an, was der Tester im UEFI dem Prozessor erlaubt zu verbrauchen. Und da bin ich ganz bei Igor, konfiguriert wird nach Spec für den zu testenden Prozessor.
Cubitus
2021-10-26, 17:05:23
Was soll ein "Standard" Mainboard sein?
Im übrigen kann das Board ruhig High End sein und extreme Leistung liefern können. Es kommt darauf an, was der Tester im UEFI dem Prozessor erlaubt zu verbrauchen. Und da bin ich ganz bei Igor, konfiguriert wird nach Spec für den zu testenden Prozessor.
Man teilt den Test einfach nach Spec
und nach OC auf mit allem offen, ist ja schließlich ne K CPU..
Ich sehe da kein Problem. :confused:
Igor ist halt pro AMD. Mich wundert sein Artikel (und auch in dieser Form) nicht wirklich.
Igor ist halt pro AMD. Mich wundert sein Artikel (und auch in dieser Form) nicht wirklich.
eine klare in einen Richtung gehende konstante Neigung kann ich bei ihm nicht wirklich erkennen, er ist eher anti alle Anderen mit einer Prise Selbstbeweihräucherung&Arroganz ( meine exklusiven Industriequellen hier, meine Kontakte da , habs euch ja damals schon geasagt obwohl ich in zwei seiten Text damls nichts gesagt hab usw. ) und Selbsmitleid ( werd nicht besampled, soviel Arbeit die er ganz allein machen muss etc. )
Ahnungsloser Passant
2021-10-26, 18:35:43
In Alltagsbenchmarks und Spielen brauchen die CPUs keine 100W, da ist völlig wurscht ob das Powerlimit 125W oder 1000W ist.
Das hohe Powerlimit bringt einzig bei den Allcorebenchmarks einen nennenswerten Vorteil, die für >90% überhaupt keine Praxisrelevanz haben.
Nenn mir bitte mal die Quelle. Denn es ist stark davon auszugehen, dass diese Aussage frei erfunden ist. Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird. Und sag mit bitte nicht, dass 141W von 241W für die "Effizienzkerne" reserviert sind.
Cubitus
2021-10-26, 19:30:04
Nenn mir bitte mal die Quelle. Denn es ist stark davon auszugehen, dass diese Aussage frei erfunden ist. Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird. Und sag mit bitte nicht, dass 141W von 241W für die "Effizienzkerne" reserviert sind.
Bei FC 6 nimmt sich meine Stromschlucker 10900F erstaunliche 53 Watt :eek: Da sind auch alle Schleusen nach Polen offen xD
bzw. bei 4,7 Ghz
Im Desktop begnügt sich die CPU mit 5-15 Watt, so what..
Das Mär von schluckenden CPUs mit dem AKW nebendran, ist durch die Cinebench Seuche erst entstanden.. :rolleyes:
Ätznatron
2021-10-26, 19:54:10
Ein PL4 von 359 Watt(!) scheint Intel offenbar nötig, um jahreältere Ryzen-Konkurrenten zumindest in Kurzzeitbenches um 10, vielleicht 20 %, übertreffen zu können.
Bei FC 6 nimmt sich meine Stromschlucker 10900F erstaunliche 53 Watt :eek: Da sind auch alle Schleusen nach Polen offen xD
bzw. bei 4,7 Ghz
Das genehmigt sich mein Ryzen 5950X in etwa am Desktop :D
MiamiNice
2021-10-26, 20:45:04
Nenn mir bitte mal die Quelle. Denn es ist stark davon auszugehen, dass diese Aussage frei erfunden ist. Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird. Und sag mit bitte nicht, dass 141W von 241W für die "Effizienzkerne" reserviert sind.
Eher Du anderen Leuten Lügen unterstellst, solltest Du Dich vielleicht erst mal in die grundlegenden Basics einer CPU einlesen.
Nenn mir bitte mal die Quelle. Denn es ist stark davon auszugehen, dass diese Aussage frei erfunden ist.
So ziemlich jeder CPU-Test von igorslab, er testet nämlich nicht nur das doofe Windows-Desktop mit nix offen, und Prime 95 auf allen Kernen, was beides komplett sinnlos ist, sondern den tatsächlichen Verbrauch zumindest bei einem Teil der getesteten Benchmarks.
Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird.
Konsolen haben schon seit 2013/2014 8 Kerne. Die Spiele die 8 Kerne voll auslasten müssten schon längst da sein, insbesondere da die CPU-Kerne der alten CPUs so schwach waren, dass Multithreading noch viel mehr notwendig war als bei den aktuellen Konsolen. Jene werden wenn eher den Effekt in die andere Richtung haben ganz einfach weil man es sich aufgrund der viel schnelleren CPU-Kerne mit weniger Multithreading immer noch auf ausreichend Performance kommt.
Ätznatron
2021-10-26, 21:16:42
Bei einem AVX-und vielcorelastigem Star Citizen wird es sich auswirken, keine Frage.
WedgeAntilles
2021-10-26, 22:34:16
Nenn mir bitte mal die Quelle. Denn es ist stark davon auszugehen, dass diese Aussage frei erfunden ist. Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird. Und sag mit bitte nicht, dass 141W von 241W für die "Effizienzkerne" reserviert sind.
Die meisten Spiele nutzen noch nicht mal 6 Kerne.
Da felsenfest zu behaupten, innerhalb der nächsten 3 Jahre würden quasi alle Spiele durch 8 Kerne eine nennenswerte Mehrleistung erhalten ist schon gewagt.
Ahnungsloser Passant
2021-10-26, 23:02:28
Die meisten Spiele nutzen noch nicht mal 6 Kerne.
Da felsenfest zu behaupten, innerhalb der nächsten 3 Jahre würden quasi alle Spiele durch 8 Kerne eine nennenswerte Mehrleistung erhalten ist schon gewagt.
Du legst mir hier Worte in den Mund, die ich gar nicht geschrieben habe, und regst dich dann darüber auf. Stark, aber auf dem Niveau will ich nicht weiter diskutieren. Ich wollte hier auch gar nicht so viele Leute triggern. Sorry.
Trotzdem noch einmal die ernst gemeinte und sachliche Frage zu der mir noch niemand eine sinnvolle Begründung liefern konnte:
Wenn das alles doch gar nicht so schlimm ist mit dem Stromverbrauch: Warum schreiben Intel und AMD dann nicht einfach die wahren Zahlen auf?
Darum geht es doch bei der ganzen Aufregung. Sie könnten ja auch Max und Avg angeben oder so - siehe Taktraten.
OpenVMSwartoll
2021-10-27, 02:32:45
Du legst mir hier Worte in den Mund, die ich gar nicht geschrieben habe, und regst dich dann darüber auf. Stark, aber auf dem Niveau will ich nicht weiter diskutieren. Ich wollte hier auch gar nicht so viele Leute triggern. Sorry.
Trotzdem noch einmal die ernst gemeinte und sachliche Frage zu der mir noch niemand eine sinnvolle Begründung liefern konnte:
Wenn das alles doch gar nicht so schlimm ist mit dem Stromverbrauch: Warum schreiben Intel und AMD dann nicht einfach die wahren Zahlen auf?
Darum geht es doch bei der ganzen Aufregung. Sie könnten ja auch Max und Avg angeben oder so - siehe Taktraten.
Das Grundproblem bei der Diskussion ist doch, dass AMD und Intel die TDP unterschiedlich definieren. Somit wird der Begriff nicht identisch genutzt, wodurch der Vergleich hinfällig wird.
OpenVMSwartoll
2021-10-27, 03:52:26
Eher Du anderen Leuten Lügen unterstellst, solltest Du Dich vielleicht erst mal in die grundlegenden Basics einer CPU einlesen.
Wenn Du dem Poster zu einem Erkenntnisgewinn verhelfen möchtest, kannst Du sicher definieren, welchen Teilbereich Du meinst. Soll er sich damit beschäftigen, was die ALU bewirkt? So wirkt das wie der Versuch, eine Kompetenz vorzutäuschen, wo keine ist.
Loeschzwerg
2021-10-27, 06:25:16
Zur TDP Geschichte: Betrifft das ALLE Z690 Boards? Was ist mit den günstigeren Boards bzw. denen mit kleinerem Chipsatz?
Wenn das alles doch gar nicht so schlimm ist mit dem Stromverbrauch: Warum schreiben Intel und AMD dann nicht einfach die wahren Zahlen auf?
Weil die meisten genauso ahnungslos sind wie du und dann glauben, die CPU braucht immer den angegebenen viel höheren Wert.
Das Grundproblem bei der Diskussion ist doch, dass AMD und Intel die TDP unterschiedlich definieren. Somit wird der Begriff nicht identisch genutzt, wodurch der Vergleich hinfällig wird.
Stimmt zwar prinzipiell natürlich, allerdings geht es in der Diskussion weniger darum, sondern dass Mainboardhersteller höhere Werte einstellen, als die TDP nach Intel Definition wäre.
Das ist jetzt aber nicht wirklich was neues und wird schon seit Generationen so gemacht, wobei das Ganze in letzter Zeit sogar deutlich transparenter wurde und die Mainboards neuerdings nach CPU-Wechsel beim ersten Start darauf hinweisen bzw. auch ein manuelles Setzten der Powerlimits ermöglichen.
Ätznatron
2021-10-27, 08:18:53
Das Grundproblem bei der Diskussion ist doch, dass AMD und Intel die TDP unterschiedlich definieren. Somit wird der Begriff nicht identisch genutzt, wodurch der Vergleich hinfällig wird.
Die Realität zeigt das Strommessgerät an der Steckdose.
In Alltagsbenchmarks und Spielen brauchen die CPUs keine 100W, da ist völlig wurscht ob das Powerlimit 125W oder 1000W ist.
Natürlich... Und die Messwerte bei Computerbase und Igor jeweils im Rocket Lake Test sind natürlich frei erfunden, wenn auch etwa gleich... Da liegen der 11900K (auf 125W fixiert oder nicht), der 11700K, der 10900K, der 5950X und der 5900X über 100W. Manchmal sogar der 11600K. Spiele sind da BF5, F1 2020 und Borderlands 3.
Dass in Spielen die CPUs keine 100W brauchen ist einfach falsch und wurde in Tests eben schon widerlegt. Der 11900K frisst mit AdaptiveBoost sogar im Schnitt grob 160W beim Spielen und auch bei AMD kommt man über 100W.
Das genehmigt sich mein Ryzen 5950X in etwa am Desktop :D
Immer wieder die selben Märchen. Im Test von Computerbase war der Idle Verbrauch des gesamten Rechners beim Test eines 5950X mit B550 Platine bei 42W. Der 10900K war bei 47W, der AMD also 5W sparsamer. Aber gut, wenn man Fakten ignoriert, dann ist der Intel sparsamer... So ganz nebenbei: Der 5950X war im Idle so sparsam als Intels sparsamste CPU im Test (i7-9700). Die kleineren AMD sind entsprechend sparsamer.
Bei AMD braucht lediglich der X570 Chipsatz deutlich mehr, aber dafür bietet der halt auch deutlich mehr Bandbreite als Intels Chipsätze.
Leonidas
2021-10-27, 08:57:56
Zur TDP Geschichte: Betrifft das ALLE Z690 Boards? Was ist mit den günstigeren Boards bzw. denen mit kleinerem Chipsatz?
Siehe aktuelle News: Es ist alles vorhanden an Möglichkeiten:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-oktober-2021
So ziemlich jeder CPU-Test von igorslab, er testet nämlich nicht nur das doofe Windows-Desktop mit nix offen, und Prime 95 auf allen Kernen, was beides komplett sinnlos ist, sondern den tatsächlichen Verbrauch zumindest bei einem Teil der getesteten Benchmarks.
Aha, komisch dass dann ausgerechnet der von dir Zitierte Igor genau das Gegenteil behauptet. Hast du den Rocket Lake Test nicht gelesen? Da sind 3 Intel über 100W, und du behauptest jetzt das Gegenteil???
Die meisten Spiele nutzen noch nicht mal 6 Kerne.
Ändert nichts an der Tatsache, dass genügend CPUs (AMD und Intel) in manchen Spielen über 100W brauchen. Insofern ist die Behauptung, dass man in Spielen nicht über 100W CPU Verbrauch hat schlicht falsch. Und mit der Zeit werden das wohl immer mehr Spiele werden. Und es geht ja hier auch nicht um einen Test, sondern um mehrere Tests von unterschiedlichen Leuten. Also ist ein Messfehler hier wohl eher ausgeschlossen. Es ist halt nur nicht in jedem Spiel. Aber es gibt eben Spiele, da kommt man über 100W. Und genau deshalb ist die Kritik eben berechtigt, weil die pauschale Aussage, in Spielen kommt man nicht über 100W schlicht falsch ist.
Loeschzwerg
2021-10-27, 09:18:52
Siehe aktuelle News: Es ist alles vorhanden an Möglichkeiten:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-oktober-2021
Danke :)
Hm ja, ich bin da noch zwiegespalten. Letztendlich sind das für mich fast alles überzüchtete "OC Boards", da dürfen sich die Hersteller wegen mir austoben und sich auch gegenüber den anderen Herstellern hervorheben.
Was fehlt ist eine offensichtliche Bezeichnung und Hervorhebung des Defaults (also "Auto-OC" durch erhöhte TDP), wie es z.B. bei den Grafikkarten der Fall ist.
Für Tests ergibt sich das, was du geschrieben hast. Jetzt werden halt endlich mal wieder Mainboard Tests wichtig, hat auch etwas ^^
Ahnungsloser Passant
2021-10-27, 10:18:24
Das Grundproblem bei der Diskussion ist doch, dass AMD und Intel die TDP unterschiedlich definieren. Somit wird der Begriff nicht identisch genutzt, wodurch der Vergleich hinfällig wird.
Ich bin schon ziemlich alt und kann mich noch an eine Zeit erinnern, wo die TDP den maximalen Stromverbrauch wiederspiegeln musste. Die CPUs haben damals bei Überhitzung noch nicht runtergeregelt. Daher musste die Kühlung auch unbedingt auf die maximal mögliche Leistungsaufnahme ausgelegt sein. Wenn ich das gerade richtig überblicke, dann hat AMD mit dem Umdefinieren von Maximalverbrauch auf Durchschnittsverbrauch 2007 angefangen um insbesondere bei den damaligen Server CPUs "Greenwashing" zu betreiben. Das Spiel wurde dann mit der Zeit vor allem vom Hersteller weitergetrieben, der zu dem jeweiligen Zeitpunkt die schlechtere Effizienz hatte. Aktuell setzt halt Intel hier neue Maßstäbe.
Ich finde eine korrekte Angabe zur Dimensionierung von Netzteil und Kühlung eigentlich immer noch sehr sinnvoll. Hatten wir vor einem Jahr nicht das Thema der abrauchenden Netzteile wegen Lastspitzen? Da war es ja eher Ampere, aber eine CPU, die kurzfristig mal das doppelte ziehen kann, ist sicherlich auch nicht hilfreich.
Ätznatron
2021-10-27, 10:27:00
Solange es keine offizielle "Wir-definieren-die-Specs" - Behörde gibt, bleibt alles Marketing.
So what?
WedgeAntilles
2021-10-27, 10:43:51
Du legst mir hier Worte in den Mund, die ich gar nicht geschrieben habe, und regst dich dann darüber auf. Stark, aber auf dem Niveau will ich nicht weiter diskutieren. Ich wollte hier auch gar nicht so viele Leute triggern. Sorry.
.
Dude, du sagst:
"Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird."
Da sage ich dir eben, dass diese von dir implizierte Zwangsläufigkeit nicht existiert. Und als Grund nenne ich dir die Empirie.
Aber wenn empirische Daten für dich kein Argument sind stimme ich dir völlig zu: Auf diesem Niveau brauchen wir nicht weiter diskutieren. :)
Ahnungsloser Passant
2021-10-27, 11:10:20
Wenn du das unbedingt erklärt haben möchtest (siehe Post #38):
Und nenn mir bitte auch mal einen Grund warum zukünftige Spiele keine 8 Kerne voll ausnutzen, wenn doch selbst die aktuellen Konsolen 8 Kerne bieten und die Entwicklung bei AAA-Titeln ganz sicher in diese Richtung gehen wird.
Die meisten Spiele nutzen noch nicht mal 6 Kerne.
Da felsenfest zu behaupten, innerhalb der nächsten 3 Jahre würden quasi alle Spiele durch 8 Kerne eine nennenswerte Mehrleistung erhalten ist schon gewagt.
Wo habe ich "innerhalb von 3 Jahren" geschrieben?
Wo habe ich "quasi alle Spiele" geschrieben?
Du machst genau das, was Politiker in Interviews auch immer machen. Erst dem Anderen etwas unterstellen, was der gar nicht gesagt hat und dann dagegen argumentieren. Das hat meiner Meinung nach mit einer gepflegten Diskussion und dem Austausch von Argumenten nichts zu tun. Worte können gar nicht beschreiben, wie wenig Lust ich darauf habe. Deswegen ist jetzt das Thema für mich erledigt.
Übrigens: Wie oben schon geschrieben: Ich bin alt und kann mich noch an genau die gleiche Diskussion bei Dualcore vs Quadcore erinnern. Noch ein Grund das Thema an der Stelle zu beenden.
Ich wünsche noch einen schönen Tag.
WedgeAntilles
2021-10-27, 11:33:51
Wo habe ich "innerhalb von 3 Jahren" geschrieben?
Wo habe ich "quasi alle Spiele" geschrieben?
Wenn du heute eine CPU kaufst und bewertest - was für einen Zeitraum darf es denn deiner Meinung nach sein, wenn 3 Jahre für dich kein sinnvoller Zeithorizont sind? 5 Jahre? 10 Jahre? Sorry, das ist doch lächerlich.
Du bewertest Hardware für den Ist-Zustand und die nahe Zukunft. Ob die Zukunft jetzt 1 Jahr, 2 Jahre oder 3 Jahre ist sei dahingestellt und ist für jeden sicherlich etwas anders. Generell sind 3 Jahre aber im Hardwarebereich schon ein sehr langer Zeitraum.
Quasi alle Spiele: Du schreibst: "zukünftige Spiele, AAA Spiele" - da gibt es von deiner Seite her keinerlei Einschränkungen. Du hast eine absolut-Aussage getroffen.
Also ist sprachlich eindeutig alle gemeint.
Was du denkst weiß ich nicht - ich kann nur bewerten was du schreibst.
Falls du eigentlich ausdrücken wolltest: "in 5 Jahren könnte es ein paar Spiele geben die 8 Kerne brauchen" hättest du das schreiben smüssen.
Ich entschuldige mich, dass ich unterstellt habe du beherrscht die Nuancen der deutschen Sprache.
Und ja, ich bin hier ebenfalls raus.
Immer wieder die selben Märchen.
Sehr komisch, vielleicht hab ich doch keinen 5950X verbaut und das wird im System nur falsch angezeigt, vielleicht sollte ich das Teil mal aufschrauben und nachschauen.
Komisch dass es immer wieder Personen gibt die mir einreden wollen, was ich selbst beobachten kann ja nicht stimmen kann.
Im Test von Computerbase war der Idle Verbrauch des gesamten Rechners beim Test eines 5950X mit B550 Platine bei 42W. Der 10900K war bei 47W, der AMD also 5W sparsamer.
Das geht aber nur:
a) spezifikationsgemäßem Speicher. Ein nur moderat höherer Speichertakt und damit einhergehender IF-Takt erhöht beim Ryzen den Verbrauch ziemlich deutlich, was vor allem im Idle auffällt da der IF-Takt eben konstant ist und nicht verringert wird.
b) Wie geschrieben nur am Desktop, nur schaltet niemand seinen PC ein um den ganzen Tag den Desktop zu begutachten. Mach einen Browser auf und scroll ein wenig herum schon sind die tollen Idle-Werte beim Ryzen passé, weil Ryzen bei jedem Furz glaubt gleich mal den max. Turbotakt fahren zu müssen. Sobald du irgendwie mit dem System interagierst klettert beim Ryzen der Verbrauch 30-50W in die Höhe, was bei Intel keine 10 extra Watt kostet.
Bei AMD braucht lediglich der X570 Chipsatz deutlich mehr, aber dafür bietet der halt auch deutlich mehr Bandbreite als Intels Chipsätze.
Das geht für Last in Ordnung, nicht aber für den höheren Idle-Verbrauch wenn die Bandbreite nicht gebraucht wird.
Nebenbei wurde X570 auch auf PCIe3 limitiert getestet und hat kaum bessere Verbrauchswerte gezeigt, der X570 und damit auch der IO-Chip ist einfach ein ineffizientes Design, das die erstklassige Effizienz der CPUs selbst konterkariert.
Lehdro
2021-10-27, 15:41:46
Was soll ein "Standard" Mainboard sein?
Es sind die UEFI Werte gemeint wenn man die "Standard" Werte aufruft. Das die je nach Mainboard massiv abweichend sein können, wissen wir ja leider. Da Igor oft (Intel-)CPUs im Longterm weit außerhalb ihrer PL1 Werte vermisst, wissen wir das er jedenfalls nicht die Intelspezifikation zugrunde legt, mehr aber auch nicht. Mehr sollte diese Aussage nicht bezwecken.
Bezgl. ADL und TDP: Na ja, da treiibt Igor wieder mal ne neue Sau durchs Dorf - wäre man böswollig, könnte man von Clickbaiting sprechen...
Dabei ist er nun doch der Letzte, von dem man meinen könnte, dass er den Unterschied zwischen TDP und realem (maximalem) Stromverbrauch nicht kennt.
Und der diesbezügliche Artikel von AnandTech - immerhin bereits aus dem Jahr 2018 (!) - dürfte ihm auch nicht entgangen sein, vgl. https://www.anandtech.com/show/13544/why-intel-processors-draw-more-power-than-expected-tdp-turbo
Es gibt dazu auch ein aktuelles, sehr ausführliches Video von Hardware Unboxed, das ich leider auf die Schnelle nicht mehr finde - darin wird auf ein Gespräch mit einem Intel-Ingenieur eingegangen, aus dem klar hervorgeht, dass die TDP-Angabe nur eine Mindestanforderung an die Board- und Kühlerhersteller ist, Intel aber (nicht erst seit ADL) den Boardherstellern ausdrücklich erlaubt, das Power Limit zu erhöhen, solange dadurch die maximalen Turbofrequenzen nicht überschritten werden.
Aber klar, jeder Anlass ist willkommen, um mal wieder auf Intel einzudreschen, bis hin zu ebenso kruden wie unhaltbaren Vorwürfen kriminellen Tuns. Die pathologische Intel-Abneigung grenzt bei manchen Usern schon an eine Mischung aus Verschwörungstheorie und Verfolgungswahn -nicht Bill Gates will uns alle vernichten, sondern Pat Gelsinger, aber sonst stimmts
Bloß keinen Faktencheck, bitte: oder wo bitte hätte Intel jemals verlautbart, dass die TDP mit dem realen maximalen Stromverbrauch identisch ist?
Und wer wissen will, was seine (Intel-)CPU tatsächlich maximal saufen darf, muss sich nur die Mühe machen, in sein BIOS zu schauen: Bei meinem MSI Z 490 Tomahawk z. B. gibt es drei wählbare Presets mit dem Symbolen Boxed-Kühler, Custom Luftkühler und AiO mit jeweiligen Angaben zum Power Limit. Das kann man gar nicht übersehen, weil es einem bei der erstmaligen Inbetriebnahme automatisch weiß auf schwarz präsentiert wird.
Und was die Energiekosten betrifft: ja, die sind (in D, nicht überall!) hoch, aber wenn ich 10 Stunden in der Woche zocke und dabei vl. eine Stunde Höchstlast anliegt, kosten mich 100 W Mehrverbrauch der CPU gerade einmal rd. 3 Cent ( 1 kWH = 30 Cent)- im Jahr also "gewaltige" 1,60 Euro PRO JAHR. Logo: Bei diesen "immensen" Mehrkosten MUSS ADL natürlich Totalschrott sein, alles klar, Herr Kommissar...
LG Nobbi56
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.