PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Alder Lake Launchreviews: Die Spiele-Performance im Überblick


Leonidas
2021-11-04, 21:35:43
Link zur News:
https://www.3dcenter.org/news/alder-lake-launchreviews-die-spiele-performance-im-ueberblick

maximus_hertus
2021-11-04, 21:50:15
Danke für die Top-Übersicht!

Alles in allem sieht es je nach Test ganz nett für Intel aus. Der ganz große Wurf ist es jedoch nicht. Ab Februar, mit B660 Boards dürfte es zusammen mit den i5 CPUs und ggf. bis dahin etwas günstigeren DDR5 RAM interessant werden. Allerdings wird man dann wohl bei der reinen Gaming-Performance wohl nicht mehr der King sein (in der Spitze).

Die Frage lautet da natürlich, ob AMD den Bereich unterhalb vom Zen-3D komplett ignoriert oder auch da was substantielles plant? Vielleicht doch einen 3D-5800? Oder hat man schlicht so geringe Fertigungsmöglichkeiten, dass man eh alles verkauft, trotz Alderlake?

Ich bin ja auf die Verkaufzahlen von Alderlake gespannt, gerade da die Plattform aktuell extrem teuer ist.

Gast
2021-11-04, 22:11:25
Gähn. Multicore immer noch hinten, nicht effizienter als die 1 Jahre alte Zen3 Gen, Singlecore Vorteile.

Keiner muss hier wechseln, vlt. die die noch mit einem 9900k unterwegs sind.

Der Pferdefuss bei ADL ist die Perepherie, teuer ohne Ende und nur schnell wenn man OC DDR5 verwendet, den es nirgendwo gibt.

So ein Aufriss im Vorfeld für 5 bis 10% mehr Leistung. Traurig, dafür muss Intel überall anpacken. Warte auf Zen 3D weil er in den AM4 passt.

Gast
2021-11-04, 22:51:27
AMD muss wohl etwas die Preise senken, aber in Wirklichkeit ist das doch schon längst passiert, den 5800x gibt es für 359-379 Euro. Wenn man den undervoltet ist er schnell und sparsam, dazu noch einigermaßen preiswert.

Ab 1440p langweilen sich eh alle CPUs, wobei sich diese Auflösung langsam durchsetzt. Wer spielt schon in 720p?

Der große Wurf ist Alderlake nicht geworden. DDR5 bishewr kaum mit vorteilen, genauso wie PCIe 5.0. Möglicherweise der Auftakt einer neuen Ära aber sich nicht was man erwartet hat. Der guten Effizienz in Spielen stehen 217 bis 241w in Anwennungen gegenüber und viel Hitze. Also Licht und Schatten, da ist ein 5900x oder 5950x schneller und effizienter. Zumal Leo den 5950 gleich mal weglässt. Wie kommst? 24T versus 24T ist jetzt die neue Devise, nicht mehr Flaggschiff und Flagschiff vergleichen damit Intel nicht so blöd aussieht und die Deppen im ersten Run Mainbords zu Mondpreisen kaufen?

Die Preise von den superteuren Varianten fallen gerade ins Nirvana, -20%. Heutzutage gilt, willst du ein Mainbord für 350 bis 400 verkaufen, machs am Anfang 650 Euro teuer, dann sieht es beim Launch so aus als würdest du es um 30% im Preis senken, lol Asus!

Gast Ritis
2021-11-05, 00:19:02
Bin etwas überrascht, dass es mit BigLittle nicht mehr Ausreisser in der Performance bei 1% Low gibt sondern insgesamt da sogar Vorteile liegen.

So wie es aussieht ist doch die 240W Option eine total unnötige und bescheuerte Aktion von Intel. Den Headroom hätte man allein den Übertaktern der K Modelle als hidden Spec überlassen können. Dann hätte man ein offiziell bis 120W ausgewiesenes Produkt und nur minim schlechtere Bemchergebnisse.
Dass jetzt die Masse überdimensionierte Mainboards und NTs für teuer Geld kaufen muss wäre komplett vermeidbar gewesen.

Ich fürchte die Mainboards werden noch lange teuer bleiben und DDR5 braucht auch noch 12 Monate für angemessene Preise.
Vermutlich bleibt so Strassenpreise vs. Performance noch bis im Sommer indiskutabel.

Platos
2021-11-05, 00:27:38
Sehr schön, ich freu mich schon auf die Analyse.

Sieht ja mit der Gamingleistung noch besser aus, wie ich bisher gelesen habe (ich überlasse das Lesen dir :D). Ist schliesslich effizienter, wenn das einer für alle tut ^^

Danke schonmal im Vorraus.

Gast
2021-11-05, 08:34:14
So wie es aussieht ist doch die 240W Option eine total unnötige und bescheuerte Aktion von Intel. Den Headroom hätte man allein den Übertaktern der K Modelle als hidden Spec überlassen können. Dann hätte man ein offiziell bis 120W ausgewiesenes Produkt und nur minim schlechtere Bemchergebnisse.
Naja, scheinbar wollte Intel auch in Multicore möglichst knapp an den 5950X ran kommen. Beim 12600k hat man sich das halbwegs gespart. Damit finde ich den auch durchaus interessant, wenn mal die Plattform-Kosten auf ein vernünftiges Niveau gesunken sind. Aber die Brechstangen-Taktik beim 12900k hätte sich Intel meiner Meinung nach besser gespart.
Wobei ich auch sagen muss, dass mich die "Effizienz" Kerne nicht wirklich überzeugen. Wenn man die Messung von Anandtech grob umrechnet, verbrauchen die Kerne grob 5,4W für 3,9GHz. Da ist Zen2 ähnlich vom Verbrauch, hätte gedacht der Unterschied wäre da deutlich größer. Intel ist da wohl auch die geringe Chip Fläche deutlich wichtiger, was man auch gut über einen günstigen Preis dem Kunden weiter geben kann.
Alles in allem gibt's aber schönen Konkurrenzkampf, was uns Kunden doch nur Recht sein kann.

Gast
2021-11-05, 08:45:42
...
Dass jetzt die Masse überdimensionierte Mainboards und NTs für teuer Geld kaufen muss wäre komplett vermeidbar gewesen.


Muss? Wer MUSS denn jetzt sein Konto plündern und den Intel-Schrott samt Peripherie kaufen? Immer wenn ich sowas lese kann ich nur noch mit dem Kopf schütteln: einfach zur Konkurrenz wechseln. Grob gleiche Leistung für weniger Geld.

Gast
2021-11-05, 08:57:54
Bin positiv überrascht, vor allem von Testern bei computerbase und igorslab.
Habe HLuxx, computerbase und pcgamesh angeschrieben und nach erweiterten und alltagsrealistischeren Tests dafür gebeten.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12818810#post12818810
Ist alles dabei: Unterschied Energiesparplan/Ausbalanciert/Höchstleistung (Energiesparplan noch defekt und Win 11 noch Murks), Effizienz und Verbrauch in üblichen Alltagsprogrammen, Spielen oder Medienanwendungen.
Top, danke! Auch wenn ich nichts dagegen hätte dass nicht alles gleich auf einmal muss.

Widersprüchlich einmal wieder die Messwerte zwischen Igorslab und Computerbase, wo Igorslab die Alder-Lakes bezüglich Effizienz/Leistungsaufnahme in Spielen in den Himmel lobt, Computerbase genau das Gegenteil zeigt.
Comuterbase: Average 720p Core i9-12900K Package Power 7 - 10 % mehr Verbrauch als 5950X.
Igorslab: Average 720p Core i9-12900K Package Power nur 73 % vom 5950X (5959X schluckt 37 % mehr).

Wie kommt solch ein himmelweiter Unterschied zustande? Das sind zwischen 40 - 45 %.
Igorslab: 12900k in 720p Durchschnitt, 6 - 7 % schneller als 5950X (mit RX6900XT).
Computerbase: Ohne Spiel Valorant 9 - 10 % schneller( mit wahnwitziger 480 W rtx 3090; real also eher 1 - 3 % langsamer).
Daran kann es doch auch nicht liegen.
An der Grafikkarte kann es nicht liegen, da 480 W rtx 3090 (welche in 1080p geringfügig langsamer ist als rx 6900XT).

Jemand eine Idee? Die Tests von Hluxx, heise, golem sekundieren die Ergebnisse bei computerbase.

WedgeAntilles
2021-11-05, 09:13:25
Wichtig bei der Gamingleistung: Laut Igor verbessern sich insbesonders die Minimum-Frames.
Was natürlich noch mal weit besser ist als wenn sich "nur" die durchschnittlichen Frames verbessern.

Eine CPU die 2 x 100 Frames hat ist statsistisch zwar gleich wie eine die 1x80 und 1x120 hat, aber durch die gleichmäßigeren Frames ist sie dennoch klar besser.


AL ist deutlich besser als hier im 3DC prophezeit (oder eher: ersehnt) ist.
Da wurde ja von langsam, teuer, stromhungrig und sonstwas geträumt.
Nichts davon ist eingetroffen.
Wohlgemerkt bei einer Architektur die neu ist und auf die keine Anwendung, kein Spiel, optimiert ist.
Das verheißt für die Zukunft nichts schlechtes - wenn unangepasste Software schon gut läuft wird das in Zukunft nicht schlechter werden.

Unterm Strich haben wir jetzt also eine CPU die
- schneller
- preiswerter und (angeblich für AMDler ja gaaaanz wichtig)
- effizienter
als Zen 3 ist.

Aber - es gibt ein großes Aber.
Stand heute ist die Plattform noch (zu) teuer.
Das ist jedoch nur ein temporäres Problem.
Im Januar, allerspätestens Februar gibt es dann auch günstige Boards für die üblichen Preise.

Aktuell gibt es nur "das Enthusiastenzeug", wie üblich muss man bei einer neuen Technologie also ein paar Wochen warten bis die günstigen Geräte verfügbar sind.

So wie hier getan wird ist das natürlich für die meisten völlig neu, hat es noch nie gegeben. (Oder sie sind erst seit 3 Monaten in dem Thema drin.)

Klar ist: Intel hat mit AL einen guten Schritt getan.
Klar ist aber genauso: Mit RaptorLake und MeteorLake müssen weitere Schritte kommen. Mit AL alleine ist es nicht getan, auch die nächsten Generationen müssen abliefern und eine merkliche Verbesserung bringen.
Die Wahrscheinlichkeit, dass das klappt, dürfte mit AlderLake deutlich zugenommen haben.

WedgeAntilles
2021-11-05, 09:25:03
Auch wenn es hier nur um Spieleperformance geht:
Bei Anwendungen ist laut IgorsTest von heute der AL ebenfalls Zen 3 an Geschwindigkeit und vor allem Effizienz überlegen.

Ausnahme ist das rendern, bei dem Zen 3 merklich besser ist - nur: Wer rendert mit der CPU? Richtig, quasi keiner.

Dafür pulverisiert Alerdlake in CAD Anwendungen (die im Gegensatz zum CPU-rendern tatsächlich praktische Anwendung finden) Zen 3 förmlich.

Wer aufrüsten will macht mit AL also alles richtig - allerdings idealerweise noch nicht heute, vor allem wenn man sich für den 12600K (IMO der bisherige Star von AlderLake) entscheidet.
Da ist das Board schlicht noch zu teuer dafür, die paar Wochen Wartezeit lohnen sich da IMO.

etp_inxession
2021-11-05, 10:01:25
Der Tenor hier unterscheidet sich massiv vom CB Forum.

Insgesamt nicht "der große Wurf" wie der vorher entfachte Hype es erwarten liese.

10% Mehr Gaming Leistung ist ok.
Wer von einer alten Plattform kommt, kann AlderLake in Erwägung ziehen.
Wer auf einer relativ aktuellen Plattform sitzt, kann sich das aufrüsten definitiv sparen.

Igor ist der einzige der eine gute Effizienz hervorheben kann.
Bei den anderen Tests "säuft" Alderlake förmlich.

Es scheint am verwendeten Mainboard zu liegen.

Mal abwarten was da kommt.

Aber das CB Fazit sagt eigentlich alles ....

"Wie beeindruckend AMDs Ryzen 5000 bei der Energieaufnahme und letztlich Effizienz sind, zeigen die Mehr-Kern-Szenarien dabei erneut. Der Ryzen 9 5950X verbraucht nicht nur 40 Prozent weniger als ein unlimitierter 12900K, er ist auch noch schneller. Und wird der 12900K limitiert, zieht der 5950X in Sachen Leistung weit davon. Dagegen kann Intel heute nichts tun und das wird sich auch erst einmal nicht ändern."

***EDIT

DDR5 ist bisher ernüchternd.

Windows 11 sowieso ... läuft weder auf AlderLake noch auf Zen3 richtig zufriedenstellend.

Der 12400(F) wird ein Verkaufshit. Dann aber auch nur mit günstiger Plattform.
Sollte AMD hier nicht mit Zen3D nochmal eine "untere" Kategorie einführen, könnte Intel den Markt untenrum "abgraben"

Aroas
2021-11-05, 11:04:54
Wer von einer alten Plattform kommt, kann AlderLake in Erwägung ziehen.
Wer auf einer relativ aktuellen Plattform sitzt, kann sich das aufrüsten definitiv sparen.


Das ist doch aber nun wahrlich nichts neues.
Wann gab es denn überhaupt mal so viel Mehrleistung, dass es sich aus P/L Sicht gelohnt hätte, von einer zur nächsten CPU Generation aufzurüsten?

Selbst bei AMDs 3000er zur 5000er Serie ist die Mehrleistung zwar deutlich, macht aber im Endeffekt keinen so großen Unterschied, dass man jubeljauchzend hätte sofort upgraden müssen.

Wirklich interessant wird es ja eh erst mit den kommenden, kleineren Alder Lake CPUs und dann bald auch mit AMDs 3D Cache Modellen.
Wenn diese wirklich durch den größeren Cache in Spielen 10-15% zulegen können, ist Alder Lake in dieser Disziplin auch schon wieder geschlagen und Intel hat wieder kaum Argumente in der Hand.

Gast
2021-11-05, 11:12:07
Ja laut Igors-labs, der immer alles besser weiß und alles besser kann, alle anderen Redaktionen messen was anderes. Merkst du was? Die liegen mit Intel im Klinsch und bekommen von denen nicht ein Testample, komischer Weise kommt dann ein Test von denen der Intel förmlich massiv lobt.

Alle haben in Anwendungen einen zuweilen exorbitanten Verbrauch gemessen, über 200W und das kritisiert, nur die dort nicht? Für mich nichts weiter als von Intel Aufmerksamkeit und Wohlwollen einzuheimsen, übrigens genauso wie die Verbräuche von nVidia zu loben, von nichts kommt nichts usw., Preisdikussinoen wurden nebensächlich verboten, weil man mehr als selbstverliebt daher kommt. Man kann sich das auch selbst schönreden.

Ich hätte von Intel bei dem Trara das man vorher veranstaltet hat, mehr erwartet als das sie in etwa so schnell sind, wie eine 1 Jahr alte Gen der Konkurrenz die noch nicht auf DDR5 setzt.

Das mag ja für Intel intern ein grosser Fortschritt sein. Aber für AMD sind das nur wenige Optimierungen um wieder vorne zu sein und warum will man dann in einen massiv überteuerten Unterbau Geld verbrennen? Vermutlich weiß das Intel selbst und ruft daher solche Preise auf, um überhaupt die Entwicklungskosten zu decken. Was die E Cores als Efficiency angeht, sind die völlig ineffizient und funktionieren nie allein. Es muss Minimum immer ein P Core aktiv bleiben. Dann kann man auch gleich P Cores nehmen oder so wie bei Zen dann eben Zen Cores, ohne so zu tun als seien sie besonders effizient, inklusive der Reserve des höheren Boost.

Wer als Enthusiast noch in 720p oder 1080p spielt, hat wohl was verschlafen. Ab 1440p merkt man das mehr an IPC oder Singlecoreperformance von CPUs in Games nirgendwo. Man bewegt sich viel zu oft und immer im GPU Limit. Da liegt ein 12600k und 5600x gleichauf, wobei letzterer insgesamt viel weniger Aufwand bedeutet, vor allem wenn die AM4 Plattform schon angeschafft wurde

In 4K reicht zum Spielen ein 8C/16t komplett und da nehme ich dann das mehr an Anwendungsleistung gerne mit, das bei Intel bis zu 30% mehr an Energieaufwand bedeutet und damit auch Kühlung, dass verteuerte Drumherum inklusive.

Intel tritt auf der Stelle! Das ist kein Befreiungsschlag, sondern minimale Optimierung um in Games vorne zu liegen. Tic Tic also mal wieder. Wie lange? 1 2 3 Monate, damit AMD dann mit der alten Gen und dazugehörige Plattform unter DDR4 und 3D Cache auch in Spielen wieder vorne liegt?

Effizienz ist doch für Spieler überhaupt kein Argument mehr, wenn alle 2,5t Euro teure GPUs ihr Eigen nennen, die bis zu 450w verpulvern! Das ist weder preislich noch ökologisch vertretbar. Ob da eine CPU dann 10 oder 20w spart, ehrlich ist drauf geschi....

In Anwendungen kommt Intel nur mit, wenn man brachial auf die Cores einschlägt. Da ändert sich zu älteren Vorgängergens also gar nichts. Viel zu viel der alten Gene mitgeschleppt. Man musste wie NVidia unbedingt an AMD vorbei, schon lustig wie sich die vermeintlichen und selbsternannten Marktführer daran die Zähne ausbeissen und dabei auf ihr Zeugs einschlagen müssen.

Das scheint ja bei den Gamern ziemlich hipp zu sein, um ja nicht AMD kaufen zu müssen.

Die Anschaffungskosten für ADL sollte man lieber in eine GPU investieren, da hat man in höheren Auflösungen vor allem als Spieler deutlich mehr davon.

WedgeAntilles
2021-11-05, 12:06:59
Ja laut Igors-labs, der immer alles besser weiß und alles besser kann, alle anderen Redaktionen messen was anderes. Merkst du was? Die liegen mit Intel im Klinsch und bekommen von denen nicht ein Testample, komischer Weise kommt dann ein Test von denen der Intel förmlich massiv lobt.

Igor bekam nichts von Intel. Kein Testsample oder sonstwas.
Daher habe ich an dieser Stelle aufgehört dein Lügengebilde zu lesen.

Aber vermutlich ist die Aussage von Igor er bekäme nichts gelogen.
Ein heimlicher Komplott mit Intel zum Zwecke der Weltherrschaft.

WedgeAntilles
2021-11-05, 12:11:19
Ich fürchte die Mainboards werden noch lange teuer bleiben und DDR5 braucht auch noch 12 Monate für angemessene Preise.
Vermutlich bleibt so Strassenpreise vs. Performance noch bis im Sommer indiskutabel.

DDR5 - das ist durchaus möglich.
Mainboard: Glaube ich nicht.
Im Januar kommt der 12400F, der ca. 180 Euro oder so kosten wird.

Glaubst du wirklich, dass es da nur Boards geben wird die teurer als die CPU selber sind?
Klar, Intel setzt die Mainboardpreise nicht direkt selber.
Aber ich halte es für ausgeschlossen, dass Intel eine kostengünstige CPU anbietet - um sich dann alles von sehr teuren Boardpreisen kaputt machen zu lassen.

Es wird Anfang des Jahres deutlich günstigere Boards für AlderLake geben.

WedgeAntilles
2021-11-05, 12:14:53
Wenn diese wirklich durch den größeren Cache in Spielen 10-15% zulegen können, ist Alder Lake in dieser Disziplin auch schon wieder geschlagen und Intel hat wieder kaum Argumente in der Hand.
Der 3D Cache soll nur bei 5900X und 5950X kommen.
Glaubst du wirklich, dass es unterhalb von 550 Euro für eine CPU keinerlei Markt gibt?

Oder ist es nicht vielleicht doch so, dass eher das Gegenteil stimmt? Das der Markt für CPUs im Bereich 150-300 Euro sehr viel größer ist als der Markt für CPUs für 500 Euro aufwärts?

Auch was die neuen CPUs kosten weiß keiner - kommen die ohne Aufpreis von AMD? Oder kosten die halt noch mal nen Hunderter mehr für die 10% Mehrperformance?
Das ist meines Wissens nach noch völlig unbekannt, oder?


Edit: Und der Cache wird ja wohl nur Spiele beeinflussen, oder?
Der 12600K ist bei Anwendungen den 5800X überlegen - das ändert sich ja auch nicht.

GastXX
2021-11-05, 12:37:21
Igor bekam nichts von Intel. Kein Testsample oder sonstwas.
Daher habe ich an dieser Stelle aufgehört dein Lügengebilde zu lesen.

Aber vermutlich ist die Aussage von Igor er bekäme nichts gelogen.
Ein heimlicher Komplott mit Intel zum Zwecke der Weltherrschaft.
Das schreibt er doch! Und weil das so ist, will er es sich mit Intel nicht nochmehr verderben=Quintessenz!

Der hat kein NDA gezeichnet (dann bekommt er auch nichts) und zu empfehlen wäre ihm, er hätte auf der AMD Platine mal PBO2 ausgeschaltet. Denn nur bei Ihm saufen die Ryzen, ist schon komisch. Dann steht der 12900k im Vergleich auch besser da.

Wenn man vorher informiert, dass die neuen Intel ein ziemlich hohes PL1 hinterlegt haben und deren Effizienz bei 125w zu vergleichen wäre (TDP), sollte man bitteschön die AMDs auch limitieren. Ansonsten kommt sowas nämlich raus und das riecht dann förmlich nach Gutwillen für einen Hersteller. Du musst das nicht lesen, nicht verstehen und kannst darüber denken was du willst. Solche Test verlieren aber an Aussagekraft und es ist in der Tat komisch, dass alle anderen diese Werte bei den Ryzen nicht messen.

Leo hat das Übrigens genauso vorgeschlagen, um den tatsächlichen IPC Zuwachs pro Core auch messen zu können und nicht nur was man über Ineffizienz erkauft.

Ich gebe dem Gast übrigens Recht, lieber in eine stärkere GPU investieren. CPU's langweilen sich in höheren Auflösungen tot. Für 1fps Unterschied machen solche Investionen, bei einer Auflösung in QHD oder UHD kaum Sinn. Da reicht auch ein 9900k oder 2700x und alles was in dieses Leistungspektrum passt vollkommen.

Leonidas
2021-11-05, 12:38:07
Habt Ihr Euch gerade wieder lieb ... und ich dachte, in dem Thread ginge es um CPUs ;)

GastXX
2021-11-05, 12:46:37
Der 3D Cache soll nur bei 5900X und 5950X kommen.
Bitte eine Quelle dazu. 3"D" steht vor allem für "density" und damit höhere Packdichte, wobei der Cache dann wachsen kann. Also Stufe 3 im Fertigungsprozess was höhere Packdichten ermöglicht, ohne das das Die extrem wachsen muss.

AMD produiziert Chiplets (oder lässt sie produzieren - sind alles die gleichen und werden lediglich selektiert), da gibt es keine Unterschiede (bis auf teildeaktvierte Bereiche und Taktraten im Binning) und warum sollte man einen Fortschritt im Fertigungsverfahren dann nicht an alle weitergeben? Für 4D gilt das Gleiche, dann vermutlich unter 5nm.

Für mich klingt das so als hättest du Probleme logische Zusammenhänge zu erfassen.

Benutzername
2021-11-05, 13:18:30
Mein Eindruck bisher ist das für Version 1.0 der neuen Technologie schon ganz ordentlich, aber der i9 ziemlich mit der Brechstange auf paar Prozent mehr geprügelt damit man halt in den Benchmarks vorne liegt. Mobos und DDR5 RAM ist noch zu teuer. Viel liegt auch noch wegen unausgereifter Betriebesystemunterstützung brach. Linux läuft Alder Lake ab 5.14 Kernel, aber erst im .15er sind alle Features drin und auch noch nicht ausgereift. Ich nehme an das wird dann in die LTS Kernel rückportiert. Wird man sehen müssen wie das reift in Zukunft.



Interessehalber: wird man mit ALder ake auf Win11 gezwungen oder kommt der neue Scheduler als Update dann für Win10 auch noch?


Wenn dann i7 und i5 rauskommen und die günstigeren Mobos auch mit DDR4 wird das imho interessanter preisleistungsmäßig und ob man da überhaupt was an praktischer Leistung verliert. DDR5 muss sich auch erst einmal finden und überhaupt zu kaufen sein. Auch wo sich dann intel und AMD die Preise hinlegen. Die besseren Minimumfps sind aber wirklich ein Pluspunkt. Konsistente Frametimes sind imho wichitger als 200 FPS im Mittel, wenn das immer hin und her springt zwischen hoch und niedrig.




Fettes Eigentor hat sich Intel ja wohl bei Igor geschossen.



----------------------------------------------------------------------


Der 3D Cache soll nur bei 5900X und 5950X kommen.
Glaubst du wirklich, dass es unterhalb von 550 Euro für eine CPU keinerlei Markt gibt?[/quote}

Natürlich gibt es den, aber AMD ist Chiplet limitiert. Die können sich auch keine höheren Kapazitäten herbeizaubern. Die verkaufen alles, was geht. Besonders als EPYC. deswegen gibt ess da ja auch keinen Threadripper.

Wobei Ich ja noch auf einen "5800X Zen3D" hoffe. So viele Kerne brauche ich nicht und hey, AMD kann ein Chiplet einsparen.

[quote]
Oder ist es nicht vielleicht doch so, dass eher das Gegenteil stimmt? Das der Markt für CPUs im Bereich 150-300 Euro sehr viel größer ist als der Markt für CPUs für 500 Euro aufwärts?

Auch was die neuen CPUs kosten weiß keiner - kommen die ohne Aufpreis von AMD? Oder kosten die halt noch mal nen Hunderter mehr für die 10% Mehrperformance?
Das ist meines Wissens nach noch völlig unbekannt, oder?

Ja, wird man sehen müssen, wie viel AMD ausliefern kann und wie das dann ins Verhältnis zu intel gepreist wird.



Edit: Und der Cache wird ja wohl nur Spiele beeinflussen, oder?
Der 12600K ist bei Anwendungen den 5800X überlegen - das ändert sich ja auch nicht.


Viel Cache altert auf jeden Fall gut wie der i7-5775C ja gezeigt hat.

maximus_hertus
2021-11-05, 13:26:48
Was ich überhaupt nicht verstehe => warum muss es immer der KILLER sein? Oder pulverisieren / zerstören / blablub. Warum immer diese völligen Übertreibungen?

Das gilt für alle Seiten, wobei ich nicht weiß, warum einige so Anti-AMD sind. Aber das ist ja auch egal, so lange man vernünftig und sachlich diskutieren kann.

Auch meine Wenigkeit hat einen gewissen bias und den kann ich nicht immer verbergen, aber wenn man sich zusammenreißt, ist eine Diskussion viel schöner als einfach nur ein Krawall, weil man ständig sich gegenseitig provozieren muss.

Der größte Witz ist ja, dass es eigentlich komplett egal ist, schließlich verdienen Intel und AMD an den CPUs, nicht wir. Okay, prinzipiell / potentiell auch Aktionäre, aber "you get the point".


Es wäre 1000x geiler, wenn man hier eher die TECHNISCHEN Details und Lösungen bespricht. Warum ist Alderlake in Benchmark 1 besonders stark / schwach? Warum wird hier ein hoher und dort ein sehr niedriger Stromverbrauch gemessen? Wo gibt es Software-Verbesserungspotential. Wo könnte ein schnellerer DDR5 in Zukunft (besonders) helfen? Wo ist der Scheduler suboptimal, wo optimal? Es gibt so viele spannende Themen.

Es wäre echt toll, wenn wir alle (da schließe ich mich ein) uns lieber der Technik widmen und die ganzen Provokationen / Zerstörungen etc. beiseite schieben.

Danke!

Gast
2021-11-05, 13:28:13
Igor ist der einzige der eine gute Effizienz hervorheben kann.


Igor ist auch der einzige der vernünftige Verbrauchstests macht,
und über mehrere Anwendungen sowohl Verbrauch als auch Leistung gegenüberstellt.

Das man nehme das Powerlimit und stelle sie der Leistungsmessung gegenüber funktioniert bei Grafikkarten die >95% im Powerlimit hängen OK, aber eben nicht bei CPUs.

Aroas
2021-11-05, 13:37:59
Der 3D Cache soll nur bei 5900X und 5950X kommen.

Wo bitte steht das denn?

Daredevil
2021-11-05, 13:39:54
Das hat meine ich mal Volker von Computerbase gesagt bzw. das schwebt schon lange im Raum, weil eben dieser 3D Cache nicht günstig wird bzw, nur bei zwei DIEs Anwendung finden wird.
Alles logisch nachvollziehbare Gründe, aber immer noch hoch spekulativ.

Benutzername
2021-11-05, 13:41:21
Was ich überhaupt nicht verstehe => warum muss es immer der KILLER sein? Oder pulverisieren / zerstören / blablub. Warum immer diese völligen Übertreibungen?

Das gilt für alle Seiten, wobei ich nicht weiß, warum einige so Anti-AMD sind. Aber das ist ja auch egal, so lange man vernünftig und sachlich diskutieren kann.

Auch meine Wenigkeit hat einen gewissen bias und den kann ich nicht immer verbergen, aber wenn man sich zusammenreißt, ist eine Diskussion viel schöner als einfach nur ein Krawall, weil man ständig sich gegenseitig provozieren muss.

Der größte Witz ist ja, dass es eigentlich komplett egal ist, schließlich verdienen Intel und AMD an den CPUs, nicht wir. Okay, prinzipiell / potentiell auch Aktionäre, aber "you get the point".


Es wäre 1000x geiler, wenn man hier eher die TECHNISCHEN Details und Lösungen bespricht. Warum ist Alderlake in Benchmark 1 besonders stark / schwach? Warum wird hier ein hoher und dort ein sehr niedriger Stromverbrauch gemessen? Wo gibt es Software-Verbesserungspotential. Wo könnte ein schnellerer DDR5 in Zukunft (besonders) helfen? Wo ist der Scheduler suboptimal, wo optimal? Es gibt so viele spannende Themen.

Es wäre echt toll, wenn wir alle (da schließe ich mich ein) uns lieber der Technik widmen und die ganzen Provokationen / Zerstörungen etc. beiseite schieben.

Danke!


Tribalismus. GTI gegen Manta. Bayern München gegen Borussia. intel gegen AMD. AMD gegen nVidia.


Ich habe zwar sowohl gegn nVidia als auch intel Vorurteile, aber das sind bestätigte Urteile wegen deren immer wieder mafiöser Methoden in der Vergangenheit. Schöne Fabrik haben sie da, wäre doch schade, wenn die keine Chips mehr bekommt oder? Von daher haben beide bei mir immer einen etwas schwereren Stand. Das haben sich beide aber auch übr Jahrzehnte verdient.


Aber trotzdem schimpfe ich nicht über Alder Lake. Ist als Version 1.0 einer neuen Technologie sogar recht beeindruckend, wenn man die 250W ignoriert beim i9. (erinnert mich an die abrauchenden RTX3080 nd 90 in New World irgendwie) Der kommt mir nicht besonders vernünftig vor. Und dann liefert intel auch noch eine eher mittelprächtige AiO Waküh mit. Etwas vernünftigere Powertargets und eine bessere Waküh wäre imho der rundere Prozessor. Aber dann hat man ja nciht mehr die Benchmarkkrone. :rolleyes:

Gast
2021-11-05, 13:42:34
Wer als Enthusiast noch in 720p oder 1080p spielt, hat wohl was verschlafen.

Bei 720p stimme ich dir zu, aber fast alle richtig schnellen Gaming-Monitore sind 1080p und um auf die 360Hz zu kommen braucht es eben eine richtig schnelle CPU, da man nicht mal eben mit niedrigerer Auflösung und/oder mehr oder weniger intelligentem Upscaling noch mehr Performance rausquetschen kann.

VfBFan
2021-11-05, 13:47:49
Es gibt so viele spannende Themen.


Nach Lesen der beiden Computerbase-Tests bleiben aber nicht mehr viel spannende Themenfelder übrig.
Die größte Überraschung für mich ist, dass die E-Cores in der jetzigen Ausführung in den Desktop-CPUs (komplett) unnötig sind. Hätten sie wohl eher mal 2 P-Cores mehr anstatt der E-Cores eingesetzt und dafür keinen so hochgejubelten Betriebspunkt gewählt. Das wäre dann vielleicht ein annähernd rundes Produkt geworden.
Und ja, Effizienz ist und war schon immer der ausschlaggebende Punkt für alles.
Oder was denn sonst?

OpenVMSwartoll
2021-11-05, 14:00:06
Tribalismus. GTI gegen Manta. Bayern München gegen Borussia. intel gegen AMD. AMD gegen nVidia.

Ich habe zwar sowohl gegn nVidia als auch intel Vorurteile, aber das sind bestätigte Urteile wegen deren immer wieder mafiöser Methoden in der Vergangenheit. Schöne Fabrik haben sie da, wäre doch schade, wenn die keine Chips mehr bekommt oder? Von daher haben beide bei mir immer einen etwas schwereren Stand. Das haben sich beide aber auch übr Jahrzehnte verdient.
[...]


Ja, ist Tribalismus. Der Mensch wohnt eigentlich noch in der Höhle, allerdings mit nem Handy in der Hand. Gut ist derjenige dran, der sich dessen bewusst ist.

Und auch Deine Antipathie kann ich nachvollziehen, ist jedoch für mich bei dem Produkt nicht kriegsentscheidend.

Die Plattformkosten kann man derzeit nicht ausblenden. Inwiefern sich dies auf dem derzeit chaotischen Markt kurz- bis mittelfristig ändert, vermag ich kaum zu beurteilen. Ich würde jedoch nichts wetten.

DDR5 lohnt sich bisher kaum, aber das ist bei neuen Versionen tendenziell nichts Neues.

Beim Verbrauch in der Spitze möchte man den Produktmanager auslachen.

Interessant, wie heterogen die Wahrnehmung in den jeweiligen Tests ausfällt. Der CB Test gefiel mir sehr in seiner Tiefe. Aber die E-Kerne hauen mich jetzt nicht komplett aus den Socken.

P.S.: Bei einem Tester, der sich immer als Speerspitze feiert, stimmen Grafik und Text nicht immer überein.

Zumal es keine Freude ist, seine ewig gleichen Textbausteine und Vergleiche lesen zu müssen. Es ist eben nicht nur die Technik relevant, man sollte auch das Instrument Sprache einzusetzen wissen.

Gast
2021-11-05, 14:35:43
Mein 5800x nimmt keine 60W bei Spielen mit 120fps in UHD, schon komisch das der auf Igorslab 10-20w mehr schluckt. Dann muss man sich einfach mal mit der LLC beschäftigen (LoadLine), die bei bestimmten Herstellern auf normal schon sattes OC ist. Die höhere Leistungsaufnahme (VCore) hat zur Folge, das der Abitrator viel früher wegregelt. Beim 5900X mit 4 Cores mehr schlägt das dann richtig ein. Das sieht man auch daran, dass die CPUs unter Blender 190W verbrauchen, obwohl sie bei 142 weggeregelt werden. Dazu muss man PPT auch auf 142W setzen. Solche Test dann für allgemeine Vergleiche heranziehen ist alles andere als sinnvoll. Darüber kann man sich dann schon mal, je nach Bias auch aufregen. Anfängerfehler mehr nicht.

Lehdro
2021-11-05, 14:44:17
Bei Anwendungen ist laut IgorsTest von heute der AL ebenfalls Zen 3 an Geschwindigkeit und vor allem Effizienz überlegen.
Kann man nicht ernstnehmen. Warum? Igor hat keine Limits aktiv, testet also außerhalb der Spezifikation.
Ansonsten kannst du mir ja gerne mal erklären wie ein 5900X über 180W wegnuckelt und der 5950X 220W CPU only wegsäuft. Wahrscheinlich PBO auf volle Pulle des Mainboardvendors eingestellt, schön mit skalarem Overvolting 10x.

Wie man ohne die Standard Limits eine effiziente CPU ertesten will weiß wohl selbst Igor nicht. Auf jeden Fall widersprechen seine Messergebnisse damit jedem anderem Test, sorry. Wenn dasselbe beim Gaming der Fall war, brauchen wir uns auch nicht wundern warum Zen 3 da so massiv anders abgeschnitten hat als bei CFX oder CB.

OpenVMSwartoll
2021-11-05, 14:55:04
Kann man nicht ernstnehmen. Warum? Igor hat keine Limits aktiv, testet also außerhalb der Spezifikation.
Ansonsten kannst du mir ja gerne mal erklären wie ein 5900X über 180W wegnuckelt und der 5950X 220W CPU only wegsäuft. Wahrscheinlich PBO auf volle Pulle des Mainboardvendors eingestellt, schön mit skalarem Overvolting 10x.

Wie man ohne die Standard Limits eine effiziente CPU ertesten will weiß wohl selbst Igor nicht. Auf jeden Fall widersprechen seine Messergebnisse damit jedem anderem Test, sorry. Wenn dasselbe beim Gaming der Fall war, brauchen wir uns auch nicht wundern warum Zen 3 da so massiv anders abgeschnitten hat als bei CFX oder CB.

Mir kam es sogar vor, als hüpfte er zwischen den Settings und mischte dies dann in den Texten.

Und die Effizienz beim Spielen: In einem Spiel sah es gut aus für die Schlumpffraktion, im nächsten beschissen. Text dazu? Besser nicht lesen.

Aber es waren viele Tests gestern zu lesen.

Gast
2021-11-05, 14:56:52
Kann man nicht ernstnehmen. Warum? Igor hat keine Limits aktiv, testet also außerhalb der Spezifikation.


Das passt schon, der 12900K wird ja auch mit 241W dagegen getestet, und PBO ist ein hochoffizielles Feature von AMD, wofür sie sogar Werbevideos auf ihren Youtubekanal hochladen und damit innerhalb der Spezifikation.


Wenn dasselbe beim Gaming der Fall war, brauchen wir uns auch nicht wundern warum Zen 3 da so massiv anders abgeschnitten hat als bei CFX oder CB.

Die einzige CPU die beim gaming irgendwie von ihrem Default Powerlimit beeinflusst wird ist der 11900K.

Alle anderen sind mehr oder weniger weit unter ihrem Limit, weshalb weder die 241W bei Intel noch PBO irgendwelche Auswirkungen hat.

Complicated
2021-11-05, 14:58:11
Aber ich halte es für ausgeschlossen, dass Intel eine kostengünstige CPU anbietet - um sich dann alles von sehr teuren Boardpreisen kaputt machen zu lassen.
Ich glaube darüber hat Intel wenig Kontrolle. Sie müssen mit dem Top-Chipsatz starten (AMD hatte das selbe Dilemma mit X570 und PCIe 4) um das Featureset der Plattform mit Alleinstellungsmerkmalen auszustatten.
Die Boardhersteller versuchen von Topdown Umsatz zu machen, denn andersherum kommt einfach weniger rein. Daher starten die teuren Angebote zuerst.

AMDs Timing mit Zen3D liegt auch nicht zufällig in der Nähe des typischen Launchrhythmus der günstigeren Plattform/CPU Kombinationen. Mit Threadripper sind die Käuferschichten abgedeckt, die Performance mit vielen Kernen wirklich brauchen. Da bietet Intel nach wie vor nichts an im HEDT. Es bleiben die Gamer Enthusiasten. Hier macht AMD das einzig richtige - Sie binden AM4-Kunden mit einem relativ günstigem CPU-Upgrade (Zen3D), und versuchen mit AM5 weitere Intel-Plattformen abzulösen. Wer in 3 Monaten kaufen will, weil derzeit einfach zu teures Gesamtpaket, wird plötzlich mehr Optionen vorfinden und Alderlake könnte hier Schwierigkeiten bekommen, besonders im OEM Umfeld, Wenn Zen3D die Gamingbenchmarks dominieren sollte zu der Zeit.

Was ich überhaupt nicht verstehe => warum muss es immer der KILLER sein? Oder pulverisieren / zerstören / blablub. Warum immer diese völligen Übertreibungen?
Dem kann ich nur zustimmen!

WedgeAntilles
2021-11-05, 15:13:42
Wo bitte steht das denn?
z.B. Golem
https://www.golem.de/news/zen3d-ryzen-mit-3d-v-cache-erscheint-anfang-2022-2110-160285.html

Heise
https://www.heise.de/news/AMD-Ryzen-Gaming-Prozessoren-mit-3D-Cache-erscheinen-Anfang-2022-6216303.html

Möglich ist aber sicherlich, dass auch die kleineren Modelle das Upgarde bekommen.
Nach den letzten Meldungen im Oktober klang es aber eben so, dass es nur die großen bekommen sollen.
Vielleicht habe ich aber auch zu viel reininterpretiert dass da nur noch vom 5900X und 5950X geschrieben wurde.

Ist wahrscheinlich auch eine Frage des Preises - was kostet der Cache? Quasi nix? Dann kann man den überall draufmachen.
Oder ist der doch nicht ganz so billig? Dann erscheint es sinnvoll, den nur auf die zwei teuren Produkte zu setzen.
Was dieser Cache kostet ist ja glaube ich völlig unbekannt, oder gab es da mal glaubwürdige Leaks?

Gast
2021-11-05, 15:18:54
Die größte Überraschung für mich ist, dass die E-Cores in der jetzigen Ausführung in den Desktop-CPUs (komplett) unnötig sind.

Und ja, Effizienz ist und war schon immer der ausschlaggebende Punkt für alles.
Im Desktop ja, aber ab dem 9 Thread unter Spielen werden sie angesprochen. Was wohl derzeit eher ein Ausnahmefall ist. Daher täuscht die Effizenz in Spielen derzeit darüber hinweg, dass der 12900k mit PL1 241W schnell zu einer Heizplatte werden kann. Die 5000 von AMD auch, wenn man vergisst PBO abzuschalten, weil PBO max gleich 215W ist. PTT 142W wird dann ignoriert.

Igor wieder.:rolleyes:

Hier da bekommt man auch Hintergrundwissen vermittelt, imo ein lesenswerter Test: https://www.golem.de/news/core-i9-12900k-alder-lake-im-test-das-intelperium-schlaegt-zurueck-2111-160611.html

Lehdro
2021-11-05, 15:28:19
Das passt schon, der 12900K wird ja auch mit 241W dagegen getestet, und PBO ist ein hochoffizielles Feature von AMD, wofür sie sogar Werbevideos auf ihren Youtubekanal hochladen und damit innerhalb der Spezifikation.
Ok, wenn man deiner Argumentation folgen will: Wo ist der AMD Standard? Gibts einfach nicht? Den 125W PBP ADL gibts aber schon...hm.

-> tendenziöser Journalismus.

Die einzige CPU die beim gaming irgendwie von ihrem Default Powerlimit beeinflusst wird ist der 11900K.
Öhm, nö - da gehören alle 65W RKL CPUs dazu, gab damals bei CB eine schöne Analyse. (https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/2/#abschnitt_benchmarks_in_spielen)

Alle anderen sind mehr oder weniger weit unter ihrem Limit, weshalb weder die 241W bei Intel noch PBO irgendwelche Auswirkungen hat.
Kann ich für meinen 5950X nicht bestätigen, mit PBO frisst er für minimale Mehrleistung in Spielen teilweise deutlich mehr. Ist halt stark Spielabhängig, aber pauschal stimmt das so nicht.

wolik
2021-11-05, 15:50:45
In 4K Spiele-Perf. unterschied ist nicht besonders groß.

OpenVMSwartoll
2021-11-05, 15:54:35
In 4K Spiele-Perf. unterschied ist nicht besonders groß.

Das sollte aber kaum verwundern.

Gast
2021-11-05, 16:06:58
Kann ich für meinen 5950X nicht bestätigen, mit PBO frisst er für minimale Mehrleistung in Spielen teilweise deutlich mehr. Ist halt stark Spielabhängig, aber pauschal stimmt das so nicht.
Ist ja auch Absicht, eben Werks OC aber stark von der Serienstreuung abhängig, wenn man gute Kühloptionen bereitstellt. Hat in einem Vergleichstest aber nichts zu suchen.

Golem hat auch Effizienzvergleiche dabei (Testseite 9 mal durch die Grafiken klicken) und siehe da, da nehmen sich die Ryzen und ADL kaum was, mal ein paar Watt hier und da. Unter Anwendungen schießt der ADL dann aber den Bock, Package 237W. Da schlucken die Ryzen auf PPT mit 142, ganze 100W weniger. Das kann man nicht ignorieren.

Unter Spielen dürften sie auch mehr ziehen wenn irgendwann mehr als 8T gebraucht werden. Intel hat dies aber intelligent gelöst, erst werden die 8 P Cores mit ihren 8T, dann die 8 E Cores mit ihren 8T und dann HT/SMT angesprochen. Das lässt ihnen Luft nach oben, welches Spiel frisst schon mehr als 16T? Da lebt man dann von der Singlecoreleistung der P Cores inklusive IPC.

AMD geht es ähnlich an, bei Zen3 werden die Cores eines Chiplets nacheinander ausgelastet, der Sheduler springt nicht mehr über die Chiplets.

Beides steigert die Effizienz. Multicore bleibt AMD vorne, weil P Cores eben mehr leisten, aber auch mehr brauchen.

Bei ADL muss man warten bis Intel die PCU gepachtet hat, sonst kann es Probleme mit Spielen geben die die P/E Cores nicht erkennen.

Gast
2021-11-05, 16:26:44
Ok, wenn man deiner Argumentation folgen will: Wo ist der AMD Standard? Gibts einfach nicht? Den 125W PBP ADL gibts aber schon...hm.



Es gibt weder bei AMD noch bei Intel EINEN Standard. Der "Standard" ist Konfigurierbar, sowohl Eco Mode, "Normal" und PBO sind alles Standards bei AMD, und bei Intel sind es noch viel weniger Standards da ist quasi alles möglich und nicht Intel sondern der Boardhersteller bestimmt den Standard.

Und es macht natürlich absolut Sinn, dass man die einzelnen CPUs unter vergleichbaren Settings testet und nicht AMD Eco-Mode gegen Intel 241W+.


Öhm, nö - da gehören alle 65W RKL CPUs dazu, gab damals bei CB eine schöne Analyse. (https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/2/#abschnitt_benchmarks_in_spielen)


Wie blöd kann man sich eigentlich anstellen? Ich meinte natürlich alle getesteten CPUs, und die haben alle 125W+ Powerlimit.

Es ist auch naheliegend, dass bei einer typischen Leistungsaufnahme von ~100W in Spielen ein Powerlimit das darüber liegt keine Rolle spielt und bei CPUs mit 65W Powerlimit ein Leistungsverlust zu erwarten ist.



Kann ich für meinen 5950X nicht bestätigen, mit PBO frisst er für minimale Mehrleistung in Spielen teilweise deutlich mehr. Ist halt stark Spielabhängig, aber pauschal stimmt das so nicht.

Das wäre dann aber sehr dämlich von AMD, und kann ich mit meinem 5950X auch nicht bestätigen. Abseits von Cinebench & Co hat PBO überhaupt keine Auswirkung weder auf die Leistung noch auf die Leistungsaufnahme.

Gast Ritis
2021-11-05, 16:38:06
Glaubst du wirklich, dass es da nur Boards geben wird die teurer als die CPU selber sind?

Ich weiss nicht was ich glauben soll. Die Befürchtung ist, dass alle DIY Mainboards mit DDR5 Support für ADL so ausgelegt sein werden, dass man deutlich mehr als 240W am Sockel dauerhaft liefern kann. Dazu noch PCIe5 Spec die zusätzlich vorsichtigere Designs braucht. Das macht die Boards teurer, als wenn man auch Boards ohne Overclocking-Marketing auflegen könnte, die nur nen Headroom bis vielleicht 140W können müssen.
Entsprechend kann ich mir nicht vorstellen, dass es mal Mainboards für rund 100.- Euro oder weniger geben wird, z.B. wenn man den ersten ADL an Einsteiger wieder abverkaufen wil um nochmal aufzurüsten.

Legendenkiller
2021-11-05, 17:29:26
Wo bitte steht das denn?

AMD hat gesagt das 3D Cache zuerst bei den oberen Modellen kommt, also 3900X und 3950X.
Und dann Stückchenweise auf alle Modelle angewendet wird.

Was man jetzt so lesen könnte wie der 5800X kommt auch mit 3d, nur später.
Imo war AMD da aber schon thematisch bei Zen 4 und 5.

Es ist eine vergleichweise teurer Methode und damit ist es logisch das es sich bei preiswerten CPUs nicht lohnt.

Daredevil
2021-11-05, 17:31:36
In 4K Spiele-Perf. unterschied ist nicht besonders groß.
Wichtig sind bei der Auflösung die MinFPS, die Max werden keinen großen Unterschied machen, da GPU limitiert bei einer Highend GPU.

VfBFan
2021-11-05, 18:27:46
Du meinst wohl eher die Durchschnittswerte, die Max-FPS testet heutzutage hoffentlich keine normale Seite mehr.

Gast
2021-11-05, 18:52:59
Das wäre dann aber sehr dämlich von AMD, und kann ich mit meinem 5950X auch nicht bestätigen. Abseits von Cinebench & Co hat PBO überhaupt keine Auswirkung weder auf die Leistung noch auf die Leistungsaufnahme.
Unsinn, ein 5900x nimmt im Schnitt ca. 40W mehr (142 versus 185W) und in Spielen bringt das auch mehr Frames, wenn sie nicht GPU limitiert daherkommen. PBO2 hat AMD für Wassserkühlungen und so weiter eingeführt, für denjenigen der eben alles aus der CPU rausholen will. Das gehört nicht einen einen Testvergleich, weil die Leistungsaufnahme und der Zugewinn unterschiedlich ausfallen kann.

Du hast keinen Zen3 sonst wüsstest du das!

digidoctor
2021-11-05, 19:36:40
"Ansonsten bleibt der Core i5-12600K/KF klar das effektivste Spieler-Modell von Alder Lake"

Was ist damit gemeint? Effektiv sind ausnahmslos alle genannten CPUs.

maximus_hertus
2021-11-05, 19:49:05
Gemeint ist (wahrscheinlich), dass der 12600K das rundeste Paket bietet. Performance, Effizienz, Preis, Kühlbarkeit.

Allerdings sehe ich den 12700K mittelfristig vorne. Der 12600K könnte demnächst ein wenig abfallen, da nur 6 P-Cores. Aber das ist nur Spekulation.

Stand jetzt ist der 12600K eben das rundeste Alderlake-Paket. Wenn es passende Boards / RAM geben würde (also passende Preise wie die CPU) ;)

GerryB
2021-11-05, 20:34:07
Die Frage warum Igor sparsamer unterwegs erklärt sich mit der Voreinstellung beim Board, wo evtl. manche Hersteller übers Ziel hinausschießen um beim OCen besser da zu stehen.

Igor@msi Voreinstellung= Kühler boxed
https://www.igorslab.de/community/threads/intel-core-i9-12900k-f-core-i7-12700k-und-core-i5-12600k-im-test-%E2%80%93-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1.5802/page-4#post-149853

Er hält nichts von Voreinstellung Towerkühler!

btw.
Ob es jetzt zusätzlich bei Games noch sinnvoller war ne 6900 statt Ampere zu verwenden ist ne andere Frage.
Die Ampere könnte ja noch Overhead draufpacken und die W bei der CPU erhöhen.(bei anderen Reviewern)

Leonidas
2021-11-05, 21:13:17
Gemeint ist (wahrscheinlich), dass der 12600K das rundeste Paket bietet. Performance, Effizienz, Preis, Kühlbarkeit.;)

Exakt.



Was ist damit gemeint? Effektiv sind ausnahmslos alle genannten CPUs.

Wortdifferenz zwischen "effektiv" und "effektivste".

Gast
2021-11-05, 21:33:51
Unsinn, ein 5900x nimmt im Schnitt ca. 40W mehr (142 versus 185W) und in Spielen bringt das auch mehr Frames, wenn sie nicht GPU limitiert daherkommen.


Zeig mir ein Spiel in dem ein 5900X 185W aufnimmt.
Uns selbst wenn du das eine Spiel finden solltest, nimmt er niemals im Durchschnitt 180W+ auf, darauf kommst du höchstens in Cinebench multithread oder ähnlichem.


PBO2 hat AMD für Wassserkühlungen und so weiter eingeführt, für denjenigen der eben alles aus der CPU rausholen will.


Dumm nur das Zen3 aufgrund des Package-Designs quasi nicht von Wasserkühlungen profitiert.


Du hast keinen Zen3 sonst wüsstest du das!

Ich hab alle Zens von Zen 1 bis Zen 3.

Lehdro
2021-11-05, 23:28:13
Die Frage warum Igor sparsamer unterwegs erklärt sich mit der Voreinstellung beim Board, wo evtl. manche Hersteller übers Ziel hinausschießen um beim OCen besser da zu stehen.

Igor@msi Voreinstellung= Kühler boxed

Er hält nichts von Voreinstellung Towerkühler!
Macht natürlich voll Sinn den AMD dann mit voll offenem PBO und Mainboardlimits laufen zu lassen. Nicht.
Es gibt weder bei AMD noch bei Intel EINEN Standard. Der "Standard" ist Konfigurierbar, sowohl Eco Mode, "Normal" und PBO sind alles Standards bei AMD, und bei Intel sind es noch viel weniger Standards da ist quasi alles möglich und nicht Intel sondern der Boardhersteller bestimmt den Standard.

Und es macht natürlich absolut Sinn, dass man die einzelnen CPUs unter vergleichbaren Settings testet und nicht AMD Eco-Mode gegen Intel 241W+.
Jo, nur hat er das nicht gemacht, Intel darf mit 125W oder 241W gegen AMD mit offenem PBO antreten. Das 142PPT gibt es halt einfach nicht, ebenso keine Eco Varianten. Wirkt überhaupt nicht kontrovers wenn man das in einem Test macht bei dem es um Effizienz geht, oder? Übrigens muss man PBO bei AMD händisch aktivieren, er hat das also selber eingestellt. Mainboardvoreinstellung ist 142W PPT - hat schon ein Geschmäckle, besonders weil unter anderem er es war der PBO als recht sinnfrei beurteilt hat.

:rolleyes:

y33H@
2021-11-05, 23:31:41
Ich kenne kein Board, wo PBO als Default aktiv wäre.

FarCry
2021-11-05, 23:44:11
Ja laut Igors-labs, der immer alles besser weiß und alles besser kann, alle anderen Redaktionen messen was anderes. Merkst du was? Die liegen mit Intel im Klinsch und bekommen von denen nicht ein Testample, komischer Weise kommt dann ein Test von denen der Intel förmlich massiv lobt.

...

Die Anschaffungskosten für ADL sollte man lieber in eine GPU investieren, da hat man in höheren Auflösungen vor allem als Spieler deutlich mehr davon.


Sehr guter Kommentar, kann man alles genau so unterschreiben. Danke!

Lehdro
2021-11-05, 23:52:36
Ich kenne kein Board, wo PBO als Default aktiv wäre.
Danke. So etwas hatte ich mir auch gedacht, nur leider nicht das Wissen um so viele Boards wie zum Beispiel du. Sieht halt echt komisch aus so wie Igor da seinen Effizienztest aufzieht.

Gast
2021-11-06, 01:06:35
Jo, nur hat er das nicht gemacht, Intel darf mit 125W oder 241W gegen AMD mit offenem PBO antreten.
Das ist sinnfrei, weil PBO = Max Frequenz Limit der CPU ist, dann hätte er bezüglich EDC und TDC mit dem Curveoptimizer wenigstens Curve und Boost anpassen müssen, auf Auto schluckt die CPU sinnlos Energie, weil sie immer ans maximale Frequenzlimit boostet und irgendwann zu warm wird. PBO mit händischen -30mV macht deutlich mehr Sinn. Damit würde man die Fequenzcurve zumindest glätten und die VCore bleibt im Rahmen, trotz hohem Takt bleibt die CPU deutlich kühler.

LLC auf Normal und PBO off und alles ist gut, was soll dieser Quatsch in einem Vergleichstest? Schon PBO ist da OC und versaut dem Ryzen die Effizienz, wobei er aber schneller sein kann als Stock. Schon deshalb hätte ich das nicht gemacht, ich will ja kein OC testen. So ist der Test absolut nichts wert.

Schon komisch, weil er sonst so tut als wenn er alles weiß.

Gast
2021-11-06, 01:54:47
Jo, nur hat er das nicht gemacht, Intel darf mit 125W oder 241W gegen AMD mit offenem PBO antreten.

Und wieviel Unterschied gibt es bei den Gaming-Tests zwischen 125W und 241W? 0 komma irgendwas, Igor hat ganz offensichtlich nur eine einzige CPU mit beiden Powerlimits laufen lassen um zu zeigen, dass es keinen Unterschied gibt. Noch mehr CPUs auf niedrigeren Powerlimits laufen zu lassen, zumindest die 125W bei Intel und 142W bei AMD wären eine komplett sinnlose Zeitverschwendung wenn die reale Leistungsaufnahme mehr oder weniger weit darunter liegt.

Gast
2021-11-06, 12:44:58
Dumm nur das Zen3 aufgrund des Package-Designs quasi nicht von Wasserkühlungen profitiert.
Was bitte? AMD empfiehlt PBO für Wasserkühlungen!

Igor war einfach zu faul noch ein paar Setting im Limit zu fahren, zudem hat er auf Wasserkühlung gesetzt, einen Chiller mit in der Wasserkühlung und natürlich fallen dann Designs, die vor allem Stock in ein Templimit rennen, effizienter aus. Schon weil du schreibtst ÁMD profitiert nicht von Wasserkühlungen, wäre das ein absolutes Ungleichgewicht im Testsenarien.

Der 12900k wird bis 100°C warm unter Luft. Heizplatte ist gelinde gesagt, höflich ausgedrückt und natürlich verzerrt so eine Chiller Wakü bei 20°C Wassertemp auch die Werte, Intel kann dann mit 250w rennen, wobei PBO bei 215-220 wegregelt.

Ich habe keine Ahnung was er sich dabei gedacht hat. Gleiches gilt ja auch für Nvidia, wenn die Karten bis zu 450w ziehen dürfen, dann hat eine bei 300w wegeregelte Karte keine Chance. Es wird also Leistung über hohe Verbräuche erkauft, deren Ineffizienz in thermischer Abhängigkeit liegen. Wenn ich diese Thermik und dessen Limit beeinflusse, dann darf die CPU oder GPU auch mehr ziehen und ist womöglich oben raus schneller, wobei das letzte Bißchen immer mit deutlich höherem Aufwand erkauft wird.

Der Test auf Igorlab ist ein OC Testvergleich, das ist nichts reelles oder etwas das beim Anwender (Normalo) anliegt und führt die Leute als Käufer so in die Irre. Genau das sollte vermieden werden, weil es vermutlich Absicht von Intel ist. Daher sollte man immer auf den Leveln testen die Hersteller allgemein vorgeben, sonst verfälscht es extrem die Leistungsfähigkeit der Hardware.

PBO muss man genau deshalb händisch aktivieren, auch wenn es um Auto OC geht. AMD empfiehlt für das letzte Bißchen, daher maximale Kühloptionen (Wasser, LN usw) und dann darf man den Ryzen auch von der leinen lassen, da PBO TDC, EDC und PPT überschreibt.

Was ADL PL1 angeht, hatte Intel in der Vergangenheit viele Probleme mit den Mainbordpartner da diese sich nie an die Vorgaben hielten und statt PL1 125w zu setzen und PL2 58sec, schon ab dem 10900k auf die CPUs ohnen Einhaltung der Zeitlimits von PL2 einprügelten, um mit ihren Boards im Leistungsvergleich vorne zu liegen. Intel hat es daher freigegeben PL1 auch auf 241 zu setzen, wenn genug Optionen empfohlen werden (Kühlung, VRM und so weiter), normal wäre wohl 125w.

Igor hätte Ryzen und ADL also gerne bei 125w und PPT 142w vergleichen können, mit der Option das OC Platinen auch 241w ermöglichen (das ist nämlich kein allgemeiner Standard bei den ADL Motherboards!), wobei man dann mit PBO2 vergleicht. Nur weil er meint, keine Zeit dafür zu haben, ist sein Test nicht von besonderer Aussagekraft. Natürlich bringt ADL bei einem max PT von 241, 190 und 150w mehr OC Potential mit. Da kommt AMD dann nimmer hin und beim Takt hat Intel auch einen Vorteil, den AMD dann bereinigen muss. Und so bleiben von 10-15% die ADL derzeit vorne liegt eigentlich nicht mehr viel, wenn es AMD gelingt den Takt bei erhöhter Leistungsaufnahme zu steigern. Ich vermute sogar das sie das machen werden, weil 7nm das mittlerweile hergibt.

Die Entwicklung ist trotzdem krank, wenn nun 8P und 8E Kerne fast 250w verpulern dürfen. Das ist eine absolute Negativmarke in der Entwicklung und passt was den Mainstream angeht, überhaupt nicht mehr in unsere Zeit. 8 Effizienzkernen ala Atom die fast 50w verpulvern, nennt man dann sparsam?

Unter Spielen hat man den Vorteil, dass die Cores mit steigender Auflösung kaum ausgelastet werden, genau deshalb bewirbt Intel die CPUs auch als Spiele CPUs und täuscht darüber hinweg was passieren kann wenn Spiele mal mehr als 10-12T brauchen. Unter Anwendnungen wird man nicht umher kommen und einen Wasserkühler draufschnallen müssen, oder mit hohen Temps bis ins Limit und dem Leistungsverlust der dadurch entsteht, leben müssen. Zu vermuten ist das 16 P Cores vermutlich losgelassen 350w und mehr verbrauchen würden. Krank ist sowas. Der 12900k ist die sinnloste CPU whatever (Brechstange), Sinn machen der 12600k und der 12700k.
Der 12700k ist nur wenige Prozentpunkte langsamer unter Games als der 12900k, spart einem bei Anwendungen aber schlappe 60-70 Thermalpower.

Sollte HEDT in dieser Bauweise kommen, sehe ich schwarz. Keine Ahnung wie Intel das wegkühlen will. Intel 7 ist TSMC bei der reinen Effizienz immer noch nicht gewachsen, egal was Intel da erzählt und einem weismachen will. Ausgelastet verbrennen die CPUs Unmengen an Energie.

Gast
2021-11-06, 16:32:46
Was bitte? AMD empfiehlt PBO für Wasserkühlungen!


Ja AMD behauptet auch dass man mit PBO 200MHz mehr bekommt, was bei einem Großteil der CPUs kompletter Blödsinn ist.

Ich hab selbst Zen Rechner mit Wasserkühlung und mit NH-D15, mit normaler Wärmeleitpaste gibt es da so gut wie keinen Unterschied, erst mit Liquid Metal gibt es für Wasser reproduzierbare, wenn auch minimale, Vorteile.

Höchstwahrscheinlich wird das mit den Stacked DIEs noch schlimmer.


Igor war einfach zu faul noch ein paar Setting im Limit zu fahren, zudem hat er auf Wasserkühlung gesetzt, einen Chiller mit in der Wasserkühlung und natürlich fallen dann Designs, die vor allem Stock in ein Templimit rennen, effizienter aus.


Igor hat die CPUs mit einer winzigen 240er Loop getestet, das ist im Endeffekt keine bessere Kühlung als ein NH-D15, eher sogar etwas schlechter.
Und von einem potentiellen 12900K (und auch 59(5)0X) Käufer sollte man schon erwarten, dass sie zumindest Dualtower oder eben Wasser zur Kühlung einsetzen


Schon weil du schreibtst ÁMD profitiert nicht von Wasserkühlungen, wäre das ein absolutes Ungleichgewicht im Testsenarien.


Nach der Logik wäre es auch ein Ungleichgewicht Intel mit DDR5 und AMD mit DDR4 zu testen.


Der 12900k wird bis 100°C warm unter Luft. Heizplatte ist gelinde gesagt, höflich ausgedrückt und natürlich verzerrt so eine Chiller Wakü bei 20°C Wassertemp auch die Werte, Intel kann dann mit 250w rennen, wobei PBO bei 215-220 wegregelt.


Wie gesagt nix Chiller, einfacher 240er Radiator, das ist weniger Kühlfläche als ein Dualtower.
Igor verwendet den Chiller nur zum Test für die Wasserblöcke selbst, was auch logisch ist, da der Chiller eine konstante Wassertemperatur garantiert, und für Max. OC Tests.



Der Test auf Igorlab ist ein OC Testvergleich, das ist nichts reelles oder etwas das beim Anwender (Normalo) anliegt und führt die Leute als Käufer so in die Irre.


Das ist genau das was beim "Normalo" anliegt. Bei beiden ist der erste Weg ins BIOS und XMP aktivieren, und bei AMD noch PBO dazu, wobei PBO bei vielen Boards defaultmäßig auf "Auto" und nicht auf "Off" steht. Was "Auto" bedeutet definiert jedes Board anders, und manche sagen XMP + PBO-Auto = PBO-On.





Igor hätte Ryzen und ADL also gerne bei 125w und PPT 142w vergleichen können,


Hätte er können, stört mich aber nicht, dass er es nicht gemacht hat..


Natürlich bringt ADL bei einem max PT von 241, 190 und 150w mehr OC Potential mit. Da kommt AMD dann nimmer hin und beim Takt hat Intel auch einen Vorteil, den AMD dann bereinigen muss.


AMD durfte dank PBO auch faktisch ohne Limit arbeiten und hat damit eben keinen Nachteil.


Und so bleiben von 10-15% die ADL derzeit vorne liegt eigentlich nicht mehr viel, wenn es AMD gelingt den Takt bei erhöhter Leistungsaufnahme zu steigern.


Das gelingt es AMD eben nicht, die einzigen AMD-CPUs deren Takt sich mit PBO steigern lässt sind jene mit niedrigem Default-Takt, also Non-X CPUs die es bei Ryzen 5xxx gar nicht gibt. Der einzige der evtl. davon profitieren könnte ist der 5600X, alles über 5800X ist auch ohne PBO schon am Taktlimit.


Die Entwicklung ist trotzdem krank, wenn nun 8P und 8E Kerne fast 250w verpulern dürfen. Das ist eine absolute Negativmarke in der Entwicklung und passt was den Mainstream angeht, überhaupt nicht mehr in unsere Zeit.


Man hat dafür auch 8+8 bzw. bei AMD 12-16 Kerne, das sind quasi HEDT im Mainstreamsockel, und bei HEDT hat noch nie einen 200W+ gestört. Dass man diese Leistung jetzt ohne die teure Plattform darunter bekommt ist auch nicht gerade ein Nachteil.


8 Effizienzkernen ala Atom die fast 50w verpulvern, nennt man dann sparsam?


Macht 6,25W pro Kern, also in etwa der Peak eines Apple Firestorm-Kerns, und diese sind ja angeblich so sparsam.


Unter Spielen hat man den Vorteil, dass die Cores mit steigender Auflösung kaum ausgelastet werden,


Auch etwas was Igors test als einziger wunderbar zeigt, wie schon immer ist Intel wesentlich besser was die Energieaufnahme unter Teilllast betrifft. Die Intels "gewinnen" bzw. "verlieren" eigentlich immer mehr an Verbrauch, je stärker die Grafikkarte limitiert, bei AMD tut sich da insbesondere bei den 2CCD-Produkten kaum was.

Intel ist damit in realen Gaming-Auflösungen außerhalb von 720p die wesentlich sparsamere Gaming-CPU.

Gast
2021-11-06, 17:46:54
Gamer Nexus = Steve Burke. Ich mags. Da ist zu sehen, ja Intel ist zurück aber das sie in Spielen klar gewinnen, nicht unbedingt zu sehen. Wo die alte Gen schnell war, ist auch die neue Gen schnell. Aber ehrlich, bei 350fps in 720p/1080p dann 10fps schneller, das sind nicht mal 3%! Das merkt man in Realität ob Intel oder AMD auf keinen Fall. Auch im Blender scheint AMD eben nicht zu so viel aufzunehmen, wie manch eine deutsche Redaktion meint. Was da wieder gemessen wurde = naja. Inklusive viel Selbstlob.

Ganz interessantes Video: https://www.youtube.com/watch?v=fhI9tLOg-6I

Wie zu sehen bei den Low 1% ist Intel gut dabei, aber den Low 0.1% eben wieder nicht (da ist AMD oft vorne). Ich finde der 5900 hält da auch noch gut mit (24T = 24T). Gegenüber der alten Gen legt Intel richtig zu und darauf kommt es letztlich ja auch an, vergleichen muss man sich zu aller erst einmal intern. DDR5 für Overclocker, PCIe 5.0 für irgendwann später usw., schnelles Storage und schnelle GPU Anbindung inklusive (Preise derzeit leider noch etwas gaga und DDR5 absolut rar). Für AMD dann Konkurrenz und für Intel ebenso, dann fallen vermutlich auch bald die Preise.

Seht es mal positiv. Konkurrenz belebt hoffentlich das Geschäft und den Markt preislich, das ist doch was alle wollen. Das AMD mit der ein Jahr alten Gen noch einen Schlagabtausch liefert bleibt bemerkenswert, wenn man mal an früher denkt wo sie immer hinten lagen.:)

Gamer Nexus hat mit einer 360 AIO von Artic gebencht, weil alles andere wohl sinnfrei wäre beim i9-12900K. Nun hat Intel einen "rausgehauen" und dann wird AMD kommen, das wird doch alle Geschmäcker und Gemüter befriedigen.

ZeroStrat
2021-11-07, 18:38:03
Wie zu sehen bei den Low 1% ist Intel gut dabei, aber den Low 0.1% eben wieder nicht (da ist AMD oft vorne).

Low 0.1% ist von einem statitischen Standpunkt betrachtet eine gänzlich unzuverlässige Metrik. Dazu kommt Steves Ansatz die Lows so zu definieren, dass der Mittelwert der 0.1% höchsten Frametimes genommen wird. Das macht diese Metrik doppelt unzuverlässig, weil dieser Ansatz Ausreißer mit einbezieht.

Man muss sich nur mal ein paar Charts anschauen, auch von älteren Test und erkennt schnell, dass das inkonsistent ist.

Leonidas
2021-11-07, 19:40:59
Oh ja, bei den älteren Tests sind diese 0.1% von HWU teilweise arg unbrauchbar. Da kam man mit Würfeln besser. Ist in letzter Zeit nicht mehr so, aber ich traue den 0.1% nicht über den Weg.

Gast
2021-11-09, 13:52:02
@leonidas
Wenn igors-lab eine besondere Konfiguration aus Kühlung, LLC und damit Vcore unter PL1 und PL2 bei den ADL für die Test nutzt, müsste man das auch dazu schreiben. Weil das sonst den Eindruck erweckt, es handle sich um Werkseinstellungen. Die Testergebnisse verzerrt das zumindest, weil sich der Großteil damit nicht beschäftigen dürfte und nicht alle Mainboards so eine granulare Abstufung bzw. Optimierung erlauben werden.

Warum du deren Ergebnisse dann in den News verwertet und daraus prozentuale Gewinne für ADL ableitest, müsstest du mal erklären. Das hängt stark davon ab, auf welchem Mainboard man diese CPUs betreibt und nicht jeder wird da in Premium investieren. Intel hat es geschafft, dass damit das Testchaos perfekt funktioniert und so in die Annalen einfließen wird. Bis dann das Erwachen bei den Anwendern einschlägt. Manipulativer geht es nicht.

Leonidas
2021-11-09, 15:20:09
Zum Glück dürfte dies alles bei den Spiele-Tests kaum Auswirkungen. Bedenken habe ich eher, dass dies bei den Anwendungs-Tests durchschlägt.

Aber letztlich muß ich mit dem arbeiten, was man hat. Ich kann nur versuchen, den Effekt unsolider Benchmarks durch die Hinzunahme von besonders vielen anderen Ergebnissen zu marginalisieren (wie bei ADL geschehen). Um einen Test wirklich auszuschließen, brauche ich dagegen handfeste Gründe.

Robot
2021-11-09, 15:29:11
Oh ja, bei den älteren Tests sind diese 0.1% von HWU teilweise arg unbrauchbar. Da kam man mit Würfeln besser. Ist in letzter Zeit nicht mehr so, aber ich traue den 0.1% nicht über den Weg.

Da stimm ich absolut zu und wer mal ne Grafikkarte zum Launch getestet hat und weiß wie unglaublich viel Zeit einem Nvidia, AMD und Intel lassen und wie viel Nachtschichten da gekloppt werden, der weiß dass man entweder

A) Alte Benchmarkwerte von alten Karten mit alten Treibern nimmt
oder
B) es total schleifen lässt und genau einen Durchlauf macht

A) ignoriert alle Treiberoptimierungen und macht Aussagen bei knappen Abständen unzuverlässig
B) Killt die Zuverlässigkeit von Aussagen über Min FPS usw.

Und die meisten machen A+B !

Ich trau daher auch den guten alten Average FPS, die schlucken solche Fehler noch am ehesten, die anderen Metriken sind zwar alle sehr schön und gut aber sie sind für einen Launch-Test einfach zu zeitaufwendig.

Wenn man 10 Karten hat und 10 Benchmarks in 3 Settings, dann muss man 300 Benchmarks machen bei einem Durchlauf.

Das gute an Leos Zusammenfassungen ist eben, dass sich solche Effekte durch die vielen verschiedenen Quellen eigentlich eliminieren sollten.

Intel hat es geschafft, dass damit das Testchaos perfekt funktioniert und so in die Annalen einfließen wird. Bis dann das Erwachen bei den Anwendern einschlägt. Manipulativer geht es nicht.

Das ist ja schon lange so, seit es den "Advanced Extra Turbo" "All Core Turbo" oder wie auch immer gibt, der Default bei allen Mainboards an ist. Ich will nicht wissen wie viele Redakteure das so lassen und damit quasi jeden Standard-Intel-Proz eigentlich OC testen.

Leonidas
2021-11-10, 02:49:10
Das ist ja schon lange so, seit es den "Advanced Extra Turbo" "All Core Turbo" oder wie auch immer gibt, der Default bei allen Mainboards an ist. Ich will nicht wissen wie viele Redakteure das so lassen und damit quasi jeden Standard-Intel-Proz eigentlich OC testen.

So wird es sein. Und eigentlich schlummern da die eigentlichen Leichen bei den älteren Tests. Heuer nun kommt ein Bewußtsein dafür hoch, ergo nimmt der Grad der Verfälschung eher ab, obwohl das Ganze eher breiter thematisiert wird.

Robot
2021-11-10, 04:52:45
Heuer nun kommt ein Bewußtsein dafür hoch, ergo nimmt der Grad der Verfälschung eher ab, obwohl das Ganze eher breiter thematisiert wird.

Hier im Forum vielleicht, bei den meisten Redakteuren/Youtubern/Twitchern/Ticktockern glaube ich das eher nicht. Da geht's nur darum schnell und als erster mit dabei zu sein, damit man die Samples abgreifen kann.

Ich bin sehr sehr gespannt ob jetzt auf einmal super viele Z690 Mainboard getestet und gelobt werden, wo zuvor eigentlich kaum einer noch Mainboards getestet hat ;) Einige legen ja schon los und stapeln sich die. Sind ja auch so schön teuer.... Das lohnt sich!

Und natürlich werden nur die teuersten getestet, weil das sind ja die die die Masse kauft ;)

Gast
2021-11-10, 07:50:40
@leonidas
Wenn igors-lab eine besondere Konfiguration aus Kühlung, LLC und damit Vcore unter PL1 und PL2 bei den ADL für die Test nutzt, müsste man das auch dazu schreiben.


Igor hat die Defaulteinstellungen seines Testmainboards verwendet.


Das hängt stark davon ab, auf welchem Mainboard man diese CPUs betreibt und nicht jeder wird da in Premium investieren.


So wie bei jeder CPU, der Verbrauch wird immer mit vom Mainboard mit bestimmt.

Leonidas
2021-11-10, 09:12:58
Bei dem, was Igor im Nachtrag geschrieben hat, sehe ich noch nichts griffiges. Aber er hat ja gesagt, dass da nochwas nachkommen soll.

ChaosTM
2021-11-10, 10:49:35
https://www.techpowerup.com/review/intel-core-i9-12900k-alder-lake-ddr4-vs-ddr5/

Wer halbwegs gute DDR4 Speicher hat kann eigentlich fast bedenkenlos zugreifen. Die Brett Preise werden sich auch bald beruhigen.

WedgeAntilles
2021-11-10, 11:48:36
Danke für den Link!
Der Unterschied ist wirklich marginal.
Mit DDR4 macht (fast) keiner etwas falsch.

downforze
2021-11-11, 07:50:56
Wird zum Test bei den Ryzen eigentlich immer PBO verwendet? Damit ist die Performance ja signifikant höher. Ist auf Default aber "off" im BIOS.

dildo4u
2021-11-11, 09:06:30
Beim 5800X bringt es fast nix sitzt schon am oberen Limit beim 5600X kein Plan aber der sollte hier eh keine Rolle spiele da viel zu teuer bzw zu langsam für 300€.

https://www.igorslab.de/amd-ryzen-der-5000er-serie-mit-pbo-2-gleiche-leistung-und-niedrigere-temperaturen-praxistest/3/

Gast
2021-11-11, 12:01:54
Bei dem, was Igor im Nachtrag geschrieben hat, sehe ich noch nichts griffiges. Aber er hat ja gesagt, dass da nochwas nachkommen soll.

Im Video das er dazu gemacht hat geht er darauf ein.

Gast
2021-11-11, 12:11:39
Wird zum Test bei den Ryzen eigentlich immer PBO verwendet?


Beim Igor? Ja


Damit ist die Performance ja signifikant höher. Ist auf Default aber "off" im BIOS.

PBO hat beim Ryzen auf Singlethread-Performance praktisch gar keinen Einfluss, und Multithread profitieren nur 12 und 16 Kerner, beim Rest sind die Auswirkungen minimal.

Non-X Prozessoren hatten auch im Singlethread geringfügige Vorteile, aber die existieren ja nicht mehr.

Lehdro
2021-11-11, 15:04:49
Wird zum Test bei den Ryzen eigentlich immer PBO verwendet? Damit ist die Performance ja signifikant höher. Ist auf Default aber "off" im BIOS.
Definiere signifikant. Bei Games und leichten Workloads tendiert der Vorteil gegen 0 (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/7/#diagramm-performancerating-anwendungen-single-core_2), bei Rendering je nach CPU natürlich etwas besser (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/7/#abschnitt_uebertakten_der_kerne_mit_pbo_und_manuell). Aber wohl immer weitaus weniger Zugewinne als Intels PBP auf die MTP anzuheben.

AMD mit PBO gegen Intel mit PBP in Anwendungen antreten zu lassen und damit die Effizienz zu testen ist etwas was man eigentlich nur Ryan Shrout zutraut.

Leonidas
2021-11-12, 03:58:43
Im Video das er dazu gemacht hat geht er darauf ein.

Sofern es sich um was wichtiges handelt: Text schreiben. In einem Video verliert sich alles, zudem findet man auch einzelne Aussagen um den Faktor 100 schwerer wieder. Video ist, als hätte man es nie gesagt.

ChaosTM
2021-11-12, 23:18:55
fIN8lLhSqmg


DDR5 Speicher bringt (noch?) genau nichts..