Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
13
14
15
16
17
18
TheAntitheist
2021-10-09, 07:07:44
Moment mal. MS soll für Intel den scheduler ändern und im gleichen Atemzug ist AMD schuld an dem Win11 Bug gerade oder wie kommt ihr auf die Annahme, dass es 100% AMDs Schuld ist. Irgendwas stimmt hier doch nicht :confused:
Es geht darum das AMD erst jetzt was macht, obwohl sie das Problem schon seit ewigkeiten kennen sollten. und kA warum das Intels Schuld sein soll, die nutzen doch einen Hardware scheduler oder etwa nicht. Klar gibts den Bug mit der erhöhten Latenz, warum hat AMD aber vorher nicht daran mit MS gearbeitet?
OgrEGT
2021-10-09, 08:14:25
Es ist wohl nicht so dass Win11 überhaupt nicht mit Zen läuft... es läuft aber halt noch nicht ganz optimal... Das wird sicher noch besser... ist ja nicht so als dass es Win10 plötzlich nicht mehr gibt wenn Win11 erscheint...
Freestaler
2021-10-09, 08:34:12
Es geht darum das AMD erst jetzt was macht, obwohl sie das Problem schon seit ewigkeiten kennen sollten. und kA warum das Intels Schuld sein soll, die nutzen doch einen Hardware scheduler oder etwa nicht. Klar gibts den Bug mit der erhöhten Latenz, warum hat AMD aber vorher nicht daran mit MS gearbeitet?
Haben sie doch. Im Dev Channel ist das Problem der Latenz und Performance einbruch gefixt seit Wochen. Hört auf irgendwas zu dichten. Der Bug ist bereits gefixt. RTM hatte ihn noch. RTM hat aber auch noch andere Bugs. Ist wie immer bei ner neuen OS. Alle alten und neuen Virtualisierungsfeatures von Win11 werden mit Intel wie auch AMD voll supportet. Oder nennt die Feautes mal konkrett beim Namen die nicht gehen sollen. Ich sehe da keins. Und ohne Bug, wirds dann auch ohne Performancen einbussen klappen. Und bitte nicht wegen 2-3% Leistungunterschied bei MBEC solche Grundsatz diskussionen starten.
Kein CPU funktioniert in Win11 ohne anpassung des Sheduler. Sei es HT, SMT, CCD, EIST, CnQ, Vx-T, Vd-T oder sonstige Features. Die sind alle Hersteller abhängig implementiert und optimiert. Also stoppt mit dem Märchen das es irgendwie jemand Schuld ist bei Designwahl. Hört bitte auch auf mit Intel macht das mit Absicht. Nicht bei nem Bug der in wenigen Tagen gefixt war. Bitte nicht. Intel hat da doch echt kein Ding dran. Das hat MS ganz alleine verbockt (oder wenn dann mit Hilfe von AMD) aber sicher nicht mit Intel.
Und zurück zu ADL oder ab in Win11 Thread mit dem Win11 Bug.
Daredevil
2021-10-09, 10:08:03
Klar ist das die Pflicht von MS. Ich bin der Kunde und wenn MS seine Arbeit nicht macht, werde ich kein Windows kaufen. Ganz einfach.
Wann hast du das letzte mal denn Windows gekauft?
Windows ist eine Werbeplattform geworden und wer am Ende mehr zahlt, bekommt auch mehr Liebe.
Dein Fanboy Gelaber in diesem Thread nervt übrigens etwas, gerade wenn du sowas hier rauslässt in Verbindung zu Battlefield bzw. Gaming Performance.
Schon ein Ryzen 5 1600 ist aber völlig ausreichend. AMD liefert halt, wie immer ;)
Du hast bestimmt auch nen 3600er im System, weil ein 1600er schon "völlig ausreichend" ist. Hör dir mal selber zu, spielst du in 30fps?
Und wenn AMD "immer liefert", musst du dir ja keine Sorgen machen um Intel.
Wir brauchen alle mehr Dampf, egal wo!!11elf :D
w0mbat
2021-10-09, 10:56:21
Dein Fanboy Gelaber in diesem Thread nervt übrigens etwas, gerade wenn du sowas hier rauslässt in Verbindung zu Battlefield bzw. Gaming Performance.
Merkste selber, oder?
Unabhängig der Optimierung für diverse Architekturen diverser Hersteller dürfte MS diese Sorge imho kaum antreiben.
Du denkst im Ernst, es ist MS egal ob ihre Kunde weiterhin Windows benutzen oder nicht? Das muss jetzt aber ein reiner Trollpost sein, so den Kopf in den Wolken kannst nichtmal du haben.
Daredevil
2021-10-09, 11:04:15
Merkste selber, oder?
Was genau meinst du? Bin ich jetzt ein Intel Fanboy im AMD Mantel, oder wie? :D
Ich sehe gerade, dass du ( vermutlich )keine Angst mehr haben musst.
Ich bekomm langsam etwas Angst, dass AMD einfach wegrennt und Intel keine Chance mehr hat. ADL sollte ja der Neuanfang sein, AMD wärmt einfach seine ein Jahr alte Technologie auf, klebt 15%+ mehr Leistung drauf und schwupps, ist Intel wieder hinten.
w0mbat
2021-10-09, 11:26:08
Ich meine zB dass du panisch meine alten postings durchwühlst um irgend was zu posten. Etwas cringe.
Daredevil
2021-10-09, 11:33:11
3 Monate ist schon super alt. Da sollte man sich von distanzieren.
Man wird ja schließlich jeden Morgen immer ein Stück besser, als man gestern war.
Anyway, danke für deine konstruktiven Antoworten. Schönen Tag! :)
( Ich kann mir gut Dinge merken, habe ich mir nicht ausgesucht )
w0mbat
2021-10-09, 12:08:54
Von was sollte ich mich distanzieren? Mein Kommentar ist doch 100% richtig. Ich verstehe dein Problem nicht, aber du scheinst dich angegriffen zu fühlen bzw. bist aufgeregt.
Kannst mir ja ne PM schreiben wieso :)
La Junta
2021-10-09, 12:59:04
Du denkst im Ernst, es ist MS egal ob ihre Kunde weiterhin Windows benutzen oder nicht? Das muss jetzt aber ein reiner Trollpost sein, so den Kopf in den Wolken kannst nichtmal du haben.
So Unrecht hat er aber nicht. Microsoft verschenkt Windows (per Update), die OEMs kaufen es und nicht mehr wirklich die User selber.
r3ptil3
2021-10-09, 13:16:42
@La Junta
MS "verschenkt" Win11 ja genau deshalb, um die Ausbreitung zu erhöhen.
War in der Vergangenheit ein grosses Problem bei den noch kostenpflichten Win-Lizenzen.
Wie viele Jahre hatte Win7 noch einen derart hohen Anteil, weil niemand Win8.1 wollte?
w0mbat
2021-10-09, 13:44:45
So Unrecht hat er aber nicht. Microsoft verschenkt Windows (per Update), die OEMs kaufen es und nicht mehr wirklich die User selber.
Kommt exakt auf das Gleiche raus. Stell dir vor, Windows 11 würde auf Ryzen CPUs nicht laufen, das wäre wahrscheinlich das Ende von Windows. 50% der Zocker würden auf SteamOS oder so wechseln.
Die Meme "next year will be the year of Linux" würde wahr werden ;D
mocad_tom
2021-10-09, 14:42:06
wie blende ich hardware adressbereiche in nested virtualization ein?
https://youtu.be/5JT7l6k38Hs
Das ist ein hammer talk.
da wird enorm viel wissen vermittelt
und dann wie kann wddm3.0 dabei helfen eine gpu in android hinein zu blenden
https://xdc2020.x.org/event/9/contributions/610/attachments/700/1295/XDC_-_WSL_Graphics_Architecture.pdf
Win11 mit allem aktiviert ist so next level
auchbei pcie extended tags ist es endlich soweit, dass es als default eingeschaltet werden kann
das sind technologien aus 2015/2016 und noch älter - endlich bereit für die große bühne
aufkrawall
2021-10-09, 14:56:35
auchbei pcie extended tags ist es endlich soweit, dass es als default eingeschaltet werden kann
Unglaublich, hier war Windows wohl genau so schnell dabei wie bei der Unterstützung von PCIe BAR >256MB. :freak:
https://github.com/torvalds/linux/commit/60db3a4d8cc9073cf56264785197ba75ee1caca4
robbitop
2021-10-09, 14:59:10
Was davon ist relevant für den typischen 0815 User/Massenmarkt?
Freestaler
2021-10-09, 16:00:27
Und bei ADL neu? Alles auch in den alten Gens drin.
Platos
2021-10-09, 16:36:38
Kommt exakt auf das Gleiche raus. Stell dir vor, Windows 11 würde auf Ryzen CPUs nicht laufen, das wäre wahrscheinlich das Ende von Windows. 50% der Zocker würden auf SteamOS oder so wechseln.
Die Meme "next year will be the year of Linux" würde wahr werden ;D
Denkst du jetzt etwa ernsthaft, dass die Hälfte der Gamer Ryzen CPUs hat ?
basix
2021-10-09, 17:03:12
Denkst du jetzt etwa ernsthaft, dass die Hälfte der Gamer Ryzen CPUs hat ?
Laut Steam immerhin 30%, Tendenz steigend: https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
Platos
2021-10-09, 17:31:49
Laut Steam immerhin 30%, Tendenz steigend: https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
Ist halt trotzdem weit weg von 50%. Aber seit Januar 2021 zwischen 27-30%. Also Tendenz eher haltend.
w0mbat
2021-10-09, 19:03:01
Wann soll denn jetzt eigentlich der launch sein? Bin seit Zen1 nicht mehr so gespannt auf die reviews gewesen!
Denkst du jetzt etwa ernsthaft, dass die Hälfte der Gamer Ryzen CPUs hat ?
1. Kein Abstand zwischen Satz und Satzzeichen.
2. Wie kommst du auf die Idee, das die Hälfte der Gamer nen Ryzen haben? Das ist doch absurd, es zocken doch noch ganze viele mit sehr alten Systemen. Denk doch mal nach.
Aber wenn du dir die Selbstbau-Systeme der letzten drei Jahre anschaust hat AMD sicher nen Anteil von min. 50%. Ist doch nicht so schwer :)
iamthebear
2021-10-09, 20:26:31
So Unrecht hat er aber nicht. Microsoft verschenkt Windows (per Update), die OEMs kaufen es und nicht mehr wirklich die User selber.
Microsoft verschenkt gar nichts. Die Lizenzen sind nur pro PC d.h. neuer PC = neue Lizenz erforderlich. Ausnahmen davon sind nur selbst gebaute PCs (die holen sich sowieso eine gebrauchte Lizenz um 20 Euro) oder Unternehmen, die Geräte mit Win Pro kaufen aber Enterprise per Volumenslizenz einsetzen.
Für den Rest sieht die Realität so aus, dass sie einen neuen PC kaufen und dieser wie ein Smartphone mit dem passenden Betriebssystem kommt (Home für Privatgeräte, Pro für Businessgeräte).
Kommt exakt auf das Gleiche raus. Stell dir vor, Windows 11 würde auf Ryzen CPUs nicht laufen, das wäre wahrscheinlich das Ende von Windows. 50% der Zocker würden auf SteamOS oder so wechseln.
Die Meme "next year will be the year of Linux" würde wahr werden ;D
Nein die würden sich dann einfach stattdessen eine Intel CPU kaufen.
Abgesehen davon geht es nicht um "gar nicht laufen" sondern um eine Differenz von im Schnitt vielleicht 2-3% und hier ist die Philosophie von Microsoft, dass man erst in Performanceoptimierung investiert wenn es so unbenutzbar wird, dass es sich auf die Geschäftszahlen schlägt.
Abgesehen davon interessiert es Microsoft kein Stück welches Betriebssystem du einsetzt. Microsoft ist nach eigener Angabe kein Softwarehersteller mehr sondern Cloudprovider. Windows/Office sind nur da um die eigenen Technologien zu pushen. Microsoft hat auch überhaupt kein Problem damit dir bei Azure ein paar Linux Server zu hosten.
La Junta
2021-10-09, 20:39:40
@iamthebear
Ich habe mir die Retail Version genau aus dem Grund gekauft (ich wechsle sehr häufig was) , aber für 95% der USer genügt es per Windows Update auf Win11 upzudaten weil sie eh nichts wechseln bis vtl. die Graka . Darum schrieb ich ja das er nicht unrecht hat , es interessiert Microsoft nicht grossartig was die Minderheit in Foren schreiben . Das Windows 11 von Ryzen Usern boykotiert wird ist da ähnlich real wie ein umdenken Microsofts . Windows 11 läuft ja auf Ryzen PCs , aber eben nicht wie es sollte/könnte . Die Mehrheit merkt nichts davon . Linux für 0815 User ist nunmal fernab von der Realität und das beweissen ja schon 95% der User hier im Forum die immer wieder was gegen Microsoft schreiben aber selber nicht auf was anderes wechseln .
Aber es geht ja hier eh um Alder Lake und nicht AMD, Windows oder was auch immer .
Edit: Windows 10 Pro Retail habe ich , nicht Win 11 natürlich .
Platos
2021-10-09, 20:53:14
Wann soll denn jetzt eigentlich der launch sein? Bin seit Zen1 nicht mehr so gespannt auf die reviews gewesen!
1. Kein Abstand zwischen Satz und Satzzeichen.
2. Wie kommst du auf die Idee, das die Hälfte der Gamer nen Ryzen haben? Das ist doch absurd, es zocken doch noch ganze viele mit sehr alten Systemen. Denk doch mal nach.
Aber wenn du dir die Selbstbau-Systeme der letzten drei Jahre anschaust hat AMD sicher nen Anteil von min. 50%. Ist doch nicht so schwer :)
Hat die Glaskugel wieder mal zugeschlagen?
w0mbat
2021-10-09, 21:20:56
Mal wieder ein top Kommentar von Platos :ugly:
WedgeAntilles
2021-10-09, 21:33:40
Kommt exakt auf das Gleiche raus. Stell dir vor, Windows 11 würde auf Ryzen CPUs nicht laufen, das wäre wahrscheinlich das Ende von Windows. 50% der Zocker würden auf SteamOS oder so wechseln.
Die Meme "next year will be the year of Linux" würde wahr werden ;D
Rofl, was für ein Quark.
Die würden einfach ne Intel-CPU kaufen.
AMD Fanboys findet man hier im Forum - und auf ein paar anderen Internetseiten.Einen AMD Schrein hat außer den Freaks hier im Forum keiner.
Die große Masse interessiert es nicht. Wenn AMD auf Windows nicht laufen würde, würde man halt Intel kaufen. So what?
Wie kann man ernsthaft glauben, dass die Masse der User eher das Betriebssystem wechseln würde wie zu ner anderen CPU?
Woher du deine 50% hast kapiere ich auch nicht.
Vermutlich Tippfehler und du meintest 0,005% oder so.
Platos
2021-10-09, 21:34:11
Mal wieder ein top Kommentar von Platos :ugly:
Was besseres fällt dir dazu nicht ein.
w0mbat
2021-10-09, 22:08:21
Rofl, was für ein Quark.
Die würden einfach ne Intel-CPU kaufen.
AMD Fanboys findet man hier im Forum - und auf ein paar anderen Internetseiten.Einen AMD Schrein hat außer den Freaks hier im Forum keiner.
Die große Masse interessiert es nicht. Wenn AMD auf Windows nicht laufen würde, würde man halt Intel kaufen. So what?
Wie kann man ernsthaft glauben, dass die Masse der User eher das Betriebssystem wechseln würde wie zu ner anderen CPU?
Woher du deine 50% hast kapiere ich auch nicht.
Vermutlich Tippfehler und du meintest 0,005% oder so.
Das glaubst du doch selber nicht. Ich hoffe echt, dass du einfach nur trollen willst und das nicht wirklich ernst meinst. Total Realitätsfern. Klar, wenn Windows nicht auf AMD läuft würden alle einfach Intel kaufen ;D
Was besseres fällt dir dazu nicht ein.
Was soll mir zu deinen inhaltsleeren Postings denn einfallen?
Blediator16
2021-10-10, 04:11:09
Rofl, was für ein Quark.
Die würden einfach ne Intel-CPU kaufen.
AMD Fanboys findet man hier im Forum - und auf ein paar anderen Internetseiten.Einen AMD Schrein hat außer den Freaks hier im Forum keiner.
Die große Masse interessiert es nicht. Wenn AMD auf Windows nicht laufen würde, würde man halt Intel kaufen. So what?
Wie kann man ernsthaft glauben, dass die Masse der User eher das Betriebssystem wechseln würde wie zu ner anderen CPU?
Woher du deine 50% hast kapiere ich auch nicht.
Vermutlich Tippfehler und du meintest 0,005% oder so.
Das wird man dann in Zukunft wohl ADL User fragen müssen wie denen das passt :D
][immy
2021-10-10, 15:21:29
war das schon hier?
https://twitter.com/9550pro/status/1446824964066185223?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1446824 964066185223%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=
Man beachte die abgerundeten Ecken, ist also unter Windows 11 (gut steht auch im Tweet). Da wo AMD aktuell (dank Bug) besonders schlecht dar steht.
https://pbs.twimg.com/media/FBQnYSUVgAIMrkJ?format=png&name=large
https://pbs.twimg.com/media/FBQnW8OVkBEPPYu?format=png&name=large
https://pbs.twimg.com/media/FBQnUiiUcAAQUi6?format=png&name=large
https://pbs.twimg.com/media/FBQnXlvUUAAQ9Hb?format=jpg&name=large
257W werden da über das Package gejagt. Ist auch nicht unbedingt ohne. 108°C ist jetzt auch ziemlich grenzwertig. Aber wir kennen das das Kühlkonzept für diesen Benchmark nicht. Hätte aber erwartet das die CPU da mal doch langsam anfängt zu Throtteln.
Ex3cut3r
2021-10-10, 15:28:50
Geil. Die Leistung ist schon krass, da kommt auch kein Zen 3 mit 3D Cache ran, der Cache wird nur was in Spielen bringen. Die IPC bzw. die Single Core Leistung bleibt ja gleich. Bis Zen 4 hat AMD damit praktisch nix entgegenzusetzen. Sehr gut, d.h. Zen 3 und Zen 3+ müssen wieder üben den Preis kommen, dann kann ich meinen Zen 2 ja doch noch zum guten Preis austauschen, danke Intel. ;D
Genial.
CrazyIvan
2021-10-10, 15:29:25
Das verheißt nichts gutes für SPR. Der wird vermutlich selbst gegen Milan im alles entscheidenden Perf/W derbe ablosen - ganz zu schweigen von Genoa.
Linmoum
2021-10-10, 15:39:22
Die IPC bzw. die Single Core Leistung bleibt ja gleich.Nein. Dafür reicht ein Blick auf RKL als aktuellstes Beispiel (oder damals Ur-Zen). RKL stinkt in Spielen relativ gesehen ab im Gegensatz zu dem, was in Anwendungen drin ist. Bei Zen konnte man damals dasselbe beobachten. Also wohlgemerkt SC-Apps vs. Spiele.
Für ADL hat Greymon auch schon angedeutet, dass das in Spielen anders (=schlechter) aussehen wird, als in Anwendungen. Was mich wenig überrascht. Der Abstand wird in Spielen schon zu aktuellen Zen3 IMO nur minimal sein, und mit V-Cache dann direkt umgekehrt.
robbitop
2021-10-10, 16:15:38
Spiele sind anders gelagert als viele Synthiebenchmarks in Bezug auf was der bottleneck der uArch ist.
Das verheißt nichts gutes für SPR. Der wird vermutlich selbst gegen Milan im alles entscheidenden Perf/W derbe ablosen - ganz zu schweigen von Genoa.
Das lässt sich nicht vergleichen, weil die großen Server Modelle viel niedriger getaktet sind (eher so mit 3 Ghz). Dass 8 Golden Cove bei 5 Ghz 200+ Watt verbraten können, ist jetzt nicht groß überraschend. Die Effizienz geht bei der Taktrate extrem nach unten.
OgrEGT
2021-10-10, 16:51:44
[immy;12816156']war das schon hier?
https://twitter.com/9550pro/status/1446824964066185223?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1446824 964066185223%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=
Man beachte die abgerundeten Ecken, ist also unter Windows 11 (gut steht auch im Tweet). Da wo AMD aktuell (dank Bug) besonders schlecht dar steht.
https://pbs.twimg.com/media/FBQnYSUVgAIMrkJ?format=png&name=large
https://pbs.twimg.com/media/FBQnW8OVkBEPPYu?format=png&name=large
https://pbs.twimg.com/media/FBQnUiiUcAAQUi6?format=png&name=large
https://pbs.twimg.com/media/FBQnXlvUUAAQ9Hb?format=jpg&name=large
257W werden da über das Package gejagt. Ist auch nicht unbedingt ohne. 108°C ist jetzt auch ziemlich grenzwertig. Aber wir kennen das das Kühlkonzept für diesen Benchmark nicht. Hätte aber erwartet das die CPU da mal doch langsam anfängt zu Throtteln.
260W 108°C bedeutet am Anschlag... da geht mMn nimmer arg viel mehr...
Wieviel von der CPUz Leistung bei Spielen ankommt mal sehen... Verbrauchsnormiert wirds schwer gegen Zen3...
iamthebear
2021-10-10, 17:06:32
Nein. Dafür reicht ein Blick auf RKL als aktuellstes Beispiel (oder damals Ur-Zen). RKL stinkt in Spielen relativ gesehen ab im Gegensatz zu dem, was in Anwendungen drin ist. Bei Zen konnte man damals dasselbe beobachten. Also wohlgemerkt SC-Apps vs. Spiele.
Für ADL hat Greymon auch schon angedeutet, dass das in Spielen anders (=schlechter) aussehen wird, als in Anwendungen. Was mich wenig überrascht. Der Abstand wird in Spielen schon zu aktuellen Zen3 IMO nur minimal sein, und mit V-Cache dann direkt umgekehrt.
Also ich glaube nicht, dass man das so verallgemeinern kann. Beim 10900K vs. 11900K wurde der L3 von 20MB auf 16MB gesenkt. Bei Alder Lake steigt dieser von 16MB auf 30MB an. Alder Lake hat deshalb also das Potential auch deutlich mehr zu liefern als die 20% in anderen Anwendungen.
Fraglich ist jedoch wie sich DDR5 auswirkt. Auf der einen Seite ist deutlich mehr Durchsatz da durch die 2 Speicherkanäle pro Riegel. Auf der anderen Seite sind die Timings echt bescheiden.
Ich würde sagen derzeit ist hier noch alles offen.
Was die Aussage von Greymon55 angeht so ist fraglich auf was sich diese genau bezieht (DDR4 oder DDR5). Falls Alder Lake eine Gamingschwäche hat ist fraglich, ob dies ein permanenten Probpem sein wird oder nur kleinere Schedulingprobleme in Win11. Hier wurde ja so viel umgedreht, dass hier viel Potential für eventuelle Probleme und Nachbesserungen besteht.
Was mir bei den CPU-Z Screens auffällt ist der Multiplikator von 8-51. Sollten das nicht 53 sein bei einem 12900K? Von daher wären 250W nur 200MHz unter dem All Core Turbo ja gar nicht mal so wild. Ein 11900K zieht 300W+ bei 5.1 All Core Turbo bei Stresstests und das noch ganz ohne die Little Cores.
Die 108 Grad sind vermutlich ein Auslesefehler. Erstens müsste die CPU schon lange throttlen und zweitens wäre sie hier kaum noch Cinebench stabil vor allem nicht mit 250W und einer Menge lokalen Hotspots.
BlacKi
2021-10-10, 17:36:27
Die 108 Grad sind vermutlich ein Auslesefehler. Erstens müsste die CPU schon lange throttlen und zweitens wäre sie hier kaum noch Cinebench stabil vor allem nicht mit 250W und einer Menge lokalen Hotspots.habs mal bei meinem 8700k@5ghz 1,4v nachgestellt. die cpu wird gerade mal knapp über 60grad warm, aber der stromverbrauch nur mit fpu ist deutlich höher als wenn man cpu + fpu stresst.
260W 108°C bedeutet am Anschlag... da geht mMn nimmer arg viel mehr...
Wieviel von der CPUz Leistung bei Spielen ankommt mal sehen... Verbrauchsnormiert wirds schwer gegen Zen3...
die werte kannst du so nicht einfach übernehmen. erstens ist das FPU only, was kein typischen aida64 testszenario ist. und dann ist das vermutlich manuelles OC, pl2 wird hier gerissen. hier geht die effizienz genau wie bei amd über board.
Ex3cut3r
2021-10-10, 17:45:59
Der Abstand wird in Spielen schon zu aktuellen Zen3 IMO nur minimal sein, und mit V-Cache dann direkt umgekehrt.
Mal abwarten, wäre mir neu, das gute ST Leistung in Spielen nicht ankommt.
Auf jeden Fall, muss AMD was beim Preis zu tun, und das ist gut.
BlacKi
2021-10-10, 17:48:06
Mal abwarten, wäre mir neu, das gute ST Leistung in Spielen nicht ankommt.
Auf jeden Fall, muss AMD was beim Preis zu tun, und das ist gut.
gute anwendungsperformance kannst du nicht in spiele übertragen. wie kommst du darauf, cpuz oder CB werte herzunehmen um über die spieleperformance zu urteilen? vl performt das in 3dmark noch ähnlich, aber echte spiele skalieren anders.
Ex3cut3r
2021-10-10, 17:56:52
KA. Ivy Bridge war, Haswell im Cinebench bei gleichen Takt, ST mäßig unterlegen, das gleiche, mit Skylake, und alle waren auch im Spiel dann schneller wieder beim gleichen Takt. Sogar Ryzen 1 war gegen Haswell mit OC eine ST Krücke, war dann auch oft genug langsamer als Haswell in spielen.
Ich frage mich eher, warum ihr das plötzlich nicht für voll nimmt? Weil irgend so ein Twitter Typ das sagt? ROFL.
Linmoum
2021-10-10, 18:05:18
Weil, scheinbar im Gegensatz zu dir, wir die Diskrepanzen bei RKL oder auch damals Zen zwischen Anwendungen und Spielen vor Augen haben. RKL ist nicht einmal ein halbes Jahr alt, bin eher erstaunt, dass du das schon wieder vergessen hast.
Anwendungen != Spiele. Ist einfach so. Zumindest kann man pauschal nicht einfach sagen, dass Apps-Performance genauso auch in Spielen zum tragen kommt.
BlacKi
2021-10-10, 18:05:44
KA. Ivy Bridge war, Haswell im Cinebench bei gleichen Takt, ST mäßig unterlegen, das gleiche, mit Skylake, und alle waren auch im Spiel dann schneller wieder beim gleichen Takt. Ich frage mich eher, warum ihr das plötzlich nicht für voll nimmt? Weil irgend so ein Twitter Typ das sagt? ROFL. weil für gaming andere faktoren wichtiger sind als für anwendungen. wenn du speichertuning betreibst, dann skaliert die performance in anwendungen praktisch garnicht. wenn ADL lantenztechnisch müll ist, dann kann zwar cpu z und CB gute werte abliefern, aber spieletechnisch wird die performance scheiße sein.
die aida64 latenzen die wir bisher gesehen haben sehen scheiße aus. das twitterpokemon macht kein begeistertes gesicht. lediglich der AotS benchmark scheint positiv aus der gaming ecke hervorzustechen. garantiert ist garnichts. abwarten.
Ex3cut3r
2021-10-10, 18:10:50
Naja wie gesagt mal abwarten, mir erscheint es eher so, als wenn ein paar AMD Fans richtig darauf hoffen, das der neue Intel in Spielen nicht so gut ist. ;)
Ich sage, wird grade in Spielen eine Rakete sein! Und Zen 3 und auch Zen 3+ mit Cache alt aussehen lassen. Wenn nicht ok, habt ihr recht gehabt.
Linmoum
2021-10-10, 18:17:29
Blacki der alte AMD-Fanboy, wer kennt ihn nicht.
Geht doch auch gar nicht um "Recht haben", für Spiele sind einfach andere Faktoren relevant als für Anwendungen. Das ist Fakt. Guck dir doch einfach mal RKL in Anwendungen und Spielen an, dann kannst du gar nicht mehr der Meinung sein, dass Spiele dasselbe zeigen wir Anwendungen und man das 1:1 übertragen kann.
r3ptil3
2021-10-10, 18:17:44
Naja wie gesagt mal abwarten, mir erscheint es eher so, als wenn ein paar AMD Fans richtig darauf hoffen, das der neue Intel in Spielen nicht so gut ist. ;)
Ich sage, wird grade in Spielen eine Rakete sein! Und Zen 3 und auch Zen 3+ mit Cache alt aussehen lassen. Wenn nicht ok, habt ihr recht gehabt.
Was quaselst du denn wieder in dritter Form von dir?
Hast doch vor einer Weile alle Intel und Nvidia User als Deppen bezeichnet.
BlacKi
2021-10-10, 18:21:26
das ich recht habe, was anwendung vs spiele angeht, darauf brauchst du nicht zu warten. das wissen wir doch schon. was wird nicht wissen ist, ob adl auch im gaming schnell ist.
in ca 2 wochen bekommen wir von intel benchmark folien, dann wissen wir die ungefähre richtung.
CrazyIvan
2021-10-10, 18:29:55
Das lässt sich nicht vergleichen, weil die großen Server Modelle viel niedriger getaktet sind (eher so mit 3 Ghz). Dass 8 Golden Cove bei 5 Ghz 200+ Watt verbraten können, ist jetzt nicht groß überraschend. Die Effizienz geht bei der Taktrate extrem nach unten.
Gleiches gilt aber auch für Zen. Und nach allen bisherigen Erkenntnissen erhöht sich deren Perf./W bei niedrigem Takt weitaus deutlicher als bei bspw. Willow Cove / TGL und Sunny Cove / ICL-X. Warum sollte sich das nun bei Golden Cove deutlich ändern?
Ex3cut3r
2021-10-10, 18:44:35
Blacki der alte AMD-Fanboy, wer kennt ihn nicht.
Geht doch auch gar nicht um "Recht haben", für Spiele sind einfach andere Faktoren relevant als für Anwendungen. Das ist Fakt. Guck dir doch einfach mal RKL in Anwendungen und Spielen an, dann kannst du gar nicht mehr der Meinung sein, dass Spiele dasselbe zeigen wir Anwendungen und man das 1:1 übertragen kann.
War gar nicht an Blacki oder dich gemeint, allgemein halt. Das Blacki kein AMD oder Intel Fan ist, ist doch bekannt hier im Forum.
Was quaselst du denn wieder in dritter Form von dir?
Hast doch vor einer Weile alle Intel und Nvidia User als Deppen bezeichnet.
Ok, alles klar.
Sardaukar.nsn
2021-10-10, 18:48:11
Ist eigentlich schon bekannt wie der Die/Chip des Alder Lake aufgebaut ist? Bei Zen3 mit den Chiplets gibt es große Probleme diese anständig zu kühlen, da die Fläche unter dem Spreader so klein ist. Ich dann da auch durch meinen Threadripper kompatiblen Block 20°C kühles Wasser laufen lassen, der 5800x geht unter extremen Bedingungen trotzdem auf 80°C hoch. Vielleicht lässt sicher der neue Intel ja besser kühlen.
Gleiches gilt aber auch für Zen. Und nach allen bisherigen Erkenntnissen erhöht sich deren Perf./W bei niedrigem Takt weitaus deutlicher als bei bspw. Willow Cove / TGL und Sunny Cove / ICL-X. Warum sollte sich das nun bei Golden Cove deutlich ändern?
Zen taktet viel niedriger, das gleiche kann nicht gelten. Und vergleichen kann man es auch nicht. Aber du kannst mir gerne ein paar power draw Tests von Zen 3 mit 5 Ghz geben, ich kenne keine. Das würde mich wirklich interessieren. Das würde zwar immer noch keine Rückschlüsse auf SPR mit 3 Ghz geben, würde aber immerhin zeigen, wie "teuer" die letzten paar hundert Mhz sind und die Effizienz drücken.
Und zu deiner Frage: Eine andere Architektur mit einer anderen Fertigung kann zu einem anderen Ergebnis kommen.
OgrEGT
2021-10-10, 19:47:05
habs mal bei meinem 8700k@5ghz 1,4v nachgestellt. die cpu wird gerade mal knapp über 60grad warm, aber der stromverbrauch nur mit fpu ist deutlich höher als wenn man cpu + fpu stresst.
die werte kannst du so nicht einfach übernehmen. erstens ist das FPU only, was kein typischen aida64 testszenario ist. und dann ist das vermutlich manuelles OC, pl2 wird hier gerissen. hier geht die effizienz genau wie bei amd über board.
Mir schon klar... ich hab die ganzen Leaks von Anhang an skeptisch gesehen da immer nie klar war ob OC oder nicht... hier jetzt wohl klar mit OC... was soll das? Soll ADL mal Verbrauchsnormiert zeigen was er kann...
Thunder99
2021-10-10, 20:38:13
Ich finde es dennoch komisch, dass Zen (3) mit auf Windows 11 langsamer läuft als auf 10. Ist ja nicht so, dass MS nicht weiß wie sie Zen implementieren sollen :rolleyes:
Find aber dennoch den Schlagabtausch spannend. Intel geht in Führung (denke ich), aber AMD hat was in der Hinterhand wo es mega spannend macht :)
iamthebear
2021-10-10, 20:49:30
weil für gaming andere faktoren wichtiger sind als für anwendungen. wenn du speichertuning betreibst, dann skaliert die performance in anwendungen praktisch garnicht. wenn ADL lantenztechnisch müll ist, dann kann zwar cpu z und CB gute werte abliefern, aber spieletechnisch wird die performance scheiße sein.
die aida64 latenzen die wir bisher gesehen haben sehen scheiße aus. das twitterpokemon macht kein begeistertes gesicht. lediglich der AotS benchmark scheint positiv aus der gaming ecke hervorzustechen. garantiert ist garnichts. abwarten.
Die Eigenheiten beim Gaming liegen nicht am Gaming an sich sondern daran, dass die Threadanzahl auf 6-8 Threads begrenzt ist was dazu führt, dass SMT nicht aktiv wird und so jeder L3 Miss dazu führt dass der gesamte Kern Idle ist, was sowohl die L3 Größe als auch die RAM Latenzen deutlich wichtiger macht. Hardware Unboxed hatte dazu 2 Videos und beim 2. hat man gesehen dass sich der L3 Vorteil extrem reduziert sobald nur mehr 4 Kerne (dafür mit SMT) aktiv sind.
AotS nutzt mittlerweile 24 Threads womit es sich in dieser Hinsicht nicht nehr so verhält wie ein durchschnittliches Spiel. Hier wird bei 24 Threads eher der RAM Durchsatz statt der Latenz ein Thema und hier hat DDR5 mit 4800MT/s und 2 Speicherkanälen pro Riegel einen Vorteil. Zumindest ist das meine Interpretation der Ergebnisse. Das soll jetzt aber nicht heißen, dass der vergrößerte L3 nicht auch massive Vorteile bringen kann.
Was die Latenzen angeht: Die L2/3 Latenzen waren bei dem Benchmark sogar besser als bei den Vorgängern trotz deutlich vergrößertem L2/3. Die RAM Latenzen sind jedoch bescheiden. Das könnte aber auch ein reines DDR5 Problem sein und mit einem DDR4 Board kein Thema sein.
Blacki der alte AMD-Fanboy, wer kennt ihn nicht.
Geht doch auch gar nicht um "Recht haben", für Spiele sind einfach andere Faktoren relevant als für Anwendungen. Das ist Fakt. Guck dir doch einfach mal RKL in Anwendungen und Spielen an, dann kannst du gar nicht mehr der Meinung sein, dass Spiele dasselbe zeigen wir Anwendungen und man das 1:1 übertragen kann.
Klar verhalten sich Spiele und Anwendungen anders aber RKL ist da ein schlechtes Beispiel dafür:
.) Der 11600K ist im CB Rating 15% besser als der 10600K und zwar sowohl in Spielen als auch in Anwendungen
.) Der 11900K ist nur 2-3% besser da er nur 16 statt 20MB L3 hat.
.) Der 11700K schneidet in den meisten Reviews deswegen schlechter ab weil er nur mit Gear2 gelaufen ist oder für Gear1 der RAM runtergetaktet wurde ohne die Timings nachzuziehen.
Das sind alles sehr individuelle Probleme, die jetzt nichts mit Rocket Lake an sich zu tun haben.
Ist eigentlich schon bekannt wie der Die/Chip des Alder Lake aufgebaut ist? Bei Zen3 mit den Chiplets gibt es große Probleme diese anständig zu kühlen, da die Fläche unter dem Spreader so klein ist. Ich dann da auch durch meinen Threadripper kompatiblen Block 20°C kühles Wasser laufen lassen, der 5800x geht unter extremen Bedingungen trotzdem auf 80°C hoch. Vielleicht lässt sicher der neue Intel ja besser kühlen.
Dass Zen2/3 schwieriger zu kühlen ist hat nichts mit dem Chiplet zu tun, sondern lediglich damit, dass die Chipfläche an sich kleiner ist. Ein Zen3 ist um die 4mm² groß, ein Rocket Lake Kern 12mm².
Ex3cut3r
2021-10-10, 20:50:09
Find aber dennoch den Schlagabtausch spannend. Intel geht in Führung (denke ich), aber AMD hat was in der Hinterhand wo es mega spannend macht :)
Genau. Hoffentlich profitieren wir dann, von niedrigen Preisen. Wäre auch mal schön. Besonders mit diesen HW Preisen seit ca. 1,5 Jahren.
Man darf halt nicht vergessen, das DDR5 anfangs immens teuer wird. Da wird man wohl auch 1-2 Jahre abwarten, bis sich das eingependelt hat.
dildo4u
2021-10-11, 06:02:29
Erstmal wirds teurer AMD ist nicht mal in der Lage genug 5600X zu liefern MF hat schon wieder keine Boxed Modelle mehr und wenn es stimmt das der 12600k auf 5800X Level ist kostet der über 300€.
Die nehmen sich zur Zeit gar nix selbst ungewollte Modelle wie 11700K kosten über 350€ 1 zu 1 AMD Preise.
Sardaukar.nsn
2021-10-11, 06:42:25
Dass Zen2/3 schwieriger zu kühlen ist hat nichts mit dem Chiplet zu tun, sondern lediglich damit, dass die Chipfläche an sich kleiner ist. Ein Zen3 ist um die 4mm² groß, ein Rocket Lake Kern 12mm².
Danke, darauf wollte ich hinaus. Wenn die Chipfläche mehr als doppelt so groß ist, lässt deutlich mehr Leistungsaufnahme in den Griff bekommen. Der 5800X ist mit dem einzelnen CCX ist dabei natürlich besonders kompakt, was für die Kühlung nicht ideal ist.
MiamiNice
2021-10-11, 09:21:10
Das hier geschriebene macht massiv Bock auf Raptor Lake. Alder lake ist ja eigentlich nur ein Witz - und performed schon so gut.
basix
2021-10-11, 09:49:10
Danke, darauf wollte ich hinaus. Wenn die Chipfläche mehr als doppelt so groß ist, lässt deutlich mehr Leistungsaufnahme in den Griff bekommen. Der 5800X ist mit dem einzelnen CCX ist dabei natürlich besonders kompakt, was für die Kühlung nicht ideal ist.
Chipfläche ist nicht ganz das selbe wie die Grösse der Cores an sich ;) Die Grösse der Cores verteilt den Hotspot etwas besser, grössere totale Chipfläche ermöglicht höhere Verlustleistungen.
ADL-S wird vermutlich zwischen 170...200mm2 landen. Das ist etwas mehr als zwei CCDs von AMD. Comet Lake ist 206mm2 und Rocket Lake ist 276mm2 gross. Jetzt kannst du dreimal raten, welcher Chip in der Tendenz am heissesten wird ;)
Mit >200W wird ADL-S glühen, so viel ist sicher.
BlacKi
2021-10-11, 09:58:30
Chipfläche ist nicht ganz das selbe wie die Grösse der Cores an sich ;) Die Grösse der Cores verteilt den Hotspot etwas besser, grössere totale Chipfläche ermöglicht höhere Verlustleistungen.
ADL-S wird vermutlich zwischen 170...200mm2 landen. Das ist etwas mehr als zwei CCDs von AMD. Comet Lake ist 206mm2 und Rocket Lake ist 276mm2 gross. Jetzt kannst du dreimal raten, welcher Chip in der Tendenz am heissesten wird ;)
Mit >200W wird ADL-S glühen, so viel ist sicher.
die gesammtchipfläche ist glaube ich weniger interessant. selbst wenn du eine hypothethische chipfläche von 400mm² hast und 16cores. die temperatur bei singlecore last bleibt größtenteils gleich.
der grund ist wie schon weiter vorne erwähnt, ein rkl hat 12mm² per core und zen3 4mm². selbst bei halbem verbrauch wird zen3 einfach heißer, weil 50% mehr hitze auf gleicher fläche entsteht.
ADL hat nochmals größere cores, aber auch einen shrink im fertigungsprozess. ich glaube ADL bleibt recht kühl, ich würde grob immernoch auf 10mm² per core schätzen, auf keinen fall 4mm² wie bei zen3.
basix
2021-10-11, 10:54:46
Bei Single Core ist die Grösse des einzelnen Cores sicher relevanter als bei MT Last (Hot Spots). Bei ST ist die Verlustleistung der CPU aber vielleicht irgendwo zwischen 50-80W und nicht 200W. Das bedeutet, dass die Kühlung noch nicht so stark gefordert wird.
Und wenn du sagst ADL wird kühl: Schau dir Rocket Lake an. Der ist deutlich grösser und weit entfernt von kühl.
BlacKi
2021-10-11, 11:01:12
rocketlake ist doch als kühle cpu bekannt. rocket lake ist bei selbem verbrauch wesentlich einfacher zu kühlen als zen3. auch einfacher als skylake und seine brüder. eben wegen der größe per core.
BavarianRealist
2021-10-11, 11:23:20
ADL-S wird vermutlich zwischen 170...200mm2 landen... ...Mit >200W wird ADL-S glühen, so viel ist sicher.
Hat nicht bereits Tigerlake-H rund 190mm² an Diesize? Die Cores von Alderlakes dürften jetzt noch etwas größer sein und es kommen nochmals die 16 kleinen Cores hinzu, sodass ich dann eher eine Diesize in Richtung 250mm² erwarten würde.
Parall dazu bringt Intel von Alderlake für Notebooks eigene, gestutze Dies mit max 6 großen bzw. gar nur 2 großen Cores. Zumindest erstere wäre unrentable, wenn dadurch nicht ordenltich Diesize eingespart würde, oder?
Können wir doch alles gar nicht so recht beurteilen... vielleicht sitzt die Temperatur-Diode auch einfach anders. Klar verteilt sich die Hitze in einem großen Die besser. Noch wichtiger ist aber eine gute Wärmeabfuhr vom Silizium zum Kühler und das die Hotspots im Die möglichst nicht bei einander liegen. Aber bloß weil ein HWMonitoring Tool 5C Differenz zwischen zwei vollkommen unterschiedlichen Produkten anzeigt heißt noch lange nicht, dass das vermeintlich heißere ein Kühlungsproblem hat. Entscheidend ist, wie viel Verlustleistung innerhalb der Tjunction mit einer angenommen gleichen Kühlung auf dem Heatspreader möglich ist.
The_Invisible
2021-10-11, 11:46:44
Bei Single Core ist die Grösse des einzelnen Cores sicher relevanter als bei MT Last (Hot Spots). Bei ST ist die Verlustleistung der CPU aber vielleicht irgendwo zwischen 50-80W und nicht 200W. Das bedeutet, dass die Kühlung noch nicht so stark gefordert wird.
Und wenn du sagst ADL wird kühl: Schau dir Rocket Lake an. Der ist deutlich grösser und weit entfernt von kühl.
Naja ich merk das schon deutlich mit dem 5950x, wenn es bis 8 thread Auslastung geht wird die CPU fast 80°C warm und bei vollbelastung gerade Mal 60°C. Bei 4 Threads sogar über 80.
BlacKi
2021-10-11, 11:47:03
Können wir doch alles gar nicht so recht beurteilen... vielleicht sitzt die Temperatur-Diode auch einfach anders. Klar verteilt sich die Hitze in einem großen Die besser. Noch wichtiger ist aber eine gute Wärmeabfuhr vom Silizium zum Kühler und das die Hotspots im Die möglichst nicht bei einander liegen. Aber bloß weil ein HWMonitoring Tool 5C Differenz zwischen zwei vollkommen unterschiedlichen Produkten anzeigt heißt noch lange nicht, dass das vermeintlich heißere ein Kühlungsproblem hat. Entscheidend ist, wie viel Verlustleistung innerhalb der Tjunction mit einer angenommen gleichen Kühlung auf dem Heatspreader möglich ist.du widersprichst also der logik , wenn man 40w versucht von 4mm² wegzukühlen nicht schwerer ist als 40w von 12mm²? genau diese unterschiede gibt es.
dafür spricht auch, das die temperatur bei zen3 bei 2kernbelastung höher ist, als bei 16 kernbelastung. das liegt daran, weil die kerne höher boosten und die temperatur auf einem kleinen spot entsteht. den 4mm². da hilft es nicht, wenn man 400mm² daneben klatscht. die temperatur entsteht sehr punktuell.
basix
2021-10-11, 11:52:51
rocketlake ist doch als kühle cpu bekannt. rocket lake ist bei selbem verbrauch wesentlich einfacher zu kühlen als zen3. auch einfacher als skylake und seine brüder. eben wegen der größe per core.
Wenn auf 125W begrenzt ist er recht kühl, ja. Im "regulären" Betriebsmodus nicht: https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/5/#abschnitt_temperaturen_unter_volllast
Hat nicht bereits Tigerlake-H rund 190mm² an Diesize? Die Cores von Alderlakes dürften jetzt noch etwas größer sein und es kommen nochmals die 16 kleinen Cores hinzu, sodass ich dann eher eine Diesize in Richtung 250mm² erwarten würde.
Tigerlake-H hat noch zig Thunderbolt-Kanäle. Das frisst ordentlich Platz. Ausserdem scheint rechts von der CPU ordentlich Platz zu sein, der nicht belichtet wird: https://semiaccurate.com/2021/05/11/intel-launches-8-core-tiger-lake-h-cpus/
Der Uncore Bereich von Rocket Lake scheint einiges kleiner zu sein: https://www.techpowerup.com/277227/intel-rocket-lake-s-die-annotated
170mm2 sind evtl. zu sportlich. 250mm2 aber deutlich zu gross. Treffen wir uns doch in der Mitte ;)
dafür spricht auch, das die temperatur bei zen3 bei 2kernbelastung höher ist, als bei 16 kernbelastung. das liegt daran, weil die kerne höher boosten und die temperatur auf einem kleinen spot entsteht. den 4mm². da hilft es nicht, wenn man 400mm² daneben klatscht. die temperatur entsteht sehr punktuell.
Bei 16C Last hat man 2x Chiplets ;) Du müsstest eher 2C vs. 8C auf einem 5800X vergleichen.
Edit:
Naja ich merk das schon deutlich mit dem 5950x, wenn es bis 8 thread Auslastung geht wird die CPU fast 80°C warm und bei vollbelastung gerade Mal 60°C. Bei 4 Threads sogar über 80.
Hier wird aber wiederum 1x CCD mit 2x CCD verglichen, oder irre ich mich da?
BlacKi
2021-10-11, 11:57:27
Wenn auf 125W begrenzt ist er recht kühl, ja. Im "regulären" Betriebsmodus nicht: https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/5/#abschnitt_temperaturen_unter_volllast
doch, wenn man das im verhältniss zu den 319w sieht, ist das noch kühl. ein zen3 mit 319w verbrauch würde hier höhere temperaturen anzeigen. sowohl als single und multicore last.
basix
2021-10-11, 12:01:47
doch, wenn man das im verhältniss zu den 319w sieht, ist das noch kühl. ein zen3 mit 319w verbrauch würde hier höhere temperaturen anzeigen. sowohl als single und multicore last.
Hier vergleichst du 2x 80mm2 gegen 280mm2. Dass letzteres kühler sein wird, ist logisch. Das kann man so nicht direkt vergleichen.
Vergleiche den 5800X mit 100W auf einem CCD (80mm2) mit 300W auf 280mm2 (Rocket Lake). Wie du siehst, sind dann die Temperaturen sehr ähnlich. 3-fache Verlustleistung bei 3-facher Fläche ergeben oh Wunder ähnliche Temperaturen.
BlacKi
2021-10-11, 12:33:34
Hier vergleichst du 2x 80mm2 gegen 280mm2. Dass letzteres kühler sein wird, ist logisch. Das kann man so nicht direkt vergleichen.
Vergleiche den 5800X mit 100W auf einem CCD (80mm2) mit 300W auf 280mm2 (Rocket Lake). Wie du siehst, sind dann die Temperaturen sehr ähnlich. 3-fache Verlustleistung bei 3-facher Fläche ergeben oh Wunder ähnliche Temperaturen.
du bedenkst ebenfalls nicht, du hast die hohen temperaturen auch bei geringem verbrauch auf singlecore. auch wuge hat diese tatsache ignoriert.
lass doch mal bei zen3 40w auf einem kern brennen und bei rocketlake. rocketlake bleibt hier massiv kühler. zen3 bei 90grad rocketlake bei 60 oder so. das stimmt zwar nicht genau, weil ich keine HW zum testen hier hab, aber die tentenz stimmt.
Ist doch auch klar, die Wärme kann sich über das große Die bei RKL ja auch besser verteilen.
basix
2021-10-11, 13:11:49
Ist doch auch klar, die Wärme kann sich über das große Die bei RKL ja auch besser verteilen.
:up:
dildo4u
2021-10-11, 13:43:06
Alderlake ohne E Cores fast 1 zu 1 Vergleich was zieht 5600X mit PBO 80 Watt?
https://wccftech.com/intel-core-i5-12400-alder-lake-budget-desktop-cpu-with-6-cores-faster-than-amd-ryzen-5-5600x-in-leaked-benchmarks/
Im Anandtech review 76W (y-Cruncher) und TGH review 74W (Handbrake).
aufkrawall
2021-10-11, 14:15:57
Wenn das stimmt: Heftiger Effizienz-Sprung. Der 11400F geht bei 1,12V beim AIDA FPU-Test auf 3GHz runter bei einem 95W Limit.
Da RKL bei Anwendungen ganz gut zugelegt hatte, sind die +20% sind CPU-Z auch nicht schlecht.
Gipsel
2021-10-11, 16:21:20
Wenn das stimmt: Heftiger Effizienz-Sprung. Der 11400F geht bei 1,12V beim AIDA FPU-Test auf 3GHz runter bei einem 95W Limit.
Da RKL bei Anwendungen ganz gut zugelegt hatte, sind die +20% sind CPU-Z auch nicht schlecht.Na irgendwas müssen die 10nm ja bringen, insbesondere wenn man die Kerne nicht bis nah an den Hitzetod taktet.
OgrEGT
2021-10-11, 19:53:39
Alderlake ohne E Cores fast 1 zu 1 Vergleich was zieht 5600X mit PBO 80 Watt?
https://wccftech.com/intel-core-i5-12400-alder-lake-budget-desktop-cpu-with-6-cores-faster-than-amd-ryzen-5-5600x-in-leaked-benchmarks/
Das ist sehr interessant... da sieht man ST dass die GC Kerne auf der Höhe zwischen RKL und Zen3 liegen... also scheinbar wenig Mehrleistung... Deshalb die ganzen OC Benchmarks bei 260W um zu blenden...
dildo4u
2021-10-11, 20:01:38
5600x Boostet doch höher als der 12400, also ist IPC deutlich besser.
Thunder99
2021-10-11, 20:03:33
Von irgendwo her muss ja die Leistung kommen :wink:
Es wäre sehr bitter, wenn Intel auch dieses mal nicht die Leistung liefern könnte.
Das ist sehr interessant... da sieht man ST dass die GC Kerne auf der Höhe zwischen RKL und Zen3 liegen... also scheinbar wenig Mehrleistung... Deshalb die ganzen OC Benchmarks bei 260W um zu blenden...
5600X 6C 4650 Mhz= 600 Punkte
i5-12400 6C 4400 Mhz= 659 Punkte
10% mehr SC Leistung trotz 250 Mhz weniger SC Takt. Der SC score im Cinebench entspricht einem 5950x mit 5000 Mhz. Ob Intel die Preise beibehält lässt sich noch nicht sagen, sie könnten aber Druck auf AMD ausüben. Der i5-12400 ist potenziell eine ~200€ CPU, 5600x liegt 100€ drüber.
WedgeAntilles
2021-10-11, 20:22:35
Das ist sehr interessant... da sieht man ST dass die GC Kerne auf der Höhe zwischen RKL und Zen3 liegen... also scheinbar wenig Mehrleistung... Deshalb die ganzen OC Benchmarks bei 260W um zu blenden...
Wie sieht man das? In dem Link sieht man nen 12400F der merklich vor dem 5600X liegt, bei voraussichtlich deutlich niedrigerem Preis.
Ich bin jetzt echt auf Spiele-Benchmarks gespannt - das ist für mich das interessantere.
OgrEGT
2021-10-11, 20:26:11
Sorry Doppelpost...
OgrEGT
2021-10-11, 20:36:48
Wie sieht man das? In dem Link sieht man nen 12400F der merklich vor dem 5600X liegt, bei voraussichtlich deutlich niedrigerem Preis.
Ich bin jetzt echt auf Spiele-Benchmarks gespannt - das ist für mich das interessantere.
Ryan hats schon gesagt 10% Mehrleistung... bis zu... in dem anderen Cinebench sinds weniger ca 8%... Ich sag ja nicht ADL muss schlechter sein als Zen3... aber was von den 8-10% in Synthie Benchmarks real ankommt
.. mal sehen... jedenfalls sieht das realistischer aus als die vorher 260W Max OC Werte von denen niemand weiß wie stabil das lief und über wieviele Runs das gehalten werden konnte... wie gesagt die OC Werte waren anfangs auch nicht als solche ausgewiesen... das macht erst mal skeptisch... vor allem bei Intel...
https://www.notebookcheck.com/Lachnummer-Intel-5-Ghz-28-Core-Demo-benoetigte-Gefrierschrank-Kuehler.308282.0.html
Edit
Was ADL später dann real kosten wird wenn die Leistung durch unabhängige Tests belegt ist und die Produkte sich im Markt einfügen wird sich auch noch zeigen... Intel ist eher nicht für günstige Preise bekannt vor allem nicht wenn sie die vermeintlich besseren Produkte haben...
Man sollte hier auch die Mehrkosten der neuen Plattform nicht vergessen...
Fairerweise sollte man auch noch Zen3D abwarten welcher auch mit deutlicher Leistungssteigerung gerade im Gaming erwartet wird... übrigens ohne Mehrkosten einer neuen Plattform...
Ryan hats schon gesagt 10% Mehrleistung... bis zu... in dem anderen Cinebench sinds weniger ca 8%... Ich sag ja nicht ADL muss schlechter sein als Zen3... aber was von den 8-10% in Synthie Benchmarks real ankommt
.. mal sehen... jedenfalls sieht das realistischer aus als die vorher 260W Max OC Werte von denen niemand weiß wie stabil das lief und über wieviele Runs das gehalten werden konnte... wie gesagt die OC Werte waren anfangs auch nicht als solche ausgewiesen... das macht erst mal skeptisch... vor allem bei Intel...
Du bringst 12900K und 12400 Werte durcheinander.
12900K 8+8 5.0 Ghz+3.7 Ghz
12400 6+0 4.0 Ghz
Und OC ist auch nichts solange es bei 5.0 Ghz bleibt, viele highend Boards werden PL2 unlimitiert laufen lassen. Da muss der Leaker nichts übertakten.
WedgeAntilles
2021-10-11, 22:23:15
Man sollte hier auch die Mehrkosten der neuen Plattform nicht vergessen...
Ich tippe mal, dass vorerst für Gamer DDR4 die bessere Wahl sein wird.
Die Mehrkosten für DDR5 kann man sich dann sparen.
Auf jeden Fall bin ich gespannt auf die Benchmarks - kann mich nicht erinnern, wann ich zuletzt auf CPU Benchmarks von Intel so gespannt war.
Hakim
2021-10-11, 22:29:54
Ich überlege auch ein DDR4 Z690 Mobo zu holen und meine Module weiter zu verwenden. Ich gehe davon aus das halbwegs ordentliche DDR5 Module eine ganze weile sehr teuer angeboten werden. Daher sehr Gespannt auf die Unterschiede bei Benchs, vor allem in Games.
iamthebear
2021-10-11, 22:48:31
Erstmal wirds teurer AMD ist nicht mal in der Lage genug 5600X zu liefern MF hat schon wieder keine Boxed Modelle mehr und wenn es stimmt das der 12600k auf 5800X Level ist kostet der über 300€.
Die nehmen sich zur Zeit gar nix selbst ungewollte Modelle wie 11700K kosten über 350€ 1 zu 1 AMD Preise.
AMD hat keine 5600X auf Lager, weil es afaik keinen eigenen 5600X Die gibt. Das sind doch alles teildefekte 5800X und bei einem 80mm² wird es eben nicht mehr so viele defekte Chips geben. So neu ist TSMC 7nm nun auch nicht mehr und die Nachfrage nach 5600X ist groß, da alle nur auf die Benchmarks schauen und sehen dass beim Gaming der 5800X nicht schneller ist. Dass Spiele in 2-3 Jahren aber 8 Kerne nutzen somweit denkt der typische Gamer in der Regel nicht.
Was den Preis angeht so ist das Intel vollkommen egal um welchen Preis AMD ihre CPUs verkaufen. Intel legt einen Preis fest, den sie für angemessen erachten und AMD passt dsich danach an. Deshalb ist Zen3 auch so schweineteuer.
Danke, darauf wollte ich hinaus. Wenn die Chipfläche mehr als doppelt so groß ist, lässt deutlich mehr Leistungsaufnahme in den Griff bekommen. Der 5800X ist mit dem einzelnen CCX ist dabei natürlich besonders kompakt, was für die Kühlung nicht ideal ist.
Die gesamte Chipfläche ist hier irrelevant. Es geht um die Energiedichte im Bereich der Cores.
Beispiel: Comet Lake hatte 10 Kerne mit je ca. 10mm², dazwischen ist noch je 3mm² L3 pro Kern gemischt, macht gesamt ca. 130mm². Dass links und rechts noch etwas IO Die mit weniger Leistungsaufnahme liegt spielt da keine große Rolle mehr.
Zen3 hat bei 8 Kerne je 4mm², was alleine schon einmal für lokale Hotspots sorgt. Dazwischen sind noch ca. 40-50mm² L3 gemischt. In Summe sind wir bei 80mm².
Würde Zen3 monolithisch gefertigt werden mit 120mm² IO Die links und rechts dran würde das die Kühlung nicht wirklich verbessern, da die Hitze ja in erster Linie sowieso nach oben abgeführt wird.
Das hier geschriebene macht massiv Bock auf Raptor Lake. Alder lake ist ja eigentlich nur ein Witz - und performed schon so gut.
Raptor Lake ist im Wesentlichen einfach Alder Lake mitein paar Little Cores zusätzlich und vermutlich wird man noch ein paar MHz mehr Takt und ein paar % IPC raus kitzeln (angeblich 2MB L2 statt 1.25 bzw. halt etwas höherer DDR5 Support). Das ist für Anwendungen sich ganz nett aber bei Spielen würde ich da jetzt keinen so weltbewegenden Performancegewinn erwarten.
ADL-S wird vermutlich zwischen 170...200mm2 landen. Das ist etwas mehr als zwei CCDs von AMD. Comet Lake ist 206mm2 und Rocket Lake ist 276mm2 gross. Jetzt kannst du dreimal raten, welcher Chip in der Tendenz am heissesten wird ;)
Mit >200W wird ADL-S glühen, so viel ist sicher.
Intel hatte in eine Präsentation erwähnt dass Skylake (d.h. auch Comet Lake) Kerne 4 Mal so groß wie Gracemont sind. Dasselbe wurde für Golden Cove vs. Gracemont gesagt. Daraus schließe ich, dass der 12900K mit 8+8 Kernen in etwa die Größe eines 10900K hat (8+8 entspricht der Größe von 10 Big Cores). Zumindest gilt dies für Kerne inkl. L3. Wieviel IO Die da noch links und rechts dran gepappt ist für die Thermik eher sekundär.
Der 10900K hatte bis zu 250W PL2, bei Alder Lake sind es nur 228W und Alder Lake ist auch in der Lage schneller nachzuregeln. Natürlich werden die meisten Kühler die 228W nicht abführen können aber das ist ja by design. Dann dauert der Boost halt etwas kürzer bzw. ist etwas weniger intensiv wenn man am thermischen Limit ansteht. Wenn der Kühler auf 125W ausgelegt ist kann Intel garantieren, dass sie bei 228W rechtzeitig die Reißleine ziehen können.
die gesammtchipfläche ist glaube ich weniger interessant. selbst wenn du eine hypothethische chipfläche von 400mm² hast und 16cores. die temperatur bei singlecore last bleibt größtenteils gleich.[quote]
Hier ist auch die Frage wie schnell der entsprechende aktive Thread über die Kerne rotiert wird. Wechselt die Last 100 Mal pro Sekunde von einer Seite auf die andere so wird das vermutlich besser kühlbar sein als wenn man im Taskmanager fix 1 Kern zuweist.
[quote]der grund ist wie schon weiter vorne erwähnt, ein rkl hat 12mm² per core und zen3 4mm². selbst bei halbem verbrauch wird zen3 einfach heißer, weil 50% mehr hitze auf gleicher fläche entsteht.
Also ob eine Berechnung von W/mm² so aussagekräftig ist weiß ich nicht. Ja ein Zen3 Kern mit 20 Watt auf 4mm² ist schwieriger zu kühlen als ein RKL Kern mit 20 Watt auf 12mm².
Aber ich würde jetzt nicht so weit gehen, dass ein RKL Kern mit 60 Watt genauso einfach zu kühlen ist wie ein Zen3 Kern mit 20W weil er 3 Mal so groß ist. Wenn man 8 Kerne direkt nebeneinenander in einem Cluster hat vielleicht noch annähernd aber sicher nicht bei einem einzelnen Kern. Die Hitze verteilt sich ja durch den Heatspreader ja nicht nur vertikal nach oben sondern etwas nach links/rechts.
ADL hat nochmals größere cores, aber auch einen shrink im fertigungsprozess. ich glaube ADL bleibt recht kühl, ich würde grob immernoch auf 10mm² per core schätzen, auf keinen fall 4mm² wie bei zen3.
Ja 10mm² für die Golden Cove Kerne würde sich mit den Angaben von Intel decken.
Worüber ich mir jedoch mehr Sorgen mache ist wie man die Hitze von den Gracemont Kernen abführen soll. Dieser werden bei 3.7GHz auch schon ganz schön gebraten und diese sind nur 2.5mm² groß. Ich gehe davon aus, dass wenn 4 Gracemont Kerne so schnell sind wie 2 Golden Cove Kerne, dass sie dann auch ähnlich viel Energie verbrauchen werden. Nur halt auf der halben Fläche. Beim SC Turbo kommen diese zwar nicht zum Zug aber bei Multi Core werden die schon ganz schön glühen.
Bei Single Core ist die Grösse des einzelnen Cores sicher relevanter als bei MT Last (Hot Spots). Bei ST ist die Verlustleistung der CPU aber vielleicht irgendwo zwischen 50-80W und nicht 200W. Das bedeutet, dass die Kühlung noch nicht so stark gefordert wird.
Ich denke dass es eher umgekehrt ist. Bei einem einzelnen Kern kann die Hitze sich noch etwas mehr nach links/rechts verteilen solange es keine ultra lokalen Hotspots innerhalb des Kerns gibt.
Bei einem Cluster an Kernen, die alle auf einem Haufen sind und die Hitze nur mehr vertikal durch den Heatspreader abgeleitet werden kann wird die Fläche immer wichtiger zumindest für den Wärmeverlust bis zum Kühlkörper. Ab dann zählen sowieso mehr die gesamte Wattanzahl.
Und wenn du sagst ADL wird kühl: Schau dir Rocket Lake an. Der ist deutlich grösser und weit entfernt von kühl.
Rocket Lake zieht auch bis zu 300W (teilweise sogar mehr) wenn man ihn ganz ohne Limits laufen lässt.
Ich kann dir eines sagen: Wenn ich meinem 9900K 300W gebe dann löst sich der in 2 Sekunden in einer Rauchwolke auf und zwar egal wie du ihn kühlst (LN2 etc. mal außen vor).
200W ist hier bei mir die Grenze. Bei allem was darüber liegt landet er nach 1-2 Sekunden im Thermolimit und der hatte auch schon einen verlöteten Heatspreader.
Hat nicht bereits Tigerlake-H rund 190mm² an Diesize? Die Cores von Alderlakes dürften jetzt noch etwas größer sein und es kommen nochmals die 16 kleinen Cores hinzu, sodass ich dann eher eine Diesize in Richtung 250mm² erwarten würde.
Tiger Lake hat auch jede Menge Schwachsinn mit an Board. Das muss nicht unbedingt viel heißen.
Parall dazu bringt Intel von Alderlake für Notebooks eigene, gestutze Dies mit max 6 großen bzw. gar nur 2 großen Cores. Zumindest erstere wäre unrentable, wenn dadurch nicht ordenltich Diesize eingespart würde, oder?
Die Frage ist eher was willst du in kleinen Notebooks mit einer Menge Kerne wenn die TDP dafür sowieso nicht ausreicht.
Die Gracemont Kerne haben den Vorteil, dass sie einen breiteren Frequenzbereich haben d.h. man kann sie auf gemütliche 1.5GHz runter takten wo sie so gut wie nichts mehr verbrauchen, denn im Akkubetrieb mit 8W TDP wird die Luft mit 4 Gold Cove Kernen mit 8 Thread Last schon echt dünn.
Naja ich merk das schon deutlich mit dem 5950x, wenn es bis 8 thread Auslastung geht wird die CPU fast 80°C warm und bei vollbelastung gerade Mal 60°C. Bei 4 Threads sogar über 80.
Das liegt daran, dass die TDP begrenzt ist. Mit 8 Kernen Last verbraucht er dasselbe wie bei 16 Kernen Last nur dass der Windows Scheduler alle 8 Threads auf einen Chip zusammen schiebt, um unnötige Zugriffe auf einen anderen CCX zu vermeiden.
Hier vergleichst du 2x 80mm2 gegen 280mm2. Dass letzteres kühler sein wird, ist logisch. Das kann man so nicht direkt vergleichen.
Hier hat der 5950X theoretisch einen Vorteil. Dessen Chips sind etwas verteilt und heizen sich so nicht gegenseitig bzw. kann sich die Hitze von jedem Kern gleichmäßig verteilen.
Vergleiche den 5800X mit 100W auf einem CCD (80mm2) mit 300W auf 280mm2 (Rocket Lake). Wie du siehst, sind dann die Temperaturen sehr ähnlich. 3-fache Verlustleistung bei 3-facher Fläche ergeben oh Wunder ähnliche Temperaturen.
Das ist nicht wirklich linear. 1 Kern eines 11900K kann man mit 5.3GHz laufen lassen. Versuch das Mal auf allen 8 ;-)
Dass dies bei AMD trotzdem in etwa auf dasselbe raus kommt kann auch gut an unterschiedlicher Plazierung der Sensoren, unterschiedlicher Qualität der verlöteten Heatspreader etc. liegen. Ja ein 11900K kann die Wärme besser abgeben als ein 5800X aber sicher nicht 3 Mal so gut.
Wenn das stimmt: Heftiger Effizienz-Sprung. Der 11400F geht bei 1,12V beim AIDA FPU-Test auf 3GHz runter bei einem 95W Limit.
Da RKL bei Anwendungen ganz gut zugelegt hatte, sind die +20% sind CPU-Z auch nicht schlecht.
Ist die Frage ob die ES hier schon repräsentativ sind. In der Praxis sind 11400F sich nicht die taktfreudigsten RKL Chips und ziehen dementsprechend viel ein gebinnter 11900K mit 2 deaktivierten Kernen wird genauso 4GHz bei 95W schaffen.
Bei den ES kann das noch bunt gemischt sein und es kann gut sein, dass die CPU Potential zum 12600K hatte aber einfach nur als 12400 verschickt wurde, damit die auch getestet werden können.
Aber natürlich wird die Effizienz deutlich steigen. Wäre ja traurig wenn Intel mit 10nm immer noch genauso viel ziehen würde als mit 14nm.
Das ist sehr interessant... da sieht man ST dass die GC Kerne auf der Höhe zwischen RKL und Zen3 liegen... also scheinbar wenig Mehrleistung... Deshalb die ganzen OC Benchmarks bei 260W um zu blenden...
Der Vergleich hinkt etwas. Du kannst nicht das gebinnte Topmodell (11900K) mit dem Entrymodell der größten Gurkenchips (12400) vergleichen. Verglichen mit einem 11400 ist der 12400 bei den SC Ergebnissen wieder seine 20% vorne.
Was die 260W angeht: Wenn du wirklich den ganzen Tag Anwendungen mit heftiger AVX Last auf 24 Thread nutzt ist das natürlich ein Thema. Da bleibt ein 5950X weiterhin die erste Wahl.
Bei realen Durchschnittsanwendungen ohne AVX wirst du kaum auf die 260W kommen genauso wenig wie ein 11900K durchgehend auf 300W gekommen ist.
Ich denke, dass man mit 150W in den meisten Anwendungen (selbst multithreaded Anwendungen) vielleicht 2-3% unter dem Maximum sein wird wenn überhaupt und nur ein paar einzelne Anwendungen wie Cinebench, die AVX nutzen wirklich so stark heizen werden.
Slipknot79
2021-10-11, 23:49:49
Ich bin jetzt echt auf Spiele-Benchmarks gespannt - das ist für mich das interessantere.
Ballerst du in 720p? :redface:
BlacKi
2021-10-12, 00:24:05
Ballerst du in 720p? :redface:cpu limit findet sich auch in 4k wieder.
monstar-x
2021-10-12, 00:34:39
cpu limit findet sich auch in 4k wieder.
In welchen Spielen?
Nightspider
2021-10-12, 00:50:13
Och eine 6900XT schafft in Battlefield V in 4K schon locker ihre 120-160fps. Mit OC noch bisschen mehr.
Da kommt man manchmal schon in ein CPU Limit bei viel Action. ;)
Und jetzt kommen so langsam auch Spiele mit höheren CPU Anforderungen und viel schnellere Grafikkarten kommen nächstes Jahr auch.
Linmoum
2021-10-12, 00:56:33
Wenn RDNA3 tatsächlich annähernd bis zu dreifacher Performance auf eine 6900XT/3090 bieten wird, wird es selbst in UHD deutlich weniger Spiele ohne als mit CPU-Limit geben.
Chiplets bei GPUs werden dafür sorgen, dass CPUs in hohen Auflösungen immer relevanter werden.
BlacKi
2021-10-12, 01:16:06
In welchen Spielen?
escape from tarkov, BF2042, generell spiele mit dlss support.
Nightspider
2021-10-12, 02:20:50
Wenn RDNA3 tatsächlich annähernd bis zu dreifacher Performance auf eine 6900XT/3090 bieten wird, wird es selbst in UHD deutlich weniger Spiele ohne als mit CPU-Limit geben.
Chiplets bei GPUs werden dafür sorgen, dass CPUs in hohen Auflösungen immer relevanter werden.
Genau genommen müssten alle Spiele in ein CPU Limit rutschen.
Mir fällt zumindest kein Spiel, kein Szenario ein wo man nicht im CPU Limit wäre in UHD.
Aber Navi31 wird auch nicht für UHD da sein sondern für 5K bis 8K.
Vielleicht kommen dann auch endlich VR Brillen mit deutlich höheren Auflösungen. :)
Cubitus
2021-10-12, 09:29:02
Wenn die neue GPU Gen nächstes Jahr kommt, schau mer mal was die neuen Intels so taugen.. Und ob es sich lohnt.. In dieser Gen lohnt sich es kaum zu wechseln..
The_Invisible
2021-10-12, 09:48:41
Das liegt daran, dass die TDP begrenzt ist. Mit 8 Kernen Last verbraucht er dasselbe wie bei 16 Kernen Last nur dass der Windows Scheduler alle 8 Threads auf einen Chip zusammen schiebt, um unnötige Zugriffe auf einen anderen CCX zu vermeiden.
Hier hat der 5950X theoretisch einen Vorteil. Dessen Chips sind etwas verteilt und heizen sich so nicht gegenseitig bzw. kann sich die Hitze von jedem Kern gleichmäßig verteilen.
Ja das meinte ich ja, bei Last auf nur einem CCD und 140W ist das schon ziemlich grenzwertig, als Kühler ist immerhin ein Noctua NHD-15 verbaut. Wirds auf beide CCDs verteilt ist es kein Problem, wahrscheinlich nicht mal 250W. Bei meinem vorigen 3900x war das noch nicht so, es wird beim Zen3 aber auch viel aggressiver geboostet.
MiamiNice
2021-10-12, 09:50:18
In welchen Spielen?
escape from tarkov, BF2042, generell spiele mit dlss support.
Sword of Legends, im Prinzip fast alle MMORPGs, viele VR Games, fast alle BF Titel, Star Citizen, ANNO, BAR, generell Strategie Games u.v.m.
][immy
2021-10-12, 09:51:18
Wenn RDNA3 tatsächlich annähernd bis zu dreifacher Performance auf eine 6900XT/3090 bieten wird, wird es selbst in UHD deutlich weniger Spiele ohne als mit CPU-Limit geben.
Chiplets bei GPUs werden dafür sorgen, dass CPUs in hohen Auflösungen immer relevanter werden.
Wird nicht passieren. Theoretisch hat sich mit Ampere die Rechenleistung ja schon vervielfacht (reine Flops). Aber effektiv kommt das halt nicht an. Also selbst wenn mit rdna3 sich die Flops vervielfachen heißt das nix. Und nach wie vor werden die meisten in einem GPU Limit zocken.
BlacKi
2021-10-12, 10:31:08
[immy;12817920']Wird nicht passieren. Theoretisch hat sich mit Ampere die Rechenleistung ja schon vervielfacht (reine Flops). Aber effektiv kommt das halt nicht an. Also selbst wenn mit rdna3 sich die Flops vervielfachen heißt das nix. Und nach wie vor werden die meisten in einem GPU Limit zocken.mit rdna3 wird man aber nicht die reinen flops erhöhen. man wird zwar architekture verbesserungen vornehmen, aber hauptsächlich wird die siliziumfläche massiv erhöht, ohne dabei die kosten und verbrauch explodieren zu lassen.
I think 2.5x raster and 3x fp32 is reasonable. https://twitter.com/greymon55/status/1447200324876333063
Ist doch auch klar, die Wärme kann sich über das große Die bei RKL ja auch besser verteilen.nur weil etwas mitskaliert besteht noch lange kein zusammenhang. btw. ich stelle nicht in frage das eine große siliziumfläche keinen vorteil mit sich bringt. aber die fläche den einzelnen cores und die nähe zu weiteren kernen haben einen viel größeren anteil an der temperatur.
WedgeAntilles
2021-10-12, 10:39:49
Raptor Lake ist im Wesentlichen einfach Alder Lake mitein paar Little Cores zusätzlich und vermutlich wird man noch ein paar MHz mehr Takt und ein paar % IPC raus kitzeln (angeblich 2MB L2 statt 1.25 bzw. halt etwas höherer DDR5 Support). Das ist für Anwendungen sich ganz nett aber bei Spielen würde ich da jetzt keinen so weltbewegenden Performancegewinn erwarten.
Raptor Lake soll - laut Intel Folien - Verbesserungen beim "cache for gaming" haben.
According to a roadmap leak, Intel is preparing another family of 10nm processors after the 12th generation (Alder Lake). It’s called Raptor Lake and it should be released around the end of 2022. We already have the first look at what it should bring – Intel plans to stick to the big.LITTLE architecture, but with performance improvements and changes to L3 cache that should improve performance especially in games.
Was man da jetzt genau darunter verstehen kann ist afaik noch unklar.
Aber zumindest angekündigt sind eben Verbesserungen beim Cache.
Und dass das durchaus merkliche Auswirkungen haben kann zeigt ja AMD.
Das kombiniert mit den generellen - von dir genannten - Verbesserungen (und den dann vermutlich attraktiveren DDR5 Preisen/Timings) könnte RaptorLake tatsächlich gerade beim Gaming einen ordentlichen Sprung machen.
[...]
nur weil etwas mitskaliert besteht noch lange kein zusammenhang. btw. ich stelle nicht in frage das eine große siliziumfläche keinen vorteil mit sich bringt. aber die fläche den einzelnen cores und die nähe zu weiteren kernen haben einen viel größeren anteil an der temperatur.
Das ist ein Scherz oder? :freak: Die Wärme verteilt sich, punkt. Red dich nicht raus, RKL ist viel größer als ein CCD, daher wird die Wärme besser verteilt, auch wenn ein oder zwei Kerne aktiv sind.
WedgeAntilles
RTL wird sicherlich einfach ein halbes bis 1 MB Mehr pro L3-Slice haben. Das ist dann der Game-Cache bei Intel. Stacking ist hier nicht zu erwarten. komplexere Packages wird man erst bei MTL bringen.
MiamiNice
2021-10-12, 14:31:54
Was mir gerade durch den Kopf geht wegen Win 11 User Rape:
Ein Alder oder Raptor Lake mit deaktiviertem mini Cores und HTT sollte doch wunderbar unter Win 10 funktionieren? Vermutlich oder nicht?
Virtual
2021-10-12, 14:46:58
Was mir gerade durch den Kopf geht wegen Win 11 User Rape:
Ein Alder oder Raptor Lake mit deaktiviertem mini Cores und HTT sollte doch wunderbar unter Win 10 funktionieren? Vermutlich oder nicht?
Du denkst darüber nach ADL primär für Spiele einsetzen zu wollen und nicht für Anwedungen wie Cinebench, Geekbench oder auch CPU-Z. Dann warte doch zunächst einmal ab, wie es um dessen besonderer Eignung dazu steht, ganz allgmein und natürlich auch im Speziellen unter Windows 10.
Vielleicht ist ja ein ZEN 3D V-Cache die bessere Alternative für den gedachten Einsatzzweck.
Ich hab auch Zweifel, dass der Scheduler von Win10 so ein wahrnsinns Hindernis ist. Ich bin sehr gespannt darauf, was letztendlich wirklich bei ADL herumkommt (auch mit synchonisierten Threads und nicht nur Synthies, die eher unsynchron parallel rennen) und ob der Scheduler-Vergleich tatsächlich so krass ist.
Mit Zen3D hätte man das Problem natürlich nicht. Da geht Win10 nach wie vor problemlos und Cache ist für Spiele ultimativ, siehe Broadwell C.
MiamiNice
2021-10-12, 15:11:46
Vielleicht ist ja ein ZEN 3D V-Cache die bessere Alternative für den gedachten Einsatzzweck.
Du scheinst nicht zu wissen, dass dies für mich keine Option ist.
Ich hab auch Zweifel, dass der Scheduler von Win10 so ein wahrnsinns Hindernis ist.
Bisher hatten alle Kerne immer die selbe Leistung. Bzw. waren HTT Kerne speziell geflagt. Das kennt Windows. Windows 10 weiß allerdings nicht um den Umstand, dass Kerne nun unterschiedliche Leistungspunkte haben.
Diesen Umstand würde ich mit dem deaktivieren der kleinen Cores umgehen wollen.
Mit Zen3D hätte man das Problem natürlich nicht. Da geht Win10 nach wie vor problemlos und Cache ist für Spiele ultimativ, siehe Broadwell C.
Raptor bekommt auch mehr Cache. Ist die Frage bis wie viel Cache Spiele skalieren und welcher Cache die geringeren Latenzen hat. Ich tippe hier im Vorfeld auf Intel.
Thunder99
2021-10-12, 15:16:05
Wie sich das auswirkt wird man beim 12400 (6+0) sehen, falls dieser getestet wird unter 10.
Blediator16
2021-10-12, 15:18:41
Wie sich das auswirkt wird man beim 12400 (6+0) sehen, falls dieser getestet wird unter 10.
Jedes review, was win11 only sein wird, sollte direkt boykottiert werden. Man wird an win11 only reviews sehen, wer in Intels Tasche steckt.
Ein brandneues bugverseuchtes OS will keiner haben.
MiamiNice
2021-10-12, 15:27:47
Nur um dies zu erkennen muss man den Test vor der Nase haben. Damit hat man der Lügenpresse schon den sooo wichtigen Klick beschwert. Es müsste eine Funktion geben, den Klick rückgängig zu machen.
[...]
Bisher hatten alle Kerne immer die selbe Leistung. Bzw. waren HTT Kerne speziell geflagt. Das kennt Windows. Windows 10 weiß allerdings nicht um den Umstand, dass Kerne nun unterschiedliche Leistungspunkte haben.
Diesen Umstand würde ich mit dem deaktivieren der kleinen Cores umgehen wollen.
Mal sehen, wie die Hardware agiert bei Win10.
Raptor bekommt auch mehr Cache. Ist die Frage bis wie viel Cache Spiele skalieren und welcher Cache die geringeren Latenzen hat. Ich tippe hier im Vorfeld auf Intel.
Raptor ist sicherlich in der Nähe von Zen4. Das ist defintiv kein Gegner für Zen3D. AMDs Stapelcache hat keine höheren Latenzen, was ein gewaltiger Vorteil ist. Schau dir den 5775C an, wie der mit seiner Haswell-IPC und niedrigem Takt + nur 4 Cores heute noch bei Spielen agiert. Und das ist ein lahmer Cache. Spiele sind extrem Datenlastig und profitieren überhaupt nicht von einem breiten Core-Design, sondern von dessen Latenzen. Deswegen war Zen3 so erfolgreich. ADL bringt heftig mehr Rechenleistung, wie man bei den Synthies sieht, wenn das jedoch nicht gebraucht wird, kommt die Stunde der Wahrheit. Ich bin gespannt.
Virtual
2021-10-12, 15:30:09
Wie sich das auswirkt wird man beim 12400 (6+0) sehen, falls dieser getestet wird unter 10.
Die core rotation policy des Windows Scheduler sollte hier kein Problem darstellen. Die Topologie ist doch ziemlich einheitlich, die Funktionalität des ADL Thread Directors kommt erst bei einer heterogenen Prozessor-Architektur zum tragen. Weitere Interna-Details von Win11 oder ADL kennen wir nicht, sie werden aber ziemlich wahrscheinlich für den 12400 unter Win10 vergleichsweise irrelevant sein.
MiamiNice
2021-10-12, 15:30:55
Ich würde sagen Zen4 und Zen3D beißen sich an Raptor im Gaming Betrieb die Zähne aus. Sehen wir beide dann im nächsten Jahr um die selbe Zeit bzw. noch ein wenig später.
Wann steht Zen 4 auf dem Plan?
Die core rotation policy des Windows Scheduler sollte hier kein Problem darstellen. Die Topologie ist doch ziemlich einheitlich, die Funktionalität des ADL Thread Directors kommt erst bei einer heterogenen Prozessor-Architektur zum tragen. Weitere Interna-Details von Win11 oder ADL kennen wir nicht, sie werden aber ziemlich wahrscheinlich für den 12400 unter Win10 vergleichsweise irrelevant sein.
Aus dem Grund denke ich, dass auch ein 13900k mit deaktivierten kleinen Cores sehr gut auf Win 10 laufen wird.
Kann man eigentlich noch den TPM Chip abschalten bei ADL?
Ich würde sagen Zen4 und Zen3D beißen sich an Raptor im Gaming Betrieb die Zähne aus. Sehen wir beide dann im nächsten Jahr um die selbe Zeit bzw. noch ein wenig später.
Wann steht Zen 4 auf dem Plan?
Wie kommst du darauf? Raptor wird im wesentlichen minimal verbesserte Ocean Cove haben, Intel nennt die Raptor Cove, und auch mehr Cache mitbringen. Ich glaube da aber nicht an so irre viel, der L3 wird sicherlich per Slice um 512KiB oder 1MiB, maximal 2MiB erhöht werden, da man bei Raptor nicht stapeln wird, das kommt erst bei MTL. Meteor wird sicherlich wieder einen großen Fortschritt bringen.
MiamiNice
2021-10-12, 16:00:19
Auch wenn ich wieder gelyncht werde: Es ist historisch gesehen (mal) wieder an der Zeit, dass Intel Aktien vergoldet und es AMD versemmelt.
r3ptil3
2021-10-12, 16:03:59
Ich erwarte immer noch eine kleine Überraschung im IDLE Verbrauch bei Alder Lake mit den Little Cores. Dann würde die Option des Ausschaltens schnell vergessen sein.
Auch keine Überraschung dürfte wohl sein, dass Alder Lake ganz merkwürdige Ergebnisse unter Win10 liefern könnte, genau so auch in Einzelfällen auf Win11.
Aber das war auch bei der Einführung der Mehrkernarchitekturen zu Beginn der Fall.
@MiamiNice
Darauf musst du noch 2. Generationen warten.
aufkrawall
2021-10-12, 16:15:42
Ich erwarte immer noch eine kleine Überraschung im IDLE Verbrauch bei Alder Lake mit den Little Cores. Dann würde die Option des Ausschaltens schnell vergessen sein.
Wage ich zu beweifeln, siehe Zen 2 Mobile Idle-Verbrauch vs. stationär (I/O & Plattform).
Daredevil
2021-10-12, 16:17:33
Ich könnte mir vorstellen, dass Intel AMD gar nicht so sehr als Gefahr sieht, sondern primär Apple im Blick hat. Daher ( hoffe ) ich auch auf einen sehr guten Idle Wert, noch um ein vielfacher niedriger als bei jeglichem Prozessor, egal ob Intel oder AMD.
Alles andere ist einfach nicht sehr fortschrittlich im Hinblick, das Apple jedem sonst wegläuft.
Intel hat Intel im Blick. Apple interessiert die genau 0 und AMD hat sich bislang nicht als echte Gefahr entpuppt dank der Fertigungskapazitäten. Es gibt Parallelen zu Netburst damals nur war es dieses Mal nicht die Architektur sondern der Prozess.
y33H@
2021-10-12, 16:28:28
Ich erwarte immer noch eine kleine Überraschung im IDLE Verbrauch bei Alder Lake mit den Little Cores. Dann würde die Option des Ausschaltens schnell vergessen sein.Zumindest mit DDR4 im Gear1 säuft der IMC bei Rocket Lake viel --- bin gespannt ob das bei Alder Lake gefixt wurde und wie sich DDR5 hier auswirkt.
Lehdro
2021-10-12, 16:36:57
Zumindest mit DDR4 im Gear1 säuft der IMC bei Rocket Lake viel --- bin gespannt ob das bei Alder Lake gefixt wurde und wie sich DDR5 hier auswirkt.
Die Existenz von Gear4 lässt hoffen. Muss Intel nur noch irgendwie auf den Trichter kommen, diesen im idle dynamisch anzuwenden um dann unter Last wieder "hochzuschalten". Undynamische Gear-Modi sind irgendwie 2020...
Hakim
2021-10-12, 18:10:56
Kann man davon ausgehen das Z690 Mobos mit DDR4 vermutlich auch Raptor Lake unterstützen werden? Wobei ich eigentlich fast nie nach einem Jahr nochmal aufrüste.
OgrEGT
2021-10-12, 20:01:13
Du scheinst nicht zu wissen, dass dies für mich keine Option ist.
Warum eigentlich?
Du weißt ja genauso wenig wie wir alle wie die Tests zu ADL Zen3D und RTL Zen4 aussehen werden... ich dachte Du wartest ab und entscheidest Dich für das bessere Gaming Produkt...
Platos
2021-10-12, 20:36:52
Ich könnte mir vorstellen, dass Intel AMD gar nicht so sehr als Gefahr sieht, sondern primär Apple im Blick hat. Daher ( hoffe ) ich auch auf einen sehr guten Idle Wert, noch um ein vielfacher niedriger als bei jeglichem Prozessor, egal ob Intel oder AMD.
Alles andere ist einfach nicht sehr fortschrittlich im Hinblick, das Apple jedem sonst wegläuft.
Sage ich ja schon lange Alderlake bzw. das Big.little Konzept gibts deshalb, weil Apple im Laptopmarkt sonst alle Kunden abgräbt, die nicht auf Win angewiesen sind. AMD spielt da sowas von keine (Haupt-)Rolle aus meiner Sicht
iamthebear
2021-10-12, 23:07:17
[immy;12817920']Wird nicht passieren. Theoretisch hat sich mit Ampere die Rechenleistung ja schon vervielfacht (reine Flops). Aber effektiv kommt das halt nicht an. Also selbst wenn mit rdna3 sich die Flops vervielfachen heißt das nix. Und nach wie vor werden die meisten in einem GPU Limit zocken.
Das ist ein Mythos der sich leider sehr hartnäckig hält.
Turing hatte pro Shader 64 FP32 Einheiten UND 64 INT Einheiten. Da in der Praxis aber (laut Nvodia Angabe) 64% FP Befehle abwr nur 36% INT Befehle sind haben die INT Einheiten die halbe Zeit nichts zu tun.
Ampere hat wie schon Pascal 128 FP32 Einheiten pro Shader aber keine INT Einheiten mehr und die INT Befehle werden mit den FP Einheiten abgearbeitet. Das hat den Vorteil, dass alle FP Einheiten immer voll ausgelastet sind egal wie die Befehle verteilt sind. Der Nachteil ist, dass mehr Transistoren pro Shader notwendig sind da FP Einheiten aufwändiger sind.
Raptor Lake soll - laut Intel Folien - Verbesserungen beim "cache for gaming" haben.
According to a roadmap leak, Intel is preparing another family of 10nm processors after the 12th generation (Alder Lake). It’s called Raptor Lake and it should be released around the end of 2022. We already have the first look at what it should bring – Intel plans to stick to the big.LITTLE architecture, but with performance improvements and changes to L3 cache that should improve performance especially in games.
Was man da jetzt genau darunter verstehen kann ist afaik noch unklar.
Aber zumindest angekündigt sind eben Verbesserungen beim Cache.
Und dass das durchaus merkliche Auswirkungen haben kann zeigt ja AMD.
Das kombiniert mit den generellen - von dir genannten - Verbesserungen (und den dann vermutlich attraktiveren DDR5 Preisen/Timings) könnte RaptorLake tatsächlich gerade beim Gaming einen ordentlichen Sprung machen.
Hast du da eine Quelle? Das widerspricht den bisherigen Leaks, die schon sehr präzise Vorgaben zur Menge an L3 Cache gemacht haben (36MB für den 13900K mit 8+16 vs. 30MB beim 12900K).
Was sich mit Raptor Lake ändert ist dass es 2MB L2 statt 1.25MB pro Big Core gibt. Möglicherweise wurde das falsch interpretiert.
Laut MLID hat Raptor Cove ca. 10% mehr Performance als Golden Cove.
Ich schätze knapp 5% dürfte auf höhere Taktraten entfallen (glaube 5.5 statt 5.3). DDR5-5600 statt 4800 und der größere L2 sollten den Rest liefern. Ich denke nicht, dass da sonst noch viel kommen wird.
Was mir gerade durch den Kopf geht wegen Win 11 User Rape:
Ein Alder oder Raptor Lake mit deaktiviertem mini Cores und HTT sollte doch wunderbar unter Win 10 funktionieren? Vermutlich oder nicht?
Ich hab auch Zweifel, dass der Scheduler von Win10 so ein wahrnsinns Hindernis ist. Ich bin sehr gespannt darauf, was letztendlich wirklich bei ADL herumkommt (auch mit synchonisierten Threads und nicht nur Synthies, die eher unsynchron parallel rennen) und ob der Scheduler-Vergleich tatsächlich so krass ist.
Mit Zen3D hätte man das Problem natürlich nicht. Da geht Win10 nach wie vor problemlos und Cache ist für Spiele ultimativ, siehe Broadwell C.
Also auch für die Little Cores sollten eigentlich nur kleinere Anpassungen notwendig sein.
Bisher hat jeder physische Kern 1 Thread bekommen. Danach jeder Kern einen 2. Thread.
Mit Alder Lake muss es so sein dass zuerst die Big Cores je 1 Thread bekommen, dann die Little Cores je 1 Thread und dann die Big Cores einen 2. Also selbes Prinzip nur 1 Stufe mehr.
Der Thread Director ist dann nur eine weitere Optimierung, die in erster Linie dann greift wenn alle Kerne voll ausgelastet sind (Big Cores mit 2 Threads, Little Cores mit 1). Bei Spielen sollte das keine große Rolle spielen.
Die Frage ist jedoch, ob MS diese Änderungen in Win10 aber noch durchführen will.
Da jeder neue PC jedoch sowieso mit Win11 ausgeliefert werden wird ist fraglich ob es überhaupt noch Win10 Treiber für neue Plattformen geben wird. Ich erwarte hier ehrlich gesagt eher, dass sowohl ADL für als auch Zen4 nur mehr Win11 Treiber zur Verfügung gestellt werden und Win10 nicht mehr unterstützt wird. Man wird es vermutlich noch irgendwie zum Laufen bringen aber ob man das will ist eine andere Frage.
Jedes review, was win11 only sein wird, sollte direkt boykottiert werden. Man wird an win11 only reviews sehen, wer in Intels Tasche steckt.
Ein brandneues bugverseuchtes OS will keiner haben.
Genauso gut könnte man auch mit Win 7 ider XP testen...
Ich sehe ehrlich gesagt keinen Grund, warum man mit Win11 anders vorgehen sollte als mit jedem anderen Win10 Feature Update. Der einzige Grund warum es eine neue Nummer bekommen hat ist weil es eben nicht mehr auf allen Systemen läuft.
Ich würde sagen Zen4 und Zen3D beißen sich an Raptor im Gaming Betrieb die Zähne aus. Sehen wir beide dann im nächsten Jahr um die selbe Zeit bzw. noch ein wenig später.
Wann steht Zen 4 auf dem Plan?
Was die Anwendungsperformance bei aktivem TDP Limit angeht wohl kaum. Da wird ein 5950X im Schnitt weiterhin schneller sein bzw. mit Zen4 kommt ja auch ein neuer Sockel, der etwas mehr TDP ermöglicht und wo schon von 24 Kernen gesprochen wurde und das alles in 5nm...
Was die Gaming Performance angeht so können wir derzeit noch gar nichts sagen. Das wäre unseriös hier eine genau Prognose abzugeben aber ich denke nicht, dass Intel AMD wieder sehr stark überholen können wird. Wird sich vermutlich alles im Rahmen von +/- 10% abspielen.
Aus dem Grund denke ich, dass auch ein 13900k mit deaktivierten kleinen Cores sehr gut auf Win 10 laufen wird.
Kann man eigentlich noch den TPM Chip abschalten bei ADL?
Wenn das BIOS eine entsprechende Option vorsieht wieso nicht? Nur wirst du dann vermutlich mit Win11 früher oder später ein Problem beim jährlichen Feature Update bekommen bzw. Anwendungen, die es voraussetzen werden dann nicht mehr ohne laufen. Von daher sehe ich ehrlich gesagt keinen Grund es zu deaktivieren.
Wie kommst du darauf? Raptor wird im wesentlichen minimal verbesserte Ocean Cove haben, Intel nennt die Raptor Cove, und auch mehr Cache mitbringen. Ich glaube da aber nicht an so irre viel, der L3 wird sicherlich per Slice um 512KiB oder 1MiB, maximal 2MiB erhöht werden, da man bei Raptor nicht stapeln wird, das kommt erst bei MTL. Meteor wird sicherlich wieder einen großen Fortschritt bringen.
Nach aktuellen Leaks ist nur der L2 größer. Der L3 oro Kern bleibt gleich.
Ich erwarte immer noch eine kleine Überraschung im IDLE Verbrauch bei Alder Lake mit den Little Cores. Dann würde die Option des Ausschaltens schnell vergessen sein.
Auch keine Überraschung dürfte wohl sein, dass Alder Lake ganz merkwürdige Ergebnisse unter Win10 liefern könnte, genau so auch in Einzelfällen auf Win11.
Aber das war auch bei der Einführung der Mehrkernarchitekturen zu Beginn der Fall.
@MiamiNice
Darauf musst du noch 2. Generationen warten.
Also ich glaube nicht, dass Alder Lake 2 Generationen brauchen wird um unter Win11 brauchbar zu laufen. Das kann sich Intel nicht leisten.
Was den Idle Verbrauch angeht:
Da müssten die Big Cores aber komplett abgeschaltet werden.
Spätestens im Desktopbereich ist das jedoch sinnlos da sowieso das Board ein Vielfaches vom Standby Verbrauch der Kerne zieht.
Ich könnte mir vorstellen, dass Intel AMD gar nicht so sehr als Gefahr sieht, sondern primär Apple im Blick hat. Daher ( hoffe ) ich auch auf einen sehr guten Idle Wert, noch um ein vielfacher niedriger als bei jeglichem Prozessor, egal ob Intel oder AMD.
Alles andere ist einfach nicht sehr fortschrittlich im Hinblick, das Apple jedem sonst wegläuft.
Das hat Intel doch gerade erst wieder bestätigt. Apple ist gefährlich, da sie ein vollständiges Produkt liefern. AMD scheitert daran, dass sie keine vollständige Plattform bieten, die OEMs überzeugen könnte.
Sage ich ja schon lange Alderlake bzw. das Big.little Konzept gibts deshalb, weil Apple im Laptopmarkt sonst alle Kunden abgräbt, die nicht auf Win angewiesen sind. AMD spielt da sowas von keine (Haupt-)Rolle aus meiner Sicht
Big/Little wurde für den Desktopbereich entwickelt um sowohl auf Single Core als auch auf Multi Core Performance zunoptimieren. Die Little Cores haben nichts mit Energieeffizienz zu tun. Das Efficiency bezieht sich auf Performance/Fläche nicht Performance/Watt. Die Energieeffizienz erreicht man nur indirekt dadurch, dass mehr Kerne verbaut werden können, die dann entsprechend niedriger takten.
BlacKi
2021-10-13, 00:28:02
kann man anhand der taktrate, unterschiedlichen cpu leaks und den unterschiedlichen ergebnissen die kleinen kerne rausrechnen? ich bin vorhin mit dem handy auf gut 70% performance gekommen, 2t big vs 1little wohlgemerkt. mit den cpu z multicore werten. keine ahnug wie gut cpu z mit hyperthreading skaliert, aber das wäre echt stark.
Platos
2021-10-13, 00:41:42
@imthebear: Ah ja und das hat dir Intel selbst mitgeteilt? Die Folien sagen ganz klar, dass die Kerne deutlich energieeffizienter sind.
Daredevil
2021-10-13, 01:09:58
Das hat Intel doch gerade erst wieder bestätigt. Apple ist gefährlich, da sie ein vollständiges Produkt liefern. AMD scheitert daran, dass sie keine vollständige Plattform bieten, die OEMs überzeugen könnte.
Hab gerade erste Tests zum Surface Studio gesehen in 10 Min Cinebench Last.
Der "alte" M1 ist ca. 30% schneller und verbraucht knapp die Hälfte. Zudem drosselt sich der Intel Prozessor, wie bei AMD halt auch, wenn das Netzteil abgesteckt wird.
Intel muss da massiv aufholen, AMD ist da nur das kleinste große übel.
Habe mir ein paar Aktien gekauft, ich drücke Intel die Daumen. (:
KarlKastor
2021-10-13, 07:59:51
@imthebear: Ah ja und das hat dir Intel selbst mitgeteilt? Die Folien sagen ganz klar, dass die Kerne deutlich energieeffizienter sind.
Welche Folien zeigen das?
transstilben
2021-10-13, 09:27:13
Habe mir ein paar Aktien gekauft, ich drücke Intel die Daumen. (:
Intel Aktien oder Apple ?
Glaube ja auch, dass jetzt Intel mal wieder dran ist.;D
Sage ich ja schon lange Alderlake bzw. das Big.little Konzept gibts deshalb, weil Apple im Laptopmarkt sonst alle Kunden abgräbt, die nicht auf Win angewiesen sind. AMD spielt da sowas von keine (Haupt-)Rolle aus meiner Sicht
Intel hat deshalb Little-Core mit eingeplant, weil das Die sonst zu groß wird. Das hat rein gar nichts mit Apple zu tun. Das Konzept, dass bei ADL umgesetzt wurde, ist sicherlich schon seit 5 Jahren in Planung. Was glaubst du, was das für Zeiträume sind? Da war Apple noch auf Intel.
Die einzigen, die nach Apple schauen sind die Ingeneure, die neugierig sind, wie das geklappt hat. Aber Intel selber konzentriert sich nur auf sich selbst. Immer diese völlig bescheuerten Querschlüsse auf Dinge die völlig absurd sind.
WedgeAntilles
2021-10-13, 09:54:59
Hast du da eine Quelle? Das widerspricht den bisherigen Leaks, die schon sehr präzise Vorgaben zur Menge an L3 Cache gemacht haben (36MB für den 13900K mit 8+16 vs. 30MB beim 12900K).
Was sich mit Raptor Lake ändert ist dass es 2MB L2 statt 1.25MB pro Big Core gibt. Möglicherweise wurde das falsch interpretiert.
https://www.hwcooling.net/en/intel-plans-raptor-lake-cpus-with-better-cache-after-alder-lake/
Da steht dann in dem Schaubild was von "improved Cache for Gaming"
Ich dachte auch, dass das auf einer offiziellen Folie von Intel stand - eventuell habe ich das aber falsch im Kopf und das war damals auch nur ein "Leak" der stimmen kann. Oder halt nicht.
Was genau man unter "improved cache" verstehen kann ist natürlich offen. Das kann ja quasi alles sein. Von "halt ein bisschen mehr" zu etwas deutlich substanziellerem.
https://www.pcgameshardware.de/CPU-CPU-154106/News/Raptor-Lake-S-Gesamte-Modelpallette-geleaked-13900K-mit-24-Kernen-und-32-Threads-1378037/
Die PC Games schreibt beim L3-Cache von 36MiByte für den 13900K und 30MiByte für den 13700K.
Der 13600L soll 24 MiByte L3 Cache haben.
Bei AL sind es glaube ich 30 für den 12900K, und 25 für den 12700k. D.h. RaptorLake hat einen 20% größeren L3 Cache.
Wieviel das jetzt in der Praxis bringt? Keine Ahnung.
Ob es weitere Optimierungen oder Änderungen gibt? Keine Ahnung.
Wie gesagt, ich bezog mich auf das, was ich als offizielle Intel-Folien im Kopf hatte, auf denen von improved cache for gaming gesprochen wurde (erster Link).
Platos
2021-10-13, 10:03:47
Intel hat deshalb Little-Core mit eingeplant, weil das Die sonst zu groß wird. Das hat rein gar nichts mit Apple zu tun. Das Konzept, dass bei ADL umgesetzt wurde, ist sicherlich schon seit 5 Jahren in Planung. Was glaubst du, was das für Zeiträume sind? Da war Apple noch auf Intel.
Die einzigen, die nach Apple schauen sind die Ingeneure, die neugierig sind, wie das geklappt hat. Aber Intel selber konzentriert sich nur auf sich selbst. Immer diese völlig bescheuerten Querschlüsse auf Dinge die völlig absurd sind.
Und du denkst, Intel weiss das nicht schon seit Jahren? :D Intel weiss schliesslich schon lange vorher, wenn Apple kein Kunde mehr ist, wie das die Öffentlichkeit weiss.
Du weisst genau so wenig wie ich, warum Intel das gemacht hat. Tu mal nicht so, als hättest du ne Quelle zu Intel.
Und du denkst, Intel weiss das nicht schon seit Jahren? :D Intel weiss schliesslich schon lange vorher, wenn Apple kein Kunde mehr ist, wie das die Öffentlichkeit weiss.
Du weisst genau so wenig wie ich, warum Intel das gemacht hat. Tu mal nicht so, als hättest du ne Quelle zu Intel.
Intel weiss mitnichten seit Jahren, wie der m1 aussieht :freak:. Wir kommt man auf sowas? Ich hab keine Quelle zu Intel und ich tu auch nicht so, aber ich weiss wie lange CPU-Entwicklungen dauern, vor allem, wenn Paradigmenwechsel mit eingeplant werden. Das Projekt ADL läuft sicherlich 4-5 Jahre. Allein die konkrete Chipentwicklung wird 2019 begonnen haben, da war noch nix mit m1 und nein, Intel wusste ganz sicher nicht, was Apple da entwickelt.
Ich weiss also definitiv, dass ADLs mini-Cores nix mit dem M1 zu tun haben. Übrigens geht das andersherum auch, auch Apple hat sicherlich 4-5 Jahre am M1 gearbeitet und auch die wussten nix von Intels little-Plänen.
Es ist immer verführerisch, Nähe anzunehmen, wenn etwas ähnlich wird. Aber so funktioniert das nicht.
Daredevil
2021-10-13, 10:08:16
Aber Intel selber konzentriert sich nur auf sich selbst. Immer diese völlig bescheuerten Querschlüsse auf Dinge die völlig absurd sind.
Völlig absurd.
Xp0xzapm-zY
Platos
2021-10-13, 10:09:57
Welche Folien zeigen das?
Hier sieht man es z.B
https://edc.intel.com/content/www/us/en/products/performance/benchmarks/architecture-day-2021/
https://wccftech.com/intels-new-e-core-gracemont-and-p-core-goldencove-architectural-deep-dive/
Völlig absurd.
https://youtu.be/Xp0xzapm-zY
Marketingscheisse.
Meine Aussage steht und ist nicht widerlegt. Intel ist Marktführer. Sicherlich guckt man was die Anderen so machen, aber trotzdem ist die Strategie solcher Unternehmen immer selbstfixiert. Was das Marketing macht ist davon völlig losgelöst und beeinflusst die Kundschaft. Ihr denkt, dass diese Sachen so funktionieren aufgrund des Marketings. Das ist aber nicht so.
Wie gesagt, CPU-Entwicklung ist ein Jahrzehntegeschäft. Der Entwicklungsvorlauf ist enorm, da kann man natürlich viel Schwachsinn im Marketing von sich geben, aber die Projektionen sind davon völlig losgelöst und das ist auch absolut logisch.
Intel und Microsoft definieren wie der PC in 10 Jahren aussieht.
Platos
2021-10-13, 10:25:05
Meine Aussage steht und ist nicht widerlegt.
;D
Wenn du willst, dass deine Aussage als Faktum gilt, musst du sie zuerst mal belegen, ansonsten ist es eine rein persönliche Meinung von dir. Wir müssen da gar nichts "widerlegen" ;D
amdfanuwe
2021-10-13, 10:28:18
Das Konzept, dass bei ADL umgesetzt wurde, ist sicherlich schon seit 5 Jahren in Planung.
Denk ich auch. ARM kam vor 10 Jahren mit Big-Little. Nachdem da erste Erfolge sichtbar wurden, wurde das auch bei Intel ein Thema.
Sei es für effizientere Notebooks, sei es das Apple so einen Chip haben wollte.
AMD war da noch totgesagt.
Und du denkst, Intel weiss das nicht schon seit Jahren? :D Intel weiss schliesslich schon lange vorher, wenn Apple kein Kunde mehr ist, wie das die Öffentlichkeit weiss.
So lange nun auch nicht. Wenn Intel mit versprochenen Designs nicht in die Pötte kommt, kann es auch schnell gehen das Apple die Schnauze voll hat und Plan B angeht. Dann weiss Intel nur ein Jahr vorher, dass aus dem Geschäft nichts wird. Nähmlich dann, wenn sie den Prototypen vorstellen und den keiner haben will.
Hätte Intel ordentliche Chips zu vernünftigen Preisen geliefert, wäre wohl keine Firma auf die Idee gekommen eigene Chipentwicklungen zu starten.
https://www.hwcooling.net/en/intel-plans-raptor-lake-cpus-with-better-cache-after-alder-lake/
Da steht dann in dem Schaubild was von "improved Cache for Gaming"
Ich dachte auch, dass das auf einer offiziellen Folie von Intel stand - eventuell habe ich das aber falsch im Kopf und das war damals auch nur ein "Leak" der stimmen kann. Oder halt nicht.
Was genau man unter "improved cache" verstehen kann ist natürlich offen. Das kann ja quasi alles sein. Von "halt ein bisschen mehr" zu etwas deutlich substanziellerem.
Das ist eine offizielle Intel Folie, sie ist eben nur nicht für die Öffentlichkeit gedacht. Von Intel ist die aber definitiv, wenn du es genauer wissen willst -->PN
Intel spricht von much better CPU cache for gamers. Darüber hinaus könnte es auch noch ein paar Verbesserungen geben, laut Moore's Law Is Dead gibt es mehr IPC und eine verbesserte Perf/watt, letzteres könnte auch mit der Gracemont Verdopplung zu tun haben.
Zu ADL-S ganz interessant: https://www.bilibili.com/read/cv13557967
Wenn das stimmt kann man Windows 10 vergessen wenn jetzt nicht noch ein Update kommt, viele Programme sollen die kleinen Kerne nutzen, teilweise in Spielen dadurch 50 fps weniger. Dann müsste man die im Bios ganz deaktivieren.
Unter Windows 11 dagegen ist es möglich das sich die kleinen Kerne in games alleine schlafen legen.
DDR5 nutzt Gear 2, während DDR4-3600 gear 1 möglich ist. Für maximale fps wird man wohl nicht um schnellen DDR4 drumherum kommen.
[...]
So lange nun auch nicht. Wenn Intel mit versprochenen Designs nicht in die Pötte kommt, kann es auch schnell gehen das Apple die Schnauze voll hat und Plan B angeht. Dann weiss Intel nur ein Jahr vorher, dass aus dem Geschäft nichts wird. Nähmlich dann, wenn sie den Prototypen vorstellen und den keiner haben will.
Hätte Intel ordentliche Chips zu vernünftigen Preisen geliefert, wäre wohl keine Firma auf die Idee gekommen eigene Chipentwicklungen zu starten.
Das wird auch nicht der Grund sein. Apple wird einfach gesehen haben, dass man das was Intel das leistet auch selbst machen kann mit den Erfahrungen im Mobiltelefonmarkt. Das ist für Apple ja ne Synergie, wenn man eh schon ne eigene CPU-Abteilung hat, kann die auch alles machen. Der Startschuss für den M1 wird schon gefallen sein, als man die ersten erfolgreichen, sehr leistungsstarken Tablet-SoCs designt hat. Das war halt ne ganz pragmatische Entscheidung. Dass man Intel auf dem 14nm-Fuss erwischt das war sicherlich nicht eingeplant bei Apple. Da war einfach das Ziel alles aus einer Hand zu liefern und damit auch Kosten zu minimieren, denn man hatte alle "Bausteine" zu einer erfolgreichen Prozessorentwicklung ja schon vorher.
;D
Wenn du willst, dass deine Aussage als Faktum gilt, musst du sie zuerst mal belegen, ansonsten ist es eine rein persönliche Meinung von dir. Wir müssen da gar nichts "widerlegen" ;D
Du feuerst hier ein Marketing-BS-Video rein und denkst, damit ist das gegessen? Das ist ja lächerlich. Fang mal an zu denken und informier dich mal, wie umfangreich so ne Prozessorentwicklung ist, danach können wir wieder darüber reden.
Platos
2021-10-13, 10:50:59
Das Video kam von Daredevil...
Vielleicht solltest du mal anfangen etwas an deinem Ton zu ändern...
Das Video kam von Daredevil...
Vielleicht solltest du mal anfangen etwas an deinem Ton zu ändern...
Sry für den Ton, aber diese sinnlosen Apple-Schwanzvergleiche gehen mir einfach ganz ernorm auf den Zeiger. Apple hat mit ADLs Strategie einfach nix zu tun, das ist absolut klar, wenn man die Zeiträume bedenkt.
DozerDave
2021-10-13, 11:05:06
Mal sehen was nächsten Montag von Apple kommt. Vielleicht dreht der M1X Kreise um die Mobilprozessoren von AMD und Intel.
Thunder99
2021-10-13, 11:05:39
Btw, Alder Lake ist die 2. Generation vom big.little Konzept bei Intel.
WedgeAntilles
2021-10-13, 11:06:36
Das ist eine offizielle Intel Folie, sie ist eben nur nicht für die Öffentlichkeit gedacht. Von Intel ist die aber definitiv, wenn du es genauer wissen willst -->PN
Intel spricht von much better CPU cache for gamers. Darüber hinaus könnte es auch noch ein paar Verbesserungen geben, laut Moore's Law Is Dead gibt es mehr IPC und eine verbesserte Perf/watt, letzteres könnte auch mit der Gracemont Verdopplung zu tun haben.
Danke!
Dann hatte ich mich richtig erinnert :)
Tralalak
2021-10-13, 12:00:01
LITTLE E-cores Gracemont at 1.69GHz ?
I compared my LITTLE cores Intel Pentium Silver N6000 and Zhaoxin KaiXian KX-U6580 with:
12th Gen Intel(R) Core(TM) i9-12900K (8C + 8c 24T 1.7千兆赫(GHz)/5.2千兆赫(GHz), 1.5千兆赫(GHz)/4.7千兆赫(GHz) IMC, 8x 1.25兆字节(MB) L2, 30兆字节(MB) L3)
Number of Devices / Threads: 1 / 8
Speed: 1.69GHz
Score: 107.08Mpix/s
Multi-Media Integer: 135.88Mpix/s
Multi-Media Long-int: 51.69Mpix/s
Multi-Media Quad-int: 10.23Mpix/s
Multi-Media Single-float: 126.64Mpix/s
Multi-Media Double-float: 71.34Mpix/s
Multi-Media Quad-float: 3.70Mpix/s
source: https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcee889e8d5edd8e1d2e2d3f587ba8aacc9ac91a187f4c9f1&l=en
vs
ZHAOXIN KaiXian KX-U6580@2.5GHz (8C 2.5GHz, 2x 4MB L2)
Number of Devices / Threads: 1 / 8
Speed: 2.50GHz
Score: 104.62Mpix/s
Multi-Media Integer: 159.73Mpix/s
Multi-Media Long-int: 49.66Mpix/s
Multi-Media Quad-int: 10.63Mpix/s
Multi-Media Single-float: 124.01Mpix/s
Multi-Media Double-float: 57.81Mpix/s
Multi-Media Quad-float: 3.98Mpix/s
source: https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcee889e8d5edd8eddde5d4f280bd8dabceab96a680f3cef6&l=en
vs
Intel(R) Pentium(R) Silver N6000 @ 1.10GHz (4C 3.34GHz, 2.42GHz IMC, 1.5MB L2, 4MB L3)
Number of Devices / Threads: 1 / 4
Speed: 3.34GHz
Score 54.08Mpix/s
Multi-Media Integer: 74.50Mpix/s
Multi-Media Long-int: 30.56Mpix/s
Multi-Media Quad-int 4.25Mpix/s
Multi-Media Single-float: 62.28Mpix/s
Multi-Media Double-float: 34.09Mpix/s
Multi-Media Quad-float: 1.87Mpix/s
source: https://ranker.sisoftware.co.uk/show_run.php?q=c2ffcee889e8d5edd8eddde5dcfa88b585a3c6a39eae88fbc6fe&l=en
MiamiNice
2021-10-13, 12:06:25
Danke!
Dann hatte ich mich richtig erinnert :)
Ich vermute das "improved cache for gaming" sich nicht auf die Quantität bezieht bzw. nicht nur. Ich vermute das hat auch was mit der Anbindung zu tun. AMD soll den Cache zwar stapeln, bzw. die Quantität massiv erhöhen, dafür aber Latenz einbüßen. Ich vermute Intel packt es „anders herum“ an.
Was die Anwendungsperformance bei aktivem TDP Limit angeht wohl kaum. Da wird ein 5950X im Schnitt weiterhin schneller sein bzw. mit Zen4 kommt ja auch ein neuer Sockel, der etwas mehr TDP ermöglicht und wo schon von 24 Kernen gesprochen wurde und das alles in 5nm...
Was die Gaming Performance angeht so können wir derzeit noch gar nichts sagen. Das wäre unseriös hier eine genau Prognose abzugeben aber ich denke nicht, dass Intel AMD wieder sehr stark überholen können wird. Wird sich vermutlich alles im Rahmen von +/- 10% abspielen.
Ich schrieb von Games und was ist ein aktives TDP Limit? ;)
KarlKastor
2021-10-13, 12:07:33
Hier sieht man es z.B
https://edc.intel.com/content/www/us/en/products/performance/benchmarks/architecture-day-2021/
https://wccftech.com/intels-new-e-core-gracemont-and-p-core-goldencove-architectural-deep-dive/
Das ist immer der Vergleich zu Skylake. Nicht zu Golden Cove.
robbitop
2021-10-13, 12:23:22
Apple macht big little seit 2016 (also seit 5 Jahren) seit dem A10 Fusion. Da war genug Zeit sich das anzuschauen und Ähnliches zu entwickeln.
ARM macht das seit 2011 also seit 10 Jahren.
Und es ist einfach logisch, das zu machen. Jede uArch skaliert nach oben und unten eben nur begrenzt. Das in Kombination mit Amdahls Law und der Charakteristik von Anwendungen (und Spiele) fast jeglicher Art, wo es eben eine begrenzte Anzahl an Threads gibt, die zeitkritisch sind und viele weitere Nebenthreads. Da liegt es auf der Hand, früher oder später verschieden große Kerne zu kombinieren, um Perf/mm2 und Perf/W zu maximieren. Die wesentliche Hürde war sicherlich das Scheduling, damit das gut funktioniert. Das hat bei Android auch eine Weile gedauert und Inte hat sicherlich einiges an Zeit für die Hardware die das unterstützt (Thread Director) investiert.
Thunder99
2021-10-13, 12:40:37
Dann müsste ja nach der Logik bei 100Mhz der Big Core deutlich mehr verbrauchen als der Small Core bei der die Geschwindigkeit egal ist.
Hab mich ehrlich gesagt damit nicht wirklich befasst und hinterfragt (bei Android).
Monsta
2021-10-13, 14:12:55
Dann müsste ja nach der Logik bei 100Mhz der Big Core deutlich mehr verbrauchen als der Small Core bei der die Geschwindigkeit egal ist.
Hab mich ehrlich gesagt damit nicht wirklich befasst und hinterfragt (bei Android).
Es geht nicht um die Megaherz sondern allein um Arbeit die abgearbeitet werden muss. Bei Apple sind die lansamen Kerne nur ein Drittel so schnell wie die schnellen, brauchen aber nur ein Zentel der Engergie.
Es gibt viele Task die nicht zeitkritisch sind, die kann man dann mit einem Drittel des Stromvrbrauchs abarbeiten.
Die lahmen Kerne brauchen 3 mal länger, also mit 3/10 der Energie als ob man einen großen genommen hätte.
Bei einem brenzten Power und Flächenbudged macht es nur Sinn so ein Design zu verwenden. Das gilt für Notzedbook sowie Desktoprechner. Nur in anderen Dimensionen.
Lehdro
2021-10-13, 15:27:52
Ich vermute das "improved cache for gaming" sich nicht auf die Quantität bezieht bzw. nicht nur. Ich vermute das hat auch was mit der Anbindung zu tun. AMD soll den Cache zwar stapeln, bzw. die Quantität massiv erhöhen, dafür aber Latenz einbüßen. Ich vermute Intel packt es „anders herum“ an.
Wo hast du das mit der Latenz her?
AMD selber sagt folgendes:
This V-Cache chiplet is 64 MB of additional L3, with no stepped penalty on latency.
Quelle (https://www.anandtech.com/show/16725/amd-demonstrates-stacked-vcache-technology-2-tbsec-for-15-gaming)
MiamiNice
2021-10-13, 16:24:06
Reine Logik und das ein Wörtchen vor Penalty steht, deutet dies doch auch schon an.
Es gibt halt keine gestuften Nachteile ;)
Da steht eben nicht, dass der L3 generell keine Nachteile ggü. vorherigen Iterationen haben wird.
Lehdro
2021-10-13, 16:53:28
Reine Logik und das ein Wörtchen vor Penalty steht, deutet dies doch auch schon an.
Es gibt halt keine gestuften Nachteile ;)
Da steht eben nicht, dass der L3 generell keine Nachteile ggü. vorherigen Iterationen haben wird.
Die Frage war explizit so gestellt, da es um die Hierarchie ging:
Und du meinst Intel schafft eine L3 Verxfachung ganz ohne Nachteile, weil die ja zaubern können?
Dann besser noch einmal nachlesen was bei ICL zu TGL passiert ist bei den L3 Latenzen. (https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/4) Physik lässt sich nicht austricksen, AMDs weg nutzt aber immerhin alle Dimensionen um die Wege kürzest möglich zu halten.
Platos
2021-10-13, 18:11:34
Das ist immer der Vergleich zu Skylake. Nicht zu Golden Cove.
Ja, das stimmt. Seine Aussage ist aber nichts als eine Behauptung gewesen. Aber stimmt, hast recht. Wir werden es dann sehen. Seine Behauptung bleibt eben... eine Behauptung.
basix
2021-10-13, 18:26:30
del
KarlKastor
2021-10-13, 19:30:20
Ja, das stimmt. Seine Aussage ist aber nichts als eine Behauptung gewesen. Aber stimmt, hast recht. Wir werden es dann sehen. Seine Behauptung bleibt eben... eine Behauptung.
Ich stimme auch nicht zu 100% mit seiner Behauptung überein, ist zu pauschal.
Du hast aber behauptet die wären schon klar effizienter. Es ist aber alles ziemlich offen.
Aber ich denke schon, dass das Hauptaugenmerk auf eine kleine Fläche liegt und ein Golden Cove bei gleicher Performance nicht wesentlich mehr verbrät. Natürlich hat man den Kern auch möglichst effizient designed. Aber eben nicht ohne Kompromisse, er muss möglichst klein sein.
Ich bin auf jeden Fall gespannt wie Performance, Fläche und Effizienz von Gracemont aussieht.
iamthebear
2021-10-13, 21:36:09
Hab gerade erste Tests zum Surface Studio gesehen in 10 Min Cinebench Last.
Der "alte" M1 ist ca. 30% schneller und verbraucht knapp die Hälfte. Zudem drosselt sich der Intel Prozessor, wie bei AMD halt auch, wenn das Netzteil abgesteckt wird.
Intel muss da massiv aufholen, AMD ist da nur das kleinste große übel.
Habe mir ein paar Aktien gekauft, ich drücke Intel die Daumen. (:
Surface Studio? Ist da nicht ein Mobile Kaby Lake aus 2017 drin? Falls ja kein Wunder dass der furchtbar abstinkt. Wenn dann musst du den M1 zumindest mit einem aktuellen Tiger Lake antreten lassen.
Intel hat deshalb Little-Core mit eingeplant, weil das Die sonst zu groß wird. Das hat rein gar nichts mit Apple zu tun. Das Konzept, dass bei ADL umgesetzt wurde, ist sicherlich schon seit 5 Jahren in Planung. Was glaubst du, was das für Zeiträume sind? Da war Apple noch auf Intel.
Ich sehe hier auch keinen Zusammenhang. Big/Little ist die logische Konsequenz wenn man sowohl single threaded als auch multi threaded Software hat. Das ist dasselbe Problem und jeder CPU Hersteller wird früher oder später in diese Richtung gehen müssen.
https://www.hwcooling.net/en/intel-plans-raptor-lake-cpus-with-better-cache-after-alder-lake/
Da steht dann in dem Schaubild was von "improved Cache for Gaming"
Das ist mir schon klar. Aber was lässt euch glauben, dass damit mehr gemeint ist als die bereits bekannte Erhöhung des L2 von 1.25 auf 2MB?
https://www.pcgameshardware.de/CPU-CPU-154106/News/Raptor-Lake-S-Gesamte-Modelpallette-geleaked-13900K-mit-24-Kernen-und-32-Threads-1378037/
Die PC Games schreibt beim L3-Cache von 36MiByte für den 13900K und 30MiByte für den 13700K.
Der 13600L soll 24 MiByte L3 Cache haben.
Bei AL sind es glaube ich 30 für den 12900K, und 25 für den 12700k. D.h. RaptorLake hat einen 20% größeren L3 Cache.
Nach meinem aktuellen Kenntnisstand haben sowohl ADL als auch Raptor Lake physisch 3MB L3 pro Big Core bzw. pro 4 Little Cores also im Fall des 12900K 8*3+2*3=30MB bzw. 13900K 8*3+4*3=36MB
Der 13900K hat also nur mehr L3 weil er 8 Little Cores mehr hat ähnlich wie der 10900K mehr L3 hatte als der 9900K, 8700K und 7700K
Völlig absurd.
Du darfst hier nicht das Marketing für eine bestimmte Zielgruppe mit den Entscheidungen in den Entwicklungsabteilungen verwechseln.
Hier sieht man es z.B
https://edc.intel.com/content/www/us/en/products/performance/benchmarks/architecture-day-2021/
https://wccftech.com/intels-new-e-core-gracemont-and-p-core-goldencove-architectural-deep-dive/
Man sollte diese Aussagen nicht aus dem Kontext heraus gelöst betrachten. Wenn man die gesamte Präsentation gesehen hat (inkl. dem gesprochenen Text) so wird es etwas klarer.
Beispiel:
https://scr3.golem.de/screenshots/2108/Alder-Lake-Architecture-Day-2021/thumb620/2021-08-19_130654_cr.png
Die Big Cores (Cove) sind auf single threaded Performance optimiert (maximale Performance/Kern)
Die Little Cores (Mont) sind auf multithreaded Performance optimiert (maximale Performance/Fläche)
Was die Energieeffizienz der Gracemont Kerne angeht so verbrauchen diese natürlich weniger als Skylake. Das ist jedoch fertigungsbedingt mit ausgereiften 10nm (Intel 7) statt der damals noch relativ frühen 14nm Fertigung.
Die Energieeffizienz wird erst dadurch erreicht, dass man auf derselben Fläche dann mehr Kerne hat, die man theoretisch niedriger takten könnte. Ob man das tut ist wieder eine andere Frage.
Zur Energieeffizienz von Big vs. Little Cores pro Kern (linke Seite):
https://pics.computerbase.de/1/0/0/1/4/4-60ae88a97ab688d0/8-1080.6d3168ff.jpg
Hier sieht man, dass im gesamten High Performance Bereich (ca. > 3GHz) die Big Cores bei selber Verlustleistung mehr Performance liefern und somit energieeffizienter sind als die Little Cores.
Das ganze kehr sich erst in einem MT Szenario um (rechte Seite), wo durch mehr Kerne (2+8 vs. 4+0) mehr Performance bei selber Verlustleistung geliefert werden kann.
Ich vermute das "improved cache for gaming" sich nicht auf die Quantität bezieht bzw. nicht nur. Ich vermute das hat auch was mit der Anbindung zu tun. AMD soll den Cache zwar stapeln, bzw. die Quantität massiv erhöhen, dafür aber Latenz einbüßen. Ich vermute Intel packt es „anders herum“ an.
Der L2 wächst von 1.25MB auf 2MB pro Kern. Das ist doch schon lange bekannt. Dass Intel wie AMD noch 64/128MB L3 (oder L4) dazu klebt glaube ich ehrlich gesagt nicht zumindest nicht mit Raptor Lake.
*Spekulationsmodus on*
Ich kann mir gut vorstellen, dass die "Verbesserung“ über den Thread Director geschieht sodass Threads so verteilt werden, dass sie wieder auf ihren bekannten Kernen landen, wo alle ihre Daten im L2 liegen.
2MB L2 pro Kern ist soviel wie es aktuell (Rocket Lake) L3 gibt.
Würde es gelingen, dass Threads immer wieder auf dieselben Kerne zurückkehren so könnten die 2MB L2 genauso verwendet werden wie bisher der L3 nur mit einem 5tel der Latenz.
*Spekulationsmodus off*
Linmoum
2021-10-13, 21:53:07
Angeblich FH4 integrierter Benchmark: https://twitter.com/9550pro/status/1448310872812650510
CPU Render (min/avg/max):
12900K: 195/229/247
5950X: 184/218/237
CPU Simulation (min/avg/max):
5950X: 316/425/533
12900K: 308/384/454
KarlKastor
2021-10-13, 23:28:55
Zur Energieeffizienz von Big vs. Little Cores pro Kern (linke Seite):
https://pics.computerbase.de/1/0/0/1/4/4-60ae88a97ab688d0/8-1080.6d3168ff.jpg
Hier sieht man, dass im gesamten High Performance Bereich (ca. > 3GHz) die Big Cores bei selber Verlustleistung mehr Performance liefern und somit energieeffizienter sind als die Little Cores.
Man schaue auf die Fußnote. Außer den Zahlen auf der Folie kann man rein gar keine Informationen rausziehen.
Slipknot79
2021-10-14, 00:45:30
Was sind das immer für Korinthenkack Leaks von Benchmarks.
Man muss schon meinen, dass vor jedem CPU-Launch immer der "gleiche" Shice gebencht wird, als ob der "Leak" ein versteckter Marketing-Move vom Hersteller ist und der Hersteller vorgibt, was "geleakt" werden darf durch immer die selben Twitterer. :redface:
matty2580
2021-10-14, 07:49:50
Alder Lake ist der Befreiungsschlag für Intel, endlich in Intel 7 im Desktop-Bereich, und neuer Architektur.
Aber schon in 1 1/2 Jahren soll Meteor Lake kommen, in Intel 4.
Alder Lake und Refresh haben also keine lange Lebensdauer.
basix
2021-10-14, 08:02:49
Das erstaunt mich auch am meisten: Alder Lake im November, Raptor Lake nächsten Herbst und Meteor Lake bereits in H1/2023. Intel drückt auf die Tube.
matty2580
2021-10-14, 08:05:17
Und die Produktion in Intel 4 läuft schon längst, wenn auch nur für kleine Chips, für neuronale Netzwerke.
Hier geht es "nur" noch um Optimierungen, um die Yields zu verbessern.
dildo4u
2021-10-14, 08:11:23
Wenn Apple in 4 Tagen den 10 Core bringt wirds düster daher wundert mich das Tempo nicht.
https://youtu.be/vRzolR9DeLk?t=869
30% mehr Leistung halber Verbrauch.
Thunder99
2021-10-14, 09:33:46
Big Little mag für Mobile und Laptop gut sein, aber für Desktop bin ich skeptisch.
Warum hat wohl Intel bei den Server CPUs nur die Big Cores in Verwendung? Dort braucht man maximale Leistung, bei anderen Plattformen wohl nicht (mehr).
Sweet point sind 8 dicke Kerne, für mehr hat es nicht gelangt bei Intel für die Fläche?
BlacKi
2021-10-14, 09:46:49
Wenn Apple in 4 Tagen den 10 Core bringt wirds düster daher wundert mich das Tempo nicht.
https://youtu.be/vRzolR9DeLk?t=869
30% mehr Leistung halber Verbrauch.
nur leider ziemlich nutzlos ohne nativem windows und linux.
WedgeAntilles
2021-10-14, 10:24:48
Nach meinem aktuellen Kenntnisstand haben sowohl ADL als auch Raptor Lake physisch 3MB L3 pro Big Core bzw. pro 4 Little Cores also im Fall des 12900K 8*3+2*3=30MB bzw. 13900K 8*3+4*3=36MB
Der 13900K hat also nur mehr L3 weil er 8 Little Cores mehr hat ähnlich wie der 10900K mehr L3 hatte als der 9900K, 8700K und 7700K
Oh, danke für den Hinweis. Das war mir nicht aufgefallen.
Aber wenn der zusätzliche Cache bei AMD so viel bringen wird wie hier vermutet - wieso sollte Intel das eigetnlich nicht auch machen?
Ist das so aufwändig in die Architektur zu integrieren, dass man da mehrere Jahre Vorlaufzeit braucht und RocketLake daher einfach zu früh kommt?
Ich verstehe ehr nicht, weshalb der L2 so krass vergrößert wird. Weshalb nicht 512kb mit möglichst niedriger Latenz und einen fetten Last-Level Cache? Aber gut... die werden das schon simulieren.
BlacKi
2021-10-14, 11:47:40
die e cores werden auf jeden fall in games mit belastet. vermutlich wegen windows 10.
https://cdn.videocardz.com/1/2021/10/CapFrameX-12900K-Leak.jpg
https://videocardz.com/newz/capframex-benchmarking-software-officially-support-intel-core-i9-12900k-cpu
Der_Korken
2021-10-14, 11:59:08
Ich verstehe ehr nicht, weshalb der L2 so krass vergrößert wird. Weshalb nicht 512kb mit möglichst niedriger Latenz und einen fetten Last-Level Cache? Aber gut... die werden das schon simulieren.
Der L2 von Willow Cove war mit 14 Takten ja noch relativ schnell. Sunny Cove hatte trotz 512kB auch 13 Takte, weil sich der L1 von 4 auf 5 Takte verlangsamt hat (und die Caches nacheinander durchsucht werden). AMD hatte damals mit Zen+ die L2-Latenz von 17 auf 12 Takte gesenkt, aber das schien kaum Einfluss auf die Performance gehabt zu haben. In Anwendungen kaum IPC-Gewinn, in Spielen größtenteils durch die zusätzlich um ~7ns gesenkten Speicherlatenzen.
r3ptil3
2021-10-14, 12:43:55
https://cdn.wccftech.com/wp-content/uploads/2021/10/Intel-Core-i9-12900K-Alder-Lake-CPU-Benchmarks-_-3DMark-Time-Spy.jpg
Na gut, in dem Fall wohl bald wieder die Plattform wechseln. :usad:
https://wccftech.com/more-intel-core-i9-12900k-alder-cpu-synthetic-gaming-benchmarks-leak-out/
Radeonfreak
2021-10-14, 12:54:09
Du spielst 3Dmark und hast vor sinnlos Schotter zu verpulvern? :freak:
DeadMeat
2021-10-14, 12:59:40
Nichtmal 14k als Score beim 5950x in Timespy? Wo kommen denn die Werte auf der wccftech Seite her, vermutlich mit HT gebencht oder sowas.
Davon mal abgesehen schon sehr ordentlich wenn auch nicht sehr aussagekräftig gerade im Vergleich mit dem FH4 Bench auf der gleichen Seite.
Radeonfreak
2021-10-14, 13:01:44
Ja, viel zu niedrig. ich hab ja schon fast 14000 mit meinem 3900x.
Aaaalso Timespy ist ja toll, aber spieletechnisch ist das zwar schneller als Zen3, aber hey, das ist echt wenig, oder täusche ich mich? Bei den Settings schafft man bei SotTR über 100FPS mit nem 5800X. Ich würd sagen, da kann Zen3D gefahrlos in Führung bleiben bei echten Games.
DeadMeat
2021-10-14, 13:17:58
Gabs nicht einen Leaker der meinte die Spiele Performance wäre nicht so stark wie die Produktiv Performance?
Was sich bisher so abzeichnet scheint das auf eine Interessante Situation hinaus zu laufen bei dem es selbst innerhalb von großen Anwendungsgebieten unterschiedliche Leistungsieger geben wird.
Toll wenn das zu besseren Preisen führen würde und ich wieder wie bei meinem 10900f ein tolles schnäppchen machen könnte wenn der irgendwann nimmer reicht :D
Das würd ich ähnlich bewerten. Wenn die blöde Fertigungsknappheit nicht wäre, würden Preise gut sein. So ist das für beide Hersteller der Candystore. Hohe Preise trotz guter Konkurrenzsituation.
Freestaler
2021-10-14, 13:57:35
Naja, 17000+ ist doch ein gutes Resultat, + 20% zum 11900k im Timespy. Klar f4h ist schwach, kann aber genauso ein Ausreiser sein, wer weiss welchen Win11- und Gameversion.
Sehe jetzt da noch keine Bestätigung für nen Spielschwäche, gegenteil. Hier sollte auch TDP limit nicht so arg einfluss haben wie bei den Applikationbenchmark.
WedgeAntilles
2021-10-14, 14:14:30
Aaaalso Timespy ist ja toll, aber spieletechnisch ist das zwar schneller als Zen3, aber hey, das ist echt wenig, oder täusche ich mich? Bei den Settings schafft man bei SotTR über 100FPS mit nem 5800X. Ich würd sagen, da kann Zen3D gefahrlos in Führung bleiben bei echten Games.
Du hast ja auch ne 6800 - war der Bench nicht (wie der Timespy auch) mit der RT6600? In wie fern mit dieser GraKa ein CPU Bench überhaupt möglich sein weiß ich nicht.
IMO sind diese Werte noch reichlich nutzlos und ohne große Aussagekraft.
PatkIllA
2021-10-14, 14:15:38
Weiss man eigentlich was bzgl der Grafikeinheit?
HDMI 2.1 und DisplayPort 2.0 würde mich interessieren.
AV1 Decoding würde schon in der 11. Generation unterstützt?
davidzo
2021-10-14, 15:16:59
Weiss man eigentlich was bzgl der Grafikeinheit?
HDMI 2.1 und DisplayPort 2.0 würde mich interessieren.
AV1 Decoding würde schon in der 11. Generation unterstützt?
Maximal 32EU Intel HD Gen 12.2. Wie bei Tigerlake-H wird es vermutlich auch 16EU Varianten geben wie beim i5-11400H, und später vllt. bei i3s, wenn diese denn kommen. Überwiegend werden es aber wohl die vollen 32EUs sein.
Zumindest von der Versionsnummer ist die ADL-S GPU aber ein Rückschritt gegenüber den G12.5 Grafik in Tigerlake-H.
Bei Tigerlake-H steht:
4x Display out
2x Displayport 1.4b
8K60 HDR
Dual AV1 Decode
Bei Alderlake-P sind es plötzlich nur noch 1x Displayport 1.4B und "av1 accelerated encode" sowie kein 8K60 HDR support mehr.
Außerdem fällt wohl der VP8 Codec support ebenfalls weg, den Tigerlake noch hatte.
Hier die volle Liste: https://videocardz.com/newz/intel-media-driver-gets-alder-lake-s-gen12-integrated-gpu-support
Vom featurelevel liegt ADL also zwischen Rocketlake gen 12.1 und der neueren Tigerlake-H Gen12.5. Das macht zumindest Hoffnung auf besseren Treibersupport als Tigerlake-H out of the box.
DG2 sind Gen 12.71 und PV 12.72.
Ich denke das ist eine sparsame Officegrafik, daher cutdown gegenüber der mobile CPU und geradeso auf einem level mit Rocketlake.
BTW: Für DP2.0 wird Intel den OEMs wohl die entrylevel DG2-128 bzw 96EU pitchen.
Wenn die IGP das schon bieten würde, hat man weniger OEM sales von GPUs. Und die Verfügbarkeit von DG2-128 soll ja laut Gerüchten gut sein, bzw. der Launch auch schon vor der Performance-class DG2-GPU stattfinden. Selbst wenn die Treiber/gamingleistung dann noch nicht so überzeugend ist, ist das featureset dann ein wichtiges Argument dafür Notebooks und Desktops mit dieser Karte anzubieten, gerade im Businessbereich.
Zumindest von der Versionsnummer ist die ADL-S GPU aber ein Rückschritt gegenüber den G12.5 Grafik in Tigerlake-H.
Bei Tigerlake-H steht:
4x Display out
2x Displayport 1.4b
8K60 HDR
Dual AV1 Decode
Bei Alderlake-P sind es plötzlich nur noch 1x Displayport 1.4B und "av1 accelerated encode" sowie kein 8K60 HDR support mehr.
Außerdem fällt wohl der VP8 Codec support ebenfalls weg, den Tigerlake noch hatte.
Hier die volle Liste: https://videocardz.com/newz/intel-media-driver-gets-alder-lake-s-gen12-integrated-gpu-support
Vom featurelevel liegt ADL also zwischen Rocketlake gen 12.1 und der neueren Tigerlake-H Gen12.5. Das macht zumindest Hoffnung auf besseren Treibersupport als Tigerlake-H out of the box.
DG2 sind Gen 12.71 und PV 12.72.
DG2 ist Gen12_55. TGL-H und TGL-U sind Gen12_1, das ist also kein Rückschritt. Auch hat TGL-H keine doppelte VDBox, das haben nur die GT2 Varianten.
davidzo
2021-10-14, 18:31:17
DG2 ist Gen12_55. TGL-H und TGL-U sind Gen12_1, das ist also kein Rückschritt. Auch hat TGL-H keine doppelte VDBox, das haben nur die GT2 Varianten.
Die Rede ist nicht von TGL-U, sondern von TGL-H. Die Rede war doch von Alderlake-S, also einer 16C 24T Desktop CPU. Der Vergleich ist da eher zu Rocketlake zu ziehen, aber auch Tigerlake-H (im Desktop der 11900kb).
Was die Gens angeht steht hier was anderes (und das wurde aber von anderen leakern bzw. dem macOS Treiberblob + Linuxtreibern weitgehend confirmed):
https://old.reddit.com/r/intel/comments/jm3u58/lunar_lake_goldwater_lake_jupiter_sound_and_dg3/
DG2 ist Gen12.71
12.5 ist Arctic Sound (1-4tile HPC)
TGL-H ist auch 12.5.
RKL und TGL-U sind 12.1
ADL ist 12.2
Anbei die Folie wo von 2x AV1 Decodern bei TGL-H die rede ist. Btw. es sieht so aus als wenn auch ADL-P, also das mobile Design diesmal nur 1x AV1 bekommt und auch kein VP8 mehr. Entweder ist das eine Fehlinformation, oder das hängt tatsächlich mit der Schaffung besserer Absatzbedingungen für DG2-mobile zusammen.
davidzo
2021-10-14, 18:52:21
Nicht viel neues, aber ich glaub das hatten wir noch nicht:
https://twitter.com/yuuki_ans/status/1445979938809475073/photo/2
1. Erst mit DDR5-5400 erreicht ADL die performance von hochgetaktetem DDR4. (was ist die referenz - DDR4-3600/3800/4000?)
2. Man sollte daher mindstens auf DDR5 6400 gehen, sonst gäbe es keinerlei Performancegewinne. Diese zeigen sich erst mit noch höheren Taktraten so langsam.
3. DDR4 mit Gear1 wird empfohlen wenn man ohne Übertaktung gute Speicherperformance möchte. DDR5 ist bei den höheren Taktraten noch nicht stabil und bisher nur für overclocker empfohlen die das neueste testen wollen, für Games sollte man schon 6000mhz+ haben.
4. Große Kerne können nicht abgeschaltet werden, die kleinen schon.
5. Windows 11 ist dringend empfohlen. Eine Optimierung des Win10 Schedulers könnte noch sehr lange dauern.
Anscheinend läuft DDR5 per default immer in G4 und selbst bei G2 bräuchte man Taktraten über 6Ghz um den IMC auf vergleichbare Latencies wie DDR4+G1 zu bekommen. Für OC-rekordversuche beim Speichertakt okay, aber für Spiele nicht empfehlenswert.
Linmoum
2021-10-14, 19:13:22
Zu 2.: Es sind offiziell nur DDR5-4800. 6400 ist der maximal spezifiziere JEDEC-Standard, ADL unterstützt mit 4800 nur den geringsten Standard.
Edit: Toll, schon geändert. Hab ich wohl zu lange gebraucht. :D
Dass DDR5 keine Offenbarung sein würde, war abzusehen. Wie sehr ADL unter Win10 leidet, wird interessant zu sehen sein. Win11 in diesem Zustand kann man sich nicht freiwillig antun wollen.
davidzo
2021-10-14, 19:27:09
Ja, das deckt sich mit den neuen Infos aus den chinesischen Foren: https://www.bilibili.com/read/cv13557967
Da ist sogar die Rede von minimal DDR5-8000 um ein Leistungsplus zu bekommen.
- Für OC sollte man die kleinen cores disablen. Die großen kommen dann auf 5.2-5.3Ghz
- Intel nutzt wieder FIVR für den CPU-part (Broadwell und Haswell lassen grüßen), nachdem die skylakebasierten CPUs das nicht mehr hatten.
- Der DDR4 Controller könnte besser sein. 3600 laufen out of the box, aber 3866 braucht schon mehr voltage
- DDR5 läuft im Gear2 oder Gear4 Modus und ist auch nicht besonders optimiert.
- Latenz soll mit DDR5 40% höher sein als mit DDR4 bei gleichen cl specs.:freak:
Den Rest erspare ich euch, ist mist dabei was eventuell nur ES betraf oder unfertige Firmwar. Etwas dass Win10 nur die kleinen Cores benutzen würde, Games auch in Win11 die kleinen cores disablen (ist bereits als fake entlarvt) und wen interessiert das CS:Go 50% mehr FPS als ein 5950x hat?
Dass DDR5 keine Offenbarung sein würde, war abzusehen. Wie sehr ADL unter Win10 leidet, wird interessant zu sehen sein. Win11 in diesem Zustand kann man sich nicht freiwillig antun wollen.
Ja genau! Wo ist eigentlich Blacki?
Merkwürdig dass der sich gerade so verkriecht, sonst ist der doch hier immer so aktiv ;D
Der will wohl die Entschuldigung vermeiden die er uns jetzt schuldig ist. :tongue:
Die Rede ist nicht von TGL-U, sondern von TGL-H. Die Rede war doch von Alderlake-S, also einer 16C 24T Desktop CPU. Der Vergleich ist da eher zu Rocketlake zu ziehen, aber auch Tigerlake-H (im Desktop der 11900kb).
Vielleicht war es undeutlich, die entsprechende Stelle hervorgehoben:
DG2 ist Gen12_55. TGL-H und TGL-U sind Gen12_1, das ist also kein Rückschritt. Auch hat TGL-H keine doppelte VDBox, das haben nur die GT2 Varianten.
Was die Gens angeht steht hier was anderes (und das wurde aber von anderen leakern bzw. dem macOS Treiberblob + Linuxtreibern weitgehend confirmed):
https://old.reddit.com/r/intel/comments/jm3u58/lunar_lake_goldwater_lake_jupiter_sound_and_dg3/
DG2 ist Gen12.71
12.5 ist Arctic Sound (1-4tile HPC)
TGL-H ist auch 12.5.
RKL und TGL-U sind 12.1
ADL ist 12.2
DG2 ist Gen12_55:
DG2 has Xe_LPD display (version 13) and Xe_HPG (version 12.55) graphics.
https://github.com/grate-driver/linux/commit/9e22cfc5e9b92556a56d8a564cdab31045f29010
TGL-H und TGL-U sind beide Gen12_1, keine Ahnung wie du da auf Gen12_5 kommst. TGL-U hat eine GT2 Version von Gen12_1 und TGL-U die GT1 Version mit weniger EUs und nur einer VDBOx. Achso von dem reddit link, also das ist ja Quatsch. TGL-H die selbe Version wie Artic Sound und 12HP, ja macht voll Sinn. Das eine ist Gen12 LP, das andere Gen12 HP(G), schon rein von der Logik kann das nicht stimmen. edit: weiter unten bei Gen12 and Gen13 summary steht es richtig geschrieben im reddit Link.
Anbei die Folie wo von 2x AV1 Decodern bei TGL-H die rede ist.
Dann kannst du die Folie vergessen, die ist falsch. AV1 Encoding gibt es nicht bei TGL-H. Also besser vergessen die Folie.
iamthebear
2021-10-14, 22:51:24
Wenn Apple in 4 Tagen den 10 Core bringt wirds düster daher wundert mich das Tempo nicht.
https://youtu.be/vRzolR9DeLk?t=869
30% mehr Leistung halber Verbrauch.
Hhm anscheined steckt im Surface doch ein Tiger Lake.
Was den Energieverbrauch angeht: Das ist eben trotzdem noch eine 5nm CPU mit einem Design das extra für niedrige Verlustleistung ausgelegt ist.
Bezüglich der 30% mehr Leistung ist die Frage, ob dies mit im SC Benchmark immer noch so aussieht. Apple hat hier halt 8 echte Kerne (auch wenn es 4 Little Cores sind) während es bei Intel nur 4 mit SMT sind aber ich bin gespannt wie der Vergleich mit Alder Lake 2+8 aussieht.
Big Little mag für Mobile und Laptop gut sein, aber für Desktop bin ich skeptisch.
Warum hat wohl Intel bei den Server CPUs nur die Big Cores in Verwendung? Dort braucht man maximale Leistung, bei anderen Plattformen wohl nicht (mehr).
Sweet point sind 8 dicke Kerne, für mehr hat es nicht gelangt bei Intel für die Fläche?
Ich denke das hat eher folgende Gründe:
a) Der Scheduler macht das nicht mit. Saphire Rapids soll bis zu 56 Kerne haben. Mit 2 Sockeln sind das schon mal 112.
Würde man stattdessen auf Little Cores setzen hätte man 448 Little Cores.
b) Software wird in Zeiten von Virtualisierung oft nicht mehr pro CPU sondern pro virtuallem Kern lizenziert. Hat man doppelt so viele Kerne mit der halben Performance kann das schnell teuer werden.
c) Big/Little ist auch nicht so einfach wenn man es mit virtualisierten Servern zu tun hat. Das Gast OS bekommt ja gar nichts davon mit, dass hiere einige Kerne langsamer sind als andere. Besonders wenn es um ein Cloud System geht, wo nach CPU Stunden abgerechnet wird stelle ich mir das problematisch vor wenn der Kunde nicht weiß was er bekommt.
Aber wenn der zusätzliche Cache bei AMD so viel bringen wird wie hier vermutet - wieso sollte Intel das eigetnlich nicht auch machen?
Ist das so aufwändig in die Architektur zu integrieren, dass man da mehrere Jahre Vorlaufzeit braucht und RocketLake daher einfach zu früh kommt?
Die große Errungenschaft des VCache ist nicht so sehr, dass der obendrauf gepappt werden kann, sondern dass es AMD geschafft hat bei diesem die Speicherdichte zu verdoppeln. Man kann 64MB auf derselben Fläche herstellen, auf der man normalerweise nur 32MB bekommt. Erst das macht das Ganze einigermaßen wirtschaftlich.
Aber trotzdem: Man braucht pro Chip nun 120mm² statt 80mm² also 50% mehr Fläche und bekommt dafür 10-15% mehr Leistung in Spielen. Bei anderen Anwendungen wird es vermutlich sehr viel weniger sein.
Zum Vergleich:
Rocket Lake hat die Fläche pro Kern um nur 25% erhöht (der Rest bzw. Großteil war die neue iGPU). Dafür hat man 10-15% mehr Performance pro Kern bekommen und zwar sowohl in Spielen als auch in Anwendungen.
Ich verstehe ehr nicht, weshalb der L2 so krass vergrößert wird. Weshalb nicht 512kb mit möglichst niedriger Latenz und einen fetten Last-Level Cache? Aber gut... die werden das schon simulieren.
Also ich denke nicht, dass mit 256KB die Latenzen so viel geringer ausfallen würden. Laut den AIDA Benchmarks hat der 12600K 2 Takte weniger L2 Latenz (12 Takte) als mein 9900K (14 Takte).
Der Hauptgrund für die deutlich höhere Latenz des L3 liegt darin, dass dieser über alle Kerne geteilt werden muss während der L2 privat ist.
Bezüglich des "fetten" LLC: Dieser braucht dann aber dementsprechend viel Chipfläche, was die Kosten in die Höhe treibt. Ein Großteil der verkauften CPUs sind weiterhin Quad Cores im Notebook bzw. 6 Kerner im Desktop. Der fette acache würde bedeuten, dass Intel beim 12400/12600 wieder zurück zu 4 Big Cores gehen müsste. Macht das wirklich Sinn?
die e cores werden auf jeden fall in games mit belastet. vermutlich wegen windows 10.
https://cdn.videocardz.com/1/2021/10/CapFrameX-12900K-Leak.jpg
https://videocardz.com/newz/capframex-benchmarking-software-officially-support-intel-core-i9-12900k-cpu
Davon bin ich eigentlich ausgegangen. Die Hoffnung ist nur, dass MS dem Druck der Firmen bäugt und doch noch beim Win10 Scheduler etwas nachbessert. Schließlich will MS 2022 ja noch einmal eine Win10 basierte LTSC Version auf den Markt bringen. Bis 2025 keine neuen CPUs zu unterstützen wäre ein heftiger Fail.
Angeblich FH4 integrierter Benchmark: https://twitter.com/9550pro/status/1448310872812650510
CPU Render (min/avg/max):
12900K: 195/229/247
5950X: 184/218/237
CPU Simulation (min/avg/max):
5950X: 316/425/533
12900K: 308/384/454
Es wurde mit einer RX 6600 unter 1080p getestet. Ich kann mir gut vorstellen, dass das großteils GPU limitiert war.
Man schaue auf die Fußnote. Außer den Zahlen auf der Folie kann man rein gar keine Informationen rausziehen.
Ja und die 2 Grafiken sollen genau das illustrieren, was ich geschrieben habe:
.) Unter ST Last liefern die Big Cores mehr Performance bei gleicher Verlustleistung
.) Unter MT Last liefert Big/Little jedoch mehr Performance bei gleicher Verlustleistung als wenn nur Big Cores verwendet würden.
Abgesehen davon sind die Grafiken trotzdem maßstabsgetreu denn wenn man nachmisst decken sich alle Grafiken untereinender selbst eventübergreifend.
Raja Kudori hat hier eine gute Analogie gebracht:
Das Big/Little das wird von ARM kennen ist so wie ein hybrides Auto im Straßenverkehr. Die Big Cores ist der Dieselmotor, der für hohe Last auf der Autobahn gut ist während der Elektromotor den Verbrauch in der Stadt senkt, wenn wenig Leistung erforderlich ist.
Das was Intel mit Big/Little macht ist ein Formel 1 Auto: Der Elektromotor (die Little Cores) sind für die schnelle Beschleunigung aus den Kurven (hohe Multi Core Last), was man mit dem Dieselantrieb (Big Cores) nicht schafft.
Nightspider
2021-10-15, 01:18:54
Ich würde sagen Zen4 und Zen3D beißen sich an Raptor im Gaming Betrieb die Zähne aus.
Bist schon so ein Fanboy. ^^
Und was redest du da von schlechterer Latenz beim V-Cache obwohl das sogar von offizieller Seite heißt, das die Latenz gleich bleibt?
Da Raptor Lake nur ein Jahr nach ADL kommt wird das wahrscheinlich auch eher einen kleinen Sprung geben.
Vielleicht gibts bei Zen4 dann schon die 2. Stufe von V-Cache mit 2 zusätzlichen Layern bei gleicher Latenz.
Es ist total blödsinnig darüber zu spekulieren ob AMD oder Intel in 12-15 Monaten schneller sein wird, ohne das wir wirkliche Fakten haben.
Auf der objektiven Seite hat AMD aber etliche Punkte wo man vorne liegt:
-TSMCs überlegener N5(HPC) Fertigungsprozess
-Branchenführende Stackingtechnologie
Und vor einigen Monaten kamen angebliche Leaks das Zen4 wohl 40% schneller werden soll.
Obs stimmt muss sich zeigen.
matty2580
2021-10-15, 08:09:17
Jetzt zieht Intel nach mit Alder Lake in Intel 7, wird wahrscheinlich schneller sein als AMD, und einige Zeit später AMD mit Zen 4 in TSMCs N5, und dann wieder Intel mit Meteor Lake in Intel 4.
Unterm Strich wird es dauerhaft nicht den einen Gewinner geben.
Nur das Intel nach wie vor deutlich größer ist als AMD, und viele OEMs hauptsächlich auf Intel setzen.
Zossel
2021-10-15, 08:16:09
b) Software wird in Zeiten von Virtualisierung oft nicht mehr pro CPU sondern pro virtuallem Kern lizenziert. Hat man doppelt so viele Kerne mit der halben Performance kann das schnell teuer werden.
Yeah, ein fetter Clusterfuck!
c) Big/Little ist auch nicht so einfach wenn man es mit virtualisierten Servern zu tun hat. Das Gast OS bekommt ja gar nichts davon mit, dass hiere einige Kerne langsamer sind als andere. Besonders wenn es um ein Cloud System geht, wo nach CPU Stunden abgerechnet wird stelle ich mir das problematisch vor wenn der Kunde nicht weiß was er bekommt.
Ähnliches gibt ja jetzt schon mit SMT, besonders pervers ist da AIX.
Komplexe Kosten- und Lizenz-Modelle die auch der Hersteller nicht versteht sind was tolles. :-) Dann dauern Preisverhandlungen endlich noch länger.
iamthebear
2021-10-15, 08:43:01
Sofern SMT überhaupt aktiviert ist. Spätestens seit Meltdown & Co ist das zumindest bei großen Cloudsystemen wo unterschiedliche Kunden Vollzugriff auf ihre virtuellen Maschinen haben sollte das eigentlich deaktiviert sein.
Ein weiteres Problem der Little Cores: Diese bieten doppelte MT Performance auf derselben Fläche allerdings auch zur selben Verlustleistung solange man sie nicht auf unter 1.5 bis 2 GHz runter taktet und dann ist die SC Performance doch schon echt mager. Selbst Server haben auch so manche ST Workloads und sei es nur ein Update.
Zossel
2021-10-15, 09:15:05
Sofern SMT überhaupt aktiviert ist. Spätestens seit Meltdown & Co ist das zumindest bei großen Cloudsystemen wo unterschiedliche Kunden Vollzugriff auf ihre virtuellen Maschinen haben sollte das eigentlich deaktiviert sein.
Ich bin da nicht auf dem aktuellen Stand, reichen die derzeitigen Mitigationen nicht aus?
Sidechannel- und Timing-Attacken gehen bei gemeinsamen Caches auch über unterschiedliche Cores.
Nightspider
2021-10-15, 10:35:31
Jetzt zieht Intel nach mit Alder Lake in Intel 7, wird wahrscheinlich schneller sein als AMD, und einige Zeit später AMD mit Zen 4 in TSMCs N5, und dann wieder Intel mit Meteor Lake in Intel 4.
Unterm Strich wird es dauerhaft nicht den einen Gewinner geben.
Nur das Intel nach wie vor deutlich größer ist als AMD, und viele OEMs hauptsächlich auf Intel setzen.
Ich denke auch das es mittelfristig wieder ein Kopf an Kopf rennen werden könnte.
Aber für mich ist Intels 7N Prozess immer noch ein umgelabelter verbesserter 10nm++ Prozess.
Intel hats es gefühlt 10 Jahre lang im Foundry Geschäft verkackt. Ob Intels 7nmm und 5nm Prozesse so gut werden wie die Namen suggerieren müssen wir abwarten.
Ich gehe Ende 2023 von ersten AMD 3nm Produkten aus oder wenigstens in 4nm.
Das selbst 2022 nicht nur Apple Produkte in 3nm kommen hat gestern auch TSMC quasi bestätigt. Da halte ich 2023 mit ersten AMD Produkten in 3nm für möglich, selbst wenn es nur kleinere Compute Chiplets sind.
Das werden straffe Jahre bei Intel und AMD.
Wir Konsumenten gewinnen so oder so. Ob nun Intel oder AMD 10% vorne liegt kann bei den zu erwartenden Sprüngen fast egal sein.
MiamiNice
2021-10-15, 10:39:19
Bist schon so ein Fanboy. ^^
Falls Du Single Thread Fanboy meinst, ja das bin ich.
Und was redest du da von schlechterer Latenz beim V-Cache obwohl das sogar von offizieller Seite heißt, das die Latenz gleich bleibt?
Falls Du Dich auf das bereits gepostete Zitat beziehst, nein das steht da nicht.
Da Raptor Lake nur ein Jahr nach ADL kommt wird das wahrscheinlich auch eher einen kleinen Sprung geben.
Gaming Cache?
Es ist total blödsinnig darüber zu spekulieren ob AMD oder Intel in 12-15 Monaten schneller sein wird, ohne das wir wirkliche Fakten haben.
Wir sind doch hier im Spekulationsforum, oder nicht? Spekulieren funktioniert über Erfahrungen die man mit xy oder z gesammelt hat, in diesem Fall AMD. Du bist ja auch schon ein paar Tage länger dabei und müsstest wissen das AMD nur eine Randerscheinung im Markt ist. AMD taugt dafür jede Dekade mal für ein paar Jahre mit einem Produkt den absoluten Marktführer unter Druck zu setzen und dann wieder in der Versenkung zu verschwinden. Warum sollte es jetzt anders sein? Das ist so etwas wie David vs. Goliath als moderne Satire. Macht AMD eigentlich noch immer weniger Umsatz als Intel Gewinn macht? Diese Rennen kann und konnte AMD nie gewinnen. Es ist historisch gesehen wieder an der Zeit das AMD versagt.
Auf der objektiven Seite hat AMD aber etliche Punkte wo man vorne liegt:
-TSMCs überlegener N5(HPC) Fertigungsprozess
-Branchenführende Stackingtechnologie
Und vor einigen Monaten kamen angebliche Leaks das Zen4 wohl 40% schneller werden soll.
Obs stimmt muss sich zeigen.
Auf der objektiven Seite ist AMD ggü. Intel noch immer eine Garagenfirma die im Hinterhof hausiert allerdings den Vorteil hat beim besten Fertiger der Welt fertigen zu dürfen. Auch das kann sich wieder ändern.
Platos
2021-10-15, 11:03:45
AMD wird sicherlich bis mind. 2024/25 nicht "Versagen", würde ich jetzt mal spekulieren ;)
BlacKi
2021-10-15, 11:05:19
Ja genau! Wo ist eigentlich Blacki?
Merkwürdig dass der sich gerade so verkriecht, sonst ist der doch hier immer so aktiv ;D
Der will wohl die Entschuldigung vermeiden die er uns jetzt schuldig ist. :tongue:
wo soll ich sein? ich bin nicht always on, nur zu unregelmäßigen zeiten.
leaks sind leaks. es gibt gute und schlechte.
meine antwort ist : 27-28 October
noch genauer :November 4 (https://www.pcgamesn.com/intel/alder-lake-i9-12900k-november-release)
davidzo
2021-10-15, 11:07:28
b) Software wird in Zeiten von Virtualisierung oft nicht mehr pro CPU sondern pro virtuallem Kern lizenziert. Hat man doppelt so viele Kerne mit der halben Performance kann das schnell teuer werden.
Das ist ein guter Punkt, bezieht sich aber eben nur auf den SMB und vielleicht noch Financial Markt den Intel mit den Xeons ohnehin noch gut im Griff hat. Für Hyperscaler und HPC ist das ohne Bedeutung.
Für Hyperscaler bedeutet das nichts, weil die ihr softwarökosystem in der Hand haben. Das sind ja auch genau jene welche jetzt schon ARM einsetzen. Klar, der Markt ist nicht so Margenstark, aber durch die Stückzahlen extrem bedeutsam und hat viel Wachstum im Gegensatz zu SMB. Wenn man da ganz bewusst für einige Generationen nicht mitmischt, ist man irgendwann ganz raus.
Für HPC zählt ohnehin nur Interconnect (multi core/node/rack scaling) und Energieeffizienz und den Financial Markt hat AMD mit den High-Cache low corecount Versionen fest im Griff. Da gibt es aktuell keinen Xeon der bei Latencies und per Core performance auch nur halbwegs in die Nähe der AMD CPUs kommt. Wer weiß ob SR das ändern kann, zumal der gegen Epyc 3D antritt.
Insofern wäre das ziemlich unklug sich mit SR nur auf den per core licensing SMB markt einzuschießen. Der mag vom Profit noch am Größten sein, aber das ist eben auch in schrumpfender Markt von gestern...
https://github.com/grate-driver/linux/commit/9e22cfc5e9b92556a56d8a564cdab31045f29010
Anscheinend verwenden MacOS Treiberblob und die Linuxtreiber abweichende Versionsnummern.
Platos
2021-10-15, 11:32:00
Zu 2.: Es sind offiziell nur DDR5-4800. 6400 ist der maximal spezifiziere JEDEC-Standard, ADL unterstützt mit 4800 nur den geringsten Standard.
Edit: Toll, schon geändert. Hab ich wohl zu lange gebraucht. :D
Dass DDR5 keine Offenbarung sein würde, war abzusehen. Wie sehr ADL unter Win10 leidet, wird interessant zu sehen sein. Win11 in diesem Zustand kann man sich nicht freiwillig antun wollen.
Es war auch schon bei DDR4 so, dass die Anfangs schlechter waren, wie DDR3. Das ist normal...
robbitop
2021-10-15, 11:33:45
Liegt aber in dem Falle nicht am Speicher sondern weil Intel ihren Speichercontroller mit halbem Takt laufen lassen muss. Das war vorher nie nötig.
WedgeAntilles
2021-10-15, 11:35:07
Noch 2 Wochen bis man mehr weiß...
Die gaming Leistung scheint nicht bahnbrechend zu werden bei ADL-S, mit DDR4 erwarte ich den 12900K einige wenige Prozent vor dem 5950x. Mit DDR5 könnte sich das umdrehen. Dafür spricht auch der gaming cache" bei Raptor Lake, also wenn sie die gaming Leistung korrigieren wollen. Raptor Lake könnte auch einen verbesserten DDR5 IMC bekommen.
Die Anwendungsleistung dagegen sieht richtig gut aus für 16/24 mit nur 8 großen Kernen. Und der AIDA64 FPU Verbrauch beim 12400 6+0 sah richtig gut aus. Sehr interessante SKU für kleineres budget. Singlethreadleistung auf Höhe der aktuell besten (11900k, 5950x) mit einer MT Leistung über 5600x. Windows 10 wäre auch kein Problem ohne Gracemont.
Langlay
2021-10-15, 14:06:17
Auf der objektiven Seite ist AMD ggü. Intel noch immer eine Garagenfirma die im Hinterhof hausiert allerdings den Vorteil hat beim besten Fertiger der Welt fertigen zu dürfen. Auch das kann sich wieder ändern.
Wenn AMD ne Garagenfirma ist, ist Intel auch nur noch eine Doppelgaragenfirma.
AMD ~110 Mrd € Marktkapitalisierung
Intel ~183 Mrd € Marktkapitalisierung
https://www.finanzen.net/aktien/amd-aktie
https://www.finanzen.net/aktien/intel-aktie
MiamiNice
2021-10-15, 14:11:00
Wenn AMD ne Garagenfirma ist, ist Intel auch nur noch eine Doppelgaragenfirma.
AMD ~110 Mrd € Marktkapitalisierung
Intel ~183 Mrd € Marktkapitalisierung
https://www.finanzen.net/aktien/amd-aktie
https://www.finanzen.net/aktien/intel-aktie
Nice try :biggrin:
Was hat der Aktienwert damit am Hut?
Amd Umsatz Gewinn Gewinn/Aktie
Q4 2020 3,24 1,78 1,45
Q3 2020 2,80 0,39 0,32
Q2 2020 1,93 0,16 0,13
Q1 2020 1,79 0,16 0,14
Intel:
Intel erzielte im Geschäftsjahr 2020 einen Umsatz von 77,87 Milliarden US Dollar
Lol
Daredevil
2021-10-15, 14:25:35
AMD hat in den letzen Jahren aber auch viel ( gerechtfertigtes ) Hopium reingepumpt bekommen, Intel nicht. Das wird auch irgendwann mal zerbrechen dieses Vertrauen.
Wenn bei Intel diese Euphorie aufkommt wie bei AMD und manche auf das "andere Pferd" setzen, könnte Intel auch locker 3-5 mal soviel Wert sein wie AMD.
Aber Time will tell. Ich hab meine Wette auf Intel gesetzt, freue mich aber als Technik Begeisterter, wenn es so schnell wie möglich wird, egal bei wem.
aufkrawall
2021-10-15, 14:34:10
AMD kann ohne Fabs halt nicht wie Intel massiv Subventionen abgreifen. Dass Intel durch die derzeitige Krise + drohendem Krieg um Taiwan eine goldene Zukunft hat, sofern nicht etwas abartig falsch läuft (sollte mit dem CEO eigentlich nicht passieren können), würd ich als gesetzt sehen. Bei AMD steht immer das Stückzahl-Problem im Raum.
Lehdro
2021-10-15, 14:41:45
Bei AMD steht immer das Stückzahl-Problem im Raum.
Stimmt, gerade Intel konnte ja in den letzten Jahren mit zuverlässigen Lieferungen glänzen. Oh wait. (https://www.sec.gov/Archives/edgar/data/50863/000119312519296610/d817506dex991.htm)
Von daher: Es kann immer etwas schiefgehen, nichts ist in Stein gemeißelt.
][immy
2021-10-15, 14:43:30
Es war auch schon bei DDR4 so, dass die Anfangs schlechter waren, wie DDR3. Das ist normal...
Zumal diesmal noch ECC hinzu kommt was auch erst Mal ausgeglichen werden muss da es Latenz kostet.
Aber gut das es endlich mal komplett übernommen wird.
Anfangs wird ddr5 natürlich erst Mal langsamer sein. War auch bei DDR2 & 3 schon so.
Mit mehr Cache kann die Latenz natürlich gut angefangen werden bis zu einem gewissen Punkt.
aufkrawall
2021-10-15, 14:45:16
Stimmt, gerade Intel konnte ja in den letzten Jahren mit zuverlässigen Lieferungen glänzen. Oh wait. (https://www.sec.gov/Archives/edgar/data/50863/000119312519296610/d817506dex991.htm)
Äpfel-Birnen-Vergleich. Selbst in dieser für Intel-Verhältnisse historisch schlechten Situationen haben sie Massen um Massen an OEMs geliefert im Vergleich zu AMD.
WedgeAntilles
2021-10-15, 14:55:46
Stimmt, gerade Intel konnte ja in den letzten Jahren mit zuverlässigen Lieferungen glänzen. Oh wait. (https://www.sec.gov/Archives/edgar/data/50863/000119312519296610/d817506dex991.htm)
Von daher: Es kann immer etwas schiefgehen, nichts ist in Stein gemeißelt.
Sieh es mal so: Schau dir an, was bei Intel alles schiefgelaufen ist.
Und jetzt schau dir an, wie meilenweit Intel trotz allem vor AMD ist.
Was passiert denn, wenn bei Intel nicht mehr alles schief läuft?
Klar kann theoretisch was passieren. Es kann auf jedes Intelgebäude ein Meteor odre so fallen.
Du kannst im Casino auch 5 mal in Folge auf die richtige Zahl setzen. Theoretisch.
Nur: Wie realistisch ist das?
Lehdro
2021-10-15, 15:13:46
Äpfel-Birnen-Vergleich. Selbst in dieser für Intel-Verhältnisse historisch schlechten Situationen haben sie Massen um Massen an OEMs geliefert im Vergleich zu AMD.
War nicht der Punkt des Posts, nur die Anmerkung das Lieferschwierigkeiten/mengen eben kein alleiniges AMD Problem mehr ist. Die OEMs haben sich eben trotzdem lautstark über Intel beschwert.
Nur: Wie realistisch ist das?
Es ist halt passiert. Ausgerechnet bei der Firma die nur ein paar Jahre vorher den Konkurrenten mit "inconsistent supplier" diffamiert hat. Von daher ist die Einordnung das auch Intel solche Probleme haben kann (vor allem ohne Wirtschaftskrise damals) und die eben nicht nur bei AMD auftreten durchaus realistisch. Wer was anderes erwartet ist ein Träumer, auch bei der anderen Seite (AMD).
WedgeAntilles
2021-10-15, 15:24:21
Es ist halt passiert. Ausgerechnet bei der Firma die nur ein paar Jahre vorher den Konkurrenten mit "inconsistent supplier" diffamiert hat. Von daher ist die Einordnung das auch Intel solche Probleme haben kann (vor allem ohne Wirtschaftskrise damals) und die eben nicht nur bei AMD auftreten durchaus realistisch. Wer was anderes erwartet ist ein Träumer, auch bei der anderen Seite (AMD).
Ich las gerade den Kontext noch mal durch.
Du hattest dich ja auf Produktionsmengen und sowas bezogen.
Ich hatte das falsch aufgefasst und auf "AMD wird größer als Intel" bezogen.
Im nachhinein keine Ahnung wieso, das steht ja überhaupt nicht zur Debatte. Danke für die nochmalige Klarstellung, da ist mir mein Fehler aufgefallen.
Damit ist mein Posting Käse, weil Lieferschwierigkeiten und ähnliches in der Tat passieren können.
(Während eine "Wachablösung" von Intel in den nächsten 10 Jahren halt völlig utopisch ist.)
Nightspider
2021-10-15, 15:47:29
Falls Du Single Thread Fanboy meinst, ja das bin ich.
Auffällig ist eher das du nur Intel zutraust ST und Gaming Leistung zu liefern. :)
Falls Du Dich auf das bereits gepostete Zitat beziehst, nein das steht da nicht.
AMD soll den Cache zwar stapeln, bzw. die Quantität massiv erhöhen, dafür aber Latenz einbüßen.
Sollte das dann so gemeint sein das die Latenz durch V-Cache sinkt? O_o
"Latenz einbüßen" ist schon eine verschwurbelte Formulierung.
Gaming Cache?
Ja Raptor Lake bekommt angeblich Gaming Cache der in Games einiges bringen könnte
Ich meinte die Raptor Lake Architektur als solche. Der IPC Sprung wird nach kaum einem Jahr nach ADL sicherlich nicht so groß ausfallen.
Vor allem falls Raptor Lake wirklich Ende 22 und damit kaum 9-12 Monate nach ADL kommt.
Bei AMD steht der ""Gaming Cache"" nur eben schon knapp ein Jahr vorher an und Zen4 soll dann nochmal ein großen Sprung bei der Performance machen, laut angeblicher Leaks. Allerdings muss man auch da abwarten ob die IPC sich in Games genauso zeigen wird.
Wie gesagt könnte Zen4 aber schon mit der 2. Iteration des V-Caches kommen.
(Eventuell 2 Layer oder L2 als V-Cache wobei letzteres für Zen4 noch eher unwahrscheinlich ist)
Es gibt nur keinen Grund anzunehmen das Intel oder AMD in ~14 Monaten in Games oder ST-Leistung führen wird.
TSMCs N5HPC macht einen großen Sprung zum aktuell genutzten Node. Intel kommt mit einem aufgebohrten ++ Prozess unter neuem Namen.
Du bist ja auch schon ein paar Tage länger dabei und müsstest wissen das AMD nur eine Randerscheinung im Markt ist. AMD taugt dafür jede Dekade mal für ein paar Jahre mit einem Produkt den absoluten Marktführer unter Druck zu setzen und dann wieder in der Versenkung zu verschwinden. Warum sollte es jetzt anders sein?
Weil AMD mit Lisa Su seit Jahren einen fähigeren CEO hat als Intel, man mit TSMC einen Weltmarktführer als Forschungspartner für beispielsweise Stacking hat und nicht wie Intel einige Entwicklungen verschlafen hat.
Falls es dir noch nicht aufgefallen ist: Im Servermarkt lässt AMD Intel seit >1 Jahr richtig schlecht aussehen und gegen Renoir sahen Intels Lösungen auch schlecht aus.
Rembrandt in N6 und Raphael in N5 werden nächstes Jahr weiter Druck aufbauen.
Gegen Genoa hat Intel vermutlich keine Chance.
Macht AMD eigentlich noch immer weniger Umsatz als Intel Gewinn macht? Diese Rennen kann und konnte AMD nie gewinnen. Es ist historisch gesehen wieder an der Zeit das AMD versagt.
Nein, AMDs Umsatz ist mittlerweile höher als Intels Operativer Gewinn und AMDs Bilanz geht steil nach oben seit etlichen Quartalen.
Auf der objektiven Seite ist AMD ggü. Intel noch immer eine Garagenfirma die im Hinterhof hausiert allerdings den Vorteil hat beim besten Fertiger der Welt fertigen zu dürfen. Auch das kann sich wieder ändern.
Das klingt etwas dümmlich aber wenn du es so formulieren magst okay.
Zossel
2021-10-15, 16:18:00
Sollte das dann so gemeint sein das die Latenz durch V-Cache sinkt? O_o
"Latenz einbüßen" ist schon eine verschwurbelte Formulierung.
Und jetzt bitte wieder ganz locker durch die Hose atmen.
Die aktuelle Zen Iteration hat gegenüber der vorherigen Iteration eine höhere L3-Latency .
Das zusätzliche Cache-Die wird da schon mit eingeplant sein, da lt. AMD die L3-Latency mit zusätzlichen Die gleich bleibt.
https://en.wikichip.org/wiki/amd/microarchitectures/zen_2
2x L3 cache slice (16 MiB, up from 8 MiB)
Increased L3 latency (~40 cycles, up from ~35 cycles)
BTW: Hat jemand eine Idee ob viel L3 bei Datenbanken was bringt?
TSMCs N5HPC macht einen großen Sprung zum aktuell genutzten Node. Intel kommt mit einem aufgebohrten ++ Prozess unter neuem Namen.
Ich frage mich immer noch mit welchen Geräten Intel seine dazu konkurrierenden Prozesse belichten möchte.
Nightspider
2021-10-15, 16:20:34
Es ging doch um den V-Cache. Wieso kommst du jetzt mit Zen3?
Das tut doch gar nichts zur Sache.
Oder willst du damit andeuten AMD hat die L3 Latenz schon vorher angehoben, damit sie mit V-Cache nicht weiter steigt, obwohl sie ohne V-Cache hätte niedriger sein können?
Aber selbst wenn. AMD kann den Cache in Zukunft weiter vergrößern ohne das die Latenz steigt. Eventuell kann man diese sogar weiter drücken.
Beispielsweise wenn man die Cache-Controller noch näher an die Compute Units heranbringt und den L2 und L3 komplett auf andere Chips verlagert.
Dann rückt alles näher zusammen. Aber das würde nur Sinn ergeben wenn man keine CPUs ohne Stacking mehr plant.
Optionen hat AMD aber sicherlich genug. Die Frage ist eher wie teuer dies in der Produktion ist.
MiamiNice
2021-10-15, 16:40:51
Auffällig ist eher das du nur Intel zutraust ST und Gaming Leistung zu liefern. :)
So machen Menschen das, wenn sie kontinuierlich von etwas enttäuscht werden. Da könnte ich jetzt diverse Analogien bringen, aber das erspare ich uns beiden.
Sollte das dann so gemeint sein das die Latenz durch V-Cache sinkt? O_o
"Latenz einbüßen" ist schon eine verschwurbelte Formulierung.
Wortklauberei. Trollen kannst Du Dich alleine, dafür brauchst mich nicht :wink:
Ja Raptor Lake bekommt angeblich Gaming Cache der in Games einiges bringen könnte
Ich meinte die Raptor Lake Architektur als solche. Der IPC Sprung wird nach kaum einem Jahr nach ADL sicherlich nicht so groß ausfallen.
Vor allem falls Raptor Lake wirklich Ende 22 und damit kaum 9-12 Monate nach ADL kommt.
Das wird sicherlich so sein, da bin ich voll bei Dir.
Bei AMD steht der ""Gaming Cache"" nur eben schon knapp ein Jahr vorher an und Zen4 soll dann nochmal ein großen Sprung bei der Performance machen, laut angeblicher Leaks. Allerdings muss man auch da abwarten ob die IPC sich in Games genauso zeigen wird.
Wie gesagt könnte Zen4 aber schon mit der 2. Iteration des V-Caches kommen.
(Eventuell 2 Layer oder L2 als V-Cache wobei letzteres für Zen4 noch eher unwahrscheinlich ist)
AMD hat meiner Meinung nach keinen "Gaming Cache". Sie erhöhen die Kapazität auf einen Wert der für Gaming wahrscheinlich viel zu viel des guten sein wird. AMD setzt hier, imo, auf Masse statt Klasse und ich hoffe das der Intel Gaming Cache es anders herum machen wird.
Es gibt nur keinen Grund anzunehmen das Intel oder AMD in ~14 Monaten in Games oder ST-Leistung führen wird.
Siehe erster Absatz. Man ist immer gut beraten damit AMD auf der Verliererseite zu sehen. Man kann damit meistens nur richtig liegen (Firmengeschichte).
TSMCs N5HPC macht einen großen Sprung zum aktuell genutzten Node. Intel kommt mit einem aufgebohrten ++ Prozess unter neuem Namen.
Gehört nicht AMD und andere könnten kommen und einfach die Kapazität wegkaufen. Theoretisch könnte auch Intel denen alles wegkaufen und einfach besser bezahlen. AMD ruht sich hier auf Lorbeeren von anderen aus.
Ich halte es aber für unwahrscheinlich das Intel TSMC nochmal einholen kann.
Weil AMD mit Lisa Su seit Jahren einen fähigeren CEO hat als Intel, man mit TSMC einen Weltmarktführer als Forschungspartner für beispielsweise Stacking hat und nicht wie Intel einige Entwicklungen verschlafen hat.
Habe ich, leider, keine Meinung zu.
Nein, AMDs Umsatz ist mittlerweile höher als Intels Operativer Gewinn und AMDs Bilanz geht steil nach oben seit etlichen Quartalen.
Der Witz lautet Intel macht mehr Gewinn als AMD Umsatz macht. Nicht AMD macht mehr Umsatz als Intel operativen Gewinn macht.
Nun habs ich Feierabend. Ich gehe Items farmen :wink:
Nightspider
2021-10-15, 16:50:00
Wie ist denn die Definition von Gaming Cache deiner Meinung nach? ;D
Erst sagst du AMD büßt Latenz durch V-Cache ein und sagst 2 Seiten später, das du dies nicht gesagt hättest.
Wenn hier einer trollt dann ja wohl du.
Distroia
2021-10-15, 17:25:27
Miami, du redest ständig von "Gaming-Cache", als wäre es das nächste große Ding bei Intel. Nur weil der Begriff auf einer Marketingfolie mal aufgetaucht ist, heißt das noch lange nicht, dass da etwas besonderes dahintersteckt. Wahrscheinlich ist damit einfach nur ein etwas größerer (L2(?))-Cache gemeint, sonst nichts. Es deutet auch nichts darauf hin, dass Raptor Lake ein größeren Sprung gegenüber Alder-Lake macht.
Davon abgesehen geht es hier um Alder-Lake und du tust so, als würde Raptor Lake schon vor der Tür stehen. Erstmal heißt es Alder Lake vs. Zen 3 und dann kurz danach auch noch Alder Lake vs. Zen 3 mit V-Cache. Raptor Lake darf es dann mit Zen 4 aufnehmen und da steht ein bisschen mehr an als die Evolution die Raptor Lake darstellt. Wenn Alder Lake also nicht deutlich vor Zen 3 ohne V-Cache liegt, sehe ich nicht, wie Intel Zen 4 ernsthaft etwas entgegenzusetzen hätte.
basix
2021-10-15, 17:51:45
Prinzipiell kann man von ca. +1/3 MT-Performance bei Raptor Lake vs. Alder Lake ausgehen (schnellere P-Cores, +100% E-Cores). ST evtl. +10%.
Zen 4 wird nach aktueller Gerüchtelage also ähnliche ST Performance wie Raptor Lake bringen und etwas mehr MT Performance (ca. +10-15%). Das bei gleich vielen Threads (jeweils 32x) AMD sollte also vorne sein, aber nicht extrem weit. Dazu kommt noch der V-Cache, welcher vor allem bei Packern, Spielen und Compilern viel bringt. Bei den restlichen Anwendungen wenig bis gar nichts. Hat Raptor Lake etwas ähnliches zu bieten (muss nicht V-Cache sein), verschwindet dieser zusätzliche Vorteil.
Alles in allem: Es bleibt spannend. Und beide scheinen sich im Desktop zu duellieren anstatt dass einer vorne weg braust.
Zossel
2021-10-15, 18:02:25
Oder willst du damit andeuten AMD hat die L3 Latenz schon vorher angehoben, damit sie mit V-Cache nicht weiter steigt, obwohl sie ohne V-Cache hätte niedriger sein können?
Für eine definitive Antwort solltest du AMD fragen, ich würde diese Möglichkeit nicht ausschließen wollen.
Aber selbst wenn. AMD kann den Cache in Zukunft weiter vergrößern ohne das die Latenz steigt.
Wenn man noch mehr Dies draufklatscht wird das sicherlich nicht ohne Folgen bleiben, das wird allerdings wahrscheinlich ein Problem der folgenden Iterationen sein.
matty2580
2021-10-15, 18:18:20
......sehe ich nicht, wie Intel Zen 4 ernsthaft etwas entgegenzusetzen hätte.
Später mit Meteor Lake, was ja in Intel 4 kommen wird.
Aber das ist doch schon lange bekannt, dass es Alder Lake oder der Refresh nicht mit Zen 4 aufnehmen kann.
Und die Produktion in Intel 4 läuft schon längst, aber noch mit schlechten Yields, und kleinen Chips für neuronale Netzwerke.
Intel hat also noch etwas Zeit die Yields in Intel 4 so zu verbessern, dass Meteor Lake damit produziert werden kann.
Die Lebensdauer von Alder Lake und Refresh wird also nicht sehr lange sein.
Erste Produkte von Meteor Lake werden Ende Q1 2023 erwartet.
memory_stick
2021-10-15, 18:53:09
10nm lief auch schon mal 2018 mit Canon Lake, mit schlechtem yield, mit kleinem low power die.
So als Vergleich.
Loihi2 ist winzig, besteht zu grossem teil aus SRAM und wird nicht in Stückzahlen verwendet. Davon den State des Intel 4 prozesses für den produktiven Einsatz abzuleiten, halte ich für gewagt (auf beide Seiten, der 1. Absatz dient der Illustration)
matty2580
2021-10-15, 19:04:04
Ich habe gar nichts abgeleitet, sondern darauf hin gewiesen dass die Produktion in Intel 4 schon läuft.
Auch weiß ich nicht, ob Intel in einem Jahr die Yields in Intel 4 so verbessern kann, dass damit eine Produktion für Meteor Lake möglich ist.
Da jetzt aber ein Ingenieur die Leitung von Intel hat, kann man davon ausgehen dass der Schwerpunkt für ihn die Fertigung ist, und die Forschung. Angeblich hat man bei Intel aus dem 10nm Alptraum gelernt, und ist bei Intel 4 deutlich konservativer, so wie es auch TSMC schon lange macht.
iamthebear
2021-10-15, 19:52:26
Ich bin da nicht auf dem aktuellen Stand, reichen die derzeitigen Mitigationen nicht aus?
Sidechannel- und Timing-Attacken gehen bei gemeinsamen Caches auch über unterschiedliche Cores.
Das kommt welches Sicherheitslevel man setzt. Im Desktop bzw. dem typischen typischem firmeninternen Server mit ein paar VMs in derselben Domäne reichen die automatisch ausgerollten Fixes aus.
Falls man die Lücken jedoch vollständig schließen will, so geht das echt kräftig in die Performance zumindest bei den älteren Architekturen und ein Anbieter von Cloudsystemen, wo eventuell Angreifer und Opfer je eine virtuelle Maschine auf demselben physischen Server gemietet haben kommt man gar nicht darum herum alles perfekt abzusichern, denn ein Vorfall würde hier das Vertrauen in das Gesamte Geschäftsmodell erschüttern.
Das Deaktivieren von SMT beseitigt die Grundlage für einige der bisher bekannten Lücken, verhindert jedoch auch das Ausnutzen von bisher noch nicht entdeckten Lücken. Wenn 2 Threads auf demselben Kern laufen, so werden die sich zwangsweise irgendwie beeinflussen. Das wird sich nicht vermeiden lassen.
Die aktuelle Zen Iteration hat gegenüber der vorherigen Iteration eine höhere L3-Latency .
Das zusätzliche Cache-Die wird da schon mit eingeplant sein, da lt. AMD die L3-Latency mit zusätzlichen Die gleich bleibt.
Die Latenz bei Zen3 ist deswegen höher, da der L3 nun über 8 Kerne statt 4 geshared werden muss.
Das hat jedoch umgekehrt der Vorteil, dass die Core to Core Latency innerhalb desselben Chips deutlich niedriger ist.
Beim VCache steigt die Latenz nicht weiter an. Zusätzliche Signallaufzeiten gibt es auch keine, da der VCache ja direkt horizontal darüber liegt.
iamthebear
2021-10-15, 20:35:24
Ich denke der strategische Fehler von Intel war, dass man dachte man kommt mit 10nm noch ohne EUV aus, da man das Risiko nicht eingehen wollte und die Technologie damals noch nicht reif war und hat sich viel zu ehrgeizige Ziele von 2.4x gesetzt, die dann nicht erreichbar waren und man musste wieder zurückrudern.
Die Frage bei Intel 4 abwärts wird sein wie gut man die EUV Belichtung in den Griff bekommt und ob man die entsprechenden Systeme rechtzeitig in ausreichender Anzahl geliefert bekommt. TSMC hat was EUV angeht einen eindeutigen Vorsprung aber Intel ist hier sicher auch nicht ganz unvorbereitet.
Mich erinnert das Ganze an die Netburst Krise 2004/5 als man meinte man kann die Pipeline endlos weiter strecken und die Taktfrequenz weiter exponentiell erhöhen. Mit Prescott hat man dann gemerkt, dass das so nicht weiter geht und ist stecken geblieben, während AMD mit dem Athlon64 immer stärker wurde.
An sich hat Intel schon sehr gute Entwicklungsabteilungen. Man will aber oft stur mit dem Kopf durch die Wand und alternative Lösungsmöglichkeiten, die aber unter den nicht realistischen Zielen liegen werden gar nicht mehr andiskutiert bis man nicht mindestens einmal festgestellt hat, dass die Betonziegeln wirklich hart sind.
Tralalak
2021-10-15, 21:32:16
Intel Alder Lake mobile confirmed up to 14 cores
source: https://videocardz.com/newz/intel-confirms-alder-lake-p-h-mobile-specs-publishes-hybrid-architecture-optimization-guide-for-developers
//differentRob
2021-10-15, 21:38:45
@iamthebear
Intel ist leadpartner von ASML bei deren neuen nextgen. EuV Maschinen und wird Erstkunde für diese sein.
Damit sorgt man für die Basis um wieder die Foundry-Führerschaft zu übernehmen.
Lurtz
2021-10-15, 21:43:11
Intel Alder Lake mobile confirmed up to 14 cores
source: https://videocardz.com/newz/intel-confirms-alder-lake-p-h-mobile-specs-publishes-hybrid-architecture-optimization-guide-for-developers
In the “Good Scenario,” Intel assumes that the application will be aware of the hybrid architecture. The primary tasks should target Performance cores, whereas non-essential and background threads with lower priority should target Effcieent cores.
Das wird bei 95% aller Windows-Software doch niemals funktionieren :ugly: Aber gut, wenn allein schon Chromium und Embedded-Frameworks das können, dürfte es einiges bringen.
Das Best Scenario wird irgendwann vielleicht bei Spezialsoftware wie Audio-/Video-Software eintreffen.
2022 wird spannend im Mobilsegment.
iamthebear
2021-10-15, 22:01:12
@iamthebear
Intel ist leadpartner von ASML bei deren neuen nextgen. EuV Maschinen und wird Erstkunde für diese sein.
Damit sorgt man für die Basis um wieder die Foundry-Führerschaft zu übernehmen.
Das schon allerdings kommen die glaube ich erst bei 20A oder 18A zum Zug.
Die Frage ist jedoch, was man mit Intel 4 macht. Ein Teil des Lineups wird ja mit TSMC 3nm gefertigt. Vielleicht ist dann Intel 4 wirklich nur für Desktop und für Notebooks schiebt man eine Runde mit TSMC ein, damit mit gegen Zen 5 nicht komplett unter geht.
Das wird bei 95% aller Windows-Software doch niemals funktionieren :ugly: Aber gut, wenn allein schon Chromium und Embedded-Frameworks das können, dürfte es einiges bringen.
Das Best Scenario wird irgendwann vielleicht bei Spezialsoftware wie Audio-/Video-Software eintreffen.
2022 wird spannend im Mobilsegment.
Es geht hier anscheinend ausschließlich um die Optimierung von Spielen. Da wird etwas mehr Aufwand getrieben um das dementsprech3nd zu optimieren.
Zossel
2021-10-15, 22:05:01
@iamthebear
Intel ist leadpartner von ASML bei deren neuen nextgen. EuV Maschinen und wird Erstkunde für diese sein.
Damit sorgt man für die Basis um wieder die Foundry-Führerschaft zu übernehmen.
Interessant, mehr Details bitte.
aufkrawall
2021-10-15, 22:09:13
Es geht hier anscheinend ausschließlich um die Optimierung von Spielen. Da wird etwas mehr Aufwand getrieben um das dementsprech3nd zu optimieren.
Seit wann das? Es ignorieren immer noch einige Spiele mit eingeschaltetem HTT jeden zweiten logischen Kern, so schnell ging die Entwicklung voran. :freak:
iamthebear
2021-10-15, 22:09:17
@Zossel
https://www.computerbase.de/2021-07/chip-fertigung-intel-ist-erstkunde-fuer-high-na-euv-systeme-von-asml/
iamthebear
2021-10-15, 22:18:42
Seit wann das? Es ignorieren immer noch einige Spiele mit eingeschaltetem HTT jeden zweiten logischen Kern, so schnell ging die Entwicklung voran. :freak:
Was meinst du mit "ignorieren jeden 2. logischen Kern". Dass zuerst jeder physische Kern einen Thread bekommt bevor man dem Kern einen 2. Thread gibt ist doch gut so.
Wobei die Verteilung von Threads an die Kerne ist doch Sache des OS. Außer der Priorität der Threads und deren Anzahl kann man da ja nicht viel beeinflussen.
Die Hauptbremse für die Parallelisierung vonSpielen was bisher immer DirectX11 mit dem Draw Calls nur von einem Thread aus abgesendet werden konnten und dieser ist schnell überladen. Bei DirectX12 ist das anders aber solange der Großteil der Spiele noch einen DirectX11 Modus hat bzw. die Engine darauf optimiert ist ändert sich da nicht viel.
Update:
Hier mal der Link zu dem Guide wer was zum Lesen braucht:
https://www.intel.com/content/www/us/en/developer/articles/guide/alder-lake-developer-guide.html
Blediator16
2021-10-15, 22:37:43
@Zossel
https://www.computerbase.de/2021-07/chip-fertigung-intel-ist-erstkunde-fuer-high-na-euv-systeme-von-asml/
Erstkunde sind Samsung und TSMC ebenfalls. Intel tut in deren Marketingfolien wichtiger, als sie es in Wirklichkeit sind.
aufkrawall
2021-10-15, 23:11:26
Was meinst du mit "ignorieren jeden 2. logischen Kern". Dass zuerst jeder physische Kern einen Thread bekommt bevor man dem Kern einen 2. Thread gibt ist doch gut so.
Wobei die Verteilung von Threads an die Kerne ist doch Sache des OS. Außer der Priorität der Threads und deren Anzahl kann man da ja nicht viel beeinflussen.
Ist ziemlich offensichtlich, wenn sowohl mit 6700K, als auch 11400F die Auslastung bei exakt 50% stoppt (Borderlands 3 D3D12).
Das OS muss auch nichts beeinflussen, wenn die Anwendung einfach nicht mehr Threads spawnt.
iamthebear
2021-10-15, 23:37:05
Nur eine Vermutung aber das könnte auch bewusst so gewählt worden sein, damit SMT nicht genutzt wird und so sichergestellt werden kann, dass der frameratenlimitierende Hauptthread sich nicht einen 2. Thread auf demselben Core teilen muss.
Falls aber wirklich alle anderen 5 Threads auch wirklich durchgehend laufen ist fraglich, ob das wirklich so eine schlaue Lösung ist, da die anderen 5 Threads ja anscheinend auch limitieren.
Wobei mich eher wundert, dass Borderlands 3 bei dir unter DirectX12 überhaupt CPU limitiert ist. Beim CB Test damals war es selbst mit einem i3 8100 und 2080 Ti unter 1080p noch fast ausschließlich GPU limitiert. Schlagen sich die 2 zusätzlichen Kerne auch wirklich in > 50% Framerate nieder? Ansonsten würde ich eher vermuten, dass 5 der 6 Threads eigentlich nur aus Spaß an Hintergrundaufgaben herumrechnen.
aufkrawall
2021-10-15, 23:43:34
Ist in 720p mit minimalem Resolution Scale. Aber ja, das Spiel hat auch nicht so gutes MT. Es gibt aber Nachlade- und Shader Compile Spikes, und in genau diesen Momenten geht es dann nicht über 50%. Da das Spiel sowieso schon blockiert, würden mehr genutzte Threads sicherlich helfen, damit die Stalls kürzer ausfallen.
KhanRKerensky
2021-10-16, 03:26:52
Was meinst du mit "ignorieren jeden 2. logischen Kern". Dass zuerst jeder physische Kern einen Thread bekommt bevor man dem Kern einen 2. Thread gibt ist doch gut so.
Wobei die Verteilung von Threads an die Kerne ist doch Sache des OS. Außer der Priorität der Threads und deren Anzahl kann man da ja nicht viel beeinflussen.
https://www.trishtech.com/2019/04/what-is-process-affinity-how-to-set-process-affinity/
Das kann auch direkt vom Programm gesteuert werden. xmrig (Monero CPU Miner) pinnt damit Threads auf einzelne Cores damit die nicht sinnlos herumspringen.
Bedeutet natürlich nicht das die Threads in irgendeiner Weise bevorzugt werden, nur das die auf bestimmten Cores nicht laufen dürfen. Man sollte also ein wenig aufpassen das man dem Scheduler nicht zu viele Optionen nimmt. Hyperthreading für einen Prozess "abzuschalten" ist aber durchaus möglich und wird so wie es aussieht in Borderlands sogar benutzt.
Zossel
2021-10-16, 07:50:51
https://www.trishtech.com/2019/04/what-is-process-affinity-how-to-set-process-affinity/
Das kann auch direkt vom Programm gesteuert werden. xmrig (Monero CPU Miner) pinnt damit Threads auf einzelne Cores damit die nicht sinnlos herumspringen.
Das ist der triviale Fall da quasi keine Abhängigkeiten zwischen den Threads existieren.
iamthebear
2021-10-16, 19:04:54
Ist in 720p mit minimalem Resolution Scale. Aber ja, das Spiel hat auch nicht so gutes MT. Es gibt aber Nachlade- und Shader Compile Spikes, und in genau diesen Momenten geht es dann nicht über 50%. Da das Spiel sowieso schon blockiert, würden mehr genutzte Threads sicherlich helfen, damit die Stalls kürzer ausfallen.
Ich kann jetzt nur spekulieren aber ich nehme an die Überlegung war die, dass das Nachladen bzw. Shade compilieren in der Regel vorbeugend im Hintergrund passiert und nur in Ausnahmefällen das Spiel blockiert während der Mainthread (in DirectX11 der einzige, von dem Draw Calls abgesetzt werden können) die Framerate limitiert.
Würde man nun auf einem Quad Core z.B. 8 Threads einsetzen, so bedeutet dies, dass sämtliche Hintergrundoperationen mit niedrigerer Priorität auf demselben Kern ausgeführt werden wie der Main Thread, der die Framerate limitiert. Da die CPU ja keine Thread Prioritäten kennt könnte es gut sein, dass der Main Thread vielleicht weniger von der CPU bekommt als die Hintergrundthreads. Dies würde dazu führen, dass das Nachladen im Hintergrund, dann ca. 50% schneller sein würden, die Framerate in der Zeit jedoch um fast die Hälfte einbricht.
Es könnte aber auch gut sein, dass hier einfach 1:1 das Threadmodell von DirectX11 übernommen wurde, das hier nun nicht mehr ganz ideal ist.
Distroia
2021-10-16, 20:27:08
Später mit Meteor Lake, was ja in Intel 4 kommen wird.
Aber das ist doch schon lange bekannt, dass es Alder Lake oder der Refresh nicht mit Zen 4 aufnehmen kann.
Und die Produktion in Intel 4 läuft schon längst, aber noch mit schlechten Yields, und kleinen Chips für neuronale Netzwerke.
Intel hat also noch etwas Zeit die Yields in Intel 4 so zu verbessern, dass Meteor Lake damit produziert werden kann.
Die Lebensdauer von Alder Lake und Refresh wird also nicht sehr lange sein.
Erste Produkte von Meteor Lake werden Ende Q1 2023 erwartet.
IBM hatte auch schon vor ein paar Monaten einen Testchip in 2nm mit GAA. Das würde ich aber nicht "Produktion" nennen.
Und wo hast du denn das mit Q1 für Meteor Lake gehört? Es heißt doch immer nur 2023 aber nicht wann 2023. Nach dem Bestellungen von EUVL-Belichtern dürfte Intel bis 2023 auch nur kleine Kapazitäten in Intel 4 haben, es sei denn, es werden nur ganz wenige Lagen mit EUVL belichtet, was aber nicht gerade für den Prozess sprechen würde. Meteor Lake dürfte also eher Ende 2023 kommen, wenn nicht wieder etwas Größeres schiefgeht.
matty2580
2021-10-16, 20:38:47
Hier im 3dc selbst gab es dazu eine Info:
Twitterer OneRaichu berichtet über Tape-Out und geplantes Release-Datum zu Intels "Meteor Lake" – dem Nach-Nachfolger von Alder Lake. Der Bezug zu Meteor Lake ergibt sich über die vorherigen Tweets, somit soll der Tape-Out von Meteor Lake im September 2021 über die Bühne gegangen sein. Der (geplante) Releasetermin wird hingegen mit Ende erstes Quartal 2023 angegeben, was immerhin anderthalb Jahre entfernt ist – und somit am oberen Ende der für neue Prozessoren notwendigen Validierungsphase (samt Start der Massenfertigung und Vorproduktion zur Erreichung der Lieferfähigkeit am Launchtag) liegt.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-oktober-2021
Nightspider
2021-10-16, 20:43:35
Schön und gut das Intel die modernen EUVL Belichter bekommt aber kriegen sie damit auch eine Fertigung hin, deren Yield-und Taktrate besser ist als bei 14 und 10nm die ersten 2 Jahre?
Die nötigen Maschinen sind ja nur das Eine.
Kenne mich aber auch zu wenig aus um erahnen zu können wie sich die Foundrys einzeln an neue Nodes herantasten und was Intel die letzte Dekade immer verkackt hat.
davidzo
2021-10-16, 20:53:33
Hier im 3dc selbst gab es dazu eine Info:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-oktober-2021
Da der Raptor-Lake, "Gamecache" und jetzt sogar Metorlake Talk hier langsam überhand nimmt, wär es nicht langsam an der Zeit einen Spekuthrad zu diesen zu eröffnen, damit sich das hier auf die Leaks zu Alderlake konzentrieren kann?
ab wann rechnet ihr mit der Verfügbarkeit von ersten Alderlake Notebooks (P-Version = ehemals U)?
(also Kaufbarkeit in D)
CrazyIvan
2021-10-17, 01:52:31
Ich vermute mal, frühestens März. Da wird bestimmt zur CES was verlautbart. Breite Verfügbarkeit vielleicht ab Mai.
Virtual
2021-10-17, 13:18:43
Da der Raptor-Lake, "Gamecache" und jetzt sogar Metorlake Talk hier langsam überhand nimmt, wär es nicht langsam an der Zeit einen Spekuthrad zu diesen zu eröffnen, damit sich das hier auf die Leaks zu Alderlake konzentrieren kann?
Die Diskussion um RTL bzw. MTL ist nur Ausdruck einer Vorahnung vieler in diesem Faden ... ADL wird in der Masse der Spiele nicht an die durch bisherige Leaks suggerierte Leistungsfähigkeit herankommen. Es fehlen nach wie vor die Leaks, die den 12900K bzw. 12700K unter aktuellen Spielen aufleben lassen. Beim Intel Innovation Event in zwei Wochen ...
https://www.intel.com/content/www/us/en/events/on-event-series.html
... sollte ADLs Hybrid-Architektur eingehend vorgestellt werden und bereits im November wird ADL in den Markt entlassen. Ergo, die RTM-CPUs sollten bereits massig zum Testen und Leaken zur Verfügung stehen.
Wo bleiben nun die Leaks, die ADL als des Zockers Dream hypen können? Was spricht gegen die ADL K-CPUs als unbedingte Grundlage für ein Zocker-System für Enthusiasten?
Naja, zum einen bekommt man mit den ADL Hybrid-CPUs Win11 auf den Spielerechner genötigt, das selbst noch mit seiner (Spiele-)Reife zu kämpfen hat und noch weitere unliebsame Zwänge mitbringen möchte. Darauf steht definitiv nicht jeder Enthusiast. Zum anderen deutet der ADL Entwickler-Leitfaden ...
https://www.intel.com/content/www/us/en/developer/articles/guide/alder-lake-developer-guide.html
... auch eine notwendige Unterstützung des Win11 Scheduler durch die Spiele-Entwickler an. Der Thread Director ist nicht hinreichend für die optimale Untersützung der Hybrid-Architektur. Mit anderen Worten, ADL-Hybrid dürfte nicht auf allen Spielen in 2021/2022 rund laufen. Sowas dürfte Enthusiasten frustieren.
Zitat aus "Performance Optimizations": "Analysis of games on hybrid architectures has shown the majority of games perform well, with older, or less demanding, games favoring the Performance cores. Games that were already built to heavily utilize multithreading, and that can scale to double-digit core counts, were found to benefit from hybrid architecture due to better throughput. However, there are inevitable performance inversions, attributed to either poor multithreading game architectures, poor OS scheduling, or increased threading overhead. Such issues were addressed by introducing optimizations using the Intel Thread Director technology, an OS scheduler (in collaboration with Microsoft), and their respective threading libraries. Make sure you keep your development environment current, with the operating system, tools, and libraries all updated regularly, to achieve the best performance on Alder Lake and other hybrid architectures."
Der Spiele-Code muss die optimierten (threading) Libs für Win11 für eine grundsätzliche Unterstützung des OS-Scheduler bzw. Thread Directors verwenden. Darüber hinaus wird in vielen Fällen erneutes Übersetzten mit passenden Flags häufig für eine gute Optimierung nicht ausreichend sein. Für einen heterogenen Multi-Core Prozessor war das auch zu erwarten, selbst wenn sich die P/E Cores nur in ihrer Leistungsfähigkeit und nicht noch zusätzlich im Befehlssatz unterscheiden.
Zudem deutet sich bereits an, DDR5 nach JEDEC wird optimiertem DDR4 unterlegen sein und PCIe 5 wird das Blatt auch nicht wenden können. Nach bisherigem Kenntnisstand bietet sich einzig der 12400 mit DDR4 als allg. runde ADL Alternative für den Zocker mit Win10 an, aber der lässt sich leider nicht auf 5+ GHz jagen und ist schon alleine deshalb kein Produkt für Enthusiasten.
robbitop
2021-10-17, 14:54:25
Das liegt nicht am DDR5 sondern daran, dass der IMC von Alderlake bei DDR5 mit halbem (respektive viertel) Takt läuft (gear 2/4). Mit DDR4 allerdings mit vollem Takt (gear 1). Sowas gab es bisher noch nicht.
IMC Takt ist ein wesentlicher Teil der Gesamtlatenz zum RAM.
Im Grunde läuft der Controller bei DDR4 und 5 gleich schnell bei entsprechenden Taktraten. Es war aber vorher schon klar, dass der neue Speichertyp genau 0 Einfluss auf Games haben wird, da dort allein die Latenz zählt. Es mag sehr wenige Anwendungen geben, bei denen DDR5 einen Effekt hat.
Ex3cut3r
2021-10-17, 15:10:21
Eigentlich nicht, schneller RAM war im CPU Limit zumindest bei Intel immer schneller die letzten Jahre.
BlacKi
2021-10-17, 15:24:36
Eigentlich nicht, schneller RAM war im CPU Limit zumindest bei Intel immer schneller die letzten Jahre.das widerspricht seiner aussage nicht. denn er meint mit den latenzen nicht die speicherlatenzen an sich, sondern die latenzen, mit der die cpu inklusive controller hat. so haben hohe taktraten einen positiven effekt auf die latenzen, sodass die absoluten latenzen mit der die cpu arbeiten muss, mit hohem takt mit schlechten timings niedrige absolute latenzen und damit bessere performance bringt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.