PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 13./14. November 2021


Leonidas
2021-11-15, 08:51:00
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1314-november-2021

Geldmann3
2021-11-15, 09:11:32
Vllt. ganz interessant, meine Messungen zur Leistungsaufnahme von Alder Lake bei unterschiedlichen Power-Limits (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12846663#post12846663).

Alder Lake könnte für Mobilgeräte sehr interessant werden.

Leonidas
2021-11-15, 09:37:23
Exzellent! Ich danke!

Gast
2021-11-15, 09:45:23
Jener Performancegewinn entsteht mutmaßlich durch Mehrtakt – was bedeutet, dass es wahrscheinlich entweder einen niedrigeren Stromverbrauch oder eine Mehrperformance geben wird, nicht jedoch beides zusammen

Da jede Spannungsversorgung Zeit zum reagieren braucht sinkt diese beim plötzlichen Anstieg der Stromaufnahme zwangsweise ab. Um dies zu kompensieren und auch unter Last genügend Spannung für einen stabilen Betrieb zu haben muss die "Grundspannung" ohne Last entsprechend überdimensioniert werden. Der Zeitliche Verlauf dieses Spannungsabfalls ist auch unter Load-Line-Calibration bekannt.

Die neuen Spannungswandler in Raptor Lake sollen es jetzt laut dem Patent ermöglichen diese "Überspannung" um bis zu 160mV zu reduzieren.

Dabei gibt es die höchsten Einsparungen bei niedriger bis mittlerer Last, unter maximaler Last gibt es praktisch keine Unterschiede, die CPU erreicht den selben maximalen Takt bei selber im Kern anliegender Spannung.
Es reduziert sich lediglich die Spannung die man bei niedriger bis mittlerer Last anliegen lassen muss um nach dem Lastanstieg immer noch die geforderte Kernspannung zu erreichen.

Die Taktbarkeit der CPU verbessert sich dadurch nicht, womit auch keinerlei Performanceverbesserungen bei CPUs die defakto ohne Powerlimit betrieben werden zu erwarten sind und auch die maximale Übertaktung wird sich nicht erhöhen.

Performancesteigerungen durch höhere real anliegende Taktraten sind damit nur dann möglich, wenn die Taktrate durch das Powerlimit begrenzt wird und man sich in dem Bereich niedriger bis mittlerer Last befindet in dem es einen nennenswerten Unterschied der real anliegenden Kernspannung gibt.

Damit ist ein Performanceeffekt auf CPUs die mit niedrigen Powerlimits betrieben werden, also hauptsächlich Notebook-CPUs limitiert und eine Steigerung der maximal erreichbaren Performance ist nicht zu erwarten.

Alle CPUs sollten von einer niedrigeren Leistungsaufnahme im niedrigen bis mittleren Lastbereich profitieren, was natürlich gerade im Notebook wiederum zu längeren Akkulaufzeiten führen sollte.

Hoschi75
2021-11-15, 11:08:38
Der GPU-Part des M1 Max wird durch diese Benchmarks allerdings einigermaßen entzaubert: Im GFXBench wird selbiger noch auf der Performanceklasse einer GeForce RTX 3080 Laptop ausgemessen, doch unter realen Spielen kommt ziemlich klar nur die Performanceklasse einer GeForce RTX 3060 Laptop heraus. Dies ist immer noch erstklassig, nur eben weit entfernt von Apples Marketing-Versprechungen.

Die für den Vergleich herangezogenen Spiele laufen ja über Rosetta 2. Solange nicht für den M1 angepasst, kann man die tatsächliche Performance nur erahnen..

Gast
2021-11-15, 11:38:06
Die für den Vergleich herangezogenen Spiele laufen ja über Rosetta 2. Solange nicht für den M1 angepasst, kann man die tatsächliche Performance nur erahnen..

Erstens das, in allen nativen Tests (was allerdings leider nur theoretische Tests und keine echten Spiele sind) ist der M1Max je nach Powerlimit durchaus im Bereich der mobilen 3070er bis 3080er.

Dazu kommt, dass viele gerade der älteren getesteten Spiele noch auf OGL setzen, was unter MacOS notorisch langsam ist.

Mich würden mal Benchmarks unter WoW interessieren, das hat ja letztes Frühjahr eine native ARM-Version inklusive Metal-Renderer bekommen, konnte aber leider nichts finden.

Abgesehen davon handelt es sich um MacBook-Pros, das MacOS aktuell mangels Software kein gutes Gaming-System ist steht ja außer Zweifel, weshalb Apples vergleiche logischerweise auch auf GPU-Computing und nicht Gaming abzielen und in den Compute-Benchmarks werden Apples Voraussagen sehr gut erfüllt.

OpenVMSwartoll
2021-11-15, 11:44:11
Die für den Vergleich herangezogenen Spiele laufen ja über Rosetta 2. Solange nicht für den M1 angepasst, kann man die tatsächliche Performance nur erahnen..

Stimmt, aber das ist das Problem bei proprietärem Ansatz.

Aber selbst auf dem Niveau einer 3060 Mobile bin ich beeindruckt.

basix
2021-11-15, 11:57:15
Zu den DLVR: Die hat AMD seit Zen 1 im Design ;) Die LDOs wurden da Intels FIVR gegenübergestellt. Was mich hier nun wundert: Alderlake hat nun ja auch wieder FIVR an Bord. Benutzt Intel bei Raptro Lake nun FIVR + DLVR oder nur DLVR?

Hier ein Report dazu: https://www.amd.com/system/files/documents/The-Energy-Efficient-AMD-EPYC-Design.pdf

Lehdro
2021-11-15, 15:45:26
@Intel Codenamen:
Wohin ist den Ocean Cove verschwunden? Scrapped?
Erstens das, in allen nativen Tests (was allerdings leider nur theoretische Tests und keine echten Spiele sind) ist der M1Max je nach Powerlimit durchaus im Bereich der mobilen 3070er bis 3080er.

Schön, in diesen theoretischen Tests waren auch Intels iGPUs immer weit über dem was realistisch zu erreichen war. Diese Tests taugen allesamt nicht viel, da muss man schon mit real existierenden Szenarien kommen, sprich: Etwas aus der Praxis, bei dem man wirklich 1:1 vergleichen kann.
Ansonsten ist das halt wieder wie eine Beurteilung anhand von Geekbenchwerten, das geht schon so lange schief und noch immer gibt es Leute die Produkte anhand komplett arbiträren und theoretischen Tests bemessen, die rein gar keine praktische Relevanz haben. Dabei steht doch beim M1 und seinen Abarten rein gar kein Zweifel an der Leistungsfähigkeit, nur ist eben die Schnittmenge mit x86 recht begrenzt. Was wohl aber auch am walled Garden und der anderen Fokussierung der Produkte liegt. Woher kommt immer das Bestreben anhand dieser derzeit maximal halbgaren Vergleiche ein abschließendes Bild über die direkten Leistungskorrelationen zu postulieren? Das will doch selbst Apple nicht, sonst würden sie das ganze Anwendungsübergreifend(!) selber hervorbringen. Apple möchte nämlich keinen direkten Vergleich, das strebt dem Status der Plattform entgegen, da sie aus deren Sicht inhärant anders und damit besser ist als das 08/15 x86 Ökosystem. Ein Nutzer vom M1 hat ja auch keinen PC, sondern einen Mac.:redface:

Leonidas
2021-11-15, 16:10:48
Da jede Spannungsversorgung Zeit zum reagieren braucht sinkt diese beim plötzlichen Anstieg der Stromaufnahme zwangsweise ab. ...

Danke für die griffige Erläuterung. Werde es beachten.



@Intel Codenamen:
Wohin ist den Ocean Cove verschwunden? Scrapped?

Wurde nie wieder erwähnt. Wobei natürlich auch die neuen Core-Namen nicht in Stein gemeißelt oder gar bestätigt sind.

Sweepi
2021-11-15, 17:04:38
Stimmt, aber das ist das Problem bei proprietärem Ansatz.


Was für ein proprietärer Ansatz?

Gast
2021-11-15, 17:46:49
Für was verbaut man bei Apple solch leistungsstarke GPUs? Gibt doch kaum Software in Apples eingezäumten Ökosystem welche dies nutzt.



Die Zielgruppe der Pro Macs von Apple sind vor allem kreative und deren Software profitiert teilweise enorm von höherer GPU-Leistung. Die Zielgruppe von Apple ist zumindest noch nicht Gaming und sollte letzteres ein langfristiges Ziel von Apple sein sehe ich auch eher ein Überschwappen von IOS Gaming als von PC Gaming, schließlich können die Apple Silicion Macs rein Prinzipiell auch schon IOS-Apps ausführen und für Apple hätte es den Vorteil dass man mit der Store-Steuer ein schönes Geld mitverdient.

ryan
2021-11-15, 17:55:22
@Intel Codenamen:
Wohin ist den Ocean Cove verschwunden? Scrapped?



Ocean Cove wurde vor längerer Zeit bereits gecancelt, das ist kein Thema mehr.

Lehdro
2021-11-15, 18:59:49
Ocean Cove wurde vor längerer Zeit bereits gecancelt, das ist kein Thema mehr.
Interessant!

Gibt es da näheres zu? Ocean Cove stellte ja nichts drastisch Neues in der langfristigen Entwicklungsrichtung von Intel dar, also bleibt ja nur ein Überspringen oder ein Aufteilen auf 2 neue Coves.

Gast
2021-11-15, 19:09:45
Vllt. ganz interessant, meine Messungen zur Leistungsaufnahme von Alder Lake bei unterschiedlichen Power-Limits (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12846663#post12846663).

Alder Lake könnte für Mobilgeräte sehr interessant werden.
Nicht so beeindruckend.
CPU TDP Punkte
5800U 15 4400
5800HS 35 4700
5900HX 45 5700
5700G 88 6200

FarCry
2021-11-15, 19:40:12
Nicht so beeindruckend.
CPU TDP Punkte
5800U 15 4400
5800HS 35 4700
5900HX 45 5700
5700G 88 6200

Exakt.
Besonders vom 5800U wird ADL in Sachen Effizienz geradezu geschreddert.
Next please.

Lehdro
2021-11-15, 20:07:48
An die AMD Effizienz mit 15W wird Intel wohl frühstens mit MTL rankommen :/

ryan
2021-11-15, 21:00:11
Interessant!

Gibt es da näheres zu? Ocean Cove stellte ja nichts drastisch Neues in der langfristigen Entwicklungsrichtung von Intel dar, also bleibt ja nur ein Überspringen oder ein Aufteilen auf 2 neue Coves.



Das ganze Team wäre wohl aufgelöst wurden. Ocean Cove kommt ursprünglich aus Oregon, die letzten und kommenden sind aus Israel. Das ist jetzt fast 2 Jahre her und seitdem hat man nichts mehr von Ocean Cove gehört.


The core idea behind Ocean Cove was deemed unnecessary, hence why the team wasn't needed any longer.

https://forums.anandtech.com/threads/intel-current-and-future-lakes-rapids-thread.2509080/page-184#post-40044155


Nicht so beeindruckend.
CPU TDP Punkte
5800U 15 4400
5800HS 35 4700
5900HX 45 5700
5700G 88 6200



Fällt dir was zwischen 5800U und 5800HS auf? Ich tippe mal, hier fällst du auf die Standard TDP rein und der score ist bei um die 30 Watt entstanden. Man sollte nie nach der Standard TDP gehen, sondern nach dem tatsächlich package Verbrauch schauen.

Gast Urbine
2021-11-15, 21:22:06
Was mich bei all der Euphorie rund um die Effizienz von Alder Lake wundert, ist wie wenig die recht hohe tatsächlich gemessene Stromaufnahme im Idle beachtet wird.
Es gab auch bei den vielen Tests zu Alder Lake nur wenige, die die tatsächliche Idle- Stromaufnahme gemessen haben, und nahezu niemanden, der dem Beachtung schenkt.
Ich habe als niedrigsten Wert ca. 75 W gefunden aber oftmals bis zu 100 W.
Da war Intel in der Vergangenheit schon mal deutlich besser bzw effizienter.

iamthebear
2021-11-16, 00:05:43
Laut VideoCardz kann der digitale Spannungsregler ("Digital Linear Voltage Regulator", DLVR) des Alder-Lake-Nachfolgers "Raptor Lake" für eine Absenkung der Betriebsspannung in einem nicht unerheblichen Maßstab sorgen. Genannt wurden 20-25%

Die Spannung sinkt nicht um 20-25%, sondern die Verlustleistung. Da die Verlustleistung quadratisch zur Spannung ansteigt werden es eher nur um die 10% sein.

Hier gibt es das entsprechende Diagramm
https://cdn.videocardz.com/1/2021/11/Intel-Raptor-Lake-DLVR-3.png

Der Peak ist bei 40A und -160mV bzw. -25% Verlustleistung.

Wenn man das auflöst kommt man auf:
Alt: 1.2V * 40A = 48W
Neu: 1.04V * 34,66 = 36W

Hier stellen sich mir einige Fragen:
a) Intel gibt an, dass der Vorteil bei 70A (um die 90W) dann schon wieder weg ist.
Die 40A (48W) bei 1.2V beziehen sich offensichtlich nicht für einen 8+8 Chip denn der würde bei 1.2V um die 200W ziehen, sondern eher nur einen Dual Core oder nur 8 E Cores.
Jetzt stellt sich die Frage wie sich das mit einem 200W Desktopchip verhält. Spart der dann bei 1.2V auch 25% ein oder ist hier genauso bei 70A (90W) Schluss.

b) Laut der Grafik ist die eingesparte Spannung mit 160mV konstant, die Ersparnis bei der Verlustleistung steigt jedoch von 20% auf 25%. Das macht aber keinen Sinn. Eigentlich müsste der prozentuale Unterschied steigen je geringer die Strommenge (und somit auch Takt/VCore) sind.


Auf jeden Fall hört sich die Sache sehr interessant an, jedoch frage ich mich wenn das wirklich annähernd 25% bringen soll wieso das nicht schon längts ein Thema war.

Platos
2021-11-16, 00:27:14
Was mich bei all der Euphorie rund um die Effizienz von Alder Lake wundert, ist wie wenig die recht hohe tatsächlich gemessene Stromaufnahme im Idle beachtet wird.
Es gab auch bei den vielen Tests zu Alder Lake nur wenige, die die tatsächliche Idle- Stromaufnahme gemessen haben, und nahezu niemanden, der dem Beachtung schenkt.
Ich habe als niedrigsten Wert ca. 75 W gefunden aber oftmals bis zu 100 W.
Da war Intel in der Vergangenheit schon mal deutlich besser bzw effizienter.

Das sind Komplettsysteme mit Grafikkarte...

Gast
2021-11-16, 01:02:21
Ich habe als niedrigsten Wert ca. 75 W gefunden aber oftmals bis zu 100 W.

75W-100W können niemals CPU-Verbräuche sein höchstens jene vom Gesamtsystem

Gast
2021-11-16, 01:04:32
Nicht so beeindruckend.
CPU TDP Punkte
5800U 15 4400
5800HS 35 4700
5900HX 45 5700
5700G 88 6200

Schaut ziemlich gleichwertig aus, und dafür hat man 16 Kerne anstatt nur 8.

Gast Urbine
2021-11-16, 06:58:57
75W-100W können niemals CPU-Verbräuche sein höchstens jene vom Gesamtsystem

Da hatte ich mich leider missverständlich ausgedrückt, ich meine natürlich die Leistungsaufnahme eines Alder Lake Gesamtsystems im Idle.
Bis zu 100 W erscheinen mir nicht besonders sparsam.

Gast
2021-11-16, 07:51:35
Was hat es denn mit den MeteorLake E-Kernen (Crestmont) auf sich? Die kommen nur bei dem zum Einsatz und haben somit eine Lebenserwartung von nicht mal einem Jahr. Ist das eine marginale Optimierung der Gracemont oder ist Skymont ein Shrink der Crestmont Kerne? Für 6-12 Monate eine Architektur zu entwickeln macht doch irgendwie kaum Sinn, oder? Gibt's da genauere Infos?

Leonidas
2021-11-16, 08:00:02
Eigentlich soll das ein guter Arch-Sprung sein. Denkbar, dass Arrow Lake danach nur eine abgewandelte Version nutzt. Intel gibt inzwischen jeder Iteration eigene Codenamen, so dass man die minimalen Refreshs schlechter erkennen kann.

Gast
2021-11-16, 10:08:09
Bis zu 100 W erscheinen mir nicht besonders sparsam.

Hängt aber hauptsächlich vom System ab und nicht von der CPU, mein Ryzen-System bekomme ich beispielsweise nicht unter 110W Gesamtaufnahme im Idle.

Wenn du hier deutlich drunter willst musst du ein 12VO System bauen, natürlich eines ohne Grafikkarte (was beim Ryzen teilweise gar nicht wirklich geht) usw.

Platos
2021-11-16, 10:26:55
Da hatte ich mich leider missverständlich ausgedrückt, ich meine natürlich die Leistungsaufnahme eines Alder Lake Gesamtsystems im Idle.
Bis zu 100 W erscheinen mir nicht besonders sparsam.

Das liegt aber vermutlich daran, dass bei CPU Tests meistens noch ne fette Grafikkarte à la 3090 drinn steckt. Und dann ist der idle-Stromverbrauch auch noch stark vom Mainboard abhängig und anderen dingen, wie Netzteileffizeinz usw.

Die idle-Verbräuche von Alderlake siehst du zumindest bei Hardwareluxx, wenn ivh das richtig in Erinnerung habe. Da ist Alderlake auch an der Spitze, bis auf glaube ich, oder fast.

Bei solchen Tests verwendet man auch gerne die fettesten Mainboards mit viel Schnick-Schnack. 75W für Idle ist aber auf jeden Fall hoch.

Wichtiger als Idle sind aber minimale Lastzustände, wie z.B wenn man die Maus bewegt usw. Da stinken gerade Grafikkarte richtig hart ab und AMD Prozessoren sind bei sowas auch schlecht (die Chipletprozzis zumindest).

Gast
2021-11-16, 10:30:21
Da hatte ich mich leider missverständlich ausgedrückt, ich meine natürlich die Leistungsaufnahme eines Alder Lake Gesamtsystems im Idle.
Bis zu 100 W erscheinen mir nicht besonders sparsam.
Bei Computerbase war der 5950X auf einem B550 mit einer 3080FE bei 42W im Idle. Mit X570 steigt der Verbrauch auf 56W. Da AlderLake PCIe5 und DDR5 bietet, darf er meiner Ansicht nach auch etwas mehr verbrauchen. Aber 75W finde ich schon grenzwertig, 100W ist klar zu viel.
Hast du vielleicht einen Link mit den hohen Idle Verbrauchen? Ich kenne tatsächlich keine Review, in der auf den Idle Verbrauch eingegangen wurde.

@Leonidas: Danke für die Info! Vielleicht ist Skymont wirklich nur ein Shrink von Crestmont mit etwas Optimierung.

Platos
2021-11-16, 10:52:33
Eigentlich soll das ein guter Arch-Sprung sein. Denkbar, dass Arrow Lake danach nur eine abgewandelte Version nutzt. Intel gibt inzwischen jeder Iteration eigene Codenamen, so dass man die minimalen Refreshs schlechter erkennen kann.

Ich denke, es herrscht nun eine ganz andere "Politik" bei Intel, auch in der Fertigung. Es gibt nun fast bei jeder Generation ein neuer Fertigungssprung und/oder neue Architekturen (oft beides gleichzeitig und hintereinander). Das gabs so nie bei Intel in den letzten (vielen) Jahren.

Quasi der Wechsel von einzelnen, grossen Revolutionen (waren sie eig. nicht in der Vergangenheit) hin zu kleineren Evolutionen. Ich denke, das macht auch aus technischer Hinsicht einfach mehr Sinn. Aus PR-Sicht sowieso, so kann man immer eine Neuheit raus bringen. Man machts nun halt wie TSMC und bei den Architekturen benennt man nun auch in fast jeder Gen etwas neues um. So gut, glaube ich, ist Intel nun auch wieder nicht, so dass es fast jährlich krasse Architektursprünge gibt:freak:

Lehdro
2021-11-16, 15:21:23
Fällt dir was zwischen 5800U und 5800HS auf? Ich tippe mal, hier fällst du auf die Standard TDP rein und der score ist bei um die 30 Watt entstanden. Man sollte nie nach der Standard TDP gehen, sondern nach dem tatsächlich package Verbrauch schauen.
Meinst du sowas? (https://abload.de/img/testlnknn.jpg)
Das ist ein 4600H im mobile Profile des Dell G15 SE. Knapp 13W mit 6C/12T. Ist aber eine H-SKU und Zen 2, also nicht direkt vergleichbar mit einem 8C/16T U-Cezanne.

Habe nun mal geschaut ob ich mit dem Ryzen Controller (https://ryzencontroller.com/) etwas konfigurieren kann, scheint zu gehen:

https://abload.de/img/4600hefficiencyakk63.jpg

Effizienz:
3 Watt 128 Pkt/Watt
5 Watt 172 Pkt/Watt
10 Watt 209 Pkt/Watt
15 Watt 192 Pkt/Watt
20 Watt 158 Pkt/Watt
25 Watt 140 Pkt/Watt
30 Watt 123 Pkt/Watt
35 Watt 110 Pkt/Watt
40 Watt 99 Pkt/Watt
45 Watt 89 Pkt/Watt

Datenpunkte:

Link zum Google Doc (https://docs.google.com/spreadsheets/d/1VsyGJF4c1MxubYNXCoCNRn_w_RX-XLXRdcI1wo_osVw/edit?usp=sharing)
https://abload.de/image.php?img=3wj8kiz.jpg
https://abload.de/image.php?img=5wqgj4e.jpg
https://abload.de/image.php?img=10w3mjcr.jpg
https://abload.de/image.php?img=15wv2k00.jpg
https://abload.de/image.php?img=20w1fkl5.jpg
https://abload.de/image.php?img=25wvujko.jpg
https://abload.de/image.php?img=30wo3kyc.jpg
https://abload.de/image.php?img=35wwpkxj.jpg
https://abload.de/image.php?img=40w71kb3.jpg
https://abload.de/image.php?img=45wx7kfx.jpg

Edit: Rein theoretisch geht der Vergleich auch so nicht auf, da die Vega iGPU den Desktop darstellen muss, was beim 12900K nicht der Fall ist. Gerade bei den niedrigen Wattagen (3-10W) sollte das spürbar sein.

basix
2021-11-16, 23:43:33
b) Laut der Grafik ist die eingesparte Spannung mit 160mV konstant, die Ersparnis bei der Verlustleistung steigt jedoch von 20% auf 25%. Das macht aber keinen Sinn. Eigentlich müsste der prozentuale Unterschied steigen je geringer die Strommenge (und somit auch Takt/VCore) sind.

Aus dieser Grafik lässt sich das nicht herauslesen. Es gibt noch eine weitere, welche den Spannungsverlauf darstellt. Da wird auch klar, wieso Bei 40A der Peak erreicht wird und ab 70A kein Vorteil mehr besteht: https://twitter.com/Underfox3/status/1428233170168815618

https://pbs.twimg.com/media/E9IachCXMAE9-gs?format=png&name=900x900
Bei 40A ist es 1.21/1.05V= +15.2% unterschied. Relativ gesehen ist das mehr als z.B. 1.41/1.25V= +12.8%

So wie ich es verstehe, schalten sie den DLVR parallel zur Hauptspeisung und man kann damit das "Guardband" der Core-Spannung reduzieren, da man mit DLVR im Teillastbetrieb sehr schnell auf Lastwechsel reagieren kann. Heute hat man dort eine Sicherheitsmarge eingebaut, damit bei Lastwechseln die Spannung nicht zu stark dropt und somit die CPU instabil werden würde. Mit dem parallelen Regler können sie sehr schnell auf hohe Lasten reagieren und in diesem Fall durch die Parallelschaltung Energie über einen zweiten Pfad liefern. Dadurch reduziert sich die effektive Quellenimpedanz, welche für den V-Drop verantwortlich ist.

Im Schaubild beträgt die Quellenimpedanz des Haupt Voltage Regulators (Motherboard) in beiden Fällen ~5.6 mOhm. Und die Zielspannung ist 1.05V bei der besagten Frequenz. Da die Last hochvariabel ist (je nach Arbeitslast auf dem Core) muss man eine höhere Spannung als 1.05V anlegen. Bei 50A hat man bei 5.6mOhm bereits 280mV Spannungsabfall. Normalerweise müssen diese als Sicherheitsmarge ob drauf kommen. Kann man hier bei Bedarf einen zweiten Pfad parallel schalten, welcher im Falle des Patents bei >40A den zusätzlichen Strom bereitstellt (wird laut Patent dynamisch auf die 1.05V Zielspannung geregelt), kann man die Inputspannung reduzieren und sobald die Minimalspannung erreicht wird, verläuft die Spannungskurve ab da flach, obwohl mehr Strom gezogen wird. Der zweite Pfad ist hier vor allem dazu da, um kurze Lastspitzen abzufangen. Dauerhaft sollte >40A nicht anliegen. Laut Patent kann deswegen der zweite Pfad auch mit relativ geringer Effizienz recht viel bringen.

Alles in allem eine interessante und relativ einfache Idee. Wie viel das bringt? Keine Ahnung. Es wird doch schon heute die Spannung der VRMs dynamisch anhand der Last geregelt (siehe Load Line Calibration etc.). Aber vermutlich kann man mit dem DLVR die Sicherheitsmarge nochmal ein gutes Stück reduzieren, da der DLVR schneller reagieren kann. Da das System einfach die Peak-Ströme kompensieren soll, würde ich erwarten, dass die CPU generell energieeffizienter wird. Auch bei Volllast.

Nachteil von DLVR:
Man benötigt diesen zweiten Speisungsstrang. Der kostet sicher etwas.

Edit:
Der Titel des Patents ist übrigens "Digital Linear Regulator Clamping Method and Apparatus". Clamping ist hier das entscheidende Wort: Die minimal nötige VCore ist das Clamping-Target. DLVR ersetzt den Hauptspeisungsstrang nicht, es ergänzt ihn im Falle von Lastspitzen.

ryan
2021-11-17, 21:39:00
Was hat es denn mit den MeteorLake E-Kernen (Crestmont) auf sich? Die kommen nur bei dem zum Einsatz und haben somit eine Lebenserwartung von nicht mal einem Jahr. Ist das eine marginale Optimierung der Gracemont oder ist Skymont ein Shrink der Crestmont Kerne? Für 6-12 Monate eine Architektur zu entwickeln macht doch irgendwie kaum Sinn, oder? Gibt's da genauere Infos?


Meteor Lake soll nach letzten Gerüchten nicht für Desktop kommen, der Raptor Lake Nachfolger wäre Arrow Lake. Das muss man bedenken. Cypress Cove ist gleich zu Sunny Cove, trotzdem hat Intel wegen der unterschiedlichen Fertigung einen neuen Namen spendiert.


Meinst du sowas? (https://abload.de/img/testlnknn.jpg)
Das ist ein 4600H im mobile Profile des Dell G15 SE. Knapp 13W mit 6C/12T. Ist aber eine H-SKU und Zen 2, also nicht direkt vergleichbar mit einem 8C/16T U-Cezanne.

Habe nun mal geschaut ob ich mit dem Ryzen Controller (https://ryzencontroller.com/) etwas konfigurieren kann, scheint zu gehen:

https://abload.de/img/4600hefficiencyakk63.jpg

Effizienz:
3 Watt 128 Pkt/Watt
5 Watt 172 Pkt/Watt
10 Watt 209 Pkt/Watt
15 Watt 192 Pkt/Watt
20 Watt 158 Pkt/Watt
25 Watt 140 Pkt/Watt
30 Watt 123 Pkt/Watt
35 Watt 110 Pkt/Watt
40 Watt 99 Pkt/Watt
45 Watt 89 Pkt/Watt



Ich wäre sehr vorsichtig damit, eine low power optimierte mobile CPU mit einer runtergetakteten Desktop CPU zu vergleichen: https://twitter.com/ultrawide219/status/1460820798147477508

Mit einem aggressiveren binning kann Intel alleine durch eine Spannungsreduzierung noch viel rausholen bei ihren mobilen ADL. Der 12900k ist nicht auf niedrige Wattbereiche optimiert.

Leonidas
2021-11-18, 03:02:58
Meteor Lake soll nach letzten Gerüchten nicht für Desktop kommen,

Dem entgegen spricht eine Intel-Folie, welche den Watt-Bereich von MTL mit 4-125W angibt (erste Zahl aus dem Kopf, bitte nicht festnageln, aber die "125W" stimmen).

Außerdem würde Intel nicht so heftig auf MTL rumreiten (mehrfache eigene Ankündigung von Designende und Tape-In/Out), wenn es keine komplette Gen wäre.

Lehdro
2021-11-18, 21:35:09
Ich wäre sehr vorsichtig damit, eine low power optimierte mobile CPU mit einer runtergetakteten Desktop CPU zu vergleichen:

Mit einem aggressiveren binning kann Intel alleine durch eine Spannungsreduzierung noch viel rausholen bei ihren mobilen ADL. Der 12900k ist nicht auf niedrige Wattbereiche optimiert.
Ist mir bewusst, aber auch so sollte klar sein das der 4600H ziemlicher Abfall ist, was das Binning angeht. Was da an Spannung für nur 4 GHz reingebrezelt wird :freak:

Zudem ist die CPU 2 Jahre alt und soll nur der Einordnung dienen. Noch gibt es ja keinen ADL mobile.