PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel Tremont Microarchitecture


Tralalak
2019-10-24, 22:31:23
Intel Tremont CPU Microarchitecture: Power Efficient, High-Performance x86
source: https://hothardware.com/reviews/intel-tremont-cpu-microarchitecture-overview#iIJwK8vKlDVOoOXA.99


VMdlY3aGWzY

gmb
2019-10-25, 13:00:28
Das ist ein großer Sprung. IPC Vergleiche mit den großen Kernen wären interessant, das könnte jetzt schon IPC Bereich von Sandy Bridge gehen. Für ein lüfterloses Acer Swift 1 wäre das der passende Nachfolger.

robbitop
2019-10-25, 13:41:20
Was mich wundert ist, dass die Dinger wohl gar kein AVX können sollen laut CB. Dann frage ich mich aber, wie man moderne Software ausführen will, die das voraussetzt. Wenn das stimmt, dass keine AVX/2 Unterstützung da ist, ist das nicht unbedingt eine sinnvolle Entscheidung in Bezug auf Perf/W. Auch die ARM Cores haben im 1-5W Bereich modernste Vektorinstructions.

Auf jeden Fall ist es sinnvoll, einen modernen Kern für einen niedrigeren Betriebspunkt auszulegen. Denn sowas skaliert halbwegs sinnvoll über ~1 Größenordnung. Bei den Cores merkt man, dass < 15W die Skalierung in Bezug auf Perf/W wirklich ziemlich abnimmt.
Die modernen ARM Cores sind in Bezug auf den Betriebspunkt darunter ausgelegt. Deshalb ist die Perf/W dort immer noch so gut und man kann deutlich leichtere Geräte bauen mit weniger Verbrauch (kleiner Akku, hohe Laufzeit).

Auch dass Intel big.LITTLE adaptieren will, klingt sinnvoll. The right tool for the right job. Wenig Auslastung -> wenig Leistungsaufnahme. Viel Auslastung -> mehr Leistungsaufnahme aber auch mehr Performance.

Bis dato waren die kleinen Cores immer noch etwas zu lahm IMO. Merkte man schon bei der reinen Bedienung. Mit etwas mehr Takt und mit so einem großen IPC Sprung kann sich das schon ändern.

Was ich interessant finde: 6x Decoder aber keinen uOp Cache. Gerade der dürfte doch ordentlich Perf/W bringen - für das IPC Niveau braucht man IMO nicht unbedingt 6x Decoder. Aber ein uOp Cache bei 4x Decodern könnte ggf. ein ähnliches Performanceniveau erzielen bei weniger Leistungsaufnahme. Ggf. tritt Intel hier auch ein wenig auf die Bremse, um die kleinen Cores (die ja auch oft in günstigen Geräten verkauft werden) auf Abstand zu halten.

IMO wäre SMT ggf auch sinnvoll. Kostet kaum Transistoren, bringt aber relativ viel Leistung. So braucht man nicht unbedingt so viele Cores zu verbauen.

Was ich mich manchmal bei den Atom Kernen auch frage ist, wie würden sie mit einer geshrinkten alten Big Core uArch dastehen? Wenn Tremont Sandy Bridge IPC Niveau erreichen soll - wie wäre ein 10 nm Sandy Bridge bei gleichem Takt in Bezug auf Leistungsaufnahme. Wenn vergleichbar: warum dann noch eine neue uArch bauen? Warum nicht eine alte (inkomplexere) shrinken und mit modernen Instructionset ausstatten? Wäre weniger zeitaufwändig. Weniger Transistoren = weniger Leistungsaufnahme pro Takt.

x-force
2019-10-25, 14:07:59
Wenn das stimmt, dass keine AVX/2 Unterstützung da ist, ist das nicht unbedingt eine sinnvolle Entscheidung in Bezug auf Perf/W

was wäre das für praxisrelevante software?

robbitop
2019-10-25, 15:10:30
Encoding, Videobearbeitung, viele Spiele nutzen es schon und einige setzen es sogar voraus und starten bei Nichtvorhandensein nicht. (sieht man daran, dass Phenom 2 immer mehr neuere Spiele nicht starten kann).
AVX ist eine Instruction die ~8 Jahre alt in Serienprodukten implementiert ist. AVX2 immerhin 2 Jahre.

IMO ist das gar nicht diskussionswürdig. Ein halbwegs modernes Instructionset sollte schon aus Kompatibilitätsgründen gegeben sein. Insbesondere wenn man bedenkt, dass Tremont ja erst noch kommt und dann noch eine Lebenszeit vor sich hat. Es reicht ja wenn alles in 128 bit ausgelegt ist. Es geht um die reine Unterstützung.

x-force
2019-10-25, 15:14:25
Encoding, Videobearbeitung, viele Spiele nutzen es schon und einige setzen es sogar voraus und starten nicht. (sieht man daran, dass Phenom 2 immer mehr neuere Spiele nicht starten kann).
AVX ist eine Instruction die ~8 Jahre alt in Serienprodukten implementiert ist. AVX2 immerhin 2 Jahre.

wir reden von 6-15w cpus

für en/decoding sollte man die grafikkarte nutzen.

die phenom 2 geschichte ist teilweise einfach nur ein stumpfes flag, wie beim oculus setup, kannst du einfach umgehen.
aber abgesehen davon haben die teile eh nicht genug dampf für ordentliche spiele.

das szenario geht also genau wie cpu encoding komplett an der ausrichtung vorbei

robbitop
2019-10-25, 15:34:31
Wie gesagt liegt aber die Nutzungsdauer von Tremont noch vor uns. AVX gibt es seit 8 Jahren. Produkte gibt es ab 2020 zu kaufen und werden sicherlich bis 2024-25 genutzt werden. Es ist einfach unnötig eine moderne CPU zu bringen, die ein so veraltetes Instructionset besitzt. Zum Lebensende reden wir von einer Nicht-Unterstützung eines Instructionsets das 14 Jahre alt gewesen sein wird. Ob das nun heute für dich oder mich relevant sein sollte ist ein Argument. Aber sicher nicht das Einzige.

Und leichte Videobearbeitung wird von manchen tatsächlich auf mobilen Geräten genutzt. Nicht jeder ist ein Pro und muss einer sein. Es gibt eine Menge Leute, die machen das sogar auf ihren Tablets. Dank moderner Instructions und FF HW ist das bis zu einem gewissen Punkt machbar. Und auch wenn irgendein Flag reicht, um die Kompatibilität herzustellen - das kann man IMO nicht vom 0815 Kunden erwarten. Das sind zu 99% Nutzer, die nicht in der Lage sind oder keine Lust haben, rumzufrickeln.

Auch Kompression/Dekompression (7zip/winrar) profitiert davon.

Auch kann man ja auch etwas ältere Spiele spielen. Die sicherlich zumindest z.T. davon profitieren.

Zumindest aus Perf/W Sicht sehe ich hier keinen einzigen Grund, AVX und auch AVX2 nicht zu unterstützen. Und wenn es nur 128 bit/cycle wären. Reicht völlig. Das erscheint mir eher eine Entscheidung zu sein, um die Kerne absichtlich auf Abstand zu halten. Genau wie den uOp Cache und SMT. (wobei man letzteres sicher diskutieren könnte)

Moderne ARM SoCs haben noch geringere TDPs und unterstützen ähnliche/vergleichbare Vektorinstructions, sind ähnlich schnell wie SB und kosten (wenn man die Apple Chips mal nicht mitzählt) ~30 USD.

spotz
2019-10-25, 15:53:00
Wenn die Tremonts wie bei Lakefield zusammen mit einem großen Kern (Sunny Cove?) genutzt werden, könnte nicht der große Kern dann die AVX Unterstützung liefern?

Zossel
2019-10-25, 16:15:02
was wäre das für praxisrelevante software?

Also mittlerweile haben selbst dusselige SOCs für Router Vectorunits: https://www.qualcomm.com/products/ipq4018 (Features : half thumb fastmult vfp edsp neon vfpv3 tls vfpv4 idiva idivt vfpd32 lpae evtstrm)

Die neueren Raspis haben auch Vectorunits, daher ist das einfach nur armselig.

Zossel
2019-10-25, 16:18:54
Wenn die Tremonts wie bei Lakefield zusammen mit einem großen Kern (Sunny Cove?) genutzt werden, könnte nicht der große Kern dann die AVX Unterstützung liefern?

Die könnten eine Exception werfen damit das OS dann auf einen anderen Core scheduled.

robbitop
2019-10-25, 16:22:51
Wenn die Tremonts wie bei Lakefield zusammen mit einem großen Kern (Sunny Cove?) genutzt werden, könnte nicht der große Kern dann die AVX Unterstützung liefern?
Ja bei big little wäre es ok. Das Teil kommt aber auch für günstige Geräte standalone ohne big core.

Zossel
2019-10-25, 16:25:52
Das erscheint mir eher eine Entscheidung zu sein, um die Kerne absichtlich auf Abstand zu halten.

Könnte darauf hindeuten das noch vor Ryzen das Design gemacht wurde, Features bewusst raus zulassen oder abzuschalten ist typisch Intel, das kann sich Intel jetzt nicht mehr leisten.

robbitop
2019-10-25, 16:44:06
Das ist gut möglich wenn man bedenkt wie lange es dauert eine uArch zu entwickeln.
Allerdings muss man konstatieren, dass AMD kein Konkurrenzkern anbieten kann und aus RnD Mangel vermutlich auch nicht wird. Man wird einfach Zen nehmen. Aber auf so niedrige Betriebspunkte wird man nicht kommen.

Odal
2019-10-25, 19:20:48
Encoding, Videobearbeitung, viele Spiele nutzen es schon und einige setzen es sogar voraus und starten bei Nichtvorhandensein nicht. (sieht man daran, dass Phenom 2 immer mehr neuere Spiele nicht starten kann).
AVX ist eine Instruction die ~8 Jahre alt in Serienprodukten implementiert ist. AVX2 immerhin 2 Jahre.



verwechselst du da nicht etwas? War das nicht SSE4.1/2 was der PhenomII nicht hat und deswegen starten mittlerweile diverse Spiele nicht mehr?

BlackArchon
2019-10-25, 20:14:32
Wie gesagt liegt aber die Nutzungsdauer von Tremont noch vor uns. AVX gibt es seit 8 Jahren. Produkte gibt es ab 2020 zu kaufen und werden sicherlich bis 2024-25 genutzt werden. Es ist einfach unnötig eine moderne CPU zu bringen, die ein so veraltetes Instructionset besitzt. Zum Lebensende reden wir von einer Nicht-Unterstützung eines Instructionsets das 14 Jahre alt gewesen sein wird. Ob das nun heute für dich oder mich relevant sein sollte ist ein Argument. Aber sicher nicht das Einzige.
...
Dadurch bei Intel jeder nigelnagelneue Coffee Lake-basierte Celeron und Pentium immer noch bei SSE 4.2 feststeckt, ohne AVX und FMA, ist der Anreiz für Software-Anbieter wohl nicht so hoch, diese Features wirklich zu fordern. Dadurch ist der Druck auf Intel wohl auch nicht so hoch, in den Atoms diese Features einzubauen.

robbitop
2019-10-25, 21:53:40
Ihr habt beide Recht. Dennoch unsäglich ein so veraltetes Instructionset in eine niegel neue uArch zu tun.

gmb
2019-10-26, 00:21:01
Encoding, Videobearbeitung, viele Spiele nutzen es schon und einige setzen es sogar voraus und starten bei Nichtvorhandensein nicht.


Die setzen das aber nicht voraus. Und in den Spielen, die es nutzen, bringt es nichts. Das beste Beispiel für eine Consumer Anwendung ist sicherlich x265, aber das ist nicht Voraussetzung.

x-force
2019-10-26, 01:00:14
und wer auf einer 10w cpu software encoding macht, merkt eh nicht mehr viel. der kann auch länger warten :D

mczak
2019-10-26, 01:46:10
Ja bei big little wäre es ok. Das Teil kommt aber auch für günstige Geräte standalone ohne big core.
Ich würde eher vermuten für big.little ist das ein Riesenproblem und auch die grossen Kerne werden da kein AVX unterstützen.

gmb
2019-10-26, 02:50:47
Ich würde eher vermuten für big.little ist das ein Riesenproblem und auch die grossen Kerne werden da kein AVX unterstützen.


Inwiefern ein Problem? Lakefield mit einer TDP von 5-7W und sehr kleinem PCB wird in extrem kompakte Geräte Einsatz finden können, das ist wirklich keine Arbeitsmaschine. In konkret welchen Programmen erwartest du Probleme, die für dessen Einsatzgebiet tatsächlich relevant sind? Wie gesagt, für consumer die sinnvollste Anwendung wäre x264 oder besser x265 mit einem guten speedup, aber dann hört es schon auf.

Zossel
2019-10-26, 08:06:24
Hier zum Vergleich ein steinaltes Low Power X86 Design mit diversen Vectorfeatures (IMHO 128 Bit):

processor : 3
vendor_id : AuthenticAMD
cpu family : 22
model : 48
model name : AMD GX-412TC SOC

flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good acc_power nopl nonstop_tsc extd_apicid aperfmperf pni pclmulqdq monitor ssse3 cx16 sse4_1 sse4_2 movbe popcnt aes xsave avx f16c lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs skinit wdt topoext perfctr_nb bpext ptsc perfctr_l2 cpb hw_pstate ssbd vmmcall bmi1 xsaveopt arat npt lbrv svm_lock nrip_save tsc_scale flushbyasid decodeassists pausefilter pfthreshold overflow_recov

robbitop
2019-10-26, 08:37:49
Wie gesagt. Es ist lächerlich. Braucht man sich nicht schönzureden. Ich verstehe auch nicht, wie man das als Konsument tun kann. Als Hersteller wäre es nachvollziehbar.

Man könnte mit einem Tremont Celeron PC einen günstigen Plex Media Server bauen. Ohne AVX blöd. 7zip ist langsamer.
Und warum soll es nicht Leute geben, die ein bisschen Videoschnitt von Urlaubsvideos machen wollen? Dafür reicht selbst Sandy Bridge dank AVX - Tremont zielt das Performancelevel an. Nicht jeder kann/will sich Top Hardware leisten. Viele wollen auch gar keine Desktops mehr. Die kaufen ein billiges Notebook im Mediamarkt/Bestbuy und wollen das ohne Einschränkungen nutzen. Da kann auch schnell mal ein Atom Core drin sein. Nur weil ihr das nicht nutzt heißt es nicht, dass andere es nicht nutzen können. Die Welt dreht sich nicht um 3dc. Es reduziert unnötigerweise den Usecase.

Ghost1nTh3GPU
2019-10-26, 10:01:44
Das fehlende AVX ist in der Tat seltsam, man hätte ja eine Low-Performance-Variante für die reine Kompatibilität einbauen können. Selbst VIA/Zhaoxin hat in den aktuellen Kernen AVX.

robbitop
2019-10-26, 10:17:26
Ja jede halbwegs moderne x86 CPU hat das. Sogar Jaguar hatte das. Zwar nur in 128 bit. Aber der Kern ist uralt.

Ghost1nTh3GPU
2019-10-26, 10:22:18
Spätestens wenn Microsoft AVX für >Windows 10 fordert, muss Intel es liefern.
Generell sind diese "Atom-Cores" etwas für Wegwerftechnik, z.B. wenn man sich anschaut wo und wie überall Bay-/Cherry-Trail in Consumer-Geräte verbaut wurde. Da sollte die EU vielleicht mal die Einfuhr verbieten.

mczak
2019-10-26, 11:13:13
Inwiefern ein Problem? Lakefield mit einer TDP von 5-7W und sehr kleinem PCB wird in extrem kompakte Geräte Einsatz finden können, das ist wirklich keine Arbeitsmaschine. In konkret welchen Programmen erwartest du Probleme, die für dessen Einsatzgebiet tatsächlich relevant sind?
Das Riesenproblem war bloss auf die Aussage bezogen dass das kein Problem ist weil man Tasks die AVX brauchen ja auf den big core rübermurksen kann. Ich denke eher nicht dass man das tatsächlich versucht, jedenfalls nicht wenn man "normale" OS verwendet.
Ansonsten ist es wohl tatsächlich nicht ein Feature das man unbedingt braucht. Aber trotzdem mickrig dass es fehlt, AVX konnten schon AMDs kleine Jaguar-Kerne... (Wobei ja selbst big core Pentiums kein AVX2 haben...).

robbitop
2019-10-26, 11:18:55
Das sind verbleibende Überbleibsel einer Zeit ohne Wettbewerb als man jedes Salamischeibchen teuer verkaufen konnte. Deaktivierte Instructions, VM Beschleunigung, SMT, Encryption Beschleunigung, Multiplikator fix eingestellt, bei SKL-X deaktivierte PCIe Lanes in den kleineren Modellen, extrem hohe Preise pro Core.
Man sieht IMO deutliche Unterschiede vor und nach Zen auf dem Markt. Je ausgewogener der Markt desto besser für den Endkunden.
Jetzt bekommt man relativ gesehen exzellente Angebote von beiden Herstellern. Und es wird sicherlich besser werden, wenn die uArchs aus der Zeit durch ihre Nachfolger ersetzt sind.

gmb
2019-10-26, 12:39:03
Und warum soll es nicht Leute geben, die ein bisschen Videoschnitt von Urlaubsvideos machen wollen? Dafür reicht selbst Sandy Bridge dank AVX - Tremont zielt das Performancelevel an.


Jetzt konstruieren wir uns was zusammen, damit man doch irgendwas superwichtiges aufzählen kann, um seinen Standpunkt besser aussehen zu lassen. Du überschätzt AVX 1 maßlos. Es gibt wegen AVX 1 nichtmal eine Garantie dafür, dass Sandy Bridge überhaupt eine bessere IPC hat als Tremont. Auch würde AVX gleichzeitig den Verbrauch erhöhen und den Takt senken - das findet in keiner deiner Beiträge Beachtung. Sandy Bridge würde im sub 10W Bereich auch in 10nm nichts reißen.



Das sind verbleibende Überbleibsel einer Zeit ohne Wettbewerb als man jedes Salamischeibchen teuer verkaufen konnte.


Jetzt trollst du nur noch, Schade das du auf so ein Niveau absinken musstest. Die Absicht war ab dem zweiten Beitrag bei dir schon erkennbar. Irgendwie muss man die böse Intel Architektur vorher schon madig reden. Keine Sorge, deine Intention hat jeder verstanden.

x-force
2019-10-26, 14:45:03
Wie gesagt. Es ist lächerlich. Braucht man sich nicht schönzureden. Ich verstehe auch nicht, wie man das als Konsument tun kann. Als Hersteller wäre es nachvollziehbar.

Man könnte mit einem Tremont Celeron PC einen günstigen Plex Media Server bauen.

wer redet etwas schön?
es ist fakt, dass avx dir praktisch einen scheiß bringt.

du konstruierst dagegen vollkommen an den haaren herbeigezogene usecases.

mboeller
2019-10-26, 17:29:53
https://semiaccurate.com/2019/10/24/intel-outs-the-tremont-atom-core/


In this case Intel has cleaned up that ISA divergence a lot because Tremont is ISA compatible with Sunny Cove in all regards but one, AVX. Tremont doesn’t have AVX at all, not in vanilla, AVX2, or AVX-512 formats. Why? Because Tremont is aimed at integer workloads and AVX is aimed at heavy number crunching. AVX also takes up a ton of die area and required a lot of power delivery too, both of those things are not amenable to a mobile oriented, low power core. If you need AVX, the Ice Lake big core in Lakefield will wake up and run that code nicely but the OS needs to be aware of this.



You might have also noticed a lack of structures like a micro-op cache and things related to translating x86 into sane operands, then packing or whatnot as has been the norm since the P4 days or even earlier.

This is because of cool thing #1, Tremont doesn’t use micro-ops, it executes x86 instructions natively. If you are wondering why this is a big deal you probably haven’t been paying attention to how x86 CPUs work over the last decade or two, this is pretty unique.


IMHO insgesamt ein interessanter Artikel

robbitop
2019-10-26, 18:56:53
wer redet etwas schön?
es ist fakt, dass avx dir praktisch einen scheiß bringt.

du konstruierst dagegen vollkommen an den haaren herbeigezogene usecases.

Videoschnitt von Urlaubsvideos sind bei einem Massenprodukt konstruiert?
Dateikompression ist bei einem Massenprodukt konstruiert? AVX bringt bei beiden deutliche Vorteile.
Auch Plex Media Center und Emby ist eine Massenanwendung.

Ich halte da nichts für konstruiert. Persönlich zu werden ist kein sinnvolles, objektives Diskussionsniveau.


—————-
Sachlich bleiben und Argumente bitte. Sollte ich da was konstruiert haben, lässt sich über Zahlen, Daten, Fakten sicher nachweisen, dass meine Usecases keine Massenanwendungen sind. Was mich ehrlich wundern würde.
Und die Stückzahlen solcher Barebones und Laptops sind relativ hoch.

aufkrawall
2019-10-26, 19:29:21
Könnte einfach sein, dass sie es nicht bei niedrigem Verbrauch hinbekommen.

robbitop
2019-10-26, 19:41:20
Eigentlich unwahrscheinlich. Wie gesagt selbst Jaguar hat das. In 28 nm bei 5W. Jeder ARM (Application Core) Kern des letzten Jahrzehnt hat vergleichbares. Bei massiv geringerem TDP.
Nutzt man es nicht, kostet es dank Powergating nichts. Nutzt man es, ist es um einen höheren Faktor schneller als es kostet. Bei Bedarf kann man ja auch Takt drosseln. Eigentlich steigert es die Energieeffizienz.

aufkrawall
2019-10-26, 19:45:09
Uneigentlich drosselt Gemini Lake auf 800MHz, um die 6W Long Duration einzuhalten.

dildo4u
2019-10-26, 19:56:56
AVX2/512 scheint den Takt massiv zu drücken Ice Lake Base Takt liegt unter 1Ghz bei den 12Watt Modellen,das scheint einfach nicht gut nach unten zu skalieren wenn ARM Modelle dort um 3Ghz liegen.
Also selbst wenn Intel 50% bessere IPC hat wird das nix.
Vier volle Ice/Tiger Lake Kerne scheinen nix für Geräte wie das Surface Neo zu sein.

robbitop
2019-10-26, 20:32:49
Es geht ja auch nicht um AVX512 oder 256. Natürlich steigert ein hoher Durchsatz die TDP. Aber die Leistung wird um mehr als diesen Faktor erhöht.
Wenn man den Betriebspunkt senkt um die TDP zu halten ist die Performance höher.

Was die Drosselung von Gemini Lake angeht. Dann wollte man offenbar zu viel mit der Auslegung der uArch oder dem Betriebspunkt in dem Anwendungsfall. Hat aber mit AVX nichts zu tun.

gmb
2019-10-26, 21:09:38
Uneigentlich drosselt Gemini Lake auf 800MHz, um die 6W Long Duration einzuhalten.


Von 7 N5000 Notebookcheck Tests zeigt so ein Verhalten nur ein Gerät, und da liegt es an der Temperaturschwelle nach 1 Stunde Stresstest.

aufkrawall
2019-10-26, 21:25:12
Offenbar realitätsferner Stresstest, man muss nur kurz vsynctester.com in Firefox mit Webrender aufrufen. Es wird nun mal auch der Verbrauch der GPU beim SoC-Design berücksichtigt.

x-force
2019-10-26, 21:26:10
Videoschnitt von Urlaubsvideos sind bei einem Massenprodukt konstruiert?
Dateikompression ist bei einem Massenprodukt konstruiert?

otto normal nimmt quicksync. warum sollte er ewigkeiten auf den job warten?

dein media plex und emby sind so massenmarkt, dass ich erstmal googeln musste :wink:

gmb
2019-10-26, 21:31:22
Offenbar realitätsferner Stresstest, man muss nur kurz vsynctester.com in Firefox mit Webrender aufrufen. Es wird nun mal auch der Verbrauch der GPU beim SoC-Design berücksichtigt.


Das hast du aber behauptet. Und jetzt auf einmal soll sogar ein extremer Stresstest mit Prime und Furmark gleichzeitig deutlich über 800 Mhz liegen. Mit deutlich sind mindestens 1,5 Ghz gemeint. Wenn damit, oder auch in Cinebench Dauerschleife, die Taktfrequenz von deiner Angabe stark abweicht, kann ich deine Ausführung nicht für ernst nehmen.

aufkrawall
2019-10-26, 21:40:15
Das hast du aber behauptet.

Ich sprach von Gemini Lake, nicht Goldmont Plus als Architektur. Vielleicht mal genau lesen?


Und jetzt auf einmal soll sogar ein extremer Stresstest mit Prime und Furmark gleichzeitig deutlich über 800 Mhz liegen.



Mit deutlich sind mindestens 1,5 Ghz gemeint. Wenn damit, oder auch in Cinebench Dauerschleife, die Taktfrequenz von deiner Angabe stark abweicht, kann ich deine Ausführung nicht für ernst nehmen.
Was quatscht du jetzt für ein Zeug mit irgendwelchen Synthies zusammen? Die gehen mir sonst wo vorbei.

gmb
2019-10-26, 22:01:48
Ich sprach von Gemini Lake, nicht Goldmont Plus als Architektur. Vielleicht mal genau lesen?


Du redest wirres Zeug. Im Gemini Lake Soc kommen Goldmont+ CPUs zum Einsatz, du sprichst zwangläufig von Goldmont+.



Was quatscht du jetzt für ein Zeug mit irgendwelchen Synthies zusammen? Die gehen mir sonst wo vorbei.


Ach jetzt sind Furmark, Prime und Cinebench nicht belastend genug :freak:

Du hast vorhin verallgemeinert in den Raum geworden, Gemini Lake würde auf 800 Mhz runterdrosseln unter längerer Last. Fakt ist, dass so gut wie jeder Notebookcheck Test dich widerlegt.

mczak
2019-10-26, 22:04:34
https://semiaccurate.com/2019/10/24/intel-outs-the-tremont-atom-core/

Dass AVX/AVX2 jede Menge Platz und Strom brauchen würde ist einfach nicht wahr. Das gilt nur wenn das auch mit nativen 256bit Einheiten implementiert wird, ansonsten ist das kaum der Rede wert. Klar der Code läuft dann auch nicht wirklich gross schneller als mit SSE, aber es geht hier ja auch in erster Linie um Kompatibilität.

robbitop
2019-10-27, 08:06:48
otto normal nimmt quicksync. warum sollte er ewigkeiten auf den job warten?

dein media plex und emby sind so massenmarkt, dass ich erstmal googeln musste :wink:
Nur weil du es nicht kennst, ist es kein bekanntes Produkt? Nur mal so: Für Plex gibt es auf nahezu jedem Gerät eine App. So ziemlich jeder SmartTV, Android, iOS, Windows Mobile, Blackberry, FireTV, Shield, Xbox, Playstation, Linux, Windows 10, Roku, Docker etcpp.
Es ist die Nummer 1 für Homemedia. Aber nicht jeder kennt alles. Es jedoch daran festmachen zu wollen, passt irgendwie nicht.

Quicksync hilft beim Videoencoding - kostet aber Qualität und muss vom Ottonormalnutzer erstmal bekannt sein, dass es das gibt und wie man es nutzt.

Beim Videoschnitt hingegen (vor dem Export) hilft es mWn nicht. Bei Dateikompression hilft es nicht. Und es gibt garantiert noch wesentlich mehr Applikationen die davon prfoitieren als die 3 die mir einfach so einfielen.

aufkrawall
2019-10-27, 10:29:56
Fairerweise kann man anbringen, dass diese Billig-Geräte dafür einfach nicht gedacht sind. Immerhin bekommst du auch ansonsten viel mehr Leistung, wenn du ein teureres Modell mit Core/Ryzen-APU nimmst.

Leonidas
2019-10-27, 10:32:36
Intel dürfte schlicht Tremont konzeptionell zu einem Zeitpunkt abgeschlossen haben, wo die heutige Wettbewerbs-Situation noch nicht so klar zu erkennen war. Und davon abgesehen: So lange AMD in diesem Feld nicht gleichwertiges bietet, muß Intel gar nicht unbedingt die eierlegenden Wollmichsau im LowPower-Segment haben. AMD hat noch kein Architektur-neues Gegenangebot.

Und ja - diese Atom-Kerne sind was für Wegwerfprodukte. Intel freut sich, wenn Microsoft eines Tages die Systemanforderungen für Windows 10 anzieht und dann plötzlich alles ohne AVX nicht mehr geht. Dann hat man vorher die passende Architektur am Start - und freut sich über kommende Umrüstungen in 2-3 Jahren, weil ältere Geräte ohne AVX irgendwann nicht mehr auf neue Windows-10-Versionen updatebar sind.

robbitop
2019-10-27, 10:38:47
Fairerweise kann man anbringen, dass diese Billig-Geräte dafür einfach nicht gedacht sind. Immerhin bekommst du auch ansonsten viel mehr Leistung, wenn du ein teureres Modell mit Core/Ryzen-APU nimmst.
Ja das stimmt. Aber es sind eben Massengeräte. Und die graue Masse hat wenig Ahnung. Die nutzt es einfach. Wir sind hier schon in einer Filterblase, wo so ziemlich jeder User mehr über PCs weiß als der Großteil der Masse. Für uns ist das alles klar. Wir kaufen das richtige Werkzeug für den richtigen Job.
Die Masse geht in einen Elektronikladen, im Zweifel mit einem geringen Budget oder aber freut sich über schmale Preise, wird häufig schlecht beraten und kaufen einfach.
Ein Core der auf SB Niveau agiert hat IMO auch nicht mehr die Ausrede zu langsam für so ziemlich alles zu sein. Ich kenne eine Menge Leute mit Sandybridge - da läuft vieles noch richtig gut.

Intel dürfte schlicht Tremont konzeptionell zu einem Zeitpunkt abgeschlossen haben, wo die heutige Wettbewerbs-Situation noch nicht so klar zu erkennen war. Und davon abgesehen: So lange AMD in diesem Feld nicht gleichwertiges bietet, muß Intel gar nicht unbedingt die eierlegenden Wollmichsau im LowPower-Segment haben. AMD hat noch kein Architektur-neues Gegenangebot.

Und ja - diese Atom-Kerne sind was für Wegwerfprodukte. Intel freut sich, wenn Microsoft eines Tages die Systemanforderungen für Windows 10 anzieht und dann plötzlich alles ohne AVX nicht mehr geht. Dann hat man vorher die passende Architektur am Start - und freut sich über kommende Umrüstungen in 2-3 Jahren, weil ältere Geräte ohne AVX irgendwann nicht mehr auf neue Windows-10-Versionen updatebar sind.
Das vermute ich auch.
AMD hat nur Zen. Damit kommt man schwer in die gleiche TDP Range. Aber die meisten Geräte mit Intels Atom Kern sind (leider) selten in Geräten, die wirklich diese niedrige TDP brauchen/davon profitieren. Nicht besonders dünn und leicht. Entsprechend kann man da mit einem abgespeckten Zen dank SMT wahrscheinlich konkurrieren. Banded Kestel und eventuelle Nachfolger. Oder APUs die stark deaktiviert sind (erhöht den Yield und heutzutage ziehen deaktivierte Transistoren auch keinen Strom mehr). Also im Low Cost wird AMD vermutlich mit Zen konkurrieren. Je nach Stückzahl und Potenzial entweder mit einem eigenen SoC oder mit einem teildeaktivierten größeren. :)

aufkrawall
2019-10-27, 10:44:06
Desktop-SNB läuft allerdings händisch mit +4Ghz, während Gemini Lake mobil maximal auf 2,7GHz boostet.
Edit: Ok, der Refresh geht bereits >3GHz.

robbitop
2019-10-27, 12:49:45
Händisch ja. Aber out of the Box nicht. :) Da laufen auch einige nonK Modelle noch recht fluffig. Insbesondere, wenn wenigstens 8 GB RAM vorliegen und wenigstens eine SSD für Windows 10.

aufkrawall
2019-10-27, 12:57:07
Tja, die Steigerung vs. Gemini Lake müsste schon enorm sein. Windows 10 läuft darauf wie komplettes Kaugummi, und das liegt nicht am eMMC.

iuno
2019-10-27, 13:05:03
So lange AMD in diesem Feld nicht gleichwertiges bietet, muß Intel gar nicht unbedingt die eierlegenden Wollmichsau im LowPower-Segment haben. AMD hat noch kein Architektur-neues Gegenangebot.
In dem Bereich ist wohl eher ARM die Konkurrenz. Da passiert aber gefuehlt ziemlich wenig, wenn man was "richtiges" haben will, statt einem mobile OS.

Und ansonsten hat Intel ja Glueck dass der Hersteller, der die besten ARM SoCs baut dies nur fuer eigene Geraete tut ;)

Bei AMD sieht es so aus, als wolle man nicht wirklich. Dabei ist Atom ja schon so lange so schlecht, dass man damals mit Mullins schon konkurrenzfaehiges gehabt haette.
Aber was will man da an "Motivation" erwarten, wenn Intel schon so wenig Energie reinsteckt. Die Margen werden einfach zu gering sein.

robbitop
2019-10-27, 13:47:17
Tja, die Steigerung vs. Gemini Lake müsste schon enorm sein. Windows 10 läuft darauf wie komplettes Kaugummi, und das liegt nicht am eMMC.
Wobei ich selbst bei meinem XP13 von 2018 (15W 8th Gen Core i7) deutlich den Unterschied zwischen dem Energieprofil "balanced" und "max Perf" merke und auf meinem übertakteten Haswell Desktop ist es nochmal schneller.
Mit wenig TDP fehlt offenbar schnell Leistung für ordentlich Fluppdizität. (wobei er auch nicht schnarchlahm ist auf "balanced" aber es könnte schneller gehen - ich habe aber auch den Eindruck dass Windows 10 im aktuellsten Build bloatiger geworden ist gemessen an Windows 7 wie ich es von 2012/13 kannte... zumindest gefühlt).

aufkrawall
2019-10-27, 14:02:06
Ich merke mit Gemini Lake keinen Unterschied. Browser ruckeln sowieso irgendwann während des Scrollings oder bei Video, so übel langsam ist das Teil.
Mit Linux + mpv ist es aushaltbar.

MSABK
2019-10-27, 15:25:37
In dem Bereich ist wohl eher ARM die Konkurrenz. Da passiert aber gefuehlt ziemlich wenig, wenn man was "richtiges" haben will, statt einem mobile OS.

Und ansonsten hat Intel ja Glueck dass der Hersteller, der die besten ARM SoCs baut dies nur fuer eigene Geraete tut ;)

Bei AMD sieht es so aus, als wolle man nicht wirklich. Dabei ist Atom ja schon so lange so schlecht, dass man damals mit Mullins schon konkurrenzfaehiges gehabt haette.
Aber was will man da an "Motivation" erwarten, wenn Intel schon so wenig Energie reinsteckt. Die Margen werden einfach zu gering sein.

Microsoft bringt ja langsam ernste Ansätze mit ARM und Windows. Das Surface Pro X ist da schon ein direkter Versuch zu schauen ob man auch ohne Intel kann. Da verwundert es mich umso mehr, dass Microsoft im Surface Duo auf Intel setzt und nicht den eigenen ARM-Chip.

iuno
2019-10-27, 15:46:51
Ja, aber das hat es vor x Jahren (zum Start von Windows 8) schonmal und seither ueberhaupt nichts mehr gemacht. Dass man jetzt mit einem so hochpreisigen Geraet wieder damit anfaengt, sieht fuer mich nicht besonders vielversprechend aus. Ob die lahme Emu hilft, wage ich auch zu bezweifeln.

Aber mal schauen.

Eigene ARM Chip? Meinst du den umgelabelten Snapdragon?

aufkrawall
2019-10-27, 16:05:30
Und halt keine Emulation von x64, ein totaler Franken-Krüppel. :freak:

gmb
2019-10-27, 16:29:31
Und ja - diese Atom-Kerne sind was für Wegwerfprodukte. Intel freut sich, wenn Microsoft eines Tages die Systemanforderungen für Windows 10 anzieht und dann plötzlich alles ohne AVX nicht mehr geht. Dann hat man vorher die passende Architektur am Start - und freut sich über kommende Umrüstungen in 2-3 Jahren, weil ältere Geräte ohne AVX irgendwann nicht mehr auf neue Windows-10-Versionen updatebar sind.


Microsoft wird einen Teufel tun, die tun sich schon schwer genug damit, Windows 32 bit endlich mal fallen zu lassen. Die Mindestvoraussetzungen von Windows 10 sind extrem mickrig. Und plötzlich wird Microsoft sowieso nichts machen. Wenn du in 2-3 Jahren AVX als Mindestvoraussetzung für Windows 10 erwartest, wirst du davon nur träumen können. Das sei dir erlaubt.

x-force
2019-10-27, 17:58:51
Beim Videoschnitt hingegen (vor dem Export) hilft es mWn nicht. Bei Dateikompression hilft es nicht. Und es gibt garantiert noch wesentlich mehr Applikationen die davon prfoitieren als die 3 die mir einfach so einfielen.

es bleibt dabei, daß die teile dafür nicht gemacht sind.
du zweckentfremdest die teile mit deinen nutzungsszenarien.

wer zu doof ist das zu erkennen, sollte sich vielleicht kompetent beraten lassen und sich nicht wundern, dass sein etwas besseres smartphone im grunde zu langsam ist.

du wirst intel vor, daß sie keine eierlegende wollmilchsau verschenken:freak:
kann man machen, aber wirkt ähnlich weltfremd wie auf einem atom video schnitt betreiben zu wollen.

robbitop
2019-10-27, 18:45:37
es bleibt dabei, daß die teile dafür nicht gemacht sind.
du zweckentfremdest die teile mit deinen nutzungsszenarien.

wer zu doof ist das zu erkennen, sollte sich vielleicht kompetent beraten lassen und sich nicht wundern, dass sein etwas besseres smartphone im grunde zu langsam ist.

du wirst intel vor, daß sie keine eierlegende wollmilchsau verschenken:freak:
kann man machen, aber wirkt ähnlich weltfremd wie auf einem atom video schnitt betreiben zu wollen.
Ich habe es mehrfach stichhaltig begründet. Persönlich zu werden ist nicht zielführend. Bitte sachlich bleiben.

Und wie gesagt: jede billig ARM CPU hat vergleichbares und selbst Jaguar hatte das Anno 2013. Mit 4 Kernen in 28 nm. Und auf jedem iPad/Androidtablet kann man Urlaubsvideos schneiden. Die VKZ der entsprechenden Apps sind IMO relativ vielsagend. Und es geht für einfache Komplexitätsgrade erstaunlich gut. Tellerrand.

Dass das keine Pro-Plattform ist, sollte uns in der 3DCF Filterblase klar sein. Die Masse ist aber im Großteil nicht so informiert, versiert und mit hohen Ansprüchen versehen wie wir. Die Masse nutzt häufig, was sie hat. Und für einfache Videoschnitte reichen heute durchaus kleine Plattformen aus. Vor 10 Jahren haben Leute auch schon einfachen Videoschnitt auf HW gemacht, die heute selbst von Atoms überrollt wird. Ging auch.

Ich bleibe dafür: es gibt keinen Grund, den der Konsument vertreten sollte, AVX nicht umzusetzen.

Wenn man sich natürlich in die Rolle eines Unternehmens versetzt - dann gibt es viele Gründe. Unter anderem Marktsegmentierung.

Zossel
2019-10-27, 19:14:13
Und wie gesagt: jede billig ARM CPU hat vergleichbares und selbst Jaguar hatte das Anno 2013. Mit 4 Kernen in 28 nm. Und auf jedem iPad/Androidtablet kann man Urlaubsvideos schneiden. Die VKZ der entsprechenden Apps sind IMO relativ vielsagend. Und es geht für einfache Komplexitätsgrade erstaunlich gut. Tellerrand.

Und hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12126404&postcount=9) habe ich schon drauf hingewiesen das selbst Router-SOCs Vectorunits haben.

Wofür man das braucht?

- Krypto jenseits von AES, z.b. ChaCha20
- Beschleunigung von Videos jenseits der vorhandenen FF-Units, z.b. VP9
- NAS mit ZFS.

robbitop
2019-10-27, 19:27:37
Ja und gerade NAS werden oft mit Atoms ausgestattet und daraus kann man man auch selber günstige NAS bauen. FreeNAS, Unraid. Auch da wäre AVX wirklich gut.
Es gibt jedenfalls keinen Grund aus Perf/W Sicht, es nicht zu implementieren.

x-force
2019-10-27, 19:42:21
Ich habe es mehrfach stichhaltig begründet. Persönlich zu werden ist nicht zielführend. Bitte sachlich bleiben.

wo war ich persönlich?


Die Masse ist aber im Großteil nicht so informiert, versiert und mit hohen Ansprüchen versehen wie wir. Vor 10 Jahren haben Leute auch schon einfachen Videoschnitt auf HW gemacht, die heute selbst von Atoms überrollt wird. Ging auch.

darum wird es ja auch mit dem tremont atom gehen.
dauert dann halt einfach, aber damit sollte horst kevin auch kein problem haben. ging ja schließlich früher auch ;)

zusammenfassend habe ich gesagt, daß deine konsumenten wunschvorstellung einfach fernab der realität ist und es mehr als einen handfesten grund gibt, warum tremont genau das leistet, was er kann.

btw: ich hätte auch gerne einen 3950x ryzen für 200 euro.

robbitop
2019-10-27, 19:57:56
Ich finde, dass du polemisierst. AVX ist heute einfach Standard. Das ist ein Instructionset von 2011. Wie gesagt selbst AMDs Billig CPU uArch von 2013 hatte das.

Das hat in 2019/20 einfach nichts mit „eierlegende Wollmilchsau“ und „Ryzen 3950X für 200€“ zu tun.
Jede CPU ab 30€ bei Geizhals von AMD hat das. Ab 45€ gibts nen 2 Kerner Zen mit AVX2.
Nochmal: Das ist nichts besonderes.

Und ich sehe es anders wofür günstige CPU Kerne eingesetzt werden. Siehe NAS. Da geht es ja weiter. Da sind super viele mit Atom Cores ausgestattet. Encryptionbeschleunigung mittels AVX Fehlanzeige.
Es gibt immer Einsatzzwecke. Sterben word deshalb niemand - aber es ist ein Malus den man nicht kleinreden muss.

aufkrawall
2019-10-27, 20:03:36
Video und Verschlüsselung kann schon Gemini Lake prima in Hardware.
Evtl. gibts mit Tremont noch Hardware Tonemapping oder sogar AV1 Decoding.

robbitop
2019-10-27, 20:13:05
Tja und was nicht in FF abgebildet ist dropt dann doppelt. AV1 decoding in hw wäre toll - aber könnte für Gen 11 ggf etwas zu früh sein.
Encryption ist ja auch nur der Standardkram abgebildet. Es ist ok und kein Beinbruch. Aber wir reden von Standard Bestandteil der ISA Erweiterung die 8 Jahre alt ist und in jeder Uralt Much CPU drin ist.

S940
2019-10-27, 22:41:42
Ich finde, dass du polemisierst. AVX ist heute einfach Standard. Das ist ein Instructionset von 2011. Wie gesagt selbst AMDs Billig CPU uArch von 2013 hatte das.
Ich kapiers auch nicht. Das AVX-Format bietet neben neuen Befehlen auch eine Kopie aller früheren SSE1,2,3,4-Befehle an, da AVX kürzeres Opcodes nutzt. Damit spart man Platz im L1I-Cache und kann auch einfacher decodieren, was wiederum auch Energie spart. Wieso Intel das jetzt nicht nutzen will - selbst nur in ner 128bit-Sparversion wie damals bei den kleinen AMD-Kernen - weiss der Geier. Kann mir nur ne politische Entscheidung vorstellen, weil man Anno dazumal auf AMDs "Schmalspur-FPUs" herumgeritten ist und AVX bei Intel deshalb mind. 256bit breit sein muss.
Vielleicht will man auch nicht AMDs AVX128-Compiler-Pfade nutzen wollen. In jedem Fall ziemlich kurzsichtig, wenns wirklich so wäre. Bei ner low-power CPU wär die Einschränkung auf 128 bit doch absolut ok gewesen.


Hab extra in den Compiler-Daten geschaut, um sicher zu sein. Es gibt dort wirklich kein AVX:


‘tremont’Intel Tremont CPU with 64-bit extensions, MOVBE, MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, POPCNT, AES, PCLMUL, RDRND, XSAVE, XSAVEOPT, FSGSBASE, PTWRITE, RDPID, SGX, UMIP, GFNI-SSE, CLWB and ENCLV instruction set support. https://gcc.gnu.org/onlinedocs/gcc/x86-Options.html


Zum Vergleich noch AMDs Jaguar:


‘btver2’CPUs based on AMD Family 16h cores with x86-64 instruction set support. This includes MOVBE, F16C, BMI, AVX, PCLMUL, AES, SSE4.2, SSE4.1, CX16, ABM, SSE4A, SSSE3, SSE3, SSE2, SSE, MMX and 64-bit instruction set extensions.

Leonidas
2019-10-28, 03:47:52
Microsoft wird einen Teufel tun, die tun sich schon schwer genug damit, Windows 32 bit endlich mal fallen zu lassen. Die Mindestvoraussetzungen von Windows 10 sind extrem mickrig. Und plötzlich wird Microsoft sowieso nichts machen. Wenn du in 2-3 Jahren AVX als Mindestvoraussetzung für Windows 10 erwartest, wirst du davon nur träumen können. Das sei dir erlaubt.


Stimmt auch wieder - wenn, dann wird sich MS quälend langsam bewegen.

Das mit den 2-3 Jahren später war aber anders gemeint: 2-3 Jahre nachdem MS diese Umstellung macht, kommt eine Aufrüstwelle, weil die Altsysteme dann bei MS aus dem Support fallen.

Zossel
2019-10-28, 19:24:59
Ich kapiers auch nicht. Das AVX-Format bietet neben neuen Befehlen auch eine Kopie aller früheren SSE1,2,3,4-Befehle an, da AVX kürzeres Opcodes nutzt. Damit spart man Platz im L1I-Cache und kann auch einfacher decodieren, was wiederum auch Energie spart. Wieso Intel das jetzt nicht nutzen will - selbst nur in ner 128bit-Sparversion wie damals bei den kleinen AMD-Kernen - weiss der Geier. Kann mir nur ne politische Entscheidung vorstellen, weil man Anno dazumal auf AMDs "Schmalspur-FPUs" herumgeritten ist und AVX bei Intel deshalb mind. 256bit breit sein muss.

Jetzt wird es extrem dämlich, 128-Bit Vectoren sind implementiert aber nur mit alten Opcodes?

Gibt es irgentwas besonderes was AVX gegenüber SSE kann?

ChaCha20 scheint jedenfalls von AVX gegenüber SSE zu profitieren: (Ist jemand hier fit in dem Thema und kann was dazu sagen?)


#!/usr/bin/env perl
# SPDX-License-Identifier: GPL-2.0 OR BSD-3-Clause
#
# Copyright (C) 2017-2018 Samuel Neves <sneves@dei.uc.pt>. All Rights Reserved.
# Copyright (C) 2017-2018 Jason A. Donenfeld <Jason@zx2c4.com>. All Rights Reserved.
# Copyright (C) 2006-2017 CRYPTOGAMS by <appro@openssl.org>. All Rights Reserved.
#
# This code is taken from the OpenSSL project but the author, Andy Polyakov,
# has relicensed it under the licenses specified in the SPDX header above.
# The original headers, including the original license headers, are
# included below for completeness.
#
# ====================================================================
# Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
# project. The module is, however, dual licensed under OpenSSL and
# CRYPTOGAMS licenses depending on where you obtain it. For further
# details see http://www.openssl.org/~appro/cryptogams/.
# ====================================================================
#
# November 2014
#
# ChaCha20 for x86_64.
#
# December 2016
#
# Add AVX512F code path.
#
# December 2017
#
# Add AVX512VL code path.
#
# Performance in cycles per byte out of large buffer.
#
# IALU/gcc 4.8(i) 1x/2xSSSE3(ii) 4xSSSE3 NxAVX(v)
#
# P4 9.48/+99% - -
# Core2 7.83/+55% 7.90/5.76 4.35
# Westmere 7.19/+50% 5.60/4.50 3.00
# Sandy Bridge 8.31/+42% 5.45/4.00 2.72
# Ivy Bridge 6.71/+46% 5.40/? 2.41
# Haswell 5.92/+43% 5.20/3.45 2.42 1.23
# Skylake[-X] 5.87/+39% 4.70/3.22 2.31 1.19[0.80(vi)]
# Silvermont 12.0/+33% 7.75/6.90 7.03(iii)
# Knights L 11.7/- ? 9.60(iii) 0.80
# Goldmont 10.6/+17% 5.10/3.52 3.28
# Sledgehammer 7.28/+52% - -
# Bulldozer 9.66/+28% 9.85/5.35(iv) 3.06(iv)
# Ryzen 5.96/+50% 5.19/3.00 2.40 2.09
# VIA Nano 10.5/+46% 6.72/6.88 6.05
#
# (i) compared to older gcc 3.x one can observe >2x improvement on
# most platforms;
# (ii) 2xSSSE3 is code path optimized specifically for 128 bytes used
# by chacha20_poly1305_tls_cipher, results are EVP-free;
# (iii) this is not optimal result for Atom because of MSROM
# limitations, SSE2 can do better, but gain is considered too
# low to justify the [maintenance] effort;
# (iv) Bulldozer actually executes 4xXOP code path that delivers 2.20
# and 4.85 for 128-byte inputs;
# (v) 8xAVX2, 8xAVX512VL or 16xAVX512F, whichever best applicable;
# (vi) even though Skylake-X can execute AVX512F code and deliver 0.57
# cpb in single thread, the corresponding capability is suppressed;

S940
2019-10-28, 19:33:01
Jetzt wird es extrem dämlich, 128-Bit Vectoren sind implementiert aber nur mit alten Opcodes?So siehts aus .. :(

Gibt es irgentwas besonderes was AVX gegenüber SSE kann?

Ja, FMA war da ebenfalls noch mit dabei. Das könnte man vielelicht noch gerade so als Grund gelten lassen, ne FMAC wäre bei ner Mini-CPU sicher Overkill. Aber AMDs hats auch iwie geschafft, Jaguar hatte auch keine FMACs.

Zossel
2019-10-28, 19:44:52
So siehts aus .. :(

Ja, FMA war da ebenfalls noch mit dabei. Das könnte man vielelicht noch gerade so als Grund gelten lassen, ne FMAC wäre bei ner Mini-CPU sicher Overkill. Aber AMDs hats auch iwie geschafft, Jaguar hatte auch keine FMACs.

FMAC liesse sich ja auch sequentiell implementieren. Dann läuft es eben auf anderen CPUs einfach schneller ohne fummeln und basteln.

Ich sehe jedenfalls hier (https://en.wikipedia.org/wiki/Salsa20) nichts was von FMAC profitieren würde, trotzdem bringt es wohl Vorteile wenn man sich die obige Tabelle anschaut.

Was ist mit 2 Operanden Maschine vs. 3 Operanden Maschine vs. 4 Operanden Maschine? Ist da was bei AVX vs. SSE?

Und wollte Intel nicht irgendwann mal mit was ganz Neuem kommt was viele alte Zöpfe abschneidet? Der SSE-Zopf scheint jedenfalls noch nicht alt genug zu sein.

gmb
2019-10-29, 22:42:14
A Guide to Tremont Architecture with Chief Architect Stephen Robinson (https://www.youtube.com/watch?v=A3hWd0r0FIk)


AVX wird hier hochgespielt mit irgendwelchen konstruierten Märchen, das hat für Tremont praktisch null Relevanz, auch wenn zusätzliche Features immer nice to have sind, selbst wenn man davon im Praxisbetrieb keinen Nutzen hat.


Vermutlich kommt AVX für Gracemont bei der low cost Architektur mit dazu, Vector Performance in der Roadmap sieht verdächtig danach aus.

gravitationsfeld
2019-10-29, 23:19:30
Zwei decoder? Ziemlich fancy, scheinen ja stolz drauf zu sein. Wuerde mich nicht wundern wenn wir das auch im naechsten Core-Chip sehen.

mczak
2019-10-29, 23:57:21
Ja, FMA war da ebenfalls noch mit dabei.
FMA ist ein separates Feature, geht allerdings nur mit AVX (weil es das AVX VEX-Encoding verwendet). In der Praxis beherrschen alle CPUs mit AVX2 auch FMA.
Spontan kommen mir auch noch die f16 Konvertierungsbefehle in den Sinn die auch AVX benötigen.
Bei AVX2 ist als neues Feature Gather mit dabei - auch das kann man aber billig implementieren, indem man einfach intern viele skalare Ladebefehle (plus shuffle etc.) daraus macht - sieht man sich die Instruktionstimings, Anzahl uops etc. an (und entsprechende Benchmarks...) ist das auch genau das was die erste AVX2-fähige CPU (Haswell) tat...
Ansonsten ist sowohl bei AVX wie auch bei AVX2 nicht wirklich was dabei das nicht auch schon mit SSE ging, halt eben neu auch mit 256bit breiten float (avx) bzw. int (avx2) Befehlen und der 3-Op VEX Syntax.

gravitationsfeld
2019-10-30, 04:16:30
Ryzen ist richtig kacke bei Gather uebrigens. Viel viel schlechter als Skylake.

x-force
2019-10-30, 05:45:12
Ryzen ist richtig kacke bei Gather uebrigens. Viel viel schlechter als Skylake.

womit wir wieder bei der praxisrelevanz der ganzen geschichte wären :wink:

mczak
2019-10-30, 07:49:25
Ryzen ist richtig kacke bei Gather uebrigens. Viel viel schlechter als Skylake.
Ja es ist noch deutlich schlimmer als bei Haswell. 66 uops, 1 Befehl alle 20 Takte für 8x32bit gather. Das scheint komplett als microcode implementiert, ich vermute mal die ganze Geschichte mit der Bedingung pro Komponente (mithilfe des Maskenregisters) ist eben auch komplett emuliert (war womöglich nicht ganz der Fall bei Haswell, da waren's dann 1 Befehl alle 12 Takte). Wenn man also die Maske nicht braucht müsste es eigentlich bei Ryzen schneller sein wenn man skalare Loads + shuffle verwendet...

Ganon
2019-10-30, 08:18:42
Stimmt auch wieder - wenn, dann wird sich MS quälend langsam bewegen.

Um AVX und Co. zu benutzen, muss man nicht die komplette Mindestvoraussetzung auf AVX hochziehen. Ich vermute mal recht stark, dass Windows auf CPUs mit AVX auch AVX Codepfade hat, die dann geladen werden.

Das machen Linux und macOS auch nicht sonderlich anders.

Badesalz
2019-11-16, 21:02:14
Was kurz aus der Praxis zum Nachdenken... Kein Koder/Dekoder Mist.

Wenn ich eine SSE() Routine habe, die mir 34ms pro durchschnittlich 1s Rechnerei raushaut (Gesamtaufgabe), und ich sehe, wenn ich mich theoretisch gut anstrenge, komme ich mit AVX auf 46ms weniger, dann lass ich es.

Numbercrunching for Tremont... Hölle :freak:

Loeschzwerg
2020-02-12, 17:28:20
Intel hat eine Pressemitteilung zu Lakfield veröffentlicht:
https://newsroom.intel.com/news/up-close-lakefield-intels-chip-award-winning-foveros-3d-tech/#gs.w6ywxi (Intel)
https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Lakefield-mit-Sunny-Cove-und-Tremont-Kernen-1343248/ (PCGH)

Das Package ist 12 x 12mm und 1mm dick.

BlacKi
2020-02-12, 20:10:26
ist das nun 1 Die, oder sind das mehrere gestapelte?

wie ist das eigentlich bei hbm?

Loeschzwerg
2020-04-06, 06:54:44
David Schor hat einen Artikel zu Lakefield verfasst (inkl. DIE sizes, shots usw...):
https://fuse.wikichip.org/news/3417/a-look-at-intel-lakefield-a-3d-stacked-single-isa-heterogeneous-penta-core-soc/

@Blacki: Das dürfte dann auch deine Frage beantworten ;)

Recht interessant:
Although the Sunny Cove core supports AVX-512, specifically for Lakefield the core is somewhat crippled without any AVX support in order to maintain full single ISA compatibility across all cores for easy workload migration.

robbitop
2020-04-08, 13:27:16
Ich bin echt gespannt, was man für Produkte damit bauen wird. Das könnte ja ideal für super leichte x86 Notebooks verwendet werden. Gut genug für flüssiges Arbeiten (Surfen, Office etc) und dabei genügsamer als die großen x86 Kerne -> mehr Akkulaufzeit und/oder leichtere Geräte.
Ein 1 kg Gerät mit >10h wäre damit sicherlich machbar. Ggf. auch für kleinere Kaufpreise.
Little Cores sind gerade in dem Bereich wesentlich energieeffizienter (Skalierung und Auslegung des Zielbetriebspunktes). Ich bin auch gespannt, wie gut Windows damit umgehen können wird.

Loeschzwerg
2020-04-08, 18:07:36
Gut genug für flüssiges Arbeiten (Surfen, Office etc) und dabei genügsamer als die großen x86 Kerne -> mehr Akkulaufzeit und/oder leichtere Geräte.

Jup, in der Richtung könnte ich mir spannende Geräte für eine bestimmte Zielgruppe vorstellen :)
Samsung "experimentiert" vielleicht nicht ohne Grund mit dem Lakefield im Galaxy Book S, welches ja eigentlich mit dem Snapdragon 8cx antreten soll.

davidzo
2020-04-08, 22:36:36
ist das nun 1 Die, oder sind das mehrere gestapelte?

wie ist das eigentlich bei hbm?

2 DIE + POP Memory (optional). Wobei die Platinenbeispiele alle externen DRAM hatten. Es kann sein dass man das wegen der Bandbreite macht wenn bei der Package on Package memory Variante eben nicht alle 4x LPDDR channels bevölkert sind.

=Floi=
2020-04-09, 00:02:12
Ich bin echt gespannt, was man für Produkte damit bauen wird.

keine?!

Atom ist ja auch komplett tot. Entweder es ist die leistung crap, oder der preis für das gebotene zu hoch. Was wurde atom gehyped und was ist damit gekommen?!

Screemer
2020-04-09, 00:22:08
1000de Notebooks mit Pentium n CPUs zwischen Silvermont, Airmont und Goldmont(+). Von den Dingern sind gefühlt weltweit mehr unterwegs als von der gesamten core-i-serie seit 2013.

AnnoDADDY
2020-04-09, 00:29:17
und ausreichend Leistung für alltägliche Aufgaben haben die auch und sind dabei sehr sparsam

aufkrawall
2020-04-09, 00:45:19
Als Billig-Tippse und Videoplayer gehen sie in Ordnung, faktisch sind sie trotzdem völlig ineffizienter Komplett-Schrott. Dieses ständige Schönreden hier von den Dingern ist lächerlich, wer außer mir hat hier so ein Gerät?
Beispiel: NTFS-Verschlüsselung eines Vezeichnisses ist nicht durch den Billig-eMMC limitiert, sondern durch 100% CPU-Last auf beiden Kernen. Wie halt sonst auch immer alles, vom mit Abstand schlechtesten Part (der GPU) ganz zu schweigen...

Screemer
2020-04-09, 00:55:15
Ich hab so ein Gerät und nutze es fast täglich. Mit 4+ Stunden Laufzeit bei nem 6 Jahre alten 15'' Gerät mit Ziffernblock. Arbeiten. Sonst quasi nix. Hab ne SSD verbaut weil nach 3 Jahren ie HDD im Arsch war.

gmb
2020-04-09, 01:03:27
keine?!

Atom ist ja auch komplett tot.


Das ist ein hirnloser Beitrag, so kennt man dich. Atom wird zukünftig eine noch größere Rolle einnehmen als jetzt, siehe Alder Lake Big-Little. Nach Tremont folgt Gracemont.

aufkrawall
2020-04-09, 01:13:34
Ich hab so ein Gerät und nutze es fast täglich. Mit 4+ Stunden Laufzeit bei nem 6 Jahre alten 15'' Gerät mit Ziffernblock. Arbeiten. Sonst quasi nix. Hab ne SSD verbaut weil nach 3 Jahren ie HDD im Arsch war.
Ich meinte konkret Gemini Lake/Goldmont+. Die CPU hat den ein oder anderen einigermaßen starken Punkt wie JavaScript-Performance. Trotzdem ist selbst dabei die Effizienz vs. halbwegs moderne Qualcomm-SoCs abartig schlecht.
Wer nicht komplett geizen will/muss, begeht einfach mit den Teilen einen Fehlkauf. Keine Ahnung, wie man damit bei einer "typischen" Windows-Einrichtung (Defender, Systemwiederherstellungspunkte, Updates...) klarkommen kann. Besonders, wenn man es nicht täglich nutzt und es nach dem ersten Einschalten aus den obigen Gründen ewig mit sich selbst beschäftigt ist, kriegt man einen Knall.

Immerhin scheinen die Treiber für den gegebenen Zweck mittlerweile anständig unter Windows zu funktionieren.

Screemer
2020-04-09, 01:21:30
Bei mir handelt es sich um ein Silvermont n3540 Gerät mit 8gb RAM. Als reine Arbeitskiste kaum Probleme. Da läuft aber halt Word, ff, Exel, paar Branchen Tools und das war's dann auch schon. Imho tutn es die Kisten für den z.b. durchschnittsstudi, der netflixt und YT schaut, aber absolut. Studiert ja nicht grad jeder nen Mint Studiengang und hätte gern mathlab oder 12 vms auf seiner Kiste ;) ne Preisen von 200-300€ und Laufzeiten von >4std würde ich bei dem Anwendungsprofil nicht meckern.

gmb
2020-04-09, 01:22:29
Ich meinte konkret Gemini Lake/Goldmont+.


Juckt keinen, das ist ein Tremont Thread. Du kommst ständig mit alten Kamellen vor, die uninteressant sind. Für deine alten Kamellen gibt es passende Threads, wo du dich in gewohnter Manier auskotzen kannst.

aufkrawall
2020-04-09, 01:36:19
Der Kontext war Billiggeräte, wo gibts die noch gleich mit Tremont?

robbitop
2020-04-09, 12:34:20
keine?!

Atom ist ja auch komplett tot. Entweder es ist die leistung crap, oder der preis für das gebotene zu hoch. Was wurde atom gehyped und was ist damit gekommen?!
Naja aber diesmal hat man ja einen Big Core mit drin. Und Tremont soll laut Intel eine IPC zwischen Sandy und Haswell haben. Das ist dann kein crap mehr. Entsprechend kann man nun Burst Leistung mit sehr geringer idle und Teillast Leistungsaufnahme kombinieren.

davidzo
2020-04-09, 14:33:40
Ich sehe durchaus die Gefahr dass man mal wieder völlig am Markt vorbei entwickelt hat, so wie damals beim Timna Projekt. Das war auf dem Papier eine faszinierende mobile-CPU: eine state-of-the-Art P6 CPU mit lediglich etwas reduziertem on-die L2-Cache, ein integrierter High Bandwidth Speichercontroller und eine zeitgemäße DX7.0 IGP.

Letztendlich war Timna doomed:
-der Speichercontroller für RDRAM hatte zwar viel Bandbreite für die IGP, aber schlechte Latenzen für die CPU welche langsamer war als ein Coppermine Celeron.
-mittlerweile gab es den effizienten Tualatin-Core der mit günstigem SDRAM, mehr Takt und hoher IPC fast doppelt so schnell war.
- Kein Kunde hätte 2001 noch ein Notebook mit nur 600-700mhz gekauft, egal wie sparsam und kompakt es gewesen wäre, wenn ein leichtes 14" T23 mit 1,13Ghz Tualatin verfügbar war und ein 12" X23 mit 866mhz.


Klar, AMD hat aktuell nichts vergleichbares was mit Lakefield konkurriert. Die Dali CPUs sind zwar billig, werden aber weder beim Energieverbrauch, noch mit der MT Leistung der vier Tremont Cores gleichziehen können, noch mit der ST Leistung von Sunny Cove. Aber kann Lakefield preislich mit einem supergünstigen GloFo 14nm Mini-Die ohne Schnickschnack im Package mithalten? Und das ist das einzige was bei einem 200$ Notebook zählt: der Preis.

Auf der anderen Seite stehen leistungsfähige ARM CPUs wie der Snapdragon 8cx, die schon Intels Y-CPUs mit vollen Skylake Cores und mehr TDP probleme bereiten. Für Chromebooks, tablets und Telefone ist x86 egal, da zählt die reine Leistung und der connected Standby verbrauch. Bisher hat sich Intel auch auf der GPU-Seite gegenüber den Adrenos nicht gerade mit Ruhm bekleckert.

Der Lowcost Netbook Markt und der Ultramobile Markt, das sind beides so extrem heißumkämpfte Marktbereiche, dass man da einfach keine Marge machen kann. Und erst recht nicht wenn man teure Packagingtechnologien mitbringt die es einem nicht erlauben kostentechnisch Schritt zu halten.

=Floi=
2020-04-10, 00:03:30
Das ist ein hirnloser Beitrag, so kennt man dich.

Warum soll er hirnlos sein?!

Soll ich bei schlechter videounterstützung der gpu anfangen?
Bei nas reichte die leistung bisher auch eher weniger.
Für home server oft zu wenig leistung.
Imho singlechannel ram
Preis einfach zu hoch für das gebotene. Nettops als schreibmaschine, aber für mehr nicht.


Ich persönlich bin einfach ein verfechter der normalen prozessoren. Das führe ich jetzt nicht aus.

Auch wenn die ipc steigt, so wird man über den takt den abstand halten. Gerade wegen der tdp. Ich freue mich aber trotzdem, wenn dort endlich mal power in die bude kommt.

Für mich war der prozessor damals eine art X86 RPI, und das ist er nie geworden.

gmb
2020-04-10, 00:37:05
Warum soll er hirnlos sein?!



Selbst das kapierst du nicht :freak: Zu behaupten Atom ist komplett tot ist hirnlos, lass endlich Hirn regnen.

aufkrawall
2020-04-10, 00:50:02
Soll ich bei schlechter videounterstützung der gpu anfangen?

Der FF-Decoder in Gemini Lake schafft mühelos YT 4k 60fps VP9 10 Bit, ausgerechnet das kann man der GPU nicht vorwerfen.
4k Netflix geht wohl auch, allerdings kein HDR Output:
https://www.youtube.com/watch?v=vb0nZjq-2OI

davidzo
2020-04-10, 19:00:14
Ich bin echt gespannt, was man für Produkte damit bauen wird. Das könnte ja ideal für super leichte x86 Notebooks verwendet werden. Gut genug für flüssiges Arbeiten (Surfen, Office etc) und dabei genügsamer als die großen x86 Kerne -> mehr Akkulaufzeit und/oder leichtere Geräte.
Ein 1 kg Gerät mit >10h wäre damit sicherlich machbar. Ggf. auch für kleinere Kaufpreise.

Was für Produkte? Tablets, Ultraleicht Notebook?

Das gibt es doch schon alles. Das aktuelle Air hat trotz quadcore icelake cpu rund 10h Laufzeit. Hauptkritikpunkt ist da aber die Leistung, die zwar für 90% der Altagsaufgaben ausreicht, aber eben halt nur für 90%. Das wird mit Lakefield nicht besser... und dünn und leicht genug ist es eigentlich auch.
Und Tablets? Viel Spaß da mit Apples A-Cores, Snapdragon 865, Exynos und Co mitzuhalten...



Btw, hat schon jemand die Firestrike benches gepostet? Etwas unter Icelake G1 niveau (32EU): https://twitter.com/TUM_APISAK/status/1247753518510825472

robbitop
2020-04-11, 11:24:46
Auf keinen Fall Tablets. Da ist Windows murks und was anderes geht mit x86 Cores nicht sinnvoll. Was mit aktuellen U und Y CPUs geht, ginge mit dieser Konstellation in noch sparsamer bei ähnlicher Flüssigkeit bei leichten Tasks (normales Office, surfen, youtube). Entsprechend kann man noch leichtere Notebooks bauen als heute mit obigen CPUs oder gleich schwer bei noch höherer Laufzeit.
Atoms waren bis dato leider in absoluten Murks Geräten und hatten auch nicht die Power für anständige Grundfluppdizität in Windows. In einem halbwegs anständigen Gerät (sofern der Windows Scheduler mit dem big little Kram mitspielt) kann sich das dank dem SC Core ändern. Und in Teillast und Idle sind die small cores nunmal per definitionem sparsamer. Ähnlich ausgelegt wie derzeitige mobile ARM Cores.

Ghost1nTh3GPU
2020-04-11, 11:36:19
Die ~100€ Windows Tablets mit Full-HD und Cherry-Trail Quad-Core vor vielen Jahren waren nicht nicht so verkehrt.
Wenn da ein Tremont, dass ganze auf Sandy Bridge Niveau hebt, 4-8GB RAM und eine >200MB/s SSD/eSDCard, ist so ein Geräte für alle O365-Uses-Cases mehr als ausreichend. Per USB3.x kann man dann ein Display anstecken oder gleich per Wireless auf ein vorhandenes Display sich verbinden, die Bluetooth Maus/Tastatur hat man dann halt in der Tasche oder am aktuellen Arbeitsplatz vorliegen.

Ein vollwertiges Windows 10 in einem ~500g Gerät ist imo nicht zu unterschätzen. iPad OS ist da eher noch halbgarer Aufsatz.

Mit einer >500 GFLOPs GPU kann man auch das ein oder andere Game unterwegs starten. Wenn natürlich es wohl sinnvoller ist hier per Stream sich die TFLOPs von der eigenen bzw. Cloud-Gaming-Plattform zu holen.

robbitop
2020-04-11, 13:29:48
Windows und Touch war bisher Müll mMn. Aber das was man aktuell mit den Snapdragons versucht könnte man jetzt auch ohne Emulation mit vergleichbarem Verbrauch bei besserer Leistung haben.

aufkrawall
2020-04-11, 13:35:43
Erstmal den realen Verbrauch abwarten. 2C Gemini Lake zieht laut Software im Idle 1,9W und unter Last schnell mal 10-12W vs. die angegebenen 6W.
Auf Intels Angaben kann man einen Scheiß geben.

gmb
2020-04-11, 14:57:58
Erstmal den realen Verbrauch abwarten. 2C Gemini Lake zieht laut Software im Idle 1,9W und unter Last schnell mal 10-12W vs. die angegebenen 6W.
Auf Intels Angaben kann man einen Scheiß geben.


1,9W im Idle für die 2 Kerne machen dich nicht stutzig? Ernsthaft? :freak: Oh man jetzt wird mir einiges klar, dann sind die Werte wirklich kompletter Schwachsinn. Das hast du immer verschwiegen. Hier liegt der Verdacht nahe, dass die Software falsche Werte anzeigt. In den Notebookcheck Tests konnte schon Hwinfo keine Verbrauchswerte anzeigen, der Support ist anscheinend nicht so trivial oder diese Geräte haben für die Entwickler nicht den Stellenwert.

Wenn der Idle Verbrauch so übel wäre, wären die Akkulaufzeiten nicht besser all bei den Core (U) basierenden Geräten, wo der Idle Verbrauch vom Soc auch schon bei unter 1 Watt liegt. Die besseren Geräte beim N5000 (mit 4 Kerne wohlgemerkt) liegen bei um die 2 Watt für das gesamte Gerät, wobei auch bei niedriger Helligkeit das Display am meisten ausmacht, der Soc verbraucht ein Bruchteil davon. Wie sollen denn da 2 Kerne alleine schon auf 2 Watt kommen. Die weniger guten Geräte liegen bei etwas über 3 Watt, aber das hängt immer von der Ausstattung ab.

Last ergibt auch kein Sinn. Schnell mal 10-12W für 2 Kerne, dann müssten 4 Kerne beim N5000 schnell mal 20-25 Watt verbrauchen, was völliger Unsinn ist. Die Teile kommen kommen meist ohne Lüfter aus.

robbitop
2020-04-11, 16:18:33
Erstmal den realen Verbrauch abwarten. 2C Gemini Lake zieht laut Software im Idle 1,9W und unter Last schnell mal 10-12W vs. die angegebenen 6W.
Auf Intels Angaben kann man einen Scheiß geben.

Ja muss man abwarten. Aber wenn man es vernünftig macht, muss es prinzipbedingt deutlich sparsamer im Teillast und Idle sein. Einfach weil kleinere Kerne energieeffzienter in kleineren Leistungsbereichen sind. Das liegt in der Natur der Grenzen der Skalierbarkeit. ARM und Apple haben das ja jeweils seit vielen Jahren erfolgreich bewiesen.

aufkrawall
2020-04-11, 16:39:46
1,9W im Idle für die 2 Kerne machen dich nicht stutzig? Ernsthaft? :freak: Oh man jetzt wird mir einiges klar, dann sind die Werte wirklich kompletter Schwachsinn. Das hast du immer verschwiegen.

Ich hatte den Idle-Wert noch nie erwähnt, also kann ich auch nichts verschwiegen haben. :confused:
Dass Idle-Werte immer Quatsch sein können, ist ein anderes Thema. Trotzdem zeigen Core Temp, hwinfo und s-tui alle das Gleiche an.
Der angegebene Wert für Charge Rate des Akkus ist bei dem Gerät unbrauchbar.


Last ergibt auch kein Sinn. Schnell mal 10-12W für 2 Kerne, dann müssten 4 Kerne beim N5000 schnell mal 20-25 Watt verbrauchen, was völliger Unsinn ist. Die Teile kommen kommen meist ohne Lüfter aus.
Außerhalb deiner Traumwelt werden die bei bestimmten Workloads auch hart drosseln.
Mal abgesehen davon, dass du die Schrott-GPU mal wieder gekonnt ignorierst, die der CPU in der Realität ständig hart TDP-Anteil wegnimmt und Cores zudem nur ein Subset von Package ist. :rolleyes:
YT 1080p 60fps Firefox zieht 9-11W Package und ja, das Ding wird heiß und der Akku leert sich entsprechend. Da kannst du rumzetern wie du willst, der SoC als Ganzes ist Schrott.

gmb
2020-04-11, 22:46:16
Ich hatte den Idle-Wert noch nie erwähnt, also kann ich auch nichts verschwiegen haben. :confused:


Ja eben, du hast den Idle Wert immer verschwiegen! Dann wäre die Anomalie vorher schon aufgefallen. Schon am Idle Wert kann man erkennen, dass irgendwas faul ist, das ist nicht normal. Wir brauchen nicht über Lastverbrauchswerte reden, wenn schon der Idle Wert absurd hoch ist.


Dass Idle-Werte immer Quatsch sein können, ist ein anderes Thema. Trotzdem zeigen Core Temp, hwinfo und s-tui alle das Gleiche an.



Die Werte sind unsinnig, das musst du doch merken. Wenn ein ganzes Gerät inklusive Display bei 15 Watt mit 4 Goldmont Kernen liegt, sind 10-12 für 2 Kerne alleine unrealistisch. Das wird schön ignoriert.


Außerhalb deiner Traumwelt werden die bei bestimmten Workloads auch hart drosseln.

In deiner Traumwelt bist du der einzige, der ein nicht drosselndes Gerät besitzt, ich gratuliere dir. Das reicht dann aus, um das generell auf Gemini Lake auszuweiten. Laut dir kann man auf Intel Angaben einen Scheiß geben und 2 Kerne alleine würden locker 10-12 Watt brauchen. Wie kann es denn jetzt sein, dass andere Tester deine Fantasiewerte nicht bestätigen können, merkste nicht langsam selber was du für ein Unsinn erzählst? Es kann sich jeder auf Notebookcheck ein dutzend Tests ansehen und dort sehen, was Sache ist.



Mal abgesehen davon, dass du die Schrott-GPU mal wieder gekonnt ignorierst

Es juckt mich überhaupt nicht! Es ist wieder nur typisch, dass du dein Gemini Lake Trauma zum x-ten male einen vorkaust, all das hat mit Tremont rein gar nichts zu tun. Dich kann man wirklich nicht für voll nehmen, das ist offensichtlich.

aufkrawall
2020-04-11, 22:48:06
Was zeigt denn Core Temp im Idle mit einem Mobile CFL an? Screenshot?

=Floi=
2020-04-11, 23:18:09
warum sollte die cpu mit zwei ausgelasteten cores keine kompletten 15w brauchen?!
https://www.technikaffe.de/cpu_vergleich-intel_pentium_j4205-661-vs-intel_core_i3_6100t-555

Der reine turbo gibt es her. Du ignorierst hier eher intels tollen turbo. Als ob der bei 4x2,4 @ max last nur 10 watt brauchen würde...
Es könnte auch durch die display auflösung noch was dazukommen, wenn er 1080p hat.

gmb
2020-04-12, 00:18:29
warum sollte die cpu mit zwei ausgelasteten cores keine kompletten 15w brauchen?!
https://www.technikaffe.de/cpu_vergleich-intel_pentium_j4205-661-vs-intel_core_i3_6100t-555



Du bist nicht in der Lage zu folgen, es ging um 6W und mobile. Was du verlinkst sind Desktop Modelle mit einer größeren TDP. Und der i3 erst, wie kann man immer nur so verpeilt sein :rolleyes:

Als ob der bei 4x2,4 @ max last nur 10 watt brauchen würde...


Die takten nicht so hoch, das gibt die TDP nicht her und manchmal die Temperaturgrenze. Höchstens für ein paar Sekunden, danach sinkt der Takt unter 2 Ghz, teils deutlich je nach Last und Dauer und Kühlung. Exemplarisch vom Yoga 330 mit N5000:


Unseren Stresstest (Prime95 und Furmark laufen für mindestens eine Stunde) durchläuft das Yoga 330 im Netz- und im Akkubetrieb auf die gleiche Weise. Der Prozessor beginnt den Test mit 2,1 GHz. Im weiteren Verlauf sinkt der Takt auf 1,6 bis 1,8 GHz und verbleibt auf diesem Niveau.

aufkrawall
2020-04-12, 01:53:07
Wenn ich allein Furmark in Standardeinstellungen auf dem N4000 starte, wird die CPU sofort auf 900MHz und der SoC auf 8W gedrosselt. Deren Gerät konnte wohl zaubern... ;D

y33H@
2020-06-10, 18:13:34
Lakefield ist da:

https://www.golem.de/news/lakefield-intels-arm-konter-ist-da-2006-149013.html
https://www.computerbase.de/2020-06/intel-lakefield-3d-hybrid-cpu-foveros/
https://www.anandtech.com/show/15841/intel-discloses-lakefield-cpus-specifications-64-execution-units-up-to-30-ghz-7-w

Gibt noch nen Call mit hoffentlich mehr Infos ...

robbitop
2020-06-11, 11:02:52
Extrem interessant - und wie winzig das Package ist. Beeindruckend. Auch die Idle Leistungsaufnahme.
Die Nachfolger werden noch besser werden.
Schade, dass man wegen Tremont (damit hin und her switchen kann) auf AVX und SMT verzichten musste.

mczak
2020-06-11, 17:54:24
Extrem interessant - und wie winzig das Package ist. Beeindruckend. Auch die Idle Leistungsaufnahme.
Die Nachfolger werden noch besser werden.
Schade, dass man wegen Tremont (damit hin und her switchen kann) auf AVX und SMT verzichten musste.
Dass man da zwingend auf SMT verzichten musste scheint mir nicht so klar, das ist ja transparent für Applikationen. Aber vielleicht würde das die Komplexität des Schedulers zu sehr erhöhen.

Locuza
2020-06-11, 18:28:36
Ich hab gestern in dem Call ja auch gefragt warum SMT aus ist .. offiziell sagen sie auch hier Power.
https://www.computerbase.de/forum/threads/lakefield-intels-gestapelte-hybrid-cpu-bietet-5-kerne-bei-7-watt-tdp.1951156/page-8#post-24243192

robbitop
2020-06-11, 18:35:16
Dass man da zwingend auf SMT verzichten musste scheint mir nicht so klar, das ist ja transparent für Applikationen. Aber vielleicht würde das die Komplexität des Schedulers zu sehr erhöhen.
Würde ich auch tippen. Denn 2T müssen sicherlich anders behandelt werden als 2C. Wenn man dann zwischen kleinen Cores, die kein SMT haben und dem großen mit SMT hin und herschaltet - und das mit dem regulären Windows Scheduler -> das kann problematisch sein.
Wie man ja bei den letzten Topologiewechseln bei AMD und Intel gesehen hat, ist der Windows Scheduler nicht gerade die Stärke von MS. Insbesondere im Vergleich zum Linux Scheduler.
Ggf. baut Intel ja mittelfristig SMT auch in ihre kleinen Cores ein.

https://www.computerbase.de/forum/threads/lakefield-intels-gestapelte-hybrid-cpu-bietet-5-kerne-bei-7-watt-tdp.1951156/page-8#post-24243192
SMT erhöht in der Regel eher die Energieeffizienz. Man bekommt mehr Leistung als es Leistungsaufnahme kostet. Im Gegenzug könnte man die Leistungsaufnahme via Taktreduktion kompensieren.

MiamiNice
2020-06-11, 19:25:53
Wie viele Jahre werden noch vergehen bis wir CPUs in Würfelform bauen die einfach nur in den entsprechenden Slots im "was auch immer" geschoben werden?
Das dürfte doch so etwas wie der heilige Grahl sein. Gekühlt vielleicht durch ein Loch an einer Seite welches bis zum Mittelpunkt des Würfels reicht und die Hitze genau da eleminiert wo sie erzeugt wird. Ich habe mal von so was geträumt ;D:freak:

y33H@
2020-06-11, 20:04:33
Frühere in-order-Atoms hatten SMT ... und ja, das kostet Energie im Falle von Sunny Cove.

robbitop
2020-06-11, 20:13:25
Frühere in-order-Atoms hatten SMT ... und ja, das kostet Energie im Falle von Sunny Cove.

Ja aber es bringt mehr Performance als es Energie kostet. Takt hingegen kostet überproportional mehr Energie. Ein wenig Takt gegen SMT sollte ein guter Tausch in Bezug auf Energieeffizienz sein.

gmb
2020-06-11, 20:23:02
SMT verbraucht überproportional Energie bei Sunny Cove, es wäre ineffizient gewesen das anzulassen. Die PL2 beträgt nur 9.5W bei Lakefield, also das unterscheidet sich erheblich von Core-Y, wo der PL2 deutlich höher liegt.

Windi
2020-06-11, 20:47:10
Die große Frage ist halt, was ist effizienter?

Ein großer Kern mit HT.
Oder ein großer Kern ohne HT und zusätzlich noch ein kleiner Kern.

Im Idle und unter schwacher Belastung werden die kleineren Kerne sicher helfen Strom zu sparen.
Aber wie sieht es unter Last aus? Das wird sicher noch interessant zu beobachten.

robbitop
2020-06-11, 21:25:04
SMT verbraucht überproportional Energie bei Sunny Cove, es wäre ineffizient gewesen das anzulassen. Die PL2 beträgt nur 9.5W bei Lakefield, also das unterscheidet sich erheblich von Core-Y, wo der PL2 deutlich höher liegt.
Das wäre ungewöhnlich. Gibt es korrespondierende Benchmarks und Leistungsaufnahmen mit SMT on vs off? Wenn es 30% mehr Verbrauch bedeutet bei 30% mehr Leistung wäre das immer noch ein sehr guter Deal. Denn f~P³ ;)

y33H@
2020-06-11, 21:34:05
Mein Verständnis war, dass SMT die Leerlauf Leistungsnahme steigert.

robbitop
2020-06-11, 21:35:09
Mein Verständnis war, dass SMT die Leerlauf Leistungsnahme steigert.
Das wäre aber unlogisch. Wodurch soll das zustande kommen? Hat das jemand schonmal nachmessen können?

gmb
2020-06-11, 21:42:58
Ja irgendwo konnte man das sehen, das SMT ziemlich ineffizient aussah bei Sunny Cove. 30% mehr Leistung ist auch zu hoch gegriffen, im Mittel wird man eher bei 20-25% liegen, im Idealfall.

Windi
2020-06-11, 21:43:04
Das wäre ungewöhnlich. Gibt es korrespondierende Benchmarks und Leistungsaufnahmen mit SMT on vs off? Wenn es 30% mehr Verbrauch bedeutet bei 30% mehr Leistung wäre das immer noch ein sehr guter Deal. Denn f~P³ ;)
Aber was ist, wenn man bei einem zusätzlichen kleinen Kern für 30% mehr Verbrauch gleich 50% mehr Leistung bekommen würde?
Das wird man aber erst in der Praxis genau beobachten können, wenn die ersten Modelle erhältlich sind.

robbitop
2020-06-11, 21:58:08
Ja irgendwo konnte man das sehen, das SMT ziemlich ineffizient aussah bei Sunny Cove. 30% mehr Leistung ist auch zu hoch gegriffen, im Mittel wird man eher bei 20-25% liegen, im Idealfall.
Das war eine arbiträre Zahl. ;)
Nach meiner Erfahrung kostet SMT (Sunny Cove kenne ich aber nicht) aber normalerweise viel weniger als es bringt.

Aber was ist, wenn man bei einem zusätzlichen kleinen Kern für 30% mehr Verbrauch gleich 50% mehr Leistung bekommen würde?
Das wird man aber erst in der Praxis genau beobachten können, wenn die ersten Modelle erhältlich sind.
Für absolutes MT wird das schon hinkommen. Da sind die kleinen Kerne einfach effizienter. Aber häufig sind auch mal einzelne Threads zeitkritisch, so dass sie zum Bottleneck werden. Da hilft 1x starker Kern schon. Aber heute ist oft auch mehr als 1x Thread der etwas heavier ist ^^

y33H@
2020-06-11, 22:09:46
Das wäre aber unlogisch. Wodurch soll das zustande kommen? Hat das jemand schonmal nachmessen können?
Ich muss es selbst erst suchen.

Windi
2020-06-12, 10:09:14
Für absolutes MT wird das schon hinkommen. Da sind die kleinen Kerne einfach effizienter. Aber häufig sind auch mal einzelne Threads zeitkritisch, so dass sie zum Bottleneck werden. Da hilft 1x starker Kern schon. Aber heute ist oft auch mehr als 1x Thread der etwas heavier ist ^^

Ich wollte hier keine großen Kerne gegen Kleinere austauschen, sondern:
BIG + HT vs. BIG + little

Das hätte mehrere Effekte:
-Zum einen werden die Großen durch das weglassen von Hyperthreating etwas kleiner, wodurch man wieder etwas Platz gewinnt für zusätzliche kleine Kerne.
-Zum anderen bleiben die Großen etwas Kühler, da sie ohne HT weniger rechnen. Was ein wenig gegen Hot Spots helfen könnte.
-Auch könnte ein kleiner Kern mehr Rechenleistung bringen, als einmal Hyperthreating bei einem großen Kern.
-Für den Verbrauch unter geringer Last ist das sicherlich auch gut.
-Unter Vollast könnte es sich auch lohnen. Hier mal eine Milchmädchenrechnung (Zahlen sind frei erfunden):
Ein Acht Kerner ohne HT verbraucht 100W für 100% Leistung.
Ein Acht Kerner mit HT verbraucht 130W für 130% Leistung.
Ein Acht Kerner mit zusätzlich acht Tremont Kernen verbraucht 108W für 150% Leistung.
(Tremont Kerne sollten mit 1W pro Kern auskommen, sonst wäre Lakefield gar nicht möglich. Wieviel Leistung sie so bringen, muss man abwarten)
(Außerdem könnte die Leistung der Großen Kerne etwas steigen, wenn man nicht mehr auf HT Rücksicht nehmen muss)

Der_Korken
2020-06-12, 11:16:34
Als Intel SMT damals mit Nehalem wieder einführte, wurde gemunkelt es würde letztendlich nur +5% zusätzliche Fläche kosten. Der Leistungszuwachs kommt durch nicht ausgelastete Recheneinheiten bei nur einem Thread pro Kern. Sobald SMT tatsächlich 30% mehr Leistung generiert, kann man den Takt etwas senken, sodass bei gleichem Verbrauch immer noch mehr Leistung rausbekommt, denn Takt senken bringt überproportional viel Verbrauchsersparnis. Es sei denn, die Kerne takten bereits so niedrig, dass die Spannung nicht weiter gesenkt werden kann und man durch Uncore-Fixverbräuche sogar minimal ineffizienter wird. Eventuell ist das bei Lakefield der Fall bei gerade mal 7W.

Windi
2020-06-12, 11:50:38
Den Flächenverbrauch sehe ich nicht mehr als so kritisch an.

Die 8 Kerne auf AMDs Chiplet brauchen gerade einmal 75mm². Und haben dabei einen sehr großen Cache.
Auch auf den Dieshots von Renoir sehen die 8 Kerne echt winzig aus.


Das wichtigste scheint für mich die Leistung und der Stromverbrauch zu sein. Und dabei scheint ein Tremont Kern als Ersatz für Hyperthreading Vorteile zu bringen.

Tesseract
2020-06-12, 13:20:43
derart große kerne ohne SMT machen absolut keinen sinn. SMT kostet, wenn man die caches mit einrechnet, wahrscheinlich weniger als 3% fläche und kann in extremsituationen auch mal ~40% mehr performance aus bestehenden infrastrukturen rausholen. was macht man stattdessen mit einem kleineren core? wenn der am großen cache hängt ist er kein "kleiner" core mehr weil er den komplex als ganzes aufbläst und ein seperater komplex (inkl. cache) nur aus kleinen cores hätte in der praxis viele probleme bzgl. schwankender lasten, kontext switches usw. - im mobilbereich geht man für maximale energieeffizienz über leichen, auch wenn das responsiveness, IPC, performance/mm² usw. kostet und der typische anwenungsfall ist auch ein anderer wenn geräte mal eben 90% der zeit im standby sind und ganz leichtes netzwerk/notification/etc. zeug machen.

Loeschzwerg
2020-06-12, 17:47:25
Wie man ja bei den letzten Topologiewechseln bei AMD und Intel gesehen hat, ist der Windows Scheduler nicht gerade die Stärke von MS. Insbesondere im Vergleich zum Linux Scheduler.


Da bin ich eh gespannt wie gut der Windows Scheduler mit diesem Konzept (1x Big + 4x Small) umgehen kann und die Lasten verteilt.

@y33H@: Bekommt ihr ein Sample des Galaxy Book S mit Lakefield?

y33H@
2020-06-12, 18:10:00
Ist angefragt, aber wann weiß ich nicht - derzeit nur Book Flex und Book Ion verfügbar, das Book S wird zudem noch nicht verkauft um es sich über den Handel zu holen.

mczak
2020-06-13, 00:21:23
Den Flächenverbrauch sehe ich nicht mehr als so kritisch an.

Vor allem würde ich jede Wette eingehen dass der Sunny Cove Kern das physikalisch kann, es ist bloss deaktiviert. Intel baut da sicher nicht extra den Kern um.

robbitop
2020-06-13, 14:51:21
Ich frage mich ob das auch mit einer Mischung aus geshrinkten alten Cores als Little Cores gehen würde. Ein paar Shrinks weiter sollten die auch ziemlich sparsam sein.
Z.B. 1x Sunny Cove und 4x Sandy Bridge Cores in 10 nm. Wenn die Sandys mit ,x GHz laufen würden.

Ich tippe aber das der große Vorteil im idle Verbrauch wahrscheinlich nur von speziell für entsprechend dafür gemachte uArchs möglich ist. Also eine uArch die für 10 Größenordnung weniger an TDP ausgelegt worden ist.
1x großer Core 5-10W, ein kleiner Core 0,5-1,0 W mit besonders niedrigem idle Verbrauch.

Die Entwicklung von 2 uArchs ist ja auch doppelt so aufwändig. AMD könnte bspw in 5nm 1x Zen4 + 4x Zen+ verbrauen. Ich tippe aber aus dem o.g. Grund darauf, dass das nicht den gleichen Effekt hätte.

Benutzername
2020-06-13, 15:39:47
Ich frage mich ob das auch mit einer Mischung aus geshrinkten alten Cores als Little Cores gehen würde. Ein paar Shrinks weiter sollten die auch ziemlich sparsam sein.
Z.B. 1x Sunny Cove und 4x Sandy Bridge Cores in 10 nm. Wenn die Sandys mit ,x GHz laufen würden.

Vermutlich werden sie Teile übrnommen haben um nicht alles neu zu entwickeln, aber reines copypasta wird es auch nicht sein um eben auf niedrigen Verbrauch zu optimieren. Alles imho und so.


Ich tippe aber das der große Vorteil im idle Verbrauch wahrscheinlich nur von speziell für entsprechend dafür gemachte uArchs möglich ist. Also eine uArch die für 10 Größenordnung weniger an TDP ausgelegt worden ist.
1x großer Core 5-10W, ein kleiner Core 0,5-1,0 W mit besonders niedrigem idle Verbrauch.

Die Entwicklung von 2 uArchs ist ja auch doppelt so aufwändig. AMD könnte bspw in 5nm 1x Zen4 + 4x Zen+ verbrauen. Ich tippe aber aus dem o.g. Grund darauf, dass das nicht den gleichen Effekt hätte.

Also Atom-Kerne verbaut? Die wären ja auf Stromsparen optimiert.

robbitop
2020-06-13, 15:42:57
Das ist ja hier der Fall. 4x Kerne aus der Atom Line und 1x aus der Core line.

gmb
2020-06-13, 15:53:30
Idle Power wäre das Problem, hier würde der shrink kaum was bringen. Sandy Bridge kennt noch nicht die tiefen Idle Modi wie die Skylake Generation, ohne Anpassungen würde man sich da wahrscheinlich sogar verschlechtern. Auch der IMC müsste auf jeden Fall überarbeitet werden.

Seit der ersten Skylake Generation konnten auch nur minimale Idle Ersparnisse erzielt werden und Icelake sieht grundlegend genauso aus, da müssten fundamentale Verbesserungen Core seitig erfolgen. Bei der IPC wäre SB wohl auch nicht mehr viel besser als Tremont, er hätte nur AVX 1 Support.

robbitop
2020-06-13, 15:56:02
IMC ist ja nicht Teil der Cores. Aber ja das mit dem idle Verhalten vermute ich auch.

Windi
2020-06-13, 16:11:28
ARM bietet ja auch unterschiedliche uArchs gleichzeitig an.

Also ist es anscheinend möglich mehrere uArchs zu entwickeln, auch wenn man nicht Intel heißt. Man kann ja auch viele Dinge weiter verwenden.
Ob AMD das schafft ist halt die Frage.

Der Ersatz von HT durch die Tremont Kerne sollte sich positiv auf die Multicore und Singelcore Leistung auswirken.

Allerdings nur, wenn dadurch nicht die interne Kommunikation der CPUs zu sehr aufgeblasen wird. Wenn sich dadurch die Latenzen zwischen den Kernen und zum Cache verschlechtern, ist das eher ein Schuss in den Ofen. Dann reduziert man dadurch nur die Leistung der dicken Kerne.
So wäre es nur als Turbo für eine sonst langsame CPU nutzbar -> Lakefield

Tesseract
2020-06-13, 16:57:03
Seit der ersten Skylake Generation konnten auch nur minimale Idle Ersparnisse erzielt werden

soweit ich weiß ging der idle-verbrauch mit skylake sogar etwas nach oben da die integrierten spannungswandler aus takt/temperatur-gründen wieder rausgeflogen sind. jedenfalls lag haswell damals in vielen tests unter skylake. ein broadwell ohne L4 hätte wohl bis heute den gringsten idleverbrauch unter den "großen".

=Floi=
2020-06-15, 01:29:37
kann in extremsituationen auch mal ~40% mehr performance aus bestehenden infrastrukturen rausholen.

wann soll das sein?

sobald mehr als ein core im system ist, sehe ich mittlerweile SMT als obsolet an. Wenn man es hat ist es ok, aber normal bringt es maximal 25% performance und einen echten core kann es nicht ersetzen.

robbitop
2020-06-15, 08:12:42
Gibt genug Spiele, die bei 4c und 6c ohne smt unschön laufen. SMT hilft da sehr. Vor 4-5 Jahren war das bei 2c so.
Ansonsten hilft es bei Dingen, die stark parallelisierbar sind. Wie Videoencoding oder Videoschnitt (effekte) oder komoression/dekompression, beim Kompilieren, bei Blender etc.

@mehrere uArchs für x86
Ich vermute, der Markt ist hier sehr klein und AMDs potenzieller Anteil macht ihn zur Nische. Lohnt für AMD wohl aktuell nicht, wenn sie durch Verdrängung von Intelanteilen durch Fokus und Execution auf eine uArch wachsen können.
AMD ist verglichen mit Intel sehr klein.
Und laut Gerüchten geht es ab 2021/22 los, dass Intel auf Traktion kommt (10nm läuft und Golden Cove und etliche Nachfolger uArchs kommen wieder im jährlichen Zyklus - Intel ist dann wieder wach). Keine Zeit, rumzupimmeln für AMD. ;)

Loeschzwerg
2020-06-15, 09:04:16
Mit dem aktuellen Embedded Lineup deckt AMD bereits eh viele Teilbereiche ab, da lohnt eine weitere x86 Lösung bzw. Eigenentwicklung aktuell wirklich nicht. Auch denke ich das AMD über die Custom SoC Sparte so oder so schon recht gut aufgestellt ist (u.a. die Zusammenarbeit mit Samsung; hier wird ja ein ähnliches Ziel verfolgt, der Angriff auf Qualcomm).

Tesseract
2020-06-15, 11:04:55
wann soll das sein?
wenn die anforderungen der beiden threads sehr disjunkt sind. in der praxis kommt das natürlich selten bzw. nur kurzzeitig vor (siehe z.B. min. fps bei 2C/2T vs 2C/4T), deswegen "extremsituation", aber ~25% über einen ganzen task hinweg ist eine ganze menge dafür, dass SMT im prinzip nix anderes macht als mit minimalem transistoraufwand bestehende strukturen (caches, rechenwerke, pipelines) besser auszulasten.

sobald mehr als ein core im system ist, sehe ich mittlerweile SMT als obsolet an. Wenn man es hat ist es ok, aber normal bringt es maximal 25% performance und einen echten core kann es nicht ersetzen.
SMT "ersetzt" keine cores, es holt in einigen situationen mehr performance pro transistor raus.

aufkrawall
2020-06-15, 11:51:57
aber ~25% über einen ganzen task hinweg
Hatte in Hitman DX12 schon +35% festgestellt. Wohlgemerkt in der statischen Szene konstant/avg, nicht peak.
Ist auch mal wieder so ein Fall, wo die Leute an ihrer Meinung aus der Mottenkiste festhalten wollen...

Loeschzwerg
2020-06-26, 17:20:35
Da bin ich eh gespannt wie gut der Windows Scheduler mit diesem Konzept (1x Big + 4x Small) umgehen kann und die Lasten verteilt.

Offenbar läuft das noch nicht so ganz optimal, schade:
https://www.notebookcheck.net/Exclusive-First-benchmarks-of-Intel-s-Lakefield-Hybrid-CPU-Innovative-or-unnecessary.477524.0.html

Tremont einzeln betrachtet sieht mir aber nicht schlecht aus.

gmb
2020-06-27, 14:28:03
Ja in Cinebench R15/R20 1T, dagegen sehen Cinebench R10 und die Browser Benchmarks deutlich besser aus. Warum wird in Cinebench R10 1T offensichtlich Sunny Cove verwendet und in den neuen nicht ist die Frage. Die Frage ist auch, ob das noch verbessert werden kann mit Software/Treiber Updates.

Aber so kann man sich die IPC von Tremont in Cinebench ansehen. Cinebench R15 1T läuft mit 2.4 Ghz sagt Notebookcheck, zum Vergleich mit älteren big und little cores:

Cinebench R15 1T

i7-7700K @2.4 Ghz (Skylake) 105
i3-4000M 2.4 Ghz (Haswell) 95
i5-L16G7 2.4 Ghz (Tremont) 88
i3-3110M 2.4 Ghz (Ivy Bridge) 85
N4100 2.4 Ghz (Goldmont Plus) 70
Q6600 2.4 Ghz (Nehalem) 63
N3350 2.4 Ghz (Goldmont) 48
N3700 2.4 Ghz (Airmont) 39


Cinebench R15 reagiert bekanntlich kaum auf Speicher, von daher sollte das gut vergleichbar sein. 25% über den Vorgänger und bei den big cores zwischen Ivy Bridge und Haswell. Das finde ich schon sehr beachtlich, was die IPC zumindest in Cinebench R15 angeht. Der größte Schwachpunkt bleibt die vergleichsweise niedrige Boost Taktfrequenz, hier hat sich praktisch nichts getan in den letzten Atom Generationen, während die big cores immer weiter nach oben gegangen sind.

y33H@
2020-06-27, 16:05:20
Laut Intel boosten die TNTs auf bis zu 2,8 GHz (i5) und bis zu 2,6 GHz (i3) - die 1,8 GHz bzw 1,3 GHz sind Allcore für 5C.

gmb
2020-06-27, 16:21:29
Weder 3.0 noch 2.8 Ghz werden erreicht im Notebookcheck Test, zumindest in Cinebench R15:

Interessanterweise sehen wir bei Single-Core-Belastung maximal 2,4 GHz und bei der Verwendung von allen Kernen laufen 4 Kerne mit ~1,9 GHz und 100 % Last, während ein Kern mit knapp 10 % Last und 200-300 MHz arbeitet.


Ist halt die Frage, inwieweit Bios/Software/Treiber updates daran etwas verbessern können. Sunny Cove mit 3 Ghz wäre eine komplett andere Leistungsklasse in Cinebench R15 1T.

Lehdro
2020-06-27, 21:27:23
Da muss wohl eher der Scheduler von Win10 ran, kommt da nicht angeblich was mit Win10X?

dildo4u
2020-06-27, 21:30:31
Intel hat eigentlich viel Einfluss auf Microsoft wundert mich das das nicht im Mai Update dabei war.

gmb
2020-06-28, 00:14:05
Eine weitere Theorie wäre, dass Cinebench 64 bit über dem power Budget für 1x Sunny Cove 3 Ghz liegt und der Soc deswegen auf Tremont zurückschaltet. Die Browser Benchmarks sind nicht so fordernd und dort ist offensichtlich Sunny Cove am arbeiten. Es ist nicht bekannt, wie flexibel Sunny Cove arbeiten kann/darf in Lakefield. Kann er auch mit 2.0 Ghz arbeiten usw. 7W sind nicht viel und im Gegensatz zu AMDs TDP gilt das Budget für den gesamten Soc. Zudem ist die PL2 für kurzzeitige Leistungsspitzen in Lakefield sehr niedrig angesetzt: 9.5W. Zum Vergleich: Gemini Lake mobile hat eine TDP von 6W aber dafür einen PL2 von 15W.

gmb
2020-07-10, 18:20:03
Samsung Galaxy Book S Laptop im Test: Lakefield mit Startschwierigkeiten (https://www.notebookcheck.com/Samsung-Galaxy-Book-S-Laptop-im-Test-Lakefield-mit-Startschwierigkeiten.480313.0.html)

Es lag wohl an der Cinebench Version. Die haben auf R20.060 aktualisiert und damit den ST score um 51% steigern können.

Interessant ist auch das hier wenn es stimmt:

Laut unseren Informationen von Intel wurde das PowerLimit 1 von Samsung aber von 7 auf 5 Watt reduziert (PL2 weiterhin bei 9,5 Watt). Die nachfolgenden Ergebnisse sind daher nicht repräsentativ für die eigentliche Leistungsfähigkeit des Lakefield-Prozessors, wenn er mit den spezifizierten 7/9,5 Watt betrieben wird. Wir warten derzeit noch auf ein offizielles Statement von Samsung und werden das natürlich nachreichen.

=Floi=
2020-07-10, 19:30:09
Wenn es so verkauft wird ist es egal was bei 7 watt geht. Wieder so ne typische mogelpackung. Gleicher mist, wie mit den DDR3 grafikkarten/laptops

Loeschzwerg
2020-07-10, 20:13:45
Jein, es kann ja in diesem Fall auch wunderbar zum Use-Case mit Fokus auf mehr Laufzeit passen.

=Floi=
2020-07-10, 20:20:34
meistens ist es einfach nur ne kostenersparnis und 80% der produkte haben die billige lösung und die 20% sind überteuert und liefern ab.
Sowas trifft bei mir den richtigen nerv...
Sucht man einen laptop mit bestimmter GPU, musste man teilweise ewig suchen, um einen mit gutem vram zu bekommen. :rolleyes:
Müsste ich NV dafür bewerten, würde ich ihnen 0 punkte geben.

robbitop
2020-07-10, 22:47:19
Enttäuschend. Idleverbrauch doch noch relativ hoch und offenbar müssen Anwendungen extra dafür gepatcht/optimiert werden, dass der SC Kern richtig genutzt wird. Ggf wird es zum Nachfolger besser. Der große Vorteil zu den 0815 15W CPUs ist leider in dem review zu dem Produkt leider nicht gegeben.

gmb
2020-07-10, 23:14:45
In Anbetracht der Größe und Gewicht würde ich das so nicht sagen wollen. Such doch mal nach konventionellen 15W ULV Geräten in 13 Zoll, 940g, 11.8mm Höhe mit touchscreen, die obendrein ohne Lüfter auskommen. Es gibt fast nichts bzw. um genau zu sein keins.

Mich wundert die Akkulaufzeit im Verhältnis zum gemessenen Stromverbrauch im Test. Der Verbrauch liegt zwar höher als bei der ARM Version, aber nur leicht. Idle Durchschnitt 4.8W vs 4.3W.

Abgesehen vom Idle min, der aber nicht wirklich praxisrelevant ist. Die Laufzeiten dagegen unterscheiden sich sehr stark, vom Verbrauch her passt das nicht.

y33H@
2020-07-11, 00:35:25
Interessant ist auch das hier wenn es stimmt:Jo, stimmt - ging intern ne Weile hin und her mit Firmware.

dildo4u
2020-07-11, 05:57:01
Enttäuschend. Idleverbrauch doch noch relativ hoch und offenbar müssen Anwendungen extra dafür gepatcht/optimiert werden, dass der SC Kern richtig genutzt wird. Ggf wird es zum Nachfolger besser. Der große Vorteil zu den 0815 15W CPUs ist leider in dem review zu dem Produkt leider nicht gegeben.
Jup damit hat man im Prinzip den selben Nachteil wie bei ARM wenn die Apps extra angepasst werden müssen schon erstaunlich das Intel sein einzigen Vorteil verliert.

robbitop
2020-07-11, 07:35:04
Ich dachte mir ja schon, dass asymetrisches SMP mit dem Windows Scheduler ein Problem wird. Hoffentlich können sie das -ohne dass extra applikationsspezifische Patches nötig bleiben (das verhindert die konsistente Verbreitung - das muss völlig transparent zur Anwendung laufen) - fixen. Zumindest bis zum Nachfolger.

Der Idleverbrauch des SoCs ist leider zu hoch. Und genau das sollte ja der Hauptvorteil des Komzeptes sein. Aber ggf ist ja auch das noch fixbar. Das Konzept ist super - gerade weil es besonders kleine Geräte mit viel Akkulaufzeit erlauben kann. Es muss aber dann auch genau so funktionieren.

Ich habe mich schon gewundert, warum Intel bei der Tremontvorstellung nur mäßig „aufgedreht“ hat. Ich hoffe, dass spätestens der Nachfolger genau das abliefert, was das Konzept versprochen hat. Denn prinzipiell wäre das schon genial. Ein super kleines Gerät mit riesen Akkulaufzeit, dass x64 Anwendungen ausführen kann und sich flink anfühlt.

y33H@
2020-07-11, 09:12:33
Das 7W Update kommt in einigen Tagen, dürfte aber die Leistung nicht signifikant steigern. Was mir bei NBC fehlt, ist die Aussage, dass es außerhalb Deutschlands auch LTE gibt beim Intel ... und der Sunny Cove rechnet sehr wohl oft, aber eben immer nur kurz.

gmb
2020-07-11, 15:29:28
Das 7W Update kommt in einigen Tagen, dürfte aber die Leistung nicht signifikant steigern. Was mir bei NBC fehlt, ist die Aussage, dass es außerhalb Deutschlands auch LTE gibt beim Intel ... und der Sunny Cove rechnet sehr wohl oft, aber eben immer nur kurz.


Ja Notebookcheck schreibt das auch:


Note: Shortly after the original German review of the Galaxy Book S was published, we got an official statement from Samsung regarding the power consumption of the Lakefield processor. It states that Samsung is planning to increase the TDP from 5 to 7 Watts with an update within the next two weeks. Once the update is available, we will have another look at the performance and the surface temperatures.


Aber wieso nicht signifikant steigern? Eine Verbesserung im zweistelligen Bereich würde ich schon erwarten, immerhin sind das 40% mehr beim PL1. Bei längerer Last sollte sich das am meisten bemerkbar machen.

=Floi=
2020-07-11, 16:07:22
und der Sunny Cove rechnet sehr wohl oft, aber eben immer nur kurz.

warum macht man das sheduling nicht intern? Die jetzige lösung ist doch die blödmöglichste.
Dann wundert man sich hinterher, warum die technik nicht gut funktioniert und erfolgreich wird.

y33H@
2020-07-11, 16:23:03
Die Werte, die mir vorliegen, zeigen keine drastische Steigerung bei längeren Workloads.

gmb
2020-07-11, 16:30:43
Die Werte, die mir vorliegen, zeigen keine drastische Steigerung bei längeren Workloads.


Dann poste einfach mal die Werte mit 5W und 7W.

y33H@
2020-07-11, 18:26:14
Sobald das Firmware Update öffentlich ist.

=Floi=
2020-07-11, 19:39:31
Die Werte, die mir vorliegen, zeigen keine drastische Steigerung bei längeren Workloads.

dann müsste quasi die drossel zu stark sein. Normal, wenn das richtig skaliert, müssten ja eher geschätzt bis 30% mehr performance möglich sein.

robbitop
2020-07-12, 10:25:52
Frequenz und Leistungsaufnahme sind nunmal leider nicht linear proportional zueinander. Wenn man zu jeder Frequenz die minimale Spannung fährt (was am effizientesten ist), braucht höhere Frequenz auch mehr Spannung. Das ist leider eine Potenzfunktion.

y33H@
2020-07-12, 10:32:29
Sieht man zB ja am 3700X und 3800X.

=Floi=
2020-07-12, 15:55:30
.

in den bereichen sollte die cpu aber beidemale am technisch unterem volt-limit arbeiten. Hätte gedacht die hähere TDP läuft nur über mehr takt.