PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Skylake - DDR4, Gen9 GPU @ 14nm (2016) & Skylake-X - up to 18C @ 14FF++ (2017)


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13

AnarchX
2012-06-13, 14:03:19
Mit Skylake könnte wohl die MIC-Architektur im Desktop ankommen: http://semiaccurate.com/2012/06/12/what-comes-after-knights-landing/

Updates:

Da es zum Skylake noch keinen Thread gibt, mach ich jetzt einen auf ;)

Technologie: 14nm Transistoren, Sockel 1151, Z170/H170 Chipsatz (Sunrise Point)

CPU Portfolio:

Kerne Taktraten L3 Grafik Speicher TDP Listenpreis
Core i7-6700K 4 + HT 4.0/4.2 GHz 8 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i7-6700 4 + HT 3.4/4.0 GHz 8 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6600K 4 3.5/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i5-6600 4 3.3/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6500 4 3.2/3.6 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6400 4 2.7/3.3 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
...kleinere Modelle folgen
(aus umfangreiche-modellinformationen-zu-intels-skylake-generation-aufgetaucht (http://www.3dcenter.org/news/umfangreiche-modellinformationen-zu-intels-skylake-generation-aufgetaucht))

RAM: UNIDIMM (http://en.wikipedia.org/wiki/UniDIMM), inkompatibel zu DDR3 und DDR4. UNIDIMMs können DDR3 oder DDR4 Chips tragen, die unterschiedliche Versorgungsspannung von 1.5V bzw. 1.2V wird durch Spawas auf den UNIDIMMS erzeugt.

Support für 20 PCI Express 3.0 lanes (LGA 1151)
Support für PCI Express 4.0 (Skylake-E/EP/EX) ab 2017

Launch: auf dem Intel Developer Forum (IDF) am 15. August 2015
aus: Skylake_microarchitecture (http://en.wikipedia.org/wiki/Skylake_%28microarchitecture%29)




http://s7.directupload.net/images/130625/bsgo9w22.png
http://www.icsr.agh.edu.pl/~kito/Arch/arch1-1-4B-x86.pdf


Worked on following projects:
Skylake Intel Gen 9 GPU
Broadwell Intel Gen 8 GPU
Haswell Intel Gen7.5 GPU
IvyBridge Intel Gen 7 GPU
Valleyview (Low power, low cost skew of IvyBridge)
http://in.linkedin.com/pub/bhrugurajsinh-chudasama/1b/b/5b4

Ailuros
2012-06-13, 15:44:28
Mit Skylake könnte wohl die MIC-Architektur im Desktop ankommen: http://semiaccurate.com/2012/06/12/what-comes-after-knights-landing/

Selbst Charlie selber hat immer noch so manche Zweifel wie man lesen kann. Unter den bisherigen Fundamenten der Architektur, klingt es mir immer noch absurd. Eine weiterentwickelte Architektur mit einem logischen Prozentual an ff hw waere natuerlich ein ganz anderes Kapitel. Uebrigens Charlie's Artikel ist diesbezueglich ziemlich genau: der Skylake GPU block soll vom gleichem team entwickelt werden wie alles Knights-whatever bisher. Dieses kann alles und gar nichts heissen, denn es wird wohl keiner so bloed sein nicht von seinen Fehlern zu lernen.

Duplex
2012-06-13, 16:47:50
Eine neue CPU Architektur ist nicht nötig wenn Intel weiterhin alle 2 Jahre durch weiterentwickeln der P6 Basis 15-20% IPC dazu gewinnen kann, mit Takt & Turbo Updates kommt man Auto. in richtung >30%, ob das weiterhin möglich sein wird werden wir Anfang 2013 mit Haswell sehen.

Ailuros
2012-06-16, 07:53:14
Eine neue CPU Architektur ist nicht nötig wenn Intel weiterhin alle 2 Jahre durch weiterentwickeln der P6 Basis 15-20% IPC dazu gewinnen kann, mit Takt & Turbo Updates kommt man Auto. in richtung >30%, ob das weiterhin möglich sein wird werden wir Anfang 2013 mit Haswell sehen.

Lies mal bitte den SA link etwas ausfuehrlicher durch, denn es geht wohl offensichtlich nicht um CPUs.

AnarchX
2012-06-16, 09:23:18
Dieses kann alles und gar nichts heissen, denn es wird wohl keiner so bloed sein nicht von seinen Fehlern zu lernen.
Mit 14nm könnte man den originalen LRB wohl auf unter 100mm² als IGP unterbringen.
Aber natürlich wird man hier wohl eine deutlich weiter entwickelte Version einsetzen.
Man kann wohl annehmen, dass GenX sich möglicherweise nicht für >1 TFLOPs GPUs eignet und auch so die MIC-Architektur für GPGPU besser geeignet sein könnte.

Ailuros
2012-06-17, 07:14:32
Mit 14nm könnte man den originalen LRB wohl auf unter 100mm² als IGP unterbringen.
Aber natürlich wird man hier wohl eine deutlich weiter entwickelte Version einsetzen.

Je kleiner der Einsatz einer solchen Architektur desto groesser wird die Not fuer ff hw.

Sehr wenige cores mit sw tiling als Beispiel klingt mir nach wie vor nach einer kompletten Schnappsidee.

Man kann wohl annehmen, dass GenX sich möglicherweise nicht für >1 TFLOPs GPUs eignet und auch so die MIC-Architektur für GPGPU besser geeignet sein könnte.

Tja darum geht es mir eben gerade; wenn man eine reine GPGPU Schleuder integrieren will ist es auch kein Problem. So bald man aber auch etwas anstaendigere Leistung fuer 3D gegen die Konkurrenz haben will, muss man wohl vielleicht schon an eine ganz andere Balance von Design-Entscheidungen denken. Eventuell als Beispiel N% ff hw rein und dafuer - N% GFLOPs, ausser die area ist total wurscht.

Wenn mir jemand sagen wuerde dass sie den x86 Quark losgeworden sind, dann waere es ein weiterer Grund weniger diese Debatte zu fuehren.

Skysnake
2012-06-17, 10:42:01
Und wer sagt, das man 3D ernsthaft will?

HOT
2012-06-17, 10:45:21
Eine neue CPU Architektur ist nicht nötig wenn Intel weiterhin alle 2 Jahre durch weiterentwickeln der P6 Basis 15-20% IPC dazu gewinnen kann, mit Takt & Turbo Updates kommt man Auto. in richtung >30%, ob das weiterhin möglich sein wird werden wir Anfang 2013 mit Haswell sehen.
Da ist man wohl jetzt nur leider am Ende der Fahnenstange angekommen bei IB... Große Veränderungen wird man da in Zukunft nicht mehr sehen. Jetzt heißt es mehr Takt, weniger Spannung.

Undertaker
2012-06-17, 10:47:37
Sagt wer? Dass das Ende der Fahnenstange bei IPC-Steigerungen erreicht sei, hört man schon seit mehreren Generationen. Ich wäre überrascht, wenn nicht auch Haswell und darauffolgende Nachfolger wieder das ein- oder andere Prozent obendrauf packen.

Knuddelbearli
2012-06-17, 11:36:34
ein oder andere prozent sicher aber glaube nicht mehr an sprünge wie bei sandy oder core2duo

AnarchX
2013-06-26, 08:21:43
http://s7.directupload.net/images/130625/bsgo9w22.png
http://www.icsr.agh.edu.pl/~kito/Arch/arch1-1-4B-x86.pdf


AVX3 soll die FP-Leistung auf 32 FLOPs DP pro Kern erhöhen (64 FLOPs SP?). Das AVX3 ist wohl auch der Grund warum man Skylake in Verbindung zu Larrabee gebracht hat.

Skysnake
2013-06-26, 08:45:28
WHAT!

Knights Landing erst 2015? :ugly:

hihihihi ;D

Das bedeutet, das 2014 XeonPhi (KNC) ziemlich uninteressant ist. Ist ja "nur" das Doppelte, was Sie für Haswell prognostizieren, und der wird wohl nur die Hälfte verbrauchen, also die gleiche Effizienz haben, dabei aber gleichzeitig flexibler sein, also im Zweifel eben nicht so stark in der Leistung einbrechen.

Knights Landing (KNL) ist von der Peakperformance her ganz nett mit 3 TFlops, aber wirklich berauschend ist es nicht. Der GFlops/W Wert bei KNC passt btw irgendwie auch nicht.

Am interessantesten ist das Haswell(-EP/-EX, keine Ahnung, was aber ein -E). Da verdoppelt man mal kurz die Peak-Performance um einen Faktor 2 im Vergleich zu IB-E :eek:

Alter verwalter, das ist nicht schlecht, aber auch lange überfällig. Eventuell kann man so wieder etwas aufholen bei Moore.

So kann man auch durchaus wieder Kaufanreize schaffen. Wir gehen doch mal davon aus, das wir nicht über 150W TDP gehen :ugly:

AnarchX
2013-06-26, 09:12:48
LRB-Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9820761#post9820761 ;)

Aber die 16 FLOPs/Kern bei HSW sind doch nichts neues, das ist nunmal AVX2.

Mit AVX3 hat aber der CPU-Teil schon ziemlich erhebliche FP-Ressourcen (fast ein TFLOPs SP). Da könnte es wohl wirklich interessant werden, diese mit der GPU zu teilen.

HOT
2013-06-26, 10:09:38
Hm, wenn die GPU von Skylake wirklich von den Knights-Leuten gemacht wird, vllt. lässt sich Knights-Landing als dedizierte Grafikkarte verwenden?

S940
2013-06-26, 10:26:47
AVX3 soll die FP-Leistung auf 32 FLOPs DP pro Kern erhöhen (64 FLOPs SP?). Das AVX3 ist wohl auch der Grund warum man Skylake in Verbindung zu Larrabee gebracht hat.
Also AVX3 = LrbNI?
LrbNI hat ja 512bit und auch das berüchtigte FMA3-Format. Damit hätte man dann die Verdopplung.
Frag mich nur, wie das bei der Cacheanbindung enden soll... da müsste dann nochmal ne Verdopplung her, wo doch HSW erst auf 512bit (lesen) aufgebohrt wurde. Sieht demnach nach ner Kbit-Anbindung bei Skylake aus :freak:

Frag mich jetzt nur, wieso da auf der Folie schon wieder AVX3.2 steht, vermutlich aber wieder nur ein paar neue Befehle.

Ronny145
2013-06-26, 12:49:48
WHAT!

Knights Landing erst 2015? :ugly:

hihihihi ;D



Schau mal wo Knights Corner steht. Das könnte genauso ablaufen. Vorstellung und geringe Verfügbarkeit Ende 2014, so richtig erst ab dem darauffolgenden Jahr. In Anbetracht der neuen Fertigung keine so große Überraschung. Wenn die kleineren Broadwell 2C dies keine Ahnung vielleicht Juni starten, ist das realistisch kaum anders möglich. Der 4C Broadwell kommt auch erst in 2H 2014.

@topic:

PCIe4, DDR4, AVX3.2, Gen9 GPU, 14nm......fetter Tock. Zu hoffen wäre, dass Intel auf 6 Kerne geht. Die CPU kommt ja zum Glück von den Israelis, irgendwie gefallen mir deren CPUs besser.

dargo
2013-06-26, 13:19:58
Was soll eigentlich PCIe 4 bringen? 64GB/s?

Tesseract
2013-06-26, 13:41:42
ein oder andere prozent sicher aber glaube nicht mehr an sprünge wie bei sandy oder core2duo

der core 2 hatte so einen großen sprung weil der P4 müll war und sandy hatte keinen größeren sprung als ivy oder haswell, der sprung war nur auf stock relativ groß weil die lynnfields relativ niedrig getaktet waren, selbst im vergleich zum core 2.

die sprünge in der IPC haben sich eigentlich immer in einem relativ ähnlichen bereich bewegt in den letzten generationen.

Ronny145
2013-06-26, 13:56:18
Mit dem Unterschied das der Tick von SB ein paar Prozent IPC zugelegt hat. Verglichen zum Tock muss ich dir Recht geben. Im großen und ganzen ähnlich. SB sah vielleicht etwas besser in Anwendungen aus, Haswell dafür in Spielen. Den großen Unterschied gab es mit SB durch die gleichzeitige Taktsteigerung.


http://chinese.vr-zone.com/60095/haswell-e-lituya-bay-will-support-ddr4-memory-supposed-arrive-2014-q4-04192013/

Die Roadmap könnte man im Startpost aufnehmen.

HOT
2013-06-26, 13:57:24
Wenn AVX3 über die GPU läuft ist Skylake-E eine APU (Siehe das Schaubild).
Broadwell kommt als Haswell GT3-Ersatz und als Server-E-Variante, aber nicht im Desktop. Finde ich sehr interessant.

Zergra
2013-06-26, 14:38:22
Mit dem Unterschied das der Tick von SB ein paar Prozent IPC zugelegt hat. Verglichen zum Tock muss ich dir Recht geben. Im großen und ganzen ähnlich. SB sah vielleicht etwas besser in Anwendungen aus, Haswell dafür in Spielen. Den großen Unterschied gab es mit SB durch die gleichzeitige Taktsteigerung.


http://chinese.vr-zone.com/60095/haswell-e-lituya-bay-will-support-ddr4-memory-supposed-arrive-2014-q4-04192013/

Die Roadmap könnte man im Startpost aufnehmen.
Sandy hat doch 15 % mehr @ Mhz gemacht ?
http://www.3dcenter.org/artikel/launch-analyse-intel-haswell/launch-analyse-intel-haswell-nachtraege

Ronny145
2013-06-26, 14:41:49
Sandy hat doch 15 % mehr @ Mhz gemacht ?
http://www.3dcenter.org/artikel/launch-analyse-intel-haswell/launch-analyse-intel-haswell-nachtraege


Ja und?

robbitop
2013-06-26, 14:55:58
der core 2 hatte so einen großen sprung weil der P4 müll war und sandy hatte keinen größeren sprung als ivy oder haswell, der sprung war nur auf stock relativ groß weil die lynnfields relativ niedrig getaktet waren, selbst im vergleich zum core 2.

die sprünge in der IPC haben sich eigentlich immer in einem relativ ähnlichen bereich bewegt in den letzten generationen.
Sandy hat ~15 % IPC gebracht. Ivy eher 5 %. Haswell brachte ~10%.

Ronny145
2013-06-26, 14:58:21
Sandy hat ~15 % IPC gebracht. Ivy eher 5 %. Haswell brachte ~10%.


Das wäre dann ja die Bestätigung. Es geht um Tock zu Tock.

Tesseract
2013-06-26, 14:58:27
Sandy hat ~15 % IPC gebracht. Ivy eher 5 %. Haswell brachte ~10%.

wo hast du diese prozente her? taktbereinigt ist zwischen einem lynnfield und einem sandy nie im leben 15% unterschied im schnitt.

Skysnake
2013-06-26, 14:58:51
Was soll eigentlich PCIe 4 bringen? 64GB/s?
32GB/s bei einem 16xSlots sollten es normal sein.

Ich bin aber gespannt, wie Sie das anstellen wollen...

BTW:THX für den Hinweis auf PCI-E4 hatte ich total übersehen :ugly:

Ich schau dann mal, ob ich von PCI-E 2.0 direkt auf 4 aufrüste :biggrin:

Wenn AVX3 über die GPU läuft ist Skylake-E eine APU (Siehe das Schaubild).
Broadwell kommt als Haswell GT3-Ersatz und als Server-E-Variante, aber nicht im Desktop. Finde ich sehr interessant.
Wie kommst du auf ne iGPU?

Davon ist nirgends die Rede....

Das sind die S2011(-3) Systeme, und nicht die kleinen Consumer-Chips ;)

Ronny145
2013-06-26, 15:02:06
wo hast du diese prozente her? taktbereinigt ist zwischen einem lynnfield und einem sandy nie im leben 15% unterschied im schnitt.


Das haben einige Seiten ermittelt. Kommt auf den Test an. Der Unterschied ist wie gesagt das es zum SB einen Tick mit 4% mehr IPC gibt. SB hatte so einen Tick nicht im Rücken. Broadwell soll auch etwas mehr IPC bekommen was man so hört.

Tesseract
2013-06-26, 15:14:40
Das haben einige Seiten ermittelt.
link bitte. die tests die ich gelesen habe sind taktbereinigt nie auf solche unterschiede gekommen.

dildo4u
2013-06-26, 15:25:54
http://ixbtlabs.com/articles3/cpu/sandybridge-core-vs-lynnfield-p1.html

http://ixbtlabs.com/articles3/cpu/sandybridge-core-vs-lynnfield-p2.html

The general conclusion is a bit banal: Sandy Bridge is much better than the previous core. Not as much as Core 2 (Conroe) was better than Pentium 4, but it's still a larger step forward in terms of architecture than Nehalem compared with the last incarnations of the aforementioned Core 2.



Bei den Games ist schwer zu sagen ob nicht im GPU Limit getestet wurde.

robbitop
2013-06-26, 15:36:51
wo hast du diese prozente her? taktbereinigt ist zwischen einem lynnfield und einem sandy nie im leben 15% unterschied im schnitt.

Bitteschön - taktbereinigt.

Was Sandy brachte:

Intel Core i7-930, 4C/8T, 2,80 GHz, 45 nm, Turbo, SMT
Intel Core i7-2600K, 4C/8T, @ 2,80 GHz, 32 nm

Gothic 4 sind es sogar >20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/30/

Resident Evil 5 ebenfalls >20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/36/

Civ 5 ebenfalls 20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/33/

Two Worlds 2 > 20%
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/37/

Im Performancerating Spiele mit niedriger Auflösung + Anwendungen sogar > 30%
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/46/

Wenig verwunderlich, da Sandy ja erstmals den L3 auf vollem Takt hat laufen lassen. Hinzu kam der µ-Op Cache, verbesserte Sprungvorhersage, Architektur auf mehr ILP getrimmt (Puffer und Register vergrößert), AVX...

Zur deutlich erhöhten IPC in Spielen (s.o. 20 %) kam auch nochmal ein höherer Grundtakt und eine deutlich bessere Übertaktbarkeit. Sandy Bridge war schon ein extrem guter "Tock".

Was Haswell brachte:

Haswell bringt lächerliche 8 % (für einen "Tock") im Performancerating für Spiele mit geringer Auflösung:
http://www.computerbase.de/artikel/prozessoren/2013/intel-haswell-prozessor-fuer-desktop-pcs-im-test/

Hinzu kommt: schlechtere Übertaktbarkeit.

Was Ivy brachte:

Ivy bringt 7 % im gleichen Szenario ggü Sandy:
http://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/17/

Brachte ebenfalls keine erhöhte Übertaktbarkeit.

------------------

Natürlich hat das seine Gründe. Die Früchte hingen für Sandy wesentlich niedriger. Die sind alle schon geerntet.

Es ist erstaunlich, dass Intel so weit oben auf der IPC Kurve immerhin etwas rausholt.
Mich würde es aber nicht wundern, wenn das stagniert und zukünftige Performancesprünge eher aus erhöhter Parallelität oder intensiver Nutzung neuer Extensions entsteht.

Letztenendes werden CPUs pro Zeiteinheit wirklich nur schleppend langsamer. Insbesondere seit man die Flaschenhälse für Multiprozessoranbindungen mit Nehalem und Sandy entfernt hat und einen IMC besitzt.

Bei GPUs gibt es prinzipbedingt ganz andere Sprünge (die aber auch zunehmend stagnieren...).

Undertaker
2013-06-26, 15:43:35
Bitteschön - taktbereinigt.

Was Sandy brachte:

Intel Core i7-930, 4C/8T, 2,80 GHz, 45 nm, Turbo, SMT
Intel Core i7-2600K, 4C/8T, @ 2,80 GHz, 32 nm

Gothic 4 sind es sogar >20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/30/

Resident Evil 5 ebenfalls >20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/36/

Civ 5 ebenfalls 20 %
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/33/

Two Worlds 2 > 20%
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/37/

Im Performancerating Spiele mit niedriger Auflösung + Anwendungen sogar > 30%
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/46/

Da hast du dich aber teils etwas verschaut. ;) Taktbereinigt sehe ich da im Mittel eher Werte von rund 10-15% in Spielen.

robbitop
2013-06-26, 16:01:41
Absolut - habe falsch abgelesen. OK - mea culpa.

Ronny145
2013-06-26, 16:03:40
link bitte. die tests die ich gelesen habe sind taktbereinigt nie auf solche unterschiede gekommen.


Abgesehen vom bereits verlinkten ixbtlabs Test sind mir diese bekannt:


http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/47/
http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index22.php
http://www.hardware.fr/articles/815-15/lynnfield-vs-sandy-bridge-2-8-ghz.html


Das variiert von Test zu Test etwas, klar. Von SB auf HSW sind es 12% laut CB. Wie gesagt von Tock zu Tock ist das im großen und ganzen ähnlich. SB sah in Anwendungen stärker aus, HSW in Spielen (immer verglichen von SB zu Nehalem und HSW zu SB). Durch die gleichzeitige Taktsteigerung konnte SB den beachtlichen Sprung hinlegen im Gegensatz zu HSW.

dargo
2013-06-26, 16:09:43
32GB/s bei einem 16xSlots sollten es normal sein.

32GB/s liefert doch schon PCIe 3.0. Wo soll da der Fortschritt sein? :confused:

Ronny145
2013-06-26, 16:14:09
PCIe 4.0 ist eine weitere Verdopplung.


PCIe 4.0 is the next evolution of the ubiquitous and general-purpose PCI Express I/O specification. At 16GT/s bit rate, the interconnect performance bandwidth will be doubled over the PCIe 3.0 specification, while preserving compatibility with software and mechanical interfaces.
http://www.pcisig.com/news_room/faqs/FAQ_PCI_Express_4.0/

Tesseract
2013-06-26, 16:18:27
Abgesehen vom bereits verlinkten ixbtlabs Test sind mir diese bekannt:


http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/47/
http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index22.php
http://www.hardware.fr/articles/815-15/lynnfield-vs-sandy-bridge-2-8-ghz.html

bei ixbtlabs sind es 5% in spielen, bei computerbase sind es 10%, bei ht4u gibt es keine taktbereinigten vergleiche aber selbst auf stock ist es da eher <10%.

bei den anwendungen sind die unterschiede teilweise größer, aber die würde ich nicht unbedingt als guten indikator für IPC sehen. dass z.B. ein sandy durch hardwareseitigen AES-support 400-500% vor dem vorgänger liegt hat nicht wirklich was mit der IPC zu tun.

Skysnake
2013-06-26, 16:59:48
32GB/s liefert doch schon PCIe 3.0. Wo soll da der Fortschritt sein? :confused:
Aber nur an nem 32x Slot :ugly:

Kennst du Hardware mit nem 32x Slot? :ugly:

Also ich nicht. Normal ist 8 bzw 16x und damit bekommst du eben 8 bzw 16 GB/s an Transferraten hin, und nicht 16 bzw 32GB/S.

Duplex
2013-08-19, 14:54:28
Interessant wären dann auch 10C/20T als Skylake-E, durch 14nm sollte die Chip Fläche nicht besonders groß ausfallen.

Duplex
2013-09-11, 20:10:14
Hat nichts mit dem Thema zu tun http://www.computerbase.de/news/2013-09/intels-broadwell-in-cinebench-bei-4.9-watt/

Aber durch den 14nm Prozess sind jetzt ganze 30% weniger Energiebedarf gegenüber 22nm gesichert, ein Skylake 6C/12T könnte im Mainstream Markt ohne Probleme bei 90W möglich sein. Wenn die IPC von Skylake 10% höher als Haswell ausfällt, dann kann man in Theoretischen Test über 50% mehr Performance als ein i7-4770k rechnen und das evtl. zum selben Preis :smile:

G3cko
2013-09-11, 21:10:10
Wow endlich ein 6-Kerner im Mainstream. ;);D

Timbaloo
2013-09-11, 22:10:24
Irgendwann muss intel ja was liefern. Sonst bleiben die Leute ewig auf SB, IB und HW kleben. Skylake klingt nach einem vernünftigen Zeitpunkt.

john carmack
2013-09-12, 10:05:45
Interessant wären dann auch 10C/20T als Skylake-E, durch 14nm sollte die Chip Fläche nicht besonders groß ausfallen.

Das wird wohl nicht passieren. Erst einmal kommt ein 8Core als Haswell-E.

Und mit Skylake und seinem Refresh "Skymont" wird sich das wohl auch nicht ändern.

Davon mal abgesehen. Xeon CPUs gibt es doch genug 8Core, 10Core und 12Core für den 2011er Sockel. Wer das Geld hat kann sich ja so einen kaufen anstatt auf Skylake-E zu warten.
Den kleinsten 8Core gibt es ja schon für etwa 800€

Coda
2013-09-12, 10:48:50
Wow endlich ein 6-Kerner im Mainstream. ;);D
Wo steht das?

ndrs
2013-09-12, 10:54:32
Wo steht das?
Nirgends, allerdings gehen einige davon aus, da Haswell E wohl als 8-Kerner für Desktop kommt und die Mainstream-Plattform dann aufrücken müsste. Ich bezweifle das allerdings stark.

Coda
2013-09-12, 10:55:54
Intel wird ohne Konkurrenz nen Dreck machen.

fondness
2013-09-12, 10:58:24
Intel wird ohne Konkurrenz nen Dreck machen.

Bald sind die Dies am Desktop so klein, dass man das Pinout nicht mehr schafft. ;D

AnarchX
2013-09-12, 11:02:01
Bald sind die Dies am Desktop so klein, dass man das Pinout nicht mehr schafft. ;D
Dafür gibt es iGPU zum auffüllen. ;)

Nachdem Tablets/Smartphones schon 4-8 Kerne bieten, könnte der marketingbeinflusste Kunde durchaus irgendwann mal mehr als 4 Kerne/8 Threads verlangen.
Fragt sich nur ob das Intel über echte Kerne realisiert oder einen ähnlichen Weg wie AMD einschlägt bzw. mit 16 Threads ködert (Quad-SMT).

dargo
2013-09-12, 11:09:27
Aber durch den 14nm Prozess sind jetzt ganze 30% weniger Energiebedarf gegenüber 22nm gesichert, ein Skylake 6C/12T könnte im Mainstream Markt ohne Probleme bei 90W möglich sein. Wenn die IPC von Skylake 10% höher als Haswell ausfällt, dann kann man in Theoretischen Test über 50% mehr Performance als ein i7-4770k rechnen und das evtl. zum selben Preis :smile:
Träum weiter.

Duplex
2013-09-12, 11:10:36
Bei 50% mehr Kernen ist das nichts besonderes.

dargo
2013-09-12, 11:12:58
Bei 50% mehr Kernen ist das nichts besonderes.
Du verstehst es immer noch nicht. Wie Coda schon sagte... ohne Konkurrenz wird Intel einen Dreck tun. Warum sollten sie auch? Es gibt einfach keinen Grund sich die eigenen Preise kaputt zu machen. So traurig es für die Kunden auch ist, Intel sitzt am längeren Hebel.

Botcruscher
2013-09-12, 11:19:34
Wenn denn ein 6Kern kommen sollte, könnte man den auch bei 500€ einpreisen...

dargo
2013-09-12, 11:21:31
Wenn denn ein 6Kern kommen sollte, könnte man den auch bei 500€ einpreisen...
Nein, kann man nicht. Dafür gibt es den S2011.

Botcruscher
2013-09-12, 11:23:15
So lange der Gewinn stimmt ist der Sockel doch vollkommen egal. Machen wir halt 600€ daraus.:rolleyes:

Duplex
2013-09-12, 12:13:18
Intel wird ohne Konkurrenz nen Dreck machen.
Wenn man so denkt, dann brauchen die Kunden auch keine neue Hardware mehr kaufen, seit Sandy Bridge > Haswell hat sich sowieso kaum was geändert,
wer 2015 noch bereit ist 300 € für 4 Kerne hinzulegen ist nicht mehr 100%, soll ich mein Sandy @5,4Ghz noch bis 2020 behalten oder was?
Im Server Bereich wird es doch auch immer größer, in 22nm sind afaik 15C/30T in einem DIE geplant, in 14nm sollten 20C/40T möglich werden.
Seit Nehalem bietet Intel im Mainstream Markt nur 4 Native Kerne, 2015 sind das dann ganze 7 Jahre.

Ronny145
2013-09-12, 12:15:40
Intel wird ohne Konkurrenz nen Dreck machen.


Warum erhöhen sie dann mit Haswell-E die Kernzahl?

AnarchX
2013-09-12, 12:20:02
Kann man eine AVX512-Einheit eigentlich noch vernünftig mit Dual-SMT auslasten, bei Knights Corner/Knight Landing verwendet man ja auch nicht grundlos Quad-SMT?

Skysnake
2013-09-12, 12:37:34
Da kannst du aber auch nur alle 2 Takte eine Instruktion vom gleichen Thread verarbeiten...

Coda
2013-09-12, 12:40:35
Warum erhöhen sie dann mit Haswell-E die Kernzahl?
Weil Server ein anderes Marktsegment ist?

Ronny145
2013-09-12, 12:42:44
Weil Server ein anderes Marktsegment ist?


Wir reden von Haswell-E für den Desktop. Intel hat keinerlei Konkurrenz, warum erhöhen sie die Kernzahl?

Undertaker
2013-09-12, 12:45:36
Es gibt ja nicht nur die Konkurrenz durch andere Hersteller, sondern auch die Konkurrenz zu bestehenden Produkten. Wenn Intel zulange keine echten Leistungssteigerungen bringt, kaufen die Leute keine neuen Geräte – das merkt man ja jetzt schon an den immer längeren Lebenszyklen der Hardware.

Duplex
2013-09-12, 12:49:38
Wenn Intel zulange keine echten Leistungssteigerungen bringt, kaufen die Leute keine neuen Geräte – das merkt man ja jetzt schon an den immer längeren Lebenszyklen der Hardware.Exakt!

Coda
2013-09-12, 12:51:23
Wir reden von Haswell-E für den Desktop. Intel hat keinerlei Konkurrenz, warum erhöhen sie die Kernzahl?
Weil sie den exakt selben Chip auch als Xeon verkaufen?

dildo4u
2013-09-12, 12:51:59
Natürlich kaufen sie nur kein Unsinniges High-End,der End User hat viel mehr davon wenn sein Tabelt länger läuft als 12 Core's im Desktop zu haben.2015 werden es immer noch Quad's+HT sein nur mit ein viel größeren GPU.

dargo
2013-09-12, 12:52:11
Wenn Intel zulange keine echten Leistungssteigerungen bringt, kaufen die Leute keine neuen Geräte – das merkt man ja jetzt schon an den immer längeren Lebenszyklen der Hardware.
Daran wird auch keine superduper CPU was ändern solange kein Bedarf nach wesentlich schnellerer CPU vorhanden ist. Sprich... erst muss entsprechende Software her.

Undertaker
2013-09-12, 12:56:02
Daran wird auch keine superduper CPU was ändern solange kein Bedarf nach wesentlich schnellerer CPU vorhanden ist. Sprich... erst muss entsprechende Software her.

Das hängt doch letztlich alles zusammen. Spiele-/Softwareentwickler richten ihre Hardwareanforderungen daran aus, was auf dem Markt bzw. beim Kunden verfügbar ist.

Ronny145
2013-09-12, 13:38:40
Weil sie den exakt selben Chip auch als Xeon verkaufen?


Das beantwortet nicht die Frage. Intel könnte Kerne deaktivieren, wie sie es bereits mit SB-E getan haben, oder ein natives Die basteln. Laut dir dürfte es die Kernzahlerhöhung nicht geben. Undertaker hat es schon richtig erkannt. Intel erhöht die Kernzahl wenn sie es für richtig halten, entweder um Kaufanreize im eigenen Haus zu schaffen oder weil 5+ Kerne im Jahr 2015 nach Ansicht von Intel Sinn machen für den Mainstream. Das kleinere Modell der Highend Plattform wird auf 6 kerne aufgestockt. Dieses Modell liegt traditionell bei Intel im ~300 USD Bereich und somit genau in dem Bereich der i7 Modelle von der Mainstream Plattform.

john carmack
2013-09-12, 13:53:28
Was habt ihr denn auf einmal alle?

Wer eine 8C/16T CPU für 2011er Sockel (Ivy-Bridge) haben will kann sie sich doch heute schon kaufen...?!?!?

E5-2687WV2
8C/16T
3.40 GHz
25.0 MB Cache
ca. 1900€

Skysnake
2013-09-12, 14:03:42
Die Leute wollen aber kein Geld ausgeben ;)

john carmack
2013-09-12, 14:14:52
naja... dann muss eben ein 6 Core reichen...
oder eben den güstigsten 8c/16t für 750€
E5-2640V2

Coda
2013-09-12, 14:52:43
Das sind absolut absurde Preise.

Nightspider
2013-09-12, 14:59:15
Glaubt ihr ernsthaft das Intel seine Verkaufszahlen annähernd halten kann, wenn sie weitere 3 Jahre einen nicht merklichen Leistungssprung bieten?

Zudem würden AMDs billig-CPUs dank gutem 8 Kern-Support Runden um einen krüppelig-winzigen Core i5 ohne SMT drehen, selbst wenn es ein i5-5500K oder i5-5670K ist.

Und selbst mit den i7-Varianten mit SMT würde AMD 2015 gleichziehen bzw. diese überholen, wenn Intel nicht stärkere Zuwächse als 10-15% präsentiert und gleichzeitig die Anzahl der Kerne NICHT erhöht.

Intel kann sich 4Kerne in einem Zeitraum zwischen Juni 2015 und Juni 2016 gar nicht erlauben.

Allerdings nehme ich gerne Wetten an! Ich wette mit jedem der will um 10 Euro das Skylake mindestens 6 Kerne in den Mainstream-Markt (200-330€) bringt!

dargo
2013-09-12, 15:16:27
Glaubt ihr ernsthaft das Intel seine Verkaufszahlen annähernd halten kann, wenn sie weitere 3 Jahre einen nicht merklichen Leistungssprung bieten?

Ja... die bisherige Pro/Mhz Leistung jeder neuen Architektur reichte dafür spielend.


Zudem würden AMDs billig-CPUs dank gutem 8 Kern-Support Runden um einen krüppelig-winzigen Core i5 ohne SMT drehen, selbst wenn es ein i5-5500K oder i5-5670K ist.

Aha... welche denn?


Intel kann sich 4Kerne in einem Zeitraum zwischen Juni 2015 und Juni 2016 gar nicht erlauben.

Nicht? Das sehe ich besonders daran was ein i3 Haswell mit einer aktuellen AMD CPU anstellt. :rolleyes:

Nightspider
2013-09-12, 15:28:13
Nicht? Das sehe ich besonders daran was ein i3 Haswell mit einer aktuellen AMD CPU anstellt. :rolleyes:

Vor allem in Games, die nur 2 CPU Kerne nutzen wie StarCraft 2 und Diablo 3. ;)

In Crysis 3 liegt ein 160 Euro FX-8350 von AMD weit vor einem neuen, teuren Intel Core i5-4670. Surprise!!!!

boxleitnerb
2013-09-12, 15:29:10
Es wird doch klar von der Zukunft gesprochen. In Anwendungen ist ein 8350 jetzt schon 50% schneller als ein 2C/4T Haswell.

Ronny145
2013-09-12, 15:34:10
In Crysis 3 liegt ein 160 Euro FX-8350 von AMD weit vor einem neuen, teuren Intel Core i5-4670. Surprise!!!!


Das ist falsch. In Crysis 3 liegt der FX-8350 weit abgeschlagen dahinter.

dargo
2013-09-12, 15:35:44
In Crysis 3 liegt ein 160 Euro FX-8350 von AMD weit vor einem neuen, teuren Intel Core i5-4670. Surprise!!!!
Träum weiter.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9900155&postcount=256

Nightspider
2013-09-12, 15:41:57
Das hier ist ein Test vom 07. September:

http://abload.de/img/amdvsinteltck4g.jpg

Ist der Wert des FX-8350 etwa falsch? Wenn ja, wieso wurde dieser im neuen Test nicht berichtigt?

boxleitnerb
2013-09-12, 15:43:07
Komisch, die Werte stimmen nicht mit denen aus dem Heft überein - auch nicht beim FX-8350.

maximus_hertus
2013-09-12, 15:44:01
So gerne ich AMD "vorne" sehen würde, muss man klar sagen, dass der FX 8350 derzeit deutlich hinter dem i5 (Haswell) liegt. Selbst wenn Games die 8 Threads des FX voll ausreizen würden, wäre ein 4C/4T 1150er nicht unbedingt langsamer, da Intel eine brutale Effizienz an den Tag legt.

Vor allem: Erstmal muss von AMD etwas neues kommen und da sieht es ganz ganz düster aus. Es gibt nichtmal eine Roadmap für Steamroller CPUs! Lediglich APUs, die aber bei 4 Threads landen.

Das einzige, von dem ich mir ziemlich sicher bin, ist die Verbesserung der FX6/8 CPUs in Relation zum i3. Ergo sollte auch ein Haswell i3 mittelfristig gegenüber den FXen 6+ deutlicher das NAchsehen haben. Ein i5 Haswell bleibt jedoch unangetastet. (Natürlich kann es einzelne Ausreiser geben, in denen der FX richtig stark aussieht)

Duplex
2013-09-12, 15:49:22
In Games sind die FX CPUs noch im Mittelalter.

Nightspider
2013-09-12, 15:53:54
Auf jeden Fall könnte AMD 2015 mit 12-16 Kernen, höherer IPC und höherer Taktrate vorpreschen.
Vor allem in Anwendungssoftware.

Wer glaubt das Intel da noch mit 4 Kernen gegenhalten kann glaubt auch an den Weihnachtsmann.

Ronny145
2013-09-12, 16:01:52
Das hier ist ein Test vom 07. September:

http://abload.de/img/amdvsinteltck4g.jpg

Ist der Wert des FX-8350 etwa falsch? Wenn ja, wieso wurde dieser im neuen Test nicht berichtigt?


Einige der Intel Werte inklusive vom i5 sind noch vom Timer Bug betroffen. Ohne dem Bug kommt der auf 79 fps. Die Bulldozer Werte sind hier plötzlich viel höher als im Heft. PCGH und Crysis 3, die werden das wohl nie mehr hinbekommen. Heftige Schlamperei was die dort veranstalten.

Auf jeden Fall könnte AMD 2015 mit 12-16 Kernen, höherer IPC und höherer Taktrate vorpreschen.
Vor allem in Anwendungssoftware.


Träum nicht zu viel. Ob AMD im oberen Bereich überhaupt noch Updates bringt, ist sehr sehr unsicher. Im Moment sieht es nicht danach aus.

Nightspider
2013-09-12, 16:18:57
Das müsste Intel das Risiko eingehen im Falle des Falles AMD hinterherzuhängen.
Ich ich bezweifle das Intel da Risiko eingeht. Zumal die Absatzzahlen seit 2 Jahren auch am sinken sind. Haswell ist ein Fortschritt zu Sandy aber eben nur ein geringer Fortschritt.

Ich wette das es massig Leute da draußen gibt die liebend gern eine 12 Kern AMD CPU mit 5Ghz für 200 Euro haben würden.
Und auf lange Sicht wird mit 8-Thread-Programmierung bei Games nicht Schluss sein.

Zumal jetztige billige 8Kerner von AMD in einem Jahr auch deutlich besser gegenüber Intel CPUs dastehen werden, wenn die neuen Games alle 8 Kerne ausnutzen. Dann ist es möglich das ein FX-8350 öfter mal vor einem i5-4670 liegt.
Intel hat zwar aktuell einen großen IPC Vorsprung bei Games aber dieser relativiert keine 8Kerne, auf lange Sicht bezogen.

HOT
2013-09-12, 16:19:49
In Games sind die FX CPUs noch im Mittelalter.
Nein sind sie nicht. Aber das kann wohl nur jemand beurteilen, der diese Teile auch schon hatte. PhenomII ist in Spielen mittlerweile alt, aber du denkst ja immernoch, dass die schneller wären als BDs, mehr gibts da nicht zu zu sagen. Das ist einfach Schwachsinn. Wir sprechen uns wieder wenn wir Frostbyte3-Spiele oder wirklich fordernde Cryengine-Titel oder schlimmeres benchen.


Es ist überhaupt nicht unwahrscheinlich, dass Carizos auch als 4-Modul-Variante kommen. Aber bei den ganz großen 12-xx Kernern wird AMD nicht mehr mitspielen. Der Markt ist dort auch viel zu klein. Bei Verkleinerung gibts natürlich auch mehr Module.

dargo
2013-09-12, 16:46:39
Zumal jetztige billige 8Kerner von AMD in einem Jahr auch deutlich besser gegenüber Intel CPUs dastehen werden, wenn die neuen Games alle 8 Kerne ausnutzen. Dann ist es möglich das ein FX-8350 öfter mal vor einem i5-4670 liegt.

Und wie kommst du auf diese glorreiche Idee wenn jetzt schon der FX-8350 in Crysis 3 bei perfektem Multithreading nicht an den i5-4670 rankommt? Die werden im besten Fall näher zusammenrücken, das wars dann auch schon. Das reicht aber nicht aus. Denn Skylake wir wieder bei der Pro/Mhz Leistung zulegen. Schau dir mal an wieviel % Haswell gegenüber Ivy in Crysis 3 bereits zulegt.

Nightspider
2013-09-12, 16:52:25
Perfektes Multithreading? Ich bezweifle mal das Crysis 3 perfekte 8-Thread Unterstützung hat.

dargo
2013-09-12, 16:52:58
Ich nicht, vorallem beim Gras.

Duplex
2013-09-12, 16:53:37
Langsam reicht es, bitte zurück zum Thema!

Undertaker
2013-09-12, 16:53:43
Nein sind sie nicht. Aber das kann wohl nur jemand beurteilen, der diese Teile auch schon hatte. PhenomII ist in Spielen mittlerweile alt, aber du denkst ja immernoch, dass die schneller wären als BDs, mehr gibts da nicht zu zu sagen.

Der FX-8350 ist in Spielen rund 20% schneller als der X6-1100T. Das ist keine kleine Differenz, aber auch kein Klassenunterschied, wie du ihn jetzt herbeirufst – was auf dem X6 ruckelt, wird auf dem FX auch nicht gerade perfekt laufen. Die 40%, die der 4770K zusätzlich auf den FX-8350 drauf legt, sind da eine ganz andere Hausnummer.

Und wie kommst du auf diese glorreiche Idee wenn jetzt schon der FX-8350 in Crysis 3 bei perfektem Multithreading nicht an den i5-4670 rankommt? Die werden im besten Fall näher zusammenrücken, das wars dann auch schon. Das reicht aber nicht aus. Denn Skylake wir wieder bei der Pro/Mhz Leistung zulegen. Schau dir mal an wieviel % Haswell gegenüber Ivy in Crysis 3 bereits zulegt.

Zumal: An das Märchen der jetzt auf einmal explodierenden Spiele-Parallelisierung glaube ich eh nicht. Schon 2007 hatten wir mit Lost Planet Spiele, die Quad-Cores besser ausnutzen als so mancher Titel heute. Wenn das mal so weiter plätschert...

Nightspider
2013-09-12, 16:59:18
Crysis 3 scheint mit seinen Bugs bzw. falschen Messwerten im Moment eh nicht für einen sinnvollen Vergleich zu taugen. Warten wir es ab bis alle AAA Titel 8 Kerne nutzen.

In jedem Fall stehen AMD CPUs in Anwendungssoftware deutlich besser da, weshalb es Intel es sich nicht leisten kann 3 weitere Jahre Eier zu schaukeln.

maximus_hertus
2013-09-12, 17:00:04
12 Kerne, 5 GHz und 200 Euro? Jau, nett, aber erst 2018 oder gar noch später ;)

2013/2014 passiert auf AMD Seite erstmal...nichts. FX 8350 bzw. FX 9590 sind die Spitzen-CPUs.

2014 gibts dann ein neues Stepping @ Opteron, ergo Chancen dieses auch bei den AM3+ FXen zu sehen. Aber das sind dann 100-200 MHz mehr Takt, wenn überhaupt.

Wenn nicht einmal ein Steamroller Opteron auf einer Roadmap steht, kommt erst recht kein FX-Steamroller. Vielleicht überrascht uns ja AMD, aber die Zeichen stehen nicht besonders gut.

AMDs (wahrscheinliche) Roadmap 2014:
Januar: Paper-Launch Kaveri
Q1: Paper-Launch Kaveri "Mobile"
Q2: Kaufbare Kaveri
Q2/Q3: Kaufbare Kaveri Notebooks (wie immer nur "billig" Zeug)
Q3: Paper-Launch "Kabini/Temash 2.0"
Q4: Kaufbare Produkte, theoretisch zumindest ;)


EDIT: Mal was ganz "schräges": Könnte AMD nicht einfach 2 Kaveri-Dies auf einem Träger unterbringen (und die on-Die Radeons deaktivieren)? Dazu einen neuen Enthusiasten-Chipsatz (und vorschreiben, dass die Boards z.B. 200 W TDP unterstützen müssen) und man hätte frische, neue 8 Kerner im modernen Unterbau.
Ein Dual-Kaveri sollte zumindest nicht langsamer als ein FX 8350 sein, vor allem wenn man die Grafik deaktiviert und dadurch die CPU ausreizen kann.

dargo
2013-09-12, 17:35:06
In jedem Fall stehen AMD CPUs in Anwendungssoftware deutlich besser da, weshalb es Intel es sich nicht leisten kann 3 weitere Jahre Eier zu schaukeln.
Tun sie auch nicht denn sie legen jedes Mal paar Prozent Leistung drauf, eben das nötigste.

Gipsel
2013-09-12, 17:52:28
Wenn ihr AMDs zukünftige CPUs diskutieren möchtet, macht das bitte im entsprechenden Thread!

Danke.

HOT
2013-09-12, 19:23:16
Der FX-8350 ist in Spielen rund 20% schneller als der X6-1100T. Das ist keine kleine Differenz, aber auch kein Klassenunterschied, wie du ihn jetzt herbeirufst – was auf dem X6 ruckelt, wird auf dem FX auch nicht gerade perfekt laufen. Die 40%, die der 4770K zusätzlich auf den FX-8350 drauf legt, sind da eine ganz andere Hausnummer.

Aha, wie immer uninteressant. Alles graue Theorie, ich kenn aber kein Spiel, dass auf dem FX zu langsam wäre, tut mir leid. Spiele taugen einfach nicht als Argument gegen den FX.

Zumal: An das Märchen der jetzt auf einmal explodierenden Spiele-Parallelisierung glaube ich eh nicht. Schon 2007 hatten wir mit Lost Planet Spiele, die Quad-Cores besser ausnutzen als so mancher Titel heute. Wenn das mal so weiter plätschert...
Jo, die neuen Konsolen laufen auch nur 1 Thread. Wie immer die typische Reaktion von dir auf mich halt, brauch ich nichts weiter zu zu sagen.

boxleitnerb
2013-09-12, 19:28:31
Das liegt dann aber an deinem begrenzten Wissen, es gibt genug. Spiele taugen wunderbar als Argument, einfach mal den Horizont erweitern und die entsprechenden Benchmarks studieren. Und "zu langsam" ist sehr subjektiv, das bedeutet für jeden was anderes.

Nur weil mehr Threads zur Verfügung stehen heißt es noch lange nicht, dass die auch effizient genutzt werden können. Es ist absolut naiv zu glauben, dass jedes Problem und jeder performancerelevante Teil einer Engine nach Belieben effektiv parallelisiert werden können.

dargo
2013-09-12, 19:39:43
Aha, wie immer uninteressant. Alles graue Theorie, ich kenn aber kein Spiel, dass auf dem FX zu langsam wäre, tut mir leid.

Ich mindestens zwei. Crysis 3 @SP und BF3 im MP.

maximus_hertus
2013-09-12, 19:49:55
Ich sehe es so: Intel kommt wohl 2015 mit Skylake (14nm) und einem modernen Unterbau (PCIe4, DDR4). Man wird wohl auch hier bei deutlich unter 100W TDP liegen und deutliche Taktreserven haben. Falls sich wieder erwarten ein schneller 8 Kerner von AMD abzeichnet, der mehr als "schnell genug" ist, kann Intel immer noch etwas an der Taktschraube drehen.

Da es ja keine 14nm Haswell CPUs @Desktop geben wird, könnte Intel so wie beim Wechsel von Nehalem/Lynnfield auf Sandy Bridge vorgehen. Ein i5-Skylake mit 10-15% mehr IPC und mit ca. 3,8-4 GHz wäre gut 20-25% schneller als ein jetziger Haswell (vergleich i5-750 und 2500k).

Bei AMD gibt es kaum Spielräume, bei 125W sind 4 GHz das Maximum, darüber wirds sehr schnell kriminell (220W). Erschwerend kommt hinzu, dass AMD wohl erstmal bei 28nm "kleben" wird (wobei das bei AMD alles sehr nebulös ist bzw. bei GF und Co.).

AMD bräuchte eine (deutlich) bessere Architektur als Intel um zumidnest den Fertigungsnachteil auszugleichen. So gerne ich das sehen möchte ist dies imo nicht drin.

"Blöde" Frage: Habe es wohl verpasst, wie sieht es Sockel-Technisch bei Skylake aus? Wird wohl kaum bei 1150/2011 bleiben? Bzw. wird der "kleine" Skylake evtl. DDR3 oder gar DDR3 und 4 unterstützen?

fondness
2013-09-12, 19:57:51
AMD bräuchte eine (deutlich) bessere Architektur als Intel um zumidnest den Fertigungsnachteil auszugleichen. So gerne ich das sehen möchte ist dies imo nicht drin.


Das ist eigentlich der springende Punkt. Mit einem 28nm Prozess gegen einen 14nm FinFET Prozess anzutreten ist völlig witzlos. 14nm erlaubt die vierfache Transistorenmenge pro mm². Da kann man nur die weiße Fahne schwenken und sich auf low-cost beschränken und Nischen suchen. Interessant wird eh erst was von AMD nach Excavator kommt und auf welchem Prozess das läuft. Jim Keller, immerhin einer der renommiertesten CPU-Architekten hat ja vollmundig eine Rückkehr ins High-End in Aussicht gestellt.

Skysnake
2013-09-12, 19:59:30
Groß anders sieht es bei Intel aber auch nicht aus. Wenn da wesentlich der Takt erhöht wird, werden die Chips vergleichsweise auch zu Säufern.

Wenn Intel da also übermäßig an der Taktschraube drehen würde, würden Sie ihre grünes Image recht schnell verlieren. Aktuell sind Sie halt in ner echt guten Position und können ohne Druck den Sweetspot nutzen.

Duplex
2013-09-12, 20:15:08
Wenn Intel da also übermäßig an der Taktschraube drehen würde, würden Sie ihre grünes Image recht schnell verlieren.
Das stimmt nicht!
Nvidias Fermi hat damals mehr als eine 5970 Dual Karte verbraucht, aber dadurch hat sich das Image trotzdem nicht geändert.
Ob Intel oder Nvidia spielt keine Rolle, Intel & Nvidia werden permanent einen besseren Status als AMD besitzen.
AMD hat sich mit den FX9xxx blamiert, 220W TDP & trotzdem nicht Konkurrenzfähig :rolleyes:
Wenn Intel mehr Leistungsaufnahme braucht, dann sind Sie auch meilenweit schneller als die Konkurrenz!

maximus_hertus
2013-09-12, 22:53:21
Groß anders sieht es bei Intel aber auch nicht aus. Wenn da wesentlich der Takt erhöht wird, werden die Chips vergleichsweise auch zu Säufern.

Wenn Intel da also übermäßig an der Taktschraube drehen würde, würden Sie ihre grünes Image recht schnell verlieren. Aktuell sind Sie halt in ner echt guten Position und können ohne Druck den Sweetspot nutzen.


Jein, natürlich kann Intel nicht unendlich an der Taktschraube drehen, aber rund 4 GHz sollten ziemlich problemlos machbar sein, ohne das der Verbrauch explodiert (TDP max 125W). Aber das ist eh nur theoretischer Natur, damit Intel sein "grünes" Image (bzw. blaues, je nach Region ;) ) verliert, müsste AMD nicht nur aufholen, sondern Intel überholen. Sowohl aus Sicht der Architektur und der Fertigung halte ich es für völlig ausgeschlossen. Dafür musste AMD zu sehr bluten (in den letzten Jahren).

Wenn AMD wieder den High-End Desktop angreifen will, dann mit einer neuen Architektur, also nach Excavator irgendwann 2016. Und selbst wenn AMD ein gelungenes Design präsentieren kann, bleibt der Fertigungsnachteil...

Skysnake
2013-09-13, 08:25:39
Das stimmt nicht!
Nvidias Fermi hat damals mehr als eine 5970 Dual Karte verbraucht, aber dadurch hat sich das Image trotzdem nicht geändert.

Wo? Bei den Gamern?

Ja, bei denen nicht, aber wen interessieren die schon? Die bekommen eh in den nächsten Jahren immer mehr iGPUs vorgesetzt und gut ist....


Ob Intel oder Nvidia spielt keine Rolle, Intel & Nvidia werden permanent einen besseren Status als AMD besitzen.

Klar, spielt das eine Rolle... nVidia ist nur ein Accelerator-Hersteller, Intel dagegen ein CPU-Hersteller. Intel bedient noch ganz andere Märkte zusätzlich als nVidia. Vor allem muss sich Intel 1:1 gegen Orakle(SPARC) Fujitsu (SPARC64) IBM, Samsung/Apple/us (ARM) und auch noch gegen MIPS stellen...

Der Unterschied zwischen Top und Flop ist verdammt klein.


AMD hat sich mit den FX9xxx blamiert, 220W TDP & trotzdem nicht Konkurrenzfähig :rolleyes:
Wenn Intel mehr Leistungsaufnahme braucht, dann sind Sie auch meilenweit schneller als die Konkurrenz!
Lesen bitte. Lesen!

Es ging doch gerade darum, das AMD aufholen/gleichziehen kann bei gleicher Leistungsaufnahme, bzw sogar sinkender. Da spielt es doch keine Rolle, das Intel noch immer effizienter ist. Der Vorsprung schrumpft dann, was bedeutet, dass Sie mehr probleme bekommen ihre Preise zu rechtfertigen. Und wenn Sie den Leistungsvorsprung durch die Taktschraube wieder herstellen wollen, dann geht die Effizienz halt in den Keller, was man sich je nach Markt auch nicht erlauben kann. Das würde dann nämlich auch wieder mehr Probleme bedeuten, die Preise zu rechtfertigen. Intel ist aktuell einfach in allen Bereichen vor allem gegen AMD sehr sehr gut aufgestellt, daher können Sie auch die Preise verlangen.

Wenn du aber mal SPARC(64) und PowerX mit rein nimmst, dann siehts nicht mehr so komfortabel aus. Je nach Markt muss sich Intel verdammt lang machen, bzw ist einfach nur zweite/dritte Wahl. Von SFF will ich mal gar nicht erst anfangen. Schau mal bischen über den Tellerrand hinaus.

Jein, natürlich kann Intel nicht unendlich an der Taktschraube drehen, aber rund 4 GHz sollten ziemlich problemlos machbar sein, ohne das der Verbrauch explodiert (TDP max 125W).

Hand-OC oder mit den "normalen" fetten Spannungssicherheiten? Bei eigenem OC muss man immer aufpassen, so "optimiert" macht das kein Hersteller, das Ding muss ja immer und überall laufen.


Aber das ist eh nur theoretischer Natur, damit Intel sein "grünes" Image (bzw. blaues, je nach Region ;) ) verliert, müsste AMD nicht nur aufholen, sondern Intel überholen. Sowohl aus Sicht der Architektur und der Fertigung halte ich es für völlig ausgeschlossen. Dafür musste AMD zu sehr bluten (in den letzten Jahren).

Nein, müssen Sie nicht. Aufholen reicht schon völlig aus. Wenn Intel dann auf dem "wir sind X% schneller" Abstand beharren will, dann leidet da halt die Effizienz drunter, und das kommt nicht überall gut an. Siehe oben.

Das ist ja auch das, was die Leute gerne vergessen. Intel ist im Gameingsektor mit seiner extrem guten Single-Thread-Leistung einfach ein Macht, in allen anderen Bereichen ist Intel zwar auch stark, aber bei weitem nicht so stark. Wenn also im Gameingsektor fast ein Gleichstand herrscht, oder man zumindest massiv den Abstand reduzieren kann, dann wirds in anderen Bereichen für Intel eng.

Es sind einfach unterschiedliche Fokusierungen. Intel starke Single-Thread-Leistung, AMD eher Multithread. AMD ist langsamer, aber nicht so, wie der Gameingsektor suggeriert. Da bricht ihnen einfach die Software das Genick.


Wenn AMD wieder den High-End Desktop angreifen will, dann mit einer neuen Architektur, also nach Excavator irgendwann 2016. Und selbst wenn AMD ein gelungenes Design präsentieren kann, bleibt der Fertigungsnachteil...
Der ist dann aber irgendwann 2020 auch weg, bzw man wird schauen müssen, der zuerst anfängt Logik on Logik zu stacken usw.

Oder z.B. HMC einführt, oder sonst wie den Speicher direkt auf das Package/Logik-DIE stacked. Wer sich das traut, also wirklich die Eier dazu in der Hose hat, wird die Konkurrenz wohl ziemlich nass machen, wenn ers nicht total verkackt.

Das ist ja der Witz. Es stehen einige interessante Technologien vor der Tür, die deutlich spannender sind als nen simpler shrink. Es hat nur keiner die Eier in der Hose diese auch entsprechend mal um zu setzen.

y33H@
2013-09-13, 08:55:09
Wo? Bei den Gamern? Ja, bei denen nicht, aber wen interessieren die schon?Sagte der HPC-Hansel *SCNR* :biggrin:

Skysnake
2013-09-13, 09:28:56
:tongue:

Ist ja auch berechtigt, ohne die Gamer würde es den HPC Leuts schlechter gehen, weil die lang genug echte Zugpferde wahren, aber das ist Geschichte :( die Software ist einfach nicht mehr fordernd genug. Zumindest bei den CPUs. Die GPUs werden aber noch richtig gut gepushed.

Aber CPU-Seitig sind eher BigData echte Treiber.

maximus_hertus
2013-09-20, 15:38:39
Ich würde dir ja Recht geben, aber in den Köpfen von vielen Nutzern (Käufern) ist der Pentium 4 auch keine Energieschleuder gewesen. Und 4 GHz sind ohne Hand-OC (= direkt Stock) wohl mit +50% TDP möglich (84W +50% = ca. 126, abgerundet 125W und die iGPU bleibt dabei unangetastet).

Wenn AMD im Singlethread-Bereich besonders stark aufholen würde, muss der Multithread-Bereich nicht zwangsweise genausoviel schneller werden. Wichtig ist auch, dass AMD einen miserablen Ruf hat, ein Gleichstand (was einer Sensation gleich kommen würde imo) wird zwar etwas helfen, aber Intel nur wenig Jucken. Marketing ist wichtiger als der letzte Prozent Speed ("Netzwerken" bzw. Hilfsmittel für Werbung mal als Stichwörter).

Achso, wo soll den AMD besonders viele Umsätze machen ausserhalb der Athlon/Phenoms/FXen? Die Opterons sind doch (fast) tot und es spricht Bände, dass es nur ein Piledriver-Update @ 2014 geben wird und Excavator quasi keine Rolle mehr spielt.

Bis 2020 wird noch viel Wasser den Rhein lang fließen und man muss sehen wie sich die Märkte bis dahin entwickeln.

y33H@
2013-09-20, 15:52:06
Wieso ist der Pentium 4 oder Netburst an sich in den Köpfen von vielen Nutzern (Käufern) keine Energieschleuder gewesen? Das höre ich zum ersten Mal ...

maximus_hertus
2013-09-20, 16:00:16
Die haben sich verkauft wir blöd und kommen immer wieder zu Reparaturen rein. Auf die Frage, warum sie sich eine solche Energieschleuder weiter antuen wollen bzw. ein sparsamerer Rechner nur unwesentlich teurer wäre als eine Rep hat bisher jeder Kunde mich fragend angeguckt: Energieschleuder? Und wenn das mal "akzeptiert" worden ist, hieß es "Strom "fressen" ja alle PCs, egal was drin ist". Und das sind keine Einzelfälle, ich habe es mittlerweile aufgegeben (Vorrechnen, dass ein neuer PC schon nach kurzer Zeit sich rentieren würde, Stichwort Energiehunger).

Der Durschnittskäufer hat auch gar keine Ahnung, was ein PC an Strom verbraucht. Bei den meisten (kein Scherz) ist es so, dass 500W NT = 500W Stromverbrauch (permanent). Das ist leider der traurige Alltag (zumindest bei uns).

Erschwerend (für AMD) kommt hinzu, dass "jeder" Athlon kennt, aber FX, Phenom, APU etc. ist unbekannt bzw. negativ belastet (Athlon strahlt noch immer positiv durch den Erfolg über den P3/P4).

Coda
2013-09-20, 17:27:02
Das AMD das Athlon-Branding ohne Not aufgegeben hat war wirklich ein riesen Fehler.

y33H@
2013-09-20, 19:58:43
Athlons gibt's doch wie gehabt, wenn auch nur als Low-End.

maximus_hertus
2013-09-20, 22:32:36
Athlons gibt's doch wie gehabt, wenn auch nur als Low-End.

Letztes Posting zu AMD in diesem Thread :)

Die spärliche Werbung, die AMD tätigt, verteilt sich auf viele Brandings. Ergo bleibt kaum was beim Kunden hängen.
Wozu hat AMD den Phenom als neue High-End Serie heraus gebracht und ist nicht beim Athlon geblieben (rein Namenstechnisch)?

Aber ab jetzt wieder back 2 topic ;)

HOT
2013-09-21, 11:00:07
Das AMD das Athlon-Branding ohne Not aufgegeben hat war wirklich ein riesen Fehler.
Haben sie ja nicht. Athlon ist aber low-End. Und dass sie Phenom aufgegeben haben bei dem Ruf, den die FX jetzt haben (also den FX nicht PhenomIII genannt haben wie es ursprünglich geplant war) ist ne gute Entscheidung, denn so kann man Phenom dann wieder verwenden, wenn neue Produkte wieder einen besseren Ruf besitzen. Vielleicht kehrt der Phenom ja mit 2015er Excavator wieder zurück, auf jeden Fall aber denke ich ist das eine Option für die neue Post-BD-µArch 2016.

Skysnake
2013-11-06, 21:41:53
Laut VR-Zone soll auch Skylake keine Hexacore für den Desktop bringen :( Das wäre ECHT übel.
http://chinese.vr-zone.com/89484/greenlow-platform-will-include-skylake-sunrise-point-pch-and-jasksonville-phy-and-ddr4-launch-at-2015-11072013/
http://www.computerbase.de/news/2013-11/intels-skylake-cpus-mit-ddr4-und-neuem-sockel/

Knuddelbearli
2013-11-06, 23:52:42
na bleibt mein 2600K halt noch 3 Jahre länger drinn ...

Konami
2013-11-07, 00:46:29
Jepp. Großartige IPC-Steigerungen sind ja wahrscheinlich auch nicht zu erwarten (außer mit AVX3.2). Wer soll da upgraden? Man weiß es nicht...

y33H@
2013-11-07, 01:06:40
Laut VR-Zone soll auch Skylake keine Hexacore für den Desktop bringen :( Das wäre ECHT übel.Wie erwartet.

Skysnake
2013-11-07, 02:04:54
Wirklich?

Also ich hatte eher den Eindruck, das bzgl Skylake schon sehr große Erwartungen an 6 Cores geknüpft waren, und ganz im Ernst, ich bin eigentlich auch davon ausgegangen, das man da dann 6 Cores bringen wird. Zwar nur als i7, aber immerhin.

Haswell-E soll ja als octacore kommern für den Desktop.

Die Schere wird halt schon krass auseinander gehen. 20Kerne bei den S2011 Servern und 4 im Mainstream Desktop? Das ist halt schon hart irgendwie.

Nightspider
2013-11-07, 02:23:16
Wenn Intel tatsächlich nur 4 Kerne bringt und AMD IPC um 10-20% erhöht, Taktraten steigert und 8 Kerne bietet, wird Intel im 200-300Euro Bereich bald in NextGen Games geschlagen.

SMT bringt immer noch selten Vorteile und zu oft Nachteile.

AnarchX
2013-11-07, 08:26:21
Wer weiß ob das bei Skylake noch klassisches SMT ist. Gerade auch die Server-CPUs mit den immer komplizierteren Cache/Ringbus-Strukturen zeigen wohl Bedarf für eine gewisse Zusammenfassung von Cores zu Modulen.

Loeschzwerg
2013-11-07, 08:46:01
AMD konzentriert sich auf FM2+ und da bleibt es zunächst bei maximal 4 Cores (2 Modulen). Ich sehe Intel also nicht sonderlich unter Zugzwang was die CPU Cores angeht, eher wird sich ordentlich was an der iGPU tun.

y33H@
2013-11-07, 11:43:55
Wirklich?

Also ich hatte eher den Eindruck, das bzgl Skylake schon sehr große Erwartungen an 6 Cores geknüpft waren, und ganz im Ernst, ich bin eigentlich auch davon ausgegangen, das man da dann 6 Cores bringen wird. Zwar nur als i7, aber immerhin. Haswell-E soll ja als octacore kommern für den Desktop.

Die Schere wird halt schon krass auseinander gehen. 20Kerne bei den S2011 Servern und 4 im Mainstream Desktop? Das ist halt schon hart irgendwie.

Ja, wirklich. 4C (+SMT) sind für das Consumer-Segment "genug", Intel fokussiert sich auf Graphics für Mobile. Und 115x ist nichts anderes als gepimpte Mittelklasse-Mobile-Chips. Wer mehr als 4C will, musst 2014/2015 zu HSW EP greifen. Oder zu AMD ;-)

Skysnake
2013-11-07, 12:49:31
Naja, aber ob 2015/2016 4C/8T noch ausreichend sind?

Mir ist auch klar, das man seinen Fokus absolut auf die iGPU legt. Das ist auch in meinen Augen richtig so. Aber wenn man bedenkt, wie klein die Kerne inzwischen geworden sind, und da ja dann auch nochmal nen Shrink ansteht, dann würden da 2 zusätzliche Kerne eigentlich kaum noch ins Gewicht fallen, gleichzeitig aber neue Kaufanreize schaffen.

Die "Hoffnung" war daher in meinen Augen durchaus berechtigt, ich versteh allerdings auch, warum Sie es nicht tun.

Jetzt musst du und der Rest der Presse nur noch anfangen, dass den Leuten klar zu machen und zu verkaufen. ;D

Die Leute haben nämlich noch immer nicht verstanden, das Gamer nicht mehr wie früher die absoluten High-End-Anforderungsprofile haben ;D

Das wollen die meisten nur nicht wahr haben. Was man braucht ist ne recht hohe singleThread Leistung, weil noch immer relativ wenig/schlecht parallelisiert wird/werden kann.

Duplex
2013-11-07, 12:55:15
Von 4 > 6 Kerne ist auch nicht so besonders, wenn dann sollte man direkt auf 8 Kerne gehen.
Solange AMD keine großen Schritte machen wird (+50% IPC), wird Intel garnichts machen...

Skysnake
2013-11-07, 13:04:00
Warum kaufen sich die Leute dann überhaupt S2011 Systeme abgesehen von den 40PCI-E lanes? :rolleyes:

Loeschzwerg
2013-11-07, 13:06:55
Meine Ego sagt mir zumindest "Du hattest einen Phenom II x6 und jetzt sollten es auch mindestens wieder 6 Kerne sein". Daher Sockel 2011 :biggrin:

Duplex
2013-11-07, 13:09:23
Warum kaufen sich die Leute dann überhaupt S2011 Systeme abgesehen von den 40PCI-E lanes? :rolleyes:
Diese kleine Gruppe kannste vergessen, die meisten kaufen nur Sockel 1150 mit Dual Channel, Intel könnte ohne Probleme 8 Kerne im Mainstream anbieten, nur ist AMD aktuell die größte Bremse...

Knuddelbearli
2013-11-08, 01:03:35
Wenn man ebdenkt, ohne AMD würden wir weiter bei 4 Kernen / rumgammeln *grusel*

Konami
2013-12-04, 07:42:09
http://vr-zone.com/articles/intel-trying-make-android-pc-mainstream/65745.html
Skylake mit verbessertem Android-Support, "Braswell" als Broadwell-Nachfolger... einfach ein neuer Name für die CPU (im Gegensatz zum Architekturnamen "Skylake"), oder ein extra Ding?

YfOrU
2013-12-04, 08:26:38
Abseits von Baytrail-D sehe ich auf der Folie nur mobile Produkte.

AnarchX
2014-04-18, 11:03:50
H278355-101 LFPINH278355-101F SKYLAKE AIO ERB DDR3L SODIMM RVP10 MOTHERBOARD WITHOUT CPU (PARTS OF COMPUTER)
(F.O.C. ITEM) H34444-101 LFPINH34444-101C BRASWELL/SKYLAKE-AIC-LITTLWMOUNTAIC ADD IN CARD WITHOUT CPU (PART OF COMPUTER
(FOC ITEM) H31451-101 LFPINH31451-101F SKYLAKE-Y ULX ERB A0LPDDR3 RVP3 PIZZABOX MOTHERBOARD WITHOUT CPU (PARTS OF COMPU
Quelle: Zauba.com

Wohl weiterhin DDR3-Support bzw. nur in Entwicklersamples? Und mit Braswell (14nm Airmont SoC) gibt es wohl gewisse Kompatibilitäten.

Duplex
2014-04-18, 14:02:24
Wohl weiterhin DDR3-Support bzw. nur in Entwicklersamples?
Ich tippe auf Entwicklersamples, in der Finalen Version solte nur noch ein DDR4 Controller übrig bleiben, DDR3 kann man zu 99% ausschließen. Skylake soll laut Gerüchten erst ende 2015 erscheinen, die Massenproduktion soll auch erst 2015 anlaufen, bis ende 2014 erwarte ich noch das sich einiges beim Design ändern wird.
Man kann nur hoffen das Intel diesmal einen größeren Sprung als Haswell machen wird, das Design von Skylake wird diesmal vom Core2/Sandy Bridge Team kommen.

AnarchX
2014-04-19, 10:19:35
Ja, LP-DDR4 sollte wohl deutlich attraktiver sein.

btw.
Emulation support for the Intel® Memory Protection Extensions (Intel® MPX) present on the Intel Skylake and Goldmont microarchitectures.
http://extensions532.rssing.com/chan-17222053/all_p2.html

Da stellt sich die Frage ob vielleicht big.Little für Intel nicht auch irgendwann mal attraktiv werden könnte, erst recht wenn man mit den Big-Cores im <5W Bereich operiert.

Coda
2014-04-19, 12:32:17
Dir ist aber schon klar, dass das ein Emulator ist mit dem man das Programm ausführen muss?

Das ist nur für Entwickler gedacht um auf CPUs, die bestimmte Features nicht unterstützen, trotzdem entwickeln zu können.

AnarchX
2014-04-19, 12:40:21
Es geht ja auch eher darum, dass beide die gleichen Extensions besitzen, was wohl einen Ansatz mit heterogenen Kernen (bezogen auf Takt/Durchsatz) unterstützen könnte.

Eventuell kommen die "Atom"/-mont-Kerne (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=548306&highlight=Knight+Landing) auch über die iGPU in den Chip. Hohe Pro-Watt-Leistung ist sowohl Ziel bei den LRB-Nachfolgern als auch bei den GenX iGPUs und NV/AMD haben ja ähnliche Bestrebungen mit CPU-Integration.

mrck
2014-05-04, 15:52:47
...

Nightspider
2014-05-04, 17:12:05
Wäre DDR4 nicht gerade bei den Y+U Varianten sinnvoller?

Was bedeutet SKL und SLK und die Zusätze 2+2,2+3e usw. und was bedeutet Cons und Corp?

Jacksonville ist vielleicht 10 Gigabit-Ethernet?

AnarchX
2014-05-04, 17:29:17
Das mit dem DDR3 wird auch bei Zauba bestätigt. Man hat wohl eine gemeinsame Plattform für den Braswell-Atom-SoC und Skylake.

SKL ist natürlich die Abkürzung für Skylake und x+x bedeutet die Kern-Zahl+Grafiklevel (also GT1-4 und das e für eDRAM). Die 100er Chipsätze für Consumer und Corporations.

Da bleibt es wohl weiter bei nur 4 Big-Cores.

Nightspider
2014-05-04, 17:32:15
Und was ist SLK dann? Tippfehler? Oder Skylake-K ? :ugly:

Nur 4 Kerne in der zweiten 14nm-Generation wären echt traurig. Selbiges erhöht aber imo die Wahrscheinlichkeit das Skylake wieder einen größeren Sprung in IPC und Takt macht.

AnarchX
2014-05-04, 17:33:50
Offensichtlich ein Tippfehler.

robbitop
2014-05-04, 17:52:40
Endlich eDRAM im Ultrabook Formfaktor..

Ravenhearth
2014-05-04, 18:06:32
Skylake wird doch Gen9 sein, oder? Ist schon bekannt, wie viele EUs die GT4 haben wird? Es könnten, ausgehend von den 48 bei Broadwell-GT3, 96 sein. Oder Intel erhöht wieder um 4 bei der GT2 und wir landen bei 14 - 28 - 56 - 112. Wäre eine ganze Menge.

robbitop
2014-05-05, 10:59:31
Broadwell bekommt doch bereits eine GT4 mit 96 EUs. Also müsste Skylake mehr haben.

Wieviel mehr, ist schwer zu sagen.

- Von Sandy zu Ivy, legte man 33 % EUs drauf
- von Ivy zu Haswell legte man 25 % mehr EUs (GT2) drauf und schuf GT3 (+ 150 % EUs)
- von Haswell zu Broadwell legt man 20 % EUs drauf und schafft ein GT4 Modell mit + 140 % EUs

Bei Skylake GT4 sollten es also irgendwas zwischen 20-33 % mehr EUs ggü Broadwell GT4 sein. 116...128 EUs. Letzteres liest sich runder. ;)

Oder Intel erhöht wieder um 4 bei der GT2 und wir landen bei 14 - 28 - 56 - 112. Wäre eine ganze Menge.
Das wäre auch sinnvoll und würde auch einem Muster folgen. :)

------------------
GT4 finde ich uninteressant. Warum? Weil es nur in den höheren TDPs kommt und auch nur bei mind. 4 Kernen. Ich will sowas im niedrigeren TDP Bereich mit 2 Kernen haben... :(

Aber immerhin bringt Skylake GT3e (eDRAM) für das Ultrabook. Also endlich ein rMBP 13" mit eDRAM. :)

AnarchX
2014-05-05, 12:23:46
Interessanterweise kennt die Folie aber keinen BDW-GT4 mehr. Treibereinträge gab es aber schon zu diesem. Vielleicht Apple-exklusiv?

Bei den EU sollte man erstmal abwarten, wie sich die Architektur entwickelt hat. Gerade im Vergleich zu Maxwell könnte Intel bei der Leistung pro GFLOP bzw. GB/s noch einiges verbessern.

mrck
2014-05-05, 12:55:22
...

robbitop
2014-05-05, 13:08:12
Ist Skylake immernoch Gen8 oder schon Gen9?

VooDoo7mx
2014-05-05, 13:32:43
Was ich nicht verstehe das von den letzten Informationen ausgehend bei der Broadwell Grafik nur von 24 und 48 EUs für Iris Pro die Rede ist.
Nach bisherigen Informationen wären das aber nur GT1 und GT2. Wo ist da GT3 mit 72 EUs? Von GT4 erst gar keine Spur...

Und ob nun Skylake Grafik tatsächlich schon Gen9 ist, lässt sich nicht mit Sicherheit sagen...

mrck
2014-05-05, 13:36:46
...

AnarchX
2014-05-05, 14:48:08
Broadwell-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10201540#post10201540

mczak
2014-05-05, 16:10:34
Skylake ist Gen9.
Quelle? Könnte ja durchaus auch bloss leicht verbesserte Gen 8 sein so wie Haswell Gen 7.5 ist.

AnarchX
2014-05-05, 16:14:31
Quelle? Könnte ja durchaus auch bloss leicht verbesserte Gen 8 sein so wie Haswell Gen 7.5 ist.
Im 1. Post ist ein Verweis zu Linkedin. Aber Digitimes hatte in der Zwischenzeit ähnliches gemeldet.

Nightspider
2014-05-05, 16:42:58
Quelle? Könnte ja durchaus auch bloss leicht verbesserte Gen 8 sein so wie Haswell Gen 7.5 ist.

Ist doch schon lange bekannt das die GPU von Broadwell zu Skylake nochmal einen großen Schritt im Design macht.

Wie stark dadurch die Effizienz steigt muss sich erst zeigen aber der Unterschiedvon einem heutigen Haswell zu einem Skylake wird riesig sein.

mrck
2014-05-05, 17:05:40
...

mczak
2014-05-05, 17:59:22
Im 1. Post ist ein Verweis zu Linkedin. Aber Digitimes hatte in der Zwischenzeit ähnliches gemeldet.
Ok habe ich übersehen. Es gibt halt noch keinen Open-Source Code dazu und auch sonst scheint es noch nicht allzuviele Informationen dazu zu geben.

y33H@
2014-05-05, 23:32:26
Endlich eDRAM im Ultrabook Formfaktor..Vorsicht: Bei HSW werden sowohl die 15W als auch die 28W Version mit U-Suffix gekennzeichnet, aber nur letztere haben eine GT3e. Ich würde die Slide zwar so interpretieren als ob es mit SKL auch die GT3e bei 15W gibt, aber das ist Speku.

Am Namenswirrwarr gescheitert ...

ndrs
2014-05-06, 00:18:21
Da verwechselst du aber grad was. die 28W-Versionen haben die HD5100 also GT3. eDRAM gibt's nur bei den dicken 47W-Teilen. U-Varianten mit GT3e gibt's bei Haswell nicht.

y33H@
2014-05-06, 00:53:24
Argl, du hast Recht. Elendes Namenswirrwarr.

Also GT3e für 15W oder nur für 28W als U-Version? Eher letzteres?

AnarchX
2014-05-06, 08:45:28
Eventuell gibt es bei Skylake auch eine 20W TDP: http://www.computerbase.de/2011-05/intel-ausblick-auf-haswell-14-nm-atoms-und-neue-grafik/

Mal sehen ob die MCP 2+3e Version aus 3 Dies besteht oder ob man hier in das eDRAM-Die die Southbridge integriert.

robbitop
2014-05-06, 09:37:47
28 W ist immer noch Ultrabook IMO. rMBP 13" hat zumindest diesen Formfaktor.

Nightspider
2014-05-06, 10:24:13
Ist schon abzusehen wie viel AVX3.2 bringen wird?

Wird AVX 1 mittlerweile eigentlich schon in Spielen verwendet?

mrck
2014-05-06, 13:04:17
...

dildo4u
2014-05-06, 13:06:18
Ist schon abzusehen wie viel AVX3.2 bringen wird?

Auf Games bezogen vermutlich erstmal nix da es die Konsolen nicht unterstürzen.

Duplex
2014-05-06, 13:09:35
Ist schon abzusehen wie viel AVX3.2 bringen wird?
http://abload.de/img/avxskylakenewp66bkiu.jpg

dildo4u
2014-05-06, 13:16:41
Scheint so das wir jetzt grad mal das erste mal SSE4a Zwang haben.

http://steamcommunity.com/app/256290/discussions/0/558754898915883307/

Nightspider
2014-05-06, 13:55:26
Der Zwang zu AVX könnte ja relativ schnell einhalten, da PS4 und Xbone jeweils AVX besitzen und neue Games diese sicherlich sehr bald nutzen werden.
Schade ist nur das die neuen Konsolen noch kein AVX2 besitzen und somit Potential von Haswell die nächsten 5-10 Jahre ungenutzt bleiben wird, falls nicht gerade Nintendo in 2-5 Jahren eine neue Konsole mit mind. Excavator-CPU-Architektur auf den Markt bringt.

Laut der Website hier nutzt Battlefield 3 wohl auch SSE4/4.1 oder 4.2 aber wohl nur optional:
http://www.pc-erfahrung.de/hardware/prozessor/prozessor-befehlssaetze-sse-avx-aes-3dnow-und-mehr.html

Sry für das OT aber kann mir jemand (gern auch per PN) sagen ob man testen kann, ob ein Programm SSE4.2 oder schon AVX nutzt, zB. BF4 ?
Würde mich ja wundern wenn dieses CPU hungrige Game nicht wenigstens optional AVX nutzt. Wobei das Spiel ja noch das alte BF3 Grundgerüst nutzt und deswegen vllt noch kein AVX genutzt wird. BF5 wird garantiert AVX nutzen weil generell noch mehr CPU Leistung benötigt wird.

Wie viel % Leistung SSE4 und AVX in Spielen bringt weiß aber auch keiner oder?

Sorry falls das etwas am Thema vorbei geht.

Locuza
2014-05-06, 19:04:23
Also Codemasters Rennspiele nutzen soweit ich weiß AVX, welches man leider nicht direkt mit SSE testen kann, denn falls die CPU AVX unterstützt wird das auch verwendet , man kann in den Einstellungen nichts drehen um SSE zu erzwingen.

occ-kh@Mirko
2014-05-06, 19:48:17
Würde behaupten "Jaguar" beherrscht Befehlssätze wie AVX, Umsetzungen von PS4-Spielen dürften diesen Ersatz für Intels SSE also ebenfalls berücksichtigen. Da lässt sich einiges mit AVX beschleunigen. Problem ist eher der Mangel an einer flächendeckender Verbreitung. Die Beschleunigung dürfte trotzdem spürbar sein.

Locuza
2014-05-06, 20:00:20
AVX bietet bei Jaguar "dank" 128-Bit Pipeline nur den Vorteil ein 3-Operanden-System zu verwenden.

mrck
2014-05-06, 20:01:24
...

occ-kh@Mirko
2014-05-06, 20:05:06
PCGH haben in der Vergangenheit mal sinniert wies um gewisse Feature stehen kann. Zur Nutzunganwendung haben sie eben klar ausgeführt, dass ältere Versionen eher Anwendung finden selbst wenn neuere erscheinen, weil eben eine standardisierte Marktdurchdringung größtenteils fehlt. Muss aber nicht so bleiben. http://www.pcgameshardware.de/CPU-Hardware-154106/News/Intel-AVX2-fuer-haswell-883721/

Mit den neueren Konsolen kann die Verbreitung ggf. beschleunigt werden.

Hier gabs noch was in anderen Foren zu lesen: http://www.planet3dnow.de/vbulletin/showthread.php/406571-Bobcat-Nachfolger-Jaguar-bekommt-Unterstuetzung-fuer-AVX?

Skysnake
2014-05-07, 08:34:36
http://abload.de/img/avxskylakenewp66bkiu.jpg
Und?
Das ist doch klar, dass das genau so aussieht.

AVX3 bringt die 512Bit Register aus Larabee/KNF/KNC auf die normalen CPUs. Das wars dann auch schon im großen und Ganzen.

Der Zwang zu AVX könnte ja relativ schnell einhalten, da PS4 und Xbone jeweils AVX besitzen und neue Games diese sicherlich sehr bald nutzen werden.
Schade ist nur das die neuen Konsolen noch kein AVX2 besitzen und somit Potential von Haswell die nächsten 5-10 Jahre ungenutzt bleiben wird, falls nicht gerade Nintendo in 2-5 Jahren eine neue Konsole mit mind. Excavator-CPU-Architektur auf den Markt bringt.

AVX2 bringt ja vor allem FMA3 mit als große Neuerung.

jaguar in den Konsolen kann doch meines Wissens nach auch FMA4 wie BD oder? Wenn ja, dann ist der Unterschied nicht wirklich groß. Man muss halt "nur" die richtigen Befehle nutzen.

[/quote]
Laut der Website hier nutzt Battlefield 3 wohl auch SSE4/4.1 oder 4.2 aber wohl nur optional:
http://www.pc-erfahrung.de/hardware/prozessor/prozessor-befehlssaetze-sse-avx-aes-3dnow-und-mehr.html

Sry für das OT aber kann mir jemand (gern auch per PN) sagen ob man testen kann, ob ein Programm SSE4.2 oder schon AVX nutzt, zB. BF4 ?
Würde mich ja wundern wenn dieses CPU hungrige Game nicht wenigstens optional AVX nutzt. Wobei das Spiel ja noch das alte BF3 Grundgerüst nutzt und deswegen vllt noch kein AVX genutzt wird. BF5 wird garantiert AVX nutzen weil generell noch mehr CPU Leistung benötigt wird.

Wie viel % Leistung SSE4 und AVX in Spielen bringt weiß aber auch keiner oder?

Sorry falls das etwas am Thema vorbei geht.[/QUOTE]
Im Prinzip müsstest du "nur" die CPU-ID ändern, also die Flags ausschalten die signalisieren, dass die CPU AVX unterstützt. Das wäre es dann eigentlich schon.

Also Codemasters Rennspiele nutzen soweit ich weiß AVX, welches man leider nicht direkt mit SSE testen kann, denn falls die CPU AVX unterstützt wird das auch verwendet , man kann in den Einstellungen nichts drehen um SSE zu erzwingen.
Siehe oben. Theoretisch geht das ganz "leicht" die Frage ist nur, wie verklickert man der CPU, dass Sie falsche Werte in die Register schreiben soll bei dem entsprechenden Befehl? ;)

Kann meines Wissens nach nur über das Bios des MBs gemacht werden wenn überhaupt. Also auserhalb der Reichweite von normalen Nutzern.

Locuza
2014-05-07, 08:44:11
Jaguar hat keine FMA-Pipes, dass hast du aber auch schon mal im letzten Jahr gefragt ;)

Coda
2014-05-11, 17:04:01
Das einzige was AVX auf Jaguar wirklich bringt ist die Drei-Operanden-Form auch für SSE. Macht den Code kompakter.

Es gibt kein FMA und auch kein XOP. Was unterstützt wird ist F16C.

HPVD
2014-05-23, 19:22:05
lt der Titelseite soll skylake nun erst im Sommer 2016 erscheinen:
http://www.3dcenter.org/news/intel-prozessoren-roadmap-broadwell-2015-skylake-demzufolge-erst-2016
Ob dann wohl die verschiedenen Die Varianten (Core-Anzahlen) gleichzeitig erscheinen? oder die "großen" Skylake erst in 2017 ??

mrck
2014-05-23, 19:42:03
...

HOT
2014-05-23, 21:47:18
Das ist die Spekulation von Leonidas.
Aber eine mit 99% Wahrscheinlichkeit.
Was mit den E ist, ist dann die Frage. Leo spekuliert ja sogar die Atoms nach hinten. Da ja jetzt auch bei Atom offenbar noch einen Refresh eingeplant wird ist das ebenfalls sehr wahrscheinlich: http://www.computerbase.de/2014-05/intels-bay-trail-m-zum-dritten-mal-aufgefrischt/. Es würde mich aber doch eher wundern, wenn die E knapp hinter den normalen Versionen erscheinen, wo doch bei den CPUs noch weniger Druck besteht die schnell zu ersetzen. Zudem finde ich Leos OEM-Argument sehr stichhaltig. Je höher im Markt angesiedelt desto wichtiger.
Ich würde da folgenden Zeitplan aufstellen:
Herbst 2014
5W-Broadwells (Fertigungsprozess einfahren), Skymont Refresh
2015 Frühjahr
Airmont, ULK-Broadwells für Ultrabooks
2015 Sommer
komplettes Broadwell-Lineup
2015 Herbst
Goldmont
2016 Jahreswechsel
Broadwell-E
2016 Sommer
Skylake
Anfang 2017
Skylake-E
Anfang 2018 (eher optimistische Annahme)
10nm-Produkte, Intel wird die Fertigung eh verzögern, weil die Kosten zu hoch sind und es da viel Kritik der Eigentümer gab.

Mandalore
2014-05-23, 22:23:41
Könnte die Verschiebung vielleicht etwas mit AMDs Aussage zu einer komplett neuen High-End-µArch (falls es wirklich gesagt wurde, kenne die Original-Aussage nicht!) bedeuten?Ich meine mit dem/den K7+K8 Pionier(en) könnte ich mir gut vorstellen, dass Intel bissl Angst kriegt, dass AMD irgendeine Bombe wie damals den "Hammer" rausbringt:confused::rolleyes:

mrck
2014-05-23, 22:31:05
...

N0Thing
2014-05-23, 22:41:26
Könnte die Verschiebung vielleicht etwas mit AMDs Aussage zu einer komplett neuen High-End-µArch (falls es wirklich gesagt wurde, kenne die Original-Aussage nicht!) bedeuten?Ich meine mit dem/den K7+K8 Pionier(en) könnte ich mir gut vorstellen, dass Intel bissl Angst kriegt, dass AMD irgendeine Bombe wie damals den "Hammer" rausbringt:confused::rolleyes:

Nein, daß hat sich schon in den letzten Jahren angedeutet, daß Intel diese kurzen Tick-Tock-Intervalle nicht auf ewig einhalten kann.
Einen Vorteil hätte Intel durch Zurückhaltung sowieso nicht. AMD wird das Beste bringen, zu dem sie im Stande sind und je schlechter das Angebot von Intel zu der Zeit, so besser die Presse für AMD. Ergo wäre es für Intel eher wichtig, zu diesem Zeitpunkt möglichst gute Produkte zu haben, um weiterhin möglich hohe Preise erzielen zu können.

Duplex
2014-05-23, 23:00:53
Intel braucht nichtmal auf Broadwell setzen, das ist nur ein Shrink in 14nm, den könnte man eig. auslassen und direkt auf Skylake gehen.

Und selbst wenn sich das ganze um 6-12 Monate verschieben sollte, es würde sich dann trotzdem nichts an der Stärke von Intel ändern.

del_4901
2014-05-24, 00:15:44
Das einzige was AVX auf Jaguar wirklich bringt ist die Drei-Operanden-Form auch für SSE. Macht den Code kompakter.

Es gibt kein FMA und auch kein XOP. Was unterstützt wird ist F16C.
Die Decoder werden mit AVX auch entlastet.

HOT
2014-05-24, 10:14:39
Intel braucht nichtmal auf Broadwell setzen, das ist nur ein Shrink in 14nm, den könnte man eig. auslassen und direkt auf Skylake gehen.

Und selbst wenn sich das ganze um 6-12 Monate verschieben sollte, es würde sich dann trotzdem nichts an der Stärke von Intel ändern.
Allein die Tatsache, dass man genau das aber eben nicht macht, heißt im Klartext, dass sich Skylake verschieben wird. Richtig, Intel wird das nicht schaden sondern als Corp nützen, da durch die längeren Zeiträume die Kosten sinken und somit die Einnahmen steigen.

Das sehe ich anders. So eine Situation wie jetzt mit Broadwell gab es vorher noch nicht. Ich halte deine grobe Skylake Einteilung im übrigen für fragwürdig, da sich einzelne Versionen immer weiter voneinander trennen. Ich halte es für sehr unwahrscheinlich, dass 4+2 und 4+4 im ähnlichen Zeitraum erscheinen. Und verabschiedet euch doch endlich von Skymont. Der shrink heißt Cannonlake.
4+4 Skylake ist eh ein absolutes Nischenprodukt. Wann der kommt kann sich Intel aussuchen. Broadwell 4+4 gibts offenbar nicht. War wohl ne Ente. Und was soll an meiner Skylake-Einteilung komisch sein? Dass Skylake frühestens 1 Jahr nach Broadwell, allein aus rentabilitätsgründen, kommen wird ist denke ich absolut klar. In welcher Reihenfolge dann entscheidet nur Intel, da hab ich überhaupt nix zu geschrieben. Und auch die offensichtliche Verschiebung von Atom und der 3. Silvermont-Refresh passt da ins Bild.

Coda
2014-05-24, 11:26:31
Die Decoder werden mit AVX auch entlastet.
Das hat mir Microsoft auch gesagt, aber ich konnte keinen wirklichen Effekt feststellen.

mrck
2014-05-24, 12:03:44
...

del_4901
2014-05-24, 13:16:54
Das hat mir Microsoft auch gesagt, aber ich konnte keinen wirklichen Effekt feststellen.
Das ist schwer da ran zu schagen, irgendwo im animations code war es der fall. Ich glaub es ist eine kombination von FP/INT logic mit etwas unguenstigen branches. Wenn ich mich recht entsinne hat Jaguar auch keinen loop predictor.

mksn7
2014-05-24, 16:23:32
Mit den Linux standard tools kann man mit "objdump -d xxx | grep ymm" sehen was so an AVX ausgeführt wird. ymm sind die 256bit AVX-register. Das windows äquivalent kenn ich nicht.

Ich hab mal für verschiedene Programmiersprachen so eine Analyse gemacht (mit gdb für den JIT code) . Firefox und Java nutzen zumindest die (nicht vektorisierten) 3 Operanden Befehle, bei Python kann man einfach nur noch das lachen anfangen.

Selber kompilieren ist halt das Maß der Dinge, dann kann man sofort von coolen Befehlssätzen profitieren.

Coda
2014-05-24, 16:38:17
Das ist schwer da ran zu schagen, irgendwo im animations code war es der fall. Ich glaub es ist eine kombination von FP/INT logic mit etwas unguenstigen branches. Wenn ich mich recht entsinne hat Jaguar auch keinen loop predictor.
Ich probier's bei Gelegenheit mal nochmal aus. Viel kann es aber wohl nicht sein.

bei Python kann man einfach nur noch das lachen anfangen.
CPython ist ein reiner Interpreter, was erwartest du da? Wenn überhaupt müsstest du PyPy, Unladen Swallow oder IronPython anschauen.

mksn7
2014-05-24, 17:08:53
Naja, tollen Code hab ich natürlich nicht erwartet. Aber 2800 Branches per Lattice Update fand ich schon erstaunlich. Die kompilierten Python versionen wären auch noch sehr interessant gewesen, aber das war für nen Vortrag der sowieso schon zu lang war. Zum Ausgleich sieht man zumindest eine schöne SSE version der NumPy Vektor operationen.

Skysnake
2014-05-24, 18:23:52
Mit den Linux standard tools kann man mit "objdump -d xxx | grep ymm" sehen was so an AVX ausgeführt wird. ymm sind die 256bit AVX-register. Das windows äquivalent kenn ich nicht.

Das hat mit Linux<->Windows gar nichts zu tun. Die Register heisen einfach ymm. Wie bei KNC halt zmm für die 512 Bit Register.

Wenn man sich den disassemble anschaut, sieht man immer sofort, was Sache ist, so lange es eben NICHT! dynamisch gelinked ist. Dann hat man halt ein Problem, weil man nur noch den Funktionsaufruf sieht, aber nicht mehr, was darin abgeht.

Also alles kein Hexenwerk.


Ich hab mal für verschiedene Programmiersprachen so eine Analyse gemacht (mit gdb für den JIT code) . Firefox und Java nutzen zumindest die (nicht vektorisierten) 3 Operanden Befehle, bei Python kann man einfach nur noch das lachen anfangen.

Selber kompilieren ist halt das Maß der Dinge, dann kann man sofort von coolen Befehlssätzen profitieren.
Was erwartest du von Python auch? :freak:

Bei Python gehts darum, überhaupt ein Problem zu lösen, nicht es effizient zu lösen. Wenn Performance auch nur irgendwie relevant ist, sollte man davon tunlichst die Finger lassen. In Algorithmen und Datenstrukturen hatten wir mal Python gemacht. Da habe ich ein paar Probleme auch in C implementiert, und hatte direkt in der ersten Version, ohne SSE/AVX, Multithread usw. gleich mal >25% Performancevorteil. Also wirklich einfach nur kurz das Problem runtergehackt. Das sagt eigentlich alles. :rolleyes:

Coda
2014-05-25, 01:06:19
Naja, tollen Code hab ich natürlich nicht erwartet. Aber 2800 Branches per Lattice Update fand ich schon erstaunlich. Die kompilierten Python versionen wären auch noch sehr interessant gewesen, aber das war für nen Vortrag der sowieso schon zu lang war. Zum Ausgleich sieht man zumindest eine schöne SSE version der NumPy Vektor operationen.
Es gibt keinen kompilierten Python-Code (jetzt mal abgesehen von in C umgewandeltes RPython)

mksn7
2014-05-25, 14:47:33
Das hat mit Linux<->Windows gar nichts zu tun. Die Register heisen einfach ymm. Wie bei KNC halt zmm für die 512 Bit Register.

Wenn man sich den disassemble anschaut, sieht man immer sofort, was Sache ist, so lange es eben NICHT! dynamisch gelinked ist. Dann hat man halt ein Problem, weil man nur noch den Funktionsaufruf sieht, aber nicht mehr, was darin abgeht.


Schon klar. Ich weiß nur nicht wie das objdump equivalent unter windows heißt. Disassemblies interpretieren ist aber auch eine Kunst für sich; ich bin oft genug hinterher auch nicht schlauer. Für numerische Kernel gehts aber meist ganz gut, weil man da die Ausdrücke wiedererkennt.

Für dynamisch gelinktes Zeug geht der GDB. Der kann on the fly die gerade ausgeführten instruktionen de assemblieren. Bei Java und JS (chrome) klappt das sehr gut.

mrck
2014-05-26, 12:43:21
...

Nightspider
2014-05-26, 17:05:00
Wie jetzt? Und dann gibts Mitte 2015 Skylake für Desktop zu kaufen aber nur mit festem Multiplikator?

Und Skylake soll doch schon wieder eine schnellere bzw. effizientere IGP bekommen. Da würde sich Broadwell mit Iris Pro im Desktop ja auch kaum lohnen wenn Skylake die bessere IGP hat.

mrck
2014-05-26, 17:11:15
...

Nightspider
2014-05-26, 17:26:23
Broadwell Gen 8 IGP
Skylake Gen 9 IGP

Gen 9 wird sicherlich auch mindestens 25% zulegen, mindestens!

Botcruscher
2014-05-26, 17:34:38
Wayne. Die GPU könnte auch 100% schneller sein.

mrck
2014-05-26, 17:37:18
...

Nightspider
2014-05-26, 17:51:26
Woher hast du die Info das Skylake nicht auch mit GT3 für Desktop erscheint?

mrck
2014-05-26, 18:05:04
...

HOT
2014-05-28, 13:03:56
Na das mit Q2 2015 ist aber ne gewaltige Ente. Ich nehme an, da hat ausversehen jemand 2015 statt 2016 geschrieben und jetzt wird da ein Elefant aufgeblasen. Es ist extrem unwahrscheinlich und überaus unsinnig gleichzeitig sich kannibalisierende Produkte auf den Markt zu bringen :freak:

mrck
2014-05-28, 13:11:36
...

mrck
2014-06-03, 14:56:01
...

Timbaloo
2014-06-04, 08:35:59
Das raff ich nicht, das SI ist doch immernoch Teil der CPU. Wie soll da DDR3 und DDR4 rein durch Bestückungsvarianten auf dem Board möglich sein? Wird da ein DDR4->DDR3-Converter verbaut? :ucrazy3:

YfOrU
2014-06-04, 08:52:19
Der Speichercontroller kann beides. Vergleichbar mit diversen AMD CPUs welche sowohl DDR2 als auch DDR3 unterstützen.
Hab als Beispiel einen AMD PII X6 auf AM2+ mit DDR2 laufen. Die CPU kann auch auf einem AM3(+) Board mit DDR3 eingesetzt werden.

Während der Übergangsphase zu einem neuen Speicherstandard macht eine entsprechende Implementierung Sinn da anfänglich immer höhere Kosten anfallen und die Verfügbarkeit meist eingeschränkt ist. Hinzu kommt das viele OEMs DDR3 in größeren Mengen auf Lager haben. Je nach Marktsituation werden somit Boards für DDR3 oder DDR4 produziert/bestellt. Ohne diese Flexibilität (CPU) kann das ganz schnell nach hinten losgehen. Sollte DDR4 nur eingeschränkt verfügbar oder massiv teurer sein würde man auf den CPUs sitzen bleiben.

Timbaloo
2014-06-04, 09:30:44
Oh, danke für die Info, das war mir neu :)

Skysnake
2014-06-04, 10:17:10
Nen DDR3+DDR4 Controller dürfte aber sacke teuer werden.

dildo4u
2014-06-04, 11:07:16
Kanns ja da High-End Plattform und keine Konkurrenz daher kein Preisdruck.

Skysnake
2014-06-04, 13:17:51
Skylake und High-End?

Bist du dir da ganz sicher?

Dural
2014-06-04, 13:47:52
gegen AMD ist alles High-End, ok Atom nicht gerade :freak: :wink:

mrck
2014-06-04, 16:37:02
...

Loeschzwerg
2014-06-05, 11:38:42
http://www.computerbase.de/2014-06/intels-skylake-verzichtet-auf-voll-integrierte-spannungsregler/ (original von VR-Zone)

Intel nimmt wieder Abstand von FIVR.

@Sky: Wir hatten die Diskussion mit dem Package ja erst... möglicherweise wird es doch zu komplex. Was meinst?

Skysnake
2014-06-05, 11:48:44
Naja, das Package wird halt überproportional komplexer, und man hat mehr Probleme überhaupt das Routing zu lösen, wenn man nicht mehr Lagen im Package verwendet.

Es war/ist ja schon sehr erstaunlich, das Intel überhaupt! geschafft hat, das zu lösen, und man sieht ja auch, das man es sowohl mit Haswell als auch mit Broadwell geschafft hat.

Die Frage ist halt nur, wieviel Aufwand es am Ende dann doch war, und wenn man sich anschaut, das Intel für die k-CPUs extra ein anderes package bringt, dann muss der Aufwand GEWALTIG gewesen sein, denn Intel hat Ressourcen wie sonst noch was, und dennoch hat man sich genötigt gefühlt nachzubessern.

Wenn man jetzt noch an Multi-chip package usw denkt für HMC/near Memory, dann fliegt einem das wohl am Ende irgendwann um die Ohren, bzw ist den Aufwand einfach nicht mehr wert.

Der ganze Analogkram der SERDES killt einen eh. Ich schlag mich jetzt seit rund 4 Monaten mit der Signalübertragung und vor allem! Powerdistribution von SERDES rum, und ich finde es wirklich erstaunlich, das Intel es wie gesagt überhaupt geschafft hat.

Intel hat da aber wohl jetzt auch ein Einsehen, das man nicht wirklich immer alles machen will, was technisch machbar ist, wobei man die Sache nicht ganz aus dem Auge verlieren sollte!

Aktuell werden ja nur organische Packages verwendet. Wenn man zu keramischen wechselt, könnte man wieder mehr als genug Luft bekommen, um das doch wieder aus der Schublade zu ziehen.

Duplex
2014-06-05, 13:08:27
http://www.computerbase.de/2014-06/intels-skylake-verzichtet-auf-voll-integrierte-spannungsregler/ (original von VR-Zone)

Intel nimmt wieder Abstand von FIVR.
Meine Vermutung ist das Skylake eine weiterentwicklung von Sandy Bridge ist, jedenfalls wurde Skylake vom Core2 & Sandy Bridge Team entwickelt.
Die integrierten Spannungsregler wurden erst garnicht eingebaut, das kann man nicht einfach mal einbauen und wieder rausnehmen.
Der Uncore von Haswell war auch ähnlich wie Nehalem gekoppelt, bei Skylake ähnelt der mehr auf Sandy Bridge, da sieht man hier arbeiten 2 Teams unabhängig, klar die Designs sind trotzdem ähnlich.

robbitop
2014-06-05, 13:35:32
Das hatten wir doch schon gefühlte hundert Mal. Es ist nicht so, dass die 2 Teams in einem Vakuum leben. Die Entwicklungsarbeit ist mit Sicherheit hoch vernetzt. Innovationen des einen Teams übernimmt das nächste Team mit (wenn sinnvoll). Ich kann mir auch gut vorstellen, dass z.T. Mitarbeiter hin und hergeshiftet werden - je nach Projektlage.
Wenn VFIR wirklich kompromisslos gut (im jetzigen Zustand) gewesen wäre und zu Skylake gepasst hätte, hätte man es auch verbaut.

Die µ-Archs bauen verdammt stark aufeinander auf. Da gibt es keine 2 völlig eigenen µ-Archs, nur weil es 2 Teams gibt. Es sind ja bspw auch alle Sandy und Ivy Innovationen (µ-Arch) in Haswell eingeflossen und sogar noch verbessert worden.

IMO sollte man diese Theorie ganz schnell vergessen.

mrck
2014-06-05, 13:53:03
...

mrck
2014-06-05, 17:41:33
...

mrck
2014-06-06, 15:58:31
...

mrck
2014-06-09, 22:10:58
...

Skysnake
2014-06-09, 22:28:41
Nur shared virtual Memory?

Das klingt aber komisch. Warum keinen echten shared Memory? Bis Skylake kommt ist ja wirklich noch genug Zeit, und man weiß ja auch schon mehr als zwei Tage, was AMD im Bereich der APUs treibt.

Oder was versteht jetzt Intel schon wieder darunter?

Kriton
2014-06-09, 22:39:17
Skylake wird kein DX 12 können?

Duplex
2014-06-09, 23:04:47
DX12 wird 2015 noch nicht relevant sein, vermutlich kommt DX12 bei Intel erst ab 10nm ende 2016.

Unicous
2014-06-09, 23:06:37
Alles klar.

Also Haswell wird Dx12 unterstützen, aber Skylake nicht.:rolleyes:

mrck
2014-06-09, 23:21:52
...

Coda
2014-06-10, 00:24:30
Nur shared virtual Memory?

Das klingt aber komisch. Warum keinen echten shared Memory? Bis Skylake kommt ist ja wirklich noch genug Zeit, und man weiß ja auch schon mehr als zwei Tage, was AMD im Bereich der APUs treibt.

Oder was versteht jetzt Intel schon wieder darunter?
Mit "virtual memory" meinen sie natürlich geteilte Page Tables.

Virtual Memory steht seit Jahrzehnten dafür, ich wüsste nicht was da unklar ist.

Kriton
2014-06-10, 08:44:25
Alles klar.

Also Haswell wird Dx12 unterstützen, aber Skylake nicht.:rolleyes:

Das war natürlich auf die Features bezogen, die HW-Unterstützung brauchen. Natürlich kann ich DX 11 auch auf meiner (inzwischen abgerauchten) HD 4850 nutzen.

Das sollte aber eigentlich klar sein.

Unicous
2014-06-10, 10:15:04
War nicht auf dich bezogen. Du kannst aber davon ausgehen, wenn Haswell DX12 unterstützt, wird es auch Skylake. Ich nehme auch weiterhin an, dass bei DX12 nichts wirklich Neues Geaturemäßiges kommt, sondern man sich eher um die Verschlankung von Direct3D bemüht. Die Features könnten dann individuell durch die Engines kommen.

mrck
2014-06-10, 13:36:38
...

Skysnake
2014-06-10, 23:05:34
Also das sieht wie ein extrem schlecht gemachter Fake irgendiw aus :ugly:

mrck
2014-06-10, 23:13:44
...

Triskaine
2014-06-11, 10:24:17
Also das sieht wie ein extrem schlecht gemachter Fake irgendiw aus :ugly:

Hast du noch nie interne Folien aus einer Firma gesehen? Das hier sieht noch verhältnismäßig gut aus. Die PP Folien von der NSA waren eher noch unter diesem Niveau.

Nightspider
2014-06-11, 11:35:03
Gab es eigentlich schon Infos ob Skylake ebenfalls eDRAM verwenden wird und in welcher Form bzw. bei welchen Modellen?

Wäre interessant ob Intel bei Skylake den eDRAM von der Größe verdoppelt und die Geschwindigkeit erhöht bzw. den eDRAM doppelt so breit anbindet.

mrck
2014-06-11, 13:24:05
...

G3cko
2014-06-11, 14:05:56
Interessante roadmap. Broadwell wird im desktopbereich übersprungen, erscheint aber noch als broadwell-e? Ich vermute das dies ebenfalls an den integrierten spannungswandlern liegt. Eventuell hat man den großen Zeitraum genutzt und haswell-e und broadwell-e erscheinen ohne diese.
Im Desktop Bereich war es wohl einfacher direkt auf skylake zu setzen anstatt an broadwell rumzufrickeln. Mit braswell wandern die spannungswandler dann in den low-power-Bereich wo sie hingehören. Vom Namen klingt es ja auch ähnlich.

mrck
2014-06-11, 14:27:16
...

Mr.Ice
2014-06-11, 14:36:18
Skylake - Erscheint ohne integrierte Spannungswandler

http://www.gamestar.de/hardware/news/prozessoren/3056781/intel_skylake.html

ndrs
2014-06-11, 15:15:17
Guten Morgen Gamestar ...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10235756&postcount=209

AnarchX
2014-06-27, 07:40:59
CPU World - More details on Skylake processors (http://www.cpu-world.com/news_2014/2014062601_More_details_on_Skylake_processors.html)

Desktop GT4e wohl mit nur 64MiB eDRAM?

mrck
2014-06-27, 09:29:28
...

y33H@
2014-06-27, 09:45:16
Interessant, die U und Y ohne DDR4-Support ... sollte es nicht so sein, dass DDR4 sparsamer ist? Oder macht der aufwendigere IMC das zunichte?

Nightspider
2014-06-27, 15:09:54
Ist die Quelle seriös?

Wären dann 2*64MB incl. DualChannel nicht am sinnvollsten?

Timbaloo
2014-06-27, 15:18:58
Interessant, die U und Y ohne DDR4-Support ... sollte es nicht so sein, dass DDR4 sparsamer ist? Oder macht der aufwendigere IMC das zunichte?
Vielleicht geht man davon aus, dass die Kosten von DDR4 bis dahin nicht ausreichend sinkt als dass es sich in den Produkten lohnen würde.

HOT
2014-06-27, 15:42:34
Die Quelle ist seriös.
Die Quelle mag seriös sein, die Folie ist es nicht. Die "Broadwell-K" sind schon extrem sinnlos.
1.) kann nach der bestätigten Produktionsroadmap ein Broadwell-K erst ab Juni frühestens zur Verfügung stehen
2.) was soll der Quatsch mit dem Broadwell-K? Warum kein Skylake-K?

mrck
2014-06-28, 15:54:58
...

ndrs
2014-06-28, 19:08:22
Hm, was heißt das "RS"-Kürzel beim Speicher? Sonst sieht mir das so aus, als wenn nur Low-Voltage-DDR3 unterstützt wird.

mrck
2014-06-29, 01:08:29
...

HOT
2014-06-30, 11:26:34
http://s1.directupload.net/images/140628/7tar7l8n.png

http://s7.directupload.net/images/140628/2aj3helr.png
http://chinese.vr-zone.com/119624/intel-will-update-to-14nm-broadwell-and-skylake-s-for-desktop-in-2015-second-quater-06282014/


Bestätigt nur die bekannten Infos.
Ok ich lag einfach falsch. Was zum Henker ist Skylake-S? Und tatsächlich Broadwell als K-Variante? Ist Skylake langsamer? :freak:
Warum gibts dann überhaupt nen 4-Kern-Broadwell?

Undertaker
2014-06-30, 12:59:59
Broadwell K wird ganz einfach mehr Takt und den freien Multi bekommen, um sich gegenüber den darunter platzierten Skylake-Modellen abzugrenzen. Das reicht um den üblichen IPC-Zuwachs auszugleichen.

mrck
2014-06-30, 13:11:21
...

HOT
2014-06-30, 13:19:38
Ähm, GT3e gibts doch gar nicht mit LGA-Package? Auch bei Broadwell nicht? Das sind ganz normale GT2-Broadwells... warum sollten die dicke Grafik mit sich herumschleppen? Das kostet doch nur TDP... Bei den K-Modellen gehts doch eigentlich nur um die CPU.
Zudem beantwortet das nicht meine Frage. Warum nimmt man keinen Skylake-K? Wenn Broadwell viel langsamer wär (>5%) macht das keinen erkennbaren Sinn.
Broadwell K wird ganz einfach mehr Takt und den freien Multi bekommen, um sich gegenüber den darunter platzierten Skylake-Modellen abzugrenzen. Das reicht um den üblichen IPC-Zuwachs auszugleichen.
Was ist das denn für ne Aussage? Demnach bräuchte man keinen Broadwell.

mrck
2014-06-30, 13:22:12
...

Undertaker
2014-06-30, 13:28:40
Exakt, GPU ist ein weiterer Punkt. Dennoch denke ich, dass auch der CPU-Teil durch einen entsprechenden Mehrtakt schneller sein wird; den potentiellen Mehrverbrauch des GPU-Vollausbaus kann man mehr oder weniger über den Turbo kompensieren.

HOT
2014-06-30, 13:32:45
Selbst wenn es nur 5% mehr Performance sind braucht man Broadwell nicht in dem Markt. Selbst dann wäre ein annähernd taktgleicher Skylake-K zum Skylake-S doch sinnvoller... Wird sich wohl noch aufklären, was der Quatsch soll.

Edit: Auf den zweiten Blick kann das sogar sein, dass Skylake bei bisheriger Software nicht schneller, vielleicht sogar langsamer ist als Broadwell. Im Grunde braucht man doch eine komplette auf 512Bit angepasste Architektur. Also größere Caches, breitere Datenwege und damit mehr Latenzen und evtl. weniger Taktspielraum usw... somit könnte ein Skylake die Anforderungen für eine k-CPU gar nicht schaffen auf Anhieb.