PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Skylake - DDR4, Gen9 GPU @ 14nm (2016) & Skylake-X - up to 18C @ 14FF++ (2017)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13

Knuddelbearli
2014-06-30, 17:28:46
was bisher bei S2011 passierte Modelle später als die für den Endkunden. Wird jetzt halt mit dem K weitergeführt. Dort wo man Konkurrenz hat bzw die Leistung braucht gibt es das neueste und OCler bekommen das Zeug vom letzten Jahr.

Nightspider
2014-06-30, 17:35:48
Intel will wohl die ausnehmen, die immer sofort das Beste brauchen.

Somit wird man im Sommer wohl erst nur Broadwell-K kaufen können, wenn man maximal übertakten will und später muss man dann ein neues Mainbaord und Skylake-K kaufen. Nur das jetzt eben noch keiner weiß wann Skylake-K erscheint. Vielleichte Ende 2015 oder mit Pech erst im Sommer 2016.

Ich finde es auch bescheuert. Intel könnte ruhig gleich Skylake-K auf den Markt bringen.

Was wollen wir Übertakter denn mit einer nicht übertaktbaren Skylake-S CPU? :mad:

Botcruscher
2014-06-30, 18:14:20
Die IPC Vergleichen und Sandy noch ein paar Jahre laufen lassen. :tongue:

Nightspider
2014-06-30, 18:18:53
Ja das ist das einzig Sinnvolle was noch übrig bleibt. :(

Undertaker
2014-06-30, 18:26:52
Ich hätte nicht gedacht, dass hier schon wieder jemand mit der Theorie sinkender IPC daherkommt. Das hat sich schon in schöner Regelmäßigkeit seit Nehalem als falsch herausgestellt. :rolleyes:

was bisher bei S2011 passierte Modelle später als die für den Endkunden. Wird jetzt halt mit dem K weitergeführt. Dort wo man Konkurrenz hat bzw die Leistung braucht gibt es das neueste und OCler bekommen das Zeug vom letzten Jahr.

Exakt.

G3cko
2014-06-30, 18:57:42
Ich hoffe das die CPUs wie Steine in den Regalen bleiben. Skylake wäre ohne integrierte spannungswandler, kleinere Fertigung und neuer Architektur ein oc Hit. Offensichtlich möchte dies Intel aber nicht.

Wie gut würde ein 8-Core dastehen wenn ein quad mit 10% ipc und +5,5ghz mit smt in jedem gamingbench die Nase vorn hat? Und dad zu einem 1/4 des Preises!

Entweder Intel grenzt das oc aufgrund von mangelnder konkurenz immer weiter ein, oder man steht sich zum ersten mal mit Produkten aus dem eigenen hause im weg. Immerhin trifft dann die CPU von vor-vor-gestern (haswell-e) auf die CPU von übermorgen (skylake).

Glücklich dürften die Kunden mit keiner Lösung so richtig sein. Haswell-e überteuert mit dem Wissen bereits veraltet zu sein. Genauso mit broadwell und der handbremse beim oc.

Was ähnliches gab es nur meines Wissens bei den Grafikkarten. Dort erschien die 8800gt mit enormer Effizienz und zu 1/3 der Kosten der 8800gtx. Laut der Bezeichnung wäre der Chip aber eine 9800gt geworden und erschien deutlich früher im Markt.
Nvidia wollte damals amd ausstechen und ging über den Preis. Intel treibt die Marge Lieber weiter nach oben.

Undertaker
2014-06-30, 19:04:02
Gerade der Vergleich mit den E-Modellen ist doch nicht viel anders als bisher. Auch Haswell lief einige Zeit parallel zu Sandy Bridge-E, und da gab es für letztere Plattform sogar noch ein 4C-Modell. Die Leistung der 6/8 Haswell-E-Kerne wird Skylake nicht erreichen. Dazu halt die sonstigen Vorteile der "großen" Plattform (z.B. PCIe-Lanes, Speicherausbau).

Duplex
2014-06-30, 21:27:17
Ich hätte nicht gedacht, dass hier schon wieder jemand mit der Theorie sinkender IPC daherkommt.
Bei Haswell hat "HOT" damals auch so eine Theorie gepostet, ich glaube auch bei hwluxx, beide male lag er daneben.

mrck
2014-07-01, 01:26:44
...

CountDoku
2014-07-01, 01:35:40
Bei Haswell hat "HOT" damals auch so eine Theorie gepostet, ich glaube auch bei hwluxx, beide male lag er daneben.

Aller guten Dinge sind 3:D Mal im Ernst. Sollte Skylake eine schlechtere IPC haben als der Vorgänger fresse ich einen Besen. Mit Stiel! Achso, Skylake ist vom selben Team die auch Sandy konstruiert haben. Der Kracher Architektur der letzten Jahre. Nagelt mich drauf fest es wird einfach nicht passieren:cool:

Intel hat mehrere Teams und das "beste" wird dann am Ende in Massenproduktion geschickt. Es widerspricht sich einfach das Skylake eine schlechtere IPC als Broadwell haben wird. Intel bringt immer! eine IPC Verbesserung also bitte:rolleyes:

Nightspider
2014-07-01, 02:56:05
Ich könnte mir sogar vorstellen das Skylake einen größeren Sprung als Ivy und Haswell zusammen macht. Also 10-20% im Durchschnitt mit Ausreißern nach oben - unabhängig von AVX.

Zudem rechne ich bei Broadwell oder Skylake mit einem besseren OC Potential.

Ob wir so viel Glück haben werden muss sich erst noch zeigen.

Coda
2014-07-01, 09:37:35
Selbst wenn es nur 5% mehr Performance sind braucht man Broadwell nicht in dem Markt. Selbst dann wäre ein annähernd taktgleicher Skylake-K zum Skylake-S doch sinnvoller... Wird sich wohl noch aufklären, was der Quatsch soll.

Edit: Auf den zweiten Blick kann das sogar sein, dass Skylake bei bisheriger Software nicht schneller, vielleicht sogar langsamer ist als Broadwell. Im Grunde braucht man doch eine komplette auf 512Bit angepasste Architektur. Also größere Caches, breitere Datenwege und damit mehr Latenzen und evtl. weniger Taktspielraum usw... somit könnte ein Skylake die Anforderungen für eine k-CPU gar nicht schaffen auf Anhieb.
So wie Sandy Bridge es für AVX damals auch gebraucht hat.

Ich bin aber auch skeptisch was einen großen Performance-Sprung angeht. Haswell hat mit extrem viel Aufwand nur noch sehr wenig Leistung gewonnen.

Aber die CPUs sind so komplex das man sich nie sicher sein kann ob es doch noch Bottlenecks gibt.

HOT
2014-07-01, 12:38:01
Sandy ersetzte den internen Hub durch einen 256Bit Ringbus, was durchschlagenden Erfolg hatte. Ich bin mir aber nicht sicher, ob nicht Nehalem schon 256Bittig war intern. Willamette musste ja damals auch schon 128Bit gehabt haben, obwohl erst Northwood SSE2 brachte.
Wenn man an K8 vs. K10 denkt (64 auf 128Bit) war das ein ziemliches Desaster, weil kaum mehr IPC, Taktbarkeit weg und höhere Leistungsaufnahme. Dabei muss man aber sagen, dass die originale 128Bit Architektur sehr wahrscheinlich ja schon als Ur-K8, K9 und Ur-K10 scheiterte. Das war ja nur ein Provisorium.
Bei BD ging das ja noch weiter, da BD ja von 128 auf 256Bit sprang.

Ich könnte mir sogar vorstellen das Skylake einen größeren Sprung als Ivy und Haswell zusammen macht. Also 10-20% im Durchschnitt mit Ausreißern nach oben - unabhängig von AVX.

Zudem rechne ich bei Broadwell oder Skylake mit einem besseren OC Potential.

Ob wir so viel Glück haben werden muss sich erst noch zeigen.

Dann gäbe es gar keinen 4-Kern-Broadwell mehr.

Coda
2014-07-01, 12:38:35
Was hat denn bitte der Ringbus mit AVX zu tun? Die Bandbreite aus dem L1 Cache muss reichen.

Dein Bit-Zeug hat überhaupt erst total nachranging was mit der IPC oder Leistungsfähigkeit der Architektur zu tun.

HOT
2014-07-01, 12:59:15
Stimmt damit war ich auf dem Holzweg. Aber erhöhte Bandbreiten werden doch erkauft, die sind nicht umsonst.

Coda
2014-07-01, 14:46:42
Es würden vielleicht höhere Latenzen entstehen, aber die Kompensiert man mit der kleineren Strukturbreite.

Nightspider
2014-07-01, 15:52:48
Dann gäbe es gar keinen 4-Kern-Broadwell mehr.

Natürlich. Schließlich kommt Broadwell immer noch geschätzte 6 Monate eher auf den Markt. Dafür das sich Broadwell verschoben hat kann der Releaseplan ja nichts. Somit kann Intel halt 2 mal im Jahr 2015 ordentliche Werbung machen und von sich sprechen lassen.

2015 könnte Intels Jahr werden. ;)

Cherrytrail, lüfterlose Broadwells in Tablets, Broadwell generell, Skylake, Broadwell-E, 14nm usw.

mrck
2014-07-01, 16:13:38
...

Botcruscher
2014-07-01, 17:25:14
Es ist intern einfach breiter. Ausführungsports und vor allem die Anbindung der Speicher. Bei der Leistung sieht man eigentlich viel zu wenig Gewinn. Gerade HT müsste eigentlich deutlich besser laufen als bei Ivy.

Coda
2014-07-01, 17:30:41
Inwiefern viel Aufwand?
http://www.anandtech.com/show/6355/intels-haswell-architecture/7
http://www.anandtech.com/show/6355/intels-haswell-architecture/8

Zwei weitere Ports (eine zusätzliche Integer-ALU, eine zusätzliche Store-Unit und jetzt zwei Branch-Units), alle Buffer ordentlich vergrößert, etc. und am Ende kommen 10% raus. Das ist ziemlich bitter.

Tesseract
2014-07-01, 18:17:45
naja, unverhältnismäßig wenig finde ich das jetzt auch nicht bei nicht-speziellem code. wenn AVX2 dazu kommt sieht das ganze gleich ganz anders aus und ich nehme an die höhere cache-bandbreite, beispielsweise, ist vor allem dafür eingeplant worden.

mrck
2014-07-01, 18:33:05
...

Tesseract
2014-07-01, 18:38:43
Der Fokus lag auf Effizienz und Verbrauch bei Haswell.
das erzählt das marketing den analysten aber ich glaube nicht, dass bei haswell darauf wirklich deutlich mehr wert gelegt wurde als bei ivy oder sandy. das streben nach mehr performance/watt gibt es ja schon länger und haswell ist in der hinsicht ein relativ normaler evolutionsschritt innerhalb von intels architekturreihe.

Coda
2014-07-01, 18:52:34
naja, unverhältnismäßig wenig finde ich das jetzt auch nicht bei nicht-speziellem code. wenn AVX2 dazu kommt sieht das ganze gleich ganz anders aus und ich nehme an die höhere cache-bandbreite, beispielsweise, ist vor allem dafür eingeplant worden.
Für das was sie da getan haben ist es extrem wenig. Die Issue-Breite ist etwas was man jahrzehntelang nicht anfasst, weil es unglaublich teuer ist mehr Ports einzubauen.

Der Fokus lag auf Effizienz und Verbrauch bei Haswell. Intel könnte mehr an der IPC Schraube drehen wenn sie es drauf angelegt hätten. Intel hat sich dagegen entschieden.
Offensichtlich hast du das von mir verlinkte nicht gelesen oder nicht verstanden.

mrck
2014-07-01, 18:55:43
...

Coda
2014-07-01, 19:22:54
Ich hab deinen Beitrag gelesen, aber er ist unsinnig.

Was hätten sie denn deiner Meinung nach einbauen sollen um mehr IPC rauszuholen? Das war die größte Execution-Resource-Erweiterung seit Core 2.

Tesseract
2014-07-01, 20:56:21
Die Issue-Breite ist etwas was man jahrzehntelang nicht anfasst, weil es unglaublich teuer ist mehr Ports einzubauen.
wieviel größer ist denn der CPU-teil im vergleich zu ivy? ich finde dazu irgendwie keine brauchbaren zahlen.

mrck
2014-07-01, 21:05:33
...

Undertaker
2014-07-01, 21:07:09
wieviel größer ist denn der CPU-teil im vergleich zu ivy? ich finde dazu irgendwie keine brauchbaren zahlen.

Der gesamte GT2-Die ist um gerade einmal 17 mm² gewachsen, wovon sicherlich der Großteil auf die GPU zurückzuführen ist. So dramatisch teuer scheinen die Änderungen der Haswell-Kerne nicht zu sein.

Edit: Beim GT2-DC sind es 12 mm². Heißt also, das ein Haswell-Kern etwa 2,5 mm² größer als ein Ivy Bridge-Kern ist.

Rente
2014-07-01, 21:13:07
Du bezichtigst Intel der Lüge. Intel widerspricht dir, du kannst es gar nicht einschätzen.
Und du lieferst keine Quelle für deine Aussage.

mrck
2014-07-01, 21:24:21
...

Nightspider
2014-07-01, 22:41:51
Genau genommen sind die CPU Kerne kaum gewachsen die letzten Jahre.
Flächentechnisch hat Intel noch riesiges Potential. Die Frage ist eben nur wie man die IPC stärker steigern kann. Der Cache scheint kaum mehr zu limitieren also muss die branch prediction (Sprungvorhersage) weiter verbessert werden.

Und wenn bei der IPC erstmal gar nichts mehr geht wird Intel versuchen die Taktraten weiter zu steigern. Ich denke da ist noch etliches Potential. Gerade bei 14nm FF.

Locuza
2014-07-01, 22:42:47
Der Fokus lag auf Effizienz und Verbrauch bei Haswell. Intel könnte mehr an der IPC Schraube drehen wenn sie es drauf angelegt hätten. Intel hat sich dagegen entschieden.
Coda hat hier an dieser Stelle schon die Frage aufgeworfen mit was denn?

Du bezichtigst Intel der Lüge. Intel widerspricht dir, du kannst es gar nicht einschätzen.
Tut er doch gar nicht direkt oder?
Er hat nur angemerkt, dass Intel bei Haswell viel unternommen hat, jede typische Stellschraube wurde aufgebohrt, man hat nach vielen Jahren wieder die Port-Anzahl erhöht, Konflikte reduziert, den SMT-Mechanismus selber etwas verbessert, eine vierte ALU, die Cachebandbreiten verdoppelt und am Ende sprang beim Legacy-Code 8-10% heraus.
Das ist relativ zum Papier schon irgendwie wenig.
Bin natürlich kein Experte, aber das was Ivy-Bridge verbessert hat gegenüber SB war nicht gerade viel und da sprang schon ein nettes Sümmchen heraus, bei Haswell hat man soviel mehr unternommen und der Lohn sind 8-10% mehr?
Ich war an der Stelle etwas enttäuscht, es gab natürlich auch tolle Showcases wie Starcraft, welches wenn ich es noch richtig in Erinnerung habe bei PCGH um 20% zugelegt hat und mit SMT war irgendwo ein Thread wo Haswell sich gut geschlagen hat.

Intel kann ja ruhig den Fokus auf Perf/Watt/Verbrauch allgemein gelegt haben, aber bei IPC-Verbesserungen unter der Haube haben sie an der Stelle sicherlich nicht gespart.

ndrs
2014-07-01, 22:55:57
Genau genommen sind die CPU Kerne kaum gewachsen die letzten Jahre.
Flächentechnisch hat Intel noch riesiges Potential.
Bei der Fläche stimme ich zu, allerdings besteht so eine CPU nicht nur aus Silizium. Wieviele Kupferlayer hat haben denn Ivy und Haswell? Vielleicht hat sich da der gestiegene Verdrahtungsaufwand auch niedergeschlagen.

Undertaker
2014-07-01, 23:05:55
Intel kann ja ruhig den Fokus auf Perf/Watt/Verbrauch allgemein gelegt haben, aber bei IPC-Verbesserungen unter der Haube haben sie an der Stelle sicherlich nicht gespart.

Das sehe ich schon etwas anders. Wenn eine bestimmte Maßnahme 5% Leistung bringt, aber 10% Leistungsaufnahme kostet, kann man durchaus überlegen darauf zu verzichten. Zumindest in der aktuellen Situation, wo die lukrativsten Märkte (Mobile und Server) vor allem Power-limitiert sind. Bei einer reinen Desktop-CPU könnte die Entscheidung ganz anders ausfallen.

Locuza
2014-07-01, 23:19:23
Das sehe ich schon etwas anders. Wenn eine bestimmte Maßnahme 5% Leistung bringt, aber 10% Leistungsaufnahme kostet, kann man durchaus überlegen darauf zu verzichten.
In so einem allgemeinen Fall natürlich, aber Intels Maßnahmen bei Haswell sehen nicht gerade nach Sparmaßnahmen aus oder?
Ich kann natürlich ins blaue spekulieren das es noch einige Kniffe gibt, aber bei Legacy-Code scheint jedenfalls für mich eine Grenze erreicht worden zu sein, wo man mit "typischen" Kniffen relativ proportional auch ein Speed-Up erwarten durfte.

Coda
2014-07-02, 01:02:08
Das sehe ich schon etwas anders.
O'rly. Das hätte ich jetzt gar nicht gedacht. Das du das anders siehst. Überraschend.

Du bezichtigst Intel der Lüge. Intel widerspricht dir, du kannst es gar nicht einschätzen.
Ach Lüge ist ein hartes Wort. Das Marketing die Wahrheit strapaziert ist nun wirklich nichts neues. Und je länger man auf der anderen Seite als die Konsumenten davon ist desto mehr wird einem das klar.

Sache ist halt, Code gibt nur eine begrenzte Parallelität her. Und 4 Integer-ALUs auszulasten ist fast unmöglich. Üblicherweise bewegt man sich so bei ~2 Instructions/Cycle. Man erhöhte den Durchschnitt damit ein wenig weil es in manchen Fällen halt doch geht, aber große Steigerungen sind halt nicht mehr drin.

Virtual
2014-07-02, 08:37:48
Alleine durch eine bessere Cache-Architektur läßt sich noch einiges gewinnen:http://www.newelectronics.co.uk/electronics-news/smarter-caching-boosts-chip-performance/59679

Skylake soll doch nach den aktuellen Spekulationen einen doppelten L1/L2 mitbringen. Das ist zwar zunächst für sich keine neue Cache-Strategie, wenn die Latenz des L1/L2 nicht steigt, wäre allein der doppelte L1 schon (möglicherweise) für >10% IPC gut. Die Breite der Anbindung wird wohl auch wegen 512-Bit AVX wieder verdoppelt werden und vielleicht ist die Cache-Strategie (siehe Artikel) auch noch erheblich verbessert worden. Das zusammen reicht vielleicht schon für 20% IPC Steigerung. Es ist letztlich Skylake-Speku, belegen kann ich es nicht, aber seriös widerlegen kann das hier auch keiner, also kann/sollte man durchaus berechtigt auf einen größeren IPC-Schub hoffen können.

Undertaker
2014-07-02, 08:54:23
O'rly. Das hätte ich jetzt gar nicht gedacht. Das du das anders siehst. Überraschend.

Deine nichtssagenden Einzeiler strotzen nur so von überzeugenden Argumenten und deiner unendlichen Weisheit, bitte mehr davon!

In so einem allgemeinen Fall natürlich, aber Intels Maßnahmen bei Haswell sehen nicht gerade nach Sparmaßnahmen aus oder?
Ich kann natürlich ins blaue spekulieren das es noch einige Kniffe gibt, aber bei Legacy-Code scheint jedenfalls für mich eine Grenze erreicht worden zu sein, wo man mit "typischen" Kniffen relativ proportional auch ein Speed-Up erwarten durfte.

Keine Ahnung was Intel noch hätte "mehr" einbauen können, Virtual über mir hat aber schon einiges genannt (auch wenn mir die Zuwächse zu hoch erscheinen). Klar ist zumindest, das praktisch keine Limitierung durch die Die-size besteht (dafür sind die Kerne im Verhältnis zum gesamten Die zu winzig) und der Entwicklungsfokus ein ganz anderer ist als noch vor einigen Jahren - wo oftmals eher die Taktbarkeit die Leistung limitierte. So hat Intel auch bei Silvermont wiederholt hervorgehoben, dass jede einzelne Verbesserung auf einen Perf/Watt-Prüfstand gestellt wurde; nur was auch in puncto Effizienz Vorteile bot, wurde letztlich eingebaut. Das wird in etwas abgeschwächter Form auch bei Haswell gegolten haben.

Skysnake
2014-07-02, 09:17:08
Alleine durch eine bessere Cache-Architektur läßt sich noch einiges gewinnen:http://www.newelectronics.co.uk/electronics-news/smarter-caching-boosts-chip-performance/59679

Skylake soll doch nach den aktuellen Spekulationen einen doppelten L1/L2 mitbringen. Das ist zwar zunächst für sich keine neue Cache-Strategie, wenn die Latenz des L1/L2 nicht steigt, wäre allein der doppelte L1 schon (möglicherweise) für >10% IPC gut. Die Breite der Anbindung wird wohl auch wegen 512-Bit AVX wieder verdoppelt werden und vielleicht ist die Cache-Strategie (siehe Artikel) auch noch erheblich verbessert worden. Das zusammen reicht vielleicht schon für 20% IPC Steigerung. Es ist letztlich Skylake-Speku, belegen kann ich es nicht, aber seriös widerlegen kann das hier auch keiner, also kann/sollte man durchaus berechtigt auf einen größeren IPC-Schub hoffen können.
Die Zahlen haste gewürfelt oder?

Es gibt absolut keinen Grund von derartigen Steigerungsraten auszugehen. Konservativ betrachtet, müsste man 0% Steigerung in Betracht ziehen, oder wenn überhaupt 1-2% durch größere Caches in dem Bereich. Die Datensets sind eher selten genau so, dass das dann genau passt.

IPC bekommste eigentlich nur noch durch SIMD vernünftig gesteigert. Bei allem anderen ist die Kostennutzenrechnung im Allgemeinen ziemlich bescheiden.

Die niedrigen fetten Äpfel wie Branchprediction, OoO usw sind halt alle schon gepflügt und totgeschlagen. Da wirste kaum noch etwas finden. Wo man noch richtig viel Leistung finden könnte, wäre bei allen Stackoperationen, oder Wechsel zwischen Kernel und Userspace. Aber da kann ich mir nicht wirklich vorstellen, was man da noch groß machen will.

Undertaker
2014-07-02, 09:29:54
Fast den gleichen Wortlaut hört man schon seit Nehalem, spätestens aber Sandy Bridge immer wieder – vielleicht sind das Problem einfach nur die unterschiedlichen Erwartungshaltungen? Knapp 10 Prozent für einen Tock, knapp 5 Prozent für einen Tick sind in etwa Werte, die man mMn auch zukünftig (zumindest die nächsten Jahre) realistisch erwarten kann.

Skysnake
2014-07-02, 09:52:42
Bei reinem Legacy Code aber nicht mehr wirklich. Da wird die Luft wirklich immer dünner und dünner.

Vor allem, wenn Intel gezwungen wird, mehr als 4 Cores zu verbauen, dann wird auch die Cachecohärenz schwieriger zu erfüllen bei den Frequenzen, die nötig sind. Das kann sich ganz schnell dann auch mal in einer gesunkenen IPC niederschlagen.

Schaut euch doch mal an, wieviel mehr L3 Cache z.B. die 2011er mitbringen. Single-Thread bringt ihnen das meist nichts/wenig.

Es ist halt die total falsche Erwartungshaltung die hier propagiert wird. Man sollte an sich mit gar keiner, maximal 1-2% mehr IPC rechnen, und sich über alles was darüber hinausgeht einfach freuen. Erwarten kann man das in meinen Augen aber bei legacy Code nicht mehr.

Wenn man wirklich ernsthaft Leistungssteigerungen erwarten will, muss man sich auf SIMD usw, also neue Instructionen zurückziehen.

Coda
2014-07-02, 10:00:00
Fast den gleichen Wortlaut hört man schon seit Nehalem, spätestens aber Sandy Bridge immer wieder – vielleicht sind das Problem einfach nur die unterschiedlichen Erwartungshaltungen? Knapp 10 Prozent für einen Tock, knapp 5 Prozent für einen Tick sind in etwa Werte, die man mMn auch zukünftig (zumindest die nächsten Jahre) realistisch erwarten kann.

Was denn nun? Einerseits meinst du jetzt man kann eh nicht viel erwarten und andererseits verteidigst du die Haswell-Steigerungen mit "sie haben eh nicht viel gemacht" (was nicht stimmt). Komm mal klar.

Die 1-2% von Skysnake halte ich jetzt aber auch für untertrieben, da geht schon noch bisschen mehr.

Undertaker
2014-07-02, 10:10:21
@Skysnake: Wie schon gesagt: Genau das gleiche hört man seit Jahren immer wieder in verschiedendsten Foren (nicht jedoch in den tech. sessions) und noch nie hat damit jemand Recht gehabt. Ich bezeifle auch arg das sich von außen einschätzen lässt, welche Bremsklötze Intel selbst noch im Design sieht. Da aber die Engineers (nein, nicht die Marketing-Abteilung) nichts vom Ende der IPC-Steigerung verkünden (und die reden idR sehr offen über bevorstehende bottlenecks und Entwicklungshindernisse) sehe ich derzeit noch keinen Anlass, an ein Ende jeglicher Steigerungen zu glauben. Ich sehe schon wieder die Diskussion, wenn Broadwell seine ~3-5% draufgepackt hat, dass das jetzt nun endgültig der Schluss wäre und nichts mehr geht. Bis wir dann mit Skylake die nächsten paar Prozent sehen...


Vor allem, wenn Intel gezwungen wird, mehr als 4 Cores zu verbauen, dann wird auch die Cachecohärenz schwieriger zu erfüllen bei den Frequenzen, die nötig sind. Das kann sich ganz schnell dann auch mal in einer gesunkenen IPC niederschlagen.

Wo siehst du bei den E-Modellen IPC-Abfälle?

Schaut euch doch mal an, wieviel mehr L3 Cache z.B. die 2011er mitbringen. Single-Thread bringt ihnen das meist nichts/wenig.

Auch das predigt Intel schon seit Jahren in den tech. sessions: Die wachsenden L3-Größen sind ausschließlich auf die wachsenden Kernzahlen zurückzuführen, lohnen sich also nur bei Multi-Threading. Zur IPC-Steigerung hat die Größe des L3-Caches seit Nehalem noch nie beigetragen (max. zur Erhaltung derselben bei den Server-Monstern).



Was denn nun? Einerseits meinst du jetzt man kann eh nicht viel erwarten und andererseits verteidigst du die Haswell-Steigerungen mit "sie haben eh nicht viel gemacht" (was nicht stimmt). Komm mal klar.

Die 1-2% von Skysnake halte ich jetzt aber auch für untertrieben, da geht schon noch bisschen mehr.

Vielleicht hörst du erstmal auf, mich mit falschen Zitaten wiederzugeben. Ich schrieb, dass die Haswell-Änderungen nicht "so dramatisch teuer" wären und habe dies mit einer konkreten Zahl – etwa 2,5 mm² pro Kern, abgeschätzt aus der Die-Size – belegt. Wenn du dem widersprechen möchtest, erläutere doch bitte genauer, was daran jetzt so teuer ist.

Wenn wir die 1-2 % als zu wenig ab tun landen wir am Ende schnell wieder bei dem, was Ivy Bridge und Haswell brachten. Und man fragt sich, was die Aufregung soll.

Alter Sack
2014-07-02, 10:41:56
Für mich als SandyBridge (2,5 Jahre alter i7-2600k) Besitzer bedeutet das, dass es beim 4 Jahres-Rhytmus bleiben wird.
Erst nächstes Jahr kommt eine komplett neue CPU-Generation in 14nm, sowie DDR4 raus und wenn man dann nochmal ein paar Monate wartet, oder sogar den Refresh vom Boardwalk abwarten kann, lohnt sich der Neukauf... dann vermutlich aber mit 6-8 Kernen + HT.

Vermutlich wird mein i7-2600k SandyBridge die erste CPU sein, die ich 5-6 Jahre nutzen kann, ohne Leistungsprobleme zu bekommen :biggrin: , da ich hauptsächlich surfe, maile und maximal mal eine Win8-VM mit 4GB-RAM anstarte, sowie sehr regelmäßig zocke.

Auch vom Verbrauch her passt alles... frühere Generationen wie der Q6600 hatten da noch einen deutlich höheren Stromverbrauch, wo ich durch den Wechsel auf SandyBridge von 125 Watt Idle auf 65Watt Idle gekommen bin (ganzes System mit GTX660 Graka).

Letzendlich wird es für wohl auf zukünftige Spiele ankommen, ob und wann eine neue CPU wirklich Sinn macht (für mich zumindest) und das wiederum hngt komplett an den (soeben erst erschienenen) NexGen-Konsolen.

Die Entwicklung verlangsamt sich mittlerweile (leider) extrem...

ndrs
2014-07-02, 11:55:28
Ich schrieb, dass die Haswell-Änderungen nicht "so dramatisch teuer" wären und habe dies mit einer konkreten Zahl – etwa 2,5 mm² pro Kern, abgeschätzt aus der Die-Size – belegt.
Wie ich schon sagte, ist Silizium nicht der einzige Bestandteil einer CPU. Ivy Bridge hatte noch 9 Metal Layers. Bei Haswell sind's deren 11. Das steigert nicht nur die Produktionskosten selber, sondern erhöht auch die Defektrate deutlich.

Siehe Folie 5
http://www.hotchips.org/wp-content/uploads/hc_archives/hc25/HC25.80-Processors2-epub/HC25.27.820-Haswell-Hammarlund-Intel.pdf

Undertaker
2014-07-02, 12:07:28
Die Folien sind schon länger bekannt. Hatte nicht auch Bulldozer 11 Metal Layer? Dort jetzt einen Hinderungsgrund für IPC-Steigerungen zu sehen, halte ich nicht unbedingt für wahrscheinlich.

Coda
2014-07-02, 12:26:44
Was er meinte ist, dass Haswell nicht nur wegen der zusätzlichen Fläche teurer war.

Mehr Metal-Lagen erlauben kompaktere Schaltkreise.

ndrs
2014-07-02, 12:54:19
Dort jetzt einen Hinderungsgrund für IPC-Steigerungen zu sehen, halte ich nicht unbedingt für wahrscheinlich.
Wie bitte?
Du sagst: Die Änderungen waren nicht teuer, da die Fläche kaum steigt.
Ich sage: Aber die Anzahl der Lagen ist gestiegen. Das ändert was an den Kosten.

Ich wollte damit nur sagen, dass die Änderungen eben nicht billig sind. Nicht mehr und nicht weniger Von IPC-Auswirkungen habe ich selber nie gesprochen.

Undertaker
2014-07-02, 13:17:47
Mea cupla, Missverständnis.

Tesseract
2014-07-02, 13:19:20
Das ist zwar zunächst für sich keine neue Cache-Strategie, wenn die Latenz des L1/L2 nicht steigt, wäre allein der doppelte L1 schon (möglicherweise) für >10% IPC gut.

aber wirklich nicht. die caches sind heute schon so dermaßen groß, dass die speicherbandbreite in den meisten fällen fast keine messbaren auswirkungen mehr auf die performance hat. locality of reference und so. mehr cache würde höchens bei entweder mehr cores oder mehr threads pro core messbar etwas bringen. deswegen haben die i7 und ganz besonders die hexa/octa/etc-cores so viel davon.

anders sieht das natürlich mit ersetzungsstrategien, predictions usw. aus aber das hat nix mit der größe zu tun.

Skysnake
2014-07-02, 13:42:26
Wobei es da halt wirklich immer darauf ankommt, wie groß das Workingset ist.

Es gibt genau 3. Fälle

1. Es passt schon in den kleinen Cache -> Keine Verbesserung
2. Es passt in den größeren aber nicht den kleineren Cache -> große Verbesserung
3. Es passt weder in den kleinen noch den großen -> keine Verbesserung

Das Problemist halt, was ist ein Workingset. Das wechselt halt freudig hin und her, so das sich 1/2/3 freudig mischen.

Schnellerer Ram, also niedrigere Latenzen sind da schon ein anderes Kaliber. Das hilft nämlich immer, sobald man auf den RAM zugreifen muss, und das tut man doch relativ oft.

Da werden wir auch die großen Steigerungen sehen in naher Zukunft mit dem NearMemory (HMC). Da passt dann nämlich möglichst immer das Workingset rein.

Je nach Problem wird das einen gewaltigen Schub geben. Vor allem da, wo man eben kein effizientes Caching im Moment hat.

@Undertaker:
Wenn mir power scheis egal ist, ist noch so einiges an IPC-Steigerung drin. Aber das wird heutzutage nicht mehr gemacht werden, weil Power der limitierende Faktor ist. Und nein, ich will keinen Single-Core mit 50% mehr IPC im Vergleich zu nem Quad bei gleichem Verbrauch....

Tesseract
2014-07-02, 14:43:15
was für eine effektive hitrate haben denn moderne caching-hierarchien? 99,5%?

in HPC-spezialfällen mag das vielleicht eine rolle spielen, aber in "normalem" code schlägt das lokalitätsprinzip und die hitrate so hart durch, dass die größe schon lange so gut wie keine rolle mehr spielt. deswegen hat sich bei der größe auch seit jahren fast nix mehr getan wärend an der effizienz ständig getüftelt und geschraubt wird.

mrck
2014-07-02, 20:07:04
...

Skysnake
2014-07-03, 08:06:12
was für eine effektive hitrate haben denn moderne caching-hierarchien? 99,5%?

in HPC-spezialfällen mag das vielleicht eine rolle spielen, aber in "normalem" code schlägt das lokalitätsprinzip und die hitrate so hart durch, dass die größe schon lange so gut wie keine rolle mehr spielt. deswegen hat sich bei der größe auch seit jahren fast nix mehr getan wärend an der effizienz ständig getüftelt und geschraubt wird.
Muss nicht zwingend HPC sein. Gerade da achtet man ja an sich eher darauf, das man den Code schön strukturiert um das Cachin möglichst effizient aus zu nutzen.

Ich denke da eher an Datenbanken und auch an Games. Da kannste ja nicht wirklich voraussehen, was wo wie passieren wird. Das ist halt wirklich wahrlos, und dann hängste halt am RAM und aus die Maus, wobei ich zugeben muss, das ich mir die Hitrates in Games bisher nicht angeschaut habe konkret, ich erwarte es aber.

robbitop
2014-07-03, 09:59:52
Intel hat eine Design-Regel. Die lautet, dass n % erhöhte Leistungsaufnahme 2*n% Mehrleistung bringen müssen. Das macht die CPUs automatisch IPC stark und auch automatisch "powerefficient".

Ich sehe da eigentlich keinen Widerspruch. Oftmals lassen sich IPC und Leistungsaufnahme gut kombinieren. Denn was man an Mehrleistung durch die IPC bekommt, kann man an Takt (und damit linear an Leistungsaufnahme - wenn nicht durch gesenkte Spannung sogar quadratisch) sparen. Das ganze wird durch Shrinks gestützt, so dass man immer ein wenig mehr von diesen Maßnahmen umsetzen kann.

Irgendwann ist man aber vielleicht an einem Punkt, an dem diese 1:2 Regel nicht mehr funktioniert und man jedes bisschen IPC mit mehr Leistungsaufnahme erkämpfen muss. Die Frage ist, ob man das dann noch macht. Oder aber dann eben weniger Maßnahmen umsetzen kann, die dann durch Shrinks kompensiert werden und die IPC dann langsamer wächst.

Ich stimme Coda - was Haswell angeht - absolut zu. So eine tiefgreifende Änderung wie bei Haswell kam schon lange nicht mehr. Man hat die Execution breiter gemacht und die Cache-Bandbreite verdoppelt. Heraus kommen popelige 10 %.

Gerade bei SMT hätte ich mehr Vorteile vermutet - da ja nun mehr Execution Ressources vorhanden sind. Aber das trat nicht ein. Eine richtige Erklärung hatte auch niemand dazu.

Potenzielle Erklärungen wären:

1.) die gesteigerte IPC nutzt die Mehrressourcen pro Thread stärker aus
2.) die Execution Ressourcen sind nicht der (einzige) Bottleneck für SMT.

Coda
2014-07-03, 10:02:32
Ronak Singhal als Marketing zu bezeichnen ist interessant. Das übliche Totschlagargument wenns einem nicht passt.
Jeder Mensch ist stolz auf seine Arbeit und wird sie bestmöglich präsentieren.

Und Namen zu nennen und dann polemisch Totschlagargument zu benutzen ist jetzt auch nicht gerade eine extrem geile Argumentationslinie :)

Du bist bisher mit nichts auf die Technik eingegangen, das ist einer Diskussion hier recht unwürdig.

Gerade bei SMT hätte ich mehr Vorteile vermutet - da ja nun mehr Execution Ressources vorhanden sind. Aber das trat nicht ein. Eine richtige Erklärung hatte auch niemand dazu.

Potenzielle Erklärungen wären:

1.) die gesteigerte IPC nutzt die Mehrressourcen pro Thread stärker aus
2.) die Execution Ressourcen sind nicht der (einzige) Bottleneck für SMT.
3. Der Scheduler kann gar nicht alle Ports auf einmal bedienen.

Undertaker
2014-07-03, 10:21:31
Wäre dann Punkt 3 nicht schon ein Ansatz für weitere IPC-Steigerungen? In diesem Fall dann natürlich beschränkt auf Situationen mit SMT-Nutzung.

robbitop
2014-07-03, 10:30:50
Das ist eine gute Erklärung. Gerade da der Sheduler bei so vielen Ports vermutlich schon sehr komplex ist. Aber wozu so viele Ports, wenn man sie nicht gleichzeitig bedienen kann?

Coda
2014-07-03, 12:47:55
Store und Branch waren vorher nur auf einem Port, d.h. selbst wenn man es mit einer begrenzten Port-Anzahl schedulen könnte war es nicht möglich früher in bestimmten Situation, wenn dieser Port bereits belegt war.

Ich halte das nicht für so weit hergeholt, allerdings müsste man das wirklich mal ausmessen.

Edit: Mir ist gerade noch eingefallen, dass es eh generell ein Problem ist gleichzeitig zwei Store- oder Branch-Einheiten zu bedienen, denn das würde auf jeden Fall voraussetzen, dass diese miteinander kommunizieren um bei der Programmreihenfolge nicht durcheinander zu kommen. Wahrscheinlich ist das scheduling dort wirklich gegenseitig ausschließend.

robbitop
2014-07-03, 13:00:57
Ist das im SMT Fall (mit 2 völlig verschiedenen Threads) nicht egal? Da müssten die nicht miteinander kommunizieren, oder? :)

Coda
2014-07-03, 14:06:14
Bei SMT würde es gehen, ja. Fragt sich ob Intel das implementiert ist. Das Problem bei Block-Diagrammen ist halt dass man die ganzen Implementierungs-Details halt nicht ersichtlich sind und die sind extrem wichtig.

Skysnake
2014-07-03, 17:01:21
Nur bringt SMT halt NICHTS! für die Single-Thread-Leistung ;)

Coda
2014-07-03, 22:13:44
So what?

Skysnake
2014-07-03, 22:31:40
Es ging um das weitere Steigerungspotenzial der Single Thread IPC. Da ist SMT nen ganz unglücklicher Aufhänger nicht wahr? ;)

Coda
2014-07-03, 22:46:38
Es geht um Skylake.

Skysnake
2014-07-03, 23:44:13
und wie wahrscheinlich single Thread IPC Steigerungen von 10-20% sind für legacy code, also jetzt ganz abgesehen von AVX2.(what ever).

Und sorry, da passt SMT halt mal so rein gar nicht dazu. Das wird erst interessant, wenn man sich die Gesamtleistung anschaut.

BlackBirdSR
2014-07-04, 06:33:35
Und Du bestimmst hier, über was wir diskutieren dürfen? ;)


Ist es eigentlich bei aktuellen Implementationen von smt noch so, dass threads abwechselnd durch den Decoder gehen? Also Takt 1 Code für Thread A. Takt 2 Code für Thread B. Danach ist glaube ich wieder alles gleichzeitig verteilbar

und wie wahrscheinlich single Thread IPC Steigerungen von 10-20% sind für legacy code, also jetzt ganz abgesehen von AVX2.(what ever).

Und sorry, da passt SMT halt mal so rein gar nicht dazu. Das wird erst interessant, wenn man sich die Gesamtleistung anschaut.

robbitop
2014-07-04, 11:03:02
Es ging um das weitere Steigerungspotenzial der Single Thread IPC. Da ist SMT nen ganz unglücklicher Aufhänger nicht wahr? ;)
Da Intel den "Normalusern" nur 4 Kerne lässt (mangels Wettbewerb), wäre eine bessere Skalierung bei SMT schon etwas wert. ;)

Skysnake
2014-07-04, 12:35:45
Natürlich wäre dies etwas wert, aber eben nur für die absolute Leistung. Für SingleThread ist es völlig wurscht, ob die CPU jetzt besseres SMT, oder gar kein SMT hat.

Mal ein kleines Zahlenbeispiel. Wir haben zwei QuadCores.

A: Quadcore mit SMT, Gesamtleistung 7, IPC 1
B: Quadcore mit verbessertem SMT, Gesamtleistung 7,5, IPC 0,9

Prozessor B ist besser, wenn man alle Threads auslasten kann, aber eben langsamer, wenn man nur einen Thread hat. Was macht man dann in so einem Fall? Bringt man die "Verbesserung" oder bringt man Sie nicht?

genau B passiert ja tendenziell, wenn ich den Core-Count erhöhe, da es schnell sehr schwierig wird die Cachecohärenz zu erfüllen, ohne Single-Thread-Leistung zu verlieren.

In Zukunft werden wir halt eher "Verbesserungen" sehen, die B entsprechen, als das wir wirklich noch die IPC hoch knallen, jetzt abseits von SIMD und anderen Befehlssatzerweiterungen.

Es lohnt einfach nicht. Nehmen wir mal noch Prozessor C dazu
Quadcore mit weiterem SMT, Gesamtleistung 7,1, IPC 1,1

Ist der jetzt besser oder schlechter als Prozessor B?

BlackBirdSR
2014-07-04, 13:14:12
Dafür ist ja eigentlich das Turbo Gerüst erfunden worden. Bei wenig Chip Auslastung, hat man für einige Zeit ein paar Prozent mehr Leistung. Nicht wirklich spürbar im Desktop, aber im mobile Bereich doch schon eher.


Was ich schade finde, die Entwicklung hinsichtlich absoluter Performance schleicht aktuell nur dahin, also eigentlich perfekt um seitens der Software endlich die wachsende Basis an Befehlssätzen auszunutzen... Aber stattdessen knallen wir uns jährlich mit neuen X.1,X.2,X.3 und AVX-Y (X=SSE4 Y=1,2,3....1024) zu, in der Hoffnung, dass auch nie nur einer auf die Idee kommt, das Zeug mal wirklich auszunutzen ;)

Natürlich wäre dies etwas wert, aber eben nur für die absolute Leistung. Für SingleThread ist es völlig wurscht, ob die CPU jetzt besseres SMT, oder gar kein SMT hat.

Mal ein kleines Zahlenbeispiel. Wir haben zwei QuadCores.

A: Quadcore mit SMT, Gesamtleistung 7, IPC 1
B: Quadcore mit verbessertem SMT, Gesamtleistung 7,5, IPC 0,9

Prozessor B ist besser, wenn man alle Threads auslasten kann, aber eben langsamer, wenn man nur einen Thread hat. Was macht man dann in so einem Fall? Bringt man die "Verbesserung" oder bringt man Sie nicht?

genau B passiert ja tendenziell, wenn ich den Core-Count erhöhe, da es schnell sehr schwierig wird die Cachecohärenz zu erfüllen, ohne Single-Thread-Leistung zu verlieren.

In Zukunft werden wir halt eher "Verbesserungen" sehen, die B entsprechen, als das wir wirklich noch die IPC hoch knallen, jetzt abseits von SIMD und anderen Befehlssatzerweiterungen.

Es lohnt einfach nicht. Nehmen wir mal noch Prozessor C dazu
Quadcore mit weiterem SMT, Gesamtleistung 7,1, IPC 1,1

Ist der jetzt besser oder schlechter als Prozessor B?

Skysnake
2014-07-04, 19:03:21
Und was hat der Turbo jetzt mit IPC zu tun? Das ist doch davon völlig losgelöst.

Ansonsten bzgl Software:
Bei Consumer-Software tut sich halt nichts, weil im Allgemeinen die CPUs schnell genug sind für die Probleme, die man normal dort hat. Ob ich jetzt 1s oder 5s warte, das ist an sich ziemlich egal. Dafür gibt keiner in der Entwicklung deutlich mehr Geld aus, denn kein Kunde gibt dafür mehr Geld aus ;)

Wenn man bereit ist richtig Asche auf den Tisch zu legen für Software, dann wird das neue Zeug in der Regel auch genutzt. Der Ottonormaluser bekommt davon halt leider nichts mit. :(

StefanV
2014-07-04, 20:51:37
Was ich schade finde, die Entwicklung hinsichtlich absoluter Performance schleicht aktuell nur dahin, also eigentlich perfekt um seitens der Software endlich die wachsende Basis an Befehlssätzen auszunutzen... Aber stattdessen knallen wir uns jährlich mit neuen X.1,X.2,X.3 und AVX-Y (X=SSE4 Y=1,2,3....1024) zu, in der Hoffnung, dass auch nie nur einer auf die Idee kommt, das Zeug mal wirklich auszunutzen ;)
Das Problem an Consumer Software ist, dass du auch noch sehr häufig auf relativ alte Prozessoren stößt. Also sowas wie 'nen Deneb oder 'nen Core 2. Die sind hier (leider) immer noch recht weit verbreitet. Daher ists schwierig das alles auszunutzen...

Und da die meisten Anwendungen auf diesen alten Schüsseln noch halbwegs brauchbar laufen, besteht auch keine Notwendigkeit zum aufrüsten...

Elendes Henne-Ei Problem....

Botcruscher
2014-07-04, 21:32:15
Das sind aber ungelegte Eier, da Intel seit Sandy quasi nichts an Mehrleistung gebracht hat(AVX wird so oder so noch lange bedeutungslos bleiben). Ein C2D limitiert heute selbst beim surfen spürbar. Das die Masse auf irgendwelchen Notebookgurken arbeitet kommt noch dazu.

grobi
2014-07-04, 21:35:14
Das sind aber ungelegte Eier, da Intel seit Sandy quasi nichts an Mehrleistung gebracht hat(AVX wird so oder so noch lange bedeutungslos bleiben). Ein C2D limitiert heute selbst beim surfen spürbar. Das die Masse auf irgendwelchen Notebookgurken arbeitet kommt noch dazu.


Bei was limitiert denn ein C2D genau beim surfen?

Botcruscher
2014-07-04, 22:21:49
Die Schwuppdizität geht einfach in den Keller. Als SSD Nutzer fühlt es sich an wie eine HDD.

grobi
2014-07-04, 23:23:19
Die Schwuppdizität geht einfach in den Keller. Als SSD Nutzer fühlt es sich an wie eine HDD.

Das liegt aber nicht an der CPU sondern daran das die damaligen Mainboards eine SSD im IDE-Modus ansprechen(nicht alle aber viele). Ich brauchte für meinen P35- Chipsatz ein Betabios um ahci also Modus frei zu schalten, vorher lief es nicht sauber.

G3cko
2014-07-05, 18:15:17
Hier wird ja ein C2D wie ein Celeron dargestellt. OMG. Das ist doch zum surfen 100x oversized. Und den spürbaren Performanceboost erhält man von einer SSD nicht wegen der hohen Bandbreite, sondern aufgrund der geringen Latenzen. Nach dem Boot kann ich bereits nach 1sec den Browser öffnen und nutzen, obwohl ein "grottiger" C2Q verbaut, das System zugemüllt und die SSDs lediglich über SATAII angebunden sind.

http://media.bestofmicro.com/9/R/286767/original/ssdnuiances.png

SATA II oder SATA III verhält sich genauso wie PCIe 2.0 vs 3.0 bei aktuellen Grafikkarten. Im Altag nicht spürbar. Höchstens bei Kopiervorgängen. Aber wen interessierts? Wie häufig kopiert man die eine Platte auf die andere?
12GB SSHD -> SSD 3:20min
12GB SSD -> SSD 0:50min
12GB SSD -> SSHD 2:30min

Das Notebook einer Bekannten mit Pentium M und HDD benötigt mittlerweile 10min für den Bootvorgang bis man den Browser nutzen kann. Aber selbst da kann man noch surfen und es besteht keine Notwendigkeit zum Welchsel, weil eben nicht mehr als surfen gemacht wird und die Kiste auch nur 3x die Woche läuft...

mrck
2014-07-12, 22:06:35
...

Nightspider
2014-07-13, 01:12:41
Endlich erhöht Intel die Anzahl an Lanes.
Damit habe ich sogar schon bei Skylake gerechnet, nachdem jetzt sogar M.2 Slots weitere Lanes fressen um die Bandbreite für neueste SSDs ansatzweise bereitstellen zu können.

Die aktuellen Chipsätze pfeifen aus dem letzten Loch. Es würde doch keiner eine aktuelle HighEnd Grafikkarte bei zB. den neuen AsRock Mainboards nur im 8x Modus betreiben, wenn der Ultra M.2 Slot benutzt wird. Glaube bei SLI wurde die Anzahl der Lanes weiter reduziert.

Das ist auf jeden Fall noch ein dicker Pluspunkt für Skylake. Wenn ich nächstes Jahr ganz frustriert bin kaufe ich mir erst eine Skylake Plattform mit billig-QuadCore und kaufe dann ein Jahr 6-12 Monat später die -K Version zum Übertakten. :rolleyes:

http://www.computerbase.de/2014-07/intel-skylake-chipsatz-z170-h170-q170-q150-b150-h110/

Skysnake
2014-07-13, 08:13:53
Und was bringen dir PCI-E Lanes in Masse, wenn du Sie nicht angebunden bekommst?

Ist doch dann das gleiche Problem wie mit AMD und HT+PCI-E3.0. Das ginge an sich ohne Problem, nur würden die Lanes halt nie alle gleichzeitig mit voller Leistung laufen.

Daher ist die reine Anzahl der Lanes erstmal ziemlich nichtssagend, so lange man nicht weiß, wie die mit der CPU verbunden sind.

Vor allem sieht das für mich eben vor allem nach einen Zugeständnis für SATA-Express/M.2 usw aus. Die Lanes werden aber wohl eher nicht die volle Leistung bringen.

HOT
2014-07-13, 09:35:43
DMI-Bandbreite erhöht sich, also kann man auch die Lanes vermehren. Sieht für mich auf den ersten Blick jedenfalls so aus. (verdoppeltes DMI PCIe3 resultiert in 24 nutzbaren Lanes), der Chipsatz hat also 32.
Für SLI/CF nützt das aber nur sehr bedingt, weil ja eine GPU an der CPU dann hängt und die andere am DMI-gedrosselten Chipsatz. Blöde Konfiguration dafür. Da ist 16 Lanes auf 32 direkt bridgen erheblich sinnvoller.

Undertaker
2014-07-13, 09:55:19
Für SLI/CF nützt das aber nur sehr bedingt, weil ja eine GPU an der CPU dann hängt und die andere am DMI-gedrosselten Chipsatz.

Hä? Die zweite GPU hängt doch nicht am Chipsatz. :rolleyes: Die zusätzlichen Lanes sind in erster Linie für schnellere I/O-Anbindungen.

HOT
2014-07-13, 09:58:25
Hä? Die zweite GPU hängt doch nicht am Chipsatz. :rolleyes: Die zusätzlichen Lanes sind in erster Linie für schnellere I/O-Anbindungen.
Genau das habe ich ja gesagt.

Undertaker
2014-07-13, 10:16:55
Es ist unklar, was du in dem Zusammenhang überhaupt von GPUs sprichst.

Botcruscher
2014-07-13, 12:16:18
Weil es die Hauptverbraucher sind und nur die restlichen Lanes aufgeteilt werden können?
Hier wird ja ein C2D wie ein Celeron dargestellt.
Ein C2D liegt heute bei mehreren Threads auf Höhe eines aktuellen Atom. Ein aktueller Celeron zieht da lachend vorbei.

Undertaker
2014-07-13, 13:12:55
Weil es die Hauptverbraucher sind und nur die restlichen Lanes aufgeteilt werden können?

Ist doch völlig unabhängig davon. Die GPUs hängen direkt an der CPU und haben ihre eigenen Lanes. Alle weiteren Lanes hängen am Chipsatz, der wiederum per DMI an die CPU angebunden ist. Alles, was sich jetzt ändert, ist das das DMI breiter wird und der Chipsatz schnellere und mehr Lanes bekommt. Betrifft die GPU(s) keinen Deut.

ndrs
2014-07-13, 13:37:04
Ich glaube es ging um die THEORETISCHE Möglichkeit eine GPU an der CPU und die zweite am Chipset zu betreiben.
Und was bringen dir PCI-E Lanes in Masse, wenn du Sie nicht angebunden bekommst?

Ist doch dann das gleiche Problem wie mit AMD und HT+PCI-E3.0. Das ginge an sich ohne Problem, nur würden die Lanes halt nie alle gleichzeitig mit voller Leistung laufen.

Müssen sie doch nicht. Alleine die Möglichkeit jedes Gerät für sich mit voller Leistung zu betreiben ist doch schon ein Fortschritt.
Man braucht ja während dem Zocken mit Triple-SLI (ja, ich weiß. Siehe oben) und was weiß ich nicht unbedingt gleichzeitig die volle Übertragungsrate aus 3 M.2-SSDs. Einzeln hat es dann aber doch Vorteile.

Undertaker
2014-07-13, 13:54:00
Ich glaube es ging um die THEORETISCHE Möglichkeit eine GPU an der CPU und die zweite am Chipset zu betreiben.

Bleibt die Frage, ob sich die Lanes so beliebig zusammenschließen lassen (die Folien zeigen ja eigentlich sehr konkret wofür wieviele Lanes gedacht sind, mehr als x4 sehe ich da nicht) und wie sich die Extralatenz über den DMI-Umweg auswirkt. Selbst wenn man einen performanten x8-Link zusammenschließen kann: 16x + 8x ist jetzt auch nicht wesentlich flotter für Multi-GPU als 8x + 8x.

G3cko
2014-08-17, 22:49:05
Ein C2D liegt heute bei mehreren Threads auf Höhe eines aktuellen Atom. Ein aktueller Celeron zieht da lachend vorbei.

Mach dich nicht lächerlich. Hier liegt ein 1,5Ghz Atom auf dem Niveau eines 2 Ghz Core2Duo Mobile. Ein E8400 dürfte da mal eben doppelt so schnell sein.
http://www.anandtech.com/show/7263/intel-teases-baytrail-performance-with-atom-z3770-cinebench-score

Aber egal. Die eigentliche Aussage war, dass ein C2D zum Surfen zu langsam ist. Sry, aber selten so eine Bullshit gelesen. Vor allem da AMD immernoch auf kaum höherem Niveau rumkrebst. ;D
https://www.youtube.com/watch?v=VXLOKSDqwmU

Desweitern vermute ich mal, dass die Celerons wie früher ziemlich verkrüppelt sind. Sprich extrem kleiner Cache. Aus eigener Erfahrung kann ich da sagen, manches läuft hervorragend, manches garnicht. Eine vollwertige CPU dürfte da eine deutlich konstantere Leistung bringen, auch wenn sie im Mittel absolut gesehen hinter einer Celeronlösung auf aktueller Haswell-Basis liegt.

YfOrU
2014-08-18, 10:12:32
Mach dich nicht lächerlich. Hier liegt ein 1,5Ghz Atom auf dem Niveau eines 2 Ghz Core2Duo Mobile. Ein E8400 dürfte da mal eben doppelt so schnell sein.
Siehe: http://www.anandtech.com/show/7933/the-desktop-kabini-review-part-1-athlon-5350-am1/3
4C Jaguar (2 Ghz) bzw. 4C Silvermont (2,4Ghz) kommen MT durchaus in den Bereich eines E8400. Bei ST aufgrund der deutlich geringeren IPC natürlich klar langsamer.



Desweitern vermute ich mal, dass die Celerons wie früher ziemlich verkrüppelt sind. Sprich extrem kleiner Cache. Aus eigener Erfahrung kann ich da sagen, manches läuft hervorragend, manches garnicht. Eine vollwertige CPU dürfte da eine deutlich konstantere Leistung bringen, auch wenn sie im Mittel absolut gesehen hinter einer Celeronlösung auf aktueller Haswell-Basis liegt.

Haswell (L1 jeweils 64 KB, L2 jeweils 256 KB):

Celeron G1820 2,7 Ghz 2MB L3
http://ark.intel.com/de/products/78955/Intel-Celeron-Processor-G1820-2M-Cache-2_70-GHz
Intel Pentium G3220 3,0 Ghz 3MB L3
http://ark.intel.com/de/products/77773/Intel-Pentium-Processor-G3220-3M-Cache-3_00-GHz

http://www.purepc.pl/procesory/test_intel_celeron_g1820_haswell_najtanszy_procesor_lga_1150?page=0,4
Ein C2D E8400 (3,0 Ghz, 6MB L2) ist durch die Bank langsamer als ein G1820.

Haswell Pentium zu Celeron liegt praktisch im Rahmen der Taktdifferenz. Solange Hyper-Threading nicht zum tragen kommt gilt das auch für den Core i3-4130 (3,4 Ghz 3MB L3 HT).
http://ark.intel.com/de/products/77480/Intel-Core-i3-4130-Processor-3M-Cache-3_40-GHz

G3cko
2014-08-18, 22:22:43
Siehe: http://www.anandtech.com/show/7933/the-desktop-kabini-review-part-1-athlon-5350-am1/3
4C Jaguar (2 Ghz) bzw. 4C Silvermont (2,4Ghz) kommen MT durchaus in den Bereich eines E8400. Bei ST aufgrund der deutlich geringeren IPC natürlich klar langsamer.

Du kommst hier mit Quad gegen DualCore um die Ecke und bei SingelThread auf einmal natürlich klar langsamer. Gut das soviele Anwendungen, besonders der Browser die vielen Cores nutzt... Oder wird der Jaguar, Celeron dank der vielen Cors nun als Rendermöhre missbraucht?!

Vor ein paar Jahren (2008) wurde der E8400 noch als die Gamer CPU empfohlen, ein Jahr nach Crysis1. Ich kenne Unternehmen die diese CPU für Performancearbeitsplätzen CAD etc eingesetzt haben (und vielleicht noch einsetzten). Und auf einmal soll das Ding zum SURFEN zu langsam sein? Die Aussage mit dem Surfen ist und bleibt "Mumpitz". Sry du bist der Kracher... ;D

YfOrU
2014-08-19, 09:25:15
Du kommst hier mit Quad gegen DualCore um die Ecke und bei SingelThread auf einmal natürlich klar langsamer. Gut das soviele Anwendungen, besonders der Browser die vielen Cores nutzt...

Die Low-Cost Jaguar und Silvermont SoCs haben solange nicht teildeaktiviert vier CPU Kerne. Browser skalieren mit mehreren Tabs richtig gut. Das es durchaus einige Anwendungsszenarien gibt bei denen die deutlich geringere ST Performance (gegenüber zwei "Bigcores" mit wesentlich höherer IPC) der Flaschenhals ist sehe ich genauso.


Und auf einmal soll das Ding zum SURFEN zu langsam sein? Die Aussage mit dem Surfen ist und bleibt "Mumpitz". Sry du bist der Kracher... ;D

Die Aussage stammt weder von mir noch würde ich diese pauschal unterschreiben. Wenn es bei diesen "alten" Kisten richtig hakt dann liegt es im Regelfall an der GPU (Beschleunigung). Ein aktuelles Gerät mit Silvermont/Jaguar Quad, funktionierender GPU Beschleunigung und SSD bzw. flotten eMMC Speicher fühlt sich im Kontext einfacher Workloads oft flotter an.

Dural
2014-08-19, 09:39:14
habe gerade für meinen Freundin ein System mit alter Hardware zusammen gestellt, und ich war extrem überrascht wie schnell und unproblematisch der E8400 gerechnet hat, ich war echt paff da ich doch deutlich weniger erwartet hätte. Für Office oder Surfen spürt man kaum einen unterschied zu heutigen CPUs (mit der Stoppuhr sicher schon)

Früher hatte man halt keine SSD, deswegen waren die alten CPUs vom Gefühl her extrem "langsam". Heute mit den SSD läuft jedes Core2Duo System mit den bekannten Büro Anwendungen wirklich rund.

Undertaker
2014-08-19, 17:17:22
Browser skalieren mit mehreren Tabs richtig gut.

Hintergrundtabs belegen zwar RAM, erzeugen (im Normalfall) aber keine nennenswerte CPU-Last. Die 4 Kerne lohnen sich beim Browsen allenfalls, wenn man viele Tabs zeitgleich öffnet, was wohl aber nicht der Hauptanwendungsfall ist. Aber ja: Gerade mit dem aktuellen Metro-IE unter Windows 8.1 und einem Silvermont o.ä. surft es sich erstaunlich flink.

Wuge
2014-08-19, 20:58:03
Ich benutze zum Surfen noch einen 4.5 Ghz PEntium Extreme Edition 965 (2 Netburst-Kerne mit HT). 8 GB RAM und SSD und das Ding ist für 20 Tabs schnell genug. So schnell, dass man keinen Unterschied zum i7 fühlen kann. Die ganze Kiste ist subjektiv viel flotter als ein i5 (Lynnfield) System mit HD statt SSD.

Da sollte ein E8400 mehr als ausreichen um uneingeschränkt surfen zu können.

Nightspider
2014-08-19, 22:14:09
Ich benutze zum Surfen noch einen 4.5 Ghz PEntium Extreme Edition 965 (2 Netburst-Kerne mit HT). 8 GB RAM und SSD und das Ding ist für 20 Tabs schnell genug. So schnell, dass man keinen Unterschied zum i7 fühlen kann. Die ganze Kiste ist subjektiv viel flotter als ein i5 (Lynnfield) System mit HD statt SSD.

Da sollte ein E8400 mehr als ausreichen um uneingeschränkt surfen zu können.

Die Diskussion ist müßig. Jeder hat ein anderes Geschwindigkeitsempfinden -/ Bedarf.

Andere Leute würden sehr wohl einen Unterschied zwischen deiner CPU und einer aktuellen CPU (Sandy/Ivy/Haswell) mit 4,5 Ghz feststellen.

Zumal 20 Tabs für Einige schon wenig sind. Bei mir sind es knapp 80 Tabs.

robbitop
2014-08-20, 09:41:51
Was sollen so viele Tabs? IMO ist das nichts außer messi-tum.

Wurschtler
2014-08-20, 09:51:04
Ich benutze zum Surfen noch einen 4.5 Ghz PEntium Extreme Edition 965 (2 Netburst-Kerne mit HT). 8 GB RAM und SSD und das Ding ist für 20 Tabs schnell genug.

Geiles Teil.
Soweit ich weiß ist das einer dieser Hybrid-Rechner. PC und Elektroheizung in einem. :D

Brillus
2014-08-20, 18:32:41
Was sollen so viele Tabs? IMO ist das nichts außer messi-tum.
Naja sowas bekomme ich auch öfters hin, ich mache oft immer erst alles auf was ich lesen will und dann arbeite ich mich durch.
(Alle mögliche Foren Threads, Nachrichten, Emails, ...)

robbitop
2014-08-20, 19:59:49
Sag ich doch. Messi-tum. ;)

Wuge
2014-08-20, 21:06:00
Geiles Teil.
Soweit ich weiß ist das einer dieser Hybrid-Rechner. PC und Elektroheizung in einem. :D

Ja klar... 250W Idle, wenn die HDs nicht laufen ;) Aber solange das Teil treu seinen Dienst tut, wirds auch nicht ausgemustert.

@ Nightspider: Klar, es gibt Situationen in denen man die Grenzen der CPU bemerkt. Bevor man beim Surfen da hin kommt, merkt man aber schon die Latenz der Maus / Bildschirm und vor allem die SSD. Mein i3-4330 auf dem ich gerade tippe bleibt beim Surfen stur auf 800 Mhz. Das entspricht nicht mal der Hälfte der Leistung des Pentium XE.

DavidC1
2014-08-26, 06:04:29
Skylake - Erscheint ohne integrierte Spannungswandler

http://www.gamestar.de/hardware/news/prozessoren/3056781/intel_skylake.html

Are we sure about this?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10236254&postcount=214

"Y-Line 22 4.5W-B"

Combine to Vcore Power Rail

Interestingly, the U and Y without DDR4 support ... it should not be such that DDR4 is more economical? Or the more complex IMC makes naught?

It may possibly have to do with LPDDR4 module availability. The -RS and LP models of DDR3 have much lower idle/standby power than standard DDR4 so it doesn't make sense to use DDR4 until the lower power models are ready.

YfOrU
2014-08-26, 09:01:02
VR12.5:
http://cdn4.wccftech.com/wp-content/uploads/2014/06/Intel-Shark-Bay-Haswell-Power-Solution.jpg

IMVP8:
http://cdn2.wccftech.com/wp-content/uploads/2014/06/Intel-Skylake-Abandoning-the-Internal-Voltage-Regulator.jpg

2015 CPU Power Requirement (IMVP8):
http://s14.directupload.net/images/140605/u3usfzht.png

Looks like no FIVR.
Combine to Vcore Power Rail (4,5W-B) should be possible without IVRs. Low(er) cost solution and/or reduced footprint ?

Duplex
2014-09-09, 19:54:23
Launch im 2H/15, also weiterhin im Zeitplan.
http://www.computerbase.de/2014-09/intel-liefert-edison-aus-zeigt-lauffaehige-skylake-systeme/
„Skylake“ als neue Prozessor-Architektur wird laut Skaugen eine „signifikante Steigerung“ in allen Bereichen bieten, vom High-End-Desktop über Notebooks bis hin zum lüfterlosen Tablet.

Ende 2016 kann man vermutlich schon mit 10nm Shrinks rechnen.

Nightspider
2014-09-09, 20:08:09
Skylake = Sandy Bridge 2.0 ?

10nm wird sich auch verspäten. Rechne mal mit 1.H/2016, wenn nicht sogar 2.H/16.

Duplex
2014-09-09, 20:13:47
Skylake = Sandy Bridge 2.0 ?
Skylake wird vom Sandy Bridge Team entwickelt.

Nightspider
2014-09-09, 20:18:32
Ich weiß.

fondness
2014-09-10, 16:10:57
Skylake wird der erste Intel-Chip der auch Feature Level 12 unterstützt:

http://s2.postimg.org/6beew7cxl/Intel_Skylake_1st_DX12_FL12_0_hardware_pcgh.png (http://postimage.org/)

y33H@
2014-09-10, 16:16:31
Volker hat das hier ausgegraben, keine FIVRs:

http://www.computerbase.de/2014-09/intel-bestaetigt-separate-vrs-fuer-skylake/

robbitop
2014-09-10, 16:16:50
Interessant finde ich, dass Intel gesagt hat, dass FIVR wieder auftauchen wird. Also ist das ein sinnvolles, stromsparendes Feature, welches man aber offenbar für Skylake nicht im Zeithorizont hinbekommen hat.

aufkrawall
2014-09-10, 16:17:50
Skylake = Sandy Bridge 2.0 ?

Nur leider erstmal ohne (vielleicht wieder enormes) OC-Potenzial. :(

robbitop
2014-09-10, 16:19:42
Wenn es nur um die IPC Gewinne geht, steht Haswell auch kaum schlechter da als Sandy. IIRC waren deren reine IPC Gewinne nahezu vergleichbar. (zumal man bedenken muss, dass IPC Gewinne immer aufwändiger werden)

Ich bin auf Skylake gespannt wie ein Flitzebogen. Vor allem die 15W Version für's Ultrabook mit eDRAM. :)

Locuza
2014-09-10, 16:38:03
Interessant finde ich, dass Intel gesagt hat, dass FIVR wieder auftauchen wird. Also ist das ein sinnvolles, stromsparendes Feature, welches man aber offenbar für Skylake nicht im Zeithorizont hinbekommen hat.
Noch ein bisschen mehr hat Volker im Forum gesagt:
FIVR ist aber nicht überall effizient. Gerade bei Low Power kackt es teilweise ab, bei neuen CPUs, also Broadwell in Form des Core M, gibt es einen Bypass, der FIVR teilweise umgehen kann. Damit wird das Modell in diesen Lebenslagen effizienter. In Haifa haben sie sich für Skylake halt was anderes ausgedacht, was funktioniert. Wie genau das aussieht werden sie uns halt nächstes Jahr sagen.
http://www.computerbase.de/forum/showthread.php?t=1389356&p=16242931#post16242931

Unicous
2014-09-10, 16:48:45
Interessant finde ich, dass Intel gesagt hat, dass FIVR wieder auftauchen wird. Also ist das ein sinnvolles, stromsparendes Feature, welches man aber offenbar für Skylake nicht im Zeithorizont hinbekommen hat.

Ich finde es aber schon komisch, dass die beiden Teams so aneinander vorbeidesignt haben. Dass IVR nicht der heilige Gral in allen Lebenssituationen ist, sei einmal dahingestellt, aber da Intel gleich ein "soon with IVR...again" nachschiebt muss ja Haifa sein eigenes Süppchen gekocht haben und Haswell war ja sicherlich schon ewig in der Designphase...genau wie Skylake auch.

Die Begründung dahinter hätte ich gerne mal von Intel direkt gehört.

ndrs
2014-09-10, 16:51:30
Hier stand Mist. Man sollte nicht nur Bilder angucken :)

Edit:
aber da Intel gleich ein "soon with IVR...again" nachschiebt muss ja Haifa sein eigenes Süppchen gekocht haben und Haswell war ja sicherlich schon ewig in der Designphase...genau wie Skylake auch.
Naja, ich könnte mir das so vorstellen:
USA: "Hier habt ihr FIVR. Baut das in Skylake ein.... Nein doch nicht, das ist Mist."
Israel: "Ok, raus mit dem Scheiß"
USA: "Halt, wir finden eine Lösung, wie es klappt"
Israel: "Zu spät. Skylake ist fertig."

Oder so ähnlich :D

Unicous
2014-09-10, 17:19:51
Hehe. Könnte sein... ist aber nicht wirklich Intel Style.

Ich glaube eher, die arbeiten gegeneinander und scheren sich einen Dreck was das das andere Team macht. Da ist ja ein großer Teich dazwischen.

Ich denke mal Skylake ist in der Entwicklung chronologisch vor Haswell/Broadwell einzuordnen, da Haswell ja "nur" auf Ivy Bridge aufbaut und Skylake eher eine neue Architektur/Generation darstellt und deswegen länger in der Entwicklung wäre. Das israelische Team hat nichts mit dem amerikanischen geteilt, außer den grundlegenden Architekturmerkmalen. Macht auch Sinn, unabhängig zu entwickeln, den eigenen Weg zu gehen und keine Kompromisse einzugehen.

Aus Haifa kommen mE seit langer Zeit eh immer die besten Architekturen, die auch Intel regelmäßig den Arsch gerettet haben.:biggrin:

Nightspider
2014-09-10, 17:26:59
Ich würde mir da auch nicht so einen Kopf machen. Am Ende gibts vllt kaum Unterschiede ob mit oder ohne.
Skylake soll in allen Bereichen besser sein als Broadwell. Da wird man insgesamt schon einen guten Sprung machen. Mit Glück auch bei der IPC.

Ich bin auch schon extrem gespannt auf Skylake. War ja schon seit dem Haswell Release klar das Skylake die größten Neuerungen seit 4 oder mehr Jahren bringen wird.

Nach dem langweiligen Haswell wird Skylake wahrscheinlich ordentlich beeindrucken.
Alleine das Skylake endlich mal mehr Lanes in den Mainstream-Markt bringen wird war lange überfällig.

Noebbie
2014-09-10, 17:40:24
Warum kommt dann überhaupt noch Broadwell?

Nightspider
2014-09-10, 17:46:35
Weil Broadwell trotzdem eher fertig ist und in Broadwell auch gut Geld investiert wurde.

Damit kann man einige Kunden schließlich doppelt abzocken.

AnarchX
2014-09-10, 20:12:32
Linux Treiber:
http://www.phoronix.com/scan.php?page=news_item&px=MTc4NDc
http://lists.freedesktop.org/archives/intel-gfx/2014-September/051780.html

The HD Graphics Gen9 for SKL/Skylake has a third display plane compared to Haswell/Broadwell and features five HDMI/DP/eDP display ports.

Coda
2014-09-13, 10:12:40
Hehe. Könnte sein... ist aber nicht wirklich Intel Style.

Ich glaube eher, die arbeiten gegeneinander und scheren sich einen Dreck was das das andere Team macht. Da ist ja ein großer Teich dazwischen.

Ich denke mal Skylake ist in der Entwicklung chronologisch vor Haswell/Broadwell einzuordnen, da Haswell ja "nur" auf Ivy Bridge aufbaut und Skylake eher eine neue Architektur/Generation darstellt und deswegen länger in der Entwicklung wäre. Das israelische Team hat nichts mit dem amerikanischen geteilt, außer den grundlegenden Architekturmerkmalen. Macht auch Sinn, unabhängig zu entwickeln, den eigenen Weg zu gehen und keine Kompromisse einzugehen.

Aus Haifa kommen mE seit langer Zeit eh immer die besten Architekturen, die auch Intel regelmäßig den Arsch gerettet haben.:biggrin:
Großer Bullshit.

Die Instruction-Timings etc. sind extrem ähnlich, da würden viel mehr Unterschiede auftauchen wenn das keine verwandten Architekturen wären.

Nightspider
2014-09-13, 10:29:03
Toll das wir bei Intel zur Zeit jedes Jahr eine neue GPU-Architektur bekommen.

Gibts denn schon Infos zur Gen9 IGP? Gerade was Architektur und Effizienzverbesserungen betrifft?

AnarchX
2014-09-13, 10:37:41
Vielleicht kommt es mit Icelake in einer besseren Implementierung wieder zurück, das Oregon Team ist eh meist für Plattform spezifische Änderungen zuständig.
Currently working as a logic designer in Fully Integrated Voltage Regulator (FIVR) team of Icelake server project in technology readiness phase.
http://www.linkedin.com/pub/mathew-kottoor/3/798/bb5

In welcher Abfolge stehen Cannonlake und Icelake? Parallel?



Gibts denn schon Infos zur Gen9 IGP? Gerade was Architektur und Effizienzverbesserungen betrifft?
Gen9 will Intel für Smartphones nutzen, insofern sollte da sich wohl etwas bei der Effizienz tun.
Ausgehende von der aktuellen Daten ändert sich vielleicht etwas am Durchsatz der EUs, sodass man nominell weniger davon verbaut als bei Broadwell.

Nightspider
2014-09-13, 11:07:47
Wann ist denn mit den Core M ablegern auf Skylake Basis zu rechnen?
Noch 2015?

Wäre schon Hammer wenn Broadwell und Skylake im gleichen Jahr den mobilen Markt aufmischen würden.
Nochmal 30-50% mehr GPU Leistung bei Skylake wäre schon genial. Intel kann das Die ja wieder mal vergrößern dank 14nm.

Star Citizen auf einem Tablet. ;D
Natürlich nur in geringster Auflösung und ruckelig bei der Core i7 Version. ;)

Tobalt
2014-11-09, 07:22:22
Gibt es schon benches von skylake gegen broadwell ? Irgendwie bezweifle ich dass skylake da grose Sprünge macht. Schließlich sollen die skylakes anfangs den unteren teil des desktop angebots stellen. Das funktioniert ja nur wenn sie entweder vergleichbar schnell sind oder man nur 45 w skylakes und 100+ w broadwells anbietet anfangs.

denkfehler ? Hoffentlich.

AnarchX
2014-11-11, 19:05:50
Sisoft bietet ein paar Skylake Benchmarks: http://www.sisoftware.eu/rank2011d/show_system.php?q=cea598aa99ad98a99eb8dfe2cffed8aa97a680e9d4e5c3ab96a385fdc0f1d7 b2d7eadafc8fb28a&l=en

Nightspider
2014-11-11, 19:19:40
Ableiten lässt sich daraus aber noch nicht wirklich etwas oder?

AnarchX
2014-11-11, 19:23:01
Die Werte bei Processor Arithmetic und .NET Arithmetic wäre schon deutlich besser als bei Haswell, sofern die 2,3GHz stimmen.


Processor Arithmetic:
Skylake: 41.94GOPS/GHz
Haswell: ~32GOPS/GHz (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcfe988e9d4e0d6e5d6e2dafc8eb383a5c0a598a88efdc0f1c3&l=en)

Nightspider
2014-11-11, 19:24:09
Wie viel %?

kunibätt
2014-11-11, 23:33:05
Weiß jemand was genau bei dem Arithmetiktest beansprucht wird?
Wird da evtl. schon AVX3 genutzt? Anders kann man sich solche Zuwächse eigentlich kaum erklären.

tdon
2014-11-12, 18:36:08
AVX3 im Consumer Skylake ist anzuzweifeln. Skylake-EP ist wahrscheinlicher.

kunibätt
2014-11-12, 19:51:27
Absoluter Quatsch.

HPVD
2014-11-12, 20:06:33
Absoluter Quatsch.
was jetzt genau?

hältst du es für undenkbar dass AVX3 nur noch in den Xeons (aktiv) ist?

kunibätt
2014-11-12, 21:35:01
Undenkbar vielleicht nicht. Aber was genau sollte es denn bringen? Das man auf den neuen Prozessoren gar kein AVX mehr hätte ( teilaktivierbar ist das nunmal nicht)? Das man damit effektiv den Sofwaresupport für seinen eigenen Standard abwürgt? Vor allem kanibalisieren sich E(P) und Consumer jetzt weniger als z.B. noch zu Sandybridge-Zeiten...
Halte ich von daher für Quatsch.
Edit: Du schreibst Xeons. Ich bezog mich auf seine Aussage zu E(P)s. Selbst diese Restriktion halte ich für unwahrscheinlich. Wie kommt ihr überhaupt auf den Gedanken?

ndrs
2014-11-12, 21:42:24
Das man auf den neuen Prozessoren gar kein AVX mehr hätte ( teilaktivierbar ist das nunmal nicht)?
Meinst du damit ein Bios-mäßiges Downgrade von AVX auf eine ältere Version? Warum sollte das nicht gehen? Neue Version heißt neue Assembler-Befehle. Wenn die nicht unterstützt werden: Pech gehabt. Genau wie bei jedem anderem Feature auch.
Oder nicht?

kunibätt
2014-11-12, 21:52:19
Bislang gab es das nicht. Nochmal, wie kommt man auf so Ideen?

ndrs
2014-11-12, 22:25:10
Ich bezog mich lediglich auf die Aussage, dass es nicht teildeaktivierbar wäre, wo ich widerspreche. Dazu, ob es sinnvoll ist, enthalte ich mich. Bisher war AVX lediglich bei Pentium und Celeron deaktiviert.

Skysnake
2014-11-12, 22:27:43
AVX3 soll ja in den EP die 512 Bit Register vom XeonPhi/MIC bringen, das wird im Consumerbereich nicht kommen.

kunibätt
2014-11-12, 22:28:34
Aber eben immer komplett.
@ Skysnake
Sagt wer? Wo wäre dann überhaupt die Neuerung gegenüber AVX2?
AVX 3.2 ist sowieso NICHT kompatibel zu den PHI-extensions!?!

Nightspider
2014-11-13, 00:11:03
Wir brauchen AVX3 für Star Citizen + Oculus Rift. :D

Selbst die Entwickler haben gesagt das man selbst mit den neuesten Prozessoren noch zu wenig FPS bekommt um Oculus Rift sinnvoll zum Laufen zu bekommen.
Also wenn Skylake nicht auch so nochmal einen guten IPC Sprung macht und besseres OC zulässt, dann wird Oculus Rift wohl nicht in Star Citizen laufen. Deswegen wäre sowas wie AVX3 vllt nicht schlecht, schließlich wollen die Entwickler die neuste Hardware ausnutzen.

tdon
2014-11-13, 05:55:43
Sagt wer?


Intel sagt das. Die Dokumente und Slides sind eigentlich ziemlich klar, daher würde AVX3 im Consumer Skylake überraschen. Es ist immer die Rede von Xeon, was in früheren Generationen nicht der Fall war. Ist sowieso egal, man schaue sich die Auswahl an produktiven Consumer Apps an, die von AVX2 profitieren. Intel geht so immerhin das Problem mit Prime95 und Co aus dem Weg.



Intel AVX-512 will be first implemented in the future Intel® Xeon Phi™ processor and coprocessor known by the code name Knights Landing, and will also be supported by some future Xeon processors scheduled to be introduced after Knights Landing.
https://software.intel.com/en-us/blogs/2013/avx-512-instructions

http://s14.directupload.net/images/141113/bck9noyl.png

http://s14.directupload.net/images/141113/6czcb44d.png

https://gcc.gnu.org/wiki/cauldron2014?action=AttachFile&do=get&target=Cauldron14_AVX-512_Vector_ISA_Kirill_Yukhin_20140711.pdf

Skysnake
2014-11-13, 07:58:35
Danke tdon, genau die Folie habe ich gesucht, aber nicht auf Anhieb gefunden. :up:

Die 512 Bit Register werden halt nur in den Xeons aktiviert, und sonst eben nicht, genau wie ECC, was es in den Consumerprodukten auch nicht aktiv gibt, obwohl Sie fast alle ECC theoretisch könnten, sofern es nicht kaputt ist im Chip, was aber praktisch nie der Fall sein dürfte.

Die Frage ist halt noch, für welche Xeons. Ich hatte da, wie bereits gesagt, etwas mit Skylake-EP im Hinterkopf, aber nagelt mich bitte nicht darauf fest. Kommen soll es auf jeden Fall.

Das ist auch durchaus logisch. KNL soll ja als dropin replacement für "normale" Xeons auch fungieren. Da macht eine gemeinsame ISA schon sehr viel Sinn. Es sind dann halt nur unterschiedliche Ausprägungen. Einmal wenige Fat-Cores und das andere mal eben viele small-Cores

BlackBirdSR
2014-11-13, 08:19:56
Warum so kompliziert?
Die CPU hat das entsprechende flag einfach nicht gesetzt und akzeptiert keine EVEX prefixes - fertig.

Die auf 512 Bit verbreiteten registerfiles laufen trotzdem (genullt) mit.

Skysnake
2014-11-13, 10:06:03
das wäre ziemlich dämlich, das Zeug mitlaufen zu lassen. Man kann gift drauf nehmen, dass die entsprechenden Sachen dann auch powergated sind, um Strom zu sparen.

BlackBirdSR
2014-11-13, 10:28:10
das wäre ziemlich dämlich, das Zeug mitlaufen zu lassen. Man kann gift drauf nehmen, dass die entsprechenden Sachen dann auch powergated sind, um Strom zu sparen.

Und wie willst du 512bit breite Register in einer Register file power gaten? bei den Datenpfaden könnte ich mir das noch bei vertretbarem Umfang vorstellen. Wenn die FUs selbst nicht so breit sind und die Ergebnisse in mehreren Schritten erzeugt werden auch. Aber komplett abschalten kannst das leider nicht. Oder denkst Du, dass sie 64bit register unter 32bit zur Hälfte abgeschaltet sind?

HOT
2014-11-13, 10:50:15
Vielleicht haben die S einfach gar kein AVX512, sondern wirklich nur E(X/P). Die schreiben ja auch, dass der Xeon after Knights Landing kommen soll, also dann in 2016.

kunibätt
2014-11-13, 11:05:02
Ich glaube ihr unterliegt da einem Irrtum. Intel hat die Eigenart entwickelt seine Compute-Devices in Xeon und PHI einzuteilen. Xeon steht dann synonym für die CPU-Sparte. So wird das im Embree Changelog auch gemacht. Das heißt aber im Umkehrschluss nicht, dass eventuelle Features nicht auch auf regulären Core-CPUs abrufbar sind.

ndrs
2014-11-13, 11:34:41
Natürlich ist es kein Beweis, aber schon ein sehr starkes Indiz, dass sie bei allen Architekturen allgemein bleiben, bei Skylake jedoch explizit Xeon dranschreiben.

BlackBirdSR
2014-11-13, 11:42:06
Natürlich ist es kein Beweis, aber schon ein sehr starkes Indiz, dass sie bei allen Architekturen allgemein bleiben, bei Skylake jedoch explizit Xeon dranschreiben.

Auf der anderen Seite ist der Nutzen von AVX512 für normale Konsumenten wohl eher gering bis nicht vorhanden. Diese ganzen datenpakete muss ich erstmal generieren können.

Nightspider
2014-11-13, 11:47:03
Auf der anderen Seite ist der Nutzen von AVX512 für normale Konsumenten wohl eher gering bis nicht vorhanden. Diese ganzen datenpakete muss ich erstmal generieren können.

Eben. Da lohnt doch gar nicht der Mehraufwand.

tdon
2014-11-13, 17:44:59
Die 512 Bit Register werden halt nur in den Xeons aktiviert, und sonst eben nicht, genau wie ECC, was es in den Consumerprodukten auch nicht aktiv gibt, obwohl Sie fast alle ECC theoretisch könnten, sofern es nicht kaputt ist im Chip, was aber praktisch nie der Fall sein dürfte.


Die Frage ist halt noch, für welche Xeons. Ich hatte da, wie bereits gesagt, etwas mit Skylake-EP im Hinterkopf, aber nagelt mich bitte nicht darauf fest. Kommen soll es auf jeden Fall.


Xeon-EN schließt sich aus wegen dem:

Intel AVX-512 will be first implemented in the future Intel® Xeon Phi™ processor and coprocessor known by the code name Knights Landing, and will also be supported by some future Xeon processors scheduled to be introduced after Knights Landing.


Bleiben übrig EP und EX, die beide nicht vor 2016 erscheinen.

Eine Deaktivierung ist Spekulation, ich tippe eher drauf das die Consumer Kerne einschließlich Skylake-EN hardwareseitig AVX3 nicht unterstützen, eben weil es nicht vorgesehen ist. Wenn sie es machen wäre es unnötiger Ballast.

Skysnake
2014-11-13, 18:01:09
Ja, das Skylake-EN keine 512 Bit Register bekommt ist sehr wahrscheinlich.

BlackBirdSR
2014-11-13, 18:01:53
Du weisst aber schon, dass ein ganz neuer Kern fällig wird, der dann kein skylake mehr wäre... Da muss dann in den Interna der CPU operiert werden...

kunibätt
2014-11-13, 19:49:48
Ich wette um Geld, dass es genauso gehandhabt wird wie bei Sandybridge und Haswell.

G3cko
2014-11-21, 17:43:44
Intel fährt aktuell Chashback Aktionen für Haswell. Welcher IPC Zuwachs ist von Skylake zu erwarten? Gibt es hier schon Einschätzungen?

Duplex
2014-11-21, 21:05:41
Ohne SSE/AVX zwischen 5-15% gegenüber Haswell.

Nightspider
2014-11-21, 21:12:12
Intel fährt aktuell Chashback Aktionen für Haswell. Welcher IPC Zuwachs ist von Skylake zu erwarten? Gibt es hier schon Einschätzungen?

Broadwell wird wohl 5-10% bringen und Skylake nochmals ~10-15%. Macht unterm Strich rund 10-26% schneller als Haswell.

Ein einigen Programmen sind aber durchaus auch mehr Prozente möglich. (>30% in einigen Titeln)
Dazu möglicherweise höhere Taktraten, bessere OC Fähigkeiten und besserer Chipsatz (mehr Lanes).

Duplex
2014-11-21, 21:36:09
Zu optimistisch sollte man nicht sein, Haswell war pro Takt auch nur 6% vor Ivy Bridge.

Core2 > Nehalem +30% > Sandy Bridge +15% > Ivy Bridge 6% > Haswell 6%

Nightspider
2014-11-21, 21:40:52
Je nach Anwendungszweck.

In Crysis 3/Battlefield 4 gehen Ivy Bridge und Haswell ab wie Schmitz' Katze.

Da sind 30% gegenüber Sandy Bridge drin. Gibt sogar Einzelfälle wo im CPU Limit und bei den min_fps mehr als 30% drin sind.Mehr möchte ich dazu auch nicht sagen weil wir das Thema schon oft genug hatten.

Es trifft bei weitem nicht auf alle Spiele zu aber einige profitieren sehr ordentlich. Wobei neuere Spiele eben dazu tendieren stärker zu profitieren, gerade die Spiele die viel CPU Leistung brauchen.

Duplex
2014-11-21, 21:42:04
Ich schau mir immer nur Cinebench an oder die Tests bei CB, davon mache ich mir dann ein Bild ;)
Mein 5Ghz Sandy ist so schnell wie ein 4,5Ghz Haswell -.- Seit 2011 kein Aufrüsten mehr nötig...

Undertaker
2014-11-22, 14:32:25
Mein 5Ghz Sandy ist so schnell wie ein 4,5Ghz Haswell

Öhm, das wird nicht reichen. Selbst ohne Nutzung neuer Instruktionen liegen da idR mehr als 11 Prozent IPC dazwischen.

grobi
2014-11-22, 15:04:13
Öhm, das wird nicht reichen. Selbst ohne Nutzung neuer Instruktionen liegen da idR mehr als 11 Prozent IPC dazwischen.

Hast du dazu auch Messergebnisse?

mboeller
2014-11-22, 15:04:42
und wieviel Mehrleistung ist nötig damit du sie bemerkst? 10% reichen dafür wahrscheinlich nicht.

Undertaker
2014-11-22, 15:39:40
Hast du dazu auch Messergebnisse?

Da gibt es doch genug Benchmarks im Netz... Mal beliebig gewählt:

http://ht4u.net/reviews/2013/intel_core_i7_4770_4670_haswell_cpus_test/index42.php

2600K vs. 4770K:
+ 19% Anwendungsleistung
+ 25% Spieleleistung

abzgl. 2,6 - 5,7% Mehrtakt.

tdon
2014-11-22, 18:58:57
http://forums.anandtech.com/showpost.php?p=36924923&postcount=48

Skylake unterstützt DDR3L aber kein DDR3. Was ist mit den ganzen 1,5V DDR3 Speichern?

y33H@
2014-11-22, 19:32:06
*Denkfehler*

Michalito
2014-11-22, 20:14:31
@tdon off Topic..
Kleine Frage eines Unwissenden, wenn ich die erste Folie in deinem Post sehe, wird als PCH HM 86/87/ und 97 für Braodwell angegeben. Heißt das Bradwell wird auch noch auf 87 Chipsätzen laufen? Entsprechende Microcodes von den Herstellern vorausgesetzt?

Danke, und syr fürs OT..

ndrs
2014-11-22, 21:13:43
http://forums.anandtech.com/showpost.php?p=36924923&postcount=48

Skylake unterstützt DDR3L aber kein DDR3. Was ist mit den ganzen 1,5V DDR3 Speichern?
Ich meine, dass das schon immer so auf den Folien stand. Ursprünglich war meine Vermutung, dass DDR3L nur für mobile kommt und Desktop nur DDR4 bekommen wird, wodurch die genannte Einschränkung nur halb so schlimm wäre. Aber auf den Folien wird Desktop ja explizit erwähnt.

@ Michalito
So ist es.

Was ich auch noch interessant finde, ist die Begründung, dass FIVR rausgeworfen wurde, wegen einem größeren nutzbaren TDP-Bereich.

Michalito
2014-11-22, 21:21:51
@ndrs Danke :-)

Duplex
2014-11-22, 22:47:47
Öhm, das wird nicht reichen. Selbst ohne Nutzung neuer Instruktionen liegen da idR mehr als 11 Prozent IPC dazwischen.
Ich kann mein 2700k auch noch bei 5,2Ghz stabil halten, das sind knapp 16% mehr Takt als ein 4,5Ghz Haswell, da wirste kein Unterschied mehr feststellen können, beide CPUs geben sich nichts.

tdon
2014-11-22, 22:51:52
Die Werte bei Processor Arithmetic und .NET Arithmetic wäre schon deutlich besser als bei Haswell, sofern die 2,3GHz stimmen.


Processor Arithmetic:
Skylake: 41.94GOPS/GHz
Haswell: ~32GOPS/GHz (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcfe988e9d4e0d6e5d6e2dafc8eb383a5c0a598a88efdc0f1c3&l=en)


Die Skylake Resultate sind gelöscht. 2,3 Ghz sollte stimmen, passt zum Bericht von vr-zone: http://www.overclock.net/t/1519910/vrz-14mn-skylake-s-es-pictured

Turbo kann bei dem Sample auf 2,9 Ghz gehen. Wobei das nicht aktiv gewesen sein muss. Der GP OpenCL Score (CPU+GPU kombiniert) lag höher als auf meinem Haswell mit vollem Takt. Unter der Annahme das die GPU in frühen ES auch immer deutlich niedriger taktet, gar nicht so schlecht. Und mein Haswell Quad taktet ~50% höher.

Undertaker
2014-11-23, 12:06:57
Ich kann mein 2700k auch noch bei 5,2Ghz stabil halten, das sind knapp 16% mehr Takt als ein 4,5Ghz Haswell, da wirste kein Unterschied mehr feststellen können, beide CPUs geben sich nichts.

Ich sage ja nicht das Aufrüsten lohnen würde, dass wird sich wohl auch mit einem 4C Skylake kaum ändern. Allerdings ist es auch etwas sehr an den Haaren herbeigezogen, bei einer derartigen Taktdifferenz zu vergleichen; ein aktueller Haswell-K geht auch von der absoluten Frequenz her im Schnitt höher zu takten als ein damaliger Sandy Bridge; die Betonung liegt wohlgemerkt auf "im Schnitt".

Mir persönlich ist aber auch immer der Verbrauch wichtig, und da kann ich schon einen 3,7 GHz Haswell problemlos semi-passiv und lautlos kühlen. Mit einem 4,2 - 4,3 GHz Sandy Bridge geht das kaum so leicht, mit einem ähnlich schnellen Skylake vermutlich noch sehr viel einfacher. Das ist mir schon einen gewissen Aufpreis wert. :)

Knuddelbearli
2014-11-23, 16:52:46
Haswell-K sagtst du wohlgemerkt. da sind wir aber auch bei einem ganz andererer Systemzusamensetzung ( und ganz glauben kann ich das auch nicht sandy ging eigentlich immer 4,7+ haswell-e sehe ich hier meist selbst bei starken Übertaktern maximal mit 4,7 )

Duplex
2014-11-23, 17:36:47
Die Sandy Bridge (K) Modelle haben mehr OC Potential als die Haswell (K) CPUs, die Sandy Bridge bleiben auch kühler, ich habe selber 5x 2700k, 1x 2600k & 1x 2500k getestet.

Vor 3 Jahren > http://www.abload.de/image.php?img=50001epzl.jpg

Das war das beste Silizium was ich in meinem Leben hatte, ich hatte davon gleich 3 Stk.

Undertaker
2014-11-23, 17:49:35
Haswell-K sagtst du wohlgemerkt.

Na non-K Haswells übertakten sich auch etwas schlecht. ;) Bevor jetzt jeder mit selektierten Wunder-CPUs kommt, betone ich nochmal, dass ich von "im Schnitt" sprach – an die damaligen "Krücken" <4,5 GHz (prozentual ja dennoch sehr respektabel) will sich heute scheinbar keiner mehr erinnern... ;)

Ich persönlich würde mich wie gesagt auch über den enormen Fortschritt bei der Leistungsaufnahme und damit einhergehend das deutlich günstigere Systemumfeld für solide OC-Ergebnisse freuen – Kühler, Board, Netzteil kann man für einen 80 W 4,3 GHz Haswell ganz anders auslegen als für einen ähnlich schnellen 5 GHz Sandy Bridge mit >150 W. Und wenn Skylake die gleiche Performance bei <4 GHz und <60 W bietet (jeweils CPU-only), ist auch das ein Fortschritt, den man nicht verachten sollte.

Nightspider
2014-11-23, 18:13:51
25% und teilweise mehr wären für euch kein Grund umzusteigen? :O
Dazu noch geringerer Verbrauch dank 14nm und sicherlich etwas besseres OC-Verhalten.
Ganz zu schweigen von den deutlich besseren Mainboards, die dank mehr Lanes für SLI und Crossfire deutlich besser zu gebrauchen sind.

In Zukunft wird man bei einigen Games wie Star Citizen froh sein für jedes Prozent mehr CPU Leistung. Das NextGen Battlefield 5 wird sicherlich auch neue Maßstäbe setzen in Bezug auf CPU Bedarf und das trotz DX12 / Mantle.

Der Skylake Shrink in 10nm wird ja sicherlich eh nicht vor Ende 2016 kommen. Eher mit größeren Verspätungen als Broadwell als wahrscheinlich irgendwann 2017.

Duplex
2014-11-23, 18:39:32
Als Sandy Bridge Besitzer lohnt sich für mich kein Umstieg, erst ab 10nm oder 7nm, wenn Sandy Bridge zuwenig Performance bietet würde, dann wäre das bei Haswell nicht viel anders.
Wenn man mehr Performance in Games braucht, dann holt man sich einfach eine neue Karte.

Felixxz2
2014-11-24, 00:39:07
Umsteigen lohnt aber definitiv, wenn man eine CPU ohne SMT hat. Hab nen 4,2Ghz 3570k und man merkt, dass er nur 4 Threads hat. Braucht ne App viel Leistung und man macht nebenbei was anderes, spürt man das überproportional, weil die Threads immer wechseln. Unter 8 Threads würde ich nichts mehr nutzen wollen, finde es auch ne Sauerei, dass Intel keinen Octacore ins Mainstream Geschäft bringt.

Knuddelbearli
2014-11-24, 02:40:19
Na non-K Haswells übertakten sich auch etwas schlecht. ;) Bevor jetzt jeder mit selektierten Wunder-CPUs kommt, betone ich nochmal, dass ich von "im Schnitt" sprach – an die damaligen "Krücken" <4,5 GHz (prozentual ja dennoch sehr respektabel) will sich heute scheinbar keiner mehr erinnern... ;)

Ich persönlich würde mich wie gesagt auch über den enormen Fortschritt bei der Leistungsaufnahme und damit einhergehend das deutlich günstigere Systemumfeld für solide OC-Ergebnisse freuen – Kühler, Board, Netzteil kann man für einen 80 W 4,3 GHz Haswell ganz anders auslegen als für einen ähnlich schnellen 5 GHz Sandy Bridge mit >150 W. Und wenn Skylake die gleiche Performance bei <4 GHz und <60 W bietet (jeweils CPU-only), ist auch das ein Fortschritt, den man nicht verachten sollte.

sorry war verschlafen habe ep statt k gelesen ... ^^
und naja bei haswell gibt es Krücken die kaum mehr als den devils canion takt schaffen ...

und wer tauscht bitte bei nem haswell kauf das sandy netzteil aus? oO Und verspert sich damit jede grafikkarte mit mehr Verbrauch usw.
Kühler sind auch in 99% der fälle kompatibel usw
dazu ist kühlungstechnisch der haswell schwerer zu kühlen als sandy bei selben verbrauch ( der dafür bei sandy höher ist was sich ausgleichen dürfte )

und abschliessend wie lange dauert es bis sich der wechsel amortisiert? selbst ohne netzteilwechsel usw wären das 2 stellige jahreszahlen.

nene ich bleibe bei meinem 4,5ghz sandy den ich notfalls auf 5 hochschrauben kann und das wo ich eigentlich jetztes fitzelchen singlecoreleistung gebrauchen kann da ich viel rpgs und Strategiespiele spiele und vor allem im indy Bereich läuft da alles auf 1 Kern und braucht oft Leistung ohne Ende bei großen maps usw

Knuddelbearli
2014-11-24, 02:42:06
25% und teilweise mehr wären für euch kein Grund umzusteigen? :O
Dazu noch geringerer Verbrauch dank 14nm und sicherlich etwas besseres OC-Verhalten.
Ganz zu schweigen von den deutlich besseren Mainboards, die dank mehr Lanes für SLI und Crossfire deutlich besser zu gebrauchen sind.

In Zukunft wird man bei einigen Games wie Star Citizen froh sein für jedes Prozent mehr CPU Leistung. Das NextGen Battlefield 5 wird sicherlich auch neue Maßstäbe setzen in Bezug auf CPU Bedarf und das trotz DX12 / Mantle.

Der Skylake Shrink in 10nm wird ja sicherlich eh nicht vor Ende 2016 kommen. Eher mit größeren Verspätungen als Broadwell als wahrscheinlich irgendwann 2017.

für 25% rund 400€ raushauen? ne danke

und quadcore auf quadcore wechseln ist eh unsinnig wenn dann müssen es schon 6 Kerne sein.
Solange Intel so rumkriecht bekommen sie von mir kein Geld und das obwohl mein Drecks Asus Mainboard rumzickt beim Sound

Nightspider
2014-11-24, 02:45:32
für 25% rund 400€ raushauen? ne danke

und quadcore auf quadcore wechseln ist eh unsinnig wenn dann müssen es schon 6 Kerne sein.
Solange Intel so rumkriecht bekommen sie von mir kein Geld und das obwohl mein Drecks Asus Mainboard rumzickt beim Sound

25% für Haswell Besitzer. Sandy Bridge-Besitzer bekommen da durchaus zwischen 30 und 65%. Manchmal mehr, manchmal weniger.

Duplex
2014-11-24, 10:42:34
Träum weiter, Haswell hat nichtmal 15% mehr IPC als Sandy im Durchschnitt.

kunibätt
2014-11-24, 11:31:03
Den Score oben hast du aber gesehen, ja?

HOT
2014-11-24, 12:39:39
Haswell hat nur signifikant mehr IPC wenn AVX(2) ins Spiel kommt, sonst ist ein Wechsel echt unsinnig. Vor allem bei Spielen, wo man doch selbst mit einem FX8350 immernoch gut hinkommt und die sich eh nicht um AVX scheren sondern meist noch auf SSE2-Niveau sind.

dildo4u
2014-11-24, 12:49:35
Games werden bald AVX only sein,da es die neuen Konsolen unterstützen.
Wenn man überlegt wie schwach Jaguar ist tut man gut daran jede Möglich Funktion zu nutzen.

Botcruscher
2014-11-24, 13:06:55
Wie viele Jahre ist denn bald?!?
25% und teilweise mehr wären für euch kein Grund umzusteigen? :O
Im Blindtest merkst du das nicht. Fang mal bei 50 bis 100% an.

HOT
2014-11-24, 15:38:36
Games werden bald AVX only sein,da es die neuen Konsolen unterstützen.
Wenn man überlegt wie schwach Jaguar ist tut man gut daran jede Möglich Funktion zu nutzen.
Das muss aber auch erst mal was bringen, der Rechendurchsatz einer CPU war bei Spielen noch nie das Problem.

Nightspider
2014-11-24, 15:59:47
Träum weiter, Haswell hat nichtmal 15% mehr IPC als Sandy im Durchschnitt.

Bist du ein Ignorant? Ich sagte bereits, dass das nicht auf alle Games zutrifft. Scheiß auf den Durchschnitt! Was interessieren einen alte Games und was interessieren einen Games, die generell keine hohen Anforderungen haben?

Durchschnitt ist fürn Arsch wenn es um die Leistungssteigerungen bei neuen Spielen geht.

Bei Serious Sam 3 sind es sogar 31% zwischen Ivy und Haswell. Zu Sandy sind es 41%.

http://ht4u.net/reviews/2014/sparsamer_amds_a10-7800_im_test/index23.php

Bei Crysis 3 sind es 22% zwischen Sandy und Haswell:

http://ht4u.net/reviews/2014/sparsamer_amds_a10-7800_im_test/index22.php

StarCraft 2 HotS zeigt 40% zwischen Haswell und Sandy bei den min_fps.

http://www.pcgameshardware.de/Haswell-Codename-255592/Tests/Haswell-Test-Core-i7-4770K-Core-i5-4670K-Core-i5-4570-1071762/2/

Das alte BF3 lag schon bei 23% und BF4 profitiert sogar noch stärker von Haswell aufgrund höherer CPU Last, da waren es bis zu 30%.

http://www.pcgameshardware.de/Haswell-Codename-255592/Tests/Haswell-Test-Core-i7-4770K-Core-i5-4670K-Core-i5-4570-1071762/2/

Jedes Mal muss man den Mist wiederkauen und euch raussuchen.

Haswell hat nur signifikant mehr IPC wenn AVX(2) ins Spiel kommt, sonst ist ein Wechsel echt unsinnig. Vor allem bei Spielen, wo man doch selbst mit einem FX8350 immernoch gut hinkommt und die sich eh nicht um AVX scheren sondern meist noch auf SSE2-Niveau sind.

Unsinnig? Vielleicht wenn du gemütliche SP Games zockst aber in Competitive-Games (Multiplayer) macht das sehr wohl was aus.
Gerade in aktuellen und leistungsfressenden Spielen.

Sandy Bridge Besitzer haben in BF4 einen merklichen nachteil gegenüber Haswell Besitzern, wenn kein Mantle vorhanden, was beim Großteil der Fall ist.

Abgesehen davon wird bei Oculus Rift später keiner mehr von "unsinnig" reden, wenn darum gekämpft werden muss um auf stabile 75-90fps zu kommen. Da geht es um jedes Prozent. Ansonsten kannst du aktuelle Games wie Star Citizen gleich komplett vergessen in VR. Die Entwickler von SC haben sogar gesagt das aktuelle CPUs zu langsam sind für Star Citizen+Oculus Rift.


Im Blindtest merkst du das nicht. Fang mal bei 50 bis 100% an.

Na klar merke ich 30%! Selbst 20% merke ich in BF4 oder Counterstrike. Ob 80 oder 100fps macht nicht nur einen optischen Unterschied auf 120hz Displays sondern auch einen spielerischen, was das Movement/Aiming betrifft.

Ein paar Hardcore Zocker hier im Forum merken sogar weniger als 10% Unterschied, wenn die fps von 120 auf ~110fps fällt. Das sieht und fühlt man bei einem 120Hz Display wenn man 120fps gewöhnt ist.

Tesseract
2014-11-24, 16:07:22
Haswell hat nur signifikant mehr IPC wenn AVX(2) ins Spiel kommt, sonst ist ein Wechsel echt unsinnig.

es behauptet ja keiner, dass man unbedingt von sandy auf haswell wechseln muss, aber selbst ohne AVX2 hat haswell locker 15-20% mehr IPC und mit exzessivem AVX2 geht es eher richtung +100%.

Nightspider
2014-11-24, 16:16:05
es behauptet ja keiner, dass man unbedingt von sandy auf haswell wechseln muss,

Genau und von Sandy auf Skylake wird das schon ein riesiger Sprung. Wer da keinen Unterschied zwischen den Minimum-FPS werken wird im Multiplayer sollte zum Arzt gehen.

Ganz zu schweigen davon, das zu der IPC wahrscheinlich noch ein besseres OC Potential kommen wird. Das werden wir ja vllt schon bei Broadwell erleben können. Da bin ich schon gespannt drauf.
(Und das auch unabhängig vom HS+WLP - zur Not wird das Ding eh geköpft)

Nightspider
2015-01-17, 13:06:42
Müsste Intel nicht langsam mal eine genauere Roadmap für 2015 veröffentlichen?

Es ist immer noch total unklar wann Skylake und Skylake-K für den Desktop aufschlagen werden.

Vor allem wenn Skylake S tatsächlich noch in der Jahresmitte kommen sollte, wären das gerade mal noch 5 oder 6 Monate.
Zwischenzeitlich gingen ja sogar mal Gerüchte um das Broadwell LGA ausgelassen wird und stattdessen gleich Skylake für den Desktop erscheint, weil Broadwell auf irgendeiner Folie für Desktop nicht drauf war oder so.

Mandalore
2015-01-17, 13:21:31
Ist es sehr unwarscheinlich, dass 2015 "richtige" Skylake-Prozessoren kommen (like Devil Canyon)?

HOT
2015-01-17, 13:41:18
Vielleicht schieben die jetzt alle "richtigen" Sachen auf die E-Plattform...

Coda
2015-01-17, 14:30:36
Du weisst aber schon, dass ein ganz neuer Kern fällig wird, der dann kein skylake mehr wäre... Da muss dann in den Interna der CPU operiert werden...
Man deaktiviert einfach die Instructions per Microcode. Das ist zur Marktsegmentierung kein großes Problem.

Das Intel ein eigenes FPU-Layout dafür entwickelt halte ich auch für unwahrscheinlich, aber die Resourcen dafür hätten sie ja wohl ohne Frage.

Mandalore
2015-01-19, 10:47:10
Was ist der genaue Unterschied zwischen Skylake-S und Skylake-K?


Alles was ich weiß ist, dass bei den Haswells momentan die K ohne OC-Lock sind die S-Variante hingegen schon. Takten die S auch weniger oder haben sie nen beschnittenen Cache?

tdon
2015-01-29, 21:15:53
Müsste Intel nicht langsam mal eine genauere Roadmap für 2015 veröffentlichen?



Intel aktualisiert ständig ihre Roadmaps. Die sind aber nur für Partner zugänglich, außer es gibt Leaks. Neues Beispiel: http://chinese.vr-zone.com/141850/intel-will-make-14nm-broadwell-first-after-launch-skylake-s-for-desktop-diy-market-01302015/

MilesEdgeworth
2015-01-29, 21:25:28
Das wäre ja wirklich abartig... Broadwell hätte im Ultrabooksektor eine Lebensdauer von einem halben Jahr?! Einfach nur krank.. :ugly:
Wenn da auch nur ein Funken Wahrheit dran ist, kann man ja niemandem dazu raten zurzeit Ultrabooks zu kaufen..

tdon
2015-01-29, 21:32:40
Broadwell-U ja, davon würde ich abraten wenn Skylake-U wirklich schon so rüh kommt. War aber auch ein 2014 Produkt eigentlich wenn die 14nm Verschiebung nicht gewesen wäre. Ob die Roadmap authentisch ist muss sich noch zeigen. Vr-zone ist immerhin bekannt für Roadmaps. Scheint recht neu zu sein, die Skala fängt erst bei Q1 2015 an. Möglich, dass es einige Planungsänderungen gab die letzten Monate.

basti333
2015-01-29, 21:43:06
Das wäre ja wirklich abartig... Broadwell hätte im Ultrabooksektor eine Lebensdauer von einem halben Jahr?! Einfach nur krank.. :ugly:
Wenn da auch nur ein Funken Wahrheit dran ist, kann man ja niemandem dazu raten zurzeit Ultrabooks zu kaufen..

Könnte ich mir nur bei den low-power Modellen vorstellen, da man dort u.U. Konkurrenz von ARM befürchtet.

Tobalt
2015-01-29, 21:49:56
Die rm sieht präziser als quartalsgenau aus. Launch ende juni für skylake s und mitte juni für skylake u ?? :-)

Gandharva
2015-01-29, 22:20:53
Die Roadmap zeigt jedenfalls eines ganz klar. Der Desktop Markt interessiert Intel kein bisschen, weil es dort einfach keine Konkurrenz gibt.

tdon
2015-01-30, 05:47:52
Dann würden sie Skylake nicht bringen und schon gar nicht so früh.

Gandharva
2015-01-30, 13:19:51
Skylake-S und sogar Broadwell Unlocked werden pro Roadmap immer weiter nach hinten geschoben und du schreibst was von früh?

Das einzige was passiert ist das Intel die Low Power Segmente pusht bis zum brechen. Auf nicht allzu alten Roadmaps war Skylake-U noch nichtmal zu sehen in seinem Segment.

Nightspider
2015-01-30, 13:27:30
Auf nicht allzu alten Roadmaps war Skylake-U noch nichtmal zu sehen in seinem Segment.

Was absolut NICHTS mit Verbiebung o.ä. zu tun hat.

tdon
2015-01-30, 14:05:23
Skylake-S und sogar Broadwell Unlocked werden pro Roadmap immer weiter nach hinten geschoben und du schreibst was von früh?


Früh im Kontext zur mobilen Variante. Wenn Intel es kein bisschen interessiert, würde sie mobile stark bevorzugen. Ist eh Blödsinn. Intel verdient damit Geld, der Desktop hat einen höheren Stellenwert als du glaubst.

Außerdem frage ich mich, wo Skylake-S ständig nach hinten geschoben wird. Juli wäre früher als zuletzt erwartet.

Nightspider
2015-02-01, 14:53:30
Der neue Highend Chipsatz Z170 bietet zwar 10 USB3.0 Anschlüsse und bis zu 20 Lanes mit PCI-Express 3.0 aber die Grafikkartenslots bekommen für SLI/CF trotzdem nur zwei Steckplätze mit 8 Lanes.

Warum ermöglicht Intel da nicht auch zwei PCIe16 Anschlüsse mit jeweils vollen 16 Lanes?

http://www.computerbase.de/2015-02/intel-100-series-chipset-skylake/

http://pics.computerbase.de/6/2/8/4/0/2.jpg

http://pics.computerbase.de/6/2/8/4/0/1.jpg

Unicous
2015-02-01, 14:56:32
Guck mal ganz rechts in die Tabelle, da wo X99 steht. Dort findest du deine Erklärung.:wink:

Rente
2015-02-01, 15:43:23
+ es gibt entsprechende PCIe-Switches die das Problem etwas lindern können.

y33H@
2015-02-01, 20:04:18
Warum ermöglicht Intel da nicht auch zwei PCIe16 Anschlüsse mit jeweils vollen 16 Lanes?Weil die CPU nur 16 hat weiterhin und per PCH würde das Latenz draufkommen, zumal der PCH nur per DMI dranhängt (wenngleich 3.0 mit doppelter Bandbreite, also 8 GT/s bzw 10 Gbps, sprich PCIe 3.0 x4 wenn ich das richtig sehe).

Nightspider
2015-02-01, 20:32:38
Also wird es keine Mainboards geben, welche den Grafikkarten mehr Bandbreite bieten als bei den alten Z97 Boards? Oder hat man durch das native PCIe3.0 wenigstens ein paar Vorteile?

Die Z97 Board hatten doch auch schon PCIe3.0 oder? Nur eben über eine Bridge oder wie war das?

y33H@
2015-02-01, 21:53:10
Der PCIe-Root-Controller in den CPUs ist eh seit IVB-DT und SNB-EP schon 3.0, d.h. weniger Overhead. Z97 nutzt acht PCIe 2.0 Lanes und hängt per DMI 2.0 an der CPU.

robbitop
2015-02-02, 10:56:12
Hat Skylake nicht bereits PCIe 4.0? Damit ist dann auch bei 8 Lanes genug Bandbreite für CF/SLI vorhanden.

Locuza
2015-02-02, 11:24:06
Intel wird ab Skylake scheinbar deutlich stärker zwischen Mainstream-Plattform und High-End Plattform trennen.
Skylake-S mit PCie 3.0 und dem bekannten Rest.
Skylake-E/EP/EX mit PCIe 4.0 und AVX 512.

Triskaine
2015-02-02, 12:15:44
Wenn man sich anschaut wieviel Strom und Fläche (ca. ein Jaguarkern) die AVX2 bzw. FMA Einheit bei Haswell in Anspruch nimmt, dann ist das auch die sinnvollste Lösung. Consumerprodukte brauchen eine derart breite Vektoreinheit schlichtweg nicht.

Botcruscher
2015-02-02, 12:47:32
Ob da Intel Hardware spart oder ein extra Kern aufgelegt wird sich zeigen.

Rampage 2
2015-02-02, 12:58:32
Skylake-S und sogar Broadwell Unlocked werden pro Roadmap immer weiter nach hinten geschoben und du schreibst was von früh?


Dem Bild von VR-Zone nach zu urteilen, kommen die ungelockten Desktop-Broadwells schon Mitte Q2 2015 - also mögl. im Mai 2015...

R2

y33H@
2015-02-02, 13:55:12
Computex, Anfang Juni.

Nightspider
2015-02-02, 15:38:59
Intel wird ab Skylake scheinbar deutlich stärker zwischen Mainstream-Plattform und High-End Plattform trennen.
Skylake-S mit PCie 3.0 und dem bekannten Rest.
Skylake-E/EP/EX mit PCIe 4.0 und AVX 512.

Da Broadwell-E ja erst 2016 kommt (und wir wissen noch nicht genau wann 2016) ist es möglich das Skylake-E erst Ende 2016 oder 2017 kommt.

Deswegen konkurriert Skylake sowieso nicht mit Skylake-E. Skylake-E ist dann der Konkurrent zu Canonlake und muss sich sicherlich auch mit dem Nachfolger von Canonlake rumplagen.

Für Viele wird es im zweiten Halbjahr schließlich auch heißen ob Skylake oder Broadwell-E in den Rechner kommt.

Nightspider
2015-02-07, 00:41:57
Weiß jemand mit welcher Grafikkarte die Desktop i7 IGP GT4e mit 72 EUs + 64MB eDRAM vergleichbar sein wird?

GTX660?

Ravenhearth
2015-02-07, 00:58:30
Wenn ich schätzen müsste, würde ich höchstens auf GTX 650 tippen.

dildo4u
2015-02-07, 00:58:58
Weiß jemand mit welcher Grafikkarte die Desktop i7 IGP GT4e mit 72 EUs + 64MB eDRAM vergleichbar sein wird?

GTX660?

Nope nicht mal Ansatzweise Iris Pro 5200 (40 EU + Edram) kommt auf 1500 Punkte bei Firestrike Bench eine GTX 660 auf 4500.

http://www.notebookcheck.com/Intel-Iris-Pro-Graphics-5200.90972.0.html

http://www.xbitlabs.com/articles/graphics/display/asus-geforce-gtx-660-directcu-ii-oc_6.html

Hübie
2015-02-07, 01:02:02
Wenn die das Niveau der GTX660 erreicht verkaufe ich meinen PC und hole mir so ein kleines Teil. Das wird nur nicht (so schnell) passieren...

Nightspider
2015-02-07, 01:30:47
Passt doch fast. Wenn eine alte 5200 schon 1500 schafft und die Neue der Nachfolger des Nachfolgers ist mit fast doppelt so vielen EUs und sicherlich höheren Taktraten am Desktop dann schafft man doch locker die Faktor 2,5 - 3.

Wenn Broadwell schon bis zu 50% drauflegt ohne eDRAM und Skylake dann nochmal mit viel mehr EUs daherkommt mit besserer Architektur UND eDRAm dann könnten wir durchaus fast bei GTX660 Leistung herauskommen.

dildo4u
2015-02-07, 01:41:26
Wann gab das letzte mal so ein Sprung?Sowas geht wenn die Architektur davor total Schrott ist,die Zuwächse sind in den letzten Jahren immer dürftiger geworden selbst bei Firmen die deutlich mehr Erfahrung mit GPU's haben.

Nightspider
2015-02-07, 02:16:56
Alleine die Anzahl der EUs ist schon 50% höher. Und vor Skylake soll Broadwell alleine schon rund 40% bringen bei gleicher Anzahl der EUs wie Haswell.
Da kommt man nach Milchmädchenrechnung alleine schon auf 3150 Punkte.
Dazu bekommt Skylake erneut eine neue und verbesserte Architektur.

Broadwells Architektur alleine macht schon einen großen Sprung und im Gegensatz zu den Architekturen von Nvidia und AMD hängt Intel immer noch hinterher was Leistung pro Fläche betrifft.

Selbst wenn es bei Skylake nur auf 3200-3500 Punkte hinausläuft und damit noch nicht GTX660 Niveau entspricht, so wäre das doch schon ein gewaltiger Sprung in diesem Jahr was IGP Leistung betrifft.
Wer weiß was Canonlake nächstens Jahr mit 10nm und vielleicht HBM Speicher bringt. Vielleicht nochmal einen Sprung von 100% wodurch man bei 6000-7000 Punkten landen würde.

AnarchX
2015-02-07, 09:41:41
Skylake GT4 könnte wohl bei ~36GTex/s und 1,2 TFLOPs liegen. Da liegt man immernoch unter der GTX 750 Ti von den Rohwerten und die IPC der Architektur wird wohl kaum das Niveau von Maxwell erreichen.

Nightspider
2015-02-07, 10:29:13
GT4 oder GT4e?
1,2TFLOPs wären ja weniger als das Doppelte der Iris Pro 5200, der IGP von Haswell. Das sollte leicht für Skylakes Top-IGP mit 72EUs zu schlagen sein, ergo sollte man bei Skylake über einer GTX750 Ti liegen.

832 Gflops hat die Iris pro 5200 laut Anandtech und liegt laut Benchmarks nur minimal unter der GT 640, welche genau ein Drittel der Leitung einer GTX660 hat. Bei mind. zwei drittel dieser Leistung sollte also die Top-Variante von Skylaske liegen.

Abgesehen vom eDRAM könnte auch DDR4 einige Prozente bringen. Da es neue eDRAM Chips gibt wäre es auch möglich das diese breiter angebunden sind oder höher takten. Das ist jetzt aber noch rein spekulativ aber es würde mich schon sehr wundern, wenn die Skylake-IGP so wie ihr vermutet nur 2 mal so schnell wäre wie die alte Haswell-IGP.
Da liegen ja nicht nur 2 Generation der Architektur und 80% mehr EUs dazwischen sondern auch ein besserer Herstellungsprozess (höhere Taktraten? / besserer Boost?) und DDR4 + vllt. eDRAM Verbesserungen.

Nochmal zur Erinnerung: Intel verspricht bei Broadwell (wahrscheinlich bei der eDRAM Version) bis zu 40% mehr Leistung bei gerade mal 20% mehr EUs.

Sunrise
2015-02-12, 16:10:07
Da könnte MS eigentlich auch direkt das nächste Surface Pro auf Skylake-Basis bringen, jetzt noch ein Broadwell-Surface zu launchen wäre ja schon fast Verschwendung.

tdon
2015-02-15, 15:30:14
Data regards the Skylake-Y the 5W TDP variant of the core which Chipzilla has compared the early silicon with the Broadwell-Y or 5W TDP version of Core M 5Y10 CPU.

According to Intel, the Skylake mobile platform has 60 percent lower SoC power and can sustain up to 35 percent longer 1080p HD playback than the Core M 5Y10.
http://fudzilla.com/news/notebooks/37016-skylake-has-up-to-60-percent-lower-soc-power

Undertaker
2015-02-15, 16:38:14
60 Prozent weniger bei Videoplayback ist (wenn nicht gerade die Rede von HEVC ist) ist zwar schön, praktisch aber ziemlich egal... Da nimmt schon Broadwell kaum mehr Leistung als im Leerlauf auf, mehr als ein paar Minuten Laufzeit kann man hier nicht mehr herausholen. Keine Ahnung, wo da die angeblichen 35 Prozent mehr herkommen sollen, da hat jemand wohl etwas falsch interpretiert.

tdon
2015-02-15, 17:02:54
http://www.notebookcheck.com/Intel-praesentiert-weitere-Broadwell-Chips-fuer-Note-und-Ultrabooks.133678.0.html

1 Watt macht dort +90min aus bei BDW ULT. HD von HEVC wäre schon möglich, dann kann es weitaus mehr sein, denn das wird bei Core M von der CPU dekodiert. Fudzilla sollte die slides einfach hochladen, der Typ selber ist zu doof.

Gandharva
2015-02-15, 21:29:48
60 Prozent weniger bei Videoplayback ist (wenn nicht gerade die Rede von HEVC ist) ist zwar schön, praktisch aber ziemlich egal... Da nimmt schon Broadwell kaum mehr Leistung als im Leerlauf auf, mehr als ein paar Minuten Laufzeit kann man hier nicht mehr herausholen. Keine Ahnung, wo da die angeblichen 35 Prozent mehr herkommen sollen, da hat jemand wohl etwas falsch interpretiert.
Ja. Du. ;)

Umgekehrt wird ein Schuh draus. Insgesamt 60% weniger Leistungsaufnahme des SoC resultieren in 35% weniger Leistungsaufnahme bei 1080p Playback welches - wie du schon richtig erkannt hattest - bereits so weit optimiert ist das hier nicht mehr so viel zu holen ist.

tdon
2015-02-15, 21:37:18
Du solltest richtig lesen. Undertaker hat es schon richtig interpretiert.

Gandharva
2015-02-15, 21:39:40
LOL, hattet ihr auf der Schule kein Englisch?

According to Intel, the Skylake mobile platform has 60 percent lower SoC power and can sustain up to 35 percent longer 1080p HD playback than the Core M 5Y10.
Da steht kein Wort von 60% weniger bei Video Playback.

tdon
2015-02-15, 21:46:15
35% längere Laufzeit bei HD Playback steht dort. Du schreibst 35% weniger Leistungsaufnahme, was Blödsinn ist. 60% geringerer SoC Verbrauch und 35% längere Laufzeit bei HD playback.

Gandharva
2015-02-15, 21:48:54
35% längere Laufzeit bei HD Playback steht dort. Du schreibst 35% weniger Leistungsaufnahme, was Blödsinn ist. 60% geringerer SoC Verbrauch und 35% längere Laufzeit bei HD playback.
Kannst du nicht lesen?
Insgesamt 60% weniger Leistungsaufnahme des SoC resultieren in 35% weniger Leistungsaufnahme bei 1080p Playback...

tdon
2015-02-15, 21:53:05
Ja kann ich. Du offenbar nicht. Von 35% weniger Leistungsaufnahme hat Fudzilla nichts geschrieben, das bezieht sich auf 35% längere Laufzeit. Ein himmelweiter Unterschied. Wie gesagt, lies es besser nochmal.

Gandharva
2015-02-15, 21:57:16
OK. Du kannst nicht lesen.

Ich habe schlicht das übersetzt was in dem Zitat steht und da steht NICHTS von 60% weniger bei Videoplayback. Lustigerweise schreibst du das sogar selbst. Ggf. noch Faschingsnachwehen? XD

tdon
2015-02-15, 22:07:42
35 percent longer 1080p HD playback

35% weniger Leistungsaufnahme bei 1080p Playback


Finde deinen Fehler Mister Arroganz. Und bezüglich der 60% ist für einen logisch denkenden User klar, dass dieser Wert ebenso aufs HD Playback bezogen sein muss. Denn die Soc TDP bleibt fast unverändert bei SKL-Y. Auf was soll sich das sonst beziehen. 60% weniger Leistungsaufnahme resultierend in 35% längerer Laufzeit bei HD Playback.

Timbaloo
2015-02-15, 22:11:07
So oder so ist der zitierte Satz unglücklich fomuliert. Aber allemal ein guter Grund sich deswegen die Köpfe einzuschlagen.

Gandharva
2015-02-15, 22:14:41
35% längere Laufzeit bei Videoplayback entspricht doch den 35% weniger Leistungsaufnahme bei Videoplayback. Ist doch das selbe in dem Fall.

Such dir x beliebige Benches zusammen von denen ein paar 80% Ersparnis zeigen und ein paar andere eben weniger als 60%. Im Mittel werden dann "Gesamt" 60% draus und tadaa hast du dein Marketinggesabbel.

Das es sich bei den 60% ebenfalls um Videoplayback handeln soll ist pure Spekulation und imho falsch da es Null Sinn ergibt.

Timbaloo
2015-02-15, 22:20:59
35% längere Laufzeit bei Videoplayback entspricht doch den 35% weniger Leistungsaufnahme bei Videoplayback. Ist doch das selbe in dem Fall.
Ohne Eingabe-und Ausgabegerät wäre das fast richtig. Ich hoffe aber doch, dass man den Betrieb einen Displays beim Betrachten eines Videos mit einkaluliert. Sonst wird der Film arg öde ;)

tdon
2015-02-15, 22:24:40
35% längere Laufzeit entspricht den 35% weniger Leistungsaufnahme bei Videoplayback. Ist doch das selbe in dem Fall.




Es ist nicht dasselbe! Unglaublich so viel Inkompetenz. SoC Power macht mittlerweile einen verschwindend kleinen Teil beim Gesamtverbrauch eines Notebooks aus. Einen anschaulichen Link habe ich gepostet. Der Großteil geht aufs LCD. Deswegen würde ein 35% geringer SoC Verbrauch nicht in 35% längere Laufzeit resultieren. Darum geht es. 35% weniger Verbrauch bei HD Playback wäre nicht so weltbewegend, dann hat man eben statt 1W 0,7W oder so ähnlich. 35% längere Laufzeit ist ein ganz anderes Kaliber.

Gandharva
2015-02-15, 22:46:58
Ohne Eingabe-und Ausgabegerät wäre das fast richtig. Ich hoffe aber doch, dass man den Betrieb einen Displays beim Betrachten eines Videos mit einkaluliert. Sonst wird der Film arg öde ;)
Nur das es sich hier um Marketingangaben zum SoC handelt. Das ist einfach nur ein Schnitt aus diversen Benches (wie man sie ja schon kennt von Intel Papieren) wo man dann einen Mittelwert gezogen hat um auf besagte 60% zu kommen.

Nightspider
2015-02-16, 01:36:31
Es ist nicht dasselbe! Unglaublich so viel Inkompetenz. SoC Power macht mittlerweile einen verschwindend kleinen Teil beim Gesamtverbrauch eines Notebooks aus. Einen anschaulichen Link habe ich gepostet. Der Großteil geht aufs LCD. Deswegen würde ein 35% geringer SoC Verbrauch nicht in 35% längere Laufzeit resultieren. Darum geht es. 35% weniger Verbrauch bei HD Playback wäre nicht so weltbewegend, dann hat man eben statt 1W 0,7W oder so ähnlich. 35% längere Laufzeit ist ein ganz anderes Kaliber.

Geht das Ganze nicht auch ein wenig niveauvoller?

Wenn er allgemein von der Leistungsaufnahme spricht dann spricht er von der gesamten Leistungsaufnahme des Systems. Da brauchst du ihm nicht SoC zu seiner Aussage dazudichten wenn er schon weiter oben auf die Verteilung eingegangen ist.

Es ist ein realistisches Szenario das bei einer x86 Mobilplattform die Leistungsaufnahme zu 50% jeweils auf Bildschirm und SoC verteilt sind. Senkt man den SoC Verbrauch um 60% würde das insgesamt in 30% Einsparung resultieren.

Da Videoplayback in 1080p heutzutage vermutlich keine all zu hohe Auslastung erzeugt liegt die Vermutung nahe das im Test 4K Material und/oder HEVC verwendet wurde.

Genau das wurde in den Posts oben schon geschrieben.

tdon
2015-02-16, 17:07:41
Geht das Ganze nicht auch ein wenig niveauvoller?


Nein ging es nicht, da er seinen Fehler selbst nach mehrmaligen Hinweis nicht eingestehen konnte, so dass ich ihm alles vorkauen musste.



Wenn er allgemein von der Leistungsaufnahme spricht dann spricht er von der gesamten Leistungsaufnahme des Systems. Da brauchst du ihm nicht SoC zu seiner Aussage dazudichten wenn er schon weiter oben auf die Verteilung eingegangen ist.


Was für ein Blödsinn. Vom Gesamtsystem war nie die Rede. Soc Power steht bei Fudzilla. Eindeutiger geht es nicht mehr. Er selbst redet von Soc. Alles andere hätte sowieso nichts mehr mit Skylake zu tun. Und die 35% ist keine Verbrauchsangabe, wie oft denn noch.

Auch du solltest lesen lernen. Ihr beiden seid echt 2 Komiker. Selten so viel Unfähigkeit gesehen. Was ist nur aus dem 3dcenter geworden.

Hübie
2015-02-16, 19:47:59
Auch wenn du fachlich Recht hast bedeutet es nicht dass du dich in einer Gruppe wie die Axt im Walde verhalten kannst. Das kommt negativ an und entsprechend lehnt man dein Wissen eher ab. Wenn die beiden es nicht verstehen (wollen) dann lass doch gut sein.

IC3M@N FX
2015-02-17, 00:45:28
Mal ne frage allgemein zu Intel CPU´s auf der Startseite von 3dcenter.org hab ich gerade die Intel Roadmap gesehen. Ich habe eines gemerkt, die teuereren CPU´s haben meistens eine bessere iGPU! Entweder ergibt sich für mich kein logischen Sinn (Intel GPU´s sind nicht gerade die schnellsten auch wenn sich sehr vieles geändert hat von der Performance her) oder ich habe einfach keine Ahnung, oder Intel erkennt Marktwünsche nicht vom Kunden..... Wie kommt es das Intel nur bei seinen teueren CPU´s (E-Serie mal ausgenommen) eine fette iGPU mit 48-78 EU optional mit eDRAM verbaut? Welchen sinn ergibt sich da? Warum sollte ich User z.b ein Core i5/i7 Besitzer eine starke Integrierte GPU von Intel haben wollen? Wenn ich eine starke Mainstream/Performance CPU kaufe um die 200-250€ Mobile CPU´s mal ausgenommen.... dann werde ich mir ja wohl was logisch ist dementsprechend eine starke diskrete Grafikkarte kaufen!!! Warum verbauen die nicht starke Performance iGPU´s mit eDRAM oder mehr EU´s in Core i3/Low i5) (Notebook CPU´s) wo es meiner Meinung nach mehr sinn macht und gewünscht wird. Anstatt sie in hochgezüchteten i5/i7 zu verschwenden..... Kann mir das jemand logisch erklären? Klar es wird sicher Kunden geben die diese Kombination brauchen werden, ich kann mir nur nicht vorstellen das es der überwiegende Markt sein wird der diese Kombination brauch! Die Leute kaufen trotzdem Intel Core i5/i7 weil sie schnell und sparsam sind, aber der CPU wegen und nicht der iGPU wegen, ich bin sogar der Meinung das Intel da zur einer falschen Schlussfolgerung/Feststellung gekommen ist. Das ihre teueren und schnellen iGPU bei i5/i7 gefragt sind, was ich nicht glaube. Ich glaube das viele User die eine i5/i7 (Desktop) CPU haben, hätten lieber eine auf das wesentliche beschränkte iGPU gewünscht. Um z.b Transistor Count zu sparen und günstiger die CPU zu kaufen dadurch, eine einfache iGPU hätte für Multimedia usw. gereicht. Die meisten Intel iGPU´s im Desktop Markt fristen eh ein Schattendasein da nur in Desktop Modus für Idle aufgaben oder Video/Foto aufgaben benutzt werden....

basti333
2015-02-17, 01:00:10
Mal ne frage allgemein zu Intel CPU´s auf der Startseite von 3dcenter.org hab ich gerade die Intel Roadmap gesehen. Ich habe eines gemerkt, die teuereren CPU´s haben meistens eine bessere iGPU! Entweder ergibt sich für mich kein logischen Sinn (Intel GPU´s sind nicht gerade die schnellsten auch wenn sich sehr vieles geändert hat von der Performance her) oder ich habe einfach keine Ahnung, oder Intel erkennt Marktwünsche nicht vom Kunden..... Wie kommt es das Intel nur bei seinen teueren CPU´s (E-Serie mal ausgenommen) eine fette iGPU mit 48-78 EU optional mit eDRAM verbaut? Welchen sinn ergibt sich da? Warum sollte ich User z.b ein Core i5/i7 Besitzer eine starke Integrierte GPU von Intel haben wollen? Wenn ich eine starke Mainstream/Performance CPU kaufe um die 200-250€ Mobile CPU´s mal ausgenommen.... dann werde ich mir ja wohl was logisch ist dementsprechend eine starke diskrete Grafikkarte kaufen!!! Warum verbauen die nicht starke Performance iGPU´s mit eDRAM oder mehr EU´s in Core i3/Low i5) (Notebook CPU´s) wo es meiner Meinung nach mehr sinn macht und gewünscht wird. Anstatt sie in hochgezüchteten i5/i7 zu verschwenden..... Kann mir das jemand logisch erklären? Klar es wird sicher Kunden geben die diese Kombination brauchen werden, ich kann mir nur nicht vorstellen das es der überwiegende Markt sein wird der diese Kombination brauch! Die Leute kaufen trotzdem ein Intel Core i5/i7 wie verrückt, aber es heißt noch lange nicht, das sie die iGPU verwenden, meistens fristen sie ein Schattendasein in Desktop Modus für Idle aufgaben oder Video/Foto aufgaben.

Vielleicht ist es das Ziel dedizierte GPU ganz vom Markt zu verdrängen.