PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Skylake - DDR4, Gen9 GPU @ 14nm (2016) & Skylake-X - up to 18C @ 14FF++ (2017)


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13

Ravenhearth
2015-04-17, 21:53:52
Ich bin kein Experte, aber das Desktop-Package ist sogar 20% größer.

kruemelmonster
2015-04-17, 22:14:13
Ich hatte irgendwie auf 6 Kernen gehofft bei den non -E Modellen. :mad:

Für sechs Kerne würde die Bandbreite einer DualChannel Plattform nicht ausreichen (OC-Speicher zählt dabei nicht sondern nur das was im Datenblatt der CPU steht), schon Haswell ist heute lt. y-cruncher Dev bei AVX-Berechnungen ggü Haswell-E stark bandbreitenlimitiert.

Murmel5
2015-04-17, 22:28:10
hoffe nur auf die Skylakes im surface 4 so das hier nahezu passiv möglich ist denn die Core M sind echt nur auf burst Leistung ausgelegt

BlackBirdSR
2015-04-18, 11:58:48
hoffe nur auf die Skylakes im surface 4 so das hier nahezu passiv möglich ist denn die Core M sind echt nur auf burst Leistung ausgelegt

Hat man sich ja von den besten (Arm + Qualcomm) abgeguckt ;)

Bis die Chips (falls) bei vollst nur 5 Watt benötigen,wirst du immer ein Burst-Verhalten haben. Es macht einfach Sinn (race to sleep). Dass Benchmarks damit getäuscht werden können, ist ein schöner Bonus...

Undertaker
2015-04-18, 12:29:17
Das Burst-Verhalten gibt's bei Intel schon seit Sandy Bridge, eine wirkliche Neuheit ist das also nicht (ka ob ARM Chips das schon vor 2011 gemacht haben). Die prozentuale TDP Überschreitung ist bei aktuellen ULV Modellen wie Core M natürlich sehr viel stärker. Und daran wird sich auch künftig imo nichts ändern, selbst wenn wir in 5 Jahren doppelt so schnelle Core M Nachfolger haben. Warum sollte man auch auf den kurzzeitigen Boost für ein noch bessere Ansprechverhalten verzichten wollen? Das eine CPU bei konstant 4,5W nur einen Bruchteil der Leistung eines 15W Modells erreicht, wird logischerweise immer so sein.

rentex
2015-04-18, 13:23:00
Kann man davon ausgehen, das es XEON Versionen von Skylake geben wird?

Hammer des Thor
2015-04-18, 15:21:55
Hallo, ich dachte immer eine grosser Vorteil von Skylake wäre, dass der mehr als 16 PCI-E-Lanes hat damit neben der Graka auch NVME versorgt werden kann. Diese Grafik scheint doch sehr zu enttäuschen:

http://www.tomshardware.de/intel-skylake-skylake-s-prozessoren-cpus,news-252617.html

Das hiesse doch im Fall Z170, dass wenn ich ne schnelle SSD mit 4 PCI 3.0 Lanes betreiben will die Grafik-Karte nur mit 8 lanes anbinden kann womit deren BB auf PCI 2.0-Niveau zurückfallen dürfte?
Bei den anderen beiden kann ich dann nach wie vor kein NVME nutzen, ist das richtig?
Da hat ja der Haswell-E mit bis zu 40 PCI 3.0 Lanes schon mehr als das doppelte, der kleinste hat immerhin 28 Lanes.

rentex
2015-04-18, 15:27:54
Oh! Sieht so aus...total übersehen...

Ravenhearth
2015-04-18, 15:28:05
*Hier stand Unsinn*

YfOrU
2015-04-18, 16:03:31
Hallo, ich dachte immer eine grosser Vorteil von Skylake wäre, dass der mehr als 16 PCI-E-Lanes hat damit neben der Graka auch NVME versorgt werden kann. Diese Grafik scheint doch sehr zu enttäuschen..

Der Chipsatz (PCH) ist über DMI 3.0 an der CPU angebunden und stellt zusätzliche PCIe 3.0 Lanes zur Verfügung.
http://www.hardwareluxx.de/images/stories/newsbilder/mniedersteberg/News_2014/intel-100-series-chipset-SKU.JPG

Ravenhearth
2015-04-18, 16:08:36
Darum gehts doch. In deiner Tabelle steht der Z170 mit 20 Lanes drin, in der neuen News sind es nur noch 16.

YfOrU
2015-04-18, 16:15:22
"Processor PCIe 3.0 Configuration Support"

Das sind die 16 PCIe 3.0 Lanes welche in der CPU integriert sind. Nicht die bis zu 20 welche der Chipsatz integriert hat. Beschreibt also die Möglichkeiten ob/wie die PCIe Lanes der CPU aufgeteilt werden können. Ist bei AMD und Intel abhängig vom Chipsatz und den teureren Modellen vorbehalten um diese zu differenzieren.

Deshalb gibt es SLI/Crossfire mit 8/8 Aufteilung (normalerweise) nicht auf den Mainboards mit günstigen Chipsätzen ;)

Ravenhearth
2015-04-18, 16:47:31
Sicher, dass 16 PCI-E 3.0 in der CPU sind? Dachte ich vorher auch. Aber selbst Haswell-E für Sockel 2011-3 hat nur 8 mit 2.0.

Hammer des Thor
2015-04-18, 17:08:12
Achso, die können dann doch mehr mit Chipsatz, ich habe mich schon gewundert denn bei nur 8 Lanes beim Brodwell wäre PCI e 3.0 dann überflüssig. Sind die Lanes die dann direkt in der CPU sind auch entspprechend direkter angebunden für zeitkritische Dienste? Da würde es dann doch Sinn machen die Graka direkt über die CPU anzubinden ( da ja die Drawcalls von der CPU kommen ) und SATA Express M.2 etc dann über den Chipsatz?
Noch ne Frage? Waren die Gesamt-Lanes ( Chipsatz und CPU ) bei Brodwell auf 16 begrenzt? Nur so könnte ich eklären dass das kein M.2 bzw. SATA-e über PCIE 3.0 laufen konnte.

ndrs
2015-04-18, 18:25:10
Sicher, dass 16 PCI-E 3.0 in der CPU sind?
Ja.
Dachte ich vorher auch. Aber selbst Haswell-E für Sockel 2011-3 hat nur 8 mit 2.0.
Nein, 40 mit PCIe3.
Sind die Lanes die dann direkt in der CPU sind auch entspprechend direkter angebunden für zeitkritische Dienste? Da würde es dann doch Sinn machen die Graka direkt über die CPU anzubinden ( da ja die Drawcalls von der CPU kommen ) und SATA Express M.2 etc dann über den Chipsatz?
Genau so wird es ja auch gemacht.

Noch ne Frage?
Nein, ich hab keine mehr.

Waren die Gesamt-Lanes ( Chipsatz und CPU ) bei Brodwell auf 16 begrenzt? Nur so könnte ich eklären dass das kein M.2 bzw. SATA-e über PCIE 3.0 laufen konnte.
Aufgrund gleichen Sockels sollte sich Broadwell genau wie Haswell verhalten. Was die Begrenzung auf 16 angeht, kann es durchaus sein, dass das ULT-Package einfach nicht mehr rausführt und du das vielleicht gerade mit einer generellen Beschränkung für BW verwechselst.

Hammer des Thor
2015-04-18, 20:42:00
Ja.


Aufgrund gleichen Sockels sollte sich Broadwell genau wie Haswell verhalten. Was die Begrenzung auf 16 angeht, kann es durchaus sein, dass das ULT-Package einfach nicht mehr rausführt und du das vielleicht gerade mit einer generellen Beschränkung für BW verwechselst.

Ich meinte auch den nur der Haswell-E hat ja diese Beschränkung nicht. Jedenfalls soll ja NVME für M.2 bei dem normalen Haswell ( ohne E ) ja nicht gehen wegen dieser Beschränkung.

tdon
2015-04-19, 12:04:29
Intel 0000 @ 1.60 GHz 1 processor, 2 cores, 4 threads (http://browser.primatelabs.com/geekbench3/2344229)

Intel 0000 @ 2.30 GHz 1 processor, 2 cores, 4 threads (http://browser.primatelabs.com/geekbench3/2344032)


Das sind zwei Skylake ES, höchswahrscheinlich zu Skylake-U gehörend.

Mortalvision
2015-04-19, 12:21:17
Die letzte 3DC News spricht davon, dass die Skylake CPUs nicht über 10% IPC hin auskommen könnten...

tdon
2015-04-19, 12:22:49
Völlig belanglos.

Mills
2015-04-19, 12:24:51
http://www.3dcenter.org/news/angebliche-erste-modell-spezifikationen-zu-skylake-aufgetaucht

Uff. Mein Skylake Interesse hat mit diesem Artikel schlagartig nachgelassen :redface:, wenn das stimmt gibts offenbar wieder keine großen Taktsprünge, die TDP bleibt wie gehabt, und auch die Pro-MHz-Leistung wirds mutmaßlich wohl nicht so rausreißen, das sich ein Upgrade von Haswell oder Ivybridge wirklich lohnen würde, es sei denn man braucht zwingend einige der Mainboard-Features. Schade - hatte auf deutlich (!) mehr Leistung gehofft. Scheint nix zu werden, es sei denn die Preise werden wider Erwarten ggü. Haswell-E bzw. Devils Canyon attraktiv. ;(

tdon
2015-04-19, 12:32:08
Taktraten sind überraschend hoch (hoffentlich bestätigt sich das) für erste launch Modelle. Nach den 14nm Problemen und teils geringeren Broadwell Taktraten war das keine Selbstverständlichkeit. 22nm ist auch nicht gleich mit Devils Canyon eingestiegen. Ich muss mit dem Kopf schütteln, wenn sich Leute noch höhere Taktraten versprochen haben. TDP mit Stromverbrauch gleichsetzen ist auch sehr beliebt.

Skysnake
2015-04-19, 12:37:49
Ich weiß echt nicht, wie ihr immer drauf kommt, dass die Taktraten noch wesentlich steigen....

Die Prozesse werden zwar besser, aber nicht in dem Rahmen. Mal ganz davon abgesehen, dass die Transistoren immer schlechter werden, je kürzer man Sie macht. Um eine Schaltung auf >5 GHz zu bringen, musst du die schon ziemlich prügeln. Wir reden hier ja von Perioden von maximal 400 pico Sekunden. Da kannste kaum was dran hängen an Last. Mal ganz davon abgesehen, dass Jitter auch immer problematischer wird.

Klar, man könnte auch heute schon CPUs mit deutlich über 5 GHz bringen, aber die Dinger wären Säufer wie noch etwas. 25% mehr Takt und 100% mehr LEistungsaufnahme oder so.

Verabschiedet euch also bitte davon, dass die Taktraten wesentlich steigen. Wenn mal 100-200 MHz mehr kommen als beim Vorgänger, kann man schon absolut zufrieden sein bei den Topmodellen,

So lange wir auf CMOS setzen, wird sich daran auch nichts mehr ändern.

Mortalvision
2015-04-19, 12:39:25
Kann man davon ausgehen, das es XEON Versionen von Skylake geben wird?

Müsste dann die 1200v4 Serie sein...

Wenn es keine Broadwell-xeons gibt.

Matrix316
2015-04-19, 12:40:54
Man könnte ja auch mal anfangen die Anzahl der Kerne zu erhöhen. Wir haben jetzt schon seit 2007 oder so den Quadcore als quasi Standard und jetzt überholen schon die Smartphones mit ihren 8 Kernen die Desktop CPUs Quasi!

Knuddelbearli
2015-04-19, 12:45:28
Ich weiß echt nicht, wie ihr immer drauf kommt, dass die Taktraten noch wesentlich steigen....

Die Prozesse werden zwar besser, aber nicht in dem Rahmen. Mal ganz davon abgesehen, dass die Transistoren immer schlechter werden, je kürzer man Sie macht. Um eine Schaltung auf >5 GHz zu bringen, musst du die schon ziemlich prügeln. Wir reden hier ja von Perioden von maximal 400 pico Sekunden. Da kannste kaum was dran hängen an Last. Mal ganz davon abgesehen, dass Jitter auch immer problematischer wird.

Klar, man könnte auch heute schon CPUs mit deutlich über 5 GHz bringen, aber die Dinger wären Säufer wie noch etwas. 25% mehr Takt und 100% mehr LEistungsaufnahme oder so.

Verabschiedet euch also bitte davon, dass die Taktraten wesentlich steigen. Wenn mal 100-200 MHz mehr kommen als beim Vorgänger, kann man schon absolut zufrieden sein bei den Topmodellen,

So lange wir auf CMOS setzen, wird sich daran auch nichts mehr ändern.

das Problem ist weniger das nicht steigen sondern das der OC Takt von sandy ausgehend sogar gut geschrumpft ist

Mortalvision
2015-04-19, 12:56:37
Man könnte ja auch mal anfangen die Anzahl der Kerne zu erhöhen. Wir haben jetzt schon seit 2007 oder so den Quadcore als quasi Standard und jetzt überholen schon die Smartphones mit ihren 8 Kernen die Desktop CPUs Quasi!

Das mag bei Smartphones gehen. Aber ein Hexa-oder Octacore im Desktop wird Intel nicht bringen, weil die großen oems es nicht verbauen würden: zu viel Abwärme, besseres Netzteil erforderlich etc.

Mortalvision
2015-04-19, 13:03:34
Die CPU-Anzeige in Windows hat kein Wissen über irgend eine HT-Auslastung. Wenn 70% angezeigt wird, dann heißt das, dass nur zu 70% der möglichen Takte etwas ausgeführt wurde auf den virtuellen Cores. Will heißen, selbst wenn HT überhaupt nichts bringt, würdest du 100% sehen.

Deine Aussage kann ich nicht nachvollziehen. Hast du da einen link oder kannst du es bitte kurz erklären?

Coda
2015-04-19, 13:13:52
Selbst wenn Windows 50% Auslastung anzeigt, kann es sein, dass die Software die Hyperthreading-CPU vollständig auslastet, d.h. mehr Threads nichts bringen würden, weil sämtliche Resourcen bereits von einem Thread pro Core ausgefüllt werden.

Windows zeigt einfach stur an wieviel Prozent der Zeit etwas auf den 8 Cores die es sieht gescheduled war. Das hat aber Null mit der wirklichen Hardware-Auslastung zu tun. Um das zu sehen muss man die Profiling-Register der CPU auslesen. Das geht nur mit Spezialsoftware wie VTune.

fondness
2015-04-19, 13:18:11
Wie gut abgesichert sind den die ~20% IPC-Steigerung von Skylake auf Haswell? Oder ist das im Moment mehr eine wilde Speku?

Elite_Warrior
2015-04-19, 13:18:42
Das mag bei Smartphones gehen. Aber ein Hexa-oder Octacore im Desktop wird Intel nicht bringen, weil die großen oems es nicht verbauen würden: zu viel Abwärme, besseres Netzteil erforderlich etc.

Hab da mal bei Geizhals mir die Xeon angeguckt, man bekommt für 85Watt TDP einen Octacore mit 2,4Ghz(3,2Ghz Turbo). Da wir bei Skylake einen Fertigungssprung haben wären doch 3Ghz normal Takt sicherlich locker, oder?

Hauptproblem warum wir keine Steigerung in der Kernzahl ist vermutlich die fehlende Konkurrenz. Die Intel CPUs werden immer kleiner, kosten allerdings immer das gleiche(Dank €-Kurs inzwischen mehr). Mehr Gewinn für Intel.

Mortalvision
2015-04-19, 13:20:27
Selbst wenn Windows 50% Auslastung anzeigt, kann es sein, dass die Software die Hyperthreading-CPU vollständig auslastet, d.h. mehr Threads nichts bringen würden, weil sämtliche Resourcen bereits von einem Thread pro Core ausgefüllt werden.

Windows zeigt einfach stur an wieviel Prozent der Zeit etwas auf den 8 Cores die es sieht gescheduled war. Das hat aber Null mit der wirklichen Hardware-Auslastung zu tun. Um das zu sehen muss man die Profiling-Register der CPU auslesen. Das geht nur mit Spezialsoftware wie VTune.
Danke!

Duplex
2015-04-19, 13:23:09
Geht es hier um SMT oder Skylake?

Mortalvision
2015-04-19, 13:25:51
Hab da mal bei Geizhals mir die Xeon angeguckt, man bekommt für 85Watt TDP einen Octacore mit 2,4Ghz(3,2Ghz Turbo). Da wir bei Skylake einen Fertigungssprung haben wären doch 3Ghz normal Takt sicherlich locker, oder?

Hauptproblem warum wir keine Steigerung in der Kernzahl ist vermutlich die fehlende Konkurrenz. Die Intel CPUs werden immer kleiner, kosten allerdings immer das gleiche(Dank €-Kurs inzwischen mehr). Mehr Gewinn für Intel.

Jein. Der Turbo ist doch immer nur für 1 Kern, oder? Wenn Du den Takt aller Cores auf 3,5 GHz anhebst, hättest du bestimmt 110-130W TDP. Zu Skylake: Ja, aber die Schrumpfung führt ja sich zu mehr Watt pro Fläche.
Der von dir angeführte xeon, hat der eine igpu? Wenn nein, sind das nochmal 10-15 Watt mehr bei einer desktop CPU, insofern die igpu genutzt wird.

Mortalvision
2015-04-19, 13:26:26
Geht es hier um SMT oder Skylake?

Um Beides *zwinker*

Elite_Warrior
2015-04-19, 13:36:43
@Mortalvision:
http://geizhals.de/intel-xeon-e5-2630-v3-bx80644e52630v3-a1159883.html?hloc=at&hloc=de
Den hier meinte ich, keine IGPU.

Turbo ist natürlich meist 1 Core bei max. Frequenz, bei 4 cores könnte sich der Turbo vlt. auf 2,8Ghz belaufen, keine Ahnung wie es da geregelt ist.

Ich denke das mindestens ein Hexacore gut kühlbar und mit hoher Frequenz(>3Ghz) Platz finden würde, inklusive Igpu.

Mortalvision
2015-04-19, 13:40:13
@Mortalvision:
http://geizhals.de/intel-xeon-e5-2630-v3-bx80644e52630v3-a1159883.html?hloc=at&hloc=de
Den hier meinte ich, keine IGPU.

Turbo ist natürlich meist 1 Core bei max. Frequenz, bei 4 cores könnte sich der Turbo vlt. auf 2,8Ghz belaufen, keine Ahnung wie es da geregelt ist.

Ich denke das mindestens ein Hexacore gut kühlbar und mit hoher Frequenz(>3Ghz) Platz finden würde, inklusive Igpu.

Klaro, ich befürchte aber, dass die OEMs eher Intel die Vorgaben machen als anders rum. Und solange nicht in zigmillionenfacher Ausführung produziert wird, kostet so ein xeon halt noch über 1000€, HM?

Kriton
2015-04-19, 15:39:16
Es geht ja nicht um die Frage für wieviel Intel verkauft, sondern was bei gleichbleibenden Kosten möglich wäre.

tdon
2015-04-23, 17:24:54
http://www.pcfrm.com/intel-i7-6700k-vs-i7-4790k/


Im Cinebench ist der i7 und i5 15% schneller im Vergleich zum schnellsten Haswell i5/i7 wenn das stimmt. Bei den Game Benchmarks muss jemand mit Erfahrung ran.

http://us.hardware.info/reviews/5446/13/intel-core-i7-4790k--i5-4690k-devils-canyon-review-haswell-for-overclockers!-benchmarks-igpu-cinebench-115

Nightspider
2015-04-23, 17:38:39
Wenn Broadwell schon 5% davon bringt würde Skylake wieder nur 10% drauflegen.

Würde mir trotzdem reichen. Ein Skylake Upgrade ist für meine Maschine definitiv geplant.
Ich brauche Leistung pur für Star Citizen. :D

Quaker
2015-04-23, 18:13:39
Durch Mantle wurde ja der künstlich hoch gehaltene CPU Leistungshunger behoben.
Mit directx 12 wird es dann massentauglich.
Wenn star citizen dx12 unterstützen sollte, wird man nicht unbedingt sehr viel mehr CPU power benötigen.

Falls ich mich irre, bitte aufklären, aber das ist das, was ich mir von dx12 erhoffe.

MfG

Ravenhearth
2015-04-23, 18:29:51
Wenn Sachen wie KI, Wegfindung, Physik etc auf der CPU berechnet werden, braucht das trotzdem noch die volle Performance. Es geht nur um Draw Calls, also Wunder sollte man nicht erwarten.

aufkrawall
2015-04-23, 18:31:20
Von AMD-Treibern ausgehend schon. :tongue:

tdon
2015-04-23, 20:03:05
Wenn Broadwell schon 5% davon bringt würde Skylake wieder nur 10% drauflegen.


Das hat Intel bei IVB auch behauptet, im Cinebench waren das letztendlich nicht mehr als 2-3%.


Würde mir trotzdem reichen. Ein Skylake Upgrade ist für meine Maschine definitiv geplant.
Ich brauche Leistung pur für Star Citizen. :D


Bei Haswell sind es nur 6-7% im Cinebench R11.5 über Ivy Bridge. Über Sandy Bridge nicht mehr als 8-9%.

Ravenhearth
2015-04-23, 20:07:45
Ich hoffe wirklich, dass Skylake wieder ein größerer Sprung wird und durchschnittlich 20% IPC auf Haswell drauf legt.

Sunrise
2015-04-23, 20:11:28
Ich hoffe wirklich, dass Skylake wieder ein größerer Sprung wird und durchschnittlich 20% IPC auf Haswell drauf legt.
Das wäre IMHO schon der absolute Kracher, glaube ich erst wenn ich es sehe.

Nightspider
2015-04-23, 20:14:03
Das hat Intel bei IVB auch behauptet, im Cinebench waren das letztendlich nicht mehr als 2-3%.




Bei Haswell sind es nur 6-7% im Cinebench R11.5 über Ivy Bridge. Über Sandy Bridge nicht mehr als 8-9%.

Klingt toll. Dann wären 15% mehr in Cinebench bei Skylake in vielen Games deutlich mehr als 15%. =)

Die offiziellen 5% von Ivy Bridge waren in manchen Games sogar >10%.
Und die offiziellen 10% von Haswell sogar manchmal >20%.

Natürlich nicht im Durchschnitt aber wen interessiert schon der Durchschnitt? CPU hungrige Games und Minimum_FPS sind der Maßstab bei mir.

tdon
2015-04-23, 20:19:44
In Games ging Haswell überdurchschnittlich. Ob das bei Skylake auch so aussieht, ist Spekulation. Ivy Bridge hat durch den 100-200 Mhz höheren MT Turbo profitiert, >10% waren das sicher nicht.

tdon
2015-04-23, 20:57:58
http://fs2.directupload.net/images/150423/iddfijvu.jpg

http://abload.de/img/skylake_2ctp06.jpg
http://benchlife.info/will-support-ddr4-and-ddr3l-10-skylake-model-confirm-and-hand-on-04232015/


Noch mehr SKU Infos.

Tobalt
2015-04-23, 23:18:04
Wie kommt ein 6400 auf 65w. Muss ja totaler salvage sein.

Ravenhearth
2015-04-23, 23:33:43
Das ist einfach eine TDP-Klasse in die die Prozessoren eingeordnet werden. Ein i5-4430 kommt auch auf eine ähnliche TDP wie ein 4790K und taktet nur mit 3.0/3.2 GHz. Real sind die aber meist sparsamer als höher taktende Modelle.

Die 35W-Modelle machen aber schon einen größeren Sprung: Von den 2.2/3.2 GHz des i7-4785T gehts auf 2.8/3.6 GHz, bei gleichzeitig um sicherlich 15%, vielleicht 20% gesteigerter Leistung/Takt.

BlacKi
2015-04-23, 23:41:06
ob man einen "Non-K" wieder mit multi übertakten kann wie früher? dann hätte amd noch weniger dem entgegenzusetzen.

Skysnake
2015-04-23, 23:51:09
Und morgen kommt der Weihnachtsmann...

Hübie
2015-04-24, 03:00:20
X-D Hahahaaa... der is gut.

Intels Politik: you get what you pay for. Warum also ändern?

BlacKi
2015-04-24, 10:26:27
dann bin ich wohl jemandem auf den leim gegangen^^

http://www.tweakpc.de/news/34084/intel-skylake-prozessoren-mit-95-watt-tdp-und-bclk-overclocking/

rentex
2015-04-24, 13:21:52
Ich werd mir definitiv den 6700K holen. Drunter geht nix mehr...wer weiß, was bis März/April 2016 noch alles passiert...?

Duplex
2015-04-24, 13:42:30
Besser auf Skylake-E warten, 8 Kerne mit 5Ghz OC.

Nightspider
2015-04-24, 13:57:47
Besser auf Skylake-E warten, 8 Kerne mit 5Ghz OC.

:rolleyes:

Der kommt erst Ende 2017 oder gar später.

Da gibts dann schon lange Canonlake oder sogar dessen Nachfolger. Da kaufe ich mir lieber jetzt Skylake und mache denn einen einfach Upgrade auf Canonlake dank gleichem Sockel.

Skylake-E wird ebenso wie Haswell-E die meiste Zeit seiner Verfügbarkeit der Mainstream Plattform um 1-2 Generation hinterher hängen.

FlashBFE
2015-04-24, 14:42:59
Wie orientiert sich denn die CPU-Auslastung in Spielen? Eher am Turbo-Takt oder eher am Basistakt? Falls letzteres zutrifft, muss man sich ja quasi einen K-Prozessor leisten, denn die Basistaktunterschiede sind ja riesig zwischen K, "nix", und T bei gleicher Nummer. Die Nummern sagen da ja gar nichts mehr zur Leistung.

Mortalvision
2015-04-24, 15:21:12
Stell dir das so vor: du hast einen Hauptstrang. Den weist du Core 0 zu. Davon leiten sich 1-3, theoretisch x nebenstränge ab, z.b. GPU füttern, KI berechnen etc. Deren Ergebnisse laufen zum Hauptstrang zurück. Daher macht es Sinn, den Core 0 500 MHz oder so schneller laufen zu lassen.


Wie orientiert sich denn die CPU-Auslastung in Spielen? Eher am Turbo-Takt oder eher am Basistakt? Falls letzteres zutrifft, muss man sich ja quasi einen K-Prozessor leisten, denn die Basistaktunterschiede sind ja riesig zwischen K, "nix", und T bei gleicher Nummer. Die Nummern sagen da ja gar nichts mehr zur Leistung.

Leonidas
2015-04-24, 16:13:10
Wie gut abgesichert sind den die ~20% IPC-Steigerung von Skylake auf Haswell? Oder ist das im Moment mehr eine wilde Speku?


Bezieht sich hierauf:
http://www.3dcenter.org/news/benchmark-wert-zu-intels-skylake-sieht-vielversprechend-aus

Nuon
2015-04-24, 19:46:09
Da es zum Skylake noch keinen Thread gibt, mach ich jetzt einen auf ;)

Technologie: 14nm Transistoren, Sockel 1151, Z170/H170 Chipsatz (Sunrise Point)

CPU Portfolio:

Kerne Taktraten L3 Grafik Speicher TDP Listenpreis
Core i7-6700K 4 + HT 4.0/4.2 GHz 8 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i7-6700 4 + HT 3.4/4.0 GHz 8 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6600K 4 3.5/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 95W ?
Core i5-6600 4 3.3/3.9 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6500 4 3.2/3.6 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
Core i5-6400 4 2.7/3.3 GHz 6 MB ? DDR4/2133 & DDR3L/1600 65W ?
...kleinere Modelle folgen
(aus umfangreiche-modellinformationen-zu-intels-skylake-generation-aufgetaucht (http://www.3dcenter.org/news/umfangreiche-modellinformationen-zu-intels-skylake-generation-aufgetaucht))

RAM: UNIDIMM (http://en.wikipedia.org/wiki/UniDIMM), inkompatibel zu DDR3 und DDR4. UNIDIMMs können DDR3 oder DDR4 Chips tragen, die unterschiedliche Versorgungsspannung von 1.5V bzw. 1.2V wird durch Spawas auf den UNIDIMMS erzeugt.

Support für 20 PCI Express 3.0 lanes (LGA 1151)
Support für PCI Express 4.0 (Skylake-E/EP/EX) ab 2017

Launch: auf dem Intel Developer Forum (IDF) am 15. August 2015
aus: Skylake_microarchitecture (http://en.wikipedia.org/wiki/Skylake_%28microarchitecture%29)

seba86
2015-04-24, 20:46:20
Doch es gibt schon einen... (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=563068)

FlashBFE
2015-04-24, 22:31:53
Stell dir das so vor: du hast einen Hauptstrang. Den weist du Core 0 zu. Davon leiten sich 1-3, theoretisch x nebenstränge ab, z.b. GPU füttern, KI berechnen etc. Deren Ergebnisse laufen zum Hauptstrang zurück. Daher macht es Sinn, den Core 0 500 MHz oder so schneller laufen zu lassen.
Wie Multithreading funktioniert, ist schon klar. Die Frage sollte konkreter sein, welchen Takt die Prozessoren in Spielen eher halten können, Turbo oder Basistakt. Klar ist das pro Spiel unterschiedlich, aber wie du schon sagst gibt's ja unter DX11 den dicken Hauptthread und höchstens schlanke Nebenthreads. Bei meinem Nehalem ist es noch ganz einfach: Der dreht im Spiel zu seinem Nominaltakt hoch und bleibt da.

Ich will darauf hinaus: Wie wird das Leistungsverhältnis unter Spielen von 6700k zu 6700 sein? Eher 5% mehr oder eher 18% mehr?

Mortalvision
2015-04-24, 23:54:36
Die aaa-titel hängen ausgenommen krasse multiplayer matches doch eh alle im GPU limit. Also beträgt der Vorsprung dann genau null Prozent -.-

Wie Multithreading funktioniert, ist schon klar. Die Frage sollte konkreter sein, welchen Takt die Prozessoren in Spielen eher halten können, Turbo oder Basistakt. Klar ist das pro Spiel unterschiedlich, aber wie du schon sagst gibt's ja unter DX11 den dicken Hauptthread und höchstens schlanke Nebenthreads. Bei meinem Nehalem ist es noch ganz einfach: Der dreht im Spiel zu seinem Nominaltakt hoch und bleibt da.

Ich will darauf hinaus: Wie wird das Leistungsverhältnis unter Spielen von 6700k zu 6700 sein? Eher 5% mehr oder eher 18% mehr?

Kriton
2015-04-25, 00:08:29
Es soll ja auch Spiele geben bei denen die CPU gut zu tun hat (Strategie z.B.). Und minimum fps sind ja auch so eine Sache.

Timbaloo
2015-04-25, 00:13:44
Oder 120-144Hz mit geringeren Details...

Leonidas
2015-04-25, 04:52:16
Das passt schon. Der Diskussionthread zur News ist nicht für die allgemeine Diskussion da, sondern eher für Anmerkungen und Fehlermeldungen. Die Diskussion zur Architektur selber soll hier im Diskussionsforum stattfinden.

PS: Danke für den Hinweis mit dem UniDIMM. Wo gibt es die Bestätigung, daß die Dinger Pflicht werden?

BlacKi
2015-04-25, 13:49:36
wäre echt nice wenn ich meine ddr3 einfach weiter nutzen könnte bis ddr4 billiger sind als ddr3 XD

maximus_hertus
2015-04-25, 14:12:58
wäre echt nice wenn ich meine ddr3 einfach weiter nutzen könnte bis ddr4 billiger sind als ddr3 XD

Ich glaube das genau das nicht funktionieren wird.

Morpog
2015-04-25, 15:32:01
Würd sich bei meinen 1333er Riegeln eh nicht lohnen :D Immer her mit DDR4!
Aber vermutlich werd ich Skylake auch noch überspringen, dann passen die DDR4 Preise und es lohnt sich wirklich vom 2500K @ 4,5Ghz.

Knuddelbearli
2015-04-25, 16:37:18
ach die maximal 5% die man von 1066 auf 2400 gewinnt merkt eh kein schwein

tdon
2015-04-25, 16:41:52
Es sind deutlich mehr als 5%.

Nightspider
2015-04-25, 16:51:56
Die IGPs werden sich auf jeden Fall freuen aber bei CPU-Last bringt das doch quasi gar nichts oder?

Ravenhearth
2015-04-25, 16:55:52
Bei einigen Workloads vielleicht schon. Aber größer wäre der Vorteil sowieso bei mehr als 4 Kernen.

Knuddelbearli
2015-04-25, 17:02:01
Es sind deutlich mehr als 5%.

Wo den bitte im Schnitt?
Sofern nichts anderes geschrieben wird reden wir hier natürlich immer über Spiele das sollte einleuchten

tdon
2015-04-25, 17:17:19
Die IGPs werden sich auf jeden Fall freuen aber bei CPU-Last bringt das doch quasi gar nichts oder?


In pcars 15% zwischen 1600 und 2133. Kann man so pauschal eben nicht sagen. Wenn die GPU der erste Flaschenhals darstellt, wird es selten was bringen. Von DDR3-1066 ausgehend ist aber nochmal ein anderes Kaliber, damit will ich mein System nicht betreiben wollen.

Nightspider
2015-04-25, 17:18:36
Die meisten Sandy Brdige Besitzer dümpeln noch mit 1066er 1333erSpeicher rum und damit sind wir bisher auch weitestgehend zufriedenstellend gefahren. :D

Hübie
2015-04-25, 17:24:13
Eher 1333 ;) 1066 is nun wirklich selten anzutreffen. So kurzsichtig sind die wenigsten.

Edit: Trotzdem alles lahmarschig. Selbst DDR4 ist ein schlechter Scherz nach sovielen Jahren. Die DRAM Industrie is die nächste die mach den Panel-Herstellern ein auf den Sack bekommen muss.

robbitop
2015-04-25, 17:26:17
Zumal DDR3-1600 auch 2011 nicht sooo teuer war. Ich hatte damals schon 8 GiB DDR3 zu meinem 2500K.

Nightspider
2015-04-25, 17:27:24
Stimmt. Ich habe auch 1333er. Was hat das mit Weitsicht zu tun? RAM bringt in der Regel keine Mehrleistung und wir sehen ja wo das jetzt hinführt: der Nachfolger ist schon da.

y33H@
2015-04-25, 17:43:44
Besser 16 GB als 1333er als 8 GB als 2133er ;-) zumindest wenn man nur die CPU hernimmt und eine dGPU fährt.

Duplex
2015-04-25, 19:24:20
Der kommt erst Ende 2017 oder gar später.

Skylake-E kommt nächstes Jahr schon auf dem Markt.

kunibätt
2015-04-25, 23:04:26
Skylake-E kommt nächstes Jahr schon auf dem Markt.

Quelle oder Wunschdenken?

y33H@
2015-04-25, 23:18:27
BDW-E kommt wohl erst 2016, aber vll SKL-E noch 2016.

Ravenhearth
2015-04-25, 23:18:34
Da Broadwell-E erst Anfang 2016 kommt, erwarte ich Skylake-E auch nicht vor 2017. Wäre das nicht sonst zu knapp?

Duplex
2015-04-25, 23:27:20
Skylake wird bei gleichem Takt etwas weniger Strom als Broadwell benötigen.
Broadwell-E kann man sich sparen, den braucht Intel garnicht vermarkten,
Skylake befindet sich für den Mainstream bereits in Massenfertigung, Intel kann den Skylake-E ohne Probleme zwischen Q1-Q2 2016 vermarkten.

Ravenhearth
2015-04-26, 00:12:12
Warum sollte Skylake weniger Strom benötigen?

basix
2015-04-26, 09:53:23
Warum sollte Skylake weniger Strom benötigen?

Durch Fortschritt? :freak:

Also wenn Skylake nicht weniger wie Broadwell benötigt haben sie was vermurkst. Intel hat sich Mobile und Notebook ja auf die Fahne geschrieben. Der 14nm Prozess läuft bei Skylake schon einiges länger und auch Architektur mässig gibt es sicher Verbesserungen (IPC, Branch Prediction, Cache Zeugs, usw.)

Undertaker
2015-04-26, 10:14:44
Gerade weil die IPC steigt, ist imo kaum von einer sinkenden Leistungsaufnahme auszugehen. Die Effizienz kann sich ja trotzdem verbessern.

bananenmann
2015-04-26, 10:35:49
Skylake wird bei gleichem Takt etwas weniger Strom als Broadwell benötigen.
Broadwell-E kann man sich sparen, den braucht Intel garnicht vermarkten,
Skylake befindet sich für den Mainstream bereits in Massenfertigung, Intel kann den Skylake-E ohne Probleme zwischen Q1-Q2 2016 vermarkten.

Naja, jetzt kommt ja erst Broadwell-E im 1. Quartal 2016. Ich glaub auch, dass Skylake-E frühestens Ende 2016 oder gar Anfang 2017 kommt. Käme es schon im 1.-2. Quartal 2016 würden viele doch den regulätren Skylake auslassen und lieber gleich auch auf nen 6 Kerner umsteigen.

Ich habe ja noch nen I5-750 (4 x 2,66 Ghz) und warte sehnsüchtig darauf, um Ende des Jahres endlich aufzurüsten. Da ich sowieso CPU, Mainboard und auch Speicher (will DDR4) tauschen muss, bin ich in einem Dilemma: Nehme ich den stärksten Skylake (6700K) oder doch den kleinsten Sechskerner der Broadwell-E-Reihe. Vom Preis her, macht das höchstens 150-200 Euro mehr aus, was ich verschmerzen könnte - aber ich wollte eigentlich die neue Skylake Architektur. Dank DirectX 12 werden allerdings mehr Prozessorkerne ja scheinbar noch einen Extraschub bei Games kriegen, oder? Die E-Plattform bietet auch mehr Lanes und Quadchannel. Was würdet ihr mir denn raten? Was ist besser? Bis Ende 2016 oder später (Skylake-E) kann ich nicht mehr warten :)

robbitop
2015-04-26, 10:40:58
Die leistungsnormierte (performance) Leistungsaufnahme (elektrisch) sollte besser werden. Allein schon aufgrund der Designregel von Intel, dass jedes Prozent an Leistung nur ein halbes Prozent mehr Leistungsaufnahme bedeuten darf. Hinzu kommt sicherlich ein weiter gereifter 14 nm Prozess.

tdon
2015-04-26, 12:46:08
Durch Fortschritt? :freak:

Also wenn Skylake nicht weniger wie Broadwell benötigt haben sie was vermurkst. Intel hat sich Mobile und Notebook ja auf die Fahne geschrieben. Der 14nm Prozess läuft bei Skylake schon einiges länger und auch Architektur mässig gibt es sicher Verbesserungen (IPC, Branch Prediction, Cache Zeugs, usw.)


Genau deswegen kann der Verbrauch steigen je nach SKU. Mobile und Desktop muss man eh unterschiedlich betrachten.

nordic_pegasus
2015-04-26, 13:24:26
kann mir mal jemand erklären, was es mit diesen UniDIMM auf sich hat bzgl. Skylake und DDR3L/DDR4 Kompatibilität. Wenn ich die Wikipedia-Artikel zu UniDIMM und DDR4 richtig verstehe, geht es hier um DDR4 bzw. DDR3L SO-DIMM Module (also Notebook-Speicher).

http://en.wikipedia.org/wiki/UniDIMM
UniDIMM is a SO-DIMM form factor...

http://en.wikipedia.org/wiki/DDR4_SDRAM
For the Skylake microarchitecture, Intel also designed a SO-DIMM package named UniDIMM, which can be populated with either DDR3 or DDR4 chips....

Muss ich mir das so vorstellen, dass Mainboards für Skylake-S mit DDR3/DDR4 Unterstützung nur SO-DIMMs aufnehmen können? Ich hoffe, dass dann mehrheitlich DDR4 only Boards auf den Markt kommen mit normalen DDR4 DIMM-Slots. Da finde ich den klaren Schnitt bei Haswell-EP zu DDR4 (ohne DDR3 Fallback) konsequenter. Ich sehe schon Skylake Boards mit DDR3 only, DDR4 only, UniDIMM und Hybride mit DDR3 plus DDR4 DIMMs den Markt überschwemmen.

Mortalvision
2015-04-26, 13:33:53
Schade, dass man den normalen ddr3 nicht weiter nutzen kann...

Undertaker
2015-04-26, 14:20:38
Allein schon aufgrund der Designregel von Intel, dass jedes Prozent an Leistung nur ein halbes Prozent mehr Leistungsaufnahme bedeuten darf.

Afair galt das nur bei Atom, nicht bei den großen Cores.

robbitop
2015-04-26, 14:24:45
Afair galt das nur bei Atom, nicht bei den großen Cores.
Gilt laut Anand auch bei den großen Cores. Habe ich in etlichen Core Pre/Reviews schon gelesen.

Ergibt auch Sinn - die Leistung pro Watt ist auch beiden großen Cores massiv gestiegen.
Insbesondere bei Notebooks (z.B. Macbooks) sieht man das - die sind schneller geworden und haben bei gleichem Case/Akku sogar deutlich höhere Akkulaufzeiten. Auch Core M zeigt das.

Auch Haswell. 77 W für > 4 GHz. Leistungsnormiert würden Sandy einfach nur weinen. Selbst wenn man den Takt runter nimmt.

Ravenhearth
2015-04-26, 14:53:47
Auch Haswell. 77 W für > 4 GHz. Leistungsnormiert würden Sandy einfach nur weinen. Selbst wenn man den Takt runter nimmt.

Devil's Canyon hat 88W TDP.

Aber es stimmt schon. Bei vielleicht 1/3 mehr IPC als Sandy erreicht selbst ein i7-6700T mit 35W TDP (2.8/3.6) mehr Leistung als ein i7-2700K mit 95W.

robbitop
2015-04-26, 14:57:03
Stimmt - aber wie du schon sagst - meine Aussage bleibt bestehen. ;)

IMO ist Core M ein sehr schönes Beispiel. Der packt im Macbook 2015 laut Anand ~ die Leistung eines 15 W Sandy Bridges (MBA2011) - und das mit 4,5 W. Die Drittelung der Leistungsaufnahme kommt dabei nicht nur aus den reinen Shrinks sondern auch aus der massiv höheren Perf/W des Designs.

Lowkey
2015-04-26, 14:57:44
Wenn man die News richtig ließt, dann:

1. Broadwell Vorstellung zum 2. Juni und anschließende Lieferung
2. Skylake Vorstellung zum 15. August
3. Skylake Mainboards wahlweise mit DDR3L (1.2v bei 1600 Mhz) oder Mainboard direkt mit DDR4.
4. Broadwell läuft nur auf z97/h97 Mainboards und nicht auf z87/h87/H81/B85 Mainboards?

robbitop
2015-04-26, 15:00:46
Ich kann es nicht nachvollziehen, warum man Broadwell überhaupt noch bringt, wenn man Skylake nicht verschiebt.

Entweder hätte man Broadwell im Desktop weglassen können, oder aber sich eine Pause gönnen können und die gesamte Roadmap um die Verspätung von Broadwell nach hinten schieben.

Ravenhearth
2015-04-26, 15:07:53
Sind halt nur zwei Spezialmodelle mit Iris Pro. Vielleicht kommt Skylake mit Iris Pro nicht vor 2016... aber viel Sinn macht es tatsächlich nicht, zumal Skylake eine GT4 bekommt.

robbitop
2015-04-26, 15:20:43
Iris Pro ist im Desktop doch für die meisten total uninteressant. Im Ultrabookbereich hingegen spielt das eine Rolle.

reaperrr
2015-04-26, 17:16:03
Ich kann es nicht nachvollziehen, warum man Broadwell überhaupt noch bringt, wenn man Skylake nicht verschiebt.

Entweder hätte man Broadwell im Desktop weglassen können, oder aber sich eine Pause gönnen können und die gesamte Roadmap um die Verspätung von Broadwell nach hinten schieben.

Och, ein paar Gründe fallen mir da schon ein.

Hauptgrund: Broadwell passt in den gleichen Sockel wie Haswell, hat eine leicht höhere IPC und einen geringeren Stromverbrauch, eignet sich also als Upgrade für Haswell-Besitzer, die den Rest des Systems so lassen wollen.

Skylake wird der TDP nach eher so viel wie Haswell verbrauchen (zumindest die K-Modelle) und benötigt ein neues Board.

tdon
2015-04-26, 17:22:31
Für viele wäre es ein Downgrade in der Leistung.

Ravenhearth
2015-04-26, 17:37:05
Ein i5-6600K müsste eigentlich noch in 65W passen, tut der i7-6700 mit ähnlichen Frequenzen ja auch. Und daran gemessen dürfte der i5-6700K auch eher bei max. 84W liegen. Imho haben die beiden K-Modelle eine 95W-TDP, weil sie sich übertakten lassen.

Ravenhearth
2015-04-26, 19:13:07
http://www.pcfrm.com/intel-i7-6700k-vs-i7-4790k/


Im Cinebench ist der i7 und i5 15% schneller im Vergleich zum schnellsten Haswell i5/i7 wenn das stimmt. Bei den Game Benchmarks muss jemand mit Erfahrung ran.

http://us.hardware.info/reviews/5446/13/intel-core-i7-4790k--i5-4690k-devils-canyon-review-haswell-for-overclockers!-benchmarks-igpu-cinebench-115

In den Spiele-Benchmarks legt Skylake leider kaum oder gar nicht zu - könnte sich da aber auch im GPU-Limit befinden.

robbitop
2015-04-26, 19:14:03
Och, ein paar Gründe fallen mir da schon ein.

Hauptgrund: Broadwell passt in den gleichen Sockel wie Haswell, hat eine leicht höhere IPC und einen geringeren Stromverbrauch, eignet sich also als Upgrade für Haswell-Besitzer, die den Rest des Systems so lassen wollen.

Skylake wird der TDP nach eher so viel wie Haswell verbrauchen (zumindest die K-Modelle) und benötigt ein neues Board.
Ja klar - wegen 5 % mehr Leistung aufrüsten :freak:

robbitop
2015-04-26, 19:18:23
*del*
Warum hast du den Link gelöscht?
http://www.overclock3d.net/articles/cpu_mainboard/intel_skylake_i7_performance_figures_leaked_and_pictured/1

Mich wundert immer, warum die Leaker zu blöd zum Benchmarken sind. Wenn ich die Leistung einer Komponente messen will, dann doch bitte ohne Einfluss von anderen Komponenten. -> Auflösung auf Minimum bei Spielen.

Cinebench 15 % mehr Leistung und in Spielen 5...7 %. Kann aber sein, dass da die GPU schon mit reingreift.

Nightspider
2015-04-26, 19:18:45
nvm

Duplex
2015-04-26, 19:25:04
Nach Sandy Bridge hat sich nicht mehr viel getan bei Intel, hoffentlich kann Skylake durch IPC & Takt 25-30% drauflegen.

Knuddelbearli
2015-04-26, 19:28:07
Naja frage ist auch was OC geht.
Bin ja ( scheinbar ) einer der wenigen Glücklichen mit nem 5ghz sandy. Wegen Mainboard Probleme würde ich aber doch ganz gerne mal wechseln, aber min 40% Singlecore sollten es da. Glaube das bleibt wohl noch länger unrealistisch ...

robbitop
2015-04-26, 19:28:10
@Duplex
Taktraten sind doch längst bekannt. 6700K hat 4/4,2 GHz. IPC scheint eher im Bereich von 15 % (ggü HSW) zu sein. Zumindest wenn man den "Benchmarks" in dem Link glauben kann. In Spielen sind es dort ca. 5 %. Aber wer weiß, ob die GPU dort nicht schon limitiert hat.

tdon
2015-04-26, 19:30:52
Warum hast du den Link gelöscht?
http://www.overclock3d.net/articles/cpu_mainboard/intel_skylake_i7_performance_figures_leaked_and_pictured/1



Ist doch schon längst bekannt.

Hübie
2015-04-26, 19:37:53
Warum hast du den Link gelöscht?
http://www.overclock3d.net/articles/cpu_mainboard/intel_skylake_i7_performance_figures_leaked_and_pictured/1

Mich wundert immer, warum die Leaker zu blöd zum Benchmarken sind. Wenn ich die Leistung einer Komponente messen will, dann doch bitte ohne Einfluss von anderen Komponenten. -> Auflösung auf Minimum bei Spielen.

Cinebench 15 % mehr Leistung und in Spielen 5...7 %. Kann aber sein, dass da die GPU schon mit reingreift.

Nennt sich real world performance und ist auch interessant ;) Muss ja nix aufrüsten wenns in meinen Settings keinen Vorteil bringt. Bin immer dankbar wenn jemand auch mal so testet wie man zockt ;)
Aber ohne frameverlauf und frametimes taugt kein Test.

robbitop
2015-04-26, 19:40:44
Klar dann sollte man zukünftig GP100 am besten in FullHD testen, wenn jemand die Karte als Leaker in die Hände bekommt. Da freuen sich alle, weil sie nicht schneller ist als GM200 weil die CPU limitiert - aber hauptsache man weiß wie man zockt. ;)

Wenn ich einen Leak sehe, will ich wissen, wieviel schneller die Komponente als eine bereits bekannte Komponente ist. Und zwar ohne Fremdeinflüsse. Alles andere kann man sich daraus rekonstruieren.

Knuddelbearli
2015-04-26, 19:50:20
Finde beides ist Mist

Ein richtiger Test zeigt die fordernsten Spiele in einer fordernden Szene mit normalen Einstellungen.

Deshalb mag ich HT4U. Spiele ohne Ende! und das ( ok bei CPU egal aber bei GPUs wichtig ) mit aktuellen Treibern!

robbitop
2015-04-26, 19:52:35
Wenn's um nen Leak mit nur wenigen Benchmarks geht, wäre es erstmal sinnvoll zu erfahren, wieviel schneller die Komponente ist. Verfälschte "Realworld" Performance kann man ja dann noch in echten Artikeln lesen.

Duplex
2015-04-26, 20:18:20
Taktraten sind doch längst bekannt. 6700K hat 4/4,2 GHz. IPC scheint eher im Bereich von 15 % (ggü HSW) zu sein. Zumindest wenn man den "Benchmarks" in dem Link glauben kann. In Spielen sind es dort ca. 5 %. Aber wer weiß, ob die GPU dort nicht schon limitiert hat.
Dann werde ich auch Skylake auslassen und mein 2700k behalten, mal sehen was dann ende nächtes Jahr in 10nm kommen wird.

Nuon
2015-04-26, 20:21:34
kann mir mal jemand erklären, was es mit diesen UniDIMM auf sich hat bzgl. Skylake und DDR3L/DDR4 Kompatibilität. Wenn ich die Wikipedia-Artikel zu UniDIMM und DDR4 richtig verstehe, geht es hier um DDR4 bzw. DDR3L SO-DIMM Module (also Notebook-Speicher).

http://en.wikipedia.org/wiki/UniDIMM


http://en.wikipedia.org/wiki/DDR4_SDRAM


Muss ich mir das so vorstellen, dass Mainboards für Skylake-S mit DDR3/DDR4 Unterstützung nur SO-DIMMs aufnehmen können? Ich hoffe, dass dann mehrheitlich DDR4 only Boards auf den Markt kommen mit normalen DDR4 DIMM-Slots. Da finde ich den klaren Schnitt bei Haswell-EP zu DDR4 (ohne DDR3 Fallback) konsequenter. Ich sehe schon Skylake Boards mit DDR3 only, DDR4 only, UniDIMM und Hybride mit DDR3 plus DDR4 DIMMs den Markt überschwemmen.

So wie es aussieht, werden die Skylake Boards nur UniDIMMs unterstützen.
UniDIMMs haben dieselbe Pinanzahl wie DDR4-DIMMs und sind genauso groß, sind aber mechanisch inkompatibel, da die Kodierungsnut an einer anderen Stelle sitzt.
UniDIMMs können DDR3 und DDR4 Chips tragen und werden durch einen on-DIMM Spawa mit 1.2V bzw. 1.5V versorgt.

Hübie
2015-04-26, 20:26:38
Klar dann sollte man zukünftig GP100 am besten in FullHD testen, wenn jemand die Karte als Leaker in die Hände bekommt. Da freuen sich alle, weil sie nicht schneller ist als GM200 weil die CPU limitiert - aber hauptsache man weiß wie man zockt. ;)

Wenn ich einen Leak sehe, will ich wissen, wieviel schneller die Komponente als eine bereits bekannte Komponente ist. Und zwar ohne Fremdeinflüsse. Alles andere kann man sich daraus rekonstruieren.

Jetzt drifte doch nicht absurd ab. Man spielt nun mal mindestens in FHD und meistens eben Ultra oder was immer geht. Und da muss man halt auch ein Auge drauf werfen. Ich sage ja nicht dass man nur so testen muss / soll :rolleyes:
Und ausserdem bleibt auf die Art die Spannung länger erhalten was wohl auch im Sinne eines leakers ist.

robbitop
2015-04-26, 20:30:11
Ein Vergleich mit Fremdeinflüssen bietet nun mal keine sinnvolle Einschätzung.

Die Analogie mit GP100 ist exakt was sie ist - eine Analogie. Und ja sie ist absurd. Genauso absurd wie ein CPU Test mit GPU Einfluss. Sowas kann man zusätzlich machen.

Aber genug davon. Zurück zum Thema.

Ravenhearth
2015-04-26, 23:03:41
Warum hast du den Link gelöscht?


Wurde schon vor paar Tagen gepostet, die wärmen das nur auf.

Leonidas
2015-04-27, 06:06:28
So wie es aussieht, werden die Skylake Boards nur UniDIMMs unterstützen.
UniDIMMs haben dieselbe Pinanzahl wie DDR4-DIMMs und sind genauso groß, sind aber mechanisch inkompatibel, da die Kodierungsnut an einer anderen Stelle sitzt.
UniDIMMs können DDR3 und DDR4 Chips tragen und werden durch einen on-DIMM Spawa mit 1.2V bzw. 1.5V versorgt.


Läßt sich das irgendwo verifizieren?

Dies würde ja bedeuten, daß der normale DDR4-Speicher, der derzeit für Haswell-E am Markt ist, nicht für Skylake verwendet werden könnte. Klingt unwahrscheinlich.

Sunrise
2015-04-27, 09:25:51
Der eigentliche Hit im neuen Skylake-Lineup ist für mich der i7 6700T, 4 Cores 8 Threads, 2.8GHz Basis- und 3.6GHz OC-Takt, mit den vollen 8MB Cache bei gerademal 35W TDP. Ja, ich musste auch zweimal hinschauen. Das Ding ist absolut perfekt für einen HTPC, der auch Live-Transkodierung und andere Aufgaben durchführen könnte.

Zuhause noch einen i7 920 Nehalem mit 2.66GHz bei 130W TDP im Einsatz (OC auf 4GHz). Unglaublich, was heute möglich ist. Da sieht man mal, dass Intel alles daran setzt energieeffizienter zu werden, der Rest ist eher eine Randerscheinung.

Ich will auch nicht wissen, was für ein OC-Potential das Ding hätte, wäre das Teil unlocked.

Ravenhearth
2015-04-27, 12:26:05
Das Ding dürfte selbst mit dem niedrigen Standard-Takt schneller als dein übertakteter 920 sein. :D

Edit: Man kann sich doch auch einfach einen i7-6700K kaufen und ihn runtertakten sowie undervolten. Der dürfte dann ähnlich effizient sein, kann aber bei Bedarf sogar übertaktet werden.

Tesseract
2015-04-27, 13:13:00
Läßt sich das irgendwo verifizieren?

Dies würde ja bedeuten, daß der normale DDR4-Speicher, der derzeit für Haswell-E am Markt ist, nicht für Skylake verwendet werden könnte. Klingt unwahrscheinlich.

kann ich mir absolut nicht vorstellen. ich gehe eher davon aus, dass UniDIMMs auf den laptop-platinen der standard wird wärend man am desktop wahrscheinlich fast ausschließlich normalen DDR4 sehen wird.

Botcruscher
2015-04-27, 13:36:04
Zuhause noch einen i7 920 Nehalem mit 2.66GHz bei 130W TDP im Einsatz (OC auf 4GHz). Unglaublich, was heute möglich ist. Da sieht man mal, dass Intel alles daran setzt energieeffizienter zu werden, der Rest ist eher eine Randerscheinung.

Das sind 8 Jahre oder die Zeit zwischen den letzten Pentium 2 und einem C2D. Beindruckend geht anders.

Pixelmonk
2015-04-27, 13:53:29
Unglaublich, was heute möglich ist. Da sieht man mal, dass Intel alles daran setzt energieeffizienter zu werden, der Rest ist eher eine Randerscheinung.


Yep, wenn man noch einen alten Rechner hat der den ganzen Tag läuft, dann kann es sich finanziell lohnen auf ein aktuelles Intel-system umzurüsten.

Mein alter Rechner mit Intel e6750 und zwei Grafikkarten (vier Monitore) hat im idle-state ~140Watt gezogen.

Mein jetztiger Rechner mit Haswell (4690k) CPU und einer Grafikkarte (750 ti, vier Monitore) zieht nur 43Watt im idle. Selbst beim arbeiten mit Java- und Flash-anwendungen zieht er nicht mehr als 50Watt.

Mein Rechner läuft ~10h am Tag, bei Stromkosten von 0,28€ pro kWh, spar ich ~100€ Stromkosten pro Jahr.

Das sind 8 Jahre oder die Zeit zwischen den letzten Pentium 2 und einem C2D. Beindruckend geht anders.


Ich find den geringen Stromverbrauch schon beeindruckend (auch bei den Grafikkarten).
Klar, noch weniger geht immer, aber so eine Stromkosten-ersparniss wird man in Zukunft nicht mehr haben, wenn man von einem aktuellen Intel-system umrüstet.

HOT
2015-04-27, 14:06:11
Zu Zeiten vom C2D haben Grafikkarten maximal 135W gebraucht... da wir jetzt fröhlich an den 300W kratzen ist das wohl kaum energieeffizienter. Nur die Powermanagementmechanismen werden immer ausgefeilter.
Die geringen Leistungszuwächse bei den CPUs werden natürlich auch mit geringerem Strombedarf einhergehen, finde ich logisch den Zusammenhang. Wenn man mehr Leistung bietet wirds auch weider "teuer" im Energiebedarf, siehe die E(P)-Prozessoren.

Pixelmonk
2015-04-27, 14:21:18
Zu Zeiten vom C2D haben Grafikkarten maximal 135W gebraucht...


Ich bezog mich auf den idle-Verbrauch. Meine damaligen Grafikkarten (8800gt und später 9800gtx+) haben mit zwei Monitoren jeweils ~40Watt idle verbraucht. Meine jetztige 750 ti braucht nur 8Watt im idle mit zwei Monitoren. Und selbst unter Last braucht die Karte maximal 60Watt bei einer vielfachen Leistung der alten Karten.

nordic_pegasus
2015-04-27, 19:01:34
kann ich mir absolut nicht vorstellen. ich gehe eher davon aus, dass UniDIMMs auf den laptop-platinen der standard wird wärend man am desktop wahrscheinlich fast ausschließlich normalen DDR4 sehen wird.

nochmal meine Ausgangsfrage: was für Speichermodule können in diese UniDIMMs gesteckt werden? SO-Module oder normale Module? Wenn UniDIMM wirklich für SO-Module ausgelegt ist, dann werden wir Skylake für Retail Desktop nur mit DDR4 sehen und DDR3L Lösungen für OEM (und Combo-Boards von Asrock ;) ).

Nuon
2015-04-27, 19:30:57
Läßt sich das irgendwo verifizieren?

Dies würde ja bedeuten, daß der normale DDR4-Speicher, der derzeit für Haswell-E am Markt ist, nicht für Skylake verwendet werden könnte. Klingt unwahrscheinlich.

Leider nicht, der Eintrag im Wiki (http://en.wikipedia.org/wiki/Skylake_%28microarchitecture%29) lautet:

Support for both DDR3 SDRAM and DDR4 SDRAM in mainstream variants, using custom UniDIMM SO-DIMM form factor[22][23][24] with up to 64 GB of RAM on LGA 1151 variants.

Aber da nur SO-DIMMs erwähnt werden, könnte der UniDIMM Standard wirklich nur Notebooks betreffen, wobei die "LGA 1151 Variants" eher nicht im Notebook anzutreffen sind.

Bei diesem LGA1151 Mobo (http://wccftech.com/asrock-unveils-lga-1151-socketed-motherboard-featuring-support-6th-generation-skylake-processors/) sind SO-DIMM Sockel verbaut, die leider nicht genauer beschrieben sind "DDR3L 1600 MHz memory", es könnten UniDIMMs sein.

Mills
2015-04-28, 03:50:14
http://www.3dcenter.org/news/erste-benchmarks-zu-skylake-serienmodellen

Das sieht derzeit echt mager aus... :mad:

Nightspider
2015-04-28, 04:19:48
http://www.3dcenter.org/news/erste-benchmarks-zu-skylake-serienmodellen

Das sieht derzeit echt mager aus... :mad:

Informier dich mal in den Kommentaren zu diesem Artikel.

Mills
2015-04-28, 06:14:56
Dort sehe ich eigentlich nur missionarischen Eifer und seltsamen Tonfall deinerseits. :cool:
ICH hatte mir von der neuen Architektur mehr versprochen. Nix weiter. Und die bisherigen wenigen Zahlen sehen nun mal mMn mager aus. Weniger Verbrauch bestimmt, und vielleicht auch bessere Ütaktbarkeit, aber sollten sich diese ersten "Benches" bewahrheiten dann gibts für meinen Geschmack einmal mehr ziemlich wenig Performance-Zuwachs, noch dazu teuer erkauft mit DDR4. ;)

y33H@
2015-04-28, 09:14:29
Also zumindest die ersten Z170-Boards kommen mit DDR4 und kein UniDIMM.

51760

Sunrise
2015-04-28, 09:19:15
Jup, hätte mich auch stark gewundert. Das ganze macht in kostensensitiveren Bereichen evtl. Sinn und dort, wo Aufrüstungen sowieso nicht gängig bzw. nötig sind.

Hier steht etwas mehr dazu:
http://wccftech.com/colorful-unveils-skylake-z170-chipset-based-motherboards-features-socket-lga-1151-officially-launching-september/

Jupiter
2015-04-28, 10:59:11
Da wird wohl DX12 theoretisch einen größeren Performance-Zuwachs bringen können. Ich hätte zwar nicht umgerüstet, doch erschreckend bleibt die "Entwicklung" dennoch. iGPU interessiert mich nicht (was auch immer das mit einer GPU nützen soll).

N0Thing
2015-04-28, 11:06:35
Eine kleine iGPU für die Bildausgabe finde ich als Backup nicht schlecht. Lieber wäre mir auch eine CPU mit mehr Kernen statt großer iGPU, aber die Kasse wird inzwischen eben im Notebook-Sektor gemacht und dafür sind die aktuellen Intel-CPUs ziemlich ideal konzipiert.

tdon
2015-04-28, 12:10:49
ICH hatte mir von der neuen Architektur mehr versprochen. Nix weiter. Und die bisherigen wenigen Zahlen sehen nun mal mMn mager aus. ;)


Keine Ahnung auf was du dich genau beziehst. Wenn das wirklich 15% mehr IPC werden, sollte man froh sein. Mehr hat Sandy Bridge auch nicht mitgebracht, nur hatte diese Nehalem als Vorgänger mit geringeren Frequenzen. Das Taktpotenzial ist so gut wie ausgeschöpft bei den oberen Modellen, nur für mobile gibt es immer noch Luft.

robbitop
2015-04-28, 12:20:20
15 % wären schon super. Ich bin gespannt, ob das auch bei Spielen ankommt.

BlacKi
2015-04-28, 15:16:54
ICH hatte mir von der neuen Architektur mehr versprochen. Nix weiter. Und die bisherigen wenigen Zahlen sehen nun mal mMn mager aus.

wenn man die benches so nimmt was sie wirklich aussagen, dann sieht das noch nichtmal schlecht aus: im gpu limit ist der 6700k schneller als der 4790k.


lass doch mal beide ins cpu limit rennen, dann zieht der 6700k den 4790k erst richtig über den tisch beim tauziehen (meine meinung). aber mehr wie 20% werden es wohl nicht sein. so sieht man in den spiel benches leider nichts verwertbares in bezug darauf was die cpu leisten kann.

Loeschzwerg
2015-04-28, 17:03:50
Also zumindest die ersten Z170-Boards kommen mit DDR4 und kein UniDIMM.

51760

Was ich bis jetzt an normalen Skylake Systemen gesehen habe ist definitiv DDR4. UniDIMM ist lediglich eine Variante von SO-DIMM.

Wie sehr man auf die Benches was geben kann, keine Ahnung... Wirklich stabil laufen die Systeme zumindest noch nicht, aber das ist so lange vor dem Launch auch kein Wunder.

dargo
2015-04-29, 08:58:05
http://www.3dcenter.org/news/erste-benchmarks-zu-skylake-serienmodellen

Das sieht derzeit echt mager aus... :mad:
Jup... aber wen wundert das bei Intel? Die Salamitaktik wird doch schon seit Jahren gefahren. Was ich wieder zum Kotzen finde... selbst bei Skylake lässt Intel keinen Sixcore im Mainstream/Performance Sockel zu wovon einige hier geträumt, ähm... sich erhofft haben. Das ist für mich die größte Enttäuschung und deshalb ist Skylake für mich einfach nur *gähn*. Gott sei Dank kommt bald D3D12. Viel interessanter als die CPU-Architekturen von Intel. :cool:

kunibätt
2015-04-29, 09:16:46
Bringt sicher viel bei Anwendungen.....

dargo
2015-04-29, 09:32:18
Bringt sicher viel bei Anwendungen.....
Was denn? D3D12? Hier gehts doch eh den meisten um Spieleperformance. Wer Leistung in Anwendungen braucht der hat doch schon längst einen SB-E/IB-E oder Haswell-E mit 12-16 Threads in seinen Rechner. Den interessiert doch Skylake nicht die Bohne. Allerhöchstens wenn man jede gewonnene Sekunde in Geld ummünzen kann. Dann aber erst mit Skylake-E.

fondness
2015-04-29, 10:57:15
Nachdem der Takt bestenfalls stagniert, offensichtlich sogar leicht sinkt wären 15% IPC-Gewinn schon fast notwendig.

kunibätt
2015-04-29, 12:56:08
Klar. Man hätte seit 2011 auch gar nichts mehr releasen müssen und hätte trotzdem die besten Cpus. Go figure;D

fondness
2015-04-29, 13:11:15
Man will ja auch bestehende Kunden zum umrüsten animieren, das geht nicht wenn man seit 2011 nicht neues mehr bringt.

Mills
2015-04-30, 00:35:15
Man will ja auch bestehende Kunden zum umrüsten animieren, das geht nicht wenn man seit 2011 nicht neues mehr bringt.
Erklär-Bär? :D So superernst war sein Posting offensichtlich nicht gemeint. ;)

CountDoku
2015-04-30, 21:00:04
40 Prozent IPC Gewinn gegenüber Sandy ist schon was (Meine Prognose) dazu DDR4 Ram und ne Plattforn ohne Zusatzchips. Skylake so schnell wie der aktuelle Haswell 6 Kerner. Alles richtig gemacht, Intel!

Ravenhearth
2015-05-01, 02:14:25
Höh? Wieso ohne Zusatzchips?

rentex
2015-05-01, 10:57:31
Er meinte wohl, USB, NVMe usw...40% sind auch genug Steigerung...was die Leute immer erwarten?

Duplex
2015-05-01, 11:54:27
Gegenüber Haswell sind es vielleicht nur 10-15% bei gleichem Takt.
Sandy Bridge gibt es schon mehr als 4 Jahre...
Beim OC hat Intel seit 22nm ein großen Rückschritt gemacht, besonders weil viele die CPUs seit Ivy Bridge köpfen müssen um vernünftige OC Ergebnisse zu haben.

Lowkey
2015-05-01, 11:58:58
Gegenüber Haswell sind es vielleicht nur 10-15% bei gleichem Takt.

Und dazu bei dem Modellen eine Taktsenkung ergeben vermutlich am Ende nur 5%.

Im theoretischem Einzelvergleich bei gleichem Takt (Vorsicht: Betrieb außerhalb der Specs, auch Übertaktung genannt) sind es dann sicherlich mehr als 5%, aber im Mittel bestimmt keine 10%.

Was dann hinzukommt ist DDR4 bzw. heute sind ja 1600 Mhz genug, aber mit Skylake sind 2133 Mhz auf einmal "toll". Das wird sich hier und da sicherlich deutlich zeigen (BFH).

Am Ende wird Skylake ein gutes Produkt, dass mangels Konkurrenz besser sein könnt.

robbitop
2015-05-01, 12:40:16
IIRC
Haswell -> Sandy 12 % (Spieledurchschnitt - gibt aber hin und wieder Ausreißer)
Skylake -> Haswell 15 % (wenn es wirklich so kommen sollte - in den geleakten Spielebenches waren es 7 %)

-> 28 % IPC Gewinn gegenüber Sandy. Bei offenbar nicht besserer Taktbarkeit. Spürt man immerhin ohne es zu messen.

Nightspider
2015-05-01, 15:04:41
Viele Games dürften 15 bis 30 % zeigen von Sandy auf Skylake. Ein paar CPU hungrige Games 30-40% und Extremfälle 50% und mehr ist meine Einschätzung.

Im Mittel scheint die Steigerung von Broadwell und Skylake etwas über Ivy und Haswell zu liegen.
Es arbeitet ja auch das fähigste Team von Intel an Skylake.

Duplex
2015-05-01, 15:27:15
Von Core2 auf Nehalem war der IPC Sprung sogar 30%, das war der letzte größere Sprung von Intel.

"Haifa", das fähigste Team? Würde ich so nicht sagen, die haben damals halt bewiesen was man aus dem P3 machen kann.

Core2 > Nehalem +30% > Sandy Bridge > +15% > Haswell +15% > Skylake 15%?
Die Zeiten wo man die IPC noch über 30% Steigern konnte sind seit Nehalem Zeiten schon vorbei.

Tesseract
2015-05-01, 15:35:03
vor allem war damals tick+tock+offene multis in einem sprung - da kam einfach viel zusammen was nicht direkt mit der architektur zusammen hängt.

robbitop
2015-05-01, 16:06:57
Ich denke auch dass Haifa überhypt bzw Oregon kleingeredet wird.

Sunrise
2015-05-01, 20:53:25
https://software.intel.com/sites/default/files/managed/48/ce/mediasdk_release_notes.pdf

MFX_PLUGINID_HEVCE_HW
plugin UID added for Skylake HEVC encode in mfxplugin.h

Skylake wird HW HEVC/H.265 Encode unterstützen. Man kann somit davon ausgehen, dass auch endlich HW HEVC/H.265 Decode unterstützt wird.

Coda
2015-05-01, 20:54:55
Checklistenfeature. Solange niemand die Qualität testet mistraue ich jedem HW-Encoder.

Sunrise
2015-05-01, 20:57:53
Checklistenfeature. Solange niemand die Qualität teste mistraue ich jedem HW-Encoder.
Wird wohl auf ähnlichem Level wie der H.264 Encoder sein, da darf man keine Wunder erwarten. Besser als nichts. Bei Qualität geht sowieso nichts an SW vorbei.

tdon
2015-05-01, 21:07:29
Haswell war schon recht gut im LA_ICQ Modus, Broadwell soll nochmal deutlich bessere Qualität bieten laut Intel (hat leider niemand kompetentes getestet bislang). Skylake wird bestimmt noch eins drauf legen. Bei H.265 von Intel muss man mal sehen. x265 fand ich enttäuschend. Das war teils schlechter als x264. Das steckt noch in den Kinderschuhen. Außerdem läuft das extrem langsam auf der CPU.

Sunrise
2015-05-01, 21:19:27
x265 fand ich enttäuschend. Das war teils schlechter als x264. Das steckt noch in den Kinderschuhen. Außerdem läuft das extrem langsam auf der CPU.
Ja, x265 is aktuell ziemlich enttäuschend, das wird sich über die Zeit aber hoffentlich noch stark verbessern. Auch x264 war ja am Anfang sogar noch Xvid unterlegen, bis hier enorme Mengen Arbeit reingesteckt wurden.

Und da x265 aktuell auch noch extrem langsam ist und die CPU maximal auslastet, mit teils einstelligen FPS bei annehmbarer Qualität, bin ich mal gespannt, ob die erste Intel-Implementation hier auf einem annehmbaren Level ist. Wäre dann immerhin in Echtzeit ohne nennenswerte CPU-Last.

aufkrawall
2015-05-01, 21:25:47
Man kann somit davon ausgehen, dass auch endlich HW HEVC/H.265 Decode unterstützt wird.
Aber das tut doch schon Haswell.

tdon
2015-05-01, 21:28:03
Nicht in Hardware (Quicksync), sondern Hybrid GPU+CPU. Richtig effizient und schnell wird das erst in Hardware mit Quicksync.

aufkrawall
2015-05-01, 21:31:08
Möglich, dass es eine Hybrid-Lösung war. Quicksync ist das aber gewissermaßen auch bzw. es fällt einiges an CPU-Overhead an.
Nativ wäre per DXVA2.
Edit: Außer natürlich, der QS-Dekoder würde DXVA-Frames ausgeben und es würden nur die ff-Einheiten genutzt werden.

StefanV
2015-05-01, 21:35:29
Wird wohl auf ähnlichem Level wie der H.264 Encoder sein, da darf man keine Wunder erwarten. Besser als nichts. Bei Qualität geht sowieso nichts an SW vorbei.
Und woher weißt du, dass bei dem Hardwaredecoder nicht 'gepfuscht' wird, um eine höhere Energieeffizienz zu erzielen??
Das kann und darf man ja auch nicht ausschließen!
Weil nicht die Rechenleistung ist wichtig sondern wie es am Ende ausschaut. Und da gibts z.T. doch einige Unterschiede...

...wobei die 'Videophilen' immer noch bei MPC-HC bleiben...

tdon
2015-05-01, 21:36:11
Möglich, dass es eine Hybrid-Lösung war. Quicksync ist das aber gewissermaßen auch bzw. es fällt einiges an CPU-Overhead an.
Nativ wäre per DXVA2.



Es ist nicht nur möglich, es ist so. Dabei wird die GPU oder besser gesagt EUs schon sehr stark ausgelastet. Der Verbrauch ist deswegen nicht zwangsläufig niedriger als CPU decoding only. Dafür weniger CPU Last, wobei für hoch aufgelöste und 60 fps HEVC Videos eine GT2 mit 20 EUs zu schwachbrüstig ist. Eine dedizierte Hardware Einheit sollte das Problem nicht mehr haben, die sind dafür viel effizienter und schneller.

aufkrawall
2015-05-01, 21:42:58
Der Verbrauch ist deswegen nicht zwangsläufig niedriger als CPU decoding only.
Schon mal in 4k HEVC-Video mit ansprechender Bitrate abgespielt? Das keult die CPU ordentlich bzw. es dürfte jeder Vierkerner zu langsam sein (spätestens mit 10 Bit Präzision).
Sicher, dass Hybrid bei Haswell = CPU + GPU ist und nicht nur die ALUs?

tdon
2015-05-01, 22:06:54
Schon mal in 4k HEVC-Video mit ansprechender Bitrate abgespielt? Das keult die CPU ordentlich bzw. es dürfte jeder Vierkerner zu langsam sein (spätestens mit 10 Bit Präzision).

Ja, alles schon probiert.


Sicher, dass Hybrid bei Haswell = CPU + GPU ist und nicht nur die ALUs?


Laut Intel ist es ein Hybrid aus CPU und GPU.

Nightspider
2015-05-01, 22:21:56
Müssten die IGPs nicht langsam mal schnell genug sein für HQ Decodierung und Encodierung, wenigstens in h.264 und in h.265 in angemessener Qualität? Warum baut man nicht wenigstens einen Qualitätssicherung ein?
Genauso traurig dass das aktuelle 1000 Euro Grafikkarten nicht können.

aufkrawall
2015-05-01, 23:00:35
Bei Decoding gibt es keine Qualitätsunterschiede.

Undertaker
2015-05-05, 12:17:15
Gilt laut Anand auch bei den großen Cores. Habe ich in etlichen Core Pre/Reviews schon gelesen.

Hast du dazu einen Link? Ich bin mir recht sicher, dass dies wirklich nur für Atom galt.

Ergibt auch Sinn - die Leistung pro Watt ist auch beiden großen Cores massiv gestiegen.

Stark dagegen spricht, dass vor allem die IPC stark gestiegen ist (auch im Vergleich zu AMD), was bei einem reinen Perf/Watt-Fokus wohl nicht so wäre. Übrigens: Airmont ist speziell bei Multithreading effizienter als Broadwell, ebenso wie Silvermont vs. Haswell. Eigentlich schon der Beweis dafür, dass IPC-Steigerungen ab einer gewissen Grenze nunmal ein wenig Effizienz kosten. Das ist bei ARM (Stichwort A7/A53) nicht anders.

Ravenhearth
2015-05-05, 12:26:12
Meanwhile it’s interesting to note that in keeping with Intel’s power goals for Broadwell, throughout all of this Intel put strict power efficiency requirements in place for any architecture changes. Whereas Haswell was roughly a 1:1 ratio of performance to power – a 1% increase in performance could cost no more than a 1% increase in power consumption – Broadwell’s architecture improvements were required to be at 2:1. While a 2:1 mandate is not new – Intel had one in place for Nehalem too – at the point even on the best of days meaningful IPC improvements are hard to come by at 1:1, never mind 2:1. The end result no doubt limited what performance optimizations Intel could integrate into Broadwell’s design, but it also functionally reduces power requirements for any given performance level, furthering Intel’s goals in getting Core performance in a mobile device. In the case of Broadwell this means Broadwell’s roughly 5% performance improvement comes at a cost of just a 2.5% increase in immediate power consumption.

Quelle (http://www.anandtech.com/show/8355/intel-broadwell-architecture-preview/2)

Undertaker
2015-05-05, 14:15:36
Für die reinen Änderungen von Broadwell mag das stimmen; die Core-Architektur an sich muss aber ein Kompromiss zwischen IPC und Perf/Watt sein. Wie gesagt ist Atom bei parallelisierten Aufgaben zweifellos noch effizienter.

Ravenhearth
2015-05-05, 14:17:26
Dass kleine Kerne effizienter als große sein können, sieht man auch schön an AMDs Jaguar. Schon bei Kabini konnte man die Effizienz von Ivy Bridge erreichen, trotz 28nm statt 22nm. Und Puma(+) im Beema ist nochmal effizienter.

Coda
2015-05-05, 16:02:53
Müssten die IGPs nicht langsam mal schnell genug sein für HQ Decodierung und Encodierung, wenigstens in h.264 und in h.265 in angemessener Qualität? Warum baut man nicht wenigstens einen Qualitätssicherung ein?
Genauso traurig dass das aktuelle 1000 Euro Grafikkarten nicht können.
GPUs eigenen sich in bestimmten Schritten (z.B. Entropiekodierung) extrem schlecht für Video-Codecs. Au dem Grund verbaut man ja immer noch dedizierte Hardware dafür.

robbitop
2015-05-05, 16:33:20
Hast du dazu einen Link? Ich bin mir recht sicher, dass dies wirklich nur für Atom galt.



The key distinction here and what will hopefully prevent Nehalem’s successors from turning into Pentium 4 redux is Intel’s performance/power ratio golden rule. Nehalem and Atom were both designed, for the first time ever in Intel history, with one major rule on power/performance. For every feature proposed for Nehalem (and Atom), for each 1% increase in power consumption that feature needed to provide a corresponding 2% or greater increase in performance. If the feature couldn’t equal or beat this ratio, it wasn’t added, regardless of how desirable.

http://www.anandtech.com/show/2594/5

Habe ich auf die Schnelle gefunden.

Ich habe die Regel bezogen auf die Cores auch öfter immer mal wieder bei Anand gelesen - aber ich habe nicht die Zeit alle Reviews nochmal zu durchforsten.

edit: Ravenheart hat es auch aus dem Broadwell Review rausgesucht. :UP

Die Regel macht auch Sinn - und wenn man Power oder Performance normiert und Nachfolger gegen Vorgänger antreten lässt, sieht man das auch.


Stark dagegen spricht, dass vor allem die IPC stark gestiegen ist (auch im Vergleich zu AMD), was bei einem reinen Perf/Watt-Fokus wohl nicht so wäre. Übrigens: Airmont ist speziell bei Multithreading effizienter als Broadwell, ebenso wie Silvermont vs. Haswell. Eigentlich schon der Beweis dafür, dass IPC-Steigerungen ab einer gewissen Grenze nunmal ein wenig Effizienz kosten. Das ist bei ARM (Stichwort A7/A53) nicht anders.
Kleine Cores sind immer effizienter. Ein Cortex A7 macht was Perf/Watt angeht soziemlich alle nass.

µ-Archs lassen sich nunmal nicht beliebig skalieren, deshalb gibt es für jeden TDP Bereich eine µ-Arch. Atom für <5W - da wird Core dann irgendwann ineffizent - und >5 W eben Core - da Atom dann ineffizient würde. Core ist für Bereich wo man ein Mindestmaß an Leistung braucht.

Die IPC ist ohne Zweifel gestiegen. Aber die normierte Perf/Watt auch. Beispiele habe ich genug genannt.

Undertaker
2015-05-05, 17:26:23
µ-Archs lassen sich nunmal nicht beliebig skalieren, deshalb gibt es für jeden TDP Bereich eine µ-Arch. Atom für <5W - da wird Core dann irgendwann ineffizent - und >5 W eben Core - da Atom dann ineffizient würde. Core ist für Bereich wo man ein Mindestmaß an Leistung braucht.

Auch wenn man die Core-Architektur im effizientesten Verbrauchs/Taktbereich betreibt (vielleicht ~2,0 - 2,5 GHz), würde man mit einer höheren Zahl an Atom-Kernen bei gleichem Verbrauch mehr MT-Performance erzielen (und mutmaßlich sogar weniger Transistoren verbraten). Hohe IPC bzw. Single-Thread-Performance geht halt immer etwas zu Lasten der Effizienz, mehr wollte ich gar nicht sagen. :) Da sind wir uns ja wohl auch einig, siehe Cortex-A7.

robbitop
2015-05-06, 09:31:11
Du musst immer das letzte Wort haben, hm? ;)

Ich kann mir vorstellen, dass MT Leistung auch nicht immer unproblematisch steigerbar ist. I/O wird immer größer, Cache Cohärenz wird immer schwieriger, Synchronisierung kostet immer mehr Leistung (Amdahls Law). Wenn das zu bearbeitende Problem so speziell ist, dass das nicht greift, sind widerum GPUs oder andere spezialisierte ASICs sicher noch besser.

tdon
2015-05-09, 16:03:28
http://fudzilla.com/news/notebooks/37016-skylake-has-up-to-60-percent-lower-soc-power
60 Prozent weniger bei Videoplayback ist (wenn nicht gerade die Rede von HEVC ist) ist zwar schön, praktisch aber ziemlich egal... Da nimmt schon Broadwell kaum mehr Leistung als im Leerlauf auf, mehr als ein paar Minuten Laufzeit kann man hier nicht mehr herausholen. Keine Ahnung, wo da die angeblichen 35 Prozent mehr herkommen sollen, da hat jemand wohl etwas falsch interpretiert.

Ja. Du. ;)

Umgekehrt wird ein Schuh draus. Insgesamt 60% weniger Leistungsaufnahme des SoC resultieren in 35% weniger Leistungsaufnahme bei 1080p Playback welches - wie du schon richtig erkannt hattest - bereits so weit optimiert ist das hier nicht mehr so viel zu holen ist.


Da ich den Slide habe, auf das sich Fudzilla bezog: Fudzilla hat es richtig interpretiert. Steht nur nicht dabei, welches HD Format genau.


http://fs2.directupload.net/images/150509/c4l4jg3v.png

Ravenhearth
2015-05-12, 11:08:39
Wann wird es denn detaillierte Informationen zur Architektur von Skylake geben? Erst auf dem Herbst-IDF (18.-20.08.)?

Coda
2015-05-12, 15:29:01
Du musst immer das letzte Wort haben, hm? ;)

Ich kann mir vorstellen, dass MT Leistung auch nicht immer unproblematisch steigerbar ist. I/O wird immer größer, Cache Cohärenz wird immer schwieriger, Synchronisierung kostet immer mehr Leistung (Amdahls Law). Wenn das zu bearbeitende Problem so speziell ist, dass das nicht greift, sind widerum GPUs oder andere spezialisierte ASICs sicher noch besser.
Xeon Phi hat 72 cache kohärente Kerne (bei zugegebenermaßen modereaterem Takt, was hilft). Da ist schon noch bisschen Luft.

Skysnake
2015-05-12, 15:31:36
Schau dir die großen NUMA Systeme an, da ging es ja bis ~2048 Kernen hoch, wenn ich mich recht erinnere

robbitop
2015-05-12, 15:37:09
50 % mehr Leistung seitens GT4e @Skylake vs GT3e @Broadwell sind IMO ziemlich unbeeindruckend. Immerhin sind es 50 % mehr Ausführungseinheiten. Ich hätte da mit mehr gerechnet, da es ja Gen9 vs Gen8 ist.

tdon
2015-05-12, 16:29:32
EUs haben noch nie linear skaliert bei Intel. Schon alleine wegen der gleichbleibenden oder kaum veränderten Bandbreite. Schau dir Bay Trail und Cherryview an. Vierfache EUs und ein voller Gen Sprung bei vielleicht Faktor 2.5 Verbesserung. Wenn sie es doch erreichen, müssen sie ordentlich was geändert haben zur Gen8.

Nightspider
2015-05-12, 16:34:45
Wahrscheinlich liegen die aktuellen Intel IGPs einfach total im Bandbreitenlimit.

Coda
2015-05-12, 16:50:41
Ich hab mal gehoert, dass Intel auch davon ausgebremst wird, dass sie bestimmte Patente von NVIDIA und AMD nicht benutzen duerfen. Ich weiss nicht inwiefern das stimmt.

mczak
2015-05-12, 17:57:07
EUs haben noch nie linear skaliert bei Intel. Schon alleine wegen der gleichbleibenden oder kaum veränderten Bandbreite. Schau dir Bay Trail und Cherryview an. Vierfache EUs und ein voller Gen Sprung bei vielleicht Faktor 2.5 Verbesserung. Wenn sie es doch erreichen, müssen sie ordentlich was geändert haben zur Gen8.
Das ist gar nicht so schlimm denn schon rein rechnerisch ist es nur ein Faktor 3 - der Maximaltakt ist ja doch erheblich tiefer. Ist aber trotzdem natürlich keine 100% Skalierung aber das wäre wohl zuviel verlangt (gibt's bei amd so auch nicht...). Die neue Generation hat ja auch bei Haswell-Broadwell jetzt nicht so viel gebracht.
Wahrscheinlich liegen die aktuellen Intel IGPs einfach total im Bandbreitenlimit.
Zumindest bei BayTrail und CherryTrail ist das ganz sicher nicht der Fall (jedenfalls nicht wenn du die Versionen betrachtest mit 128bit Speicher, bei BayTrail dürften auch Versionen mit 64bit ddr3-1333 genug Bandbreite haben).

Nightspider
2015-05-12, 18:00:58
Wird Intel demnächst auch Delta Color Compression verwenden, ist da was bekannt?

Das würde den Bandbreitenhunger bei den IGPs ja schon ein gutes Stück mildern.


Zumindest bei BayTrail und CherryTrail ist das ganz sicher nicht der Fall (jedenfalls nicht wenn du die Versionen betrachtest mit 128bit Speicher, bei BayTrail dürften auch Versionen mit 64bit ddr3-1333 genug Bandbreite haben).

Gut aber die sind ja auch deutlich langsamer als die IGPs mit 48 oder gar 72EUs. ;)

Pixelmonk
2015-05-13, 13:02:35
Intel Roadmap bis Q4 2016 wurde geleakt.


Skylake refresh (LGA) Q3 2016

Cannonlake im Desktop (LGA) erst 2017

Skylake-E Q3 2016
. (wccftech.com/intel-processor-roadmap-leaked-10nm-cannonlake-skylakee-arrives-q3-2016-skylake-muy-chips-q4-2015/)

YfOrU
2015-05-13, 13:13:45
Die Strategie lautet Mobile first und Cannon Lake ist für das TDP Segment des Core M (Y) das Schlüsselprodukt. Die Roadmap selbst ist wohl schon recht alt aber am grundsätzlichen Fahrplan dürfte sich kaum etwas geändert haben. Tendenziell 2 bis 3 Monate oben drauf.

Ravenhearth
2015-05-13, 13:35:56
Irgendwas stimmt da nicht. Kein Broadwell-E? Baytrail als Nachfolger für Baytrail? :freak: Cannonlake im Mobile so kurz nach Skylake? Letzteren erwarte ich eigentlich nicht vor Ende 2016/Anfang 2017.

Mr.Y
2015-05-13, 14:08:31
Ich finde das macht sinn. Wozu noch Broadwell, wenn Skylake schon bereit liegt?

y33H@
2015-05-13, 15:31:56
Intel Roadmap bis Q4 2016 wurde geleakt.Bullshit.

U.a. Broadwell-DT, Broadwell-EP/-EX und Braswell fehlen ...

tdon
2015-05-13, 16:05:22
Die Roadmap kenne ich schon lange, die ist sehr alt. Über ein Jahr alt. Das als große News jetzt zu verkaufen ist lächerlich.

Leonidas
2015-05-16, 20:38:26
An der dürfte sich inzwischen einiges geändert haben. Intel hat gerade im letzten Jahr einiges umgeworfen.

tdon
2015-05-21, 01:06:04
http://fs2.directupload.net/images/150521/a8mvqif9.jpg
http://benchlife.info/intel-skylake-replace-broadwell-start-from-q3-05202015/


September geht es los. Skylake-S eventuell August.

Nightspider
2015-05-21, 01:08:47
Also gibts vllt wirklich schon im September/Oktober erste Tablets/Notebooks mit Skylake-U. :)

tdon
2015-05-21, 01:12:55
Oktober könnte hinkommen. Erfahrungsgemäß kann das bei mobile 1 Monat nach launch dauern.

Nightspider
2015-05-21, 01:14:26
Ist etwas OT aber wurde schon ein Surface 4 Pro angekündigt?

Da könnte MS ja gleich auf Skylake gehen und Broadwell auslassen.

prinz_valium
2015-05-21, 02:05:20
Ist etwas OT aber wurde schon ein Surface 4 Pro angekündigt?

Da könnte MS ja gleich auf Skylake gehen und Broadwell auslassen.

nein ist es noch nicht.
und wo man schon den aller ersten atom x7 im surface 3 hatte, wäre das auch keine soooo unwahrscheinliche ankündigung.

noch verkauft sich das surface pro 3 ja ganz gut.


wären dann auch "nur" 1 bis 2 monate nach windows 10 release.
vorstellung geht ja locker einen monat vor hard launch.

probleme bei der fertigung und auslieferung sollte intel nicht haben, oder?

Hübie
2015-05-21, 09:52:25
Angesichts der aktuellen Entwicklung in Spielen, immer weniger CPU-Last zu erzeugen, wird das Warten auf Skylake-E sehr einfach :cool:

DinosaurusRex
2015-05-21, 10:17:43
Wird man das Skylake-H Topmodell mit 128MB eDRAM dieses Mal frei kaufen können oder wird das wieder so ein Lizenzmist wie in den letzten Jahren?

Ich hätte wirklich sehr großes Interesse an einem schlanken Arbeitsgerät ohne Grafikkarte aber dafür mit NVMe SSD und Win10.

Undertaker
2015-05-21, 15:32:06
Ich hätte wirklich sehr großes Interesse an einem schlanken Arbeitsgerät ohne Grafikkarte

Ich habe noch so meinen Zweifel, ob genau dieses Argument für die Intel-GPU spricht. Die Haswell-GT3e war für die gebotene Performance auch damals zum Launch viel zu ineffizient, die Broadwell GT3 (28W) sieht aktuell kein Land gegen 28nm Maxwells... Ob das bei Skylake wirklich anders aussieht?

deekey777
2015-05-21, 17:09:58
Ist etwas OT aber wurde schon ein Surface 4 Pro angekündigt?

Da könnte MS ja gleich auf Skylake gehen und Broadwell auslassen.
Eigentlich gab es Äußerungen, dass Microsoft gestern vorab das Surface Pro 4 ankündigt, dieses dann später Monat später geliefert wird. Nur bissen sich diese Äußerungen mit weiteren Spekulationen, dass das SP4 mit Skylakes ausgestattet sein wird, die wiederum erst im Spätsommer/Herbst kommen.

Ravenhearth
2015-05-21, 20:31:55
Ich habe noch so meinen Zweifel, ob genau dieses Argument für die Intel-GPU spricht. Die Haswell-GT3e war für die gebotene Performance auch damals zum Launch viel zu ineffizient, die Broadwell GT3 (28W) sieht aktuell kein Land gegen 28nm Maxwells... Ob das bei Skylake wirklich anders aussieht?

Intel braucht eigentlich einen Sprung von mindestens 50% bei der Perf/W im selben Prozess.

tdon
2015-05-22, 01:57:17
Der Trend geht zu noch dünneren Geräten mit Skylake. Wer darauf steht, muss zwangsläufig ein Gerät ohne dedizierte GPU kaufen.

Ravenhearth
2015-05-22, 02:41:09
Dadurch fällt die geringe Effizienz ja noch stärker ins Gewicht.

Undertaker
2015-05-22, 08:22:10
Der Trend geht zu noch dünneren Geräten mit Skylake. Wer darauf steht, muss zwangsläufig ein Gerät ohne dedizierte GPU kaufen.

Das war auch dahingehend gemeint, dass man dann lieber gleich ein normales Modell mit GT2 Ausbau kauft, das von der TDP eh viel besser in ein dünnes Gerät passt.

Wenn man allerdings mehr GPU-Leistung will und dafür etwas mehr Verbrauch verkraften kann, fährt man bislang mit einem dedizierten Maxwell/Kepler einfach besser. Effizient sind Intels GPUs derzeit nur bei den 15W Modellen und darunter.

DinosaurusRex
2015-05-22, 08:33:51
Ich habe noch so meinen Zweifel, ob genau dieses Argument für die Intel-GPU spricht. Die Haswell-GT3e war für die gebotene Performance auch damals zum Launch viel zu ineffizient, die Broadwell GT3 (28W) sieht aktuell kein Land gegen 28nm Maxwells... Ob das bei Skylake wirklich anders aussieht?

Ich hab für mich schon vor einiger Zeit entschieden, dass ich nie wieder eine dedizierte Grafikkarte kaufen werde. Ich halte das Konzept der Grafikkarte schlicht für veraltet.

Ich will eigentlich nur ein schlankes aber dafür pfeilschnelles Arbeitsgerät und dafür macht die Investition in eine richtig gute SSD wesentlich mehr Sinn als der Kauf einer Grafikkarte. Jetzt da der NVMe-Zug langsam anrollt und mit Win10 ein neues OS vor der Tür steht, kann man langsam ernsthaft über so eine Anschaffung nachdenken.

Das einzige was nervt ist die Speicherbandbreite. Sollte AMD für die Zen-basierte APU-Serie auch ein Topmodell mit eDRAM, HBM oder GDDR5 ankündigen, lasse ich Skylake definitiv links liegen. Aber ich bin da nicht gerade zuversichtlich.

Hübie
2015-05-22, 09:01:57
Die Frage ist in welchem Zeitraum du das erwartest. Eine APU mit HBM ist ja nicht abwegig nur nicht so bald. Vielleicht ab H2'16.

DinosaurusRex
2015-05-22, 09:16:39
Bis dahin kann ich warten :)

Undertaker
2015-05-22, 09:54:30
Ich hab für mich schon vor einiger Zeit entschieden, dass ich nie wieder eine dedizierte Grafikkarte kaufen werde. Ich halte das Konzept der Grafikkarte schlicht für veraltet.

Dagegen gibt's ja nichts zu sagen. Allerdings passt das heutzutage (noch) nicht mit dem Anspruch zusammen, trotzdem eine akzeptable 3D-Leistung zu haben. Bislang waren Intels GPUs >GT2 einfach Murks hinsichtlich Effizienz... Ein 28W Modell mit Iris Graphics 6100 und 1866er Speicher ist im Schnitt vielleicht 20 bis 30 Prozent schneller als ein 15W Modell mit HD 5500 und 1600er RAM. :freak: Eine GM108 mit 64 Bit DDR3-Interface (!) ist nochmal rund um die Hälfte schneller und verbraucht sogar weniger Strom.

Da nehmen ich doch entweder nur die 15W CPU, oder aber die 15W CPU plus Maxwell-GPU. Das 28W Modell ist schlicht überflüssig (die CPU-Mehrleistung ist auch mehr oder minder zu vergessen).

Sollte das bei Skylake besser werden, muss man die Situation natürlich neu beurteilen. Aktuell skalieren Intel-GPUs aber einfach zu schlecht mit steigender Clusteranzahl und verschwenden viel zu viel Bandbreite.

BlacKi
2015-05-22, 09:59:43
Ich hab für mich schon vor einiger Zeit entschieden, dass ich nie wieder eine dedizierte Grafikkarte kaufen werde.

wenn man eine ps4 mit windows/linux/osx bespielen könnte, dann hättest du dein system. darüber hab ich schon oft einen gedanken verloren.

Intel braucht eigentlich einen Sprung von mindestens 50% bei der Perf/W im selben Prozess.

ist machbar, nur müsste man die programme mehr multicore tauglich machen. dann wären sicherlich auch 100% perf/watt drinn.

tdon
2015-05-22, 10:26:00
Das war auch dahingehend gemeint, dass man dann lieber gleich ein normales Modell mit GT2 Ausbau kauft, das von der TDP eh viel besser in ein dünnes Gerät passt.



Bei Skylake-H mit GT3 wohl ja.

Ravenhearth
2015-05-22, 15:30:03
ist machbar, nur müsste man die programme mehr multicore tauglich machen. dann wären sicherlich auch 100% perf/watt drinn.

Das war auf die GPU bezogen :wink:

Dunkeltier
2015-05-22, 19:02:08
Ist eigentlich bekannt, wann die Xeons auf Skylake-Basis releast werden? Da ich in meinen Server gerne einen 35W Vierkerner mit HT sowie ECC-RAM reinstecken möchte.

YfOrU
2015-05-22, 21:25:35
Bis jetzt nicht aber dafür wäre eigentlich ein Broadwell-DE SoC wie Xeon D-1520 (4C/8T) prädestiniert: http://ark.intel.com/products/87038

Langsam gehts los: Das Supermicro X10SDV-TLN4F ist mit 2x10GBase-T und 8C/16T (Xeon D-1540) für den Heimgebrauch natürlich zu teuer aber trotzdem ein nettes Stück Hardware. http://www.servethehome.com/supermicro-x10sdv-tln4f-review-platform/
Xeon D-1540 Performance: http://www.servethehome.com/intel-xeon-d-1540-performance-comparison/

AnarchX
2015-05-25, 10:02:30
28 Kerne im Skylake-EX: http://forums.anandtech.com/showpost.php?p=37422842&postcount=767

Da sind da wohl auch bald 5 TFLOPs SP / 2,5 TFLOPs DP via AVX3.

Da sollte Cannonlake (Refresh) wohl auch bald mal mehr als 4 Kerne für den Endkonsumenten bringen.

tdon
2015-05-25, 10:53:27
"Cannonlake graphics & media transcode"


Falls das nicht nur für 1S Workstation gilt, ist das eine interessante Neuerung. Auch interessant, dass Intel Skylake CPUs mit Gen10 GPU koppelt. Das wäre auch für Client nicht auszuschließen (Kabylake).

HPVD
2015-05-25, 11:38:40
was ich wohl hier hinter verbergen könnte?

zusätzlich zu den 6 Speicherkanälen (statt 4) welche ja kein echter Bonus sind, sondern bei der hohen corezahl von max 28 auch unbedingt gebraucht werden

gibts noch:

ALL NEW MEMORY ARCHITECTURE
•Up To 4X capacity & lower cost than DRAM
•500X faster than NAND
•Persistent data

= ??

HPVD
2015-05-25, 12:04:19
schade - irgendwie steht da nirgends was von PCIe 4.0 drin.
Eigentlich sollte das doch mit Skylake EP erscheinen...

Skysnake
2015-05-25, 12:15:35
Ja, dass da nichts von PCI-E 4.0 gesagt wird, erstaunt mich auch. Das bedeutet wohl, das wir noch ziemlich lange auf 3.0 rumeiern werden :(

Bzgl RAM, könnte ich mir ReRAM, oder aber Phase Change Memory vorstellen, wobei PCM nicht so schnell wäre, das ist eher 100x schneller, aber vielleicht hat man das Fortschritte gemacht.

Meines Wissens nach arbeitet Intel nämlich schon länger an PCM mit Micron zusammen.

y33H@
2015-05-25, 13:32:44
Auf den Slides steht DDR4.

Sunrise
2015-05-25, 13:39:55
ALL NEW MEMORY ARCHITECTURE
•Up To 4X capacity & lower cost than DRAM
•500X faster than NAND
•Persistent data
Dieser Teil wirkt irgendwie fehl am Platz. Wäre der Rest nicht so konsistent, würden bei mir jetzt die roten "Fake"-Lichter angehen.

HPVD
2015-05-25, 13:40:37
bzgl. der Memory Besonderheiten steht bei Anand noch dieser recht interessante Gedanke:

Looking at the actual presentation reveals a bit more.

IMDB capacity increased vs. the previous generation, 1.5TB max DRAM vs. 6TB with Apache Pass

So "Apache Pass" is the key. Going a bit further...

Example DIMM population shown; please look up Apache Pass customer collateral for specific rules on DDR4/Apache Pass DIMM populations

Apache Pass could be simply a next generation "Jordan Creek" buffer. At this point it looks no more than greatly expanded memory capacity, allowing servers to have code in memory whereas previously it would have been in storage(they compare with NAND but could be HDDs too).

http://forums.anandtech.com/showpost.php?p=37422881&postcount=770

das würde:
•Up To 4X capacity & lower cost than DRAM
und
•500X faster than NAND
erklären, aber nicht
•Persistent data
:confused:

HPVD
2015-05-25, 13:52:22
hmm oder es ist nur indirekt "persistent":

es wird wie für den Cache eines Hardware RAID-Controllers
ein Akku/Kondensator eingebaut / unterstützt, der es erlaubt bei einem Stromausfall den gesamten Speicherinhalt noch in einen Flash (SSD) zu schreiben und ihn damit persistent zu machen :wink:

ansonsten würde ja wahrscheinlich zusammen mit dem Wort "persistent" auch direkt "optimierte Energieeffizienz" noch genannt werden, da der Energiebedarf von so großen Speichermengen ja auch nicht gerade klein ist...

HPVD
2015-05-25, 14:10:31
Ja, dass da nichts von PCI-E 4.0 gesagt wird, erstaunt mich auch. Das bedeutet wohl, das wir noch ziemlich lange auf 3.0 rumeiern werden :(


oder es steht einfach noch nicht fest ob die Unterstützung offiziell freigegeben werden kann
denn des Spek wird ja lt aktueller Planung quasi erst zeitgleich fertig:

Q: When will PCIe 4.0 be released?
A: The final PCIe 4.0 specifications, including form factor specification updates, are expected to be available in late 2016. The timing of the specification maturity is a function of the participation and contributions of PCI-SIG members as the technical workgroups consider and debate technology choices, capabilities and analyses.
https://www.pcisig.com/news_room/faqs/FAQ_PCI_Express_4.0

Mandalore
2015-05-25, 14:26:05
was ich wohl hier hinter verbergen könnte?

zusätzlich zu den 6 Speicherkanälen (statt 4) welche ja kein echter Bonus sind, sondern bei der hohen corezahl von max 28 auch unbedingt gebraucht werden

gibts noch:

ALL NEW MEMORY ARCHITECTURE
•Up To 4X capacity & lower cost than DRAM
•500X faster than NAND
•Persistent data

= ??


3.Punkt: Einführung von Magnetic RAM?

B2T: Was kann man denn performancetechnisch von Skylake gegenüber Broadwell erwarten, wenn von der größten Änderung seit Nehalem ausgegangen wird? Vor allem hieß es ja seit den letzten Gerüchten, dass Skylake ggü. Broadwell wie Prescott-->Conroe sein soll....

HPVD
2015-05-25, 14:37:31
Was kann man denn performancetechnisch von Skylake gegenüber Broadwell erwarten, wenn von der größten Änderung seit Nehalem ausgegangen wird? Vor allem hieß es ja seit den letzten Gerüchten, dass Skylake ggü. Broadwell wie Prescott-->Conroe sein soll....

In Standard-Anwendungen: takt- und corecount bereinigt +max 10% (IPC)
soviel war es in der Vergangenheit bei einem Tock oft, vgl. http://www.theplatform.net/wp-content/uploads/2015/03/intel-xeon-ipc-chart.jpg
aus: http://www.theplatform.net/2015/05/05/intel-puts-more-compute-behind-xeon-e7-big-memory/

In Spezialanwendungen die AVX512 (gibts nur in den Skylake-Xeons) nutzen: +max 40% (ähnlich waren die Sprünge durch 0AVX=> AVX1 => AVX2)

BlacKi
2015-05-26, 19:31:49
uiuiui wenn das stimmt dann spar ich mir skylake http://www.cpu-monkey.com/en/compare_cpu-intel_core_i7_4790k-411-vs-intel_core_i7_6700k-518

Johnny Rico
2015-05-26, 20:50:11
is doch fast überall so 10% schneller und läuft dabei mit 200mhz weniger?

BlacKi
2015-05-26, 21:03:38
als haswell refresh nicht broadwell, welcher ebenfalls mit 5-10% mehr performance bei gleicher taktrate haben soll.

Tesseract
2015-05-26, 21:16:16
als haswell refresh nicht broadwell, welcher ebenfalls mit 5-10% mehr performance bei gleicher taktrate haben soll.
vielleicht in irgendwelchen spezialfällen aber sicher nicht in diesen benchmarks. ich würde da bei broadwell mit vielleicht +3% rechnen und die +8% für skylake halte ich für durchaus realistisch.

es wird echt höchste zeit für >4 cores auf dem mainstreamsockel.

Ravenhearth
2015-05-26, 21:31:26
Broadwell soll laut Intel schon 5% mehr IPC bringen. Und den Benchmarks nach zu urteilen hat Skylake nur 10% mehr IPC als Haswell. Bei ST ist der Vorsprung durch die 200MHz weniger eher noch geringer, also 5-10% mehr Leistung. Dann hoffe ich mal, dass der 6700K beim realen Stromverbrauch näher an 65W dran ist als an den 95W TDP.

Tesseract
2015-05-26, 21:37:15
Broadwell soll laut Intel schon 5% mehr IPC bringen.
ähnlich wie sandy->ivy und da liegt der unterschied in cinebench ebenfalls bei etwa 3%.

Mortalvision
2015-05-26, 22:16:42
Passt gut zu der AMD folie, die heute in den 3DC news steht. Ab jetzt geht der Fortschritt bedingt durch Fertigungstechnik in den Keller. Vielleicht reißt 10 nm noch was, dann ist weitgehend Schluss, weil dann nur noch paar hundert wasserstoff-atomlängen zwischen den Strukturen liegen. Alles weitere ist Weltraum Technologie :)

Ravenhearth
2015-05-26, 22:28:18
ähnlich wie sandy->ivy und da liegt der unterschied in cinebench ebenfalls bei etwa 3%.

Seit wann ist Cinebench ein Maßstab für die IPC? Wenn überhaupt, dann müsste man dutzende verschiedene Messwerte haben.

Tesseract
2015-05-26, 22:35:17
Seit wann ist Cinebench ein Maßstab für die IPC? Wenn überhaupt, dann müsste man dutzende verschiedene Messwerte haben.

habe ich nicht behauptet. cinebench ist einer der tests des angeblichen 6700K-vergleichs und die relation haswell zu skylake ist ähnlich der von ivy zu haswell, was, relativ gesehen, der einschätzung intels zur IPC-steierung entspricht - daher können die verlinkten tests durchaus stimmen. die +3% beziehen sich ebenfalls auf cinebench.

Nightspider
2015-05-26, 22:57:35
Wenn es im Cinebench 10% zwischen Haswell und Skylake sind könnten es in manchen Games 20% sein.

Punkt 2: Können wir nicht langsam mal AVX3.2 aus dem Threadtitel entfernen oder durchstreichen?

Punkt 3: Können wir bei Cannonlake nicht langsam mal mit Stacked Memory rechnen?

Was hindert die Hersteller daran wenigstens einen Teil des RAMs durch zB. HBM oder HMC zu ersetzen zB. in Form von zB. fest verlöteten 8GB Stacked Memory?

Das würde zum einen immer noch für den Großteil reichen da die meisten Games auch 2016/2017 nicht mehr RAM benötigen werden, ganz zu schweigen von den üblichen Arbeitsprogrammen und eine Möglichkeit diesen zu erweitern auf max. 32GB wäre sicherlich auch konstruierbar.

basix
2015-05-27, 00:18:55
Was hindert die Hersteller daran wenigstens einen Teil des RAMs durch zB. HBM oder HMC zu ersetzen zB. in Form von zB. fest verlöteten 8GB Stacked Memory?

Das würde zum einen immer noch für den Großteil reichen da die meisten Games auch 2016/2017 nicht mehr RAM benötigen werden, ganz zu schweigen von den üblichen Arbeitsprogrammen und eine Möglichkeit diesen zu erweitern auf max. 32GB wäre sicherlich auch konstruierbar.

HMC ist sockelbar, sollte also ohne Probleme möglich sein.

Nightspider
2015-05-27, 03:00:31
JEDEC unterstützt nichtflüchtiges NVDIMM

http://www.computerbase.de/2015-05/hybrid-speichermodule-jedec-unterstuetzt-nichtfluechtiges-nvdimm/

Coda
2015-05-27, 03:12:34
Ich frag mich wie das funktioniert bei der Anzahl an Schreibzyklen die eine CPU durchführt. Der Flash darauf sollte doch in kürzester Zeit durch sein.

tdon
2015-05-27, 04:33:15
habe ich nicht behauptet. cinebench ist einer der tests des angeblichen 6700K-vergleichs und die relation haswell zu skylake ist ähnlich der von ivy zu haswell, was, relativ gesehen, der einschätzung intels zur IPC-steierung entspricht - daher können die verlinkten tests durchaus stimmen. die +3% beziehen sich ebenfalls auf cinebench.


Die Seite hat angeblich Werte von sämtlichen Desktop Modellen. Hier sollte man doch zumindest hinterfragen, ob das realistisch ist. Neu sind die übrigens nicht. Für mich sehen die Werte interpoliert von anderen Leaks aus. Die Seite lebt davon, bekommt u.a. jetzt dadurch Klicks und Aufmerksamkeit. Wenn sie so toll und unabhängig informiert sind, warum keine GPU Frequenzen und CB iGPU Werte. Ach sind noch keine geleakt, die interpoliert werden könnten, da wird es natürlich schwer.

BlackBirdSR
2015-05-27, 06:27:11
Ich frag mich wie das funktioniert bei der Anzahl an Schreibzyklen die eine CPU durchführt. Der Flash darauf sollte doch in kürzester Zeit durch sein.

Ist nicht write through sondern nur auf Kommando.
http://www.vikingtechnology.com/nvdimm-faq

Coda
2015-05-27, 06:52:36
Was soll dann das Gerede von wegen Stromausfall?

Skysnake
2015-05-27, 07:56:53
Das gerede von wegen Stromausfall ist da berechtigt, weil du "einfach" den Stecker ziehen kannst, ohne das Daten verloren gehen ;)

Da müsste direkt auf dem RAM ein kleiner Steuerchip sein, der die Spannung überwacht, und dann bei einer Spannungsunterbrechung die Daten auf den NAND schreibt. Die Dinger haben im Normalfall aber recht große Batterien/Kondensatoren mit drauf.

Man kann den NAND/Flash halt nicht dauerhaft nutzen. Das hast du ja selbst schon richtig erkannt. Gibt aber eben nur bei NAND/Flash das Problem ;)

Auf den Slides steht DDR4.
Ich wollte gerade den Artikel von CB verlinken, aber da war jemand schneller.

Es ist halt "nur" der Standard bzgl Übertragung usw, aber eben nicht zwingend bzgl Speichertechnologie (meines Wissens).

Ich frag mich wie das funktioniert bei der Anzahl an Schreibzyklen die eine CPU durchführt. Der Flash darauf sollte doch in kürzester Zeit durch sein.
Jup, wenn du einfach DRAM durch Flash ersetzt, dann ist das Ding ziemlich schnell durch. Daher nutzt man, wenn man Flash nimmt um NV-RAM zu haben, nur als Speicher, in den man bei einem Stromausfall die Daten schreibt. Im Prinzip genau das Gleiche wie bei SSDs mit dem Lese/Schreibcache.

ReRAM und auf PCM sind da anders. Gerade mit PCM habe ich mich vor 2-3 Jahren mal einige Zeit beschäftigt. Du hast fast so schnelle Lesegeschwindigkeiten wie DRAM, etwas langsamere Schreibraten, aber dafür eine deutlich höhere Speicherdichte. Nachteil ist, dass das Ding aber am Ende sich doch Abnutzt durch schreiben. Lesen kannste so oft wie du willst. Ist aber sehr! viel haltbarer als Flash. Den Rest könnte man wohl damit ausgleichen, das man eben TB-Weise RAM hat. Ramgröße an sich kostet ja keinen Strom ;)

Da nimmt man dann einfach was weiß ich 4TB effektive Größe und noch 128GB zum austauschen, und dann läuft das Ding mit PCM, selbst bei hohen Schreibraten.