PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Skylake - DDR4, Gen9 GPU @ 14nm (2016) & Skylake-X - up to 18C @ 14FF++ (2017)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13

IC3M@N FX
2015-02-17, 01:24:32
Vielleicht ist es das Ziel dedizierte GPU ganz vom Markt zu verdrängen.
Wie soll das gehen um das zu gewährleisten müssten die iGPU´s genauso schnell wie dGPU´s sein. Solange es keine iGPU gibt die innerhalb eines Jahres so schnell ist wie eine Geforce GTX 960 Radeon oder 7850/90 wird sich sowas nie durchsetzen. Dazu muss Intel bei der GPU so nachholen, die hinken locker 2 Jahre hinterher da können ihre fertigungsprozesse noch so schnell sein. Ganz zu schweigen das Thermal Design und Stromaufnahme der CPU wäre katastrophal mit so einer iGPU.....

registrierter Gast
2015-02-17, 01:39:54
Wie soll das gehen um das zu gewährleisten müssten die iGPU´s genauso schnell wie dGPU´s sein. Solange es keine iGPU gibt die innerhalb eines Jahres so schnell ist wie eine Geforce GTX 960 Radeon oder 7850/90 wird sich sowas nie durchsetzen. Dazu muss Intel bei der GPU so nachholen die hinken 2 Jahre hinterher da können ihre fertigungsprozesse noch so schnell sein. Ganz zu schweigen das Thermal Design und Stromaufnahme der CPU wäre katastrophal mit so einer iGPU.....
Mit jeder Generation holt Intel rasant auf. Warte mal noch drei iGPU Generationen, dann erreicht Intel vielleicht schon die bis dahin aktuellen Midrange dGPU.

basti333
2015-02-17, 02:06:15
Natürlich wird man wohl nie an eine Highend Karte kommen, aber das interessiert Intel auch nicht. Im CPU-Bereich hat man keine Konkurrenz, also wird überall ne iGPU reingeknallt, ob man will oder nicht. Und nach und nach gräbt man den dedizierten GPUs das Wasser ab.

Korvaun
2015-02-17, 07:41:36
Wenn ich sehe wie klein der CPU-Anteil auf nem aktuellen i5/7 Die ist, dann könnte ich mir eher die andere Richtung vorstellen. Also ne richtige AMD-GPU mit dazugepackter CPU, sollte spätestens ab 14nm genug Platz für vorhanden sein. Das Problem ist eher die Infrastruktur außen rum, also Mainboards/Speicheranbindung, etc.

Intel fehlt dazu aktuell eher ne richtige GPU...

YfOrU
2015-02-17, 10:14:08
Mal ne frage allgemein zu Intel CPU´s auf der Startseite von 3dcenter.org hab ich gerade die Intel Roadmap gesehen. Ich habe eines gemerkt, die teuereren CPU´s haben meistens eine bessere iGPU!
...


Argumentativ lässt sich hier beispielsweise mit dem i3-4158U dagegen halten. Dieser verfügt über 40 EUs (Iris 5100). Kostet allerdings etwas mehr (~20€) als der i5-4210U (HD 4400, 20 EUs). Beispiel: Acer Aspire V3-371.

Auch bei Broadwell gibt es mit i3-5157U, i5-5257U und i7-5557U ein komplettes Sortiment an CPUs mit Iris 6100 (48 EUs). Das diese mehr kosten als Produkte mit 23/24 EUs wie i3-5010U, i5-5300U bzw. i7-5600U versteht sich eigentlich von selbst. Ein i3-5157U (2C, 48 EUs) ist in der Produktion teurer (da größer) als ein i7-5600U (2C, 24 EUs).
http://www.anandtech.com/show/8814/intel-releases-broadwell-u-new-skus-up-to-48-eus-and-iris-6100/2

Grundsätzlich ist Intel hier etwas im eigenen (CPU orientierten) Namensschema gefangen. Dem durchschnittlichen Käufer ist bewusst das die Einordnung i3 -> i5 -> i7 lautet. Entsprechend zieht der einen i5 welcher zum Preis eines i3 zu bekommen ist im Regelfall vor. Da die flotteren integrierten GPUs einen hohen Anteil an der gesamten Chipfläche haben ist das nicht gerade optimal um diese Produkte für OEMs attraktiv zu gestallten.

FlashBFE
2015-02-17, 10:16:46
...

Und nicht die ganzen Fertig- und Firmenrechner vergessen. Je stärker die iGPUs werden, desto seltener werden da dGPUs eingebaut.

Bei uns im Konzern bekommen alle neuen Büro-PCs zur Zeit einen Intel® Core™ i5-4590 Processor ohne Grafikkarte. Nur die CAD-Workstations kriegen noch eine Quadro K4200 4GB zu ihrem Xeon E5-1630 v3. Vor ein paar Jahren, als Intels integrierte GPUs noch grottig waren, bekamen auch die Bürorechner noch kleine Grafikkarten, alleine schon um zwei digitale Monitorausgänge zu bekommen.

Intel gräbt so auch mit relativ einfachen Mitteln AMD und Nvidia einen Großteil des Fertig-PC-Marktes ab. Und größere iGPUs passen vom Preisbereich und vom thermischen Budget einfach besser in die teureren und größeren Prozessoren, auch wenn es für Privatkunden keine Rolle spielt.

Dural
2015-02-17, 11:45:11
wie das jemals anders war, Firmen Rechner hatte doch nie gross Grafikkarten drin, das lief doch immer über den Chipsatz und jetzt halt neu über die CPU.

Skysnake
2015-02-17, 14:39:39
Na, sobald du Multimonitor gebraucht hast, biste an sich immer auf ne kleine dGPU gegangen.

BlacKi
2015-02-17, 16:47:41
also die firmenrechner mit win7 die wir letztes jahr bekamen haben eine dGPU von amd radeon aber nichts starkes, vermutlich irgendein dubioser deal, denn für den office kram den unsere rechner verarbeiten reicht die gpu der 4 kerner ala haswell. derjenige der die rechner bestellt hat gehört gefeuert... aber unsere firma hats ja...

spotz
2015-02-17, 22:28:26
Woran haperts denn das die iGPUs noch nicht die Leistung von Midrange Grafikkarten erreichen? An der Größe sollte es doch nicht liegen, da die iGPUs in 14nm doch nur ein Viertel der Größe der dGPUs in 28nm haben sollten. Eine GTX960 mit 227 mm2 in 28nm sollte doch in 14 nm als iGPU machbar sein.

Oder liegt es mehr an der Speicherbandbreite? Sollte dann nicht DDR4, abgesehen vom Preis, da den Durchbruch bringen? So wie ich es verstand wird jedes Modul einzeln angesteuert und so käme man bei 4 DDR4-2133 Modulen auf eine theoretische Bandbreite von 68 GB/s.

BlacKi
2015-02-17, 22:45:31
Woran haperts denn das die iGPUs noch nicht die Leistung von Midrange Grafikkarten erreichen? An der Größe sollte es doch nicht liegen, da die iGPUs in 14nm doch nur ein Viertel der Größe der dGPUs in 28nm haben sollten. Eine GTX960 mit 227 mm2 in 28nm sollte doch in 14 nm als iGPU machbar sein.

Oder liegt es mehr an der Speicherbandbreite? Sollte dann nicht DDR4, abgesehen vom Preis, da den Durchbruch bringen? So wie ich es verstand wird jedes Modul einzeln angesteuert und so käme man bei 4 DDR4-2133 Modulen auf eine theoretische Bandbreite von 68 GB/s.

im dual channel sinds halt nur 128bit bei ddr4, zum anderen muss sich die bandbreite ja noch mit der cpu geteilt werden.

Locuza
2015-02-17, 22:47:11
@ spotz

68 GB/s erhältst du nur, wenn 256-Bits zum Speicher verlegt werden.
Für Mainstream CPUs bleibt es sicherlich bei 128-Bit.
Also wären 34 GB/s das Maximum mit 2133 DDR4.

tdon
2015-02-17, 22:47:21
Speicherbandbreite ist ein massiver Nachteil gegenber dedizierten. DDR4 ist Dualchannel bei SKL-S, also 33 GB/s nominell nach Spezifikation. Das wird mit der CPU geteilt kommt noch hinzu.
Intel lindert das Problem mit edram, bei den SKL-U Modellen mit edram könnte es gut was bringen.

spotz
2015-02-17, 23:03:26
Seid ihr euch sicher wegen der Bandbreite des DDR4 Speichers? Bei Wikipedia hatte ich dazu folgendes gelesen:* DDR4-SDRAM-Speichercontroller besitzen keine Channels im eigentlichen Sinn, sondern es wird jedes Speichermodul einzeln angesteuert, deshalb kann bei der Ansteuerung von n Modulen auf jeden Fall die n-fache Datenrate erzielt werden.
http://de.wikipedia.org/wiki/DDR-SDRAM#DDR4-SDRAM

basti333
2015-02-17, 23:05:17
Macht denn der integriert Speicher keinen Unterschied? Glaube 64mb sind das oder?

Coda
2015-02-17, 23:16:12
Woran haperts denn das die iGPUs noch nicht die Leistung von Midrange Grafikkarten erreichen? An der Größe sollte es doch nicht liegen, da die iGPUs in 14nm doch nur ein Viertel der Größe der dGPUs in 28nm haben sollten. Eine GTX960 mit 227 mm2 in 28nm sollte doch in 14 nm als iGPU machbar sein.

Oder liegt es mehr an der Speicherbandbreite? Sollte dann nicht DDR4, abgesehen vom Preis, da den Durchbruch bringen? So wie ich es verstand wird jedes Modul einzeln angesteuert und so käme man bei 4 DDR4-2133 Modulen auf eine theoretische Bandbreite von 68 GB/s.
Bandbreite und Intel ist nicht NVIDIA.

Timbaloo
2015-02-17, 23:39:10
Bandbreite könnten sie in Zukunft mittels stacked-RAM sicher lösen. Aber dann sind sie noch nicht auf NV/AMD-Niveau, was sie aber auch schneller aufholen könnten wenn sie es denn wirklich wöllten. Stellt sich mir die Frage ob intel überhaupt einen massiven Angriff auf den Grafikkartenmarkt (und damit NV+AMD) will. Kartellrecht und so.

Letztlich fahren sie mit ihrer (bezüglich Grafik) defensiven Strategie imho ganz gut.

Locuza
2015-02-17, 23:55:44
Seid ihr euch sicher wegen der Bandbreite des DDR4 Speichers? Bei Wikipedia hatte ich dazu folgendes gelesen:
http://de.wikipedia.org/wiki/DDR-SDRAM#DDR4-SDRAM
Das n-mal funktioniert natürlich nur so oft, wie du Datenleitungen hast.
Die Mainstream CPUs besitzen bisher nur 128-Bit und ich sehe keinen Anhaltspunkt das sich dabei etwas ändern wird.

Macht denn der integriert Speicher keinen Unterschied? Glaube 64mb sind das oder?
Der macht einen großen Unterschied, macht die Plattform aber teuer und Intel verbaut das bisher nur mit wenigen Chips.

spotz
2015-02-18, 00:19:29
Ah Danke für die Erklärung Locuza :)

Stellt sich mir die Frage ob intel überhaupt einen massiven Angriff auf den Grafikkartenmarkt (und damit NV+AMD) will. Kartellrecht und so. Mein Eindruck ist, dass Intel bei den Laptop-GPUs zunehmend mit AMD+NV konkurriert. Intels Iris iGPUs scheinen mir schon eine ernsthafte Alternative zu mobilen Midrange Lösungen von AMD+NV.
Ich würde mir ehrlich gesagt noch eine Midrange Lösung von Intel für den Desktop wünschen.

Bandbreite und Intel ist nicht NVIDIA.
Das verstehe ich nicht. Meinst du das Intel keine iGPU realisieren kann, deren Leistungsniveau ungefähr Nvidias Mittelklasselösung entspricht?

Locuza
2015-02-18, 00:30:02
Ich denke Coda bezieht sich hier auf die Bandbreiteneffizienz von Maxwell oder gar älteren GPUs.
Entsprechend wären Intel iGPUs selbst mit gleichhoher Bandbreite, nicht so leistungsstark wie Nvidia GPUs.

Intels Iris GPUs sind aber schon stark.
Der Fertigungsvorteil hilft bei der Leistungsaufnahme und dem Platzverbrauch und dank eDRAM hat man noch einen großen Puffer.

Ob Intel Nvidias Mittelklasselösungen erreicht, ist schließlich immer abhängig vom Zeitpunkt und dem Angebot der Konkurrenz.
Möglich ist es sicherlich, ob es realisiert wird ist eine andere Frage.

Erst einmal kann man sich auf Broadwell freuen, mit GT3e /64mb eDRAM.
Danach muss Intel den Vorhang bei Skylake lösen.
Was hat man bei der CPU-Architektur verbessert, was hat man bei der iGPU verbessert?

Danach wertet die Jury erneut aus.

basti333
2015-02-18, 00:48:44
Wäre es denkbar den eDRAM auf, sagen wir, 256mb aufzubohren?

Locuza
2015-02-18, 01:01:51
Der eDRAM wird in der Größe und Bandbreite dann aufgebohrt, wenn es aus Intels Sicht Sinn macht.
Wenn z.B. die iGPU viel stärker wird und entsprechend mehr Bandbreite benötigt.
Wenn sich in Analysen zeigt, dass 128mb oft zu wenig sind.

Oder andersherum, 128mb bringen nicht soviel und es macht aus wirtschaftlicher Sicht Sinn, den eDRAM auf 64mb zu verkleinern.

Bis Skylake scheinen 128mb das Maximum darzustellen, was Intel verbauen wird.
Und in nicht allzuferner Zukunft verzichtet Intel vielleicht ganz darauf.

-/\-CruNcher-/\-
2015-02-18, 05:16:08
Vielleicht ist es das Ziel dedizierte GPU ganz vom Markt zu verdrängen.

Was halt auffällt sie nutzen die Zeit intensiv die sie mit dem Schrinken gewinnen um ihre GPU zu verbessern :)

Und ihren noch IP und Research rückstand zu kompensieren (sehr viel 3D IP in den letzten jahren eingekauft) es ist nur eine Frage der Zeit bis ihre GPU das selbe leistet wie Nvidia und AMD.

Aber Huddy meinte ja er ist Weg von Intel weil sie eben nicht das selbe Ziel wie er vor Augen hatten/haben was die GPU angeht (immernoch eine sehr komisch Aussage)

Mit Pixelsync jedenfalls hat Intel gezeigt das sie es ernst meinen mit der Effizienz , sowas basstelt man doch nicht mal für Mobile in Hardware wird wohl auch bei Microsoft und Hololens ein hauptpunkt für die Nutzung des Socs gewesen sein anstelle von AMDs natürlich die größe und der Windows verbrauch der Megapunkt in Hololens ;)

Und das was der ARM Ceo sagte bezüglich seinen Konkurenzängsten bewahrheitet sich langsam aber stetig (Aussage: "Es ist einfacher bei der GPU aufzuholen als wie bei der CPU") ;)

BlacKi
2015-02-18, 15:01:12
was ich nicht verstehe ist einfach das zig millionen cpus mit integrierter grafik verkauft werden, aber ich schätze weniger als die hälfte derer werden jemals genutzt.

macht es keinen sinn die gpu einfach wegzulassen? oder macht man das um mehr silizium verkaufen zu können?

Nightspider
2015-02-18, 15:06:48
Ich glaube bei einigen Firmen muss sich erstmal rumsprechen das Intel IGPs völlig ausreichend sind.

BlacKi
2015-02-18, 15:09:28
Und das was der ARM Ceo sagte bezüglich seinen Konkurenzängsten bewahrheitet sich langsam aber stetig (Aussage: "Es ist einfacher bei der GPU aufzuholen als wie bei der CPU") ;)
wohl wahr, sieht man sehr schön bei den fortschritten im bereich gpu vs cpu. was nvidia mit maxwell aus dem hut gezaubert hat war deutlich mehr als ich von maxwell erwartet hätte.

im vergleich dazu kommen die fortschritte von sandy bis haswell zusammen gerechnet nicht auf den fortschritt den nvidia mit maxwell von kepler machte.

ich glaube/hoffe ja das es irgendwann grafik- und arbeitsspeicher zusammengelegt werden wie bei der ps4, aber am besten aufrüstbar. dann braucht man womöglich wirklich keine dGPU mehr, höchstens im sli verbund.

spotz
2015-02-18, 15:25:17
was ich nicht verstehe ist einfach das zig millionen cpus mit integrierter grafik verkauft werden, aber ich schätze weniger als die hälfte derer werden jemals genutzt.

macht es keinen sinn die gpu einfach wegzulassen? oder macht man das um mehr silizium verkaufen zu können?
Im Grunde genommen ist es doch anders herum: Über 80% aller PC laufen nur mit einer iGPU von Intel (~72%) oder AMD (~10%)
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-und-dritten-quartal-2014

An den Marktanteilen erkennt man schon das es sich für AMD und Intel kaum lohnt Prozessoren ohne integrierte Grafik anzubieten. Scheinbar reichen die iGPU den meisten Kunden für Office, Internet und gelegentlichen Spielen aus.

BlacKi
2015-02-18, 15:33:13
Im Grunde genommen ist es doch anders herum: Über 80% aller PC laufen nur mit einer iGPU von Intel (~72%) oder AMD (~10%)
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-und-dritten-quartal-2014

An den Marktanteilen erkennt man schon das es sich für AMD und Intel kaum lohnt Prozessoren ohne integrierte Grafik anzubieten. Scheinbar reichen die iGPU den meisten Kunden für Office, Internet und gelegentlichen Spielen aus.
hä?

hier sind die verkaufszahlen angegeben nicht das nutzerverhalten.

als beispiel:

ich hab auch eine intel gpu gekauft, nutze sie aber nicht, wäre die cpu 10€ billiger gewesen ohne gpu hätte ich die cpu ohne gpu gekauft.

bei uns im geschäft gibts auch nur intel rechner mit intel gpu, genutzt wird aber eine radeon.

mit diesen marktanteilen kann man nicht da nutzerverhalten erklären.

intel sagt sich halt wenn ich die cpu ohne gpu billiger machen muss damit sie sich verkaufen, dann verkauf ich sie lieber mit gpu da bekommen sie mehr geld.

wenn eine cpu gäbe die gleich stark wäre und wenn auch nur wenig günstiger wäre wie mit gpu dann würde der markt diese kaufen siehe i5 und xeon. wären die xeons ungelocked, dann hätte ich und viele andere nen xeon im rechner. scheinbar möchte das intel aber nicht.

spotz
2015-02-18, 16:11:00
Du hast recht, ich habe die Tabelle wohl falsch interpretiert.

Skysnake
2015-02-18, 16:49:16
Insgesamt werden aber wohl bei den meisten CPUs die iGPU genutzt. Das Groß der Rechner machen halt Büro Rechner aus.

Und ganz im Ernst, ich habe im Geschäft auch nen neuen Rechner mit Haswell. Die iGPU tut ihre Arbeit sehr gut für das CAD Zeug was ich mache.

basti333
2015-02-18, 17:07:58
was ich nicht verstehe ist einfach das zig millionen cpus mit integrierter grafik verkauft werden, aber ich schätze weniger als die hälfte derer werden jemals genutzt.

macht es keinen sinn die gpu einfach wegzulassen? oder macht man das um mehr silizium verkaufen zu können?

Ich denke zum Teil macht es die Serienproduktion auch billiger einfach bei allen CPUs ne iGPU reinzuknallen als da nochmal x verschiedene Modelle rauszubringen. Wenn ich mich bei uns in der Firma umgucke stehen da PCs rum, die für reine Office aufgaben 5x Überdimensioniert und Funktionen haben die niemals benutzt werden. Aber am ende wohl trotzdem praktikabler als das alles maßgeschneidert auszuwählen.

Man kauft einfach 500x den gleichen Dell AiO PC ein. Fertig is das. Ähnlich wird es wohl bei den CPUs sein.

robbitop
2015-02-19, 08:36:48
Bürorechner und die meisten Notebooks nutzen die iGPU. Insgesamt wird wohl der Großteil der iGPUs benutzt. Die Wahrnehmung in einem 3D Forum (welches sehr fixiert auf Spiele ist) ist nunmal eine andere. :)

john carmack
2015-02-19, 17:26:30
Hi,

wann kommen die ersten 14nm Desktop CPU´s?

Broadwell sollte schon in 14nm als Desktop kommen - wurde jetzt aber ersetzt durch Skylake?
Wobei Skylake eigentlich der Nachfolger von Broadwell war/ist oder sein sollte?

y33H@
2015-02-19, 17:32:50
Nach momentanem Stand als Broadwell-K im Juni und dann im August als Skylake-S und Skylake-K mit jeweils bis zu 4C/8T.

Tobalt
2015-02-19, 18:34:14
Wurde nicht schonmal sogar irgendwo bestätigt, dass Broadwell-K gestrichen wird ? Oder war das nur ein Gerücht.

y33H@
2015-02-19, 18:48:14
Laut letzten mir bekannten Roadmaps sind die 65W Broadwell "unlocked" weiterhin geplant.

BlacKi
2015-02-19, 20:34:48
es gab das gerücht das broadwell zu heiß wird und man daher das K steichen würde. ich hoffe das dass kein generelles problem mit der 14nm fertigung ist und somit skylake genauso betroffen sein wird. skylake ist mein persönlicher hoffnungsträger was cpu´s in naher zukunft angeht.

hardtech
2015-02-20, 18:12:18
Ich erwarte schon lange nichts mehr von intel und sehne mich nach den zeiten auf der jagd dem dem gigahertz zurück. Heute gibt es im grunde nur einen ernsthaft kaufbaren anbieter am markt, der die entwicklung so weit runterschraubt wie nötig, um dem 2. marktteilnehmer nicht ganz zu verdrängen und damit probleme mit der regulierungsbehörde zu bekommen.
Gähnend langsam alles!

Bezieht man sich auf den normalen pc ( ein bisschen office, ein bisschen spielen in der freizeit) so besteht seitens der cpu keine notwendigkeit zum aufrüsten. Einerseits bedingt durch die lächerlichen performancesprünge zur bestehenden architektur, andererseits durch die tatsache, dass die gpu für mehr fps doch entscheidender ist. Hinzu kommt der mangel an neuerungen im chipsatz bereich: wo bleibt natives usb 3.1? Warum hat ein mainboard anno 2015 noch vga an board?! Das kann man auch per zugelegtem adapter ermöglichen. Heute ist die zeit der 4k tfts und da kommen die mit vga. Bitte, ein ableger board mit vga schön und gut aber nicht durchgängig bei z97! Daher habe ich immer noch das z87 sabertooth und werde es mit dem geköpften wie geschliffenen i5-4670k auch so lange behalten bis ein mehrwert am markt kaufbar und bugfrei vorhanden ist. Hoffe auf skylake, vermute aber in betracht auf die nahe historie, dass ich noch 2 generationen nach skylake warten muss. Industrie möchte mein geld nicht.

Ich wette sogar, dass die ipc mehrleistung zu haswell-refresh marginal sein wird und im einstelligen bereich bei praxisanwendungen liegen wird. Ach was waren das noch schöne thunderbird zeiten...!

BlacKi
2015-02-20, 18:50:16
hast du den broadwell test bei CB schon angeschaut?
zwischen dem vorgänger haswell und broadwell liegen 28% mehr power bei gleichem verbrauch!

das ist ordentlich, allerdings taktet broadwell 2,1ghz und haswell mit 1,7 bei beiden 15w TDP.

wenn man den gerüchten der broadwell K modelle glauben darf, könnte der taktvorteil bei gleichem verbrauch im desktopsegment weit geringer ausfallen.

aber dennoch, skylake wird das alles noch etwas besser können und man kann schon auf 20-30% mehr leistung gegenüber haswell hoffen.
gegenüber meinem sandy ist das schon ein heftiger sprung.

ich finde ziemlich viele spiele sind cpu limitiert, und das mit einem übertaktetem i7... das liegt meistens an den spielen selbst, aber dennoch wünsche ich mir mehr performance als gerade angeboten wird. selbst haswell E ist da keine lösung.

hardtech
2015-02-20, 21:03:22
@blacki
http://www.3dcenter.org/artikel/launch-analyse-intel-haswell/launch-analyse-intel-haswell-seite-3

Wieviel soll der brassell broadwell oder wie sie sonst so alle als nachfolger von haswell heissen laut dem schema von 3dc bringen? 28%? Sehe davon im desktop bisher wenig kaufbarea und glaube keinen marketingfolien. Bis jetzt hatte jede generation nach ivy bridge irgendwelche probleme: schlechte übertaktbarkeit, keine spürbare mehrleistung (ipc leistung gleiches niveau).
Die krone setzte haswell- refresh auf. Intel hat es nach 1 j entwicklung geschafft, der cpu jeweils 100mhz mehr takt zu geben. Boah, waren viele enttäuscht gerade im hinblick auf die lasche entwicklung von ivy auf haswell...

BlacKi
2015-02-20, 21:41:54
http://www.computerbase.de/2015-02/intel-nuc5i3ryk-broadwell-test/3/

man sieht am stromverbrauch oder taktvorteil was mit broadwell möglich ist.

mal sehen ob der niedrigere stromverbrauch sich auch bei höheren taktraten zeigt, dann besteht auch hoffnung auf eine hohe mehrleistung.

beim übertakten von sandy, ivy und haswell sieht man das der stromverbrauch fast identisch ist obwohl die neueren cpu´s mti standard taktraten messbar sparsamer sind.

mit skylake sollen sich wieder die sandybridge entwickler ums design kümmern, und gewisse bauteile denen man die schuld für die taktschwäche gibt werden mit skylake wieder ausserhalb verbaut. das gibt hoffnung.

Mandalore
2015-02-20, 22:11:35
Was denkt ihr? Kann man davon ausgehen, dass Skylake vllt. wegen dem anstehenden AMD Zen min. 25% mehr Leistung bringen wird (Perf/Watt)?

dildo4u
2015-02-20, 22:15:27
Natürlich nicht diese CPU's sind seit Jahren in der Entwicklung was man ändern könnte wäre das TDP zu erhöhen und den Takt zu steigern wie z.b beim 4970k.

Mandalore
2015-02-20, 22:22:38
Natürlich nicht diese CPU's sind seit Jahren in der Entwicklung was man ändern könnte wäre das TDP zu erhöhen und den Takt zu steigern wie z.b beim 4970k.


Vorausschauend entwickelt?

tdon
2015-02-20, 22:27:19
Ich wette sogar, dass die ipc mehrleistung zu haswell-refresh marginal sein wird und im einstelligen bereich bei praxisanwendungen liegen wird. Ach was waren das noch schöne thunderbird zeiten...!


Recht unwahrscheinlich, da schon Broadwell ein paar Prozent IPC zulegt. Von Skylake gibt es nichts abgesehen von ein paar Sisoft Werten (die sehr gut aussehen).

dildo4u
2015-02-20, 22:31:21
Vorausschauend entwickelt?

Was Performance per Watt angeht kann Intel nicht weniger machen als sie in der Lage sind.Sie wollen ja Core CPU's ohne aktiven Lüfter in den Tablet Form Faktor bringen.Intel braucht zusätzlich das Beste war sie haben was GPU Power angeht,ich bin mir sicher das wir Ende 2015 oder Anfang 2016 4k Displays in den Tablets sehen.Es gibt ja jetzt schon Welche mit 2560*1600.

Duplex
2015-02-20, 22:43:35
Was denkt ihr? Kann man davon ausgehen, dass Skylake vllt. wegen dem anstehenden AMD Zen min. 25% mehr Leistung bringen wird (Perf/Watt)?
Skylake soll im Q3/2015 erscheinen, Zen soll erst im Q3/2016 kommen (http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Zen-Kerne-SMT-14-nm-1149077/), also mehr als 1 Jahr Abstand, bis dahin gibt es schon den Skylake Nachfolger mit neuen Chipsätzen.
Wer sagt überhaupt das AMD mit Zen was zu sagen hat?

Bringhimup
2015-02-21, 09:49:58
Ich bin von der Entwicklung im CPU Bereich (im GPU Bereich ist es noch besser, aber auch nicht so gut wie ich es mir wünschen würde) auch mehr als nur enttäuscht. Gerade wo ich endlich genug Geld habe, um häufiger Aufrüsten zu können, geht nichts mehr.

Im Prinzip krebsen wir seit Jahren bei der gleichen Kernzahl rum und Mhz-mäßig geht gar nichts mehr. Die Performance pro Kern bei gleichem Takt steigt auch nur noch im kleinen einstelligen Prozentbereich. Nur die Performace pro Watt ist zuletzt wieder ganz gut gestiegen, das ist aber das einzige, womit man zufrieden sein kann.

Auf dem Servermarkt sieht es in den letzten Jahren viel besser aus (Gerade was Kern und Sockelzahl angeht). Aber die Entwicklung bringt dem passionierten Spieler nicht viel. Und die CPUs kann man sich außerhalb des Firmenumfeldes sowieso praktisch nicht leisten, selbst wenn die z.B. 18 Kerner für Spiele sinnvoll wären.

Skysnake
2015-02-21, 11:06:14
Im Servermarkt tut sich was bei den Sockeln?

Stimmt, die Octa-Sockel sind vollendst am Aussterben, und selbst die Quadsockel kommen verdammt unter die Räder. Dual-Sockel ist DER Herr im Ring, und das seit Jahren.

Kriton
2015-02-21, 12:04:54
Ich würde auch endlich gern mal mehr Kerne sehen. Ein bisschen schwanke ich ja in Richtung Skylake, aber andererseits: Wie realistisch ist eine wahrnehmbare Leistungssteigerung von meinem Xeon wenn ich nicht den High-End-K-Chip nehme und übertakte?

YfOrU
2015-02-21, 12:59:37
Auf dem Servermarkt sieht es in den letzten Jahren viel besser aus (Gerade was Kern und Sockelzahl angeht). Aber die Entwicklung bringt dem passionierten Spieler nicht viel. Und die CPUs kann man sich außerhalb des Firmenumfeldes sowieso praktisch nicht leisten, selbst wenn die z.B. 18 Kerner für Spiele sinnvoll wären.

LGA 1150/1151 sind Plattformen welche Entry bis Mainstream/Performance abdecken. Dieser Bereich ist seit Ewigkeiten eng mit Mobile verknüpft. Es sind schlussendlich die gleichen Chips. Eine mobile CPU mit 6C macht in einem Markt welcher sich über die letzten Jahre von typischerweise 35W TDP Richtung 15W TDP entwickelt hat wenig Sinn (und wäre am Desktop auch noch Konkurrenz zu LGA 2011-3). Genaugenommen ist selbst die Verbreitung der mobilen 4C CPUs seit geraumer Zeit rückläufig. Der mobile Markt wird heute dominiert von 2C/4T.

Wer mehr will muss auch bei AMD eine Auskopplung aus dem Serversegment nehmen (also AM3+ statt AM1/FM2). Bei Intel ist das LGA 2011-3. Wirklich günstig war das noch nie aber das ist eben auch nicht mehr Mainstream. Aussagen das die Entwicklung still steht halte ich deshalb für falsch. Wer unbedingt Highend haben will bekommt das auch und zwar inkl. der Vorteile welche die heute deutlich höhere Effizienz ermöglicht -> viele CPU Kerne ohne das die TDP durch die Decke geht kombiniert mit einem sehr guten Powermanagement.

BlacKi
2015-02-21, 19:41:21
Ich würde auch endlich gern mal mehr Kerne sehen. Ein bisschen schwanke ich ja in Richtung Skylake, aber andererseits: Wie realistisch ist eine wahrnehmbare Leistungssteigerung von meinem Xeon wenn ich nicht den High-End-K-Chip nehme und übertakte?
bei spielen?

alles über 4 kerne +ht hat keinerlei positiven effekt. erstrecht keine 18 kerne or something.

bei manchen spielen hast du sogar vorteile wenn du 2 kerne deaktivierst und 200-300 mhz extra rausholen kannst.

y33H@
2015-02-21, 19:42:55
Gibt genug Spiele, die über 4C hinaus sehr gut skalieren ... wichtig zB bei CF/SLI.

Sunrise
2015-02-21, 20:04:08
Im Servermarkt tut sich was bei den Sockeln?

Stimmt, die Octa-Sockel sind vollendst am Aussterben, und selbst die Quadsockel kommen verdammt unter die Räder. Dual-Sockel ist DER Herr im Ring, und das seit Jahren.
Vor allem erschreckend, wieviel Geld man heute in so ein x86 Dual-Sockel-System stecken kann. Letztens erst wieder was gesehen, knapp an die 100k für eine Maschine. Und das war wirklich gut zusammengestellt (kein unnötiger Scheiss).

Wenn man sich da den aktuellen Desktop-Markt anguckt, ist irgendwie niedlich.

Gekauft wird frühestens Skylake(-E) wieder. Wenn Intel denkt sie müssen die Schritte kleiner machen, mach ich sie eben größer, interessiert Intel sowieso nicht. Jedenfalls würde ich PCIe 4.0, DDR4, SATA Express gern mitnehmen.

BlacKi
2015-02-21, 21:39:29
Gibt genug Spiele, die über 4C hinaus sehr gut skalieren ... wichtig zB bei CF/SLI.
oder 144hz.

mit 144fps/hz braucht man mehr als das doppelte an cpu leistung für spiele als es 60hz benötigen. um die grafik höher zu stellen reicht oft eine 2. grafikkarte, aber anstatt 60fps zu erzeugen braucht man bei 144fps leider nicht einfach mehr kerne sondern 2x ghz. der gipfel war ja dying light, wo selbst bei übertakteten highend cpu´s die luft ausgeht weil nur ein kern ausgelastet wird.

DayZ ähnlich, es werden 2 kerne ausgelastet.

BF4 ist trotz des "schlechten netcodes" ein prima beispiel dafür wie man kerne auslasten kann.

Crysis 3 kann mit 8 modulen/threads auch noch was anfangen, aber alles was darüber liegt, bringt keinerlei vorteil.

da sehe ich eher die entwickler in der verantwortung erstmal mehr kerne auszulasten bevor wir mehr kerne im desktop sehen.

ich hätte mir nen 5960x gekauft wenn es was gebracht hätte.

Kriton
2015-02-21, 23:34:19
bei spielen?

alles über 4 kerne +ht hat keinerlei positiven effekt. erstrecht keine 18 kerne or something.

bei manchen spielen hast du sogar vorteile wenn du 2 kerne deaktivierst und 200-300 mhz extra rausholen kannst.

Auch wenn man nicht beliebig parallelisieren kann ist das sicher auch Henne/Ei.
Und wenn ich einen (theoretischen) 8-Kerner kaufe, der nicht 1000,- € kostet (und daher von ein paar mehr Leuten gekauft würde), würde man sich seitens der Programmierer sicher auch mehr darum kümmern.

aufkrawall
2015-02-21, 23:38:16
Ist vielleicht auch nicht so die Motivation, wenn der API-Overhead oder andere Unzulänglichkeiten einem bei der Mehrkernauslastung ständig einen Strich durch die Rechnung machen.

BlacKi
2015-02-21, 23:44:07
Auch wenn man nicht beliebig parallelisieren kann ist das sicher auch Henne/Ei.
Und wenn ich einen (theoretischen) 8-Kerner kaufe, der nicht 1000,- € kostet (und daher von ein paar mehr Leuten gekauft würde), würde man sich seitens der Programmierer sicher auch mehr darum kümmern.

wie lange ist nun der 8150 auf dem markt??? wie lange? ffs..

wie lange gibts nun schon 8 threader auf dem markt?

deshalb gibts noch keine 8 kerner im notebook segment. wenn 8 kerne gescheit unterstützt würden gäbs 8kerne oder mehr mit reduziertem takt wie bei den xeon in laptops. denn 8 kerne mit niedrigerem takt sind effizienter als 4 kerner mit hohem takt.

Ist vielleicht auch nicht so die Motivation, wenn der API-Overhead oder andere Unzulänglichkeiten einem bei der Mehrkernauslastung ständig einen Strich durch die Rechnung machen.

da spielt vieles mit rein, vermutlich ist es einfach zu umständlich/zu viele arbeit die kerne auszulasten. da könnte ja soviel arbeitskraft benötigt werden, das ist leider nicht so effizient.

robbitop
2015-02-22, 01:10:31
Ich finde es sinnfrei, wenn C3 angeführt wird für Skalierung >4 C. Das ist hauptsächlich das Gras, welches so toll skalliert. Kein Gras - kaum Skallierung.
Der Vorteil von >6C ist in Spielen - zumindest aktuell - sehr sehr gering ggü 4C/8T. Auch im CPU Limit.

Coda
2015-02-22, 02:07:46
Hint: Die Technik ist nicht bei C3 stehen geblieben.

hardtech
2015-02-22, 22:33:26
naja idr sind die spiele auf max 4c beschränkt. da bringt eher: mehr takt, mehr ipc leistung.
die 10-20% spiele, die von mehr profitieren, sind noch lange nicht die masse. also brauchen wir uns auch nicht darüber zu unterhalten, dass die entwicklung nicht bei c3 stehen geblieben ist...



Gekauft wird frühestens Skylake(-E) wieder. Wenn Intel denkt sie müssen die Schritte kleiner machen, mach ich sie eben größer, interessiert Intel sowieso nicht. Jedenfalls würde ich PCIe 4.0, DDR4, SATA Express gern mitnehmen.

kann mich der aussage voll anschliessen, wobei es für mich gegen die -e plattform entscheide, weil man es normal nicht braucht.

tdon
2015-02-22, 22:50:52
http://browser.primatelabs.com/geekbench3/1753502

Intel 0000 @ 2.60 GHz 1 processor, 4 cores, 8 threads
GenuineIntel Family 6 Model 94 Stepping 1


Das müsste ein Skylake ES sein. MT score sieht recht gut aus. Turbo Takt ist zwar unbekannt, aber glaube nicht, dass der annähernd so hoch wie beim i7-4770k liegt bei dem geringen Basistakt. Falls überhaupt Turbo aktiv ist.


Zum Vergleich i7-4770k 3,5 Ghz Turbo Off:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9893613&postcount=11

Timbaloo
2015-02-22, 23:29:05
Das wären ~20% MT mehr taktbereinigt. Reisst mich jetzt nicht vom Hocker.

kunibätt
2015-02-22, 23:38:37
Mich schon. Und jetzt?

tdon
2015-02-22, 23:40:32
Mit 20% wäre ich mehr als zufrieden. Die meisten Werte liegen im Bereich 10% auseinander. Bei den Skylake Werten sehen nur AES und die memory Werte deutlich schlechter aus, das drückt den Schnitt.

Coda
2015-02-23, 00:02:55
Das wären ~20% MT mehr taktbereinigt. Reisst mich jetzt nicht vom Hocker.
20% mehr IPC wären extrem beeindruckend.

y33H@
2015-02-23, 00:06:50
Aber höchst unwahrscheinlich bei Wald- und Wiesen-Code ... aber schaun wir mal.

Timbaloo
2015-02-23, 00:13:43
20% mehr IPC wären extrem beeindruckend.
Für einen Tic und einen Toc?

Coda
2015-02-23, 00:17:31
Selbstverständlich. Die low hanging fruits sind schon lange weg.

Ich habe das Gefühl manche Leute verstehen das Problem immer noch nicht. Es gibt nicht endlos Parallelität in einem Instruction-Stream. Es wird immer schwerer da noch mehr auszunutzen. Mehr Transistoren helfen da per se nicht, man muss sich neue Dinge einfallen lassen.

BlacKi
2015-02-23, 00:20:00
20% wären etwas mehr als zwischen sandy und haswell.

ca 35% mehr als mein sandy sind ok wenn die maximale taktrate gleich bleibt.

bei max 4,2 ghz sinds auch effektiv keine 35% mehr leistung

Timbaloo
2015-02-23, 00:22:26
Selbstverständlich. Die low hanging fruits sind schon lange weg.

Ich habe das Gefühl manche Leute verstehen das Problem immer noch nicht. Es gibt nicht endlos Parallelität in einem Instruction-Stream. Es wird immer schwerer da noch mehr auszunutzen. Mehr Transistoren helfen da per se nicht, man muss sich neue Dinge einfallen lassen.

Das ist schon klar, aber es ist halt auch nicht wirklich mehr als der Sprung von Sandy Bridge auf Haswell. Und auch da waren die long hanging fruits schon weg. Ergo nichts was mich (oder dich) ekstatisch machen sollte. Eine solide Verbesserung, aber nicht "extrem beeindruckend". Imho.

Die große Frage ist vielmehr bei welcher Leistungsaufnahme das passieren wird.

Coda
2015-02-23, 00:23:53
Das ist schon klar, aber es ist halt auch nicht wirklich mehr als der Sprung von Sandy Bridge auf Haswell. Und auch da waren die long hanging fruits schon weg. Ergo nichts was mich (oder dich) ekstatisch machen sollte. Eine solide Verbesserung, aber nicht "extrem beeindruckend". Imho.

Die große Frage ist vielmehr bei welcher Leistungsaufnahme das passieren wird.
Es ist extrem beeindruckend, sollten sie das immer noch schaffen. Ich würde eigentlich annehmen, dass die Gewinne geringer werden. Deshalb geh ich eigentlich von weniger aus.

Wir reden hier schließlich auch von exponentiellem Wachstum wenn man immer 20% drauf legt, das dürft ihr nicht vergessen.

tdon
2015-02-23, 00:39:11
Schaut euch doch die miesen memory Werte an. Das ist sicher kein vergleichbar optimiertes System. Ein 2.6 Ghz Stepping 1 SKL nur 10-15% langsamer als ein sauber laufender 3,5 Ghz Haswell macht einen sehr guten Eindruck. Genaues lässt sich nicht sagen, dazu braucht es genaue Taktraten und weitere SKL Werte. Ich bezweifle, dass ein 2.x Ghz Haswell ES damals so nah an einem 3,5 Ghz Sandy Bridge dranlag.

Nightspider
2015-02-23, 02:58:48
Vergesst nicht das Broadwell noch dazwischen liegt und Skylake nicht der direkte Nachfolger von Haswell ist sondern von Broadwell.

20% zu Haswell wären also nicht ganz so beeindruckend wie auf Broadwell. Dennoch ein etwas besserer Leistungszuwachs als in den letzten 2 Jahren.

Hint: Die Technik ist nicht bei C3 stehen geblieben.

Crysis 4? Star Citizen? :biggrin:

Bei Star Citizen könnte man auf jeden Fall viele Asteroiden, Raketen, Laserschüsse und NPCs auf 8 Kerne verteilen.

BlackBirdSR
2015-02-23, 09:14:05
Sicher? Entsteht skylake nicht in Israel? Ich sehe skylake eher als branch ab sandy bridge, während in den USA optimiert wurde. Daher würde ich durchaus noch größere Änderungen erwarten.


Vergesst nicht das Broadwell noch dazwischen liegt und Skylake nicht der direkte Nachfolger von Haswell ist sondern von Broadwell.

20% zu Haswell wären also nicht ganz so beeindruckend wie auf Broadwell. Dennoch ein etwas besserer Leistungszuwachs als in den letzten 2 Jahren.



Crysis 4? Star Citizen? :biggrin:

Bei Star Citizen könnte man auf jeden Fall viele Asteroiden, Raketen, Laserschüsse und NPCs auf 8 Kerne verteilen.

robbitop
2015-02-23, 09:18:52
Israel und USA werden sicherlich vernetzt arbeiten, so dass Neuerungen der beiden Teams kontinuierlich weitergegeben und in den anderen Branch eingearbeitet werden. Alles andere wäre sinnlos, weil man sonst das Rad zweimal erfinden müsste.

BlackBirdSR
2015-02-23, 09:22:59
Schon klar, das meine ich such nicht.
Während das eine Team mehr oder weniger nur zwischen den releases optimieren kann und grundsätzlich keine revolutionären Änderungen vornehmen kann, könnte Israel ab sandy bridge durchaus die letzten Jahre tiefgreifende Änderungen vornehmen.
Würde mich nicht überraschen, wenn skylake gar als neue mikroarchitektur durchgeht.


Israel und USA werden sicherlich vernetzt arbeiten, so dass Neuerungen der beiden Teams kontinuierlich weitergegeben und in den anderen Branch eingearbeitet werden. Alles andere wäre sinnlos, weil man sonst das Rad zweimal erfinden müsste.

robbitop
2015-02-23, 09:34:07
Naja das gleiche galt ja andersherum auch für Haswell. Die hatten ja seit Nehalem Zeit was neues zu machen. Immerhin kam ja auch eine breitere Execution, breiter angebundene Caches etc dabei heraus. Das Ergebnis war allerdings nicht so berauschend. ca. 15 % mehr IPC als Sandy.
Und vor allem skalierte SMT trotz mehr INT Ressources nicht besser (was mich sehr wunderte).

Andererseits gilt das Israel Team ja auch immer ein wenig als das bessere Team. Insofern sind 20 % nicht unrealistisch. Schade, dass sie den integrierten Spannungsregler nicht mehr eingebaut bekommen haben. So wäre Skylake @mobile sicher nochmal noch ein Quäntchen effizienter gewesen.

Spasstiger
2015-02-23, 09:48:02
Ich glaube, dass die absolute Performance von Skylake sowieso produktpolitisch vorgegeben wird. Wenn Intel sich dafür entscheidet, künftig nur noch max. 65 Watt im Mainstream (max. 4C/8T) zuzulassen wie es sich mit Broadwell andeutet, dann wirds wieder nur einen Mini-Schritt bei der Performance gegenüber Haswell geben. Und dann heißt es warten auf Skylake-E. ;)

robbitop
2015-02-23, 09:53:55
Tja Monopol FTW. Kunden sind dann nur noch Melkkühe und Innovation wird in Salamistücken verteilt. Ein starkes AMD ist immer gut für den Markt - ein schwaches AMD leider nicht so sehr...

Andererseits: um so seltener muss man aufrüsten. :D (für 20 % rüste ich jedenfalls nicht auf)

Spasstiger
2015-02-23, 10:04:45
Ich finde vor allem die Aussicht bitter, dass wir 5 Jahre nach Release von Sandy Bridge bestenfalls 50% Performance-"Fortschritt" im gleichen Produkt- und Preissegment (Mainstream) sehen werden - von Spezialfällen, die vom erweiterten Befehlssatz profitieren, mal abgesehen. Nur im Enterprise-Segment lässt Intel den Kunden an der Weiterentwicklung teilhaben.

robbitop
2015-02-23, 10:18:27
Naja eher 40 %. Haswell bot isolierte Singlethreadperformancesteigerung gggü. Sandy von 15 %. Wenn Skylake jetzt 20 % schafft (was noch unklar ist!), sind es knapp unter 40 %.

Allerdings ist es eben so, wie Coda schon sagt: IPC Steigerungen werden immer schwieriger und immer teuer und irgendwann ist einfach nicht mehr drin, weil der Code nicht mehr hergibt.

Dann kann man die Frequenz noch ein wenig steigern. Aber eigentlich besteht viel mehr Potenzial in der Parallelisierung von Problemen. (nicht alles lässt sich parallelisieren - ich weiß).

Wenn die Software auch so weit ist, kann man durch HUMA (und ähnliche Konzepte) sicher deutlich höhere Sprünge machen als durch Steigerung der IPC von CPUs.

Sunrise
2015-02-23, 10:52:03
Tja Monopol FTW. Kunden sind dann nur noch Melkkühe und Innovation wird in Salamistücken verteilt. Ein starkes AMD ist immer gut für den Markt - ein schwaches AMD leider nicht so sehr...

Andererseits: um so seltener muss man aufrüsten. :D (für 20 % rüste ich jedenfalls nicht auf)
Also 20% mehr IPC auf einen Schlag empfinde ich schon als ziemlichen Sprung, vor allem wenn man dann evtl. noch von verringerter TDP ausgeht. Das wäre dann vor allem bei parallelisierbarem Code deutlich zu spüren. Man darf nicht vergessen, dass das weiterhin noch auf 14nm erfolgt. Gerade Video-Encoding mit x264 etc. würde davon extrem profitieren.

Zusammen mit anderen Features und Verbesserungen (und einigen Geheimnissen) empfinde ich Skylake mal als wieder kaufbare CPU, die besonders Nehalem- bzw. Sandy Bridge-Benutzer mit Sicherheit wieder für ein paar Jahre (meine Käufe reichen min. 5 Jahre aus) reichen sollte.

Ich frage mich allerdings seit einiger Zeit wirklich, warum Intel weiterhin ungestört arbeiten darf. Ab welchem Punkt hat Intel im x86/x64-CPU denn eigentlich so eine Marktmacht, dass sich hier jemand aktiv einschaltet? Sogar IBM hatte sich ja vor kurzem dort erst verabschiedet. Wäre es nicht langsam mal an der Zeit?

Nur, weil es Alibi-AMD noch gibt, heißt doch noch lange nicht, dass sie hier irgendeine Chance hätten, wenn Intel dann wieder bei Cannonlake (oder sogar dem Nachfolger) und einem fortgeschrittenen 10nm-Prozess (inkl. den Prozess-Vorteilen bei 10nm, die Intel jetzt schon angibt) ist.

Da müsste mit Zen wirklich ein Weltwunder passieren, dass man hier auch nur in die Nähe kommt. Und wo kein Geld, da kein R&D, da kein Fortschritt, wann also ist dieser Punkt denn erreicht? IMHO doch jetzt schon sehr deutlich?!

BlacKi
2015-02-23, 11:09:01
die 20% überspringen eben broadwell, das muss man berücksichtigen. sicher, ohne OC ist der verbrauch schön niedrig, aber um als overclocker ebenfalls den vorteil zu haben muss auch die taktrate mitspielen. oft verbrauchen dann die kandidaten generationsübergreifend fast gleichviel.

ich glaube nicht das strafzahlungen, wenn man sie durchbrächte irgendeinen vorteil hätte. im gegenteil, intels forschungensgelder würden geringer ausfallen. schlimmer wäre jedoch wenn intel sein portfolio ausbremsen würde um nichtmehr als monopol eingestuft zu werden.

eine echte alternative die alle zufrieden stellt gibts wohl nicht.

BlackBirdSR
2015-02-23, 11:12:46
Durch ARM entsteht so viel Konkurrenz in den nächsten Jahren, dass AMD eigentlich kein Problem mehr sein sollte. Bis dahin macht Intel ja schön langsam...

BlacKi
2015-02-23, 11:19:06
Durch ARM entsteht so viel Konkurrenz in den nächsten Jahren, dass AMD eigentlich kein Problem mehr sein sollte. Bis dahin macht Intel ja schön langsam...

dort kommt die ARM entwicklung auch noch hin^^

Die low hanging fruits sind schon lange weg.

Ich habe das Gefühl manche Leute verstehen das Problem immer noch nicht. Es gibt nicht endlos Parallelität in einem Instruction-Stream. Es wird immer schwerer da noch mehr auszunutzen. Mehr Transistoren helfen da per se nicht, man muss sich neue Dinge einfallen lassen.

ARM profitiert doch in den letzten jahren doch nur so, weil sovieles schon gelöst wurde. wenn ARM mal da hin kommt wo intel jetzt steht, gehts auch nicht schneller vorwärts.

wenn die softwareseitige mehrkernunterstützung weiterhin so schlecht bleibt, dann werden wir noch lange spaß an unseren prozessoren haben

Thunder99
2015-02-23, 12:36:46
ARM ist nicht wirklich eine Konkurrenz in dem Feld wo Intel ist. Sie versuchen eher mit ARM im low Power Bereich konkurrieren und da haben sie ja ihre Probleme.

Im Server/Konsumer Geschäft ist nur AMD ein Konkurrent und da hat AMD seine massiven Probleme überhaupt noch Fuß zu fassen (sprich Marktanteil).

Ohne immense Investitionen in AMD wird niemand mehr Intel einholen können

FlashBFE
2015-02-23, 15:59:44
Ohne immense Investitionen in AMD wird niemand mehr Intel einholen können
Außer das PC-Geschäft wird irgendwann so bedeutungsschwach, dass es gar nicht mehr nötig wird, mit Intel zu konkurrieren. Es hängt auch viel von Microsoft ab. Als WinRT erschien, dachte ich, jetzt würde ARM auch den unteren Laptop-Markt übernehmen. Es hätte noch ein X86-ARM-Emulator gefehlt für einfache Desktopsoftwarekompatibilität. Ohne die ist RT ja nun gnadenlos Baden gegangen und MS hat die Schiene beerdigt. Punktsieg für x86. Die Frage ist nur, wie lange Microsoft für den nächsten ARM-Anlauf braucht (abgesehen von den Smartphones).

john carmack
2015-02-23, 16:07:28
Fertigungstechnik:
Der 14-Nanometer-Schwindel

http://www.golem.de/news/fertigungstechnik-der-14-nanometer-schwindel-1502-112524.html

Gandharva
2015-02-23, 16:11:37
Außer das PC-Geschäft wird irgendwann so bedeutungsschwach, dass es gar nicht mehr nötig wird, mit Intel zu konkurrieren. Es hängt auch viel von Microsoft ab. Als WinRT erschien, dachte ich, jetzt würde ARM auch den unteren Laptop-Markt übernehmen. Es hätte noch ein X86-ARM-Emulator gefehlt für einfache Desktopsoftwarekompatibilität. Ohne die ist RT ja nun gnadenlos Baden gegangen und MS hat die Schiene beerdigt. Punktsieg für x86. Die Frage ist nur, wie lange Microsoft für den nächsten ARM-Anlauf braucht (abgesehen von den Smartphones).
MS wird keinen neuen ARM Anlauf machen. Müssen sie auch nicht. Mit Windows 10 werden sie vom Tablet bis zum Desktop/Server den Markt dominieren zusammen mit Intel.

Einzig ARM/Android/Apple hat im Low Power Segment noch was entgegen zu setzen. Allerdings tut Intel bereits alles um auch dort Marktführer zu werden.

Ich persönlich erwarte das die Skylake Architektur in erster Linie auf das Mobile Segment getrimmt sein wird.

dildo4u
2015-02-23, 17:04:03
Ohne Apps kann MS den Tablet Markt vergessen,der MS Marktplatz ist immer noch ein Witz und daran wird auch Win 10 nix ändern.Der einzige Markt der große Zuwächse zeigt sind große Smartphone's Tablet's sind rückläufig.(Siehe Apple)

MS ist nicht mal in den Top 10 der Smartphone Hersteller,daher lohnt es sich nicht Touch und damit Tablet Apps zu entwickeln.

www.neogaf.com/forum/showthread.php?t=928612

2015 sollen 1.5 Millarden Smartphone's verkauft werden,Intel hat dort nix zu sagen und verkauft im Tablet/Smartphone Bereich veraltete Atom's in neuen Geräten.

www.pcper.com/reviews/Mobile/Dell-Venue-8-7000-Review-Intel-and-Android-Perfected/CPU-Performance

Thunder99
2015-02-23, 17:07:43
Sieht man an den Tablets wo viele Billig Tablets mit Atom Z angeboten werden. Nur hoffe ich das sie niemals Marktführer werden sondern einfach nur gut mit mischen. Bringt dem Kunden am meisten

Gandharva
2015-02-23, 17:20:15
Ohne Apps kann MS den Tablet Markt vergessen,der MS Marktplatz ist immer noch ein Witz und daran wird auch Win 10 nix ändern.Der einzige Markt der große Zuwächse zeigt sind große Smartphone's Tablet's sind rückläufig.(Siehe Apple)
Two bzw. Three in Ones werden imho Tablets ersetzen in den nächsten Jahren (Core M bzw. dessen Nachfolger) und dort hab ich persönlich ein vollwertiges Windows lieber als irgendwas andres. Android wird man auf diesen Geräten einfach emulieren um Zugriff auf den Playstore zu bekommen.

Bei Smartphones gehts für Intel auch langsam los. Mit ihrem Android x86 stehen sie nicht schlecht da. 3 Wochen nach Android Release soll jeweils ihre Version folgen. So sieht es zumindest der Plan für Hersteller die dort mitmachen vor.

Spasstiger
2015-02-23, 20:19:18
Dann kann man die Frequenz noch ein wenig steigern.
Das hatte ich bei der 50%-Annahme schon eingerechnet. ;) Sandy Bridge kam ja initial mit max. 3,4 GHz (3,8 GHz Turbo). Bei Skylake hoffe ich auf 4 GHz plus zumindest beim Turbo. Aber das ist wie gesagt eher eine produktpolitische Entscheidung denn eine technische seitens Intel. ;)

basti333
2015-02-24, 22:39:56
Wenn ich mir die Aktuellen News angucke geht Intels Plan scheinbar auf, Jahr für Jahr holt man einen größeren Marktanteil bei den GPUs. Ist jetzt nur die Frage ob dies wirklich (nur) daher kommt das Intels iGPUs die dedizierten verdrängen oder ob es auch daran liegt das Intel einen immer größeren Marktanteil bei den CPUs hat.

spotz
2015-03-01, 16:42:29
Im 3Dcenter Link zu John Peddie Research zum 4. Quartal 2014 steht der Satz: "The attach rate of AIBs to desktop PCs has declined from a high of 63% in Q1 2008 to 36% this quarter." AIBs meint Add-In Boards, also nach meinem Verständnis diskrete GPUs in PCs. Da meines Wissens nach Intels Anteil bei CPUs in der Zeit nur leicht von 80% auf heute 85% stieg, während der Anteil der dGPUs von 63% auf 36% deutlich stärker sank, verdrängen die iGPUs zum größeren Teil die dGPUs.
http://jonpeddie.com/publications/add-in-board-report/

G3cko
2015-03-03, 21:54:31
Im 3Dcenter Link zu John Peddie Research zum 4. Quartal 2014 steht der Satz: "The attach rate of AIBs to desktop PCs has declined from a high of 63% in Q1 2008 to 36% this quarter." AIBs meint Add-In Boards, also nach meinem Verständnis diskrete GPUs in PCs. Da meines Wissens nach Intels Anteil bei CPUs in der Zeit nur leicht von 80% auf heute 85% stieg, während der Anteil der dGPUs von 63% auf 36% deutlich stärker sank, verdrängen die iGPUs zum größeren Teil die dGPUs.
http://jonpeddie.com/publications/add-in-board-report/


Ist doch auch logisch. Wer keine Spiele spielt oder andere größere Leistung braucht, der braucht auch keine Grafikkarte. Ich bezweifle aber auch, dass mit den 35€ Grakas viel Gewinn gemacht wurde. Nach dem Preiskampf bis 2008/2009 sind die Grakapreise aber auch etwa angezogen.

Zoran
2015-03-05, 23:20:19
Warum wird überhaupt noch eine 'ordinäre' Grafikkarte benötigt ?

Das sollte eine 'moderne' CPU mit mehreren Rechenkernen auch stemmen können, für mich ist das unnütze Ressourcenverschwendung, nebst Treiber-/ Schnittstellenoverhead.

Entweder langweilt sich die CPU oder die GPU, warum wird beides nicht vereint ?

Ich hege die Hoffnung, dass Skylake zumindest im Ansatz dort etwas gerade zieht.

Ravenhearth
2015-03-06, 00:28:54
Universal Processing Units? :freak:

Thunder99
2015-03-06, 00:35:46
Mutli Display, Kompatibilität wenn man hin und wieder ein Spiel starten möchte, Anschlüsse (DVI, HDMI, Display Port). Es gibt genug Gründe warum die dGPU's auch heute noch benötigt werden ;)

Hübie
2015-03-06, 03:27:24
Warum wird überhaupt noch eine 'ordinäre' Grafikkarte benötigt ?

Das sollte eine 'moderne' CPU mit mehreren Rechenkernen auch stemmen können, für mich ist das unnütze Ressourcenverschwendung, nebst Treiber-/ Schnittstellenoverhead.

Entweder langweilt sich die CPU oder die GPU, warum wird beides nicht vereint ?

Ich hege die Hoffnung, dass Skylake zumindest im Ansatz dort etwas gerade zieht.

Wie bitte? Was genau meinst du? :|

Ravenhearth
2015-03-06, 04:16:20
Er meint anscheinend, dass die CPU-Kerne die Grafikberechnungen ja auch durchführen können und eine GPU damit komplett überflüssig ist :D

BlackBirdSR
2015-03-06, 06:33:06
Die CPU würde sich bei diesen Aufgaben eher langweilen. Das ist ineffizient, daher lagert man diese sklavenarbeit einfach auf GPUs aus.

Kriton
2015-03-06, 09:33:01
Warum wird überhaupt noch eine 'ordinäre' Grafikkarte benötigt ?

Das sollte eine 'moderne' CPU mit mehreren Rechenkernen auch stemmen können, für mich ist das unnütze Ressourcenverschwendung, nebst Treiber-/ Schnittstellenoverhead.

Entweder langweilt sich die CPU oder die GPU, warum wird beides nicht vereint ?

Ich hege die Hoffnung, dass Skylake zumindest im Ansatz dort etwas gerade zieht.

Das klingt ein wenig nach AMDs APU/HSA-Konzept. Vielleicht bist Du beim falschen Hersteller?

AnarchX
2015-03-26, 13:27:05
Skylake wird unter Verschluss gehalten, da er zu schnell ist?
http://www.bitsandchips.it/english/52-english-news/5414-the-transition-from-broadwell-to-skylake-will-be-similar-to-the-transition-from-prescott-to-conroe

Kann sich natürlich auch hierauf beziehen: http://www.3dcenter.org/news/angebliche-skylake-benchmarks-zeigen-extreme-bis-unglaubwuerdige-performancegewinne

y33H@
2015-03-26, 13:34:35
They are concentrating to polish the new CPU cores, because they want a product bug freeDas klingt ja so, als ob die noch am Design sitzen ... IMHO Quatsch, da die Produktion für SKL-Y/-U schon angelaufen ist.

Coda
2015-03-26, 14:09:42
Metal layer fixes kann man auch noch machen nachdem die Fertigung angelaufen ist. Ich weiß nicht wie üblich das ist.

Timbaloo
2015-03-26, 14:30:05
Skylake wird unter Verschluss gehalten, da er zu schnell ist?
Wo liest du das "unter Verschluss gehalten" raus?

AnarchX
2015-03-26, 14:54:27
Steht doch im Artikel, man ist wohl mit den Samples nicht so freigiebig wie bisher.

y33H@
2015-03-26, 15:42:54
Metal layer fixes kann man auch noch machen nachdem die Fertigung angelaufen ist. Ich weiß nicht wie üblich das ist.Klar kann man das, neues Stepping halt. Vll kann Skylake-H/S/K etwas, das Skylake-Y/-U nicht bietet, bei TSX musste Intel ja auch nacharbeiten.

Coda
2015-03-26, 16:17:09
Ich meinte das anders. Bis ein Chip durch die Produktion geht vergehen heute Monate, d.h. man kann währendessen noch Änderungen an den Metal-Layern machen.

Ravenhearth
2015-03-26, 17:26:54
Aber ist das normal? Für mich klingt das wie ein Schritt, den man nur machen sollte, wenn wirklich was kaputt ist.

ux-3
2015-03-26, 17:28:56
TL/dnr :redface:

Ich laufe noch auf Ivy i5k. Wann wird das mit Skylake (Desktop) was und welche Steigerung habe ich dann zu erwarten? Ganz knappe Info würde schon reichen.
Merci!

Nightspider
2015-03-26, 17:44:05
Die ersten Skylake Prozessoren für den Desktop dürften bald erscheinen, zwischen Juli und Ende August wobei noch nicht ganz klar ist ob es von Anfang an -K Versionen geben wird, mit freiem Multiplikator.

Bei gleichem Takt dürftest du sehr oft 15-25% mehr Leistung haben und in neueren Spielen sogar bis zu 45 oder im seltenen Extremfall 60% mehr Leistung haben.

Haswell brachte ~5-10% mehr Leistung
Broadwell bringt angeblich 5-7% mehr Leistung
Skylake wird wohl 10-15% drauflegen, mit Glück 20%.

In einigen Spielen schlagen diese Prozentwerte aber deutlich mehr durch, auch wenn das die meisten abstreiten weil sie sich nur nach Durchschnittswerten interessieren.

Wenn du einen i7 nimmst bringt dir das natürlich nochmal eine Ecke mehr Leistung zusätzlich.

Ich verweise auch mal wieder auf mein Posting:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10433559&postcount=439

Ravenhearth
2015-03-26, 18:01:10
Ich freue mich, meinen PII X6 endlich in Rente schicken zu können.

ux-3
2015-03-26, 18:03:53
Die ersten Skylake Prozessoren für den Desktop dürften bald erscheinen, zwischen Juli und Ende August wobei noch nicht ganz klar ist ob es von Anfang an -K Versionen geben wird, mit freiem Multiplikator.

Bei gleichem Takt dürftest du sehr oft 15-25% mehr Leistung haben und in neueren Spielen sogar bis zu 45 oder im seltenen Extremfall 60% mehr Leistung haben.


Vielen Dank.

tdon
2015-03-26, 21:12:42
Die ersten Skylake Prozessoren für den Desktop dürften bald erscheinen, zwischen Juli und Ende August


August-Oktober hieß es zuletzt. Das heißt wir sind vielleicht mehr als ein halbes Jahr entfernt. Genügend Zeit für Leaks vorher. Das bisschen was bekannt ist, ist alles noch vom ersten Stepping.

Emildeon
2015-03-27, 01:53:01
Meint ihr man sollte noch auf Skylake warten? Bau mir Grad nen komplett PC und bin Grad unschlüssig ob ich noch warten solle

Nightspider
2015-03-27, 01:59:53
Ja.

Emildeon
2015-03-27, 02:06:58
Hm OK dann kommt das zeitlich vielleicht auch mit den neuen AMD Grafikkarten hin. Danke :)

BlacKi
2015-03-28, 23:55:46
fiji r9 390(X)ja,

der rest ist bleibt vermutlich alt^^

soooo viel schneller wird skylake jetzt auch wieder nicht das man unbedingt warten sollte, aber wir stehn kurz vor 2 sprüngen von 2 generationen. wer weiß obs sich nicht lohnt.

rentex
2015-03-29, 09:26:11
Skylake wird genug schnell sein und der dazugehörige Chipsatz (Infrastruktur) mehr neues bieten. Ich warte gerne. Von Sandy zu Haswell, ist kein großer Unterschied, zu Skylake eben schon. Werde auch auf DDR4 umsteigen. Schade nur, das PCIe14 nicht mit dem 100er Chipsatz einzug hält. Ganz doofe Frage: Was ist den mit der Umschalterei von integrierter Grafik zu dedizierter geworden?

Knuddelbearli
2015-03-29, 15:21:38
also ich sehe weiter kaum einen Grund von meinem ( zugegeben recht gut OCbaren ) i7 2600K umzurüsten.

Sata3 Begrenzung merkt man im Alltag als Zocker eh nicht. und PCI-E bringt in 99,9% der Spiele weiterhin nur 1-2% Vorteil.

Und das obwohl ich gerne Aufrüsten würde das mein drecks Asus Mainboard beim Sound rumzickt weshalb Bioshock unspielbar ist.

Duplex
2015-03-29, 15:33:19
4,5 Ghz Basistakt & 15-20% mehr IPC, dann wird Skylake über 30% zulegen, sowas wäre nicht schlecht.

Knuddelbearli
2015-03-29, 15:50:34
4,5 Basistakt? Habe ich was verpasst ? kaum Turbo und OC dann nur mehr 100Mhz möglich?

kunibätt
2015-03-29, 15:55:17
Er will sich nur zum hundersten Mal einreden, dass sein kaputtgetakteter 2600K die beste CPU überhaupt ist. Das man schon mehr IPC mit Haswell hat, wird auch zum hundersten Mal ignoriert.

rentex
2015-03-29, 18:52:57
Ist auch mittlerweile meine Erkentniss. Eine Titan X oder gar Fiji reinzuhauen, wäre schlecht investiertes Geld. Das hat mit 3 Grakas ( bis zur Palit GTX780 SJS) noch Sinn gemacht, aber ne weitere Gen. ? Nee.
Was eine Skylake CPU an Takt und Turbo schafft, weiss niemand bis jetzt.

Duplex
2015-03-29, 19:13:39
4,5 Basistakt? Habe ich was verpasst ? kaum Turbo und OC dann nur mehr 100Mhz möglich?
Ich bezog mich doch nur auf dem Basistakt, der 4790k hat 4,0Ghz Basistakt, wenn ich 4,5Ghz Basistakt schreibe, dann sollte man von >5Ghz Turbo ausgehen, einfach nachdenken und nicht solche dummen Sachen schreiben.
Skylake ist ein neues Design, bei 4C/8T sollten in 14nm 4,5Ghz Basis & 5,0Ghz Turbo möglich sein.

Timbaloo
2015-03-29, 19:19:29
Tja, bisher hört es sich aber eher nach niedrigeren Takten an als nach höheren.

Duplex
2015-03-29, 19:21:31
Broadwell hat nichts zusagen, das ist nur ein Haswell in kleineren Strukturen, kein neues Design!

Nehalem, Haswell = USA Team

Core2, Sandy Bridge, Skylake > Israel Team

Timbaloo
2015-03-29, 19:23:40
Ich habe genau überhaupt nichts über Broadwell gesagt...

Duplex
2015-03-29, 19:24:50
Welche niedrige Taktraten meinst du?
Bisher gibt es in 14nm nur Broadwell´s.

Nightspider
2015-03-29, 19:25:48
also ich sehe weiter kaum einen Grund von meinem ( zugegeben recht gut OCbaren ) i7 2600K umzurüsten.

Sata3 Begrenzung merkt man im Alltag als Zocker eh nicht. und PCI-E bringt in 99,9% der Spiele weiterhin nur 1-2% Vorteil.

Und das obwohl ich gerne Aufrüsten würde das mein drecks Asus Mainboard beim Sound rumzickt weshalb Bioshock unspielbar ist.

Bei einer Titan X oder Fiji merkste ganz bestimmt ob PCI-Express 2. oder 3.0 vorhanden ist. Das sind garantiert alleine schon 5 2-3%.
Bei SLI und CF dürften es noch viel mehr sein. Dort waren es schon vor 2 Jahren ~5% und da dürfte die Tendenz jetzt vllt schon gegen 10% gehen.

Und ob du SATA3.0 oder NVMe nutzt wird man bestimmt auch schon merken bei den neuen Highend SSDs.

Klar werden die Unterschiede nicht riiiiesig sein aber schon fühlbar. Also ich brauche mal wieder Highend Hardware. Sandy Bridge ist 2015 nur noch die drittbeste Lösung und gerade noch ausreichend.

Duplex
2015-03-29, 19:30:15
High End findet man nur beim S.2011-3

8C/16T @4,5Ghz sind schon was feines.

Man muss nur tiefer in der Tasche greifen.

S.1151 ist kein High End.

Timbaloo
2015-03-29, 19:36:36
Welche niedrige Taktraten meinst du?
Bisher gibt es in 14nm nur Broadwell´s.
http://www.bitsandchips.it/english/52-english-news/5414-the-transition-from-broadwell-to-skylake-will-be-similar-to-the-transition-from-prescott-to-conroe

Einfach mal den Thread lesen "und nicht solche dummen sachen schreiben"....

Nightspider
2015-03-29, 19:46:09
High End findet man nur beim S.2011-3

8C/16T @4,5Ghz sind schon was feines.

Man muss nur tiefer in der Tasche greifen.

S.1151 ist kein High End.

Erzähl das dem Weihnachtsmann. Haswell-E hängt in Kürze um 2 Generationen hinterher und der Nachfolger ist noch lange nicht in Sicht und wird auch eine Generation hinter Skylake hinken.
Und viele Games profitieren nicht ein bisschen von 6 echten Cores.

Falls sich Broadwell und Skylake dann noch besser übertakten lassen kann deine sogenannte HighEnd Plattform einpacken.

rentex
2015-03-29, 19:53:39
Ich bin guter Dinge, das Team Israel was feines Entwickeln wird? Ein 4790 K ist durchaus im High End Bereich...was Games angeht ;-)

Knuddelbearli
2015-03-29, 21:08:23
Ich bezog mich doch nur auf dem Basistakt, der 4790k hat 4,0Ghz Basistakt, wenn ich 4,5Ghz Basistakt schreibe, dann sollte man von >5Ghz Turbo ausgehen, einfach nachdenken und nicht solche dummen Sachen schreiben.
Skylake ist ein neues Design, bei 4C/8T sollten in 14nm 4,5Ghz Basis & 5,0Ghz Turbo möglich sein.

Ich werde dich an diesen Shitpost erinnern wenn es soweit ist ...

Also echt Umgangsformen sind das teilweise von dir ...
Zum fremd schämen ...

Knuddelbearli
2015-03-29, 21:14:47
Bei einer Titan X oder Fiji merkste ganz bestimmt ob PCI-Express 2. oder 3.0 vorhanden ist. Das sind garantiert alleine schon 5 2-3%.
Bei SLI und CF dürften es noch viel mehr sein. Dort waren es schon vor 2 Jahren ~5% und da dürfte die Tendenz jetzt vllt schon gegen 10% gehen.

Und ob du SATA3.0 oder NVMe nutzt wird man bestimmt auch schon merken bei den neuen Highend SSDs.

Klar werden die Unterschiede nicht riiiiesig sein aber schon fühlbar. Also ich brauche mal wieder Highend Hardware. Sandy Bridge ist 2015 nur noch die drittbeste Lösung und gerade noch ausreichend.

Wer Titan SLI kauft wird sich kaum mit mainstream CPUs abgeben sondern EP kaufen schon alleine wegen 3x PCi-E x16. Abgesehen davon das so einer eh schon lange Sandy entsorgt haben wird ^^

Aber als preis sensibler Käufer der Übertaktet sehe ich halt keinen Grund 500-700€ für paar Features die man eh nicht merkt und 20-30% Leistung ( die man eigentlich wo benötigt ohne Titan und 70+ fps? Das einzige wo ich mangelnde Leistung merke sind games wie Dwarf fortress und ähnliche indy spiele da ich gerne sehr große Maps nutze )
Und da wage es wehiment zu widersprechen das man als Spieler und office user was von NVMe merken wird. Abgesehen davon das P/L bei denen aktuelle eh für die Tonne ist.
Und zum Thema PCI-E

http://www.guru3d.com/articles-pages/pci-express-scaling-game-performance-analysis-review,8.html
sind selbst in fordernden spielen meist 1-2%

Ich will nicht absprechen das es für Leute Sinn machen kann!, wenn man gerade das Spiel häufig spielt das viel durch Skylake oder PCI-E ( wobei das schon ab Ivy nicht mehr gilt ) aber für mich und die meisten anderen macht es eben eher keinen Sinn.

Da bräuchte es schon mindestens gleich gutes OC verhalten und zugleich gegenüber Haswell min 20% mehr Leistung.

robbitop
2015-03-29, 22:15:15
Bei einer Titan X oder Fiji merkste ganz bestimmt ob PCI-Express 2. oder 3.0 vorhanden ist. Das sind garantiert alleine schon 5 2-3%.
Bei SLI und CF dürften es noch viel mehr sein. Dort waren es schon vor 2 Jahren ~5% und da dürfte die Tendenz jetzt vllt schon gegen 10% gehen.

Und ob du SATA3.0 oder NVMe nutzt wird man bestimmt auch schon merken bei den neuen Highend SSDs.

Klar werden die Unterschiede nicht riiiiesig sein aber schon fühlbar. Also ich brauche mal wieder Highend Hardware. Sandy Bridge ist 2015 nur noch die drittbeste Lösung und gerade noch ausreichend.
Wie du übertreibst. Ein Sandy Core i7 schön auf 4,5 GHz gekeult ist mehr als nur gerade noch ausreichend. Mit Haswell ist man gerade mal 15 % drüber. Skylake dann 30 % (oder etwas mehr). 30 % ist gerade mal so die Schwelle, ab der man etwas spürt ohne es zu messen. Es gibt natürlich auch hier und da mal Sonderfälle wo es mal mehr oder mal weniger ist.

Wenn etwas auf dem Sandy wirklich schlecht laufen wird, wird es auf Skylake nicht butterweich laufen.

PCIe 16x 2.0 sollte außerhalb von SLI ok sein. NVMe, Sata-Express wird, so wie immer im Alltag kaum einen Vorteil gegen bisherige SSDs bringen. PCGH hat neulich mal ein Vergleichsvideo mit einer SSD von 2010 gegen eine von 2014 gemacht. Außerhalb von Benchmarks und Kopiervorgängen war da kein nennenswerter Unterschied in der Praxis auszumachen (Programm / OS Start).

Ich finde, man kann auch auf dem Teppich bleiben.

Nightspider
2015-03-29, 23:23:27
Gut das war vllt wirklich übertrieben aber wir NextGen-Games Welle rollt erst an.

Und Skylake QuadCore wird in den meisten Games garantier VOR einem Haswell HexaCore liegen, alleine schon deswegen weil er sich (wahrscheinlich) besser übertakten lassen wird und die IPC viel öfter durchschlägt als 2 zusätzliche Kerne.

Und der SSD Test war ja wohl auch fürn Arsch. PCGH hätte mal lieber mit aktuellen M.2 SSDs testen sollen und nicht mit so einer 0815-2014er SSDs.
Am besten sollte man den Test mit 2010er SSD und NVMe SSD wiederholen. Da wird es garantiert einen größeren Unterschied geben.

Ich weiß Star Citizen ist sehr speziell und taugt als Argument nur bedingt, da Alpha aber da kotzen alle Sandy Bridge CPUs ab und ebenso HexaCore die quasi keinen Vorteil bringen.
Ein QuadCore mit 8 Threads reicht fast immer aus was die Anzahl der Kerne betrifft.

Und nur weil jetzt viele HighEnder einen Sockel 2011 haben muss das nichts bedeuten. In einem halben Jahr sind wir 2 Generationen weiter und wir werden sehen ob nicht einige von Haswell-E auf Skylake upgraden.

Broadwell-E wird erst irgendwann 2016 kommen und so lange warten bestimmt nicht alle Gamer.

Duplex
2015-03-29, 23:33:54
Warum geht es hier immer nur um Games?

Nightspider
2015-03-29, 23:39:45
Weil hier schätzungsweise 80-90% Gamer sind?

Sunrise
2015-03-29, 23:54:34
...Und der SSD Test war ja wohl auch fürn Arsch. PCGH hätte mal lieber mit aktuellen M.2 SSDs testen sollen und nicht mit so einer 0815-2014er SSDs.
Am besten sollte man den Test mit 2010er SSD und NVMe SSD wiederholen.
Der Test war in der Tat zu einem unglücklichen Zeitpunkt durchgeführt worden. Hab den nur kurz überflogen und hätte eigentlich schon da abbrechen können, als ich gesehen hab, dass da nur mit SATA-SSDs getestet wurde.

Als hätte man die letzten paar Jahre SSD-technisch komplett verschlafen.
Ich erwarte da min. einen Nachtest mit der im April erscheinenden NVMe 750er SSD-Serie von Intel.

Nightspider
2015-03-30, 00:00:10
Ja den habe ich auch nur überflogen und dachte mir: "Wen interessiert der alte Müll?". :D

Skysnake
2015-03-30, 06:49:29
Ich bezog mich doch nur auf dem Basistakt, der 4790k hat 4,0Ghz Basistakt, wenn ich 4,5Ghz Basistakt schreibe, dann sollte man von >5Ghz Turbo ausgehen, einfach nachdenken und nicht solche dummen Sachen schreiben.
Skylake ist ein neues Design, bei 4C/8T sollten in 14nm 4,5Ghz Basis & 5,0Ghz Turbo möglich sein.
Und wie kommst du darauf?

Die Frequenzsteigerungen bei den neuen Nodes sind überschaubar. Die Kapazitäten der Interconnects sind da signifikant, wenn nicht meist sogar dominierend. Der kleinere Transistor bringt dir unter Umständen also gar nichts, weil er einfach die Last die daran hängt kaum beeinflusst, bzw nicht so viel stärker, wie er selbst eben schlechter wird.

Hübie
2015-03-30, 08:04:30
Wie du übertreibst. Ein Sandy Core i7 schön auf 4,5 GHz gekeult ist mehr als nur gerade noch ausreichend. Mit Haswell ist man gerade mal 15 % drüber. Skylake dann 30 % (oder etwas mehr). 30 % ist gerade mal so die Schwelle, ab der man etwas spürt ohne es zu messen. Es gibt natürlich auch hier und da mal Sonderfälle wo es mal mehr oder mal weniger ist.

Wenn etwas auf dem Sandy wirklich schlecht laufen wird, wird es auf Skylake nicht butterweich laufen.

PCIe 16x 2.0 sollte außerhalb von SLI ok sein. NVMe, Sata-Express wird, so wie immer im Alltag kaum einen Vorteil gegen bisherige SSDs bringen. PCGH hat neulich mal ein Vergleichsvideo mit einer SSD von 2010 gegen eine von 2014 gemacht. Außerhalb von Benchmarks und Kopiervorgängen war da kein nennenswerter Unterschied in der Praxis auszumachen (Programm / OS Start).

Ich finde, man kann auch auf dem Teppich bleiben.

THIS! :naughty:

@Nightspider: Dir ist bei next-Gen aber schon klar dass mehr Parallelität angepriesen wird und die CPU insgesamt vermehrt in den Hintergrund rückt. Also worauf genau stützt sich deine absolute Sicherheit darüber dass ein QC Skylake einen HC Haswell abzieht? :|
Wieviele Hexacores von Intel hattest du doch gleich???

robbitop
2015-03-30, 09:57:48
99 % der Programm und OS Starts sind nunmal nicht limitiert durch die sequenzielle Lese/Schreibrate von SSDs. Da kannst du auch mit sonst was für PCIe SSDs kommen. Das bringt nur noch minimale Vorteile. Das merkt man, wenn man mal eine RAM Test als Gegentest nimmt. Die ist häufig in den gleichen Situationen kaum schneller.

Neue HW ist immer gut. Aber all zu optimistisch zu sein, bringt auch kaum was. Und ja: Star Citizen braucht jedes Quäntchen Leistung. Wobei das CPU seitig deutlich besser werden sollte (DX12).

Solange Spiele nicht ansatzweise linear von > 4 Cores profitieren, bin ich auch der Meinung, dass IPC+Takt > Cores. Also lieber die neuste µ-Arch mit den meisten Kernen als die E-Serie von Intel.

Swp2000
2015-03-30, 10:16:45
Das Haswell-E pendant Skylake-E kommt dann erst 2017?

Hübie
2015-03-30, 10:20:05
Die E-Serie ist halt für Leute die nicht alle 2-3 Jahre CPU&Mainboard umbauen wollen. So ein Teil kannst du locker 5 Jahre betreiben ohne große Nachteile (in Spielen) zu erfahren.
Ich konnte da ja nun genug Quervergleiche ziehen (SandyBridge, IvyBridge, Haswell und SB-E um genau zu sein) um das zu beurteilen. Der Hasi beeindruckte vor allem durch seinen geringen Verbrauch (Xeon 1231v3). Der Ivy ist sweet spot (3770k) während SB-E einfach alles mit der Keule erschlägt. Die alten SB lohnen nur mit 4c/8t @4,5 GHz. Der 2500k limitiert oft. SLi gar nicht angefangen.

Sunrise
2015-03-30, 10:20:10
Das Haswell-E pendant Skylake-E kommt dann erst 2017?
Leider ja, so kann man die Leute besser melken.

Mortalvision
2015-03-30, 10:38:54
Wird der speicgertakt vom CPU mem controller wieder fixiert? Wieviel ddr4 Takt soll der denn beherrschen?

Und wird es zum Start k-modelle geben?

Timbaloo
2015-03-30, 11:05:57
Wieviel ddr4 Takt soll der denn beherrschen?
Mehr als HW-E, also 2133, würde ich nicht erwarten. Rest via OC.

Und wird es zum Start k-modelle geben?
Werden nicht mehr "K" heissen, sondern "unlocked".

Hübie
2015-03-30, 12:23:03
Ist August eigentlich noch aktuell? :|

robbitop
2015-03-30, 13:57:07
Die E-Serie ist halt für Leute die nicht alle 2-3 Jahre CPU&Mainboard umbauen wollen. So ein Teil kannst du locker 5 Jahre betreiben ohne große Nachteile (in Spielen) zu erfahren.
Ich konnte da ja nun genug Quervergleiche ziehen (SandyBridge, IvyBridge, Haswell und SB-E um genau zu sein) um das zu beurteilen. Der Hasi beeindruckte vor allem durch seinen geringen Verbrauch (Xeon 1231v3). Der Ivy ist sweet spot (3770k) während SB-E einfach alles mit der Keule erschlägt. Die alten SB lohnen nur mit 4c/8t @4,5 GHz. Der 2500k limitiert oft. SLi gar nicht angefangen.
Wo limitiert denn ein 2500K (auf 4,5 GHz gekeult natürlich)?

Man sieht ja bisher wirklich selten, dass Spiele (bis auf ein paar Rosinen - oftmals selbst dort nur in bestimmten Szenen -> Crysis 3 vor allem bei animiertem Gras!)

Aus meiner Sicht müßte mein vorheriger Post auch für einen 2500 K gelten.

Allerdings ist Skylake voraussichtlich die erste CPU, bei der es sich schon lohnen kann, von Sandy upzugraden. Ob es aber wirklich notwendig ist, steht auf einem anderen Blatt. Ist halt wie eine Aufrüstung von einer Titan Black auf eine Titan X. (nur dass es hier 4,5 Jahre gedauert hat, diesen "Sprung" zu erzielen)

w0mbat
2015-03-30, 14:05:15
Ich warte immer noch auf >4C bei einer mainstream Intel CPU. Vielleicht wird es ja mit Cannonlake etwas mit 6 oder gar 8 Kernen, aber das bezweifle ich.

Ich weiß, dass meine X6 1055T selbst gegen einen i5-2500K kein Land sieht, aber irgendwie fühlt es sich doof an von 6 auf 4 Kerne "downzugraden", egal ob die 4 mehr als doppelt so schnell sind als die alten 6.

Mein i3-5005U (der kleinste Broadwell i3 den es gibt) mit nur 2GHz in meinem Laptop macht mir schon Spaß und ich will unbedigt nen Intel auch im Desktop. Mal abwarten, ich setze ja viel Hoffnungen auf Skylake.

Wenn der wirklich nochmal 15-20% auf Broadwell drauf legt überlege ich mir das mit 4C/8T nochmal.

Thunder99
2015-03-30, 14:14:50
Auf was wird die pro/MHz Leistung geschätzt gegenüber Haswell?

Hübie
2015-03-30, 14:16:44
@ribbitop: Ich habe gerade einen i5 2500k Zuhause stehen. Da ich aber kein SLi mehr habe und auch nur noch eine 660 Ti musst du mir glauben: sämtliche halbwegs aktuellen UbiSchrott-Titel, CryEngine-Titel sowie hier und da vereinzelt Titel wie Skyrim oder Fallout new vegas. Da kotzt der 2500k oft. Natürlich auch öfter wenn multithreading nicht gut klappt. Der geht bis 4,7@Air aber 4,3-4,7 macht keinen Unterschied mehr. Ausser in der Schniepellänge eines Benchmarks.

Ravenhearth
2015-03-30, 14:51:19
Auf was wird die pro/MHz Leistung geschätzt gegenüber Haswell?

Es gab bisher einen Benchmark, in dem es etwa +20% waren. Aber sicher ist natürlich noch nichts.

robbitop
2015-03-30, 14:56:09
@ribbitop: Ich habe gerade einen i5 2500k Zuhause stehen. Da ich aber kein SLi mehr habe und auch nur noch eine 660 Ti musst du mir glauben: sämtliche halbwegs aktuellen UbiSchrott-Titel, CryEngine-Titel sowie hier und da vereinzelt Titel wie Skyrim oder Fallout new vegas. Da kotzt der 2500k oft. Natürlich auch öfter wenn multithreading nicht gut klappt. Der geht bis 4,7@Air aber 4,3-4,7 macht keinen Unterschied mehr. Ausser in der Schniepellänge eines Benchmarks.
Ich glaube die Ursache ist eher SLI. Ein 2500K hat noch PCIe 2.0. Wenn du dann SLI nutzt, sind es nur 8x Lanes pro Karte @2.0.

Gerade SLI schiebt mittlerweile viel über den PCIe - die SLI Brücke hat sich seit 2004 nicht verändert und ist seitens Bandbreite mit aktuellen Auflösungen/Frameraten überfordert -> PCIe. Insbesondere Dinge wie TXAA und G-Sync laufen nicht über die Brücke und führen zu zusätzlichem Bandbreitenbedarf zwischen beiden Karten.

Also wenn ich mir Benchmarks anschaue, kann es eigentlich nicht sein, dass ein 2500K so massiv abkackt und ein 2600K oder meinetwegen ein Haswell i7 auf gleicher Taktrate massiv besser darsteht. Da ist was anderes im Argen.

Thunder99
2015-03-30, 15:00:50
Es gab bisher einen Benchmark, in dem es etwa +20% waren. Aber sicher ist natürlich noch nichts.
Verständlich :), die Frage stellt sich ob ein Haswell/Devil Canon @ 4,5GHz oder ein Skylake besser ist :freak: Need die Performance an sich nur in wenigen Games aber da massiv :D. Andererseits habe ich ja noch meinen E1230v3 wo sich langweilt auf seinen 8 Threads. Muss sagen das ich "damals" mit dem 46xx besser gefahren wäre (brauche keine 8 Threads bei meinen Games wo ich spiele)

BlacKi
2015-03-30, 16:06:04
ich hab letztes jahr nen 2600k gekauft wegen den 8 threads, das eine jahr hätte ich auch noch mit dem 2500k rumbringen können, aber ich hab den günstig bekommen.

manche gewisse spiele brauchen aber eben mehr als 8 kerne, siehe watchdogs, da hat man riesige stotterer mit nem 2500k und mit nem 2600k sind sie weg.

ich mein, man investiert 100€ fürs board 120€ für ram und spart am prozessor 30€ und hat dann kein HT? ich hätte mir damals statt nem 2500k den 2600k holen sollen, aber damals anno2011 war selbst der 2500k wie ein sprung in die zukunft.

jetzt würde ich mir keinen 4k/4t prozessor mehr kaufen.

zu skylake: ich glaube nicht daran das skylake i7 mit nem basistakt über 4ghz kommen wird. die werden sich auf ihren lorbeeren ausruhen, es gibt schließlich keine konkurenz. selbst broadwell ist zu skylake keine konkurenz.

beim übertakten werden die kerne wohl zu heiß bei der größe und wird wohl bei 5ghz schluss sein mit lukü. obs so kommt wer weiß...

tdon
2015-03-30, 16:37:18
Also wenn ich mir Benchmarks anschaue, kann es eigentlich nicht sein, dass ein 2500K so massiv abkackt und ein 2600K oder meinetwegen ein Haswell i7 auf gleicher Taktrate massiv besser darsteht. Da ist was anderes im Argen.


Als ich von IVB auf HSW umgestiegen bin, habe ich in einigen Spielen 15-20% Zuwachs bei gleichen Takt gemessen. Zu SB wäre es noch etwas mehr.


Ist August eigentlich noch aktuell? :|


War das jemals aktuell? Laut letzter Roadmap August-Oktober. Aus Erfahrung raus eher gegen Ende vom geplanten launch Zeitraum.


Ich warte immer noch auf >4C bei einer mainstream Intel CPU. Vielleicht wird es ja mit Cannonlake etwas mit 6 oder gar 8 Kernen, aber das bezweifle ich.


Abgesehen davon das CNL wohl eh nicht für Desktop kommt, wären das zu große Änderungen am Design für ein Tick. Auf mehr als 4 Kerne für die Mainstream Plattform kann man nur beim übernächsten Tock mit Icelake/Kabylake bei Intel hoffen.

Knuddelbearli
2015-03-30, 19:29:33
@ribbitop: Ich habe gerade einen i5 2500k Zuhause stehen. Da ich aber kein SLi mehr habe und auch nur noch eine 660 Ti musst du mir glauben: sämtliche halbwegs aktuellen UbiSchrott-Titel, CryEngine-Titel sowie hier und da vereinzelt Titel wie Skyrim oder Fallout new vegas. Da kotzt der 2500k oft. Natürlich auch öfter wenn multithreading nicht gut klappt. Der geht bis 4,7@Air aber 4,3-4,7 macht keinen Unterschied mehr. Ausser in der Schniepellänge eines Benchmarks.

Wieso sollte bitte ein 2500K bei Skyrim kotzen und ein 2600K nicht beis elben takt?
Skyrim nutzt ja meist nur 1 Kern auf 100% und 2-3 ganz leicht

Hübie
2015-03-30, 19:56:10
Ich habe keinen SB mit HT um das zu beurteilen. Bei mir lastet Skyrim aber definitiv 4 Kerne aus. Selbst FNV schafft mehrere Kerne.

Edit: beide Spiele sind jedoch nicht vanilla. Kenne auch niemanden der das vanilla spielt X-D

Botcruscher
2015-03-30, 21:04:16
Dann ist irgendwas an den Mods defekt. Die anderen Kerne hängen meist so bei 50% rum.

Hübie
2015-03-30, 22:01:04
Da ist nix defekt. Die anderen Kerne sind nicht am Anschlag aber die werden belastet.

robbitop
2015-03-31, 08:40:00
Irgendwas muss faul sein Hübie. Ich hatte bis Sommer 2014 einen 2500K @4,5 GHz und habe sowohl Skyrim als auch FNV pickepacke voll mit Mods gespielt. Da gabs keine Hänger, Ruckler oder Lags.

Hübie
2015-03-31, 09:18:07
Hab ich auch nirgends behauptet. Der war einfach nur am Ende. Von "Hänger, Ruckler oder Lags" war doch nirgends die Rede. Die min fps sind bei mir teils deutlich gestiegen und das in mehreren Spielen. Klar. SLi fordert auch mehr von einer CPU. Dennoch glaube ich wäre bei einem 2600/2700k noch etwas mehr Luft.

Gandharva
2015-03-31, 11:04:41
Irgendwas muss faul sein Hübie. Ich hatte bis Sommer 2014 einen 2500K @4,5 GHz und habe sowohl Skyrim als auch FNV pickepacke voll mit Mods gespielt. Da gabs keine Hänger, Ruckler oder Lags.
Das geht sogar mit meinem PII X6 ohne Probleme... Hatte teilweise ~60 Mods drauf.

Mills
2015-03-31, 11:22:21
Irgendwas muss faul sein Hübie. Ich hatte bis Sommer 2014 einen 2500K @4,5 GHz und habe sowohl Skyrim als auch FNV pickepacke voll mit Mods gespielt. Da gabs keine Hänger, Ruckler oder Lags.
Kann ich bestätigen. Lief mit meinem 2500K ebenfalls cremig. Mit dem 4790K nun sowieso. Aber kein Tempo-Unterschied der den Preisunterschied auch nur ansatzweise rechtfertigen würde.

Hübie
2015-03-31, 12:13:01
Und jetzt zeigt mir wo ich was von Stottern etc schrieb :rolleyes:

robbitop
2015-03-31, 14:00:42
Wie gesagt: die Benchmarks spiegeln das mit wenigen Ausnahmen nicht wieder. Insofern ist da was komisch. Vielleicht lief ja was im Hintergrund oder so?

Mills
2015-03-31, 14:25:48
Und jetzt zeigt mir wo ich was von Stottern etc schrieb :rolleyes:
"Da kotzt der 2500k oft." :cool:

Mandalore
2015-04-01, 14:22:53
http://wccftech.com/intels-broadwell-skylake-uarch-transition-big-prescott-conroe/


Prescott -> Conroe Reloaded?

Gandharva
2015-04-01, 16:19:16
http://wccftech.com/intels-broadwell-skylake-uarch-transition-big-prescott-conroe/

Prescott -> Conroe Reloaded?

I must say anticipation for Skylake is at an all time high, so lets hope Intel doesn’t concentrate primarily on the mobile platform and forget the actual audience of high end CPUs: the desktop users.
Genau das wird imho aber passieren. Ich denke es wird wie bei Broadwell. Erst werden die Core-M Nachfolger gelauncht und dann nach und nach geht man hoch Richtung Desktop.

Sunrise
2015-04-01, 16:26:30
Vor allem wird Intel es sich nicht nehmen lassen, sollten die hohen IPC-Steigerungen (relativ zu denen in den letzten Jahren) stimmen, hier erstmal wieder konservativ zu takten und das neue Design möglichst schön in die Länge auszuschlachten.

Es würde mich wirklich überraschen, wenn Intel da direkt Vollgas geben würde, dazu besteht nämlich überhaupt keine Notwendigkeit.

Selbst wenn Zen in greifbarer Nähe wäre und es gebe erste Performance-Indizien, dann schaut sich Intel das erstmal an und dann wird reagiert.

PS: Das hätte andererseits aber natürlich Vorteile für Overclocker (wenn nicht gelockt). Sowas wie bei Nehalem mit 2.66GHz -> 4GHz wäre wohl zuviel verlangt, aber wenn Intel diese Strategie fahren sollte und da kein Mist (Heatspreader-Kontakt) gebaut wurde, sollte da gut Potential drin sein. Ist ja dann auch auf einem deutlich ausgereifteren und verbesserten 14nm Prozess.

tdon
2015-04-01, 16:28:20
Genau das wird imho aber passieren. Ich denke es wird wie bei Broadwell. Erst werden die Core-M Nachfolger gelauncht und dann nach und nach geht man hoch Richtung Desktop.


Nicht bei Skylake.

y33H@
2015-04-01, 16:36:54
Ich erwarte erst Y/U und ein paar Wochen später H/S/K - etwa Juni und August.

tdon
2015-04-01, 16:40:02
Viel zu früh für Desktop und somit Y/U sowieso.

YfOrU
2015-04-01, 17:41:11
Das müsste die aktuellste Roadmap sein:

http://fs2.directupload.net/images/150129/2rdwbt3c.png

Quelle:
http://chinese.vr-zone.com/141850/intel-will-make-14nm-broadwell-first-after-launch-skylake-s-for-desktop-diy-market-01302015/

Pünktlich: Braswell am 31.03 und die Vorstellung des Surface 3 mit Cherry Trail
http://www.anandtech.com/show/9125/intel-braswell-details-quietly-launched-cherry-trail-and-airmont-on-14nm
http://www.anandtech.com/show/9126/microsoft-announces-surface-3

tdon
2015-04-01, 17:50:09
Für Skylake-S ist das nicht die aktuellste. Wie schon so oft erwähnt, August-Oktober heißt es. August kann man schon rausnehmen.

Hübie
2015-04-01, 18:53:58
Ist eigentlich schon bekannt das Mooly Eden Intel verlässt? Damit dürfte eine Ära zu Ende gehen. Wird langfristig jedoch kaum Auswirkungen haben.

"Da kotzt der 2500k oft." :cool:

Du solltest weniger fern sehen. Kotzen heißt nicht stottern oder so. Wieso bringst du etwas derartiges im Kopf in Zusammenhang? :|

w0mbat
2015-04-01, 19:10:55
Was soll Kotzen denn bitte sonst heißen?

Thunder99
2015-04-01, 19:18:35
Vor allem wird Intel es sich nicht nehmen lassen, sollten die hohen IPC-Steigerungen (relativ zu denen in den letzten Jahren) stimmen, hier erstmal wieder konservativ zu takten und das neue Design möglichst schön in die Länge auszuschlachten.

Es würde mich wirklich überraschen, wenn Intel da direkt Vollgas geben würde, dazu besteht nämlich überhaupt keine Notwendigkeit.

Selbst wenn Zen in greifbarer Nähe wäre und es gebe erste Performance-Indizien, dann schaut sich Intel das erstmal an und dann wird reagiert.

PS: Das hätte andererseits aber natürlich Vorteile für Overclocker (wenn nicht gelockt). Sowas wie bei Nehalem mit 2.66GHz -> 4GHz wäre wohl zuviel verlangt, aber wenn Intel diese Strategie fahren sollte und da kein Mist (Heatspreader-Kontakt) gebaut wurde, sollte da gut Potential drin sein. Ist ja dann auch auf einem deutlich ausgereifteren und verbesserten 14nm Prozess.
Oder Skylake lässt sich nicht so hoch takten wie Haswell non Refresh :ugly: . Befürchte das die Prozesse sich generell nicht mehr so takten lassen, auch bedingt durch das Design. :(

Hübie
2015-04-01, 21:08:02
Was soll Kotzen denn bitte sonst heißen?

Das die CPU nicht mehr leistet weil am Ende? :facepalm:
CPU X=50 fps alle Kerne auf Anschlag ausgelastet. CPU Y=70 fps und einige Kerne hoch ausgelastet.

CPU X kotzt. CPU Y nicht. Was ist in euren Köpfen los?? :|

Timbaloo
2015-04-01, 21:12:40
Ich kotzt hier auch gleich wenn ihr nicht aufhört zu stottern.

y33H@
2015-04-01, 22:14:13
Ist eigentlich schon bekannt das Mooly Eden Intel verlässt?Japp, u.a.:

http://www.globes.co.il/en/article-intel-israel-president-mooly-eden-quits-1001021394
http://www.golem.de/news/mooly-eden-erfinder-des-pentium-m-verlaesst-intel-1503-113181.html
http://www.computerbase.de/2015-03/mooly-eden-verlaesst-intel-nach-33-jahren/

w0mbat
2015-04-01, 22:31:28
Das die CPU nicht mehr leistet weil am Ende? :facepalm:
CPU X=50 fps alle Kerne auf Anschlag ausgelastet. CPU Y=70 fps und einige Kerne hoch ausgelastet.

CPU X kotzt. CPU Y nicht. Was ist in euren Köpfen los?? :|

Stimmt, das war die offizielle Definition von "Kotzen" im Bezug auf CPUs. Wie dumm von mir, das zu vergessen :freak:

Drück dich das nächste mal einfach verständlich aus, dann musst du dir auch nicht mehr die Hand ins Gesicht drücken.

Mills
2015-04-02, 01:22:23
Ist eigentlich schon bekannt das Mooly Eden Intel verlässt? Damit dürfte eine Ära zu Ende gehen. Wird langfristig jedoch kaum Auswirkungen haben.



Du solltest weniger fern sehen. Kotzen heißt nicht stottern oder so. Wieso bringst du etwas derartiges im Kopf in Zusammenhang? :|
Sorry, aber das ist Blablubb... :rolleyes:

Hübie
2015-04-02, 01:36:34
Ja und dein Beitrag rettet die Erde.

Für die Zukunft: Wenn etwas ruckelt, stottert oder hakt dann schreibe ich dies auch. Kotzen=voll ausgelastet, ruckeln stottern und haken=das wofür es steht. Klar soweit? Gut. Dann können wir uns wieder dem Thema widmen.

BlacKi
2015-04-03, 12:45:33
Das die CPU nicht mehr leistet weil am Ende? :facepalm:
CPU X=50 fps alle Kerne auf Anschlag ausgelastet. CPU Y=70 fps und einige Kerne hoch ausgelastet.
|

jaber mit HT bedeutet es doch nicht das wenn 8 threads nur zu 70% ausgelastet sind die cpu nicht am ende ist. wenn HT die kerne nicht optimal füttern kann bekommst du keine 100% auslastung hin und bist trotzdem im cpu limit.

OT: kotzen bedeutet für mich wie für andere das der betrieb gestört ist. oder ist kotzen für dich pers. normaler betrieb?^^

Hammer des Thor
2015-04-05, 19:52:15
Schade nur, das PCIe14 nicht mit dem 100er Chipsatz einzug hält. Ganz doofe Frage: Was ist den mit der Umschalterei von integrierter Grafik zu dedizierter geworden?


Meinst Du PCIe 4.0 oder NVME für M.2 und SATAe?
Letzteres soll doch mit dem Einzug halten, gleich 3fach wie ich gelese habe, oder wurde das schon wieder gecancelt?
Es geht mir auch nicht darum on JETZT SATA6G ausreicht oder nicht, ich will damit die nächtsten 5-6 Jahre sinvoll aufrüsen können, ich möchte keine Memristor-SSD deren Speicher fast so schnell ist wie DRAM auf lächerliche 6G brutto ausbremsen.

Schrumpelratte
2015-04-07, 19:03:49
sehe ich das richtig, dass die intel E reihe vorerst immer noch die einzige serie mit 6 core+ bleibt? hatte gehofft das skylake einen 6 core mit sich bringt :(

basix
2015-04-07, 19:26:01
sehe ich das richtig, dass die intel E reihe vorerst immer noch die einzige serie mit 6 core+ bleibt? hatte gehofft das skylake einen 6 core mit sich bringt :(

Das hoffte jeder. Aber aus produktpolitischer Sicht wäre das das Dümmste was Intel tun könnte. Skylake hätte dann USB3.1, den auch sonst modernsten Chipsatz, gerüchteweise sehr hohe IPC, 14nm und dann auch noch die 6 Kerne obendrauf?

X99 würde hoffnungslos absterben und alle High-End User wären verprellt (inkl. mir ;D). Das wäre auch so, wenn es keine 6-Kern unlocked geben würde.

Ich meine, ich frage mich aufgrund der seit Anfang Jahr aufgetauchten Infos zu Skylake sogar mit OC 5820K ob ich nicht ein halbes Jahr zu früh mein altes System habe in Ehre ruhen lassen (i5 750). Aber so ist das halt mit dem PCs: Geht lange Zeit nichts und dann mit einem Paukenschlag vermiest man allen Jungkäufern den Spass :freak: Das ist mir mit dem i5 750 eigentlich auch schon passiert. Ich benötigte nicht unbedingt etwas Neues (E8400) und knapp 9 Monate später kam Sandy Bridge. Das hat mich richtig gewurmt und dieses Mal dachte ich: Ok, jetzt erst recht! Und da Broadwell ja auch nicht grandios aussah war für mich der 5820K die erste Wahl. Nun ja, time will tell ob es dann von Intel heisst :ass:

Nightspider
2015-04-07, 19:31:29
Na mal sehen was der 10nm Shrink Canonlake bringt.

Wenn Intel nicht die Kernzahl erhöht wird die IGP deutlich größer sein als die CPU.

tdon
2015-04-07, 19:38:15
Kannst du knicken mit CNL.

Nightspider
2015-04-07, 19:38:43
Why?

basix
2015-04-07, 19:39:27
Wenn Intel nicht die Kernzahl erhöht wird die IGP deutlich größer sein als die CPU.

Ist sie heute schon ;)

tdon
2015-04-07, 19:41:57
Why?


Weil es ein Tick ist und die Rahmenbedingungen nicht passen.

Coda
2015-04-07, 20:01:44
jaber mit HT bedeutet es doch nicht das wenn 8 threads nur zu 70% ausgelastet sind die cpu nicht am ende ist. wenn HT die kerne nicht optimal füttern kann bekommst du keine 100% auslastung hin und bist trotzdem im cpu limit.

OT: kotzen bedeutet für mich wie für andere das der betrieb gestört ist. oder ist kotzen für dich pers. normaler betrieb?^^
Die CPU-Anzeige in Windows hat kein Wissen über irgend eine HT-Auslastung. Wenn 70% angezeigt wird, dann heißt das, dass nur zu 70% der möglichen Takte etwas ausgeführt wurde auf den virtuellen Cores. Will heißen, selbst wenn HT überhaupt nichts bringt, würdest du 100% sehen.

mekakic
2015-04-08, 10:19:11
Ich bin auf Skylake gespannt wie ein Flitzebogen. Vor allem die 15W Version für's Ultrabook mit eDRAM. :)Bringt der eDRAM eigentlich nur im Betrieb mit der IGP was, oder kann die CPU davon auch im Betrieb mit externer GPU profitieren? Oder nur wenn die IGP verwendet wird für Grafik oder ComputeShader/OpenCL/CUDA?

robbitop
2015-04-08, 10:26:22
Der eDRAM gilt mWn als L4 Cache. Also kann den auch die CPU nutzen. Bringt aber IIRC nicht all zu viel.

y33H@
2015-04-08, 10:42:57
Ja, dient als L4 bzw LLC.

w0mbat
2015-04-16, 15:08:11
Bin schon gespannt! via pcper

http://i.imgur.com/omkLKCB.jpg
http://i.imgur.com/QlA8qnN.jpg
http://i.imgur.com/SrZqrik.jpg

Quaker
2015-04-16, 17:36:32
Bei skylake werde ich wohl auch wieder mal aufrüsten.

Hoffe man bekommt ein komplett passiv gekühltes quadcore System hin.

MfG

Knuddelbearli
2015-04-16, 19:27:00
wieder kein 5k Support? :-/

Hübie
2015-04-16, 19:47:23
Also wenn Intel im Mac verbaut wird müssen die afaik 5k beherrschen. Ist vielleicht eher eine Marketing- / Softwarebeschränkung.

tdon
2015-04-16, 19:54:37
http://fs2.directupload.net/images/150416/6b2rcjmc.jpg
http://www.pcfrm.com/intel-core-i7-6700k-haziran-ayinda-geliyor/


Die K-Modelle takten sehr hoch als Startmodelle.

Timbaloo
2015-04-16, 20:27:44
Irgendwas sagt mir, dass das nicht der Wahrheit entspricht.

tdon
2015-04-16, 20:31:36
Begründung? Die Seite hat heute mehrere Slides online gestellt, die auf eine aktuelle Präsentation/Roadmap hindeutet.

Sunrise
2015-04-16, 21:03:11
Also wenn Intel im Mac verbaut wird müssen die afaik 5k beherrschen. Ist vielleicht eher eine Marketing- / Softwarebeschränkung.
Im iMac ist eine AMD M290X/M295X verbaut.

d2kx
2015-04-16, 21:21:25
http://fs2.directupload.net/images/150416/6b2rcjmc.jpg
http://www.pcfrm.com/intel-core-i7-6700k-haziran-ayinda-geliyor/


Die K-Modelle takten sehr hoch als Startmodelle.

DDRL Suppord.

tdon
2015-04-16, 21:30:25
DDRL Suppord.


Solche Fehler habe ich schon öfter gesehen. Die anderen Slides kann ich aus eigener Quelle bestätigen, von daher denke ich stimmen auch die SKUs.

StefanV
2015-04-17, 03:48:21
DDRL Suppord.
Naja, nur für DDR3L-SDRAM.

Das kann auch bedeuten, dass die CPU nicht sehr tolerant gegenüber der Speicherspannung ist...
Und die CPU hauptsächlich für DDR4-SDRAM gedacht ist...

DDR-3L SDRAM Support ist da eher ein 'Fallback für OEMs'...

Auf gut Deutsch:
Die Frage ist, ob wir überhaupt im Retail DDR-3 Boards für Skylake sehen werden...
Oder ob das eher was für OEMs ist...

Hübie
2015-04-17, 06:53:58
Er bezog sich auf den Schreibfehler in der Folie.

Im iMac ist eine AMD M290X/M295X verbaut.

Stimmt. Dann wirds wohl nur 4k sein ;)

Tobalt
2015-04-17, 09:03:03
Kommen zu beginn nur K modelle? Das wäre ja dann so zu verstehen dass sie erstmal die teuren verkaufen wollen obwohl sie nicht gut takten. Bei haswell war der drang zu k ja auch geringer als bspw bei sandy noch.

registrierter Gast
2015-04-17, 09:07:47
Kommen zu beginn nur K modelle? Das wäre ja dann so zu verstehen dass sie erstmal die teuren verkaufen wollen obwohl sie nicht gut takten. Bei haswell war der drang zu k ja auch geringer als bspw bei sandy noch.
Nein, zu Beginn kommen die normalen Consumer Modelle.
Es war hier im Thread vor längerem zu lesen, dass Intel derzeit noch "leaks" bei höheren Taktraten hat und die Ingenieure, diese erst noch ausmerzen müssen.

Pixelmonk
2015-04-17, 11:48:44
Nur 4,2Ghz Turbo-takt beim 6700k? Das sieht nicht gut aus für hohe Taktraten mit moderater (24/7) Spannung. (Wenn die Angaben denn stimmen)
Da scheint sich die Optimierung auf hohe Effizienz bei niedrigen Taktraten zu rächen.

Der ~20% IPC-gain allein motiviert mich nicht von Haswell aufzurüsten. Interessant wird es dann wohl erst nach Cannonlake.

BlacKi
2015-04-17, 13:11:00
ob die angaben stimmen?
skylake 4/4,2ghz mit 95w tdp in 14nm
haswell 4 /4,4ghz mit 88w tdp in 22nm

klar, die gpu ist deutlich performanter aber trotzdem sehe ich da abseits des 20% ipc vorteils nicht ganz wo hier ne verbesserung zu sehen ist.

ich hoffe mal das die tdp nur das maximale angibt was spätere topmodelle verbrauchen werden.

wenn das allerdings die kleinen prozessoren sind und man bei den großen deutlich mehr takt sehen wird dann wird das mal wieder ein schönes leistungsplus, erstrecht von sandy kommend.


Der ~20% IPC-gain allein motiviert mich nicht von Haswell aufzurüsten.

jaber, wenn das der kleine ist und somit ca 15-20% schneller ist als ein 4970k ist und möglicherweiße das taktpotential der großen versionen hat, dann dürften ca. 30-40% mehr leistung drinn sein als devils canyon leistet. wenn die großen für 350€ auf dem markt kosten könnt ich mir vorstellen das für den 6700k 200-250 € verlangt werden.

bin mal gespannt wie sich das entwickeln wird...

robbitop
2015-04-17, 13:21:52
ob die angaben stimmen?
skylake 4/4,2ghz mit 95w tdp in 22nm 14 nm
haswell 4 /4,4ghz mit 88w tdp in 14nm 22 nm

klar, die gpu ist deutlich performanter aber trotzdem sehe ich da abseits des 20% ipc vorteils nicht ganz wo hier ne verbesserung zu sehen ist.


Fixed that for you. :)

Ggf. ist Skylake auch nicht so besonders toll taktbar. Die Taktbarkeit hat sich seit SB eher verschlechtert. Energiedichte steigt eben. Die Kerne werden immer kleiner.

Ggf. braucht man für > 4 GHz auch ordentlich Spannung. Dann erhöht sich natürlich die TDP.

Ansonsten kostet IPC natürlich auch immer Energie. 20 % mehr IPC wären ja schon ein fungewöhnlich fetter Sprung.

Nightspider
2015-04-17, 13:31:26
Das muss auch nicht zwangsweise bedeuten das die max. OC-Taktrate niedriger ist. Kann sich um ein rein thermisches Problem handeln, schließlich werden die Kerne deutlich kleiner.

Mit Wasserkühlung kommt man mit Glück >5Ghz. Die besten Haswells liegen auch zwischen 4,8 und 5Ghz.

w0mbat
2015-04-17, 13:37:16
Was ich auch seltsam finde ist der ständige Wechsel bei den Bezeichnungen:

i5 2500K/i7 2600K (SNB) -> i5 3570K/i7 3770K (IVB) -> i5 4670K/i7 4770K (HSW) -> i5 5675C/i7 5775C (BDW) -> i5 6600K/i7 6700K (SKL)

Pixelmonk
2015-04-17, 13:38:53
jaber, wenn das der kleine ist und somit ca 15-20% schneller ist als ein 4970k ist und möglicherweiße das taktpotential der großen versionen hat, dann dürften ca. 30-40% mehr leistung drinn sein als devils canyon leistet. wenn die großen für 350€ auf dem markt kosten könnt ich mir vorstellen das für den 6700k 200-250 € verlangt werden.




Ich geh eher davon aus dass der 6600k den 4690k und der 6700k den 4790k ablösen wird. Also eine größere Version als den 6700k wird es wohl nicht geben.

BlacKi
2015-04-17, 14:21:20
Ich geh eher davon aus dass der 6600k den 4690k und der 6700k den 4790k ablösen wird. Also eine größere Version als den 6700k wird es wohl nicht geben.
möglich.

den verbrauch der cpu kerne anhand der tdp einzuordnen ist wohl keine gute idee, denn haswell ist taktbereinigt ja auch sparsamer als ivy obwohl die tdp gestiegen ist.
http://www.anandtech.com/show/8227/devils-canyon-review-intel-core-i7-4790k-and-i5-4690k

ich glaub nicht so daran das der höhere stromverbrauch der cpu kerne schuld an den niedrigeren turbo raten ist, eher die kleinere fertigung die es schwieriger macht die wärme abzuführen. es könnte aber auch sein das der gpu teil soviel strom verbraucht und wärme erzeugt das kein spielraum mehr für mehr takt übrig bleibt. wenn man dann eine dGPU im system hat könnte man ordentlich am takt drehen. skylake hat 210% mehr transistoren als haswell.

@robbi: danke für den hinweis

YfOrU
2015-04-17, 15:03:24
Bei zunehmender Leistungsaufnahme der integrierten GPU unter Last steigt die Differenz von CPU Basis zu Turbotakt. Im Leerlauf ist die Differenz zwischen beispielsweise 24 und 48EUs praktisch zu vernachlässigen (da der Großteil der GPU deaktiviert wird). Entsprechend macht es Sinn diesen Teil der TDP dann der CPU zur Verfügung zu stellen. Die TDP der K SKUs hat praktisch kaum Aussagekraft da bewusst höher. Die klassischen SKUs bekommen meines Wissens nach 65W und das sehe ich schon eher als Ansatzpunkt denn deren Taktfrequenzen bewegen sich üblicherweise im gleichen Rahmen.

MiamiNice
2015-04-17, 15:19:37
http://fs2.directupload.net/images/150416/6b2rcjmc.jpg
http://www.pcfrm.com/intel-core-i7-6700k-haziran-ayinda-geliyor/


Die K-Modelle takten sehr hoch als Startmodelle.

Ich hatte irgendwie auf 6 Kernen gehofft bei den non -E Modellen. :mad:

Ravenhearth
2015-04-17, 15:40:11
Es war doch klar, dass Intel das nicht macht. Warum auch? Sechs Kerne gibt es ja, nur nicht im Mainstream.

robbitop
2015-04-17, 15:41:57
Ich hatte irgendwie auf 6 Kernen gehofft bei den non -E Modellen. :mad:
Da kannst du lange warten. :D

dildo4u
2015-04-17, 15:51:00
Intel wird alles was geht in die GPU stecken ,der IGP Markt dürfte immer größer werden wenn man sich die Dota 2 Zahlen bei Steam anguckt anguckt.

Ravenhearth
2015-04-17, 16:05:49
Wird man bei Skylake den eDRAM in 15W-CPUs sehen?

Sunrise
2015-04-17, 16:06:14
Da wurde einfach deutlich mehr Spielraum für die GPU freigemacht. Wie jetzt einige darauf kommen, dass sich das Ding aufgrund dessen schlechter taktet lässt, verstehen wohl nur sie selbst. Denn wenn ich die GPU nicht brauche und der Fertigungsprozess ausgereifter ist und die Dinger nicht deutlich kleiner als Broadwell sind, dann lassen die sich eher besser takten.

Sunrise
2015-04-17, 16:07:11
Wird man bei Skylake den eDRAM in 15W-CPUs sehen?
Nö, aber Iris 6100 ist dort jetzt schon dabei, wenn ich das richtig im Kopf hab.

EDIT: Grade nochmal gegoogelt. Tatsächlich, die kommen teilweise wirklich mit eDRAM. Ziemlicher krasser Sprung, erst die 6100 und dann noch eDRAM bei 15 Watt. Bin überrascht.

tdon
2015-04-17, 16:13:12
Wird man bei Skylake den eDRAM in 15W-CPUs sehen?


Ja wird es. Nicht in allen natürlich.

Ravenhearth
2015-04-17, 17:01:04
Passt der denn zusätzlich zum Chipsatz noch aufs Package?

tdon
2015-04-17, 17:05:41
Es muss passen, sonst würde es ja nicht gehen. Es sind ja auch nur 64 MB, eventuell würden 128 MB nicht mehr passen. Auch ist nicht klar, ob der Chipsatz auf 22nm verkleinert wird oder der edram auf 14nm bei SKL-U.

robbitop
2015-04-17, 17:28:42
Ist das so (15w edram)? IIRC soll der eDRAM für 28W kommen.

tdon
2015-04-17, 17:54:55
Wer sagt das?

http://fs1.directupload.net/images/150417/wo9z54ed.png

http://fs1.directupload.net/images/150417/96lpxcn5.png

Ravenhearth
2015-04-17, 18:24:19
Wie viele EUs haben denn die unterschiedlichen Varianten? 12/24/48/72 (GT1/2/3/4)?

tdon
2015-04-17, 18:28:55
Ja genau so.

robbitop
2015-04-17, 18:38:21
Ah cool. Das ist natürlich besonders gut für die Ultrabooks. Endlich mehr Grafikleistung. :)

Ravenhearth
2015-04-17, 18:44:00
64MB sollten bei 15W auch machbar sein. Ich versteh nur nicht, warum die 4+4e für den Desktop auch nur 64MB bekommen soll, während die Notebook-Version 128MB bekommt. Andererseits steht da explizit "conditional".

tdon
2015-04-17, 19:13:14
Mehr passt auf den Sockel nicht drauf würde ich mal schätzen.

Undertaker
2015-04-17, 19:23:38
Erstmal abwarten, wie wichtig die Größe bei Skylake überhaupt ist. Wenn man mal schaut, das ein GM108 mit 2 MB(?) L2 und 64 Bit DDR3 etwa so schnell wie die alte Iris Pro 5200 ist, sollte Intels GPU-Performance nun wirklich nicht am Thema Bandbreite scheitern. Vorausgesetzt, die Bandbreiteneffizienz macht endlich einen Schritt nach vorn.

Ravenhearth
2015-04-17, 19:56:53
Mehr passt auf den Sockel nicht drauf würde ich mal schätzen.

Bekommt der neue Broadwell mit GT3e nicht auch schon 128MB? Ein Rückschritt wäre arg komisch. Allerdings dürfte Skylake mit 4+4e im Desktop dieses Jahr eh nicht mehr erscheinen.

tdon
2015-04-17, 20:15:13
Selbst wenn, der Chip ist wegen der GT4 sicherlich um einiges größer, die CPU wohl auch. Was bei BDW passt, muss nicht bei SKL passen.

Ravenhearth
2015-04-17, 21:11:22
Bei einer schnelleren Grafik wäre es andererseits aber halt komisch, den eDRAM downzugraden.

tdon
2015-04-17, 21:28:30
Wenn es eben nicht draufpasst wäre es nicht komisch. Außerdem würde ich jetzt mal nicht die Größe überbewerten. Erinne dich daran was Intel bei Haswell einst zu den 128MB gesagt hat. Interessanter wäre es, ob der edram gegenüber Broadwell mehr Bandbreite oder geringere Latenz mitbringt.

Ravenhearth
2015-04-17, 21:38:09
Die Die-Fläche kann aber eigentlich kein Argument sein. Bei den Mobile-Chips passt 4+4e mit 128MB schließlich auch.

tdon
2015-04-17, 21:42:43
Doch kann es. Die kommen nicht gesockelt für S1151.