PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Core X (Kaby-Lake-X & Skylake-X) Review-Thread


Seiten : 1 2 [3] 4 5

The_Invisible
2017-07-10, 22:45:26
aktuelles fazit:
i7 6850k kaufen und mit solider plattform und hoher single core leistung für spiele das maximum der derzeitigen möglichkeiten rausholen. preislich ja auch recht interessant inzwischen.

Hab ich mir auch überlegt, 40 PCIe-Lanes und quasi beste Spiele-IPC. Restliches Zeug könnte man per PCIe nachrüsten wenn notwendig und später könnte man auch noch auf 10C bzw. Xeons mit noch mehr Kernen aufrüsten (interessant vor allem wenn die Firmen ihre Workstations/Server auflösen).

Würde mich schon reizen, aber dann halt wieder das ganze kaufen, altes Zeug verkaufen und zusammenbauen. Meh, werde echt schon alt. :D

FastAndy
2017-07-10, 23:02:40
Wobei das OC eher relativ mies ist beim B-E.

Roman hat sich im Luxx zum Test von THG geäußert:

https://www.hardwareluxx.de/community/f139/intel-skylake-x-kaby-lake-x-oc-laberthread-lga2066-1164913-41.html#post25669790

Da verlinkt er auch einen Post aus den Staaten eines Dritten mit einigen Richtigstellungen zu den ganzen Fehlern / dem groben Unsinn aus dem Artikel. Die Testweise mit dem 250W Limit finde ich btw auch ein wenig speziell, wie er dort auch sagt.

Bei den ganzen fiesen Anfeindungen von oben herab seitens format_c gegenüber Roman/CK finde ich die Reaktion von letzterem noch viel zu nett. Umso peinlicher sind die ganzen Fehler, wenn man sonst einen auf Allwissend macht.

PHuV
2017-07-11, 00:21:42
Hier im Raum stehen 7 PCs, 4 bis 5 sind immer an. Und es ist fast Totenstille im Raum. Nicht eine CPU ist geköpft und trotzdem sind auch ein i9-7900X und ein i7-6850X dabei. Das Einzige, was wirklich nervt sind die 4 großen Oszis, denn die sind alle gekühlt. Diese kleinen Pustefixe höre ich ;)
Du bist aber nicht die Referenz, sondern IMHO der User, der mit normalem Kühler eben mit thermischen Gegebenheiten zurechtkommen muß. ;)

Und Du hast es ja bereits relativiert, es ging mir auch nur um das Tauschen der WLP zwischen Die und Spreader, und ich bin nach wie vor der Meinung - wie Du - wenn man das sauber und ordentlich macht, sind 16°C sehr wohl lohnenswert, und je mehr PCs Kühler laufen, umso weniger Abwärme, Erhitzung des Raumes...

Gerade bei den ganzen Geräten wie Surface und Co. stelle ich mir das doch recht spannend vor, da ist jedes gesparte Grad ein Segen.

Daher, warum verkauft Intel die Prozzies für 10 € mehr, und verlötet vernünftig, wie früher? :mad: Ich verstehs nicht.

aufkrawall
2017-07-11, 02:21:48
Ungesunde Strukturen im Unternehmen, sieht man ja auch anhand des verpennten Mobile-Trends oder dem unter Druck geraten durch AMD. Der Riese ist einfach schwerfällig und ineffizient geworden.

nordic_pegasus
2017-07-11, 06:34:31
und je mehr PCs Kühler laufen, umso weniger Abwärme, Erhitzung des Raumes...



Die Logik verstehe ich nicht. Mit dem Austausch der WLP kann man die Leitfähigkeit verbessern und einen Wärmestau am Die minimieren. Aber wie kann hierdurch die Abwärme sinken?

Niall
2017-07-11, 07:14:16
Witzigerweise hatte ich vor ein paar Monaten - obgleich ich wusste dass die Plattform langsam ausläuft - selbst mit einem neuen 2011-3 Brett geliebäugelt. (Vor Ryzen) Da gibt es ja auch aufgesetztes USB 3.1 Gen2 etc., vermissen würde man die nächsten Jahr vermutlich recht wenig. :freak:

Doomi
2017-07-11, 10:37:38
Würde mich schon reizen, aber dann halt wieder das ganze kaufen, altes Zeug verkaufen und zusammenbauen. Meh, werde echt schon alt. :D

Genau so geht es mir auch. Ich hab schon Lust auf ein neues System aber der 5 bis 6 Jahre alte 4 Ghz Sandy 2500 k tuts immer noch ziemlich gut und ich hab mittlerweile irgendwie keine Lust mehr das System neu aufzusetzen. Da wechsle ich lieber die Grafikkarte ab und an wie letztens die 1080TI. Außerdem reicht mir Win 7 völlig. Ich ziehe einfach keinerlei Nutzen aus Win 10 ( welches ich auf Arbeit als Produktivsystem seit Release nutze ) aber das benötige ich dann ja leider, wenn ein komplett neues System zusammen gebaut werden soll. .. es sei denn, ich hole mir ein Broadwell-E.

BigKid
2017-07-11, 10:46:52
In Punkto zukunftssicherheit Interessiert mich aktuell auch das Thema Anzahl PCI Lanes, DMI und NVMe Slots...

Ich hatte die Frage zwar in einem anderen Thread speziell zum Thema SSDs schonmal stehen - ist aber schon ne weile her... Daher hier nochmal aktualisiert:

Hat sich denn an der Anbindung von den NVMe SSDs schon was getan ?
Die 960er von Samsung kratzen ja schon am 3.8GB/s Limit vom DMI und PCIe x4.
Wenn ich die rasenden Geschwindigkeitszuwächse bei den SSDs angucke dann sollte ein neues Board da also mehr bieten.

Welche Platform oder konkret welches Board hat hier was zu bieten ?
Notfalls indem man die SSDs oder Teile davon (ich rechne mit 2-3) auf eine extra PCIe Karte packt... Aber dazu muss es zumindest genug Lanes geben...

Ist hier von Intel irgendwas in Sicht ?

Screemer
2017-07-11, 10:54:37
Die Logik verstehe ich nicht. Mit dem Austausch der WLP kann man die Leitfähigkeit verbessern und einen Wärmestau am Die minimieren. Aber wie kann hierdurch die Abwärme sinken?
Wenn man die temp der CPUs senken kann, dann sinkt in der Regel auch deren Leistungsaufnahme und durch ihre Verluseistung. Da sie bei geringeren temps meist effizienter sind und in der Kette sind dann auch noch andere Verbraucher wie vrms. Bei gleichem Verbrauch geht natürlich die gleiche Energiemenge ins Kühlmedium.

Rancor
2017-07-11, 11:01:51
....
Mit 5GHz läuft mein Ivy Bridge seit 5 Jahren 24/7 das ist ja wirklich keine Kunst mehr in 2017?....

Ja ne ist klar ;D Es ist immer noch mit Köpfen, exorbitanter Kühlung und Silizium Lotterie verbunden ( erst Recht beim IB ) ob man die 5Ghz erreicht.

Skylake-X auf 5 Ghz zu bekommen dürfte unmöglich sein, oder aber nur unter extremen Bedingungen ala LN2...

Von keine Kunst kann da gar keine Rede sein.

TurricanM3
2017-07-11, 14:11:43
Bez. Spieleleistung. Gibt es nirgendwo einen Test mit angehobenem Meshtakt? Die 3000 laufen quasi bei jeder CPU und 3200 wohl auch so gut wie, ohne groß an der Spannung drehen zu müssen. Ich kenne nur einen Usertest, bei dem das ordentlich was gebracht hat.

Ich hab meine CPU schon ewig auf 4000 uncore statt 3000 laufen.

IchoTolot
2017-07-11, 14:24:32
Skylake-X auf 5 Ghz zu bekommen dürfte unmöglich sein, oder aber nur unter extremen Bedingungen ala LN2...

Hat man doch schon geschafft.

https://www.youtube.com/watch?v=80sEZSODwpw

MiamiNice
2017-07-11, 14:33:55
Bez. Spieleleistung. Gibt es nirgendwo einen Test mit angehobenem Meshtakt? Die 3000 laufen quasi bei jeder CPU und 3200 wohl auch so gut wie, ohne groß an der Spannung drehen zu müssen. Ich kenne nur einen Usertest, bei dem das ordentlich was gebracht hat.

Ich hab meine CPU schon ewig auf 4000 uncore statt 3000 laufen.

Würde mich auch interessieren. Dann wird der 7900x vielleicht doch noch interessant.

Lowkey
2017-07-11, 14:48:10
Hat man doch schon geschafft.

https://www.youtube.com/watch?v=80sEZSODwpw


Also brauche ich für 5 Ghz ein Asus Apex für 550 Euro?

Mir fehlt noch immer eine Mainboardkaufempfehlung, wenn man OC betreiben will.

Caseking hat den 7820x delid für 740 Euro.

oOOMadCatOOo
2017-07-11, 15:21:39
Propaganda, OC ist sogar mit meinem X299-A möglich und selbst 5 Ghz bekomm ich mit dem Board ans laufen wenn ich simpel den Multi auf 50 festlege, bootet sauber in Windows ohne irgendeine andere händische Änderung, alles Auto.

Ist sicher nicht Prime-stable aber unmöglich oder sonst was ist es sicher nicht.

System siehe Sig. 7900X delidded mit Corsair H115i AIO bei 1,15V auf 4,5 GHz Allcore (auch AVX). So komme ich bei AVX Last auf 76-80°C.

Ich hatte HW-E, BW-E und nun SL-E, sicher ist der SL-E kein Wunderchip aber das oft beschriebene Desaster ist er, zumindest für mich auch nicht :rolleyes:

In Summe kann ich sagen der Chip ist delidded das, was BW-E out of the box war was das Verhalten angeht.

PHuV
2017-07-11, 17:43:01
Die Logik verstehe ich nicht. Mit dem Austausch der WLP kann man die Leitfähigkeit verbessern und einen Wärmestau am Die minimieren. Aber wie kann hierdurch die Abwärme sinken?
Wenn man die temp der CPUs senken kann, dann sinkt in der Regel auch deren Leistungsaufnahme und durch ihre Verluseistung. Da sie bei geringeren temps meist effizienter sind und in der Kette sind dann auch noch andere Verbraucher wie vrms. Bei gleichem Verbrauch geht natürlich die gleiche Energiemenge ins Kühlmedium.
Korrekt.

Rechne das doch einfach mal selbst. Kühler X muß eine CPU mit 90 Grad kühlen.

wird der Lüfter lauter, weil er schneller dreht. -> Mehr Leistung für Kühlerlüfter -> Dadurch mehr Verbrauch und Leistung für Netzteil, hier auch mehr Wärmeerzeugung
Und mehr Wärme wird vom Kühler in den Raum geblasen, sprich es entsprecht mehr Abwärme, welche dann den Raum insgesamt aufheizen, wenn keine entsprechend Kühlung vorhanden ist

Das mag man bei einem PC nicht merken, sobald Du 2-3 davon stehen hast, merkst Du das sehr wohl signifikant. 20 Grad Unterschied mehr Wärme pro Gerät summiert sich auf.

Ultron
2017-07-11, 18:41:34
Ja ne ist klar ;D Es ist immer noch mit Köpfen, exorbitanter Kühlung und Silizium Lotterie verbunden ( erst Recht beim IB ) ob man die 5Ghz erreicht.

Skylake-X auf 5 Ghz zu bekommen dürfte unmöglich sein, oder aber nur unter extremen Bedingungen ala LN2...

Von keine Kunst kann da gar keine Rede sein.

Was redest du da? Meine CPU ist nicht geköpft, sie läuft lediglich unter Wasser. Mit mehr Spannung durchläuft der PC sämtliche Benchmarks auch mit 5.2GHz. Wenn du dich in diversen OC-Listen umschaust, siehst du dass das normale Werte sind.

https://abload.de/img/3770k_5200_superpimyqlz.png

Geköpft und mit und aktiviertem Lüfter auf dem Radiator wären 5.1-5.2 GHz bei hohen Spannungen wahrscheinlich sogar dauerhaft primestable. Ich habs nie versucht weil die CPU bis jetzt bei keinem Game auch nur annähernd limitiert hat, da senke ich lieber die Spannung ab und hab lautlose 5GHz. Weil schon mit 1.42V VCore hab ich mit der Schrott WLP von Intel über 90°C unter Last.

(del)
2017-07-11, 19:37:31
Da verlinkt er auch einen Post aus den Staaten eines Dritten mit einigen Richtigstellungen zu den ganzen Fehlern / dem groben Unsinn aus dem Artikel. Die Testweise mit dem 250W Limit finde ich btw auch ein wenig speziell, wie er dort auch sagt.
Bei den ganzen fiesen Anfeindungen von oben herab seitens format_c gegenüber Roman/CK finde ich die Reaktion von letzterem noch viel zu nett. Umso peinlicher sind die ganzen Fehler, wenn man sonst einen auf Allwissend macht.
Der Dritte aus den Staaten (Elmor von overclockers.net) hat übrigens den Test mittlerweile reproduziert (http://www.overclock.net/t/1632665/intel-x299-socket-2066-vrm-thread/300#post_26217132) und die Werte komischerweise nach anfänglicher Skepsis voll bestätigen können. Was für ein Zufall. Er kommt sogar nur auf 230 Watt für die Kühlbarkeit. :D
After testing this I'll have to admit their tests for IHS temperature seems alright. If more details were available in the review this could have been avoided. As you say if measuring the side of the IHS you won't see very high temperatures. At the center it would definitely be hotter but difficult to measure. It just means the main temperature gradient is between die substrate and IHS, and die substrate compared to cores. When I think about it, it does make sense.

Man hätte das Setup für die Messung auch finden können, ich hatte es beim Ryzen schon ausführlichst ausgewalzt und hier nur noch einmal verfeinert. Das wiederum ist ein Vorteil von Stammlesern und Link-Klickern. Der grobe Unfug bezog sich auf ganze zwei Stellen in über 35K Zeichen Text (die der PR vom MB-Hersteller und einem Laienübersetzer geschuldet waren), beim Thema IVR hat dann jemand cleverweise mal die Intel Specs (https://www.intel.com/content/dam/www/public/us/en/documents/datasheets/6th-gen-x-series-datasheet-vol-1.pdf) verlinkt. Da steht dann wiederum das gleiche drin, wie im Review. Und da halte ich mich nun mal doch lieber eher an die Specs und nicht an Foristen.

Viel Lärm um nichts und ist längst korrigiert. Aber Hauptsache erst mal losschnattern... :)

Und nochmals:
Ich feinde keinen an, würde es aber begrüßen, wenn im Video zumindest Caseking-TV und Produktplatzierung eingeblendet gewesen wären. Dann hätte man es so stehen lassen können ;)

Maorga
2017-07-11, 19:58:32
Korrekt.

Rechne das doch einfach mal selbst. Kühler X muß eine CPU mit 90 Grad kühlen.

wird der Lüfter lauter, weil er schneller dreht. -> Mehr Leistung für Kühlerlüfter -> Dadurch mehr Verbrauch und Leistung für Netzteil, hier auch mehr Wärmeerzeugung
Und mehr Wärme wird vom Kühler in den Raum geblasen, sprich es entsprecht mehr Abwärme, welche dann den Raum insgesamt aufheizen, wenn keine entsprechend Kühlung vorhanden ist

Das mag man bei einem PC nicht merken, sobald Du 2-3 davon stehen hast, merkst Du das sehr wohl signifikant. 20 Grad Unterschied mehr Wärme pro Gerät summiert sich auf.

Na ganz so ist es nun auch nicht.

nordic_pegasus hat natürlich physikalisch Recht. Ein Wärmewiderstand (Heatspreader) sorgt zwar dafür, dass die CPU wärmer wird aber trotzdem werden nur X Watt abgeführt. Erzeugt also eine CPU bei Vollast 77W dann werden diese 77W abgeführt ob durch den Kühler eine DIE Temp von 40°C oder 75°C ansteht ist da egal.
Ich blase also mit dem Lüfter 77W in die Raumluft und es ist egal wie heiß die CPU ist.

PHuV klar kannst du Recht haben damit, dass die Lüfter schneller laufen muss und damit mehr Leistung aufnimmt. Was ist aber, wenn der Lüfter immer eine konstante Geschwindigkeit fährt. Wir gehen einfach mal von einem "nicht ausgereizten" System aus. Dann ändert sich die Lüftergeschwindigkeit nicht unter Volllast. Mein Lüfter hier im Rechner macht nicht mehr als 1600 Umdrehungen/Minute, wenn diese Geschwindigkeit nicht ausreicht wird das dela T einfach größer. Sprich der Kühlkörper wird wärmer somit auch die DIE. Hier mal ein paar Werte eines Lüfters:

500rpm Leistungsaufnahme: 0,07A = 0,84W
800rpm Leistungsaufnahme: 0,10A = 1,2W
1500rpm Leistungsaufnahme: 0,20A = 2,4W

Das sind Werte eines 120er Lüfters. Ist natürlich Modellabhängig.

Aber mal kurz und knapp zusammengefasst. Der Kühlkörper braucht ein bestimmtes delta T (differenz von Umgebungstemperatur und Kühlkörpertemperatur) um eine bestimmte Wattage abzuführen.



ABER:

Höhere CPU Temperatur bedeutet natürlich höheren Leckstrom. Bekanntlich ist die DIE einer CPU ein Halbleiter mit der Eigenschaft bei höheren Temperaturen besser den Strom zu leiten. Sprich die CPU nimmt bei gleich Last mehr Strom unter höheren Temperaturen auf. Es wird zwar ein wenig kompensiert (V-Drop) allerdings kommen da immerhin noch ein paar Watt zusammen.

Bei meinem i-3570k (4.0 GHz @ -0.08V offset) sind das
bei 50°C 55.71 Watt
bei 70°C 56.92 Watt
bei 80°C 58.13 Watt

Das sind 2.5 Watt allein durch eine höhere Temperatur. Ebenso beeinflusst dann natürlich die Umgebungstemperatur die Leckströme. Denn je höher die Ambienttemp ist um so höher liegt auch die CPU Temperatur, da das delta T weiterhin bestehen bleibt. Deswegen haben viele Spieler im Sommer ja so Probleme mit übertakteten CPUs Grakas und so.




Also erhöhte Verluste werden nicht durch den Lüfter produziert (mein Lüfter dreht immer gleich langsam 1000 min^-1), sondern durch die erhöhten Leckströme. Hier ist es von Vorteil einen sehr geringen Wärmeübergangswiderstand zu haben CPU hat eine geringere Temperatur, dadurch weniger Leckströme, feine Sache.

nordic_pegasus
2017-07-11, 20:25:43
Das mag man bei einem PC nicht merken, sobald Du 2-3 davon stehen hast, merkst Du das sehr wohl signifikant. 20 Grad Unterschied mehr Wärme pro Gerät summiert sich auf.

mir ging es nur darum, dass Du Abwärme (=Energie) nicht mit Temperatur gleichsetzen kannst.

Wenn man den Verbrauch von Lüftern bei höhrerer Drehzahl und steigende Leckströme bei höheren Temperaturen ignoriert, dann führt eine bessere Wärmeleitfähigkeit zwischen Die und IHS zu folgenden Effekten:
- schnellere Ableitung der Wärmeenergie vom Die an den Kühler = weniger Wärmestau am Die = geringere Temperatur am Die
- zur Ableitung der Wärmeenergie an die Luft muss das Temperatur-Delta zwischen Kühler und Die/IHS nicht so groß sein, darum genügt eine geringere Lüftergeschwindigkeit
- trotzdem ist die abgeführte Energiemenge konstant, somit kann sich die Temperatur der Umgebung (Dein hypothetischer Raum) nicht verändern

Denn wie Maorga richtig schreibt, verändert sich der Verbrauch - und somit die Abwärme - einer CPU nicht in Abhängigkeit des TIMs. Wenn man jedoch die Leckströme mit einbezieht, ändert sich das Modell natürlich. Aber hier verlassen wir die Thermodynamik in Richtung Elektrotechnik ;)

HPVD
2017-07-11, 21:47:32
Benchmarking begins:
http://www.anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade/12

Niall
2017-07-11, 22:22:22
Benchmarking begins:
http://www.anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade/12

Freut mich für AMD, passt aber nicht ganz in den Thread weil: Skylake-SP und so …

PHuV
2017-07-11, 22:59:30
Na ganz so ist es nun auch nicht.

nordic_pegasus hat natürlich physikalisch Recht. Ein Wärmewiderstand (Heatspreader) sorgt zwar dafür, dass die CPU wärmer wird aber trotzdem werden nur X Watt abgeführt. Erzeugt also eine CPU bei Vollast 77W dann werden diese 77W abgeführt ob durch den Kühler eine DIE Temp von 40°C oder 75°C ansteht ist da egal.
Ich blase also mit dem Lüfter 77W in die Raumluft und es ist egal wie heiß die CPU ist.
Also dem würde ich aus eigener Erfahrung überhaupt nicht zustimmen. Energie geht ja nicht verloren, wie wir ja aus der Thermodynamik und dem Energieerhaltungssatz wissen. Ersten läuft der Lüfter ja nicht immer gleich, und es macht sehr wohl einen Unterschied, ob der Lüfter 40°C oder 75°C der Die abführen muß oder nicht. Das heißt, die 35°C Differenz der Wärmeenergie werden in die Umgebungsluft abgeführt, da spielt die Leistung des Lüfters erstmal keine Rolle! Die Leistungsangabe des Lüfters gibt ja nur an, wieviel Leistung er in die Umgebung abgeben kann. Wenn er 77 W schafft (tatsächlich müssen das real eher 140-300 Watt sein), heißt es ja nicht, daß er kontinuierlich 77 W abgibt. Wo nix ist, sprich wenn die CPU kühl ist, kann auch keine Wärmeenergie an die Umgebung abgegeben werden.

Da die Wärmeenergie nur umgeleitet, aber nicht umgewandelt wird, landet diese sehr wohl 1:1 in die Umgebungsthemperatur. Oder bilde ich mir das nur ein, daß die Raumthemparatur bei schon einem PC unter Last signifikant ansteigt? :wink: Ich sehe es ja direkt. Ebenso kann man so was sehr gut bei den Wasserkühlern messen, die über passive Radiatoren die Wärmeenergie abgeben.

Wie gesagt, die Wärmeenergie wird nicht umgewandelt, sie wird abgeführt, und sie landet letztlich im Raum und führt zum Anstieg der Umgebungthemperatur.

Mortalvision
2017-07-11, 23:03:17
Nicht ganz 1:1, ein Quäntchen Energie geht auch auf die wärmebedingte Expansion des Metalls drauf, das ist aber minimal (verstärkte brownsche Molekularbewegung/Zittern).

Oh, und je wärmer der Die und auch der Kühler, desto leichter wird die Temp an die case Innenluft, und dann nach außen abgegeben. Aber bei 300W braucht man doch sehr stark eine Wasserkühlung...

PHuV
2017-07-12, 00:40:00
Damit gehts auch :tongue:

IrIs3PeQ2Bs

Und ja, etwas Energie geht irgendwo immer verloren, damit hast Du schon recht. Aber das meiste der produzierten Wärme wird umgeleitet, sie verschwindet nicht oder sei nicht relevant, wie hier behauptet wird. Egal wie gut die Kühlungen sein mögen, sie erwärmen alle die Umgebungsthemeratur im Raum. Und sind die CPUs heißer, wirds im Raum auch wärmer, ganz einfach. Merkt man ja im jedem Serverraum sofort, wenn die Klimaanlage ausfällt.

PS:

Was heißt den das eigentlich?
http://www.gigabyte.de/Motherboard/X299-AORUS-Gaming-9-rev-10#kf
Lightning-Fast Intel® Thunderbolt™ 3 support by option AIC
Bisher ist doch keine Karte für TB von Asus oder Gigabyte jemals erhältlich gewesen. Angekündigt wurde immer, gekommen ist aber immer nix. :(

Maorga
2017-07-12, 07:48:00
...Wie gesagt, die Wärmeenergie wird nicht umgewandelt, sie wird abgeführt, und sie landet letztlich im Raum und führt zum Anstieg der Umgebungthemperatur.

Richtig, darum ist es ja egal ob die DIE 40°C oder 100°C hat. Wenn die CPU nun mal 77W verbrät, dann tut sie das. Ist wie eine Heizung. Damit die CPU sich nicht weiter aufheizt kühle ich sie. Irgendwann pendelt sich das System ein. Sprich ich führe soviel Energie von dem System ab, dass die CPU Temperatur nicht mehr steigt.
Was im Umkehrschluss heißt, es wird die Energie abgeführt die die CPU erzeugt 77W z.B. und der Umgebung zugeführt. Daher ist es sehr wohl egal wie heiß die CPU selbst ist.


Nehmen wir mal 2 Heizplatten, so Kochfelder. Beide Platten heizen mit 1000 Watt. Eine Platte hat 26 cm Durchmesser, die andere 10 cm Durchmesser. Beide werden von einem Konstant laufenden Lüfter gekühlt. Wenn das System eingeschwungen/ausgeglichen ist, dann sehen wir folgendes. Die Platte mit 26cm Durchmesser ist kühler als die mit 10cm, da durch die größere Fläche leichter die Energie an die Umgebung abgegeben werden kann (Wärmewiderstand von Medium Heizplatte zur Luft ist kleiner als bei der 10cm Platte). Damit die kleinere Platte die gleichen 1000 Watt abführen kann muss diese für ein größeres delta T sorgen, also die Differenz zwischen Temperatur Platte und der Lufttemperatur. Daher ist die Platte heißer als die größere, aber das hat 0,0 Auswirkung auf die der Luft zugeführten Energie, welche bei beiden Systemen gleich ist.
Will ich einen abgeschlossen, super isolierten Raum von 20° auf 100°C bringen, dann werde ich mit beiden Systemen gleich lang brauchen.


Außerdem, wenn die CPU heißer ist durch den schlechten Wärmewiderstand über den Heatspreader heißt dass doch, dass die Temperatur am Kühlkörper deutlich niedriger ist als an der CPU.

Ihr geht einfach davon aus, wenn etwas heißer ist, dann muss es mehr Energie abführen was aber nicht so ist. Nehmt doch einfach mal einen Aluklotz und Kupferklotz mit 60°C in der Hand, ratet mal welchen ihr länger in der Hand halten könnt. Testet es einfach mal zu Hause.

BigKid
2017-07-12, 10:18:45
Richtig, darum ist es ja egal ob die DIE 40°C oder 100°C hat. Wenn die CPU nun mal 77W verbrät, dann tut sie das. Ist wie eine Heizung. Damit die CPU sich nicht weiter aufheizt kühle ich sie. Irgendwann pendelt sich das System ein. Sprich ich führe soviel Energie von dem System ab, dass die CPU Temperatur nicht mehr steigt.
Was im Umkehrschluss heißt, es wird die Energie abgeführt die die CPU erzeugt 77W z.B. und der Umgebung zugeführt. Daher ist es sehr wohl egal wie heiß die CPU selbst ist.

Ich bin aber nach wie vor der Meinung dass die Umgebungstemperatur bzw. das Delta zwischen Kühlkörper und Luft und Die und Kühlkörper beeinflusst was abgeführt werden kann...Und letzteres wird von der Wärmeleitfähigkeit des Übergangs zwischen DIE und Kühler beieinflusst...

Schlechtere Leitfähigkeit am Übergang -> CPU wird wärmer -> Delta wird größer -> Schwingt sich ein aber später = CPU wird wärmer als mit einer besseren

Wärmere Umgebungsluft -> Kühler kann weniger Wärme abführen weil Delta T (also Temp Diff zwischen ihm und der Luft) kleiner -> er muss selbst erst wärmer werden um die selbe Menge Energie abzuführen -> jetzt wird aver das Delta zwischen DIE und Lüfter kleiner -> die CPU muss (und wird) sich also aufheizen bis sich das wieder einpendelt...

Ferner kommt noch oben drauf, dass eine wärmere CPU auch ineffizienter wird und somit noch mehr Wärme ensteht und abgeführt werden muss...

Es ist also NIEMALS egal wie warm ein Glied der Kette ist weil es auf das Delta T ankommt... Je größer das Delta desto leichter kann die Wärme angeführt werden...
Deshalb schwingt sich das ganze ja auch nur irgendwann wieder ein... weil das Delta T zwischen Die und Kühler und Kühler und Luft halt irgendwann wieder ansteigt wenn die CPU oder Kühler (oder Raumluft) anfängt heisser zu werden...

dildo4u
2017-07-12, 11:09:01
Core i7-7800X vs. 7700K, 6 or 4-Cores for Gaming?

https://youtu.be/PKX9Bcxnd7U

PHuV
2017-07-12, 11:44:09
Richtig, darum ist es ja egal ob die DIE 40°C oder 100°C hat. Wenn die CPU nun mal 77W verbrät, dann tut sie das.
Jetzt habe ich es gerafft, was Du meinst. Ja, stimmt.

Dann anders formuliert: Wird die Die nicht so heiß, weil besser oder effizienter die Wärme abgeführt werden kann, wird Kühlsystem weniger belastet, und das Bauteil bzw. CPU hält länger. Die Temperatur wird meistens vom Mainboard ermittelt, welcher dann den CPU-Lüfter entsprechend steuert, siehe CPU-Temperatur auslesen: Wie heiß darf ein Prozessor werden? (https://www.computerbase.de/2017-05/cpu-temperatur/#abschnitt_tjunction_tj_max_tcase_tcase_max__was_ist_was). Ergo sollte bei weniger ermittelten allgemeinen CPU-Temperatur (Tcase) der Kühler leiser laufen. Oder nochmal anders, die Zeit für die Drosselung der CPU erhöht sich.

Das könnte jemand nur ermitteln, der sich mal den Unterschied zwischen ungeköpfter CPU mit WLP und geköpfter mit Tausch durch Flüssigmetall bei Last anschaut, wann die Drosselung erfolgt.

:uponder: Warum schreiben alle Flüssigmetall-Wärmeleitpaste? :confused: Flüssigmetall ist keine Paste.

Daredevil
2017-07-12, 13:58:34
Ein 100 Grad heißer Prozessor braucht auch deutlich mehr Saft als ein 50 Grad warmer Prozessor.

Geächteter
2017-07-12, 14:09:33
Ein 100 Grad heißer Prozessor braucht auch deutlich mehr Saft als ein 50 Grad warmer Prozessor.
Deutlich ist übertrieben, im Verhältnis zum Basissystem (Mobo + DRAM) ist es eher klein und unbedeutend. Wobei sich das Verhältnis vergrößern dürfte, je mehr Transis im Spiel sind.

Nightspider
2017-07-12, 14:16:23
Bei übertakteten highend Grafikkarten macht sich das deutlich stärker bemerkbar.

Wobei der Effekt bei dicken 10 Kernern vllt auch noch schneller zu sehen ist, ganz zu schweigen von den kommenden 16 Kernern.

Bösewicht
2017-07-12, 14:21:58
Core i7-7800X vs. 7700K, 6 or 4-Cores for Gaming?

https://youtu.be/PKX9Bcxnd7U
http://thumbs.picr.de/29760938xw.jpg (http://show.picr.de/29760938xw.jpg.html)
;D
kleiner fehler

Das Ergebnis überrascht mich etwas

Rancor
2017-07-12, 14:22:42
Was redest du da? Meine CPU ist nicht geköpft, sie läuft lediglich unter Wasser. Mit mehr Spannung durchläuft der PC sämtliche Benchmarks auch mit 5.2GHz. Wenn du dich in diversen OC-Listen umschaust, siehst du dass das normale Werte sind.

https://abload.de/img/3770k_5200_superpimyqlz.png

Geköpft und mit und aktiviertem Lüfter auf dem Radiator wären 5.1-5.2 GHz bei hohen Spannungen wahrscheinlich sogar dauerhaft primestable. Ich habs nie versucht weil die CPU bis jetzt bei keinem Game auch nur annähernd limitiert hat, da senke ich lieber die Spannung ab und hab lautlose 5GHz. Weil schon mit 1.42V VCore hab ich mit der Schrott WLP von Intel über 90°C unter Last.

Nur weil deine CPU 5 Ghz erreicht, erreichen das längst nicht alle Ivy Bridge. Wann versteht ihr das endlich mal? Es ist immer individuell abhängig von der CPU.
Du tust so als ob das alles überhaupt kein Problem wäre und das ist ja nunmal de facto einfach nicht so.

@ Skylake-x Nur weil der der8auer nen Skylake-X auf 5GHz bekommt, mit nem 550€ Mainbaord und selektierter CPU, dann wird das sicherlich nicht jeder schaffen können.

Nightspider
2017-07-12, 15:04:40
Nur weil der ein 550€ Mainboard hatte heißt das nicht das man so eins braucht für 5Ghz.

oOOMadCatOOo
2017-07-12, 15:10:52
Ich liebe diese Konjunktiv-Piraten ;D

Ultron spricht nicht von hätte, wäre oder würde, sondern schildert einen real bei sich existierenden Fall.

Ebenso schilderte ich den Fall meines 7900X, der ohne ein 500€ Board mit einer AIO auf 5GHz geht aber manche User stellen ihr "Hörensagen" über die real existierenden Erfahrungen anderer Nutzer.

Ich erinnere mich hier immer an den User Tombman, welcher seinerzeit, als es um die Leistungsdiskussion X800 gegen 6800U ging, in seiner Signatur stehen hatte: "Woher ich das weiß, ich habe beide Karten und teste alles selbst";D

Auch damals wussten es diejenigen, welche die Hardware nie in den Händen hatten am allerbesten.

dreas
2017-07-12, 15:17:23
Ich liebe diese Konjunktiv-Piraten ;D

Ultron spricht nicht von hätte, wäre oder würde, sondern schildert einen real bei sich existierenden Fall.

Ebenso schilderte ich den Fall meines 7900X, der ohne ein 500€ Board mit einer AIO auf 5GHz geht aber manche User stellen ihr "Hörensagen" über die real existierenden Erfahrungen anderer Nutzer.

Ich erinnere mich hier immer an den User Tombman, welcher seinerzeit, als es um die Leistungsdiskussion X800 gegen 6800U ging, in seiner Signatur stehen hatte: "Woher ich das weiß, ich habe beide Karten und teste alles selbst";D

Auch damals wussten es diejenigen, welche die Hardware nie in den Händen hatten am allerbesten.

was für ein board hast du im einsatz?

oOOMadCatOOo
2017-07-12, 15:20:18
Asus Prime X299-A.

Es geht mir auch nicht darum SL-X schön zu reden, er ist wie er ist aber die CPUs zu verteufeln ist genauso geistig beschränkt wie sie in den Himmel zu loben.

Sicher schaffen nicht alle 5,0 GHz aber eben auch nicht kein Chip...manchmal täte einfach ein wenig emotionaler Abstand den Diskussionen gut, zumindest ist das mein Eindruck als zumeist stiller Mitleser.

MiamiNice
2017-07-12, 15:23:29
Steht doch in seiner Sig :biggrin:

https://www.amazon.de/Prime-Gaming-Mainboard-Sockel-K%C3%BChler/dp/B072V521TC/ref=sr_1_1/260-1365205-1218853?ie=UTF8&qid=1499865764&sr=8-1&keywords=PRIME+X299-A

€: Ups too late -.-

Ultron
2017-07-12, 15:24:05
Nur weil der ein 550€ Mainboard hatte heißt das nicht das man so eins braucht für 5Ghz.

Also wenn man davon ausgeht dass die X-CPUs nur 4,5GHz schaffen, wäre das im Vergleich zu einem 5GHz Ivy gerademal eine Steigerung in der IPC von 10% in 5 Jahren. 2% pro Jahr?! :freak: (Angenommen die IPC von Skylake-X ist 20% schneller als die IPC von Ivy Bridge)

Die CPUs müssen einfach 5GHz unter Wasser schaffen, das wären dann immernoch gerade mal lächerliche ~4% IPC-Steigerung pro Jahr seit 2011, wenn man einen 4,8GHz Sandy Bridge als Vergleich her zieht, das damals für 90% unter Wasser erreichbar war. Viele liefen mit 5GHz+

Wieso sollten die 6+ Kerner sich soviel langsamer takten lassen als die 4Kerner? Das kann nur mit der Kühlung und der Spannungsversorgung zusammenhängen, darum ist Wasser für diesen Test Pflicht. Die Theorie dass sich größere Dies schlechter takten lassen, kann man mit nVidias Pascal wiederlegen. Eine 1080Ti geht im Schnitt genauso hoch wie eine 1050Ti.

Maorga
2017-07-12, 16:41:47
Ich bin aber nach wie vor der Meinung dass die Umgebungstemperatur bzw. das Delta zwischen Kühlkörper und Luft...
Es ist also NIEMALS egal wie warm ein Glied der Kette ist weil es auf das Delta T ankommt... Je größer das Delta desto leichter kann die Wärme angeführt werden...
Deshalb schwingt sich das ganze ja auch nur irgendwann wieder ein... weil das Delta T zwischen Die und Kühler und Kühler und Luft halt irgendwann wieder ansteigt wenn die CPU oder Kühler (oder Raumluft) anfängt heisser zu werden...


Was der Kühler an Wärmeenergie abführt wird über das delta T und die Luftgeschwindigkeit bestimmt. Genau das habe ich so gesagt und geschrieben. Aber wenn du dir deinen Schlusssatz mal genau durchliest erkennst du vielleicht deinen Fehler, denn es ist egal wie Warm ein Glied ist, alle Glieder werden durch die delta T bestimmt und der Umgebungstemperatur. Wenn ich den Lüfter am Kühler mit 800 min^-1 laufen oder mit 1600 min^-1 hat Auswirkung auf das delta T höhere Lüftergeschwindigkeit geringeres delta T wird benötigt. Ich denke du wirst dem Zustimmen. Dazu mal ein Beispiel:

Gehen wir von einem Lüfter mit konstant 1000 min^-1 aus. Erhöhen wir die Umgebungstemperatur um 10° C, dann wird im Endeffekt das ganze System um 10° C erwärmt werden.

Umgebungstemperatur 20° C - Kühlertemperatur 50° C - DIE 60° C
Umgebungstemperatur 30° C - Kühlertemperatur 60° C - DIE 70° C

die delta T zwischen Kühler und DIE ist in dem Beispiel 10° C und das zwischen Ambient und Kühler 30° C. Aber diese delta T bleiben immer erhalten für die Abführung der gleichen Wärmeenergie. Erhöhe oder verringere ich die abzuführende Wärmeenergie so erhöht bzw. verringert sich auch das delta T.

Mir ging es hier nur zu zeigen, dass höhere Temperaturen != mehr abgeführte Wärmeenergie entspricht.


Wie schon zwei Seite zuvor habe ich deutlich darauf hingewiesen, dass eine höhere Temperatur der DIE zu erhöhten Leckströmen führt.

Bei meinem i-3570k (4.0 GHz @ -0.08V offset) sind das
bei 50°C 55.71 Watt
bei 70°C 56.92 Watt
bei 80°C 58.13 Watt

Sprich so 2.5 Watt.

Aber darum ging es in dem Beispiel ja nicht, sondern wir haben ein theoretisches Modell erstellt welches eben 77 W konstant durch die DIE an die Umgebung abführt und den Zusammenhang dazwischen. Da man sagte, wenn die CPU heißer ist, so würde diese mehr den Raum aufheizen. Dem ist aber nicht so, was ich an einem anschaulichen Beispiel gezeigt habe.

Vielleicht sollte ich mich mal hinsetzen und einen kleinen Artikel dazu schreiben.

Niall
2017-07-12, 18:21:34
Ist schon richtig, Delta T sollte idR eigentlich gleich bleiben. Außer im Vergleich Idle zu Last. Idle Delta T sollte gleich Idle Delta T bleiben und wie schon erwähnt nur (zumindest halbwegs) proportional mit der Umgebungstemperatur steigen, gleiches bei Last. Das Delta bekommst du nur kleiner/größer mit anderem Kühler, abgehacktem IHS, etc. etc., ist dann natürlich nicht mehr vergleichbar mit Messreihe »A«. :D

Wenn es hier um den Vergleich Delta T Idle zu Delta T Last geht: Ja, kann abweichen, also bspw. 25°C Wassertemperatur und 30°C CPU im Idle zu 25°C Wassertemperatur und 50°C CPU bei Last. Also 5°C zu 25°C Delta.

Bei Anstieg der Temperatur von Kühler oder Frischluft sollte das Delta natürlich nicht größer werden. Wieso auch. :D

Dr. Lloyd
2017-07-14, 14:18:02
Gestern habe ich den 7800X für 333,- € (inkl. Cashback) über Rakuten bei computeruniverse gekauft. Vermeintlich die Tray-Variante. Gerade kam das Paket an und was seh' ich? Total überraschend liegt im Paket die Boxed-CPU! Dann schau' ich auf die Rechnung: Und ja, auch dort steht die dedizierte Nummer für die Boxed-CPU. ;D

Jetzt brauch' ich nur noch ein X299-Mainboard. Das MSI X299 SLI Plus hatte ich bereits letzten Monat bestellt und dann aufgrund von der8auer mit dem VRM-Desaster wieder storniert. Eine erneute X299-Aktion von MSI wäre nett, dann würde das neue XPower Gaming AC ernsthaft in die engere Wahl kommen.

In diesem Zusammenhang: Hat jemand Erfahrung mit E-ATX? Dort ist der oberste PCIe-Slot weiter oben als bei den meisten ATX-Mainboards. Hat die Grafikkarten-Backplate damit ein Problem? Ich denke da an die darüber liegende I/O-Abdeckung des Mainboards sowie die darüber liegenden RAMs. Aktuell habe ich die "Gigabyte Aorus GeForce GTX 1080 Ti Xtreme Edition".

=Floi=
2017-07-14, 15:48:35
kann jemand die zusamensetzung der 3 DIEs erklären, warum intel sich hier auf 10/18/28cores festgelegt hat.

bun
2017-07-15, 00:50:55
kann jemand die zusamensetzung der 3 DIEs erklären, warum intel sich hier auf 10/18/28cores festgelegt hat.

Erklären nicht, aber fundiert vermuten. Wie üblich salvaged Intel teildefekte Chips, um von 6 bis 28 Kernen alles abdecken zu können ist diese Aufteilung vermutlich am günstigsten. Es werden nicht viele 28 Kerner abfallen bei denen nur 6 Kerne funktionieren. Und da die Yields bei 28 Kernen sowieso eher mager sein dürften, wird man dort jeden funktionierenden Kern auch verkaufen wollen, da die Fertigungskosten sehr hoch sind. Bei kleineren Chips deaktivieren die Hersteller auch mal funktionierende Kerne, um den Bedarf an billigen Chips zu decken. So konnte man bei AMD X3 Chips oft zu X4 freischalten, weil der vierte Kern dank guter Yields voll funktionsfähig war. Diese Notwendigkeit will Intel sicher so weit wie möglich vermeiden.

TurricanM3
2017-07-15, 14:17:47
Mal ein bisschen undervoltet. Das ist übrigens schon der fiese 12K Test mit AVX und nur einem Silent Luftkühler @900rpm:

https://abload.de/thumb/7900xz1s9g.png (http://abload.de/image.php?img=7900xz1s9g.png)

Die Wandler vom Board kommen auf max. 57° (von außen gemessen).

TurricanM3
2017-07-15, 15:29:15
4500@1.100v AVX/12K sind wie erwartet unkühlbar. So schnell wie die Temps dreistellig werden, wird wohl auch ein Wasserkühler wenig bringen.

4500 NonAVX/12K @1700rpm:
https://abload.de/thumb/7900x_nonavxcruex.png (https://abload.de/image.php?img=7900x_nonavxcruex.png)

IchoTolot
2017-07-15, 17:03:10
Wieso werden da 12 Cores angezeigt? Und 21 Threads?

grobi
2017-07-15, 17:38:17
Wieso werden da 12 Cores angezeigt? Und 21 Threads?

Zähle mal die Cores :wink:

kruemelmonster
2017-07-15, 18:12:35
Jetzt brauch' ich nur noch ein X299-Mainboard. Das MSI X299 SLI Plus hatte ich bereits letzten Monat bestellt und dann aufgrund von der8auer mit dem VRM-Desaster wieder storniert. Eine erneute X299-Aktion von MSI wäre nett, dann würde das neue XPower Gaming AC ernsthaft in die engere Wahl kommen.

Das SLI Plus ist ein gutes Board, und insbesonders was die Slotbeschaltung (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11406586&postcount=85) angeht besser als die meisten anderen Boards. Hab meinen 7800X mit diesem Board auf 4,5 GHz gebracht bei VRM-Temps zwischen 60 und 70°C - absolut undramatisch.

Tenobal
2017-07-15, 19:44:21
Wie warm, wird eigentlich der 7820x? Hat der ähnliche Temperaturen wie der 7900x oder lässt er sich etwas besser kühlen?

Achill
2017-07-15, 22:05:14
4500@1.100v AVX/12K sind wie erwartet unkühlbar. So schnell wie die Temps dreistellig werden, wird wohl auch ein Wasserkühler wenig bringen.

4500 NonAVX/12K @1700rpm:
https://abload.de/thumb/7900x_nonavxcruex.png (https://abload.de/image.php?img=7900x_nonavxcruex.png)

Meinen 6850k betreibe ich im 24h Betrieb wie mit meinen Bench-Profil. Der Unterschied ist jedoch, dass im Asus-Bios der max. Verbrauch einstellbar ist und auf die ursprünglichen max. 140W fixiert für 24h Profil. Damit erreiche ich locker die 4.4Ghz wenn wenige Cores benötigt werden und bin so bei 3.9 - 4.2 über alle Cores oder bei Prime mit AVX bei 3.7-3.8 Ghz.

Da mir kein Spiel bekannt ist, was die 140W ausfährt, halte ich das für mich als eine gute und pragmatische Lösung. Eventuell passt/geht das ja auch für den 7900X ...

--
Edit: So sieht das bei mir aus ...

Lowkey
2017-07-15, 23:22:01
Gestern habe ich den 7800X für 333,- € (inkl. Cashback) über Rakuten bei computeruniverse gekauft. Vermeintlich die Tray-Variante. Gerade kam das Paket an und was seh' ich? Total überraschend liegt im Paket die Boxed-CPU! Dann schau' ich auf die Rechnung: Und ja, auch dort steht die dedizierte Nummer für die Boxed-CPU. ;D

Jetzt brauch' ich nur noch ein X299-Mainboard. Das MSI X299 SLI Plus hatte ich bereits letzten Monat bestellt und dann aufgrund von der8auer mit dem VRM-Desaster wieder storniert. Eine erneute X299-Aktion von MSI wäre nett, dann würde das neue XPower Gaming AC ernsthaft in die engere Wahl kommen.

In diesem Zusammenhang: Hat jemand Erfahrung mit E-ATX? Dort ist der oberste PCIe-Slot weiter oben als bei den meisten ATX-Mainboards. Hat die Grafikkarten-Backplate damit ein Problem? Ich denke da an die darüber liegende I/O-Abdeckung des Mainboards sowie die darüber liegenden RAMs. Aktuell habe ich die "Gigabyte Aorus GeForce GTX 1080 Ti Xtreme Edition".

Ich hatte das Asus Strix x299 mit dem Gutschein bestellt. Der obere PCI-E macht keine Probleme mit der Aorus, jedenfalls bei meinem aktuellen ATX-E Board. Das wäre unverkäuflich, wenn nicht alle Karten passen würden.

DR.DEATH
2017-07-15, 23:39:13
Also wenn man davon ausgeht dass die X-CPUs nur 4,5GHz schaffen, wäre das im Vergleich zu einem 5GHz Ivy gerademal eine Steigerung in der IPC von 10% in 5 Jahren. 2% pro Jahr?! :freak: (Angenommen die IPC von Skylake-X ist 20% schneller als die IPC von Ivy Bridge)

Die CPUs müssen einfach 5GHz unter Wasser schaffen, das wären dann immernoch gerade mal lächerliche ~4% IPC-Steigerung pro Jahr seit 2011, wenn man einen 4,8GHz Sandy Bridge als Vergleich her zieht, das damals für 90% unter Wasser erreichbar war. Viele liefen mit 5GHz+

Wieso sollten die 6+ Kerner sich soviel langsamer takten lassen als die 4Kerner? Das kann nur mit der Kühlung und der Spannungsversorgung zusammenhängen, darum ist Wasser für diesen Test Pflicht. Die Theorie dass sich größere Dies schlechter takten lassen, kann man mit nVidias Pascal wiederlegen. Eine 1080Ti geht im Schnitt genauso hoch wie eine 1050Ti.

Sorry fürs OT aber ernsthaft? Jetzt schaffen schon fast alle Sandys 4,8GHz? Erst schafften alle 4,5Ghz und 2017 schon 4,8GHz. Wenn wir 2020 haben schaffte jeder bestimmt 5Ghz beim Luft zufächern aufs blanke Die.

Klar hängt das alles auch von der Kühlung ab aber Wasser holt auch nicht viel raus. Bei den fetten Luküs ging schon genug. Wasser hatte nur den Vorteil der niedrigeren Temperaturen und ein bisschen Stromersparnis.

Ob die SkylakeX die 5GHz unter Wasser schaffen glaub ich noch nicht. Auch Wasser wird es nicht raus reißen. Vielleicht kommt man in die Nähe wenn die Zahnpasta durch was gescheites ersetzt wird. Allerdings dürfte bei dem Preis das rumgefledder an der CPU mit ordentlich Angstschweiß einhergehen.

Richtig köpfen geht wegen dem Anpressdruck der Pins nicht. Das Aussägen von der Innenfläche vom Heatspreader (damit der Außenbereich für die Befestigung noch herhält) könnte vielleicht noch klappen? Oder ist dann das Befestigungsmodul höher als das Die und der Kühler bekommt keinen Kontakt?

Mortalvision
2017-07-16, 15:14:08
Das geht schon, abee dann musst du den DIE in irgendwas nicht leitendes ein- und übergießen. Sowas wie Zahnarztkeramik wäre gut. Kann man mit UV Strahlung aushärten und ein bischen nachpolieren ;D

TurricanM3
2017-07-17, 19:07:52
Der 7900X ist ja ganz schön im Preis gefallen.

robbitop
2017-07-17, 19:33:17
Hat mittlerweile jemand Mesh-OC untersucht? Was bringt es in Spielen?

TGKlaus
2017-07-17, 20:36:18
Hat mittlerweile jemand Mesh-OC untersucht? Was bringt es in Spielen?

Sicher das das so einfach geht?
Beim ASUS Prime X299-A gibt es (bisher?) keine Option dafür.

TurricanM3
2017-07-17, 20:53:55
Nennt sich Min bzw. Max CPU cache ratio. Hab ich beim Deluxe drin.

Hoschi75
2017-07-17, 21:21:26
Meine kleine Anekdote zum Thema Skylake X

Ich hatte letzte Woche Arma 3 gebencht (YAAB) um das neue mit meinem vorherigen System (i7 5960x) vergleichen zu können.

Nach dem Test war ich erst mal geschockt:

44fps vs. 55fps mit dem besseren Ende für Haswell-E!

Der 7820x lief dabei mit 4900Mhz (RAM 3200Mhz CL14, Mesh @2400Mhz), der 5960x mit 4750Mhz (RAM 3200Mhz CL13, Uncore @4500Mhz).
Zudem ärgerte ich mich über den schlechten Speicherdurchsatz / -zugriffsgeschwindigkeit.

Ich weiß nicht, ob hier Asrock (X299 Taichi) zu konservativ herangeht und es bei anderen X299 Mobos bei diesen Settings vielleicht besser aussieht?

Nach diesem WE bin ich mittlerweile fast auf dem alten Leistungsniveau angelangt. Mit 4900Mhz (RAM nun 3800Mhz CL16, Mesh @3200Mhz).
Der RAM-Takt war dabei nur die halbe Miete. Erst nach dem Optimierungen der Second- und Third Timings sieht es wie folgt aus:

54fps vs. 55fps - noch immer pro Haswell-E...

Richtig gut hingegen lässt sich auf der neuen Plattform der RAM takten - zumal hier 4x 16GB Module am Start sind:

https://abload.de/thumb/aida_currentemx4h.jpg (https://abload.de/image.php?img=aida_currentemx4h.jpg)

Arma 3 ist sicher kein Maßstab und die Wenigsten werden es zocken, dennoch wollte ich Euch an meinen bisherigen Erfahrungen teilhaben lassen...

aufkrawall
2017-07-17, 21:28:01
Sehr interessant, insbesondere durch die Parallele zu Ryzen. (y)
Ob es wohl bald eine neue XMP-Version geben wird?

Complicated
2017-07-17, 21:34:12
Der 7820x lief dabei mit 4900Mhz (RAM 3200Mhz CL14, Mesh @2400Mhz), der 5960x mit 4750Mhz (RAM 3200Mhz CL13, Uncore @4500Mhz).
Zudem ärgerte ich mich über den schlechten Speicherdurchsatz / -zugriffsgeschwindigkeit.

Nach diesem WE bin ich mittlerweile fast auf dem alten Leistungsniveau angelangt. Mit 4900Mhz (RAM nun 3800Mhz CL16, Mesh @3200Mhz).
Der RAM-Takt war dabei nur die halbe Miete. Erst nach dem Optimierungen der Second- und Third Timings sieht es wie folgt aus:

54fps vs. 55fps - noch immer pro Haswell-E...


Mich würde mal der Unterschied beim Stromverbrauch interessieren zwischen den beiden Settings.

Hoschi75
2017-07-17, 21:43:54
Mich würde mal der Unterschied beim Stromverbrauch interessieren zwischen den beiden Settings.

Puhh, habe ich nicht gemessen. Beide liefen mit ca. 1,27V. Ich denke aber, dass der 7820x doch noch mehr aus den Spannungswandlern zieht...

Complicated
2017-07-17, 22:55:01
Ich meinte den Verbrauch bei Mesh Übertaktung beim 7820X. Also was das ausgemacht hat nach deinem Tweak.

Darkman.X
2017-07-18, 03:28:12
Gibt es eigentlich Benchmarks zum Skylake-X, was beim Speicher sinnvoller ist? 3200 MHz & CL14 oder 3600 MHz & CL17 oder 3866 MHz & CL18? Natürlich unter Voraussetzung die Boards / CPU machen das mit...

EDIT:
OK, hab allgemein etwas gegoogelt und laut einigen Benchmarks ist wohl Frequenz wichtiger als die Latenz mit CL. Das wird beim Skylake-X vermutlich immer noch so sein.

Hoschi75
2017-07-18, 10:07:46
Gibt es eigentlich Benchmarks zum Skylake-X, was beim Speicher sinnvoller ist? 3200 MHz & CL14 oder 3600 MHz & CL17 oder 3866 MHz & CL18? Natürlich unter Voraussetzung die Boards / CPU machen das mit...

EDIT:
OK, hab allgemein etwas gegoogelt und laut einigen Benchmarks ist wohl Frequenz wichtiger als die Latenz mit CL. Das wird beim Skylake-X vermutlich immer noch so sein.

Ich habe die Erfahrung gemacht, dass (zumindest beim Asrock X299 Taichi) bei hohem Ramtakt die Second- und Third Subtimings automatisch so sehr entschärft werden, dass dann kaum eine Performancesteigerung stattfindet.

Hier auch gut zu sehen - das Taichi mit DDR4-4000 CL15 (Forumlink overclock.net):

http://www.overclock.net/t/1632870/skylake-x-kaby-lake-x-combined-discussion/860#post_26222411

Und hier nun mein Ergebnis nach dem Optimieren der Subtimings:

https://abload.de/image.php?img=aida_currentemx4h.jpg

dildo4u
2017-07-19, 09:02:56
Intel Mesh, Does Overclocking it Fix Skylake-X

https://youtu.be/mTQ6ymQIY64

Hoschi75
2017-07-19, 11:06:31
Ein recht überschaubarer Zugewinn an Performance. Zudem dreht der 7700k ja regelrecht Kreise um den 7800x...

y33H@
2017-07-19, 11:21:49
Der Mesh-Takt ist nicht das Problem.

Pirx
2017-07-19, 11:42:51
Basistakt des 12-Kerners i9-7920X bei 2,9 GHz? https://videocardz.com/newz/intels-12-core-i9-7920x-features-2-9-ghz-base-clock

dildo4u
2017-07-19, 11:47:57
8 Kerne pro Die scheint bei Beiden der Sweet Spot zu sein.

IchoTolot
2017-07-19, 11:53:20
Naja, man wird sehen. Wenigstens kann man sicher sein, dass die Intels sich immer extrem hoch takten lassen.

dildo4u
2017-07-19, 11:58:25
Bringt nix siehe den Mesh Oc Test gegen den 7700k.

IchoTolot
2017-07-19, 12:03:19
Ja das ist echt bitter, ich weiß. Bis auf den 7700K wüsste ich nicht was ich derzeit kaufen soll. Coffee Lake wird noch interessant, aber sonst war es das auch. Ich glaube nicht, dass da noch was kommt von Intel bezüglich BIOS oder so. Da werden Anpassungen in Spielen erfolgen müssen und selbst dann ist es fraglich, ob da noch viel mehr kommt.

Hardware Unboxed sagte ja, dass er einen Benchmark vorbereitet mit 7700K, Skylake-X (welcher weiß ich nicht mehr) und Ryzen 1600. Bin sicher, dass der 7700K da führen wird überall und Skylake wird sich ein Kopf an Kopf Rennen liefern mit dem Ryzen 1600, vermutlich. Wobei, ein bisschen schneller dürfte er schon sein.

Lowkey
2017-07-19, 12:49:46
Anpassungen wurden ausgeschlossen. Intel fokusiert auf Kerne und nicht auf Einzelkernleistung. Der 7800x ist quasi ein Abfallprodukt der i9 Reihe.

Bei gleichem Takt wird der 8700k mit 6/12 jedem 7700k überlegen sein. Es kommt natürlich auf den Preis an. Der Ryzen 1600 oder 1700 ist deswegen so günstig, weil ein 100 Euro Mainboard das OC auf 4 Ghz locker packt. Der x370 ist mehr oder weniger überflüssig. Beim Speicher kann es dagegen nicht schnell genug sein.

Nach meiner Erfahrung ist ein ausgereiftes z270 Board jedem B350 überlegen, aber genauso ist ein 7700k jedem Ryzen überlegen wenn es um Spiele geht. Der Vorsprung ist dermaßen gering, dass jederzeit ein AMD Jünger hinter dem Busch hervorspringt und mit der P/L Keule schwingt. Immer noch gilt: Intel onboard ist bei Netzwerk und USB eine Spur besser als Asmedia und Realtek. Wobei hier auch jedes Jahr Unterschiede auftreten können. Man erinnere sich nur an die Intel WLan PCI-E Adapter, die eine halbe Katastrophe für Intel-Verhältnisse waren.

Complicated
2017-07-19, 13:26:22
2,9 GHz Basistakt für den 12-Core 7920X - das ist aber nicht wirklich viel. 20% weniger Basistakt gegenüber dem AMD 12-Kern Threadripper. Dafür aber 50% Aufpreis.

Lehdro
2017-07-19, 13:27:56
Hardware Unboxed sagte ja, dass er einen Benchmark vorbereitet mit 7700K, Skylake-X (welcher weiß ich nicht mehr) und Ryzen 1600. Bin sicher, dass der 7700K da führen wird überall und Skylake wird sich ein Kopf an Kopf Rennen liefern mit dem Ryzen 1600, vermutlich. Wobei, ein bisschen schneller dürfte er schon sein.
Komische Kombination zum testen.
7800X 370 €
7700K 330 €
r5 1600 200 €

Aber vielleicht hilft dir das weiter:
https://www.computerbase.de/2017-07/core-i-ryzen-ddr4-ram-benchmark/2/

"Skylake-X hat eine Spieleschwäche" (o-Ton CB)

Complicated
2017-07-19, 13:39:11
Das wird immer skuriler was CB da testet. Alle Speicher mit CL17 Timing ohne Änderung, womit die niedriger getakteten Durchläufe logischerweise schlechter weg kommen als sie könnten, da mit schärferen Timings der Unterschied wohl geringer ausfallen würde.
Keinen Vergleich zwischen SR und DR. Es wurde nur SR getestet.
Test ohne Wert bei der Methode.

dreas
2017-07-19, 13:48:36
Das wird immer skuriler was CB da testet. Alle Speicher mit CL17 Timing ohne Änderung, womit die niedriger getakteten Durchläufe logischerweise schlechter weg kommen als sie könnten, da mit schärferen Timings der Unterschied wohl geringer ausfallen würde.
Keinen Vergleich zwischen SR und DR. Es wurde nur SR getestet.
Test ohne Wert bei der Methode.


aus dem text bei cb:

Offen lässt der Artikel die Frage nach den Speicher-Timings. Separate Tests haben allerdings gezeigt, dass sie in Spielen unabhängig der CPU einen geringeren Einfluss auf die Performance haben als der Speichertakt. Die Priorität sollte entsprechend auf den Takt gelegt werden.

Lehdro
2017-07-19, 13:52:52
Das wird immer skuriler was CB da testet. Alle Speicher mit CL17 Timing ohne Änderung, womit die niedriger getakteten Durchläufe logischerweise schlechter weg kommen als sie könnten, da mit schärferen Timings der Unterschied wohl geringer ausfallen würde.
Keinen Vergleich zwischen SR und DR. Es wurde nur SR getestet.
Test ohne Wert bei der Methode.
Das sind sicherlich alles valide Punkte die man als Nutzer kritisieren kann.
Zumal das alles seeeehr konserative Timings sind, selbst bei 3200 ist CL17 eher "schnarchlahm".

Schön wäre es natürlich gewesen Dual Rank, andere Timings und im Falle von Ryzen besonders die Subtimings noch anzupassen. Gerade da versteckt sich nochmal ein gutes bisschen Performance.

Complicated
2017-07-19, 13:53:53
@CBText
Das halte ich für einen Bullshit sondergleichen. Es ist allgemein bekannt, dass man beides anpassen muss um die beste Performance zu erzielen. Hier hat man sich mal wieder lediglich Zeit gespart und die komplizierten Einstellungen umgangen. Typisch CB etwas zu messen und zu behaupten ohne die Ergebnisse zu zeigen. Es ist nicht das erste mal, dass auf diese Weise vorgegangen wird. Diese separaten Tests hätte ich gerne mal dokumentiert gesehen.

Was heisst "geringerer Einfluß" in diesem Fall? Es werden 4% Unterschied gemessen mit Takt und macht das Timing dann 2-3% Unterschied aus? Es gibt überhaupt keinen Grund eine Priorität zwischen Takt und Timing fest zu legen. Beides muss genutzt werden.

Vor allem da in der Vergangenheit schärfere Timings immer den höheren Takt ausgeglichen hat und man sich den Aufpreis sparen konnte. Hier rät CB zum genauen Gegenteil auf Basis dieses Halbtests.

MechWOLLIer
2017-07-19, 14:17:36
Zweifelsohne kann man den Artikel noch weiter ausbauen. Wir ihr geschrieben habt: Single-/Dual-Rank und eben die Timings. Der Speichertakt ist aber die Hauptsache, nach dem die Leser fragen. Es sagt ja auch keiner, dass das nicht noch so kommen wird. Aber das ist jetzt kein Versprechen für irgendwas.

Die Timings sind übrigens so gewählt. Da ansonsten nicht alle Testkandidaten DDR4-3200 mitmachen. Das gilt dabei übrigens für AMD und auch Intel.

Auf Complicated's Post gehe ich aus guten Gründen nicht ein :)

Complicated
2017-07-19, 14:22:53
Warum solltest du auch auf berechtigte Kritik eingehen? Die selbe Kritik steht in eurem Forum ebenfalls zu dem Test. Bleib doch bei deinem bisherigen Verhalten. Die Frage ist warum du das explizit erwähnen musst.

maximus_hertus
2017-07-19, 14:33:18
Schade, es wäre schöner, wenn die Timings genommen hätte, die bei dem jeweiligen Takt üblich sind. Bei 2400 Mhz z.B. CL14-15. Vor allem das fehlen von DR Speicher "schmerzt".

Dennoch interesant, wenn auch im Prinzip nichts (wirklich) neues. Danke für das Review :)

IchoTolot
2017-07-19, 15:01:15
Komische Kombination zum testen.
7800X 370 €
7700K 330 €
r5 1600 200 €

Aber vielleicht hilft dir das weiter:
https://www.computerbase.de/2017-07/core-i-ryzen-ddr4-ram-benchmark/2/

"Skylake-X hat eine Spieleschwäche" (o-Ton CB)

Ja was fragste mich? Bin ich der Ersteller dieses Tests? :freak: Ich vermuuute mal es ging darum zwei 6-Kerner gegenüberzustellen und den 7700K als Außenseitervergleich mit reinzubringen weil drei doch schöner als zwei ist. :freak:

https://youtu.be/mTQ6ymQIY64?t=469

Da sagt er es.

M4xw0lf
2017-07-19, 16:58:38
Die Timings sind übrigens so gewählt. Da ansonsten nicht alle Testkandidaten DDR4-3200 mitmachen. Das gilt dabei übrigens für AMD und auch Intel.
Die recht laschen Timings für den hohen Ramtakt erklären sich von selbst, aber die gleichen Timings für alle Taktraten herzunehmen verfälscht die Ergebnisse bei niedrigerem Takt schon deutlich. Man könnte wenigstens die selbe absolute Latenz in ns hernehmen.

robbitop
2017-07-19, 18:03:38
Der Mesh-Takt ist nicht das Problem.

Ja das zeigen die Benches von hw unboxed. Schade dass er keine Bandbreiten und Latenzmessungen zum Mesh OC bzgl L3 gemacht haben.

Woran könnte es sonst liegen? Spiele IPC ist ja im Vergleich zu kbl ziemlich mittelmäßig

fondness
2017-07-19, 18:04:46
Spiele IPC ist ja im Vergleich zu kbl ziemlich mittelmäßig

AFAIK ist die Spiele-IPC ziemlich exakt auf Kaby-Lake Niveau. Nur im Vergleich zu Broadwell-E ist die IPC gesunken.

aufkrawall
2017-07-19, 18:12:37
Der enorme Unterschied bei Far Cry Primal, den Hardware Unboxed festgestellt hat, ist dir bekannt?

fondness
2017-07-19, 18:20:21
Hatte Far Cry nicht ein Problem mit CPUs >4 Cores? Da ist ja AFAIK auch Ryzen und Broadwell-E deutlich eingebrochen ggü. 4 Cores.

robbitop
2017-07-19, 19:13:30
Im hw unboxed Test mit dem Mesh OC wird SKL-X in Spielen von KBL verdroschen. Auch SKL-X @4,7GHz und 3GHz Mesh.
Spiele IPC ist SKL-X pro Kern offenbar ein Stück schlechter als SKL/KBL. Interessant wird CFL.

Hat eigentlich jemand mal HSW-E, BDW-E und SKL-X @4Cores getestet? So könnte man noch besser mit HSW, SKL und KBL vergleichen.

bun
2017-07-20, 22:06:40
Meine kleine Anekdote zum Thema Skylake X

Ich hatte letzte Woche Arma 3 gebencht (YAAB) um das neue mit meinem vorherigen System (i7 5960x) vergleichen zu können.

Nach dem Test war ich erst mal geschockt:

44fps vs. 55fps mit dem besseren Ende für Haswell-E!



ArmA mochte den L4 von Broadwell sehr gerne, Broadwell hat trotz niedriger Taktraten in ArmA sehr hohe FPS Zahlen geliefert und überbot den 6700k. Ich vermute das die veränderte Cachestruktur von Skylake-X für ArmA kontraproduktiv ist.

MiamiNice
2017-07-21, 09:31:33
Fuck ey,
warum ist x299 so untauglich zum spielen :mad:
Aus PC Freak und Bastler Sicht machen die Komponenten so viel Spaß.

https://www.computerbase.de/2017-07/msi-ekwb-x299-monoblock/

Hätte ich echt gerne in meinem PC.
Meh :mad:

dildo4u
2017-07-21, 10:02:14
AMD Ryzen 5 1600 vs. Intel Core i7-7800X: 30 Game Battle

https://youtu.be/UfNMn7RWgLw

IchoTolot
2017-07-21, 10:37:24
Interessant. 7800X ist echt eine Enttäuschung was Spieleperformance angeht, der 7700K in beinahe jedem Spiel überlegen, wie ich es mir gedacht habe.

robbitop
2017-07-21, 10:38:09
Fuck ey,
warum ist x299 so untauglich zum spielen :mad:
Aus PC Freak und Bastler Sicht machen die Komponenten so viel Spaß.

https://www.computerbase.de/2017-07/msi-ekwb-x299-monoblock/

Hätte ich echt gerne in meinem PC.
Meh :mad:

Warte auf CFL. Der wird in Spielen mit SKL-X den Boden aufwischen.

robbitop
2017-07-21, 10:47:42
AMD Ryzen 5 1600 vs. Intel Core i7-7800X: 30 Game Battle

https://youtu.be/UfNMn7RWgLw

Spiele IPC von SKL-X ist ja wirklich nicht das Gelbe vom Ei. 7800x ist mit 4700 MHz dort ja kaum schneller als R5 1600 @4000 MHz.
Offenbar bleibt außer dem Fertigungstechnologievorteil Intel aktuell kaum noch ein großer Vorsprung.

Pirx
2017-07-21, 10:52:12
Textform https://www.techspot.com/review/1450-core-i7-vs-ryzen-5-hexa-core/

MiamiNice
2017-07-21, 11:15:13
Warte auf CFL. Der wird in Spielen mit SKL-X den Boden aufwischen.

Das ist der Plan. Wird aber auch nur spannend wenn das Teil die 5Ghz unterm Waterblock packt.
Sonst heißt es weiter warten.

dildo4u
2017-07-21, 11:16:53
Ich dachte du wolltest ein SLI System?

dreas
2017-07-21, 11:23:47
Spiele IPC von SKL-X ist ja wirklich nicht das Gelbe vom Ei. 7800x ist mit 4700 MHz dort ja kaum schneller als R5 1600 @4000 MHz.
Offenbar bleibt außer dem Fertigungstechnologievorteil Intel aktuell kaum noch ein großer Vorsprung.
Textform https://www.techspot.com/review/1450-core-i7-vs-ryzen-5-hexa-core/

ein desaster für den 7800x. bin ich froh jetzt den 5820k gekauft zu haben.

StefanV
2017-07-21, 12:01:40
Textform https://www.techspot.com/review/1450-core-i7-vs-ryzen-5-hexa-core/
Wow, ein Schlachtfest.
Skylake X ist anscheinend Intels Bulldozer. Selbst mit 4,7GHz hat das Teil arge Mühe mit 'nem 4GHz Ryzen.
Nicht nennenswert schneller, wenn man von ein paar seltsamen Titeln absieht.

Satte 70W mehr Verbrauch!, doppelte Kosten für die CPU und die Aussage zum Kühler sind auch krass:

Ryzen will hit 4GHz with the box cooler but it will be a more mild experience with a $20 aftermarket cooler like the Cooler Master 212, so keep that in mind. The 7800X on the other hand cannot be overclocked to 4.7GHz using a 240mm AIO closed loop solution. Instead, it required a $380 custom loop setup to achieve that result
Ohne Worte...

fondness
2017-07-21, 12:11:05
AMD Ryzen 5 1600 vs. Intel Core i7-7800X: 30 Game Battle

https://youtu.be/UfNMn7RWgLw

LOL, das Ding liegt ja klar unter Ryzen-IPC. Dürfte auch damit zusammen hängen, dass die Reviewer jetzt endlich ausgereifte BIOS-Versionen mit den korrekten Timings für Ryzen haben. Jede Wette, dass so manches Review heute anders aussehen würde.

Some additional notes, for testing the Ryzen 5 1600 I used the Asrock X370 Taichi motherboard with the latest BIOS (v3.00 - AGESA to 1.0.0.6a). The most up to date version of Windows 10 Pro was used, the AMD Chipset Driver 17.10 was installed and the “AMD Ryzen Balanced” power profile was selected.

The power profile offered noteworthy performance gains for Far Cry Primal, Grand Theft Auto V, Battlefield 1, Dishonored 2 and Total War: Warhammer.

Pirx
2017-07-21, 12:12:50
Ist einiges im GPU-Limit dabei, oder?

IchoTolot
2017-07-21, 12:13:45
Hab ich mir auch gedacht. Wieso hat er nicht 720p getestet?

dildo4u
2017-07-21, 12:18:17
Ist einiges im GPU-Limit dabei, oder?

Ja Witcher 3,Ashes,Divison,Wildlands,Mass Effect 4 außerdem befinden sich Doom und Prey im FPS Limit des Games.

Hab ich mir auch gedacht. Wieso hat er nicht 720p getestet?
Das ganze zeigt gut wie sinnlos es ist über 200€ für ne CPU auszugeben,des Test ist schon ok wenn Intel dadurch gezwungen ist endlich die Quad's auf den Midrange Board's zu begraben.

TurricanM3
2017-07-21, 12:34:51
Wenn man das so liest (sofern kein Mist gebencht wurde) dann vergeht einem immer mehr die Lust sich einen SKX Octa zum Zocken zuzulegen. Spiele aktuell nur PUBG und da wäre die Perf. vermutlich sogar schlechter. :(

Lehdro
2017-07-21, 13:29:40
https://www.instagram.com/p/BWysDUalr2k/

A warning to those overclocking Core-X CPUs. I just found a burnt contact on my 7800X. It was running 1.25v @ 4.7GHz. Looked worse than this but I stupidly rubbed it with my finger not realizing what it was.

Was zum Geier? Hatten wir das bei Intel nicht schonmal durch? Sockelbrand bei S1156 anyone?

dildo4u
2017-07-21, 13:30:40
Die Benches decken sich mit den anderen Test's PCGH hat den 6950X vor dem neuen 7900 was Gameing angeht.Die hohen Clocks verpuffen.

Grendizer
2017-07-21, 13:37:44
Das scheint alles ein ziemlicher Schnellschuss zu sein. Keine Ahnung was Intel da Jahre lang getrieben hat. Die haben Milliarden auf der hohen Kante, Entwicklungskapazitäten ohne Ende, bekommen aber unter Druck nur so einen Mist als Konter an den Start ? Da fragt man sich doch, was die Leute bei intel den ganzen Tag so treiben.

robbitop
2017-07-21, 14:28:31
ein desaster für den 7800x. bin ich froh jetzt den 5820k gekauft zu haben.
Ja die 5820K Käufer haben alles richtig gemacht. :)
CFL wird sicherlich ne Schippe drauflegen. Aber dafür ist ersterer auch 3 Jahre alt.

Ist einiges im GPU-Limit dabei, oder?
Wobei der 7700K @4,9 ghz zeigt, dass R5 1600 und 7800X zumindest nicht im vollständigem CPU Limit liegen. Der ist in den gleichen Benches immernoch ein gutes Stück schneller. Gerade wenn man auf die 1% lows schaut..

Ich tippe darauf, dass hwu @1080 bencht, weil er befürchtet, das Sinnlosargument von Praxisferne vom Mob vorgeworfen zu bekommen.

Ich dachte du wolltest ein SLI System?
Der Praxisnachteil durch 2x PCIe 3.0 16x ist bei mGPU praktisch vernachlässigbar. Noch ein kleines bisschen besser wirds milt plx bridge auf dem Board, da die Kommunikation zwischen den GPUs schneller ist.

Mal davon abgesehen, dass heutiges mgpu (afr mit Profilen) IMO Schrott ist. Bis auf das blurrige TXAA (bei dem längst nicht alle Spielimplementierungen gut glätten - ich sag nur gta5...) funktioniert kein temporal aa verfahren. Und das ist seit Jahren das beste Mittel gegrn tempirale Artefakte...

Dazu das Mikroruckeln, das rumgebastle mit Profilen, funktioniert öfters Mal (gerade wenn Spiele neu sind) nicht oder nicht richtig - wird auch gern mal kaputt gepatcht - oder es gibt merkwürdige Artefakte uswusf.
Plus man braucht ein ziemlich großes NT und eine sehr große Wakü damit es Spaß macht.

MGPU wird IMO interessant, wenn es für die Anwendung transparent suf einem Träger funktioniert. Siehe AMDs Navi mit Ininity Fabric oder NVs kürzlich aufgetauchtes Patent. Damit dürften dann hoffentlich bald die meisten Nachteile entfallen.

dildo4u
2017-07-21, 14:42:45
Das scheint alles ein ziemlicher Schnellschuss zu sein. Keine Ahnung was Intel da Jahre lang getrieben hat. Die haben Milliarden auf der hohen Kante, Entwicklungskapazitäten ohne Ende, bekommen aber unter Druck nur so einen Mist als Konter an den Start ? Da fragt man sich doch, was die Leute bei intel den ganzen Tag so treiben.
Das neue Design musste sein damit die Die's bei 28 Core's nicht zu riesig werden.Das sind immer noch Server CPU's und laut den ersten Test performen sie dort besser als die Vorgänger.

http://abload.de/img/81014eas6k.png

http://www.anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade/20

Fazit von Anandtech
As for Intel, the company has delivered a very attractive and well scaling product. But some of the technological advances in Skylake-SP are overshadowed by the heavy price tags and somewhat "over the top" market segmentation.

bun
2017-07-21, 14:46:32
Das scheint alles ein ziemlicher Schnellschuss zu sein. Keine Ahnung was Intel da Jahre lang getrieben hat. Die haben Milliarden auf der hohen Kante, Entwicklungskapazitäten ohne Ende, bekommen aber unter Druck nur so einen Mist als Konter an den Start ? Da fragt man sich doch, was die Leute bei intel den ganzen Tag so treiben.

Intel kann auf Ryzen gar nicht reagieren, ausser mit Schnellschüssen. Entwicklung neuer Architekturen dauert 4-5 Jahre, deswegen hat man von AMD auch so lange nichts gehört.

Was Intel bei Skylake-X geändert hat, soll Servern zugute kommen. Das die kleineren Chips dann in Spielen Abstinken ist Intel doch egal, wenn man für die dicken Server Chips 10.000 USD verlangen kann.

Intel hat AMD klar unterschätzt, und wurde überrascht. Management bei Intel ist ja bekannter Maßen etwas eigen in letzter Zeit:

http://temlib.org/pub/Canard/Canard_Intel.pdf

Sicherlich hat Intel Mitarbeiter die sich mit der Konkurenz beschäftigen und gut informiert sind, aber das bewahrt halt nicht vor Missmanagement.

dildo4u
2017-07-21, 14:54:10
Lies mal den Server Test von anandtech,die Technologie ist gut nur die Preise sind komplett überzogen.

Der_Korken
2017-07-21, 15:02:40
Performance-mäßig muss man Intel auch mal zugestehen, dass eine neue Architektur nicht perfekt aufgeht. Es wurde ja doch recht viel geändert und wie man in der Vergangenheit gesehen hat, kann das sowohl bei CPUs als auch bei GPUs zu Regressionen führen. Vor allem wenn man im gleichen Fertigungsprozess bleibt und man nicht einfach mehr Takt auf das Problem werfen kann als beim Vorgänger.

Man sieht hier, dass es anscheinend auch für Intel nicht so leicht ist eine Many-Core-CPU zu bauen. Man damals beim Ryzen-Launch die Nase gerümpft, weil die Performance durch die CCX-Geschichte und den getrennten Caches nicht immer konsistent war. Einige haben gefragt, warum AMD die CPU nicht einfach so aufgebaut hat wie Intel. Jetzt stellt sich heraus, dass auch Intel in eine ähnliche Richtung wie AMD gegenüber geht und dass die Implementierung von AMD offenbar gar nicht so schlecht war wie viele zuerst gedacht haben. Ryzen ist was IPC in Spielen angeht absolut konkurrenzfähig zu SKX.

Der 7700K zersägt im Test alle anderen, aber ich glaube dass diese Architektur über die Jahre so totoptimiert ist, dass nicht mal Intel selbst sie schlagen kann. Man sollte sich wohl mit dem Gedanken anfreunden, dass der 7700K für längere Zeit die CPU mit der höchsten Single-Thread-Performance bleiben wird.

aufkrawall
2017-07-21, 15:16:15
Und auch der R5 1600 @ 4GHz ist bei den min-fps häufig auch noch ein ordentliches Stück zum 7700k @ stock auf Abstand.

IchoTolot
2017-07-21, 15:22:35
Ich tippe darauf, dass hwu @1080 bencht, weil er befürchtet, das Sinnlosargument von Praxisferne vom Mob vorgeworfen zu bekommen.


Exakt deswegen, sagt er sogar im Video. Trotzdem wäre for the sake of that review besser gewesen wenn er dennoch 720p getestet hätte. Was soll der Vergleich denn sonst bringen?

Overall hat man mit dem Kauf eines 7700K nichts verkehrt gemacht kann man sagen. Kaby Lake ist einfach ein IPC Monster mit ordentlich Takt.

TGKlaus
2017-07-21, 17:18:52
Lange Balken in realitätsfernen Anwendungsszenarien interessieren doch bloss Leute, die sich einen drauf "schrubben" wollen.

N0Thing
2017-07-21, 17:30:54
Ne, Messungen, in denen die Software nicht von der GPU eingebremst werden, sind für mich absolut notwendig, um das Potential einer CPU einschätzen zu können. Aber das Thema gab es oft genug.

Dr.Doom
2017-07-21, 17:58:40
Ajo, dafür gibt's ja Anwendungs-Benchmarks bei denen die GraKa wenig mitspielt. :freak:

Nicht oft genug. ;)

maximus_hertus
2017-07-21, 18:16:31
Ne, Messungen, in denen die Software nicht von der GPU eingebremst werden, sind für mich absolut notwendig, um das Potential einer CPU einschätzen zu können. Aber das Thema gab es oft genug.

Ist 720p nicht auch häufiger GPU limitiert?

Und was sagen 720p Tests zum Potential einer CPU aus? Das kapiere ich nicht. 720p Tests sagen im Prinzip nur aus, dass eine CPU X in Spiel Y das Potential hat, so und so viele fps zu erreichen (falls die GPU nicht limitiert). Das sagt aber nichts(!) darüber aus, wie es bei einem zukünftigen Spiel sein wird.

Falls eine 1080 Ti in 1080p bei 100 - 120 fps limitiert, dann sind 720p Test in Bezug auf "Zukunftsfähigkeit" nicht wirklich interessant. Dafür geht der (Gaming)Markt immer mehr in Richtung Multicore (oberhalb von Quadcore).

StefanV
2017-07-21, 18:26:22
Sockelbrand bei S1156 anyone?
Nach eigenen Erfahrungen halte ich das eher für Blödsinn/ein Märchen...

Da mir das selbst passiert ist, würde ich eher vermuten, dass es sich hierbei um einen Batch Fehlerhafter CPUs handelte, die mit eben diesem 'Sockelbrand' gestorben sind.

SO ist es bei mir der Fall gewesen. Habe SWTOR auf meinem i5-750 gezockt, auf einmal war das Bild weg. Und der Rechner ward nie wieder gestartet. Hab dann das Board samt CPU(!!!) zu ASUS geschickt und nach 8 Wochen oder so von ASUS(!!!) eine neue CPU samt Board (Maximus III Gene) bekommen.

Schlussfolgerung:
a) ASUS wusste von dem Problem.
b) der Sockel ist NICHT das Problem, die CPU war
c) die alte CPU habe ich aus irgendwelchen Gründen wieder bekommen. Und die war einfach tot.

N0Thing
2017-07-21, 19:09:28
Ist 720p nicht auch häufiger GPU limitiert?

Und was sagen 720p Tests zum Potential einer CPU aus? Das kapiere ich nicht. 720p Tests sagen im Prinzip nur aus, dass eine CPU X in Spiel Y das Potential hat, so und so viele fps zu erreichen (falls die GPU nicht limitiert). Das sagt aber nichts(!) darüber aus, wie es bei einem zukünftigen Spiel sein wird.

Falls eine 1080 Ti in 1080p bei 100 - 120 fps limitiert, dann sind 720p Test in Bezug auf "Zukunftsfähigkeit" nicht wirklich interessant. Dafür geht der (Gaming)Markt immer mehr in Richtung Multicore (oberhalb von Quadcore).

In 720p limitiert die GPU später als in 1080p oder 4K. Natürlich kann es auch da Einschränkungen durch die GPU geben, aber wenn ich die Leistungsfähigkeit der CPU kennen lernen will, bringt das bessere Daten, als 10 CPUs, die 1-5 weit auseinander liegen, weil die GPU nicht schneller rechnen kann.

Jedes Review und jeder dafür durchgeführte Test ist eine Momentaufnahme. Updates für die Anwendungen und für das OS und neue Treiber können die Ergebnisse verändern. Trotzdem sehe ich eher das Potential, was eine CPU noch in sich hat, wenn sie nicht die halbe Zeit Däumchen dreht. Natürlich weiß ich dann nicht genau, wie die CPU in 3 Jahren mit dem nächsten Blockbuster zurecht kommt, ich kann es aber besser abschätzen. Dazu muß man natürlich mit in Betracht ziehen, wie viele Kerne die Anwendung auslastet, aber das sollte in einem guten Review nicht fehlen.

Ich habe auch nicht gegen praxisnahe Benchmarks, die alleine geben mir nur die all die Informationen, die ich gerne hätte.

dildo4u
2017-07-21, 19:32:12
Haswell,Broadwell,Skylake 8 Core Vergleich

https://youtu.be/gSRthrOIlS4?t=8m57s

Grendizer
2017-07-21, 20:43:31
Haswell,Broadwell,Skylake 8 Core Vergleich

https://youtu.be/gSRthrOIlS4?t=8m57s


Ich finde das klasse, das du die Videos postest... aber könntest du nicht auch so ein kleines Fazit dazuschreiben ?:biggrin:

Darkman.X
2017-07-22, 01:19:09
Muss man eigentlich beim Übertakten von RAM etwas besonders beachten? Macht eine Skylake-X-CPU wirklich bis DDR4-4000 und mehr mit? Die RAM-Riegel mit entsprechender Freigabe natürlich vorausgesetzt.

Ich hatte bisher immer nur eine moderate Übertaktung genutzt. CPU unterstützte offiziell z.B. bis zu DDR4-2133 und ich nutzte Speicher mit DDR4-2666. Nun überlege ich, ob ich diesmal RAM-Riegel mit wesentlich höheren Speichertakt über den CPU-Support hinweg kaufen kann, also diesmal 3600 oder 3800. Da ich aber eher ein Anfänger im Übertakten bin, weiß ich nicht ob die Einstellungen "DRAM Frequency", die Timings und die DRAM-Voltage im BIOS ausreichend sind? Die "Qualified Vendors List" von Asus gibt ja alle möglichen Speicherriegel bis DDR4-4000 mit 1.35V an. Ich würde daher davon ausgehen, dass dieser Speicher ohne spezieller BIOS-Anpassung auch funktioniert?!

IchoTolot
2017-07-22, 01:22:51
Brauchst du doch eigentlich gar nicht. Bei Skylake-X hast du doch den großen Vorteil, dass du Quadchannel hast. Also selbst mit billigem 3200er RAM, hast du riesige Bandbreite beim Arbeitsspeicher. Da hast du ja locker 100 GB Bandbreite mit 3000er RAM schon. ^^

Darkman.X
2017-07-22, 01:34:28
Ja, aber Bandbreite ist nicht gleich Latenz. Mit höheren Takt sinkt ja in der Regel die Latenz. Laut CB (https://www.computerbase.de/2017-07/core-i-ryzen-ddr4-ram-benchmark/) profitierte der i7-7800X (6C) auch von 3200 gegenüber 2666. Und das liegt sicherlich nicht an der Bandbreite (83 GB/s vs. 104 GB/s). Ob noch höher getakteter Speicher den Aufpreis wert ist, das ist natürlich ein anderes Thema. Aber der Vorteil würde vermutlich weiter ansteigen.

Darkman.X
2017-07-22, 01:37:46
Ich finde das klasse, das du die Videos postest... aber könntest du nicht auch so ein kleines Fazit dazuschreiben ?:biggrin:

Es wurden einige Spiele mit 1080p und max. Einstellungen getestet. Mal war Skylake-X schneller (2-10 fps), mal die alten 8C-CPUs (auch 2-10 fps). Was mir noch aufgefallen war: In einigen wenigen Stellen war die Frametime mit Skylake-X für einen kurzen Augenblick schlechter als mit den alten CPUs. Wie gesagt, war eher selten. Bei Assassins Creed passierte es in einer 1-Minuten-Szene nur einmal. In anderen Spiele, z.B. Crysis 3, gab es überhaupt keine Einbrüche.

Dr.Doom
2017-07-22, 11:19:35
In einigen wenigen Stellen war die Frametime mit Skylake-X für einen kurzen Augenblick schlechter als mit den alten CPUs. Wie gesagt, war eher selten. Bei Assassins Creed passierte es in einer 1-Minuten-Szene nur einmal. In anderen Spiele, z.B. Crysis 3, gab es überhaupt keine Einbrüche.Der 6x hatte auch mal deutliche, aber seltene Einbrüche, die die beiden anderen (5x, 7x) nicht hatten.

Fazit: Wenn ich nach dem Video ginge, würd' ich einen 5x kaufen. :freak:

dildo4u
2017-07-22, 12:16:47
Schätze mal das ist der bisher schlimmste Gameing Test,1600X vor 7900X.

http://www.hardware.fr/articles/965-3/performances-jeux-3d.html

fondness
2017-07-22, 12:29:54
Schätze mal das ist der bisher schlimmste Gameing Test,1600X vor 7900X.

http://www.hardware.fr/articles/965-3/performances-jeux-3d.html

Sobald Spiele deutlich von 6 und mehr Kernen profitieren hat AMD also die Performacekrone in Spielen. ^^

Ätznatron
2017-07-22, 12:32:11
Schätze mal das ist der bisher schlimmste Gameing Test,1600X vor 7900X.

http://www.hardware.fr/articles/965-3/performances-jeux-3d.html

Weshalb schlimm? Weil der 7900X so unperformant ist?

Haben halt eine Spieleschwäche, diese neuen Intels. ;)

fondness
2017-07-22, 12:36:37
Man sieht hier, dass es anscheinend auch für Intel nicht so leicht ist eine Many-Core-CPU zu bauen. Man damals beim Ryzen-Launch die Nase gerümpft, weil die Performance durch die CCX-Geschichte und den getrennten Caches nicht immer konsistent war. Einige haben gefragt, warum AMD die CPU nicht einfach so aufgebaut hat wie Intel. Jetzt stellt sich heraus, dass auch Intel in eine ähnliche Richtung wie AMD gegenüber geht und dass die Implementierung von AMD offenbar gar nicht so schlecht war wie viele zuerst gedacht haben. Ryzen ist was IPC in Spielen angeht absolut konkurrenzfähig zu SKX.


Das finde ich, ist das wesentliche an der Geschichte. AMDs Ansatz, die Cores immer als Quad zu paaren und nur quadweise zu verbinden, scheint ein genialen Kompromiss zu sein - und zwar sowohl für Spiele als auch für Server. Man kann so die Komplexität der IO-Verbindungen zwischen den Kernen erheblich reduzieren, wodurch man selbst einzelne Dies problemlos miteinander verbinden kann und trotzdem erreicht man eine ausreichend performate Kommunikation zwischen den Cores. Der alte Ringbusansatz von Intel hingegen skaliert nicht gut bei mehr Cores, der neue Mesh-Ansatz ist viel zu komplex und benötigt dadurch zu viel Die-Fläche, zu viel Strom und erzeugt zu hohe Latenzen. Ganz davon abgesehen, dass AMD mit einem Die auskommt und Intel drei benötigt.

Linmoum
2017-07-22, 12:40:39
Intel braucht jedenfalls ganz dringend Coffee Lake, aktuell gibt es eigentlich nur eine CPU aus dem gesamten Intel Line-Up, die ein wirklich sehr gutes Gesamtpaket liefert - der Pentium für 60€.

Verständlich, dass man CFL-S in den August vorzieht und nicht bis Q1 2018 wie ursprünglich geplant wartet. Das wäre ein Desaster geworden, so lange mit 'nem >300€ Quad Core und Skyfail-X zu überbrücken.

bun
2017-07-22, 12:54:32
Ne, Messungen, in denen die Software nicht von der GPU eingebremst werden, sind für mich absolut notwendig, um das Potential einer CPU einschätzen zu können. Aber das Thema gab es oft genug.

Ja, das das völliger Unsinn ist muss man leider immer wieder und wieder erklären.

https://www.youtube.com/watch?v=ylvdSnEbL50

Man kann nicht einfach die Auflösung runterdrehen und das CPU-Limit in einem Spiel suchen, und daran die zukünftige CPU Performance in Spielen die Jahre später folgen festmachen. Ein Blick in die Vergangenheit und ein Vergleich mit dem Jetzt zeigt das eindeutig.

AMD's FX CPUs haben die Lücken zu den damaligen Intel CPUs in heutigen Benchmarks weitestgehend geschlossen, in Einzelfällen sogar deutlich überholt - genau das Gegenteil von dem was man bei der Veröffentlichung in Benchmarks meinte herauszulesen.

Benchmarks in niedrigen Auflösungen war nie ein guter Indiktator für zukünftige CPU Performance.

Auch sollte der Ryzen Launch gezeigt haben, das Benchmarks von unoptimierten, ungepatchten oder gar älteren Spielen wenig Aussagekraft haben. Im Endeffekt hatten die professionellen Workloads mit simplerer Integer oder Floating Point Last mehr Aussagekraft, weil dort scheinbar keine größeren Optimierungen nötig waren, um die volle Performance nahezu von Anfang an zu zeigen.

IchoTolot
2017-07-22, 12:56:42
Man kann nicht einfach die Auflösung runterdrehen und das CPU-Limit in einem Spiel suchen, und daran die zukünftige CPU Performance in Spielen die Jahre später folgen festmachen. Ein Blick in die Vergangenheit und ein Vergleich mit dem Jetzt zeigt das eindeutig.

AMD's FX CPUs haben die Lücken zu den damaligen Intel CPUs in heutigen Benchmarks weitestgehend geschlossen, in Einzelfällen sogar deutlich überholt - genau das Gegenteil von dem was man bei der Veröffentlichung in Benchmarks meinte herauszulesen.


Nein kann man auch nicht, aber du machst im zweiten Absatz direkt das das. :freak: 720p Tests haben nur den Sinn und Zweck die Performance der CPU in dieser Anwendung heute zu zeigen.

Grendizer
2017-07-22, 12:56:58
Das stimmt alles, aber ich fasse es immer noch nicht, das Intel wirklich keine CPU Bombe im Giftschrank liegen hat, mit der man den AMD Angriff mühelos kontern kann.

Die ganze Ix von intel basieren im Endeffekt auf einer Technologie die mit dem Pentium-M 2003 auf den Markt gekommen ist.

Das AMD da so locker seine Ryzen Produkte neben Intel plazieren kann und gerade im Serverbereich augenscheinlich auch noch die interessanteren Produkte (Leistung/Verbrauch/Kosten) bieten kann, verwundert mich extrem.

Ich habe immer vermutet, das Intel mit den verschiedenen I5/7 Stufen nur Gewinnmaximierung betreibt, aber schon längst was ganz neues entwickelt haben, das sie auf den Markt bringen können, wenn AMD zu nahe kommt.

IchoTolot
2017-07-22, 13:02:39
Ich habe immer vermutet, das Intel mit den verschiedenen I5/7 Stufen nur Gewinnmaximierung betreibt, aber schon längst was ganz neues entwickelt haben, das sie auf den Markt bringen können, wenn AMD zu nahe kommt.

Hab ich schon immer gesagt, diese Wunderschublade von Intel gibt es nicht. Die Realität holt nun die Fantasien einiger ein. ^^

fondness
2017-07-22, 13:03:43
Das stimmt alles, aber ich fasse es immer noch nicht, das Intel wirklich keine CPU Bombe im Giftschrank liegen hat, mit der man den AMD Angriff mühelos kontern kann.

Die ganze Ix von intel basieren im Endeffekt auf einer Technologie die mit dem Pentium-M 2003 auf den Markt gekommen ist.

Das AMD da so locker seine Ryzen Produkte neben Intel plazieren kann und gerade im Serverbereich augenscheinlich auch noch die interessanteren Produkte (Leistung/Verbrauch/Kosten) bieten kann, verwundert mich extrem.

Ich habe immer vermutet, das Intel mit den verschiedenen I5/7 Stufen nur Gewinnmaximierung betreibt, aber schon längst was ganz neues entwickelt haben, das sie auf den Markt bringen können, wenn AMD zu nahe kommt.

Ich verstehe nicht, wie man immer wieder zu solchen absurden Vorstellungen gelangen kann. Das hat man schon damals beim K8 geglaubt und gekommen ist nichts. Es macht keinen Sinn etwas zurück zu halten.

Kriton
2017-07-22, 13:08:42
Nein kann man auch nicht, aber du machst im zweiten Absatz direkt das das. :freak: 720p Tests haben nur den Sinn und Zweck die Performance der CPU in dieser Anwendung heute zu zeigen.

Nein, er sagt was tatsächlich passiert ist, das ist das Gegenteil einer Prognose.

maximus_hertus
2017-07-22, 13:19:00
In 720p limitiert die GPU später als in 1080p oder 4K. Natürlich kann es auch da Einschränkungen durch die GPU geben, aber wenn ich die Leistungsfähigkeit der CPU kennen lernen will, bringt das bessere Daten, als 10 CPUs, die 1-5 weit auseinander liegen, weil die GPU nicht schneller rechnen kann.

Jedes Review und jeder dafür durchgeführte Test ist eine Momentaufnahme. Updates für die Anwendungen und für das OS und neue Treiber können die Ergebnisse verändern. Trotzdem sehe ich eher das Potential, was eine CPU noch in sich hat, wenn sie nicht die halbe Zeit Däumchen dreht. Natürlich weiß ich dann nicht genau, wie die CPU in 3 Jahren mit dem nächsten Blockbuster zurecht kommt, ich kann es aber besser abschätzen. Dazu muß man natürlich mit in Betracht ziehen, wie viele Kerne die Anwendung auslastet, aber das sollte in einem guten Review nicht fehlen.

Ich habe auch nicht gegen praxisnahe Benchmarks, die alleine geben mir nur die all die Informationen, die ich gerne hätte.

Prinzipiell gehe ich d'accord, jedoch ist das mit dem abschätzen eben nicht so einfach möglich. Ein Witcher 4, Battlefield 1 Nachfolger, whatever-Nachfolger könnten schon für die neuen Cache-Strukturen von Intel bzw. auf den Ryzen optimiert werden. Ein 7700K würde dann, trotz extrem hohem Basistakt damit zu kämpfen haben. Das kann man eben nicht anhand der derzeitigen Benchmarks sehen, egal ob 720p, 1080p oder welche Auflösung auch immer.

Optimal sind CPU Tests mit sowohl 720p als auch 1080p Tests. Beide haben imo eine gleichberechtigte Daseinsberechtigung. Jeder hat dann die Möglichkeit die Benchmarks für sich zu deuten. Nur 720p oder nur 1080p Benchmarks sind hingegen zu wenig.

Grendizer
2017-07-22, 13:21:46
Ich verstehe nicht, wie man immer wieder zu solchen absurden Vorstellungen gelangen kann. Das hat man schon damals beim K8 geglaubt und gekommen ist nichts. Es macht keinen Sinn etwas zurück zu halten.


Warum nicht ? Die Fertigungsprozesses sind eingespielt und nur behutsame Architekturverbesserung kosten bei den Umrüstungen der Fertigungsstraßen keine Vermögen. Insofern kann man die Kuh kräftig melken ohne hohe neue Investitionen in die Fertigungsprozesse zu tätigen. Bei einem komplett neuen Produkt sieht das anders aus und man hat da auch einen ziemlichen Vorlauf, was die Umrüstungen und Probeläufe der Fertigungsprozesse angeht. Klar ist, das man keinen Konter innerhalb von 1-2 Jahre hinbekommt, aber Skylake X ist dermaßen "schlecht", das mich das gerade extrem verwundert und für mich mich wirklich nach einer Panikreaktion aussieht.

Skysnake
2017-07-22, 13:29:41
Schätze mal das ist der bisher schlimmste Gameing Test,1600X vor 7900X.

http://www.hardware.fr/articles/965-3/performances-jeux-3d.html

Autsch. Im Vergleich zum direkten Vorgänger sieht das ja mal übel aus. Insbesondere weil man ja sogar noch höher taktet:😲

bun
2017-07-22, 13:30:06
Nein kann man auch nicht, aber du machst im zweiten Absatz direkt das das. :freak:

Wo mache ich das? Das musst du näher erklären.


720p Tests haben nur den Sinn und Zweck die Performance der CPU in dieser Anwendung heute zu zeigen.

Was sinnfrei ist, da Niemand in 720p spielt. Selbst wenn man in 720p spielt, der Unterschied zwischen 350 und 500 fps ist akademisch.

Wenn man in tatsächlich genutzten Auflösungen nicht aus dem GPU Limit herauskommt, muss man halt einfach feststellen das alle verwendeten CPUs für das Spiel ausreichend schnell sind. Da mehr hineininterpretieren zu wollen ist sinnfrei, oder zumindest hochspekulativ. Die allgemein stillschweigend akzeptierte Meinung ist aber, das diese Benchmarks sehr aussagekräftig sind, und ein guter Indikator.

Wieso sollte ein Spielentwickler, AMD, Intel oder sonst Jemand Interesse daran haben, die Leistung einer CPU in einer Anwendung zu verbessern, die mit über 350 fps Läuft, nur weil die Konkurrenz 500 fps schafft? Um die Inkompetenz der Reviewer Auszugleichen? Vielleicht kommt es bald so weit.

Ein Review sollte meiner Meinung nach vorwiegend zwei Zwecke erfüllen:

1. Wie sieht die Leistung der CPU Heute aus, unter realistischen Nutzungsbedingungen

2. Wie könnte die zukünftige Leistung einer CPU aussehen

Nummer 1 ist langweilig, trivial, und landet meistens im GPU Limit. Insbesondere weil Reviewer sich Spiele aussuchen, die grafikintensiv sind, anstatt gezielt Titel herauszupicken, die stark CPU lastig sind. Man hätte z.B. in Ryzen Reviews problemlos eine deutliche Schwäche bei Spielen wie ArmA 3 zeigen können, und das sogar in 4k mit einer Mittelklasse GPU :freak: Stattdessen bencht man Crysis 9001 mit einer Titan xP in 664p bei 500 fps. Das ist Totalversagen. Das kann man auch nicht mehr schönreden.
Die ArmA 3 Schwäche hat sich mit einem Patch und den BIOS Updates dann übrigens auch recht zügig erledigt, was man auch schön hätte Nachtesten können.

Nummer 2 ist schwierig, und bis auf wenige lobenswerte Einzelfälle schafft es kaum Jemand, da einen vernünftigen Ansatz zu finden.

Ihr habt euch einfach an schlechte Reviews gewöhnt. Da muss man sich distanzieren, mal drüber nachdenken, und neu bewerten. Wir haben halt weitestgehend keine "Fachpresse" sondern Leute die damit Geld verdienen, und die sich nicht so viel Mühe geben müssen weil sich ihr Produkt problemlos im aktuellen Zustand verkauft. Die breite Masse interessiert sich nicht in der Tiefe für das Thema und die Ungereimtheiten fallen ja nicht groß auf.

Troyan
2017-07-22, 13:42:39
Sinnbefreite Diskussion. In ein paar Jahren sind GPU doppelt bis dreifach so schnell und dann hätte man auch in 1080p ein massives CPU-Limit.

Der einzige Unterschied zwischen 720p und 1080p ist die Pixelanzahl. Es ist daher vollkommen belanglos, in welcher Auflösung man testet.

Sinnbefreiter ist es, wenn man 720p@Low und 1080p@Ultra vergleichen würde. Einstellungen können u.A. die Geometrie beeinflussen und somit die CPU-Belastung senken (siehe z.B. Rise of the Tomb Raider).

Merkor
2017-07-22, 16:02:04
Sinnbefreite Diskussion. In ein paar Jahren sind GPU doppelt bis dreifach so schnell und dann hätte man auch in 1080p ein massives CPU-Limit.

Das ist zu kurz gedacht. In 3 Jahren werden Spiele auch grafisch deutlich weiter sein, so dass das CPU Limit wieder in die Ferne rückt, wenn man nicht ohne Texturen und Schatten in 640x480 spielt. ;-) Die Anforderungen an die CPU wachsen hier deutlich weniger schnell.

Das ist ja der Grund, warum ich seit Jahren mit meinem 3770k @ 4GHz gut fahre. Die Grafikkarte habe ich dagegen 3x getauscht. Und wenn es mit den CPUs so langsam weiter geht, dann mache das auch noch mal. Obwohl das Ding in BF1 MP sogar in UWQHD nicht selten der Flaschenhals ist. Aber einzig dafür einen neuen Unterbau?!

StefanV
2017-07-22, 16:19:42
Warum nicht?
Weil man das vor ~15 Jahren auch nicht hi bekommen hat und mit der Netburst Architektur für mindestens 3 Jahre leben musste. Von ~2003 bis ~2006, bis man den COre 2 hatte...

Warum denkst du, dass das heute der Fall sein muss?!

Und warum hab ich so häufig 'nen Deja-Vu, was die Argumentation betrifft?!
Warum muss ich die gleichen unsinnigen Behauptungen wie vor ~15 Jahren, als AMD den K8 gebracht hat, lesen?
Und natürlich die gleichen Behauptungen zu Single Core vs. Dual Core (später das doppelte) bezüglich Spieleleistung...
Und dass die Single Cores ja so viel toller/besser wären...

fondness
2017-07-22, 16:44:09
Und auch der R5 1600 @ 4GHz ist bei den min-fps häufig auch noch ein ordentliches Stück zum 7700k @ stock auf Abstand.

Wer heute einen 7700K kauft, der kauft zweimal.

StefanV
2017-07-22, 16:51:40
Wer heute einen 7700K kauft, der kauft zweimal.
...wie vor 10 Jahren die Leute, die sich 'nen E8400/8600 statt Q6600/Q9400/8200 oder so gekauft haben.
Oder davor die einen Athlon 3800 statt eines Athlon x2 3800 geholt haben...

Grendizer
2017-07-22, 16:51:57
[QUOTE=WoW-Zocker;11437383]Warum nicht?[QUOTE]
Weil man das vor ~15 Jahren auch nicht hi bekommen hat und mit der Netburst Architektur für mindestens 3 Jahre leben musste. Von ~2003 bis ~2006, bis man den COre 2 hatte...

Warum denkst du, dass das heute der Fall sein muss?!



Weil ich mich frage, was die seit 2006 im x86er CPU Design gemacht haben, außer die bestehende Plattform etwas aufzuhübschen. Bei der Kohle die Intel in die Forschung steckt muss doch irgendwie ein wenig mehr rauskommen als Skylake-X.

IchoTolot
2017-07-22, 16:52:14
Was gibt es für einen Grund für diese Aussage? :confused: Im Vergleich zum Ryzen 5 oder wie?

dildo4u
2017-07-22, 16:56:03
Es gibt kein Grund außer man ist Fanboy.Hört auf zu sagen 7700k ist kacke und reicht die nästen Jahre nicht,der 7700k ist bei den Anwendungen im Bereich zwischen 1600 und 1600X.
Also selbst wenn Game's in Zukunft deutlich besser scalen gibt sich das nicht viel.Er ist einfach nur überteuert aber nicht zu langsam.

http://www.hardware.fr/articles/965-2/performances-applicatives.html

7700k und 1600 sind beides gute Optionen mit dehnen man auf 7 nm 8 Core warten kann.

StefanV
2017-07-22, 17:02:02
Bei der Kohle die Intel in die Forschung steckt muss doch irgendwie ein wenig mehr rauskommen als Skylake-X.
Warum? Weil du es glaubst??

Gesetz des abnehmenden Grenzertrages! Aka Diminishing Returns ist hier das Stichwort.

Wir sind am oberen Ende des technisch möglichen, man kann nur noch Kompromisse eingehen, was die Entwicklung der Prozessoren betrifft.
Das beste Beispiel ist doch AMDs Bulldozer (auch wenn die nicht soo schlecht wie geredet waren) vs AMD RYZEN.
Ersterer taktet deutlich höher als letzterer, trotz deutlich älterem und gröberem Prozess.

Und auch die Verbindung zwischen den Cores wird immer Komplexer...

Mal eine Überlegung für dich:
WIeviele Links brauchst du für die optimale Verbindung von 2 Dies/Cores?
Wieviele Links brauchst du für die optimale Verbindung von 4 Dies/Cores??


Der erste Fall ist mit 1 zu beantworten.
Der zweite Fall ist mit 3 zu beantworten.


Und jetzt skaliere das mal auf 8 Cores/Dies mit der Voraussetzung, dass jeder mit jedem reden können muss.

Troyan
2017-07-22, 17:27:51
Das ist zu kurz gedacht. In 3 Jahren werden Spiele auch grafisch deutlich weiter sein, so dass das CPU Limit wieder in die Ferne rückt, wenn man nicht ohne Texturen und Schatten in 640x480 spielt. ;-) Die Anforderungen an die CPU wachsen hier deutlich weniger schnell.

Es ging in meiner Aussage nicht um zukünftige Spiele. Der PC so klasse als Plattform, dass ich auch 10 Jahre alte Spiele immer wieder und wieder zocken kann.


Das ist ja der Grund, warum ich seit Jahren mit meinem 3770k @ 4GHz gut fahre. Die Grafikkarte habe ich dagegen 3x getauscht. Und wenn es mit den CPUs so langsam weiter geht, dann mache das auch noch mal. Obwohl das Ding in BF1 MP sogar in UWQHD nicht selten der Flaschenhals ist. Aber einzig dafür einen neuen Unterbau?!

Natürlich kann ich überflüssige GPU-Leistung in mehr BQ und/oder höherer Auflösung investieren, aber das ist auch keine Frage in einem CPU-Test.

Gipsel
2017-07-22, 21:51:08
Und auch die Verbindung zwischen den Cores wird immer Komplexer...

Mal eine Überlegung für dich:
WIeviele Links brauchst du für die optimale Verbindung von 2 Dies/Cores?
Wieviele Links brauchst du für die optimale Verbindung von 4 Dies/Cores??

Der erste Fall ist mit 1 zu beantworten.
Der zweite Fall ist mit 3 zu beantworten.

Und jetzt skaliere das mal auf 8 Cores/Dies mit der Voraussetzung, dass jeder mit jedem reden können muss.Deine Antwort gilt pro Die (n-1 Links pro Die für Vollvernetzung n Dies). Die Gesamtanzahl der Links muß bei Vollvernetzung von n Dies n*(n-1)/2 betragen. Das wächst also grob quadratisch zur Anzahl:

Anzahl Dies|Anzahl Links/Die|Gesamtzahl Links
1|0|0
2|1|1
3|2|3
4|3|6
5|4|10
6|5|15
8|7|28
12|11|66
16|15|120

Deswegen vernetzt man große Mengen an Dies ja auch nicht mehr vollständig. Das ist viel zu aufwendig und selten wirklich nötig. Man geht eben Kompromisse bei der Skalierbarkeit ein, die je nach Topologie der Vernetzung unterschiedlich ausfallen können.

=Floi=
2017-07-22, 22:52:13
...wie vor 10 Jahren die Leute, die sich 'nen E8400/8600 statt Q6600/Q9400/8200 oder so gekauft haben.
Oder davor die einen Athlon 3800 statt eines Athlon x2 3800 geholt haben...

für ~4 jahre wird es auch locker reichen und so ein absturz wird es auch nicht werden.
wir haben auch noch immer das problem mit der verlustleistung! Ein octacore braucht eben auch das doppelte eines quad.


btw. ein X2 war auch wesentlich teurer und beim core2 quad war es ebenfalls so. da bekam man fürs kleine geld eine teils sehr gute duo cpu. nebenbei hat man damals auch noch eher und öfter aufgerüstet.
edit
der Q6600 war gut, aber in seiner lebenszeit gab es nie wirklich brauchbare software dafür und er verhungerte immer am FSB.

Kriton
2017-07-22, 23:06:09
Wer ist "man"? Ich habe meine Q6600 erst durch den Haswell Xeon E3 1230 V3 ersetzt. Und das eigentlich auch nur wegen ESO.

StefanV
2017-07-22, 23:27:15
Deswegen vernetzt man große Mengen an Dies ja auch nicht mehr vollständig. Das ist viel zu aufwendig und selten wirklich nötig. Man geht eben Kompromisse bei der Skalierbarkeit ein, die je nach Topologie der Vernetzung unterschiedlich ausfallen können.
Genau darauf wollte ich hinaus ;)
Dass man das aufgrund der Komplexität ab einer gewissen Kernzahl nicht mehr macht es eben Sinn, die Kerne aufzuteilen und zu clustern. Und diese Cluster dann wieder zu Clustern...
Und das ist das, was AMD mit ZEN gemacht hat...

für ~4 jahre wird es auch locker reichen und so ein absturz wird es auch nicht werden.
wir haben auch noch immer das problem mit der verlustleistung! Ein octacore braucht eben auch das doppelte eines quad.
Die Octas werden deutlich länger halten als die Quads.
DARUM geht es. WAS gibts an diesem Fakt zu diskutieren?!

Oder tauscht du alle 2-3 Jahre Board + CPU aus??


btw. ein X2 war auch wesentlich teurer und beim core2 quad war es ebenfalls so. da bekam man fürs kleine geld eine teils sehr gute duo cpu. nebenbei hat man damals auch noch eher und öfter aufgerüstet.
edit
der Q6600 war gut, aber in seiner lebenszeit gab es nie wirklich brauchbare software dafür und er verhungerte immer am FSB.
Wer ist "man"? Ich habe meine Q6600 erst durch den Haswell Xeon E3 1230 V3 ersetzt. Und das eigentlich auch nur wegen ESO.
Muss man noch mehr sagen, Floi??

Abgesehen davon, dass die Core 2 Quads eher ein 2 CPU System on Die mit FSB verbunden war, waren sie unterm Strich deutlich langlebiger als die Duals. Wenn man gemein ist, erwähnt man auch den Zustand, dass man für die Core 2 Quads für Neupreis (oder mehr) hätte verkaufen können. So dass man sich damit 'nen Nehalem oder so hätte holen können...

Aber jetzt mal die Fakten:
Wer einen Dual Core zu Sockel 939 Zeiten gekauft hat, hat frühestens zu Nehamel (also Core i) Zeiten aufgerüstet. Damit kann man auch heute noch halbwegs leben.
Wer einen Quad Core, sprich Phenom II X4 oder Core 2 Quad gekauft hat, hat die 1156 und 1150 übersprungen und erst vor ~2 Jahren oder so aufgerüstet.

Wer keinen Dual Core zu 939 Zeiten gekauft hat, musste sich im schlechtesten Fall 'nen COre 2 Duo/Quad kaufen. Da man aus dem Fehler nicht gelernt hat und sich einen Core 2 Duo gekauft hat, musste man sich dann auch 'nen Sandy Bridge, vielleicht Ivy Bridge holen...

DAS sind Dinge, die durchaus belegt sind. Und auch die Aussage von Leuten hier im Forum bestätigen eher den Zustand, dass die 'more Cores' deutlich länger nutzbar waren als die 'Less Cores'...

Dass man, trotz der ganzen Gegebenheiten der Vergangenheit, immer noch nicht einsehen will und immer noch steif und fest behaupten muss, dass die Quad Cores, obwohl es sie schon ~10 Jahre gibt, noch mehr als ausreichend sein würden...
Und das obwohl jedes halbwegs high end Smartphone schon 8 Kerne hat, wie auch die Konsolen auch...

Sorry, aber da muss man echt kein Raketenwissenschaftler sein, um zu sehen, dass diese Behauptung einfach nur an der Realität vorbei ist und sich die Vergangenheit wieder wiederholen werden wird...

Quad Cores werden nicht so lange wie Octa Cores halten!
Nach aktuellen Geschenissen kann man durchaus behaupten, dass man mit 'nem Octa durchaus 10 Jahre ganz brauchbar leben können wird. Während man mit Quads in den nächsten Jahren wieder aufrüsten muss...

IchoTolot
2017-07-23, 00:38:34
Während man mit Quads in den nächsten Jahren wieder aufrüsten muss...

Rein von der Rechenleistung könnte das sein, aber wer will 10 Jahre lang die gleiche irgendwann veraltete Plattform haben? Da rüste ich lieber in 4-5 Jahren auf, wenn 8 Kerner wirklich einen eklatanten Vorteil mit sich bringen.

Linmoum
2017-07-23, 01:16:26
Das wollen wahrscheinlich die Leute, denen die CPU-Leistung entsprechend reicht und die sich nicht zu den "Nerds" zählen. Das sind relativ viele, die auch nach 5 Jahren noch nicht aufrüsten (wollen). Bei der Langlebigkeit von CPUs nicht wirklich verwunderlich.

Und "Quads" ist sowieso viel zu pauschal, da muss man natürlich differenzieren. Ein i5 wird deutlich früher Schwierigkeiten haben, da muss man kein Prophet sein, um zu erkennen, dass denen langsam aber sicher immer mehr die Puste ausgehen wird.
Mit SMT sieht das logischerweise anders aus, da wird man die nächsten Jahre sicherlich noch mehr als ordentlich mit auskommen. Und wer bereits einen solchen ab Haswell (je nach OC u.U. auch noch etwas früher) besitzt, der braucht sich auch nicht einreden lassen, dass er ja zwingend aufrüsten müsse und 4C dem Untergang geweiht sind.

Beim Thema Neuanschaffung sieht's dann aber schon anders aus. Ein i5 ist durch den 1500X bzw. 1600(X) quasi komplett obsolet geworden, der 7700K in Relation dazu einfach deutlich zu teuer. Über 320€ dafür sind schon 'ne Hausnummer, um auf dem aktuellen CPU-Markt für einen Neukauf attraktiv zu sein, muss das Teil eigentlich deutlich im Preis runter. Und wenn Intel das mit CFL-S vielleicht (oder auch nicht...) so handhaben wird, können sie auch gleich KBL-X wieder einstampfen. Der größte Murks seit langem, das kauft sich hoffentlich niemand. Lohnt sich ja nicht mal aus der "man kann ja später aufrüsten"-Sicht, so sehr, wie SKL-X in Spielen ggü. dem Vorgänger und vermutlich auch CFL-S abkackt.

-=Popeye=-
2017-07-23, 03:18:30
Wer heute einen 7700K kauft, der kauft zweimal.

...wie vor 10 Jahren die Leute, die sich 'nen E8400/8600 statt Q6600/Q9400/8200 oder so gekauft haben.
Oder davor die einen Athlon 3800 statt eines Athlon x2 3800 geholt haben...

Fazit: Haswell-E Käufer haben 2014 alles richtig gemacht und brauchen weder Skylake-X noch Ryzen.

vinacis_vivids
2017-07-23, 03:31:44
Fazit: Haswell-E Käufer haben 2014 alles richtig gemacht und brauchen weder Skylake-X noch Ryzen.

Intel's Plattform ist überteuert und durstig. AMD's neue Plattform mit Ryzen ist dagegen bezahlbar und effizient. Ryzen hat also im Gegensatz zu SKL-X schon eine Daseinsberechtigung.

-=Popeye=-
2017-07-23, 03:40:54
Willst du mich verarschen?

https://abload.de/img/sdfasfsyzpc0.png

Bis auf die RAM Preise konnte man dieses Performance Level zu bezahlbaren Preisen schon vor Jahren haben.

IchoTolot
2017-07-23, 03:42:52
wir haben auch noch immer das problem mit der verlustleistung! Ein octacore braucht eben auch das doppelte eines quad.


Eben. Ich sehe nicht die Leute rennen und sich einen 8-16 oder mehr Kerner kaufen in nächster Zeit weil die Dinger irgendwann Strom fressen wie Hulle oder eben bei 2.x-3 Ghz rumkrebsen. Und wer glaubt, dass die Software da so schnell auf zig Kerne optimiert wird? Ich nicht. Ergo: Die Entwicklung wird langsam von statten gehen und sich über Jahre hinziehen.

Skylake-X ist aber für Spieler eine Enttäuschung, da würde ich sogar Ryzen noch vorziehen.

vinacis_vivids
2017-07-23, 03:57:09
Willst du mich verarschen?

https://abload.de/img/sdfasfsyzpc0.png

Bis auf die RAM Preise konnte man dieses Performance Level zu bezahlbaren Preisen schon vor Jahren haben.

Willst du mich verarschen?

Der Ryzen 1600 + Board kostet weniger als deine CPU. Mal Ram jetzt rausgelassen.

-=Popeye=-
2017-07-23, 04:12:06
Willst du mich verarschen?

Der Ryzen 1600 + Board kostet weniger als deine CPU. Mal Ram jetzt rausgelassen.
Dir ist bewusst wie alt die x99 Plattform ist?

bun
2017-07-23, 09:54:46
Rein von der Rechenleistung könnte das sein, aber wer will 10 Jahre lang die gleiche irgendwann veraltete Plattform haben? Da rüste ich lieber in 4-5 Jahren auf, wenn 8 Kerner wirklich einen eklatanten Vorteil mit sich bringen.

Ich. welchen Nachteil hat denn die "veraltete" Plattform?

Kein USB4.0? Ich nutze noch nicht mal das USB 3 das ich habe.

Kein PCIe 4.0 ? Ich kann meine Grafikkarte auf PCIe 1.0 runterdrehen und verliere 3% Leistung.

Screemer
2017-07-23, 11:07:00
Dir ist bewusst wie alt die x99 Plattform ist?
Du hast doch behauptet, dass man das performancelevel zu nem bezahlbaren preis schon vor Jahren haben konnte. Das sich das preislevel aber in eben diesen Jahren halbiert hat geht dabei aber völlig an dir vorbei. Haswell-e war für viele eben nicht in bezahlbaren Regionen. Wer hier wen verarschen will ist die Frage. Im übrigen kostet ordentlicher RAM heute noch ähnlich viel.

PS: ich sag ja nicht, dass haswell-e Käufer was falsch gemacht haben. Die haben genau so den richtigen Kauf gemacht wie q2c oder i7-sandy/ivy Käufer. Die CPU wird einfach länger nutzbar sein. Hätte ich einen haswell-e würde ich nicht mal im traum über einen Wechsel nachdenken.

G3cko
2017-07-23, 12:43:35
Fazit: Haswell-E Käufer haben 2014 alles richtig gemacht und brauchen weder Skylake-X noch Ryzen.

D805@3,7Ghz => Q6600@3,6Ghz => 5960x@4,5Ghz :biggrin:

Es gibt kein Grund außer man ist Fanboy.Hört auf zu sagen 7700k ist kacke und reicht die nästen Jahre nicht,der 7700k ist bei den Anwendungen im Bereich zwischen 1600 und 1600X.
Also selbst wenn Game's in Zukunft deutlich besser scalen gibt sich das nicht viel.Er ist einfach nur überteuert aber nicht zu langsam.

http://www.hardware.fr/articles/965-2/performances-applicatives.html

7700k und 1600 sind beides gute Optionen mit dehnen man auf 7 nm 8 Core warten kann.

Kleiner aber Feiner Unterschied. Der 7700k kostet 55% mehr als ein 1600. ;)

kruemelmonster
2017-07-23, 14:07:54
MSI hat einen Schwung Beta Biose für die X299 Reihe online: https://forum-en.msi.com/index.php?topic=289634.0

Changelogs gibt es nicht, bei meinem X299 SLI Plus sind mir zwischen der 1.33 Beta und der 1.2 Final bisher nur ein paar kosmetische Kleinigkeiten aufgefallen: es wird im DualChannel Betrieb während des POST keine Warnung mehr angezeigt dass die Module angeblich in falschen Slots stecken, es gibt jetzt einen Warnhinweis auf mindestens 20A am CPU-Stecker, und die Möglichkeit einen bestimmten Monitor für die Bios Bildausgabe zu bestimmen wurde entfernt.

dildo4u
2017-07-23, 15:16:27
Da scheint es noch gröbere Probleme mit der Plattform zu geben bei Witcher 3 z.b egal ob Quad oder 6/8 Core.Und Turbo 3.0 macht zusätzlich noch Probleme mit AC Unity.

https://youtu.be/UIGGSxHpuoE?t=6m20s

Geächteter
2017-07-23, 15:34:11
Das ist zu kurz gedacht. In 3 Jahren werden Spiele auch grafisch deutlich weiter sein, so dass das CPU Limit wieder in die Ferne rückt, wenn man nicht ohne Texturen und Schatten in 640x480 spielt. ;-) Die Anforderungen an die CPU wachsen hier deutlich weniger schnell.
Mussten sie auch, schließlich ist die CPU-Performance in 5 Jahren nur ca. um 50 Prozent gewachsen, nicht so der Brüller.
Bei den GPUs kommt wenigstens der Vorteil des Shrinks und mehr Transistoren dank guter Parallelitätsskalierung in fps und dem Gebotenen voll an, bei den CPUs müssen die Programmierer erst noch beweisen, wie gut man parallel mit CPUs kann, und zwar nicht nur fps, sondern wirklich mal die Spiele auf ein neues Level heben (AI, Dynamische Level). Da ist ja null Fortschritt.

Dr. Lloyd
2017-07-25, 18:20:56
Nach all den Negativmeldungen zu Skylake-X zur Abwechslung mal was Positives: Mein X299-Mainboard ist da! :D

Mitte Juli habe ich ja auf eine Rabattaktion seitens MSI zum kommenden "X299 XPower Gaming AC" gehofft. Nur eine Woche später der Hammer: Mit einer UVP von 429,- € veröffentlicht, ist das MSI-Flaggschiff-Board bereits zum Release für unter 350,- € bei seriösen Anbietern erhältlich!

Freitag Nacht dachte ich noch fest an einen Preisfehler. Samstag Morgen kamen von weiteren Händlern nochmals bessere Angebote. Ab dann gab es für mich kein Halten mehr und habe zugeschlagen. Ein Irrtum eines Großhändlers war weiterhin möglich und bis zum Erhalt der Ware war ich echt skeptisch, ob ich tatsächlich dieses Board erhalten werde. Gerade ist es bei mir angekommen!

Das (MSI-)Flaggschiff-Board zum (X299-)Mittelklasse-Preis! Ich finde, der Preis ist nicht nur ein enormer Schlag gegen die gesamte Konkurrenz, sondern überfährt auch noch die Hälfte des eigenen MSI-X299-Portfolios: Wer kauft derzeit noch ein "Pro Carbon", "Pro Carbon AC" oder "M7 ACK"? Letzteres ist sogar teurer…

Ist das die Laune eines Großhändlers? Ist das MSIs Konter gegen Gigabyte mit deren 80-Euro-Steam-Gutschein-Aktion? Oder ist das bereits ein Vorbote zu fallenden Preisen aufgrund von Threadripper?

Ich weiß es nicht. Ich bin aber super froh über einen weiteren Schnapper bei Intels neuster HEDT-Plattform! :up:

Skysnake
2017-07-27, 09:40:32
Ich glaube der Vergleichstest von Anandtech wurde noch gar nicht gepostet.

http://anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade

Das Single Thread Memory Bandwidth Ergebnis ist schon ziemlich desaströs. Da fragt man sich schon, was Intel da gemacht hat.

Vor allem kann das durchaus erklären, warum Skylake-X hin und wieder schlechter dasteht als Broadwell.

Ich frage mich, warum man das bisher noch nicht wirklich in den deutschen Medien gelesen hat. Im Hintergrund hört man ja schon länger von dem Problem. Nur hat es bisher noch keiner öffentlich gemacht.

Niall
2017-07-27, 10:23:49
Ich weiß es nicht. Ich bin aber super froh über einen weiteren Schnapper bei Intels neuster HEDT-Plattform! :up:

»Schnapper?« Der war gut. :D

Dr. Lloyd
2017-07-27, 12:53:48
Ich glaube der Vergleichstest von Anandtech wurde noch gar nicht gepostet.

http://anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade

Das Single Thread Memory Bandwidth Ergebnis ist schon ziemlich desaströs. Da fragt man sich schon, was Intel da gemacht hat.

Vor allem kann das durchaus erklären, warum Skylake-X hin und wieder schlechter dasteht als Broadwell.

Ich frage mich, warum man das bisher noch nicht wirklich in den deutschen Medien gelesen hat. Im Hintergrund hört man ja schon länger von dem Problem. Nur hat es bisher noch keiner öffentlich gemacht.
Wenn ich mir die Werte so ansehe...

12.224 MB/s with 1 Thread
14.313 MB/s with 2 Threads, same core same socket
24.462 MB/s with 2 Threads, different cores same socket

...stellt sich mir sofort die Frage, ob sich durch das Deaktivieren von Hyper-Threading die Speicherbandbreite vervielfachen lässt?

Und zu AnandTechs-Erläuterung...

"All off the Xeon's cores have access to all the memory channels, so bandwidth more directly increases with the number of threads."

...frage ich mich: Wenn ein einzelner Kern Zugriff auf alle Caches, Speicher- und I/O-Controller hat, wieso benötigt es dann mehrere Kerne, die mehrere Threads bearbeiten, um die Speicherbandbreite zu vervielfachen? Das habe ich bislang nicht verstanden.

JaniC
2017-07-27, 13:48:20
Nach wochenlanger Ignoranz jetzt mal wieder informiert, was sich so getan hat.

Das "beste" Video bisher ist das von digitalfoundry, was dildo vor ein paar Tagen gepostet hat:

Clock-For-Clock 4.4GHz Comparisons: Core i7 7820X vs 6900K vs 5960X
https://www.youtube.com/watch?v=gSRthrOIlS4&t=540s

Wenn ich das so sehe... hmm.

Meine ganz konkrete, auf's wesentliche reduzierte Frage:
Liegt der "Nicht-Vorteil" von Skylake-X einfach daran, dass bisher kein Spiel auf die "neue" 8-Kern/16-Threads Architektur wirklich ausgelegt ist, es nutzt, darauf sogar optimiert ist?
Denn anders kann ich es mir einfach nicht erklären.
Wenn ich den Takt gleichsetze aber schlichtweg doppelt soviele Kerne, also doppelt soviel Rechenleistung habe (bei selber "Technik", jetzt mal vorausgesetzt) und die Anwendung/das Spiel diese doppelte Leistung perfekt ausnutzen würde, also perfekt skalieren würde, dann müsste ich doch doppelt soviel fps.. oder zumindest viel mehr fps haben?

Noch kürzer: Kann es sein, dass man erst mit kommenden Titeln sieht, was Skylake-X wirklich kann?
Und: wann passiert das, wenn überhaupt? #glaskugelmodus - Ich denke da an diese primitiven Kisten namens xXBoxXx und Playstation 4, die die Entwicklung zurückhalten.

Hatte mich eigentlich auf den 7820X gefreut, endlich die Sandy mit gutem Gewissen in Rente schicken.
Aber bei 580€ und keinem Mehrwert gegenüber einer 300€ (oder weniger, wenn man AMD heranzieht) CPU fällt es einem irgendwie schwer, "in die Zukunft zu investieren".
Erst Recht, wenn selbst Titel wie BF1, AotS oder GTA V keine Vorteile zeigen.

Hypetrain derailed (?).

IchoTolot
2017-07-27, 13:52:04
Aber bei 580€ und keinem Mehrwert gegenüber einer 300€ (oder weniger, wenn man AMD heranzieht) CPU fällt es einem irgendwie schwer, "in die Zukunft zu investieren".
Erst Recht, wenn selbst Titel wie BF1, AotS oder GTA V keine Vorteile zeigen.

Hypetrain derailed (?).

Dir sind die Augen geöffnet worden. ;) Und das nicht nur auf Skylake-X, nein auch in Bezug darauf, dass mehr Kerne so viel schneller seien in Zukunft.

Der_Korken
2017-07-27, 14:15:28
Doppelte avg-fps bei doppelten Kernen sind extrem unwahrscheinlich, sofern man nicht irgendwie 1C vs 2C bencht, wo der eine Kern hoffnungslos überfordert ist. Allerdings kann es bei den min fps schon sein, dass doppelte Kerne doppelte fps liefern, wenn die fps drops durch zusätzlichen Rechenaufwand ausgelöst werden, der sich aber gut parallelisieren lässt (z.B. extrem viele unabhängige KI-Berechnungen, die ganz plötzlich anfallen). Ansonsten ist die durchwachsene Spieleleistung bei SKX vermutlich ganz leicht durch den langsameren L3-Cache und das langsamere Mesh (im Vergleich zum Ringbus) zu erklären. Dafür ist das neue Design besser nach oben skalierbar, was im Server- und Computing-Bereich wichtiger als ein bischen IPC ist. Alles kann man halt nicht haben.

Lowkey
2017-07-27, 14:23:51
Ich bin ja gespannt, ob jemand für Skylake-X einen Guide veröffentlicht mit den Erkenntnissen zur Verbesserung der Spiele Leistung.

Das 7820x System wird am Wochenende fertig gemacht.

bun
2017-07-27, 14:42:05
für unter 350,- €
[...]
Das (MSI-)Flaggschiff-Board zum (X299-)Mittelklasse-Preis!
[...]
Ich bin aber super froh über einen weiteren Schnapper bei Intels neuster HEDT-Plattform!

:lol: Derweil übertakten meine Bekannten fröhlich Octacore Ryzen auf 80€ Brettern. :hammer:

Dr. Lloyd
2017-07-27, 14:48:25
Solche Assi-Bretter würde ich niemals kaufen.

Niall
2017-07-27, 14:53:23
Solche Assi-Bretter würde ich niemals kaufen.

Meine Damen und Herren, es sinkt für Sie ... :uup:

dildo4u
2017-07-27, 14:54:47
Leute die ihr Geld in überteuerte Plattformen stecken finanzieren das R/D für die sinnvollen Modelle jeder profitiert davon.Davon ab das AMD genau in dem Bereich auch X399 Bretter haben wird.

Dr.Doom
2017-07-27, 15:01:05
Solche Assi-Bretter würde ich niemals kaufen.Das sind aber keine Assistenzbretter, sondern Mainboards.

Skysnake
2017-07-27, 15:07:59
Wenn ich mir die Werte so ansehe...

12.224 MB/s with 1 Thread
14.313 MB/s with 2 Threads, same core same socket
24.462 MB/s with 2 Threads, different cores same socket

...stellt sich mir sofort die Frage, ob sich durch das Deaktivieren von Hyper-Threading die Speicherbandbreite vervielfachen lässt?

Und zu AnandTechs-Erläuterung...

"All off the Xeon's cores have access to all the memory channels, so bandwidth more directly increases with the number of threads."

...frage ich mich: Wenn ein einzelner Kern Zugriff auf alle Caches, Speicher- und I/O-Controller hat, wieso benötigt es dann mehrere Kerne, die mehrere Threads bearbeiten, um die Speicherbandbreite zu vervielfachen? Das habe ich bislang nicht verstanden.
Naja, ist doch recht einfach. Die AG(L)Us können halt nicht genug Speicheradressen generieren für die Load instructionen, bzw. man hat halt zu hohe Latenzen und zu geringe Ooo windows, damit man die absetzen kann.

Da liegt halt irgendwo innerhalb des Cores ein Bottleneck for. Das ist aber ein ganz typisches Verhalten für Multicore CPUs. Das zeigen sowohl Intel, als auch AMD, IBM und den Fujitsu (SPARC64 XIfx aka FX100) CPUs so. Auch GPUs zeigen genau dieses verhalten, dass die Bandbreite pro Core/Thread limitiert ist. Daher brauch man auch mindestens um die 10k Threads mit nVidia GPUs die Bandbreite zu erreichen, wobei meines Wissens nach, sich die Bandbreite pro Takt und Thread nicht geändert hat seit Kepler.

Die einzigen Chips, die ich kenne, die mit einem einzigen Thread/Prozess die Peak Memory Bandbreite erreichen können ist die SX Serie von NEC. Also Vector-CPUs.

fondness
2017-07-28, 11:34:25
Alle Specs zu Skylake-X:
https://videocardz.com/71269/intel-core-x-series-full-specs-revealed

https://s4.postimg.org/qxndkujal/Intel-_Core_X-_Specs.jpg (https://postimg.org/image/t27qlxkx5/)

Fragman
2017-07-28, 11:50:53
Nach wochenlanger Ignoranz jetzt mal wieder informiert, was sich so getan hat.

Das "beste" Video bisher ist das von digitalfoundry, was dildo vor ein paar Tagen gepostet hat:

Clock-For-Clock 4.4GHz Comparisons: Core i7 7820X vs 6900K vs 5960X
https://www.youtube.com/watch?v=gSRthrOIlS4&t=540s

Wenn ich das so sehe... hmm.

Meine ganz konkrete, auf's wesentliche reduzierte Frage:
Liegt der "Nicht-Vorteil" von Skylake-X einfach daran, dass bisher kein Spiel auf die "neue" 8-Kern/16-Threads Architektur wirklich ausgelegt ist, es nutzt, darauf sogar optimiert ist?
Denn anders kann ich es mir einfach nicht erklären.
Wenn ich den Takt gleichsetze aber schlichtweg doppelt soviele Kerne, also doppelt soviel Rechenleistung habe (bei selber "Technik", jetzt mal vorausgesetzt) und die Anwendung/das Spiel diese doppelte Leistung perfekt ausnutzen würde, also perfekt skalieren würde, dann müsste ich doch doppelt soviel fps.. oder zumindest viel mehr fps haben?

Noch kürzer: Kann es sein, dass man erst mit kommenden Titeln sieht, was Skylake-X wirklich kann?
Und: wann passiert das, wenn überhaupt? #glaskugelmodus - Ich denke da an diese primitiven Kisten namens xXBoxXx und Playstation 4, die die Entwicklung zurückhalten.

Hatte mich eigentlich auf den 7820X gefreut, endlich die Sandy mit gutem Gewissen in Rente schicken.
Aber bei 580€ und keinem Mehrwert gegenüber einer 300€ (oder weniger, wenn man AMD heranzieht) CPU fällt es einem irgendwie schwer, "in die Zukunft zu investieren".
Erst Recht, wenn selbst Titel wie BF1, AotS oder GTA V keine Vorteile zeigen.

Hypetrain derailed (?).

alles ueber 8 core ist ja auch nicht fuer normal user gedacht (man kann auch bei 8 cores schon drueber streiten).
wer sich so ein 10core system zum spielen kauft, der macht das, weil er nebenher noch andere anwendungen laufen lassen will.
oder weil er semiprofessionel arbeitet und das gaming halt nebenher laeuft.

mit in die zukunft investieren hat das nicht viel zu tun, nicht aus meiner sicht. also zumindest fuer spiele ist es sinnfrei.

ich hab aktuell auch noch nen sandy hexcore, laeuft mit 4,2ghz und trotz ueber 5 jahren ist meine 1070 der limitierende faktor. aus gamingsicht macht ein cpu update keinen sinn.

dazu kommt bei intel ja der preis der gesamten plattform. um doppelt soviel leistung zu haben muesst ich ungefaehr 1500 investieren. nur fuer cpu, mainboard und ram. das ist natuerlich unsinning (cpu leistung, gaming leistung skaliert ja nicht annaehernd so).

Schnoesel
2017-07-28, 11:51:18
Der 14Core soll einen höheren Basetakt als der 12Core haben? Das macht doch keinen Sinn?! Ah höhere TDP. Allerdings kann man auf die Angabe bei Skylake-X offenbar schon verzichten.

Troyan
2017-07-28, 12:11:52
Er hat eine höhere TDP und damit mehr Spielraum.

/edit: Nur 20 Minuten zu spät.

JaniC
2017-07-31, 15:11:56
Warum ist es scheinbar aus technischer Sicht nicht möglich, einen 6- oder 8-Kern Prozessor mit dem gleichen Takt wie den 4-Kern zu veröffentlichen?
Ein 6- oder 8-Kern mit dem Takt des 7700K würde doch alles an die Wand kacken, oder?
Wäre bei 4-Kern genauso schnell und danach würde er seine Vorteile voll ausspielen.

Noch eine Frage: Kann man die ganzen "X" Dinger eigentlich übertakten? Ich sehe da kein K.

Sonst wäre wohl doch der 7700K@5Ghz erstmal die schlauste Wahl (will man primär zocken und bei intel bleiben).

just4FunTA
2017-07-31, 15:17:18
ich würde erstmal abwarten wie gut coffelake wird der sollte ja auch bald mal kommen.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576465&page=25

VooDoo7mx
2017-07-31, 15:22:33
Ist beim 18 Core Die der Heatspreader verlötet? Weiß man dazu schon was?

JaniC
2017-07-31, 23:09:23
ich würde erstmal abwarten wie gut coffelake wird der sollte ja auch bald mal kommen.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576465&page=25

Danke, hatte ich irgendwie vergessen. Jetzt bin ich wieder gehyped auf den 8700K. Wenn der Boost wirklich 4,7Ghz beträgt, könnte das endlich mein Sandynachfolger werden.

dildo4u
2017-07-31, 23:13:19
Boost 4.7 ist für ein Kern,4.3 für all Core.

Lurtz
2017-08-01, 10:53:08
Für singlecorelastige Titel sind 4,7 GHz aber auch nett.

robbitop
2017-08-01, 12:19:26
Wobei er von KBL und CFL verprügelt wird. Offenbar liegt man von der "Spiele-IPC" ja deutlich unter den vorherigen mArchs. Laut dem Test von Techreport/Hardwareunboxed sogar unter Ryzen IPC Niveau (quasi Gleichstand in 30 aktuellen Spielen zwischen R5 1600 @4 GHz vs 7800X @4,7 GHz)

just4FunTA
2017-08-01, 14:16:38
@robbitop

es ging ja gerade um den cfl und nicht um skylakeX.

robbitop
2017-08-01, 16:36:42
Achso. Ja der wird brutal. Der wird OC sicherlich auf 5 GHz gehen, wie KBL.

Was natürlich noch besser wäre, wenn er eDRAM bekäme. Siehe i7 5775c. Wirklich brutal, was der in Spielen mit seinem niedrigen Takt schafft. Ob wir das jemals mal mit einem High-End K-Prozessor sehen werden?

Eigentlich sind die CPUs so klein, dass man auch gut nochmal 32-64 MiB L4 SRAM direkt auf dem die investieren könnte. Gern im Tausch gegen die IGP...

dildo4u
2017-08-02, 11:13:01
Ryzen 7 1700 vs. Core i7-7820X, 8-Core Royal Rumble!

https://youtu.be/eiy1kZaQT1s

Menace
2017-08-02, 21:31:54
Sorry, falscher Thread. Bitte löschen.

dildo4u
2017-08-03, 14:12:19
Kaby-Lake X Only X299 Boards kommen von Gigabyte und MSI.

https://videocardz.com/71656/x299-kabylake-x-only-motherboards-are-here

Und der 18 Core kommt am 18.10.

http://wccftech.com/intel-core-i9-7980xe-flagship-cpu-18-october-launch/

Schnoesel
2017-08-03, 14:37:30
Haha damit fällt dann quasi auch auch das Argument raus erstmal kleiner Prozessor für die Plattform mit der Möglichkeit auf die Großen zu updaten.

Was unterscheidet das Ganze jetzt dann von der Consumerplatform mit 7700K?

Was für ein Chaos.

BlackArchon
2017-08-03, 16:54:50
Kaby-Lake X Only X299 Boards kommen von Gigabyte und MSI.

https://videocardz.com/71656/x299-kabylake-x-only-motherboards-are-here
...Ich schätze, dass die ca. 5 Exemplare dieser Boards, die weltweit gekauft werden, in Vitrinen von Kuriositätensammlern landen.

IchoTolot
2017-08-08, 17:00:56
Schon gesehen? Ich finde krass, dass der 18 Kerner noch einen Allcore Turbo von 3.4 Ghz hat. :eek:=)

http://www.anandtech.com/show/11698/intel-finalizes-skylakex-processor-specifications-18cores-44-ghz-165w-on-september-25th

Schnoesel
2017-08-08, 17:02:56
Ich bezweifle stark dass die CPU den halten kann und wenn dann sicher nicht mit Boards die bei der TDP abriegeln. Wenn du dann ein Board hast das die CPU laufen lässt kommt als nächste Hürde die Temperatur. Nicht umsonst ist der Basetakt so niedrig.

HOT
2017-08-08, 17:10:27
Das wird kaum anders sein, als wenn der 7900X durchgängig auf 4GHz allcore gehalten wird :D. Bei dem Ding sind das auch 700MHz. Ich find diese flexible Turbostrategie eigentlich ziemlich gut, so kann man wenigstens den Taktvorteil durch den guten Prozess auch gut ausnutzen.

kruemelmonster
2017-08-09, 22:38:40
MSI hat einen Schwung Beta Biose für die X299 Reihe online: https://forum-en.msi.com/index.php?topic=289634.0

Die Seite wurde aktualisiert, neben neuen finalen Biosen sind auch neue Betas für die gesamte Palette online. Ich bin mit dem X299 SLI Plus von 1.33b auf 1.41b gegangen und kann jetzt den AVX512 Multi separat einstellen. :up:

Edgecrusher86
2017-08-11, 20:30:27
E: Oops, falscher Thread, sorry.

kruemelmonster
2017-08-17, 20:46:10
http://numberworld.org/y-cruncher/

Updates on Skylake X and Threadripper: (August 15, 2017)

This is a follow up to my analysis on the Skylake X processors as well a few notes about AMD Threadripper.

...

The "unknown bottlenecks" that I mentioned before is the L3 cache mesh. The L3 cache mesh on Skylake X only has about half the bandwidth of the L3 cache on the previous generation Haswell/Broadwell-EP processors. The Skylake X L3 cache is so slow that it's barely faster than main memory in terms of bandwidth. So for all practical purposes, it's as good as non-existant.

To illustrate how bad the L3 mesh is, this is what happened when I overclocked it:
1 billion digits of Pi - Core i9 7900X @ 3.8 GHz

y-cruncher v0.7.3 - Times in Seconds
AVX2 (14-BDW) AVX512 (17-SKX)
Memory\Mesh 2.4 GHz 2.8 GHz 3.2 GHz 2.4 GHz 2.8 GHz 3.2 GHz
2133 MHz 51.624 51.053 50.448 45.468 44.870 44.291
2666 MHz 49.102 48.311 47.812 41.434 40.700 39.927
3400 MHz 47.233 46.150 45.451 38.405 37.228 36.355

That's a 25% speedup just from overclocking the cache and memory while keeping the CPU frequency locked at 3.8 GHz. And we still haven't reached the point of diminishing returns.
...
Overclocking the cache and memory also led to a disproportionally large increase in CPU temperatures and power consumption. This is probably due to the secondary effects of lifting the cache/memory bottlenecks which allow the code to run much more efficiently and intensively than before.
...
From the software optimization standpoint, the cache bottleneck brings a new set of difficulties. The L2 cache is fine. It is 4x larger than before and has doubled in bandwidth to keep up with the AVX512. But the L3 is useless. The net effect is that the usable cache per core is halved compared to the previous Haswell/Broadwell generations. Furthermore, doubling of the SIMD size with AVX512 makes the usable cache 4x smaller than before in terms of # of SIMD words that fit in cache.


Die geringe Bandbreite des L3 Cache ist schon auffällig, ich komm mit 3,0 GHz Mesh Clock auf ähnliche Werte wie der übertaktete Lynnfield (!) im Zweitrechner...oder wie Quad Channel DDR4 3000+. Stromverbrauch und Temperatur machen bei übertaktetem Mesh & RAM dann wie von ihm beschrieben einen guten Sprung nach oben, sind hier mit einem 6 Jahre alten Macho auf dem kleinem 7800X aber noch zu bändigen (80-85°C bei 4,5 GHz unter Volllast).
Dafür sind die PCIe Möglichkeiten der Plattform ein Traum: Graka, Sound, RAID, NIC und 2x NVMe belegen zusammen 34 Lanes ohne sich gegenseitig in die Quere zu kommen (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11258316&postcount=107)... und es ist immer noch ein 4x Slot frei und benutzbar. :biggrin:
Dass die Spieleleistung oftmals knapp unterhalb von BDW-E liegt, damit hab ich bei meiner Vorbestellung zwar nicht gerechnet (that's why you don't preorder, kids!), von einem 2600k kommend hab ich trotzalledem die richtige Kombination aus CPU-Leistung, Konnektivität und Kosten für mich bekommen (gebrauchter BDW-E wäre vllt eine Option gewesen, mir letztlich aber zu teuer für Ware am Ende der Gewährleistungsdauer).

Rancor
2017-08-28, 09:26:23
Das dumme ist nur, das der kleine 7800x mit Coffeelake ad absurdum geführt wird

kruemelmonster
2017-08-28, 10:18:41
Ist ein ungenaues Pauschalurteil, Coffeelake hat nur 57% der PCIe Lanes eines 7800X, der 8700K wäre für mich keine Option geworden.

TGKlaus
2017-08-28, 10:47:15
Ist ein ungenaues Pauschalurteil, Coffeelake hat nur 57% der PCIe Lanes eines 7800X, der 8700K wäre für mich keine Option geworden.

Was bringen mir die Lanes, wenn der 7800X so eine saufende Performancegurke ist?

kruemelmonster
2017-08-28, 10:49:58
Troll' jemand anders, ich verschwende keine Zeit mit dir.

TGKlaus
2017-08-28, 11:00:37
Dann erklär dochmal, wo liegt denn der Vorteil des 7800x gegenüber meinem 6850x?

kruemelmonster
2017-08-28, 11:19:56
Ich mach hier nicht den Erklärbär für dich. Ich hab u.a. in diesem Thread geschrieben was mir SKL-X bringt, und auch wo ich BDW-E im Vergleich sehe.

MiamiNice
2017-08-28, 11:33:10
Ich sehe sogar den 8er Skylake X mittlerweile als völlig überflüssig an wenn man nicht auf die PCI Lanes angewiesen ist. Wobei man mittlerweile wohl auch sagen kann das jemand der viele PCI Lanes braucht wohl besser zu AMD greifen sollte. Bei Skylake X sollte man (die Käufer) ein Zeichen setzen und es (die Plattform) aus Prinzip nicht kaufen.
Die Gründe dafür (den riesen Berg an Verfehlungen seitens Intel bei SKL-X) muss ich hier wohl keinem aufzählen. Die Plattform wird auch imho nicht lange leben. So viel negative Presse hat Intel schon lange nicht mehr eingefahren.

Loeschzwerg
2017-08-28, 13:01:17
In Form des Sockel 2066 wird die Plattform lange genug leben.

Emil_i_Lönneberga
2017-08-28, 13:31:14
Ich sehe sogar den 8er Skylake X mittlerweile als völlig überflüssig an wenn man nicht auf die PCI Lanes angewiesen ist. Wobei man mittlerweile wohl auch sagen kann das jemand der viele PCI Lanes braucht wohl besser zu AMD greifen sollte. Bei Skylake X sollte man (die Käufer) ein Zeichen setzen und es (die Plattform) aus Prinzip nicht kaufen.
Die Gründe dafür (den riesen Berg an Verfehlungen seitens Intel bei SKL-X) muss ich hier wohl keinem aufzählen. Die Plattform wird auch imho nicht lange leben. So viel negative Presse hat Intel schon lange nicht mehr eingefahren.

Diese Logik, dass ein 8700K für 400€ mit weniger PCIe3.0 Lanes und weniger Kernen einen 560€ 7820X überflüssig macht ist zum :facepalm:.

Dann findest du Ryzen7 überflüssig weil es Ryzen 5 gibt und Ryzen 5 überflüssig weil es Ryzen 3 gibt? Mein Fresse.

7820X 550€
MSI X299 Raider 196€ (https://geizhals.de/msi-x299-raider-7a94-001r-a1641249.html?hloc=at&hloc=de)

Threadripper 1900X 549$
ASUS Prime X399-A 350€ (https://geizhals.de/asus-prime-x399-a-90mb0v80-m0aay0-a1678770.html?hloc=at&hloc=de) als günstigster Brett

--> der deutlich langsamere 1900X, der sich gerade so über die 4GHz Ziellinie schleppt, ist eine Totgeburt. Das hättest du eigentlich eher erwähnen sollen. :wink:

Rancor
2017-08-28, 13:48:06
Joo der TR 1900x ist wirklich ziemlich überflüssig ^^

woodsdog
2017-08-29, 07:11:21
--> der deutlich langsamere 1900X, der sich gerade so über die 4GHz Ziellinie schleppt, ist eine Totgeburt. Das hättest du eigentlich eher erwähnen sollen. :wink:
Kannst du bitte mal das "deutlich langsamer" irgendwie aufzeigen?

Der 1900X die einzig sinnvolle Wahl, wenn man vergleichsweise wenige Kerne mit Massig PCIe Lanes und RAM haben will. Dagegen wirkt der 7820X ziemlich kastriert und ist lediglich als gehobene Gamer-CPU zu betrachten. Alles andere ist entweder beschnitten oder nur viel teurer aus dem Intel-Regal zu haben.

Darüber hinaus bleibt es dein Geheimnis, was dein unisinniges herumreiten auf dem Takt soll. Ob Leistung X mit 100 Mhz oder Drölf GHz hinten raus fällt, ist komplett irrelevant.


Bei Plattformkosten von um die 1000 Eur sind 150 Eur ein Punkt, aber auch echt keine Welt. Man bekommt ja auch "mehr" dafür.

MiamiNice
2017-08-29, 08:12:22
Diese Logik, dass ein 8700K für 400€ mit weniger PCIe3.0 Lanes und weniger Kernen einen 560€ 7820X überflüssig macht ist zum :facepalm:.

Dann findest du Ryzen7 überflüssig weil es Ryzen 5 gibt und Ryzen 5 überflüssig weil es Ryzen 3 gibt? Mein Fresse.

7820X 550€
MSI X299 Raider 196€ (https://geizhals.de/msi-x299-raider-7a94-001r-a1641249.html?hloc=at&hloc=de)

Threadripper 1900X 549$
ASUS Prime X399-A 350€ (https://geizhals.de/asus-prime-x399-a-90mb0v80-m0aay0-a1678770.html?hloc=at&hloc=de) als günstigster Brett

--> der deutlich langsamere 1900X, der sich gerade so über die 4GHz Ziellinie schleppt, ist eine Totgeburt. Das hättest du eigentlich eher erwähnen sollen. :wink:

Du hast den grundlegenden Inhalt meines Posts nicht verstanden.

kruemelmonster
2017-09-07, 19:08:42
AVX-Taktraten für Skylake-X: Finale Angaben zeigen bis zu 900 MHz Taktunterschied (https://www.computerbase.de/2017-09/avx-takt-skylake-x-cpu/)
...da die Mainboardhersteller in den meisten Fällen ihre Mainboards übertakten – so lag der Standard-Turbo in der Regel immer auch beim Einsatz von AVX an, mit der Folge, dass Temperatur und Leistungsaufnahme „explodierten“. Daraus wurden vielerorts falsche Schlüsse gezogen, Intel hat sich letztlich damit selber ein Bein gestellt, weil die Daten nicht bereitgestellt wurden.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=61087&stc=1&d=1504803028

Eigentlich sollte es den Boardherstellern verboten werden bei "Auto" etwas anderes als die Spec umzusetzen, aber wahrscheinlich wollte Intel in den Launchreviews den höheren Takt mitnehmen und hat die Boardhersteller machen lassen.
Jetzt da die Spec öffentlich ist werd ich mal gegentesten welchen Takt das MSI X299 SLI Plus dem 7800X mitgibt, zur Zeit läuft er mit 4.5 Core / 4.2 AVX2 / 4.0 AVX3 Allcore.

Chrisch
2017-09-07, 19:17:11
Der All-Core Turbo sieht aufm SLI Plus egal ob AVX2 oder AVX3 4GHz vor für den 7800X. Wie es mit weniger Cores aussieht weiß ich nicht, nie getestet.

Lt. CoreTemp liegt die power usage dann bei ~190W.

N0rG
2017-09-07, 19:55:21
Die Boardhersteller hätten sich ja auch mal an den Daten von den Xeons orientieren können. Da sieht man auf den ersten Blick, dass 4GHz allcore bei AVX512 keine gute Idee ist ;)

https://imgur.com/xhpaSl0.jpghttps://imgur.com/LIziLux.jpg

http://www.anandtech.com/show/11544/intel-skylake-ep-vs-amd-epyc-7000-cpu-battle-of-the-decade/8

BlackArchon
2017-09-11, 20:26:44
Eine kleine Frage: Braucht man eigentlich für Turbo Boost 3.0 bei Skylake-X immer noch diesen speziellen Intel-Treiber unter Windows? Zumindest bieten die den ja noch an: https://downloadcenter.intel.com/download/26103/Intel-Turbo-Boost-Max-Technology-3-0

Also lautet die Antwort "ja", richtig?

robbitop
2017-09-12, 21:38:35
Interessante Ergebnisse (trotz linus):
https://youtu.be/olMCHb2X06s

Hier wurde der Pentium G4560 gegen SKL-X @2C/4T @3,5 GHz (gleiche Taktrate, gleiche Kernzahl) verglichen. Der 7820X @G4560 Config ist dabei in Spielen schneller als der G4560.
Hätte ich nicht angenommen. Da SKL/KBL zumindest @4c/8t schneller sind als SKL-X bei gleichem Takt in Spielen.

BlackArchon
2017-09-12, 22:03:31
Interessante Ergebnisse (trotz linus):
https://youtu.be/olMCHb2X06s

Hier wurde der Pentium G4560 gegen SKL-X @2C/4T @3,5 GHz (gleiche Taktrate, gleiche Kernzahl) verglichen. Der 7820X @G4560 Config ist dabei in Spielen schneller als der G4560.
Hätte ich nicht angenommen. Da SKL/KBL zumindest @4c/8t schneller sind als SKL-X bei gleichem Takt in Spielen.
Ich habe das auch gerade gesehen. Laut dem Diagramm haben die die Cache-Geschwindigkeit des 7820X auf 3,2 GHz gesetzt. Wenn das der Mesh-Takt ist, haben die den um ein Drittel gegenüber dem Standard (2400 MHz) übertaktet, sofern ich mich hier nicht irre. Dass Skylake-X sehr gut auf Mesh-Übertakten reagiert, haben wir ja schon bei einigen anderen Benchmarks gesehen.

TurricanM3
2017-09-18, 17:21:51
Haben mal die Performance in PUBG verglichen.

7800X@4.8/DDR4-3200 vs mein 5820K@4.5/DDR4-3000

Der 7800X ist etwas langsamer an der Teststelle (volles CPU-Limit). Schon toll.

y33H@
2017-09-18, 18:13:16
Eine kleine Frage: Braucht man eigentlich für Turbo Boost 3.0 bei Skylake-X immer noch diesen speziellen Intel-Treiber unter Windows? Zumindest bieten die den ja noch an: https://downloadcenter.intel.com/download/26103/Intel-Turbo-Boost-Max-Technology-3-0

Also lautet die Antwort "ja", richtig?Offiziell nein, da der Treiber mittlerweile Teil von Win10 ist. Ich hatte aber vorhin beim 18C ziemlich viel Ärger damit (trotz vorheriger Deinstallation und brav aktualisierter Inf), weswegen ich im BIOS wieder auf dedizierten Treiber gewechselt bin und seitdem läuft es. Mit dem 10C hingegen tat es direkt ... hängt vll auch am Board ^^

BlackArchon
2017-09-18, 19:16:39
Offiziell nein, da der Treiber mittlerweile Teil von Win10 ist. Ich hatte aber vorhin beim 18C ziemlich viel Ärger damit (trotz vorheriger Deinstallation und brav aktualisierter Inf), weswegen ich im BIOS wieder auf dedizierten Treiber gewechselt bin und seitdem läuft es. Mit dem 10C hingegen tat es direkt ... hängt vll auch am Board ^^
Das verstehe ich noch nicht ganz: man kann im BIOS umstellen, ob der betriebssysteminterne oder der Intel-Treiber aktiv sein soll? Was hat denn das BIOS mit den betriebssystemseitigen Treibern zu tun?

Zergra
2017-09-21, 22:59:26
Gibt jetzt wohl bald auch einen I3-7360X..


https://www.computerbase.de/2017-09/core-i3-7360x/

BlackArchon
2017-09-21, 23:09:06
Ich warte schon sehnsüchtig auf den Celeron G3950X. :ucrazy:

Dr.Doom
2017-09-22, 07:36:28
Der ist dann bestimmt verlötet.

Twodee
2017-09-22, 08:20:10
Gibt jetzt wohl bald auch einen I3-7360X..


https://www.computerbase.de/2017-09/core-i3-7360x/

:freak:

Xah84cJwdxE

Daredevil
2017-09-22, 08:28:37
Ein wesentlicher Unterschied zwischen beiden wäre nicht nur der Sockel, sondern auch die TDP, die beim Core i3-7360X 112 Watt betragen soll, während der Core i3-7350K mit nur 60 Watt eingestuft ist.
Ist das dann nicht einfach ein Teil deaktivierter Xeon, wenn die TPD auch so weit in die Höhe geht? Oder ist das dem fetten Sockel zu schulden?

Ich mein... das Ding kauft zwar niemand, aber immerhin hat man ein Lineup vorzuweisen.
AMD geht den Schritt zwar nicht, aber die pappen einfach ihre defekten 8Core Ryzen DIEs als Dummy auf den Threadripper.
Ressourcen Verwertung sieht halt jeder anders. :D

BlackArchon
2017-09-22, 08:35:46
Ist das dann nicht einfach ein Teil deaktivierter Xeon, wenn die TPD auch so weit in die Höhe geht? Oder ist das dem fetten Sockel zu schulden?
...Es gibt keine Kaby Lake-Xeons für Sockel 2066.
Die erhöhte TDP ist nur eine Zahl ohne praktische Relevanz bei den K-Modellen, weil Mainboards mit Übertakter-Chipsätzen die TDP-Grenze ignorieren können und das auch tun.

Loeschzwerg
2017-09-25, 10:10:36
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/
https://www.golem.de/news/core-i9-7980xe-im-test-intel-braucht-18-kerne-um-amd-zu-schlagen-1709-130083.html

18 Kerner im Test.

Der_Korken
2017-09-25, 11:02:18
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/


Doch erneut kam die Überraschung, denn die CPU machte mit – und noch mehr. Selbst mit 4,6 GHz über alle 36 Threads war der Durchgang durch Cinebench R15 möglich, bei normaler Luftkühlung, die natürlich am Limit war.

Doch warum die Empfehlung eines Overclocking-Mainboards? Der Blick auf die Leistungsaufnahme zeigt warum: 700 Watt standen im Maximum beim sehr kurzen Cinebench-Test auf der Anzeige. Das sind 450 Watt mehr als in der Default-Konfiguration.

:uroll:

Alter Schwede, wie kann das Ding noch unter 100 Grad gewesen sein ohne Verlötung? ;D Leistung ist aber erwartet gut, wenngleich der 1950X relativ dicht dran ist für gerade mal den halben Preis.

dildo4u
2017-09-25, 11:31:42
Scheint einigen Programme zu geben die nur bis 16 Cores skalieren.

Hardware Unboxed Review:

https://youtu.be/3U1RHSP6jzQ

BlackArchon
2017-09-25, 11:34:41
Im Video von der8auer (https://www.youtube.com/watch?v=_alRb9dMQjQ&t=0s) zieht ein übertakteter i9-7980XE mal locker alleine (also ohne Mainboard, Graka usw.) an die 800 Watt. Eine CPU zieht 800 Watt!

dildo4u
2017-09-25, 11:39:20
Die sind auch default hungrig,Server CPU's laufen nicht umsonst sonst mit extrem wenig Takt.

http://abload.de/img/1powertaul6.png

Chrisch
2017-09-25, 11:57:05
Die sind auch default hungrig,Server CPU's laufen nicht umsonst sonst mit extrem wenig Takt.

http://abload.de/img/1powertaul6.png
Irgendwas scheint hier aber auch nicht richtig gelaufen zu sein. Entweder falsches BIOS oder falsche BIOS Settings...

CB kommt default auf 256W load (komplettes System) in Prime95 mit AVX und idle auf 54W.
Im Video von der8auer (https://www.youtube.com/watch?v=_alRb9dMQjQ&t=0s) zieht ein übertakteter i9-7980XE mal locker alleine (also ohne Mainboard, Graka usw.) an die 800 Watt. Eine CPU zieht 800 Watt!
Gut, dazu sei gesagt das Ding lief dort mit 5.5GHz :freak:

dildo4u
2017-09-25, 12:03:15
Dann hat CB ein Board was den TDP einhält ist das selbe wie beim 7900X,PCGH hat ein Video dazu der Takt sinkt unter 4Ghz mit 140 Watt.

https://youtu.be/dwrPgHRNsmE?t=5m28s

Du bekommst entweder weniger Takt als angepriesen oder den beworbenen Takt mit gebrochenen TDP.

All Core Boost sollte eigentlich 4.3 sein und 4.5Ghz bei 1? Core.

https://ark.intel.com/de/products/123613/Intel-Core-i9-7900X-X-series-Processor-13_75M-Cache-up-to-4_30-GHz

Chrisch
2017-09-25, 12:09:24
Naja gut das der Turbo unter 4GHz fällt ist ja auch OK, der max Turbo wird ja eben auch nur eingehalten sofern die TDP nicht überschritten wird.

Daher bin ich der Meinung sollten Verbräuche auch entsprechend gemessen werden wie es vom Hersteller vorgesehen ist, alles andere ist OC und sollte auch so gekennzeichnet werden.

Ich meine, mein MSI X299 machts genauso. Selbst bei AVX512 hält mein 7800X @ stock auf dem Board 4GHz was natürlich mächtig in Verbrauch und Temperatur niedergeht :freak:

dildo4u
2017-09-25, 12:42:25
CB hat nur Programme mit AVX getestet,das wird das "Problem" sein dort fällt die CPU in ein Panik Modus um sich zu schützen.Techspot hat Corona genutzt schätze mal das nutzt kein AVX.

Chrisch
2017-09-25, 12:48:06
Es sollte egal sein welche Software verwendet wird, sobald die TDP überschritten wird muss der Turbo zurück takten und die Spannung absenken um eben innerhalb der TDP zu arbeiten.

Bei Verwendung von Anwendungen die AVX nutzen benutzt die CPU nur aufgrund der höheren Last gleich einen niedrigeren Takt, wie es von Intel vorgesehen ist.

Gorkon
2017-09-25, 16:25:46
Computerbase immer noch mitm fetten Bias in dem Test.

Unter Windows wird die stinkalte Version von Euler im Gesamtrating gelassen, die erwiesenermaßen nicht IHV-Neutral ist (macht bis zu 5% Unterschied im Gesamtrating aus!), unter Linux wird der x264-Benchmark rausgenommen, weil "Kaputt" (auf Threadripper funzt es einwandfrei)

Ganz großer Journalismus Leute :uup:

M4xw0lf
2017-09-25, 20:04:03
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-overclocking/

1000W Leistungsaufnahme unter Flüssigstickstoff :freak: