PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Coffee Lake - Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

Platos
2017-10-09, 13:56:01
Gibt auch Leute, die die K CPU einfach deshalb kaufen, weil sie selbst höher getaktet ist. Gerade Leute, die übertakten und die letzten paar 100MHz raus holen wollen, sollten das eigentlich verstehen.

Lowkey
2017-10-09, 13:58:36
Die PCGH täte gut daran die CPUs mit maximalem Tuning zu testen und dann in den Folgeartikeln auf das Tuning einzugehen. Eventuell müßte man wieder stärker am "Wer hat den Längsten" arbeiten, also Userbenchmarks zum mitmachen.

eratte
2017-10-09, 14:17:56
Aber das ist bloss meine Sicht der Dinge zu den "k" Versionen.

Und genau mehr ist das nicht, alleine im Bekannten/Kollegenkreis habe ich viele Beispiele mit K-CPU die kein OC machen aus diversen Gründen. Auch z.B. K-CPU mit B-Chipsatz.

Gibt auch Leute, die die K CPU einfach deshalb kaufen, weil sie selbst höher getaktet ist.

Die sind auch dabei.

Annator
2017-10-09, 14:25:15
Und genau mehr ist das nicht, alleine im Bekannten/Kollegenkreis habe ich viele Beispiele mit K-CPU die kein OC machen aus diversen Gründen. Auch z.B. K-CPU mit B-Chipsatz.



Die sind auch dabei.

Ist bei mir nicht so. Die meisten bauen schon schon selber zusammen aber dann ohne OC und ohne K CPU.

Lehdro
2017-10-09, 14:29:06
Die PCGH täte gut daran die CPUs mit maximalem Tuning zu testen und dann in den Folgeartikeln auf das Tuning einzugehen.
Jetzt PCGH wieder zu kritisieren ist nicht gerade zweckführend. Die sind immerhin eine der wenigen Redaktionen in DE die es wagen "Nischenthemen" direkt beim Launch mit zu betrachten. Zb SR/DR bei Ryzen - direkt im Launchreview enthalten, andere Publikationen haben davon bis heute noch nichts gehört....

Dies alles gilt aber nur wenn man deren Heft kauft, was allerdings nur mehr als Fair ist imo.

MiamiNice
2017-10-09, 14:37:52
Denke nicht das Lowkey den PCGH Jungs an Bein pinkeln möchte mit seinem Post. Wir alle sind wohl für jeden Test dankbar. Allerdings dürfen die Test auch gerne ein wenig deeper sein.

Platos
2017-10-09, 15:45:05
Die PCGH täte gut daran die CPUs mit maximalem Tuning zu testen und dann in den Folgeartikeln auf das Tuning einzugehen. Eventuell müßte man wieder stärker am "Wer hat den Längsten" arbeiten, also Userbenchmarks zum mitmachen.

Die Frage ist halt, was verstehst du unter maximalem Tuning? Da kann man dann wieder streiten, was für eine maximale Spannung anliegt. Und ohne Spannungsgrenze wird der Test sowieso nicht so spannend :wink:

Palpatin
2017-10-09, 15:49:05
und ob geköpft oder nicht, wakü oder lukü usw

BlacKi
2017-10-09, 15:50:18
wow, war interessant zu lesen. https://overclocking.guide/the-truth-about-cpu-soldering/

IchoTolot
2017-10-09, 15:52:10
Denke nicht das Lowkey den PCGH Jungs an Bein pinkeln möchte mit seinem Post. Wir alle sind wohl für jeden Test dankbar. Allerdings dürfen die Test auch gerne ein wenig deeper sein.

Ich glaube hier muss man mal realistisch sein und die daraus entstehende Arbeit sich mal vorstellen. Was glaubt ihr wie viel Arbeit die normalen Benchmarks sind. Man liest doch immer wieder von den Jungs mal im Forum, dass die da bis abends getestet haben und wieviel Aufwand sowas ist. Das muss man auch mal wertschätzen und die wollen schließlich auch Geld verdienen und es ist auch irgendwann einfach mal Redaktionsschluss. :freak:

Letztlich gibt es immer an einem Test was zu meckern und PCGH macht die Sache ja schon ordentlich, das muss man ihnen ja mal lassen. Ich erinnere mich an den Benchmarksache mit AotS wo man darauf kam, dass im Spiel Effekte weggelassen wurden. Welche andere Redaktion oder welcher andere Reviewer hat davon was mitbekommen.

Also von meiner Seite jedenfalls großes Lob für die Arbeit der Jungs. :up:

Schnoesel
2017-10-09, 15:55:50
wow, war interessant zu lesen. https://overclocking.guide/the-truth...cpu-soldering/
willst du hier echt die ganze Diskussion dazu nochmal durchkauen?

IchoTolot
2017-10-09, 15:58:28
wow, war interessant zu lesen. https://overclocking.guide/the-truth-about-cpu-soldering/

Ja ich mag dieses alberne "Zahnpaste" Geschwätz auch nicht. Roman ist ja kein Depp und ich denke die bei Intel sind es erst Recht nicht. Wäre natürlich cool, wenn Intel die CPUs mit Liquid Metal versorgen würde, aber dazu müsste man das sicher erst mal gescheit in einer Fertigungsstraße hinbekommen. So einen Klecks TIM lässt ich einfach da umsetzen, aber LM muss ja sehr genau aufgetragen werden und ein Klecks auf das DIE und dann Heatspreader druff reichen sicher nicht. :freak:

Und letztlich kann man es auch so sehen. Intel belastet die Umwelt weniger durch das nicht verlöten als AMD. Kann man auch mal drauf aufmerksam machen, wo doch jeder immer AMD als Underdog dem man helfen muss feiert. :rolleyes:

BlacKi
2017-10-09, 16:01:07
IMO sollten sie bei den K cpus den heatspreader komplett weglassen und bei den cpus mit heatspreader wenigstens liquid metal verwenden, auch wenn jetzt die temps bei chrisch ganz gut aussehen für 5ghz.

Schnoesel
2017-10-09, 16:03:43
Und letztlich kann man es auch so sehen. Intel belastet die Umwelt weniger durch das nicht verlöten als AMD. Kann man auch mal drauf aufmerksam machen, wo doch jeder immer AMD als Underdog dem man helfen muss feiert.

Intel der moralische Leuchtpunkt. Jetzt wirds wieder lächerlich. Dafür dass es Geschwätz ist hast aber einiges in Kauf genommen die "grüne" Paste loszuwerden...

x-force
2017-10-09, 16:03:57
die sollen den mist verlöten und gut ist. zumindest bei den k prozessoren. aber sobald amd noch mehr druck macht werden die auch wieder verlötet. da wird intel schlicht vom mammon geritten, weil sie es nicht nötig haben.

BlacKi
2017-10-09, 16:21:41
Wäre natürlich cool, wenn Intel die CPUs mit Liquid Metal versorgen würde, aber dazu müsste man das sicher erst mal gescheit in einer Fertigungsstraße hinbekommen. So einen Klecks TIM lässt ich einfach da umsetzen, aber LM muss ja sehr genau aufgetragen werden und ein Klecks auf das DIE und dann Heatspreader druff reichen sicher nicht. :freak:
ist das so? https://www.caseking.de/coollaboratory-liquid-metalpad-1xcpu-zuwa-034.html

das pad wird warm und schmilzt dann.

Lowkey
2017-10-09, 16:30:40
Mit den Pads habe ich schlechte Erfahrungen gemacht.

Ich habe nichts gegen die PCGH, ich sehe das nur als Idee mit dem userbezogenen Tuning des PCs. Interessant sind nunmal alle Tests außer der Reihe und jedes Magazin versucht alles abzudecken.

IchoTolot
2017-10-09, 16:36:36
ist das so? https://www.caseking.de/coollaboratory-liquid-metalpad-1xcpu-zuwa-034.html

das pad wird warm und schmilzt dann.

Ach cool. Das kannte ich noch nicht. :)

BlacKi
2017-10-09, 16:39:55
Ach cool. Das kannte ich noch nicht. :)
https://www.computerbase.de/2006-12/test-coollaboratory-liquid-metalpad/2/#abschnitt_fazit_und_empfehlungen

Lehdro
2017-10-09, 16:46:29
ist das so? https://www.caseking.de/coollaboratory-liquid-metalpad-1xcpu-zuwa-034.html

das pad wird warm und schmilzt dann.
Wenn das noch so wie damals ist, als das gerade neu war, dann musst du da erst einen Burn-in durchführen, damit es überhaupt schmilzt und sich mehr oder minder optimal anpasst an die Oberflächen. Da sind dann durchaus die Temperaturen gefragt die man eigentlich zu vermeiden im Sinn gehabt hat.

Dann doch lieber gleich normales LM, weiß auch nicht was daran so schwer zu handhaben ist. Ich hab LM schon vor über 10 Jahren genutzt und nie Probleme gehabt. CPUs links und rechts köpfen aber Angst davor LM zu applizieren, ich lach mich tot.

Genauso wie ich über den Soldering Artikel lache, so viele Mutmaßungen und anderes dramatisiertes, einfach lächerlich. Aber klar Soldering ist so problematisch das man es Jahrzehnte praktiziert und es dann aus dem Desktop verbannt, aber sonst munter weiter nutzte und zwar gerade da wo es wirklich ums Geld geht (Server). Haut euch mal ruhig weiter die Taschen voll....
Soldering wurde bei Intel aus Kostengründen abgeschafft, mehr nicht.

BlacKi
2017-10-09, 16:47:57
es ging doch darum das intel die pads nimmt anstatt der TIM, nicht ich^^

Lehdro
2017-10-09, 16:49:59
es ging doch darum das intel die pads nimmt anstatt der TIM, nicht ich^^
Warum sollte sie das tun? Verkauft bekommen sie die CPUs auch mit Mayonaise. Wer mehr will legt Hand an und freut sich dass er mittlerweile noch mehr ausgeben darf für ein "Feature", aka das "K" auch wirklich nutzen zu können.

BlacKi
2017-10-09, 16:51:53
alles klar...

aufkrawall
2017-10-09, 16:53:53
Ganz unwahr ist das ja nicht. Allerdings gibts eh kaum einen fühlbaren Vorteil mit zusätzlichem OC, ausgehend vom Allcore-Turbo.

Rancor
2017-10-09, 16:58:02
Warum sollte sie das tun? Verkauft bekommen sie die CPUs auch mit Mayonaise. Wer mehr will legt Hand an und freut sich dass er mittlerweile noch mehr ausgeben darf für ein "Feature", aka das "K" auch wirklich nutzen zu können.

Naja 5 GHZ gehen auch so. Nur am Limit wirds dann kritisch.

BlacKi
2017-10-09, 17:04:43
mein "alles klar" bezog sich auf das rumheulen wegen den temperaturen aufgrund der TIM und dann kommt der kommentar wieso sollte das intel tun. dann ist bei mir die diskussion einfach vorbei. dann wirds einfach lächerlich.

Platos
2017-10-09, 17:45:25
Ja, Intel hat die Wärmeleitpaste bestimmt wegen der Umweltfreundlichkeit weggelassen :freak:

Aber bei den normalen CPUs ist das ja eigentlich gar nicht so schlimm, aber bei den K CPUs gehts mal gar nicht.

Lehdro
2017-10-09, 18:39:06
mein "alles klar" bezog sich auf das rumheulen wegen den temperaturen aufgrund der TIM und dann kommt der kommentar wieso sollte das intel tun. dann ist bei mir die diskussion einfach vorbei. dann wirds einfach lächerlich.
Sag das Intel, nicht mir.

Ich hab btw nicht wegen der Temperaturen rumgeheult, das waren andere.

Ph0b0ss
2017-10-09, 19:24:51
Aber bei den normalen CPUs ist das ja eigentlich gar nicht so schlimm, aber bei den K CPUs gehts mal gar nicht.

Auch bei den normalen CPUs ohne OC hat das Auswirkungen. Da muss dann halt der Lüfter ~20-40% schneller drehen, um die Temperatur auf dem Niveau von verlöteten CPUs zu halten. Gerade mit den Boxed-Kühlern ist das dann auch ein deutlich hörbarer Unterschied.

Ex3cut3r
2017-10-09, 19:43:33
Ich stehe wohl mit meiner Meinung, unter 90 Grad ist alles ok, allein da? :freak:
Mir wäre es persönlich piep egal, ob die CPU in Games mit 80grad oder 60 Grad läuft. Von diesen Wahnsinn ala die schmilzt dir weg, halt ich gar nichts. CPUs vertragen einiges mehr als man denkt, das "Problem" ist immer der User und sein Kopf. ^^

IchoTolot
2017-10-09, 19:55:15
Deswegen macht es Intel auch sicher nur noch mit Paste. Und AMD muss es machen weil sonst die Temp und Leistungsaufnahme durch die Decke gehen würde. ;)

135i
2017-10-09, 19:55:19
Ich stehe wohl mit meiner Meinung, unter 90 Grad ist alles ok, allein da? :freak:
Mir wäre es persönlich piep egal, ob die CPU in Games mit 80grad oder 60 Grad läuft. Von diesen Wahnsinn ala die schmilzt dir weg, halt ich gar nichts. CPUs vertragen einiges mehr als man denkt, das "Problem" ist immer der User und sein Kopf. ^^

:up:

980X knapp 8Jahre im Einsatz und just for fun, über eine Stunde gestresst .
Lüfter am Mora, mal an/ mal aus.

https://abload.de/img/hardcorei8jh0.jpg

fondness
2017-10-09, 20:01:18
Deswegen macht es Intel auch sicher nur noch mit Paste. Und AMD muss es machen weil sonst die Temp und Leistungsaufnahme durch die Decke gehen würde. ;)

Ich hoffe du glaubst den Mist wenigstens selbst nicht.

IchoTolot
2017-10-09, 20:02:05
Was glaubst du denn warum AMD verlötet bei Ryzen? :rolleyes:

Effe
2017-10-09, 20:03:26
Weil sie keinen überteuerten Pfusch verkaufen?

JaniC
2017-10-09, 20:12:35
Es wird halt einfach wärmer im Gehäuse und damit auch die Grafikkarte. Und bei der wird halt irgendwann runtergetaktet.
Da können 79 oder 84 Grad den Unterschied machen.
Von daher ist die CPU Temperatur eben doch nicht egal.

(Luftkühlung vorausgesetzt natürlich)

Platos
2017-10-09, 20:17:18
Auch bei den normalen CPUs ohne OC hat das Auswirkungen. Da muss dann halt der Lüfter ~20-40% schneller drehen, um die Temperatur auf dem Niveau von verlöteten CPUs zu halten. Gerade mit den Boxed-Kühlern ist das dann auch ein deutlich hörbarer Unterschied.

Stimmt habe ich gar nicht bedacht. Allerdings muss man auch sagen, dass man nicht unbedingt 40° kühle CPU braucht, wenn man eh nicht übertaktet. Deswegen kann man auch unter 70° locker durchgehen lassen, finde ich.

@ Ex3cut3r: Das finde ich dann doch etwas übertrieben bei OC. Das kann so und so laufen. Bei manchen läuft dann nach einem halben Jahr das System nicht mehr stabil und sie müssen runter takten. Ums weg Schmelzen gehts natürlich nicht. Da schmelzt gar nichts weg bei solchen Temps. Aber Elektromigration wird begünstigt.

Oranje7
2017-10-09, 20:17:39
Was glaubst du denn warum AMD verlötet bei Ryzen? :rolleyes:


;D Du bist wirklich Amüsant ;D

Ex3cut3r
2017-10-09, 20:24:12
:up:

980X knapp 8Jahre im Einsatz und just for fun, über eine Stunde gestresst .
Lüfter am Mora, mal an/ mal aus.

https://abload.de/img/hardcorei8jh0.jpg

Das :up: gebe ich gern zurück dein Prozzi ist immer noch klasse.

Es wird halt einfach wärmer im Gehäuse und damit auch die Grafikkarte. Und bei der wird halt irgendwann runtergetaktet.
Da können 79 oder 84 Grad den Unterschied machen.
Von daher ist die CPU Temperatur eben doch nicht egal.

(Luftkühlung vorausgesetzt natürlich)

Das Problem habe ich nicht, weil ich einen Big Tower (NZXT Phantom 630) habe, mit Vorne 1x200, Seitlich 1x200, Oben 2x200 und Hinten 1x140er. Aber klar, die meisten habe eher einen Medi-Tower mit einmal 1x120 rein und 1x120 raus. Von daher bin ich wohl nicht die Masse.

P.S Die laufen alle mit 500-800RPM sehr leise.

IchoTolot
2017-10-09, 20:33:19
Weil sie keinen überteuerten Pfusch verkaufen?

Genau das! Das!!! Verdammt wieso bin ich da nicht drauf gekommen!? ;D

MiamiNice
2017-10-09, 20:51:54
Und letztlich kann man es auch so sehen. Intel belastet die Umwelt weniger durch das nicht verlöten als AMD. Kann man auch mal drauf aufmerksam machen, wo doch jeder immer AMD als Underdog dem man helfen muss feiert. :rolleyes:

Ich mag Dich ja aber trotzdem :freak:
Hast Du Dir verdient ;)

BlacKi
2017-10-09, 22:07:56
Es wird halt einfach wärmer im Gehäuse und damit auch die Grafikkarte. Und bei der wird halt irgendwann runtergetaktet.
Da können 79 oder 84 Grad den Unterschied machen.
Von daher ist die CPU Temperatur eben doch nicht egal.

(Luftkühlung vorausgesetzt natürlich)
weil die cpu nicht verlötet ist wird alles im gehäuse wärmer? in welchem universum?

die wärme im gehäuse bleibt gleich da die menge an wärme gleich bleibt. wenn du auf den mehrverbrauch anpielst, weil der halbleiter bei höherer temperatur auch mehr verbraucht, das ist bei dem kleinen chip so minimal das man es nicht messen kann.

maguumo
2017-10-09, 22:19:53
das ist bei dem kleinen chip so minimal das man es nicht messen kann.
Nein. (http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html)

x-force
2017-10-09, 22:24:01
Es wird halt einfach wärmer im Gehäuse und damit auch die Grafikkarte. Und bei der wird halt irgendwann runtergetaktet.
Da können 79 oder 84 Grad den Unterschied machen.
Von daher ist die CPU Temperatur eben doch nicht egal.

(Luftkühlung vorausgesetzt natürlich)

das stimmt so nicht wirklich. die abwärme ist nur in dem maße größer wie der verbrauch durch die temperatur steigt. nur weil die cpu kerne mit schlechter paste wärmer werden, wird es das gehäuse nicht.
das ist ja gerade der trick. da kannst du prinzipiell egal welchen kühler draufschnallen, der kern überhitzt, da du die hitze nicht wegbekommst.
betrachte die paste als isolator und nicht als leiter ;)

@maguumo
leider kenne ich dazu nur belege bei grafikkarten, für cpus ist mir da nichts bekannt.

BlacKi
2017-10-09, 22:25:09
ca 10% ersparnis bei einer temperaturdifferenz von 40grad. das sind bei 20 grad ca 5%. 5% von 95 w sind ca 4w.

das bekommst du nicht ordentlich gemessen...

x-force
2017-10-09, 22:28:20
5% von 95 w sind ca 4w.
.

für 6 kerne@5ghz würde ich eher das dreifache ansetzen um auf nummer sicher zu gehen.

BlacKi
2017-10-09, 23:12:00
für 6 kerne@5ghz würde ich eher das dreifache ansetzen um auf nummer sicher zu gehen.
eher 6w https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11514814&postcount=43

bei 95w stock dann so wie gesagt ca 4w.

Lehdro
2017-10-09, 23:26:06
Und wenn ich 20 Grad spare kann ich auch wieder problemlos höher takten - genau das weswegen ich mir zb ne K CPU kaufen würde...
Scheiß auf die 6W.

Birdman
2017-10-10, 09:17:39
Ich hoffe du glaubst den Mist wenigstens selbst nicht.
War zwar überspitzt formuliert, aber im Grundsatz ganz klar korrekt.

Der i8700K hat eine um 25° höher erlaubte Betriebstemperatur als ein 1800X - sowas erlaubt es dann eben auch eher, dass man nicht löten muss.

Pirx
2017-10-10, 09:38:50
Welche Reviewer haben denn nun eigentlich mit korrekten Rahmenbedingungen innerhalb der Spezifikationen getestet?

y33H@
2017-10-10, 09:46:57
Guck in Leonidas' Tabelle.

basix
2017-10-10, 09:56:50
Einen positiven Effekt können niedrigere Chip-Temperaturen bei gleichbleibender Verlustleistung schon haben: Die Temperatur der abgeführten Luft ist unter Umständen kühler, ergo der Rest im Gehäuse auch. Ob das aber für die Intel TIM CPUs gilt ist nicht ganz klar. Wie schon erwähnt ist die Paste eher ein Isolator und die Hotspots werden verstärkt. Andererseits wird das Package inkl. Heatspreader eher wärmer als das Silizium bei Direct-Die Kontakt. Über Wärmeleitung via PCB werden auch andere Sachen wärmer.

Mein Bauchgefühl: Bei gleicher Verlustleistung aber geringeren Chip-Temperaturen bleibt auch der Rest des Systems ein wenig kühler. Einfach weil die zirkulierende Luft kühler sein sollte. Das gilt natürlich vor allem für luftgekühlte Systeme. Bei externen WaKüs wird der Effekt praktisch gegen Null tendieren mit Ausnahme der Wärmeleitung übers PCB.

Cubitus
2017-10-10, 10:12:07
Gestern noch den 8700 nonK verbaut und auf einem ASROCK Z370M-ITX/AC getestet.

Bleibt absolut in den Specs, lt Hardwaremonitor, nach diversen Install-Aktionen und zip Aktionen, bisher 60 Watt Max.
Boostet brav hoch auf 4,6 Ghz bzw. auch wieder runter. Ram bleibt auf 3200 Mhz fix.

Temps auf 50 Grad Core Max, mit Lukü (Alpenföhn Brocken ECO) für nen 6 Kerner in nem kleinen ITX.. :freak:
Top CPU, Top Leistung :up:

Werde heute primeln und schauen wo sich der Turbo und die Temp dann letztendlich einpendeln.

gmb
2017-10-10, 10:55:35
Gestern noch den 8700 nonK verbaut und auf einem ASROCK Z370M-ITX/AC getestet.

Bleibt absolut in den Specs, lt Hardwaremonitor, nach diversen Install-Aktionen und zip Aktionen, bisher 60 Watt Max.
Boostet brav hoch auf 4,6 Ghz bzw. auch wieder runter. Ram bleibt auf 3200 Mhz fix.



Wie hoch taktet der Uncore ohne Übertaktung?

Cubitus
2017-10-10, 10:59:59
Wie hoch taktet der Uncore ohne Übertaktung?

Werde ich heute Abend schauen ;)

Chrisch
2017-10-10, 11:03:39
Bei meinem 8600K ist der std. 4GHz!

gmb
2017-10-10, 11:17:31
Asrock? Sieht wirklich so aus, als wenn wieder Gigabyte als einziger Board Hersteller beim Uncore den default gleich zum Basistakt interpretiert. Das ist nichts neues, schon bei Kabylake ist mir das aufgefallen.


http://ranker.sisoftware.net/show_device.php?q=c9a598d1bfcbaec2e2a1cebcd9f990a78abd8aba8aaccbf6c1e795a898bed7 eacca499bfc7fadcb9dce1d1f784b989&l=en

Man beachte non-Z Boards mit i7-7700. Diese Kombination erlaubt kein OC. Mit Asrock, MSI, Asus werden so gut wie immer 3.9 Ghz bei allen Einträgen angegeben. Einzig und allein Gigabyte setzt den Uncore gleich zum Basistakt, also 3.6 Ghz bei dieser SKU. Selbst ein billiges Medion (http://ranker.sisoftware.net/show_system.php?q=cea598ab9fab9aac9fb9dee3d4f280bd8dabc2ffcfe981bc8caad2efdff99c f9c4f4d2a19cac&l=en) System mit ECS H110H4-M19 setzt auf 3.9 Ghz. Ich bezweifle somit, dass der Uncore nur maximal so hoch takten darf wie der Basistakt nach Spezifikation. Außer es gibt einen Spielraum beim Uncore, den Gigabyte als einziger nicht voll ausreizt. Wie kann es also sein, dass schlaue Leute von Computerbase und Golem felsenfest behaupten, 3.7 Ghz Uncore wäre default beim i7-8700k. Ohne jeglichen Beleg, nur weil Gigabyte den so interpretiert. Ich hatte mir eigentlich das Z370-HD3P von Gigabyte ins Auge gefasst, weil das sehr sparsam läuft im Test. Aber ein untertakteter Uncore bei Gigabyte, wonach es für mich aussieht, geht gar nicht. Dann werde ich mich doch bei Asus, MSI, Asrock umschauen.

EvilTechno
2017-10-10, 11:22:20
Auch eine Art Silicon Lottery. Heißt das keiner kann mit Sicherheit vorhersagen welcher Takt nun nach dem booten auf dem Windows Desktop vorliegt solange nicht gemessen wird?

Intel'sche Unschärfe Relation?

Chrisch
2017-10-10, 11:23:19
Jo, ist nen ASRock (Z370 Gaming K6) ;)

@ EvilTechno

die std. Taktraten sind beim ASRock im Bios hinterlegt und sehen wie folgt aus: 3600/4000/2133 (Core/Cache/Mem). Und der Turbo liegt dann je nach Belastung zwischen 4.1GHz (AllCore) und 4.3GHz (1Core).

y33H@
2017-10-10, 12:34:00
2133 zB ist zu niedrig, sollte 2667 sein.

Chrisch
2017-10-10, 12:39:20
Naja, liegt vermutlich am SPD des Speichers ;)

Da ist nur das 2133er Setting und eben das 3466er XMP.

Und kA ob sich das ggf mit Vollbestückung anders verhält, habe atm 4x4GB drin.

y33H@
2017-10-10, 13:02:17
Vollbestückt sollte es 2400 sein, aber evtl geht der AIB da auf Nummer sicher.

sulak
2017-10-10, 18:20:25
Gestern noch den 8700 nonK verbaut und auf einem ASROCK Z370M-ITX/AC getestet.

Bleibt absolut in den Specs, lt Hardwaremonitor, nach diversen Install-Aktionen und zip Aktionen, bisher 60 Watt Max.
Boostet brav hoch auf 4,6 Ghz bzw. auch wieder runter. Ram bleibt auf 3200 Mhz fix.

Gleiche CPU, Asrock Z370 Pro4 Mainboard.

1:1 meine kurze Erfahrung, allerdings ist die Single Core Leistung echt brachial. Spiele ja gerne die eine oder andere Simulation, ein Savegame aus Transport Fever, mit dem R5 1600 16-22FPS und heftiges Stuttering. Mit dem i7 zarte 27-33FPS. CPU taktet munter zwischen 4,3Ghz und 4,5GHz.

HWInfo zeigt einen Ring/LLC Clock schwankt zwischen 800 und bis rauf auf 4,3GHz. Stellt man in der Energievewaltung von Windows auf Höchstleistung klebt er bei 4,3GHz.

Allerdings ist das noch mit Vorsicht zu genießen, denn HW_Info kann noch nicht mit allen Mainboards und Sensoren.
Aktuell gibts die Beta hw64_559_3260

w0mbat
2017-10-12, 07:53:34
https://www.youtube.com/watch?v=b0Oeme4V2bM

Jay hat sein CFL review auch mit auto-oc gemacht, nun gibts ein Nachtrag.

y33H@
2017-10-12, 08:22:54
Warum fallen da bei CFL-S so viele drauf rein, wo das doch ein uraltes Thema ist?

Sven77
2017-10-12, 08:27:18
Frag ich mich auch, exakt dasselbe hat mein Asus ROG Z270 Board auch gemacht.. nettes Feature wenn alles stabil läuft :D

Piefkee
2017-10-12, 08:56:00
Warum fallen da bei CFL-S so viele drauf rein, wo das doch ein uraltes Thema ist?


Bei JayZ war es so, zumindest behauptet er das, dass er mit ASUS im Gespräch war in diese ihm explizit erklärt haben das MCE (Multi-Core Enhancement aka OC) Off im Default Modus ist.

Die ganze Sache ist schon etwas komisch muss ich sagen... Wenn MCE on ist und XMP geladen wird dann wird ja Overclocked. Sollte ja heisen die Garantie erlischt für den CPU oder bring ich da was durcheinander?

N0rG
2017-10-12, 09:15:17
Hab mal gehört dass wenn man einmal ein XMP profil läd, dass den Speicher oberhalb der Intel spec taktet, die Garantie weg ist.
Zum MCE - wenn Intel nicht spezifiziert wie hoch die einzelnen cores bei gegebener Auslastung takten dürfen, dann können die schlecht sagen, dass es OC war wenn das ding kaputt geht.

robbitop
2017-10-12, 10:28:01
Bei JayZ war es so, zumindest behauptet er das, dass er mit ASUS im Gespräch war in diese ihm explizit erklärt haben das MCE (Multi-Core Enhancement aka OC) Off im Default Modus ist.

Die ganze Sache ist schon etwas komisch muss ich sagen... Wenn MCE on ist und XMP geladen wird dann wird ja Overclocked. Sollte ja heisen die Garantie erlischt für den CPU oder bring ich da was durcheinander?
Ein seriöser Journalist prüft solche Einstellungen gegen. Genauso wie er sanity checks bei Messergebnissen macht. Schon lustig was heute unter einem "Review" verstanden wird.

Schnoesel
2017-10-12, 11:22:19
Imo kann der Typ einfach nix. Die ganzen Youtube "Experten" heben das Qualitätsniveau jetzt nicht unbedingt, zumal sehr oft die Rahmenbedingungen überhaut nicht genannt werden.

Hier geht es doch nur noch darum erster zu sein und die meisten Klicks mit reißerischem Titel zu produzieren.

Allein der Titel "Intel i7-8700k... does it suck?" Sagt für mich schon alles! Wie kann man sowas ernst nehmen? Die Clientel die er ansprechen möchte is sicher entsprechend dem Titel.

gmb
2017-10-12, 11:30:05
https://www.youtube.com/watch?v=b0Oeme4V2bM

Jay hat sein CFL review auch mit auto-oc gemacht, nun gibts ein Nachtrag.


Was ein Stümper.


Bei JayZ war es so, zumindest behauptet er das, dass er mit ASUS im Gespräch war in diese ihm explizit erklärt haben das MCE (Multi-Core Enhancement aka OC) Off im Default Modus ist.



Dann ist er noch dämlicher als ich dachte. Er hätte nur mal nachschauen müssen, welche Taktraten so anliegen. Jeder taugliche Tester hätte sich dann nur wundern müssen, wenn 4.7 Ghz in MT anliegen. Oder einfach mal austesten, ob Auto und disabled einen Unterschied bringt. Das ist einfach nur dämlich, da kann er sich nicht rausreden. Das ist typisch für solche Videotests. Die können zwar labern, Ahnung haben die nur in den meisten Fällen.

MCE gibt es schon so lange, trotzdem blicken es manche immer noch nicht. Als wenn das neu wäre mit CFL.

Denniss
2017-10-12, 14:53:03
Mit solchen Typen muß man heutzutage leider zurechtkommen. Immerhin hat er da sProblem mitbekommen und darüber berichtet so daß die Euphorie der dort zuschauenden Inteljünger ein wenig gebremst wurde.

y33H@
2017-10-12, 16:35:23
Was manche Leute für einen Stuss von sich geben ... "Intel-Jünger" :usad:

Screemer
2017-10-12, 16:52:32
Was manche Leute für einen Stuss von sich geben ... "Intel-Jünger" :usad:
Du hast schon mal bei ihm vorbei geschaut?

x-force
2017-10-12, 16:58:42
alles was mind. dreistellige summen kostet und potential bietet sich damit zu identifizieren hat seine eigenen jünger.
geprägt hat sicherlich apple den begriff. kein wunder bei den auftritten ihres damaligen messiahs.

heutzutage findest du überall fanboys und jünger.
amd vs intel
amd vs nvidia
sony vs microsoft (konsolen)
war früher aber auch nicht anders, da gab es ebenso fanatische leute, die z.b. unbedingt einen opel vw bmw whatever fahren müssen.

es kommt einem bald so vor, als wären 50% der menschen kunden dieser art.

y33H@
2017-10-12, 18:14:03
Hab so Leute nie verstanden - die Hersteller wollen alle nur mein Geld, sonst nichts.

x-force
2017-10-12, 18:28:39
sicher... so weit denkst du aber nicht, wenn du dich darüber definierst.

TGKlaus
2017-10-12, 18:31:29
Hab so Leute nie verstanden - die Hersteller wollen alle nur mein Geld, sonst nichts.


Falsch, genügend --- Neudeutsch "Influencer" ---- bekommen von den Herstellern Geld.

Hakim
2017-10-12, 18:45:09
Man kann schon vorlieben für bestimmte Marken haben, wenn man z.B jahrelang gute Erfahrungen gemacht hat. Alles was darüber hinaus geht wäre ja ansich kein Problem, da normal, jedem das seine. Schlimm wird es wenn sich die Leute genötigt fühlen alles andere Schlecht zu reden und die gekaufte Marke verteidigen, und kein Verständnis für Leute zeigen die sich anders entscheiden.

Wird aber OT :)

MiamiNice
2017-10-12, 19:07:04
Hab so Leute nie verstanden - die Hersteller wollen alle nur mein Geld, sonst nichts.

Dem kann man sich durchaus bewusst sein und trotzdem eine Präferenz zu einer Marke entwickeln. Aus welchen Gründen auch immer.

Cubitus
2017-10-12, 19:28:50
Ich darph erinnern, die verheerende NetBurst Architektur,
Willamette, Northwood und die Presswurst, dennoch verkauften sich die Hitzköpfe, dank OEM Deals und auch wegen dem Namen "Pentium" wie geschnitten Brot.
Obwohl AMD eindeutig die besseres CPUs hatte!!

Intel hat/hatte wie Nvidia schon immer das bessere Marketing und besseren Deals als AMD.. Das war wirklich schon immer soo. ;)
AMD hat es nie geschafft sich vom Billigheimer-Image zu lösen, was definitiv schade ist.

Ein Lichtblick war ATI, aber AMD schaffte es auch diese Marke zu runieren. Der Papiertiger 7970 z.b und jetzt auch Vega..
Auch wenn AMD jetzt die eindeutig besseren Produkte hätte (was aber nicht der Fall ist), unterm Strich wäre Intel trotzdem dominanter :tongue:

Da braucht es gar keine "Günstlinge" im Presse Bereich..

Sven77
2017-10-12, 19:35:43
Willamette, Northwood und die Presswurst, dennoch verkauften sich die Hitzköpfe, dank OEM Deals und auch wegen dem Namen "Pentium" wie geschnitten Brot.
Obwohl AMD eindeutig die besseres CPUs hatte!!


Das hatte auch andere Gründe, unter anderem Qualität der Boards. Erst mit Clawhammer/Newcastle ging es richtig los und da führte kaum ein Weg an AMD vorbei

dildo4u
2017-10-13, 02:12:52
Intel Core i5-8400 Review, Cheapest 6-core Money Can Buy!

https://youtu.be/fhc4blOJZeA

y33H@
2017-10-13, 03:10:39
Falsch, genügend --- Neudeutsch "Influencer" ---- bekommen von den Herstellern Geld.Was nur dem Zweck dient, dass die Hersteller mehr Kohle machen, die haben nichts zu verschenken ... anyways, Off-Topic.

Rancor
2017-10-13, 08:22:13
Intel Core i5-8400 Review, Cheapest 6-core Money Can Buy!

https://youtu.be/fhc4blOJZeA

DX 12 ist unter NV echt lol. Mit DX 11 hat man mit ner Ryzen CPU 150FPS und mehr.

https://youtu.be/UfNMn7RWgLw?t=616

Aber der 8400 ist schon ne sehr gute Value CPU... leider nicht lieferbar.

Freestaler
2017-10-13, 08:41:50
Intel hat/hatte wie Nvidia schon immer das bessere Marketing und besseren Deals als AMD.. Das war wirklich schon immer soo. ;)
AMD hat es nie geschafft sich vom Billigheimer-Image zu lösen, was definitiv schade ist.

Da braucht es gar keine "Günstlinge" im Presse Bereich..

Auch wenn nur Ansatzweise was mit CFL zu tun hat, bessere "Deals" ist eine "Verherrlichung" ihre Marktmanipulationen. Ganz klar sowohl moralisch wie strafrechtlich einfach das falsche vorgehen. Dabei verliert immer der Kunde, also wir. Nur ein Beispiel: http://www.zeit.de/online/2009/20/intel-eu-strafe-schmiergeld

Und daher bin ich doch stark interessiert, was jetzt nun bei den Review so geht. Obacht Annahme: *PresseBios* mit MCE, ohne TDP Limit und mit Uncore OC ist meiner Meinung nach nicht so ein "hundsgemeiner" Vorwurf bei der Vergangenheit von Intel. Den ich kann mir nicht vorstellen, dass Intel echt bei einer so gut Bekannten Chipdesign solche Dinge wie die TDP noch nicht "richtig" Einpflegen konnte, da ja Stabilität zuerst gegeben sein muss.

Vor allem empfinde ich es als Schande, das Intel es mit CFL überhaupt nötig hat, solche Spiele zu machen.

Hübie
2017-10-13, 08:42:42
Gestern noch den 8700 nonK verbaut und auf einem ASROCK Z370M-ITX/AC getestet.

Bleibt absolut in den Specs, lt Hardwaremonitor, nach diversen Install-Aktionen und zip Aktionen, bisher 60 Watt Max.
Boostet brav hoch auf 4,6 Ghz bzw. auch wieder runter. Ram bleibt auf 3200 Mhz fix.

Temps auf 50 Grad Core Max, mit Lukü (Alpenföhn Brocken ECO) für nen 6 Kerner in nem kleinen ITX.. :freak:
Top CPU, Top Leistung :up:

Werde heute primeln und schauen wo sich der Turbo und die Temp dann letztendlich einpendeln.

Das ist ja echt Hammer. Vielleicht mach ich doch einen Schwenk von meinem Ivy+RIVE. Das Ersparnis beim Verbrauch ist ja schon lecker (->weniger Wärmeentwicklung, leiseres System). Was hast du gelöhnt? Was machst mit deinem alten Zeug (evtl. fürs Weibchen...)?

Sven77
2017-10-13, 08:44:02
Was hat jetzt Intel damit zu tun.. den schwarzen Peter muss man den Boardherstellern zuschieben..

Freestaler
2017-10-13, 08:51:18
Was hat jetzt Intel damit zu tun.. den schwarzen Peter muss man den Boardherstellern zuschieben..

Weil der Betrug Bug bereits im der Source von Intel für Bios drin ist zumindest TDP unlimit (nonK turbo Fehler ebenso) und Intel keine vorgaben macht ob MCE default on okay oder nicht. (wie zu FSB zeiten). Siehe Meldung TH bzw. Antwort von Igor hier im Forum.

dargo
2017-10-13, 09:00:12
Imo kann der Typ einfach nix. Die ganzen Youtube "Experten" heben das Qualitätsniveau jetzt nicht unbedingt, zumal sehr oft die Rahmenbedingungen überhaut nicht genannt werden.

Hier geht es doch nur noch darum erster zu sein und die meisten Klicks mit reißerischem Titel zu produzieren.

Allein der Titel "Intel i7-8700k... does it suck?" Sagt für mich schon alles! Wie kann man sowas ernst nehmen? Die Clientel die er ansprechen möchte is sicher entsprechend dem Titel.
Da muss ich dir allerdings widersprechen. Die ganzen "Youtube Experten" decken immerhin solche "Ungereimheiten" auf.
https://www.youtube.com/watch?v=fhc4blOJZeA&feature=youtu.be

Damit meine ich die Unterschiede zwischen einer Intel und Ryzen CPU bei einer Nvidia Grafikkarte. Es werden viel zu schnell irgendwelche IPC-Vergleiche beim Gaming geschnürt ohne zu wissen wie sich das ganze mit einer AMD Graka verhält.

Diese "Youtube Experten" decken auch sowas hier auf (wobei mir das schon längst bekannt war).
https://www.youtube.com/watch?v=S6yp7Pi39Z8&feature=youtu.be

Die "Fachpresse" ist leider dazu nicht in der Lage. Es ist wie schon immer... es gibt da draußen kompetente Menschen, genau so wie es Vollhonks gibt.

Rancor
2017-10-13, 09:45:19
Damit meine ich die Unterschiede zwischen einer Intel und Ryzen CPU bei einer Nvidia Grafikkarte. Es werden viel zu schnell irgendwelche IPC-Vergleiche beim Gaming geschnürt ohne zu wissen wie sich das ganze mit einer AMD Graka verhält.


Was aber nur auf Nvidias DX 12 Schwäche zurückzuführen ist. Unter DX 11 ist mit Ryzen alles in Ordnung.

dargo
2017-10-13, 10:41:24
Was aber nur auf Nvidias DX 12 Schwäche zurückzuführen ist. Unter DX 11 ist mit Ryzen alles in Ordnung.
Kann man anhand der Benchmarks nicht eindeutig beurteilen. Wenn Nvidia zusätzliche Threads generiert... woher willst du wissen, dass dadurch Daten ggf. unnötigerweise nicht zwischen den beiden CCX hin und her geschoben werden? Da könnten also auch paar Prozente schlummern. Es fällt im direkten Vergleich zu AMD @DX11 nur nicht auf da der Treiberoverhead bei AMD oftmals überwiegt. Gibt ja auch Ausnahmen wie man am Beispiel von PUBG und Vega sieht.

Rancor
2017-10-13, 10:43:51
JA er müsste das ganze nochmal mit DX 11 wiederholen. Aber zumindest mit einer NV Karte unter DX 11 ist es massiv besser, als unter DX12.

dargo
2017-10-13, 10:51:52
JA er müsste das ganze nochmal mit DX 11 wiederholen.
Nochmal... es bringt nichts wenn der Treiberoverhead bei AMD überwiegt. Dass da bei DX12 mit Ryzen + Nvidia oft was nicht so ganz stimmt ist eindeutig.

woodsdog
2017-10-13, 15:39:48
Wie schlimm ist eigentlich die Limitierung der Anzahl an PCIe Lanes in der Praxis wenn man eben nicht nur spielt sondern ggf hier und da etwas arbeitet?

CL hat 16 von der CPU + 4 (?) vom Chipsatz für den ganzen anderen Kram.

- 16 Lanes GPU
- 4 Lanes M2 SSD
- 1 Lane Soundkarte
- 1-3 Sata SSDs
- USB 3.1
- USB 2/3

Da kommt ja ne menge bedarf zusammen, gerade wenn man ggf auch noch 2 PCIe M2 SSDs nutzen möchte.... Slots dafür gibt es ja auf diversen Boards.

Werden bei 2x M2 die SSDs nur noch mit 2 statt 4 Lanes angebunden?
Wird ggf schon die erste M2 aufgrund der Soundkarte nur noch mit 2 Lanes verbunden?

ist da ggf der 7820 (welcher sogar sofort kaufbar ist) die bessere wahl? Etwas weniger games leistung aber 2 cores mehr und keinerlei PCIe Problematik. (Preis erst mal egal)


Edit: OK, das Problem ist offensichtlich die DMI 3.0 Verbindung zur CPU, welche effektiv 4xPCIe entspricht....
- Genug lanes sind prinzipiell seitens des Mainboards da (?)

dildo4u
2017-10-13, 15:40:57
DX 12 ist unter NV echt lol. Mit DX 11 hat man mit ner Ryzen CPU 150FPS und mehr.

https://youtu.be/UfNMn7RWgLw?t=616

Aber der 8400 ist schon ne sehr gute Value CPU... leider nicht lieferbar.
BF1 ist einfach Schrott unter DX12,Ashes läuft ganz normal genau so Tomb Raider ist jetzt komplett gefixt seit dem ich die neue Windows Version drauf habe läufts wie Butter.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11517701&postcount=174

Troyan
2017-10-13, 16:12:34
Jap, der Youtuber nimmt nur die Spiele, die auf nVidia-Hardware kaputt sind. Tomb Raider hat er vor 1 1/2 Monaten getestet und da war nVidia unter DX12 besser:
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/TR.png
https://www.techspot.com/review/1490-ryzen-vs-core-i7-vega-64-geforce-1080/page6.html

Er testet Dirt 4 auch nur noch mit dem kaputten CMAA auf Vega und nicht mehr mit MSAA... Würde mich nicht wundern, dass AMD ein paar australische Dollar für die Reviews springen lässt.

dildo4u
2017-10-13, 16:19:14
Zumindest macht es sich im Gegensatz zu 99% alle Reviewer mal die Arbeit AMD und NV mit verschieden CPU's zu testen,alles sehr interessant.

N0rG
2017-10-13, 19:18:25
Wie schlimm ist eigentlich die Limitierung der Anzahl an PCIe Lanes in der Praxis [..]

Die CPU stellt 16 Lanes bereit. Der Chipsatz dann nochmal 24. Allerdings kann alles was an diesen 24 Lanes vom Chipsatz hängt nur über DMI 3.0 mit der CPU kommunizieren. In der Praxis konnte ich aber noch keine Nachteile feststellen.

Ich frage mich auch ob beispielsweise zwei NVMe SSDs die mit jeweils 4 PCIe 3.0 Lanes am Chipsatz hängen überhaupt über die CPU kommunizieren müssen oder ob die Daten dann einfach nur durch den Chipsatz laufen... Kann das vielleicht mal jemand mit Ahnung erklären?

woodsdog
2017-10-14, 08:32:23
Die CPU stellt 16 Lanes bereit. Der Chipsatz dann nochmal 24. Allerdings kann alles was an diesen 24 Lanes vom Chipsatz hängt nur über DMI 3.0 mit der CPU kommunizieren. In der Praxis konnte ich aber noch keine Nachteile feststellen.

Ich frage mich auch ob beispielsweise zwei NVMe SSDs die mit jeweils 4 PCIe 3.0 Lanes am Chipsatz hängen überhaupt über die CPU kommunizieren müssen oder ob die Daten dann einfach nur durch den Chipsatz laufen... Kann das vielleicht mal jemand mit Ahnung erklären?

Muss ja über die CPU laufen (und damit über das DMI interface), da das OS beteiligt ist. Die platten können Daten ja nicht einfach nach Gusto irgendwo hin schreiben.

//differentRob
2017-10-14, 10:53:59
Und dennoch dürften die wenigsten wirklich ein "Bottleneck" haben.
Das DMI ist ja fullduplex. Ergo von einer NVMe SSD lesen bei der anderen mit fullspeed schreiben. Einzig bei RAID lässt Performance liegen.

Und zur Not geht man halt mit Adapterkarten über die PCIe Slots und nimmt der Grafikkarte 8 Lanes. Bei PCIe 3.0 stellt das noch immer kein wirkliches Problem dar:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/24.html

maximus_hertus
2017-10-14, 11:00:08
Dennoch einfach schwach für eine 2018er Plattform. 16 Grafikkarten-Lanes, 4 M2 Lanes und 4 für den Chipsatz sollte mindestens drin sein :)

So toll die Coffee-Lake CPUs auch sind, so "schwach" ist die Plattform.

woodsdog
2017-10-14, 11:12:44
Jetzt nimm mal die AMD Brille ab und hör auf sinnfrei rumzuätzen...

Ja, es ist an der Stelle limitiert, ABER
- Es gibt die X299 Plattform, welche eine 28 Lane und 44 Lane Alternative bietet wenn PCIe Lanes wirklich das Problem sind
- Es ist in der Praxis offenbar einfach kein Problem weil nur in Benchmarks oder seltenen Konfigurationen überhaupt sichtbar
- Die Plattform ist umgelabeltes 2017 Zeug
- Wir haben noch 10 Wochen lang 2017, keine Ahnung was du von 2018 faselst

Kriton
2017-10-14, 13:31:49
X299 hat noch einmal was mit Coffeelake zu tun?

BlacKi
2017-10-14, 13:39:28
was hat ein nvme raid mit coffeelake zu tun? das ist die falsche plattform, dafür ist die plattform nicht gedacht.

gmb
2017-10-14, 13:46:32
Weil der Betrug Bug bereits im der Source von Intel für Bios drin ist zumindest TDP unlimit (nonK turbo Fehler ebenso) und Intel keine vorgaben macht ob MCE default on okay oder nicht. (wie zu FSB zeiten). Siehe Meldung TH bzw. Antwort von Igor hier im Forum.


Das ist Schwachsinn. Es gibt kein MCE im Source Code, weil das ein OEM Feature ist. Wenn Intel das verbieten würde, müssten sie die Multiplikatoren blockieren, dann würde es keine OC SKUs mehr geben. Bei den non-K SKUs kann Intel das schon mehr kontrollieren und bei diesen hat Intel schon eine Sperre eingebaut, indem sich der SC Turbo nicht mehr als MT Turbo nutzen lässt. Lächerlich von Betrug zu reden. Der Verbrauch geht massiv nach oben dadurch wegen wenigen Prozent an Mehrleistung. MCE ist nachteilig, die OEM setzen einen zu großen Sicherheitsspielraum ein.

woodsdog
2017-10-14, 15:09:13
X299 hat noch einmal was mit Coffeelake zu tun?

Meine Frage war im Grunde, ob die PCIe Limitierung auf 16+24 von CL in der Praxis einen merklichen Flaschenhals darstellt.

Als Antwort kam, das wohl nur Corner-Cases wie z.B. nvme raid am Limit merkbar aufschlagen. Im Kontext dazu eben den großen Bruder X299 zu nennen ist da auch völlig in Ordnung.

@BlacKi @Kriton
Wie wär es mal mit 2-5 Beiträge vorher lesen um was es geht bevor ihr in den Thread pöbelt?

Wenn PCIe Lanes von CL im CL Thread Offtopic ist, soll es ein Mod halt löschen oder verschieben. Ich hab meine Antwort.

Kriton
2017-10-14, 15:45:34
Ich habe darauf verwiesen, dass wenn jemand die Limitierung einer Plattform kritisiert, es IMHO nicht hilfreich ist auf eine andere zu verweisen. Wenn das für dich Pöbeln ist...
Denn wenn Du vergleichen willst, dann bitte richtig, inkl. Preis und sonstiger technischer Unterschiede.
Achtung, Autovergleich:
Wenn jemand sich über die PS eines Polo beschwert, verweist Du auch nicht auf das Mehr an PS bei Ferrari und erwartest, dass damit sein "Problem" gelöst ist.

qu3x^
2017-10-14, 16:18:35
Ich finde das Use Case Scenario völlig angebracht von woodsdog. Ein NVMe Raid stellt ein limitierenden Faktor dar kommt aber in kaum einem Gamingsetup für die CFL ausgelegte Plattform zum Einsatz. Ergo ist das Genöle über mangelende direkt angebundene Lanes vollkommen für die Fische.

Eine für ehemalig +400 Euro angesetzte Plattform wie Ryzen mit CFL zu vergleichen und einen Battle um PCI-E Lanes zu entfachen, obwohl die Plattform einen klaren Fokus auf Spiele hat und Ryzen dort in jeder Hinsicht entthront ist dann doch irgendwie fad. Klar biete Ryzen einen Mehrwert in anderen Aspekten wenn diese denn aktiv benötigt werden jedoch zu einem völlig anderen Preisgefüge. Wenn ich heute vor der Wahl stehe kommt CFL ins Haus wenn Gaming im Vordergrund steht, da führt kein noch so fundierter Usecase wie dröflzigtausend PCI-E Lanes für eventuelles Kryptominging oder ein NVMe Raid dazu. Hierzu gibt es wie oben schon genannt andere Plattformen aus beiden Lagern wie x299 sowie x399

woodsdog
2017-10-14, 16:37:26
Ich habe darauf verwiesen, dass wenn jemand die Limitierung einer Plattform kritisiert, es IMHO nicht hilfreich ist auf eine andere zu verweisen. Wenn das für dich Pöbeln ist...
Denn wenn Du vergleichen willst, dann bitte richtig, inkl. Preis und sonstiger technischer Unterschiede.
Achtung, Autovergleich:
Wenn jemand sich über die PS eines Polo beschwert, verweist Du auch nicht auf das Mehr an PS bei Ferrari und erwartest, dass damit sein "Problem" gelöst ist.

was ist deiner Meinung nach als Antwort möglich? Lanes dran häckeln mit Nadeln von Alibaba?

Wenn ich 250 fahren will, ist die Antwort "geht nicht mit deinem Polo, alternativ Ferrari kaufen" absolut in Ordnung. Das kannste dann machen oder eben weiter auf der rechten Spur fahren. v0v

CL Plattform hat nun mal 16+24, wenn DIESER EINE Punkt nicht reicht musst du damit entweder leben oder zu was größerem greifen. Alternative FÜR DIESEN ASPEKT wurde genannt, verglichen habe ich gar nix, schon gar gar nicht bin ich verpflichtet hier irgendwas umfassend zu beleuchten wenn A nur Lanes das Thema waren und B Preis vorher explizit ausgeklammert wurde.

Fängt ja auch keiner An Tankgröße, Ladevolumen, mögliche Assi-System zu vergleichen wenn das Kriterium "schnell fahren" war. Gell?

Keine Ahnung was du hier für ein Fass aufmachst, aber "X299 hat noch einmal was mit Coffeelake zu tun?" kann man auf 100 verschiedene Arten interpretieren. Auf was du dich mit diesem minimal-intensiven Post beziehst ist für mich nicht erkennbar gewesen.

Kriton
2017-10-14, 16:59:20
Ich mache kein Faß auf (Du solltest die persönliche Ebene vielleicht auch mal aus Deinen Antworten raushalten).
Aber da wir und im CL-Thread befinden, habe ich es nicht für notwendig gehalten, dass jemand einen Rundumschlag zu anderen Produkten macht, was ggf. noch alles eine Rolle bei CL spielt, wenn ein einzelner Punkt kritisiert wird.
Wenn im Gegenzug dieser Kritik mit einem anderen Produkt begegnet werden soll, dann bedarf es einer ganzheitlicheren Betrachtung (IMHO).
Insbesondere wenn die Kritik (auch da schon) in das Persönliche abgleitet.

Im übrigen ist die Erwartungshaltung einer Kritik auch nicht unbedingt, dass sich etwas ändert (Du hast recht, dass zusätzliche Lanes nicht einfach hinzugefügt werden können). manchmal will man ja auch nur seiner Unzufriedenheit Ausdruck verleihen.
Gleichwohl erscheint es mir legitim zu sagen, dass man gern mehr hätte, auch bei dieser Plattform (und sei es auch nur, weil man sich X299 z.B. nicht leisten kann/will).

woodsdog
2017-10-14, 18:05:33
Wenn im Gegenzug dieser Kritik mit einem anderen Produkt begegnet werden soll, dann bedarf es einer ganzheitlicheren Betrachtung (IMHO).
Nö - Eben nicht.
Es ging zum einem nur um die Technische Realisierung der PCIe Lanes auf der CL Plattform und zum anderem wäre das dann hier offtopic.


manchmal will man ja auch nur seiner Unzufriedenheit Ausdruck verleihen.
Gleichwohl erscheint es mir legitim zu sagen, dass man gern mehr hätte, auch bei dieser Plattform (und sei es auch nur, weil man sich X299 z.B. nicht leisten kann/will).
maximus_hertus ist offenkundig langer AMD Kunde. Gut für ihn, mir egal. Aber hier dann dieses "einfach nur schwache Plattform" 2x in einem zweizeiligen Post zu bringen, ohne sonst etwas beizutragen, ist im KONTEXT IMO nur getrolle.
Ansonsten gebe ich dir grundsätzlich völlig recht.

Ich denke wir haben beide unsere Punkte dargelegt, im Zweifel gerne via PM weiter. peace!

dildo4u
2017-10-15, 16:13:13
Intel Coffee Lake: Core i5 8400/ i5 8600K Review: Faster Than Last-Gen i7?

https://youtu.be/9f5JQrnOwTE

w0mbat
2017-10-15, 16:22:03
Interessant, dass Ryzen z.T. wirklich bessere frametimes hat.

IchoTolot
2017-10-15, 16:40:18
Ja und in Witcher 3 hat er schlechtere. Die besseren hat er ja nur in AC und Crysis und da war kein 7700K oder 8700K dabei.

Lowkey
2017-10-15, 16:49:09
Das zieht sich durchs Netz und erklärt die Kriege Intel vs AMD. Es gibt Situationen, da gewinnt jeweils der eine Hersteller. Und kein Review empfielt mit Sicherheit eine CPU, weil das aktuell nicht geht.

dildo4u
2017-10-15, 17:02:33
Interessant, dass Ryzen z.T. wirklich bessere frametimes hat.

SMT ist sehr effektiv daher ist der 7700k noch gut dabei,die Ryzen CPU's sind einfach eine Investition in die ferne Zukunft.PCGH hat ein Artikel über Legendäre CPU's neuen Heft,dort ist der Phenom X6@4Ghz(2010) vergleichbar mit dem 6600k(2015) in Crysis 3.

http://abload.de/img/img_20171015_165746153wu40.jpg

aufkrawall
2017-10-15, 17:04:05
Und wo ist Crysis 3 "ferne Zukunft"? "Ferne Vergangenheit" triffts wohl eher.

dildo4u
2017-10-15, 17:11:32
Die Multicore Nutzung wird in Zukunft sicherlich nicht schlechter,davon ab das die CPU's ohne SMT auch bei AC Unity Probleme haben,die Engine wird ja Ende des Monats wieder genutzt.

aufkrawall
2017-10-15, 17:20:44
Ich habe bereits ein Frametime-Video von Assassin's Creed Syndicate gepostet, wo es keine Frametime-Probleme mit dem 6700k gibt.
Und nein, das Gras in Crysis 3 ist ein Sonderfall, war es die bald letzten fünf Jahre, und wird es offenbar auch die nächsten Jahre bleiben.
Niemand bei Trost lässt so etwas bei den derzeitigen Konsolen nochmal über die CPU laufen.

dargo
2017-10-15, 17:23:15
Interessant, dass Ryzen z.T. wirklich bessere frametimes hat.
Ich finde eher den Anfang amüsant. :D Ivy Bridge und Hassi @4,5Ghz mit DDR3-2400 in Witcher 3 ~2% Unterschied. :freak:

Mal was anderes... ich bin gespannt wie lange Digital Foundry noch braucht bis sie darauf kommen, dass die Subtimings bei Ryzen @Auto nicht optimal sind? :tongue:

Ganz witzig finde ich auch das Ergebnis von Crysis 3 (hier zeigt sich wohl das sehr gute Multithreading im Gras, siehe Current fps).

https://www2.pic-upload.de/img/34102867/Crysis3.jpg

Der i5 8600K ist nur 15% schneller als der R5 1600 bei den avgs. Ersterer hat dafür 700Mhz (21%) mehr Takt. Mit optimierten Subtimings bei Ryzen dürfte der Vorsprung von Intel nur noch ~5% betragen, wenn nicht sogar Null.

PS: weiß eigentlich einer welchen Speicher DF bei Ryzen verwendet? DDR4-3200 SR oder DR? GDM und BGS Off oder On?

aufkrawall
2017-10-15, 17:24:51
Hach ja, das gute, alte Crysis 3-Gras. Kann man zwar nicht viel spielen, aber prima drauf rumreiten.

dargo
2017-10-15, 17:30:46
Es ist nicht nur das sehr gut multithreaded Gras in der Testszene wie man an den beiden Ergebnissen sehen kann. :rolleyes:

btw.
R5 1600 = 65W TDP
i5 8600K = 95W TDP

Schon lustig wie sich die Zeiten ändern. Plötzlich spielt der Stromverbrauch keine Rolle mehr. :whistle:

IchoTolot
2017-10-15, 17:33:55
Ich habe bereits ein Frametime-Video von Assassin's Creed Syndicate gepostet, wo es keine Frametime-Probleme mit dem 6700k gibt.

Hab ich ja gesagt. In dem Vergleich fehlte der 7700K. ;) Richard sagt ja auch, dass es zeigt wie potent HT bei Intel ist, dass der 7700K mit 4.8 Ghz in AotS noch mit dem 8600K auf 5 Ghz mithalten kann. (y)

11:50 im Video (https://youtu.be/9f5JQrnOwTE?t=716)

Lowkey
2017-10-15, 17:38:43
Najaaaa ... man weiss bei jedem Test niemals alle Details. Heute ist man der Meinung, dass das ein unumstößliches Faktum ist und morgen beweißt jemand wieder das Gegenteil.

IchoTolot
2017-10-15, 17:43:59
Es ist nicht nur das sehr gut multithreaded Gras in der Testszene wie man an den beiden Ergebnissen sehen kann. :rolleyes:

btw.
R5 1600 = 65W TDP
i5 8600K = 95W TDP

Schon lustig wie sich die Zeiten ändern. Plötzlich spielt der Stromverbrauch keine Rolle mehr. :whistle:

Jaja. Und die Realität sieht dann so aus:

PCGH Extreme Forum (http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/489612-core-i7-8700k-i5-8600k-und-i5-8400-im-test-intel-am-limit-coffee-lake-ist-da.html#post9081850)

https://lh3.googleusercontent.com/cR7-Or0jLoeZXlxYnX32yEqE5KIVvzOz9ojGo7NeBS2jG9WKYGIvl779LR9kNEAq09WKBW7k1DvxhhYtx5U6 HxLWEj0HiS6w7bk5Fha94i6dWn-gslduCIWHSf-8hwn75EznkpUS-uELhfc4DX8aPQ5tg5NBbOWj69kNtkFlzbFw7SYlLYT3XayFfMthB6znhQoRuMirKYtoQJHQPMYE7AGAT ojQMKfmLJNH11pOIuWImbxRQgPjJy-HYb5W4MIE9oY6PWt7ocEIroBlTUQiuKspbs0oWgBirhUtOb48dw766_u1zK2bZjAbREz_ihDw6PqfxEm Ou4eVRElhdmcVz5opW3jtYLAwEkrOrT0ejvNh7g-c35ZjnweXPwFZ72M5PDNm04s8u9lzv3b10-riaD6SPkijDLMK4vOPaoxsWjm5w_d-8RN95F1yqjIQ7_evxpXgQg7nEcs9hw3qc2O_HvVbEOlHHk-VHbjDzjYa9BG4uNOql_48CA1aDHafwXHX21HoH-q-cDAb9fXDhlnSM0ZtjMIf8xGp8aauZ6Vzy6cHLHubt9a5Apy4CYTjMijWwZrHyoi03uy0tFLBxiDnYjfG aDkW-fW8hy4bon6nKuQ=w1016-h2069-no

Najaaaa ... man weiss bei jedem Test niemals alle Details.

Wieso? Passt doch. Gegenüber dem 7600K hat der 7700K 31% mehr Frames. HT bringt eben schon was, sieht man auch bei BF1 sehr stark.

dargo
2017-10-15, 17:55:13
Welcher Vollhonk hat da wieder was getestet? :facepalm:

Ein R7 1800X kommt in Prime95 auf 112W.
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-11.html

Und ein R5 1600 non X soll ~130-140W verbrauchen. ;D ;D ;D

IchoTolot
2017-10-15, 17:56:01
Welcher Vollhonk hat da wieder was getestet? :facepalm:

Ein R7 1800X kommt in Prime95 auf 112W.
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-11.html

Und ein R5 1600 soll ~130-140W verbrauchen. ;D ;D ;D

Gesamtsystem wurde gemessen. Es hat nicht jeder die scheißteuren Gerätschaften von Igor. :rolleyes:

aufkrawall
2017-10-15, 18:01:54
Najaaaa ... man weiss bei jedem Test niemals alle Details. Heute ist man der Meinung, dass das ein unumstößliches Faktum ist und morgen beweißt jemand wieder das Gegenteil.
Ich zeig in meinen Test-Videos immer das Optionsmenü. Drum geb ich auch auf Tests von anderen ohne maximale Transparenz nicht viel. Behaupten kann man viel, und im Internet wird viel Müll behauptet oder Müll-Tests veröffentlicht.

gmb
2017-10-15, 18:03:00
Intel Coffee Lake: Core i5 8400/ i5 8600K Review: Faster Than Last-Gen i7?

https://youtu.be/9f5JQrnOwTE


Deswegen kommt AMD für mich nicht in Frage:


https://abload.de/img/1m6se4.png

https://abload.de/img/2bkstn.png



Die Multicore Nutzung wird in Zukunft sicherlich nicht schlechter,davon ab das die CPU's ohne SMT auch bei AC Unity Probleme haben,die Engine wird ja Ende des Monats wieder genutzt.


Das ist ein großer Lacher. In keinem Spiel ist der Unterschied von KBL 4C und CFL 6C so groß wie in Crysis 3 @Gras, schau dir den PCGH Test an. Das Spiel ist fast 5 jahre alt! Ständig dieses Geschwätz vom besseren Multicore scaling der Zukunft. Wenn es danach geht müssten heutzutage sämtliche Spiele besser skalieren als Crysis 3 @Gras.

IchoTolot
2017-10-15, 18:06:14
Ich zeig in meinen Test-Videos immer das Optionsmenü. Drum geb ich auch auf Tests von anderen ohne maximale Transparenz nicht viel. Behaupten kann man viel, und im Internet wird viel Müll behauptet oder Müll-Tests veröffentlicht.

So sehe ich das auch und mache es genauso. (y) Kann ja nicht so schwer sein, die Optionen zu zeigen. Nur dann kann man wirklich vergleichen.

w0mbat
2017-10-15, 18:18:54
Deswegen kommt AMD für mich nicht in Frage:

Weswegen jetzt? Das musst du schon mehr ausführen.

Wegen Far Cry Primal, ein Spiel dass nicht nur total gefloppt ist, sondern dessen Engine auch nicht gut mit mehr als 4 threads umgehen kann und trotzdem >80 FPS avg. auf dem Ryzen hat? Ohne RAM Optimierungen.

Oder wegen The Witcher 3, das auch nicht richtig mit mehr als 4 threads skaliert und in dem der unoptimierte Ryzen trotzdem >120 FPS avg. hat?

Oder verstehe ich dich falsch und du findest die Ergebnisse hier zu gut und willst lieber schlechte frametimes und Ruckler mit den 6C/6T CFL CPUs?

dargo
2017-10-15, 18:20:12
Gesamtsystem wurde gemessen. Es hat nicht jeder die scheißteuren Gerätschaften von Igor. :rolleyes:
Dann sag das doch gleich.

Mein Gesamtsystem liegt in Prime95 27.9(AVX) mit Small FFTs bei 119W. R5 1600 @Default mit 0,9375V SoC, DDR4-3200 mit optimierten Subtimings auf Asus Prime X370-Pro.

Gesamtsystem wurde gemessen. Es hat nicht jeder die scheißteuren Gerätschaften von Igor. :rolleyes:
Dann sag das doch gleich.

Mein Gesamtsystem liegt in Prime95 27.9(AVX) mit Small FFTs bei 119W hinter dem Netzteil. R5 1600 @Default mit 0,9375V SoC, DDR4-3200 mit optimierten Subtimings auf Asus Prime X370-Pro.

Deswegen kommt AMD für mich nicht in Frage:


https://abload.de/img/1m6se4.png

https://abload.de/img/2bkstn.png

Du meinst also du kannst das anhand von Software die weit vor Ryzen kam beurteilen? Wir schauen uns das nochmal bei Far Cry 5 an (kommt ja schon in ~4,5 Monaten). Zu Witcher 4 hört man leider noch nichts.

IchoTolot
2017-10-15, 18:23:32
Das sieht man im Screenshot. Hättest nur schauen müssen.

dargo
2017-10-15, 18:29:02
Was sieht man da? Ich sehe da beim Ryzen 131W. Zudem bist du seit dem Screenshot völlig am Thema vorbei. Hier gings nicht um einen i7-7700K (lief der überhaupt mit Default Settings? Die Angaben im Screen sind seltsam) sondern um den i5-8600K.

IchoTolot
2017-10-15, 18:31:04
Was sieht man da? Ich sehe da beim Ryzen 131W. Zudem bist du seit dem Screenshot völlig am Thema vorbei. Hier gings nicht um einen i7-7700K (lief der überhaupt mit Default Settings? Die Angaben im Screen sind seltsam) sondern um den i5-8600K.

Ach komm und warum postest du dann den Stromverbrauch vom Ryzen 1600? :rolleyes: Jetzt willste dich wieder rauswinden.

dargo
2017-10-15, 18:32:39
Ach komm und warum postest du dann den Stromverbrauch vom Ryzen 1600?
Warum nicht? Jetzt bist du dran mit einem i5-8600K System, die Vorlage hast du bereits.

Ex3cut3r
2017-10-15, 18:32:43
Du meinst also du kannst das anhand von Software die weit vor Ryzen kam beurteilen? Wir schauen uns das nochmal bei Far Cry 5 an (kommt ja schon in ~4,5 Monaten). Zu Witcher 4 hört man leider noch nichts.

Komisch, weiter oben mit Crysis war alles toll, weil Ryzen da besser als CL performt? Aber warte mal, das kam auch weit vor Ryzen raus, deine Logik muss man nicht verstehen. :rolleyes:

IchoTolot
2017-10-15, 18:35:29
Oder wegen The Witcher 3, das auch nicht richtig mit mehr als 4 threads skaliert und in dem der unoptimierte Ryzen trotzdem >120 FPS avg. hat?


Und warum ist dann der 8700K so deutlich viel schneller? :rolleyes:

https://lh3.googleusercontent.com/M-S1hVTdOAYXwWvWk2XweYarcql-gpV_NgYynuWu0XiLsZHNrJIQS3SQckdSlqj8RkAEC9CO3Sgznwg9FjlPD3LSQXK7SqRHKtLXxfmWN85k 7hRhQrzU-TuYA8ee355FBF7QuOnkI383eDgET_l-4KRoMJbgILEPKGbTjCbI9Mi9pKGdwKh41xykS6spuJiHhr2xl6m3xOrTgdI5O_Lw7cgV8JmfOaPzcNNl 3eFYypyKCfp3vM1ERaLOBzKgTgsEtj6mLbBR0Z2FXyGv5nAnHVjJ18Vt8TOIGX4jkXVfhDkR8bCgZKSb ZdHV-060rNLLjWo5nXwk05nVd8o0pt7P25GTP-ei4xp0OeCXjQXjkKU4fU7FQSqIXffsd1FRNhlmkKwT7y6sPdYbSwSKva6fklQi0CvTu5DOHptecCUugH E100vo37f0pdvllRKYPDIIdGrSqF4lKKiBx1EME8TkO3mEPGSoGXRGpOvvdu0rl0f_JqKZKAKfJhICGT FegbzaNEhsB1TdQGU4LksDpVtd12yOMMTyX1G0QFz04_sIxYn_WChdbGIXYBoADksExgTNFmPbs8aGnL iTUxRXFLDCQX3C-RXKY-oEWM8JWKQh1Y0=w891-h989-no

aufkrawall
2017-10-15, 18:37:15
Die bisher nach Ryzen erschienenen Titel legen jedenfalls nicht den Schluss einer sich immer weiter verbessernden Situation nahe.

Ex3cut3r
2017-10-15, 18:41:17
Die bisher nach Ryzen erschienenen Titel legen jedenfalls nicht den Schluss einer sich immer weiter verbessernden Situation nahe.

Welches wirtschaftlich orientiertes Unternehmen wie z.B. EA wurde auch unnötig Geld Reserven dafür rauspumpen wo von vlt. 5% Ryzen Nutzer etwas haben, so zu denken ist einfach nur Naiv. Wenn Ryzen wirklich spezielle "Liebe" braucht, ist die Architektur einfach ein Fail für mich.

Chrisch
2017-10-15, 18:54:20
Warum nicht? Jetzt bist du dran mit einem i5-8600K System, die Vorlage hast du bereits.
8600K @ stock (allcore Turbo @ 4.1GHz), 16GB DDR4-3200, GTX 1070, 2 SSDs, 5 120er Lüfter und eine Laing D5

Prime 27.9 (AVX) smallFFts (VCore stock) = 130W
Prime 27.9 (AVX) smallFFts (Offset -100mV) = 111W

Dein Ryzen hast du aber untervoltet, oder?

dargo
2017-10-15, 18:57:05
Komisch, weiter oben mit Crysis war alles toll, weil Ryzen da besser als CL performt? Aber warte mal, das kam auch weit vor Ryzen raus, deine Logik muss man nicht verstehen. :rolleyes:
Das du das nicht verstehst verwundert mich nicht.

8600K @ stock (allcore Turbo @ 4.1GHz), 16GB DDR4-3200, GTX 1070, 2 SSDs, 5 120er Lüfter und eine Laing D5

Prime 27.9 (AVX) smallFFts = 130W

Danke. :)


Dein Ryzen hast du aber untervoltet, oder?
Nein... alles Default. Mit Undervolting komme ich unter 100W.

Welches wirtschaftlich orientiertes Unternehmen wie z.B. EA wurde auch unnötig Geld Reserven dafür rauspumpen wo von vlt. 5% Ryzen Nutzer etwas haben, so zu denken ist einfach nur Naiv. Wenn Ryzen wirklich spezielle "Liebe" braucht, ist die Architektur einfach ein Fail für mich.
OMG. :facepalm:

dargo
2017-10-15, 18:58:06
doppelpost

Ex3cut3r
2017-10-15, 18:58:12
Das du das nicht verstehst verwundert mich nicht.

Natürlich, wenn man dann keine Argumente hat, kommt dann die persönliche "Ich bin ja so dumm Schiene" Ein typischer Dargo. :freak:

Unnötig hier zu diskutieren. Verstehe gar nicht, wie Krawall das aushält.

"Wechselt von einen Haswell i7 Xeon @ 3,7 ghz auf Ryzen 5 @ Default Takt. Das allein, sagt schon alles..." :facepalm:

Ph0b0ss
2017-10-15, 19:27:59
Wir brauchen dringend mal einen Test, ähnlich wie die Tests von DigitalFoundry, aber am besten 720p, wo folgendes getestet wird:

Ryzen 5 1600(x) @4Ghz mit DDR4-3466 CL14
Ryzen 7 1x00(x) @4Ghz mit DDR4-3466 CL14
8700K @5Ghz Cache @4,5Ghz mit DDR4-3800 CL16 (oder DDR4-4000 CL17)
i7-7800X @5Ghz Mesh @3,2Ghz mit DDR4-3800 CL16
i7-7820x @5Ghz Mesh @3,2Ghz mit DDR4-3800 CL16

Dazu müssen bei allen CPUs auch zwingend die Subtimings optimiert werden, da dies zumindest bei Ryzen sowie auch bei Skylake-X (siehe: https://imgur.com/a/XU6na) in Spielen deutliche Leistungssteigerung bringt.

w0mbat
2017-10-15, 19:28:56
Und warum ist dann der 8700K so deutlich viel schneller? :rolleyes:

Doppelt so viele threads und 200Mhz mehr Takt = gerade einmal 10% mehr Performance. Das ist bei dir "deutlich viel schneller"? ;D

Es tut mir ja echt leid, aber für dich wird alles gleich zur Superlative, es nimmt dich doch niemand mehr ernst hier. Komm mal runter...

IchoTolot
2017-10-15, 19:36:53
Du sagst doch selber, dass Witcher 3 nicht stark mit Threads skaliert? Nun ist das aber dein Argument? :freak:

Hier sind es zwischen Ryzen 1600 4 Ghz und 8600 Stock mal eben satte 42% für den 8600K und Ryzen hat hier doppelt so viele Threads. ;) :rolleyes:

Und deine persönliche Schiene ist einfach immer wieder entlarvend, wenn die Argumente ausgehen. :rolleyes:

https://lh3.googleusercontent.com/2pjQayKDFSiqhaxjPiA1L-xN2jKQDZ-3vU3OhTNEIgiIBU1JJWfFYOpRsNVqOlDppcprcLVLtlvFC9H6HuIesF03plO9nkpFOyg3EEg6TF2GcnI GrarcGdmAt98ijJURgg6JKCNdfCKNSzFaUg6l8Ga16tv4zMw4ro0lHM6LkwQXuujuyBYvZklDUdiCxhP _Cv4xxHgeeXi-TUjdyVoQQhZgV_wYQ5yPqqcsGDR4BKndPo1_ZBU80d9xtlKFRWsyhAbHXDK8m1ZtNoDFQmQn-l0nXMO8eLJW6cy2UkylWDkhfocmfid85AvuudMf6SRpl9sBNJ6LXVly5XE3bCK04jhpJIcfKCWo3QllE 2j7kUZPfLpkzduYGJ9xBOV8BCeR-gFb_vI69Z5T650obHMadQRcuw6VyCoOkaJ3T4xNh0H4EaOE13IIPmOOcEtOfQAbLQWYIM3H2ee6wnwE7 g6lXXpit3NTE8u3CTAZxlRBovh1OHy7r0LDVmTug7Uxnhc7ntCCOQaiM5t9dk_Hqup6AqECkpd_DJBrm 9IX4DUQx-Nqs-m1E7EiubmIotgiEvl-035MIQ1aEFJDV1e0sBaAicSBhIItLIXeVDzCgQumv6c=w1427-h263-no

Wir brauchen dringend mal einen Test, ähnlich wie die Tests von DigitalFoundry, aber am besten 720p

Wenn die Grafikkarte stark genug ist, kann man auch 1080p machen. Wenn die Ergebnisse stark variieren, geht das schon in Ordnung. Bei Digital Foundry machen die das schon ordentlich und sorgen für ein CPU-Limit.

(del)
2017-10-15, 19:40:24
Wenn Ryzen wirklich spezielle "Liebe" braucht, ist die Architektur einfach ein Fail für mich.
Also bitte....
Wieso wurde dann über die Jahre so viel für die Core Architektur optimiert?
Dann könnte man genau so sagen die Architektur sei ein Fail wenn man so viel optimieren muss.
Ich bin von einem Intel 6800k auf einen Ryzen 1950X gewechselt und bereue es kein bisschen da ich sehr viel rendere. Aber auch bei Spielen läuft es völlig rund, vor allem mit schnellem Speicher und guten Subtimings.

w0mbat
2017-10-15, 19:50:50
Du sagst doch selber, dass Witcher 3 nicht stark mit Threads skaliert? Nun ist das aber dein Argument? :freak:

HÄ?! Du machst echt keinen Sinn mehr, sry aber was ist jetzt genau dein Punkt?

Nochmal für dich:

Es geht um die Aussage, dass man anhand von The Witcher 3 die "Zukunftsfähigkeit" einer CPU einschätzen kann. Im speziellen ging es hier um i5-8400 vs. R5 1600(X). Beide CPUs bringen hier problemlos spielbare FPS, aber der i5 ist ein gutes Stück vor dem Ryzen.

Das liegt u.a. daran, dass The Witcher 3 zwar mit mehreren Kernen umgehen kann, aber von mehr als 6 threads nicht wirklich profitiert. Der Ryzen kann seine 12 threads hier also nicht ausspielen.

Dann zeigst du einen Benchmark, in den ein i7-8700K gerade mal 10% schneller als eine i5-8600K ist, und das mit mehr Takt und doppelt so vielen threads. Damit hast du meine Aussage, dass The Witcher 3 über 6 threads nicht gut skaliert also belegt.

Wie kommst du auf die Idee, dass ich mein "Argument" jetzt geändert habe? Du belegst meine Aussagen doch.

Ich glaube du hast dich einfach verhaspelt. Lese doch bitte noch eimal was hier von mir, dir und den anderen geschrieben wurde :smile:

dargo
2017-10-15, 20:07:45
Also bitte....
Wieso wurde dann über die Jahre so viel für die Core Architektur optimiert?
Dann könnte man genau so sagen die Architektur sei ein Fail wenn man so viel optimieren muss.

Da kannste auch mit ner Wand reden.

Das Statement mancher Entwickler hat er wohl schon vergessen wo es darum ging, dass man tausende Stunden in die Optimierung von Intel CPUs gesteckt und bei Ryzen wenig Zeit investiert hatte.

“We’ve invested thousands of hours tuning Intel CPUs to get every last bit of performance out of them, but comparatively little time so far on Ryzen.”

http://www.planet3dnow.de/cms/31035-amd-ryzen-patch-beschleunigt-ashes-of-singularity/

Weil keine Hardware dieser Welt eine Optimierung braucht, es läuft alles sofort optimal... vorallem bei Intel. :rolleyes:

Atma
2017-10-15, 20:19:20
Da kannste auch mit ner Wand reden.

Das Statement mancher Entwickler hat er wohl schon vergessen wo es darum ging, dass man tausende Stunden in die Optimierung von Intel CPUs gesteckt und bei Ryzen wenig Zeit investiert hatte.



http://www.planet3dnow.de/cms/31035-amd-ryzen-patch-beschleunigt-ashes-of-singularity/

Weil keine Hardware dieser Welt eine Optimierung braucht, es läuft alles sofort optimal... vorallem bei Intel. :rolleyes:
Diese Aussage ist ausgerechnet von den AoS Entwicklern natürlich besonders neutral und glaubwürdig. Wenn die Core Architektur so beschissen und stark optimierungsbedürftig wäre, hätte das schon längst jemand hinter vorgehaltener Hand ausgeplaudert.

Schnoesel
2017-10-15, 20:23:36
Ich denke dass sagte einem der gesunde Menschenverstand, dass mittlerweile bei der 7. oder 8. Iterationen einer Architektur die Optimierungen ausgereizt sind. Man braucht doch nicht darüber zu diskutieren, auf welche CPUs die Entwickler die letzten 5 Jahre optimiert haben. Ein kleiner Tip. Ryzen wars nicht. Und auch nicht Skylake-X denn der ist kaum schneller als Ryzen. Wenn Mesh aber die Zukunft ist werden die Entwickler nicht drum rum kommen auch dafür zu optimieren.

Screemer
2017-10-15, 20:24:29
Mal von optimierten compilern völlig abgesehen.

w0mbat
2017-10-15, 20:24:43
Diese Aussage ist ausgerechnet von den AoS Entwicklern natürlich besonders neutral und glaubwürdig. Wenn die Core Architektur so beschissen und stark optimierungsbedürftig wäre, hätte das schon längst jemand hinter vorgehaltener Hand ausgeplaudert.

Du hast die Aussage nicht verstanden. Niemand sagt, dass Core "beschissen", sondern nur, dass für Core schon lange und viel optimiert wurde.

Wieso werden hier absichtlich Aussagen negative ausgelegt? Oder denkst du selber so?

aufkrawall
2017-10-15, 20:28:03
Müßige Diskussion. Es erscheinen weiterhin Titel, die nicht gut auf Ryzen optimiert sind, während das für Ringbus-Core nicht der Fall ist. eod.

IchoTolot
2017-10-15, 20:31:54
Es geht um die Aussage, dass man anhand von The Witcher 3 die "Zukunftsfähigkeit" einer CPU einschätzen kann.


Nein, du hast einfach nur nicht verstanden was ich geschrieben habe. ;) Das "deutlich schneller" bezog ich auch auf den 7700K und 8700K. Da sind es 24% Unterschied. Ryzen beachte ich gar nicht bei Threadskalierung weil er ohnehin deutlich langsamer ist, egal wieviele Threads. ;)
Die Zukunftsfähigkeit einer CPU kann man nie an einem Spiel ableiten oder einer Auflösung. Man kann immer nur einen Vergleich verschiedener CPUs in diesem Spiel herstellen, nicht mehr.

Schnoesel
2017-10-15, 20:32:16
Spiele die beschissen mit MT skalieren wird es immer geben keine Frage. Aktuelles Beispiel ist hier Shadows of War mit kümmerlichen 3 Threads. Da bin ich fast gewillt John Carmack zuzustimmen:

Carmack: Entwickler sind faul und warten nur auf immer schnellere Hardware

http://www.pcgameshardware.de/Virtual-Reality-Hardware-258542/News/Carmack-Entwickler-sind-faul-und-warten-nur-auf-immer-schnellere-Hardware-1241147/

IchoTolot
2017-10-15, 20:34:46
Wenn das Spiel damit ausreichend läuft, wozu sich die Arbeit machen..? Schau dir Forza 7 an. :freak: Ich schaue immer wieder bei GameGPU rein ob die da nun mal endlich auch einen Benchmark gemacht haben, aber verstehe auch, wenn es was länger dauert oder keinen Sinn macht. :freak: Bei Ryzen sind da 2 Kerne auf 100% und der Rest dümpelt rum. Und in der Demo hatte ich mit einem Kern auf 100% absolut flüssige Bildraten in 1080p. :ulol:

aufkrawall
2017-10-15, 20:36:58
Vor lauter Threads sollte halt die Effizienz nicht auf der Strecke bleiben. Die Skalierung in RotTR DX12 ist überhaupt nicht beeindruckend, wenn man die fps mit Mirror's Edge Catalyst DX11 vergleicht.

dargo
2017-10-15, 20:44:49
Diese Aussage ist ausgerechnet von den AoS Entwicklern natürlich besonders neutral und glaubwürdig.
War klar, dass das wieder kommt.

Was passt dir bei Dota 2 nicht?
https://hardforum.com/threads/dota-2-update-increases-performance-for-ryzen.1927957/
https://www.phoronix.com/forums/forum/software/linux-gaming/940070-dota-2-receives-optimization-for-amd-ryzen-cpus/page2

aufkrawall
2017-10-15, 20:46:59
Dota 2 war doch völlig kaputt. Gehts jetzt bei der Bewertung von Optimierungen nur noch um die relative Steigerung, und die absolute Leistung ist völlig egal? :rolleyes:

dargo
2017-10-15, 20:55:21
Es geht darum, dass einzelne Engines mit einer Ryzen CPU ohne Patch oder noch besser von Anfang an einer Optimierung nicht die Bestleistung bringen. :rolleyes:

aufkrawall
2017-10-15, 20:59:03
Das hatte bei Dota afair rein mit der Thread-Zuweisung und nichts mit der Architektur an sich zu tun.

dargo
2017-10-15, 21:05:28
Und wen interessiert das? Es zählt nur die Mehrleistung. Du hast offenbar immer noch nicht begriffen, dass die Patches nur Pflaster sind. Mit einer Optimierung von Anfang an für Spiel X bzw. Engine X hat das nicht viel zu tun. In zukünftige Bethesda Titel sollten auch Ryzen Optimierungen hineinfließen. Mal davon ab... welches Spiel mit einer modernen Engine läuft auf Ryzen schlecht?

Edit:
Bei Far Cry Primal ist das SMT bei Ryzen auch weiterhin kaputt. Wäre das gefixt würde er nicht ganz so schlecht darstehen. Das macht sich dann besonders bemerkbar wenn man einen 6C/12T Ryzen gegenüber einem 6C/6T i5-8xxx gegenüber stellt.

IchoTolot
2017-10-15, 21:13:11
Destiny 2.

Ryzen 1700 kann grade eben die 60 FPS halten. Bin gespannt wie Coffee Lake die Ryzen-CPUs deklassieren wird in den Reviews, wenn Destiny 2 raus ist. :D

https://www.gamersnexus.net/images/media/2017/games/destiny2/cpu/destiny2-cpu-bench-1080p-highest.png

aufkrawall
2017-10-15, 21:14:08
@dargo: Irgendwas sagt mir, dass du "moderne Engine" sehr dehnbar definieren würdest. Der Scheiß reicht hier jetzt auch langsam, Benchmarks kann sich jeder selbst anschauen und dann seine Schlüsse ziehen. Deine interessieren mich btw. 0.

Herr Doktor Klöbner
2017-10-15, 22:34:46
Ich frage mich warum Intel Millionen für Ihre Marketing-Abteilung zahlt wenn einige Forenmitglieder den Job auch umsonst machen, oder was motiviert den alten Haluter ?

Hakim
2017-10-15, 23:01:20
Das betrifft aber beide Seiten und gibts nicht nur bei PC-Hardware exklusiv.

w0mbat
2017-10-15, 23:17:12
IchoTolot freut sich, dass in 2017 ein AAA Spiel released wird, das nur unwesentlich von mehr als 2 Kernen profitiert. Und anstatt die devs zu flamen, was für eine Softwarescheiße dort gebaut wird, freut er sich. Weil Intel mehr davon profitiert.

Wie absurd das ganze ist. Wenn es nicht so traurig wäre, müsste man glatt lachen.

IchoTolot
2017-10-15, 23:23:38
;D Was legst du mir da wieder in den Mund? Meinst du Forza 7? Das ist doch einfach nur kaputt. :freak:

w0mbat
2017-10-15, 23:25:58
Ne, deine Destiny 2 Benchmarks. Du bist schon gespannt wie Intel hier AMD fertig machen wird. Weil ein i3 mit 2 Kernen + HT nur geringfügig hinter einem i5 liegt. Das Spiel steck im Jahr 2007 fest und du feierst es.

Bin gespannt wie Coffee Lake die Ryzen-CPUs deklassieren wird

Ich leg dir hier nichts in den Mund.

IchoTolot
2017-10-15, 23:35:19
Nein du begreifst nicht worauf es ankommt. Destiny läuft super und braucht nur wenig Ressourcen, was kann es denn besseres geben? Und natürlich wird Coffee Lake hier Ryzen deklassieren.

Du freust dich wenn Spiele viele Kerne brauchen damit die vernünftig laufen. Wie widersinnig ist das denn? :freak: Destiny zeigt wie Optimierung funktioniert.

w0mbat
2017-10-15, 23:44:08
Destiny ist das Gegenteil von gut optimiert, weil ein R7 1700 OC, der ca. 4x so viel Power hat wie ein i3, langsamer ist. Wieso ist das so? Weil Destiny nicht gut mit vielen Kernen/Threads umgehen kann. Alleine dass der i3 so nahe am i7 ist sollte dich stutzig machen. Aber da es dir nur darum geht, dass ein Spiel möglichst schlecht optimiert ist, um Intel gut dastehen zu lassen, übersiehst du das natürlich.

Das ist ein Fakt, da kannst du so viel drehen wie du willst.

Chrisch
2017-10-15, 23:48:32
Und was ist jetzt schlecht daran das ein Spiel ordentlich mit wenig Cores umgehen kann? Wenn nicht mehr nötig ist, ist doch toll. Ich weiß, schlecht für AMD weil die nur über die Kerne können aber was solls?

IchoTolot
2017-10-15, 23:48:56
@wombat

Du willst es nicht verstehen. :rolleyes: Für dich ist alles was wenige Threads braucht schlecht optimiert.

Ist das so schwer zu begreifen, dass wenn ein Spiel nur wenig Ressourcen braucht, das eine gute Sache ist? :freak: Und wenn der Ryzen 1700 so schlecht abschneidet, dann ist das Problem wohl eher beim Ryzen zu suchen in seiner Performance pro Thread und nicht beim Spiel. Du merkst aber auch gar nicht, wie falsch deine Einstellung ist. Willst du wirklich Spiele die drölf Threads brauchen, damit sie vernünftig laufen? :facepalm:

@Chrisch
Du hast es verstanden. :)

(del)
2017-10-15, 23:57:18
Macht ihr es euch nicht ein bisschen zu einfach?
Wie lange gibt es die Core Architektur schon? 11 Jahre?
In den Jahren wurde so viel Softwareseitig optimiert. Da ist es doch kein Wunder das AMD mit ihrer neuen Architektur nicht überall mithalten kann.
Gebt der Sache doch mal etwas Zeit bevor man voreilige Schlüsse zieht.
Bei Benchmarks wie Cinebench sieht man doch das sie Single Core IPC fast genau gleich auf liegt bei selben Takt.
Die theoretische Leistung ist also da, es muss nur noch die Software entsprechend angepasst werden.

Chrisch
2017-10-16, 00:02:35
"Core" ist keine Architektur, Core ist der Name und nicht mehr oder weniger.

Btw es ist immer wieder sehr auffällig wie die selben AMDler in sämtlichen Intel Threads versuchen die Leute davon zu überzeugen wie gut Ryzen und wie schlecht Intel doch ist. Komm mir vor wie bei den Zeugen Jehovas.

maguumo
2017-10-16, 00:04:29
Was heißt ordentlich mit wenig Cores? Es braucht halt nicht viel Leistung. Vernünftig mit mehr Threads zu skalieren wäre ja nicht nur für Ryzen super sondern auch für den ganzen ULP Kram in Notebooks. Gut optimiert steht doch nicht nur für "läuft auf jeder Gurke" sondern heißt auch das es alle vorhandenen Ressourcen nutzt.

aufkrawall
2017-10-16, 00:07:16
Btw es ist immer wieder sehr auffällig wie die selben AMDler in sämtlichen Intel Threads versuchen die Leute davon zu überzeugen wie gut Ryzen und wie schlecht Intel doch ist. Komm mir vor wie bei den Zeugen Jehovas.
Nur kommt der Zwang dazu nicht von außen, sondern von innen. :redface:

IchoTolot
2017-10-16, 00:11:32
Was heißt ordentlich mit wenig Cores? Es braucht halt nicht viel Leistung. Vernünftig mit mehr Threads zu skalieren wäre ja nicht nur für Ryzen super sondern auch für den ganzen ULP Kram in Notebooks. Gut optimiert steht doch nicht nur für "läuft auf jeder Gurke" sondern heißt auch das es alle vorhandenen Ressourcen nutzt.

Optimierung ist in sich schon eine Sache des Standpunktes. Wenn ein Spiel wenig Ressourcen braucht und auch auf kleinen CPUs sehr gut läuft, dann ist das Optimierung in unser aller Sinne und im Sinne des Entwicklers weil er so viele Kunden anspricht. Und genau das hat man bei Destiny 2 offenbar goldrichtig gemacht.

Natürlich wollen das manche nicht hören weil ihre Investition in die Zukunft sich dann als Seifenblase herausstellt, aber so ist das eben. :rolleyes:

maguumo
2017-10-16, 00:22:20
Im Sinne des Kunden wäre es wenn alle vorhandenen Ressourcen genutzt werden. Das Beispiel der Notebook CPUs hatte ich schon gebracht. Mit meinem Haswell Xeon würde ich bei vernünftigem Multicore Support auch mehr Leistung in dem Spiel sehen. Wenn man sich die Lows anschaut würde das wohl selbst den Coffeelakes zugute kommen.

(del)
2017-10-16, 00:24:22
"Core" ist keine Architektur, Core ist der Name und nicht mehr oder weniger.
Oh wirklich?
https://de.wikipedia.org/wiki/Intel-Core-Mikroarchitektur
https://en.wikipedia.org/wiki/Intel_Core_(microarchitecture)


Btw es ist immer wieder sehr auffällig wie die selben AMDler in sämtlichen Intel Threads versuchen die Leute davon zu überzeugen wie gut Ryzen und wie schlecht Intel doch ist. Komm mir vor wie bei den Zeugen Jehovas.
Ich habe nicht gesehen das hier etwas schlecht geredet wurde.
Es ist ein simpler Fakt das die Core Architektur besser optimiert ist da es mehr als genug Zeit gab diese auch auf Software-Ebene zu optimieren.
Zen ist neu und braucht halt entsprechende Optimierung.

Screemer
2017-10-16, 00:27:19
Als würde einer sagen Coffee Lake wäre scheiße. Es geht um Relation, Gründe und Schwächen. Die gibt es hüben wie drüben. Das sollte man auch mal einsehen.

Ex3cut3r
2017-10-16, 00:32:26
Zen ist neu und braucht halt entsprechende Optimierung.

Die es aber nie geben wird, es sei den AMD hat einen Publisher mit Geld zugeschissen, wie z.B. Bethesda obwohl in Evil Within 2 hats auch nicht geklappt, warum auch immer.

Und warum? Weil AMD bzw. Ryzen hat so einen winzigen Marktanteil, dass kein Publisher der Welt da extra Arbeit investiert die auch noch viel Geld kostet. Vlt. sieht es besser aus, wenn Ryzen 3 2022?! auf den Markt ist und die Ryzen Architektur weiter verbreitet ist, als das Anno 2017 der Stand ist.

Schnoesel
2017-10-16, 00:40:51
Ich weiß, schlecht für AMD weil die nur über die Kerne können aber was solls?

Ich glaube du vergisst deine "Kollegen" die sich nen Skylake-X gekauft haben. Die haben auch unter Gurkensoftware zu leiden, denn deren ST Leistung ist in Spielen eher auf Ryzen Niveau, bzw. leiden ist zu hart es liegt einfach Potential brach, was einfach Schade ist. Dabei habens zu Release noch getönt:

Destiny 2 "will take advantage of all the cores in your CPU."

https://www.pcgamesn.com/intel/destiny-2-cpu-optimisation-fail

Zu gut :biggrin:

wie z.B. Bethesda obwohl in Evil Within 2 hats auch nicht geklappt, warum auch immer.

Was hat da nicht geklappt?

IchoTolot
2017-10-16, 00:46:16
Sie haben sich halt an den 2-4 Kernen orientiert welche der Großteil aller Leute hat. :D Und die werden auch genutzt.

Schnoesel
2017-10-16, 00:49:42
Die CPU spielt doch bei dem Game absolut keine Rolle, so wie es sein sollte.

https://s1.postimg.org/1avv68hftr/image.jpg

bzw. skaliert der sehr gut über Threads:

https://s1.postimg.org/5jb2g2jgzz/image.jpg

Menace
2017-10-16, 06:47:15
Gute Software profitiert von beiden (Taktzahl oder Kerne). Professionelle Software zeigt zum Teil, wie das geht. :rolleyes:

Gerade bei geizhals.at gesucht. Die Prozessoren sind ja nicht mal kurzfristig lieferbar. Gibt es dazu mal etwas neues?

Sven77
2017-10-16, 07:39:42
Professionelle Software zeigt zum Teil, wie das geht. :rolleyes:

Tut sie das? Ich hab da eher die gegenteilige Erfahrung gemacht...

Rancor
2017-10-16, 08:02:19
Also ich weiss nicht was daran so schwer einzusehen ist, das CFL einfach die bessere Gaming CPU ist. Der 8700k ist von keiner AMD CPU zu schlagen.

Lowkey
2017-10-16, 08:05:24
Doch ... AMD schlägt den 8700k ins Sachen Verfügbarkeit und Preis :>

Menace
2017-10-16, 10:00:56
Tut sie das? Ich hab da eher die gegenteilige Erfahrung gemacht...

DXO und C1 machen das. Man kann dazu noch OpenCl nutzen. Somit gibt es voneinander unabhängige Möglichkeiten seinen Arbeitsgang zu beschleunigen.
Verschiedene Videokonvertierer haben auch die Möglichkeit Viele Kerne oder wenig Kerne und/oder Hardware-Kodierung zu benutzen.
Auch IMatch (DAM-Software) kann dementsprechend konfiguriert werden.

Der Anstieg der Anzahl der Kerne kommt jetzt nicht wirklich überraschend. Diese Entwicklung ist seit Jahren absehbar.

Also gibt es noch keinen fixen Liefertermin. Haben andere Länder auch das Problem?

Rancor
2017-10-16, 10:09:29
Die es aber nie geben wird, es sei den AMD hat einen Publisher mit Geld zugeschissen, wie z.B. Bethesda obwohl in Evil Within 2 hats auch nicht geklappt, warum auch immer.

Und warum? Weil AMD bzw. Ryzen hat so einen winzigen Marktanteil, dass kein Publisher der Welt da extra Arbeit investiert die auch noch viel Geld kostet. Vlt. sieht es besser aus, wenn Ryzen 3 2022?! auf den Markt ist und die Ryzen Architektur weiter verbreitet ist, als das Anno 2017 der Stand ist.

Es besteht durchaus die Möglichkeit das AMD wieder den Anschluss verliert. Schaffen Sie es mit Pinnacle Ridge nicht zu Coffee Lake aufzuschließen, dann wird der Marktanteil wieder sinken. Was wiederrum dazu führt, das kaum Optimierungen vorgenommen werden, was wieder dazu führt das der Marktanteil sinkt.. usw..

Dasselbe lässt sich übrigens auch auf den GPU Bereich übertragen. Wenn AMD in Wolfenstein 2 nicht abliefert und zeigt wie stark sie wirklich im LL Bereich sein können, dann wird das nicht gut ausgehen für VEGA.

Was wiederrum nur schlecht für alle sein kann.

Ich kann ja irgendwo verstehen, wenn man FAN von etwas ist. Aber warum man sich als Intel FAN den Untergang von AMD wünscht und die Produkte schlechter redet als sie sind, verstehe ich nicht. Als Intel FAN hätte man sich für AMD freuen sollen, den letzendlich bedeutet Konkurrenz sinkende Preise... und dagegen kann ja wohl kaum einer was haben :D

Lowkey
2017-10-16, 10:25:02
Was ich kaufe ist immer das Richtige ;)


AMD wird mit Ryzen 2 als Neuauflage von Ryzen 1 ca. 15% Leistung dazu gewinnen. Daran kann man schon heute ausrechnen, wie schnell Ryzen gegen CFL dasteht. Die 15% bestehen aus dem verbesserten Speichersupport (neue Mainboards werden bessere Signale bieten), aus der 12nm Fertigung und durch die Verbesserungen bei der Fertigung samt Fehlerbereinigung.

Rancor
2017-10-16, 10:31:15
Was ich kaufe ist immer das Richtige ;)


AMD wird mit Ryzen 2 als Neuauflage von Ryzen 1 ca. 15% Leistung dazu gewinnen. Daran kann man schon heute ausrechnen, wie schnell Ryzen gegen CFL dasteht. Die 15% bestehen aus dem verbesserten Speichersupport (neue Mainboards werden bessere Signale bieten), aus der 12nm Fertigung und durch die Verbesserungen bei der Fertigung samt Fehlerbereinigung.

Da man überhaupt noch keine Infos hat, was bei PR geändert wird, kann man das so nicht sagen.

Für PR muss dringend mehr Takt her. Es brauchen keine 5 GHZ sein. Aber die 4 GHZ Wall ist einfach das Hemmnis momentan bzw. der Grund warum sie den Anschluss verlieren.

w0mbat
2017-10-16, 11:31:02
Für PR muss dringend mehr Takt her. Es brauchen keine 5 GHZ sein. Aber die 4 GHZ Wall ist einfach das Hemmnis momentan bzw. der Grund warum sie den Anschluss verlieren.

Naja, es ist eher die Kombination aus etwas weniger IPC und etwas weniger Takt. Mit gleichem IPC würden 4GHz gut reichen. Man wäre ca. 20% hinter einem 4,8GHz Intel Chip, aber mehr Kerne und bessere Effizienz würden das raus hauen. Zumal Takt ja nicht 1:1 skaliert, 20% mehr Takt wären in Realität wohl eher um die 15%+ mehr Leistung.

Klar, 4,5GHz würde Ryzen auch helfen, aber bitte nicht auf Kosten der überlegenen Effizienz. Ich hätte bei Pinnacle Ridge lieber 5%+ mehr IPC und 4,2GHz (im Vergleich zu 3,9GHz aktuell) als gleiche IPC Leistung und dafür 4,6GHz.

Hakim
2017-10-16, 12:27:38
Ich hätte gedacht das man nur grobe Fehler ausmerzt und in Richtung mehr Takt geht beim PR (bessere Fertigung, besseres Stepping), IPC kommt doch eher mit Ryzen 2. Aber mal abwarten.

Daredevil
2017-10-16, 12:38:22
Klar, 4,5GHz würde Ryzen auch helfen, aber bitte nicht auf Kosten der überlegenen Effizienz.
Wo hast du eigentlich diese "überlegene Effizienz" her?

IchoTolot
2017-10-16, 12:40:04
Die hat Ryzen nur bei 3-3,2 Ghz. Ab 3.6 Ghz spätestens wirds gar nicht mehr effizient. Wenn die CPU nur maximal 4 Ghz taktet ist auch klar, dass der Sweetspot bei der Effizienz weit darunter liegen muss.

http://www.planet3dnow.de/cms/30520-ryzen-7-1800x-teil-2/subpage-taktskalierung-die-suche-nach-dem-sweetspot/

Daredevil
2017-10-16, 12:47:21
Vorallem hat Ryzen die auch nur im Vergleich bei vielen Kernen. Ein Threadripper ist auch deutlich effizienter als ein 8 Kerner bei Anwendungen, aber trotzdem kauft man sich deswegen keinen Threadripper, weil es beim Gaming nicht zündet.

Wenn, dann sollte man schon 6/12 mit 6/12 vergleichen.

Lehdro
2017-10-16, 13:15:03
Wo hast du eigentlich diese "überlegene Effizienz" her?
http://www.tomshardware.de/amd-test-ryzen-benchmarks-temperatures,testberichte-242345-9.html

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9FLzcvNjY1MzU5L29yaWdpbmFsLzIzLVBvd2VyLUNv bnN1bXB0aW9uLUdhbWluZy5wbmc=

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9FLzUvNjY1MzU3L29yaWdpbmFsLzIyLVBvd2VyLUNv bnN1bXB0aW9uLUxpZ2h0LVdvcmtsb2FkLnBuZw==

Inb4
Ist aber sicher wieder nur Quatsch was da gemessen wurde und Intel sowieso viel schneller blablabla.

Daredevil
2017-10-16, 13:19:08
Und wo ist da Coffee Lake bei? Gehts im Coffee Lake Thread etwa um Skylake? :usad:

MiamiNice
2017-10-16, 13:20:32
Quatsch ist das nicht interessiert halt nur einen kleineren Teil der Käufer als das was hinter raus kommt.

YfOrU
2017-10-16, 13:28:54
Ist aber sicher wieder nur Quatsch was da gemessen wurde und Intel sowieso viel schneller blablabla.

Es ist Quatsch die Leistungsaufnahme ohne die Performance zu betrachten.

Gleiche Quelle und mit CFL: AutoCAD
http://www.tomshardware.com/reviews/intel-coffee-lake-i7-8700k-cpu,5252-12.html
http://www.tomshardware.com/reviews/intel-coffee-lake-i7-8700k-cpu,5252-9.html

Da sieht der 8700K eher besser aus als ein 1600X (Effizienz, beide haben 6C/12T). Auch Skylake-X/SP ist leicht effizienter als TR/Epyc.

Das Zen als deutlich effizienter angesehen wird kommt vor allen daher das zur Einführung CPUs mit erheblich unterschiedlicher Anzahl an Kernen verglichen wurde und Consumer zu HEDT. Wenn beispielsweise 8C mit 4C verglichen werden sagt das nicht wirklich viel aus über die grundsätzliche Effizienz. Mehr Kerne bei geringerer Frequenz sind immer effizienter.

Daredevil
2017-10-16, 13:29:28
Inb4
Ist aber sicher wieder nur Quatsch was da gemessen wurde und Intel sowieso viel schneller blablabla.
Hast du heute schlecht geschlafen? :usad:

Ich sehe aber tatsächlich keine "überlegene Effizienz", wenn man die Leistung mit einbezieht. Also ich sehe schon eine, aber eher bei Intel.

@THG
http://abload.de/img/unbenanntyhssz.png

http://abload.de/img/unbenannt2n0swx.png

http://abload.de/img/unbenannt4acs22.png

DarknessFalls
2017-10-16, 13:34:35
7600K und 8600K haben dieselben Punkte, aber unterschiedliche Kernanzahl. Oh, wait...

Super Vergleich, wenn man eine Anwendung herbeizieht, die offensichtlich single Threaded zu Werke geht. Nutzt man Kerne, wandelt sich das Bild. Solltest Du aber wissen.

Und dann noch den Stromverbrauch aus AutoCAD 2015 2D/3D mixed mit der Performance von AutoCAD 2016 2D vermischen ist großes Kino.

YfOrU
2017-10-16, 13:38:40
CFL wird mixed kaum langsamer sein ;)

Ansonsten zur Effizienz:
http://www.hardware.fr/articles/970-4/consommation-efficacite-energetique.html

Und x264 ist für Ryzen durchaus eine Paradedisziplin:
http://www.hardware.fr/articles/970-9/encodage-video-x264-x265.html

Lehdro
2017-10-16, 13:38:57
Und wo ist da Coffee Lake bei? Gehts im Coffee Lake Thread etwa um Skylake? :usad:
Du hast gefragt wo die "überlegene Effizienz" herkommt: Von genau solchen Testszenarien. Ryzen ist nunmal sehr teillasteffizient.

Und was jetzt einen "Coffeelake" i3 von einem Kabylake i5 (oder einem Skylake i5) unterscheidet musst du mir nochmal genau erklären. Im Threadtitel steht nix vonwegen "Coffee Lake - Review-Thread (nur 6 Kerner)"

Also für dich ein kleines Gedankenexperiment:

https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/6/

i3 8100 und i5 7500 verbrauchen bis auf 1-2 W in jedem Szenario genau dasselbe. Logisch, ist ja auch der selbe Chip mit fast genau derselben Taktfrequenz. Warum sollte sich dort an der Teillasteffizienz etwas ändern?

@DarknessFalls

Danke. Herrlich :)

Daredevil
2017-10-16, 13:45:05
7600K und 8600K haben dieselben Punkte, aber unterschiedliche Kernanzahl. Oh, wait...

Super Vergleich, wenn man eine Anwendung herbeizieht, die offensichtlich single Threaded zu Werke geht. Nutzt man Kerne, wandelt sich das Bild. Solltest Du aber wissen.
Nicht ich habe AUTOCad in den Raum geworfen. :rolleyes:

Cinebench Multicore Punkte:
http://abload.de/img/unbenanntrtsfz.png

Cinebench Multicore Verbrauch:
http://abload.de/img/unbenannt2mgsud.png

Ich sehe die "überlegene Effizienz" leider immer noch nicht, auch nicht bei Cinebench im Multicore.

Lehdro
2017-10-16, 13:47:28
Ich sehe die "überlegene Effizienz" leider immer noch nicht, auch nicht bei Cinebench im Multicore.
Teillast =/= Vollast

Scheint schwer zu verstehen zu sein.

Daredevil
2017-10-16, 13:49:37
Ich weiß nicht, was du mit Teillasteffizienz meinst.

Wo wurde sowas denn mal getestet?

Lehdro
2017-10-16, 13:51:32
Ich weiß nicht, was du mit Teillasteffizienz meinst.

Wo wurde sowas denn mal getestet?
Ernsthaft jetzt? Ist mir zu doof, sorry.

Rancor
2017-10-16, 13:51:45
:facepalm:

Ich finde es auch lustig, wie die AMD Fans hier verzweifelt versuchen, irgendein Haar in dem Kaffee See zu finden. Meine Güte.

Coffee Lake ist Ryzen nun mal überlegen und zwar in jeder Hinsicht. Selbst im P/L dürfte es schwierig für Ryzen werden, wenn man die I5 mit einbezieht.

Was ist so schwer daran das zu akzeptieren? Pinnacle Ridge kommt und dann werden die Karten neu gemischt. AMD muss sich ranhalten !

Daredevil
2017-10-16, 13:54:28
Ernsthaft jetzt? Ist mir zu doof, sorry.


Ne wirklich jetzt. Ich hab keine Ahnung, wovon du sprichst. Bin aber gerne offen für mehr Infos.
Hier wird in den Raum geworfen, das eine Architektur Effizienter ist.
Dann schaue ich mir Tests an, wo ein Produkt im Singlecore, als auch im Multicore mehr Leistung liefert bei weniger/gleichbleibendem Verbrauch und mir wird gesagt "Ach Daredeviiiiiil, Ryzen ist doch im Teillast nur effektiv.".
Okay, mag sein.

Welche Anwendung nutzt denn Teillast? Was soll Teillast überhaupt sein?
Wo ist ein Ryzen in seiner Teillast?

Edit:
Oh Okay. Bei Golem steht was von Teillast:
https://www.golem.de/news/ryzen-7-1800x-im-test-amd-ist-endlich-zurueck-1703-125996-12.html
Bei Teillast, genauer Cinebench R15 auf einem Kern, zeigt sich das aktuelle AMD-System ebenfalls von einer positiven Seite: Es ist bei gleicher Leistung sparsamer als die 2011-3-Plattform, wenngleich es doch ein paar Watt mehr benötigt als der Rechner mit den Kaby-Lake-Chips
Das hatte ich aber schon oben.

Lehdro
2017-10-16, 14:09:17
Ne wirklich jetzt. Ich hab keine Ahnung, wovon du sprichst. Bin aber gerne offen für mehr Infos.
Ich versuchs mal, okay?

Hier wird in den Raum geworfen, das eine Architektur Effizienter ist.
Nicht von mir :)
ich meinte immer nur von Teillast.

Dann schaue ich mir Tests an, wo ein Produkt im Singlecore, als auch im Multicore mehr Leistung liefert bei weniger/gleichbleibendem Verbrauch und mir wird gesagt "Ach Daredeviiiiiil, Ryzen ist doch im Teillast nur effektiv.".
Okay, mag sein.

Welche Anwendung nutzt denn Teillast? Was soll Teillast überhaupt sein?
Wo ist ein Ryzen in seiner Teillast?

Teillast ist alles was nicht Singlecore@100% oder 100% Auslastung aller Kerne ist. Bestes Beispiel: Spiele.
Ich skizziere es mal:

https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HLzcvNjU2MzU5L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==

Alle ungefähr gleich schnell und GPU limitiert? Jop.

Stromverbrauch dabei:

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9FLzcvNjY1MzU5L29yaWdpbmFsLzIzLVBvd2VyLUNv bnN1bXB0aW9uLUdhbWluZy5wbmc=

Das kann bei Ryzen also durchaus sehr effizient ausfallen wie man sieht. Daher auch das "Gerücht" das Ryzen so unglaublich effizient sei. Das man das nun eben NICHT auf alles umlegen kann, wurde hier ja schon demonstriert. Es kommt immer auf den Anwendungsfall an. Bin damit raus.

Platos
2017-10-16, 14:12:48
Ich versuchs mal, okay?

Nicht von mir :)
ich meinte immer nur von Teillast.

Teillast ist alles was nicht Singlecore@100% oder 100% Auslastung aller Kerne ist. Bestes Beispiel: Spiele.
Ich skizziere es mal:

https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HLzcvNjU2MzU5L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==

Alle ungefähr gleich schnell und GPU limitiert? Jop.

Stromverbrauch dabei:

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9FLzcvNjY1MzU5L29yaWdpbmFsLzIzLVBvd2VyLUNv bnN1bXB0aW9uLUdhbWluZy5wbmc=

Das kann bei Ryzen also durchaus sehr effizient ausfallen wie man sieht. Daher auch das "Gerücht" das Ryzen so unglaublich effizient sei. Das man das nun eben NICHT auf alles umlegen kann, wurde hier ja schon demonstriert. Es kommt immer auf den Anwendungsfall an. Bin damit raus.

Was soll jetzt ein Stromverbrauchs-Vergleich bei GPU Limit bringen ? Oder habe ich was verpasst ?

Hakim
2017-10-16, 14:14:35
Eine Menge Benchmarks im Coffee Lake Thread ohne Coffee Lake CPUs

Birdman
2017-10-16, 14:14:36
Welche Anwendung nutzt denn Teillast? Was soll Teillast überhaupt sein?
Wo ist ein Ryzen in seiner Teillast?
Bei vielen Spielen.
Aber auch da ist die Effizient nicht wirklich besser oder gar überlegen, wenn man den Verbrauch jeweils in Relation zur Performance stellt.

Ja, mittels cherrypicking lassen sich ganz sicher Spiele finden, welche die eine Plattform jeweils deutlich effizienter dastehen lassen - mit der "Wahrheit" hat dies dann aber wenig zu tun.

Ich kann auch schnell mal ein paar AVX Benchmarks auftreiben, welche eine um 100%+ überlegene Intel Plattform zeigen wenns um Effizienz geht...

Lehdro
2017-10-16, 14:17:36
Was soll jetzt ein Stromverbrauchs-Vergleich bei GPU Limit bringen ? Oder habe ich was verpasst ?
Zu sehen welches System bei selber Leistung (=FPS) wie viel Strom verbraucht? Herrje...

w0mbat
2017-10-16, 14:18:41
Coffee Lake ist Ryzen nun mal überlegen und zwar in jeder Hinsicht.

;D

Frei nach dem Motto "wenn man eine Lüge nur oft genug wiederholt". Gute Idee, aber scheint nur bei dir selber zu wirken.

Aber eines muss man CFL lassen: für eine parktisch nicht existente CPU ist sie wirklich in aller Munde. Langsam denke ich, dass es ein Fehler von AMD war Pinnacle Ridge nicht einen Tag nach CFL zu "launchen".

Die paar ES hätte man bestimmt locker auf Lager gehabt. Und dass man dann noch bis Februar warten muss, um gute Verfügbarkeit zu bekommen, ist ja heutzutage nur noch nebensächlich.

i7-8700K und i5-8600K sind bei GH nirgends lieferbar, beim i7-8700 gibt es einen Shop der 2-3 Werktage angibt (aber nur 33 Bewertungen hat) und der i5-8400 ist angeblich bei einem Shop lieferbar (für 220€).

Tut mir leid, aber Papier ist geduldig. CFL ist viel heißer, verbraucht mehr und wird nur durch seinen sehr hohen Takt wirklich schneller. Also in der Theorie, weil er in der Praxis nicht verfügbar ist.

Rancor
2017-10-16, 14:21:58
Wo ist Coffee Lake Ryzen denn nicht überlegen? Weder im Stromverbrauch noch in der Leistung sieht Ryzen Land. Von einer heißen CPU kann da auch garkeine Rede sein. Es ist völlig im Rahmen, trotz Zahnpasta unterm Headspreader. Keine Ahnung woher du deine Infos nimmst.

Ich hab doch selbst eine Ryzen CPU, also was laberst du da für einen Unsinn? Bricht dir da ein Zacken aus der Krone, wenn CFL besser ist als Ryzen? Ist doch auch logisch oder? Kam ja schließlich auch nen halbes Jahr später...Du bist ja beinahe so wie Icholot oder MiamiNice nur auf AMD Seite.. Ich verstehs nicht..

CFLs Stärke macht die Ryzen CPUs ja nicht schlechter.

Das CFL nicht verfügbar ist, ist eine ganze andere Thematik. Im Forum hier gibt es aber User, die schon eine CFL CPU nutzen.

IchoTolot
2017-10-16, 14:27:04
Frei nach dem Motto "wenn man eine Lüge nur oft genug wiederholt". Gute Idee, aber scheint nur bei dir selber zu wirken. CFL ist viel heißer, verbraucht mehr und wird nur durch seinen sehr hohen Takt wirklich schneller. Also in der Theorie, weil er in der Praxis nicht verfügbar ist.

So ein Quatsch. :freak:;D Coffee Lake ist einfach in jeder Hinsicht Ryzen überlegen was Leistung angeht, das man darüber noch diskutieren muss. :usad:

Na dann takte doch mal Ryzen auf 5 Ghz. Mal sehen wie heiß der dann wird und was er dann verbraucht. :ulol:

Platos
2017-10-16, 14:27:27
Zu sehen welches System bei selber Leistung (=FPS) wie viel Strom verbraucht? Herrje...

Damit misst du genau 1 Szenario. Und natürlich ist Coffe Lake ja nicht einmal mit drin. Das sagt gar nichts aus.

Rancor
2017-10-16, 14:28:30
So ein Quatsch. :freak:;D Coffee Lake ist einfach in jeder Hinsicht Ryzen überlegen was Leistung angeht, das man darüber noch diskutieren muss. :usad:
:
Ich stimme dir ja selten zu, aber so ist es nunmal. Da kann man sich drehen und wenden wie man will.

Lehdro
2017-10-16, 14:30:32
Und natürlich ist Coffe Lake ja nicht einmal mit drin. Das sagt gar nichts aus.
Dazu hatte ich schonmal was geschrieben (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11522022&postcount=714): Kabylake i5 = "Coffeelake" i3. Da hat sich wirklich nichts getan, es sind die selben Chips.

@Topic

Ich sehe trotzdem 3 Schwachpunkte an Coffeelake:

- derzeit schwer/gar nicht erhältlich
- derzeit nur teure Z370 Boards verfügbar
- alles unter 6 Kernen ist quasi nochmals Kabylake ohne irgendeine technische Verbesserung (Verbrauch/Leistung etc)

2 davon sind zeitlich behebbar aber hinterlassen den bitteren Geschmack eines verfrühten Launches und der dritte ist nur aus technischer Sicht her Schade.

dildo4u
2017-10-16, 14:30:56
Kommt drauf an was man bencht,ohne AVX2 wird es sich vermutlich nich viel Geben.Wie auch Coffelake ist immer noch Skylake mit mehr Cores.

http://abload.de/img/cb1524mpuju.jpg

https://www.notebookcheck.com/Coffee-Lake-i7-8700K-und-i5-8400-im-Test.256104.0.html

Daredevil
2017-10-16, 14:32:09
Teillast ist alles was nicht Singlecore@100% oder 100% Auslastung aller Kerne ist. Bestes Beispiel: Spiele.
....
Es kommt immer auf den Anwendungsfall an. Bin damit raus.
Okay, jetzt habe ich es verstanden, Danke. ( Wirklich! )
Also Ryzen ist im GPU Limit sparsamer, wo man die CPU Leistung nicht ausfahren kann. Okay.
Die CPU besser, je wenig sie genutzt wird.

Finde ich persönlich jetzt nicht unbedingt relevant bei einer Kaufentscheidung, aber lt. dem Test in Metro wird das wohl so sein.

Hier übrigens mal was aktuelles von THG zum vergleichen: ( Der 1700er Score ist genau gleich )
Da scheint Coffee Lake im Teillastbereich wohl zugelegt zu haben.
http://abload.de/img/unbenannt2cskb.png
Leider gibt es dazu keine FPS Scores, aber der Intel wird in dem Fall beim Witcher wohl mehr auf die Straße gelegt haben.
Das finde ich persönlich relevanter.


CFL ist viel heißer, verbraucht mehr und wird nur durch seinen sehr hohen Takt wirklich schneller.
Das ist echt peinlich, dass du hier dauernd Thesen aufstellst und nie dafür einen Beweis aufbringst.

w0mbat
2017-10-16, 14:47:31
Wo ist Coffee Lake Ryzen denn nicht überlegen? Weder im Stromverbrauch noch in der Leistung sieht Ryzen Land. Von einer heißen CPU kann da auch garkeine Rede sein. Es ist völlig im Rahmen, trotz Zahnpasta unterm Headspreader. Keine Ahnung woher du deine Infos nimmst.

Dieser Abschnitt zeigt genau das auf, was mMn hier in der Diskussion das Problem ist. Die Nachteile von Intel werden alle seicht geredet. Die Temperatur, die für ein "Premiumprodukt" einfach nur abartig ist, ist natürlich "völlig im Rahmen". Klar, ist ja Intel. Wenn AMD 20C+ wärmer wäre, würde es hier heißen "AMD wird komplett deklasiert", "gar keine Chance", "totale Dominanz".


Ich hab doch selbst eine Ryzen CPU, also was laberst du da für einen Unsinn? Bricht dir da ein Zacken aus der Krone, wenn CFL besser ist als Ryzen? Ist doch auch logisch oder? Kam ja schließlich auch nen halbes Jahr später...Du bist ja beinahe so wie Icholot oder MiamiNice nur auf AMD Seite.. Ich verstehs nicht..

CFLs Stärke macht die Ryzen CPUs ja nicht schlechter.

Das CFL nicht verfügbar ist, ist eine ganze andere Thematik. Im Forum hier gibt es aber User, die schon eine CFL CPU nutzen.

Les doch mal meine Beiträge in denen ich nicht auf IchoTolot oder gmb antworte. Niemand hier bezweifelt, dass CFL die schnellere CPU wird. Nur werden alle Bereiche in denen AMD etwas besser dasteht, z.B. die Multi-Core-Effizienz, die Temperatur, die Performance bei voller Auslastung, der Preis, die Verfügbarkeit, etc. einfach klein geredet.

Wenn der i7-8700K in 1080p (mit einer GTX 1080 Ti!) mit 14% mehr Takt im Schnitt 20% schneller als ein R5 1600X ist = totale Dominanz! AMD ist nicht zum Spielen zu gebrauchen. Ryzen zum Zocken? Auf keinen Fall! (Aber dein 2600K reicht noch locker aus...).

CFL ist sehr schnell, keine Frage. Dafür musste Intel aber auch einen paper launch hinlegen und bringt einen Hitzkopf der sich zwar gut takten lässt, für die hier überall angenommenen 5GHz aber am besten geköpft und mit WaKü.

Einfach bei den Superlativen etwas runter drehen, dann entspannt sich auch die Diskussion :smile:


So ein Quatsch. :freak:;D Coffee Lake ist einfach in jeder Hinsicht Ryzen überlegen was Leistung angeht, das man darüber noch diskutieren muss. :usad:

Na dann takte doch mal Ryzen auf 5 Ghz. Mal sehen wie heiß der dann wird und was er dann verbraucht. :ulol:

Siehe oben. "In jeder Hinsicht" stimmt einfach nicht. Es gibt genügend Anwendungen in denen ein 1800X vor dem 8700K liegt, aber das wird einfach ignoriert. Und dann behaupten ich würde nicht die Wahrheit erzählen...

Zumal auch hier wieder die ominösen 5GHz auftauchen. Auf reddit beschweren sich schon die Leute, weil ihr "5GHz ez CFL" nur 4,7GHz mir AIO@90C+ macht. Klar, es gibt auch bessere, aber nicht jeder macht einfach 5GHz.


Kommt drauf an was man bencht,ohne AVX2 wird es sich vermutlich nich viel Geben.Wie auch Coffelake ist immer noch Skylake mit mehr Cores.

http://abload.de/img/cb1524mpuju.jpg

https://www.notebookcheck.com/Coffee-Lake-i7-8700K-und-i5-8400-im-Test.256104.0.html

Genau, hier sieht man sehr gut die Effizienz. Und der beste Ryzen, der 65W 1700, ist hier nichtenmal dabei. Es gibt einige Szenarien wo Ryzen bei voller Auslastung vor CFL liegt.

Lehdro
2017-10-16, 14:52:31
Okay, jetzt habe ich es verstanden, Danke. ( Wirklich! )
:cool:

Also Ryzen ist im GPU Limit sparsamer, wo man die CPU Leistung nicht ausfahren kann. Okay.
Die CPU besser, je wenig sie genutzt wird.
Ist schon komisch, aber wahr.

Finde ich persönlich jetzt nicht unbedingt relevant bei einer Kaufentscheidung, aber lt. dem Test in Metro wird das wohl so sein.
Die Relevanz ist da tatsächlich eher gering, technisch ist es aber sehr interessant.

Hier übrigens mal was aktuelles von THG zum vergleichen: ( Der 1700er Score ist genau gleich )
Da scheint Coffee Lake im Teillastbereich wohl zugelegt zu haben.
http://abload.de/img/unbenannt2cskb.png
Leider gibt es dazu keine FPS Scores, aber der Intel wird in dem Fall beim Witcher wohl mehr auf die Straße gelegt haben.
Laut PCGH (nicht ganz vergleichbar):

https://abload.de/img/covefeh7sgq.jpg


Das finde ich persönlich relevanter.
Ist es auch, da deutlich mehr Leistung bei weniger Verbrauch (in Relation) eher bemerkbar ist.

Platos
2017-10-16, 15:03:01
Dieser Abschnitt zeigt genau das auf, was mMn hier in der Diskussion das Problem ist. Die Nachteile von Intel werden alle seicht geredet. Die Temperatur, die für ein "Premiumprodukt" einfach nur abartig ist, ist natürlich "völlig im Rahmen". Klar, ist ja Intel. Wenn AMD 20C+ wärmer wäre, würde es hier heißen "AMD wird komplett deklasiert", "gar keine Chance", "totale Dominanz".



Les doch mal meine Beiträge in denen ich nicht auf IchoTolot oder gmb antworte. Niemand hier bezweifelt, dass CFL die schnellere CPU wird. Nur werden alle Bereiche in denen AMD etwas besser dasteht, z.B. die Multi-Core-Effizienz, die Temperatur, die Performance bei voller Auslastung, der Preis, die Verfügbarkeit, etc. einfach klein geredet.

Wenn du schon anmerkst, dass man nur auf der einen Seite Probleme sucht und sie auf "seiner" verharmlost, dann würde ich gerne wissen, wo du warst, als Vega 64&56 so gut verfügbar waren? Die war nämlich anfangs genau so, wie jetzt etwa Coffe Lake. Und ich würde auch gerne wissen, wo du warst, als Vega im Stromverbrauch noch viel weiter abgeschlagen hat, als jetzt Ryzen vs. Coffe Lake. Und auch der Preis ist je nach Anwendungsgebiet nicht wirklich bei jedem Modell besser, als bei AMD.

Wenn der i7-8700K in 1080p (mit einer GTX 1080 Ti!) mit 14% mehr Takt im Schnitt 20% schneller als ein R5 1600X ist = totale Dominanz! AMD ist nicht zum Spielen zu gebrauchen. Ryzen zum Zocken? Auf keinen Fall! (Aber dein 2600K reicht noch locker aus...).

CFL ist sehr schnell, keine Frage. Dafür musste Intel aber auch einen paper launch hinlegen und bringt einen Hitzkopf der sich zwar gut takten lässt, für die hier überall angenommenen 5GHz aber am besten geköpft und mit WaKü.

Einfach bei den Superlativen etwas runter drehen, dann entspannt sich auch die Diskussion :smile:

Niemand sagt, ausser die Dummen, dass Ryzen unbrauchbar zum spielen ist. Aber Coffe Lake ist für High-FPS-Gamer definitiv die bessere Wahl. Das die Premium Produkte mehr kosten, sollte dir klar sein. Ein Ryzen 1800x ist auch um Welten teurer als der 1600x, ist aber nicht linear gleich viel besser, wie er teurer ist. Hört doch endlich mal auf, Produkte im Preis zu vergleichen, die einfach nicht in der selben Liga spielen.

Siehe oben. "In jeder Hinsicht" stimmt einfach nicht. Es gibt genügend Anwendungen in denen ein 1800X vor dem 8700K liegt, aber das wird einfach ignoriert. Und dann behaupten ich würde nicht die Wahrheit erzählen...

Zumal auch hier wieder die ominösen 5GHz auftauchen. Auf reddit beschweren sich schon die Leute, weil ihr "5GHz ez CFL" nur 4,7GHz mir AIO@90C+ macht. Klar, es gibt auch bessere, aber nicht jeder macht einfach 5GHz.

Genau, hier sieht man sehr gut die Effizienz. Und der beste Ryzen, der 65W 1700, ist hier nichtenmal dabei. Es gibt einige Szenarien wo Ryzen bei voller Auslastung vor CFL liegt.

Ein 1800X ist ja auch teurer als der 8700k. Vorhin hast du gerade noch auf den Preis geschaut, jetzt zählt auf einmal nur noch die Mehrleistung?

w0mbat
2017-10-16, 15:16:20
Wenn du schon anmerkst, dass man nur auf der einen Seite Probleme sucht und sie auf "seiner" verharmlost, dann würde ich gerne wissen, wo du warst, als Vega 64&56 so gut verfügbar waren?

Was hat Vega damit zu tun? Ich habe bei Vega gar nicht mit disskutiert. Willst du mir jetzt vorschreiben wo ich was schreiben muss? Bist du auch so einer, der unter eine Meldung der Tagesschau bei Facebook schreibt "warum berichtet ihr nicht über xyz???!!!"?



Niemand sagt, ausser die Dummen, dass Ryzen unbrauchbar zum spielen ist.

Da hast du gerade aber ganz viele hier als "dumm" bezeichnet :freak:



Aber Coffe Lake ist für High-FPS-Gamer definitiv die bessere Wahl. Das die Premium Produkte mehr kosten, sollte dir klar sein. Ein Ryzen 1800x ist auch um Welten teurer als der 1600x, ist aber nicht linear gleich viel besser, wie er teurer ist. Hört doch endlich mal auf, Produkte im Preis zu vergleichen, die einfach nicht in der selben Liga spielen.


Schon wieder diese Superlativen. "Um Welten", hat das noch irgendeine Bedeutung? Abgesehen davon, dass der i7-8700K gerade gar nicht lieferbar ist, ist der günstigste Preis bei Mindfactory 398,95€ (https://geizhals.de/intel-core-i7-8700k-bx80684i78700k-a1685281.html), während der R7 1800X bei 425,95€ (https://geizhals.de/amd-ryzen-7-1800x-yd180xbcaewof-a1582191.html?hloc=at&hloc=de) liegt. Und zwar verfügbar. Das sind 6,7% Aufpreis, oder anders ausgedrückt "um Welten teurer" :D

Nochmal der Hinweis: i7 = nicht verfügbar, R7 = verfügbar. Auf eBay gibt es hin und wieder mal einzelne i7-8700K für um die 500€. Das ist dann doch ein gutes Stück teurer.

Siehst du? Du behauptest der Ryzen ist viel teurer und am Ende ist es anders herum. Das ist mein Problem hier.



Ein 1800X ist ja auch teurer als der 8700k. Vorhin hast du gerade noch auf den Preis geschaut, jetzt zählt auf einmal nur noch die Mehrleistung?

Siehe oben. Und wo bitteschön behaupte ich, dass nur noch die Mehrleistung zählt? Genau, nirgends. Du legst mir das einfach nur in den Mund, du Lügst.

Rancor
2017-10-16, 15:19:40
Niemand sagt, ausser die Dummen, dass Ryzen unbrauchbar zum spielen ist. Aber Coffe Lake ist für High-FPS-Gamer definitiv die bessere Wahl. Das die Premium Produkte mehr kosten, sollte dir klar sein. Ein Ryzen 1800x ist auch um Welten teurer als der 1600x, ist aber nicht linear gleich viel besser, wie er teurer ist. Hört doch endlich mal auf, Produkte im Preis zu vergleichen, die einfach nicht in der selben Liga spielen.


Also ich kann hier aus erster Hand bezeugen, das eine Ryzen CPU hervorragend zum Spielen zu gebrauchen ist :D Coffee Lake kann es jetzt aber nunmal einen Tick besser.

YfOrU
2017-10-16, 15:26:42
Genau, hier sieht man sehr gut die Effizienz. Und der beste Ryzen, der 65W 1700, ist hier nichtenmal dabei. Es gibt einige Szenarien wo Ryzen bei voller Auslastung vor CFL liegt.

Der 1700er ist auch effizienter als ein 1600X. Mehr Kerne und Frequenz runter führen immer zu diesem Ergebnis. Ist eine tolle CPU aber kein Kunststück.

Bei gleicher Kernanzahl schlägt Ryzen im Mittel weder KBL/CFL noch Epyc Skylake-SP. Gilt sowohl für die absolute Performance als auch die Effizienz. Raven Ridge wird KBL-R ebenfalls kaum ganz packen können aber sicherlich nahe genug dran sein. Die Differenz läuft über die Platzierung und Auslegung der Produkte in den jeweiligen Segmenten. Gegenüber KBL und Broadwell-EP war das für AMD wie Weihnachten. Die Angriffsfläche war riesig. CFL und Skylake-SP haben die dadurch entstandenen großen Lücken in Intels Portfolio inzwischen aber wieder zu großen Teilen geschlossen.

Daredevil
2017-10-16, 15:28:50
Also ich kann hier aus erster Hand bezeugen, das eine Ryzen CPU hervorragend zum Spielen zu gebrauchen ist :D Coffee Lake kann es jetzt aber nunmal einen Tick besser.


Ein 7 Jahre alter 980x ist auch zum Spielen zu gebrauchen.
Wir sind hier aber in einem Technik Forum. Da gehts um Zahlen, Fakten und Unterschiede und nicht darum, was jeder für sich als spielbar bezeichnet.

Es gibt verschiedene Szenarien und die werden auch verschieden bewertet.
Die Frage, welche die bessere CPU ist bei:

4k Gaming
HighFPS Gaming
Einfach nur Gaming
Anwendungen

fällt immer anders aus. Da gibt es keine CPU, die jeden dieser Bereiche dominiert.

Rancor
2017-10-16, 15:32:21
Ein 7 Jahre alter 980x ist auch zum Spielen zu gebrauchen.
Wir sind hier aber in einem Technik Forum, da gehts um Zahlen, Fakten und Unterschiede und nicht darum, was jeder für sich als spielbar bezeichnet.

Aber nicht mehr hervorragend ;) Das ist der Punkt.


Es gibt verschiedene Szenarien und die werden auch verschieden bewertet.
Die Frage, welche die bessere CPU ist bei:

4k Gaming
HighFPS Gaming
Einfach nur Gaming
Anwendungen

fällt immer anders aus. Da gibt es keine CPU, die jeden dieser Bereiche dominiert.

4K Gaming ist die CPU meistens ehh latte.
Für High FPS Gaming ist Intel aber momentan einfach besser geeignet.
Wenn man einfach nur so Gamen will, ist der R5 1600 nach wie vor ne gute Wahl ( P/L )
Bei den Anwendungen kommt es drauf an ob wie MT auch ordentlich unterstützen.

DarknessFalls
2017-10-16, 15:33:08
Also ich kann hier aus erster Hand bezeugen, das eine Ryzen CPU hervorragend zum Spielen zu gebrauchen ist :D Coffee Lake kann es jetzt aber nunmal einen Tick besser.

Das ist doch mal eine Aussage, mit der man ausgezeichnet leben kann. Verstehe nicht, warum man das nicht einfach so stehen lassen kann und zufrieden ist. CFL ist ein halbes Jahr jünger und genaugenommen nichtmal wirklich am Markt - also was ist das Problem?

Ich halte das Szenario nichtmal für unwahrscheinlich, dass man bis Weihnachten keine relevanten Stückzahlen liefern kann - und dann steht auch schon Pinnacle Ridge vor der Tür, womit die Karten neu gemischt werden. Es bleibt spannend. :D

Hakim
2017-10-16, 15:43:17
Es stimmt schon das die Verfügbarkeit sehr schlecht ist, aber nicht so schlecht wie es hier oft dargestellt wird, zugegeben für den 8700K muss man wohl länger warten, aber sonst kann man schon die kleinen bekommen. Haben ja auch schon welche hier im Forum Coffer Lake laufen. Gerade bei Alternate wieder 8700nonK verfügbar, könnte wenn ich wollte jetzt die 10km hinfahren und mir einen holen.

w0mbat
2017-10-16, 15:49:58
4K Gaming ist die CPU meistens ehh latte.
Für High FPS Gaming ist Intel aber momentan einfach besser geeignet.
Wenn man einfach nur so Gamen will, ist der R5 1600 nach wie vor ne gute Wahl ( P/L )
Bei den Anwendungen kommt es drauf an ob wie MT auch ordentlich unterstützen.

+1

Wenn es aktuell schon günstige Intel B360 Boards gäbe und der i5-8400 verfügbar wäre, hätte man mit dem 8400er bestimmt auch eine gute Option.

Und ich denke für Anwendungen und Zocken ist ein R7 1700 mit OC auf ca. 3,8GHz immer noch sehr stark und "zukunftssicher". Auch zum Streamen sehr gut, sind eben echte 8C/16T.


Es stimmt schon das die Verfügbarkeit sehr schlecht ist, aber nicht so schlecht wie es hier oft dargestellt wird, zugegeben für den 8700K muss man wohl länger warten, aber sonst kann man schon die kleinen bekommen. Haben ja auch schon welche hier im Forum Coffer Lake laufen. Gerade bei Alternate wieder 8700nonK verfügbar, könnte wenn ich wollte jetzt die 10km hinfahren und mir einen holen.

https://www.alternate.de/Intel%28R%29/Core%28TM%29-i7-8700-Prozessor/html/product/1380848?campaign=Sockel+1151/Intel%C2%AE/1380848

Ich sehe da nichts verfügbar.

Daredevil
2017-10-16, 15:50:23
Aber nicht mehr hervorragend ;) Das ist der Punkt.

Definiere hervorragend doch mal bitte.

Ein Ryzen 1600 und ein Intel i7 980x takten soweit ich weiß in etwa gleich, 3.6Ghz bei 1-2 Kernen und darüber bei ~3.4Ghz.
Bei gleichem Takt ist der Ryzen ca. ~30-40% schneller theoretisch, in Spielen deutlich weniger.

In welchem Spiel siehst du nun ein Problem?

Also wenn man schon die "Also auf Ryzen laufen auch alle Spiele toll" Keule schwingt, muss man sich diesen Vergleich leider auf gefallen lassen.
Zudem würdest du deinen Prozessor wohl kaum um 15% übertakten, wenn alles schon "hervorragend" ist.

Rancor
2017-10-16, 15:54:59
Alter, was willst du jetzt von mir ? Dieses jedes Wort auf die Goldwaage legen nervt einfach nur noch extrem.
Findest du Gaming jenseits der 100 FPS etwa nicht hervorragend? Ich übertakte alles in meinem Rechner, aus Prinzip. Meine 1070 ist auch übertaktet.. Was hat das damit zu tun.?

Aber ok, Ryzen ist kacke zum Spielen, absolut nicht zu gebrauchen. Du hast Recht. Bist du jetzt zufrieden?

Daredevil
2017-10-16, 15:58:51
Das habe ich nicht behauptet, stimmt auch absolut gar nicht.

Ne Definition von hervorragend wollte ich in Zusammenhang dessen, dass es pauschal nicht stimmt unter Berücksichtung von verschiedenen Szenarien.

Denn ein Ryzen 1600 ist z.B. nicht "hervorragend" für VR Gaming.
Aber das ist ein weiteres Szenario, welches in etwa die gleichen Anforderungen hat wie HighFPS Gaming.

Hakim
2017-10-16, 15:58:52
https://www.alternate.de/Intel%28R%29/Core%28TM%29-i7-8700-Prozessor/html/product/1380848?campaign=Sockel+1151/Intel%C2%AE/1380848

Ich sehe da nichts verfügbar.

Dann wird es wohl vergriffen sein, (hätte es dennoch heute haben können) , wenn du stur nach dem Verfügbarkeitsstatus gehen willst, bei MIX immer noch gelistet.
https://www.mix-computer.de/mix/detail.xhtml?articleId=1380853&partner=mixgeizhals

und die kleinen kann man auch zu "normalen" preisen bestellen

https://geizhals.de/?cat=cpu1151&xf=12099_Desktop~596_Coffee+Lake-S~820_1151&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p

hier wird so getan als ob es nichts auf dem Markt gibt

w0mbat
2017-10-16, 16:00:21
@Daredevil: Stell dir vor, du hast 10 CPU Generationen. Alle haben gleich viel Kerne und gleich viel Takt, nur steigt mit jeder Generation die IPC Leistung um 5% an. Genaration 10 ist also ca. 50% schneller als Generation 1.

Gen 10 ist super zum Zocken, Gen 1 schon zu langsam. Ab welcher Generation wird es zu wenig? Schwierige Frage, oder? Gen 10 ist klar mehr als genug, also Gen 9 auch und Gen 8 auch. Aber reicht Gen 7 noch? Klar, 15% sind kein sehr großer Unterschied!

Was ist mit Gen 6 oder Gen 5?

Ryzen reich völlig aus, liegt aber auch nur 10-15% hinter CFL. Wenn der i7-980X jetzt 30-40% hinter Ryzen liegt, ist der Abstand, bei gleichem Takt und gleicher Kernzahl, schon >50%. Und das ist schon problematisch.

Mein Phenom II X6 ist auch noch sehr gut. Rainbow 6 Siege spiele ich mit 70-120FPS, Battlefield 1 liegt so um die 50-60FPS mit Dips auf 40FPS, aber wirklich selten. DOOM rennt durchgehend mit >100FPS auf Ultra.

Aber es gibt viele Spiele die ich damit nicht mehr Spielen will.



hier wird so getan als ob es nichts auf dem Markt gibt

Naja, ich sehe da keinen i7-8700K, keinen i5-8600K, keinen i5-8400 (bis auf Tray) und das sind die CPUs die die meisten wollen. Die i3 sind ja nur KBL-S und kein CFL. Und der i7-8700 non-K ist auch nur bei einem Händer lieferbar und wird auch nicht sonderlich viel sein. Von Verfügbarkeit kann man hier wirklich nicht sprechen.

Daredevil
2017-10-16, 16:07:58
Deswegen rate ich ja von diesen häufigen Pauschal Aussagen wie "xyz ist besser als xyz" ab, weil durch diese Pauschalisieren immer und immer wieder diese scheiß Diskussionen angestoßen werden, IMMER.
Diese Pauschalisierungen triffst du übrigens auch immer, wenn es um heißer, stromfressender und teurer geht. Das ist nicht unbedingt Grundlage.

Coffee Lake ist besser als Ryzen7 !!1elf
Antwort: Jemand postet ein Multithread Test und zeigt, das Ryzen dort deutlich besser abschneidet.

Ryzen7 ist besser als Coffee Lake!!111elf
Antwort: Jemand postet einen Singlethread Test und zeigt, das Coffee Lake dort deutlich besser abschneidet.

Solang jemand bei seiner Meinung nicht dabei schreibt, in welchem Szenario xyz besser ist, enden diese häufigen unnötigen Diskussionen auch nicht.
Schwarz und weiß gibt es nicht.

Hakim
2017-10-16, 16:10:31
Daher meinte ich ja auch schlecht verfügbar, aber gibt doch Menschen die schon welche haben, daher hier und da zu haben. Aber du redest von "nicht existente", "in der Praxis nicht verfügbar". Aber lassen wir das. Ist mir auch net wichtig ehrlich gesagt wie es andere sehen.

sulak
2017-10-16, 16:43:08
Hab mal mit den Intel XTU rumgespielt:

Intel Core i7-8700 CPU @ 4450.0MHz - 2273 XTU Marks auf HWBOT (//hwbot.org/xtu/share/709575)

Ich weis, das es quasi nichts bringt, aber normalerweise sollte auch BCLK-Overclocking mit 102MHz über das XTU funktionieren, bietet sich aber nicht an.
Es hängt also sehr viel vom verwendeten Mainboard ab, was für CPU Einstellungen verfügbar sind. Das Asrock scheint auf "Auto" der CPU die Sporen zu geben, da kein PowerMax von 65Watt zu sehen ist ^^

Platos
2017-10-16, 16:46:47
Was hat Vega damit zu tun? Ich habe bei Vega gar nicht mit disskutiert. Willst du mir jetzt vorschreiben wo ich was schreiben muss? Bist du auch so einer, der unter eine Meldung der Tagesschau bei Facebook schreibt "warum berichtet ihr nicht über xyz???!!!"?

Mit Vega hat das zu tun, weil du und andere hier jetzt auf der Verfügbarkeit rumhacken und auf dem Stromverbrauch, aber beim Vega Thread dann das alles auf egal war? Gut, mag sein, dass du dich da gar nicht beteiligt hast. Ändert aber nichts daran, dass hier jetzt AMD Fans genau die Punkte auf die Goldwaage legen, während dem sie beim Vega Thread verharmlost wurden. Egal ob von AMD oder Intel Seite, es nervt einfach nur, so parteiisch zu diskutieren. Man kann hier keine wirkliche Diskussion führen (im Diskkussions-Forum), weil dann jeder bekloppte Fan wieder auftaucht. Das gilt nicht nur für AMD Fans, sondern genau so für Intel Fans, die jetzt die Verfügbarkeit runter spielen oder sonst was, aber beim letzten AMD Launch genau das vorgehalten haben.

Darum beteilige ich mich nur selten hier in dem Teil des Forums.

Schon wieder diese Superlativen. "Um Welten", hat das noch irgendeine Bedeutung? Abgesehen davon, dass der i7-8700K gerade gar nicht lieferbar ist, ist der günstigste Preis bei Mindfactory 398,95€ (https://geizhals.de/intel-core-i7-8700k-bx80684i78700k-a1685281.html), während der R7 1800X bei 425,95€ (https://geizhals.de/amd-ryzen-7-1800x-yd180xbcaewof-a1582191.html?hloc=at&hloc=de) liegt. Und zwar verfügbar. Das sind 6,7% Aufpreis, oder anders ausgedrückt "um Welten teurer" :D

Nochmal der Hinweis: i7 = nicht verfügbar, R7 = verfügbar. Auf eBay gibt es hin und wieder mal einzelne i7-8700K für um die 500€. Das ist dann doch ein gutes Stück teurer.

Siehst du? Du behauptest der Ryzen ist viel teurer und am Ende ist es anders herum. Das ist mein Problem hier.

Das "um Welten" war ganz klar auf den Ryzen 1600x im Vergleich zum Ryzen 1800X bezogen. Da sind es Welten. Aber siehst du, du pickst einfach etwas aus meiner Antwort raus, aber gehst kein Stück darauf ein, dass genau das selbe im höheren Masse beim 1600x vs. 1800x passiert. Das überhörst du dann aber wieder und reitest auf "um Welten" rum, das nicht einmal auf den Coffe Lake bezogen war (und das stand auch ganz klar da).
Und ja, der Coffe Lake ist im Moment ja auch praktisch nicht verfügbar, klar ist der Preis da hoch.


Siehe oben. Und wo bitteschön behaupte ich, dass nur noch die Mehrleistung zählt? Genau, nirgends. Du legst mir das einfach nur in den Mund, du Lügst.

Man muss etwas nicht wörtlich sagen, um es zu behaupten. Hier kommst du mit dem Argument, dass der 1800x in bestimmten Anwendungen besser ist. Das ist also dein Argument, die reine Mehrleistung. P/L völlig ausgeklammert.

Es gibt genügend Anwendungen in denen ein 1800X vor dem 8700K liegt

w0mbat
2017-10-16, 16:53:33
Das "um Welten" war ganz klar auf den Ryzen 1600x im Vergleich zum Ryzen 1800X bezogen.

Da hast du Recht, das habe ich mich vertan. Wahrscheinlich weil dein letzter Absatz "Ein 1800X ist ja auch teurer als der 8700k. [...]" war und ich das noch im Kopf hatte als ich die Antwort geschrieben habe.

Platos
2017-10-16, 17:17:42
Aber mal zum Thema :biggrin: Hat denn hier jemand einen umfangreichen Test ? Bis jetzt habe ich nur die paar Tests gefunden, die entweder praktisch nichts angeben oder nur 5-6 Spiele testen. Gibts denn auch mal irgendwo einen Test mit 20-30 Spielen ? Evtl. auch mit OC Test und evtl. gleich mit 70p, 1080p, 1440p und 2160p ?