PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

dildo4u
2017-03-23, 22:41:31
Ich hoffe die setzen genug Board's ab das bald welche mit neuem Bios geliefert werden.Kein Bock auf solche Geschichten.

BlacKi
2017-03-23, 23:07:44
Stats diesen Artiekel zu schreiben hätten sie doch einfach mal Dota 2 jetzt Benchmarken können, wo man mal sieht wie gut die Leistung steigt wenn ein Spiel optimiert.
ist kein artikel. kommentare sind biased. soll ja auch nicht direkt meinungsbildend sein. nur, was raus muss muss raus, zur not auch als kommentar.

Mal ne kurze Frage: Woher kommt das Märchen mit der CCX Kommnukation, die nicht richtig funktionieren soll?
unter anderem wegen solcher werte, auch andere seiten haben ähnliche messungen erhalten

https://abload.de/img/unbenannt96u6g.png

basix
2017-03-23, 23:18:57
@ Redaktionen, welche hier mitlesen: Wäre es möglich, den 1600X gegen entsprechende 6-Kerner von Intel antreten zu lassen? z.B. 6800K und 5820K @ Default sowie OC?

Das wäre Klasse :)

DrumDub
2017-03-23, 23:26:20
unter anderem wegen solcher werte, auch andere seiten haben ähnliche messungen erhalten
das ist der architektur geschuldet. da wird sich nix machen lassen. HT4U hat das hier doch schon schön erklärt:

AMDs Comeback - Ryzen 7 1800X im Test - Das Cache-System (https://www.ht4u.net/reviews/2017/amd_ryzen_7_1800x_im_test/index9.php)

intel hat das ganze ja anders gelöst, hat aber dadurch andere nachteile: Eine Erklärung, weshalb AMD diese Design-Entscheidung getroffen hat, ist sicherlich der Energiebedarf gepaart mit der Designkomplexität.Intels Ringbus-Ansatz erlaubt zwar konstant niedrige Latenzen, benötigt dafür aber vermutlich auch einiges mehr an Energie. Bereits bei der Einführung von Skylake hat Intel ja, nicht ohne Grund, den L3-Cache deutlich verlangsamt.

Screemer
2017-03-23, 23:49:41
unter anderem wegen solcher werte, auch andere seiten haben ähnliche messungen erhalten

https://abload.de/img/unbenannt96u6g.png
Das liegt am 2133er RAM. Dürfte sich mit 2400/2666er schon sehr angleichen.

Flusher
2017-03-23, 23:57:56
HA - I'm back.

Nach 2 h rumgebastel hab ich es doch tatsächlich geschafft den EZ-Updater anzuwerfen und das Bios von einem USB-Stick zu flashen.

Was letztendlich geholfen hat:

- alle USB-Stecker abziehen (auch Tastatur und Maus)
- sauberen frisch formatieren Stick verwenden und nur diesen einstecken
- Monitor an DVI-Port der Grafikkarte anstecken

Plötzlich ist das Bios-Update Program aufgepoppt (nicht Crashfree Bios) und ich konnte ganz normal nach anstecken von Tastatur und Maus das Bios updaten.

Meinen RAM kann ich aber immer noch nur mit max. 2400 MHz betreiben (Corsair cmk16gx4m2b3000c15)

vinacis_vivids
2017-03-24, 00:10:26
unter anderem wegen solcher werte, auch andere seiten haben ähnliche messungen erhalten


Ist schon veraltet.

Screemer
2017-03-24, 00:26:15
Ist schon veraltet.
Aha. Was ist an den werten veraltet? Der Takt des rams vielleicht. Sonst sind die Werte doch korrekt, oder nicht?

sulak
2017-03-24, 00:47:43
Das liegt am 2133er RAM. Dürfte sich mit 2400/2666er schon sehr angleichen.

Genau das wäre ein interessanter Test. Hoffentlich kann pcgh da nachlegen bevor die 6Kerner aufschlagen und das Thema versinkt. 3000er RAM für einen simulierten 2+2 und einen 4+0 wäre nice, erspart einige Test mit den kleinen Ryzens im April.

dildo4u
2017-03-24, 03:59:40
Battlefield 1 Ryzen 7 1700 - i7 6700k - i5 3570k & GTX 1080 Ti OC

https://youtu.be/Q0P8CxpI98w

uweskw
2017-03-24, 07:50:43
@ Redaktionen, welche hier mitlesen: Wäre es möglich, den 1600X gegen entsprechende 6-Kerner von Intel antreten zu lassen? z.B. 6800K und 5820K @ Default sowie OC?

Das wäre Klasse :)

Kosten die nicht fast doppelt so viel?
Am aussagekräftigsten finde ich für uns Anwender Vergleiche die komplette Systeme zum ungefähr gleichen Preis gegeneinander antreten lassen.

Greetz
US

Pirx
2017-03-24, 08:16:17
Kosten die nicht fast doppelt so viel?
Am aussagekräftigsten finde ich für uns Anwender Vergleiche die komplette Systeme zum ungefähr gleichen Preis gegeneinander antreten lassen.

Greetz
US
Naja Preise ändern sich. Man sollte schon auch technisch vergleichbare Produkte auswählen, aber die aktuellen Preise immer wieder mit im Text ins Spiel bringen, imho. edit: also mal wieder beides = mehr Arbeit für Reviewer:D

drdope
2017-03-24, 08:18:41
Testet mal bitte unterschiedliche Board/RAM/CPU-Combos auf 24h-Stabilität unter absoluten Default-Settings.

https://abload.de/thumb/oc21_3000_auto_y-crunw6utn.png (http://abload.de/image.php?img=oc21_3000_auto_y-crunw6utn.png)

Nachdem ich nach ca. 1 Woche kein 24h-stable OC-Setup hinbekommen habe, hab ich mal alles auf mit Standard-Werten getestet:
--> https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11329821#post11329821
--> https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11329841#post11329841

Verwendete Hardware
1 Samsung SSD 960 Evo 500GB, M.2 (MZ-V6E500BW) (https://geizhals.de/1511200)
1 AMD Ryzen 7 1700, 8x 3.00GHz, boxed (YD1700BBAEBOX) (https://geizhals.de/1582201)
1 G.Skill RipJaws V schwarz DIMM Kit 16GB, DDR4-3200, CL14-14-14-34 (F4-3200C14D-16GVK) (https://geizhals.de/1382376)
1 XFX Radeon RX 460 Passive Heatsink Edition, 4GB GDDR5, DVI, HDMI, DisplayPort (RX-460P4HFG5) (https://geizhals.de/1500921)
1 ASUS ROG Crosshair VI Hero (90MB0SC0-M0EAY0) (https://geizhals.de/1582881)
1 Eizo Foris FS2735, 27" (FS2735-BK) (https://geizhals.de/1317311)
1 Fractal Design Define S, schallgedämmt (FD-CA-DEF-S-BK) (https://geizhals.de/1259880)
1 Enermax Platimax D.F. 500W ATX 2.4 (EPF500AWT) (https://geizhals.de/1491070)
+ Wasserkühlung

y33H@
2017-03-24, 08:52:23
Am aussagekräftigsten finde ich für uns Anwender Vergleiche die komplette Systeme zum ungefähr gleichen Preis gegeneinander antreten lassen.Bei ausreichend vielen getesteten CPUs kannst du ja das Board deiner Wahl aussuchen und dann PLV vergleichen.

Lowkey
2017-03-24, 08:55:24
@y33H@

Was steht auf der todo Liste?

vinacis_vivids
2017-03-24, 08:56:31
Aha. Was ist an den werten veraltet? Der Takt des rams vielleicht. Sonst sind die Werte doch korrekt, oder nicht?

Alles ist veraltet bei diesen Werten und außerdem wieder mit NV-Treiber.

Civtam
2017-03-24, 09:04:53
Bei ausreichend vielen getesteten CPUs kannst du ja das Board deiner Wahl aussuchen und dann PLV vergleichen.
Ich fände nen 5820k @ 4,5 GHz mal einen interessanten Kontrahenten;)

y33H@
2017-03-24, 10:06:38
Was steht auf der todo Liste?Warten auf die SKUs, derweil 1700(X) und den OC-Artikel weiter basteln.

j4l
2017-03-24, 10:32:46
Warten auf die SKUs, derweil 1700(X) und den OC-Artikel weiter basteln.


Du fragtest nach Wünschen bzgl 1600(x) Tests. Bei mir und meinem alten Phenom 2 samt non SD dauert ja das Laden eines No Mans Sky Spielstandes über 2 Minuten. Vielleicht kann man ja daraus einen Test basteln...kA.

Hübie
2017-03-24, 10:33:10
Macht ihr auch mal einen per-clock Vergleich? :smile:

y33H@
2017-03-24, 11:22:33
Ja, wenn der 1700 drin steckt - hatte den 6900K @ 3 GHz, aber einen 1800X/1700X krieg ich mit dem MSI nicht so tief runter vom Takt her ...

vinacis_vivids
2017-03-24, 11:24:34
Kannst du das hier verifizieren?

https://abload.de/img/hit-4k-ft1800kvs6900k8oxoc.png

y33H@
2017-03-24, 11:27:02
Ich nutze Hitman bisher nicht für CPU-Benchmarks, also nein.

Screemer
2017-03-24, 11:31:00
Alles ist veraltet bei diesen Werten und außerdem wieder mit NV-Treiber.
Das Verhältnisse der werte zueinander, würden sich heute bei einem nachtest mit 2133er RAM nicht ändern. Was soll daran also veraltet sein? Wenn es außerdem stimmt, dass NV bei freien Ressourcen viel inter-ccx-kommunikation verursacht, dann würde diese mit sinkender Kern und theadanzahl auch abnehmen und somit weniger Einfluss aufs Ergebnisse haben. Du verrennst dich ganz schön in deinen unschlüssigen Gedanken.

vinacis_vivids
2017-03-24, 11:31:44
Sehr schade, weil auch beim runterschrauben der Auflösung dies sich zeigt:

https://abload.de/img/hit-1080-ft1800xvs690t7u15.png

vinacis_vivids
2017-03-24, 11:39:31
Das Verhältnisse der werte zueinander, würden sich heute bei einem nachtest mit 2133er RAM nicht ändern. Was soll daran also veraltet sein? Wenn es außerdem stimmt, dass NV bei freien Ressourcen viel inter-ccx-kommunikation verursacht, dann würde diese mit sinkender Kern und theadanzahl auch abnehmen und somit weniger Einfluss aufs Ergebnisse haben. Du verrennst dich ganz schön in deinen unschlüssigen Gedanken.

Ryzen verwirrt mich in vielen Dingen auch, so isses nicht. Außerdem interessiert mich die Skalierung nach DFICLK und nicht die Timings vom RAM.
Nach deiner Theorie wäre es wohl besser einen Ryzen 4C/8T einen CCX zu deaktivieren (und damit auch kleinerer L3) statt jeweils die Cores auf den unterschiedlichen CCX. Ist halt ein schwieriger Balance Akt.

Wenn man den großen L3-Cache haben will, muss man die inter-ccx Brücke mitnehmen. Da bleibt keine Wahl ja.
Außerdem weiß man immer noch nicht ob ein Bios update oder wundowsupdate die Latenz zwischen den CCX auch verbessert. RAM timings bringen da nach meinen erkenntnissen nichts.

Lowkey
2017-03-24, 11:48:26
Warten auf die SKUs, derweil 1700(X) und den OC-Artikel weiter basteln.

Welche Sondertests stehen auf der Liste?

Mein Ryzen läuft dermaßen beta, dass ich das niemandem ohne PC Kenntnisse empfehlen kann.

Birdman
2017-03-24, 11:54:41
Nach deiner Theorie wäre es wohl besser einen Ryzen 4C/8T einen CCX zu deaktivieren (und damit auch kleinerer L3) statt jeweils die Cores auf den unterschiedlichen CCX. Ist halt ein schwieriger Balance Akt.
In aktuellen Spielen wäre eine 4+0 Konfiguration ziemlich sicher schneller als 2+2, in Applikationsbenchmarks aber wohl eher nicht.
Daher ja, dies ist wirklich ein schwieriger Balance Akt und zur Not nimmt man als AMD hier halt das Marketing Argument dass sich 16MB L3 Cache besser verkaufen lassen als 8MB.

Snatch
2017-03-24, 12:00:01
Jaja, die Boards machen schon einige komisch Dinge. Meines Bootet z.B. mit eingestecktem SD-Kartenleser nicht :-D

BlacKi
2017-03-24, 12:03:51
zumindest sollte man die option haben die verbindung zum erweiterten l3 cache zu kappen. vl kommt ja so eine option per bios update.

bin ja auch mal gespannt ob der 4+0 1500x sich nicht manchmal bei selben takt gegen den 3+3 durchsetzen kann.

Jaja, die Boards machen schon einige komisch Dinge. Meines Bootet z.B. mit eingestecktem SD-Kartenleser nicht :-D
musst glaub ich die massenspeichererkennung im bios deaktivieren, der genaue begriff fällt mir grad nicht ein. das ist doch bei vielen mainboards heute so, nicht nur bei amd.

pilzsammler2002
2017-03-24, 12:15:23
Ich würde ja mal gerne nen Test mit ner AMD karte im CPU Limit sehen (6900, 7700, Ryzen 7) :freak:

vinacis_vivids
2017-03-24, 12:16:48
Musst du auf Vega warten. Fury und RX480 locken niemanden mehr vor dem Ofen.

y33H@
2017-03-24, 12:16:55
Sehr schade, weil auch beim runterschrauben der Auflösung dies sich zeigt:

https://abload.de/img/hit-1080-ft1800xvs690t7u15.pngWas zeigt sich? Weniger Spikes auf dem 1800X, dafür niedrigere Bildrate?
Welche Sondertests stehen auf der Liste?Theoretisch oder praktisch? AMD vs NV, DX11 vs DX12, IPC, (RAM-)OC, SMT, Multitasking ...

vinacis_vivids
2017-03-24, 12:20:23
Was zeigt sich? Weniger Spikes auf dem 1800X, dafür niedrigere Bildrate?

Niedrigere Bildate beim 1800x? Ja und nein.
https://abload.de/img/1800xvs6900khitman144t3j4a.png
https://abload.de/img/1800xvs6900khitman216j8jgk.png

DrumDub
2017-03-24, 12:57:36
In aktuellen Spielen wäre eine 4+0 Konfiguration ziemlich sicher schneller als 2+2, in Applikationsbenchmarks aber wohl eher nicht.
Daher ja, dies ist wirklich ein schwieriger Balance Akt und zur Not nimmt man als AMD hier halt das Marketing Argument dass sich 16MB L3 Cache besser verkaufen lassen als 8MB. so seh ich das auch.

Ätznatron
2017-03-24, 13:20:48
@y33H@

Ich wäre schon sehr dankbar, wenn ein Test mit einem OGL-Spiel erfolgen könnte.

X-Plane ist ja aufgrund seiner mit steigender Objektanzahl stark zunehmenden CPU-Limitierung mein Wunschkandidat und würde sich ideal eignen, erfordert vermutlich aber einen zu großen Testaufwand (man kann allerdings so einiges mittels LUA-Scripts und entsprechenden Plugins vereinfachen und auch reproduzierbar gestalten).

Agent117
2017-03-24, 13:20:59
Das liegt am 2133er RAM. Dürfte sich mit 2400/2666er schon sehr angleichen.

Muss man mal Tests abwarten, glaube ich nicht unbedingt. Der L3 Cache ist ja schon nochmal ein gutes Stück schneller als der Interconnect. Selbst mit 1,8Ghz bei Verwendung von schnellem DDR 4 3600 sollte der Interconnect noch der Flaschenhalz sein. Aber gibt wie gesagt noch viele interessante Tests die man machen kann und sollte, so ganz schlau bin ich aus der Spieleschwäche von Ryzen noch nicht geworden.
Nebenbei bemerkt profitieren Ryzen und Skylale gleichermaßen von schnelleren Speicher, wurde hier ein par Seiten zurück besprochen.

Isen
2017-03-24, 13:36:36
Auf alle Fälle mal 2-3 Spielchen mit ner AMD GPU wenn das geht. Um mögliche Probleme die vom NV Treiber her ausgehen auszuschließen. Das geistert sonst rum bis Vega. Kein bock drauf :)

y33H@
2017-03-24, 13:38:37
Niedrigere Bildate beim 1800x? Ja und nein.
https://abload.de/img/1800xvs6900khitman144t3j4a.png
https://abload.de/img/1800xvs6900khitman216j8jgk.pngIm CPU-Limit klar langsamer und im GPU-Limit nen Hauch vorne ... bei sowas bin ich immer sehr skeptisch ob da sauber gemessen wurde (vor allem wiederholt und nicht nur ein Run).
Ich wäre schon sehr dankbar, wenn ein Test mit einem OGL-Spiel erfolgen könnte.

X-Plane ist ja aufgrund seiner mit steigender Objektanzahl stark zunehmenden CPU-Limitierung mein Wunschkandidat und würde sich ideal eignen, erfordert vermutlich aber einen zu großen Testaufwand (man kann allerdings so einiges mittels LUA-Scripts und entsprechenden Plugins vereinfachen und auch reproduzierbar gestalten).Wenn Sebayang da ist, der kennt sich mit aus.

pilzsammler2002
2017-03-24, 13:46:17
Musst du auf Vega warten. Fury und RX480 locken niemanden mehr vor dem Ofen.

Es geht ja ums CPU Limit... :cool:

Palpatin
2017-03-24, 13:47:42
Im CPU-Limit klar langsamer und im GPU-Limit nen Hauch vorne ... bei sowas bin ich immer sehr skeptisch ob da sauber gemessen .
Skpesis ist immer angebracht aber 11% = klar und 6% = nen Hauch, naja......:rolleyes:

vinacis_vivids
2017-03-24, 13:50:59
Im CPU-Limit klar langsamer und im GPU-Limit nen Hauch vorne ... bei sowas bin ich immer sehr skeptisch ob da sauber gemessen wurde (vor allem wiederholt und nicht nur ein Run).

Ja das verwundert mich auch, daher die Nachfrage ob jdm. das nachtesten kann...
Im GPU Limit muss auch die CPU schwitzen in dem Fall.

Ph03n!X
2017-03-24, 13:57:39
Bin echt gespannt auf die ersten Benchmarks mit VEGA GPU im Verbund mit einem Ryzen.

vinacis_vivids
2017-03-24, 14:04:39
Es geht ja ums CPU Limit... :cool:

Hier der running Gag für dich ;D

https://abload.de/img/gow41080pfx8370cdsp4.png

dildo4u
2017-03-24, 14:13:17
Hier der running Gag für dich ;D

https://abload.de/img/gow41080pfx8370cdsp4.png

Karten mit weniger Vram zeigen weniger Details was weniger CPU Last erzeugt:

The 1060 edges out the 970 with an average of 63.7 FPS, but it does have a slightly lower bottom 5%. This is due to the 1060’s 6GB of VRAM allowing it to load Ultra detail textures. Compared to the 970, the 1060 has loaded almost 2GB more texture data into VRAM. On the 4 core i5 this can result in a performance hit from the extra loading and decompression work.
https://gearsofwar.com/en-us/developerblog/8/gearsofwar4perfguide

pilzsammler2002
2017-03-24, 14:21:41
Karten mit weniger Vram zeigen weniger Details was weniger CPU Last erzeugt

Dann ist es aber komisch das die 970 so weit hinter der 390 liegt... :freak:

vinacis_vivids
2017-03-24, 14:22:22
Look: FuryX vs 970 mit "gleichem" VRAM

pilzsammler2002
2017-03-24, 14:41:15
Ändert ja nix daran das die 970 mehr % verliert als die Fury...
CB schreibt ja selber das bei langsamen CPUs die AMD karten weniger verlieren...

Natürlich ist das nur ein Beispiel von vielen anderen... Aber wenn ne Fury da ist kann man se ja mit innen Parkours mit aufnehmen :D
Einfach nur damit man mal vergleichen kann...

Gipsel
2017-03-24, 14:46:34
zumindest sollte man die option haben die verbindung zum erweiterten l3 cache zu kappen. vl kommt ja so eine option per bios update.Was meinst Du denn damit? Wenn Kerne in beiden CCX aktiv sind (und sie auf gleiche Speicherbereiche zugreifen können, also kein Cluster-On-Die aktiviert ist [was bei den Consumer-CPUs sicher keine Option ist]), kannst Du die Verbindung nicht kappen. Es gibt Regeln, wie sich das System bei Speicherzugriffen zu verhalten hat. Und das geht nur mit Kommunikation zwischen den Kernen bzw. Caches, um die Speicherkohärenz sicherzustellen. Unterbindet man das, erzeugt man ein undefiniertes Verhalten.

BlacKi
2017-03-24, 19:35:24
soll ich ein "wenn möglich" hinzufügen? es hätte ja sein können die kommuikation zu unterbinden sodass es nur 8mb l3 gäbe, aber jeder ccx seinen eigenen. das ist für mich definitiv zuviel um das einzuschätzen was möglich ist.

Gipsel
2017-03-24, 21:06:49
soll ich ein "wenn möglich" hinzufügen?Es ist aber nicht möglich. ;)
es hätte ja sein können die kommuikation zu unterbinden sodass es nur 8mb l3 gäbe, aber jeder ccx seinen eigenen. das ist für mich definitiv zuviel um das einzuschätzen was möglich ist.Ähm, jeder CCX hat doch seinen eigenen L3. Deswegen muß trotzdem kommuniziert werden, um die Speicherkohärenz sicherzustellen (sonst kann alles Mögliche schiefgehen, wie gesagt hat man dann ein undefiniertes Verhalten). Das kann man nur umgehen, wenn jeder CCX praktisch ein komplett getrenntes System ist, also wie zwei getrennte CPUs mit getrenntem Speicher (und gegebenfalls auch getrennt laufenden Betriebssystemen). Das ist im Consumerbereich nicht denkbar.

BlacKi
2017-03-24, 21:20:02
achso, mit 2 unterschiedlichen differenzierten l3 gäbe es probleme, sie müssen kommunizieren können. danke für den hinweiß.

Screemer
2017-03-24, 21:36:21
die einzellnen kerne müssen ja checken können ob irgendwas im l3 des anderen ccx liegt.

Sumpfeule
2017-03-24, 21:49:55
Mal so zur Unterstreichung was AMD mit Zen im Vergleich zur Vorgänger Architektur geleistet hat. Eigentlich der Wahnsinn:

zcJCiQD4le8

TGKlaus
2017-03-24, 22:00:14
@ Sumpfeule

Ich muss an der Stelle echt mal danke sagen fuer deine informativen Videos. =)

BlacKi
2017-03-24, 22:29:02
@ Sumpfeule

Ich muss an der Stelle echt mal danke sagen fuer deine informativen Videos. =)
hat ja auch lange genug gedauert.

nagus
2017-03-24, 22:31:38
Mal so zur Unterstreichung was AMD mit Zen im Vergleich zur Vorgänger Architektur geleistet hat. Eigentlich der Wahnsinn:

http://youtu.be/zcJCiQD4le8

interessant aber trotzdem ein bisschen unfair weil 4 vs .8 cores. 4 gegen 4 wäre interessant :)

dildo4u
2017-03-24, 22:32:41
Has AMD Ryzen 1800X Overclocking improved since launch?

https://youtu.be/I71ov8iiDP8

Sumpfeule
2017-03-24, 22:35:45
interessant aber trotzdem ein bisschen unfair weil 4 vs .8 cores. 4 gegen 4 wäre interessant :)
es sind 4 cores vs. 4 cores. smt gehöhrt bei ZEN nun mal zum core dazu

nagus
2017-03-24, 22:49:58
es sind 4 cores vs. 4 cores. smt gehöhrt bei ZEN nun mal zum core dazu

sorry, hab ich übersehen. :rolleyes:
geil :)

robbitop
2017-03-25, 08:55:31
Hm naja. Excavator hat ja in dem Fall keine echten 4C. Kann man 2M/2T einstellen (also cmt deaktivieren?). Dann müsste man es gegen einen Zen mit 2C/2T vergleichen. Ansonsten 2M/4T vs 2C/4T.
Aber gegen einen echten Quadcore - und dann auch noch mit SMT- ist der Vergleich etwas unfair. Alternativ/zusätzlich gegen 4C/4T (smt aus). Am saubersten wäre aber aller erstes.
(Für einen IPC Vergleich der mArchs)

Wurde bei Excavator auch der NB Takt übertaktet? Der bringt bei den Bulldozerderivaten ne Menge (bzw hält diese arg zurück)

Edit: und dann hat Zen auch noch einen L3, der sicherlich auch einiges bringt. Kann man den ausschalten?

Sumpfeule
2017-03-25, 09:11:41
Hm naja. Excavator hat ja in dem Fall keine echten 4C. Kann man 2M/2T einstellen (also cmt deaktivieren?). Dann müsste man es gegen einen Zen mit 2C/2T vergleichen. Ansonsten 2M/4T vs 2C/4T.
Aber gegen einen echten Quadcore - und dann auch noch mit SMT- ist der Vergleich etwas unfair. Alternativ/zusätzlich gegen 4C/4T (smt aus). Am saubersten wäre aber aller erstes.
(Für einen IPC Vergleich der mArchs)

Wurde bei Excavator auch der NB Takt übertaktet? Der bringt bei den Bulldozerderivaten ne Menge (bzw hält diese arg zurück)

Edit: und dann hat Zen auch noch einen L3, der sicherlich auch einiges bringt. Kann man den ausschalten?

Das einzige Manko am Vergleich ist in meinen Augen der L3 Cache. Wobei ich mir nicht sicher bin, wie AMD ihre +52% IPC berechnen (mit oder ohne).


Nur das 1 Core/Module absolut nichts bringt. Weder in syn. noch realworld benchmarks. So unfähig is AMD nun auch wieder nicht.

Kann ja auch nichts dafür, dass die Vorgänger arch so schlecht war... imho ist der Vergleich fair. SMT auszuschalten wäre falsch. Zudem hat SMT sowieso positive wie negative Auswirkungen je nach Anwendungsfall.

und das mit dem "echten" Quadcore ist halt so eine Sache. Aber SMT sind klar nur logische Cores, während ein Modul 2 Integer Unit's sowie eine oder eben 2(!) "halbe" Float Units hat. Zudem einzelne Decoder seit Exc.

Sumpfeule
2017-03-25, 09:13:14
@ Sumpfeule

Ich muss an der Stelle echt mal danke sagen fuer deine informativen Videos. =)

kein Ding :)

vinacis_vivids
2017-03-25, 09:36:31
Das einzige Manko am Vergleich ist in meinen Augen der L3 Cache. Wobei ich mir nicht sicher bin, wie AMD ihre +52% IPC berechnen (mit oder ohne).

Cache hatte ich schon vor dem released als möglicher bottleneck angesprochen, wurde aber hier verissen.

SpecInt2006, weil der Zen Core in erster Linie für Server gedacht ist. Der Vorgänger war ja ein Grund für den Untergang von AMD im dem Bereich.

Interessant ist auch das statement von Jerry Sanders :“People first, products and profit will follow”

Daher wurde Desktop zuerst realeased um dann nachfolgend im Serverbereich Profit zu machen. Man nimmt also sehr geringe Margen für den Consumerbereich in Kauf und gibt Intel damit prinzipiell keine reelle Chance zum kontern.

Man muss sich das mal auf der Zunge zergehen lassen. 360,- für nen 8C/16T, das sind 45€ pro Core, absoluter Dumpingpreis.
Bei Intel zahlst du 140€ pro Kern, das Verhältnis ist da so mies, dass jeder der halbwegs Grips hat, weiß wohin er greifen muss.


UPDATE: insbesondere wegen DDR4 RAM und win update
https://www.reddit.com/r/Amd/comments/61ccp5/ryzen_7_397ghz_vs_7700k_5ghz_retest_with_faster/?st=j0oybhw9&sh=5fb8f74b

https://abload.de/thumb/tvtkbtbbxybg.jpg (http://abload.de/image.php?img=tvtkbtbbxybg.jpg)

M4xw0lf
2017-03-25, 10:20:10
UPDATE: insbesondere wegen DDR4 RAM und win update
https://www.reddit.com/r/Amd/comments/61ccp5/ryzen_7_397ghz_vs_7700k_5ghz_retest_with_faster/?st=j0oybhw9&sh=5fb8f74b

https://abload.de/thumb/tvtkbtbbxybg.jpg (http://abload.de/image.php?img=tvtkbtbbxybg.jpg)
Zwar nicht wirklich im CPU-Limit, aber trotzdem not bad. Die 1% und 0,1% Perzentile sind schon sehr ordentlich im Vergleich zum 5 GHz Kaby Lake.

vinacis_vivids
2017-03-25, 10:23:37
"Smooth with the Ryzen" würde ich einfach sagen während der Kaby Lake mehr und mehr dropt.

Dimon
2017-03-25, 10:37:22
Cache hatte ich schon vor dem released als möglicher bottleneck angesprochen, wurde aber hier verissen.

SpecInt2006, weil der Zen Core in erster Linie für Server gedacht ist. Der Vorgänger war ja ein Grund für den Untergang von AMD im dem Bereich.

Interessant ist auch das statement von Jerry Sanders :“People first, products and profit will follow”

Daher wurde Desktop zuerst realeased um dann nachfolgend im Serverbereich Profit zu machen. Man nimmt also sehr geringe Margen für den Consumerbereich in Kauf und gibt Intel damit prinzipiell keine reelle Chance zum kontern.

Man muss sich das mal auf der Zunge zergehen lassen. 360,- für nen 8C/16T, das sind 45€ pro Core, absoluter Dumpingpreis.
Bei Intel zahlst du 140€ pro Kern, das Verhältnis ist da so mies, dass jeder der halbwegs Grips hat, weiß wohin er greifen muss.


UPDATE: insbesondere wegen DDR4 RAM und win update
https://www.reddit.com/r/Amd/comments/61ccp5/ryzen_7_397ghz_vs_7700k_5ghz_retest_with_faster/?st=j0oybhw9&sh=5fb8f74b

https://abload.de/thumb/tvtkbtbbxybg.jpg (http://abload.de/image.php?img=tvtkbtbbxybg.jpg)

Moin,

was bedeuten die kleinen prozentangaben?

Gruss

vinacis_vivids
2017-03-25, 10:39:51
Moin,

was bedeuten die kleinen prozentangaben?

Gruss

Die prozentuale Zeitangaben.

basix
2017-03-25, 10:51:16
Das sind die sogenannten Percentiles oder wie vinacis schon gesagt hat die prozentualen Zeitangaben.

1.0% = 99.0% der Zeit hat man höhere fps als das
0.1% = 99.9% der Zeit dito

Das ist eine andere Art der Min. FPS Angabe, welche das Spielgefühl wesentlich besser wiedergibt. CPU#1 hat z.B. 1 Stunde lang konstant 100fps aber einen einzigen kurzen Drop auf 10fps. CPU#2 hat 150fps und alle paar Sekunden Drops auf 30fps. Die zweite CPU hat offensichtlich die besseren FPS und auch Min. FPS, das Spielgefühl wird auf CPU#1 aber wesentlich besser sein. Bei reinen Min. FPS würden die meisten zu CPU#2 tendieren. Anhand der Percentiles sieht man aber diesen Unterschied.

Schnoesel
2017-03-25, 11:05:33
Interessant auch bezüglich der Speichergeschwindigkeit. Nett wäre also auf jeden Fall meinen Speicher noch auf 3200 zu bekommen, aber erstmal bin ich froh dass er schon mal 2666 mitmacht. Da lässt es sich leichter warten auf kommende BIOS updates.

vinacis_vivids
2017-03-25, 11:15:13
Hier das volle Video:

https://www.youtube.com/watch?v=RZS2XHcQdqA

basix
2017-03-25, 11:23:36
Interessant auch bezüglich der Speichergeschwindigkeit.

Jop, habe ich auch gesehen. Zum Glück hätte ich solchen Speicher bereits. Wer weiss, vielleicht wird es ein 16C Ryzen :uponder::uconf2::naughty:

vinacis_vivids
2017-03-25, 11:55:46
Jop, habe ich auch gesehen. Zum Glück hätte ich solchen Speicher bereits. Wer weiss, vielleicht wird es ein 16C Ryzen :uponder::uconf2::naughty:

Wird für dich sehr teuer mit Quadchannel 16GBx4@5000Mhz ;D

https://abload.de/img/wmqs4ztqlb4a.jpg

Michalito
2017-03-25, 12:26:05
Das sind die sogenannten Percentiles oder wie vinacis schon gesagt hat die prozentualen Zeitangaben.

1.0% = 99.0% der Zeit hat man höhere fps als das
0.1% = 99.9% der Zeit dito

Das ist eine andere Art der Min. FPS Angabe, welche das Spielgefühl wesentlich besser wiedergibt. CPU#1 hat z.B. 1 Stunde lang konstant 100fps aber einen einzigen kurzen Drop auf 10fps. CPU#2 hat 150fps und alle paar Sekunden Drops auf 30fps. Die zweite CPU hat offensichtlich die besseren FPS und auch Min. FPS, das Spielgefühl wird auf CPU#1 aber wesentlich besser sein. Bei reinen Min. FPS würden die meisten zu CPU#2 tendieren. Anhand der Percentiles sieht man aber diesen Unterschied.


Tja, warum geben nich alle Redaktionen die Werte so an?:wink: Ein Hammer.. pls..

Dimon
2017-03-25, 13:19:54
Das sind die sogenannten Percentiles oder wie vinacis schon gesagt hat die prozentualen Zeitangaben.

1.0% = 99.0% der Zeit hat man höhere fps als das
0.1% = 99.9% der Zeit dito

Das ist eine andere Art der Min. FPS Angabe, welche das Spielgefühl wesentlich besser wiedergibt. CPU#1 hat z.B. 1 Stunde lang konstant 100fps aber einen einzigen kurzen Drop auf 10fps. CPU#2 hat 150fps und alle paar Sekunden Drops auf 30fps. Die zweite CPU hat offensichtlich die besseren FPS und auch Min. FPS, das Spielgefühl wird auf CPU#1 aber wesentlich besser sein. Bei reinen Min. FPS würden die meisten zu CPU#2 tendieren. Anhand der Percentiles sieht man aber diesen Unterschied.

Danke für die ausführliche erklärung!

Gruss

basix
2017-03-25, 13:31:17
Nun gut, ganz korrekt wäre zu sagen, dass es wahrscheinlich die Percentiles anhand der Frametimes sind. Die FPS sind einfach der Kehrwert davon. Das deckt nicht nur für eine Sekunde gemittelte Werte ab sondern auch einzelne Hänger. Normalerweise macht man dann ein solches Diagramm. Spiked es rechts von der Grafik hat man schlechtere min. FPS oder gar Hänger.
https://www.computerbase.de/bildstrecke/74267/8/

Die Redaktionen lernen langsam, dass diese Art der min. FPS Angabe sinnvoller ist ;)
https://www.computerbase.de/2017-03/mass-effect-andromeda-benchmark/2/

Dass mehr Kerne und mehr Cache diesen "Spike"-Effekt in vielen Fällen dämpfen können, sollte eigentlich klar sein. Man hat einfach mehr Ressourcen zur Verfügung. Ganz extrem wird es eben bei einer nicht vernachlässigbaren Hintergrundlast wie z.B. Streaming (Beispiel von AMD). Dann ist das "Zwischenschieben" des Streaming Tasks auf dem fürs Spiel aktiven Core verantwortlich für kurze Hänger etc. Bei einem 8-Kerner kann das meistens einfach auf einen unbenutzten oder wenig aktiven Kern geschoben werden. Dies ist auch der Hauptgrund, wieso ich mir persönlich heute keinen 4-Kerner mehr fürs Spielen holen würde ausser man benötigt unbedingt maximale Single-Thread Leistung. Die höhere Anwendungsperformance von 8-Kernen kann man ebenfalls gerne mitnehmen.

Ravenhearth
2017-03-25, 14:56:38
Ich bräuchte mal Hilfe, weil ich ein ziemliches Problem habe. :redface: Ich habe mir den 1700X, das Asus Prime-X370 Pro, den Alpenföhn Brocken Eco und weitere Teile gekauft und will gerade den Rechner zusammenbauen, aber scheitere kläglich am Kühler. Der passt einfach nicht aufs Mainboard. Die Lochabstände passen nicht zueinander.

Dabei stand in der Beschreibung bei Mindfactory, dass der Kühler den Sockel unterstützt. Also ruf ich die Website von Alpenföhn auf und werde mit einer Nachricht zur AM4-Kompatbilität begrüßt. Demnach wird es ab Mitte April ein Upgrade-Kit für den Brocken Eco geben.

Warum schreiben die dann in die Beschreibung, dass der passt? Egal, so lange möchte ich jedenfalls nicht warten. Welchen Kühler könnt ihr mir als Alternative für AM4 empfehlen? Oder gäbe es doch noch eine Möglichkeit, den Brocken Eco zu befestigen? Denn in den Rezension zum Kühler bei Mindfactory schrieb jüngst jemand, dass er den 1800X mit dem Kühler betreibt, es muss also irgendwie klappen. Weiß jemand, wie?
Danke schonmal.

Boris
2017-03-25, 14:59:54
Könnte mir vorstellen, dass es Chargen gibt bei dem das Montagekit für AM4 schon dabei ist, aber auch noch ältere Chargen im Umlauf sind bei denen das noch nicht der Fall ist. Eventuell hast du so eine ältere Version erwischt.

Was hast du denn für ein Gehäuse bzw. wie hoch darf der Kühler maximal sein? Kannst du nicht übergangsweise den Boxed-Kühler nutzen?

Ravenhearth
2017-03-25, 15:11:12
Könnte mir vorstellen, dass es Chargen gibt bei dem das Montagekit für AM4 schon dabei ist, aber auch noch ältere Chargen im Umlauf sind bei denen das noch nicht der Fall ist. Eventuell hast du so eine ältere Version erwischt.

Was hast du denn für ein Gehäuse bzw. wie hoch darf der Kühler maximal sein? Kannst du nicht übergangsweise den Boxed-Kühler nutzen?

Danke für die schnelle Antwort. :)

Das Gehäuse ist in jedem Fall groß genug, darauf kommt es nicht an. :D Bei 1700X und 1800X sind leider keine Boxed-Kühler dabei.

TwoBeers
2017-03-25, 15:19:46
Könnte mir vorstellen, dass es Chargen gibt bei dem das Montagekit für AM4 schon dabei ist, aber auch noch ältere Chargen im Umlauf sind bei denen das noch nicht der Fall ist. Eventuell hast du so eine ältere Version erwischt.

Es könnte auch sein, dass derjenige mit dem 1800X ein C6H hat, da passen nämlich auch die AM3 Adapter.

@Ravenhearth: Willst du übertakten oder den @default betreiben? Dann reicht auch ein günstiger Arctic, anddill hatte da mal einen rausgesucht, moment... der hier:
https://geizhals.de/arctic-freezer-xtreme-rev-2-ucaco-p0900-csb01-a411061.html (braucht man keine Bohrungen für, is einer mit Haken)

robbitop
2017-03-25, 15:35:49
Das einzige Manko am Vergleich ist in meinen Augen der L3 Cache. Wobei ich mir nicht sicher bin, wie AMD ihre +52% IPC berechnen (mit oder ohne).


Nur das 1 Core/Module absolut nichts bringt. Weder in syn. noch realworld benchmarks. So unfähig is AMD nun auch wieder nicht.

Kann ja auch nichts dafür, dass die Vorgänger arch so schlecht war... imho ist der Vergleich fair. SMT auszuschalten wäre falsch. Zudem hat SMT sowieso positive wie negative Auswirkungen je nach Anwendungsfall.

und das mit dem "echten" Quadcore ist halt so eine Sache. Aber SMT sind klar nur logische Cores, während ein Modul 2 Integer Unit's sowie eine oder eben 2(!) "halbe" Float Units hat. Zudem einzelne Decoder seit Exc.
Nein der Vergleich passt nicht.
Sauber wäre ein mArch Vergleich nur bei gleichen Randbedingungen. Ist hier nicht gegeben. (NB Takt?, L3,Anzahl: M/C/T)

fondness
2017-03-25, 15:43:32
Nein der Vergleich passt nicht.
Sauber wäre ein mArch Vergleich nur bei gleichen Randbedingungen. Ist hier nicht gegeben. (NB Takt?, L3,Anzahl: M/C/T)

Naja, völlig unterschiedliche Architekturen kann man eben nicht fair vergleichen. Das neue Cache-System hat sicher einen nicht unwesentlichen Anteil an der deutlich gestiegenen IPC von Zen, keine Frage. Aber das gehört nunmal zur Architektur, ich denke nicht, dass es sinnvoll wäre hier künstlich zu beschneiden.

Michalito
2017-03-25, 15:52:31
Der Arctic ist fürn Ar.. Der Lüfter ist Grotte.. Don't uy.. Sorry für OT.

Mika2016
2017-03-25, 17:15:27
Ich bräuchte mal Hilfe, weil ich ein ziemliches Problem habe. :redface: Ich habe mir den 1700X, das Asus Prime-X370 Pro, den Alpenföhn Brocken Eco und weitere Teile gekauft und will gerade den Rechner zusammenbauen, aber scheitere kläglich am Kühler. Der passt einfach nicht aufs Mainboard. Die Lochabstände passen nicht zueinander.

Dabei stand in der Beschreibung bei Mindfactory, dass der Kühler den Sockel unterstützt. Also ruf ich die Website von Alpenföhn auf und werde mit einer Nachricht zur AM4-Kompatbilität begrüßt. Demnach wird es ab Mitte April ein Upgrade-Kit für den Brocken Eco geben.

Warum schreiben die dann in die Beschreibung, dass der passt? Egal, so lange möchte ich jedenfalls nicht warten. Welchen Kühler könnt ihr mir als Alternative für AM4 empfehlen? Oder gäbe es doch noch eine Möglichkeit, den Brocken Eco zu befestigen? Denn in den Rezension zum Kühler bei Mindfactory schrieb jüngst jemand, dass er den 1800X mit dem Kühler betreibt, es muss also irgendwie klappen. Weiß jemand, wie?
Danke schonmal.

Genau aus diesem Grund habe ich den ARCTIC Freezer 13 bestellt. Er ist gerade so klein, das alle RAM-Bänke noch erreichbar sind und er funktioniert noch mit den Nasen.

Ich bin auch gerade am bauen ;)

Griffon
2017-03-25, 18:25:57
Genau aus diesem Grund habe ich den ARCTIC Freezer 13 bestellt. Er ist gerade so klein, das alle RAM-Bänke noch erreichbar sind und er funktioniert noch mit den Nasen.

Ich bin auch gerade am bauen ;)

Ich war mir dem Freezer 13 auch immer recht zufrieden, vorallem wenn man den Preis bedenkt.

Ein alter boxed Kühler vom AM3 würde auch gehen, da die Halterung ja gleich ist.

Boris
2017-03-25, 19:03:47
Noctua hat doch auch einige Kühler für AM4 im Programm. Sind zwar etwas teurer, aber evtl. auch was fürs Leben. ;)

Mika2016
2017-03-25, 19:05:36
Noctua hat doch auch einige Kühler für AM4 im Programm. Sind zwar etwas teurer, aber evtl. auch was fürs Leben. ;)

LOL

fondness
2017-03-25, 19:22:01
Also ich habe meinen Noctua mittlerweile fast 10 Jahre. Nachdem man immer gratis neue Sockelhalterungen bekommt und die TDP bei CPUs nicht mehr steigt, sehe ich auch keinen Grund daran etwas zu ändern.

MadCat
2017-03-25, 19:27:34
Für mein zukünftiges System habe ich mir bei Scythe einen AM4-Befestigungssatz für den Mugen 4 PCGH bestellt. Hat 3,99 inkl. Versand gekostet.
Dieser hat bisher einen FX8350 gekühlt und sollte somit mit einem 1800x genau so gut klar kommen.
Die Boards machen mir aber noch Probleme - zu meinem Wunschboard gibts noch keinerlei Tests... >_<

Boris
2017-03-25, 19:29:16
LOL
Die Prozessoren werden in Zukunft immer effizienter und große Revolutionen wird es bei Luftkühlern so schnell nicht mehr geben. Einen aktuellen Kühler wird man auch in 10 Jahren und darüber hinaus noch nutzen können.

Hätte ich meinen Prolimatech Genesis von 2011 nicht verkauft, hätte ich ihn vermutlich jetzt noch auf meinem Ryzen. Wobei er nicht ins Gehäuse passen würde, aber das ist ein anderes Thema.


Die Boards machen mir aber noch Probleme - zu meinem Wunschboard gibts noch keinerlei Tests... >_<
Zu 90% der anderen AM4 Boards auch nicht... :(

Ravenhearth
2017-03-25, 21:11:11
Ein alter boxed Kühler vom AM3 würde auch gehen, da die Halterung ja gleich ist.

Ja! Ich habe jetzt den alten Boxed-Kühler vom Phenom II X6 1055T rausgekramt, den ich nie benutzt habe und der afaik ja auf 125W ausgelegt ist und somit ausreichend sein sollte. Natürlich nur als Übergangslösung, bis ich Mitte April das Upgrade-Kit für den Brocken Eco gratis ordern kann. :) Dankeschön!

Edit: OH MEIN GOTT IST DER LAUT :freak:;D

basix
2017-03-25, 21:14:47
Ich finde es richtig klasse, dass mal wieder was gut läuft bei AMD. Bei den CPUs sind jetzt starke Prozessoren wesentlich günstiger zu haben und es kommt ein wenig Bewegung ins Geschäft. Ich hoffe das selbe werden wir mit Vega sehen (dort nicht unbedingt viel günstiger aber konkurrenzfähig auf allen Ebenen)

bill
2017-03-25, 21:47:12
Ja, sehr bemerkenswert was AMD da auf die Beine gestellt hat. So einen Hammer hätte ich denen nach den letzten Jahren gar nicht mehr zugetraut. Vor allem können sie mit dem konkurrenzfähigen Desing den gesamten Markt abdecken. Das wird Intel einiges an Umsatz kosten und die Preise werden in Bewegung kommen. Der 1600X wird meiner sein. :biggrin:

robbitop
2017-03-25, 23:47:26
Naja, völlig unterschiedliche Architekturen kann man eben nicht fair vergleichen. Das neue Cache-System hat sicher einen nicht unwesentlichen Anteil an der deutlich gestiegenen IPC von Zen, keine Frage. Aber das gehört nunmal zur Architektur, ich denke nicht, dass es sinnvoll wäre hier künstlich zu beschneiden.

Seit wann gehört ein L3 zur mArch? Piledriver gab es mit (Vishera) und ohne L3 (Trinity).
Wenn man die mArch pur vergleichen will, müssen alle Randbedingungen so gleich wie möglich sein. Ansonsten misst man ein verfälschtes Bild.
Die schnelleren und größeren L1/L2 hingegen kann man gelten lassen.

Idealerweise würde man 2M/2T vs 2C/2T mit deaktiviertem L3, gleichem NB- und Ramtakt vergleichen, wenn man wirklich die taktnormierte Leistungsdifferenz der reinen mArch messen will.

Screemer
2017-03-26, 10:06:53
Na klar, ich nehm caches, welche zur Steigerung der Rechenleistung beitragen, aus dem verglich weil sie die andere arch nicht hatte. Wie besheuert ist das denn? Piledriver und vishi waren jabauch aufgrubd der caches unterschiedlicj stark. Als würde ich den turbo von nem aktuellen TDI abbauen, um ihn mit nem Diesel aus den 70er zu verglichen.

Der_Korken
2017-03-26, 10:22:24
Zwei Bulldozer-Module hätten aber zusammen 4MB L2-Cache, während zwei Ryzen-Kerne nur 1MB hätten. Ohne L3-Cache ist der Vergleich also auch nicht richtig fair. Außerdem würde ich Caches grundsätzlich schon als Teil der Architektur betrachten, denn dass Ryzen getrennte L3-Caches pro CCX hat ist gegenüber Intel auch eine Eigenheit der Architektur und lässt sich nicht so ohne weiteres ändern.

vinacis_vivids
2017-03-26, 10:26:37
Was man relativ "sauber" über die Jahre/mArch vergleichen kann, ist der Leistungsoutput pro Watt.
Und da hat AMD einen echten Quantensprung gemacht.

Der_Korken
2017-03-26, 11:17:46
Was man relativ "sauber" über die Jahre/mArch vergleichen kann, ist der Leistungsoutput pro Watt.

Eigentlich nicht, denn die Fertigung hat nach wie vor einen extremen Einfluss darauf. Zen ist sicherlich deutlich effizienter als Bulldozer, aber ein großer Teil wird eben auch aus der 14nm-Fertigung kommen.

Mika2016
2017-03-26, 12:16:00
Ja! Ich habe jetzt den alten Boxed-Kühler vom Phenom II X6 1055T rausgekramt, den ich nie benutzt habe und der afaik ja auf 125W ausgelegt ist und somit ausreichend sein sollte. Natürlich nur als Übergangslösung, bis ich Mitte April das Upgrade-Kit für den Brocken Eco gratis ordern kann. :) Dankeschön!

Edit: OH MEIN GOTT IST DER LAUT :freak:;D

HIHI, sehr schön. Da sieht man mal, was wir uns früher angetan haben;)
Mein Rechner läuft inzwischen. die Leistung ist erschreckend.
Alles ist jetzt 2-3x schneller, als mit dem guten alten 1090T@3400.

Ich bin zufrieden, auch wenn mein Speicher nur mit 2133 statt 2400 läuft.

vinacis_vivids
2017-03-26, 12:42:49
Eigentlich nicht, denn die Fertigung hat nach wie vor einen extremen Einfluss darauf. Zen ist sicherlich deutlich effizienter als Bulldozer, aber ein großer Teil wird eben auch aus der 14nm-Fertigung kommen.

Naja, Bulldozer auf 14nm shrinken für den sauberen Vergleich ist ebenfalls sinnfrei und nur hypotetisch.
Die Wattzahl aus der Dose ist hingegen für jedermann relevant.

iuno
2017-03-26, 13:01:32
Was den perf/Watt Vergleich schmaelert ist eh die Tatsache, dass Ryzen bereits sehr hart am Limit laeuft. Die alten FX rennen doch auch mal ueber 5 GHz. Vergleicht man beide am Sweetspot sieht es nochmal anders aus. Und das wird sich sicher auch noch mittelfristig verbessern mit Zen.

Gipsel
2017-03-26, 13:58:41
Was den perf/Watt Vergleich schmaelert ist eh die Tatsache, dass Ryzen bereits sehr hart am Limit laeuft. Die alten FX rennen doch auch mal ueber 5 GHz. Vergleicht man beide am Sweetspot sieht es nochmal anders aus. Und das wird sich sicher auch noch mittelfristig verbessern mit Zen.Aber man sieht bereits jetzt, daß Ryzen bei Teillast sehr effizient läuft:

https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzgvNjU4NDg0L29yaWdpbmFsLzAzLUdhbWluZy1N ZXRyby1MTC1GSEQtSGVhdnktV29ya2xvYWQtLnBuZw==

Und das ist noch ohne die on-Die dLDO-Regler, die ja angeblich bei den Desktopversionen gebrückt sind. Der Verbrauch skaliert also offenbar recht gut nach unten.

Dino-Fossil
2017-03-26, 15:05:37
Ryzen hat halt aktuell ein Limit bei ca 4 GHz, davon abgesehen scheint der Verbrauch sehr gut.

Das Limit ist sicherlich nicht nur dem Prozess geschuldet, aber es wäre zumindest fraglich, ob man Bulldozer unter 14nm auch auf 5GHz bekommen hätte (und auch dann wäre er deutlich langsamer, von daher...).

robbitop
2017-03-26, 15:50:45
Zwei Bulldozer-Module hätten aber zusammen 4MB L2-Cache, während zwei Ryzen-Kerne nur 1MB hätten. Ohne L3-Cache ist der Vergleich also auch nicht richtig fair. Außerdem würde ich Caches grundsätzlich schon als Teil der Architektur betrachten, denn dass Ryzen getrennte L3-Caches pro CCX hat ist gegenüber Intel auch eine Eigenheit der Architektur und lässt sich nicht so ohne weiteres ändern.

Carizzo/Bristol Ridge (um den es hier ging) hat 1 MiB L2 pro Modul. Und nein L3 Cache ist nicht Teil der mArch. Das sieht man in der Topologie (I/O) und auch auf jedem Die Shot. Beim L1/L2 verschwimmt die Grenze.
Excavator wäre auch mit L3 ausstattbar. Gab es aber nie. Je gleicher die Randbedingungen desto weniger Einflüsse sind in der Messung, die das Ergebnis beeinflussen.
MArch betrifft nur die eigentlichen Cores, nicht jedoch deren Anbindung.

Naja, Bulldozer auf 14nm shrinken für den sauberen Vergleich ist ebenfalls sinnfrei und nur hypotetisch.
Die Wattzahl aus der Dose ist hingegen für jedermann relevant.

Eines ist klar. Zen ist in Punkto Design ein Quantensprung. Das ist unstrittig. Auch prozessnormiert und auch wenn man (siehe oben) alle anderen Parameter normiert. Aber der Doppelshrink bringt sicherlich zumindest einen gewissen Anteil.
Auch hat AMD zwar nicht sonderlich die IPC innerhalb der "Baumaschinen" mArch-Serie, jedoch aber die Energieeffizienz, stark steigern können. Bristol Ridge mit Excavator ist für 28nm im Bereich 15W TDP (mobile) schon erstaunlich im Vergleich zu seinen Vorgängern. Mit 14nm wäre sicherlich noch etwas mehr möglich.

Aber am Ende ist Zen in jeder Hinsicht dennoch ein Quantensprung. Man darf gespannt sein, was AMD noch mit Pinnacle Ridge und Navi herausholt. Ich wäre nicht überrascht, wenn Navi die Lücke pro Kern zu Intel noch weiter verkürzt. Auch in Spielen.

Ryzen hat halt aktuell ein Limit bei ca 4 GHz, davon abgesehen scheint der Verbrauch sehr gut.

Das Limit ist sicherlich nicht nur dem Prozess geschuldet, aber es wäre zumindest fraglich, ob man Bulldozer unter 14nm auch auf 5GHz bekommen hätte (und auch dann wäre er deutlich langsamer, von daher...).

Das wird sicherlich auch ein gutes Stück am automatisierten Layout und der damit hohen Packdichte liegen. Die Baumaschinen (BD, PD, SR, EXC) und Intels Kerne wurden noch relativ viel handgelayoutet. Hier tauscht man dann Takt und Packdichte. Es ist allerdings erstaunlich, dass AMD nur 10-15% Takt zu verlieren scheint und dafür ungleich mehr Packdichte bekommt - Transisitorbudget steigt also deutlich stärker als der Taktverlust. Klingt also nach einem guten Deal.

basix
2017-03-26, 17:28:50
Aber man sieht bereits jetzt, daß Ryzen bei Teillast sehr effizient läuft:

https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzgvNjU4NDg0L29yaWdpbmFsLzAzLUdhbWluZy1N ZXRyby1MTC1GSEQtSGVhdnktV29ya2xvYWQtLnBuZw==

Und das ist noch ohne die on-Die dLDO-Regler, die ja angeblich bei den Desktopversionen gebrückt sind. Der Verbrauch skaliert also offenbar recht gut nach unten.

Vor allem wenn man das mit einem 7700K oder 6900K vergleicht. Hätte nicht gedacht das der Unterschied so gross ist. Vermutlich liegt der grosse Unterschied zwischen Volldampf und Teildampf am wesentlich effizienteren Betriebspunkt bei <3.5 GHz

dildo4u
2017-03-26, 17:45:10
Die Effizienz kann man ohne fps nicht bewerten.

vinacis_vivids
2017-03-26, 17:55:59
Ja, Intel sieht da ziemlich schlecht aus.

dildo4u
2017-03-26, 17:57:44
Ja, Intel sieht da ziemlich schlecht aus.
Nicht wenn z.b der 7700k deutlich mehr fps liefert.

Der_Korken
2017-03-26, 18:13:19
Der Artikel, aus dem die Grafik von Gipsel stammt, hat leider keinen Performance-Test in Metro, sonst hätte man mal gut vergleichen können. Vermutlich lastet das Spiel aber einfach nur vier Kerne aus, was man am geringen Unterschied zwischen 7700K und 6900K bei gleichem Takt sieht (dass 3,8Ghz für den 7700K eine Untertaktung und für den 6900K eine Übertaktung sind, bestätigt das umso mehr). Der 7700K läuft also mehr oder weniger mit Volldampf, während der Ryzen noch ganz gemächlich unterwegs ist. Die fps werden beim 7700K hier sicherlich deutlich höher sein. Eigentlich mal ganz interessant zu sehen, dass der Ryzen in den Spielen, wo er aus seinen acht Kernen keinen Vorteil ziehen kann und schlecht abschneidet, dafür sehr sparsam ist. Den Verbrauch beim Torture Test muss man natürlich in Relation zur Leistung ALLER Kerne setzen und für die Effizienz eher Anwendungsbenchmarks o.ä. heranziehen.

Gipsel
2017-03-26, 18:14:32
Nicht wenn z.b der 7700k deutlich mehr fps liefert.Ich weiß nicht, ob irgendwo die genauen Frameraten zu genau dem Setup veröffentlicht wurden, aber Igor meinte, daß der Ryzen dort in Sachen Performance pro Watt vorne liegt.
Aber egal, mir ging es nicht unbedingt um die absoluten Werte, sondern um das Verhaltem also die Abnahme bei Teillast.

Linmoum
2017-03-26, 18:15:53
Igor hatte Last Light allerdings beim Launch-Review für den 1800X mit drin, insofern hat man zumindest für den einen Vergleich.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HLzcvNjU2MzU5L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==/r_600x450.png
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-7.html

vinacis_vivids
2017-03-26, 18:15:59
Ich kaufe mir einen 1700 statt den 6900k und lege 700-800€ für die Stromkosten zurück.
Da bin ich auf der sicheren Seite was Effizienz angeht ohne lange zu überlegen.

Gipsel
2017-03-26, 18:18:24
Igor hatte Last Light allerdings beim Launch-Review für den 1800X mit drin, insofern hat man zumindest für den einen Vergleich.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HLzcvNjU2MzU5L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==/r_600x450.png
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-7.htmlDas ist leider ein anderes Setup mit anderer Grafikkarte (nur eine 1080FE). Also vielleicht nicht ganz vergleichbar.

IchoTolot
2017-03-26, 18:25:19
Die fps werden beim 7700K hier sicherlich deutlich höher sein. Eigentlich mal ganz interessant zu sehen, dass der Ryzen in den Spielen, wo er aus seinen acht Kernen keinen Vorteil ziehen kann und schlecht abschneidet, dafür sehr sparsam ist.

Mein Kompliment für die Kreativität den Ryzen schön zu reden. Das hab ich bisher auch noch nicht gelesen. ;D Sorry, aber das amüsiert mich grade weil es so klingt als ob man es sich zurechtbiegt wo es grade geht. :D

Er ist zwar langsamer, aber hey dafür auch sparsamer. So kann ich mir auch einen Twingo gegen den Ferrari schönreden. :D

vinacis_vivids
2017-03-26, 18:31:24
Deswegen hat AMD auch beim 6900k Quadchannel bei CB15 Vergleich weggelassen um Intel nicht noch schlechter dastehen zu lassen was Effizienz angeht. Wurden aber dafür fast gesteinigt, weil der Bench ja verfälscht sei ;)

robbitop
2017-03-26, 18:36:08
In den DF Videos fällt mir auf, dass in RotTR und FC Primal die Performance von Zen merkwürdig ist. 7700K ist dort massiv schneller - in einem Maß was aus dem Rahmen fällt. Ob da etwas spezifisches bei Ryzen klemmt (was dann ggf beim Nachfolger gelöst wird)?

Linmoum
2017-03-26, 18:39:45
Das ist leider ein anderes Setup mit anderer Grafikkarte (nur eine 1080FE). Also vielleicht nicht ganz vergleichbar.
Bei dem Roundup ist allerdings auch die 1080FE beim Test-Setup gelistet? :confused:

https://i.gyazo.com/95916cea78347b1550ece54ba4131b93.png
http://www.tomshardware.de/1700-1700x-1800x-benchmarks-amd,testberichte-242333.html

vinacis_vivids
2017-03-26, 18:46:18
In den DF Videos fällt mir auf, dass in RotTR und FC Primal die Performance von Zen merkwürdig ist. 7700K ist dort massiv schneller - in einem Maß was aus dem Rahmen fällt. Ob da etwas spezifisches bei Ryzen klemmt (was dann ggf beim Nachfolger gelöst wird)?

Klemmt bei Nvidia:

Mit der FuryX sieht es so aus:
https://abload.de/img/ryzen-build-fcp-100715nub6.jpg

http://www.pcworld.com/article/3175775/computers/ryzen-7-1800x-and-radeon-fury-x-building-the-water-cooled-fire-breathing-apex-of-amd-power.html?page=3

IchoTolot
2017-03-26, 18:52:07
Naja, wir wollen auch mal festhalten, dass der 5960 auch nur mit 3 GHz taktet und Boost 3.5. Ryzen taktet da weit höher. Dass der Intel natürlich preislich absurd ist, das ist klar. Aber der Intel schlägt sich so gesehen verdammt gut und ist nur minimal langsamer und sogar teils schneller, mit 0,5-1 Ghz weniger Takt!

vinacis_vivids
2017-03-26, 18:57:59
Naja, wir wollen auch mal festhalten, dass der 5960 auch nur mit 3 GHz taktet und Boost 3.5. Ryzen taktet da weit höher. Dass der Intel natürlich preislich absurd ist, das ist klar. Aber der Intel schlägt sich so gesehen verdammt gut und ist nur minimal langsamer und sogar teils schneller, mit 0,5-1 Ghz weniger Takt!

Naja, Effizienz gibs auch noch:
https://abload.de/img/ryzen-build-power-100chsak.jpg

IchoTolot
2017-03-26, 19:05:31
Da sieht er besser aus, das stimmt. Aber der Intel ist ja auch nicht mehr ganz taufrisch. ;) AMD ist ganz frisch am Markt.

Der_Korken
2017-03-26, 19:51:33
Igor hatte Last Light allerdings beim Launch-Review für den 1800X mit drin, insofern hat man zumindest für den einen Vergleich.

http://media.bestofmicro.com/ext/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9HLzcvNjU2MzU5L29yaWdpbmFsL2ltYWdlMDQ3LnBu Zw==/r_600x450.png
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-7.html

Das sieht arg nach GPU-Limit aus. Wenn ein 7700K Stock und @3,8Ghz gleich schnell ist, genauso wie der 6900K, ist das ein ganz schlechtes Zeichen.

Mein Kompliment für die Kreativität den Ryzen schön zu reden. Das hab ich bisher auch noch nicht gelesen. ;D Sorry, aber das amüsiert mich grade weil es so klingt als ob man es sich zurechtbiegt wo es grade geht. :D

Er ist zwar langsamer, aber hey dafür auch sparsamer. So kann ich mir auch einen Twingo gegen den Ferrari schönreden. :D

Ich wollte nichts schönreden, ich finde diese Art der Effizienzbetrachtung sehr interessant. Man sieht oft, dass für die Performance-Bewertung Spiele genommen werden (was ja auch absolut richtig ist), aber beim Verbrauch dann Programme wie Cinebench oder Prime genutzt werden, die alle Kerne immer komplett auslasten. Das verleitet dann leicht zu der Annahme, dass z.B. der 7700K wesentlich effizienter als der R7 (oder auch der 6900K) wäre, weil er in Spielen mehr fps raushaut, aber im Verbrauchstest sparsamer ist. Bei der Messung in Metro sieht man aber, dass die Achtkerner etwas unterbeschäftigt sind und im Verhältnis zu den gelieferten fps dann beim Verbrauch gar nicht so schlecht dastehen, wie ein Prime-Run das vielleicht suggeriert.

OT: Das mit dem Twingo und Ferrari ist vielleicht etwas übertrieben, aber bei Autos nimmt man zur Ermittlung des Normverbrauchs einen Tetsparkour, wo jeder Wagen gleich schnell fahren muss, statt die Motoren voll auszulasten. Da kommen PS-Dickschiffe im Verhältnis zur Maximalleistung mit erstaunlich geringen Verbrauchangaben bei weg. Also das Gegenteil von dem, was ich davor beschrieben habe.

Gipsel
2017-03-26, 21:54:08
Das sieht arg nach GPU-Limit aus. Wenn ein 7700K Stock und @3,8Ghz gleich schnell ist, genauso wie der 6900K, ist das ein ganz schlechtes Zeichen.Wie schon gesagt ist das nur eine 1080. Igor hatte für die Verbrauchsmessungen offenbar eine andere Grafikkarte (eventuell auch eine andere Testszene? Keine Ahnung). Aber im Prinzip wäre eine Messung im GPU-Limit auch gar nicht so verkehrt (Igor sagte, bei seinen Verbrauchstest war man nicht im GPU-Limit), weil dann alle CPUs praktisch gleich viel Arbeit erledigen. Man kann dann auch sehen, wie gut eine CPU darin ist, bei Teillast weniger zu verbrauchen. Das ist, wie Du ja schon gesagt hast, auch irgendwie interessant.

Schaffe89
2017-03-26, 22:19:30
Igor hatte Last Light allerdings beim Launch-Review für den 1800X mit drin, insofern hat man zumindest für den einen Vergleich.

Der Vergleich da ist Blödsinn, wenn alle CPUs wegen GPU Limit die gleichen FPS liefern und die CPU Gaming Loop Messungen sind natürlich auch weit entfernt von irgendeinem CPU Limit, keine Ahnung was da wieder getestet wurde, sehr wahrscheinlich wieder Unsinn.

Igor sagte, bei seinen Verbrauchstest war man nicht im GPU-Limit

Selbst eine Karte von der Leistungsfähigkeit einer Titan X leiert ohne die Auflösung auf 720p zu drehen in Metro nicht wirklich ein ordentliches CPU Limit raus.
Ich frage mich wieso bei dem Diagramm all CPU´s in CPU Limit steht, das kann doch unmöglich stimmen.
Man wird hier einfach die Prozessoren im massiven Grafiklimit vermessen.
Solange man das bei anderen Spielen aber nicht gegencheckt (wie sich da die Prozessoren unter dieser "Teillast" verhalten) ist das ganze nix wert, jedenfalls ziemlich sonderbare und eher unwahrscheinliche Ergebnisse.

Bei der Messung in Metro sieht man aber, dass die Achtkerner etwas unterbeschäftigt sind und im Verhältnis zu den gelieferten fps dann beim Verbrauch gar nicht so schlecht dastehen, wie ein Prime-Run das vielleicht suggeriert.


Also soll AMD bei Teillast deutlich sparsamer in diesem Szenario sein. Die Frage wieso das dann in Anwendungen und der dortigen "Teillast" nicht so ist.
Hier helfen nur weitere Messungen im Grafiklimit um das zu verifizieren.
Gibts in dem Test noch mehr? Oder nur die eine Messung?

Michalito
2017-03-26, 22:51:12
Da sieht er besser aus, das stimmt. Aber der Intel ist ja auch nicht mehr ganz taufrisch. ;) AMD ist ganz frisch am Markt.


Mein Kompliment für die Kreativität den Intel schön zu reden. Das hab ich bisher auch noch nicht gelesen. Sorry, aber das amüsiert mich grade weil es so klingt als ob man es sich zurechtbiegt wo es grade geht.

Er ist zwar älter aber hey dafür auch nocht gut fit. :wink:

MR2
2017-03-26, 23:09:54
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-ryzen-7-1700-1700x-vs-1800x-review

Auch n interessanter Test.

Gipsel
2017-03-26, 23:25:57
Der Vergleich da ist Blödsinn, wenn alle CPUs wegen GPU Limit die gleichen FPS liefern und die CPU Gaming Loop Messungen sind natürlich auch weit entfernt von irgendeinem CPU Limit, keine Ahnung was da wieder getestet wurde, sehr wahrscheinlich wieder Unsinn.Wir kennen die Frameraten bei Igors Test nicht, der eine andere Grafikkarte benutzt hat.
Ich frage mich wieso bei dem Diagramm all CPU´s in CPU Limit steht, das kann doch unmöglich stimmen.
Du kennst doch weder die genaue Testszene noch die Performance dazu.
Also soll AMD bei Teillast deutlich sparsamer in diesem Szenario sein. Die Frage wieso das dann in Anwendungen und der dortigen "Teillast" nicht so ist.
Welche Messungen dazu kennst Du denn, wo der Ryzen bei Teillast z.B. wesentlich mehr zieht?
Hier helfen nur weitere Messungen im Grafiklimit um das zu verifizieren.
Gibts in dem Test noch mehr? Oder nur die eine Messung?
Es gibt noch eine Messung mit Teillast. ;)

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8zLzcvNjU4NDgzL29yaWdpbmFsLzAyLUF1dG9DQUQt MjAxNS1NZWRpdW0tV29ya2xvYWQtLnBuZw==

Aber AutoCAD verhält sich da etwas mysteriös und ist offenbar recht singlethread-lastig. Der 6900K schafft in dem Run die identische Performance zum 1800X (beide @stock), beide 109 Punkte, wofür der 6900K aber 37% mehr Leistungsaufnahme als der 1800X benötigt. Der 1800X@3,8GHz verliert minimal Performance (108 Punkte, wohl innerhalb Meßtoleranz). Der 7700K@3,8GHz liegt performancetechnisch 6% vor dem 1800X (116 Punkte, bei 17% höherem Verbrauch als der 1800X). Der 7700K@stock (also vermutlich 4,5GHz) liegt allerdings 57% vorn (bei 42% mehr Verbrauch). Eine 18% Taktsteigerung bewirkt also beim 7700K 47% Performancezuwachs :|. Das sieht mir ziemlich fishy aus.
Aber egal was man von den Benchmarkwerten und AutoCAD halten will, auch hier verbrauchen die Ryzen recht wenig.
http://www.tomshardware.de/amd-ryzen-7-1800x-cpu,testberichte-242330-9.html

Edit:
Die Performancezahlen oben waren nur für den 2D-Teil, die Verbrauchswerte sind aber für den kompletten Run aus 2D und 3D (keine Ahnung ob über die Laufzeit gemittelt oder Durchschnitt der beiden Teile). Die Performance im 3D-Teil sieht für Ryzen sogar noch minimal besser aus als im 2D-Teil (z.B. schlägt der 1800X den 6900K). Aber der 7700K verhält sich immer noch komisch. Auch hier bringen 18% mehr Takt von 3,8GHz auf 4,5GHz satte 36% mehr Performance. Da läuft irgendwas schief.

AutoCAD Cadalyst Run (normiert auf R7-1800X=100%, Perf/W mit geometrischem Mittel aus 2D und 3D):
CPU|2D|3D|Verbrauch|Perf/W
1800X|100|100|100|100
6900K|100|91|137|70
7700K@3,8|106|102|117|89
7700K|157|139|142|104
FX9590|63|65|162|40
FX9590@3,8|50|53|139|37

vinacis_vivids
2017-03-27, 09:43:56
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-ryzen-7-1700-1700x-vs-1800x-review

Auch n interessanter Test.

Die ökonomische Effizienz nochmal schön zusammengefasst:

https://abload.de/img/h264encodeoauxz.png

TwoBeers
2017-03-27, 11:30:12
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-ryzen-7-1700-1700x-vs-1800x-review

Auch n interessanter Test.

Also ich mag die DF Benchmarks und Reviews ja eigentlich sehr. Aber den fand ich doch etwas zu pro AMD. :D

Das sieht dort so aus, als ob man den 1700 spielend leicht auf 4.0GHz ("sweet spot") bekommen könnte (ja, kann man, wenn man 1.45V+ anlegen will). Er erwähnt nebenbei, dass das Ding dann 45W mehr verbraucht und man das drücken könnte, indem man die Voltage senkt .. ich glaube eher das Gegenteil ist der Fall. ;)

Der sweet spot liegt wohl eher bei 3.7GHz oder 3.8GHz, da kommen die alle irgendwie hin, der Verbrauch is noch ok und man verliert nicht viel Performance zum 1800X.

Außerdem wird die Gaming Performance etwas zu schön geredet, momentan ist der 7700k einfach schneller und er versucht dass dann damit zu begründen, dass es keine 8C/16T Intel CPU für den Preis gibt. Für mich irgendwie Äpfel und Birnen.

Was aber auch noch unerwähnt bleibt, bei der fps/$ Analyse, der 1700 kommt schon inklusive Kühler, bei den 1700X, 1800X und allen Intel Prozessoren muss man noch einen dazu kaufen. :)

tm0975
2017-03-27, 11:41:19
Nicht wenn z.b der 7700k deutlich mehr fps liefert.

welche der bildschirm dann eh nicht anzeigen kann??? prima konzept. das zeigt nur wieder die sinnfeiheit von max-fps benchs bei min-auflösung mit titan x gpu. bei sinnvollen auflösungen und qualitätseinstellungen müssen fps und verbrauch gemessen werden, ggf. noch cpu-last wenn man etwas weitsichtig sein möchte.

der 1700x mit 960 pro ssd ist jetzt jedenfalls unterwegs. bin gespannt. werde bei gelegenheit datenbank-benchmarks bereitstellen.

dildo4u
2017-03-27, 11:45:22
welche der bildschirm dann eh nicht anzeigen kann??? prima konzept.
Was es gibt mittlerweile 200hz TFT's,und es gibt massig Open World Game's wo man ein 7700k braucht um normale 144hz zu nutzen.

GTA5
https://youtu.be/PR1bN4gztR4?t=1m27s

Witcher3,Tomb Raider,Far Cry Primal,AC Unity.

https://youtu.be/TDvk9_iTq6Y?t=3m13s

Birdman
2017-03-27, 11:46:06
Was aber auch noch unerwähnt bleibt, bei der fps/$ Analyse, der 1700 kommt schon inklusive Kühler, bei den 1700X, 1800X und allen Intel Prozessoren muss man noch einen dazu kaufen. :)
Also die Intel CPUs haben einen Kühler dabei, welche ohne Overclocking auch ausreichend und dank Drehzahlsteuerung im idle/2D Betrieb genug leise sind. (und im 3D dann zumeist vom Graka-Lüfter übertönt)

Boris
2017-03-27, 12:07:53
Also die Intel CPUs haben einen Kühler dabei, welche ohne Overclocking auch ausreichend und dank Drehzahlsteuerung im idle/2D Betrieb genug leise sind. (und im 3D dann zumeist vom Graka-Lüfter übertönt)
Weiß nicht welchen Kühler du meinst, aber der Boxed-Kühler mit PWM kann es nicht sein. Ich habe in den Letzten Monaten einen Skylake-Xeon und einen Core i3-6100 gekauft und bei beiden waren die Boxed-Kühler im Idle deutlich hörbar.

TwoBeers
2017-03-27, 12:33:54
Also die Intel CPUs haben einen Kühler dabei, welche ohne Overclocking auch ausreichend und dank Drehzahlsteuerung im idle/2D Betrieb genug leise sind. (und im 3D dann zumeist vom Graka-Lüfter übertönt)

Bei den Preisen von DF handelt es sich aber augenscheinlich um die tray Preise. :)

Schaffe89
2017-03-27, 12:41:53
Du kennst doch weder die genaue Testszene noch die Performance dazu.

Und? So ein niedriger CPU Verbrauch zeigt doch klar, dass es kein CPU, sondern ein Grafiklimit ist.
Die Prozessoren haben halt nix großartig zu tun.

Welche Messungen dazu kennst Du denn, wo der Ryzen bei Teillast z.B. wesentlich mehr zieht?

Na keine, das ist ja das Problem.
Dein zweites Beispiel zeigt keine Gamingmessungen.

Wir kennen die Frameraten bei Igors Test nicht, der eine andere Grafikkarte benutzt hat.

Und? Was soll ein Test wo alle Balken gleich sind uns bitteschön sagen?

Mortalvision
2017-03-27, 13:01:55
https://youtu.be/Rhj6CvBnwNk

Zum Thema 2+2 / 4+0
Fazit: in den getesteten Games irrelevant. Bei Anwendungen, die L3Cache lastig sind, könnte ein deutlich Vorteil für die 2+2 Variante entstehen.

Und die Benchmarks liegen zumeist nahe eines i5 7500, nur wenig darunter. AMD fährt also schwere Preisbrecher auf, wenn es den R3 mit 3,6 GHz rausbringt. Dann könnten die meisten Leute die 50€ Preisdifferenz in die GPU stecken :) oder, oh Wunder, Intel senkt die Preise?

dargo
2017-03-27, 13:08:48
Und? So ein niedriger CPU Verbrauch zeigt doch klar, dass es kein CPU, sondern ein Grafiklimit ist.
Die Prozessoren haben halt nix großartig zu tun.

Wo siehst du hier was von GPU-Limit?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11331823&postcount=3102

P6000 ist sogar etwas schneller als die Titan X Pascal. Und die Karte soll bereits in 1080p in Metro LL limitieren? :| Das sieht eher nach Softwarelimit aus, sprich relativ schlechtem Multithreading. Aber selbst wenn... was ändert das an den Relationen? Auch ein i7-6900K hat in dem Fall weniger zu tun und zieht trotzdem mehr Watt. Gleiches gilt für den i7-7700K sofern die Software nicht alle 8 Threads auslasten kann. Und danach sieht es auch aus wenn die CPU "nur" ~78W zieht.

dildo4u
2017-03-27, 13:21:30
Selbst das gut skalende BF1 hat nur ca 40% Last beim Ryzen 7,da wird es vermutlich vergleichbar aussehen was den Verbrauch angeht.Sieht eher danach aus das es noch lange dauern wird bis Ryzen 7 halbwegs von Games ausgelastet wird.

https://youtu.be/Q0P8CxpI98w

Schnoesel
2017-03-27, 13:26:10
Wenn die CPU ausgelastet ist ist es doch negativ nicht positiv heißt es doch dass keine Reserven mehr vorhanden sind. Also ist es doch für Ryzen positiv mit Blick auf die Zukunft und auf mehrere Jahre.

IchoTolot
2017-03-27, 13:34:37
Dildo trifft genau den Punkt. Die Tatsache, dass Ryzen nicht ausgelastet wird und auch nicht schneller ist als ein i7, zeigt eben deutlich, dass 8 Kerne unnötig sind.

vinacis_vivids
2017-03-27, 13:38:13
Ist gut imaginez ;)

BlacKi
2017-03-27, 13:40:24
Wo siehst du hier was von GPU-Limit?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11331823&postcount=3102

P6000 ist sogar etwas schneller als die Titan X Pascal. Und die Karte soll bereits in 1080p in Metro LL limitieren? :| Das sieht eher nach Softwarelimit aus, sprich relativ schlechtem Multithreading. Aber selbst wenn... was ändert das an den Relationen? Auch ein i7-6900K hat in dem Fall weniger zu tun und zieht trotzdem mehr Watt. Gleiches gilt für den i7-7700K sofern die Software nicht alle 8 Threads auslasten kann. Und danach sieht es auch aus wenn die CPU "nur" ~78W zieht.
es ging doch darum, das cpu limit anliegt (zumindest nach aussage des tests) und das alle unterschiedliche fps ausgeben also auch unterschiedliche verbräuche haben.

also zb. wenn der 7700k 350fps erzielt der 6900k 300 fps und der ryzen 250fps, dann kann man doch nicht pauschal anhand der des diagramms ablesen welche cpu effizienter mit dem strom umgeht.

es geht nicht klar im test hervor welche cpu wieviel bei gleicher leistung (fps) verbraucht.

angenommen man würde bei 120fps nen limiter reinhauen, glaube ich würde die tabelle komplett anders aussehen.

dildo4u
2017-03-27, 13:41:26
Dildo trifft genau den Punkt. Die Tatsache, dass Ryzen nicht ausgelastet wird und auch nicht schneller ist als ein i7, zeigt eben deutlich, dass 8 Kerne unnötig sind.
Ryzen 5 vs i5 ist wesentlich wichtiger für Gamer als die jetzigen Vergleiche vom 1700 vs 7700k.Beide sind massiv überteuert wenn man nur zocken will.Ich würde eher ein Ryzen 5 1600 + 1080 Ti als ein 7700k und nur eine 1080 kaufen.

vinacis_vivids
2017-03-27, 13:43:33
Der 7700k dropt wenn mehr als 8 Threads gefordert werden, und das haben die Intel-Hardliner hier zu lange ignoriert.
Die uber Gaming CPU ist damit in diesen Fällen nicht mehr zu gebrauchen.
Das ist unvermeidlich. Technischer Fortschritt mit mehr Cores und Threads ist unvermeidlich.

devastor
2017-03-27, 13:56:03
Dildo trifft genau den Punkt. Die Tatsache, dass Ryzen nicht ausgelastet wird und auch nicht schneller ist als ein i7, zeigt eben deutlich, dass 8 Kerne unnötig sind.

Wie sagt man so schön, Hubraum ist durch nichts zu ersetzen. Der 7700K aka 4 Zylinder mit Turboaufladung ist zwar schnell aber ein langsamer tuckernder 8 Zylinder Ryzen 7 ist gleichmäßiger vom Laufen her :)

In BF1 bekommt der 7700k schon ab und zu schluckauf wohingegen der Ryzen nur müde lächelt.
Das wird sich in Zukunft auch noch weiter verschieben in Richtung mehr "echte" Kerne. SMT ist schön und gut kann aber richtige Kerne nicht ersetzen.

nikk
2017-03-27, 13:59:59
Außerdem wird die Gaming Performance etwas zu schön geredet, momentan ist der 7700k einfach schneller

Das hängt stark von der Benchmark-Auswahl ab bzw. davon, welche Titel man spielt und ob einem hohe Max-FPS oder hohe Min-FPS wichtig sind. Man muss bei Ryzen zwischen DX11(trotz Taktunterschied im Durchschnitt beide gleich auf (https://www.computerbase.de/2017-03/ryzen-windows-7-benchmark-core-parking/#abschnitt_spielebenchmarks_mit_windows_7_und_10)) und DX12(~30% langsamer (https://techreport.com/forums/viewtopic.php?t=119280)) Performance differenzieren. Der low-level DX12-Renderpfad muss offensichtlich für die jeweilige CPU-Architektur angepasst werden.
Bei Vulkan hingegen ist das zumindest bei Doom nicht der Fall.:confused:

Gipsel
2017-03-27, 14:01:38
Und? So ein niedriger CPU Verbrauch zeigt doch klar, dass es kein CPU, sondern ein Grafiklimit ist.
Die Prozessoren haben halt nix großartig zu tun.Das weißt Du nicht. Es kann auch einfach sein, daß die Software nicht gut multithreaded ist und es an der Leistung von ein oder zwei Threads hängt.
Na keine, das ist ja das Problem.
Dein zweites Beispiel zeigt keine Gamingmessungen.
Es zeigt ein zweites Beispiel unter Teillast. Du hast offenbar kein Gegenbeispiel. Denn danach habe ich gefragt.
Insofern ist die Idee, daß Ryzen bei Teillast recht gut darin ist, Strom zu sparen, nicht übermäßig weit hergeholt.
Und? Was soll ein Test wo alle Balken gleich sind uns bitteschön sagen?Die Balken sind nicht alle gleich lang. Igor hat mit einer deutlich schnelleren Karte gemessen als bei den Performancetests seiner US-Kollegen (die haben nur eine 1080 benutzt). Und es gibt von Igor folgende Aussage zu seinen Verbrauchsmessungen:
Wenn ich die FPS/Watt vom 7700K und Ryzen in Metro LL mit der P6000 vergleiche, dann sehe ich AMD sogar leicht vorn (solange der Prügel nicht bös übertaktet wurde). Im Vergleich zum 6900K übrigens auch.

BlacKi
2017-03-27, 14:10:06
Wie sagt man so schön, Hubraum ist durch nichts zu ersetzen. Der 7700K aka 4 Zylinder mit Turboaufladung ist zwar schnell aber ein langsamer tuckernder 8 Zylinder Ryzen 7 ist gleichmäßiger vom Laufen her :)

In BF1 bekommt der 7700k schon ab und zu schluckauf wohingegen der Ryzen nur müde lächelt.
Das wird sich in Zukunft auch noch weiter verschieben in Richtung mehr "echte" Kerne. SMT ist schön und gut kann aber richtige Kerne nicht ersetzen.
eher 2 4zylinder, die manchmal kommunikationsprobleme zeigen.

die verschiebung richtung mehr kerne wird schon seit dem bulldozer gepredigt, bf1 ist deffinitiv ein pro für ryzen, aber man zieht sich auch nachteile zu. soll jeder machen wie er denkt. mir würden deffinitiv zuviel fps verloren gehen, selbst wenn ich nen 7700k hätte.

vinacis_vivids
2017-03-27, 14:12:28
Definitiv, klar ;)

LadyWhirlwind
2017-03-27, 14:34:39
Hat jemand schon Mainboard Review gesehen? Wenn mein Chef mitmacht gibts demnächst ein neues System. Da soll natürlich Ryzen und wohl auch Vega dann rein. :)

Schnoesel
2017-03-27, 14:55:12
die verschiebung richtung mehr kerne wird schon seit dem bulldozer gepredigt,

Imo in Zukunft alternativlos. Sowohl was Takt als auch IPC angeht sind keine großen Sprünge mehr drin, also wo soll das Ganze herkommen? Es wird zwangsläufig auf mehr Kerne hinauslaufen. Von Gurkenspielen die eh keine Performance benötigen rede ich hier nicht.

Kann mir jetzt nochmal einer erklären was so gut ist an einer CPU Auslastung?

BlacKi
2017-03-27, 15:35:34
Imo in Zukunft alternativlos. Sowohl was Takt als auch IPC angeht sind keine großen Sprünge mehr drin, also wo soll das Ganze herkommen? Es wird zwangsläufig auf mehr Kerne hinauslaufen. Von Gurkenspielen die eh keine Performance benötigen rede ich hier nicht.

Kann mir jetzt nochmal einer erklären was so gut ist an einer CPU Auslastung?
dann kauf ich mir in zukunft eben mehr kerne. aber jetzt noch nicht.

Schnoesel
2017-03-27, 15:48:06
Und was spricht dagegen schon jetzt auf mehr Kerne zu setzen? Jeder kann doch machen was er will und man muss nicht immer zwangsläufig von seinem Kaufverhalten auf andere schließen. Man kann sich ja auch den Intel 4 Kern Intel für die Enthusiastenplattform kaufen, wer auch immer Sinn darin sieht. Imo wird denen aber recht schnell die Luft ausgehen. Für 3 Jahre+ ist das nix.

Screemer
2017-03-27, 15:53:17
Vor allem dürfen die nicht mehr mit nem cpu upgrade auf ihrer derzeitigen Plattform rechnen. Ich bin mit sicher, dass man auch in 2+ Jahren noch neue CPUs für am4 bekommt. Deswegen kommt bei mir auch ein 1600er rein.

Linmoum
2017-03-27, 16:03:38
Finale UVP bzw. Straßenpreise können natürlich noch abweichen, aber das wären die Preise umgerechnet für die Sechskerner. Zumindest bei Ryzen 7 haben sie im Prinzip 1:1 gestimmt.

1600: 242€
1600X: 275€
7700K: 350€

Da muss ich gar nicht erst überlegen, zu was ich nicht mehr greifen würde. Wer allerdings heute noch so viel Geld für 'nen Quad Core raushauen will... bitte.

BlacKi
2017-03-27, 16:04:05
Und was spricht dagegen schon jetzt auf mehr Kerne zu setzen? Jeder kann doch machen was er will und man muss nicht immer zwangsläufig von seinem Kaufverhalten auf andere schließen. Man kann sich ja auch den Intel 4 Kern Intel für die Enthusiastenplattform kaufen, wer auch immer Sinn darin sieht. Imo wird denen aber recht schnell die Luft ausgehen. Für 3 Jahre+ ist das nix.
gegen die kernzahl gibts eigentlich nichts auszusetzen. wüsste auch nicht das ich das so formuliert habe. sicher mag ryzen für manche absolut ausreichen, die habe ich auch nicht angegriffen, aber für die nächsten 3-4 jahre gibts schnelleres und günstigeres für die fraktion spieler.

devastor
2017-03-27, 16:11:01
aber für die nächsten 3-4 jahre gibts schnelleres und günstigeres für die fraktion spieler.

Das weißt du genau woher?

Rincewind
2017-03-27, 16:11:51
...
, aber für die nächsten 3-4 jahre gibts schnelleres und günstigeres für die fraktion spieler.

und die wären?

Schnoesel
2017-03-27, 16:23:00
Ich lehne mich mal aus dem Fenster und behaupte, dass man für die nächsten 3-4 Jahre für folgende CPUs am meisten bang for the buck bekommt:

mit OC: R5 1600
Stock: R5 1600X

Aber ich nehme auch gerne andere Vorschläge an.

BlacKi
2017-03-27, 16:24:36
und die wären?
für ca. 100€ mehr als der billigste ryzen gibts 6x4,4/4,5ghz, der über 15% mehr oc takt schaft und auch noch bei selbem takt in spielen besser performt, ausserdem kann man die 150€ board nicht mit der x99 plattform vergleichen. ausserdem ist die plattform ausgereift, keine beta bretter/riegel mehr.

Ich lehne mich mal aus dem Fenster und behaupte, dass man für die nächsten 3-4 Jahre für folgende CPUs am meisten bang for the buck bekommt:

mit OC: R5 1600
Stock: R5 1600X

Aber ich nehme auch gerne andere Vorschläge an.
keine frage, der 1600 ist zu dem preis unschlagbar, wenn einem 4 kerne nicht reichen.

Rincewind
2017-03-27, 16:29:20
für ca. 100€ mehr als der billigste ryzen gibts 6x4,4/4,5ghz, der über 15% mehr oc takt schaft und auch noch bei selbem takt in spielen besser performt. ausserdem ist die plattform ausgereift, keine beta bretter/riegel mehr.


besser ja, aber nicht günstiger.

...
die habe ich auch nicht angegriffen, aber für die nächsten 3-4 jahre gibts schnelleres und günstigeres für die fraktion spieler.

dargo
2017-03-27, 16:42:06
für ca. 100€ mehr als der billigste ryzen gibts 6x4,4/4,5ghz, der über 15% mehr oc takt schaft und auch noch bei selbem takt in spielen besser performt, ausserdem kann man die 150€ board nicht mit der x99 plattform vergleichen. ausserdem ist die plattform ausgereift, keine beta bretter/riegel mehr.

Keine Ahnung was du da wieder rechnest. Aber für den Preis vom i7-5820K bekomme ich in 3 Wochen (eventuell 5-6 Wochen wegen Deppenaufschlag) einen R5 1600 samt Brett und 16 8GB Speicher. ;D Vom Stromverbrauch brauchen wir da auch nicht reden, die Intel Plattform wird da nur verlieren.

Screemer
2017-03-27, 17:02:21
war die behauptung nicht billiger und besser? ach nein. da hatte ich mich sicherlich verlesen.

Linmoum
2017-03-27, 17:04:28
aber für die nächsten 3-4 jahre gibts schnelleres und günstigeres für die fraktion spieler.
für ca. 100€ mehr als der billigste ryzen gibts 6x4,4/4,5ghz, der über 15% mehr oc takt schaft und auch noch bei selbem takt in spielen besser performt, ausserdem kann man die 150€ board nicht mit der x99 plattform vergleichen. ausserdem ist die plattform ausgereift, keine beta bretter/riegel mehr.
Ja was denn nun? :freak:

Dein Vergleich passt ansonsten nicht so ganz, da du nur mit dem 1700 vergleichst. In rund zwei Wochen launchen aber u.a. der 1600 und 1600X, die deutlich attraktiver sein und auch das deutlich bessere P/L-Verhältnis bieten werden. Beide viel günstiger, der 1600X dazu noch out of the box mit Takt auf 1800X-Niveau, weswegen die beiden sich in Spielen kaum was nehmen werden. Wer mit OC was anfangen kann, greift zum nochmals günstigeren 1600 und hat seine Freude. Da werden aus deinen 100€ dann mal eben locker eher 150€ aufwärts - nur für die CPU.

robbitop
2017-03-27, 17:06:42
Klemmt bei Nvidia:

Mit der FuryX sieht es so aus:
https://abload.de/img/ryzen-build-fcp-100715nub6.jpg

http://www.pcworld.com/article/3175775/computers/ryzen-7-1800x-and-radeon-fury-x-building-the-water-cooled-fire-breathing-apex-of-amd-power.html?page=3


Hat das jemand explizit mal für Tomb Raider und Far Cry untersucht? Wurde das schon von einer zweiten Quelle bestätigt? Hier müsste eigentlich viel investigativer nachgehakt werden. Dann ist die Chance relativ gut, dass NV den Treiber an Ryzen anpasst.

dargo
2017-03-27, 17:09:22
@Linmoum

Das geilste ist dann das Argument bei ihm mit 4,4-4,5Ghz. :freak: Dabei muss man sich nur mal bei TH anschauen was ein i7-5820K bei "nur" 4Ghz bereits zieht. Mit 4,4-4,5Ghz würde es mich nicht wundern wenn der Hassi fast das doppelte vom R5-1600X zieht.

Schnoesel
2017-03-27, 17:12:31
Dabei muss man sagen, dass der I7 5820 für das Geld das er vor 2 Jahren(?) gekostet hat sicherlich eine der langlebigsten CPUs ist und sein wird. Und aus diesem Grund versteh ich auch nicht warum man Stand jetzt noch zu einem 4Kerner greifen sollte.

PacmanX100
2017-03-27, 17:15:08
Was soll er denn ziehen? Dargo übertreibt aber auch. Vom Verbrauch sind die X99 CPUs gut.
Zum Vergleich... die meisten 4790k oder 7700 fressen irgendwas um 1,18 und 1,29V in der Auslieferung. Viele Six-Cores kommen aber mit 0,98-1,05V daher. Bei mir war der 5820 sogar kühler als der vorherige Quad. Bei ebay gibt es ab und an welche die noch besser sind.
4GHz packen die oft mit nur 1,1V ... da ist der verbrauch gering. Der größte Vorteil ist eben wie schon gesagt die Taktfreudigkeit. Die 4,3 - 4,6 GHz erreichst du mit AMD nicht zwangsläufig... Preis hin oder her. Mir ist jedes MHz wichtiger denn sonst hätte ich nen 16C Xeon gekauft... dargo, da gibts übrigens welche für unter 300€ bei ebay. :crazy:
Warum immer neu kaufen? So ein Mainboard+CPU Package gibts definitiv oft für 4 Scheinchen. Das ist völlig okay weil weitere Upgrades möglich sind..

Die Diskussion ist müßig... wenn die Preise purzeln? alles fürn Arsch. :tongue:

Tamagothi
2017-03-27, 17:17:37
Die sind nur Kühler weil verlötet und nicht weil sind wenig/er verbrauchen.

PacmanX100
2017-03-27, 17:18:42
Bei weniger Spannung ist auch der Verbrauch besser. Das ergibt sich zwangsläufig aus der Formel. ;) Die TDP ist ja auch nicht doppelt so hoch und selbst die angezeigten Core-Verbrauchswerte sind in Prime nicht extrem.
In der "üblichen" Praxis dürfte der Verbrauch mal gar keine Rolle spielen. Im Idle frisst du zwischen 3 und 7 Watt vielleicht und in 1-3 Core Situationen auch immer unter 60-70. Cores werden schnellstmöglich schlafen gelegt..

Haswell ist außerdem noch eine 22nm CPU... mich wundert es daher umso mehr, das der so viel leistet bei so wenig Budget. 14nm Skylake ist leider nicht um Welten besser. Auch die 68xx und 69xx Serie finde ich enttäuschend was Takt angeht.

dildo4u
2017-03-27, 17:19:38
Hat das jemand explizit mal für Tomb Raider und Far Cry untersucht? Wurde das schon von einer zweiten Quelle bestätigt? Hier müsste eigentlich viel investigativer nachgehakt werden. Dann ist die Chance relativ gut, dass NV den Treiber an Ryzen anpasst.
Far Cry scheint in 1440p massig GPU limitiert zu sein ich halte von den Benches gar nix.Die Fury Performance ist dort komplett kaputt vielleicht weil die 4GB nicht reichen.

https://youtu.be/pYmeuYcqH6M?t=5m54s

basix
2017-03-27, 17:54:08
Mit 4,4-4,5Ghz würde es mich nicht wundern wenn der Hassi fast das doppelte vom R5-1600X zieht.

Ich kann dir relativ genau sagen was der zieht :

5820K, alles handoptimiert, RAM @ 3200MHz, VCCSA @ 1.06V
Verbrauchswerte @ Linx v0.6.4.0
"Gemessen" mit den ASUS Tool (Dual Intelligent Processors 5)
4.0GHz @ 1.04V = ca. 105W (L3 @ 3.6GHz @ 0.96V) --> Default Voltage +10mV beim Core, beim L3 +50mV
4.4GHz @ 1.18V = ca. 150W (L3 @ 4.0GHz @ 1.11V)
4.7GHz @ 1.33V = ca. 205W (L3 @ 4.0GHz @ 1.11V)
Cinebench R15 benötigt ca. 10% weniger
Prime95 liegt nochmals +20-25% darüber
Performance vs. Verbrauch Formel "Marke Eigenbau": +10% Takt = 1.10 * 1.152 = +45% Stromverbrauch
Die Formel stimmt relativ gut bei meinem Prozzi, solange man noch im linearen Spannungsbereich liegt (+10% Takt = +15% Spannung)

Alles in allem kann man sagen: OC mit Default-Spannungen lohnt sich wirklich, der Rest lohnt sich nur für den Schwanzvergleich ;D

dargo
2017-03-27, 18:25:20
Was soll er denn ziehen? Dargo übertreibt aber auch. Vom Verbrauch sind die X99 CPUs gut.

Wo genau soll ich übertreiben?
http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-11.html

Ganz unten siehst du einen emulierten Sixcore mit 4,5Ghz. 175W im Schnitt sind also nur in Ordnung wenn sie bei Intel anliegen? :biggrin:

Zergra
2017-03-27, 18:29:13
Dabei muss man sagen, dass der I7 5820 für das Geld das er vor 2 Jahren(?) gekostet hat sicherlich eine der langlebigsten CPUs ist und sein wird. Und aus diesem Grund versteh ich auch nicht warum man Stand jetzt noch zu einem 4Kerner greifen sollte.
Weil man sich dann eingestehen müsste das man vor 2 Jahren lieber einen 5820k gekauft hätte anstatt einen 6700k und einen 7700k :biggrin:

vinacis_vivids
2017-03-27, 18:33:21
Far Cry scheint in 1440p massig GPU limitiert zu sein ich halte von den Benches gar nix.

Frage mich wo deine investigative Recherchearbeit bleibt. Was soll man von dir halten außer "nix" ?

PacmanX100
2017-03-27, 18:40:54
Ganz unten siehst du einen emulierten Sixcore mit 4,5Ghz. 175W im Schnitt sind also nur in Ordnung wenn sie bei Intel anliegen? :biggrin:

170W erreiche ich auch in prime95(AVX/FMA) bei 100% Auslastung & 8-64k Berechnungen... das spiegelt bei mir keine Praxis wieder.
Bei 7zip kommst du teils nichtmal an die 100W heran obwohl 12 Threads aktiv sind. Die üblichen Anwendungen wie Spiele landen noch niedriger weil die nie bei 12x 99% auslastung liegen.

Desweiteren haben die den übertaktet und sind ans Limit gekommen. 1.32V wäre mir für Dauerbetrieb zuviel. Insbesondere weil Luftkühlung.
Bei 4.1 - 4.3 haben die meisten ihren Sweetsport und machen das mit 1.08-1.18V was völlig okay ist. Wenn es dir um sparsam geht, dann geht das auch...

Bei Ryzen schreckt mich ab das der 3DCenter Bericht das durchschnittliche Potential bei 4.05 - 4,1 GHz sah. Mehr Kerne aber weniger Power bei allen bisherigen Apps. Sonst hät ich den längst bzw. demnächst 12, 16C.
Viele Xeons rennen auch mit 10, 12, 14, 16, 18C auf diesen Boards nur leider sind die nicht tauglich wenn deren Turbo auf 3,2, 2,8, 2,5 GHz sinkt. Nur für Encoding_freaks. ;)

dargo
2017-03-27, 18:44:31
170W erreiche ich auch in prime95(AVX/FMA) bei 100% Auslastung & 8-64k Berechnungen... das spiegelt bei mir keine Praxis wieder.

Ich weiß nicht so recht was an Gipsels Links mit Teillast so unverständlich war.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11331823&postcount=3102
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11332219&postcount=3127

Und hier sprechen wir immer noch bei Ryzen vom Octacore und keinem Sixcore, der selbstverständlich unter gleichen Rahmenbedingungen weniger verbrauchen wird. Zumindest was den max. Verbrauch angeht.

PacmanX100
2017-03-27, 18:52:22
Wenn deiner mit 3.8-4 läuft und meiner mit 4,5-4,6 - dann hast du mindestens einen Kern egalisiert. Die einzelnen leisten schließlich mehr. Endlose Diskussion...

Wegen ein paar Watt Unterschied bemühe ich mich nicht. Ich kaufe trotzdem dicke Lüfter und selbst der Unterschied beim Mainboard (XY Deluxe vs spartanisch) dürfte mehr im Verbrauch ausmachen als bei diesen CPUs. Davon abgesehen sind es zwei Generationen... 2017 vs 2014. Skylake-X dürfte doch der Vergleichswert werden und der kommt erst noch.

Für die User hier dürfte interessant sein welche Performance sie in den Allerweltsanwendungen erreichen. Ich zocke weder Cinebench noch irgendeinen anderen Crap.

Rincewind
2017-03-27, 18:56:49
...

Bei Ryzen schreckt mich ab das der 3DCenter Bericht das durchschnittliche Potential bei 4.05 - 4,1 GHz sah. Mehr Kerne aber weniger Power bei allen bisherigen Apps. Sonst hät ich den längst bzw. demnächst 12, 16C.
Viele Xeons rennen auch mit 10, 12, 14, 16, 18C auf diesen Boards nur leider sind die nicht tauglich wenn deren Turbo auf 3,2, 2,8, 2,5 GHz sinkt. Nur für Encoding_freaks. ;)

Aber was willst Du denn heutzutage machen, um einen Weg zu finden, um mehr CPU-Power zu generieren? Die Frequenz gerät an ihre Grenze, ansonsten hätten wir schon CPUs mit 8 Ghz. Ist aber nicht so. Also mehr Kerne. Und wenn die Software an viele Kerne angepasst ist haben wir mehr Möglichkeiten die Leistung zu steigern. Und der Sprung von 4 auf 8 Kerne ist nur der erste Schritt. Spannende Zeiten. Ich freu mich...:)

BlacKi
2017-03-27, 18:58:21
Ich weiß nicht so recht was an Gipsels Links mit Teillast so unverständlich war.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11331823&postcount=3102
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11332219&postcount=3127

Und hier sprechen wir immer noch bei Ryzen vom Octacore und keinem Sixcore, der selbstverständlich unter gleichen Rahmenbedingungen weniger verbrauchen wird. Zumindest was den max. Verbrauch angeht.
wieso soll er weniger verbrauchen als der 8 kerner? wenn nur 4 kerne ausgelastet werden vom spiel/anwendung, dann verrichtet er dieselbe leistung bei selbem verbrauch. du kannst höchstens die cores die im idle laufen müssen abziehen. um den verbrauch richtig einzuordnen müsste man die fps kennen, wer weis ob nicht ein 3ghz 5820k gleich schnell ist und dabei weniger verbraucht?

vinacis_vivids
2017-03-27, 18:59:41
Für die User hier dürfte interessant sein welche Performance sie in den Allerweltsanwendungen erreichen. Ich zocke weder Cinebench noch irgendeinen anderen Crap.

WoW großer Meister. Alles was du machst ist toll und was andere machen ist Crap. Da gibs ja ne große Diskussionsbasis :freak:

dargo
2017-03-27, 19:00:28
Davon abgesehen sind es zwei Generationen... 2017 vs 2014. Skylake-X dürfte doch der Vergleichswert werden und der kommt erst noch.

Super Argument. Dann kommt auch Pinnacle Ridge (sogar für gleiche AM4 Plattform) usw. usf. Irgendwann kommt mal immer was Neues.

wieso soll er weniger verbrauchen als der 8 kerner? wenn nur 4 kerne ausgelastet werden vom spiel/anwendung, dann verrichtet er dieselbe leistung bei selbem verbrauch.
Lese nochmal was ich geschrieben habe.

PacmanX100
2017-03-27, 19:02:41
Aber was willst Du denn heutzutage machen, um einen Weg zu finden, um mehr CPU-Power zu generieren?

Nun ein paar Tricks gibt es doch noch. Zum einen fettere und schnellere Caches. Die kosten etwas aber steigern die IPC ganz gut (teils vergleichbar mit +500 MHz beim Broadwell). Zum anderen der gammlige Speicher... schneller und bezahlbarer. Oder ne andere Technologie.

Und wenn die Software an viele Kerne angepasst ist haben wir mehr Möglichkeiten die Leistung zu steigern.

Ja, zukünftige Anwendungen und Ports... es wird leider bei alten Sachen nicht mehr nachgepatcht. Und das schließt sogar das glorreiche Starcraft2 mit ein ;) Millionen Nutzer und dann keine Optimierung... wie bei vielen anderen beliebten Titel auch. Meine ganzen Rennspiele erhalten keine Updates mehr nur Fanmods. ;)

Super Argument. Dann kommt auch Pinnacle Ridge (sogar für gleiche AM4 Plattform) usw. usf. Irgendwann kommt mal immer was Neues.

Sicher kommt immer neues doch gerade du solltest wissen das 3 Jahre Unterschied Welten im Technikzeitalter sind. Wenn da nur ein bisschen optimiert werden konnte sieht die Welt völlig anders aus. Und die Preise sind auch nicht in Stein gemeißelt, da hoffe ich auf die größte Bewegung.

WoW großer Meister. Alles was du machst ist toll und was andere machen ist Crap. Da gibs ja ne große Diskussionsbasis

Das hast du völlig richtig erkannt, Yoda. Es gibt überhaupt keine Diskussionsbasis. Als intelligenter Mensch entscheide ich höchstselbst was für mich beim Kauf relevant ist. Ist ja mein Geld.

Was nunmal Quatsch ist wie ich bereits aufgeführt habe theoretische Beispiele herzunehmen und daran die Qualität festzumachen. Mehr Leistung hier... weniger Verbrauch da... oh aber was ist mit den Nachteilen auf der anderen Seite? Die wurden verschwiegen bzw nicht aufgeführt. Performance/Watt wenn ich keine Performance per Watt brauche.. schon haben wir zwei verschiedene Ansichten.

Knuddelbearli
2017-03-27, 19:05:26
Und? So ein niedriger CPU Verbrauch zeigt doch klar, dass es kein CPU, sondern ein Grafiklimit ist.
Die Prozessoren haben halt nix großartig zu tun.



Was doch korrekt ist?!?
Verbrauchsmessungen unter 720p sind doch Wertlos?!?

vinacis_vivids
2017-03-27, 19:15:08
Ist ja mein Geld.

Ach was. Da braucht man nicht mal intelligent zu sein, das kapiert auch ne Amöbe. Ansonsten ist dein abgehobenes Geschwafel recht Eigen und mit der Ankunft der 12C und 16C fürs Desktop schnell in Reich "geschlossenes Kapitel".

Was willst du uns jetzt hier belehren zum Kapitel Ryzen, fass das mal kurz zusammen bitte Meister.

PacmanX100
2017-03-27, 19:18:44
Abgehoben? Weil Wahrheit nicht zu ertragen? Von welcher Ankunft sprichst du denn? Ich kann schon jetzt einen 16C und 18C kaufen. Nützt nur leider nix weil da wo es (hier) nötig ist sie keinen boost geben. ;)

Noch einmal. Es geht hier nicht um Ryzen ansich. Es ging um den Vergleich der da oben aufgestellt wurde. Da wird seit 3jahren(!) verkäufliche Hardware verglichen mit einer Plattform die offiziell jetzt erst rauskommt und nur in manchen Bereichen überzeugen kann. Mehr nicht. Klar genug?

dargo
2017-03-27, 19:21:43
Sicher kommt immer neues doch gerade du solltest wissen das 3 Jahre Unterschied Welten im Technikzeitalter sind.
Ich hoffe du meinst damit nicht die letzten riesen Sprünge bei den Intel CPUs. X-D

vinacis_vivids
2017-03-27, 19:22:13
Naja, man muss ja Intel nicht gleich in den Boden stampfen ;)

PacmanX100
2017-03-27, 19:24:53
Ich hoffe du meinst damit nicht die letzten riesen Sprünge bei den Intel CPUs. X-D

Wieder so ne schwachsinnige Phrase, dargo.

Genau darum geht es bei dir. Genau deswegen wird immer wieder übers selbe diskutiert.
Du weißt genau wie jeder andere, das Sprünge deshalb kaum vorhanden waren weil -kein Bedarf- aus unternehmerischer Sicht. Preise wurden nicht angepasst obwohls möglich war. Modelle wurden nicht abgelöst weil jeder sie gekauft hat. So funktioniert -Markt-, so funktioniert nicht die Technologie.

PS: An den Typen da unten, er freut sich über gratis Ignore. Dummheit stirbt nie aus.

vinacis_vivids
2017-03-27, 19:25:50
Jetzt kommt vom Meister schon die große Marktanalyse :D

Schnoesel
2017-03-27, 19:57:43
Ja, zukünftige Anwendungen und Ports... es wird leider bei alten Sachen nicht mehr nachgepatcht. Und das schließt sogar das glorreiche Starcraft2 mit ein Millionen Nutzer und dann keine Optimierung... wie bei vielen anderen beliebten Titel auch. Meine ganzen Rennspiele erhalten keine Updates mehr nur Fanmods.


Nur ist ein Ryzen locker schnell genug für die alten Games, das schließt auch Starcraft 2 ein. Da spielen viele Pros die streamen auf 6 und 8 Kerner (wie Core i7 3960X oder Core i7 5960X) und haben auch kein Problem. Das Game ist schließlich Jahre alt.

Imo hat man jetzt keine Probleme in Games und in Zukunft ebensowenig.

basix
2017-03-27, 20:11:47
Ach ja, gerade mal wieder Igors Artikel zu Haswell-E ein wenig durchstöbert ;D
http://www.tomshardware.de/core-i7-5960x-haswell-e-cpu-prozessor-x99,testberichte-241630-2.html

Wie unsere Tests uns ebenfalls gezeigt haben, gibt es aber auch immer noch eine ganze Reihe an Bugs, die ausgebügelt werden müssen: Die X99-Mainboards in unserem Testlabor erhalten kontinuierlich BIOS-Updates, wovon die meisten jeweils die Verbesserung der Arbeitsspeicherkompatibilität betreffen.

Einige Kombinationen aus Mainboard und DDR4-RAM waren überhaupt nicht bootfähig, bei anderen war der Arbeitsspeicher nur maximal als DDR4-2666 ansteuerbar. Ab diesem Punkt mussten wir den BCLK-Takt von 100 auf 125 MHz anheben, um weiterzukommen. Die Möglichkeiten, den Speicher mit 2800 und 3000 MT/s zu betreiben, laufen nach wie vor nicht stabil. So lange hier bei der Firmware und der Kompatibilität der Speichermodule keine grundlegende Verbesserung eintritt, könnte DDR4 der Grund sein, aus dem vorsichtige Enthusiasten noch ein wenig mit dem Umstieg auf die neue Plattform warten werden.

X99 & DDR4 war am Anfang genau gleich schlimm wie jetzt bei Ryzen.

Edit:
Ich hoffe du meinst damit nicht die letzten riesen Sprünge bei den Intel CPUs. X-D
Grosse Sprünge gab es schon, aber nur bei den Server-Modellen und nicht den normalen Consumer-Modellen.

BlacKi
2017-03-27, 21:01:47
Imo hat man jetzt keine Probleme in Games und in Zukunft ebensowenig.
wo würdest du da ryzen einordnen? unter oder über 60 fps?:biggrin:
https://abload.de/img/44ghz-2666quadchannelvnu65.png

achja, ist FHD

Schnoesel
2017-03-27, 21:07:23
Wie wäre es mal mit konkreten Angaben was du willst. Wenn du damit die FPS bei Deus EX Mankind in FHD haben willst bemühe doch die Google Suche:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-deus-ex-mankind-divided-dx11-fps

Menace
2017-03-27, 21:22:30
Abgehoben? Weil Wahrheit nicht zu ertragen? Von welcher Ankunft sprichst du denn? Ich kann schon jetzt einen 16C und 18C kaufen. Nützt nur leider nix weil da wo es (hier) nötig ist sie keinen boost geben. ;)

Noch einmal. Es geht hier nicht um Ryzen ansich. Es ging um den Vergleich der da oben aufgestellt wurde. Da wird seit 3jahren(!) verkäufliche Hardware verglichen mit einer Plattform die offiziell jetzt erst rauskommt und nur in manchen Bereichen überzeugen kann. Mehr nicht. Klar genug?

Ich weiß, es fällt schwer über den Tellerrand seiner eigenen Anwendungen zu schauen, aber es gibt sehr viele tägliche Anwendungen, da ist jetzt schon jeder Extrakern ein Fortschritt. Nicht vielleicht für Spielzeug, aber ansonsten doch.

Ich sage mal, die Bereiche, in denen schon der 8/16-Ryzen bei mir überzeugen würde (wenn ich das Geld endlich zusammen hätte).

- Spiele unter 1440 (Locker ausreichend schnell für Nano)
- Capture One
- Boinc
- IMatch
- Video/Musik-Konvertierung
- Musikproduktion
- Multithread (dank 10 offener Anwendungen)
- X-Search
- Effizienz
----------
=> Und das alles für ab 350 €.

Wird nicht kaufbare Hardware miteinander verglichen?

Rincewind
2017-03-27, 21:24:48
...
Ja, zukünftige Anwendungen und Ports... es wird leider bei alten Sachen nicht mehr nachgepatcht. Und das schließt sogar das glorreiche Starcraft2 mit ein ;) Millionen Nutzer und dann keine Optimierung... wie bei vielen anderen beliebten Titel auch. Meine ganzen Rennspiele erhalten keine Updates mehr nur Fanmods. ;)


Mehr Kerne, angepasste Software, neue Rennspiele. :biggrin:
Und ja, kostet Geld, so wie vorher. :biggrin:

dargo
2017-03-27, 21:26:59
wo würdest du da ryzen einordnen? unter oder über 60 fps?:biggrin:
https://abload.de/img/44ghz-2666quadchannelvnu65.png

achja, ist FHD
Was soll eigentlich diese harte 60fps Grenze? Bist immer noch mit nem Steinzeit TFT unterwegs? :tongue:

BlacKi
2017-03-27, 21:33:34
Was soll eigentlich diese harte 60fps Grenze? Bist immer noch mit nem Steinzeit TFT unterwegs? :tongue:
bei mir liegt die grenze noch weit drüber, deshalb bin ich auch nicht 100% mit meiner cpu zufrieden, die könnte ruhig 50% schneller sein. mit 40-50fps könnte ich auch mit free/gsync nicht angenehm zocken.

Schaffe89
2017-03-27, 21:36:21
Was doch korrekt ist?!?
Verbrauchsmessungen unter 720p sind doch Wertlos?!?

Wieso soll das korrekt sein, wenn in dem GRaphen "All CPU´s in CPU Limit " steht.
Das ist einfach nur ausgemachter Unfug. Wenn dort oben stünde (GPU limited Szenario) dann wäre es ja kein Problem.
Trotzdem halte ich die Werte für Unfug, wenn bei anderen Teillastszenarien nur 10 Watt zwischen Ryzen 7 und Broadwell-E stehen und hier auf einmal 40 Watt.
Das ist doch völliger Käse, als ob die CPU Last in Spielen eine andere wäre (1 bis 4 Threads belastet) als in Anwendungen mit selbiger Belastung.
(Hier fehlt klar mehr als nur eine einzige Messung um das zu verifizieren).

Verbrauchsmessungen unter 720p sind für ein CPU Limited Szenario (so wie es in dem Test gewollt ist, aber fehlerhaft durchgeführt wird) genau die richtige Einstellung.

Nur ist ein Ryzen locker schnell genug für die alten Games, das schließt auch Starcraft 2 ein.

PCGH hat die STar Craft Performance getestet und die ist (warum auch immer) dort extrem grottig. Und nein mit Ryzen geht das nicht flüssig, mit einem 7700k schon.
Und glaubt doch nicht immer dass jetzt der Weihnachtsmann kommt und zukünftige Spiele alle für 8 Kerne optimiert werden.
Die meisten Games werden bei 2 bis 6 Threads weiter rumdümpeln und 1% der am Markt erhältlichen Spiele, vorrangig AAA Games werden dann den Optimalfall zeigen.

Screemer
2017-03-27, 21:42:10
Seit birdman mit dem stecken ins ameisen Nest gepikst hat, geht der thread von post zu post immer weiter den Bach hinunter. Super :up:

dargo
2017-03-27, 21:44:04
mit 40-50fps könnte ich auch mit free/gsync nicht angenehm zocken.
Von 40fps hatte auch niemand gesprochen, das ist mir auch oft zu wenig. Ab ~50fps fängt der Spaß dann an. Bsw. 55fps @Freesync/G-Sync fühlen sich fluffiger an als deine ungesyncten 67fps im Bild mit Stuttering und Tearing.

Sumpfeule
2017-03-27, 21:54:11
ohne SMT noch schneller:

8ENim5tZkz4

Schnoesel
2017-03-27, 21:56:31
PCGH hat die STar Craft Performance getestet und die ist (warum auch immer) dort extrem grottig. Und nein mit Ryzen geht das nicht flüssig, mit einem 7700k schon.

Sorry aber du schaust auf Balken und denkst du weißt wovon du redest. Ein Core i7 3960X oder Core i7 5960X haben vergleichbare FPS oder weniger bei SC2 und damit sind Profispieler unterwegs. Es gibt kein Problem in dem Game. Das Spiel ist 7 Jahre alt, kannst ja mal nachsehen welche CPU da aktuell war. Lächerlich zu denken ein 7 Jahre altes Games ließe sich gerade mit dem schnellsten Kaby Lake zocken. Einfach mal das Hirn anschalten. PCGH hat wohl ein Worst Case auf 720p der so nie im Spiel vorkommt.

BlacKi
2017-03-27, 22:07:46
Sorry aber du schaust auf Balken und denkst du weißt wovon du redest. Ein Core i7 3960X oder Core i7 5960X haben vergleichbare FPS oder weniger bei SC2 und damit sind Profispieler unterwegs. Es gibt kein Problem in dem Game. Das Spiel ist 7 Jahre alt, kannst ja mal nachsehen welche CPU da aktuell war. Lächerlich zu denken ein 7 Jahre altes Games ließe sich gerade mit dem schnellsten Kaby Lake zocken. Einfach mal das Hirn anschalten. PCGH hat wohl ein Worst Case auf 720p der so nie im Spiel vorkommt.
LN4KcjW9qwI

dildo4u
2017-03-27, 22:11:19
Wundert mich das sie die Engine mit dem letzten Addon nicht verbessert haben zumindest Diablo 3 hat grad ein DX11 Renderer bekommen.

Der_Korken
2017-03-27, 22:12:03
Wenn wir von diesem Test hier reden:

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Tests/Test-Review-1222033/

Die Werte vom 7700K ergeben irgendwie keinen Sinn. Der 7700K mit 4,2/4,5 ist 41% schneller als ein 7500 mit 3,4/3,8 (min fps sogar 69%), obwohl selbst die Differenz zwischen Basetakt vom 7500 und Boost-Takt vom 7700K nur 33% sind. Woher kommen die fps? Von den 2MB zusätzlichen Cache? Vom HT? Warum sind dann die Achtkerner alle so schlecht? Der 6900K wird auch vom Pentium G4560 nass gemacht. Der 6600K taktet btw 100 Mhz höher als der 7500 und besitzt den gleichen Chip, ist aber trotzdem 10% langsamer. Keine Ahnung, wie verlässlich dieses Spiel als Benchmark ist.

Edit: Gerade mal das Video gesehen: Gott, läuft das Spiel schlecht. Sofern da nicht irgendwie ein unterdimensionierte GPU verbaut ist, muss sich Blizzard schon fragen, wie man bei selbst bei mittleren Schlachten mit einer guten CPU unter 40fps kommt.

Schnoesel
2017-03-27, 22:17:29
Schon mal das Spiel gezockt? Völlig unrealistisches Szenario. Einfach was konstruiert um so viel Last wie möglich zu erzeugen.

Schaut euch die Systeme an die verwendet werden:
https://www.twitch.tv/liquidtlo
https://www.twitch.tv/heromarine
https://www.twitch.tv/lamboking

Sofern da nicht irgendwie ein unterdimensionierte GPU verbaut ist, muss sich Blizzard schon fragen, wie man bei selbst bei mittleren Schlachten mit einer guten CPU unter 40fps kommt.

Wie gesagt das ist eine Scheindiskussion. Das Game ist von 2010. Da war der schnellste verfügbare Prozessor ein Intel Core i7-980X. Was in dem Video gezeigt wird ist wird nie passieren, weder im Singleplayer noch im Multiplayer, außer in einer Sandbox. Wobei man sagen muss dass Softwareseitig Blizzard schon immer 10 Jahre zurück war.

CD-LABS
2017-03-27, 22:35:03
Hat eigentlich immer noch kein Magazin den WraithSpire getestet?

y33H@
2017-03-27, 22:52:21
Kommt mit 1600X und 1500X.

bbott
2017-03-27, 23:04:07
http://youtu.be/LN4KcjW9qwI

Dir ist aber schon aufgefallen, dass es auch unterschiedliche Grafikkarten sind i7 7700 + 1070 vs. Ryzen 1700 + RX480 :freak:

Schon lachhaft wie hier krampfhaft der Ryzen schlecht geredet wird. Waren die AMD Grafikkarten nicht schon immer bei Blizzard schlechter?! Tausch die Karten mal... ;D
Also doch eher ein Grafikkarten Benchmark :crazy:

Wie bei AMD die Spielregeln schnell geändert werden, damit AMD nicht gewinnt, wie im Kindergarten. :freak: Ergo Ryzen muss echt gut sein ;D


Zwei einfache Aussagen:
1. Es wird keine Anwendung (<=8 Threads) geben, welche auf einem i7 7700 laufen wird, aber auch einem Ryzen nicht! - True
2. Es wird Anwendungen (>8 Threads) geben, welche auf einem Ryzen laufen werden, aber auf einem i7 7700 nicht! - True

Zwei falsche Aussagen:
1. Es wird Anwendung geben, welche auf einem i7 7700 laufen wird, aber auch einem Ryzen nicht! - FALSE
2. Es wird >8 Thread-Anwendungen geben, welche auf einem nicht Ryzen laufen werden, aber auch einem i7 7700 - FALSE

--> ERROR (BlueScreen)

Sorry, aber die Zeit für vier Kerner ist abgelaufen, dass sind die neuen Pentium und i3 CPUs.

Brillus
2017-03-27, 23:18:40
http://youtu.be/LN4KcjW9qwI
Toll ein CPU vergleich mit unterschiedlichen Grafikkarten-Leistungsklassen. Wobei anscheind wenn ich mir andere Test so ansehe SC2 NV karten lieber hat als AMD. Gehts noch schlechter?

Edit: Zu spät/zu lang nach SC2 GraKa benches gesucht.

PacmanX100
2017-03-27, 23:36:47
Sorry, aber die Zeit für vier Kerner ist abgelaufen, dass sind die neuen Pentium und i3 CPUs.

So lange die HT haben ist das ganz und gar nicht so. Schau dir mal die Skalierung in 7zip z.B. an. Da sollte ein Wert von 640 bis 760% stehen, also nahezu 8fach Core.
Sicher bringt er das nicht überall aber SMT Bonus kann auch deutlich höher sein als 1% - wenn viele Sachen parallel laufen.

aber es gibt sehr viele tägliche Anwendungen, da ist jetzt schon jeder Extrakern ein Fortschritt. Nicht vielleicht für Spielzeug, aber ansonsten doch.

Ja gibt es. Nutze ich leider niemals ;)... meine bekannten haben auch mit video, audiosoftware nix am Hut. das höchste der Gefühle ist ein Youtube video/herunterladen.
Es gab auch schon vor 10 jahren datenbanken die von 20 kernen profitiert hätten... als privatuser ist das aber leider kein alltägliches anwendungsfeld ;) Da laufen Browser, Office, Spiele, Videoplayer.

BOINC ist auch wieder business-like.. da haste normal Geld für Server-Hardware. Dann gleich 2x 16 oder 4x 20Core...
Musik und Video profitieren gerne, doch da hast du ja das Dilemma: +60% schneller und -20% in anderen Bereichen oder doch maximale Performance und langsamer in Video... ich würde keinen 20Kern 3GHz nehmen... verlust von fast 30% in anderen Bereichen. ;) Lohnt sich nur wenn ich darüber Geld verdienen würde.
Das einzig gute an der ganzen Raserei ist der erzeugte Preisdruck.. wenn der Serverprozessor billig wird wird niemand mehr den "alten Schrott" kaufen.
Warum wird sich hier wieder auf eine einzelne (SC2) Anwendung versteift? Es gibt mehr als nur ein Titel auf dieser Welt. Viele große MMOs, Rennspiele (KI Gegner = CPU lastig), Strategietitel usw usw - viele basieren seit Jahren auf veralteter Technik. Ich behaupte, Turboboost-Funktionen wurden deshalb überhaupt erst ins Spiel gebracht um diesen Mangel zu kompensieren.

CD-LABS
2017-03-28, 00:00:27
Kommt mit 1600X und 1500X.
Gut zu hören.

Screemer
2017-03-28, 00:02:05
@pacman: Nach dem 20ten post dieser Art haben mittlerweile alle verstanden, dass ryzen für dich und deine "bekannten" nichts ist. Kauft euch einen Intel i7 und werdet glücklich. Das es auch Leute wie mich und meine "bekannten" gibt, die sehr wohl von ryzen, seinen Kernen und seinem Preisniveau provozieren, verstehst du vielleicht irgendwann mal. Hör aber doch bitte endlich auf hier rumzuschwadronieren als wärst du Missionar im unerforschten Südamerika.

BlacKi
2017-03-28, 00:04:46
Dir ist aber schon aufgefallen, dass es auch unterschiedliche Grafikkarten sind i7 7700 + 1070 vs. Ryzen 1700 + RX480 :freak:
nein, aber danke für den hinweis.

PacmanX100
2017-03-28, 00:05:44
Nach dem 20ten post dieser Art haben mittlerweile alle verstanden, dass ryzen für dich und deine "bekannten" nichts ist. Kauft euch einen Intel i7 und werdet glücklich.

Ich sprach nicht konkret von Ryzen (sonst würde das da stehen), sondern von Multicore und das beschworene "damit ist alles schneller". Ist es leider nicht wie behauptet wird - es gibt hier und da sehr viele Ausreißer. Wann die Anwendung erschienen ist das sagt nichts aus. (2010 und trotzdem noch 40fps? So ist das leider) Also hast du nach so vielen Posts den Punkt immer noch nicht sehen können? Traurig. Dabei wurde es sogar mehr als einmal hier aufgeführt, warum, wieso. Mir scheint das manche nicht weiter denken wollen. ;)
Marken sind mir völlig schnuppe. Ich habe hier auch einen Phenom X4/X6 gehabt - weil er günstig war. War wohl nix mit der Mission.. zu den Preisen habe ich auch nicht gesagt das ist das schlecht finde.

Boris
2017-03-28, 00:18:30
Ich habe hier im Thread noch keinen Beitrag gelesen in dem behauptet wurde, dass mit Multicore alles schneller ist. Aber wenn ein 7 Jahre altes Spiel schlechter läuft (schlechter, bei weitem nicht unspielbar!), dann ist das nicht so schlimm (meine Meinung). Entscheidend ist, wie Ryzen mit aktueller/kommender Software performt.

Wenn sich mein Ryzen 1700 über die Jahre so gut hält wie z.B. der FX8530 (im vergleich zu CPUs aus der Zeit), dann bin ich mehr als glücklich.

Screemer
2017-03-28, 00:26:38
Ich sprach nicht konkret von Ryzen (sonst würde das da stehen), sondern von Multicore und das beschworene "damit ist alles schneller". Ist es leider nicht wie behauptet wird - es gibt hier und da sehr viele Ausreißer. Wann die Anwendung erschienen ist das sagt nichts aus. (2010 und trotzdem noch 40fps? So ist das leider) Also hast du nach so vielen Posts den Punkt immer noch nicht sehen können? Traurig. Dabei wurde es sogar mehr als einmal hier aufgeführt, warum, wieso. Mir scheint das manche nicht weiter denken wollen. ;)
Marken sind mir völlig schnuppe. Ich habe hier auch einen Phenom X4/X6 gehabt - weil er günstig war. War wohl nix mit der Mission.. zu den Preisen habe ich auch nicht gesagt das ist das schlecht finde.
Na dann ist ja jeder deiner Beiträge offtopic. Dann wäre ich fürs entfernen all dieser und aller die damit in Zusammenhang stehen.

PacmanX100
2017-03-28, 00:28:58
Jetzt bist du noch angehender Moderator? Amtsanmaßung.. in deinem Profil sind viele AMD Zitate drin, das sagt doch schon alles was ich wissen muss. Das es nicht lohnt weiter drauf einzugehen.

Da Ryzen ein Multicore ist, ist Multicore ein Thema.

Aber wenn ein 7 Jahre altes Spiel schlechter läuft (schlechter, bei weitem nicht unspielbar!), dann ist das nicht so schlimm (meine Meinung).

Auch nicht wenn es das Hobby ist? Mich würde das schon jucken ob nach 5jahren der Kauf lohnt wenn sich da nicht viel tut oder nicht?

Wenn sich mein Ryzen 1700 über die Jahre so gut hält wie z.B. der FX8530 (im vergleich zu CPUs aus der Zeit), dann bin ich mehr als glücklich.

Tja schwer zu sagen. Ich befürchte diesmal wird es schneller gehen. Zumindest das Preisniveau könnte schneller runter gehen. In den Foren werden ab und an schon 10er verscheuert für um 640-800€. Bei u390€ ist der Reiz dann sehr groß. ;)

aufkrawall
2017-03-28, 00:52:45
Mir ist gerade mal wieder aufgefallen, dass das Windows-Energieprofil Höchstleistung überhaupt keinen Einfluss auf meinen 2500k hat. Taktet immer noch runter und die Performance ist identisch, wenn alle C-States im Bios aktiviert sind.
Macht Windows da mit verschiedenen CPUs andere Sachen, oder warum soll das angeblich bei Ryzen manchmal etwas bringen?

Isen
2017-03-28, 00:57:35
Japp. Bei Intel wird das von Haus aus deaktiviert. Bei Ryzen nicht. Google > Coreparking intel.

TGKlaus
2017-03-28, 01:20:48
Und bis jetzt hats keine Sau interessiert.
Wie immer wenns um Intel oder Nvidia geht.

iuno
2017-03-28, 01:25:43
Warum auch? Interessiert ja auch nicht wirklich am Desktop. Der Verbrauch ist auch im Idle ok. Wer es braucht kann ja auf Energiespar gehen, sehe gerade dein Problem nicht.
Kommt mit 1600X und 1500X.
:up:
Max auch?

aufkrawall
2017-03-28, 01:28:27
Japp. Bei Intel wird das von Haus aus deaktiviert. Bei Ryzen nicht. Google > Coreparking intel.
Ich find kein endgültig zufriedenstellendes Ergebnis, oder soll ich mich hierdurch wühlen? :confused:
https://msdn.microsoft.com/en-us/library/windows/hardware/mt422910%28v=vs.85%29.aspx

iuno
2017-03-28, 01:40:11
Bei Ryzen ist (war?) core parking im ausgewogenen Energieprofil an, bei Intel CPUs offenbar nicht.
Core parking andert das Verhalten des schedulers/Load balancers beim mapping auf logische Kerne. Mit CP werden erst SMT threads "voll gemacht", ohne CP erst jeweils nur ein logischer pro physikalischer Kern. Sprich: mit CP koennen mehr phys. Kerne laenger schlafen, man hat aber z.B. dafuer bei Last auf 8 Threads nur 4 Kerne an anstatt 8 und ist natuerlich entsprechend lahmer.

Linmoum
2017-03-28, 01:48:29
Ich find kein endgültig zufriedenstellendes Ergebnis, oder soll ich mich hierdurch wühlen? :confused:
https://msdn.microsoft.com/en-us/library/windows/hardware/mt422910%28v=vs.85%29.aspx
CB hatte das zumindest vor kurzem ebenfalls erwähnt.
Durch den Wechsel des Energiesparprofils von Ausbalanciert auf Höchstleistung lässt sich das Core Parking abschalten, ein zeitaufwendiges Aufwecken entfällt. Darüber hinaus soll der neue Turbo tendentiell häufiger höhere Taktraten ermöglichen. Ein Update für Windows 10 im April soll den Leistungsunterschied abschaffen. Intel nutzt Core Parking unter Windows 10 aktuell nicht.
https://www.computerbase.de/2017-03/ryzen-windows-7-benchmark-core-parking/

IchoTolot
2017-03-28, 01:55:22
CB hatte das zumindest vor kurzem ebenfalls erwähnt.

https://www.computerbase.de/2017-03/ryzen-windows-7-benchmark-core-parking/

Coreparking hab ich bei meinen i7 auch nicht. Aber wenn ich auf Höchstleistung stehe taktet er nicht runter, das macht er nur auf ausgeglichen. Da springt er hin und her. Auf Energiesparmodus taktet er dauerhaft auf 800 MHz runter.

aufkrawall
2017-03-28, 02:07:47
Bei Ryzen ist (war?) core parking im ausgewogenen Energieprofil an, bei Intel CPUs offenbar nicht.

Mir war halt neu, dass es seit Win 10 auf Intel aus sein soll.

CB sagt es, ok. Aber eine primäre Quelle sind sie nicht, und sie sind halt eben auch nicht etwas vom Schlage eines z.B. hardware.fr.

Klappt denn der Registry-Tweak mit Ryzen, mit dem man bei Intels Coreparking abschalten konnte, unabhängig von Höchstleistung?
Ich nutze den btw. immer noch, nach dem Motto "sicher ist sicher". (Genau so wie dauerhaft forcierte System Timer Resolution von 0,5ms.)

Und mein alter Sandy taktet sich definitiv noch runter mit Höchstleistung.

iuno
2017-03-28, 04:51:05
Mir war halt neu, dass es seit Win 10 auf Intel aus sein soll.

Haengt moeglicherweise auch von der CPU ab?! So wird man es doch wohl bei mobile CPUs ziemlich sicher an haben, bei Kaby Lake auf dem Desktop eher nicht.
CB schrieb ja auch Intel nutze aktuell kein core parking.

Scheint allerdings auch bei kleinen Sandys aufzufallen:
Here is the definitive answer. Windows 10 Pro has CPU Core Parking disabled by default.
https://social.technet.microsoft.com/Forums/ie/en-US/8d6085d8-2c26-426c-87ac-2ba189b77aa5/core-parking-not-working-after-upgrade?forum=win10itprohardware

j4l
2017-03-28, 08:43:34
Kommt mit 1600X und 1500X.

Macht auch jemand mal wieder World of Tanks Benchmarks?

Schaffe89
2017-03-28, 08:47:39
Ne nur langweilige AAA Games, weil das die meisten Klicks bringt.:freak:

Ne Spaß beiseitige. Die Benchbarks ähneln sich von Review zu Review schon ziemlich imho.
Wäre mal schön aktuelle Early Acess Spiele zu benchen und sich da die CPU Performance anzusehen, oder halt mal irgendetwas abseits vom Rampenlicht.

Noebbie
2017-03-28, 09:22:14
Ryzen ist im Outlet angekommen:

https://www.alternate.de/Outlet/Prozessoren-(CPU)/Sockel-AM4

Emperator
2017-03-28, 09:29:52
Ryzen ist im Outlet angekommen:

https://www.alternate.de/Outlet/Prozessoren-(CPU)/Sockel-AM4
Bei Amazon.fr gibts den 1700x schon für ~350€ NEU
https://www.amazon.fr/gp/product/B06X3W9NGG

vinacis_vivids
2017-03-28, 09:35:26
Kanter hat seinen Senf nun auch dazu gegeben:

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5679

Kurz zusammengefasst: OEM-Partner haben sich pro AMD und pro Ryzen entschieden und sehen über die Delle in "Gaming"Benchmarks und leichtere Nachteile im SingelCore IPC hinweg.

Alle diese epischen Benchmarkschlachten sind auf Nebenschauplätze verlegt.
AMD gibt klar die Marschrichtung Multicore vor.

Isen
2017-03-28, 09:49:06
@Emperator,

bleiben wir mal im Deutschem Gefilde, da kostet er neu 3,90€ mehr als im Outlet.
Die 3,90€ motivieren ja mal sowas von... boaa geil, da bleibt sogar Kohle über um sich ne goile Paste zu kaufen ;D

@vinacis_vivids,

darauf kommt, Kanter erst jetzt?... bis H1 2018 will meine Firma Weltweit umsatteln. Deutsche Firmensitz bis Q3 17.
Gaming kann man eh inne Pfeife rauchen, bleibt wenig hängen im Vergleich ^^

Lowkey
2017-03-28, 09:53:33
Sei es die 1080 Ti oder nun der Ryzen: die Preise machen kaum Sinn, denn die Fallen allen Vorhersagen trotz hoher Nachfrage und geringer Verfügbarkeit (der Mainboards). Warum der Ryzen 1700x in Frankreich 50 Euro weniger kostet, ist mir immer noch nicht ganz klar. Selbst die PCGH ist über die günstigen Preise der 1080 Ti erstaunt (und die müßten es wissen).

@Isen

B-Ware fällt solange im Preis, bis sie verkauft wurde. Wenn du heute einen Ryzen willst, dann ist geprüfte B-Ware bei Alternate den Blick wert, denn die testen die Ware vor dem Verkauf.

Isen
2017-03-28, 09:58:57
Ich bitte dich, für 3,90€ Ersparnis, wo das Teil vermutlich nicht die 3,9-4Ghz packt weshalb es auch zurückgeschickt wurde ist mir das echt nicht Wert, zumal ich noch nie erlebt habe, dass out of box eine CPU defekt wäre.

Relic
2017-03-28, 10:15:23
Ich bitte dich, für 3,90€ Ersparnis, wo das Teil vermutlich nicht die 3,9-4Ghz packt weshalb es auch zurückgeschickt wurde ist mir das echt nicht Wert, zumal ich noch nie erlebt habe, dass out of box eine CPU defekt wäre.

Ja Versandrückläufer sind meist OC-Krücken. Meinen 2500k hab ich auch damals als Warehouse Deal bei Amazon gekauft (gab aber 35% Ersparnis und keine 1%) und bei dem war bei 4,5Ghz Schluss.

dargo
2017-03-28, 10:39:26
Ryzen ist im Outlet angekommen:

https://www.alternate.de/Outlet/Prozessoren-(CPU)/Sockel-AM4
Lol... bei MF gibts den für 4€ mehr neu. :freak:

Lowkey
2017-03-28, 10:58:03
Kauft sich auch daher vorerst niemand, aber die Preissenkungen bei Alternate B-ware sind manchmal heftig.

Noebbie
2017-03-28, 11:07:02
Lol... bei MF gibts den für 4€ mehr neu. :freak:

Outletpreise fallen mit der Zeit gerne mal.

Palpatin
2017-03-28, 11:22:18
Bei Amazon.fr gibts den 1700x jetzt für 349,- https://www.amazon.fr/AMD-Ryzen-1700X-Processeur-Socket/dp/B06X3W9NGG .
Jemand schonmal dort bestellt? Hatte früher mal paar Sachen bei amazon.co.uk bestellt war eigentlich kein Problem.

gmb
2017-03-28, 11:23:01
Kanter hat seinen Senf nun auch dazu gegeben:

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=5679

Kurz zusammengefasst: OEM-Partner haben sich pro AMD und pro Ryzen entschieden und sehen über die Delle in "Gaming"Benchmarks und leichtere Nachteile im SingelCore IPC hinweg.

Alle diese epischen Benchmarkschlachten sind auf Nebenschauplätze verlegt.
AMD gibt klar die Marschrichtung Multicore vor.


Von was manche träumen ist echt immer wieder erstaunlich. Solche clickbait news gibt es bei jeder AMD Generation. Willst du uns weißmachen, dass OEMs nur noch AMD verbauen? Bist du wirklich so leichtgläubig und fällst auf den ganzen Hype rein? Ich erinnere mich nur an die angeblich hunderten Design wins, die AMD errungen haben will mit Bullodozer basierenden CPUs. Komischerweise hat man davon nichts gesehen. Auch diese Meldung ist wieder arg komisch. Ryzen besitzt weder eine integrierte Grafik noch können die Quadcore Modelle richtig tiefe Preisregionen angreifen. Den größten Anteil am OEM Markt kann Ryzen somit gar nicht erst bedienen.

Schnoesel
2017-03-28, 11:28:25
Einen Designwin bekommt man üblicherweise vor der Markteinführung eines Produktes und R5 und R3 stehen ja noch aus. Also ich kann hier keinen Widerspruch entdecken.

Brillus
2017-03-28, 11:35:31
Von was manche träumen ist echt immer wieder erstaunlich. Solche clickbait news gibt es bei jeder AMD Generation. Willst du uns weißmachen, dass OEMs nur noch AMD verbauen? Bist du wirklich so leichtgläubig und fällst auf den ganzen Hype rein? Ich erinnere mich nur an die angeblich hunderten Design wins, die AMD errungen haben will mit Bullodozer basierenden CPUs. Komischerweise hat man davon nichts gesehen. Auch diese Meldung ist wieder arg komisch. Ryzen besitzt weder eine integrierte Grafik noch können die Quadcore Modelle richtig tiefe Preisregionen angreifen. Den größten Anteil am OEM Markt kann Ryzen somit gar nicht erst bedienen.

Ohne den link gelsen zu haben 4core und igpu hört sich nach raven ridge an also ryzen mit g zusatz.

gmb
2017-03-28, 11:45:30
Einen Designwin bekommt man üblicherweise vor der Markteinführung eines Produktes und R5 und R3 stehen ja noch aus. Also ich kann hier keinen Widerspruch entdecken.


Design wins kann es auch geben bzw. muss es zwingend geben, bevor die CPU im Endkundenmarkt angekommen ist. Und weder R5 noch R3 besitzen eine integrierte GPU.

Die Meldung ist übrigens nichtssagend:


Ryzen has won designs at every major OEM, which speaks far more to its success than mere benchmarks do.


Da hat sich vinacis_vivids einiges dazugedichtet. Große Design wins Meldungen gab es schon immer bei AMD, was daraus geworden ist, ist ein ganz anderes Thema.


Ohne den link gelsen zu haben 4core und igpu hört sich nach raven ridge an also ryzen mit g zusatz.


Kommt erst nächstes Jahr, das ist jetzt noch kein Thema.

dargo
2017-03-28, 11:51:36
Ryzen besitzt weder eine integrierte Grafik noch können die Quadcore Modelle richtig tiefe Preisregionen angreifen. Den größten Anteil am OEM Markt kann Ryzen somit gar nicht erst bedienen.
Ähm... was?
https://www.custompcreview.com/news/rumor-new-amd-ryzen-price-list-emerges-8-core-ryzen-cpu-350/37877/

Der R3 1100 ist ~29% günstiger als ein i3-7350K und dürfte somit in DE 130-140€ kosten. Selbst der R3 1200X wird günstiger als ein poppeliger i3 von Intel sein.

vinacis_vivids
2017-03-28, 11:51:52
Jetzt kommt schon wieder der große "Intel Inside" Insider und fühlt sich angepikst.
Was hab ich da wieder ins Wespennest gestochen zummal er versucht hat die Gaming Delle größer zu reden als sie ist. Sein Fazit war ja recht schnell am Releasetag gemacht und auf dem Level von "Ach AMD".

Screemer
2017-03-28, 11:51:58
ich würde jede wette darauf eingehen, dass rr noch dieses jahr kaufbar ist.

Emperator
2017-03-28, 11:55:24
@Emperator,

bleiben wir mal im Deutschem Gefilde, da kostet er neu 3,90€ mehr als im Outlet.

Wieso sollte man als Kunde nicht von der Globalisierung profitieren? Es gibt keinen Grund nicht bei Amazon.fr zu bestellen und 50€ zu sparen.
Die Gewährleistung/Service/Rückgabe ist die gleiche wie beim deutschen Amazon und der französische Service antwortet auch auf deutsche Anfragen für alle die weder Französisch/Englisch sprechen können oder wollen ...